欢迎您注册蒲公英
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
本帖最后由 沁人绿茶. 于 2025-5-10 20:23 编辑
撰稿 | Paul
来自 | 蒲公英Ouryao
5月8日,美国FDA发布新闻稿宣布,将在6月30日前在全FDA范围内部署生成式人工智能(AI)辅助科学审评系统。
FDA局长马卡里(Martin Makary)指出,这一决策源自新完成的AI审评试点,其结果令他“非常震撼”,可让审评专家摆脱历史上大量“非生产性”的重复性工作,从而加速新疗法的审评速度。 官宣还提到,新AI工具可以让审评工作在几分钟内完成过去需要三天的任务,极大提高工作效率。业内报道称,FDA此举将显著提升审评效率,助力更快地将创新药物推向市场。
背景与计划概述近期,FDA一直致力于缩短新药上市周期。5月6日,美国医院协会(AHA)年会上,FDA局长马卡里质疑:“为何新药从研发到上市需要十多年?我们为何不能利用AI等先进技术进行现代化?”。
他透露,FDA刚完成首例AI辅助科学审评试点,并计划今夏将该模式在FDA内部推广,以缩短审批流程。马卡里对AI在加速糖尿病和某些癌症新疗法审批中的潜力持乐观态度。这一表态表明,FDA高层对利用AI技术提升审评效率寄予厚望。 FDA公布的AI审评计划主要涵盖以下几个要点: 时间表:FDA要求各中心在2025年6月30日前完成AI系统部署,实现全FDA应用。这意味着FDA将按照“野心勃勃”(aggressive)的时间表推进,较传统审评流程更为紧迫。 技术方案:生成式AI工具将协助科学审评人员自动化处理重复性任务和文本分析工作,以缩短审核时间。FDA新闻稿中提到,这些工具能将本需三天完成的审评任务缩短到几分钟,被称为“游戏规则改变者”(game-changer)。 平台建设:各中心将通过一个统一、安全的生成式AI平台对接内部数据系统,实现资源共享。报道显示,到6月底,所有中心都将运行在连接FDA内部数据平台的同一AI系统下,有助于保障数据安全并确保合规。 组织架构:FDA新任首席AI官Jeremy Walsh牵头该项目,前CDER商业信息化主管Sridhar Mantha协同负责实施。两人将主导项目执行,关注性能评估、用户反馈和系统可持续性等方面。Walsh此前曾负责联邦医疗健康技术项目部署,此番上任首席AI官旨在加速FDA内部的技术革新。 后续计划:完成基础部署后,FDA将继续扩充AI应用场景、改进功能,包括增强文档处理能力、优化用户界面,以及为各中心特定需求提供定制化输出。官宣还指出,FDA将收集用户反馈,并在今年6月公开项目进展,确保信息安全与政策合规的前提下逐步完善系统。
技术框架与执行路径从技术角度看,FDA计划采用先进的生成式人工智能模型来辅助审评工作。这些AI工具类似大型语言模型(如GPT-4等),能够理解和摘要临床试验数据报告、医学文献及申报资料中的复杂信息,提高信息检索效率。媒体报道称,FDA已与OpenAI高层进行多轮会谈,共同讨论一个名为“cderGPT”(Center for Drug Evaluation and Research GPT)的项目,旨在将AI应用于药物评估。
据悉,该项目由首席AI官Walsh牵头推动,重点讨论利用先进模型辅助科学审查,但目前尚未签署正式合同。目前公告所指的AI平台将是内部开发或部署的通用系统,与FDA现有审评数据库和流程深度集成。部署完成后,AI系统可基于过往审评数据和文献,为审评专家提供智能摘要、自动校对、风险预测等功能,从而节省审评时间。 执行路径上,FDA要求各中心立即行动,力争6月底前完成全员培训和系统上线。到目标日,各中心将全线运行该AI平台,并进行初步评估。后续几个月内,FDA计划持续扩展AI工具的使用场景,改进系统功能,如增强文档整合能力和提供更个性化的报告等。FDA还承诺将定期公开项目进展,预计今年6月就会发布下一步实施情况。此外,FDA新闻稿中强调,AI应用必须严格遵守FDA政策和联邦法规,确保信息安全和合规。
数据治理与合规
鉴于AI工具将处理大量内部评审数据,数据治理和安全成为核心问题。FDA计划将在受控的内部网络环境中运行AI系统,杜绝评审资料外泄。 公告指出,到6月底,所有中心都将在与内部数据系统对接的统一、安全平台上运行AI工具,这有助于防止敏感信息外泄并符合联邦数据保护要求。为此,FDA将采用多重防护措施,如严格的身份认证、访问控制和审计日志机制,确保对AI生成的每项输出都可追溯和验证。 FDA声明显示,AI系统是为了辅助专家,而非取代他们;它可以用于预测某些毒性和不良反应,进而增强监管严谨性,但最终审评判断仍掌握在人类手中。未来监管中,也将完善AI模型的验证流程,确保算法的公平性和透明度,以防范因偏差而产生的风险。 此次FDA推动审评AI化,对医药行业具有重要影响。近年来,制药行业已广泛应用AI技术,从新药发现到临床研发、生产和营销等各环节均在利用智能工具提高效率。FDA此举意味着监管流程也将进入智能化阶段,企业有望借此获得更快的审批速度和更高的透明度。 然而,这种变革也带来新挑战:
审评人员如何验证AI输出的可靠性?
算法偏差可能导致错误结论;对于模型训练所用的数据隐私和知识产权如何保护?
监管机构如何确保AI在符合法规要求的前提下运行? 行业专家指出,完善的AI监管框架不仅要评估AI工具本身的安全性和有效性,还要关注数据隐私保护、算法透明度和责任归属等问题。各界呼吁在促进创新的同时,建立明确的审查标准与责任机制,确保AI赋能不会削弱审评质量。
全球视野:AI监管发展趋势
FDA的行动体现了全球范围内对AI技术监管的高度关注和快速响应。在欧盟,近日欧洲药品管理局(EMA)2025–2028年工作计划专门强调了AI应用:计划2025年第二季度发布AI监管原则文件,第四季度与国际合作伙伴共同制定相关指导原则。与此同时,欧盟层面正在推进《人工智能法案》,未来可能对高风险医疗领域的AI系统设立严格要求。 英国方面,政府于2025年3月发布的“监管现代化行动计划”对AI监管提出总体思路,参照1月份出台的《AI机遇行动计划》内容,呼吁快速为前沿AI模型建立监管准则,并计划将英国AI安全研究所(AISI)转为法定机构。目前英国尚未出台专门的AI法规,但总体上采取“创新友好型”策略,以平衡效率和安全。
中国国家药监局也早在2019年就发布了辅助决策医疗器械软件的审评要点,并持续研究AI产品的分类和评价框架。
可以看出,各国均在从理论探讨走向实践应用,一方面探索AI技术带来的监管效益,另一方面加强对数据安全、算法可靠等方面的管控。未来,在国际协作下,AI有望成为全球药品审评效率提升的新驱动力,同时需要多方合作构建信任、安全的监管生态环境。
|