查看原文
其他

刚刚!FDA关于AI药物研发的最新文件来了

智药局 智药局 2023-08-18


今年2月,FDA就AI辅助制药征集意见,涉及创新药、仿制药及生物制品等领域。

现在,最新的进展来了。

美东时间5月10日,FDA就AI/ML(人工智能/机器学习)在药物研发和生物制品中的应用发表了一份31页的讨论文件,展示了其对AI制药的认知和监管思路。

FDA表示,在过去几年中使用 AI/ML 软件提交的药物和生物申请数量显着增加,仅在2021年就有超100份申请

AI/ML无疑将在药物开发中发挥关键作用,FDA将基于风险的监管框架,制定和采用灵活的政策,以促进创新并保患者安全。

AI/ML在药物开发中扮演什么角色?

该讨论文件由FDA的药物评估和研究中心 (CDER) 与生物制品评估和研究中心 (CBER) 以及器械和放射健康中心合作 (CDRH),包括数字健康卓越中心 (DHCoE)共同发布。


文件考虑了 Al/ML 在药物开发过程的广泛背景下的应用,但不是 FDA 指南或政策。在本讨论文件中,讨论了三个主要主题:


AI/ML 当前和潜在用途的概况:FDA 认识到 Al/ML 在许多方面增强药物开发的潜力,并提供了示例。


使用AI/ML的考虑因素FDA 也意识到 Al/ML 等新兴创新的潜在担忧和风险,并将就如何帮助确保在药物开发中负责任地使用 Al/ML 分享初步考虑并征求反馈。


后续步骤和利益相关者参与FDA对与所有相关者接触的机会感兴趣,以建立对 Al/ML 系统及其在药物开发中快速发展的潜在用途和考虑因素的共同理解。


针对AI/ML在药物开发过程中的应用现状和潜在应用,FDA列举了包括:


  • 药物发现:药物靶点的识别、选择和优化;化合物筛选与设计;


  • 非临床研究:如在动物身上进行的药代动力学、药效学和毒理学研究;在动物模型中进行的探索性体外和体内机制研究;器官芯片和多器官芯片系统等。


  • 临床研究:患者招募;试验者的选择和分层;给药方案优化;依从性改善;提高患者保留;地点选择;临床试验数据的收集、管理和分析;临床终点评估


  • 上市后的安全监督:案例处理、评估和提交


  • 先进医药制造:工艺设计优化;先进过程控制;智能监控和维护;趋势监测


FDA表示,认识到AI在整个药物开发生命周期中的使用增加,及其加速安全有效药物开发的潜力。


在过去的几年里,FDA已经看到了参考AI/ML的提交数量的快速增长,包括AI/ML在内的药物和生物产品的提交量已经增加到2021年的100多份,其中临床开发/研究阶段是AI/ML最常见的阶段。


Al/ML已广泛应用于药物开发并在不断发展,但对于 Al/ML是否会带来特定的风险和危害的担忧也引发了对可信赖人工智能开发标准的关注。


FDA有何看法?


FDA旨在药物开发中AI/ML的三个关键领域展开讨论并征求反馈:


一、以人为本的治理、问责制和透明度

人类主导的人工智能模型能帮助确保遵守法律和道德价值观,其中问责制和透明度对于开发值得信赖的人工智能至关重要。这种治理和明确的问责制可以扩展到药物开发过程中AI/ML的规划、开发、使用、修改和终止的范围。

这些问题包括:


  • 在药物开发中的AI/ML的哪些具体用例或应用中,最需要额外的监管清晰度?


  • 在药物开发中使用AI/ML时,透明度意味着什么?

    例如,透明度可以被认为是关于AI/ML模型的适当信息——包括其使用、开发、性能,以及可用的逻辑——清楚地传达给监管机构和/或其他利益相关者的程度


  • 在药物开发过程中使用AI/ML的透明度的主要障碍和促进因素是什么(以及在什么情况下)?


  • 当AI/ML用于药物开发时,利益相关者使用哪些良好实践来提供基于风险的、有意义的人类参与?


  • 采用什么过程来增强和启用可追溯性和可审核性?


  • 如何管理预规范活动,捕获和监测变更,以确保在药物开发中安全有效地使用AI/ML ?


二、数据的质量、可靠性和代表性


AI/ML对用于训练、测试和验证的数据的属性或特征特别敏感。然而数据需要考虑偏见、完整性、隐私和安全、出处、相关性等各种问题,对此FDA也提出疑问:


  • 在药物开发过程中,AI/ML存在哪些额外的数据考虑因素?


  • 在药物开发中使用AI/ML时,开发人员、制造商和其他利益相关者目前正在使用哪些实践来帮助确保AI/ML的完整性或解决诸如偏见、缺失数据和其他数据质量考虑等问题?


  • 利益相关者使用哪些关键实践来帮助确保数据隐私和安全?


  • 涉众利用哪些关键实践来帮助解决可再现性和可复制性问题?


  • 开发人员使用什么流程来识别和管理偏见?


三、模型开发、性能、监控和验证


在评估AI/ML模型开发和性能时,模型的使用是重要的考虑因素。

模型风险由两个因素决定,这两个因素是受使用背景影响:模型影响(模型在特定决策的全部证据中的权重)和决策后果(错误决策的潜在后果)


可信赖的AI模型需要考量以下问题:


  • 利益相关者正在使用的当前工具、流程、方法和最佳实践的一些例子是什么?

(1)记录可应用于药物开发背景下的AI/ML模型的开发和性能;


(2)在给定的使用环境选择模型类型和算法?


(3)在给定的使用环境中,决定何时使用特定的方法来验证模型和度量性能(例如,选择相关的成功标准和性能度量)?


(4)评估透明度和可解释性并增加模型透明度?


(5)解决准确性和可解释性的问题(例如,模型可能提供更高的准确性,同时在可解释性方面有限制的场景)?


(6)为AI/ML模型开发选择开源AI软件?使用开源人工智能软件时需要考虑哪些因素?


(7)使用真实世界数据监测AI/ML中的应用?


  • 使用哪些实践和文档来通知和记录数据源,并选择和纳入或排除标准?


  • 涉众处理可解释性的使用上下文是什么,您如何平衡性能和可解释性的考虑?


  • 利益相关者在什么样的使用环境中处理可解释性,如何平衡性能和可解释性?

  • 使用什么方法来记录模型预测中的不确定性评估?不确定性是如何传达的?应该制定哪些方法和标准来帮助支持不确定性的评估?


在模型开发、性能、监控和验证领域,当考虑人工智能/机器学习的具体用途时,风险知情可信度评估框架可能是有用的指南。

一般来说,使用基于风险的方法可以指导特定使用环境下AI/ML模型的验证和确认所需的证据和记录保存水平。在早期与FDA的接触也可以帮助告知和解决这些问题。


下一步:参与与合作

该文件的目的是,当FDA之后与利益关联人沟通AI/ML在药物和生物制品中的监管时,能够作为一项考虑因素。


与此文件相结合,以及一系列反馈问题,FDA计划与利益相关人员一起举办研讨会。同时FDA还计划在多种机制下讨论,包括与患者、赞助商、开发人员就AI这一主题进行接触。


甚至在其他会议,例如关键路径创新会议(CPIM), ISTAND 试点计划,新兴技术计划和真实世界证据计划等,都会沟通相关议题。


简单而言,此讨论文件的基础上,FDA将继续征求反馈意见,并与广泛的利益相关者团体进行接触。而这些讨论和合作,将成为未来监管AI在药物研发应用中的框架和指导基础。    

(后台回复FDA即可获得上述文件)

参考链接:
https://www.fda.gov/science-research/science-and-research-special-topics/artificial-intelligence-and-machine-learning-aiml-drug-development

—The End—

推荐阅读

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存