对或错?每次软件开发人员将 FDA 批准的软件作为医疗器械产品进行重大更新时,SaMD 都可能面临该机构的重新审查。
答:的确,尽管在硬扶着可能有一个警告:评价过程的严谨性取决于设备的风险分类和本质的变化。
因此,皮尤组织在 8 月 5 日发布的关于医疗保健领域人工智能的详尽入门书中提醒了这一点。
这篇文章专注于 FDA 对该技术的监督,但也提供了有关其兴起、使用和可采用性挑战的很好的背景资料。
Pew 澄清了对已经批准的 SaMD 产品进行 AI 额外审查的问题,指出 FDA 通常根据这些产品对患者造成的风险水平进行监管,如果软件误导了护理。
“如果该软件旨在治疗、诊断、治愈、减轻或预防疾病或其他病症,FDA 将其视为医疗设备,”文章指出,并补充说,大多数被视为医疗设备且依赖 AI/ML 的产品都被归类为作为SaMD。
风险决定等级
此外,监管决策基于设备所属的风险分类:
I 类设备的风险最低,因此获得的审查最轻。Pew 以 SaMD 为例,它仅限于显示来自连续血糖监测仪的读数。
II 类设备被认为是中到高风险,“可能包括 AI 软件工具,可以分析医学图像,例如乳房 X 光照片,并标记可疑发现以供放射科医生审查。”
III 类设备的风险最高。该分类包括“支持生命、维持生命或在预防人类健康损害方面非常重要”的产品。
此外,III 类设备必须经过完整的 510(k) 上市前审查,软件开发商提供安全性和有效性的临床证据。
同时,I 类和 II 类设备制造商有时可以申请 De Novo 批准。这是 FDA 授予具有新功能或更好功能但具有已知安全且经过良好测试的底层软件的设备。
与偏见作斗争
“与任何数字健康工具一样,人工智能模型可能存在缺陷,给患者安全带来风险,”皮尤评论道。“这些问题可能源于多种因素,包括用于开发算法的数据问题、开发人员在构建和训练模型时做出的选择,以及最终如何部署支持 AI 的程序。”
至于广泛讨论的医疗保健 AI 使用偏见带来的挑战,该组织认为,用于临床实践的算法“必须仔细评估,以确保 [它们的] 性能可以应用于不同的患者和环境。”