之间网

工作组首次推出医疗保健可信度人工智能标准

人工智能
导读 消费者技术协会 (CTA) 表示,人工智能的一些问题,例如黑盒问题,在应用于医疗保健时可能会让人怀疑该技术,该协会已经发布了一项标准来

消费者技术协会 (CTA) 表示,人工智能的一些问题,例如黑盒问题,在应用于医疗保健时可能会“让人怀疑”该技术,该协会已经发布了一项标准来确定人工智能的核心要求和基线被视为值得信赖的解决方案。

“AI是提供解决方案-从诊断疾病,以先进的远程服务的选择-对于一些医疗的最紧迫的挑战,”盖瑞·夏培罗,CTA的总裁兼首席执行官,说在一份声明。“由于医疗保健系统面临临床医生短缺、慢性病和致命的流行病,因此危重患者和医疗保健专业人员信任这些工具的开发方式及其预期用途。”

该标准涵盖了三个可信领域:人的信任、技术的信任和监管的信任。根据标准,第一个涉及人工智能开发人员和用户之间的信任。开发人员应该确保明确系统可以做什么和不能做什么,系统可以执行多好,并将系统的能力置于上下文中。

技术信任与 AI 系统的工作方式有关——偏差最小化,数据安全且私密,遵循 HIPAA 要求,用于训练 AI 系统的源数据是好的数据。监管信任包括监管者感兴趣的主题,从数据隐私法、FDA 和 FTC 法规、州医疗委员会和其他法律。

该标准概述了模型开发人员要遵循的众多要求,以便满足每个级别的可信度。它由 CTA 召集的 60 多个组织创建,并获得 ANSI 认可。CTA 发起了一项关于医疗保健人工智能的计划,其医疗保健人工智能工作组的成员规模在过去两年中翻了一番,达到 64 个组织和成员公司。根据一份新闻稿,该标准代表了一系列专注于实施基于人工智能的医疗和保健解决方案的第二个标准。

飞利浦全球软件标准监管负责人兼工作组联合主席 Pat Baird 在一份声明中表示:“建立这些信任支柱代表着人工智能在医疗保健领域的应用向前迈进了一步。” “人工智能可以帮助护理人员花更少的时间在电脑上,更多的时间花在病人身上。为了实现这一目标,我们意识到需要不同的方法来获得不同人群的信任,而人工智能解决方案需要使我们的客户、患者和整个社会受益。”