在医疗保健 AI 能够实现从实验室到诊所的广泛转换之前,它需要克服其产生会加剧社会差异的有偏见的输出的倾向。
专家和监管机构对此达成的共识是显而易见的。
越来越多的人就治愈方法达成共识:可解释的医疗保健人工智能。
一个国际和多学科的学术团队警告说,不要那么快。
该小组在7 月 16 日发表在《科学》杂志上的一篇论文中写道,后者的共识“既夸大了要求黑盒算法可解释的好处,又低估了其缺点。”
该论文的主要作者是多伦多大学的 Boris Babic,JD、PhD(哲学)和 MSc(统计学)。资深作者是 I. Glenn Cohen,法学博士,哈佛法学院 Petrie-Flom 卫生法政策、生物技术和生物伦理学中心主任。
在充实他们的论点的过程中,作者提供了有关可解释与可解释人工智能(和机器学习)之间差异的有用入门。
他们写道,可解释的 AI/ML 是论文主旨的旁白,“使用一种易于消化的透明 ['白盒'] 功能”。
相比之下,可解释的人工智能/机器学习“找到了一个可解释的函数,它非常接近黑匣子的输出。… [T]黑匣子的不透明功能仍然是 AI/ML 决策的基础,因为它通常是最准确的。”