医疗 AI 算法中的偏差可能对少数族裔患者产生严重影响,这就是 IBM Research 和 Watson Health 研究人员发起一项新研究的原因,以检验解决此问题的最佳方法。
该研究最近发表在JAMA Network Open 上,研究了各种 AI 算法对影响孕妇的一种非常常见的疾病的影响。研究人员分析了近 600,000 名医疗补助覆盖的女性的产后抑郁症和心理健康使用情况,并找出算法偏差的存在。然后,他们介绍并评估了对抗这些偏见的方法。
研究人员首先寻找训练数据中的偏差,然后应用称为重新称重 9 和偏见去除器的去偏差方法来减轻任何偏差。然后,他们将这两个模型与另一种从数据中完全消除种族的去偏差方法进行了比较,称为公平性通过无意识(FTU)。
不出所料,该研究表明,在有偏见的数据上训练的 AI 算法可能会对某些不同人群的患者产生不公平的结果。占队列 55% 的女性更有可能被诊断出患有产后抑郁症,并且接受心理健康服务的发生率更高。
这一发现与医学文献背道而驰,医学文献表明少数族裔女性的 PPD 发生率更高,这更常见。IBM 研究中心计算健康中心的第一作者 Yoonyoung Park 科学博士写道,这表明“黑人女性在及时评估、筛查和症状检测方面存在潜在差异”。
机器学习模型还预测了不平等的结果,有利于已经处于诊断和治疗劣势的女性。在被预测具有类似风险的黑人女性中,健康状况更差。
研究作者说,模型中不考虑种族是“低劣的”,而与基线或 FTU 模型相比,这两种去偏见方法实际上会为黑人女性分配更多资源。换句话说,去偏差方法将有助于为患者产生更公平的结果。