临床实验室存储了大量客观且结构化的患者数据,这些数据已准备好使用AI进行挖掘。鉴于这一现实,病理学家和医学实验室人员必须制定并遵守指导技术道德使用的原则。
为此,该领域的一组专家充实了相关问题,在学术病理学中发表了不具约束力但有见地的指导。
犹他大学的医学博士BrianJackson及其同事写道,病理学家和其他实验室专业人员“在战略和操作上都是管理系统的高度专家”。“他们是应用新技术在卫生系统层面提供安全、高质量医疗保健的专家。”
该团队建议,这些资格和其他条件使该领域“从创新角度和管理/治理角度在病理AI中发挥主导作用”。
该团队列举了八项健全的伦理原则,以保护人工智能在病理学和实验室医学中的发展和使用,其中大部分似乎很容易推广到其他医学专业:
1.人工智能系统的开发人员应主动告知患者和公众他们的数据是如何收集和用于开发和验证开发人员系统的。
2.临床组织和开发者应提供知情的个人来控制他们的个人数据是否以及如何用于病理AI系统的开发。
3.病理AI系统的开发者、验证者和实施者应确保他们的系统为患者和/或人群提供可衡量的利益,同时将风险和危害降至最低。
4.病理AI系统的开发者、验证者和实施者应确保开发过程和由此产生的开发系统促进所有人群的公平治疗。
5.病理AI系统的开发者和实施者应确保其系统足够透明和可审计,以确保遵循上述原则。
6.病理人工智能系统的开发者、验证者和实施者应遵循广泛的知识共享和研究诚信的科学规范。
7.病理AI系统的开发者、验证者和实施者应建立类似于机构审查委员会的正式监督机制,以确保对这些道德原则负责。
8.参与开发、验证、实施、销售或购买病理AI系统的组织应通过合同等正式机制让彼此对这套道德原则负责。
“人工智能是一套越来越强大的技术,有可能推动病理诊断学和实验室医学的发展,造福患者,”杰克逊和合著者写道。“然而,人工智能带来了收益、风险和成本的复杂组合。在最大限度地降低风险和成本的同时最大化收益需要在道德框架内管理技术。病理学家和其他实验室专业人员,以及他们的临床和学术组织以及潜在的行业合作伙伴,有义务在他们自己的组织内和与外部合作伙伴一起促进合乎道德的AI开发、验证和实施。”