建立道德和负责任的AI系统并非始于技术团队

发布时间: 2020-06-29 21:52:49 来源:

马尔科姆·格拉德威尔(Malcolm Gladwell)在他的《与陌生人交谈》一书中讨论了一个AI实验,该实验研究了纽约市法官进行的554,689次保释听证。正如一个在线出版物所指出的那样:“在释放的40万人中,有40%的人没有在随后的审判中露面,或因另一种罪行而被捕。”但是,由机器学习算法建议的拘留或释放对象的决定将使犯罪减少25%。这是一个人工智能系统比人类更少偏见的示例。但是,并非总是如此。

人工智能系统越来越多地用于决策。例子包括刑事司法,信贷/贷款,招聘,教育和临床诊断。在AI出现之前,联邦,州和地方法律主导着这些决定,因此它们是公平,透明和公平的。由于AI算法是从大量数据中学习的,因此AI构建的机器学习模型可以放大数据中存在的某些固有偏差。这就引出了道德上合理的人工智能系统的问题,该系统的输出不会遮盖人类的判断力。

教科文组织将“道德的AI”一词定义为“尊重人权和基本自由,应视为基本价值之一,因为必须根据国际人权标准进行AI技术的开发,部署和采用。”提到的其他原则还包括关于歧视和偏见以及维护社会和文化多样性,不同价值体系,不同年龄段,残疾人,妇女和女童以及处境不利,边缘化和脆弱人群的特殊需求等问题的包容性AI。

人工智能和机器学习的飞速发展不仅提供了创新的解决方案,而且还带来了挑战,以理解和确定系统的道德含义。

以在线虚假信息为例,并使用AI的自然语言处理故意传播虚假叙述。在大多数情况下,其目的是散布错误信息并改变当下的叙述。根据斯坦福大学的一项研究,假新闻对于2016年美国总统大选至关重要。社交媒体凭借其参与和告知的能力,受到假新闻生成器和机器人的操纵,以使人们两极分化并引起混乱。社交媒体组织现在正努力应对发现虚假新闻的挑战,并同时使用人工智能系统和人类策略来阻止虚假信息的传播。

面部识别技术是AI应用的道德困境的另一个例子。面部识别被执法机构广泛使用,以确保我们的安全。尽管这项技术已经存在了二十多年,但现在,AI使在几秒钟内识别数百万个图像变得更加容易。虽然AI承诺指出两张面孔之间的差异,但问题是,误报是否会导致错误识别个人的不良后果?尽管它是刑事侦查人员的宝贵法医工具,但最近有关使用该技术的争议导致旧金山等城市禁止警察和其他机构使用面部识别软件。

当涉及到AI的道德使用时,毫无疑问,深造的假货适合该法案。这就是被称为生成对抗网络(GAN)的AI技术发挥作用的地方。GAN使用公开的视频素材,可以从这些视频中学习以模仿人类的表情。然后将它们用于将自己的图像和声音与其他任何可用于创建恶意新闻的视频并置。这种类型的视觉交流不信任会破坏一个人的信誉。由于视频更可能在社交媒体上共享,因此会导致玩世不恭,嘲笑和失去目标受害者的面目。在当今的政治气氛中,这也是不信任的原因,并且可能助长动荡和危害公民文化。

在AI系统的设计,开发和实施方面,建立利益相关者委员会和咨询小组讨论道德是一个很好的起点。偏见,公平,透明和责任感的问题必须处理到每一步。一支多元化的团队将带来各种解决方案的多种观点,应讨论每种解决方案的优缺点。

与传统软件系统不同,系统输出和决策背后的原理在机器学习驱动的AI应用程序中至关重要。此外,委员会不仅应考虑技术解决方案的经济影响,还应考虑其如何影响人类经验。除非我们花费时间和精力来设计以人为本的AI解决方案,否则我们将冒着分裂社会,加剧不信任感和恐吓感的风险。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。
Top