witter正在招募 HackerOne 社区的帮助,以尝试通过其 AI 模型解决令人不安的偏见。Twitter 使用的图像裁剪算法旨在将图像中最有趣的部分保留在人们时间线的预览裁剪中。这一切都很好,直到去年用户发现它更喜欢浅肤色而不是深色,更喜欢女性的胸部和腿部。当研究人员将一张黑人男子和一名妇女的照片输入系统时,该算法在 64% 的情况下显示妇女,而在 36% 的情况下显示黑人男子。对于女性和黑人女性的图像,该算法在 57% 的时间内显示女性。
Twitter 已向任何在其算法中发现有害偏见证据的人提供 500 至 3500 美元不等的奖金。任何成功的人都将被邀请参加主要的黑客大会DEF CON。
Twitter 软件工程总监 Rumman Chowdhury 和产品经理 Jutta Williams 在博客文章中写道:
“我们希望通过邀请和激励社区来帮助识别该算法的潜在危害,从而使这项工作更进一步,超出了我们自己的认识。”
在最初否认这个问题之后,很高兴看到 Twitter 承担责任并试图解决这个问题。该公司表示,通过这样做,它希望“在 Twitter 和行业内树立一个先例,以主动和集体识别算法危害。”
来自 Twitter 机器学习道德、透明度和问责制部门的三名员工在他们自己的测试中发现了偏见,并声称该算法平均而言,与深色皮肤相比,显示肤色较深的人的可能性高约 4%,显示女性的可能性高 8%与男性相比。
然而,工作人员没有发现任何证据表明人们身体的某些部位比其他部位更容易被展示。
他们在 arXiv 上发表的一篇论文中解释说:“我们发现,每个性别的 100 幅图像中不超过 3 幅的头上没有剪裁。”
Twitter 已经逐渐放弃了其有问题的图像裁剪算法,并且似乎并不急于在短期内恢复它:
取而代之的是,Twitter 一直在推出让用户控制图像裁剪方式的功能。
“我们考虑了自动裁剪的速度和一致性与我们在这项研究中看到的潜在风险之间的权衡,”乔杜里在 5 月份的一篇博客文章中写道。
“我们的一个结论是,并非 Twitter 上的所有内容都适合算法,在这种情况下,如何裁剪图像是人们最好的决定。”