去年,人工智能的内容创作能力飞速发展,但写作行为仍然非常个人化。当人工智能用于帮助人们交流时,尊重信息的原始意图至关重要——但最近的创新,尤其是生成式人工智能,已经超越了现有的提供负责任的写作辅助的方法。
在考虑AI书写系统的安全性和公平性时,研究人员和行业专家通常会专注于识别有毒语言,例如贬义词或粗言秽语,并防止它们出现在用户面前。这是让模型更安全、确保它们不会产生最糟糕内容的重要一步。但仅靠这一点还不足以让模型变得安全。如果模型生成的内容在单独情况下完全无害,但在特定情况下却变得令人反感,该怎么办?“往好的方面想”这样的说法在轻微不便的情况下可能是积极的,但在战争的情况下却极具冒犯性。
作为AI开发者,我们仅仅屏蔽恶意言论并不足以声称我们的模型是安全的。为了真正提供负责任的AI产品,我们必须了解我们的模型是如何工作的、它们的缺陷是什么以及它们可能在什么情况下使用——并且我们必须实施控制措施以防止我们的AI系统与用户之间发生有害的互动。
根据Forrester的一项研究,70%的人在工作中大部分或全部写作和编辑工作都使用生成式人工智能。随着生成式人工智能工具的使用增加,越来越多的内容与人工智能、机器学习(ML)和大型语言模型(LLM)进行定期交互。
我们知道人工智能会犯错。通常,当人工智能模型提出的建议改变了句子的含义时,这是一个无害的错误——可以简单地拒绝它。随着技术的进步和开发人员越来越依赖法学硕士,这种情况变得更加复杂。例如,如果法学硕士容易产生政治偏见,那么允许它生成政治报道可能不负责任。如果它容易产生错误信息和幻觉,那么允许它生成医疗建议和诊断可能是危险和不道德的。不适当输出的风险要高得多,无害错误不再是唯一的结果。
我之前提到过,在当今的生态系统中,屏蔽恶意语言不足以阻止人工智能系统与我们的用户之间发生危险的互动。当我们花时间探索我们的模型如何工作、它们的弱点以及它们将用于哪些环境时,我们可以在这些示例以及更多示例中提供负责任的支持:
生成式AI写作工具可以起草一份医疗诊断摘要。然而,考虑到插入误导性或脱离上下文的信息的风险,我们可以通过使用正确的ML模型作为护栏,防止LLM返回不准确的信息。
政治观点千差万别,而人工智能产品的建议或输出很容易曲解观点的完整性,因为它无法理解其意图或背景。同样,精心设计的模型可能会阻止法学硕士参与某些政治话题,因为这些话题可能存在误导或偏见的风险。
如果您正在向同事写一封慰问信,模型可以阻止人工智能写作助手做出不合时宜的建议,以使其听起来更积极。
有助于实现此类结果的机制的一个例子是仪——这是同类模型中第一个可以叠加在大型语言模型和专有机器学习模型之上的模型,可以降低出现不准确输出的可能性。就像仪测量波一样,仪技术可以检测和测量文本的敏感度,以便模型知道如何参与,从而最大限度地减少对客户的负面影响。
Seismograph只是一个例子,它展示了如何通过混合构建方法(将LLM、ML和AI模型协同工作)创建更值得信赖和可靠的AI产品。通过降低AI在没有适当背景的情况下提供不良内容的可能性,该行业可以从同理心和责任的角度提供AI沟通帮助。
负责任的人工智能的未来
当人工智能沟通工具主要局限于基本的写作技巧时,无论上下文如何,写作建议造成的潜在损害都是微乎其微的。如今,我们依靠人工智能来完成更复杂的写作任务,而上下文很重要,因此人工智能提供商有更大的责任确保他们的技术不会产生意想不到的后果。
产品制造商可以遵循以下三个原则来对自己负责:
1.测试产品的薄弱环节:红队测试、偏见和公平性评估以及其他压力测试可以在漏洞对客户造成重大影响之前发现它们。
2.确定全行业的解决方案,使构建负责任的人工智能变得更容易、更容易获得:负责任的方法的发展有助于我们所有人提高产品质量,并增强消费者对人工智能技术的信任。
3.在产品开发过程中嵌入负责任的AI团队:如果没有人明确负责确保模型的安全,这项工作可能会失败。公司必须优先考虑负责任的AI团队,并授权他们在构建新功能和维护现有功能方面发挥核心作用。
这些原则可以指导行业的工作和开发像仪这样的公开模型的承诺。通过这样做,我们证明了行业可以领先于风险,并为人们提供更复杂的建议和生成的输出,而不会造成伤害。