这类似于 ChatGPT 所做的事情,也是为什么人们用“幻觉” 负责任的人工智 这个词来描述它所产生结果的原因。与儿童天真无邪且通常可察觉的虚构世界不同,ChatGPT 在呈现方面具有权威性;有些情况下,它会创建看似可信但实际上并不存在的内容和引文。 《纽约时报》最近的这篇文章引用了几个这类听起来可信的捏造的例子。我们在回应医疗问询(提示)时特别看到了这些类型的结果,如果你想到医疗专业人员使用 ChatGPT 进行研究,这是一个危险的结果。
自然,这引出了负责任的人工智能的问题。它在哪里发挥作用?它意味着什么?谁负责实施它?即使有谨慎的说法,在负责任的人工智能对话中,有些事情并没有得到太多讨论——问题就在这里——对负责任的人工智能没有一个统一的定义。
什么是负责任的人工智能?
负责任的人工智能就像 20 世纪 60 年代美国最高法 目标电话号码或电话营销数据 院关于淫秽定义的一项著名裁决,法官波特·斯图尔特 (Potter Stewart) 曾说过一句名言:“我一看到就知道是淫秽。”很高兴看到,即使在法律环境中,有时实用性也会占上风。对于负责任的人工智能来说,情况可能正好相反:“你没看到就知道是淫秽。”
2022 年初,expert.ai 花费了大量时间开发和提供我们自己的概念版本(我故意在这里没有使用“定义”一词)。我们与 250 多个客户和 350 多个项目合作的经验告诉我们,通过使用可以结合基于规则的方法的混合 AI,企业可以从“黑匣子”AI 转向我们所谓的“绿玻璃AI 方法”。
混合 AI 方法使用不
同的技术来解决问题。例如,在涉及自然语言的场景中,您可以通过 LLM、机器学习或基于规则(或语义)的方法的组合来解决用例。混合方法使用其中多种方法来提供解决方案。您可以在此处了解有关混合 AI 的更多信息。
还有一个额外的好处,通过自然语言处理 (NLP) 应用 营销策略的优势 于文本的混合人工智能还可以提高准确性和用户的碳足迹。这尤其重要,因为各大洲的企业都面临着环境、社会和治理 (ESG) 问题的披露要求。在这里,透明度(可解释性)和可持续性变得至关重要。
使用混合 NLP 并结
合基于知识的方法可提供透明度和可解释性,这就是我们实现绿色玻璃方法的方式。我们认为,AI 解决方案必须具备以下特点:
- 透明:结果需要易于解释,以便人类能够理解和追踪系统如何得出结果。
- 可持续性:使用混合 AI 方法比大多数纯机器学习或 LLM 方法计算密集程度更低。更少的计算 = 更少的能源 = 更低的碳足迹。
- 实用:使用最有效、最可靠的方法解决 AI 任务。不要仅仅因为可以做到就部署技术,而是要用目标来制定解决方案;换句话说,要为问题制定合适的解决方案,使其提供的价值大于成本。
- 以人为本:不仅包括“人机循环”,即用户可以监控和改进数据和输入,而且要确保解决方案将人类所做的工作从琐碎和冗余提升到有参与度和有价值。
许多与我们合作、咨询和参与的独立实体对什么是负责任的人工智能都有自己类似的概念。 其中一些实体包括:东北大学体验式人工智能研究所、纽约大学负责任人工智能中心和美国商务部国家标准与技术研 购买电子邮件列表 究所 (NIST)可信与负责任人工智能中心。在世界经济论坛主办的生成式人工智能峰会之后,微软最近在一篇博客文章中概述了自己的负责任人工智能方法。 将这些方法结合在一起的主线是需要采取有意识和深思熟虑的方法来解决我们正在用人工智能解决的业务挑战以及我们在此过程中所做的技术选择。