首页 » 博客 » LLM 的炒作与担忧利与弊

LLM 的炒作与担忧利与弊

上周发生的一系列事件引发的批评愈演愈烈。上周三,人工 LLM 的炒作与 智能专家、行业领袖、研究人员和其他人士签署了一封公开信,呼吁在 OpenAI 的 GPT-4 之外暂停大规模人工智能开发六个月。第二天,人工智能政策组织 CAIDP(人工智能和数字政策中心)向联邦贸易委员会发起投诉,称人工智能的使用应该“透明、可解释、公平和经验合理,同时促进问责制”,而 OpenAI 的 GPT-4“不满足这些要求”,并且“带有偏见、欺骗性,对隐私和公共安全构成风险”。最后,在周五,第一个被打下的重磅筹码是意大利监管机构呼吁OpenAI 解决围绕 ChatGPT 的某些隐私和访问问题。 

作为一家提供自然语言 (NL) 解决方案的 AI 公司,这家公司 whatsapp 号码数据 成立于意大利,这一发展尤其令人感兴趣。在 expert.ai,我们的方法不依赖于 LLM(大型语言模型)。事实上,我们通过混合 NL 提供组合方法,从而实现透明度。这是我们的核心原则之一,也是我们负责任的 AI“绿色玻璃”方法的四个方面之一。 

意大利为何“禁止”ChatGPT? 

意大利数据保护局 (Garante per la protezione dei dati personali)发布的命令  提到了对 GDPR 相关的个人数据保护的担忧,即 ChatGPT 非法处理个人数据,并且没有建立系统来防止未成年人访问这些数据。OpenAI 已在意大利下线 ChatGPT。它有 20 天的时间对该命令做出回应,如果不遵守,可能会面临巨额罚款——最高可达年营业额的 4% 或 2000 万欧元。所列举的具体问题属于我们在二月份强调的企业需要了解的主要注意事项清单: 

  • ChatGPT 已接受从互联网上抓取的数据训练,包括文章、社交 营销策略的优势 媒体内容、维基百科和 Reddit 论坛。正如TechCrunch 的一篇文章所强调的那样,“如果你上网时间较长,机器人很可能知道你的名字。” 
  • ChatGPT 是一种生成式人工智能,这意味着它根据训练结果预测接下来可能出现的单词和句子,从而生成人类语言内容。这使得它容易受到“即时注入”的攻击,攻击者可以利用这种攻击故意操纵其生成的内容,从而产生潜在的危险影响 
  • ChatGPT 并非基于对语言中的关系和语境的理解。虽然它可以生成看起来和听起来都正确的人类语言内容,但它也可以编造出相当令人信服的东西——被称为“幻觉”。 
  • ChatGPT 所基于的 LLM 被认为是一个无法解释的“黑盒”转换器,这意味着你无法追踪它如何提供结果(无论准确还是不准确)。 

这对 ChatGPT 和 LLM 的未来有何影响?企业需要了解哪些有关其自身 LLM 部署的信息? 

未来人工智能应用的考虑因素 

所提出的担忧提醒人们某些类型的人工智能存在风险,但这也是反思已在工作中被证实的人工智能能力的时候。在 expert.ai,我们在过去 25 年中提供了 300 多个自然语言人工智能解决方案,与许多财富 2000 强公司合作优化流程并改善人类的工作。我们不仅坚持让人类参与其中,我们还努力使所做的工作人性化 — 使其更具吸引力,并让人类为解决方案增加价值。 

本着这种精神,我们想分享一些关于使用任何人工智能解决现实业务问题的一般考虑。 

1. 任何人工智能解决方案都应具备透明度和可解释性 

GPT-3 和 GPT-4 等大型语言模型非常庞大且复杂,因此它 购买电子邮件列表 是终极的“黑盒 AI”方法。如果你无法确定 AI 模型如何做出特定决策,这最终可能会成为一个业务问题,并且正如我们现在看到的那样,成为一个监管问题。你选择的 AI 能够提供易于解释和可追溯的结果至关重要。 

实现以最高精度解决现实问题的人工智能的途径是通过混合方法,结合不同的技术来充分利用所有技术的优点。

滚动至顶部