尽管人们对其有效性存在激烈的争论,但 LLM 的有 未来的企业法学 效性(准确性)总体上一直在随着规模的提高而提高,每次发布都会增加几个数量级。ChatGPT 的生成能力证明了这一点,它可以预测下一个单词,然后是下一个单词,然后是下一个单词,等等……LLM 越大,其预测能力中使用的数据量就越大。因此,对于 GPT-3.5(ChatGPT 最初的 LLM)的 175B 参数,我们已经看到 LLM 可以很好地完成自然语言生成(NLG)。但是越大越好吗?
毒性、隐私和治理方面的挑战
如果您认为 ChatGPT 是 LLM 广泛公开使用的亮相派对,那么毫不奇怪,尽管它的功能最初令人惊讶,但很快就转向谨慎。
对于我们这些在 ChatGPT 发布之前就熟悉 LLM 的人来说,这并不奇怪。关于 LLM 的潜在价值以及 LLM 可能引发的毒性的争论从未间断。但随着 ChatGPT 的推出,LLM 首次成为针对消费者的应用程序,很快惊讶就变成了担忧。
最初,人们的担忧集中在 ChatGPT 的使用方式上;抄袭、准确性和数据集的时效性是主要问题。然而,随着时间和审查的深入,焦点转移到了所创建的内容上。“幻觉”和毒性(后者在 LLM 世界中一直存在)开始成为主要关注领域。同样,考虑到 GPT 的大小,其中一些问题通过人工审核得到了减少,但并未完全消除。
在我们对 300 多名商业、技术和学术自然语言 AI 专家进行的调查中,缺乏真实性(69.8%)是法学硕士学位面临的首要道德和法律问题,其次是偏见输出(67.3%)和专有数据泄露风险(62.6%)。
关注度的提高提高了人
们的意识,并在企业内部引起了更大的关注。企业正在讨 手机号码数据 论和考虑各种可能性。可能性似乎无穷无尽,但在这种兴奋中,另一个一直围绕着法学硕士(以及整个企业)的担忧被暂时搁置:治理。
由于担心GPT-3 等 LLM 中包含的个人数据和版权材料,意大利对其实施了全面禁令,加拿大、欧盟和中国的数据保护机构也对其进行了严格审查。随着关于如何管理和监管这些技术的争论持续进行,企业在考虑将 ChatGPT 和 LLM 等应用程序引入企业时必须考虑到这些风险。
在兴奋与谨慎中,我们看到了法学硕士在企业领域如何 营销策略的优势 发挥作用以及在何处发挥作用。是的,存在风险,但当风险可以合理管理时,无疑具有很高的潜力,并且像任何自然语言人工智能能力一样,具有获得高回报的潜力。但在我们出发之前,再次提醒一下……风险必须得到管理。以下是一些管理方法。
利用法学硕士 (LLM) 降低企业风险的四种方案
1. 从特定域名开始
企业可以利用 LLM 的优势,同时减少价值实现时间和成本的方法之一是专注于提供某个领域内的特定信息。
领域有自己的语言、术语和行话。对于大多数企业来说,没有必要了解每个领域使用的专业术语,但准确理解特定领域至关重要。
想想保险、金融服务、生命科学和制药、制造业和其他领域使用的专业术语。然后想想子域中使用的非常精确的术语,例如用于评估保险风险或处理医疗索赔的术语。这些都具有高度的特殊性,理解这些术语绝对至关重要。使用 LLM 提供企业价值的一种方法是将它们集中在一个狭窄的目标领域;这还可以降低 LLM 的计算成本并使其使用具有可扩展性。
2. 使用混合方法
在自然语言领域,法学硕士方法是否可能产生付费内容一直是争 购买电子邮件列表 论的焦点。出于这个原因,替代方法论的支持者会反对法学硕士或机器学习方法,这变成了一种“宗教辩论”,导致了非此即彼的方法。
然而,在过去几年中,思维方式已经发生了变化,现在许多 AI 解决方案都采用了多种方法。数据还显示,这是实现最高精度的途径。因此,当今公认的方法不仅仅依赖于 LLM,而是使用 LLM与机器学习和/或基于规则的方法相结合的混合 AI 方法。