LinkedIn
Facebook
Twitter
Whatsapp
Telegram
Copy link

人工智能必将颠覆法律行业,但发挥全部潜能尚需时日。著名企业律师、法律变革顾问SHARYN CH’ANG认为潜在用户将在收获巨大益处的同时,面临危险隐患,因此有效监管万不可少

术源于生活,高于生活。在好莱坞,充满科幻感的未来是经久不衰的影视主题,具有人类水平智慧的计算机和机器人无缝融入社会,人类和机器之间不再泾渭分明。从Arthur C Clark的1968年小说《2001太空漫游》中描绘的智能电脑HAL 9000,到皮克斯工作室创造的可爱动画形象机器人瓦力,人类对无所不能的人工智能(AI)神往不已。

在21世纪的现实世界里,AI技术已经取得长足的发展,现身于各式各样的消费和商业场景中。相对新颖的生成式AI技术也应运而出。

OpenAI在2022年11月发布ChatGPT,一个公有领域的生成式AI工具,上线后两个月便获得超过上亿用户,刷新记录。亚马逊、阿里巴巴、百度、谷歌、Meta、微软和腾讯等行业巨头都相继推出自己的生成式AI产品。

AI正以前所未见的方式普及到我们身边——你无须持有任何专业的学位,只须动动手输入问题,就能利用这些工具。所以,无论你是否准备好,生成式AI已经到来。它将影响我们的日常生活,重塑各行各业,法律也不例外。

如果你觉得这是危言耸听,不妨来听听那些科技大咖的话。比如,谷歌CEO皮柴(Sundar Pichai)在5月接受美国科技媒体The Verge采访时,形容AI是“人类目前发展中最具有深远意义的技术,其影响力超过了火、电或者人类过去的任何其他发明。”给予如此高评价的远不止他一人。

生成式AI模型的类型多种多样,各有各的复杂性,难以一时解释清楚。其中,生成式预训练转换器模型,即GPT,因ChatGPT的成名而广为人知。

但ChatGPT是通用型AI工具,而本文聚焦法律行业,因此主要以Harvey作参考。Harvey是在OpenAI的GPT-4基础上构建的生成式AI平台。如果你想了解一个多功能的生成式AI平台能为律师带来什么,Harvey就是最佳例证。

类似的针对法律行业的生成式AI工具还有CoCounsel、LawDroid Copilot和Lexis + AI,另外还有一些功能较为局限的其他工具。

生成式AI

Sharyn Ch’ang
Sharyn Ch’ang

生成式AI是AI的一个分支,其系统或算法模型在人为协助下接受训练,可以生成文本、图片、视频、音频、声音和软件代码等原创内容。

大语言模型(LLM)是生成式AI的其中一种,这是用大量互联网数据和其他数据训练的一种神经网络。它会基于训练过程中学习的统计模式,针对用户输入(提示词)作出推断,生成输出内容。

OpenAI的ChatGPT和GPT-4——后者是Harvey的底层技术——都是广为流行的LLM,其模型处理提示词的速度、数量和准确度都在人类平均能力之上。

常规的AI系统主要做数据的分类或预测(比如谷歌搜索),但生成式模型不同,它会学习输入训练数据的规律和结构,然后生成与训练数据有相似特征的新内容。不过,生成的内容基于对语言模式的推断,而不是已知的真实内容或算术上正确的内容。

换言之,LLM有两个核心能力:

  • 接收问题,分析海量的数据,并从中找出哪些匹配的模式来回答问题;
  • 接收海量数据,并将模式匹配过程逆转成模式创造过程。

以上两者都是统计功能,因此,引擎在理解问题时有一定出错概率。另外,引擎还有给出假答案的可能,即构成所谓的AI“幻觉”。

因LLM有海量数据进行训练,且不时接受微调,因而显得知识渊博。但事实上,模型并非真正具有“智能”。它只是处理模式,生成合乎逻辑、切合题意的文本,没有真正的思考或推理过程。

即使接收到的提示词表述清晰,模型给出的答案仍可能有错误、有偏见,或者包含完全虚构的信息和数据,有时甚至包含有害或无礼的内容。但生成式AI的“利”远大于“弊”,而OpenAI等大型AI企业正有意识地克服这些弊端。

关于Harvey

Harvey是在OpenAI的GPT-4上构建的生成式AI技术,是一个“软件即服务”多工具AI平台,专门用于辅助律师的日常工作。

Harvey是一个LLM模型,即典型的生成式AI模型,利用自然语言处理、机器学习和数据分析技术自动化处理法律工作,同时提升法律研究与分析、生成合同及其他法律文件等法律工作的效率。在Harvey的2100万美元融资中领投的红杉这样评价:“法律工作是完全的文本进、文本出的工作,完美契合语言模型的功能。”

截至2023年5月,只有两家公司获得Harvey的使用许可:四大中的普华永道获得独占使用权限/许可,而安理国际律师事务所则是第一个律所用户。另有超过15000家律所等待开放授权。

Harvey和ChatGPT类似,但配备了更多针对律师的功能。和ChatGPT一样,用户只需输入任务指示,Harvey就能生成文本结果。提示词的细节程度由用户定义。

但和ChatGPT不同的是,Harvey还嵌入了专门为律师设计的工具,用户可以:

  • 输入格式不定的法律或类法律问题,包括研究、总结、条款编辑和策略构想;
  • 要求生成详细的关于任意法律主题的研究备忘录;
  • 要求生成详细的文件大纲,包括每个章节的内容建议;以及
  • 针对任何上传文件提出复杂问题,或要求作总结,问题格式不定,无须预训练或贴标签。

值得注意的是,Harvey自我定义为一个研究工具,其输出内容不是法律建议。使用条款也明确说明AI生成的内容可能出现错误,或者不完整。

Harvey和其他所有生成式AI系统一样,也会“以假乱真”,包括虚构判例和法律,因此审慎起见,律师在基于其生成的答案提供法律建议前应严加审核。

司法警告

截至本文出版时,美国已至少有两个判例要求使用了生成式AI做庭审准备的律师采取预防措施。

  • 一位律师代理客户诉航空公司的个人伤害案件,他向纽约地区法院递交的辩护状中引用了六个ChatGPT“捏造”的司法判决。该律师天真地宣称他“没有意识到内容可能为假”。法院处罚了两位涉案律师,罚款5000美元。此案不仅涉及到法律的基本规则和律师的职业操守,还触及到基本的常识,即律师必须为其陈述或法律意见负责。无论提供辅助工作的是同行、初级律师、律师助理还是机器,这个标准都不会改变。
  • 在美国国际贸易法庭,法官Stephen Vaden发布命令,要求在他的庭审中辩护的律师披露使用了哪个AI程序,以及“具体哪部分内容是用AI起草的”,并声明技术的使用“没有造成任何机密信息或商业专有信息披露给任何未经授权方。”

一名高效的律师必须兼具硬技能(即专业知识)和软技能,具体请参考第119页罗列的AI时代律师必备技能清单。

那么,目前的生成式AI擅长哪些工作,且如何为律师所用?

以Harvey为基本标准,生成式AI可加快文书起草工作,可编辑文件,并提出文本替换建议。其分析、提取、审阅和总结的速度和数量非人类能及。

最现实的意义是,经过适当训练的法律生成式AI能让律师以更快、更低成本和更高效的方式完成许多常规、甚至是枯燥的任务,同时提高工作质量。

OpenAI联合创始人兼董事长Greg Brockman说,GPT-4(Harvey的底层技术)要搭配人为检查输出内容才能达到最佳效果。他还说,GPT-4是一个“增强性工具”,让我们能够“达到新的高度”,但它“不尽完美”,就像人类本身一样。

我要失业了?

高盛在3月发布的《人工智能对经济增长的潜在大效应》报告中预估美国和欧洲当前44%的法律工作可由AI自动化完成。虽然还没有类似的亚洲数据,但这个比例应该不会有太大差别。行政办公支持工作以46%的比例高居榜首,法律位列第二,而第三是建筑与工程(37%)。

大家最关心的问题是,AI会取代律师吗?答案是否定的。看过以上表格列举的生成式AI没有的技能后,答案不言而喻。在未来的律界,AI将是不可或缺的生产力工具,为律师助力。

AI可自动化处理常规任务,辅助研究、分析、起草文书等类似工作,但复杂细微的法律工作仍然需要人的知识、共情力和判断。

Harvey创始人Pereyra也持这个意见。在2022年11月与法律技术博客LawSites 作者、律师Robert Ambrogi 谈话时,他说:“我们(Harvey)的目标不是和现有的法律科技竞争,或者取代律师,而是与他们无缝配合。我们希望Harvey成为科技和律师的中介,法律的自然语言接口。在未来,每个律师都是合伙人,将繁重的法律工作分配给Harvey,自己则专注于创造性的工作和最重要的方面——客户。”

当然,随着AI进步到可以成为常规工作的主力军,许多律师会担心他们的就业能否得到保障。一些工作的改变将不可避免,因为AI能做得更好、更快,且更便宜。

比如,初级律师的职能会发生变化。如果他们的工作可由AI完成,就可以将时间空出来,专注于更高价值、更有吸引力的工作,培养精专的知识技能,参与战略性工作。这些传统上是律师在职业初期还不触及的内容。

关于整体就业市场,高盛报告表示:“有些工作会被自动化代替,但也会出现新的工作,科技创新带来的新岗位将是长期就业增长的主要引擎。”

至于法律职业,谷歌CEO皮柴做了个有趣的预测:他“几乎愿意打赌”十年后将会有更多律师,因为“法律和法律制度存在的底层原因没有消失,这是人类社会固有的需求”。

使用生成式AI的风险

生成式AI能给法律职业带来巨大的助益,但同时也存在固有的风险和局限。无论是在私营部门,还是在政府层面,都有必要进行审慎的考虑,并采取适当的保护措施,以有效减少风险,让AI成为值得信赖的帮手。

伴随生成式AI普及的还有大量的合规和法律问题,包括新的AI立法,如欧盟的《人工智能法案》。其他常被提及的法律和实务问题包括AI生成法律文件的准确性和可靠性,以及法律数据中原有偏见的放大。

内容不可靠、错误未被察觉、虚构事实,这些都是损害AI公信力的因素,并会带来法律后果,如业务过失、为错误建议承担责任等,而过度依赖生成式AI系统而不作批判性评估也会造成失误和疏忽。

精心挑选训练数据是避免偏见的必要环节。如果训练数据反映历史偏见,生成式AI系统也会在无意间生成歧视性内容,造成法律结果的差异。

任何连网的计算机系统都存在网络安全风险。在某种程度上,生成式AI系统的拟人对话和虚构内容的弊端让它更容易成为社交工程诈骗和网络钓鱼的目标。使用者应警惕潜在的恶意活动。

如今,数据是受高度监管的资产,而生成式AI依赖大量的数据。任何与生成式AI工具共享的个人数据都可能受隐私法保护。提示词的内容也有可能包含机密信息或敏感信息。

律师们在撰写法律文书时,因为是由自己起草,或者援引自己的判决先例,因此基本不会遇到知识产权的问题。但是在用AI来起草文书或做法律研究时,如果数据源未知,则可能在不经意间侵犯第三方知识产权。话说回来,另一个问题在于,AI生成内容的知识产权应归属何方?

底层LLM模型的技术不透明也是生成式AI的通用问题。LLM使用当前最先进的AI技术,各大企业动辄投入数十亿美元研发自己的生成式AI模型,其底层技术是专有技术。然而,这让AI模型的内部运行更加不透明。决策者应鼓励开发严格的质量控制方法,制定基于应用场景的AI系统数据集披露标准。

LLM还有两个大家已熟知的局限性。首先,底层基础数据有局限性。GPT-3.5的训练数据是截止到2021年9月的互联网数据。我们知道这个信息,是因为OpenAI披露了这一点。但其他AI模型都是专有技术,这使得训练数据的溯源变得十分困难,甚至无异于大海捞针。

第二个问题是,每一个生成式AI模型都有内存限制,换言之,提示词是有字数限制的。GPT-4的最大输入限制是约40页双倍行距文本,共约12288个单词。虽然LLM的内存容量会不断增加,但目前的限制让其无法完成复杂的法律分析问题。比如诉讼或合同审阅,这些任务都超过了当前的字词上限。

You must be a subscribersubscribersubscribersubscriber to read this content, please subscribesubscribesubscribesubscribe today.

For group subscribers, please click here to access.
Interested in group subscription? Please contact us.

你需要登录去解锁本文内容。欢迎注册账号。如果想阅读月刊所有文章,欢迎成为我们的订阅会员成为我们的订阅会员

已有集团订阅,可点击此处继续浏览。
如对集团订阅感兴趣,请联络我们

LinkedIn
Facebook
Twitter
Whatsapp
Telegram
Copy link