起诉人工智能需要人类完善法律

作者: Sumathi Chandrashekaran 和Essenese Obhan,Obhan & Associates
0
248
LinkedIn
Facebook
Twitter
Whatsapp
Telegram
Copy link

尽管上线只有几周时间,ChatGPT却已成为最新、最酷的话题。这款聊天机器人面世之时,同一公司OpenAI开发的产品DALL-E发布才几个月。通过神经网络构建的DALL-E,目的是利用文字来创建图像。辅以足够的想象力,此类工具的用途无限。

Sumathi Chandrashekaran
Sumathi Chandrashekaran
顾问
Obhan & Associates

聊天机器人ChatGPT立足于名为“大型语言模型”(LLM)的人工智能工具,而LLM则利用大型语言数据库生成基于对话语境、类似真人聊天的文字。作为聊天机器人,ChatGPT的目的是回应人类输入的信息,并进行自然对话。这将直接影响到我们与聊天机器人、虚拟助理及自动化客户服务应用的互动,无论是在电话上还是通过文字。ChaGPT最具颠覆性的用途为内容生成。很快,基于事实的文章或占星学专栏之类的标准化文本很可能就可以利用ChatGPT等工具完成。

就法律界而言,ChatGPT和DALL-E之类工具提出了复杂而有趣的问题,它们对法律有影响,但也可能影响法律职业。一个突出问题为,著作权与责任问题。此问题现已有人在诸多背景下讨论,特别是在围绕多起DABUS-Thaler案件进行的关于专利著作权和所有权的争论中。印度的立场尚未确定,但据报道印度专利局正在审查申请。

人工智能和专利性自身有一系列尚未解决的问题,同时著作权和责任问题也可延伸至其他领域。例如,大型语言模型利用大量文本数据,其中可能包含受著作权保护的材料。同样,DALL-E可能会接受提示而生成模仿某艺术家的图像,而该艺术家的作品已受著作权保护。在这种情况下,谁来承担侵权责任,著作权人又应向谁寻求赔偿?更一般而言,如果将ChatGPT用于生成文字,后来文字被用来损害个人或实体的利益,谁应对此负责?是利用ChatGPT来生成文字的人或实体吗?

Essenese Obhan
Essenese Obhan
管理合伙人
Obhan & Associates

另外一个问题与不实陈述有关。LLM生成的文字可能会让人误以为是真人说的话,如果生成的文字被视为错误地代表了个人的看法或观点,就可能构成不实陈述。生成的文字可能会欺骗或误导他人,引起法律争议,遭人指控欺诈。生成的文字还可能被视为未经同意而假冒了个人。如果用于训练软件系统的数据库包含机密或敏感信息,可能会出现滥用该等数据的问题。再者,还可能出现诽谤;如果生成的文字包含虚假和诽谤性表述,可能成为诽谤诉讼的依据,那又将如何?

就监管而言,确定监管对象将成为复杂的挑战。由于内容生成是LLM的一个核心用途,自动化内容很容易在社交媒体和网络平台上泛滥。对网络言论和内容的监管将不得不面临监管谁的问题。我们对中介责任的认识可能会被颠覆。

LLM对法律界自身也是挑战。快速、准确地概括和解释大量判例法、立法和其他法律权威,有助于追求并树立信誉。ChatGPT可能会马上取代低层次的法律研究和综述工作,并导致法律行业的某些工作岗位成为多余。因此,与声望和认可紧密联系在一起的,将是非凡的创意能力和人际互动、推销能力等软技能,以及需要更高情商的任务。我们迫切需要重新构想工作的未来。

最后,即使这些工具挑战了我们熟悉的环境边界,我们也应听听OpenAI首席执行官Sam Altman的话。他说,按照目前的发展态势,这些工具充其量不过是提供了“好玩的创意灵感”。我们既不该有过高期望,也无需过度担心。但是,作为全球性共同体,我们法律界已经成熟到足以理解这一点了吗?

本文部分内容由ChatGPT生成并经适当编辑。

Sumathi Chandrashekaran(左)为Obhan & Associates顾问,Essenese Obhan为Obhan & Associates管理合伙人。

Obhan & Associates

Obhan & Associates

Advocates and Patent Agents

N – 94, Second Floor

Panchsheel Park

New Delhi 110017, India

Contact details:
Ashima Obhan
电话: +91-9811043532
电子邮件: email@obhans.com

ashima@obhans.com

www.obhanandassociates.com

LinkedIn
Facebook
Twitter
Whatsapp
Telegram
Copy link