LinkedIn
Facebook
Twitter
Whatsapp
Telegram
Copy link

生成式人工智能的大爆发引发海啸式冲击波

工智能(AI)技术的早期用户正在以惊人的速度创作文档、图像、音乐和视频,其质量越来越高,通常与人类的作品难以区分。但这也不可避免地引发了创意从业者们的恐慌,他们担心自己被取代。雪上加霜的是,AI正是以他们的创意作品进行训练的。

诚然,新技术引发了一些深层次的问题需要通过监管和行业指引解决,例如,作品涉及的版权保护和引发的盗版担忧,一些人的生计受到威胁,学生的学术严谨性以及培训人员的职业道德受到侵蚀,传统的评估和考试方法很快就会被淘汰。

但新技术总是伴随着新的挑战和机遇,从古至今,无一例外。人类社会需要做的是自我调节,适应变化,不断迭代蜕变,拥抱新技术,正确使用新技术。

Ban Jiun Ean
万俊彦
首席执行官
新加坡Maxwell Chambers
电子邮件: info@maxwellchambers.com

工业革命期间自动织布机的问世引发了社会动乱,导火索是纺织工人担心失业。电话交换机的日渐成熟,导致接线员这一职业不复存在。随着文字处理器的发明,打字员团队消失了。当然,所有这些技术的兴起都经历了较长的时间,让人们在旧工作岗位被最终淘汰之前,有时间去升级自己的技能包,实现再就业。

但人工智能的崛起速度太快,各国监管部门尚且措手不及,普通人又何以能够快速掌握新技能,及时完成职业转型。所以这种忧虑并非没有根据。

但与人工智能带来的最大挑战——信任相比,这些问题就显得不那么重要了。

无论是使用机器更快更好地完成工作,还是用机器代替人运载重物或前往危险区,亦或是用一台机器完成100个人的工作,都是人在背后操控着机器,通过机器使工作效率成倍增加。

然而,如果机器成为操控者,那将是截然不同的景象。人工智能的威胁在于,人类有可能被完全排除在整个决策闭环之外。

某种程度上,我们已经生活在这样的现实中。网约车的AI算法能自动决定让司机去接哪一位乘客。在没有人工干预的情况下,AI算法可以通过人脸识别确定个人身份。AI算法还可以研究你的收视或购物习惯,并从成千上万个选项中推荐你可能感兴趣的其他节目或产品。算法还可以根据你的个人偏好,在社交媒体上选择性地推送各种内容或帖子。

不管我们喜欢与否,在某种程度上,我们的生活已经被AI支配着。

当涉及到吃饭、购物、看电影甚至交通出行等稀松平常之事时,我们几乎不在乎指挥棒在谁手里,只要它能提供最高的性价比即可。但这也让人类忘乎其形,浑然不知AI正越来越多地渗透到一些关键领域,而在这些领域,决策权不可轻易让渡。

我们可以信任ChatGPT提供的食谱吗?我们会吃根据它做出来的食物吗?如果没有信息来源和背景资料,我们能相信AI编辑的“事实”吗?我们会遵照AI应用程序提供的“医嘱”吗?当越来越多景象和声音通过数字工具呈现时,所见、所听是否依然真实?

在生成式AI席卷世界之前,深度伪造(Deepfake)就已经造成不小的问题,现在,它更是成为了名人和普通人都难逃脱的噩梦。

信任日益成为一种新的货币。谷歌稳坐全球搜索引擎头把交椅的基石即是“信任”二字——人们对谷歌搜索结果的信任超过了对其他任何搜索结果的信任。但是,如果你不了解某样东西的工作原理,不知道它的信息来自何方,也不知道是谁设计的,你还会投之以信任吗?这是使用AI进行重要决策面临的根本问题。

致命性自主武器就是一个例子,这个例子也许极端,但绝不是耸人听闻。全世界的军队都在竞相开发AI武器,这不是什么秘密。圈内人士普遍认为,得AI者,“得天下”。因此,各国政府正不遗余力开发由AI驱动和控制的武器,并将AI工具应用于在网络战领域。

但杀戮决策权绝不能交给人工智能,这是获得理论家和评论家支持的一条底线。它必须一直掌握在人类手中。理由是,人类在某种程度上仍然会受到伦理、道德、责任、荣誉、忠诚、亲属关系甚至仅仅是纯粹的自身利益的约束。人们担心的是,武器化的AI没有这样的制约或考虑因素,它只会把“生杀予夺”的决策简化为单纯的数字和概率问题。

因此有人主张,“扣动扳机”的最终决定权必须始终掌握在人类手中。

绝不能由AI来决定谁生谁死,这是共识。AI但AI可以在多大程度上协助作战,则存在争议。超出何种界限即可认为人类将最关键的决策权交给了人工智能?

目前,许多军队都使用AI来处理分析海量的战场信息——这些信息由众多传感器采集而来,并与其他数据相结合——以帮助识别潜在的威胁和敌人。一旦数据处理完毕,从理论上来说,开火的决定由人类操作员做出。但是,当AI对战场情报进行分析后认为目标人物构成威胁,确定性高达“99% ”,试问哪个操作员会拒绝开火?或者,如果AI报告目标人物没有威胁、且置信度也很高,哪个操作员还有信心开火?

这实际上是将开火的决定权交给了AI及其算法。除了边际决策,人类操作员基本只有盖章的作用了。

这一切和法律有什么关系?可以说,在司法和执法事务中,AI的使用也已经引起了类似的担忧。

过去二十年来,英国一直使用OASys(罪犯评估系统)评估罪犯获释后再次犯罪的风险,为假释决策提供参考。美国的替代性制裁犯罪矫正管理剖析软件COMPAS也具有类似功能。

上述系统根据多方数据预测获释人员再次犯罪的可能性,辅助法官决定批准或拒绝假释。这些系统既有支持者,为其效率和速度点赞,同时也有批评者,声称这些系统因训练数据产生偏见和歧视性结果,但由于其敏感性,公众无法审查这些数据。

虽然不一定关乎生死,但这些系统仍然决定着个人命运:继续监禁还是重获自由。但目前尚不清楚系统是如何进行决策的,原因是算法过于复杂,难以理解,尤其是随着机器学习的出现,系统的自我训练速度之快前所未有。人们质疑系统对少数群体和特定社会经济背景的人进行不公平画像。只要算法和训练数据保持不对外公开,疑云就不会消散。

上述担忧极大地影响了Maxwell Chambers对待科技应用的态度。一方面,我们看好利用混合现实和在线会议解决争议。另一方面,我们审慎研究各类AI产品,挑选最适合的工具,同时设置足够的安全网,避免出现意想不到的后果。确保不会出现意外、产生不良结果。

几乎可以肯定,AI工具会越来越成熟和友好。终有一天,它们会被广泛采用并成为不可或缺的商业工具,这一天也许会比人们预期的更早实现。在此之前,我们会采取小步渐进的方式,密切关注这一领域。

新加坡在人工智能方面也投入了大量资源,同时努力在保护消费者权益与鼓励创新与增长之间达成平衡。

如今,AI的作用不再只是以超快速度起草文件、完成法律检索和分析,它在诸多领域已清晰展现了自己的威力和威胁。或许,现在是时候重新考虑一下,我们准备将哪些决策权交给算法,哪些留给人类自己。

Maxwell Chambers

MAXWELL CHAMBERS
32 Maxwell Road #03-01
Singapore 069115
电话: +65 6595 9010
电子邮件: info@maxwellchambers.com
www.maxwellchambers.com

LinkedIn
Facebook
Twitter
Whatsapp
Telegram
Copy link