印度拟出台新法监管人工智能

作者: Ashima Obhan和 Aparna Amnerkar,Obhan & Associates
0
206
LinkedIn
Facebook
Twitter
Whatsapp
Telegram
Copy link

工智能正在改变我们的世界。但是,其道德影响和道德风险愈发令人担忧。欧盟已采取重大行动,通过了《人工智能法》,构建针对人工智能技术开发和使用的全面监管框架。

Ashima Obhan, Obhan and Associates
Ashima Obhan
高级合伙人
Obhan & Associates

欧盟《人工智能法》对人工智能的提供者和使用者施加了义务,具体取决于其人工智能系统的风险和潜在危害。对个人安全构成不可接受威胁的人工智能系统将被禁止。威胁包括潜意识或故意的操纵方法,其利用个人的弱点或社会信用评分。后者涉及根据社会行为、社会经济地位或个人特征对个人进行分类。

欧盟《人工智能法》禁止:人工智能的侵入性和歧视性使用,例如公共场所的实时生物识别系统;事后远程生物识别系统,但执法机构用于调查严重犯罪的除外,在此情况下必须经过司法授权;以及对性别、种族、民族和宗教等敏感特征进行生物识别分类。

分析个人资料、居住地或以往犯罪行为的预测性警务系统;执法、边境管控、工作场所和教育机构中使用的情绪识别系统;以及不受限制地从社交媒体或闭路电视中收集生物特征数据以创建面部识别数据库,也在禁止之列。这些都侵犯人权,特别是隐私权。

欧盟《人工智能法》将对个人福祉、安全和基本权利以及环境构成的潜在危害纳入高风险领域范围,,其中包括能够在竞选活动中操纵选民的人工智能系统,并将社交媒体平台系统列入高风险应用清单。

基础模型是人工智能快速发展的领域,其供应商也受到监管。基础模型供应商必须保护基本权利、健康、安全、环境、民主和法治。他们必须评估和降低风险,遵守设计、信息和环境方面的标准,并进入欧盟数据库。透明度要求适用于生成式基础模型,例如ChatGPT。透明度要求包括披露内容由人工智能生成,防止生成非法内容,以及公布人工智能训练中使用的受版权保护数据的摘要。为推动创新,欧盟《人工智能法》豁免了研究活动和开放源代码许可允许的人工智能组件。该法还提倡监管沙盒或受控环境,以在人工智能投放前对人工智能进行测试。

Aparna Amnerkar, Obhan and Associates
Aparna Amnerkar
律师
Obhan & Associates

印度没有单独的人工智能法律,但拟出台的《数字印度法》可能会从用户伤害的角度来监管人工智能和新兴技术。可能会对使用高风险人工智能的中介机构进行监管。高风险人工智能将通过算法问责、威胁识别和漏洞评估来界定和监管。基于人工智能的广告定位和广告内容审核将受到严格审查。《数字印度法》应该在维护宪法规定的公民权利方面实行问责制。人工智能工具的使用必须符合道德规范以保护用户,因此,惩罚措施应该有效并且适度,以威慑和劝阻违法行为。

《数字印度法》将使技术进步与道德标准保持一致,保护个人并确保负责任的实施。透明度将使客户了解人工智能何时对其产生影响,从而加强消费者保护。健全的监管框架将增强公众对人工智能技术的信任。《数字印度法》中确立的高标准将使印度成为负责任人工智能的全球领导者,吸引国际投资与合作,增强其全球竞争力并促进经济增长。实施监管将面临挑战。创新与监管之间保持平衡对于避免扼杀科研和技术进步至关重要。人工智能的快速发展需要灵活、适应性强的管理,但合规需要有效执法以及政府、行业和学术界的合作。通过制定明确的指导方针、提高透明度和鼓励负责任地使用人工智能,印度可以成为全球领导者。谨慎监管和利益相关者之间的持续合作将克服障碍,印度将走向以人工智能驱动的繁荣未来。

Ashima Obhan是Obhan & Associates律师事务所高级合伙人,Aparna Amnerkar是该所律师

Obhan & Associates

Obhan & Associates

Advocates and Patent Agents

N – 94, Second Floor

Panchsheel Park

New Delhi 110017, India

联系方式:
Ashima Obhan
电话: +91-9811043532
电子邮件:: email@obhans.com

ashima@obhans.com

www.obhanandassociates.com

LinkedIn
Facebook
Twitter
Whatsapp
Telegram
Copy link