人工知能(AI)を搭載したアプリケーションは、生成AI(GenAI)を通じて私たちの日々の生活に多大な影響を与えています。そのようなアプリケーションが用いられている活動には、コンテンツ制作、マーケティング活動、チャットボットや音声アシスタントによる顧客対応、医療診断のための最新アプリケーションの活用、創薬、エンターテイメントの個別化、自律走行システムの構築などがあります。
AI搭載アプリケーションは、研究・教育、さまざまな産業への応用、カスタマーサポート、ヘルスケアなど、多様な業界で普及が進んでおり、効率化、自動化、意思決定プロセスの高度化につながると期待されています。
調査会社Statistaの予想では、AI市場の規模は世界全体で2024年に3059億米ドルに達し、2030年まで年平均成長率15.83%で拡大する見込みです。インドでは、AI市場の2030年までの年平均成長率は17.94%となり、2024年には54億7000万米ドルを上回ると予測されています。
調査・コンサルティング会社AIM Researchが2024年2月に公表したレポートによると、インドのAIスタートアップのエコシステムも急速に成長しており、2023年には、AI企業は5億6000万米ドル超の資金を調達しました。これらの数字は、インドの技術環境においてAIの重要性が増していることを裏付けるものです。
現行制度
EUでは2024年1月26日、AIシステムへの脅威のレベルに応じてAIシステムを分類して規制するEU AI法の最終草案が公表されましたが、インドにはAIとその利用を対象とする包括的な法律はありません。
しかし、2000年情報技術法(IT法)および関連規則、2023年デジタル個人データ保護法(DPDP法、通知時点の情報による)などの既存の法令により、個人データの処理に関する規制当局の期待事項が明らかにされるとともに、AIの悪用を防ぐための規定がいくつか設けられています。
たとえば、2024年3月1日、 電子情報技術省(MeitY)は、IT法に基づき、AIモデルに関するガイドラインを示す勧告を公表しました。この勧告で求められているのは、2021年情報技術(仲介者ガイドラインおよびデジタルメディア倫理コード)規則により規定されているデューデリジェンス要件の遵守、AIトレーニングにおけるバイアスや差別の防止、テスト中のAIまたは信頼性が低いと判断されたAIの導入についての政府の承認の取得、違法な情報を取り扱った場合には、その経緯をユーザーに通知することなどです。しかし、この勧告の適用対象である「重要な」プラットフォームの定義のさらなる明確化が求められます。
課題
インドでは、多様なAIツールの導入の評価と管理のための一元的な法的枠組みが確立されておらず、これが責任あるAI開発に対する大きな障害の一つになっています。また、既存の法令も、フェイクニュースやディープフェイクの拡散や、最近グーグルの生成AIモデルのGeminiで明らかになったようなAIツールに組み込まれたバイアスや偏見に、全面的に対処するには十分ではありません。
インドの法令では、犯罪性はAIツールではなく人間の精神に結び付いていると考えられており、盗用や誹謗中傷が含まれるコンテンツを生成するためにAIを自律的に使用するAIツールや、データの盗取やマルウェアの展開を行うMorris IIのような、AIワームを自律的に生成するようプログラムされたAIツールに責任を負わせることができるかという問題は、まだ検証されたことがありません。
さらに、AIの責任ある利用に関する評価基準を確立した判例も存在しません。他にもAIを管理する上での限界がありますが、その一部については後述します。
1957年著作権法 著作権法では、著作物に著作権が認められるのは、それが独創的で人の手によるものである場合に限られるとされています。したがって、AIが生成したコンテンツには著作権が認められないと考えられます。米国とインドの最近の事例でも、AIが生成したコンテンツの著作権をめぐる問題の複雑さが浮き彫りになりました。一例として、Ankit Sahni氏がAIペイントアプリのRaghavによって制作し
たAI生成アートワーク「Suryast」を登録しようとしたものの、却下された事案があります。
現行のインドの法的枠組みにおいては、AIに著作者の権利を認めることには、AIは不死の存在であるため永続的な著作権保護を受けることを含め、現実問題として大きな困難を伴うでしょう。したがって、AIが生成した作品の著作権について検討する前に、法的枠組みを抜本的に改革する必要があります。
データ保護 DPDP法は、個人の同意がある場合または特定の合法的な目的がある場合に限り、事業者にデジタル個人データの処理を認めています。自律型AIツールがDPDP法に違反して第三者のアプリからユーザーの個人情報を入手した場合、同法の下でどのように処罰されるかは明らかではありません。
また、個人の同意が撤回された場合、該当する個人データをAIツールの事前学習パラメータから分離することは困難であることや、学習棄却に関するAIの一般的能力を考慮すると、AIツールが該当する個人データを消去または編集できるのかという点も大きな問題になります。
政策関連の最近の取り組み
電子情報技術省 電子情報技術省(MeitY)は、インドにおける責任あるイノベーションとAI開発の推進に向けて種々の取り組みを実施してきました。こうした取り組みには、政策の枠組み策定を目的とするAIに関する委員会の設置、複数の都市にまたがるモノのインターネット(IoT)のための中核的研究拠点の創設、仮想現実・拡張現実、ゲーム、視覚効果、コンピュータビジョンとAI、ブロックチェーン技術に関する専門組織の設立などがあります。
MeitYの委員会の提言には、公開データをAIに利用できるようにするための国家人工知能リソースプラットフォーム(National Artificial Intelligence Resource Platform)の開発、各分野における国家ミッションの特定、AIの利用を可能にするための規制の改正/策定などが含まれています。MeitYは、国家AIポータル(INDIAai)やAI研究分析・知識普及プラットフォームなどのプロジェクトも進めてきました。
さらに、AIに関する国家プログラム(National Programme on AI)では、スキル習得、倫理、ガバナンス、研究開発などの分野を中心に、革新的技術の活用を通じて社会にインパクトをもたらすことが目標となっています。これらの取り組みは、インド政府が包括的で革新的な成長の促進と、AIに関する諸問題の規制を両立させようと努めていることを示しています。
NITI Aayog(国立インド改革委員会) 2018年、インド政府の最高政策シンクタンクであるNITI Aayogは、医療、農業、教育、スマートシティ、交通などの重要分野におけるAIの役割について検討した「人工知能に関する国家戦略」という審議文書を発表しました。
この文書では、AIイノベーションの管理を目的とする研究センター、共通クラウドプラットフォーム、適切な知的財産制度の確立が提案されました。2021年2月、NITI Aayogは「責任あるAIのための原則」を発表しました。そこで重視されたのは、安全性、公平性、包摂性、プライバシー、透明性、説明責任、価値観です。
その後、2021年8月に発表された「責任あるAIのための原則の運用」という題名の説明資料では、政府、民間企業、研究機関の役割の概要が示されるとともに、EUのAI法に類似した、リスクに基づく段階的な規制アプローチが提唱さました。
このアプローチでは、高リスクのAIについて厳格な監督と責任あるAIの実務慣行が推奨されており、技術にとらわれないガバナンスの枠組みの確立に向けて、利害関係者間の連携が確保されるよう図られています。これらの政策文書は、インドにおける責任あるAIシステム推進のためのガバナンスの枠組み提供に向けて、政策策定の第一歩となるものです。
インド電気通信規制庁(TRAI) 2023年7月20日、TRAIは通信業界におけるAIの責任ある利用に関する勧告を公表しました。TRAIは、バイアス、説明責任に関する問題、人間の理解に関するAIツールの説明可能性の問題、AIによる監視の可能性などのAIに関連するリスクを理由として、AI規制の必要性を強調しました。TRAI
はNITI Aayogのアプローチに沿って、リスクに基づく規制枠組みの採用と高リスクのAIアプリケーションに対する厳格な管理・監視を提案しました。
インド準備銀行(RBI) RBIは、HDFC銀行、ICICI銀行、インドステイト銀行、コタック・マヒンドラ銀行などの大手銀行がAIツールの導入を拡大していることを受け、銀行・金融サービス業界でのAI利用を監督するための規制枠組みの検討を進めています。
RBIは、AIアルゴリズムの複雑さや潜在的なバイアス、データの安全性に関する懸念を認識しており、これらの問題に対処するため短期的な措置を導入しようとしています。これらの措置に含まれる可能性があるのは、銀行のAI利用・導入以前に顧客に情報を開示することの義務化、AIの与信への利用を含む銀行の中核業務のアウトソーシングに関する規則の厳格化、銀行業界における透明性、説明責任、監査適合性の促進を目的とするAIアルゴリズムの保存形式の標準化などです。
インド規格局(BIS) BISが2024年1月に公表したインド規格草案、IS/ISO/IEC 42001:2023では、組織のAI管理システムの確立、導入、維持、継続的改善のためのガイドラインと前提条件が概説されています。AI管理システムには、組織内のAIの管理、監視、最適化を目的とする全ソフトウェアプラットフォームが含まれることになるでしょう。
AI規制の必要性
AIの普及に伴い、AIによる監視、データの安全性、個人の機微情報悪用の可能性、社会的偏見の増幅、セキュリティリスク、フェイクニュース、信頼性の欠如に対する懸念は高まる一方です。また、AIの利用拡大が失業の増加や、自由で公正な選挙への干渉など、国家安全保障上のリスクの増大につながることも懸念されています。
インドでは最近、ディープフェイク事件やフェイクニュース拡散が議論の的になり、空港でのセキュリティチェックの迅速化のためのDigiYatraアプリでの顔認識技術の利用が物議を醸しています。これは、AIの活用にあたっては、利用に関する倫理的懸念や悪用の可能性への積極的な対処が重要であることを浮き彫りにしています。
また、AIシステムは多くの場合、意思決定プロセスを評価できない 「ブラックボックス」として機能します。これが明らかに示しているのは、透明、安全、追跡可能であり、差別的でないAIシステムを実現するには、AIを管理するための適切な政策枠組みが必要であることです。グーグルCEOのサンダー・ピチャイ氏は次のように指摘しています。「AIは規制しないでいるには重要過ぎる」
インドにおいてAIの責任ある開発を保証し、セキュリティ上の脅威や危害からユーザーを保護するには、具体的な規制が必要です。インドではIT法の代替となるデジタル・インディア法(DIA)の制定が予定されています。これにより、AIやブロックチェーンのような新たな技術を対象とする、より包括的なガバナンスの枠組みが規定されるでしょう。しかし、AIをめぐる状況は常にダイナミックに変動しているため、業界固有のアプローチと協議に基づくオープンなガバナンスの枠組みも不可欠です。
KAIZEN LAW
4th Floor, Spring House, Plot No 2,
Golf Course Road, Sector 43,
Gurgaon, Haryana – 122011
電話番号: +91 9999191620
Eメール:harsh.kumar@kaizenlaw.in;
contact@kaizenlaw.in
kaizenlaw.in