LinkedIn
Facebook
Twitter
Whatsapp
Telegram
Copy link

生成AIの台頭により、津波のように衝撃波が広がっています。

AI技術をいち早く導入した企業では、文書、画像、音楽、動画が驚くべきスピードで作成されています。その品質は著しく向上し、人が作成したものと区別できないことも少なくありません。その裏返しとして必然的に、市場での地位を奪われることを恐れるクリエイターの間では、懸念が高まっています。さらに追い打ちをかけるように、このようなクリエイターが制作した作品を使って、AIは訓練されているのです。

Ban Jiun Ean
Ban Jiun Ean
最高経営責任者
Maxwell Chambers
シンガポール
Eメール: info@maxwellchambers.com

著作権や海賊版に関する懸念、生計への不安、従来の評価や試験の方法が急速に陳腐化するのに伴って、学生や研修生が勤勉さや労働倫理を軽視するようになるなど、規制や業界の慣行を通じて対処するべき深刻な問題があるのは確かです。

しかし、いつの時代であっても、新しい技術には新たな課題と機会が伴うものです。このような技術に適応し、それらを調整し、進化させるのは、常に社会の役割でした。新しい技術を受け入れ、適切に活用することについても同様です。

自動織機の発明が産業革命期の社会を大きく変動させた時代、繊維工場の労働者たちは失業の不安にさらされました。電話交換機の性能向上に伴い、電話交換手の姿はなくなりました。ワープロが発明された結果、タイプ室は消えました。とはいえ、このような変化はすべて長い時間をかけて起こったため、従来の職種が消えていく間に、人々はスキルを習得・向上する機会がありました。

しかし、AIのイノベーションの速度はあまりに速く、政府が規制することも、ましてや人々が従来の仕事を辞めるために新しいスキルを習得することさえも、容易ではありません。

しかしこれらは、AIがもたらす課題の中でも最大のものである「信頼」の問題に比べれば、些細なことだと言えるでしょう。

機械は人間より速く、より優れた仕事をすることができます。たとえば、重量の大きな荷物を運んだり、人間が行くには危険過ぎる場所に行ったり、100人分の仕事をしたりすることが機械には可能です。このような事例のすべてにおいて機械は、その背後に存在する意思決定者である人間の努力を増大させているにすぎません。

しかし、機械に何をすべきかを指示されて生活することは、上述の事例とはまったくの別物です。AIが関与する状況では、意思決定の過程から、人間が完全に排除される恐れがあります。

ある意味では、私たちはすでにそのような現実を生きています。すでにAIのアルゴリズムは、タクシー運転手がどの乗客を乗せるべきかを自律的に決定しています。人が関与することなく顔認証検査を行い、個人の身元を判断します。あなたの視聴・購入の習慣を調査し、何千、何百万という選択肢の中から、あなたが興味を持ちそうな番組や商品を推奨します。あなたのソーシャルメディアのフィードにどのツイートやスレッドを表示するか、どれを表示しないのかを決定します。

好むと好まざるとにかかわらず、私たちの生活はすでにある程度AIに左右されているのです。

食事、買い物、映画、あるいは移動手段のような、より日常的なことに関しては、それが可能な限り低コストで実行でき、効率と効果が高まるのであれば、私たちは誰が自分を誘導しているのかという点をほとんど気にかけません。このような状況では、どのように決定がなされ、誰がそれを行うのかなどのような、私たちがはるかに気にかけるべき分野にAIが密かに侵入しつつあるという事実に、無頓着で鈍感になってしまいます。

ChatGPTが教えてくれるレシピは信用できるのでしょうか? そのレシピに従って作られたものを食べるでしょうか? 情報源や背景が明らかにされていない場合に、AIがまとめた「事実」を信用できるのでしょうか? AIを搭載したアプリが提供する「医療アドバイス」に従って行動するでしょうか? そして、私たちが経験している光景や音がデジタルなものであったとしたら、目で見たり耳で聞いたりしているものを信じることができるでしょうか?

ディープフェイクは、生成AIが普及するはるか前から問題になっていました。そして今や、著名人にとっても一般の人にとっても、悪夢としか言いようのない事態になりつつあります。

信頼は、以前にも増して新しい通貨になりつつあります。Googleが検索エンジンの頂点に立つことができたのは、信頼があったからです。人々はその検索結果を他の何よりも信頼しているのです。しかし、仕組みを理解しておらず、情報の出所が不明で、誰が設計したのかもわからないものを信頼するでしょうか? これが、AIを用いて重要な決定を下すことの根本的な問題なのです。

極端ではあるものの適切な例として、自律型殺傷兵器があります。世界中の軍隊がAI兵器の開発競争を繰り広げていることは周知の事実であり、国防の世界では、この競争に勝ったものが優位に立つと広く信じられています。そのため各国政府は、AIを搭載しAIに制御される兵器の製造や、サイバー戦争でのAIツールの活用のために、膨大な労力を注いでいます。

理論家や批評家が支持するレッドライン(越えてはならない一線)の一つは、人の命を奪う決定をAIに委ねてはならないというものです。これは常に、人の手に握られていなければなりません。その根底にあるのは、人は依然として倫理観、道徳性、義務感、名誉、忠誠心、連帯感、あるいは単なる利己心によって、ある程度は抑制されるはずだという論理です。恐ろしいのは、兵器となったAIにはそのような防護柵や配慮がなく、人の命を奪う決定が単純な数字と確率の問題に矮小化されかねないことです。

そのため、人の命を奪うことを最終的に決定するのは、常に人であるべきだと主張されています。

AIが生きるべき人と死ぬべき人を決めてはならないことには、誰もが同意します。しかし、AIによる戦争行為の支援をどの程度認めるかについては、意見が分かれます。どの時点を越えれば、最も重要な決断をAIに委ねたとみなされるのでしょうか?

現在、多くの軍隊では、潜在的な脅威や敵を特定する際の補助としてAIを使用し、戦場で利用するための大量の情報(多数のセンサーによって収集され、他の膨大なデータと統合された情報)を処理・分析しています。その後、理論的には、攻撃の決定が人間のオペレーターに委ねられます。しかし、戦場の情報分析に基づいてAIが提供するアドバイスにおいて、AIが標的の脅威の確度は「99%」と報告した場合に、「攻撃」を拒否するオペレーターはいるでしょうか? あるいは、AIが標的は高い確度で無害であると報告した場合に、自信を持って攻撃できるオペレーターがいるでしょうか?

事実上、これは攻撃するか否かの決定が、すでにAIとそのアルゴリズムに委ねられていることを意味しています。重要度の低い決定を除き、人間のオペレーターは基本、形式的な指令を出すだけなのです。

これが、法律とどのような関係があるのでしょうか? まさにこのような懸念が、司法や法執行におけるAIの利用に関してすでに生じていると言えます。

英国では、20年前からOASysと呼ばれるプログラムにより受刑者の釈放後の再犯リスクを評価し、仮釈放の決定に利用しています。米国では、COMPAS(Correctional Offender Management Profiling for Alternative Sanctions)という再犯予測プログラムが、同様の目的のために使用されています。

これらのプログラムは、多くのデータポイントに基づいて再犯の可能性を予測し、その結果が裁判官による仮釈放の可否の決定を左右します。これらのプログラムに対しては、支持も批判もあります。効率性とスピードを高く評価する声もあれば、その機密性のために非公開で調査できないデータによってプログラムが訓練される結果、偏りや差別的な判定が生じる疑いがあるという指摘もあります。

必ずしも生死に関わるわけではありませんが(今のところは)、このようなプログラムが個人の運命、つまり引き続き収監されるか自由を得るかを決定することに、変わりはありません。しかも、そのような決定がどのように、なぜ下されたのかが不明瞭です。それは、特に機械学習の登場によって、アルゴリズムが比類ないペースで自己学習するようになり、アルゴリズムが複雑になりすぎて理解不能になったからです。マイノリティや特定の社会経済的経歴を持つ人々のプロファイリングが公平性に欠ける、という非難には、アルゴリズムや訓練用データセットが外部に公開されない限り、対応や解消のための対策を講じることは容易ではありません。

このような懸念は、Maxwell Chambersにおける技術導入へのアプローチに、大きな影響を及ぼしています。紛争解決の際、積極的に複合現実やオンライン会議を活用する一方で、当事務所に適したAI製品を慎重に検討するとともに、望ましくない結果が生じないよう、十分なセーフティネットを整備しています。

今後AIツールの利便性や性能が向上していくのは、ほぼ間違いありません。多くの人が予想するよりも早く、AIツールは広く普及し、ビジネスの基盤となる日が来るでしょう。その時まで、私たちは徐々にAIツールの導入を進めつつ、状況を注意深く見守っていきます。

同様に、シンガポールではAIに対して多大な投資が行われていますが、消費者保護とイノベーションや成長を妨げないことのバランスが重視されています。

AIの威力と危険がついに明らかになった今、文書作成と法的調査の効率を高めるためだけのAI利用を越えて、アルゴリズムに何を委ね、何を委ねないかを再考するべき時でしょう。

Maxwell Chambers

MAXWELL CHAMBERS
32 Maxwell Road #03-01
Singapore 069115
電話: +65 6595 9010
Eメール: info@maxwellchambers.com
www.maxwellchambers.com

LinkedIn
Facebook
Twitter
Whatsapp
Telegram
Copy link