人工知能(AI)による倫理的な解析

, ,

トピックス
  • 2018年8月9日

    エレノア・パウエルス

    EmergingCybertechnologies

    近年、人工知能(AI)ほど多くの希望と脅威、期待と不安、祝福と非難を同時に集めている技術はない。ここ数カ月だけでも、人類にとって目を背けられないほど強力な技術的将来性、AIの覇権争い、社会的進歩とサイバーインフラへの攻撃の両方を可能にする手法などを扱った記事が紙面を賑わせている。語り手である私たち人類は、生き残りをかけたこの言説に興奮しがちだ。

    AIのような新興技術(最新の技術)における倫理的解析は、全く異なる作業を要する。成果を上げるには、学問分野や文化を横断する包摂的な取り組みが必要だ。

    人口知能(AI)の課題

    「ディープ・ラーニング」と呼ばれるAIは、膨大なデータからパターンを特定・分類する方法により、予測した推論を最適化する。このスーパーコンピュータ(高速計算や処理を可能にする大規模コンピュータ)のような効率は、数秒のうちに多数のシナリオをシュミレーションできるため、国民全体の遺伝情報(遺伝子や染色体の情報)を比較したり、群衆の中から一定の顔を判別したり、数百万枚の画像に基づき地球上の場所をすべて特定するなど、他に類を見ない調査の機会を提供する。

    もちろん、多国間機関はこの技術に注目している。アントニオ・グテーレス国連事務総長は「学際的で協調的なアプローチが、いかにすべての人の安全で包摂的な未来につながるかについて、より幅広いグローバルな対話」を促進するため、デジタル協力に関するハイレベル・パネルを設置した。私自身も、これまでの5年間、協力やガバナンスが自身の専門領域であるAIと新興技術にどのように適用されるかを考えてきた。

    誰が労働市場で勝利を収めるか、誰が保険に加入したり、裁判で優位に立ったりできるか、どのようなDNAや行動パターンが市場主義者の目に留まるのかなどを決定する知性を持つ機械を構築する知識と権力は、世界人口の約0.004%という一握りの人間に集中している。このような状況において、「協力」にはどのような意味があるのだろうか。私たちはAIのように、豊かな社会で生まれた少数の人々に設計のほとんどが任され、それが生活の多くを決定づけるほど強力な技術に直面した経験がない。この知識と権力の非対称性は、世界的な協力に大きな課題を投げかけている。

    精密な技術的設計を作り上げ、倫理的な破綻を予測し、意図しない害悪を最低限に抑えるためには、知識と経験の多様性が欠かせない。例えば、「ブラック・インAI」と名乗るエンジニア集団により、顔認識技術は肌の色が濃い人々の特徴ほど追跡に失敗しやすいという事実が明らかとなった。

    デジタル協力について考え、話し合う必要がある理由は、まさにここにある。この戦略的プロセスには、最も優秀で頭脳明晰な人々だけでなく、エンジニアや学術研究者、市民社会活動家など、できるだけ幅広い人々を巻き込む必要がある。そして、どのような世界で暮らしたいのか、AIはその世界の実現に資する技術的、倫理的成果の達成にどのように貢献するのかを、一緒に考えるべきだ。

    グローバル市民として、自らの技術的未来を決定できるようにするためには、リスクとありふれた手法の構築に潜む、不平等や無力化の根源を慎重に検討する必要がある。AIのような新興技術の設計、またその役割の予測に必要な知識と教育へのアクセスは、未だに贅沢と見なされている。

    気の遠くなるような手法をどのように設計し統制すれば、グローバル化する世界の倫理的ニーズを満たせるだろうか。

    専門家に学ぶ

    このような疑問について考えるため、私は、現代的奴隷制から新興のサイバー技術に至るまで、グローバルな公共政策課題にシンクタンクとして取り組む国連機関である、国連大学政策研究センター(UNU-CPR)に加わった。先日、国連本部の向かいで開催された、人工知能(AI)の統制方法について関心を持つ専門家を集めたシンポジウムに参加した。そこでは多くの懸念が残った。

    一般市民のなかでは、定式化された手法が力を持ち、統制権を奪われるのではないかという不安が高まっている。なぜならそれは、私たちの理解や信頼、責任のあり方を逸脱する力とみなされているからだ。シンポジウムは、AIと安全、倫理、人権が絡み合うさまざまな事例を用いて、法の支配と同じように人工技術によっても社会が統制されているという事実を改めて認識させてくれた。つまり、AIによる統制の懸念点の一つは、設計を理解できず、結末も予期できない強力な技術システムに、最終的に支配されてしまうのではないかという点である。

    優秀な技術者や哲学者は、技術が政治、道徳において中立だという通説に疑問を投げかけた。彼らは、複雑な技術は二重の用途だけでなく、二重の性質も備えていると論じた。この議論は、数十年前に科学技術の研究において生まれた、現代技術は科学と社会の両方によって創出されるという知見を基としている。現代技術は、善悪両方に使える抽象的人工物としての手法ではなく、人間が設計した具体的な構造化機能や、一定の権力と性質を与えられた手法を主としている。このような構造化機能や設計プロセス、また実用化された場合に設計上の選択が現実世界に及ぼす影響は、社会から厳しい目で見られている。

    遺伝学や気候学において直面する問題をはじめ、複雑なデータに基づく問題を解明するうえで、AIは今までにない協力者となるだろう。しかし、こうした予測的知能は、誤検出や偏見など、予測困難なリスクや未知の要素を拡大しかねない。また、社会的価値観と対立したり、AIを作る権力を持つ人々の優先課題や嗜好、偏見を反映する恐れもある。

    国連大学政策研究センター(UNU-CPR)が開催した最近のシンポジウムで、『コ―ド化された視線(Coded Gaze)』の著者であるマサチューセッツ工科大学(MIT)メディア・ラボのジョイ・ブォロムウィニ氏は、現状の顔認識手法は、機能的性質と最適化プロセスにより、アフリカ系米国人の特徴を判別できなくなっていると示した。これはまさに、私たちの眼差しや視線が逆転したかのようだった。

    マイノリティの人々はこの新しく強力な手法によって非難され、のけ者にされかねない。ヒューマン・ライツ・ウォッチのディナ・ポーケンプナー氏が説明したとおり、特定のAIアプリがさまざまな人権をどれだけ侵害しかねないかを検討、評価する必要性が急務となっている。AIは幅広いバイオテクノロジーや行動技術に組み込まれているため、こうした疑問は新たな側面を帯びてきた。

    身体のインターネット

    最近の ニューヨークタイムズの記事によると、政府は道路規則に違反した歩行者をさらし者にしたり、群衆の中で騒ぎを起こす人を摘発したり、追跡または威嚇しようとする反体制派やデモ参加者を特定したりするために、顔認識ソフトを用いている。信用度を採点したり、求職者を審査したり、中国人の国家への忠誠度を判定したりするために、顔や財務情報、個人情報のデータベースに接続することもある。

    近い将来、バイオセンサー(生体内の分子を識別する分析装置)とアルゴリズム(問題を解くための手順を、計算や操作の組み合わせで定式化する手法)が連携して、生体測定値や生命の基本的兆候、感情や行動について、ますます詳細な記録を補足、分析するようになるだろう。そしてAIは、私たちを監視、追跡、評価するようになるだろう。次から次へと、アルゴリズムの予測対象が増える時代が来るのである。うっかりしていると、身体やゲノム、精神に対するかつてないアクセスをアルゴリズム・ネットワークに認め、フーコー的悪夢(悪夢が現実になりかねないといった考え)を超えた社会や、生体への統制を生み出してしまうかもしれない。私はこうした一連のネットワークを「身体のインターネット」と呼んでいる。

    人類が人間の行動や生理機能、生態系をこれほど大規模に監視、分類できる能力を備えた経験はない。AIを活用できるノウハウを持つ国々が、他国の人々や生態系の生物学的データを高価な経済価値に変えてしまえば、地政学的な緊張状態が高まる恐れもある。

    さらに幅広い哲学的疑問も生じる。 私たちが、理解し共有もできない推論やルール、価値を用いて知識を取得、展開する自己学習型機械のユビキタス・ネットワークと共生すると、どのような影響があるだろうか。

    フィードバック・ループの創出

    生物界においてフィードバック・ループ(フィードバックを繰り返し、結果が増幅していくこと)は、生物種が変化する生態系の中でストレス要因にうまく適応するために欠かせない。生物学的な強靭性は、遺伝の多様性とシステム制御による精密な組み合わせを基としている。このように制御するフィードバック・ループはAIにも必要だ。

    MicrosoftからGoogle、さらにはIBMに至るまで、世界有数のAI研究所は最近、自主制御を意識しながら現実世界の問題に取り組んでいるという社会的責任原則を発表した。それでも、こうした原則が実践として根付かなければ、豊かな社会における急激な金融成長を優先するように知能技術が設計される危険性は残る。技術関係者だけの内輪の話合いは、全世界の市民が望む未来を決定する可能性を広げるよりむしろ、狭める結果を招く。

    今こそ立ち止まり、これらの疑問について考える必要がある。AIにおけるグローバルで包摂的、かつ複雑な協力とガバナンスモデルをいかに醸成できるか。国連のデジタル協力に関するハイレベル・パネルは、公的またプライベートセクターが世界的視野で会話を構築することを助けるだろう。

    第1に、技術を提供するリーダーと、技術の利用者との間にある権力の非対称性を埋め合わせる方法について考える必要がある。最近のUNU-CPRのシンポジウムで深圳開放創新実験室のデイビッド・リー氏が述べたとおり、「街場のAI」を実験的に採用し、全世界のさまざまなコミュニティに対し、彼らのデータやアイディア、デザインをAIイノベーションに変える方法について学ぶ機会を与えるべきだ。都市をグローバルにつなげながら、ローカルな独創性を保ち、知識やビジョンの多様性を着想の糧とできれば、どうなるだろうか。

    政府間においてもAIによる経済、軍事競争をあおる言説の中和を目的とし、戦略的で先見性のある対話を促進しながら、同様の知識共有を行うべきだ。

    第2に、AIの社会的認可をどのように構築するかについて議論する必要がある。公的、民間セクターの主体に対し、AIの開発と展開を公益と整合させるよう促すための新たな誘因構造が含まれる。ハーバード・ケネディスクールのシーラ・ジャサノフ氏が示す謙虚な技術に必要なのは、安全なアルゴリズムと慎重に吟味されたデータだけではない。AIを完全に使いこなせると考えている人々が謙虚さを持ち、世界的な利益となる知能設計を創出できるよう人々をエンパワーメントする必要もあるだろう。

    より平等で平和な世界は偶然にはでき上がらない。AIのリスクだけでなく、将来性も予測し決定づけるためには、包摂的で「世界的視野」を持った会話の促進が必要だ。

    ●●●

    エレノア・パウエルスは、国連大学政策研究センター(UNU-CPR)リサーチフェローで、新興サイバー技術について研究している。