人工知能はもう悪用される段階に 専門家警告

A robot pointing

画像提供, Getty Images

画像説明, 人工知能(AI)の脅威は現実のもので、悪用される技術の多くはすでに開発済みだと専門家たちは警告する

ミサイルに変化するドローン(無人機)、世論を操る偽物のビデオ、自動化されたハッキング。これらは、悪の手に渡った人工知能(AI)がもたらす脅威の一部に過ぎない。第一線のAI専門家26人が、警告を発表した。

14機関の専門家26人が今月、英オックスフォードでAIの危険についてワークショップを開いた。その結果をもとにした報告書「悪意ある人工知能の利用」は、ならず者国家、犯罪者やテロリストによるAIの悪用はすでに可能で、機は熟していると警告している。

100ページにわたる報告書では、AIが最も悪用される可能性がある3つの分野として、デジタル、現実世界、政治を特定している。

報告書には、非営利研究機関「オープンAI」やデジタル権利団体「電子フロンティア財団」、米国立安全保障シンクタンク「新アメリカ安全保障センター」も参加している。

AIシステムの設計者は、自分たちが開発する技術が悪用される可能性を減らすため、今まで以上に努力する必要があるという。

さらに報告書は、各国政府は新たな法律を検討しなくてはならないとも提言している。

報告書の主な提言は次の通り――。

  • 政策決定と技術研究の担当者は連携して悪意あるAIの使用について理解し、備えなければならない
  • AIは様々な形で有用だが、諸刃の剣の技術で、研究者や技術者は悪用される可能性に留意し、先回りして対応する必要がある
  • 善悪両方に使える技術を長く扱ってきた分野(たとえばコンピューターのセキュリティ)から、最善慣行を学ぶべき
  • AIの悪意ある使用リスクを軽減し防止しようと取り組む、利害関係者の範囲を積極的に拡大させる

ケンブリッジ大学人類絶滅リスク研究センター(CSER)のシャハール・アビン博士は、遠い未来のことよりも、現在入手可能な、あるいは5年以内に入手可能になる分野のAIに重点を置いたと、報告書についてBBCに話した。

「流れを一気に変えるもの」

特に気がかりののは「強化学習」と呼ばれる新分野だ。人間の実例や指導のないまま、AIに超人的なレベルの知能を習得させる。

アビン博士は、近い将来にAIがどうやって「悪者」になってしまうか、可能なシナリオをいくつか示した。

  • グーグルのディープマインドが開発し、人間の囲碁棋士を出し抜いた「アルファ碁」のような技術をハッカーが利用し、データやプログラミングコードのパターンを読み取る
  • 悪意ある個人がドローンを購入し、顔認証技術を搭載させて特定の個人を攻撃する
  • ボットの投稿を自動化したり、あたかも実際の人間が投稿しているかのような「フェイク」ビデオを流して政治的に世論を操る
  • ハッカーが標的とする個人の話し方を合成し、なりすます

オックスフォード大学「人類の未来研究所」のマイルス・ブランデージ研究員は、「AIは市民や組織、国家を取り巻くリスク状況を変えてしまう。犯罪者がコンピューターに人間並みのハッキングやフィッシュ技術を学習させたり、個人のプライバシーなど有名無実化する監視・プロファイリング・抑止技術を覚えさせたりと、セキュリティにとてつもなく多大な影響が及ぶ」と懸念する。

「AIシステムが人間の能力水準に達するだけではなく、それを大幅に上回るのはよくあることだ」

「超人的な能力によるハッキングや監視、説得、人物特定の影響を検討するのは、とても心配だが、必要なことだ。人間以下の能力でも、人間の労働力を使うよりは一気に規模を拡張できるたぐいのAI能力も同様だ」

CSERの責任者で報告書を共同執筆したショーン・オヒガティー博士は、「人工知能は、今の状況を一気に変えることができる。この報告書は、今後5~10年間の世界の様子を想定している」と説明する。

「私たちはAIの悪用で日々、危険にさらされかねない世界に住んでいる。私たちはこの問題を、自分たちの問題として捉える必要がある。リスクは実際に存在するからだ」

「いま決めなくてはならないことがいくつかある。我々の報告書は、世界中の政府や機関、個人に行動を起こすよう呼びかけるものだ」

「AIと機械学習についてはもう何十年も、事実よりもおおげさな話ばかりが注目されてきた。それではもう駄目だ。この報告書では、もう効果がなくなった慣習に着目し、役に立つだろう様々な方法を提案している。例えば、ハッキングされにくいソフトウェアやハードウェアの設計方法や、どういう法律や国際規制なら有効に連携できるかなどの提案だ」