古いバージョンのブラウザーを使用しています。MSN を最適にご利用いただくために、サポートされているバージョンをご使用ください。

人工知能は暴走する、ただしそれは“人の手”によって

ITmedia エンタープライズ のロゴ ITmedia エンタープライズ 2017/09/06
人工知能は暴走する、ただしそれは“人の手”によって: 最近、人工知能が独自の言語で会話をした、というニュースが話題になりました © ITmedia エンタープライズ 提供 最近、人工知能が独自の言語で会話をした、というニュースが話題になりました

 つい最近、「Facebookが開発していたチャットbotが、独自の言語で会話をした」というニュースが話題になりました。実はこれ、Web上で公表されている研究内容を読むと「ウソ」だということが分かります。

 文中に“led to divergence from human language”とありますから、実際のところは全く新しい言語を作ったのではなく、ルールからの逸脱(重み付けのミスであり、一種の不具合のようなものだと思います)と考えるのが正しそうです。なぜ、このような「フェイクニュース」になったのかは不明ですが、やはり、人工知能陰謀論は注目が集まりやすいのでしょう。

 こうしたニュースをはじめとして、私自身も「人間の及ばない知性を獲得した人工知能が暴走する可能性はありますか?」と相談を受けることがあります。自我を獲得した人工知能が、暴走して私たちの世界を支配する――そんなSFのような話に対し、人工知能学者が真面目に反論する機会はさすがに減ってきました。

 では、人工知能が暴走した世の中を想像するのは、ばからしい話なのでしょうか? 実はそうでもありません。

●人工知能の誤動作や、意図しない挙動というリスク

 全日本交通安全協会の調査によると、2016年の交通事故死亡者数は4117人でした。約2時間に1人が車に起因する事故に巻き込まれ、命を落としています。最近では、テロリズムの道具になるケースも多いです。では、人間の尊い命を奪う自動車という道具を、危ないという理由で全面的に禁止するべきでしょうか。

 いろんな見方があるでしょうが、自動車が社会にさまざまな恩恵をもたらしているのは事実です。従って、「人間に危害を加えないよう、さまざまな規制を設けた上で、安全に使うべき」という意見が大半だと思います。速く自由に移動できるからこそ、救急車のような人の命を救う道具にもなるわけです。

 人工知能も同様です。連載の第1回で、人工知能は「人が作り出したシステム」だとお話ししました。ならば、それが暴走すれば“人の手”によって起きた事象でしょう。喫緊の課題は「自我を持った人工知能の暴走」というSFめいた話ではなく、自動車や産業用機械、アプリなどに組み込まれた人工知能の誤動作や、意図しない挙動に対するリスクなのです。

 例えば、「どんな食材も人工知能がちょうどよくあたためてくれる電子レンジ」が開発されたとします。もしも、人工知能が殻付き卵をカマボコと誤判断したらどうなるでしょうか。卵は電子レンジの中で音を立てて爆発してしまうでしょう。

 そのとき、卵が爆発したのは誤った判定をした人工知能を開発したメーカーの責任でしょうか。それとも、そもそも卵を電子レンジであたためようとした使用者の責任でしょうか。市場に流通している人工知能を搭載した製品をよく見てみると、人間に危害を加えない領域で浸透していることが分かります。私たちはまだ、人工知能のリスクに対する答えを見つけていないのです。

●自動運転で死傷事故、メーカーの責任か? ユーザーの責任か?

 その試金石として見られているのが、まるで人間が乗っているかのように自動車を運転してくれる「自動運転技術」です。自動運転中の車が死傷事故を起こした場合、それは運転席に座っている人間の責任でしょうか。自動運転技術を開発したメーカーの責任でしょうか。

 2016年5月に、テスラ社の自動運転機能を搭載した車による死亡事故が起きた際、国土交通省は次のような報道発表を行いました。

・現在実用化されている「自動運転」機能は、完全な自動運転ではありません!!(国土交通省)

 つまり、現状市場に流通している自動運転機能を用いた運転による事故の責任は、全てにおいて運転者にあると断言したのです。自動運転技術のレベル感については、官民ITS構想・ロードマップに詳細がまとまっています。中でも、以下の図が分かりやすいでしょう。

 私たちは「自動運転」と聞くとレベル5、つまりどのような状況下でも、人工知能(システム)が全ての運転タスクをこなしてくれる状態を思い浮かべますが、現在市場に流通している自動運転機能はレベル1〜2程度で、人間による操作が必要だといわれています。

 とはいえ、人工知能を搭載する“人の命に携わる”システムとして、最も実現可能性が高いのが自動運転技術です。既にテスラやアウディといったメーカーは、レベル3の能力を持つ自動運転車の販売準備を始めています。自動走行モード中に起きる事故の責任を、冷静に考えるなら今なのです。

 例えば、夜間走行中にグレア現象(対向車と自車のヘッドライトが重なる部分で、お互いの光が反射し合い、間にいる歩行者などが見えなくなる現象)が起きても、人工知能は認識できるのか? そもそも、空間を認識する搭載カメラに傷が付いた、あるいは泥汚れが付いて正しく認識しなかったら……。

 人工知能が私たちの社会に浸透する時代、誤動作リスクという現実的な問題が迫っているのです。

●ルール作りへの協力も人工知能開発者の仕事ではないか?

 人工知能のミスは誰が責任を負うべきなのでしょうか。先日、ジャストシステムが行ったWeb調査でも、人工知能を利用して生じた過失の責任について、「利用者側に責任がある」と答えた人は約3割、「メーカー側に責任がある」と答えた人は約5割いました(分からないと答えた人は約2割)。世論としても、両方の意見がある状況です。

 こうした問題に対するルールを作るためには、開発者の知見が欠かせないと私は思います。記事冒頭で紹介したチャットbotの話も、Facebookの開発者は「ルールから逸脱した理由は不明」だと言っています。英語圏の文法の重み付けが弱かったのではないか、という推測を述べている程度です。

 しかし、自動運転中の車が死傷事故を起こしたとき、意図しない挙動を起こした理由について「ディープラーニングだから説明できない」「人と認識する方法が弱かったのかもしれない」などという推測しかできないようでは、実用化は厳しいと言わざるを得ません。

 一方で、ディープラーニングのような“理由付け”ができない人工知能の開発を禁止すると、あらゆる革新が遅れるのも事実です(人間も数々のバイアスによって、論理的な行動ができないことが多いですが)。従って、人工知能を実現する言語、手法、特徴を理解する人間が、実際に人工知能を組み込む分野に精通する人間とともに、ルール作りを行うのが現時点での現実解だと考えます。

 その観点で考えると、AI開発ガイドラインの策定を行う、総務省の「AIネットワーク社会推進会議」のメンバーに、人工知能開発で有名なPreferred Networksの経営陣が参画したのは素晴らしいことだと思いましたし、途中で離脱したのは残念で仕方がありませんでした。

 自動運転以外でも、創作物に対する著作権の所在など、人工知能の判断に対する法的責任については、課題が山積しています。ルール作りへの協力も、人工知能開発者の仕事だと私は考えます。開発者陣はそろそろ、社会との窓口に立つロビイストを雇ってもいいのではないでしょうか。ひいては、それが人工知能開発を前に進める力になるはずです。

ITmedia エンタープライズの関連記事

image beaconimage beaconimage beacon