古いバージョンのブラウザーを使用しています。MSN を最適にご利用いただくために、サポートされているバージョンをご使用ください。

なぜ、人間と人工知能の対話は“破綻”してしまうのか

ITmedia エンタープライズ のロゴ ITmedia エンタープライズ 2017/02/13
なぜ、人間と人工知能の対話は“破綻”してしまうのか: 雑談対話に特化したシステムやアルゴリズム、超指向性マイクなど、最先端の技術を使っても、人間と人工知能が雑談を続けるのは難しい © ITmedia エンタープライズ 提供 雑談対話に特化したシステムやアルゴリズム、超指向性マイクなど、最先端の技術を使っても、人間と人工知能が雑談を続けるのは難しい

●人間と人工知能の対話が“破綻”する4つのパターン

 雑談対話に特化したシステムやアルゴリズム、超指向性マイクなど、最先端の技術を使っても、人間と人工知能が雑談を続けるのは難しい。

 対話というのは繊細なもので、不自然な間が空いてしまったり、返答に脈絡がないと感じてしまえば、人は会話を続けるモチベーションが削がれてしまう。対話が“破綻”してしまうのだ。NTTで人工知能による雑談対話を研究している東中竜一郎さんは現在、この対話破綻を少なくする方法について、研究を重ねているという。

 「システム側が発した言葉の意味が分かりにくかったり、ユーザーの質問を無視したりすると、ユーザーは対話をする気がなくなってしまう。こういう状態を“対話破綻”と呼んでいて、それをなくすための努力をしています」(東中さん)

 東中さんによると、人工知能との対話の破綻には大きく4つの種類があるという。まずは「発話」そのものが破綻しているパターン。構文などが崩れていて、そもそも日本語として成立していないケースを指す。

 2つ目は日本語としては正しいが、相手の発言に対する「応答」が破綻しているパターンだ。例えば人間側が「それでは、趣味はなんですか?」と話しかけたときに「最後に旅行されたのはいつですか?」と返してしまうと、やりとりとして成立しなくなってしまう。

 3つ目のパターンは、1回のやりとりとしては成立しているものの、既に話した内容とかみ合わない「文脈」の破綻だ。10秒前には「お菓子が好き」と言っていたのに、すぐに「お菓子が嫌い」と言ってしまうと、話者は混乱してしまう。

 最後は「環境」の破綻で、社会的(常識的)におかしい発言をしてしまうことだ。米Microsoftが公開した人工知能botの「Tay」のように、急に人種差別的な発言をしてしまうようなケースがこれにあたる。

 「それぞれの破綻がどれくらい起きているかを調べてみると、応答の破綻が約5割、文脈の破綻が約3割くらいでした。発言そのものが破綻しているパターンが1割強で、一般常識が欠如しているようなケースはあまりありませんでした。現状では、特に応答、文脈で破綻しないようにしないといけないと考えています」(東中さん)

 この結果を基に、クラスタリングなどの細かい分析を行い、どのミスが特に破綻につながりやすいかを検討したところ、「人工知能が発した言葉そのものが解釈できない」「ユーザーの質問を無視して他の話をしてしまう」「人工知能の発した言葉の意図が分かりづらい」といったことが挙がったそうだ。

●「対話破綻検出チャレンジ」で日本中が団結

 対話が破綻しているかどうかを調べ、分析するためには、対話がうまく続いている例と対話が失敗した例を集める必要がある。そのため、システムと人間の会話データを大量に用意し、各発言についてさまざまな人に3段階で評価をしてもらったそうだ。

 「対話が問題なく続くケースに○、内容に違和感があるケースに△、内容が不自然すぎて対話を続けるのが困難というケースに×をつけてもらったところ、4割くらいが△か×、つまり対話が破綻しているんですね。破綻時にリカバリーするというアプローチもありますが、今は破綻そのものを少なくすることを考えています。

 そこで、多くの人が△や×をつけるような発言をコンピュータが自動的に検出するシステムを作ろうとしています。システムが話そうとしている内容が、対話を続けるために問題ないかどうかを自動的に検出する技術、これを対話破綻検出技術と言いますが、これに今、日本中で取り組んでいるんです」(東中さん)

 そして、この対話破綻検出技術を培う場として、東中さんが主導して始めたのが「対話破綻検出チャレンジ」だ。さまざまな大学や企業の研究者が参加して、検出システム(アルゴリズム)を構築。評価用の対話データを使って精度を競うワークショップだ。2015年、2016年と2回開催しており、2016年に開催したワークショップでは、聴講での参加者を含めて200人ぐらいが集まったという。

 「似たような評価型ワークショップの取り組みは、音声認識の分野でも行われており、成功した歴史があったので、『雑談の破綻』でもやってみようと思って始めました。とても自分一人だけで解決できるような問題ではない。だったら日本中でやったほうがいいなと。

 海外でも少しずつこうした取り組みが始まっているのですが、日本の方が評価用のデータサイズも大きいし、参加しているチームもすごく多い。この分野では日本がかなり先んじているなと感じています。しかし、米Amazon.comがAlexaで稼働するソーシャルbot開発コンテストを多額の賞金を懸けて世界規模で行っていますし、日本もうかうかしてはいられません」(東中さん)

 この取り組みのオーガナイザーには、NTT、NTTドコモ、広島市立大学、HRI-JP(ホンダ・リサーチ・インスティチュート・ジャパン)、大阪大学といった企業や大学が並び、評価用データの提供には、デンソーITラボラトリなども関わっている。

 産学の垣根を越えて協力できるのは、まだ要素技術をはぐくんでいる段階であるためだ。とある企業の商用システムを改善する、といったテーマだと競合企業などは参加しにくい。「現在のところは利害関係が薄く、学術的なモチベーションが強いため、参加障壁が低く、技術を磨くのにちょうどよい題材になっている」と東中さんは話す。

●人間とAIがお互いに「歩み寄る」ということ

 評価用のデータを提供してくれる団体が増え、ワークショップの開催規模も大きくなってきてはいるものの、そのうちに、AIが一過性のブームで終わってしまうのではないか、と東中さんは心配している。

 「りんなやSiriといったシステムも出てきていますし、世間の人は割と『人工知能との対話はできる』と感じている面はあると思います。それもあって、今は投資対象として対話研究に注目が集まるチャンスだと考えています。しかし、これもいつまで続くかは分かりません。数年でいいものができなかったら、研究が打ち切られる可能性もあるのです。お金がついているうちに不安なポイントをなくし、使えるものにして定着させる。これが目標です」(東中さん)

 さまざまなシステムが出てきていることもあり、雑談システムに対する一般消費者の“期待値”は高い。それを象徴するようなエピソードがある。先に紹介したシステムと人間の会話データにおける評価について、研究者が評価した場合とクラウドソーシングなどを使って一般の人に評価してもらった場合とで、結果に大きな差があった。一般の人が評価した場合、研究者の評価に比べて○の数が6割程度まで減ってしまったのだという。

 「研究者が『これは頑張っているな』と思っても、一般の人は『もっとできるでしょ』と思って△や×をつけてしまう。人工知能との対話は難しい、ということを多くの人に分かってもらえればハードルが下がるように思うんです。最近スマートフォンなどで実現されるようになってきた音声対話ですが、これはとても有用なメディアです。タイピングに比べて場所を選ばないし、伝達効率もとてもいい。その価値を最大限発揮するためにも、お互いに今の限界をしっかりと理解してもらうのが大事かなと。こうしたデータを見ると思うんです」(東中さん)

 「人工知能との雑談対話の研究は、もう苦労の連続です」――東中さんはこう話す。人間がこれだけたやすくやっている雑談をなぜコンピュータはできないのか。Googleが開発したAlphaGoなど、人間を超える知能を持つ可能性を見せられ、人工知能への期待は膨らむばかりだが、その一方でその限界を知り、その限界を超えようとさまざまな研究を行っている人たちもいる。

 人工知能が人間の思考を理解する形で進化してきたように、人間も人工知能のことを理解していく。こうしたお互いの“歩み寄り”こそが、AIによる「おもてなし」の秘訣であり、ひいては人とAIの「共存」へとつながっていくのかもしれない。

ITmedia エンタープライズの関連記事

image beaconimage beaconimage beacon