古いバージョンのブラウザーを使用しています。MSN を最適にご利用いただくために、サポートされているバージョンをご使用ください。

視覚障害者にも安全な案内を――Beacon+AIで生まれた音声ナビの実証実験

ITmedia エンタープライズ のロゴ ITmedia エンタープライズ 2017/01/26
視覚障害者にも安全な案内を――Beacon+AIで生まれた音声ナビの実証実験: 視覚障害者、車いすユーザー、外国人の利用を想定したデモが披露された © ITmedia エンタープライズ 提供 視覚障害者、車いすユーザー、外国人の利用を想定したデモが披露された

 「右斜めを向いてください。そのまま、14メートル直進してください」「左に見えたエレベーターで2階に上がってください」

 東京・日本橋の商業施設「コレド室町」で、2017年2月8日から3週間、スマートフォンアプリを使った音声ナビゲーションの実証実験が行われる。屋内や地下でも高精度な位置情報を取得できるBeaconを利用し、車いす利用者や、視覚障害者、訪日外国人を含む来訪者を、それぞれに適した誘導方法で、正確に目的地まで案内する。

 目的地をアプリとの対話で決めるのも大きな特徴だ。例えば「中華料理が食べたい」などと話しかけると、アプリがお店を提案してくれる。「お願いします」と答えると、目的地までの案内が始まる仕組みだ。カーナビのように、分岐点に差し掛かると、目的地に向かう方角の道を指示していく。音声は日本語と英語に対応する。

 使うユーザーの属性でナビゲーションの内容も変わる。一般歩行者には最短経路を示し、車いす利用者に対しては、階段や段差のない経路を選ぶ。視覚障害者の場合は、点字ブロックの存在など、スムーズな移動に必要な細かい情報が加わる。

●清水建設と日本IBM、三井不動産の3社が協力

 実証実験の実施にあたっては、清水建設と日本IBM、三井不動産の3社が協力した。清水建設がナビゲーション用の地図として空間情報データベースを構築。三井不動産がコレド室町内の店舗情報や施設情報を提供した。

 日本IBMは、5〜10メートルの間隔で天井に設置したBLE(Bluetooth Low Energy)対応のBeaconから発した電波強度を分析する、屋内測位のためのアルゴリズムを開発したほか、IBM Watsonなどに使われているコグニティブ技術をもとに、アプリにおける音声対話インフラを構築した。

 視覚障害者も安全に利用できるように、位置情報の誤差は「白杖で周囲の環境を把握できる、1〜2メートル程度に収まるように調整している」(日本IBM)という。スマートフォンに搭載している加速度センサーとジャイロセンサーを使い、体の向きなども推測できるため、エレベーターの中でどの方向にボタンがあるのか、といった情報まで提供可能だとしている。

 3社で実証実験の検討を始めたのは2016年5月。同年9月にインフラの整備を始め、3カ月後に12月には、人を使った実験を開始した。視覚障害者向けのナビゲーションシステムは、もともと、2015年中に清水建設と日本IBMが開発していたという。

●実際にアプリを使うデモも披露

 1月26日に行われた発表会では、実際のアプリケーションを使い、視覚障害者、車いすユーザー、外国人の利用を想定したデモも披露された。

 視覚障害者用メニューのデモでは、アプリの開発に携わり、自らも視覚障害者である日本IBM東京基礎研究所 IBMフェローの浅川智恵子氏が実演。東京メトロ銀座線「三越前駅」の地下歩道付近から、コレド室町内の施設に向かうというもので、途中で少し壁に当たる場面もあったが、幅2メートル弱の通路をトラブルなく進んでいった。

 「視覚障害者には本が読めないという情報の壁と、一人で外出できないという移動の壁という2つの壁がある。今回の実証実験のゴールは視覚障害者が街歩きを楽しむこと。2020年にこの技術が東京中に広がって、世界のロールモデルになることを願っている」(浅川氏)

 2月8日から始まる実証実験に参加するには、iOS 10以降を搭載したiPhone(6以降、SEを除く)で、App Storeから配信されるナビゲーション用アプリ「NavCog」(無料)をダウンロードする。今後は参加者のアンケートから、位置精度、音声案内のタイミング、分かりやすさなどを評価し、サービスや技術の課題をシステムに反映させていくとしている。

ITmedia エンタープライズの関連記事

image beaconimage beaconimage beacon