古いバージョンのブラウザーを使用しています。MSN を最適にご利用いただくために、サポートされているバージョンをご使用ください。

「Siri」などの音声アシスタント、超音波でハッキング可能──浙江大学の論文

ITmedia NEWS のロゴ ITmedia NEWS 2017/09/07
「Siri」などの音声アシスタント、超音波でハッキング可能──浙江大学の論文: DolphinAttackシステム © ITmedia NEWS 提供 DolphinAttackシステム

 米Appleの「Siri」、米Amazon.comの「Alexa」、米Googleの「Googleアシスタント」などの音声対応AIアシスタントは、人間の耳には聞こえない超音波を使って操作できる──。中国浙江大学の研究者らが8月31日、そのような研究結果を発表した。

 実験では、人間の声による音声命令を超音波に変換し、それを再生する「DolphinAttack」と呼ぶ技術を使った。変換した超音波は人間の耳には聞こえないが、SiriやGoogleアシスタント(論文上では「Google Now」となっている)、Alexaはそれぞれ反応して命令に従ったという。iPadやAudi Q3など、16種類のハードウェア、7種類のシステムで操作に成功した。

 研究者が投稿した下のYouTube動画では、Siriに超音波で電話を掛けるよう命令し、成功したのが分かる。

 実験に使った装置は持ち運べるくらいのサイズで、超音波変換ツールは3ドル以下の材料費で制作可能(接続するスマートフォンが必要)。

 例えばこの装置をポケットに忍ばせて操作したいユーザーのiPhoneやAmazon Echoの近くに行き、超音波の音声命令を再生すれば、相手に気づかれずにそれらの端末を操作できるかもしれない。

 スマートホームで利用している場合は、家の鍵を開けることも理論上は可能だろう。

 ほとんどのユーザーは音声アシスタントの設定で音声で返答するようにしているはずなので、命令を受けた段階で気づきそうではある。

 研究者らは、超音波に反応しないようハードウェアのマイクを改善したり、周波数で音声をフィルタリングするソフトウェアを開発するなどの対策が可能だとしている。

ITmedia NEWSの関連記事

image beaconimage beaconimage beacon