SiriやAlexaなど、音声認識アシスタントは音楽でだませちゃう!

UCB、浙江大学等の研究者が超音波ハッキングを発表
TechCrunch日本版

Alexa、Siri、Googleアシスタントなどのポピュラーな音声認識アプリを超音波を使ってハッキングする方法がUCB(カリフォルニア大学バークレー校)の研究者によって発表された。超音波のコマンドを楽曲に紛れ込ませることにより、ユーザーに気づかれることなくアシスタントに特定の動作をさせることができるという。

New York Timesの報道によれば、これより前に発見されていたスマート・アシスタントを騙す方法を発展させたものだ。

昨年、プリンストン大学と中国の浙江大学の研究者は音声認識デバイスは人間には聞こえない超音波によって起動できることをデモした。 このハッキングでは最初にスマートフォンをミュートするのでユーザーはスマート・アシスタント側の返事を聞くことができない。

浙江大学の研究者によってDolphinAttackと名付けられたこの攻撃はスマートフォンに悪意あるサイトを訪問するよう命じる。このハッキングはスマートフォンの電話、カメラ、テキスト・メッセージなどを操作できる。ただし超音波の発信源が攻撃対象のデバイスに近くにある必要があるのがDolphinAttackの限界だ。しかし専門家は強力な超音波発信源が用いられる危険性を警告した。

今回のバークレー校の研究は悪意ある超音波コマンドを楽曲に紛れ込ませてデバイスを乗っ取るというものだ。 この攻撃では楽曲にある種のデジタルノイズが混じるが人間の耳には意味ある音声としては聞こえない。

このハッキングはまだ初期段階だが、音声アシスタントのセキュリティー全般に関してはまだほとんど研究がされていない。音声アシスタントの能力が拡大し、ユーザーがメールやテキストの送信だけでなく、ショッピングやバンキングにもアシスタントを利用するようになってきただけに、こうした攻撃の可能性は懸念を呼び起こす。

最初に考えられる防止策は、デジタル・アシスタントのメーカーがセキュリティー保持にもっと力を入れ、音声認証の精度を高めると同時に音声の本人性に疑念があるときはアシスタントの音声機能をロックダウンすることだろう。.Amazon Alexa、Googleアシスタントは両方とも音声パターンによって個人情報を特定のユーザーのみ利用できるようロックするオプションがある。AppleのiOSの場合、秘密度の高い情報の大部分はアクセス前にデバイスをアンロックしなければならない。

いちおうそうした対抗手段はあるものの、このハッキングがさらに進化すると非常に怖いことになる。メーカー側のすばやい対処とその情報の公開が強く望まれる。Google I/Oデベロッパー・カンファレンスでデモされたDuplexソフトウェアを見ても音声認識アシスタントの能力拡大に力を入れていることが見てとれる。今回Googleが発表したカメラ付きスマート・ディスプレイも音声で操作できるのでやはりこのハッキングに対象となるわけだ。潜在的攻撃対象は急速に拡大しつつある。

【関連記事】

注目記事