Google Duplex が提起する、プライバシーとセキュリティに関する 4 つの課題
Google Duplex は、さまざまな Google と Android のデバイスに採用されている Google アシスタントの概念実証の拡張機能であり、最近のデモで、ほぼ完璧に電話で人間の声を模倣できることが証明されました。このテクノロジはとても素晴らしいものではありますが、電話を使って人間を騙すことのできる AI エンジンの存在が、プライバシーやセキュリティにとって厄介な問題を引き起こす可能性もあります。ウォッチガードの CTO、Corey Nachreiner が GeekWire の最新コラムで、Google Duplex のセキュリティとプライバシーに関するいくつかのリスクについて説明しています。
Corey が最も心配しているのは、チューリングテストに合格できる AI 音声を使えば、電話の音声の自動作成もおそらくは可能である点です。情報セキュリティのコミュニティで「音声フィッシング」と呼ばれているこの方法は、基本的には、電話を使って人間を騙し、個人識別番号やログインの認証情報などの機密情報を聞き出すというものです。このような攻撃がそれほど大掛かりに行われていないのは、(これまでは)ハッカーが相手に直接電話をかけなければならなかったためです。しかしながら、Google Duplex のような、人の声を真似できる AI を使えば、このような攻撃を大々的に実行できるようになるでしょう。
さらには、このテクノロジを使うことで、理論的には、攻撃者が誰かの声を模倣できるため、友人や上司からの電話を装った音声フィッシングも可能になります。Corey の記事から、この恐ろしい可能性について説明している部分を抜粋し、以下に紹介します。
AI と機械学習を使えば、研究者が我々の音声や画像を真似ることもできます。実際に、Lyrebird という会社が昨年公開した音声模倣アルゴリズムは、人間の実際の声の小さい音声スニペットがあれば、その人の声を模倣できるというものです。…スピアフィッシングは大きな脅威になりました。高度なハッカーは多くの場合、標的のちょっとした情報さえあれば、それを使って、返事をしなければならなそうなメールを作り上げることができます。たとえば、上司からのものと偽装した電子メールはその一例です。上司から電話がかかってきた場面を想像してみてください。本物の上司との会話のように思えるかもしれませんが、電話の向こうにいるのは、実際には音声模倣アルゴリズムを使った AI アシスタントなのです。このような方法で電話をかけることができれば、攻撃のチャンスが無限に広がるはずです。
GeekWire の記事全文(英文)で、Google Duplex のこれ以外の要素に関する Corey の解説(および、Google による、このような不正利用を防ぐための対策)をご確認いただき、フィッシングやスピアフィッシングの詳細については セキュリティニュースの過去の記事をご覧ください。