智能語音助手不安全!能被人耳聽不到的聲音控

研究人員發現利用人耳聽不到的聲音可以控制智能語音助手,這不禁讓人們開始擔心那些可以用語音激活的設備是否安全。
很多智能語音助手,如亞馬遜的Alexa、谷歌(微博)的Assistant以及三星和華為的語音助手,都存在這個問題。黑客可以利用這個漏洞來控制設備,命令它們執行一些非法任務,例如下載惡意軟件或開啟前門。
浙江大學的研究人員能夠控制一些時下流行的設備,例如運行有Siri語音助手的iPhone和MacBook、運行有Bixby的較新款Galaxy智能、亞馬遜智能Echo以及運行Windows 10(內置Cortana智能助手)的PC電腦。
他們可以將語音指令變成超聲波頻率,從而控制設備。這種超聲波只有設備能夠聽到,人耳是聽不到的。安全研究人員利用這種方法能夠命令iPhone“撥打號碼1234567890”,或命令Macbook和Nexus 7打開惡意網站。
黑客可以同時利用硬件和軟件。他們利用硬件來接收超聲波,利用軟件來分辨人的聲音和電腦合成的聲音。
在大多數情況下,只有當聲源距離設備幾英寸遠的時候,這些設備才能夠接收到聲音。但是,有時候,研究人員能夠在幾英尺遠的地方發出攻擊指令。例如,他們利用蘋果Apple Watch就可以這樣做。
在普林斯頓大學和康奈爾大學所做的一項類似的研究中,安全研究人員可以在兩三米遠的距離命令谷歌Pixel拍照、開啟飛行模式以及向Alexa詢問天氣情況以及購物清單上的物品。
安全公司MWR Security上個月也進行了一項單獨的研究,結果表明黑客可以利用亞馬遜Echo原版中的硬件漏洞將它變成監聽器。