Тим Кук представляет Siri. Фото:  Robert Galbraith / Reuters

Тим Кук представляет Siri. Фото: Robert Galbraith / Reuters

Голосовым помощникам Siri, Alexa и Google Assistant можно давать команды, которые не слышит человек. Об этом пишет The New York Times.

Студенты Калифорнийского университета Беркли обнаружили, что команды можно вписывать в видео или аудиозаписи. С их помощью можно, например, дать команду смартфону позвонить, перевести деньги, а «умной колонке» – открыть дверь. Исследователи предупреждают, что этой уязвимостью могут воспользоваться мошенники, однако, по их данным, пока что система обмана голосовых помощников не покинула стены университета.

Уязвимость появилась из-за пробела в процедуре распознавания речи человека и машины. Система переводит каждый звук в букву, составляя из них слова и предложения. Изменяя аудиофайл, можно заменить звуки, которые должны были услышать помощники, на другие, которые недоступны человеческому уху.

В Google и Amazon NYT заявили, что их помощники не включаются, если не слышат голос владельца. Представители Apple сказали, что Siri настроена таким образом, что она не будет выполнять команд, связанных с доступом к личной информации, прежде чем владелец разблокирует iPhone или iPad. Газета напоминает, что многие владельцы продукции Apple не устанавливают пароль.

На уязвимость обратили внимание исследователи из Принстонского университета и Чжэцзянского университета еще в 2017 году. Они назвали технику DolphinAttack. Изначально у программы были ограничения – источник звука должен был находиться очень близко к устройству с голосовым помощником, но позднее создали технологию, позволяющую отдавать команду с расстояния 25 футов (7,6 метра).

https://www.youtube.com/watch?time_continue=42&v=21HjF4A3WE4