Хакеры-энтузиасты из Китая обнаружили, что «умные» голосовые ассистенты Alexa, Siri, Cortana и Google Assistant можно заставить совершать различные действия без разрешения владельца, используя специфику ультразвуковых волн.
Дело в том, что диапазон частот ниже 20 Гц и выше 20 кГц является не слышимым для человека, однако микрофоны в смартфонах и «умных» колонках способны распознавать эти звуки. Китайские хакеры создали устройство, которое может с небольшого расстояния активировать любой голосовой ассистент и заставить его, например, отправить СМС в банк с командой перевода денег на другую карту.
Единственный «минус» такого решения заключается в том, что злоумышленникам нужно расположить свое устройство на расстоянии около полуметра от гаджета к голосовым ассистентом.
К сожалению, исправить эту уязвимость тяжело. Компании, разрабатывающие голосовые ассистенты, не могут обновлением ПО сделать так, чтобы система начала игнорировать звуки, выходящие за пределы слышимого для человека диапазона. Они используются для лучшего анализирования голосовых команд.
Китайские хакеры могут взломать любой умный голосовой ассистент
Денис Черкашин
—
Рекомендации
Рекомендации
Комментарии
Перевод по смс с карты на карту тоже бред. Надо ввести ещё проверочный код из обратного смс от банка, который без разблокировки телефона не прочесть к тому же.
Если открыты сообщения то прочитать можно на заблокированном экране...
+678
Тоже можно если в "настройках — Сообщения — показывать миниатюры" стоит "всегда"
+678
–58
0
–1
Китайские хакеры не могут взломать только русских хакеров