Artículos anteriores

Descubren que es posible robar audios y códigos PIN a medio metro de tu asistente virtual

Los altavoces inteligentes nos brindan comodidad pero a su vez, entrañan peligros para la privacidad y seguridad de los usuarios. Un nuevo estudio de la Universidad de Cambridge revela que los hackers podrían extraer códigos PIN y mensajes de texto con tus audios a medio metro de distancia.

Toda cara tiene su cruz, y la de los asistentes virtuales es la problemática que plantea en cuanto al uso de datos, las brechas digitales o los diversos ciberataques a los que el Internet de las Cosas deja espacio. Una nueva investigación llevada a cabo por  la Universidad de Cambridge revela que es posible extraer códigos PIN y mensajes de texto del audio grabado por altavoces inteligentes desde una distancia de hasta 1,6 pies, en torno a medio metro. 

Los investigadores mostraron que resulta posible capturar pulsaciones de teclado virtual con micrófonos ubicados en dispositivos cercanos, como altavoces con tecnología de Alexa y Google Assistant. Amazon Echo, Google Home y otros altavoces inteligentes incluyen micrófonos que siempre están encendidos en el sentido de que procesan el audio que escuchan para detectar frases de activación como “OK Google”, “Siri” o “Alexa”.

Los detectores de frases de activación envían ocasionalmente datos de audio a servidores remotos. Varios análisis han hallado que se puede cargar hasta un minuto de audio en los servidores sin ninguna palabra clave presente, ya sea por accidente o sin controles de privacidad. De hecho, activaciones accidentales han expuesto conversaciones privadas de trabajadores contratados, y los investigadores dicen que estas activaciones podrían revelar información confidencial como contraseñas si una víctima se encuentra dentro del alcance del hablante.

Si un atacante accede a los micrófonos de un altavoz, puede hacer una llamada, manipularlo, obtener los registros de audio sin procesar o extraer datos confidenciales como códigos PIN. Eso sí, el análisis asume que el atacante está cerca de los micrófonos del hablante y que la marca y el modelo son conocidos.

A la hora de llevar a cabo su experimento, los investigadores utilizaron un ReSpeaker, un accesorio de seis micrófonos para la Raspberry Pi diseñado para ejecutar Alexa en la Pi mientras proporciona acceso a audio sin procesar. Como señalan los autores, la configuración es similar a la del Amazon Echo a excepción del micrófono central.

Los toques en grabaciones de audio en el dispositivo “víctima”, en este caso una tableta HTC Nexus 9, un teléfono inteligente Nokia 5.2 y un Huawei Mate20 Pro, se pueden reconocer usando micrófonos por un pico corto de uno a dos milisegundos con frecuencias entre 1000Hz y 5.500 Hz, seguidos de una ráfaga más prolongada de frecuencias de alrededor de 500 Hz, según los autores. Las ondas sonoras se propagan en material sólido como las pantallas de los teléfonos inteligentes y el aire, lo que facilita que un micrófono las capte.

Tras entrenar a la IA, también crearon un conjunto separado de clasificadores para identificar posibles dígitos y letras de los toques detectados por el primer clasificador. Con solo 10 conjeturas, los resultados sugieren que los PIN de cinco dígitos se pueden adivinar hasta el 15% de las veces. En el caso del texto se puede inferir con un 50% de precisión.

Los investigadores señalan que hipotéticos ataques podrían no realizarse en los dispositivos Alexa y Google Assistant porque ni Amazon ni Google permiten que las habilidades de terceros accedan a grabaciones de audio sin procesar. Además, las carcasas de los teléfonos o los protectores de pantalla podrían alterar la acústica de los grifos y proporcionar cierta protección contra los espías. Sin embargo, es un ejemplo más de las distintas vulnerabilidades a las que nos exponemos con asistentes virtuales y otros dispositivos remotos.

Fuente | VentureBeat

Dejar una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *