fbpx

Siri activaría malware usando comandos invisibles dentro de música y audio

También Alexa y Google Assistant son susceptibles

Por lo general el principal motivo de miedo al usar dispositivos con bocinas inteligentes y que usan asistentes inteligentes, es la pérdida de privacidad y que graben todo lo que escucha, pero hay uno más: pueden ser la fuente de ejecución de código maligno, por órdenes que llegan desde Siri, Alexa o Assistant.

Todos sabemos que hay sonidos y siempre se ha dicho de frases no perceptibles claramente por el oído humano, que en este caso, estarían dando las órdenes para infectar los equipos o realizar otras acciones, en donde se están usando o que podrían afectar a los conectados.

A pesar de que suena novedoso este tipo de ataque, no es nada nuevo, ya que se investiga desde 2016, aunque los mensajes subliminales existen desde hace mucho, pero no como comandos ejecutables de cómputo.

Los resultados de las pruebas hechas entre Estados Unidos y China, en donde con comandos ocultos o que no son escuchados por las personas,  pueden afectar a los asistentes, forzándolos a realizar acciones sin que los dueños puedan hacer algo. Así, pueden sorprenderse con marcados de teléfono, abrir sitios web y acciones que pongan en peligro los datos de las personas.

Según los resultados publicados por los estudiantes de la Universidad de California, Berkeley y Georgetown, se pueden agregar en música o en texto. Al reproducirse cerca de un Amazon Echo or Apple iPhone, cuando escuchen los asistentes la música o el audio, Siri y Alexa podrían agregar una compra no solicitada con tal indicación, hacer transferencias y compras en línea.

Si bien suena fantasioso como para que ocurra a gran escala, Nicholas Carline, uno de los autores cree que grupos con malas intenciones podrían aplicarlos en equipos con tecnología similar o ya estarlos probando..es solo cuestión de tiempo. A medida que evoluciona la tecnología en beneficio de las personas, igual lo hacen los métodos para hacer estafas.

Esto en parte se apoya por otras pruebas de laboratorio, hechas en las Universidades de Princeton y la de Zheijan en China, pero usando frecuencias que no son audibles a las personas, usando la técnica “Ataque Delfín”, en donde se creó un transmisor que enviaba comandos ocultos,el cual ordenaba marcar un número telefónico, otros tomaban fotografías y enviaban mensajes, siempre que estuvieran cerca de un dispositivo. En el caso de Siri, podrían iniciar una llamada usando Facetime, activar Google Now para cambiar de modo y hasta controlar el sistema de navegación en un automóvil. Sin embargo, en una investigación hecha por la Universidad de Illinois, se demostró que basta estar a 7 metros de distancia para recibir el comando, lo cual es una distancia considerable.

Carlini indicó que en su caso, ellos creen que pronto van a poder controlar cualquier dispositivo inteligente, para demostrar lo volubles que son y tomen las acciones pertinentes. Es sin duda, una gran llamada de atención, que muestra lo inseguro que son estos dispositivo,s que no tienen tantas medidas de seguridad por ser de los primeros en su tipo. Considerando que no están tan adoptados como los smartphones no es un alivio, porque se encuentran dentro de estos, sobre todo en Android, ya que Apple tiene más medidas implementadas para que Siri solo responda en los que tiene autorizados en equipos IoT, pero no es el caso con el HomePod, que lo deja vulnerable.

Con información de The New York Times.