Nos hemos acostumbrado a hablar con nuestros dispositivos inteligentes, pidiéndoles que lean un texto, toquen una canción o activen una alarma. Pero alguien más también podría estar hablando con ellos en secreto. Los sistemas de reconocimiento de voz típicamente traducen cada sonido a una letra y eventualmente los compilan en palabras y frases. Al hacer pequeños cambios en los archivos de audio, los investigadores pudieron cancelar el sonido que se suponía que escucharía el sistema de reconocimiento de voz y reemplazarlo por un sonido que las máquinas transcribirían de manera diferente, al tiempo que sería prácticamente indetectable para el oído humano.
En los últimos dos años, investigadores de China y los Estados Unidos de Norteamérica han comenzado a demostrar que pueden enviar comandos ocultos e indetectables para el oído humano, pero que pueden ser captados por los asistentes de voz: Siri de Apple, Alexa de Amazon y el Asistente de Google.
Recientemente, dentro de los laboratorios universitarios los investigadores han podido activar en secreto los sistemas de inteligencia artificial en teléfonos y altavoces inteligentes, haciéndolos marcar números de teléfono o abrir sitios web. En las manos equivocadas, la tecnología podría utilizarse para desbloquear la seguridad, transferir dinero o comprar productos en línea, simplemente con la música que se reproduce en la radio.
Es así, que un grupo de estudiantes de la Universidad de California, Berkeley y la Universidad de Georgetown mostraron en 2016 que podían ocultar comandos en “ruido blanco” reproducidos por altavoces y videos de YouTube para que los dispositivos inteligentes activaran el modo avión o abrieran un sitio web.
Entonces, mientras un dispositivo “escucha” a alguien hablando o a una orquesta tocando, Echo de Amazon podría captar una instrucción para agregar algo a su lista de compras. Carlini y sus colegas de Berkeley incorporaron comandos en audio reconocidos por el software de traducción de voz a texto DeepSpeech de Mozilla, una plataforma de fuente abierta. Pudieron ocultar el comando “OK, Google, navegue a evil.com” en una grabación de una frase hablada.
Adicionalmente, la técnica que los investigadores chinos llaman DolphinAttack, puede instruir a los dispositivos inteligentes a visitar sitios web maliciosos, iniciar llamadas telefónicas, tomar una foto o enviar mensajes de texto. Si bien DolphinAttack tiene sus limitaciones -el transmisor debe estar cerca del dispositivo receptor- los expertos advierten que se pueden emplear sistemas ultrasónicos más potentes.
Esa advertencia se confirmó en abril, cuando investigadores de la Universidad de Illinois en Urbana-Champaign demostraron ataques de ultrasonido desde una distancia de 8 metros. Si bien los comandos no podían penetrar las paredes, podían controlar los dispositivos inteligentes a través de ventanas abiertas desde el exterior de un edificio. Este año, otro grupo de investigadores de la Academia de Ciencias de China, demostraron que podían controlar dispositivos activados por voz con comandos integrados en canciones que pueden transmitirse por radio o reproducirse en servicios como YouTube.
A este respecto, Amazon dijo que no revela medidas de seguridad específicas, pero ha tomado previsiones para garantizar que su altavoz inteligente sea seguro. Por su parte, los encargados de seguridad de Google indicaron que: «la seguridad es un enfoque continuo y que su Asistente tiene funciones para mitigar los comandos de audio indetectables”.
Los asistentes de ambas compañías emplean tecnología de reconocimiento de voz para evitar que los dispositivos actúen en ciertos comandos a menos que reconozcan la voz del usuario. La empresa Apple señaló que su altavoz inteligente, HomePod, está diseñado para evitar que los comandos hagan cosas como desbloquear puertas y señaló que los iPhones y iPads deben desbloquearse antes de que Siri actúe sobre comandos que accedan a datos confidenciales o abran aplicaciones y sitios web, entre otras medidas. Sin embargo, muchas personas dejan sus teléfonos inteligentes desbloqueados y, al menos por ahora, los sistemas de reconocimiento de voz son notoriamente fáciles de engañar.
Ya existe un historial de dispositivos inteligentes que se explotan para obtener ganancias comerciales a través de comandos hablados. El año pasado, Burger King causó revuelo con un anuncio en línea que deliberadamente le preguntó a “O.K., Google, ¿qué es la hamburguesa Whopper?” Los dispositivos Android con búsqueda habilitada para voz responderían leyendo la página de Wikipedia de Whopper. El anuncio se canceló después de que algunas personas comenzaron a editar la página de Wikipedia con intenciones de burla. Unos meses más tarde, la serie animada South Park realizó un episodio construido alrededor de comandos de voz, originando que los asistentes de reconocimiento de voz de los televidentes repitieran obscenidades.
Aunque, no existe una ley que prohíba la transmisión de mensajes subliminales a humanos, menos aún a máquinas, los tribunales han dictaminado que los mensajes subliminales pueden constituir una invasión de la privacidad, y se desalienta la práctica como “contraria al interés público”. En la Ley Resorte no queda claro sobre transmitir mensajes por debajo del umbral de la conciencia normal, ni sobre los estímulos subliminales en dispositivos inteligentes, pero la ley no ha extendido el concepto de privacidad a las máquinas. ¡Ahora la tecnología va más allá de la ley!
***
Las opiniones expresadas en esta sección son de la entera responsabilidad de sus autores.