Un fallo de seguridad de Amazon Echo hace que Alexa grabe una conversación privada

Amazon Echo

Debido a un fallo de seguridad de Amazon Echo, su asistente de voz Alexa grabó una conversación privada de una mujer y la compartió sin permiso con uno de sus contactos, mientras que otros usuarios indican que Alexa se ríe solo o pone música sin que sus dueños se lo manden.

En el primero y más importante, a la vez que curioso, fallo de seguridad de Amazon Echo, una mujer, llamada Danielle y vecina de Portlant, en Oregón, ha explicado al canal de televisión KIRO 7 News que  el asistente de voz de sus altavoces inteligentes grabó una conversación privada y se la envió a alguien de su lista de contactos.

Por suerte, ese contacto era un buen conocido, el cual los llamó e informó de lo ocurrido, alertando que había recibido un archivo de audio desde el interior de su hogar, hecho que quedó confirmado cuando dio detalles sobre la conversación, la cual trataba sobre suelos de madera.

Según explicó la afectada, su familia dispone de varios Amazon Echo Dots y fue uno de ellos el que envió la conversación. Rápidamente, la familia contactó con Amazon para pedir explicaciones por lo sucedido. Un ingeniero del equipo de Alexa confirmó lo sucedido.

En un comunicado emitido por KIRO 7 News, Amazon asegura que se toman la privacidad muy en serio. “Investigamos qué sucedió y determinamos que esto era un hecho extremadamente raro. Estamos tomando medidas para evitar que esto suceda en el futuro”.

Amazon, que siempre ha defendido que sus altavoces no graban durante todo el día, se ha visto obligado a dar explicaciones al respecto: “Echo se activó debido a una palabra en una conversación de fondo que sonaba como ‘Alexa’. Luego, la conversación siguiente la escuchó como una petición de ‘enviar mensaje’. En ese momento, Alexa dijo en voz alta ‘¿A quién?’. El dispositivo interpretó la conversación de fondo como un nombre en la lista de contactos del cliente. Alexa luego preguntó en voz alta: ‘(nombre de contacto), ¿No?’ e interpretó la conversación de fondo como ‘correcta”. Teniendo en cuenta la improbabilidad de que todos estos hechos ocurran, la compañía señaló que están buscando soluciones.

Una opción para evitar lo que le pasó a Danielle, sería presionar el botón del altavoz para desactivar el micrófono, aunque esto puede resultar incómodo, ya que se tendría que volver a activar cada vez que se quiera realizar una consulta a Alexa.

fallo de seguridad de Amazon Echo

Por otra parte, otro fallo de seguridad de Amazon Echo fuera ya denunciado en marzo por varios usuarios. Este consistía en que Alexa confundía palabras comunes con el comando “Alexa, laugh” y por ello se reía espontáneamente. Algunos usuarios comentan que se reía de forma completamente espontánea, pero otros indican que lo hacía cuando le pedían al altavoz que encendiera la luz.

Asimismo, cabe recordar que estos altavoces de Amazon son bastante vulnerables a ser hackeados, ya que pueden interpretar mensajes ocultos en sonidos blancos o en órdenes de terceros, lo cual supone otro fallo de seguridad de Amazon Echo.

Por todo esto, se ve que el uso de un asistente de voz en altavoces inteligentes y otros dispositivos para el hogar, no le está saliendo del todo bien a Amazon, en su intento por competir con el Siri de Apple.

Fuentes: El País y La Vanguardia

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.