Un estudio realizado por la Fundación Mozilla, conocida por el desarrollo del navegador Firefox, destaca los peligros de las relaciones con inteligencia artificial, mientras desarrolladores de chatbots responden a las preocupaciones sobre privacidad y dependencia.
La Fundación Mozilla emprendió una investigación exhaustiva para evaluar la fiabilidad de los chatbots que simulan relaciones románticas. Según el investigador Misha Rykov, responsable del informe, estos programas no solo generan dependencia y aumentan la sensación de soledad, sino que también comprometen la privacidad de los usuarios al extraer grandes cantidades de datos personales. Rykov advierte que detrás del aparente beneficio para la salud mental y el bienestar, se esconden riesgos significativos.
El estudio examinó 11 chatbots, revelando la fragilidad de la privacidad de los datos personales ante estas aplicaciones. Los investigadores sugieren tomar precauciones similares a las practicadas en entornos digitales, como el uso de contraseñas seguras y la limitación del acceso a información sensible. Misha Rykov, responsable del informe de la Fundación Mozilla, afirmó: “Generan dependencia, más soledad y toxicidad, todo esto mientras extraen la mayor cantidad de datos posible sobre los usuarios”.
En caso de no prestar atención a las advertencias y continuar “en relación” con chatbots, los investigadores recomiendan tomar precauciones, que por cierto son aquellas que conviene aplicar en los diversos entornos digitales. Desde usar contraseñas robustas, limitar el acceso a datos sensibles (como la ubicación geográfica, la cámara y el micrófono) y evitar la divulgación de información privada.
Qué dicen los creadores
La IA del chatbot fue programada para generar intimidad con los usuarios haciendo preguntas y generando conversaciones orgánicas. Esto facilitó que varios usuarios desarrollaran “relaciones” íntimas con el chatbot, y algunos lo consideraban sus amigos o incluso parejas románticas. Dos ejemplos de esto es EVA AI y Replika, aplicaciones que funcionan dentro de esta lógica.
En respuesta a las preocupaciones planteadas, un representante de EVA AI, autodenominada como “tu alma gemela con IA”, anunció que están revisando sus políticas de gestión de contraseñas para ofrecer mayor protección a los usuarios. Aseguran mantener un estricto control sobre los modelos de lenguaje y prohíben discutir temas sensibles.
Por otro lado, la empresa Replika, fundada por una mujer que creó una réplica de su mejor amigo fallecido con IA, afirma que nunca han vendido datos de usuarios y “el único uso de los datos es para mejorar las conversaciones”.