A día de hoy, la privacidad se ha convertido en un bien de demasiado valor que, muchas veces, no se valora como debería por parte de los usuarios.
Ahora, la inteligencia artificial tiene la capacidad de averiguar información confidencial sobre las personas a partir de lo que han publicado en Internet: puede revelar detalles como el sexo, la ubicación, la edad e incluso el lugar de nacimiento de una persona.
Los autores de este estudio advierten de forma literal que la inteligencia artificial puede "inferir datos personales a una escala previamente inalcanzable", lo que desde luego pone sobre la mesa una gran amenaza para la seguridad y la privacidad en línea.
Lo más perturbador viene ahora y es que esta técnica, podría ser utilizada por ciberdelincuentes para obtener información confidencial de usuarios desprevenidos, valiéndose de preguntas a los chatbots aparentemente inofensivas.
Cuidado con lo que publicas en Internet porque los chatbots podrían ser la herramienta definitiva para los ciberdelincuentes
El estudio ha querido demostrar este hecho concreto, centrándose en la capacidad de modelos de lenguaje muy potentes, como GPT-4, que impulsan chatbots como ChatGPT, para deducir información personal de 520 usuarios reales de Reddit y sus publicaciones entre 2012 y 2016.
Tal y comentan en Wired, los investigadores compararon las conjeturas de la IA con el análisis que pusieron estas personas en sus perfiles. Entre los cuatro modelos probados, GPT-4 demostró ser el más preciso, con una asombrosa precisión del 84,6%.
Aunque este no es el primer estudio que alerta sobre la amenaza que la IA representa para la privacidad, es uno de los más preocupantes. Por ejemplo, otro estudio, publicado en agosto, demostró que la IA podía descifrar texto, como contraseñas, basándose en el sonido de su escritura registrado a través de plataformas como Zoom, con una impresionante precisión del 93%.
Para que te hagas una ligera idea, explican que el problema reside en el proceso de entrenamiento de estos modelos de IA. Para adquirir su capacidad de lenguaje, estos se alimentan de una enorme cantidad de datos extraídos de Internet, lo que les otorga esa capacidad sorprendente de responder como si se tratase de un humano.
Sin embargo, estos datos de entrenamiento también contienen en muchas ocasiones información personal y conversaciones privadas, que pueden al final desembocar en que el chatbot sepa tu ubicación o datos privados tuyos. Esto permite a la IA con algo de conversación con ella terminar dando datos sobre la vida de una persona a partir de conversaciones que, en apariencia, parece que no tienen importancia.
Si bien no está claro cuánta información personal se puede inferir de esta manera, se especula que los modelos de lenguaje podrían ser una gran herramienta para descubrir información privada y, por lo tanto, un caramelo para los ciberdelincuentes.
Los estafadores podrían aprovechar esta capacidad de la IA para recopilar datos confidenciales de usuarios y además, por si fuese poco, existe la posibilidad de que las empresas utilicen la información recopilada por los chatbots para crear perfiles de los usuarios con fines publicitarios.
Créditos: Carolina González Valenzuela