Ya son varios los países que se han sumado a la preocupación por el uso de datos personales y las “ineficientes” y poco transparentes políticas de privacidad que tendría la popular herramienta ChatGPT. Esta inseguridad llevó a que muchos prohibieran su uso hasta que OpenAI, la empresa desarrolladora, mejore y asegure la protección de la privacidad de los usuarios.
Hasta ahora, son siete territorios los que han prohibido a esta Inteligencia Artificial (IA): Rusia, China, Irán, Corea del Norte, Venezuela, Bielorrusia e Italia. Incluso, en el debate sale a relucir la carta que firmaron más de mil líderes en tecnología para pedir “pausar” la IA hasta que sea más segura. Pero, ¿qué datos realmente recopila ChatGPT que genera tanta desconfianza en el mundo?
Como pasa con otras políticas de privacidad, es usual que los usuarios acepten todo sin dudar ni leer a detalle a lo que están dando acceso. Sin embargo, estas se resumen en lo siguiente.
Para empezar, al crearse una cuenta para comenzar a utilizar ChatGPT, se recopila información personal: nombre, información de contacto, datos de conexión (desde qué dispositivo y navegador se ocupa o la dirección IP), zona horaria, país, tiempos de acceso e información de la tarjeta de pago e historial de transacciones (de quienes hagan compras en OpenAI).
A medida que el usuario utiliza la herramienta para hacer sus consultas, la página recopila todos los mensajes que escribe. Esto porque el equipo detrás revisa las conversaciones para mejorar sus sistemas y garantizar que el contenido “cumpla con las políticas y requisitos de seguridad”.
Toda la información recolectada, según los desarrolladores, es para realizar investigaciones “que pueden permanecer internas o compartirse con terceros, publicarse o ponerse a disposición del público general”, además de utilizarla para desarrollar nuevos programas y servicios.
Pero lo preocupante es que la política de privacidad establece que puede proporcionar la información personal de sus usuarios a terceros, sin previo aviso, a menos que lo exija la ley. Y, tanto ChatGPT como OpenAI, en sus términos de uso ponen al usuario como el responsable de tomar las medidas necesarias para proteger su propia información al interactuar con sus herramientas.
Incluso, en las preguntas frecuentes, ChatGPT escribe explícitamente: “No comparta ninguna información confidencial en sus conversaciones”.
“Todavía estamos aprendiendo exactamente cómo funciona todo esto”, le dijo Steve Mills, líder de ética de Inteligencia Artificial en Boston Consulting Groups, a CNN. “Simplemente no se sabe completamente cómo se ingresa la información, si se usa para volver a entrenar a estos modelos o cómo se manifiesta como resultados en algún momento”, agregó.
De la misma manera, el CEO de la comunidad de privacidad de datos Privacy by Design Lab, Kohei Kurihara, dijo que es importante promover la conciencia sobre las preocupaciones de privacidad: “Existe un riesgo que debemos tener en cuenta, incluso si no es evidente al principio”.