Desde su lanzamiento en 2022, los chatbots de inteligencia artificial (IA) han transformado la manera en que interactuamos con la tecnología. Sin embargo, estos avances tecnológicos traen consigo riesgos significativos de privacidad que deben ser tenidos en cuenta.
El Riesgo de Compartir Información Delicada
Los chatbots de IA, como ChatGPT, recopilan y almacenan datos personales, lo que plantea serias preocupaciones de seguridad. Nicole Nguyen, periodista del WSJ, menciona que estos bots pueden aprender desde preferencias personales hasta detalles íntimos de tu vida.
Cinco Cosas que Jamás Deberías Compartir
La investigadora Jennifer King del Instituto Stanford para la Inteligencia Artificial Centrada en el Ser Humano advierte sobre los riesgos de la apertura excesiva con chatbots. Aquí hay cinco tipos de información que deberías evitar compartir con cualquier IA:
- Información personal: Datos como RUT, dirección o trayectos deben mantenerse privados, ya que las cuentas pueden ser vulnerables a ataques.
- Historial clínico: Compartir tus condiciones médicas puede exponerte a filtraciones no deseadas.
- Información financiera: Las IA no están diseñadas para garantizar la seguridad de estos datos.
- Información corporativa: Detalles de tu trabajo pueden ser revelados accidentalmente, como el caso de Samsung donde se filtró el código fuente.
- Claves de acceso: Guárdalas en un administrador seguro en lugar de confiar en la IA para esta tarea.
Medidas de Seguridad Recomendadas
Expertos sugieren tomar ciertas medidas para proteger tu privacidad, como borrar conversaciones inmediatamente después de terminar. Además, es recomendable utilizar chats temporales en lugar de los normales para minimizar el riesgo de exposición.