
Expertos revelan la información que no debes compartir con IA y ChatGPT
Descubre cómo proteger tu privacidad al interactuar con chatbots de IA como ChatGPT. Sigue consejos de expertos para mantener tus conversaciones seguras.
Desde la llegada de los chatbots de Inteligencia Artificial (IA) como ChatGPT, Gemini y otros, es que se han vuelto parte de la vida cotidiana de diferentes personas alrededor del mundo. Es que bajo este contexto, muchos usuarios han cometido el error, por falta de conocimiento o por descuido, comparten información confidencial o delicada con la IA.
Es por esta razón, es que la periodista Nicole Nguyen escribió una columna de opinión para The Wall Street Journal (WSJ) en el que alertó como la IA ha aprendido una serie de datos específicos sobre ella y su vida.
"He aprendido mucho con ChatGPT de OpenAI en los últimos años. Y el bot ha aprendido mucho sobre mí”, reflexionó la periodista y aseguró que la IA conoce desde sus gustos culinario, las rutinas de su bebé y los problemas médicos de su familia.
¿Por qué ocurre esto? Los chatbots utilizan memoria para almacenar información sobre sus usuarios, lo que les permite entrenar sus algoritmos y mejorar la precisión de sus respuestas. Sin embargo, en una era donde los límites, las brechas de seguridad y el uso de esta tecnología aún no están completamente definidos, saber qué datos mantener en privado es fundamental.
“No podemos eliminar mensajes específicos de tu historial. Por favor, no compartas información confidencial en tus conversaciones”, señala el sitio de ChatGPT en su apartado de preguntas frecuentes. Entonces... ¿Qué cosas no debes compartir nunca con la Inteligencia Artificial?
Cosas que no debes compartir con ChatGPT y la IA
Según la investigadora del Instituto Stanford para la Inteligencia Artificial Centrada en el Ser Humano, Jennifer Kingal, “los chatbots pueden sonar inquietantemente humanos, lo que lleva a las personas a ser sorprendentemente abiertas en sus conversaciones con ellos. Al escribir algo en un chatbot, ‘pierdes el control’”.
De acuerdo con el medio de comunicación estadounidense, debes evitar compartir este tipo de información con tu chatbot de preferencia (sea ChatGPT, Grok, Gemini, etc):
-
Datos personales: Información como tu RUT, fecha de nacimiento, dirección o trayectos habituales deben permanecer en privado. Nunca sabes si tu cuenta podría ser vulnerada, exponiendo todas tus conversaciones con la IA.
-
Historial médico y resultados clínicos: Compartir diagnósticos o condiciones médicas con una IA sin garantías de confidencialidad puede suponer un riesgo ante una posible filtración de datos.
-
Información financiera: A diferencia de los bancos o plataformas con sistemas de seguridad avanzados, las IA no están diseñadas para manejar datos sensibles de manera segura.
-
Datos corporativos: Pedir a la IA que redacte un correo corporativo podría exponer sin querer información confidencial. Casos como el de Samsung, que prohibió ChatGPT tras la filtración de código fuente interno, demuestran el riesgo.
-
Claves de acceso: Aunque las IA pueden ayudar en diversas tareas, no deben usarse como administradores de contraseñas. Mantén tus credenciales, PIN y preguntas de seguridad en una bóveda digital especializada.
En resumidas cuentas: No debes compartir ninguna información que no deseas que sea pública, o que por tu cuenta no sentirías cómodo de que fuese difundida.
En este aspecto, expertos declararon al medio Wall Street Journal de que existen algunas medidas que puedes tomar para evitar ser víctima de filtración de tus datos o de que tu información sea expuesta. Por ejemplo, puedes borra cada conversación una vez que termine el chatbot. A excepción de DeepSeek, que guarda tus datos de manera indefinida, la mayoría de los chatbots limpian los datos borrados después de 30 días.
También, se recomienda preferir el uso del chat temporal en lugar del normal. En ChatGPT, este está ubicado en la esquina superior derecha de la ventana de chat de la IA, ya que esta equivale a la versión del navegador incógnito.