Cinco preguntas que nunca deberías hacerle a ChatGPT (ni a ninguna otra IA) si valoras tu seguridad
Las inteligencias artificiales como ChatGPT, Gemini o Grok ya forman parte del día a día de millones de personas. Nos ayudan a redactar correos, generar ideas, resumir textos complejos o hasta hacer un plan de negocios. Suena casi mágico… pero también tiene sus límites. Y uno de los más importantes es la seguridad.
Como advierte la firma de ciberseguridad ESET, aunque estas herramientas sean poderosas, no son espacios privados, ni están diseñadas para manejar información sensible. De hecho, lo que escribimos puede quedar registrado y, si alguien accede a nuestra cuenta sin permiso, podría ver todo.
Por eso, hoy quiero compartirte cinco tipos de preguntas que deberías evitar hacerle a cualquier IA —por tu bien, el de tu empresa y el de quienes te rodean— junto con ejemplos reales para que no haya confusiones.
1. Preguntas que incluyan información personal o confidencial
¿Has pensado preguntarle a la IA por qué se bloqueó tu tarjeta de crédito? ¿O pedirle que te ayude con la clave del correo del trabajo?
⚠️ Error.
Nunca deberías compartir datos como:
- Números de cuentas bancarias
- Contraseñas
- Números de identificación (como cédula o pasaporte)
- Documentos legales o médicos
Ejemplo real a evitar:
“ChatGPT, ¿me podrías ayudar a calcular mis impuestos? Mi número de cédula es 3-0306-0119 y mi salario está en esta cuenta del BAC: 001-123456-7.”
Aunque la IA no tenga intención de hacer daño, esos datos pueden almacenarse y —si alguien accede a tu cuenta— quedar expuestos.
2. Preguntas que revelen información confidencial de tu empresa
Cada vez más personas usan la IA para preparar informes, propuestas o presentaciones. Eso está bien… hasta que se empieza a compartir información que no debería salir de la empresa.
⚠️ Nunca subas a la IA:
- Estados financieros sin autorización
- Estrategias comerciales o precios
- Contratos, nombres de clientes o proveedores
Ejemplo a evitar:
“ChatGPT, redacta una propuesta para nuestro cliente Pfizer incluyendo los descuentos secretos que les ofrecimos en marzo.”
Tu intención puede ser buena, pero estarías filtrando información clave que, en manos equivocadas, puede dañar la reputación e incluso violar acuerdos de confidencialidad.
3. Pedir asesoramiento médico, legal o financiero personalizado
Sí, la IA puede darte una idea general. Pero no puede diagnosticar enfermedades, defenderte en un juicio ni decirte exactamente cómo invertir tus ahorros.
⚠️ Las decisiones importantes necesitan contexto humano y criterio profesional.
Ejemplo riesgoso:
“Tengo dolores en el pecho, ¿crees que deba ir al hospital?”
“¿Cuál estructura legal me conviene para una empresa familiar en Costa Rica?”
La IA responderá con información general, pero sin comprender tu caso particular. Y eso puede llevarte a decisiones erradas o peligrosas.
4. Preguntas que esperan emociones, empatía o juicios morales
ChatGPT puede parecer simpático, pero no tiene corazón ni conciencia. Sus respuestas son patrones de texto, no emociones reales.
⚠️ Si le preguntas cosas como:
- “¿Tú qué harías si fueras yo?”
- “¿Crees que hice mal?”
- “¿Debo perdonar a mi pareja?”
…te responderá algo coherente, pero no auténtico.
Ejemplo frecuente:
“Siento que mi jefe me humilla, ¿crees que debería renunciar?”
Para eso, mejor habla con alguien que te conozca: un amigo, un terapeuta, un mentor. La IA no puede entender el dolor ni los matices de una situación personal.
5. Preguntas sobre decisiones críticas de vida
Mudarte de país, cambiar de carrera, divorciarte, emprender, tener hijos… son decisiones enormes que no se deben delegar a un algoritmo.
⚠️ La IA puede ayudarte a organizar ideas, pero no sustituye la reflexión profunda, la conversación íntima, ni el acompañamiento humano.
Ejemplo poco responsable:
“ChatGPT, ¿debería aceptar un trabajo en Panamá y dejar a mi familia en Costa Rica?”
Usá la IA para pensar mejor. Pero no para decidir por vos.
Conclusión
La inteligencia artificial llegó para quedarse. Nos facilita la vida, nos da eficiencia y hasta nos inspira. Pero también nos exige criterio, prudencia y sentido común, hagámos un uso responsable de la tecnología, especialmente en contextos profesionales. Capacitarse en ciberseguridad, conocer los límites de la IA y establecer políticas claras en las empresas ya no es opcional: es urgente.
Jorge Gutiérrez Guillén
Fuentes: ESET Latinoamérica, The Wall Street Journal, Entrevistas a expertos en ciberseguridad (Camilo Gutiérrez Amaya, ESET).
#Ciberseguridad #IAResponsable #PrivacidadDigital #ÉticaTecnológica #JGutierrezConsultores


