Qué datos no compartir con ChatGPT o Gemini para cuidar tu seguridad
La criminóloga María Aperador advierte que el “efecto confesionario” puede llevarte a revelar más de la cuenta cuando conversas con IA. El riesgo no es solo que el modelo “entienda” tu situación, sino que tú entregues datos personales que después pueden usarse para perfilarte, suplantarte o facilitar fraudes. En la práctica, conviene evitar compartir antecedentes como rut, direcciones, información bancaria, códigos de verificación, contraseñas o detalles de cuentas. También es mala idea contar rutinas, ubicaciones frecuentes o datos de familiares que permitan identificarte. Aunque la IA parezca “neutral”, lo seguro es tratarla como si cualquier dato sensible pudiera terminar en manos equivocadas. Si necesitas ayuda, entrega información mínima y general, y revisa qué datos usas al pedir recomendaciones. Fuente: FayerWayer