ChatGPT
Deja de preguntarle esto a ChatGPT: no puede ayudarte, aunque todo el mundo lo busca
Que ChatGPT te ¡°eche las cartas¡± del tarot es la nueva moda viral de TikTok. Al margen de no funcionar por motivos evidentes, es una pr¨¢ctica que puede poner en riesgo tu privacidad.

La inteligencia artificial ha irrumpido en nuestra vida cotidiana casi sin que nos hayamos dado cuenta. Hoy en d¨ªa, muchas personas utilizan ChatGPT para todo tipo de tareas, desde pedir consejos amorosos o laborales hasta otros usos menos comunes, como ¡°echar las cartas¡± del tarot o ¡°predecir¡± tu futuro. Estas ¨²ltimas pr¨¢cticas se han convertido en una de las modas virales m¨¢s recientes de TikTok, donde algunos v¨ªdeos acumulan millones de visitas y los usuarios comentan, entusiasmados, lo mucho que la IA ¡°acierta¡± en sus predicciones. Sin embargo, por muy popular que se haya vuelto esta tendencia, ni ChatGPT ni ninguna otra IA puede predecir el futuro. Y lo m¨¢s preocupante: esta pr¨¢ctica puede poner en riesgo tu privacidad sin que lo sepas.
No, ChatGPT no adivina el futuro: esto es lo que s¨ª (y lo que no) puede hacer
La tendencia de pedir a ChatGPT que ¡°lea el tarot¡± o ¡°prediga el futuro¡± se ha vuelto viral en TikTok, donde abundan v¨ªdeos con millones de visualizaciones y comentarios que afirman, emocionados, que el chatbot ¡°ha acertado en todo¡±. En estos v¨ªdeos, los usuarios comparten sus experiencias y animan a otros a probarlo, a menudo aportando datos como su nombre completo, su fecha de nacimiento o signo del zod¨ªaco. Sin embargo, esta pr¨¢ctica, al margen de ser inofensiva, divertida, o un entretenimiento, no tiene ning¨²n fundamento real. ChatGPT no posee poderes sobrenaturales ni acceso a ¡°informaci¨®n oculta¡±: simplemente imita patrones de lenguaje. Al igual que ocurre con los y las tarotistas de carne y hueso, su aparente eficacia se basa en el sesgo de confirmaci¨®n, un fen¨®meno por el cual tendemos a prestar m¨¢s atenci¨®n a lo que encaja con nuestras expectativas y a ignorar lo que no. Cuando creemos que una predicci¨®n acierta, es porque estamos dispuestos a encontrarle sentido.
El problema real no radica en la ineficacia de estas ¡°lecturas¡±. Muchos de los v¨ªdeos virales que promueven esta moda invitan a los usuarios a compartir con la IA informaci¨®n personal muy sensible: desde su nombre completo hasta datos sobre su situaci¨®n sentimental, laboral o familiar. Si bien es f¨¢cil pensar que esta informaci¨®n se queda entre ¡°t¨² y el bot¡±, lo cierto es que todo lo que se comparte con ChatGPT puede ser utilizado por la empresa que lo gestiona ¡ªOpenAI¡ª para mejorar el modelo. Esto incluye el almacenamiento y posible an¨¢lisis de tus datos. En el caso de una filtraci¨®n o brecha de seguridad, esa informaci¨®n privada podr¨ªa quedar expuesta. Lo mismo ocurre con otros modelos de IA como Grok o Gemini; compartir datos personales con una inteligencia artificial no solo no tiene ning¨²n valor a nivel de precisi¨®n de sus ¡°predicciones¡±, sino que puede ponerte en una situaci¨®n de vulnerabilidad sin que seas plenamente consciente de ello.
Para entender por qu¨¦ ChatGPT no puede adivinar el futuro ¡ªni entender el presente en un sentido estricto¡ª hay que saber c¨®mo funciona. Este modelo de lenguaje es lo que se conoce como un LLM (Large Language Model, ¡°modelo de lenguaje de gran tama?o¡± en ingl¨¦s), una herramienta basada en redes neuronales entrenadas con enormes vol¨²menes de texto. Su ¡°inteligencia¡± consiste en predecir cu¨¢l es la palabra m¨¢s probable que viene a continuaci¨®n, dada una entrada concreta. Es decir: no piensa, no comprende lo que dice y no tiene conciencia. No tiene acceso a tu vida privada, ni a planos espirituales, ni a ninguna clase de sabidur¨ªa oculta o sobrenatural. Solo responde con frases que, a nivel estad¨ªstico y de probabilidad, suenan coherentes. Por tanto, aunque pueda imitar el tono de un tarotista o escribir textos que parecen tener sentido, todo se reduce a probabilidades y patrones de lenguaje. Lo que parece una lectura acertada, en realidad es una ilusi¨®n construida por nuestra tendencia a buscar sentido donde no lo hay, y a la solvencia que pueda tener ChatGPT a la hora de devolvernos respuestas a las preguntas que le enviamos.

En una ¨¦poca en la que la inteligencia artificial est¨¢ cada vez a la orden del d¨ªa, es fundamental mantener una mirada cr¨ªtica y entender los l¨ªmites de su funcionamiento. No se trata, en absoluto, de demonizar la tecnolog¨ªa; de hecho, ChatGPT puede ser una herramienta sumamente ¨²til para realizar determinadas tareas. La cuesti¨®n es aprender a usar estas herramientas y facilidades con responsabilidad. Mientras que pedirle a una IA que nos diga qu¨¦ nos depara el futuro puede sonar tentador, especialmente cuando atravesamos momentos de incertidumbre, confiar ciegamente en respuestas que imitan una pr¨¢ctica real que tampoco funciona puede reforzar nuestros sesgos y alejarnos de una toma de decisiones informadas, sanas y maduras. Lo que realmente se necesita en momentos as¨ª no es que una m¨¢quina nos diga lo que queremos o¨ªr ¡ªo leer, en este caso¡ª, sino herramientas cognitivas y conductuales para tomar el control de nuestras propias decisiones. Al final, en lugar de buscar respuestas en un chatbot, quiz¨¢ deber¨ªamos empezar a hacernos a nosotros mismos las preguntas correctas.