ChatGPT
Deja de preguntarle esto a ChatGPT: no puede ayudarte, aunque todo el mundo lo busca
Que ChatGPT te ※eche las cartas§ del tarot es la nueva moda viral de TikTok. Al margen de no funcionar por motivos evidentes, es una pr芍ctica que puede poner en riesgo tu privacidad.
La inteligencia artificial ha irrumpido en nuestra vida cotidiana casi sin que nos hayamos dado cuenta. Hoy en d赤a, muchas personas utilizan ChatGPT para todo tipo de tareas, desde pedir consejos amorosos o laborales hasta otros usos menos comunes, como ※echar las cartas§ del tarot o ※predecir§ tu futuro. Estas 迆ltimas pr芍cticas se han convertido en una de las modas virales m芍s recientes de TikTok, donde algunos v赤deos acumulan millones de visitas y los usuarios comentan, entusiasmados, lo mucho que la IA ※acierta§ en sus predicciones. Sin embargo, por muy popular que se haya vuelto esta tendencia, ni ChatGPT ni ninguna otra IA puede predecir el futuro. Y lo m芍s preocupante: esta pr芍ctica puede poner en riesgo tu privacidad sin que lo sepas.
No, ChatGPT no adivina el futuro: esto es lo que s赤 (y lo que no) puede hacer
La tendencia de pedir a ChatGPT que ※lea el tarot§ o ※prediga el futuro§ se ha vuelto viral en TikTok, donde abundan v赤deos con millones de visualizaciones y comentarios que afirman, emocionados, que el chatbot ※ha acertado en todo§. En estos v赤deos, los usuarios comparten sus experiencias y animan a otros a probarlo, a menudo aportando datos como su nombre completo, su fecha de nacimiento o signo del zod赤aco. Sin embargo, esta pr芍ctica, al margen de ser inofensiva, divertida, o un entretenimiento, no tiene ning迆n fundamento real. ChatGPT no posee poderes sobrenaturales ni acceso a ※informaci車n oculta§: simplemente imita patrones de lenguaje. Al igual que ocurre con los y las tarotistas de carne y hueso, su aparente eficacia se basa en el sesgo de confirmaci車n, un fen車meno por el cual tendemos a prestar m芍s atenci車n a lo que encaja con nuestras expectativas y a ignorar lo que no. Cuando creemos que una predicci車n acierta, es porque estamos dispuestos a encontrarle sentido.
El problema real no radica en la ineficacia de estas ※lecturas§. Muchos de los v赤deos virales que promueven esta moda invitan a los usuarios a compartir con la IA informaci車n personal muy sensible: desde su nombre completo hasta datos sobre su situaci車n sentimental, laboral o familiar. Si bien es f芍cil pensar que esta informaci車n se queda entre ※t迆 y el bot§, lo cierto es que todo lo que se comparte con ChatGPT puede ser utilizado por la empresa que lo gestiona 〞OpenAI〞 para mejorar el modelo. Esto incluye el almacenamiento y posible an芍lisis de tus datos. En el caso de una filtraci車n o brecha de seguridad, esa informaci車n privada podr赤a quedar expuesta. Lo mismo ocurre con otros modelos de IA como Grok o Gemini; compartir datos personales con una inteligencia artificial no solo no tiene ning迆n valor a nivel de precisi車n de sus ※predicciones§, sino que puede ponerte en una situaci車n de vulnerabilidad sin que seas plenamente consciente de ello.
Para entender por qu谷 ChatGPT no puede adivinar el futuro 〞ni entender el presente en un sentido estricto〞 hay que saber c車mo funciona. Este modelo de lenguaje es lo que se conoce como un LLM (Large Language Model, ※modelo de lenguaje de gran tama?o§ en ingl谷s), una herramienta basada en redes neuronales entrenadas con enormes vol迆menes de texto. Su ※inteligencia§ consiste en predecir cu芍l es la palabra m芍s probable que viene a continuaci車n, dada una entrada concreta. Es decir: no piensa, no comprende lo que dice y no tiene conciencia. No tiene acceso a tu vida privada, ni a planos espirituales, ni a ninguna clase de sabidur赤a oculta o sobrenatural. Solo responde con frases que, a nivel estad赤stico y de probabilidad, suenan coherentes. Por tanto, aunque pueda imitar el tono de un tarotista o escribir textos que parecen tener sentido, todo se reduce a probabilidades y patrones de lenguaje. Lo que parece una lectura acertada, en realidad es una ilusi車n construida por nuestra tendencia a buscar sentido donde no lo hay, y a la solvencia que pueda tener ChatGPT a la hora de devolvernos respuestas a las preguntas que le enviamos.
En una 谷poca en la que la inteligencia artificial est芍 cada vez a la orden del d赤a, es fundamental mantener una mirada cr赤tica y entender los l赤mites de su funcionamiento. No se trata, en absoluto, de demonizar la tecnolog赤a; de hecho, ChatGPT puede ser una herramienta sumamente 迆til para realizar determinadas tareas. La cuesti車n es aprender a usar estas herramientas y facilidades con responsabilidad. Mientras que pedirle a una IA que nos diga qu谷 nos depara el futuro puede sonar tentador, especialmente cuando atravesamos momentos de incertidumbre, confiar ciegamente en respuestas que imitan una pr芍ctica real que tampoco funciona puede reforzar nuestros sesgos y alejarnos de una toma de decisiones informadas, sanas y maduras. Lo que realmente se necesita en momentos as赤 no es que una m芍quina nos diga lo que queremos o赤r 〞o leer, en este caso〞, sino herramientas cognitivas y conductuales para tomar el control de nuestras propias decisiones. Al final, en lugar de buscar respuestas en un chatbot, quiz芍 deber赤amos empezar a hacernos a nosotros mismos las preguntas correctas.