El próximo reto de la IA es volver al pensamiento crítico
Millones de personas corren el riesgo de sufrir “epistemia”, es decir, la incapacidad de distinguir lo que es verdad de lo que parece serlo. La costumbre de preguntarle todo y más al “amigo virtual” hace que sea más necesario que nunca distinguir entre el conocimiento verdadero y la predicción estadística.
El año 2026 trae consigo muchas expectativas, diversas esperanzas, pero también numerosas preguntas. Desgraciadamente, varios conflictos siguen ensangrentando el planeta y en el horizonte se perfilan soluciones cuyos rasgos aún no están bien definidos. Todo ello en un escenario de retos cargados de significado, que ponen en tela de juicio la estructura antropológica del ser humano. Aquí podríamos abordar varios temas al respecto, pero hemos decidido centrar nuestra atención en un fenómeno en particular: la inteligencia artificial (IA).
La famosa revista británica Time, el pasado 8 de diciembre, dedicó su portada a “los arquitectos de la IA”. Entre ellos figuran Elon Musk, Mark Zuckerberg, Jensen Huang (fundador de Nvidia, gigante de la IA) y Sam Altman (director ejecutivo de OpenAI, creador de ChatGPT). Son solo algunos de los protagonistas de esta transición histórica que está viviendo nuestra época y que ha tenido su momento álgido en el año que acaba de terminar.
Evidentemente, 2025 no ha sido el año del nacimiento de la IA, pero sí de su normalización. Ha convertido en “costumbre” para millones de personas en todo el mundo recurrir a “este amigo imaginario” y preguntarle todo lo que se les ocurre. Y ahí es donde se ha producido el salto cualitativo. Como recuerda Il Post, ChatGPT contaba con 300 millones de usuarios semanales en diciembre de 2024; en noviembre de 2025, ya sumaba 810 millones. La revista de cine, arte e innovación ONOFF MAG ha recopilado las cien preguntas más extrañas formuladas a ChatGPT: desde problemas sentimentales hasta filosofías de bar, pasando por “paranoias” existenciales y dilemas cotidianos. Profundidad y misterio, pero también trivialidades y temas absurdos, son el centro de las solicitudes del usuario medio. Llegados a este punto, la pregunta que hay que plantearse es la siguiente: ¿qué efectos tiene este tipo “diferente” de socialización en el ser humano? Pero antes aún, habría que preguntarse: ¿se puede hablar de un proceso efectivo de socialización cuando el interlocutor es un “supercerebro” que imita el intelecto humano?
Sin embargo, los problemas no existirían si las respuestas fueran tomadas con “pinzas” por quienes utilizan la IA a diario. De hecho, es bien sabido que los resultados generados suelen presentar lagunas o errores increíbles (y aún no se sabe, por cierto, hasta cuándo seguirá siendo así). Y es precisamente en esta intersección entre la aparente credibilidad de la IA y la incapacidad de razonar del hombre del siglo XXI donde se esconden las distonías.
En el fondo, nos encontramos ante los efectos secundarios de lo que Martin Heidegger señalaba como “pensamiento calculador” y que Max Weber definía como “actuar racionalmente con respecto al objetivo”. Esta forma de racionalidad, además de no cuestionarse el “porqué” y eludir cuidadosamente el “discurso del sentido”, acaba atrofiando la propia capacidad de juicio.
Es en este rincón existencial —o agujero negro cognitivo— donde asoma lo que Walter Quattrociocchi, director del Center for Data Science and Complexity for Society de la Universidad La Sapienza, define como “epistemia”. Es decir, la “incapacidad de distinguir lo que suena a conocimiento de lo que es conocimiento”. La capacidad de verificación del ser humano se ve, por tanto, doblemente amenazada: por la falta de costumbre de pensar críticamente y por la asombrosa impecabilidad de los modelos lingüísticos que utiliza la IA (Large Language Models – LLM).
“Un contenido puede parecernos verdadero no porque lo sea, sino porque su forma lingüística nos recuerda a la de quien suele decir cosas verdaderas. Es un reflejo cultural, no un acto crítico”, observa Quattrociocchi. Las insidias se multiplican si tenemos en cuenta que a la impecabilidad lingüística se suma la “sycophancy”, es decir, la tendencia de los modelos a confirmar las creencias del interlocutor. Si lo pensamos bien, la IA acaba asumiendo el papel del abogado siempre dispuesto a distorsionar la realidad para satisfacer los deseos de quien tiene delante, reconfortándolo con la perfecta legalidad de sus actos.
Lástima que este proceso no sirva para “conocer”, sino más bien para “predecir”. “El conocimiento se convierte en un servicio personalizado, ajustado a nuestro punto de vista. La duda desaparece. El desacuerdo no llega. Cada interacción refuerza la ilusión de que el mundo es exactamente como lo imaginamos, y que eso es conocimiento”, recuerda Quattrociocchi.
Sin embargo, conviene aclarar que nuestro discurso no tiene como objetivo la IA, sino más bien el comportamiento humano. El verdadero tema de estas reflexiones es, de hecho, la racionalidad humana. El deseo es que ésta recupere la capacidad de evaluar críticamente lo que observa, lo que escucha y lo que lee. Por supuesto, no será una tarea fácil; por eso es necesario, en primer lugar, desenmascarar las certezas fáciles, las garantías pretextadas y los avances empalagosos. De hecho, el tiempo presente no se construye solo imaginando el futuro, sino creando las premisas para “asegurarlo” desde ahora mismo.
