Inteligencia artificial hasta en la sopa

RAE. hasta en la sopa: loc. adv. coloq. En todas partes.

En el lenguaje coloquial, cuando decimos que algo está “hasta en la sopa” es que aparece por todas partes, que se repite tanto y con tanta insistencia que termina por saturarnos. Como se dice, lo poco gusta, y lo mucho cansa, y cuando se abusa de cualquier cosa, por mucho que nos agrade o nos parezca interesante, termina cansando y perjudicando, porque los excesos son negativos en todo.

¡Que viene la IA!

Así titulé una de las primeras charlas que di sobre inteligencia artificial en educación tras la irrupción de ChatGPT y el auge mediático de la IA. El título, “¡Que viene la IA!”, aludía a la fábula del pastor mentiroso: una advertencia que, con el tiempo, deja de tomarse en serio hasta que ya es demasiado tarde. Porque sí, en esos momentos ya le estábamos viendo las orejas al lobo.

Al principio, el anuncio genera alarma y solidaridad, y todos acuden en su ayuda. Pero cuando se repite una y otra vez sin consecuencias claras, las alertas se diluyen, el cansancio se impone y la reacción desaparece. Hasta que finalmente el lobo llega, y nos pilla desprevenidos.

Soy un defensor convencido del uso de las IA y de las tecnologías digitales en la universidad. Desde la redacción de trabajos con herramientas como ChatGPT hasta el apoyo en la planificación curricular o la gestión de la investigación, la IA ya forma parte de nuestras conversaciones, estrategias y propuestas de innovación.

Pero, ¿de qué hablamos cuando hablamos de IA en educación?

No se trata de una tecnología única, sino de un ecosistema amplio, diverso y en continua evolución: modelos generativos, sistemas de recomendación, asistentes automatizados, plataformas adaptativas, analítica del aprendizaje… Herramientas que prometen personalización, eficiencia e inclusión, pero que también acarrean riesgos: opacidad algorítmica, dependencia tecnológica, sesgos, trivialización del conocimiento y, quizá lo más preocupante, el debilitamiento de competencias esenciales como la escritura, la argumentación o la autoría crítica.

Más allá del entusiasmo inicial o del rechazo instintivo, la IA plantea desafíos profundos: ¿qué significa aprender en un contexto de abundancia de respuestas? ¿cómo garantizamos la autoría, la originalidad y el pensamiento crítico? ¿qué papel debe jugar la ética en la incorporación de estas tecnologías en el aula? ¿quién controla los datos y los algoritmos que influyen en nuestras decisiones educativas? y ¿cómo evitamos que se abran nuevas brechas de acceso, uso y comprensión de la tecnología?

¡IA hasta en la sopa!

He elegido este título porque la inteligencia artificial se ha vuelto tan omnipresente en nuestra vida cotidiana, tanto profesional como personal, que resulta imposible ignorarla, aunque a veces desearíamos hacerlo. Y como ocurre con todo lo que se repite hasta el hartazgo, ha llegado el momento de parar y pensar.

El uso excesivo, y muchas veces superficial, de ciertos términos puede acabar vaciándolos de significado. Palabras como innovación, sostenibilidad, empoderamiento o transformación digital han perdido, en muchos contextos, fuerza, claridad y credibilidad por culpa de una aplicación indiscriminada o meramente estética. La inteligencia artificial está empezando a correr el mismo riesgo.

Inteligencia Artificial hasta en la sopa es una expresión que capta con ironía la sensación cada vez más común de la presencia constante, y en ocasiones abrumadora, de la IA en todos los rincones de la educación superior.

En los últimos tiempos, pocas cosas se ajustan mejor a esta descripción que el término inteligencia artificial. Noticias, debates, anuncios, políticas, temores, promesas… la IA se ha instalado en nuestras conversaciones, en nuestros trabajos y en nuestras rutinas cotidianas. Está en las aulas, en las empresas, en los móviles… y sí, hasta en la sopa.

La IA no solo abre nuevas posibilidades; también nos sitúa ante un escenario educativo lleno de tensiones aún no resueltas. ¿Debemos prohibir el uso de estas herramientas o integrarlas críticamente en la enseñanza? ¿Cómo evaluar en un contexto donde la generación automática de textos y soluciones está al alcance de cualquier estudiante? ¿Qué competencias debemos priorizar ahora que muchas tareas intelectuales se pueden automatizar?

La voz de los expertos

En una sociedad tan polarizada como la actual, parece que en torno a la inteligencia artificial solo caben dos posturas: los defensores entusiastas que creen que resolverá todos nuestros problemas y los detractores que advierten que destruirá la humanidad.

Sin embargo, como profesor de inteligencia artificial desde mi incorporación a la universidad en 1995, me preocupa más otra contraposición, más sutil pero igualmente relevante: la que se da entre quienes defienden la IA desde posiciones y trayectorias muy distintas.

Esta reflexión me surgió tras ver la entrevista a Ramón López de Mántaras titulada Nos están engañando con la IA (dura dos horas, pero vale la pena).

En esta entrevista, se hacen evidentes dos formas muy diferentes de aproximarse al fenómeno. Por un lado, la del académico con años de trayectoria investigadora, amplio bagaje conceptual y una mirada crítica y serena, construida desde la experiencia y el conocimiento acumulado. Por otro, la del creador de contenido, con entusiasmo, que ha dedicado los últimos dos años a explorar el universo de la IA y lo hace desde una visión fuertemente influenciada por el discurso de las grandes tecnológicas.

Necesitamos recuperar la voz de quienes llevan décadas pensando la tecnología desde dentro, con rigor, distancia crítica y responsabilidad

No se trata de rechazar la perspectiva del divulgador, sino de reconocer que no todas las voces tienen el mismo peso cuando hablamos de cuestiones tan complejas y con implicaciones profundas para la educación, la sociedad y el futuro del trabajo. La inteligencia artificial está llamada a desempeñar un papel central en nuestro futuro, pero su desarrollo no es neutro, ni inevitable, ni ajeno a intereses económicos y políticos concretos.

Nos encontramos en un momento en que el relato dominante sobre la IA está cargado de humo: promesas hiperbólicas, expectativas infladas y la necesidad de justificar inversiones multimillonarias. Se nos empuja a adoptar sin cuestionar, a integrar sin debatir, a reaccionar sin reflexionar.

Contra la charlatanería

Bullshit 

Hace unos años leí un libro que me gustó mucho: Bullshit. Contra la charlatanería. Ser escéptico en un mundo basado en datos. Fue ahí donde descubrí el término bullshit, que, como señala el traductor en su nota inicial, no tiene una equivalencia exacta en español. Palabras como chorradas, bobadas o tontería se quedan cortas. El bullshit no es una mentira deliberada, sino una forma de engaño indiferente a la verdad. Como se dice en el libro, quien produce bullshit no se preocupa por si lo que dice es verdadero o falso: simplemente le da igual.

Recientemente volví a encontrarme con este término, esta vez en el artículo Bullshit universities: the future of automated education (Sparrow & Flenady, 2025), que me interpela directamente como profesor universitario. Los autores advierten que delegar funciones educativas en sistemas automatizados puede empobrecer la enseñanza, despojándola de su dimensión crítica y humana. Lejos de ser aliados neutrales, los autores sostienen que estos sistemas generan textos sin compromiso con la verdad, que no pueden actuar como modelos ni fomentar una formación profunda. Frente a esta deriva, proponen fortalecer el papel del profesorado y reivindicar una educación basada en el pensamiento crítico y la interacción humana.

Usar IA generativa en contextos educativos requiere precaución, sentido crítico y responsabilidad.

Botshit 

Y me acabo de encontrar otra palabra derivada de este término y ajustada a la IA generativa, de la que estamos hablando, botshit: contenidos generados por chatbots, que son inexactos, fabricados o engañosos, y que los humanos utilizan sin cuestionarlos en tareas significativas. El riesgo no es menor: errores en decisiones, daños reputacionales, problemas legales o incluso amenazas para la seguridad. En The Risks of Botshit (McCarthy, Hannigan & Spicer, 2024), los autores proponen un marco para evaluar el riesgo de utilizar chatbots en función de la importancia de la veracidad de las respuestas y la dificultad para verificar dicha veracidad.

Su mensaje es claro: aunque la IA ofrece oportunidades, es esencial gestionar cuidadosamente los riesgos epistemológicos asociados.

Y dándole una vuelta más de tuerca al término, nos encontramos con la expresión The botshit classroom de Ian P. McCarthy. En el artículo Beware of botshit (Hannigan, McCarthy & Spicer, 2024) distinguen entre distintos modos de trabajo con chatbots (autenticado, automatizado, aumentado y autónomo), ofreciendo una guía práctica para gestionar estos riesgos, subrayando que los modelos de lenguaje no entienden lo que dicen: predicen respuestas plausibles, pero no necesariamente verdaderas.

La ilusión del aprendizaje

Y siguiendo con textos provocadores, quiero cerrar con uno que me compartió Alfonso González Hermoso de Mendoza: In the Age of AI, Is Education Just an Illusion? We are in the midst of a crisis of purpose. En este artículo, el autor describe lo que parece una batalla ya perdida por parte del profesorado frente al avance imparable de la inteligencia artificial.

A pesar de los esfuerzos por adaptar las evaluaciones, apelar a la ética estudiantil y diseñar tareas a prueba de IA, nada parece funcionar. La mayoría del estudiantado recurre a herramientas como ChatGPT para elaborar sus trabajos y, complementariamente, algunos docentes también utilizan estas tecnologías para generar retroalimentaciones automatizadas.

Tanto estudiantes como profesores participan en una especie de espectáculo que simula el proceso educativo sin que necesariamente ocurra un aprendizaje genuino. 

Esta situación apunta a una crisis de propósito en la educación superior, donde tanto la enseñanza como el aprendizaje corren el riesgo de convertirse en simulacros vacíos. La pregunta que emerge es inquietante: si el proceso educativo se reduce a una interacción entre inteligencias artificiales, ¿qué queda de la experiencia formativa auténtica?

La metáfora del pressing catch (World Wrestling Federation, WWF) es tan provocadora como reveladora. Alfonso lo resumía perfectamente: el verdadero fraude no es solo copiar con IA, sino permitir que la educación pierda su sentido y se transforme en una mera actuación.

El rumbo aún no está escrito. No todo está perdido. Está en nuestras manos evitar ese futuro vacío. Y por eso seguiré luchando: por una inteligencia artificial que sume a la educación y esté al servicio de un aprendizaje auténtico. Ante el riesgo de una universidad de la ilusión, reivindico una universidad ilusionante.

Necesitamos urgentemente un caso de éxito

En la empresa

Que nadie se lleve a engaño. Este post no es un ataque a la inteligencia artificial. Todo lo contrario. Es una defensa firme de la IA, pero eso sí, de una IA diseñada pensando en las personas, implantada con la colaboración de expertos en cada área y utilizada de forma ética y responsable.

Hace poco, Andrés Pedreño se preguntaba en LinkedIn por qué quizás las grandes empresas en España no están aplicando correctamente la inteligencia artificial. Entre los nueve factores que, en su opinión, explican por qué muchas compañías están desaprovechando su potencial transformador, voy a destacar tres (aunque os recomiendo leerlos todos): a) la priorización de casos de uso sin un criterio de retorno de la inversión (ROI), b) la adopción de modelos impuestos externamente sin adaptación al contexto; y c) la falta de una visión transversal que conecte la tecnología con la estrategia de la organización.

Pedreño advertía que la IA corre el riesgo de convertirse en otra promesa incumplida y, lo que es peor, en una oportunidad perdida. Porque apostar por la inteligencia artificial no es simplemente comprar herramientas, es transformar el modelo de negocio desde dentro, con talento, liderazgo y visión de largo plazo.

En la educación

Necesitamos ya un caso educativo de éxito claro, visible y medible, que nos sirva de referente. 

Si trasladamos estas reflexiones al mundo educativo, donde el ROI no se mide en beneficios económicos sino en el aprendizaje de nuestros estudiantes, la advertencia es aún más pertinente. La incorporación de la IA a la universidad está condenada al fracaso si nos limitamos a implantar soluciones tecnológicas importadas, sin adaptarlas a nuestras necesidades, sin evaluar su impacto real en el aprendizaje y sin la implicación activa de toda la comunidad universitaria.

Conviene recordar que un énfasis descontrolado en la IA, alimentado por la presión mediática, arrastrados por las grandes tecnológicas, la moda o el simple miedo a quedarse atrás, puede provocar un efecto rebote. Ya ha ocurrido antes con otras tecnologías en el ámbito educativo, como el uso indiscriminado de dispositivos móviles en el aula.

Si no incorporamos la IA con criterios pedagógicos sólidos y desde una reflexión compartida, corremos el riesgo de repetir errores pasados: invertir mucho, esperar demasiado y obtener poco.

Una invitación al diálogo crítico

Porque si vamos a tener inteligencia artificial hasta en la sopa, al menos que sepamos qué estamos cocinando. Que entendamos si esta sopa nos alimenta o solo nos llena. Si nos nutre con pensamiento, creatividad y autonomía, o si nos adormece con respuestas fáciles y conocimiento precocinado.

Debemos preguntarnos si estamos incorporando a nuestras aulas un ingrediente que enriquece la dieta educativa, o uno que, aunque aparentemente sabroso, empobrece a largo plazo nuestras capacidades como docentes y estudiantes.

Al igual que un ingrediente que aparece en todos los platos puede llegar a saturar o desdibujar el sabor del conjunto, la omnipresencia de la IA nos obliga a preguntarnos si estamos integrándola con sentido o simplemente repitiendo su nombre como moda inevitable.

Como cualquier alimento, la IA puede ser saludable o nociva según cómo se cultive, cómo se prepare y, sobre todo, cómo se consuma. Y es responsabilidad de la universidad saber leer las etiquetas, cuestionar las recetas y decidir, con conocimiento, qué tipo de educación queremos servir en nuestras mesas.


Suscríbete al blog por correo electrónico

Suscripción conforme al RGPD 2016/679.

 

Comentarios
  1. Carmelo dice: 27/05/2025 a las 09:55

    Gracias profesor Llorens por compartir estas reflexiones, creo que necesarias -aunque no nuevas- en el contexto de la enseñanza y el aprendizaje universitario. Necesarias porque tienen y han de seguir teniendo un largo debate, consensos y acuerdos en la comunidad universitaria… Esto ya pasó o es una constante en la mejora del proceso educativo cuando se incorpora un nuevo paradigma, una nueva metodología o una nueva tecnología con carácter masivo o general sin un adecuado tiempo para evaluar y reflexionar sobre los resultados. La IA es, posiblemente o hasta ahora, el reto más complejo y complicado al que se enfrentan muchas instituciones (no solo educativas). Debido, principalmente, a su velocidad de implantación y uso masivo, especialmente, entre las nuevas generaciones. El tiempo de reacción docente se acorta y urge por ello que este tipo de reflexiones se asuman con carácter institucional, evitando, claro está, la torre de Babel. Dada su complejidad, convendría que se actuara desde cada ámbito o realidad formativa pero coordinada y comunicada.


¿Y tú qué opinas?