La IA generativa como motor del pensamiento crítico, no como oráculo
- Alejandra González Dávila

- hace 16 horas
- 6 Min. de lectura

Las métricas de desempeño del blog del IESPE revelaron que en el primer trimestre de 2026 los lectores de este espacio tienen preferencia por contenidos que combinen tendencias actuales con aplicación práctica en el aula, como sucede con los programas de inteligencia artificial generativa (IA) con fines pedagógicos. La discusión ya no se centra en si debe permitirse o no el uso de la IA, sino en cómo evitar que ésta reemplace el proceso de pensamiento de los estudiantes.
En el IESPE está permitido el uso de la IA generativa de acuerdo con el protocolo establecido. Su uso no se piensa como el oráculo de todas las respuestas, sino como un motor que impulse el pensamiento divergente para crear y el juicio crítico para analizar la información obtenida.
Cambio de enfoque sobre el uso de IA
Cuando un profesor asigna un ensayo, los estudiantes suelen introducir un par de frases y en un instante obtienen un texto gramaticalmente coherente pero con el riesgo de ser impreciso. En este caso, el problema no es la tecnología, sino la falta de juicio crítico y la pereza mental. Esto repercute también en la motivación docente porque es frustrante corregir trabajos que ni siquiera han sido pensados.
Tenemos las herramientas de búsqueda y respuesta de información más potentes de la historia, pero corremos el riesgo de formar una generación con menor capacidad de cuestionarse sobre sus contenidos. Para quienes nos dedicamos a formar personas que ejercerán su profesión en pocos años y se encargarán de las decisiones cruciales del país, es muy importante asumir nuestra responsabilidad al respecto.
Uno de los riesgos de la IA es su tendencia a promediar la información como si todo tuviese el mismo peso y no fueran importantes los matices en ciertos temas que no deberían generalizarse. En las investigaciones educativas muchos resultados son válidos en contextos situados o abordan temas que son susceptibles de conflictos de opinión. Una forma de contrarrestar esto es hacer que la IA opere con fuentes que nosotros elegimos después de una buena curaduría.
Para poner manos a la obra, a continuación se presentan tres estrategias pedagógicas utilizando herramientas de IA diseñadas para devolver al estudiante su protagonismo y el gusto por aprender a partir de su esfuerzo mental.
Actividad 1. De la talacha al ensayo
En lugar de pedir un resumen que el estudiante pueda fácilmente copiar y pegar, el docente puede solicitarle revisar al menos tres fuentes previamente seleccionadas para realizar lo siguiente:
El alumno carga en la IA tres documentos con posturas opuestas (por ejemplo: un informe técnico, un artículo de opinión política y una crítica ética sobre la experimentación genética).
El estudiante usa la técnica PARTS para ingresar indicaciones efectivas (prompts). Las siglas significan: Persona, Acción, Resultado, Tema y formato específico (Specific). Aquí un ejemplo de prompt:
Actúa como un analista de discurso crítico. Basándote exclusivamente en las fuentes que he subido, genera una tabla comparativa que identifique: 1. Los tres argumentos principales de cada autor. 2. Las omisiones: ¿Qué datos importantes ignora un autor que el otro sí menciona? 3. El uso de lenguaje cargado: Identifica frases que busquen apelar a las emociones. Al finalizar, no des una conclusión; formula tres preguntas difíciles que yo deba responder para formar mi propio criterio.
El estudiante redacta un ensayo que responda a las preguntas de la IA, pero no está permitido inventar respuestas superficiales; debe referir correctamente las paráfrasis y citas textuales, lo que implica consultar dichas fuentes.
En plenaria se revisa el proceso con fines de coevaluación y metacognición: desde comparar la calidad de los prompts generados por los estudiantes, las respuestas obtenidas y la calidad argumentativa de cada ensayo.
Como puede apreciarse, la IA hace la talacha de organizar la comparación de las fuentes en función del prompt del alumno, pero éste revisa sus propias indicaciones y elabora el ensayo. La IA es un motor del aprendizaje, no un sustituto del pensamiento del estudiante.
Actividad 2. Duelo de argumentos
A menudo, las respuestas que proporciona la IA suelen validar cosas que el alumno supone, aun cuando no sean ciertas. Algunas investigaciones han demostrado que los asistentes virtuales de voz y texto con frecuencia admiten incorrectamente errores cuando el usuario los cuestiona, brindando retroalimentación sesgada e imitando los errores del usuario. Esto hace evidente cierta adulación en las respuestas. Los autores atribuyen estas fallas más a la forma en que se entrenan estos modelos de lenguaje, que a un sesgo deliberado (Sharma et al., 2023, p. 1).
Estos hallazgos se confirman en otros trabajos para probar modelos de IA en los que se advierte cómo se repite la respuesta preferida por el usuario en exámenes escritos, aun cuando sea errónea. Este también es un fenómeno de adulación que los autores señalan como cámaras de eco (Pérez et al., 2023, pp. 13388-13389).
Conociendo este problema, se propone una segunda actividad que consiste en la defensa y toma de postura sobre algún tema del programa de una asignatura o también sirve para preparar la defensa de una tesis frente a sinodales de grado o posgrado. El reto aquí es elaborar el prompt y desarrollar los argumentos que puedan vencer a una IA configurada para no dejarse convencer. El docente debe solicitar al alumno llevar una bitácora de todo el proceso, y este es el detalle fino del aprendizaje. Veamos los pasos:
El estudiante introduce su planteamiento o tesis (ej. La energía nuclear es la única solución al cambio climático).
Se reta al alumno a generar un prompt que proporcione argumentos contrarios a su tesis. Por ejemplo:
Quiero que actúes como alguien que es escéptico y sumamente crítico al tema que te voy a presentar. Tu objetivo es demoler mis argumentos usando lógica formal y exigiendo evidencia. No me des la razón. Hazme una sola pregunta punzante a la vez. Si detectas una contradicción o una falacia en mi respuesta, señálala. Solo ganaré si logras decir: 'Tu argumento es sólido y no encuentro fallas lógicas'.
El docente no califica si el estudiante le ganó a la IA, sino el proceso que le llevó a construir sus argumentos y que debe quedar registrado en la bitácora, de manera que pueda apreciarse cómo tuvo que investigar datos externos para responder a los ataques de la IA. Esto transforma la actividad en una experiencia real para dar la mejor respuesta posible, lo que implica un reto intelectual importante.
Actividad 3. Simulador de crisis y dilemas éticos
El análisis de casos es una actividad muy formativa para que los estudiantes enfrenten dilemas que no tienen una respuesta correcta o única en los libros que consultan. Experimentar cierta presión para la toma de decisiones es un ejercicio muy útil para la vida. Aquí los pasos de la actividad:
En grupo o de forma individual, el estudiante plantea una instrucción a la IA para que elabore un caso de crisis basado en el contexto escolar o social actual (ej. un dilema sobre privacidad de datos o un conflicto de intereses en un proyecto comunitario). Es deseable que el estudiante plantee un problema que detecte en su entorno.
El estudiante propone una solución y le pide al programa: Simula las consecuencias de mi decisión a 1, 5 y 10 años, considerando variables económicas, sociales y emocionales de los involucrados.
El estudiante identifica en qué puntos la IA está siendo demasiado optimista o está actuando simplemente como lo que es, una máquina. Enseguida, el estudiante hace los cambios necesarios para la solución basándose en consideraciones muy humanas como la empatía, la cultura, los usos y costumbres, etcétera, que se vinculan al contexto local que la IA obviamente desconoce.
Se puede desplegar un árbol de decisiones para que los estudiantes valoren la calidad de la decisión proporcionada por la IA, cuál es el dilema más importante que se presenta en el caso y qué otra decisión pudiera tomarse.
Devolver el protagonismo al estudiante
La Inteligencia artificial generativa no debe ser tratada como el oráculo que dicta todas las respuestas, sino como un motor que impulsa la capacidad de análisis-síntesis, el pensamiento creativo y el juicio crítico, entre otras habilidades. Por esa razón es importante darse el tiempo necesario para desarrollar actividades que se conviertan en experiencias de alto valor para el aprendizaje, en lugar de señalar a los estudiantes cuando se detectan respuestas generadas por un asistente virtual.
La IA puede servir como espejo para darse cuenta de lo que aún nos falta por fortalecer. Al implementar herramientas de IA bajo una metodología de desafío y no de asistencia, estamos preparando a los estudiantes para liderar máquinas, no para obedecerlas.
El gran desafío es pedir menos respuestas y exigir más procesos. Solo así, garantizaremos que, mientras la tecnología se vuelve más inteligente, nuestros estudiantes se mantengan agudos, humanos y críticos.
Alejandra González Dávila es rectora del IESPE y directora de Desarrollo Profesional en Grupo Edilar.
Referencias
Perez, E., Ringer, S., Lukosiute, K., Nguyen, K., Chen, E., Heiner, S., ... & Kaplan, J. (2023, July). Discovering language model behaviors with model-written evaluations. In Findings of the Association for Computational Linguistics: ACL 2023 (pp. 13387-13434).
Sharma, M., Tong, M., Korbak, T., Duvenaud, D., Askell, A., Bowman, S. R., Cheng, N., Durmus, E., Hatfield-Dodds, Z., Johnston, S. R., Kravec, S., Maxwell, T., McCandlish, S., Ndousse, K., Rausch, O., Schiefer, N., Yan, D., Zhang, M., y Perez, E. (2023). Towards understanding sycophancy in language models. arXiv. https://doi.org/10.48550/arXiv.2310.13548




Comentarios