Inteligencia artificial: cómo enseñar a los estudiantes a detectar errores y sesgos

Cada vez más jóvenes confían en lo que dice la inteligencia artificial. Pero la IA también se equivoca.

La IA alucina: ¿se puede enseñar a detectar las “mentiras” de la máquina?. inteligencia artificial

La IA alucina: ¿se puede enseñar a detectar las “mentiras” de la máquina?

La inteligencia artificial generativa se instaló rápidamente entre estudiantes como herramienta de consulta, apoyo y creación de contenidos. Pero junto con sus posibilidades, también trajo riesgos difíciles de notar a simple vista: a veces inventa información. Este fenómeno, conocido como alucinaciones, plantea un nuevo desafío educativo: ayudar a los jóvenes a detectar cuándo una respuesta es falsa, incompleta o sesgada.

Desde la Universidad de San Andrés, un equipo de investigadores propone un enfoque innovador para abordar este problema. La clave, dicen, está en formar una mirada crítica y consciente frente a estas tecnologías que hablan con autoridad, pero no siempre están en lo cierto.

“En Argentina, la mayoría de los jóvenes carece de las competencias digitales básicas para interactuar de manera efectiva con la inteligencia artificial”, explica el profesor Alejandro Artopoulos, investigador de la Escuela de Educación de la Universidad de San Andrés y coautor de un estudio sobre la urgencia de fortalecer la alfabetización crítica en IA para que las nuevas generaciones comprendan cómo funciona, por qué puede fallar y cómo evitar depender ciegamente de ella.

En efecto, uno de los riesgos que destacan los expertos es que la dependencia excesiva de la IA para producir textos puede afectar habilidades esenciales para la vida académica y profesional. El estudiante podría perder la capacidad de buscar información a partir de diferentes fuentes, analizarla, relacionarla y generar, a partir de lo anterior, argumentaciones sólidas, advierten. Esto incluye competencias como la lectura comprensiva, la escritura creativa y el pensamiento crítico.

En su trabajo, Alejandro Artopoulos (UdeSA) y Alejandra Lliteras (Universidad Nacional de La Plata) proponen una serie de estrategias didácticas para enfrentar este problema. Entre ellas, el uso de actividades con IA generativa en forma guiada y lúdica para ayudar a los estudiantes a identificar cuándo una respuesta contiene errores, omisiones o sesgos. También recomiendan emplear técnicas de lectura distante -como nubes de palabras y grafos de personajes– con obras literarias para entrenar el análisis crítico y comparar resultados generados con y sin IA.

Para ilustrar las limitaciones de la inteligencia artificial generativa, los investigadores analizaron la obra La casa de Bernarda Alba, de Federico García Lorca, utilizando tres herramientas distintas: dos sin IA (que permitieron identificar las palabras más frecuentes y mapear relaciones entre personajes) y una con IA generativa. Esta última omitió por completo a uno de los personajes presentes en el texto, lo que pone de relieve cómo estas tecnologías pueden ofrecer respuestas incompletas o sesgadas, incluso frente a materiales ampliamente conocidos.

Otro eje clave de la investigación es evitar que estas tecnologías sigan operando como cajas negras. Los autores proponen desarrollar recursos educativos abiertos que hagan visibles sus mecanismos internos, para que los estudiantes no solo detecten errores, sino también comprendan cómo se producen. “Agudizar el sentido crítico respecto a los textos generados por la inteligencia artificial implica evitar la humanización de las máquinas probabilísticas. A diferencia de las herramientas clásicas de procesamiento de lenguaje de acceso abierto, la inteligencia artificial generativa opera como una caja negra”, señala Artopoulos.

Los investigadores ubican a la IA generativa como la cuarta gran disrupción educativa de las últimas dos décadas, luego de la Web 2.0 (2006–2012), los teléfonos inteligentes y plataformas en la nube (2013–2019), y la educación remota durante la pandemia (2020–2022). “La inteligencia artificial es comparable a la energía nuclear. Esta tecnología poderosa es capaz de transformar conflictos, curar enfermedades y actuar como una fuente de energía económica.

Sin embargo, si no la utilizamos adecuadamente, podríamos enfrentar escenarios más graves que los que teníamos originalmente”, concluye el investigador de UdeSA.

Salir de la versión móvil