Este tablero interactivo para el taller está diseñado para ayudar a los estudiantes a explorar las limitaciones de los Modelos de Lenguaje a Gran Escala (LLMs) mediante la investigación, la experimentación práctica y la reflexión crítica.
Sección 1: Calentamiento (dirigido por el docente)
Discusión plenaria: Invita a los estudiantes a responder preguntas sobre su uso actual de la IA y su nivel de confianza.
Acertijo lógico: Un enigma visual y verbal sobre una "taza sellada" para mostrar el razonamiento humano frente al reconocimiento de patrones de la IA.
Insight de medios: Un enlace al reel de Phi Nguyen para mostrar ejemplos reales de "fallos" de la IA.
Sección 2: Laboratorio interactivo (grupos de estudiantes)
Tarea 1: Investigar y explicar: Los grupos investigan las limitaciones comunes de la IA (lógica, conteo, sentido del tiempo, etc.) y encuentran las razones técnicas detrás de ellas, como "tokenización".
Tarea 2: El desafío "Trick": Los estudiantes usan sus propias instrucciones para intentar hacer que la IA falle, capturando sus resultados más divertidos en el espacio de trabajo.
Desafío de gaslighting: Un ejercicio específico en el que los estudiantes intentan "ganar" una discusión contra una IA correcta para ver si finalmente mentirá para complacerlos.
Sección 3: Reflexión final (dirigida por el docente)
Discusión crítica: Una sesión final de "Think-Pair-Share" centrada en la confianza, la responsabilidad y la ventaja humana.
Escenarios éticos: Pedir a los estudiantes que comparen los consejos de la IA con la empatía humana en situaciones personales (por ejemplo, problemas familiares o con amigos).
La habilidad del futuro: Identificar lo que los humanos pueden hacer de manera única y que la IA nunca podrá dominar.