Este board interativo para workshop foi criado para ajudar estudantes a explorar as limitações dos Large Language Models (LLMs) por meio de pesquisa, experimentação prática e reflexão crítica.
Seção 1: Aquecimento (liderado pelo professor)
Discussão em plenário: Envolver os estudantes com perguntas sobre o uso atual de IA e seus níveis de confiança.
Enigma lógico: um enigma visual e verbal sobre um "copo selado" para demonstrar o raciocínio humano vs. a correspondência de padrões da IA.
Insight de mídia: um link para o reel da Phi Nguyen que mostra exemplos reais de falhas da IA.
Seção 2: Laboratório interativo (grupos de estudantes)
Tarefa 1: Pesquisar e explicar: Grupos pesquisam as falhas comuns da IA (lógica, contagem, noção de tempo etc.) e identificam as razões técnicas por trás delas, como "tokenização".
Tarefa 2: Desafio "Trick": Os estudantes usam seus próprios prompts para tentar fazer a IA falhar, registrando os resultados mais engraçados no espaço de trabalho.
Desafio "Gaslighting": Um exercício específico em que os estudantes tentam "vencer" uma discussão contra uma IA correta para ver se ela acabará mentindo para agradá-los.
Seção 3: Reflexão final (conduzida pelo professor)
Discussão crítica: Uma sessão de encerramento "Think-Pair-Share" focada em confiança, responsabilidade e a vantagem humana.
Cenários éticos: Pedir aos alunos que ponderem os conselhos da AI em comparação com a empatia humana em situações pessoais (por exemplo, dificuldades familiares ou com amigos).
A habilidade do futuro: Identificar o que as pessoas podem fazer de forma única que a AI nunca conseguirá dominar.