quarta-feira, 25 de fevereiro de 2026

A IA Não Substitui o Humano na Inclusão Escolar

 


A Ilusão da Panaceia Digital: Por que a IA não substitui o olhar humano na inclusão escolar

Profa. Dra. Rosana Mendes Ribeiro (*)  

Vivemos um momento de euforia tecnológica. A Inteligência Artificial (IA) invadiu as salas de aula e as discussões pedagógicas com a promessa de ser o "grande equalizador" do ensino. A narrativa é sedutora: contar com um tutor personalizado para cada aluno, incansável, capaz de adaptar conteúdos em tempo real para quem possui dislexia, TDAH, discalculia ou simplesmente lacunas na base educacional.

As possibilidades proporcionadas pelas ferramentas que utilizam IA realmente são fascinantes. No entanto, precisamos ter a coragem de dizer o que os entusiastas da tecnologia muitas vezes ignoram: a IA não é uma solução totalmente confiável para a complexidade da dificuldade de aprendizagem da mente humana e a diversidade de perfis na aprendizagem.

Para um aluno com dificuldades de leitura, ferramentas de IA que resumem textos complexos ou convertem escrita em fala são pontes valiosas. A capacidade da IA de gerar exercícios infinitos sobre um tópico específico permite uma repetição que o professor, com 30 alunos ou mais em sala, dificilmente consegue gerenciar individualmente.

A tecnologia oferece acessibilidade instrumental ao remover barreiras mecânicas. Mas a aprendizagem - especialmente para quem tem dificuldades- não é apenas um processo mecânico de input e output de dados. É um processo emocional e de relacionamento. O calcanhar de Aquiles da IA, quando aplicada a alunos com dificuldades de aprendizagem, reside na sua própria natureza: ela é treinada com base em padrões. Ela busca a resposta mais provável baseada em bilhões de dados de experiências passadas, mas não tem a sensibilidade humana para lidar com ocorrências inesperadas e fora do que foi previamente analisado.

Ocorre que o aluno com dificuldade de aprendizagem é, por definição, a exceção ao padrão. Uma IA pode identificar que um aluno errou uma equação matemática, pode oferecer a solução passo a passo, mas não sabe se o erro ocorreu porque o aluno não sabe a tabuada, porque está com ansiedade paralisante, ou porque inverteu os números devido a uma disgrafia não diagnosticada.

Para a máquina, o sintoma (o erro) é tratado com uma correção lógica. Para o ser humano, o sintoma é um convite à investigação.

Além disso, temos o problema técnico da confiabilidade. IAs podem "alucinar" - inventam fatos com total confiança. Entregar uma ferramenta que pode gerar informações imprecisas a um aluno que já possui dificuldades de discernimento ou interpretação é perigoso. A tecnologia não tem compromisso ético com a verdade, nem responsabilidade moral sobre a frustração de uma criança que não consegue aprender com uma explicação gerada automaticamente e incorreta.

É aqui que a insubstituibilidade do educador se manifesta. O processo de ensino-aprendizagem para alunos com dificuldades exige nuance, algo que nenhum algoritmo possui. A percepção humana é o melhor caminho porque ela capta o invisível: o contexto emocional, a flexibilidade criativa e o vínculo de confiança com o aluno.

No contexto emocional, um professor percebe quando a dificuldade de aprendizagem é, na verdade, um problema de autoestima ou um reflexo de problemas domésticos. A IA não lê expressões faciais de frustração contida.

No que diz respeito à flexibilidade criativa, a IA repete explicações baseadas em dados pré existentes. Um educador humano inventa uma metáfora absurda, usa um jogo do recreio ou desenha no chão para fazer aquele aluno específico entender um conteúdo. A criatividade humana nasce da empatia, não da probabilidade estatística.

O vínculo da confiança é o "olhar nos olhos", que valida o esforço do aluno durante o processo, não apenas o resultado. Alunos com dificuldades de aprendizagem muitas vezes carregam traumas escolares e não aprendem com quem não confiam. A máquina não oferece acolhimento, ela oferece processamento.

O que podemos concluir é que a Inteligência Artificial deve entrar na escola como uma "muleta" sofisticada - útil para apoio, para tarefas repetitivas e para acessibilidade. Mas jamais como a "perna".

Delegar o suporte a alunos com dificuldades de aprendizagem para algoritmos é, de certo modo, uma forma de abandono digital. A tecnologia pode apontar onde está o erro, mas apenas a sensibilidade humana consegue entender quem está errando e por que. Na educação inclusiva, a tecnologia mais avançada ainda é, e sempre será, a empatia humana. A tecnologia oferece escala e velocidade, mas falha na "leitura da alma", necessária para apoiar alunos com dificuldades de aprendizagem.

 

(*) é sócia-fundadora do Núcleo Aprende, fonoaudióloga, psicopedagoga e idealizadora da Metodologia CDRA

 

Nenhum comentário:

Postar um comentário