A Ilusão da Panaceia
Digital: Por que a IA não substitui o olhar humano na inclusão escolar
Profa. Dra. Rosana
Mendes Ribeiro (*)
Vivemos
um momento de euforia tecnológica. A Inteligência Artificial (IA) invadiu as
salas de aula e as discussões pedagógicas com a promessa de ser o "grande
equalizador" do ensino. A narrativa é sedutora: contar com um tutor
personalizado para cada aluno, incansável, capaz de adaptar conteúdos em tempo
real para quem possui dislexia, TDAH, discalculia ou simplesmente lacunas na
base educacional.
As
possibilidades proporcionadas pelas ferramentas que utilizam IA realmente são
fascinantes. No entanto, precisamos ter a coragem de dizer o que os entusiastas
da tecnologia muitas vezes ignoram: a IA não é uma solução totalmente confiável
para a complexidade da dificuldade de aprendizagem da mente humana e a
diversidade de perfis na aprendizagem.
Para
um aluno com dificuldades de leitura, ferramentas de IA que resumem textos
complexos ou convertem escrita em fala são pontes valiosas. A capacidade da IA
de gerar exercícios infinitos sobre um tópico específico permite uma repetição
que o professor, com 30 alunos ou mais em sala, dificilmente consegue gerenciar
individualmente.
A
tecnologia oferece acessibilidade instrumental ao remover barreiras mecânicas.
Mas a aprendizagem - especialmente para quem tem dificuldades- não é apenas um
processo mecânico de input e output de dados.
É um processo emocional e de relacionamento. O calcanhar de Aquiles da IA,
quando aplicada a alunos com dificuldades de aprendizagem, reside na sua
própria natureza: ela é treinada com base em padrões. Ela busca a resposta mais
provável baseada em bilhões de dados de experiências passadas, mas não tem a
sensibilidade humana para lidar com ocorrências inesperadas e fora do que foi
previamente analisado.
Ocorre
que o aluno com dificuldade de aprendizagem é, por definição, a exceção ao
padrão. Uma IA pode identificar que um aluno errou uma equação matemática, pode
oferecer a solução passo a passo, mas não sabe se o erro ocorreu porque o aluno
não sabe a tabuada, porque está com ansiedade paralisante, ou porque inverteu
os números devido a uma disgrafia não diagnosticada.
Para
a máquina, o sintoma (o erro) é tratado com uma correção lógica. Para o ser
humano, o sintoma é um convite à investigação.
Além
disso, temos o problema técnico da confiabilidade. IAs podem
"alucinar" - inventam fatos com total confiança. Entregar uma
ferramenta que pode gerar informações imprecisas a um aluno que já possui
dificuldades de discernimento ou interpretação é perigoso. A tecnologia não tem
compromisso ético com a verdade, nem responsabilidade moral sobre a frustração
de uma criança que não consegue aprender com uma explicação gerada
automaticamente e incorreta.
É
aqui que a insubstituibilidade do educador se manifesta. O processo de
ensino-aprendizagem para alunos com dificuldades exige nuance, algo que nenhum
algoritmo possui. A percepção humana é o melhor caminho porque ela capta o
invisível: o contexto emocional, a flexibilidade criativa e o vínculo de
confiança com o aluno.
No
contexto emocional, um professor percebe quando a dificuldade de aprendizagem
é, na verdade, um problema de autoestima ou um reflexo de problemas domésticos.
A IA não lê expressões faciais de frustração contida.
No
que diz respeito à flexibilidade criativa, a IA repete explicações baseadas em
dados pré existentes. Um educador humano inventa uma metáfora absurda, usa um
jogo do recreio ou desenha no chão para fazer aquele aluno específico entender
um conteúdo. A criatividade humana nasce da empatia, não da probabilidade
estatística.
O
vínculo da confiança é o "olhar nos olhos", que valida o esforço do
aluno durante o processo, não apenas o resultado. Alunos com dificuldades de
aprendizagem muitas vezes carregam traumas escolares e não aprendem com quem
não confiam. A máquina não oferece acolhimento, ela oferece processamento.
O
que podemos concluir é que a Inteligência Artificial deve entrar na escola como
uma "muleta" sofisticada - útil para apoio, para tarefas repetitivas
e para acessibilidade. Mas jamais como a "perna".
Delegar
o suporte a alunos com dificuldades de aprendizagem para algoritmos é, de certo
modo, uma forma de abandono digital. A tecnologia pode apontar onde está
o erro, mas apenas a sensibilidade humana consegue entender quem está
errando e por que. Na educação inclusiva, a tecnologia mais
avançada ainda é, e sempre será, a empatia humana. A tecnologia oferece escala
e velocidade, mas falha na "leitura da alma", necessária para apoiar
alunos com dificuldades de aprendizagem.
(*)
é sócia-fundadora do Núcleo Aprende, fonoaudióloga, psicopedagoga e
idealizadora da Metodologia CDRA
Nenhum comentário:
Postar um comentário