A conversa sobre IA na educação amadureceu bastante. No início, grande parte do debate girava em torno do encantamento: ferramentas que escrevem, resumem, respondem, criam imagens e prometem acelerar praticamente tudo. Agora, a discussão mais séria começou a fazer a pergunta certa: como as escolas podem usar IA sem comprometer aprendizagem, ética, privacidade e julgamento profissional? A UNESCO, na sua orientação global sobre IA generativa na educação, e a OCDE, no Digital Education Outlook 2026, caminham justamente nessa direção: reconhecer potencial, mas insistir em uma adoção centrada no humano, guiada por princípios pedagógicos e protegida por regras claras.
Esse é um ponto importante. O problema não é a escola usar IA. O problema é usar IA sem critérios. Quando isso acontece, a tecnologia deixa de ser apoio e vira risco. E risco, no contexto escolar, nunca é pequeno. Estamos falando de alunos, professores, dados sensíveis, processos avaliativos, decisões pedagógicas e cultura institucional. A própria OCDE destaca que, à medida que os sistemas educacionais tentam integrar IA, governos e escolas precisam equilibrar aprendizagem, inovação e proteção ética, com atenção explícita à privacidade, segurança, vieses algorítmicos e equidade.
O primeiro ponto: IA não é neutra
Às vezes, a escola corre o risco de tratar a IA como se fosse apenas uma ferramenta “mais eficiente” para tarefas intelectuais. Mas ela não é neutra, nem pedagógica por natureza. Ferramentas de IA respondem com base em padrões estatísticos, treinamento em grandes volumes de dados e critérios definidos por seus desenvolvedores. Isso significa que elas podem ser úteis, mas também podem errar, simplificar demais, reproduzir vieses ou gerar respostas convincentes sem serem confiáveis.
A UNESCO tem insistido que o uso educacional da IA precisa ser “human-centered”, com validação ética, desenho pedagógico apropriado e proteção de dados. A organização também afirma que a rápida expansão dessas ferramentas está acontecendo mais depressa do que a adaptação regulatória em muitos países, o que deixa instituições educacionais despreparadas para validar ferramentas e proteger seus usuários.
Em outras palavras, a IA pode até parecer segura porque escreve bem. Mas texto fluido não é garantia de qualidade, justiça ou precisão.
Os principais riscos que as escolas precisam considerar
1. Privacidade e proteção de dados
Esse talvez seja o risco mais imediato e mais negligenciado no entusiasmo inicial. Escolas lidam com informações de alunos, famílias, desempenho, comportamento, saúde, relatórios e registros sensíveis. Colocar esse tipo de dado em ferramentas inadequadas ou sem política clara pode gerar problemas sérios.
A UNESCO afirma que a ausência de regulação específica em muitos contextos deixa a privacidade de dados dos usuários desprotegida e as instituições pouco preparadas para validar essas ferramentas. A OCDE também coloca privacidade e segurança entre os desafios centrais da governança de IA na educação.
Por isso, escola nenhuma deveria usar IA sem antes definir o que pode e o que não pode ser inserido em uma plataforma.
2. Respostas incorretas e falsa confiança
Outro risco importante é a incerteza da resposta. A IA muitas vezes responde com segurança mesmo quando erra. Isso é especialmente problemático em ambiente escolar, onde um texto bem escrito pode ser confundido com um texto correto.
Esse problema afeta planejamento, produção de materiais, atividades, feedback e até comunicações institucionais. Não basta perguntar à ferramenta e assumir que está tudo certo. O filtro profissional é sempre indispensável.
3. Viés, exclusão e inequidade
IA também pode reproduzir vieses presentes nos dados com os quais foi treinada ou nos contextos em que é aplicada. A OCDE tem destacado que a adoção de IA na educação precisa equilibrar inovação com considerações éticas, de privacidade e de equidade, e cita preocupações com vieses algorítmicos e impactos desiguais. Em orientações analisadas pela própria OCDE, aparecem com frequência alertas sobre imprecisão, viés, acesso e impactos sobre privacidade estudantil.
Na prática, isso significa que a escola precisa olhar para a IA também com lente de inclusão. Quem se beneficia? Quem pode ser prejudicado? Quem fica dependente de uma ferramenta que nem sempre foi desenhada para o seu contexto linguístico, cultural ou cognitivo?
4. Integridade acadêmica e terceirização do pensamento
Esse é um dos temas que mais aparece no debate público, e com razão. A OCDE registrou, em 2024, que 72% dos professores acreditavam que a IA pode prejudicar a integridade acadêmica ao permitir que estudantes apresentem trabalho alheio como próprio. O mesmo relatório também afirma algo ainda mais importante: desempenho com IA não equivale automaticamente a aprendizagem, e o uso sem orientação pedagógica pode gerar preguiça metacognitiva e desengajamento.
Esse é um limite importante para as escolas. A questão não é apenas evitar cola ou plágio. É evitar que a tecnologia atropele o desenvolvimento do raciocínio, autoria, persistência e pensamento crítico.
5. Uso inadequado por faixa etária
Nem toda ferramenta é apropriada para qualquer idade. A UNESCO recomenda que políticas educacionais considerem limite etário para conversas independentes com plataformas de IA generativa e, no texto do guia, afirma que o limite mínimo deve ser de 13 anos. Além disso, a organização defende uma abordagem apropriada para cada idade para validação ética e desenho pedagógico.
Isso reforça uma ideia simples: escola séria não libera uso indiscriminado só porque a ferramenta está disponível.
Limites que a escola precisa aceitar
Além dos riscos, existem limites estruturais. E reconhecer limites é sinal de maturidade.
O primeiro deles é que IA não substitui julgamento profissional. Nem de professor, nem de coordenador, nem de diretor. A UNESCO, em seus frameworks de competências, coloca human agency, ética, pedagogia e uso responsável no centro da formação de professores e estudantes para a era da IA. Para docentes, o framework define 15 competências em cinco dimensões; para estudantes, 12 competências em quatro dimensões, com forte ênfase em uso seguro, crítico e significativo.
O segundo limite é pedagógico. A OCDE afirma que, quando a IA é usada sem orientação pedagógica, ela pode até melhorar a performance em uma tarefa, mas sem gerar ganho real de aprendizagem. Isso muda completamente a conversa. Porque a escola não existe para produzir respostas bonitas. Existe para promover desenvolvimento.
O terceiro limite é institucional. Muitas escolas ainda não têm política clara, formação interna, critérios de uso, fluxo de validação ou governança de dados para lidar bem com IA. A própria OCDE observou que, no início de 2024, entre 18 países e jurisdições analisados, a maioria ainda operava mais com orientações não vinculantes do que com regulações específicas para IA generativa na educação.
Então, quais são as boas práticas para escolas?
É aqui que a conversa fica realmente útil. Porque o objetivo não é alarmar. É orientar.
1. Colocar propósito antes da ferramenta
A escola precisa começar com uma pergunta simples: para que exatamente queremos usar IA? Planejamento? Síntese de documentos? Apoio à formação docente? Produção de recursos? Comunicação? Análise de dados?
Quando a ferramenta vem antes do propósito, a adoção tende a virar modismo. Quando o propósito vem primeiro, a tecnologia entra com mais coerência.
2. Definir uma política de uso clara
Toda escola deveria ter, mesmo que de forma simples e inicial, um documento orientador sobre IA. Esse documento pode definir:
- usos permitidos e não permitidos;
- critérios de revisão humana;
- tipos de dados que nunca devem ser inseridos;
- regras para uso com estudantes;
- orientações sobre autoria, integridade acadêmica e transparência;
- responsabilidades da liderança e da equipe.
A OCDE mostra que muitos sistemas educacionais têm avançado justamente por meio de guidance, mesmo quando ainda não há regulação formal. Isso vale como lição prática para escolas também. Você encontra um modelo de política institucional do uso da IA, no meu playbook de boas práticas tecnológicas para escolas, basta acessar este link.
3. Começar pelos bastidores
Na maioria das escolas, o melhor começo não está no uso direto com estudantes. Está nos bastidores. Síntese de documentos, apoio a planejamento, organização de pautas, estruturação de materiais, comunicação inicial, análise de feedback e outras tarefas de baixo risco costumam ser um ponto de partida mais seguro.
Esse caminho reduz fricção, gera aprendizagem institucional e evita que a escola transforme a IA em espetáculo antes de construir critério. Também escrevi um post dedicado a este tema.
4. Formar professores e líderes
A UNESCO é muito clara ao defender que professores e estudantes precisam desenvolver competências específicas para uso ético, crítico e responsável da IA. Isso significa que não basta “liberar o acesso”. É preciso ensinar a revisar, questionar, verificar, adaptar e decidir quando não usar.
Em outras palavras, o foco não deve ser só ferramenta. Deve ser competência profissional.
5. Exigir revisão humana sempre que o risco for relevante
Quanto maior o impacto da decisão, maior precisa ser a revisão humana. Isso vale para feedback avaliativo, decisões sobre alunos, comunicações delicadas, relatórios institucionais e qualquer processo com implicação ética, acadêmica ou relacional.
IA pode apoiar. Mas a responsabilidade continua sendo humana.
6. Trabalhar com uma lente de aprendizagem, não só de produtividade
Esse é um cuidado importante. A escola pode até usar IA para ganhar eficiência, mas não deveria se limitar a isso. A pergunta central precisa ser: isso melhora aprendizagem, clareza pedagógica e qualidade do trabalho humano, ou apenas acelera tarefas?
A OCDE insiste exatamente nesse ponto: a IA pode apoiar a educação quando usada com teaching principles claros e propósito pedagógico intencional. Sem isso, pode haver performance sem aprendizagem.
7. Respeitar idade, contexto e maturidade dos alunos
Nem toda etapa escolar pede o mesmo nível de contato com IA. Em muitos casos, o uso mais adequado com estudantes não é a interação livre com chatbots, mas experiências mediadas, contextualizadas e supervisionadas.
A recomendação da UNESCO sobre limite etário e abordagem apropriada à idade reforça que escolas precisam diferenciar acesso, mediação e responsabilidade conforme a etapa escolar.
O que uma escola madura faz diferente
Uma escola madura não reage à IA com medo automático, nem com empolgação ingênua.
- Ela reconhece que a tecnologia pode ajudar.
- Reconhece que ela também pode errar.
- Reconhece que nem tudo que é novo deve entrar na rotina imediatamente.
- E reconhece que inovação educacional sem ética, sem critério e sem propósito vira ruído.
Esse tipo de maturidade institucional está muito mais próximo do que UNESCO e OCDE vêm recomendando: uso humano, seguro, pedagógico, ético e progressivo.
Conclusão
A IA na educação não deve ser tratada nem como salvação, nem como ameaça inevitável. Ela é uma tecnologia poderosa, com potencial real de apoiar escolas, mas também com riscos concretos que exigem limites claros.
No fim, a questão mais importante não é “a escola vai usar IA ou não?”. A questão certa é outra: “a escola tem maturidade para usar IA sem comprometer o que mais importa?”.
Quando há política, propósito, formação, revisão humana e proteção de dados, a resposta pode ser sim. Quando isso não existe, o risco não está na ferramenta em si. Está na forma como a instituição decide adotá-la.
Referências:
UNESCO — Guidance for Generative AI in Education and Research: publicação oficial da UNESCO sobre uso de IA generativa na educação e na pesquisa.
Link: https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research
OCDE — OECD Digital Education Outlook 2026: Exploring Effective Uses of Generative AI in Education: relatório oficial da OCDE citado como referência para a discussão sobre uso responsável, princípios pedagógicos e adoção institucional.
Página da publicação: https://www.oecd.org/en/publications/oecd-digital-education-outlook-2026_062a7394-en.html




