Novo estudo sugere que adolescentes se preocupam com o uso ético da IA, mas não sabem quais são as regras.
Quando ferramentas de inteligência artificial como o ChatGPT foram disponibilizadas ao público em 2022, Gillian Hayes, vice-reitora de pessoal acadêmico da Universidade da Califórnia, Irvine, lembra como as pessoas começaram a estabelecer regras sobre IA sem realmente entender o que ela era ou como seria usada.
O momento parecia semelhante às revoluções industrial ou agrícola, diz Hayes.
“As pessoas estavam apenas tentando tomar decisões com o que conseguiam ter em mãos.”
Vendo a necessidade de mais e melhores dados, Hayes e sua colega Candice L. Odgers, professora de ciência psicológica e informática da UC Irvine, lançaram uma pesquisa nacional para investigar o uso de IA entre adolescentes, pais e educadores. O objetivo era coletar um amplo conjunto de dados que pudesse ser usado para investigar continuamente como os usos e as atitudes em relação à IA mudam ao longo do tempo.
As pesquisadoras firmaram parceria com a foundry10, uma organização de pesquisa educacional, para entrevistar 1.510 adolescentes entre 9 e 17 anos, bem como 2.826 pais de alunos do ensino fundamental e médio nos Estados Unidos. Em seguida, realizaram uma série de grupos focais, incluindo pais, estudantes e educadores, para entender melhor o que os participantes sabiam sobre IA, o que os preocupava e como isso afetava suas vidas cotidianas. Os dados foram coletados até o outono de 2024 e alguns resultados foram divulgados no início deste ano.
Os resultados surpreenderam Hayes e sua equipe. Eles descobriram que muitos dos adolescentes estavam cientes das preocupações e perigos em torno da IA, mas não tinham orientações claras sobre como usá-la de forma apropriada. Sem essas orientações, a IA pode ser confusa e complexa, dizem os pesquisadores, e pode impedir que adolescentes e adultos usem a tecnologia de maneira ética e produtiva.
Hayes ficou especialmente surpresa com o quão pouco os adolescentes na pesquisa usavam IA e com a forma como a usavam. Apenas cerca de 7% a utilizavam diariamente, e a maioria a acessava por meio de mecanismos de busca, e não de chatbots.
Muitos adolescentes na pesquisa também tinham uma “forte bússola moral”, diz Hayes, e estavam enfrentando os dilemas éticos que surgem com o uso da IA, especialmente em sala de aula.
Hayes lembra de um adolescente que publicou um livro de forma independente usando uma imagem gerada por IA na capa. O livro também continha algum conteúdo gerado por IA, mas era em grande parte trabalho original. Depois, a mãe do estudante, que o ajudou a publicar o livro, conversou com ele sobre o uso da IA. Nesse caso, disse a mãe, era aceitável usar IA, mas não seria apropriado utilizá-la para escrever trabalhos escolares.
Os jovens, muitas vezes, não estão tentando trapacear, mas não sabem exatamente o que seria considerado trapaça com IA, afirma Hayes. Por exemplo, alguns questionavam por que podiam pedir que um colega revisasse seus textos, mas não podiam usar o Grammarly, uma ferramenta de IA que revisa erros gramaticais.
“Para a grande maioria [dos adolescentes], eles sabem que trapacear é errado”, diz Hayes. “Eles não querem ser ruins, não estão tentando se aproveitar de algo, mas o que constitui trapaça é muito vago, e o que é fonte própria ou não também. Acho que muitos professores e pais também não sabem.”
Os adolescentes da pesquisa também se preocupavam com o impacto do uso da IA em sua capacidade de desenvolver habilidades de pensamento crítico, afirma Jennifer Rubin, pesquisadora sênior da foundry10 que ajudou a conduzir o estudo. Eles reconheciam que a IA seria uma tecnologia necessária em suas vidas futuras, mas também entendiam que usá-la de forma irresponsável poderia prejudicar sua educação e carreira.
“Há uma preocupação importante de que a IA generativa impacte o desenvolvimento escolar em um período de desenvolvimento crucial para os jovens”, acrescenta Rubin. “E eles próprios também reconhecem isso.”
Os resultados da pesquisa não mostraram diferenças de equidade entre os usuários de IA, o que foi outra surpresa para Hayes e sua equipe.
Especialistas costumam esperar que novas tecnologias reduzam desigualdades e ampliem o acesso para estudantes de comunidades rurais e de famílias de baixa renda ou de grupos marginalizados, diz Hayes. No entanto, geralmente ocorre o contrário.
Mas, neste estudo, pareciam existir poucas disparidades sociais. Embora seja difícil afirmar se isso foi exclusivo da amostra da pesquisa, Hayes suspeita que isso possa estar relacionado à novidade da IA.
Normalmente, pais com ensino superior ou maior renda ensinam seus filhos a lidar com novas tecnologias. Com a IA, porém, ninguém entende plenamente como ela funciona, então os pais não têm como transmitir esse conhecimento.
“Num mundo de IA generativa, pode ser que ninguém consiga orientar ainda, então não achamos que haja motivo para acreditar que pessoas com maior renda ou escolaridade tenham habilidades para orientar seus filhos nesse espaço”, afirma Hayes. “Pode ser que todos estejam operando com capacidade reduzida.”
Durante o estudo, alguns pais não pareciam compreender plenamente as capacidades da IA, acrescenta Rubin. Alguns achavam que era apenas um mecanismo de busca, enquanto outros não sabiam que ela poderia produzir resultados falsos.
As opiniões também variaram quanto à forma de discutir a IA com os filhos. Alguns queriam abraçar totalmente a tecnologia, enquanto outros preferiam cautela. Alguns achavam que os jovens deveriam evitar a IA completamente.
“Os pais não têm [todos] a mesma mentalidade”, diz Rubin. “Isso depende muito da experiência pessoal de cada um com a IA e de como enxergam ética e responsabilidade quanto ao abuso [da tecnologia].”
A maioria dos pais na pesquisa concordou que os distritos escolares deveriam definir políticas claras sobre o uso adequado da IA, afirma Rubin. Embora isso possa ser difícil, é uma das melhores maneiras de os alunos entenderem como a tecnologia pode ser usada com segurança, diz ela.
Rubin cita distritos que começaram a implementar um sistema de cores para o uso da IA. Um uso verde indicaria trabalhar com IA para gerar ideias ou desenvolver um esboço de redação. Usos amarelos estariam em uma zona cinzenta, como pedir instruções passo a passo para resolver um problema de matemática. Um uso vermelho seria inapropriado ou antiético, como pedir ao ChatGPT que escreva uma redação completa com base em um tema atribuído.
Muitos distritos também têm realizado sessões de escuta com pais e famílias para ajudá-los a conduzir essas conversas com seus filhos.
“É uma tecnologia relativamente nova; há muitos mistérios e dúvidas sobre ela para famílias que não a utilizam com frequência”, diz Rubin. “Eles só querem uma forma de seguir orientações fornecidas por educadores.”
Karl Rectanus, presidente do EDSAFE AI Industry Council, que promove o uso seguro da IA, incentiva educadores e organizações educacionais a usarem o framework SAFE ao lidar com questões sobre IA. O modelo questiona se o uso é Seguro (Safe), Responsável (Accountable), Justo (Fair) e Eficaz (Effective), diz Rectanus, e pode ser adotado tanto por grandes organizações quanto por professores em suas salas de aula.
Os professores já têm muitas responsabilidades, então “exigir que também sejam especialistas em uma tecnologia que, para ser honesto, nem mesmo os desenvolvedores compreendem completamente é talvez exigir demais”, afirma Rectanus. Fornecer perguntas objetivas para reflexão pode “ajudar as pessoas a seguir adiante quando não sabem o que fazer”.
Em vez de proibir a IA, os educadores precisam encontrar maneiras de ensinar os alunos a usá-la de forma segura e eficaz, diz Hayes. Caso contrário, os estudantes não estarão preparados para ela quando ingressarem no mercado de trabalho.
Na UC Irvine, por exemplo, um professor aplica exames orais aos estudantes de ciência da computação. Eles entregam o código que escreveram e têm cinco minutos para explicar como funciona. Os alunos ainda podem usar IA para escrever o código — como desenvolvedores profissionais frequentemente fazem — mas precisam entender como a tecnologia o gerou e como ele funciona, explica Hayes.
“Quero que todos nós, mais velhos, sejamos adaptáveis e pensemos de verdade: ‘Qual é, de fato, meu objetivo de aprendizagem aqui e como posso ensiná-lo e avaliá-lo, mesmo num mundo onde há IA generativa por toda parte?’”, diz Hayes. “Porque não acho que ela vá desaparecer.”
Saiba mais em: https://www.edsurge.com/news/2025-06-13-ai-is-still-an-unknown-country-and-teens-are-its-pioneers
Copyright © Direitos Reservados por Learnbase Gestão e Consultoria Educacional S.A.
Contato
contato@learnbasek12.com.br