PENSAR OU DELEGAR? REFLEXÕES SOBRE OS ERUDITOS ILETRADOS NA ERA DA IA
2025-01-21 06:00:11

A IA não é apenas uma extensão do pensamento humano, ela tem o potencial de o substituir ou redirecionar. Estamos a testemunhar o aparecimento de uma nova geração, a dos "AI-natives". Estes jovens crescerão num ecossistema repleto de inteligência artificial (IA), onde o raciocínio digital e a automação deixam de ser apenas ferramentas para se tornarem elementos fundamentais da sua realidade cognitiva. Tal como os "digital natives" revolucionaram o modo como nos relacionamos com a informação e a comunicação, os "AI-natives" desafiarão os limites daquilo que significa aprender, pensar e criar no século XXI. No entanto, esta transformação exige uma reflexão profunda sobre os riscos e benefícios que estas tecnologias introduzem na sociedade. A versão o3 da OpenAI, anunciada em 20 de dezembro de 2024, é um modelo de IA concebido para fazer uma tarefa muito bem: pensar profundamente sobre os problemas antes de responder. Esta abordagem de "chain-of-thought" apareceu pela primeira vez no o1, mas o o3 foi criado para levar o raciocínio mais longe, gastando ainda mais tempo e computação nos problemas mais difíceis. Este modelo alcançou resultados que desafiam as fronteiras do que antes considerávamos exclusivamente humano. Por exemplo, o modelo demonstrou a capacidade de resolver problemas de matemática complexos e superou especialistas humanos em benchmarks de raciocínio abstrato, sugerindo um potencial que transcende aplicações tradicionais da tecnologia. A pontuação de 87,5% no ARC-AGI, superando o desempenho humano em tarefas de raciocínio abstrato, e o êxito de 96,7% no teste de matemática AIME, sugerem que estamos perante uma tecnologia capaz de lidar com problemas científicos de elevada complexidade. E, ainda, o modelo o3 destacou-se na programação competitiva, alcançando uma classificação Elo de 2727 na Codeforces, classificando-se entre os melhores profissionais da área. Contudo, o que deveria ser motivo de celebração também nos leva a questionar: como integrar estes avanços num mundo em que as capacidades humanas se tornam, por comparação, obsoletas? As promessas de eficiência, precisão e inovação trazidas pela IA encontram-se lado a lado com desafios inquietantes. O limiar da Inteligência Geral Artificial (AGI) e da Superinteligência Artificial (ASI) coloca questões fundamentais sobre a confiança, responsabilidade e segurança. Estamos a construir organismos tecnológicos cuja compreensão ultrapassa o que é atualmente possível prever, e os riscos associados ao desalinhamento com os valores humanos são preocupantes. Estudos recentes, como o "AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking", indicam uma forte correlação negativa entre o uso intensivo de ferramentas de IA e a capacidade de pensamento crítico. O estudo baseou-se numa análise de 666 participantes, combinando métodos quantitativos e qualitativos, que revelaram que a dependência destas ferramentas está associada a uma redução significativa no envolvimento cognitivo profundo e na competência de avaliação crítica. Para ilustrar, é como confiar sempre num GPS para navegar: perdemos a capacidade de mapear mentalmente as rotas e dependemos de uma ferramenta que não controla condições inesperadas. O fenómeno do cognitive offloading, em que tarefas cognitivas são delegadas à tecnologia, alivia a carga mental a curto prazo, mas enfraquece a competência de refletir, analisar e resolver problemas de forma independente. PUB . CONTINUE A LER A SEGUIR Se os sistemas educativos não se adaptarem, corremos o risco de formar gerações que, embora extremamente proficientes em interagir com IA, falharão em pensar criticamente sem ela. Este tipo de dependência cognitiva não é inédito na história; a introdução de tecnologias como a escrita e a calculadora também enfrentaram resistência inicial. Contudo, diferentemente de revoluções anteriores, a IA não é apenas uma extensão do pensamento humano, ela tem o potencial de o substituir ou redirecionar. Para muitos, isso evoca preocupações distópicas, mas também deve servir como um apelo para sermos mais intencionais nas nossas escolhas tecnológicas. Tal como na exploração dos oceanos pelos navegadores portugueses, a IA representa um horizonte de possibilidades imensas. Em vez de um obstáculo intransponível, ela deve ser encarada como uma nova fronteira a explorar com criatividade, prudência e colaboração. Contudo, a exploração bem-sucedida exige mapas detalhados, ferramentas adequadas e a capacidade de corrigir rotas quando necessário. E é aqui que se torna urgente um debate sério e alargado sobre como traçar este caminho coletivo. Regulamentação é essencial, mas insuficiente. O foco não deve estar apenas em como a IA é desenvolvida, mas também em como a utilizamos e com que finalidades. Por exemplo, no setor da saúde, é crucial estabelecer diretrizes claras sobre o uso de IA em diagnósticos e tratamentos, garantindo que os profissionais mantêm a decisão final. Na educação, regulamentação deve assegurar que ferramentas de aprendizagem personalizada sejam utilizadas para complementar, e não substituir, o desenvolvimento do pensamento crítico. No campo da segurança, é necessário criar normas que evitem o uso malicioso de IA em cibersegurança e controlo de armas. Também seria importante estabelecer padrões internacionais que garantam a interoperabilidade e transparência de sistemas de IA usados em setores críticos, como o transporte e a energia. Políticas que promovam a educação digital crítica e que integrem o uso de IA de forma a complementar, e não substituir, o pensamento humano, são cruciais. Ao mesmo tempo, é imperativo envolver académicos, políticos, empresas e a sociedade civil neste processo, garantindo que a adoção da IA reflete os nossos valores e objetivos coletivos. As medidas para evitar o "naufrágio" cognitivo na era da IA englobam diversos aspetos fundamentais. A educação crítica surge como pilar essencial, com a introdução de currículos que preparam os estudantes desde cedo para interagir com IA de forma analítica e consciente, desenvolvendo um entendimento profundo sobre os riscos do cognitive offloading. Esta abordagem educacional precisa integrar-se tanto nas ciências como nas humanidades, permitindo uma compreensão holística das tecnologias de IA. A implementação de regulamentação transparente representa outro aspeto crucial, estabelecendo normas universais que asseguram a clareza dos algoritmos e protejam a autonomia humana. Em paralelo, o incentivo à investigação em IA explicável e alinhada com valores humanos torna-se fundamental para compreender e mitigar os impactos destas tecnologias na nossa sociedade. A definição de limites para a utilização destas ferramentas em ambientes educacionais e profissionais merece especial atenção. No artigo referido anteriormente mostra que os utilizadores com grandes índices de utilização de ferramentas de IA apresentam consistentemente pontuações de pensamento crítico mais baixas e os jovens profissionais estão a tornar-se perigosamente dependentes de ferramentas de IA; no entanto, os níveis de ensino mais elevados ajudam a resistir a este declínio, mas não são imunes. Por fim, a monitorização contínua emerge como elemento vital para avaliar e ajustar o impacto destas tecnologias no pensamento crítico, garantindo que as medidas implementadas estejam efetivamente a proteger e a fomentar a capacidade de raciocínio independente dos indivíduos. Este conjunto de ações forma uma estrutura robusta para preservar e desenvolver o pensamento crítico humano numa era cada vez mais dominada por estas tecnologias. A emergência dos "AI-natives" representa um desafio sem precedentes, mas também uma oportunidade única para redesenhar os paradigmas educacionais e sociais. Tal como os navegadores portugueses enfrentaram o desconhecido com coragem e preparação, assim também devemos encarar este novo mar tecnológico. No contexto atual da IA, preparação significa investir em educação crítica, criar estruturas de regulamentação robusta e fomentar a colaboração interdisciplinar para garantir que estas tecnologias sejam implementadas de forma segura e alinhada com os nossos valores. Se navegarmos com cuidado, este novo horizonte não será um limite, mas um convite para uma nova era de descobertas. Fernando Moreira Professor Catedrático, Universidade Portucalense Fernando Moreira