Tecnologia

Por que a nova IA 'pensa', acerta Fuvest, mas falha em questões sociais?

2024-10-15

Autor: João

Recentemente, uma nova versão de inteligência artificial (IA), conhecida como o1, tem chamado a atenção por suas habilidades notáveis em resolver problemas complexos, incluindo a aprovação em provas de matemática do ITA e uma impressionante taxa de acertos em exames de residência médica da USP, chegando a 80%. Enquanto suas versões anteriores apresentavam respostas rápidas, o o1 se destaca por mostrar uma mensagem de 'processamento', como se estivesse se dedicando a pensar antes de apresentar uma resposta.

No entanto, a pergunta que fica é: isso realmente constitui raciocínio? Segundo especialistas, a resposta é complexa. A antropomorfização, ou atribuição de características humanas a máquinas, pode nos levar a erro. Para Helton Simões Gomes, um dos críticos desse fenômeno, é inadequado comparar as operações cerebrais humanas com o que as máquinas conseguem realizar. "O que essa ferramenta faz é uma simplificação de processos muito mais complexos e intrincados que o cérebro humano é capaz de executar", afirma.

Diogo Cortiz, outro especialista na área, explica que na verdade a IA realiza um processo que se assemelha ao raciocínio humano por meio de uma técnica chamada "Chain of Thoughts" (cadeia de pensamentos), onde a questão é quebrada em partes menores. Isso ajuda a ferramenta a lidar melhor com as tarefas, mas ainda é limitado a contextos específicos.

Quando se tratam de problemas complexos e multifacetados, como questões sociais, as limitações se tornam evidentes. A IA não consegue realizar análises aprofundadas que considerem as nuances desses problemas. ''Um resultado qualificado exige um entendimento complexo que ainda está além das capacidades dessa tecnologia'', argumenta Diogo.

Uma das inovações que ajudam o o1 a se destacar é a utilização da técnica de aprendizado por reforço, que provém da psicologia experimental. Nesse modelo, a IA recebe recompensas quando alcança resultados próximos do desejado e punições quando falha.

Por outro lado, é válido lembrar que, apesar do avanço do o1 na parte textual, ele ainda não consegue interpretar imagens ou vídeos, ressaltando suas limitações. Além disso, o uso é restrito a cerca de 30 a 50 interações por semana devido ao custo elevado envolvido.

Em um contexto mais amplo, a comparação com outras iniciativas em IA também é relevante. O Google DeepMind, por exemplo, desenvolveu modelos que competiram na Olimpíada Internacional de Matemática, mostrando que o campo está em constante evolução. Enquanto isso, a discussão sobre as capacidades e limitações dessas IAs se torna cada vez mais pertinente à medida que elas ocupam um espaço crescente em nosso cotidiano.

Assim, a interrogação permanece: estaremos nós prontos para confiar decisões ou reflexões complexas a máquinas que, embora impressionantes, ainda têm muito a aprender no que diz respeito à compreensão plena do mundo humano?