11/02/2026
Recentemente, tive o privilégio de acompanhar a palestra do Professor Helton Hideraldo Bíscaro (USP) durante o TechbraAI Day, no núcleo Alphaville do Bradesco. Em um mar de "hypes" sobre Inteligência Artificial, a fala do professor foi um respiro de lucidez, trazendo o rigor do método científico para o centro da discussão.
Como engenheiro, muitas vezes focamos na implementação e na performance, mas o Professor Helton nos lembrou de algo fundamental: IA sem método é risco sistêmico; IA com método é vantagem competitiva.
1. A Ciência além do Arquétipo
Esqueça o "cientista maluco" de De Volta para o Futuro. O professor destacou que a ciência é a ferramenta mais refinada que a humanidade possui para produzir conhecimento. Ele reforçou etapas que nós, desenvolvedores, por vezes negligenciamos no ritmo das entregas:
Rigor Experimental: Não comparar "bananas com laranjas".
Falseabilidade: A capacidade de testar se uma hipótese é, de fato, errada.
Reprodutibilidade: Se o seu modelo de IA funciona na sua máquina, mas ninguém consegue replicar o resultado, você não tem ciência; você tem um acaso.
2. O Estudo do MIT e o Risco da "Não-Apropriação"
O ponto alto da palestra foi a análise de um estudo realizado por pesquisadores do MIT sobre o impacto do uso de LLMs (como o ChatGPT) na cognição humana. O experimento dividiu grupos para produzir textos: um usando apenas o cérebro, outro com busca no Google e um terceiro com auxílio de IA.
O resultado é um alerta para todos nós:
No grupo que usou apenas a IA, 83% dos participantes não conseguiam citar partes do próprio texto minutos depois. Eles não se "apropriaram" da informação.
Houve uma redução notável na atividade cerebral desse grupo — o que o professor chamou de sedentarismo cognitivo.
A reviravolta: Quando pessoas que já haviam processado o problema (uso do cérebro) utilizaram a IA como ferramenta de refinamento, a atividade cognitiva explodiu. A IA potencializou a riqueza das ideias que já existiam.
3. Governança e os "Darwin AI Awards"
Para ilustrar os perigos da falta de controle, foram citados casos reais (e trágicos/cômicos) de implementações mal feitas:
Desde sistemas de pedidos que alucinam em redes de fast-food até advogados que citaram processos inexistentes criados pela IA.
O erro comum? Pular a fase de projeto piloto e escalar uma ferramenta sem governança.
O professor recorreu a Isaac Asimov e suas "Três Leis da Robótica" para lembrar que, mesmo com regras lógicas, sistemas complexos encontram brechas. A solução não está apenas no código, mas na revisão humana qualificada e na explicabilidade (XAI).
Reflexão Final
Como profissionais de tecnologia, nossa missão não é apenas "domar" essas ferramentas, mas garantir que elas sejam extensões da nossa inteligência, e não substitutas. Precisamos de comitês de governança, auditorias de risco e, acima de tudo, manter o nosso "músculo cognitivo" treinado.
A IA deve ser o gênio da lâmpada, mas nós precisamos saber exatamente como fazer o pedido certo.
Link da palestra: https://youtu.be/qTbJi8rvJ7w