O Dilema do "Sedentarismo Cognitivo": Insights do TechbraAI Day no Bradesco

11/02/2026

Recentemente, tive o privilégio de acompanhar a palestra do Professor Helton Hideraldo Bíscaro (USP) durante o TechbraAI Day, no núcleo Alphaville do Bradesco. Em um mar de "hypes" sobre Inteligência Artificial, a fala do professor foi um respiro de lucidez, trazendo o rigor do método científico para o centro da discussão.

​Como engenheiro, muitas vezes focamos na implementação e na performance, mas o Professor Helton nos lembrou de algo fundamental: IA sem método é risco sistêmico; IA com método é vantagem competitiva.

​1. A Ciência além do Arquétipo

​Esqueça o "cientista maluco" de De Volta para o Futuro. O professor destacou que a ciência é a ferramenta mais refinada que a humanidade possui para produzir conhecimento. Ele reforçou etapas que nós, desenvolvedores, por vezes negligenciamos no ritmo das entregas:

​Rigor Experimental: Não comparar "bananas com laranjas".

​Falseabilidade: A capacidade de testar se uma hipótese é, de fato, errada.

​Reprodutibilidade: Se o seu modelo de IA funciona na sua máquina, mas ninguém consegue replicar o resultado, você não tem ciência; você tem um acaso.

​2. O Estudo do MIT e o Risco da "Não-Apropriação"

​O ponto alto da palestra foi a análise de um estudo realizado por pesquisadores do MIT sobre o impacto do uso de LLMs (como o ChatGPT) na cognição humana. O experimento dividiu grupos para produzir textos: um usando apenas o cérebro, outro com busca no Google e um terceiro com auxílio de IA.

​O resultado é um alerta para todos nós:

​No grupo que usou apenas a IA, 83% dos participantes não conseguiam citar partes do próprio texto minutos depois. Eles não se "apropriaram" da informação.

​Houve uma redução notável na atividade cerebral desse grupo — o que o professor chamou de sedentarismo cognitivo.

​A reviravolta: Quando pessoas que já haviam processado o problema (uso do cérebro) utilizaram a IA como ferramenta de refinamento, a atividade cognitiva explodiu. A IA potencializou a riqueza das ideias que já existiam.

​3. Governança e os "Darwin AI Awards"

​Para ilustrar os perigos da falta de controle, foram citados casos reais (e trágicos/cômicos) de implementações mal feitas:

​Desde sistemas de pedidos que alucinam em redes de fast-food até advogados que citaram processos inexistentes criados pela IA.

​O erro comum? Pular a fase de projeto piloto e escalar uma ferramenta sem governança.

​O professor recorreu a Isaac Asimov e suas "Três Leis da Robótica" para lembrar que, mesmo com regras lógicas, sistemas complexos encontram brechas. A solução não está apenas no código, mas na revisão humana qualificada e na explicabilidade (XAI).

​Reflexão Final

​Como profissionais de tecnologia, nossa missão não é apenas "domar" essas ferramentas, mas garantir que elas sejam extensões da nossa inteligência, e não substitutas. Precisamos de comitês de governança, auditorias de risco e, acima de tudo, manter o nosso "músculo cognitivo" treinado.

​A IA deve ser o gênio da lâmpada, mas nós precisamos saber exatamente como fazer o pedido certo.

Link da palestra: https://youtu.be/qTbJi8rvJ7w