Tecnologia & inteligencia artificial
0 min de leitura

2026 após o hype de 2025: Menos discurso, mais critério em IA

Não é uma previsão do que a IA fará em 2026, mas uma reflexão com mais critério sobre como ela vem sendo usada e interpretada. Sem negar os avanços recentes, discute-se como parte do discurso público se afastou da prática, especialmente no uso de agentes e automações, transformando promessas em certezas e respostas em autoridade.
Pesquisador e operador em Organizational Theory, com trajetória internacional marcada por decisões fora do roteiro tradicional. Atuou por mais de uma década na Ásia e também nas Américas e Europa, lidando com operações complexas, ambientes regulatórios adversos e contextos nos quais não há manual disponível. Autodidata e avesso a soluções de prateleira, atua na interseção entre economia, contratos sociais, tecnologia - com foco em processos, modelos descritivos e formulações matemáticas - e organização do trabalho. É membro do Comitê Global de Inovação da Fast Company e colaborador da HSM. Atualmente, lidera a RMagnago, apoiando acionistas e executivos em decisões estratégicas de alto risco e elevada ambiguidade.

Compartilhar:

O ano de 2025 terminou com algumas das principais vozes no setor de IA tentando refrear as expectativas criadas por uma histeria generalizada em torno da novidade. A tecnologia chamada de IA é sofisticada e passou a servir de suporte a um discurso humano de natureza sofística (sophismata), bem como a argutiae fallaces, imagens verbais do saber, não o saber em si. Não é a técnica que imita a dialética, mas o uso retórico que se faz dela, confundindo o logos.

De repente, como mágica, todo mundo parece entender de processos computacionais. Para Platão, era a aparência sem ser. Para Aristóteles, na obra Refutações Sofísticas, o sofisma deixa de ser apenas persuasão retórica e passa a ser identificado como erro estrutural de inferência. Yann LeCun, um dos três pais fundadores da IA moderna, sustenta reiteradamente que a IAG está longe de ocorrer por uma razão estrutural simples: dados empíricos históricos, por mais bem tratados, não produzem, por si, compreensão inédita do mundo.

Os LLMs, no paradigma matemático atual (attention mechanism), parte matricial, parte sequencial, funcionando como aproximadores universais de padrões linguísticos, embora elegantes, ainda tratam de dados passados. Yann começou o ano deixando a posição executiva de liderança em IA na Meta e voltando sua atenção para problemas fundamentais. Ele busca compreender como superar arquiteturas puramente baseadas em atenção como principal mecanismo organizador dos modelos, paradigma dominante quando escrevo este artigo.

Já a Meta começa o ano com crises de eval e métricas de performance de outputs. Os mesmos outputs que demandam nossa cuidadosa atenção ao mecanismo de atenção, se vale o trocadilho. Nessa perspectiva, a provocação de Richard Sutton, um dos grandes nomes da IA e ganhador do prêmio Turing, quando entrevistado por Dwarkesh Patel, é particularmente relevante.

Para Sutton, os LLMs mimetizam o ser humano. São capazes de reproduzir o que as pessoas diriam diante de determinadas situações, mas não o que efetivamente ocorrerá no mundo real. Percorrem os corpora, observam padrões de resposta, mas não acessam a experiência causal direta que fundamenta o aprendizado humano robusto.

Mesmo quando os modelos produzem feedbacks sobre o que seria a “coisa certa a fazer”, permanece o problema central: não há definição inequívoca do que é o certo a fazer, sobretudo em decisões formuladas sob a lógica de árvores decisórias abertas. O impasse não é computacional, mas epistemológico. Quando não há ground truth claramente definido, o uso de corpora históricos torna-se insuficiente, embora não irrelevante, para sustentar exercícios generativos em domínios decisórios abertos. Que dureza.

Sutton insiste que o futuro não é comprovável nem repetível. A experiência passada da humanidade, ainda que informativa, não constitui condição suficiente para explicar ou antecipar eventos inéditos. Ainda assim, as respostas produzidas pelos modelos tendem a nos parecer excessivamente atraentes. É nesse deslocamento, quando passam a operar como fonte de autoridade epistêmica, que os LLMs também tangenciam o terreno do sofisma.

Sutton reconhece que essa limitação é enfrentada de modo distinto e com certo sucesso em abordagens de Machine Learning baseadas em reinforcement learning. Outros defendem que caminhos como a neuro-symbolic AI podem mitigar parte do problema. Ele também lembra que o setor se encontra particularmente exposto a bandwagons and fashion, isto é, a ondas recorrentes de hype, modismos e adesões acríticas.

Pensando em exercícios generativos e preditivos, relaciono o tema a uma conversa que tive, ainda em 2025, com o diretor de risco de um importante banco público brasileiro. Ao final de 2019, a instituição havia construído um modelo de risco para os cinco anos seguintes, naturalmente ancorado em dados históricos.

Poucos meses depois, o banco enfrentaria a COVID e, em seguida, a guerra da Ucrânia, eventos fora do espaço amostral considerado e, portanto, ausentes das modelagens. O resultado foi a rápida invalidação do exercício “generativo”, não por erro técnico, mas por pressuposto epistemológico.

Nem vale mencionar que, nesse intervalo, ainda surgiria o acesso público aos modelos de LLM, ampliando o descompasso entre capacidade computacional e previsibilidade do mundo real. A aproximação elegante e altamente escalável do attention trata estatisticamente o conjunto do passado como nenhum modelo matemático até então havia feito. Isso, por si só, representa um ganho de escala inédito para a humanidade.

Daí a atribuir a esses modelos a capacidade de antecipar a COVID ou a guerra da Ucrânia há um salto que me parece mais retórico do que técnico. Ineditismo também há na velocidade com que as coisas estão ocorrendo, deixando qualquer lei de Moore vermelha de vergonha.

Quando a maior parte da população ainda mal havia percebido o debate e já utilizava o GPT como guia culinário, de viagem ou psicológico, as expectativas dobraram a aposta. O universo agentic chegava para “automatizar” o mundo.

Misturando aplicações rule-based com frameworks de linguagem, qualquer um agora poderia construir um flow quase perfeito para qualquer atividade executável por um ser humano. O fim do mundo e do emprego parecia anunciado. A abordagem de Jason Wei, apresentada no clube de IA de Stanford, ajuda a pensar os limites concretos desse universo agentic.

Jason é pesquisador de destaque em IA e atualmente trabalha no Meta Superintelligence Labs. Antes, ajudou a cocriar o modelo o1 e o produto Deep Research na OpenAI. Para Jason, a lei da verificação (Verifier’s Law) oferece um critério operacional claro: a capacidade de treinar uma IA para uma tarefa é proporcional à facilidade de verificar seu desempenho. Em termos simples, só se treina bem aquilo cujo erro é identificável.

Tarefas com verificação cara, subjetiva ou ambígua, como escrever um bom argumento jurídico, produzir ciência original ou oferecer aconselhamento estratégico, apresentam enorme dificuldade de treinamento, ainda que pareçam simples do ponto de vista humano. É disso que trata Sutton; aqui, aplico a lógica aos fluxos agentic.

Já tarefas com verificação objetiva e barata, como xadrez, reconhecimento de imagens ou tradução automática, tendem a apresentar desempenho muito superior. Jason observa que escrever uma redação ou formular uma nova dieta são tarefas difíceis de verificar. Vale refletir.

O leitor pode pensar que, se as atividades na empresa são simples e há modelos especializados, a solução estaria posta e tudo poderia ser automatizado. Há, porém, uma regra em sentido oposto que complica o quadro: quanto mais simples a atividade a ser automatizada por sistemas agentic, menor tende a ser a taxa marginal de retorno financeiro frente aos custos de implementação, coordenação e supervisão humana.

Mesmo com promessas de low ou vibe code, o mundo começa a redescobrir velhos fundamentos: processos bem definidos, nomenclaturas claras, ifs and elses, visão multidimensional, especialização, gestão de projetos, times e orçamentos.

Andrew Ng, professor em Stanford, fundador do Google Brain e da DeepLearning.AI, costuma enfatizar a centralidade de equipes de modelagem, inspeção e evals em projetos de agentic flows. O recado é claro: os times especializados continuam indispensáveis. O leigo ainda não se emancipou.

Em 2025, participei de aulas magnas, apresentações e debates sobre IA em universidades, hubs de inovação, institutos e autarquias, ao lado de top voices. Ao mesmo tempo, converso diariamente com empresários que operam comércio, indústria, serviços e agricultura, a base real da economia. De um lado, discursos altos e projeções grandiosas sobre o amanhã, muitas vezes sem profundidade técnica. Do outro, a economia real, onde a maioria ainda não entendeu exatamente o que fazer com tudo isso.

Olho para 2026 com a parcimônia de um ancião: é possível que vejamos o surgimento de outro tema dominante e que a IA se consolide como mais um momento incremental da história humana.

As oportunidades práticas existem e eu próprio tenho recorrido cada vez mais à inteligência computacional para resolver problemas e aumentar a eficácia de processos. Pode haver paradoxos, inclusive o de que a automação do trivial amplie o trabalho humano. Não há lugar para sofismas.

Artigos sobre o tema úteis ao leitor:

Compartilhar:

Pesquisador e operador em Organizational Theory, com trajetória internacional marcada por decisões fora do roteiro tradicional. Atuou por mais de uma década na Ásia e também nas Américas e Europa, lidando com operações complexas, ambientes regulatórios adversos e contextos nos quais não há manual disponível. Autodidata e avesso a soluções de prateleira, atua na interseção entre economia, contratos sociais, tecnologia - com foco em processos, modelos descritivos e formulações matemáticas - e organização do trabalho. É membro do Comitê Global de Inovação da Fast Company e colaborador da HSM. Atualmente, lidera a RMagnago, apoiando acionistas e executivos em decisões estratégicas de alto risco e elevada ambiguidade.

Artigos relacionados

2026 após o hype de 2025: Menos discurso, mais critério em IA

Não é uma previsão do que a IA fará em 2026, mas uma reflexão com mais critério sobre como ela vem sendo usada e interpretada. Sem negar os avanços recentes, discute-se como parte do discurso público se afastou da prática, especialmente no uso de agentes e automações, transformando promessas em certezas e respostas em autoridade.

Tecnologia & inteligencia artificial
27 de janeiro de 2026
Não é uma previsão do que a IA fará em 2026, mas uma reflexão com mais critério sobre como ela vem sendo usada e interpretada. Sem negar os avanços recentes, discute-se como parte do discurso público se afastou da prática, especialmente no uso de agentes e automações, transformando promessas em certezas e respostas em autoridade.

Rodrigo Magnago - CEO da RMagnago

0 min de leitura
Lifelong learning
26 de janeiro de 2026
O desenvolvimento profissional não acontece por acaso, mas resulta de aprendizado contínuo e da busca intencional por competências que ampliam seu potencial

Diego Nogare

5 minutos min de leitura
Tecnologia & inteligencia artificial
25 de janeiro de 2026
Entre IA agentiva, cibersegurança e novos modelos de negócio, 2026 exige decisões que unem tecnologia, confiança e design organizacional.

Eduardo Peixoto - CEO do CESAR

5 minutos min de leitura
Inovação & estratégia
24 de janeiro de 2026
Inovação não falha por falta de ideias, mas por falta de métricas - o que não é medido vira entusiasmo; o que é mensurado vira estratégia.

Marina Lima - Gerente de Inovação Aberta da Stellantis para América do Sul

3 minutos min de leitura
Inovação & estratégia
23 de janeiro de 2026
Se seus vínculos não te emocionam, talvez você esteja fazendo networking errado. Relações que movem mercados começam com conexões que movem pessoas - sem cálculo, sem protocolo, só intenção genuína.

Laís Macedo - Presidente do Future Is Now

3 minutos min de leitura
Liderança, Tecnologia & inteligencia artificial
22 de janeiro de 2026
Se a IA sabe mais do que você, qual é o seu papel como líder? A resposta não está em competir com algoritmos, mas em redefinir o que significa liderar em um mundo onde informação não é poder - decisão é.

João Roncati - CEO da People+Strategy

4 minutos min de leitura
Inovação & estratégia
21 de janeiro de 2026
Como o mercado está revendo métricas para entregar resultados no presente e valor no futuro?

Lilian Cruz - Fundadora da Zero Gravity Thinking

5 minutos min de leitura
Inovação
20 de janeiro 2026
O volume e a previsibilidade dos instrumentos de fomento à inovação como financiamentos, recursos de subvenção econômica e incentivos fiscais aumentaram consideravelmente nos últimos anos e em 2026 a perspectiva é de novos recordes de liberações e projetos aprovados. Fomento para inovação é uma estratégia que, quando bem utilizada, reduz o custo da inovação, viabiliza iniciativas de maior risco tecnológico, ajuda a escalar e encurtar o tempo para geração de valor dos projetos.

Eline Casasola - CEO da Atitude Inovação, Atitude Collab e sócia da Hub89 empresas

5 minutos min de leitura
Liderança
19 de janeiro de 2026
A COP 30 expôs um paradoxo gritante: temos dados e tecnologia em abundância, mas carecemos da consciência para usá-los. Se a agenda climática deixou de ser ambiental para se tornar existencial, por que ainda tratamos espiritualidade corporativa como tabu?

Carlos Legal - Fundador da Legalas Aprendizagem e Educação Corporativa

7 minutos min de leitura
Bem-estar & saúde
17 de janeiro de 2026
Falar em ‘epidemia de Burnout’ virou o álibi perfeito: responsabiliza empresas, alimenta fundos públicos e poupa o Estado de encarar o verdadeiro colapso social que adoece o país. O que falta não é diagnóstico - é coragem para dizer de onde vem o problema

Dr. Glauco Callia - Médico, CEO e fundador da Zenith

7 minutos min de leitura

Baixe agora mesmo a nossa nova edição!

Dossiê #170

O que ficou e o que está mudando na gangorra da gestão

Esta edição especial, que foi inspirada no HSM+2025, ajuda você a entender o sobe-e-desce de conhecimentos e habilidades gerenciais no século 21 para alcançar a sabedoria da liderança

Baixe agora mesmo a nossa nova edição!

Dossiê #170

O que ficou e o que está mudando na gangorra da gestão

Esta edição especial, que foi inspirada no HSM+2025, ajuda você a entender o sobe-e-desce de conhecimentos e habilidades gerenciais no século 21 para alcançar a sabedoria da liderança