Tecnologia & inteligencia artificial
0 min de leitura

2026 após o hype de 2025: Menos discurso, mais critério em IA

Não é uma previsão do que a IA fará em 2026, mas uma reflexão com mais critério sobre como ela vem sendo usada e interpretada. Sem negar os avanços recentes, discute-se como parte do discurso público se afastou da prática, especialmente no uso de agentes e automações, transformando promessas em certezas e respostas em autoridade.
Pesquisador e operador em Organizational Theory, com trajetória internacional marcada por decisões fora do roteiro tradicional. Atuou por mais de uma década na Ásia e também nas Américas e Europa, lidando com operações complexas, ambientes regulatórios adversos e contextos nos quais não há manual disponível. Autodidata e avesso a soluções de prateleira, atua na interseção entre economia, contratos sociais, tecnologia - com foco em processos, modelos descritivos e formulações matemáticas - e organização do trabalho. É membro do Comitê Global de Inovação da Fast Company e colaborador da HSM. Atualmente, lidera a RMagnago, apoiando acionistas e executivos em decisões estratégicas de alto risco e elevada ambiguidade.

Compartilhar:

O ano de 2025 terminou com algumas das principais vozes no setor de IA tentando refrear as expectativas criadas por uma histeria generalizada em torno da novidade. A tecnologia chamada de IA é sofisticada e passou a servir de suporte a um discurso humano de natureza sofística (sophismata), bem como a argutiae fallaces, imagens verbais do saber, não o saber em si. Não é a técnica que imita a dialética, mas o uso retórico que se faz dela, confundindo o logos.

De repente, como mágica, todo mundo parece entender de processos computacionais. Para Platão, era a aparência sem ser. Para Aristóteles, na obra Refutações Sofísticas, o sofisma deixa de ser apenas persuasão retórica e passa a ser identificado como erro estrutural de inferência. Yann LeCun, um dos três pais fundadores da IA moderna, sustenta reiteradamente que a IAG está longe de ocorrer por uma razão estrutural simples: dados empíricos históricos, por mais bem tratados, não produzem, por si, compreensão inédita do mundo.

Os LLMs, no paradigma matemático atual (attention mechanism), parte matricial, parte sequencial, funcionando como aproximadores universais de padrões linguísticos, embora elegantes, ainda tratam de dados passados. Yann começou o ano deixando a posição executiva de liderança em IA na Meta e voltando sua atenção para problemas fundamentais. Ele busca compreender como superar arquiteturas puramente baseadas em atenção como principal mecanismo organizador dos modelos, paradigma dominante quando escrevo este artigo.

Já a Meta começa o ano com crises de eval e métricas de performance de outputs. Os mesmos outputs que demandam nossa cuidadosa atenção ao mecanismo de atenção, se vale o trocadilho. Nessa perspectiva, a provocação de Richard Sutton, um dos grandes nomes da IA e ganhador do prêmio Turing, quando entrevistado por Dwarkesh Patel, é particularmente relevante.

Para Sutton, os LLMs mimetizam o ser humano. São capazes de reproduzir o que as pessoas diriam diante de determinadas situações, mas não o que efetivamente ocorrerá no mundo real. Percorrem os corpora, observam padrões de resposta, mas não acessam a experiência causal direta que fundamenta o aprendizado humano robusto.

Mesmo quando os modelos produzem feedbacks sobre o que seria a “coisa certa a fazer”, permanece o problema central: não há definição inequívoca do que é o certo a fazer, sobretudo em decisões formuladas sob a lógica de árvores decisórias abertas. O impasse não é computacional, mas epistemológico. Quando não há ground truth claramente definido, o uso de corpora históricos torna-se insuficiente, embora não irrelevante, para sustentar exercícios generativos em domínios decisórios abertos. Que dureza.

Sutton insiste que o futuro não é comprovável nem repetível. A experiência passada da humanidade, ainda que informativa, não constitui condição suficiente para explicar ou antecipar eventos inéditos. Ainda assim, as respostas produzidas pelos modelos tendem a nos parecer excessivamente atraentes. É nesse deslocamento, quando passam a operar como fonte de autoridade epistêmica, que os LLMs também tangenciam o terreno do sofisma.

Sutton reconhece que essa limitação é enfrentada de modo distinto e com certo sucesso em abordagens de Machine Learning baseadas em reinforcement learning. Outros defendem que caminhos como a neuro-symbolic AI podem mitigar parte do problema. Ele também lembra que o setor se encontra particularmente exposto a bandwagons and fashion, isto é, a ondas recorrentes de hype, modismos e adesões acríticas.

Pensando em exercícios generativos e preditivos, relaciono o tema a uma conversa que tive, ainda em 2025, com o diretor de risco de um importante banco público brasileiro. Ao final de 2019, a instituição havia construído um modelo de risco para os cinco anos seguintes, naturalmente ancorado em dados históricos.

Poucos meses depois, o banco enfrentaria a COVID e, em seguida, a guerra da Ucrânia, eventos fora do espaço amostral considerado e, portanto, ausentes das modelagens. O resultado foi a rápida invalidação do exercício “generativo”, não por erro técnico, mas por pressuposto epistemológico.

Nem vale mencionar que, nesse intervalo, ainda surgiria o acesso público aos modelos de LLM, ampliando o descompasso entre capacidade computacional e previsibilidade do mundo real. A aproximação elegante e altamente escalável do attention trata estatisticamente o conjunto do passado como nenhum modelo matemático até então havia feito. Isso, por si só, representa um ganho de escala inédito para a humanidade.

Daí a atribuir a esses modelos a capacidade de antecipar a COVID ou a guerra da Ucrânia há um salto que me parece mais retórico do que técnico. Ineditismo também há na velocidade com que as coisas estão ocorrendo, deixando qualquer lei de Moore vermelha de vergonha.

Quando a maior parte da população ainda mal havia percebido o debate e já utilizava o GPT como guia culinário, de viagem ou psicológico, as expectativas dobraram a aposta. O universo agentic chegava para “automatizar” o mundo.

Misturando aplicações rule-based com frameworks de linguagem, qualquer um agora poderia construir um flow quase perfeito para qualquer atividade executável por um ser humano. O fim do mundo e do emprego parecia anunciado. A abordagem de Jason Wei, apresentada no clube de IA de Stanford, ajuda a pensar os limites concretos desse universo agentic.

Jason é pesquisador de destaque em IA e atualmente trabalha no Meta Superintelligence Labs. Antes, ajudou a cocriar o modelo o1 e o produto Deep Research na OpenAI. Para Jason, a lei da verificação (Verifier’s Law) oferece um critério operacional claro: a capacidade de treinar uma IA para uma tarefa é proporcional à facilidade de verificar seu desempenho. Em termos simples, só se treina bem aquilo cujo erro é identificável.

Tarefas com verificação cara, subjetiva ou ambígua, como escrever um bom argumento jurídico, produzir ciência original ou oferecer aconselhamento estratégico, apresentam enorme dificuldade de treinamento, ainda que pareçam simples do ponto de vista humano. É disso que trata Sutton; aqui, aplico a lógica aos fluxos agentic.

Já tarefas com verificação objetiva e barata, como xadrez, reconhecimento de imagens ou tradução automática, tendem a apresentar desempenho muito superior. Jason observa que escrever uma redação ou formular uma nova dieta são tarefas difíceis de verificar. Vale refletir.

O leitor pode pensar que, se as atividades na empresa são simples e há modelos especializados, a solução estaria posta e tudo poderia ser automatizado. Há, porém, uma regra em sentido oposto que complica o quadro: quanto mais simples a atividade a ser automatizada por sistemas agentic, menor tende a ser a taxa marginal de retorno financeiro frente aos custos de implementação, coordenação e supervisão humana.

Mesmo com promessas de low ou vibe code, o mundo começa a redescobrir velhos fundamentos: processos bem definidos, nomenclaturas claras, ifs and elses, visão multidimensional, especialização, gestão de projetos, times e orçamentos.

Andrew Ng, professor em Stanford, fundador do Google Brain e da DeepLearning.AI, costuma enfatizar a centralidade de equipes de modelagem, inspeção e evals em projetos de agentic flows. O recado é claro: os times especializados continuam indispensáveis. O leigo ainda não se emancipou.

Em 2025, participei de aulas magnas, apresentações e debates sobre IA em universidades, hubs de inovação, institutos e autarquias, ao lado de top voices. Ao mesmo tempo, converso diariamente com empresários que operam comércio, indústria, serviços e agricultura, a base real da economia. De um lado, discursos altos e projeções grandiosas sobre o amanhã, muitas vezes sem profundidade técnica. Do outro, a economia real, onde a maioria ainda não entendeu exatamente o que fazer com tudo isso.

Olho para 2026 com a parcimônia de um ancião: é possível que vejamos o surgimento de outro tema dominante e que a IA se consolide como mais um momento incremental da história humana.

As oportunidades práticas existem e eu próprio tenho recorrido cada vez mais à inteligência computacional para resolver problemas e aumentar a eficácia de processos. Pode haver paradoxos, inclusive o de que a automação do trivial amplie o trabalho humano. Não há lugar para sofismas.

Artigos sobre o tema úteis ao leitor:

Compartilhar:

Pesquisador e operador em Organizational Theory, com trajetória internacional marcada por decisões fora do roteiro tradicional. Atuou por mais de uma década na Ásia e também nas Américas e Europa, lidando com operações complexas, ambientes regulatórios adversos e contextos nos quais não há manual disponível. Autodidata e avesso a soluções de prateleira, atua na interseção entre economia, contratos sociais, tecnologia - com foco em processos, modelos descritivos e formulações matemáticas - e organização do trabalho. É membro do Comitê Global de Inovação da Fast Company e colaborador da HSM. Atualmente, lidera a RMagnago, apoiando acionistas e executivos em decisões estratégicas de alto risco e elevada ambiguidade.

Artigos relacionados

2026 após o hype de 2025: Menos discurso, mais critério em IA

Não é uma previsão do que a IA fará em 2026, mas uma reflexão com mais critério sobre como ela vem sendo usada e interpretada. Sem negar os avanços recentes, discute-se como parte do discurso público se afastou da prática, especialmente no uso de agentes e automações, transformando promessas em certezas e respostas em autoridade.

Marketing & growth
25 de novembro de 2025

Rafael Silva - Head de Parcerias e Alianças na Lecom Tecnologia

4 minutos min de leitura
Inovação & estratégia, ESG
24 de novembro de 2025
Quando tratado como ferramenta estratégica, o orçamento deixa de ser controle e passa a ser cultura: um instrumento de alinhamento, aprendizado e coerência entre propósito, capital e execução.

Dárcio Zarpellon - Chief Financial Officer na Hypofarma

3 minutos min de leitura
Inovação & estratégia
22 de novembro de 2025
Antes dos agentes, antes da IA. A camada do pensamento analógico

Rodrigo Magnano - CEO da RMagnano

5 minutos min de leitura
Gestão de pessoas & arquitetura de trabalho, Cultura organizacional
21 de novembro de 2025
O RH deixou de ser apenas operacional e se tornou estratégico - desmistificar ideias sobre cultura, engajamento e processos é essencial para transformar gestão de pessoas em vantagem competitiva.

Giovanna Gregori Pinto - Executiva de RH e fundadora da People Leap

3 minutos min de leitura
Inteligência Artificial, Liderança
20 de novembro de 2025
Na era da inteligência artificial, a verdadeira transformação digital começa pela cultura: liderar com consciência é o novo imperativo para empresas que querem unir tecnologia, propósito e humanidade.

Valéria Oliveira - Especialista em desenvolvimento de líderes e gestão da cultura

3 minutos min de leitura
Cultura organizacional, Gestão de pessoas & arquitetura de trabalho
19 de novembro de 2025
Construir uma cultura organizacional autêntica é papel estratégico do RH, que deve traduzir propósito em práticas reais, alinhadas à estratégia e vividas no dia a dia por líderes e equipes.

Rennan Vilar - Diretor de Pessoas e Cultura do Grupo TODOS Internacional

3 minutos min de leitura
Inovação & estratégia
18 de novembro de 2025
Com agilidade, baixo risco e cofinanciamento não reembolsável, a Embrapii transforma desafios tecnológicos em inovação real, conectando empresas à ciência de ponta e impulsionando a nova economia industrial brasileira.

Eline Casasola - CEO da Atitude Inovação, Atitude Collab e sócia da Hub89 empresas

4 minutos min de leitura
Gestão de pessoas & arquitetura de trabalho
17 de novembro de 2025
A cultura de cocriação só se consolida quando líderes desapegam do comando-controle e constroem ambientes de confiança, autonomia e valorização da experiência - especialmente do talento sênior.

Juliana Ramalho - CEO da Talento Sênior

4 minutos min de leitura
Liderança
14 de novembro de 2025
Como dividir dúvidas, receios e decisões no topo?

Rubens Pimentel - CEO da Trajeto Desenvolvimento Empresarial

2 minutos min de leitura
Sustentabilidade
13 de novembro de 2025
O protagonismo feminino se consolidou no movimento com a Carta das Mulheres para a COP30

Luiza Helena Trajano e Fabiana Peroni

5 min de leitura

Baixe agora mesmo a nossa nova edição!

Dossiê #170

O que ficou e o que está mudando na gangorra da gestão

Esta edição especial, que foi inspirada no HSM+2025, ajuda você a entender o sobe-e-desce de conhecimentos e habilidades gerenciais no século 21 para alcançar a sabedoria da liderança

Baixe agora mesmo a nossa nova edição!

Dossiê #170

O que ficou e o que está mudando na gangorra da gestão

Esta edição especial, que foi inspirada no HSM+2025, ajuda você a entender o sobe-e-desce de conhecimentos e habilidades gerenciais no século 21 para alcançar a sabedoria da liderança