No meio das centenas de sessões do South by Southwest 2026, um tema apareceu de forma recorrente em debates sobre inteligência artificial: não é apenas sobre o que a tecnologia pode fazer por nós. É sobre o que ela pode estar tirando de nós.
Durante a sessão “Lose Your Mind to AI? A Neuroscientist and an AI CEO Debate”, a discussão partiu de uma provocação direta: a IA parece nos dar superpoderes cognitivos, mas isso pode ter um custo invisível. Como foi colocado no debate, usar IA pode parecer como “pegar emprestados 30 pontos de QI” – a questão é se, no longo prazo, isso nos tornará pensadores mais fracos.

SXSW 2026 | Foto: Alessandra Fu
A inteligência artificial acelera produção, sintetiza informação e responde quase instantaneamente. Mas essa mesma eficiência pode eliminar algo que sempre foi central no processo humano de aprendizado: a fricção.
Crescemos na fricção
Ao longo da história, ideias evoluíram porque foram confrontadas. Hipóteses científicas foram refutadas. Estratégias foram criticadas e argumentos foram desafiados. Esse atrito intelectual, às vezes desconfortável, é o que refina pensamento, criatividade e decisão.
O problema é que muitos sistemas de IA foram projetados para reduzir exatamente esse desconforto. Eles priorizam respostas úteis, rápidas e agradáveis. Em outras palavras: tendem a dizer “sim”.
Esse comportamento não é acidental. Ele reflete o próprio modelo de design de muitas plataformas digitais. Sistemas são treinados para aumentar engajamento, reduzir frustração e gerar respostas que o usuário aceite rapidamente. O resultado pode ser um ambiente cognitivo perigosamente confortável, um lugar onde ideias raramente encontram resistência.
Quando a tecnologia começa a substituir o pensamento
Em debates sobre “cognitive sovereignty”, pesquisadores e executivos discutiram um ponto central: ferramentas que escrevem, sintetizam e decidem por nós podem alterar a forma como pensamos e aprendemos, não porque a tecnologia seja inerentemente negativa mas porque, se usada sem consciência, ela pode deslocar o esforço intelectual humano.
A consequência é sutil, se sempre pedimos à IA para gerar respostas, estruturar argumentos e validar hipóteses, começamos a terceirizar parte do próprio processo de raciocínio, e sem perceber, substituímos reflexão por conveniência.
A convergência tecnológica e o risco do pensamento confortável
A futurista Amy Webb apresentou no SXSW e matou o tradicional relatório anual de tendências tecnológicas, mostrando como múltiplas tecnologias, inteligência artificial, sensores avançados e biotecnologia foi substituída por uma nova perspectiva de convergências – criando um novo ciclo tecnológico global. Essa convergência está mudando rapidamente as regras da sociedade e dos negócios, mas o ponto mais importante não é apenas tecnológico, é cognitivo.

Palco SXSW 2026 | Foto: Alessandra Fu
Se estamos entrando em uma Era de sistemas cada vez mais inteligentes, a vantagem competitiva humana pode deixar de ser a capacidade de gerar respostas, algo que máquinas já fazem muito bem. A verdadeira vantagem passa a ser fazer perguntas melhores e explorar o que muitas vezes nem sabemos que sabemos, e especialmente trazer à tona provocações que desafiam o consenso.
O novo papel da liderança: criar fricção produtiva
Para líderes e organizações, isso levanta uma questão estratégica, como evitar que a inteligência artificial se transforme apenas em uma máquina de confirmação? Uma das respostas discutidas em diversas sessões do SXSW é simples – e contraintuitiva.
Precisamos reintroduzir fricção no nosso dia a dia e fazer isso com o uso da IA. Isso significa usar essas ferramentas não apenas para acelerar respostas, mas para testar ideias. Algumas práticas começam a surgir em empresas mais avançadas:
- pedir explicitamente que a IA critique um raciocínio
- solicitar cenários contrários a uma estratégia
- pedir análise de falhas e vulnerabilidades
- usar múltiplos modelos para gerar visões divergentes
Em vez de usar IA para confirmar ideias, líderes podem usá-la para tensioná-las.
Treinar máquinas para discordar
Existe ainda um segundo desafio, mais estrutural, se queremos preservar pensamento crítico, talvez seja necessário treinar sistemas de IA que saibam dizer “não”.
Modelos capazes de:
- questionar premissas
- apontar vieses
- mostrar trade-offs
- desafiar decisões mal fundamentadas
Isso não significa construir máquinas negativas, significa construir máquinas intelectualmente honestas, porque inovação raramente nasce de respostas fáceis, ela nasce do confronto entre ideias.
O que levo do festival é a reflexão não sobre a velocidade com que a IA está evoluindo, mas sobre como nós vamos evoluir junto com ela.
Se inteligência artificial se tornar apenas uma tecnologia que confirma tudo o que pensamos, ela pode reduzir algo fundamental no progresso humano: a capacidade de sermos desafiados, e sem desafio não há aprendizado, sem fricção não há crescimento.
A pergunta que líderes precisarão responder na próxima década talvez seja menos tecnológica do que filosófica: em um mundo onde máquinas podem dizer “sim” para quase tudo, quem continuará fazendo as perguntas difíceis?





