Tecnologias exponenciais
7 min de leitura

Quando a IA desafia o ESG: o dilema das lideranças na era algorítmica

A inteligência artificial está reconfigurando decisões empresariais e estruturas de poder. Sem governança estratégica, essa tecnologia pode colidir com os compromissos ambientais, sociais e éticos das organizações. Liderar com consciência é a nova fronteira da sustentabilidade corporativa.
Co-Fundador e VP de Inovação e Tecnologia do Grupo Benner, Palestrante, Mentor, Conselheiro, Embaixador e membro do Senior Advisory Board do Instituto Capitalismo Consciente Brasil, Embaixador e Membro da Comissão ESG da Board Academy BR e Especialista do Gerson Lehrman Group e da Coleman Research – Fala sobre Inovação, Governança e ESG.

Compartilhar:

A inteligência artificial assumiu, com impressionante velocidade, o protagonismo da transformação digital nas empresas. De modelos preditivos a plataformas generativas, de automação de processos a diagnósticos inteligentes, a IA tornou-se sinônimo de inovação. E, por extensão, foi rapidamente incorporada ao discurso da sustentabilidade: mais produtividade, menos desperdício, decisões mais “neutras”, ou assim se pensava.

Mas há um ponto cego nessa narrativa. O que poucos discutem, e menos ainda questionam, é se essa tecnologia, tão promissora e sedutora, está de fato alinhada aos compromissos ambientais, sociais e de governança (ESG) que as organizações proclamam. E se, em vez de avançar essa agenda, a IA estiver colocando em risco seus fundamentos?

Este artigo convida à reflexão. Porque, ao contrário do que muitos supõem, a IA não é intrinsecamente ética, verde ou justa. Ela é, antes de tudo, uma ferramenta, e como tal, reflete as intenções, os vieses e as omissões de quem a desenha e opera. Se quisermos que ela seja aliada da sustentabilidade, precisamos começar pelas perguntas certas. E a primeira delas é: quem está no controle?

A pegada invisível da IA

É comum imaginar a inteligência artificial como uma entidade etérea, que opera no plano do software, das nuvens, dos dados. Mas por trás de cada algoritmo há uma infraestrutura colossal, servidores, data centers, redes elétricas, sistemas de resfriamento, cuja operação consome energia em escala industrial.

Treinar um único modelo de IA generativa pode emitir milhares de toneladas de CO₂ equivalente. Um exemplo recente: a Meta estimou que a preparação do seu modelo LLaMA 3.1 gerou cerca de 8.930 toneladas de CO₂, o mesmo que quase 500 cidadãos americanos emitiriam em um ano. E isso representa apenas o começo. O uso contínuo da IA (inferência) segue consumindo energia de forma acelerada: uma simples consulta ao ChatGPT pode gastar quase dez vezes mais eletricidade do que uma busca tradicional no Google.

Segundo a International Energy Agency, os data centers já respondem por cerca de 1 a 2% do consumo elétrico global. A tendência é ainda mais preocupante: estima-se que esse número pode dobrar até 2030, em grande parte impulsionado pela IA. Em países como a Irlanda, data centers já consomem mais de 20% da energia nacional.

Esse crescimento impõe uma tensão direta com as metas de descarbonização assumidas por tantas empresas. Como sustentar um compromisso com o carbono neutro enquanto se investe, sem critérios, em tecnologias altamente intensivas em energia?

Pior: poucas empresas sabem mensurar a pegada de carbono dos seus modelos de IA. Menos ainda divulgam esses dados. Isso revela uma fragilidade estratégica, estamos escalando o uso de uma tecnologia sem compreender, nem comunicar, seu real custo ambiental.

O impacto social da automação sem consciência

A promessa de que a inteligência artificial tornaria decisões mais justas, precisas e racionais começa a ser colocada à prova. O que parecia uma solução para eliminar vieses humanos está, na prática, amplificando distorções históricas, muitas vezes com a aparência de neutralidade.

Algoritmos aprendem com dados. E dados carregam o mundo como ele é, não como deveria ser. Discriminações de gênero, raça, classe e geografia são embutidas nas decisões automatizadas de contratação, crédito, triagem de currículos e até precificação. Só que, desta vez, com escala industrial e sem supervisão humana direta.

Pesquisas nos EUA mostram que a maioria das pessoas não se sente confortável com o uso de IA em decisões sensíveis como moradia, saúde ou trabalho. E há razões concretas para isso: mais de 70% das empresas que utilizam IA ainda não adotaram políticas éticas claras. A maioria sequer tem mecanismos para detectar ou mitigar vieses.

A isso soma-se a exclusão digital: milhões de pessoas continuam fora do alcance da conectividade, da alfabetização digital ou da representatividade nos dados. E à medida que serviços essenciais são mediados por sistemas automatizados, esses grupos correm o risco de se tornarem invisíveis, ou pior, descartáveis.

A ausência de “explicabilidade” agrava o cenário. Poucas empresas sabem, ou conseguem, explicar como seus algoritmos tomam decisões. Quando os próprios gestores ignoram o que a IA está decidindo, estamos diante de um problema ético, operacional e reputacional de grandes proporções.

A resposta dos reguladores e dos investidores

Enquanto muitas empresas ainda tratam a inteligência artificial como uma questão operacional, os principais reguladores globais e investidores institucionais já a posicionam no centro da agenda estratégica. A leitura é simples: a IA, mal gerida, tornou-se um vetor relevante de riscos ESG.

Na Europa, o AI Act introduz um marco regulatório robusto. Ele exige que sistemas de alto risco sejam auditáveis, explicáveis e supervisionados por humanos. A penalidade para o descumprimento pode chegar a valores percentuais do faturamento global. Nos Estados Unidos, a SEC já recomenda maior transparência sobre como a IA está integrada aos modelos de negócio e quais riscos decorrem disso. No Brasil, o movimento é mais recente, mas caminha na mesma direção.

O capital também está mudando de posição. Fundos soberanos, como o da Noruega, e gestores globais como BlackRock, já demonstram interesse em entender como empresas estão utilizando IA. Em assembleias e cartas públicas, começam a surgir perguntas objetivas sobre uso responsável de algoritmos, mitigação de viés e transparência nas decisões automatizadas.

Agências de rating ESG estão incorporando critérios relacionados à IA em suas análises. Modelos opacos, discriminatórios ou não auditáveis podem comprometer os scores de sustentabilidade e dificultar o acesso a capital.

O sinal é claro: o tempo da IA sem governança está acabando. As empresas que se anteciparem a essa nova realidade estarão não apenas protegidas, mas também mais preparadas para competir com integridade em um ambiente regulatório mais exigente e transparente.

O que líderes e conselhos devem fazer agora

Diante desse cenário, a atuação das lideranças precisa ir além do encantamento com a tecnologia. É hora de adotar uma postura estratégica e responsável. Abaixo, algumas recomendações para conselhos e executivos que querem garantir que a IA agregue valor sem comprometer os pilares ESG.

1. Incorporar a IA à agenda estratégica do conselho

A supervisão da IA deve ser tratada com o mesmo rigor de temas como riscos regulatórios, segurança da informação e compliance. Isso significa incluir discussões regulares sobre projetos de IA nas reuniões do conselho, criando comitês específicos se necessário.

2. Mapear impactos ambientais e sociais dos sistemas de IA

Toda empresa que utiliza modelos baseados em dados precisa entender a pegada de carbono e os potenciais efeitos sociais dessas tecnologias. Avaliações prévias de impacto, uso de indicadores e relatórios públicos são ferramentas importantes.

3. Estabelecer diretrizes éticas claras para uso da IA

Definir princípios de transparência, “explicabilidade” e não discriminação. Criar canais para que decisões automatizadas possam ser auditadas e contestadas por stakeholders internos e externos.

4. Fortalecer a composição do conselho com competências digitais

Trazer especialistas em ciência de dados, segurança cibernética, filosofia da tecnologia ou regulação digital para dentro do board. A diversidade de perspectivas é um antídoto contra decisões tecnocráticas mal calibradas.

5. Desenvolver uma cultura de responsabilidade algorítmica

Mais do que ferramentas, a IA exige valores. As empresas devem investir na capacitação das equipes, promover o debate interno sobre os limites do uso de algoritmos e estabelecer estruturas de accountability para decisões automatizadas.

Conclusão

A inteligência artificial já está transformando a forma como as organizações operam, decidem e se relacionam com a sociedade. Mas inovação real não é apenas adotar tecnologias de ponta. É assegurar que essas tecnologias estejam a serviço dos valores e compromissos que a empresa afirma defender.

Não se trata de recusar a IA, mas de compreendê-la a fundo, com coragem intelectual e rigor estratégico. Em um cenário onde a reputação corporativa, o acesso a capital e a confiança dos stakeholders estão diretamente ligados à integridade das decisões, não há mais espaço para neutralidade diante do tema.

A liderança responsável não se mede pela velocidade com que adota novas ferramentas, mas pela lucidez com que define seus limites. E a governança do futuro começa com uma pergunta simples, mas inadiável: a IA que estamos usando serve ao propósito que dizemos ter?

Compartilhar:

Co-Fundador e VP de Inovação e Tecnologia do Grupo Benner, Palestrante, Mentor, Conselheiro, Embaixador e membro do Senior Advisory Board do Instituto Capitalismo Consciente Brasil, Embaixador e Membro da Comissão ESG da Board Academy BR e Especialista do Gerson Lehrman Group e da Coleman Research – Fala sobre Inovação, Governança e ESG.

Artigos relacionados

Diversidade não gera performance. O que gera é a forma como ela é operada

Diversidade amplia repertório, mas também multiplica complexidade. Este artigo mostra por que equipes diversas só performam quando há uma arquitetura clara de decisão, comunicação e gestão de conflitos – e como a falta desse sistema transforma inclusão em ruído operacional e perda de velocidade competitiva.

Tecnologia & inteligencia artificial, Foresight
16 de abril de 2026 09H00
Este é o segundo artigo da série "Como promptar a realidade" e investiga como ficções, ao entrarem em loops de feedback, deixam de descrever o mundo para disputar ontologia - reorganizando mercados, política, tecnologia e comportamento antes mesmo de qualquer evidência.

Chico Araújo - Diretor Executivo do Instituto Inteligência Artificial de Verdade (IAV), cofundador do The Long Game Futures. e Global Expert da Singularity University

13 minutos min de leitura
Liderança
15 de abril de 2026 17H00
Se liderar ainda é, para você, dar respostas e controlar processos, este artigo não é confortável. Liderança criativa começa quando o líder troca certezas por perguntas e controle por confiança.

Clarissa Almeida - Head de RH da Yank Solutions

2 minutos min de leitura
Cultura organizacional, Foresight, Tecnologia & inteligencia artificial
15 de abril de 2026 08H00
Este é o primeiro artigo de uma série em quatro partes que propõe uma microtese sobre futuros que disputam processamento - e investiga o papel insuspeito de memes, programação preditiva, hyperstition, cura de traumas, strategic foresight e soberania imaginal no ciclo de inovação que já começou.

Chico Araújo - Diretor Executivo do Instituto Inteligência Artificial de Verdade (IAV), cofundador do The Long Game Futures. e Global Expert da Singularity University

23 minutos min de leitura
Tecnologia & inteligencia artificial, Gestão de pessoas & arquitetura de trabalho
14 de abril de 2026 18H00
Este artigo propõe analisar como a combinação entre pressão por velocidade, talento autónomo e uso não estruturado de AI pode deslocar a execução para fora dos sistemas formais, introduzindo riscos que não são imediatamente visíveis nos indicadores tradicionais.

Marta Ferreira

4 minutos min de leitura
Liderança
14 de abril de 2026 14H00
Este é o primeiro artigo da nova coluna "Liderança & Aikidô" e neste texto inaugural, Kei Izawa mostra por que os líderes mais eficazes deixam de operar pela lógica do confronto e passam a construir vantagem estratégica por meio da harmonia, da não resistência, da gestão de conflitos e de decisões sem ego em ambientes de alta complexidade.

Kei Izawa - 7º Dan de Aikikai e ex-presidente da Federação Internacional de Aikido

7 minutos min de leitura
User Experience, UX, Inovação & estratégia
14 de abril de 2026 07H00
Com a ascensão dos agentes de IA, nos deparamos com uma profunda mudança no papel do designer, de executor para curador, estrategista e catalisador de experiências complexas. A discussão de UX evolui para o território do AX (Agent Experience), onde o foco deixa de ser somente a interação humano-máquina em interfaces e passa a considerar como agentes autônomos agem, decidem e colaboram com pessoas em sistemas inteligentes

Victor Ximenes - Senior Design Manager do CESAR

5 minutos min de leitura
Inovação & estratégia
13 de abril de 2026 14H00
A aceleração da destruição criativa deixou de ser um conceito abstrato e passou a atravessar o cotidiano profissional, exigindo menos apego à estabilidade e mais capacidade de adaptação, recombinação e reinvenção contínua.

Ale Fu - Executiva de Tecnologia, Professora, Palestrante, além de coordenadora da Comissão de Estratégia e Inovação do IBGC e membro do Grupo de Trabalho de Inteligência Artificial da ABES

5 minutos min de leitura
Gestão de pessoas & arquitetura de trabalho, Inovação & estratégia, Tecnologia & inteligencia artificial
13 de abril de 2026 07H00
Quando "estamos investindo em inteligência artificial" virou a forma mais elegante de não explicar por que o planejamento de headcount falhou. E o que acontece quando os dados mostram que as empresas demitem por uma eficiência que, para 95% delas, ainda não existe.

Atila Persici Filho - COO da Bolder

11 minutos min de leitura
Gestão de pessoas & arquitetura de trabalho, Cultura organizacional
12 de abril de 2026 14H00
Entre intenção e espontaneidade, a comunicação organizacional revela camadas inconscientes que moldam vínculos, culturas e resultados. Este artigo propõe o Design Relacional como ponte entre teoria profunda e prática concreta para construir ambientes de trabalho mais seguros, autênticos e sustentáveis.

Daniela Cais - TEDx Speake e Designer de Relações Profissionais

9 minutos min de leitura
Bem-estar & saúde
12 de abril de 2026 09H00
Na montanha, aprender a reconhecer os próprios limites não é opcional - é questão de sobrevivência. No ambiente corporativo deveria ser parecido. Identificar sinais precoces de sobrecarga, entender como reagimos sob pressão e criar espaços seguros de diálogo são medidas preventivas muito eficazes.

Aretha Duarte - Primeira mulher negra latino-americana a escalar o Everest

5 minutos min de leitura

Baixe agora mesmo a nossa nova edição!

Dossiê #171

A Face Executiva de 2026

Líderes de organizações brasileiras de todos os setores, portes e regiões desenham o ano empresarial do Brasil com suas prioridades em relação a negócios, pessoas e tecnologia...

Baixe agora mesmo a nossa nova edição!

Dossiê #171

A Face Executiva de 2026

Líderes de organizações brasileiras de todos os setores, portes e regiões desenham o ano empresarial do Brasil com suas prioridades em relação a negócios, pessoas e tecnologia...