Como a Inteligência Artificial Está Transformando as Empresas, Com ou Sem Permissão
Este artigo propõe uma mudança de perspectiva sobre a inteligência artificial no ambiente corporativo. Enquanto o debate público se concentra em qual ferramenta é melhor, qual empresa lidera a corrida ou qual modelo venceu o benchmark mais recente, algo muito mais relevante está acontecendo em silêncio: milhões de profissionais já estão usando IA no trabalho, muitos sem o conhecimento ou a aprovação das suas organizações.
Esse uso silencioso traz consigo uma dupla consequência. Por um lado, gera ganhos reais de produtividade que as empresas ainda não aprenderam a medir. Por outro, cria riscos cibernéticos, éticos e regulatórios que a maioria das organizações não está preparada para gerenciar. O artigo explora esse fenômeno à luz de um paralelo histórico: assim como a chegada dos sistemas ERP nos anos 1990 transformou radicalmente a forma de trabalhar de contadores, administradores e gestores de operações, a IA generativa está fazendo o mesmo, mas de forma muito mais ampla, mais rápida e, por isso mesmo, mais difícil de governar.
1. A Conversa Errada
'Qual é o melhor: ChatGPT, Gemini, Claude, Copilot ou Llama?' Essa é a pergunta que domina fóruns, newsletters, podcasts e reuniões de TI em todo o mundo. Empresas de consultoria publicam rankings mensais. Influenciadores de tecnologia produzem comparativos. Fornecedores empacotam múltiplas ferramentas em plataformas integradas e as vendem como 'pacotes completos de IA'.
É uma conversa interessante. Mas é a conversa errada.
Enquanto executivos debatem qual ferramenta adotar, seus colaboradores já decidiram. Um estudo da Microsoft e do LinkedIn publicado em 2024 revelou que 75% dos trabalhadores do conhecimento, aqueles cujo trabalho envolve principalmente processamento e geração de informação, já usam ferramentas de IA generativa de alguma forma. Desse total, 46% começaram a usar nos últimos seis meses. O ritmo de adoção é sem precedentes.
A questão, portanto, não é mais 'devemos adotar IA?'. É 'o que está acontecendo agora que não estamos vendo e quais são as implicações?'.
Pesquisa da McKinsey (2024) mostrou que 65% das organizações globais já utilizam IA generativa de forma regular em pelo menos uma função de negócio, mais que o dobro dos 33% registrados apenas um ano antes. A curva de adoção não é linear. É exponencial.
2. O Paralelo Histórico: Quando o ERP Chegou
Para entender o que está acontecendo com a inteligência artificial, é útil olhar para o passado. Não para repetir erros, mas para calibrar a dimensão do que está em curso.
No final dos anos 1980 e durante toda a década de 1990, os grandes sistemas de ERP, Enterprise Resource Planning, chegaram às empresas e transformaram radicalmente o trabalho de contadores, administradores, analistas financeiros e gestores de operações. SAP, Oracle, TOTVS no Brasil: esses sistemas integraram em uma única plataforma funções que antes eram executadas de forma fragmentada, manual e analógica.
O impacto foi enorme e, no início, profundamente perturbador. Profissionais que dominavam seus processos por conhecimento tácito, 'eu sei fazer esse fechamento porque sempre fiz assim', de repente precisaram aprender uma nova linguagem, novas telas, novos fluxos. Empresas que implantaram mal os sistemas sofreram crises operacionais graves. Profissionais que não se adaptaram ficaram para trás.
Mas quem se adaptou, quem entendeu que o ERP não era uma ameaça, mas um multiplicador de capacidade, ganhou uma vantagem competitiva enorme. O contador que dominava o SAP valia muito mais do que o que só sabia fazer lançamentos manuais. O gerente de supply chain que entendia os módulos de MRP tinha decisões melhores e mais rápidas.
Transformou: Contabilidade, Finanças, Operações, RH
Está transformando: Todas as funções, simultaneamente
Tempo de adoção do ERP nas grandes empresas brasileiras (1990–2000)
A diferença central entre o ERP e a IA generativa é a abrangência. O ERP transformou profundamente, mas setorialmente, afetou principalmente quem trabalhava com dados estruturados, processos repetitivos e fluxos administrativos. A IA generativa não tem essa limitação. Ela afeta igualmente o engenheiro que escreve código, o advogado que redige contratos, o médico que interpreta exames, o designer que cria peças, o analista que produz relatórios e o executivo que prepara apresentações.
Pela primeira vez na história, uma tecnologia de propósito geral está atingindo, ao mesmo tempo, trabalhadores do conhecimento de todos os setores, todos os níveis hierárquicos e todas as funções corporativas. Não há área de uma empresa que não seja, ou que não será, afetada.
O ERP foi uma revolução vertical: transformou fundo quem já trabalhava com dados e processos. A IA é uma revolução horizontal: ela toca tudo ao mesmo tempo. E revoluções horizontais são muito mais difíceis de governar porque não há um departamento responsável por 'todo o trabalho humano'.
3. O Uso Silencioso: O Que Está Acontecendo Sem Que Ninguém Perceba
Há um fenômeno que a Gartner nomeou, em 2024, como 'Shadow AI', em analogia ao já conhecido conceito de Shadow IT, que descreve o uso de sistemas de tecnologia sem aprovação oficial do departamento de TI. A diferença é que a Shadow AI é dramaticamente mais fácil de instalar: basta abrir um navegador.
Nenhuma solicitação ao helpdesk. Nenhuma aprovação de orçamento. Nenhuma avaliação de segurança. Um colaborador decide hoje, às 10h, que vai usar o ChatGPT para ajudar a redigir uma proposta comercial e começa às 10h01.
3.1 O que os dados revelam
Uma pesquisa da empresa de segurança Cyberhaven, publicada em 2024, analisou o comportamento de 3 milhões de funcionários em empresas que usam seu sistema de monitoramento. Os resultados foram reveladores:
- 11% de todos os dados colados em ferramentas de IA generativa por funcionários eram classificados como confidenciais pela própria empresa.
- Apenas 0,1% das tentativas de uso foram bloqueadas por políticas corporativas, o que indica que a quase totalidade das empresas ainda não tem controles ativos.
- O volume de dados enviados para ferramentas externas de IA cresceu 485% entre janeiro e dezembro de 2023.
Esses números não descrevem funcionários mal intencionados. Descrevem profissionais competentes, motivados, tentando ser mais produtivos, usando as melhores ferramentas disponíveis para eles naquele momento. O problema não é a intenção. É a ausência de governança.
3.2 O caso Samsung: quando a eficiência se torna risco
Em março de 2023, engenheiros da Samsung Semiconductor usaram o ChatGPT para otimizar código proprietário e depurar erros em sistemas internos. Em três incidentes separados, trechos do código fonte confidencial da empresa foram enviados aos servidores da OpenAI. Quando o incidente foi descoberto, o dano já estava feito: os dados tinham sido processados externamente, potencialmente incorporados ao modelo. A Samsung rapidamente baniu o uso de ferramentas de IA generativa externas e iniciou o desenvolvimento de um modelo próprio. Mas o episódio ficou como exemplo definitivo de como o uso bem intencionado pode gerar consequências irreversíveis na ausência de políticas claras.
O Samsung não é exceção. É a regra que ainda não foi descoberta na maioria das empresas. A questão não é se algo assim já aconteceu na sua organização. É se você sabe que não aconteceu.
4. Os Riscos Que Poucos Estão Discutindo
4.1 Risco cibernético: o vazamento que não parece vazamento
O risco cibernético tradicional é relativamente bem compreendido pelas empresas: antivírus, firewall, controle de acesso, criptografia, monitoramento de perímetro. Toda grande organização tem políticas para isso.
O risco gerado pelo uso de IA generativa é diferente, e mais difícil de detectar, porque não parece um vazamento. Nenhum arquivo foi enviado para um servidor externo suspeito. Nenhum dado foi acessado de um IP desconhecido. Um colaborador simplesmente colou um trecho de um contrato em uma caixa de texto de um site legítimo, muito bem desenhado, que milhões de pessoas usam todos os dias.
Mas os dados foram processados por infraestrutura externa. Podem ter sido usados para treinamento de modelos futuros, dependendo dos termos de serviço da ferramenta, que a maioria dos usuários não leu. Podem estar armazenados em servidores em jurisdições diferentes daquela onde a empresa opera. E, sob a perspectiva da LGPD (Lei Geral de Proteção de Dados) e de regulações equivalentes como o GDPR europeu, a responsabilidade pelo tratamento adequado dos dados não deixa de existir só porque quem fez o tratamento foi uma IA.
| Risco cibernético tradicional | Risco cibernético via IA generativa |
|---|---|
| Acesso não autorizado a sistemas | Compartilhamento não intencional de dados confidenciais |
| Malware e ransomware | Informações proprietárias incorporadas a modelos externos |
| Phishing e engenharia social | Contratos, estratégias e códigos enviados a terceiros |
| Violação de perímetro de rede | Dados sensíveis em logs de ferramentas SaaS externas |
| Detectável por monitoramento de tráfego | Invisível para ferramentas tradicionais de segurança |
4.2 Risco ético: quando a IA decide e ninguém é responsável
A dimensão ética do uso de IA nos negócios é ainda mais complexa e raramente aparece nos debates corporativos sobre produtividade e eficiência.
Considere este cenário: uma empresa usa IA para fazer triagem inicial de currículos. O modelo foi treinado com dados históricos de contratações anteriores. Se a empresa historicamente contratou mais homens para posições de liderança, padrão comum em muitas indústrias, o modelo aprende essa correlação e começa a desfavorecer candidatas mulheres sem que ninguém tenha explicitamente programado esse viés. A discriminação não está no código. Está nos dados. E é invisível.
Isso não é especulação. Em 2018, a Amazon descontinuou um sistema interno de triagem de talentos desenvolvido por sua equipe de IA exatamente por esse motivo: o modelo penalizava sistematicamente currículos que continham a palavra 'women's' (como em 'women's chess club') e rebaixava candidatos de universidades historicamente femininas. Nenhum engenheiro tinha a intenção de criar um sistema discriminatório. O viés emergiu dos dados.
1. Viés algorítmico: modelos treinados com dados históricos tendem a perpetuar e amplificar desigualdades existentes, em contratação, crédito, promoção, precificação. 2. Responsabilidade: quando uma decisão é tomada ou influenciada por IA, quem responde pelo erro? O colaborador que usou a ferramenta? O gestor que aprovou? A empresa que adquiriu a solução? O fornecedor da IA? 3. Transparência: em muitos contextos regulatórios, incluindo o AI Act europeu e as diretrizes da ANPD brasileira, decisões automatizadas que afetam pessoas exigem explicabilidade. Dizer 'o modelo decidiu assim' não é uma resposta juridicamente aceitável.
4.3 Risco de propriedade intelectual
Uma dimensão frequentemente ignorada: quando um colaborador usa IA para criar um documento, código, design ou estratégia, de quem é a propriedade intelectual do resultado? A resposta não é simples e varia conforme a ferramenta utilizada, os termos de serviço aceitos e a jurisdição.
Em alguns países, obras criadas por IA sem contribuição humana substancial não são protegidas por direitos autorais. Em outros, a questão ainda está sendo debatida nos tribunais. Empresas que constroem ativos intelectuais, patentes, softwares, conteúdos, sobre bases de IA não governadas correm o risco de descobrir que esses ativos não têm a proteção legal que assumiam ter.
5. O Impacto Real nos Negócios: O Que os Dados Mostram
Apesar dos riscos, ou talvez por causa deles, ignorar o potencial transformador da IA nos negócios seria um erro ainda maior. Os ganhos documentados são reais, significativos e, em alguns casos, já estão separando empresas que usam bem IA das que não usam.
redução no tempo de tarefas de escrita e análise com IA assistida
Harvard/MIT, 2023
das empresas que adotaram IA em processos de vendas reportaram aumento de receita
McKinsey, 2024
das tarefas de trabalho atuais com alto potencial de automação via IA
Goldman Sachs, 2024
Um estudo particularmente revelador foi conduzido pelos pesquisadores de Harvard e MIT em 2023 com consultores da Boston Consulting Group (BCG). Os participantes foram divididos em dois grupos: um usou IA (GPT-4) em suas tarefas, o outro não. O resultado foi inequívoco: o grupo que usou IA completou 12% mais tarefas, 25% mais rápido e com qualidade 40% superior, medida por avaliadores independentes.
Mais interessante ainda: o benefício foi desproporcionalmente maior para os profissionais de desempenho médio, não para os de alto desempenho. A IA funcionou como um nivelador, elevando o piso da qualidade e produtividade, não apenas o teto. Isso tem implicações profundas para a forma como as empresas pensam desenvolvimento de talentos, estrutura de equipes e alocação de recursos.
5.1 Onde o impacto já é visível
As áreas de negócio que já demonstram transformações mensuráveis com uso de IA incluem:
- Atendimento ao cliente: redução de tempo médio de resolução entre 30% e 50% com IA assistindo agentes humanos em tempo real (Salesforce, 2024).
- Desenvolvimento de software: estudos da GitHub mostraram que programadores usando Copilot completam tarefas 55% mais rápido e reportam maior satisfação no trabalho.
- Jurídico e compliance: triagem de contratos que levava dias passou a levar horas, ou minutos, com ferramentas especializadas como Harvey AI e ContractPodAi.
- Marketing e conteúdo: times de conteúdo que produziam 10 peças por semana passaram a produzir 40 a 50, com a IA gerando rascunhos que humanos refinam.
- Análise financeira: modelos de previsão e cenários que exigiam semanas de trabalho analítico agora são gerados em horas, com a IA processando conjuntos de dados de maior complexidade.
O padrão que emerge nesses casos não é o da IA substituindo humanos. É o da IA aumentando a capacidade do profissional humano. O modelo que tem se mostrado mais produtivo não é 'IA ou humano', mas 'IA + humano com senso crítico treinado'.
6. A Empresa que Não Governa a IA É Governada por Ela
Há uma afirmação que resume bem o momento que as organizações estão vivendo: a pergunta não é mais se sua empresa vai adotar IA. É se vai adotá-la de forma intencional ou acidental.
A adoção acidental já está acontecendo. Quando uma empresa não tem política de uso de IA, ela não impede o uso. Ela apenas perde o controle sobre ele. Seus colaboradores usam ferramentas externas, compartilham dados sem autorização, tomam decisões influenciadas por modelos não auditados e criam dependências de sistemas que o jurídico nunca avaliou.
A adoção intencional exige o oposto: uma decisão deliberada sobre quais ferramentas usar, para quais finalidades, com quais salvaguardas, com qual treinamento e com qual framework de governança.
Classificação de dados: definir quais categorias de informação podem ser processadas por ferramentas externas de IA e quais não podem. Ferramentas aprovadas: uma lista positiva de ferramentas homologadas pelo jurídico e pela segurança, com orientação sobre como cada uma pode ser usada. Treinamento obrigatório: todo colaborador que usa IA precisa entender os riscos básicos de vazamento, viés e responsabilidade, não apenas como usar as ferramentas. Processo de revisão humana: para decisões que afetam pessoas, contratação, crédito, avaliação de desempenho, a saída da IA deve ser um insumo, nunca uma sentença final. Auditoria periódica: revisar regularmente o que está sendo feito com IA, como está sendo feito e se os resultados estão alinhados com os valores e objetivos da organização.
Empresas que lideram em governança de IA não são necessariamente as que mais investiram em tecnologia. São as que entenderam que governança não é obstáculo à inovação. É o que garante que a inovação não se torne um passivo.
7. O Profissional do Futuro: Nem Programador, Nem Substituível
Uma das maiores ansiedades que a IA generativa gerou no mundo do trabalho é a pergunta sobre substituição: 'a IA vai tomar o meu emprego?'. A resposta honesta, e apoiada pelos dados disponíveis até agora, é mais nuançada: a IA não vai tomar empregos. Mas profissionais que sabem usar IA vão tomar o lugar de profissionais que não sabem.
O WEF (World Economic Forum), em seu Future of Jobs Report 2025, projeta que 170 milhões de novos empregos serão criados globalmente até 2030, em sua maioria, em funções que ainda não existem ou que precisarão ser redesenhadas. Ao mesmo tempo, 39% das habilidades atualmente valorizadas se tornarão obsoletas. Não os empregos. As habilidades específicas dentro dos empregos.
O perfil que emerge como mais resiliente não é o do especialista técnico profundo, aquele que sabe tudo sobre uma ferramenta específica ou um processo estreito. É o do generalista estratégico: o profissional que combina conhecimento de negócios sólido, capacidade de formular problemas, senso crítico para avaliar saídas de IA e habilidade de trabalhar transversalmente com diferentes funções e tecnologias.
Não é quem sabe mais sobre IA. É quem sabe formular os problemas certos e avaliar se as respostas fazem sentido no contexto do negócio. A IA é extraordinariamente boa em responder perguntas. Ela ainda é muito limitada em saber quais perguntas valem a pena ser feitas.
Isso reposiciona o papel da formação em gestão de negócios de uma forma que talvez não fosse evidente há cinco anos. O profissional que entende estratégia, finanças, comportamento organizacional, ética nos negócios e tomada de decisão sob incerteza está em posição muito melhor para trabalhar com IA do que aquele que apenas sabe operar as ferramentas. As ferramentas mudam toda semana. O raciocínio de negócios não.
8. O Brasil no Contexto Global
O Brasil ocupa uma posição ambígua nesse cenário. De um lado, tem uma das populações mais jovens e mais conectadas do mundo, com alta receptividade a novas tecnologias e uma cultura de adaptação que já se manifestou na adoção massiva de PIX, de fintechs e do e-commerce. De outro, enfrenta desafios estruturais que tornam a governança de IA mais complexa.
A LGPD, Lei Geral de Proteção de Dados em vigor desde 2020, estabelece obrigações claras para o tratamento de dados pessoais, mas ainda está em fase de consolidação de precedentes jurídicos sobre IA. A ANPD (Autoridade Nacional de Proteção de Dados) publicou, em 2024, um guia orientativo sobre inteligência artificial, mas regulação específica ainda está em discussão.
Isso cria uma janela de oportunidade e um risco. Empresas que construírem agora frameworks sólidos de governança de IA estarão à frente quando a regulação se consolidar. As que esperarem pela obrigatoriedade farão essa jornada sob pressão, às pressas e com custo muito maior.
A discussão sobre IA no Brasil ainda está muito centrada em 'quando adotar' e 'qual ferramenta'. As empresas que já passaram dessa pergunta estão discutindo 'como governar', 'como treinar' e 'como criar vantagem competitiva sustentável'. A distância entre os dois grupos está crescendo a cada trimestre.
9. O Que Fazer: Um Roteiro para Gestores e Líderes
Este artigo não pretende ser alarmista nem excessivamente otimista. O objetivo é oferecer uma perspectiva equilibrada que permita a tomada de decisão mais informada. Com esse espírito, seguem os passos que organizações de diferentes portes podem dar agora:
- 01. Faça o diagnóstico do uso atual: antes de criar políticas, entenda o que já está acontecendo. Realize uma pesquisa interna anônima sobre quais ferramentas de IA os colaboradores já usam, para quais tarefas, e com qual frequência. O resultado vai surpreender.
- 02. Classifique seus dados por sensibilidade: nem todo dado tem o mesmo nível de risco. Crie uma taxonomia simples: dados públicos (podem ser processados externamente), dados internos (uso interno apenas, nenhuma ferramenta externa), dados sensíveis (jamais fora do perímetro controlado). Isso cria uma diretriz prática para colaboradores.
- 03. Defina ferramentas homologadas e treine: escolha as ferramentas que passaram pela avaliação do jurídico e de segurança e crie um programa de onboarding mínimo para todos. Treinamento sobre limites e riscos é tão importante quanto treinamento sobre funcionalidades.
- 04. Inclua IA na agenda de governança: assim como existem comitês de segurança da informação, compliance e privacidade, crie um fórum regular para discutir o uso de IA, seus benefícios, seus riscos, seus incidentes e sua evolução. IA não é projeto de TI. É agenda de negócio.
- 05. Invista no desenvolvimento humano, não apenas em ferramentas: a maior vantagem competitiva não vai ser ter a IA mais poderosa. Vai ser ter as pessoas mais capazes de trabalhar com ela. Raciocínio crítico, ética aplicada, formulação de problemas, interpretação de resultados: essas são as competências que a IA não vai substituir tão cedo e que precisam ser cultivadas ativamente.
Conclusão: A Revolução que Já Começou
A inteligência artificial não está chegando. Ela já chegou e está sendo usada agora, neste momento, por colaboradores em praticamente todas as empresas do mundo, independentemente de as lideranças terem tomado uma decisão formal sobre isso.
Assim como a chegada dos sistemas ERP redefiniu o que significava ser um bom contador ou um bom gestor de operações nos anos 1990, a IA generativa está redefinindo o que significa ser um profissional competente em qualquer área de negócios nos anos 2020. A diferença é que a transformação que o ERP realizou em uma década, a IA está fazendo em dois ou três anos, e não se limita a uma função ou departamento. Ela é horizontal, pervasiva e, por isso, muito mais difícil de governar de forma reativa.
O caminho para as organizações que querem capturar o valor da IA sem ser capturadas por seus riscos é o mesmo que sempre separou as empresas que sobrevivem a grandes transformações tecnológicas das que ficam para trás: intencionalidade. Saber o que está acontecendo. Tomar decisões conscientes. Desenvolver as pessoas. E reconhecer que tecnologia sem governança não é vantagem. É exposição.
A revolução silenciosa já tem vencedores e perdedores. A distinção entre uns e outros não está na ferramenta que cada um escolheu. Está em quem entendeu, mais cedo, que a IA é um amplificador e que o que ela amplifica depende da competência, da ética e da intenção de quem a usa
Referências
- 1.BOSTON CONSULTING GROUP / MIT / HARVARD. "Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality." Working Paper, Harvard Business School, 2023.
- 2.CYBERHAVEN. AI Data Exposure Report. San Francisco: Cyberhaven, 2024.
- 3.EUROPEAN PARLIAMENT. Artificial Intelligence Act (AI Act). Bruxelas: UE, 2024.
- 4.GARTNER. "Top Strategic Technology Trends 2024: Shadow AI." Stamford: Gartner Research, 2024.
- 5.GOLDMAN SACHS. "The Potentially Large Effects of Artificial Intelligence on Economic Growth." Global Economics Paper, 2024.
- 6.IBGE / ANPD. Guia Orientativo de Inteligência Artificial e Proteção de Dados Pessoais. Brasília: ANPD, 2024.
- 7.McKINSEY & COMPANY. The State of AI in 2024: GenAI Adoption Accelerates. New York: McKinsey Global Institute, 2024.
- 8.MICROSOFT / LINKEDIN. AI at Work Is Here. Now Comes the Hard Part. 2024 Work Trend Index. Redmond: Microsoft, 2024.
- 9.SALESFORCE. State of Service Report, 6th Edition. San Francisco: Salesforce Research, 2024.
- 10.WORLD ECONOMIC FORUM. The Future of Jobs Report 2025. Geneva: WEF, 2025.