Entre a urgência de inovar e o peso de regular, a inteligência artificial (IA) virou terreno fértil para dilemas profundos. No campo da Governança Corporativa, Riscos e Compliance (GRC), seu impacto também já é concreto e exige reflexão crítica. Como aplicar a IA de forma estratégica e ética em contextos regulatórios tão distintos pelo mundo? Esta foi a pergunta que nos uniu neste artigo.
Seja no Brasil, na Europa ou nos Estados Unidos, enfrentamos cenários desafiadores marcados por legislações em estágios distintos, maturidade digital desigual e culturas de risco que freiam ou aceleram a adoção tecnológica. A IA expõe, de forma intensa, essas disparidades: enquanto alguns contextos avançam na experimentação mesmo sem regras claras, outros travam a inovação em nome da cautela regulatória. Neste artigo, reunimos nossas visões complementares para refletir sobre como é possível construir um caminho que permita inovar com responsabilidade, equilibrando eficiência, ética e confiança na era da IA.
Quando a ausência de regras vira parte do risco
Nos Estados Unidos, o ambiente é fértil para a inovação, mas o caminho está longe de ser simples. A ausência de uma regulação federal específica para o uso de IA cria um desafio recorrente para empresas que operam em múltiplos estados. Em Massachusetts, por exemplo, a regulamentação sobre o uso de IA ainda é incipiente. No entanto, se essa mesma empresa possui colaboradores em estados com legislações próprias, como a Califórnia, que adota o California Consumer Privacy Act (CCPA), ela passa a ter a obrigação de implementar padrões específicos de conformidade, inclusive para colaboradores fora da sede. Essa fragmentação torna o GRC um jogo bastante complexo: a mesma solução pode ser legalmente aceita em um estado e deixar a empresa vulnerável em outro.
Além disso, a ausência de uma regulação federal unificada nos Estados Unidos desloca para múltiplas frentes, como normas setoriais e exigências dos próprios investidores. Isso gera um malabarismo jurídico, com protocolos distintos por jurisdição ou stakeholder. Sem diretrizes centralizadas, cada parte interessada tenta estabelecer suas próprias regras, criando um ambiente regulatório difuso, complexo e propenso a inconsistências internas, onde o risco de não conformidade passa a ser tão relevante quanto a própria inovação.
Ainda assim, a inovação avança. Há empresas que aplicam IA tanto em processos administrativos, como geração de atas automatizadas a modelos preditivos de risco para cadeia de suprimentos e segurança cibernética. Um exemplo prático é o uso de IA para identificar comportamentos anômalos de usuários, como acessos fora do padrão, ajudando a prevenir ataques. O desafio é manter o equilíbrio: usar a IA para ampliar a eficiência sem abrir mão da curadoria ética e da supervisão humana.
Quando o excesso de regras paralisa a inovação
Na União Europeia, o caminho seguido tem sido o oposto. A regulação antecede a inovação, com o AI Act impondo um arcabouço normativo que classifica os usos da IA por nível de risco. A intenção é nobre: proteger direitos fundamentais e garantir segurança jurídica. Porém, na prática, essa antecipação regulatória cria um ambiente de forte aversão ao risco que afeta diretamente a concepção e adoção de soluções com IA.
Antes mesmo da entrada em vigor do AI Act, já se observava cautela, especialmente no campo de GRC. Soluções tecnológicas que utilizam IA, comuns em outros mercados, como assistentes automatizados para interpretação de políticas internas ou apoio em investigações internas, muitas vezes precisam ser ajustadas ou limitadas em suas funcionalidades para atender ao nível de exigência local. Em resposta a esse contexto, empresas que desejam atuar no mercado europeu têm adotado medidas como infraestrutura de dados regionalizada, bem como ajustes técnicos e jurídicos. A confiança no uso da IA requer aderência às normas e comprovação de conformidade. Esse é um processo que exige tempo, preparo técnico e investimento em relacionamento institucional.
A cautela europeia, embora compreensível, impõe um custo elevado à inovação. Um estudo recente da própria Comissão Europeia estimou que o excesso de regulação pode estar gerando um déficit de €500 bi anuais em investimentos privados em inovação. O resultado é uma perda de protagonismo tecnológico: apenas 7% dos unicórnios mundiais têm origem europeia, contra cerca de 50% nos Estados Unidos. Inovar na Europa, sobretudo com o uso de IA, exige preparo, transparência e um compromisso genuíno com os mais altos padrões legais.
Quando o Brasil ainda aprende a perguntar
No Brasil, o debate sobre inteligência artificial avança de forma mais recente e gradual. Assim como no Marco Civil da Internet e na Lei Geral de Proteção de Dados (LGPD), o Brasil tende a esperar para espelhar-se nas diretrizes e normas da União Europeia. Desde 2023, existe em tramitação o Projeto de Lei 2.338 sobre IA, mas ainda com termos e regras genéricas que esperam por aprofundamento, o que mostra que a trajetória regulatória no Brasil costuma vir a posteriori.
Por outro lado, a ausência de uma regulação rígida cria oportunidades para experimentação. Ao invés de buscar controlar tecnologias ainda em estágio de amadurecimento no país, o foco pode (e talvez deva) estar na construção de diretrizes baseadas em ética, transparência e uso consciente. Já há exemplos de empresas brasileiras que vêm criando comitês de IA e critérios próprios para seu uso corporativo.
Tangencialmente ao lado da regulação, a limitação da infraestrutura digital e energética, que é um fator relevante nesse ambiente, torna-se um risco. Atualmente, o Brasil depende de servidores externos para processar modelos de IA generativa, fazendo com que requisições percorram redes internacionais para serem processadas. Essa dependência estrutural traz desafios à soberania, segurança e privacidade.
Nesse ambiente, o papel do GRC se torna ainda mais estratégico: mais do que garantir aderência a normas inexistentes ou indefinidas, cabe ao GRC provocar discussões internas, mapear riscos emergentes e propor estruturas éticas que guiem o uso da IA com responsabilidade e visão de futuro. Afinal, quando o terreno ainda está sendo desbravado, ter clareza sobre os princípios é tão importante quanto conhecer o destino.
Caminhos possíveis entre a regulação e a inovação
As experiências mostram que não há um modelo único ou definitivo para lidar com o uso de IA. Regulações distintas geram respostas legítimas aos seus contextos. O excesso de regras pode sufocar o dinamismo necessário à inovação. A ausência delas, por outro lado, amplia incertezas e dificulta a construção de padrões consistentes de governança e responsabilidade.
Independentemente do grau de maturidade digital ou do ambiente jurídico de cada país, a IA desafia as organizações a tomarem decisões agora. Mesmo em meio a lacunas legais, o uso da IA já é uma realidade. Por isso, a ausência de posicionamento estratégico, seja ele normativo, técnico ou ético, já representa um risco para o negócio.
Cabe ao GRC ocupar esse espaço com protagonismo. Não como um freio à inovação, mas como uma instância que articula princípios, políticas, critérios de supervisão e diretrizes éticas em torno do uso da IA. Isso vale para qualquer setor, porte ou jurisdição. Inovar com responsabilidade vem antes da regulação. Regular com inteligência exige reconhecer o dinamismo da tecnologia. Entre o medo de errar e a pressa de avançar, o GRC não é obstáculo: é bússola para quem quer inovar com consciência.
Se este conteúdo te provocou de alguma forma, compartilhe com quem precisa ler. Para acompanhar mais reflexões como essa, me siga no Instagram: @deniscaldeira.growth.
Visite: www.caldeiragrowth.com