A Lei de IA da União Europeia classifica os sistemas em diferentes níveis de risco. Os de “alto risco” são aqueles que podem afetar diretamente direitos fundamentais, acesso a serviços essenciais ou segurança de pessoas e organizações. Entram nessa categoria, por exemplo:
Para esse grupo, a UE prevê exigências mais rígidas de governança, como documentação detalhada, transparência, testes contínuos, monitoramento de desempenho e avaliação de riscos. A aplicação completa dessas obrigações foi empurrada para 2027, em um cronograma faseado, que começa antes com sistemas de risco “inaceitável”.
O adiamento é resultado de pressões de diferentes frentes – em especial de grandes empresas de tecnologia e de setores industriais que operam com modelos avançados de IA. As principais preocupações envolvem:
Big techs argumentam que regras rígidas em prazos curtos podem reduzir a capacidade de inovação na Europa e deslocar investimentos para mercados com regulações mais flexíveis. A resposta da UE foi manter a estrutura da Lei de IA, mas alongar o calendário de aplicação das obrigações mais exigentes.
Para empresas que atuam na Europa ou atendem clientes nesse mercado, o adiamento não significa “pausa nas regras”, e sim um período de preparação mais amplo. Alguns pontos de atenção:
A experiência com outras regulações, como o GDPR, mostra que empresas que antecipam a adequação costumam ter menos atritos com autoridades regulatórias e mais segurança nas relações com clientes e investidores.
Em vez de enxergar o adiamento apenas como alívio de prazo, muitas organizações já tratam o período até 2027 como uma fase de construção de vantagem competitiva. Algumas ações práticas incluem:
Criar uma visão clara de onde a IA está sendo usada hoje: atendimento, análise de risco, recomendação de produtos, detecção de fraude, scoring interno, entre outros. Esse mapeamento ajuda a identificar quais sistemas podem ser enquadrados como de alto risco e onde será preciso reforçar controles.
Definir princípios de uso responsável de IA, critérios mínimos para desenvolvimento e contratação de sistemas e diretrizes de transparência para clientes e colaboradores. Essas políticas tendem a ser cobradas por reguladores, parceiros e até em processos de auditoria.
Organizar documentação técnica e de negócio sobre os modelos: objetivos, dados utilizados, métricas de desempenho, limites de uso, mecanismos de revisão humana e planos de mitigação de riscos. Além disso, criar rotinas de monitoramento contínuo para detectar vieses, quedas de performance e efeitos não esperados.
O adiamento das regras de IA de alto risco até 2027 indica que a União Europeia busca equilibrar proteção de direitos com manutenção da competitividade econômica. Para empresas e big techs, o recado é claro: a inteligência artificial deixa de ser apenas uma questão tecnológica e passa a ocupar um espaço central em temas de regulação, reputação e modelo de negócios.
Quem usar esse período para organizar processos, fortalecer governança e alinhar tecnologia, jurídico, compliance e áreas de negócio tende a chegar em 2027 com menos risco e mais espaço para explorar oportunidades em um mercado cada vez mais atento ao uso responsável de IA.