A proposição aprovada pelos senadores adota uma posição alinhada à legislação europeia, o EU Artificial Intelligence Act, em vigor desde junho de 2024, colocando a pessoa humana como foco da regulamentação, buscando a preservação dos direitos dos humanos frente aos avanços tecnológicos, algo que remete a conceitos similares aos da Lei Geral de Proteção de Dados (LGPD). Tal abordagem visa assegurar que as empresas que operam no Brasil, especialmente as que lidam com IA, priorizem os direitos dos cidadãos, protegendo-os de abusos que possam surgir do uso inadequado ou descontrolado de tecnologias emergentes, requerendo, portanto, processos maduros de governança interna nessas companhias. O Brasil ainda avança ao proteger também os direitos autorais de obras eventualmente utilizadas para treinamento das plataformas de IA, algo que não encontra paralelo na legislação europeia.
A regulação da IA no Brasil, ao garantir que o uso dessas tecnologias seja realizado de forma ética, também propõe a implementação de estruturas robustas de governança e compliance dentro das empresas. Em um cenário no qual as grandes corporações dominam o mercado de IA e outros avanços tecnológicos, a lei pretende equilibrar o poder entre as empresas de tecnologia e a necessidade de proteção de direitos fundamentais. Nesse sentido, a legislação exige uma grande maturidade das empresas que se propõem a atuar nesse contexto como fornecedoras, como usuárias, recaindo sobre elas a responsabilidade de analisar os possíveis impactos de cada ferramenta, adotando as medidas mitigantes correspondentes, o que pode se tornar um grande desafio para as corporações, que precisarão ter um conhecimento profundo de suas operações, clientes e parceiros, e adaptar suas políticas internas e garantir que estão em conformidade com as normas estabelecidas.
No aspecto ético, a questão da IA é uma das mais discutidas no contexto brasileiro, o que ganha relevância frente ao impacto do novo governo dos Estados Unidos sob a liderança de Donald Trump. Lá, o presidente tem se alinhado com as grandes empresas de tecnologia (as Big Techs) e propõe um discurso que prioriza a desregulamentação da IA e da tecnologia em geral. O impacto de uma postura como essa é considerável, pois, ao incentivar um modelo de desregulamentação, Trump pode minar os esforços globais em busca de uma abordagem mais equilibrada e controlada no uso de IA. Esse movimento poderá gerar tensões nos mercados internacionais, com implicações diretas sobre os países em desenvolvimento, como o Brasil, que têm se empenhado em estabelecer uma regulação mais rígida, mas que pode ser confrontada com interesses econômicos mais liberais.
Para as empresas brasileiras, a adoção de uma regulamentação rigorosa, como a proposta, traz desafios e oportunidades. Se, por um lado, as obrigações de compliance podem resultar em custos adicionais e exigências administrativas, por outro, a regulação pode criar um ambiente de maior confiança para consumidores e investidores. A responsabilidade de as empresas olharem para si e adotarem políticas e medidas de governança adequadas aos riscos de suas operações não deve ser algo estranho à empresa brasileira, tendo em vista já ter sido adotado em legislações mais recentes, como por exemplo a LGPD e a Lei Anticorrupção (Lei 12.846/13). Nesses exemplos, a adoção de práticas mais sustentáveis de governança interna trouxe uma bem-vinda maturidade às organizações, sendo muito bem recebidas de forma bastante positiva por clientes e parceiros de negócio, em um ambiente de negócios cada vez mais sofisticado.