A inteligência artificial (IA) já é parte integrante de setores cruciais como saúde, transporte, finanças e serviços. Diante de seu potencial transformador — mas também dos riscos associados ao seu uso indiscriminado — o Brasil vem avançando com uma proposta de regulamentação robusta: o Projeto de Lei nº 2338/2023, atualmente em tramitação na Câmara dos Deputados.

O objetivo central do PL é estabelecer regras claras e princípios fundamentais para o desenvolvimento e uso da IA no país. A proposta é guiada por valores como a dignidade humana, a privacidade, a igualdade e a transparência, promovendo uma inovação responsável e ética. Além disso, busca garantir direitos essenciais aos usuários, como a explicabilidade das decisões automatizadas, a possibilidade de contestação e a supervisão humana contínua em processos sensíveis.
Um dos pontos mais relevantes do projeto é a classificação dos sistemas de IA conforme o risco envolvido. Essa categorização prevê dois níveis principais. O primeiro é o de risco excessivo, no qual certos usos são simplesmente proibidos — como sistemas que exploram vulnerabilidades de pessoas, manipulem comportamentos subliminarmente ou apliquem práticas de pontuação social injusta (social scoring), especialmente em contextos governamentais. O segundo é o de alto risco, que inclui aplicações com impacto direto em direitos fundamentais, como nas áreas de saúde, justiça, segurança, crédito, emprego, educação, infraestrutura crítica, veículos autônomos e identificação biométrica. Nesses casos, o PL exige medidas rigorosas de governança, como avaliações públicas de impacto algorítmico, testes de segurança e mecanismos de supervisão humana.
Outro eixo essencial da proposta é a governança e a responsabilização dos agentes envolvidos. Todos os sistemas de IA, independentemente do risco, deverão contar com documentação técnica clara, identificação dos responsáveis, explicações compreensíveis sobre suas decisões e estratégias para prevenir discriminações algorítmicas. Nos casos de alto risco, a responsabilidade civil será objetiva — ou seja, as empresas responderão independentemente da comprovação de culpa — e haverá inversão do ônus da prova a favor da vítima.
Quanto às sanções previstas, o projeto estabelece multas de até R$ 50 milhões ou 2% do faturamento do grupo econômico infrator, além de penalidades como advertências, suspensão ou proibição definitiva do uso do sistema.
A proposta também prevê a criação do Sistema Nacional de Regulação e Governança de IA (SIA), coordenado pela Autoridade Nacional de Proteção de Dados (ANPD), que reunirá órgãos reguladores, especialistas e representantes da sociedade civil. Esse sistema será responsável por acompanhar a implementação da lei, revisar periodicamente suas normas e harmonizar sua aplicação entre os diversos setores da economia.
Em julho de 2025, o PL 2338/2023 encontra-se em análise por uma comissão especial da Câmara dos Deputados. O texto já foi aprovado no Senado e segue como prioridade legislativa, com debates públicos em andamento. Sua aprovação definitiva poderá marcar um novo capítulo na regulação da inteligência artificial no Brasil.
Para empresas que desenvolvem ou utilizam tecnologias de IA, esse PL representa um avanço estratégico: oferece maior segurança jurídica, alinha o Brasil ao cenário regulatório internacional (especialmente ao modelo de risco do AI Act europeu) e prepara o terreno para uma transformação digital segura e responsável. Na GT Lawyers, acompanhamos de perto os desdobramentos do PL 2338/2023 e estamos prontos para assessorar sua empresa na adaptação regulatória, na implementação de boas práticas de governança de IA e na mitigação de riscos jurídicos.