Resumo: A Governança de TI possui papel central na mitigação de vieses algorítmicos na IA, ao implementar processos e práticas que sejam éticos, auditáveis e transparentes. Contudo, o grande desafio é equilibrar a inovação tecnológica com a proteção de dados e os direitos dos titulares. Quando implementadas de forma eficaz, essas práticas reforçam a conformidade legal e ética, promovendo equidade e responsabilidade social, sem prejudicar a competitividade das empresas.
Palavras-chave: Governança de TI; Inteligência Artificial; Vieses algorítmicos.
O uso crescente de algoritmos no tratamento de dados pessoais pela inteligência artificial (IA) tem sido tema central nos debates sobre ética e implicações sociais ao redor do mundo. Embora ofereçam eficiência significativa, esses algoritmos frequentemente reproduzem preconceitos sociais incorporados nos dados de treinamento (i.e., informações usadas para seu desenvolvimento), o que resulta em uma discriminação sistêmica. Em decisões automatizadas para concessão de crédito, por exemplo, a IA pode favorecer grupos já privilegiados, reforçando desigualdades preexistentes.
É nesse contexto que a governança de tecnologia da informação (TI) assume um papel fundamental para mitigar esses vieses. Através da adoção de práticas éticas e mecanismos robustos de supervisão das operações de IA, é possível promover um uso mais transparente, equitativo e responsável de algoritmos, minimizando riscos e protegendo os direitos dos indivíduos assegurados pelas legislações de diversas jurisdições e favorecendo decisões automatizadas mais justas.
O que são vieses algorítmicos e quais são as implicações éticas relacionadas?
Vieses algorítmicos são distorções nos resultados de sistemas de IA devido a preconceitos presentes nos dados utilizados para treiná-los. Em outras palavras, se os dados históricos usados para treinar um sistema de IA forem tendenciosos sobre determinado grupo racial ou socioeconômico, o algoritmo é capaz de reproduzir esse viés.
Um clássico exemplo ocorre em processos de recrutamento: quando um algoritmo é treinado com dados que favorecem candidatos de um de terminado perfil, pode desconsiderar talentos de grupos subrepresentados, perpetuando a discriminação. A esse respeito, destaca-se um estudo realizado em 2022 utilizando o ChatGPT 3.5, que revelou que nomes associados a candidatos negros tinham menor probabilidade de serem selecionados em comparação a nomes de candidatos brancos ou asiáticos, reforçando desigualdades no mercado de trabalho.
Nesse sentido, é fundamental que as empresas busquem não só uma coleta de dados mais ampla, com representatividade nos conjuntos de dados, mas também implementem uma sólida governança de TI para combater o viés algorítmico, como será analisado a seguir.
A Governança de TI no combate aos vieses algorítmicos e as dificuldades para sua implementação
A mitigação de vieses algorítmicos pode ser realizada por meio da implementação de uma sólida governança de TI, que se trata da adoção de um conjunto de processos, políticas e práticas para gerenciamento de riscos, garantindo o uso ético dos dados e aprimorando o desempenho e a segurança das operações tecnológicas.
Essa implementação pode se dar pela criação de comitês de ética dedicados à IA, supervisão humana e monitoria contínua dos dados de treinamento, principalmente por meio de auditorias, bem como pela contratação de desenvolvedores de dados de diferentes origens para promoção da diversidade.
Por outro lado, a tarefa para que sistemas de IA sejam explicáveis e auditáveis não é fácil, pois envolve diversos desafios técnicos e operacionais. Primeiro pela própria complexidade dos modelos de IA, especialmente os baseados em aprendizado profundo (deep learning). Em segundo lugar, porque a documentação completa e acessível do desenvolvimento de algoritmos requer conheci mento técnico específico, sendo que muitas empresas carecem de especialistas internos com a expertise necessária e até mesmo de verba e tempo suficientes para a contratação de especialistas externos.
Nesse mesmo sentido, a transparência na divulgação de informações a stakeholders impactados pode ser mais complexa quando o uso de dados pessoais é realizado por empresas que possuem segredos comerciais. A Lei Geral de Proteção de Dados brasileira (LGPD), assim como o General Data Protection Regulation (GDPR) da União Europeia, por exemplo, estabelecem que o tratamento de dados deve ser realizado de forma transparente, a fim de que os titulares dos dados tenham pleno conhecimento de como suas informações estão sendo utilizadas. O cumprimento de tais determinações legais, nesse contexto, poderia comprometer a proteção de tais segredos comerciais.
Adicionalmente, a preocupação com o uso de IA tem sido alvo de preocupação em diversos países: na União Europeia, entrou em vigor este ano o AI Act, cujo objetivo principal é estabelecer um arcabouço jurídico para o desenvolvimento, colocação no mercado, entrada em serviço e utilização dos sistemas de IA. O AI Act busca garantir, de forma simultânea, a proteção dos direitos fundamentais e apoio à inovação, estabelece requisitos mais ou menos rigorosos de compliance a depender do nível e risco relacionado ao uso de IA, além de prever que os desenvolvedores deverão utilizar dados representativos e realizar auditorias regulares para a garantia de transparência.
No mesmo sentido, encontra-se em discussão no Congresso dos EUA o projeto de lei Algorithmic Accountability Act, que propõe que empre sas que utilizam IA em setores de alto risco sejam obrigadas a realizar auditorias regularmente. No Brasil também está em trâmite o Projeto de Lei nº 2.338/2023, com foco na segurança, transparência e proteção dos direitos fundamentais durante o uso e desenvolvimento do IA.
Nota-se, dessa forma, que, em que pese a existência de desafios consideráveis para a implementação de uma governança de TI, essa medida é imprescindível para a segurança na utilização dos algoritmos e, sobretudo, para que haja um equilíbrio entre inovação, responsabilidade ética e conformidade com leis atuais e futuras sobre o tema.
Conclusão
O uso de algoritmos no tratamento de dados pessoais tem sido cada vez mais crescente, tendo gerado inúmeros debates sobre ética e implicações sociais ao reproduzirem preconceitos sociais incorporados nos dados de treinamento.
Nesse cenário, a implementação de uma governança robusta de TI é necessária não apenas para promover um desenvolvimento sustentável e inclusivo, como também para proteger os direitos dos indivíduos.
Ainda que haja desafios consideráveis, medidas como auditorias, diversidade nas equipes e criação de comitês de ética, asseguram que as decisões automatizadas serão justas e estarão em conformidade com a LGPD, o GDPR, o AI Act e futuros regulamentos sobre IA do Brasil e dos Estados Unidos, sem comprometer a competitividade empresarial.
Artigo originalmente publicado na revista Fronteiras Digitais – Perspectivas Multidisciplinares em Cibersegurança, Privacidade e Inteligência Artificial, edição de 2025, uma realização da Câmara de Comércio Brasil-Canadá (CCBC) e da Associação Nacional dos Profissionais de Privacidade de Dados (APDADOS), p. 44.
Camila Lisboa Martins – cmartins@gtlawyers.com.br
Jessica Ferreira – jferreira@gtlawyers.com.br






