Pesquisar

GOVERNANÇA DE TI NA MITIGAÇÃO DE VIESES ALGORÍTMICOS: PRÁTICAS ÉTICAS PARA GARANTIR A TRANSPARÊNCIA E A EQUIDADE NO TRATAMENTO DE DADOS PESSOAIS PELA INTELIGÊNCIA ARTIFICIAL

Resumo: A Governança de TI possui papel central na mitigação de vieses algorítmicos na IA, ao im­plementar processos e práticas que sejam éticos, auditáveis e transparentes. Contudo, o grande desafio é equilibrar a inovação tecnológica com a proteção de dados e os direitos dos titulares. Quando implementadas de forma eficaz, essas práticas reforçam a conformidade legal e ética, promovendo equidade e responsabilidade social, sem prejudicar a competitividade das empresas.

Palavras-chave: Governança de TI; Inteligência Ar­tificial; Vieses algorítmicos.

O uso crescente de algoritmos no tratamento de dados pessoais pela inteligência artificial (IA) tem sido tema central nos debates sobre ética e implicações sociais ao redor do mundo. Embora ofereçam eficiência significativa, esses algoritmos frequentemente reproduzem preconceitos so­ciais incorporados nos dados de treinamento (i.e., informações usadas para seu desenvolvimento), o que resulta em uma discriminação sistêmica. Em decisões automatizadas para concessão de cré­dito, por exemplo, a IA pode favorecer grupos já privilegiados, reforçando desigualdades preexis­tentes.

É nesse contexto que a governança de tecnologia da informação (TI) assume um papel fundamen­tal para mitigar esses vieses. Através da adoção de práticas éticas e mecanismos robustos de supervi­são das operações de IA, é possível promover um uso mais transparente, equitativo e responsável de algoritmos, minimizando riscos e protegendo os direitos dos indivíduos assegurados pelas legis­lações de diversas jurisdições e favorecendo deci­sões automatizadas mais justas.

O que são vieses algorítmicos e quais são as impli­cações éticas relacionadas?

Vieses algorítmicos são distorções nos resultados de sistemas de IA devido a preconceitos presen­tes nos dados utilizados para treiná-los. Em outras palavras, se os dados históricos usados para trei­nar um sistema de IA forem tendenciosos sobre determinado grupo racial ou socioeconômico, o algoritmo é capaz de reproduzir esse viés.

Um clássico exemplo ocorre em processos de recrutamento: quando um algoritmo é treinado com dados que favorecem candidatos de um de­ terminado perfil, pode desconsiderar talentos de grupos subrepresentados, perpetuando a discri­minação. A esse respeito, destaca-se um estudo realizado em 2022 utilizando o ChatGPT 3.5, que revelou que nomes associados a candidatos ne­gros tinham menor probabilidade de serem sele­cionados em comparação a nomes de candidatos brancos ou asiáticos, reforçando desigualdades no mercado de trabalho.

Nesse sentido, é fundamental que as empresas busquem não só uma coleta de dados mais am­pla, com representatividade nos conjuntos de da­dos, mas também implementem uma sólida go­vernança de TI para combater o viés algorítmico, como será analisado a seguir.

A Governança de TI no combate aos vieses algorít­micos e as dificuldades para sua implementação

A mitigação de vieses algorítmicos pode ser reali­zada por meio da implementação de uma sólida governança de TI, que se trata da adoção de um conjunto de processos, políticas e práticas para gerenciamento de riscos, garantindo o uso ético dos dados e aprimorando o desempenho e a se­gurança das operações tecnológicas.

Essa implementação pode se dar pela criação de comitês de ética dedicados à IA, supervisão hu­mana e monitoria contínua dos dados de treina­mento, principalmente por meio de auditorias, bem como pela contratação de desenvolvedores de dados de diferentes origens para promoção da diversidade.

Por outro lado, a tarefa para que sistemas de IA sejam explicáveis e auditáveis não é fácil, pois en­volve diversos desafios técnicos e operacionais. Primeiro pela própria complexidade dos modelos de IA, especialmente os baseados em aprendiza­do profundo (deep learning). Em segundo lugar, porque a documentação completa e acessível do desenvolvimento de algoritmos requer conheci­ mento técnico específico, sendo que muitas em­presas carecem de especialistas internos com a expertise necessária e até mesmo de verba e tem­po suficientes para a contratação de especialistas externos.

Nesse mesmo sentido, a transparência na divul­gação de informações a stakeholders impactados pode ser mais complexa quando o uso de dados pessoais é realizado por empresas que possuem segredos comerciais. A Lei Geral de Proteção de Dados brasileira (LGPD), assim como o General Data Protection Regulation (GDPR) da União Euro­peia, por exemplo, estabelecem que o tratamento de dados deve ser realizado de forma transparen­te, a fim de que os titulares dos dados tenham pleno conhecimento de como suas informações estão sendo utilizadas. O cumprimento de tais de­terminações legais, nesse contexto, poderia com­prometer a proteção de tais segredos comerciais.

Adicionalmente, a preocupação com o uso de IA tem sido alvo de preocupação em diversos paí­ses: na União Europeia, entrou em vigor este ano o AI Act, cujo objetivo principal é estabelecer um arcabouço jurídico para o desenvolvimento, colo­cação no mercado, entrada em serviço e utiliza­ção dos sistemas de IA. O AI Act busca garantir, de forma simultânea, a proteção dos direitos funda­mentais e apoio à inovação, estabelece requisitos mais ou menos rigorosos de compliance a depen­der do nível e risco relacionado ao uso de IA, além de prever que os desenvolvedores deverão utilizar dados representativos e realizar auditorias regula­res para a garantia de transparência.

No mesmo sentido, encontra-se em discussão no Congresso dos EUA o projeto de lei Algorith­mic Accountability Act, que propõe que empre­ sas que utilizam IA em setores de alto risco sejam obrigadas a realizar auditorias regularmente. No Brasil também está em trâmite o Projeto de Lei nº 2.338/2023, com foco na segurança, transparência e proteção dos direitos fundamentais durante o uso e desenvolvimento do IA.

Nota-se, dessa forma, que, em que pese a existên­cia de desafios consideráveis para a implemen­tação de uma governança de TI, essa medida é imprescindível para a segurança na utilização dos algoritmos e, sobretudo, para que haja um equilí­brio entre inovação, responsabilidade ética e con­formidade com leis atuais e futuras sobre o tema.

Conclusão

O uso de algoritmos no tratamento de dados pessoais tem sido cada vez mais crescente, tendo gerado inúmeros debates sobre ética e implica­ções sociais ao reproduzirem preconceitos sociais incorporados nos dados de treinamento.

Nesse cenário, a implementação de uma gover­nança robusta de TI é necessária não apenas para promover um desenvolvimento sustentável e in­clusivo, como também para proteger os direitos dos indivíduos.

Ainda que haja desafios consideráveis, medidas como auditorias, diversidade nas equipes e cria­ção de comitês de ética, asseguram que as de­cisões automatizadas serão justas e estarão em conformidade com a LGPD, o GDPR, o AI Act e fu­turos regulamentos sobre IA do Brasil e dos Esta­dos Unidos, sem comprometer a competitividade empresarial.

Artigo originalmente publicado na revista Fronteiras Digitais – Perspectivas Multidisciplinares em Cibersegurança, Privacidade e Inteligência Artificial, edição de 2025, uma realização da Câmara de Comércio Brasil-Canadá (CCBC) e da Associação Nacional dos Profissionais de Privacidade de Dados (APDADOS), p. 44.

Camila Lisboa Martinscmartins@gtlawyers.com.br

Jessica Ferreirajferreira@gtlawyers.com.br