Résumé : La gouvernance des technologies de l’information (TI0 joue un rôle central dans la réduction des biais algorithmiques en intelligence artificielle, en mettant en œuvre des processus et des pratiques éthiques, auditables et transparents. Toutefois, le principal défi consiste à équilibrer l’innovation technologique avec la protection des données et les droits des personnes concernées. Lorsqu’elles sont mises en œuvre de manière efficace, ces pratiques renforcent la conformité juridique et éthique, favorisent l’équité et la responsabilité sociale, sans compromettre la compétitivité des entreprises.
Mots-clés : Gouvernance des technologies de l’Information, Intelligence Artificielle, Biais Algorithmiques.
L’utilisation croissante des algorithmes dans le traitement des données personnelles par l’intelligence artificielle (IA) est au cœur des débats mondiaux sur l’éthique et les implications sociales. Bien qu’ils offrent une efficacité significative, ces algorithmes reproduisent fréquemment les préjugés sociaux intégrés dans les données d’entraînement (c’est-à-dire les infractions utilisées pour leur développement), ce qui entraîne une discrimination systémique. Dans le cadre de décisions automatisées pour l’octroi de crédits, par exemple, l’IA peut favoriser des groupes déjà privilégiés, renforçant ainsi les inégalités préexistantes.
C’est dans ce contexte que la gouvernance des technologies de l’informatique (TI) joue un rôle fondamental pour atténuer ces biais. Grâce à l’adoption de pratiques éthiques et de mécanismes robustes de supervision des opérations d’IA, il est possible de promouvoir une utilisation plus transparente, équitable et responsable des algorithmes, tout en minimisant les risques et en protégeant les droits des individus garantis par les législations de diverses juridictions, et en favorisant des décisions automatisées plus justes.
Qu’est-ce que les biais algorithmiques et quelles sont les implications éthiques associées ?
Les biais algorithmiques sont des distorsions dans les résultats des systèmes d’IA dues aux préjugés présents dans les données utilisées pour leur entraînement. En d’autres termes, lorsque les données historiques servant à entraîner un système d’IA sont biaisés à l’égard d’un certain groupe racial ou socio-économique particulier, l’algorithme est susceptible de reproduire et d’amplifier ce biais.
Un exemple classique se trouve dans le processus de recrutement : lorsqu’un algorithme est entraîné à partir des données favorisant des candidats correspondant à un certain profil, il peut écarter des talents issus de groupes sous-représentés, perpétuant ainsi la discrimination. Á cet égard, une étude menée en 2022 sur le ChatGPT 3.5 a révélé que les noms associés à des candidats noirs avaient moins de chances d’être sélectionnés comparativement aux noms de candidats blancs ou asiatiques, renforçant les inégalités sur le marché du travail.
Dans ce contexte, il est essentiel que les entreprises ne se contentent pas de collecter des données plus larges et représentatives, mais qu’elles mettent également en place une gouvernance solide des TI afin de lutter contre les biais algorithmiques, comme cela sera analysé ci-après.
La gouvernance des TI dans la lutte contre les biais algorithmiques et les difficultés liées à sa mise en œuvre.
La réduction des biais algorithmiques peut-être réalisée grâce à la mise en place d’une gouvernance solide des technologies de l’information (TI), laquelle implique l’adoption d’un ensemble de processus, de politique, de procédures et de pratiques de gestion des risques, garantissant l’utilisation éthique des données et améliorant la performance et la sécurité des opérations technologiques.
Cette mise en œuvre peut passer par la création de comités d’éthiques dédiés à l’IA, la supervision humaine et le suivi continu des données d’entraînement, notamment par le moyen d’audits réguliers, ainsi que par le recrutement de professionnels des données issus de divers horizons afin de promouvoir la diversité.
Cependant, rendre les systèmes d’IA explicables et auditables constitue une tâche complexe, en raison de nombreux défis techniques et opérationnels. En premier lieu, cette complexité résulte de la même nature même des modèles d’IA, en particulier ceux basés sur l’apprentissage profond (deep learning). En second lieu, l’élaboration d’une documentation complète et accessible du développement des algorithmes nécessite des compétences techniques spécifiques, souvent absentes au sein des entreprises, ainsi que des ressources financières et temporelles suffisantes pour recruter des experts externes.
Dans le même ordre d’idées, la transparence dans la communication d’informations aux parties prenantes peut-être plus complexe lorsque l’utilisation de données personnelles est effectuée par des entreprises détentrices de secrets commerciaux. La loi Générale brésilienne sur la Protection des Données (LGPD), tout comme le Règlement Général sur la Protection des Données (RGPD) de l’Union Européenne, par exemple, impose que le traitement des données soit réalisé de manière transparente, afin que les personnes concernées soient pleinement informées de l’usage de leurs informations. Le respect de telles obligations légales pourrait, dans ce contexte, compromettre la protection de ces secrets commerciaux.
Par ailleurs, l’utilisation de l’IA suscite des préoccupations dans plusieurs pays. Dans l’Union européenne, l’AI Act est entré en vigueur cette année, avec pour objectif principal d’établir un cadre juridique pour le développement, la mise sur le marché, la mise en service et l’utilisation des systèmes d’IA. L’AI Act vise à garantir simultanément la protection des droits fondamentaux et le soutien à l’innovation, en instaurant des exigences de conformité plus ou moins strictes selon le niveau et le risque lié à l’usage de l’IA, et en prévoyant notamment l’utilisation de données représentatives ainsi que la réalisation d’audits réguliers afin d’assurer la transparence.
De même, l’Algorithmic Accountability Act fait actuellement l’objet de débats au Congrès des États-Unis et prévoit que les entreprises utilisant l’IA dans des secteurs à haut risque soient tenues de réaliser des audits réguliers. Au Brésil, le Projet de loi n° 2.338/2023 est également en cours d’examen, mettant l’accent sur la sécurité, la transparence et la protection des droits fondamentaux lors de l’utilisation et du développement de l’IA.
Il convient de souligner que, malgré les défis considérables liés à la mise en œuvre d’une gouvernance des Technologies de l’Information, cette mesure est essentielle indispensable pour garantir une utilisation sécurisée des algorithmes et, surtout, pour établir un équilibre entre innovation, responsabilité éthique et conformité aux législations actuelles et futures en la matière.
Conclusion
L’utilisation des algorithmes dans le traitement des données personnelles connaît une croissance constante, suscitant de nombreux débats sur les questions éthiques et les implications sociales, dans la mesure où ces algorithmes reproduisent les biais sociaux présents dans les données d’entraînement.
Dans ce contexte, la mise en place d’une gouvernance robuste des Technologies de l’Information est nécessaire non seulement pour promouvoir un développement durable et inclusif, mais également pour protéger les droits des individus.
Malgré l’existence de défis considérables, des mesures telles que les audits, la promotion de la diversité au sein des équipes et la création de comités d’éthique permettent de garantir que les décisions automatisées seront justes et conformes à la LGPD, au RGPD, à l’AI Act ainsi qu’aux futures réglementations sur l’IA au Brésil et aux États-Unis, sans compromettre la compétitivité des entreprises.
Article initialement publié dans la revue Fronteiras Digitais – Perspectives Multidisciplinaires en Cybersécurité, Vie Privée et Intelligence Artificielle, édition 2025, une réalisation de la Chambre de Commerce Brésil-Canada (CCBC) et de l’Association Nationale des Professionnels de la Protection des Données (APDADOS), p. 44.
Camila Lisboa Martins – cmartins@gtlawyers.com.br
Jessica Ferreira – jferreira@gtlawyers.com.br






