RAPPORT DE PERSPECTIVES DE PROJET
Une perspective d’équité en matière d’intelligence artificielle
An Equity Lens on Artificial Intelligence (en anglais seulement)
Sommaire
L’intelligence artificielle (IA) change notre façon de travailler. Elle a des répercussions importantes sur l’écosystème du développement des compétences. Alors que l’IA devient de plus en plus présente dans nos vies, des questions se posent quant à son incidence sur l’équité et l’égalité.
D’une part, étant donné que l’IA imite, dans une certaine mesure, le fonctionnement du cerveau humain, il existe un risque qu’elle ne fasse que renforcer les discriminations, les inégalités et les préjugés sous-jacents en reproduisant les biais humains existants.
D’autre part, vu que l’IA utilise des méthodes de prédiction statistique vérifiables, elle a le potentiel de réduire les préjugés humains, ce qui profite aux groupes marginalisés.
Toutefois, les recherches menées dans le cadre de ce projet financé par le Centre des compétences futures indiquent des moyens d’atténuer ces risques et de veiller à ce que le rôle de l’IA dans les processus décisionnels réduise les inégalités, notamment en (1) se concentrant sur les initiatives en faveur d’une représentation équitable dans le développement de l’IA; (2) en privilégiant l’alignement de l’IA sur des valeurs sociales telles que l’équité; (3) en créant des politiques sur l’IA qui accordent la priorité à la responsabilité et la transparence; et (4) en veillant à ce que les programmes de recyclage ou de perfectionnement des compétences prennent en compte les effets de l’IA sur la répartition des revenus.
Perspectives clés
L’IA peut contribuer à lutter contre les inégalités et les injustices lorsque les décisions humaines peuvent être influencées par des préjugés inhérents.
Le développement et le déploiement de l’IA dans les écosystèmes de développement des compétences doivent se faire en tenant compte de l’équité, faute de quoi les inégalités existantes risquent d’être exacerbées.
Des politiques d’amélioration et de recyclage des compétences sont nécessaires pour soutenir les employés marginalisés touchés de manière disproportionnée par la perte de leur emploi et l’évolution des exigences en matière de compétences à la suite de l’adoption de l’IA.
L’enjeu
L’IA est déjà omniprésente dans notre société et devrait transformer de nombreux aspects du travail et du développement des compétences.
Elle recèle de nombreux avantages. Idéalement, l’IA élimine les répercussions possibles de l’erreur humaine en faisant des prédictions précises et en aidant les humains à prendre des décisions. Par exemple, dans les milieux de travail, l’IA peut réduire les préjugés lors de l’embauche; dans le domaine de la santé, elle peut aider à diagnostiquer des maladies comme la démence et à trouver des traitements; dans les institutions financières, elle peut prédire la probabilité que des personnes soient en défaut de paiement hypothécaire; et au sein des gouvernements, elle peut évaluer les cas de réfugiés afin d’obtenir des résultats plus justes pour les demandeurs.
Toutefois, la technologie et les systèmes d’IA ne sont pas neutres ou objectifs, car ils s’inscrivent dans un contexte social et historique qui peut marginaliser certains groupes, dont les femmes, les communautés racisées et les communautés à faible revenu. Cette marginalisation peut se produire par des biais ou des lacunes dans les données utilisées pour former des algorithmes, ainsi que par la mise en œuvre de produits et de services alimentés par l’IA qui renforcent des stéréotypes, la marginalisation et des relations de pouvoir mondiales.
Des stratégies visant à contenir ou à atténuer les effets négatifs de l’IA sont nécessaires et urgentes pour garantir que les sociétés seront en mesure de bénéficier des avantages de l’évolution technologique.

Ce que nous examinons
Dans ce rapport, nous explorons les raisons qui expliquent les répercussions de l’IA sur l’équité et la qualité (le « pourquoi ») et la manière dont l’IA influence ces questions dans la pratique (le « comment »), offrant aux dirigeants, aux décideurs politiques et aux étudiants des observations sur l’utilisation actuelle et ultérieure de l’IA.
Nous étudions notamment la manière dont les valeurs et les préjugés de la société sont eux-mêmes intégrés dans les algorithmes qui alimentent l’IA et examinons les répercussions potentiellement disproportionnées de l’IA sur les femmes et d’autres communautés marginalisées sur le marché du travail.
Par ailleurs, nous examinons la manière dont l’IA peut aider à surmonter les préjugés humains et les étapes nécessaires pour garantir que le déploiement de l’IA conduise à une amélioration de l’équité et de l’égalité.
Ce que nous apprenons
L’IA pourrait réduire les inégalités et les iniquités. L’IA peut améliorer les perspectives des personnes dans tous les secteurs. Idéalement, l’IA éliminera les répercussions possibles de l’erreur humaine en faisant des prédictions précises et en aidant les humains à prendre des décisions.
L’IA pourrait également avoir des répercussions négatives sur les personnes déjà marginalisées. La technologie et les systèmes d’IA ne sont pas neutres ou objectifs et, en tant que tel, il existe de nombreux exemples de la manière dont les systèmes d’IA peuvent reproduire la marginalisation et les préjugés existants. En effet, les données sur lesquelles certaines IA sont construites contiennent de tels biais.
Former l’IA à respecter les valeurs sociales est une tâche complexe. Il sera important d’intégrer la justice et l’équité dans les algorithmes. Cette tâche sera ardue, car il est difficile de savoir comment les algorithmes peuvent être formés pour respecter les normes et les valeurs sociales, dont beaucoup impliquent des structures complexes, telles que la loi ou la culture.
La responsabilité doit être intégrée dans les systèmes d’IA. Nous devons améliorer la transparence sur l’étendue des répercussions de l’IA ainsi que sur les responsabilités en matière de création et d’atténuation des répercussions, par exemple en introduisant plus d’évaluations et de contrôles sur ce que les produits et services reposant sur l’IA signifient pour les personnes, y compris des évaluations sur leur degré d’impartialité.
La formation et le réemploi seront nécessaires pour compenser les pertes d’emploi injustes. Les programmes de formation et de réemploi doivent tenir compte des effets défavorables que l’IA et l’automatisation auront sur l’emploi et la nature du travail. Par exemple, certaines études indiquent que les femmes et les groupes racisés seront probablement plus touchés en raison de leur concentration dans certains emplois et secteurs d’activité.
Pourquoi c’est important
L’IA est omniprésente et utilisée par des organisations dans tous les secteurs de notre société à des fins diverses. Son utilisation s’étend à diverses fins, comme l’adéquation de l’offre et de la demande sur le marché du travail, l’embauche d’employés, la réalisation d’interventions chirurgicales, le tutorat dans diverses matières scolaires, la prise de décisions pour la détermination de peines criminelles, l’automatisation de la conduite automobile et la prévision des lieux où se produiront des crimes.
En effet, il est difficile de trouver aujourd’hui un secteur ou un domaine où l’IA n’intervient pas d’une quelconque façon. Dans le contexte du monde du travail, l’IA est utilisée comme un outil de développement des compétences, mais, comme les technologies précédentes, elle modifie aussi considérablement le paysage des compétences et de l’emploi.
Une considération importante à cet égard concerne les répercussions de l’IA sur l’équité et l’égalité. Les relations sociales et les valeurs se reflètent et se reproduisent dans la technologie, et l’IA ne fait pas exception. En d’autres termes, les préjugés, la discrimination et les inégalités qui sont profondément ancrés dans la société peuvent également être profondément ancrés dans cette technologie.

État des compétences :
L’IA au service de l’écosystème du développement des compétences
Pour profiter des avantages que l’IA a à offrir, son adoption et son déploiement devraient être un processus collaboratif et inclusif qui reconnaisse et réponde aux préoccupations réelles des individus concernant l’IA et la technologie de manière plus générale.
Toutefois, l’IA promet également d’améliorer les conditions sociales en s’attaquant aux biais inhérents aux décisions humaines. Pour y parvenir, le déploiement et l’adoption de l’IA doivent se faire dans un esprit d’équité.
An Equity Lens on Artificial Intelligence (en anglais seulement)
Perspectives du CCF
Plus de CCF
Programme ELITE destiné aux jeunes Noirs
Reboot Plus Expansion
Une révolution est en marche dans les métiers spécialisés.
Des questions sur notre travail ? Souhaitez-vous avoir accès à un rapport en anglais ou en français ? Veuillez contacter communications@fsc-ccf.ca.
Comment Citer Ce Rapport
Young, S. et McDonough, L. (2024). Rapport sur les leçons du projet : Une perspective d’équité en matière d’intelligence artificielle, Université de Toronto. Toronto : Centre des compétences futures. https://fsc-ccf.ca/fr/recherche/equity-lens-on-ai/
Une perspective d’équité en matière d’intelligence artificielle est financé par le gouvernement du Canada dans le cadre du programme Compétences futures. Les opinions et les interprétations contenues dans cette publication sont celles de l’auteur et ne reflètent pas forcément celles du gouvernement du Canada.