Omniprésents, les algorithmes et l’intelligence artificielle sont déployés à vitesse « grand V » dans notre quotidien. Des réseaux sociaux, à l’accord de prêts, en passant par la surveillance de la population, l’IA pose de nombreuses questions d’éthique. Plongeons dans ses biais, ses conséquences environnementales et les espoirs qu’elle peut nourrir.

Les biais de l’intelligence artificielle

Machine learning et biais

L’intelligence artificielle est souvent critiquée – à juste titre – d’être une technologie biaisée. Le développement d’une IA peut se faire par diverses méthodes, notamment le machine learning. Pour répondre à une mission donnée (reconnaissance faciale, diffusion personnalisée d’informations…), la machine digère une quantité colossale de données, les classifie et émet une réponse grâce à un algorithme.

Vous vous en doutez, il y a un problème. Les données sont le résultat des traces numériques que nous laissons au quotidien. Or, les données sont représentatives de nos sociétés, transportant avec elles les inégalités et discriminations liées à notre Histoire.

Exemples concrets d’applications d’IA biaisée

Plusieurs aperçus des conséquences de ces IA biaisées ont été observés. Joy Buolamwini, chercheuse en intelligence artificielle, en a fait l’amère expérience sur son projet Aspire Mirror.

Le miroir est combiné à de la reconnaissance faciale censé détecter le visage en face du miroir et lui exposer un visage d’une célébrité inspirante. Après plusieurs essais avec les technologies de reconnaissance d’Amazon, Google, IBM et Face++, la détection pour Joy, femme noire, ne fonctionnait pas. Ce n’est qu’avec un masque blanc mis sur son visage que la détection a fonctionné.

Après des recherches, Joy a appris que l’apprentissage de ces technologies s’est majoritairement fait à partir de photos d’hommes blancs. Les données apportées à l’IA étaient donc source de discrimination et d’exclusion.

IA et démocratie : une société en danger ?

Les conséquences sociales de l’intelligence artificielle peuvent aller encore plus loin, comme c’est le cas en Angleterre. Le gouvernement anglais avait mis en test une technologie de reconnaissance faciale dans les rues reliée à une base de données de criminels recherchés. La technologie était alors censée détecter des criminels dans les lieux publics. Dans les faits, l’association Big Brother Watch a déclaré dans un rapport que 98% de la reconnaissance faciale menée dans les lieux publics par le gouvernement britannique associait un visage d’un inconnu à un visage d’une personne recherchée par les autorités (source).

À l’autre bout du globe, en Chine, la reconnaissance faciale est installée sur l’ensemble des caméras du pays. Le système est utilisé pour identifier chaque citoyen. Sans identification, de nombreux services vous sont interdits comme l’accès à certains lieux ou aux transports en commun. La technologie a d’ailleurs été utilisé lors des manifestations d’Hong Kong, pour traquer les protestants et les sanctionner.

Si la reconnaissance faciale est déployée sur le réseau CCTV en Angleterre, de la même manière que le système Chinois, une surveillance de masse irait à l’encontre des libertés individuelles.

IA, pouvoir et gouvernance

L’éthique de l’intelligence artificielle se joue aussi à travers ceux qui possèdent le code et vers qui ils le déploient. Le pouvoir de l’IA se tient souvent entre les mains de géants du numérique qui ont une volonté business accrue. L’intelligence artificielle que nous connaissons au quotidien a bien souvent un objectif commercial comme faire des diminutions de dépense par des prédictions ou via le commerce direct de la technologie. Cathy O’Neill, autrice de Weapons of math destruction (traduit en Algorithmes : la bombe à retardement), le résume ainsi : « il s’agit de personnes puissantes notant des personnes impuissantes ». Malheureusement, à l’heure actuelle, nombreuses sont les technologies punitives s’adressant premièrement aux populations pauvres ou aux minorités.

Avec un déploiement rapide, et sans gardes-fous, l’intelligence artificielle peut dériver vers un futur néfaste, nourrie de biais et s’attaquant aux branches les plus fragiles de nos sociétés. Pour le moment, peu d’autorités publiques se sont emparées du problème. La Commission Européenne n’a seulement émis qu’une liste de 6 recommandations opérationnelles. Pour l’heure, les technologies d’intelligence artificielle, extrêmement influentes, s’introduisent dans notre quotidien sans régulation et portées par des organismes privés.

Quel impact environnemental pour l'intelligence artificielle ?

Au-delà de son impact social et sociétal fort, le déploiement de l’intelligence artificielle a des conséquences sur l’environnement. Comme évoqué, le cœur de son fonctionnement réside dans la création, la collecte, le stockage et le traitement d’une quantité astronomique de données. Nous entrons depuis peu dans l’ère du Big Data, où la quantité de données produites au niveau mondiale atteint des records. En 2019, 33 zettaoctets de données numériques ont été créées. Même si ce chiffre parle peu, il est le témoin d’une explosion des données.

Celles-ci nécessitent de les stocker dans des datacenters, très consommateurs en eau et en électricité. Malgré une plus grande efficacité énergétique développée depuis quelques années, les datacenters restent à l’origine d’une partie de la pollution numérique. Selon la méthode de production de l’électricité, celle-ci peut être très émettrice de gaz à effet de serre. C’est notamment le cas du charbon. Quant à l’eau, c’est le refroidissement des serveurs qui en est très demandeur.

Surconsommation d’appareils et puissance de calcul

Après le stockage, le traitement des données et l’exécution des algorithmes mobilisent une puissance de calcul plus que conséquente. Seuls des infrastructures adaptées et assez robustes, peuvent s’y confronter. Pour rappel, la fabrication de tous nos appareils électroniques représente les ¾ de la pollution numérique. Avec l’expansion de l’intelligence artificielle, de plus en plus de super-ordinateurs doivent alors être fabriqués pour exécuter les programmes. Cette surconsommation a de nombreux impacts : épuisement des ressources telles que l’eau, des métaux précieux ou des terres rares, émission de gaz à effet de serre liés aux nombreuses étapes de transport, destruction des sols dû aux substances toxiques… Des conséquences bien visibles dans les pays de l’Asie du Sud ou de l’Afrique Centrale, qui met aussi à mal la vie des populations locales.

La participation de l’IA à un monde meilleur

Après l’énumération de tous les penchants néfastes de l’intelligence artificielle, celle-ci peut-elle participer à un monde meilleur ? Certaines de ses applications peuvent être bénéfiques, notamment sur l’aspect social.

Dans le secteur de la santé, c’est Google qui a fait parler de lui l’année dernière en développant une intelligence artificielle capable de détecter les cancers du poumon aussi bien, voire mieux, que des médecins spécialistes. Cette solution high-tech peut s’associer à son homologue low-tech : des chiens beagles capables de sentir l’odeur dégagée par une tumeur.

Côté accessibilité numérique, l’intelligence artificielle a des cartes à jouer. Le numérique reste en majorité un terrain miné pour les personnes en situation de handicap. Un des intérêts de l’intelligence artificielle est la réduction d’erreurs. Ainsi, la génération automatique de sous-titres peut tendre à s’améliorer. Cette application peut faciliter le suivi de vidéos pour les personnes en situation de handicap visuel. Un exemple similaire peut être la meilleure reconnaissance et retranscription sur ordinateurs de textes pris en photo.

Les 6 recommandations opérationnelles de la CNIL pour un développement éthique de l’IA

Les possibilités sont grandes, mais n’oublions pas que ces technologies doivent être régulées. Nous attendons encore un engagement fort au niveau européen sur ces sujets. Pour le moment, la CNIL a publié 6 recommandations opérationnelles pour garantir un développement plus éthique de ces technologies :

  • Former à l’éthique tous les acteurs-maillons de la « chaîne algorithmique » (concepteurs, professionnels, citoyens) : l’alphabétisation au numérique doit permettre à chaque humain de comprendre les ressorts de la machine ;
  • Rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs ;
  • Travailler le design des systèmes algorithmiques au service de la liberté humaine, pour contrer l’effet « boîtes noires » ;
  • Constituer une plateforme nationale d’audit des algorithmes;
  • Encourager la recherche sur l’IA éthique et lancer une grande cause nationale participative autour d’un projet de recherche d’intérêt général ;
  • Renforcer la fonction éthique au sein des entreprises (par exemple, l’élaboration de comités d’éthique, la diffusion de bonnes pratiques sectorielles ou la révision de chartes de déontologie peuvent être envisagées).

En conclusion...

Pour conclure, ce n’est pas la technologie qui est foncièrement biaisée, mais bel et bien les données utilisées dans le cadre du machine learning qui perpétuent des discriminations. Les exemples d’applications mettant à mal nos démocraties, comme cela peut être le cas en Chine, doivent nous rappeler de l’importance de réguler ces nouvelles technologies. Celles-ci ne peuvent être au service d’un capitalisme aveuglé ou d’une surveillance de masse. Leurs impacts environnementaux, encore que trop peu évoqués, doivent être pris en compte dès leur conception. Là aussi, la régulation est au cœur d’une intelligence artificielle plus raisonnée, durable et éthique.

A propos de l'auteur

Alizée Colin

Fondatrice & rédactrice

UX/UI designeuse, j’aspire à recentrer le web et ses outils dans un objectif de bien commun, tant bien environnemental que social. Nous sommes dans une ère où nous nous devons de réinventer notre manière de concevoir et de communiquer. Le numérique responsable en fait partie. Changeons les choses.

Voir tous les articles