L'intelligence artificielle doit être rendue moins raciste et sexiste, disent les scientifiques

Les scientifiques ont appelé à des mesures pour rendre les systèmes d’intelligence artificielle tels que ChatGPT moins racistes et sexistes.

Les grands modèles de langage (LLM) qui alimentent les chatbots IA sont formés sur une énorme quantité de données à partir desquelles ils apprennent des modèles et des connexions entre les mots et les expressions.

Cela signifie que le langage utilisé par AI peut refléter des préjugés ou des attitudes discriminatoires dans les exemples qui lui ont été donnés.

Reuters a rapporté en 2018 qu’Amazon avait abandonné le développement d’un système d’IA permettant de lire les CV et d’évaluer les candidats après s’être révélé biaisé à l’égard des femmes.

Et en 2020, le ministère de l’Intérieur a accepté de cesser d’utiliser un algorithme informatique pour aider à trier les demandes de visa après que les militants ont affirmé qu’il contenait « un racisme et des préjugés enracinés ».

Les experts de l’Université de Birmingham demandent désormais que les principes de la sociolinguistique – l’étude des variations et des changements linguistiques – soient pris en compte lors du développement de cette technologie révolutionnaire.

L’auteur principal, le professeur Jack Grieve, a déclaré : « Lorsqu’on y est invité, les IA génératives telles que ChatGPT peuvent être plus susceptibles de produire des représentations négatives sur certaines ethnies et certains genres, mais notre recherche propose des solutions sur la manière dont les LLM peuvent être formés de manière plus fondée sur des principes pour atténuer les préjugés sociaux. .

« Ces types de problèmes peuvent généralement être attribués aux données sur lesquelles le LLM a été formé.

« Si le corpus de formation contient des expressions relativement fréquentes d’idées préjudiciables ou inexactes sur certains groupes sociaux, les LLM reproduiront inévitablement ces préjugés, entraînant un contenu potentiellement raciste ou sexiste. »

Écrivant dans la revue Frontiers in AI, le professeur Grieve et ses collègues ont soutenu qu’il fallait se concentrer davantage sur l’utilisation d’exemples de langage plus diversifiés, plutôt que sur la seule quantité de données utilisées.

Le professeur Grieve a ajouté : « Nous proposons qu’il soit bien plus important d’augmenter la diversité sociolinguistique des données de formation que de simplement élargir son échelle.

«Pour toutes ces raisons, nous pensons donc qu’il existe un besoin clair et urgent d’un éclairage sociolinguistique dans la conception et l’évaluation du LLM.

« Comprendre la structure de la société et la manière dont cette structure se reflète dans les modèles d’utilisation de la langue est essentiel pour maximiser les avantages des LLM pour les sociétés dans lesquelles ils sont de plus en plus intégrés.

« Plus généralement, l’intégration des connaissances des sciences humaines et sociales est cruciale pour développer des systèmes d’IA qui servent mieux l’humanité. »