Votre startup utilise-t-elle l’IA de manière responsable?


Depuis qu’elles ont commencé à tirer parti de la technologie, les entreprises technologiques ont reçu de nombreuses accusations concernant l’utilisation contraire à l’éthique de l’intelligence artificielle.

Un exemple vient de Google Alphabet, qui a créé un algorithme de détection de discours de haine qui a attribué des «scores de toxicité» plus élevés au discours des Afro-Américains que leurs homologues blancs. Des chercheurs de l’Université de Washington ont analysé les bases de données de milliers de tweets jugés «offensants» ou «haineux» par l’algorithme et ont découvert que l’anglais aligné sur le noir était plus susceptible d’être qualifié de discours de haine.

C’est l’un des innombrables exemples de biais émergeant des algorithmes d’IA. Naturellement, ces problèmes ont suscité beaucoup d’attention. Les conversations sur l’éthique et les préjugés ont été l’un des principaux thèmes de l’IA ces derniers temps.

Les organisations et les acteurs de toutes les industries s’engagent dans la recherche pour éliminer les biais par l’équité, la transparence de la responsabilité et l’éthique (FATE). Pourtant, la recherche qui se concentre uniquement sur l’architecture et l’ingénierie des modèles ne peut que donner des résultats limités. Alors, comment pouvez-vous résoudre ce problème?

Résoudre les idées fausses sur la lutte contre les biais liés à l’IA

La réparation du modèle est insuffisante, car ce n’est pas là que réside la cause première. Pour savoir quelles mesures peuvent donner de meilleurs résultats, nous devons d’abord comprendre les vraies raisons. Nous pouvons ensuite rechercher des solutions potentielles en étudiant ce que nous faisons dans le monde réel pour lutter contre ces biais.

Les modèles d’IA apprennent en étudiant les modèles et en identifiant les informations à partir des données historiques. Mais l’histoire humaine (et notre présent) est loin d’être parfaite. Il n’est donc pas surprenant que ces modèles finissent par imiter et amplifier les biais qui se trouvent dans les données utilisées pour les former.

C’est assez clair pour nous tous. Mais comment pouvons-nous gérer un tel biais inhérent à notre monde?

Nous injectons des biais pour combattre les biais. Lorsque nous estimons qu’une communauté ou un segment de la population pourrait être désavantagé, nous évitons de fonder notre conclusion uniquement sur des cas passés. Parfois, nous allons plus loin et faisons des inclusions pour offrir des opportunités à ces segments. Il s’agit d’un petit pas pour inverser la tendance.

C’est précisément cette étape que nous devons franchir lors de l’enseignement des modèles. Alors, comment injecter le biais humain pour lutter contre le biais inhérent «appris» des modèles? Voici quelques étapes pour y parvenir.

Ajoutez divers rôles à votre équipe de science des données



Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*