Meta accepte de mettre fin à la discrimination algorithmique dans les annonces immobilières


Meta accepte de mettre fin à la discrimination algorithmique dans les annonces immobilières

Méta (anciennement Facebook) et le gouvernement américain se sont mis d’accord pour régler un procès qui accusait le réseau social de se livrer à des publicités discriminatoires pour le logement.

Le procès pour discrimination en matière de logement, intenté par le gouvernement en 2019, accusait Meta d’avoir permis et encouragé les annonceurs à cibler leurs annonces de logement en s’appuyant sur la race, la couleur, la religion, le sexe, le handicap, la situation familiale et l’origine nationale pour décider quels utilisateurs de Facebook seront éligibles et non éligibles pour recevoir des annonces immobilières.

Dans le cadre du règlement, Meta cessera d’utiliser un outil publicitaire pour les annonces immobilières qui s’appuie sur un algorithme discriminatoire pour trouver des utilisateurs qui « ressemblent » à d’autres utilisateurs sur la base du Fair Housing Act (FHA)-caractéristiques protégées.

Meta prévoit également de développer un nouveau système au cours des six prochains mois pour lutter contre les disparités raciales et autres causées par son utilisation d’algorithmes de personnalisation dans son système de diffusion d’annonces pour les annonces immobilières, le Département américain de la justice dit dans un communiqué.

Si les États-Unis concluent que le nouveau système traite de manière adéquate la diffusion discriminatoire d’annonces immobilières, alors Meta mettra en œuvre le système, qui sera soumis à l’approbation du ministère de la Justice et à la surveillance des tribunaux.

Cependant, si le gouvernement constate que le nouveau système est insuffisant pour lutter contre la discrimination algorithmique dans la diffusion des annonces immobilières, l’accord de règlement sera résilié.

« En raison de ce procès révolutionnaire, Meta va, pour la première fois, modifier son système de diffusion d’annonces pour lutter contre la discrimination algorithmique », a déclaré le procureur américain. Damien Williams.

« Mais si Meta ne parvient pas à démontrer qu’il a suffisamment modifié son système de livraison pour se prémunir contre les biais algorithmiques, ce bureau poursuivra le litige », Williams ajoutée.

Le système de diffusion d’annonces de Meta a utilisé des algorithmes d’apprentissage automatique qui reposent en partie sur des caractéristiques protégées par la FHA – telles que la race, l’origine nationale et le sexe – pour aider à déterminer quel sous-ensemble de l’audience ciblée d’un annonceur recevra réellement une annonce immobilière.

« Alors que la technologie évolue rapidement, des entreprises comme Meta ont la responsabilité de s’assurer que leurs outils algorithmiques ne sont pas utilisés de manière discriminatoire », a déclaré le procureur général adjoint, Kristen Clarke.

Ce règlement est historique, marquant la première fois que Meta accepte de mettre fin à l’un de ses outils de ciblage algorithmique et de modifier ses algorithmes de diffusion pour les annonces immobilières en réponse à une action en justice pour droits civils.

« La Département de la justice s’engage à tenir Meta et d’autres entreprises technologiques responsables lorsqu’elles abusent des algorithmes de manière à nuire illégalement aux communautés marginalisées », a ajouté Clarke.

FacebookTwitterLinkedin


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*