L’algorithme de l’application Apple Card proposerait des crédits plus importants aux hommes. Explications sur un bug très instructif.
En 2017, une informaticienne nommée Joy Buolamwini s’est rendu compte qu’un logiciel censé reconnaître son visage n’y parvenait pas. La raison ? L’algorithme du logiciel ne détectait pas sa peau noire. Cette discrimination est le résultat d’un “biais algorithmique”. “Les premiers algorithmes de reconnaissance faciale ne reconnaissaient pas les peaux noires pour la simple raison que les gens qui ont pensé et développé cet algorithme et l’ont implémenté étaient principalement blancs“, explique l’auteure et informaticienne Aurélie Jean.
Source : VIDEO. Les algorithmes qui nous entourent sont-ils racistes et sexistes ?