L’histoire de l’intelligence artificielle (IA)

Les premières machines pensantes apparaissent dans les histoires de science-fiction dès les années 1920. En 1950, c’est au tour des scientifiques d’imaginer des machines pensantes. Le mathématicien britannique, Alan Turing, publie un article intitulé « l’ordinateur et l’intelligence », dans lequel il décrit comment savoir si une machine s’approche d’une intelligence humaine. Il appelle cette méthode « le jeu de l’imitation », plus connu aujourd’hui sous le nom de test de Turing. Voilà les prémices de l’intelligence artificielle ! Depuis, les recherches sur l’IA ont connu successivement des périodes d’essor et de gel.

Dans les années 80, les investissements sur le développement de l’intelligence artificielle reprennent. Au cours de la dernière décennie, l’intelligence artificielle prend un nouveau tournant ! La puissance de calcul des ordinateurs, la capacité de stockage et l’accumulation des données augmentent de façon extraordinaire. Les améliorations techniques développent ainsi la performance des algorithmes. C’est l’ère du deep learning. Aujourd’hui, le champ des applications de l’IA est immense, mais les questions éthiques évoquées, dès les années 1970, sont plus que jamais d’actualité et doivent nous faire réfléchir au statut des futures IA. Découvrez en animation-vidéo les principaux faits marquants associés au développement des IA au fil du temps.

Comment ça marche ? – Qu’est-ce que l’intelligence artificielle (IA) ?

L’intelligence artificielle (ou IA) est une technique qui permet aussi bien à un robot qu’à une voiture, un moteur de recherche ou même à un téléphone d’exécuter des tâches habituellement réalisées par les humains.

L’intelligence artificielle existe grâce à des systèmes informatiques qui eux-mêmes fonctionnent à l’aide d’algorithmes. Un programme doté d’une IA peut par exemple réussir à analyser et identifier des visages. Découvrez en animation-vidéo ce qu’est une intelligence artificielle et la définition d’un algorithme.

Documentaire : “Derrière nos écrans de fumée”, un réquisitoire contre « l’algorithmisation » de nos vies

Derrière nos écrans de fumée (The Social Dilemma) , (documentaire sorti sur Netflix le 9 septembre, met en garde contre les dérives de ces algorithmes qui cherchent, avec chaque jour un peu plus d’efficacité, à nous maintenir « engagés » sur Facebook, YouTube, Instagram ou Twitter. Polarisation des débats, bulles de filtres qui nous mettent uniquement en relation avec des gens qui pensent comme nous, addiction, prime à la désinformation, dépression, le documentaire balaye largement les problèmes causés, plus ou moins directement, par « l’algorithmisation » croissante de nos vies.

Les données collectées ne posent pas de problème

Nous brandissons souvent le spectre des données, ces données personnelles que toutes collectent auprès de ces entreprises pour les vendre à un prix plus élevé. Derrière nos écrans de fumée pousse l’analyse beaucoup plus loin. Le problème n’est pas seulement les données, mais le comportement de l’utilisateur. Il est rappelé que si nous ne payons pas pour un produit, alors, c’est que nous sommes le produit. Et si nous constatons une «dérive» de l’usage sur quelques années, c’est parce que cela fait partie intégrante des stratégies de ces entreprises.

Hypocrisie du processus

Un joli paradoxe est Derrière nos écrans de fumée projetés sur Netflix, qui utilise exactement cela pour faire des recommandations aux abonnés. Le comble de la tartuferie apparaît à la fin du documentaire, lorsque le réalisateur invite le public à visiter son site Internet. Parmi les actions recommandées à éviter, les téléspectateurs sont encouragés à faire de la publicité pour des documentaires… sur les réseaux sociaux. On sera sensible à l’ironie, ou l’hypocrisie, du procédé.

Des révélations qui sont à relativiser

Que ce soit la polarisation du débat chez nous sur l’augmentation exponentielle des hospitalisations pour automutilation, ou chez les adolescentes américaines, tout est de la faute des réseaux sociaux? La réalité est un peu plus compliquée et manque de point de référence et de contexte historique.

Réponse de Facebook

Facebook décompose point par point les sept domaines qu’il estime que le film déforme : la soi-disant dépendance aux réseaux sociaux, la présentation des utilisateurs comme étant le produit ultime, la manière dont Facebook déploie ses algorithmes, la collecte de données, la polarisation politique, l’intégrité des élections et la désinformation.

What ‘The Social Dilemma’ Gets Wrong

Brexit : comment le référendum européen a été gagné grâce à la science des données

« Tout le monde sait qui a gagné, mais peu de gens savent comment »

Brexit La Guerre incivile nous a montré comment le référendum européen a été gagné grâce à la science des données

QUI SE CACHE DERRIÈRE LE VOTE « NON » DU BREXIT ?

Été 2016. Le Royaume-Uni est en pleine campagne électorale. Les camps du « Leave » (quitter l’Europe) ou du « Remain » (rester dans l’Europe) s’affrontent. Dominic Cummings (Benedict Cumberbatch), directeur de la campagne en faveur du Brexit, use d’une stratégie inédite. Basé sur les données d’algorithmes sophistiqués explorant les recoins les plus sombres d’Internet, le but est de rechercher les électeurs cachés. Cette tactique ne fait pas l’unanimité auprès des partisans du Leave. Les coups bas et les trahisons commencent…

Brexit La Guerre incivile

Dans Brexit La Guerre incivile, on peut voir comment Dominic a fait enfermer une équipe de Data Scientists de AggregateIQ dans une pièce ombragée, comme une sorte de projet séparé du reste de la campagne de Leave.

La première chose qu’on les voit faire est de créer une campagne pour savoir ce que les différents groupes d’électeurs pensent des différentes questions concernant l’UE. Pour ce faire, ils ont donné aux gens la possibilité de gagner un pari global, qui serait statistiquement presque impossible à gagner (une chance sur 5 000 000 000 000 000 000 000 000). Ils ont ensuite utilisé les résultats de cette recherche pour créer des messages comportementaux microciblés à l’intention de différents segments de l’électorat.

 

Il a été constaté que pendant le référendum, ils ont diffusé plus d’un milliard de publicités sur Facebook, avec divers messages en faveur du congé. Par exemple, des segments d’électeurs moins “racistes” ont pu recevoir des photos de Boris Johnson déclarant : “Je suis pro-immigration, mais surtout, je suis pour l’immigration contrôlée”. Alors que d’autres ont reçu des messages tels que “La TURQUIE A UNE POPULATION DE 76 MILLIONS. LA TURQUIE REJOINT L’UE. BONNE IDÉE ?”.

 

S’ils cliquaient sur l’annonce correspondante, ils recevraient alors une horde d’annonces en continu sur le même sujet, ce qui renforcerait ce point de vue. M. Cummings a déjà expliqué comment ils ont retenu la majorité de leur budget et l’ont consacré à ce type de publicité dans les dix derniers jours précédant le référendum européen. Il affirme qu’environ 7 millions de personnes ont été visées pendant cette période.

 

Dans Brexit La Guerre incivile, on voit même l’équipe de la campagne “Leave” demander pourquoi les publicités ne sont pas diffusées à la télévision et dans les journaux télévisés, alors qu’elle pensait que l’autre camp n’avait aucune idée de ce qui se passait.

Pourquoi la science des données modifie-t-elle le paysage politique ?

Bien sûr, quiconque suit même légèrement le cycle des nouvelles en Occident aura probablement entendu parler du scandale de Cambridge Analytica. Cambridge Analytica a été créé et dirigé par Robert Mercer (un expert milliardaire de l’IA) et Steve Bannon, le financier et directeur de campagne de Donald Trump. Christopher Wyle, dénonciateur de Cambridge Analytica, a souligné les liens étroits entre AggregateIQ et Cambridge Analytica.

Ce scandale nous a montré que, grâce à l’utilisation abusive des données des utilisateurs de Facebook, ils pouvaient établir le profil psychométrique de l’ensemble de l’électorat. En utilisant une application de personnalité virale appelée myPersonality, ils ont pu croiser les types de personnalité avec ce que les gens avaient aimé sur Facebook pour profiler les gens avec un haut degré d’exactitude.

Les données recueillies et utilisées pour alimenter les algorithmes de profilage de l’électorat sont devenues une arme essentielle lors du référendum européen et des élections américaines. Wyle a même décrit comment Steve Bannon a qualifié ces outils d’armes dans sa “guerre psychologique”, avec pour objectif de susciter des mouvements populistes nationalistes dans le monde entier.

Si certains peuvent s’opposer à cette forme de manipulation politique et la considèrent comme effrayante. Sur une note positive, Cambridge Analytica a maintenant fermé ses portes en raison de la pression politique intense qui a suivi les retombées de l’élection de Donald Trump, Facebook a pris des mesures pour lutter contre la fuite de données de tiers qui a permis la création de ces outils scientifiques, et la protection des citoyens européens par RGPD signifie que vous avez désormais plus de contrôle sur l’utilisation de vos données personnelles. La prochaine fois que cela se produira, ce ne sera probablement pas aussi facile ni aussi inaperçu.

Malheureusement, d’autres entreprises comme Cambridge Analytica existent toujours et continueront à le faire tant qu’il y aura une demande suffisante. Les politiciens dépensent beaucoup d’argent dans des campagnes, bien sûr, ils vont utiliser les dernières techniques et technologies pour essayer de gagner.

Attendez-vous à ce que ce soit la nouvelle norme

Vous pouvez vous en défaire si vous n’êtes pas satisfait du résultat du référendum européen ou de l’élection de Donald Trump. C’est simplement parce que les mouvements populistes nationaux sont arrivés les premiers.

Depuis que nous sommes entrés dans l’ère numérique, nous partageons de plus en plus de données sur nous-mêmes et nous créons de nouvelles voies pour que l’information nous atteigne. Le marketing et la publicité modernes consistent de plus en plus à créer des messages pertinents et personnalisés à l’intention de segments cibles de plus en plus granuleux, la politique n’étant qu’un client parmi d’autres sur ce marché.

La science des données trouvera des moyens d’assembler nos informations pour créer des profils de nous afin de s’assurer que les bons messages nous parviennent. Les campagnes politiques trouveront des moyens de rechercher nos états émotionnels sur des questions particulières et de créer des messages qui suscitent en nous une réaction de vote particulière. Des plateformes continueront d’exister pour permettre à ces messages de campagne ciblés de nous atteindre.

Si Brexit La Guerre incivile m’a montré quelque chose, c’est l’échec de la campagne Remain à adopter les derniers outils et technologies disponibles grâce à l’explosion de la science des données. Ils auraient pu eux aussi cibler les électeurs que la campagne “Leave” visait et ceux qui ne se sont pas donné la peine d’aller voter. Comme les sondeurs traditionnels, ils ont utilisé les mêmes vieilles techniques qui ont été utilisées pendant des décennies et n’ont pas réussi à les appliquer correctement.

Il est temps que la politique entre dans le 21ème siècle

Nous vivons maintenant dans ce que l’on appelle l’ère de l’après-vérité, il s’agit moins d’argumenter le pour et le contre dans un débat rationnel, mais de lancer des “grenades” d’informations (qu’elles soient vraies ou fausses) qui résonnent avec l’électorat de manière émotionnelle, ce qui oblige ensuite l’opposition à “éteindre les feux”.

Cela peut être une voie à double sens, je ne propose certainement pas que le mensonge soit acceptable, il serait parfaitement possible de construire de meilleurs outils de vérification des faits qui permettraient de vérifier en temps réel les fausses informations à l’avenir pour aider à faire face à cela. Mais je dis que les campagnes, quel que soit le côté de l’argument, doivent apprendre de Cambridge Analytica et d’AggregateIQ que l’ancienne façon de faire de la politique est révolue, la science des données est là pour rester. Le gagnant est celui qui reste en tête du jeu.

Brexit La Guerre incivile

Pour aller plus loin

Intelligence artificielle : la ruée vers les données biomédicales

Les avancées technologiques en matière d’intelligence artificielle ont profondément changé la médecine. Aujourd’hui des machines sont capables d’ingérer des millions de données biomédicales et surtout, de les analyser. L’une des plus abouties s’appelle Watson.

Créée par IBM, elle est déjà capable d’établir des diagnostics très fiables, dans le domaine de l’oncologie notamment. Et ce n’est que le début : cette intelligence artificielle est encore jeune… Les géants du web s’engouffrent dans cette mine et investissent massivement dans la santé avec un objectif commun : récolter le maximum des données des patients. Mais comment s’assurer qu’ils garantissent la confidentialité de celles-ci et qu’elles ne s’approprient pas une partie d’entre elles ?

Source : Intelligence artificielle : la ruée vers les données biomédicales | ARTE

Invisibles – Micro-travailler plus pour micro-gagner moins 2/4

Les algorithmes répondent à nos envies, à nos désirs. Les moteurs de recherche nous comprennent mieux que quiconque et d’un seul clic, nous donnent satisfaction. Pourtant, aucune machine n’est encore capable d’apprendre seule et de raisonner comme un être humain. Et si de vraies personnes étaient employées à jouer les robots en attendant que ceux-ci existent réellement ?

Source : Invisibles saison 1 – épisode 2 en streaming sur France tv slash

Qu’est-ce que le digital labor ?: Les enjeux de la production de valeur sur Internet et la qualification des usages numériques ordinaires comme travail. (Etudes & controverses)

VIDEO. Les algorithmes qui nous entourent sont-ils racistes et sexistes ?

Des femmes automatiquement défavorisées dans l’obtention d’un crédit, des distributeurs de savon qui ne détectent pas les peaux noires… Les algorithmes qui nous entourent sont-ils racistes et sexistes ?

En 2017, une informaticienne nommée Joy Buolamwini s’est rendu compte qu’un logiciel censé reconnaître son visage n’y parvenait pas. La raison ? L’algorithme du logiciel ne détectait pas sa peau noire. Cette discrimination est le résultat d’un “biais algorithmique”. “Les premiers algorithmes de reconnaissance faciale ne reconnaissaient pas les peaux noires pour la simple raison que les gens qui ont pensé et développé cet algorithme et l’ont implémenté étaient principalement blancs“, explique l’auteure et informaticienne Aurélie Jean.

…/…

Source : VIDEO. Les algorithmes qui nous entourent sont-ils racistes et sexistes ?

Show Buttons
Hide Buttons
Translate »