Quantcast
Channel: L'Hebdo - Cadrages
Viewing all articles
Browse latest Browse all 2205

Le monde selon Google et Facebook

$
0
0
Jeudi, 5 Janvier, 2017 - 06:00

Les algorithmes sont les nouveaux maîtres de la quatrième révolution industrielle. Ces formules mathématiques, conçues pour prendre des décisions sans intervention humaine, servent les objectifs de ceux qui les programment. Leur omniprésence inquiète car, entre les mains des tout-puissants Google, Facebook, Apple et consorts, ils s’érigent en juges autoproclamés du bien et du mal et nous imposent la vision du monde de la Silicon Valley.

Au lendemain de la victoire de Donald Trump, le 9 novembre dernier, les fils d’actualité Facebook de millions d’utilisateurs sous le choc se sont transformés en murs des lamentations. Cinq mois plus tôt, le Brexit avait suscité le même type de réaction. A chaque fois, les larmes ont vite séché pour faire place aux questions et aux accusations.

Sur le banc des prévenus, les médias et les politiques, qui n’ont rien vu venir. Mais ceux qui sont surtout pointés du doigt, ce sont Facebook et Google, pour avoir maintenu leurs utilisateurs dans une bulle de filtres algorithmiques, notamment exempts de contenus pro-Trump et pro-Brexit pour une moitié d’entre eux. De quoi abreuver l’internaute d’un contenu conforme à ses opinions: le meilleur moyen de le fidéliser.

Et si le véritable coupable, c’était l’algorithme? Voilà plusieurs années que ce genre de logiciel informatique ultraperformant, conçu pour prendre des décisions sans intervention humaine, attire l’attention. Discrètement, l’algorithme s’émancipe dans notre quotidien. On le nomme au conseil d’administration pour ses compétences d’analyse stratégique, comme c’est déjà le cas depuis 2015 au sein de la société hongkongaise Deep Knowledge Ventures. L’algorithme règne aussi sur la finance mondiale en gérant les flux financiers.

C’est lui également qui nous suggère des lectures sur Amazon, Google ou Facebook. On le retrouve dans le rôle de l’entremetteur amoureux sur les applications de rencontres comme Tinder. En voyagiste sur Airbnb et Trip­Advisor. En DJ chez Spotify…

Si les algorithmes sont partout, ce sont aussi les nouveaux ouvriers de la quatrième révolution industrielle. Ils gloutonnent des milliards de données par seconde pour notre confort de femmes et d’hommes connectés. Mais à force de s’échiner dans les mines du big data, ils ont fini par bien nous connaître. Peut-être trop. Et leur omniprésence a fini par éveiller les soupçons, voire certaines craintes. Les algorithmes seraient ainsi de vils manipulateurs prêts à tout pour nous imposer leur lecture du monde.

Pire, ces petits logiciels seraient les maîtres-esclaves d’une nouvelle dictature technologique, dont les êtres humains semblent prendre tout juste conscience. On les accuse de tous les maux de la société numérique sans les interroger. Qui sont-ils? Comment sont-ils programmés et influencent-ils nos vies? Le véritable danger ne viendrait-il pas de ceux qui les conçoivent et les manipulent?

Le remède aux maux de la société

A l’origine, l’algorithme au sens informatique est né en 1936 dans la tête d’Alan Turing. A 24 ans seulement, le mathématicien et cryptologue britannique est un génie précoce formé au King’s College de Cambridge et à l’Université de Princeton. A l’époque, Alan Turing dénoue l’une des questions de logique les plus brûlantes de l’époque, puisqu’il démontre que certains problèmes mathématiques ne peuvent pas être résolus.

Pour sa démonstration, il imagine l’existence théorique d’une machine programmable, capable d’effectuer une série d’opérations, pour autant qu’on lui donne des instructions. Ses idées posent les bases de l’informatique. Les premiers ordinateurs vont matérialiser cette pensée. Alan Turing est mort dix ans après la Seconde Guerre mondiale. On apprendra plus tard que ses méthodes de cryptanalyse ont permis aux Alliés de décoder les machines Enigma utilisées par les nazis pour leurs communications.

Retour en 2017, où les algorithmes se sont démultipliés, mais n’ont pas pris une ride. «La façon de les programmer n’a pas changé, explique Ola Svensson, professeur-assistant et spécialiste des algorithmes à la faculté d’informatique et communications de l’Ecole polytechnique fédérale de Lausanne. C’est comme une recette de cuisine. Il y a des ingrédients de base et un ordre d’exécution.

Ensuite, le cuisinier peut ajouter du sel, du poivre, et le plat sera différent.» On l’oublierait presque, mais l’algorithme est une formule mathématique que l’on modifie en fonction du résultat recherché. «Vous changez une note dans la partition et l’algorithme jouera un autre morceau.»

Les millions d’algorithmes qui nous entourent ont donc des cahiers des charges très différents. Comme le soulignait dans Telerama le sociologue français Dominique Cardon, «il existe différentes familles d’algorithmes, et elles ne mesurent pas toutes la même chose. On peut mettre en avant la popularité avec les chiffres d’audience, le nombre de pages vues sur un site, par exemple; l’autorité des informations, en fonction de leur place dans les moteurs de recherche; la réputation, avec les compteurs des réseaux sociaux…»

L’auteur du livre A quoi rêvent les algorithmes ajoute: «Les algorithmes font des choses que nous avons programmées, il faut donc enquêter sur ceux qui les fabriquent.» En résumé, ces logiciels ne sont ni bons ni mauvais. Et surtout pas neutres.

L’enjeu du débat n’est pas technique. Il est à la fois éthique, politique, économique et philosophique. Les algorithmes produisent des mondes qui dépendent de la vision de ceux qui les ont conçus. Alors dans quelle réalité vivons-nous? Facebook et Google investissent des millions de dollars pour «améliorer» leurs algorithmes en leur inculquant quelques «bons principes» éducatifs.

Mais sur quels critères sont-ils basés? En prenant en charge des éléments relevant du jugement de valeur humain, les algorithmes tout-puissants de la Silicon Valley s’érigent en autorités morales, décidant de ce qui est vrai ou faux, bon ou mauvais. «L’algorithme n’est jamais neutre, car il camoufle des intentions et un intérêt bien précis, explique le journaliste français Hubert Guillaud. L’enjeu est d’expliciter ces mécanismes.»

La théorie de la bulle filtrante

En 2002, l’Américain Eli Pariser, cybermilitant et cofondateur de l’ONG en ligne Avaaz.org, est le premier à avoir explicité la subjectivité des algorithmes et leur servitude à leurs maîtres créateurs: Google, Facebook, Apple… C’est la théorie de la bulle filtrante. Eli Pariser explique que les algorithmes de Google sélectionnent les résultats présentés en fonction des internautes en s’appuyant sur 57 critères différents.

Il y a bien sûr l’âge, le sexe, la géolocalisation, le navigateur utilisé, mais aussi la résolution de l’écran, les sites visités précédemment, la fréquence des clics, la liste des favoris… Cette personnalisation sert un objectif: permettre aux sites commerciaux partenaires de cibler la publicité en nous proposant en permanence des liens vers des sites qui correspondent à nos choix, nos opinions, notre mode de vie.

Chez Facebook, l’algorithme EdgeRank détermine la visibilité des pages et des amis dont l’activité sera diffusée sur chaque fil d’actualité en fonction de trois critères: l’affinité et la fréquentation (exprimée par le score des «J’aime» et des «Partager»), la richesse des contenus (photos, vidéos, fréquence) et leur fraîcheur chronologique.

Par conséquent, si vous êtes un partisan de Donald Trump et que plusieurs de vos amis Facebook le sont aussi, vous ne lirez que du contenu favorable au président élu. L’internaute est enfermé dans une bulle, dans laquelle aucun élément ne vient remettre en question ses convictions.

Au Royaume-Uni, The Guardian a tenté une expérience inédite. Durant le dernier mois de la campagne présidentielle américaine, le quotidien a proposé à dix internautes américains – cinq républicains et cinq démocrates – d’échanger leurs fils d’actualité Facebook. Les algorithmes du réseau social ont vite démontré leur partialité aux cobayes, qui se sont retrouvés avec stupeur à ne plus être confrontés qu’à des informations en adéquation avec les opinions du camp adverse. Difficile de lutter contre cette propagande invisible. Google modifie ses algorithmes plus de 600 fois par an, dans le plus grand secret.

La puissance grâce au secret

Cet autre problème est notamment soulevé par Frank Pasquale (lire son interview Frank Pasquale: «Google a su se rendre indispensable aux élites politiques, financières et militaires»): «Il est impossible de savoir comment sont régis les algorithmes de Google, car ils sont protégés par le secret commercial. C’est un aspect des moteurs de recherche dont on ne parle pas.» Le professeur de droit à l’Université du Maryland décrit comment ces algorithmes élaborés dans le secret le plus total créent de nouveaux rapports de pouvoir dont il est impossible de s’extirper.

Selon lui, nous vivons dans une «société de la boîte noire». «Une boîte noire décrit un système dans lequel nous connaissons les informations qui y entrent et ce qui en sort, mais ne savons strictement rien des mécanismes et des transformations qui se sont opérés entre deux, car le fonctionnement interne de la boîte noire reste secret.»

Selon Frank Pasquale, «Google, Facebook et tous les géants de la technologie illustrent à merveille ce mécanisme. La presse les présente comme des modèles d’entreprises. Elle vante les aspects positifs de ces firmes, comme les horaires libres, les baby-foots, etc. Mais on ne sait strictement rien de leur fonctionnement. Tout est protégé par le secret grâce à de redoutables avocats. C’est ça, la boîte noire, mais c’est aussi la capacité de ces entreprises à enregistrer la moindre information sur ses employés et ses utilisateurs, comme la boîte noire d’un avion.»

Il conclut: «La forme la plus haute du pouvoir est d’avoir la capacité de surveiller les moindres faits et gestes des autres tout en cachant les siens.»

Google reste sourd à ces remarques. La firme californienne, devenue surpuissante depuis sa création en 1998, n’y voit rien de mal. Elle est convaincue de rendre le monde meilleur grâce à la technologie. Pour l’affirmer, il suffit d’analyser la vision du monde de Larry Page, son cofondateur (lire Dans le cerveau de Larry Page).

Le diplômé de Stanford est un techno-libertarien qui ne cache pas ses penchants pour le transhumanisme. Dans la tête de Larry Page, le monde est un vaste laboratoire d’expérimentation. Un monde où l’homme serait immortel, car toutes les maladies seraient éradiquées grâce aux technologies. Dans ce monde-là, il n’y a pas d’Etats, de lois, de règles fiscales ou de protection des données.

Une société de l’optimisation

En Belgique, Antoinette Rouvroy figure parmi les premiers intellectuels à s’être penchés sur la question du pouvoir des données. La chercheuse en droit de l’Université de Namur a élaboré le concept de «gouvernementalité algorithmique». «La cible de ce mode de gouvernement n’est pas le présent. Il se fonde sur de la pure potentialité en se nourrissant de données brutes, explique-t-elle. Les systèmes algorithmiques ne visent pas à établir une vérité, mais à permettre l’optimisation, qui remplace la notion de projet.»

Selon Antoinette Rouvroy, l’exemple d’Emmanuel Macron en France illustre bien cette tyrannie du temps réel, qui se fonde sur la croyance que l’analyse des données peut régler les maux de la société.

Pour la chercheuse, le jeune candidat à la présidentielle symbolise «le degré zéro du projet. Ce n’est pas un homme avec une vision politique, mais un sismographe qui prend le pouls du monde en temps réel.» Ni de gauche ni de droite, Emmanuel Macron a en effet construit son programme de campagne en fonction de son «diagnostic» de la société française.

Pour établir ce diagnostic, l’ex-jeune loup de Bercy a, fait inédit, engagé des mathématiciens et des linguistes pour analyser, à l’aide d’algorithmes, des milliers de verbatims de rencontres conduites dans un échantillon de 6200 quartiers estimés représentatifs de la société française. «Liberté d’entreprise», «sécurité», «police de proximité»… D’après Emmanuel Macron, ces nuages de mots dévoilent les vraies préoccupations des Français. L’histoire dira s’il avait raison.

La dictature algorithmique soulève une dernière question, plus philosophique. Que reste-t-il de notre libre arbitre si les algorithmes auxquels nous nous fions tous les jours, sans forcément le savoir, sont au service d’intérêts politiques, commerciaux, financiers ou militaires?

Cette idéologie technique, qui vise à soulager les hommes d’une partie du poids des décisions quotidiennes, détruit de fait la confiance que nous pourrions avoir en une forme de bien commun, puisque chacun est prévisible et manipulable pour favoriser le profit d’entreprises privées. Mais les échappatoires existent.

Plusieurs experts voient dans la transparence de l’utilisation des données et dans le recours à la législation une manière de contrer l’asservissement à cette société du big data. A l’exemple des directives européennes sur la protection des données. Mais aussi du Privacy Shield, ce projet de texte dévoilé en février dernier qui vise à contraindre les géants américains de l’internet à respecter les normes européennes en matière de protection des données.

Cet accord entre Bruxelles et Washington stipule que, sur leur territoire, les Etats-Unis doivent offrir aux données européennes une protection «essentiellement équivalente» à celle qui existe sur le Vieux Continent. A peine adopté, le Privacy Shield est cependant déjà menacé, puisque les autorités américaines font tout leur possible pour en exploiter les failles et l’invalider, afin de ne pas pénaliser ces fleurons de l’économie numérique. Et même si, pour l’heure, il reste encore des humains chez Facebook et Google, le patron, c’est l’algorithme. 
 


Deep Dream, la machine à fantasmagories de Google

Des animaux merveilleux dans les portraits, des couleurs et des circonvolutions hypnotisantes dans les paysages… Deep Dream interroge les images et les fait parler. Ce programme d’intelligence artificielle, dévoilé par Google au mois de juin 2015, est né d’un projet de recherche sur l’apprentissage des machines.

Ce réseau de neurones artificiels a ainsi été nourri de millions d’images pour apprendre à classifier et à reconnaître les formes, ce qui lui permet de faire apparaître des motifs dans les images. Si un nuage ressemble à un oiseau, le programme le fera ressembler encore plus à un oiseau. Avec Deep Dream, Google prouve que les machines peuvent aussi produire de l’art. 

Edition: 
Rubrique Print: 
Image: 
Getty Images / transformé par Deep Dream
Daniel Acker / Getty Images
Rubrique Une: 
Auteur: 
Pagination: 
Pagination masquée
Gratuit: 
Contenu récent: 
En home: 
no

Viewing all articles
Browse latest Browse all 2205

Trending Articles