« On a construit une infrastructure de surveillance pour que les gens cliquent sur des pubs »


infrastructure de surveillance

Le problème, c’est que ce travail algorithmique, qui réclame une quantité astronomique de data – et donc une surveillance de chacun d’entre nous –  est opaque, même aux yeux de ceux qui conçoivent ces algorithmes, puisqu’avec les progrès du deep learning, la machine apprend désormais à apprendre : « Nous ne comprenons plus comment ces algorithmes nous catégorisent. Ce sont des matrices géantes, des millions de rangs et de colonnes (…) C’est comme si nous faisions croître une intelligence que nous ne comprenons pas vraiment. »


La crainte d’une révolte future de robots mal intentionnés à notre encontre, comme dans Terminator, nous détourne du vrai danger. Ce péril réel, déjà présent, mais grandissant, c’est « la façon dont les personnes au pouvoir utiliseront l’intelligence artificielle pour nous contrôler et nous manipuler, et ce par des moyens inédits, parfois cachés, subtils et inattendus ». L’avertissement a été lancé, en septembre dernier, par Zeynep Tufekci, une sociologue turque qui a longtemps travaillé sur le rôle de la technologie dans les mouvements sociaux, et qui s’intéresse désormais à la façon dont les algorithmes façonnent nos comportements. Issues d’une conférence TED qui vient d’être mise en ligne, ses vingt minutes de démonstration sont aussi limpides qu’indispensables.

Nous ouvrons Facebook, parcourons le fil, commentons, lâchons quelques likes, nous laissons happer par une vidéo en auto-play, poursuivons sur YouTube, cliquons sur les recommandations de la colonne de droite, etc, etc… Nous croyons agir librement, mais une grande partie de notre parcours n’est que celui qu’ont balisé pour nous les ingénieurs de ces plateformes, dont le but est de nous retenir actifs et captifs, pour collecter un maximum de données et nous proposer un maximum de pubs


La suite ici : « On a construit une infrastructure de surveillance pour que les gens cliquent sur des pubs »

09.11.17

Istacec

Laissez un commentaire

You must be connecté pour laisser un commentaire.