Automatisation, réseaux et big data

Publié le par Henri LOURDOU

Automatisation, réseaux et big data :

Combats d'aujourd'hui pour une gauche refondée

Nicholas CARR "Remplacer l'humain-

critique de l'automatisation de la société"

(Titre original : "The Glass Cage : Automation and Us", 2014)

Traduit de l'anglais (Etats-Unis) par Edouard JACQUEMOUD,

L'Echappée, 4e trimestre 2017, 268 p.

 

L'automatisation de la société est un processus en cours, sur lequel, apparemment, nous n'avons pas de prise, sauf à nous marginaliser. Des aspects de plus en plus nombreux de nos vies sont pris en charge par des machines de plus en plus sophistiquées, de plus en plus mises en réseaux, qui nous épargnent des tâches autrefois longues et fastidieuses.

C'est le Progrès...

Or on critique aujourd'hui de plus en plus largement certaines applications de la chimie, dont les effets sur notre santé se sont avérés de plus en plus destructeurs, à travers notamment la "malbouffe" ou les perturbateurs endocriniens.

Les effets pathogènes de l'abus des écrans commencent aussi à être largement perçus, mais, contrairement à l'alimentation et aux cosmétiques, où le succès du "bio" manifeste l'existence d'une alternative , nos écrans ne sont remplacés par rien de plus sain, qui nous garderait cependant les effets bénéfiques du Progrès (gain de temps et d'énergie). Seul un usage modéré et réfléchi semble une solution accessible.

Le livre de Nicholas CARR est composé de nombreuses analyses concrètes démontrant les effets intellectuels collatéraux négatifs des procédés d'automatisation.

Elles s'appuient sur les progrès récents, liés à l'essor de ces procédés, par l'étude de leurs effets, des sciences cognitives.

Du pilotage automatique des avions au GPS, en passant par les diagnostics médicaux, ils ont en commun, à côté d'effets bénéfiques indéniables, qui en sont les meilleurs agents publicitaires, de neutraliser ce que les découvertes les plus récentes en matière de psychologie cognitive ont baptisé "l"effet de production".

De quoi s'agit-il?

De "notre capacité à développer le type de connaissances riches et concrètes qui nous permet de maîtriser une compétence ou un savoir-faire." (p 80-81)

Autrement dit, de notre capacité à faire face à une situation inhabituelle en mettant en oeuvre nous-mêmes un processus matériel de modification de la réalité. Autrement dit, de notre intelligence pratique.

L'automatisation de la société nous rendrait-elle donc moins aptes à résoudre des problèmes pratiques ? Et, par-là, moins intelligents ? Serions-nous engagés dans un véritable processus d'abrutissement collectif ?

Ainsi formulé, le problème a le mérite de la clarté. Il est cependant exagéré.

Nous voyons bien que le processus est autrement ambigu et contradictoire. A côté de formes d'abrutissement indéniables, un tout aussi indéniable progrès dans les connaissances et leur maîtrise le manifeste.

Et c'est de cette ambigüité-même que se nourrit notre paralysie collective.

Il y a cependant un autre niveau d'analyse, autrement plus riche d'ouverture potentielle.

C'est celui du choix opéré entre deux approches de l'innovation technologique.

Entre ce que CARR, s'appuyant sur les progrès de l'ergonomie, appelle l'approche "technocentrique", aujourd'hui dominante, et l'approche "anthropocentrique" qui prendrait à l'opposé en compte le "facteur humain" comme central. (pp 159-184)

Malheureusement, c'est (presque) toujours la première qui l'emporte, car elle permet un gain de temps supérieur (sauf accident qu'on s'efforce de raréfier toujours plus) et donc de profit.

 

En sorte que la conclusion pratique à retirer de ces analyses est pour moi la même que celle retirée de l'implacable constat de Hartmut ROSA dans "Accélération" : résister autant que possible à la pression de la "nouveauté" pour garder le contrôle sur nos vies.

Car, ainsi qu'il le précise dans son ouvrage ultérieur "Aliénation et accélération" (La Découverte, janvier 2012) : "Le fait que le monde semble être trop insaisissable non seulement pour être modelé politiquement de façon organisée mais aussi pour permettre sa reconstruction rationnelle et son appropriation méthodologique, n'est selon moi pas la cause, mais le résultat d'une aliénation dont le coeur est une distorsion (temporelle) poussée de la relation moi-monde.

Pour les sujets de la modernité tardive, le monde (qui inclut le moi) est devenu silencieux, froid, indifférent ou même repoussant." (p 139)

Et cet effet d'étrangeté ou de dépossession est le produit direct de l'accélération incontrôlée de la "nouveauté" influant notre rythme de vie.

Significativement, Nicholas CARR note "l'obsession de la Silicon Valley à vouloir mettre au point des applications pour supprimer les"frictions" qui ralentissent nos vies." (p 137)

Il nous désigne ainsi l'ennemi (les GAFAM) et nous suggère le bon mot d'ordre : "Prolétaires de tous les pays, ralentissons !"

 

Cet ouvrage est utilement complété par les articles du n°86 de "BOOKS" (novembre-décembre 2017) réunis sous le titre : "Réseaux sociaux, commerce et politique, sommes-nous si faciles à manipuler ?"

Un premier article de Sue HALPERN "Au centre du débat : le big data" (The New York Review of Books) rend compte du livre de Cathy O'NEIL "Weapons of math destruction" (que l'on pourrait traduire à peu près par : Armes de destruction "mathives") dont le sous-titre est on ne peut plus explicite : "comment le big data creuse les inégalités et menace la démocratie".

La question posée est celle de la collecte massive de données personnelles par les réseaux sociaux tel que Facebook, et de leur utilisation par ces entreprises.

La notion d'algorithme est indispensable pour comprendre la manipulation dont nous sommes menacés si nous n'y prenons garde. Car "on a tendance à penser que les données sont neutres, qu'elles ne reflètent pas de biais intrinsèques. La plupart des gens pensent par exemple que Facebook n'intervient pas dans ce qui s'affiche sur leur "fil d'actualité", alors que c'est exactement ce que fait son algorithme propriétaire."

Et celui-ci est alimenté d'une part par nous-mêmes à partir notamment de nos "like" (personnellement j'en use avec la plus grande parcimonie, mais je reconnais le caractère fortement addictif de cette pratique dont il est très difficile de se défaire, notamment du fait de son caractère gratifiant quand l'un de nos "posts" en est l'objet : comment refuser un tel plaisir à ceux qu'on aime ou apprécie ?).

Mais, à l'autre bout de la chaîne, ce sont les préjugés et biais cognitifs des concepteurs de l'algorithme qui s'imposent. Et c'est bien ce que démontrent quelques exemples cités sur les publicités générées par cet algorithme.

Ainsi, chaque fois que nous divulguons une donnée personnelle nous alimentons les diverses bases de données commerciales ou sécuritaires dont l'exploitation sans contrôle enserre nos vies dans un déterminisme toujours plus étroit.

L'utilisation de ces données par la publicité commerciale est l'objet du livre de George AKERLOF et Robert SHILLER "Marché de dupes" (Odile Jacob, 2016), sous-titré "L'économie du mensonge et de la manipulation". Leur analyse est que la dynamique-même du marché pousse les entreprises à exploiter au maximum la crédulité du consommateur. Et il mettent en parallèle l'exploitation des mêmes méthodes par le "marketing politique" dans une nouvelle ère de la démagogie dont Donald TRUMP est l'illustration la plus frappante, mais non la seule, basée sur ce qu'un ouvrage un peu plus ancien, recensé un peu plus loin, a popularisé sous le nom de "micro-ciblage" sur Internet (Sasha ISSENBERG "The Victory Lab.The Secret Science of Winning Campaigns.", 2012). Est-il utile de préciser que cette technique a été massivement utilisée lors de la campagne présidentielle française de 2017 ? "Les principaux candidats (...) ont tous fait appel aux techniques du microciblage via le big data, mais c'est, semble-t-il, l'équipe d'En Marche ! qui l'a fait de la façon la plus sophistiquée."

 

Cette dernière remarque pose la question de l'usage de certaines techniques, sans aucun recul critique, par les militants politiques... y compris ceux qui se targuent de radicalité !

 

Mais le pessimisme auquel nous invitent tous ces constats doit être nuancé par cette remarque critique de la critique à propos du livre de AKERLOF et SHILLER : le regret qu'ils "n'aient pas suffisamment intégré dans leur analyse la question des gradients de crédulité." Car, "celle-ci varie bien sûr beaucoup selon les gens" mais "aussi selon les types de biens à acheter". Et leur analyse "devrait permettre d'imaginer des contre-feux mieux adaptés que ceux qui existent aujourd'hui."

 

Non décidément, nous ne sommes pas tous des gogos, ni destinés à le devenir.

 

Il reste cependant à investir collectivement davantage les bons combats répondant aux vrais enjeux d'aujourd'hui : ceux du contrôle des données et de la technologie et de leur régulation démocratique.

Publié dans politique, écologie

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article