[BIGDATA] Big Data, IA et vulnérabilité numérique – L’enjeu d’une réponse européenne.

A propos du livre : Techno-féodalisme – critique de l’économie numérique aux éditions Zones dresse un parallèle argumenté et pertinent entre l’hégémonie des grands groupes de l’économie du numérique et le système féodale moyenâgeux. L’hypothèse du techno-féodalisme est présentée après une première partie retraçant la montée en puissance de l’idéal de la start-up dans un marché libéral, jusqu’à la domination des grands monopoles actuels. Apparaît subtilement en conclusion de l’ouvrage la question du devenir des GAFAM, à savoir des dérives de leur hégémonie aux difficultés de leur démantèlement. L’article suivant résume les principales thématiques abordées et encourage à la lecture de l’ensemble qui apporte de nombreux éléments pour aider à appréhender le sujet dans sa globalité.

Introduction

A l’image des deux précédentes, la troisième révolution industrielle a transformé en profondeur notre environnement économique et social. L’essor d’entreprises dans les domaines phares du numérique se constate en comparant 15 ans d’évolution du top 10 des capitalisations boursières par le Financial Times Global 500 :

La montée en puissance de ces structures permise par les innovations développées dans les années 70-80 a aboutit aujourd’hui à ce que l’on qualifie de GAFAM ou encore BATX – pour l’équivalent chinois. Leur emprise sur le monde du numérique est à la mesure de la multitude des services rendus au quotidien pour les utilisateurs de leurs solutions. Ces services sont constamment améliorés par des algorithmes d’apprentissage qui puisent dans les données récoltées pour construire une pertinence sans failles. Si bien, que suggestion se confond avec incitation et que nos cadres légaux peinent à cerner et réguler les impacts inédits de ces technologies sur notre quotidien.

Données, premières briques de la chaîne de création de valeur

Si l’IA constitue un élément fondamental dans l’économie de cette quatrième révolution industrielle, il devient impératif pour les sociétés souhaitant se positionner sur ce marché d’acquérir de très grandes quantités de données. En effet, la pertinence des systèmes d’intelligence artificielle conçus, et donc leur performance sur le marché, dépendent d’un long processus d’apprentissage qui exploite de larges jeux de données. Chaque ajout à l’ensemble le consolide, favorisant la formation de mega-clusters agrégeant des milliers de sources différentes. C’est donc la course à l’acquisition des sources pour l’exclusivité du traitement.

Chaque individu, par son utilisation d’Internet – en consultation directe ou via des appareils connectés – génère une trace numérique riche en informations diverses: situation professionnelle & médicale, hobbies, préférences, opinions, habitudes de consommations, etc. Ces données brutes sont le point d’entrée des systèmes d’apprentissage et les utilisateurs en génèrent de plus en plus. Selon les estimations publiées dans le Digital Economy Compass 2019, le volume annuel de données liées à l’utilisation d’Internet devrait être multiplié par près de 50 d’ici 2035. Le marché du Big Data quant à lui a dépassé les 200 milliards USD en 2020 et maintient sa croissance.

Ce sont les politiques de captation et d’exploitation des ces données qui ont soufflé les termes Big Other et Capitalisme de la surveillance à Shoshana Zuboff qui met en garde contre les mécanismes de modifications comportementaux qui en découlent.

Dans le capitalisme de la surveillance, les points d’extraction des informations utilisateurs sont multipliés pour cerner toutes les subtilités comportementales du consommateur. Ces données sont agrégées en tendances dont la connaissance se monnaye auprès d’entreprises désireuses d’optimiser leur stratégie de vente.

Du service à la dépendance, la thèse du techno-féodalisme

La pertinence des services est renforcée par l’ampleur de leur déploiement. Les investissements réalisés par les grands groupes permettent un maillage tant fonctionnel que géographique, en proposant de multiples solutions complémentaires et accessibles partout. Les systèmes déployés assurent aux exploitants de pouvoir en tirer toutes les données nécessaires à l’amélioration continue des services. Ce schéma cyclique assure un engagement toujours plus important du consommateur qui accroit progressivement la part des données personnelles qu’il partage à l’entreprise.

L’effet “Big Data” apporte la satisfaction d’un service de qualité, sur mesure et gratuit – ou très accessible – sans que l’individu, seul, n’ait à y contribuer de façon directe. C’est la participation collective qui permet l’amélioration du service individuel. C’est cette boucle de rétroaction qui assure un engagement toujours plus grand des utilisateurs envers une plateforme. A mesure que le service s’améliore et augmente sa valeur, il tend à devenir difficilement remplaçable voir indispensable aux yeux du consommateur qui en devient mécaniquement dépendant. A mesure que le processus se répète, le coût de sortie augmente. Il est par exemple toujours possible de se passer de Google Maps pour un particulier pour le prix d’un boitier GPS, en revanche, difficile pour une société de se passer d’une suite Microsoft Office ou Google pour sa bureautique.

Et c’est justement dans les empires digitaux qu’ont fondés les GAFAM / BATX que prend racines la thèse du Techno-Féodalisme défendue dans l’ouvrage:

  • Les technologies de l’information permettent l’exploitation des données utilisateurs à des fins d’amélioration des services rendus, c’est un enjeu financier.
  • Le modèle de fonctionnement des algorithmes d’apprentissage favorise la formation de conglomérats pour la captation de données (Big Data).
  • Dans une vision économique, ces deux mécanismes tendent à former des monopoles pour maîtriser sources et exploitation des données captées.
  • L’effet “Big Data” renforce la pertinence des services pour les utilisateurs qui en alimentent le mécanisme et y tissent leur dépendance.
  • Ce phénomène se répétant, le gain des services rendus et le coût de bascule d’un système vers un autre segmentent les utilisateurs dans les grands ensembles établis par les GAFAM / BATX. L’ouvrage parle d’une glèbe numérique.

Accompagner les décisions business pour optimiser sa présence sur le marché, telle est la promesse des Big Data et de l’IA. Aujourd’hui, une nouvelle étape s’est ajoutée à ce système qui ne se contente plus d’aiguiller la production mais vise également à orienter la consommation.

De la suggestion à l’incitation, les dérives du système

En 2012, Facebook a permis à une équipe d’universitaires californiens de mener une expérience via leur plateforme pour étudier la contagion des émotions. Le principe de cette observation d’une semaine sur plus de 700 000 profils utilisateurs était de constater l’impact des émotions dans l’entourage du sujet. Pour cela, Facebook a intentionnellement favorisé certains contenus pour créer trois scénarios d’étude, le premier pour mettre en avant des publications à émotions positives, le second pour des publications à émotions négatives et le dernier avec des publications neutres. Outre les résultats, cette étude a été menée de façon confidentielle sans l’accord explicite des participants et met en évidence les points suivants:

  1. Les algorithmes de personnalisation de contenu intègrent des mécanismes d’ajustements pour permettre à un tiers d’en accommoder les paramètres.
  2. Le fonctionnement en détails de ces algorithmes de proposition de contenu n’est pas connu du grand public. Plus précisément, il n’est pas possible d’avoir accès à une succession de conditions logiques & intelligibles qui expliquent l’arbitrage en place dans les contenus qui nous sont proposés.
  3. La banalisation de la mise en avant de contenus, publications, articles, produits de consommation, etc… couplée à l’opacité des systèmes ne nous permettent pas de faire la distinction entre ce qui relève du domaine de la personnalisation et ce qui relève du domaine de la publicité incitative.

Ainsi, à l’image de ces 700 000 utilisateurs de Facebook en 2012, nous serions incapables de savoir si le contenu qui nous est proposé résulte de nos préférences, ou si nous sommes l’objet d’une expérience sociale, marketing ou autre.

Appliqués à la politique, ces nouveaux outils de marketing deviennent de puissants moyens de propagande. Il ne s’agit plus de journaux ou programmes télévisés s’adressant de la même façon à un large public, mais de communications façonnées sur mesure pour la personne qui les reçoit. Au lieu de favoriser un produit en employant les messages les plus susceptibles d’engager une vente, il serait question de favoriser un message politique pour déclencher une réaction, un changement d’opinion, un vote. Et c’est justement l’utilisation de ces technologies à des fins politique qui a fait polémique en 2015 avec l’affaire Facebook – Cambridge Analytica quand les données de plus de 60 millions de comptes Facebook de citoyens américains on été exploitées pour catégoriser finement l’électorat en profils types et orchestrer la diffusion de messages adaptés pour chaque groupe.

Si leur implication dans la campagne électorale de 2016 aux Etats-Unis a bien été démontrée, l’ampleur réelle de leurs opérations demeure floue. Certains laissent sous-entendre que leurs actions ont eu un impact direct sur le référendum du Brexit voté en 2016. Si ces éléments restent difficile à démontrer, ils mettent toutefois en lumière les risques de l’utilisation des réseaux sociaux comme outils de manipulation massive d’opinion. Entre les mains de sociétés privées, de partis politiques nationaux ou étrangers ils représentent un risque majeur de perte de libre arbitre à l’échelle de l’individu, et de perte de souveraineté à l’échelle nationale.

Internautes européens, une “surface d’attaque” conséquente

Avec près de 60% de sa population se connectant chaque mois sur Facebook, la France – et plus largement l’Europe – est potentiellement très exposée à des manœuvres de manipulation d’opinion similaires à celles décrites dans l’affaire Cambridge Analytica.

Les sujets de la captation et de l’exploitation des données personnelles sont d’ailleurs très présents dans les esprits européens. On estime aujourd’hui que 80% des données européennes sont stockées sur des plateformes étrangères. En l’absence d’acteurs nationaux conséquents sur ce marché, comment assurer le respect de l’éthique, du consentement et de la transparence sur le web que nous utilisons ?

Pour faire face à l’hyper-connexion de ses citoyens sur ces plateformes dont les contenus sont ordonnancés par des algorithmes étrangers, l’Europe a fait le choix de sensibiliser sa population et de durcir la législation concernant la captation et le traitement des données personnelles.

RGPD, un premier pas vers la sensibilisation

Si la CNIL et la loi Informatique et Libertés – organismes français – datent de 1978, c’est avec l’entrée en vigueur en 2018 de la loi RGPD que l’Europe compte reprendre le contrôle. Les principales mesures imposées dans les frontières de l’UE visent d’une part à sensibiliser les citoyens sur la criticité des données personnelles, et de l’autre à engager les prestataires de services à plus de transparence. Enfin, elle se dote d’un levier financier pour faire respecter sa mise en application avec des amendes en cas d’infraction allant de 2% à 4% du chiffre d’affaires mondial. Une amende record de 50 millions d’euros a d’ailleurs été infligée à Google en janvier 2019 pour non respect de cette législation.

Si sa mise en oeuvre a permis l’application de sanctions, la RGPD n’a pas pour autant freiné la fréquentation des grandes plateformes qui continuent de récolter et d’analyser les données personnelles. Les utilisateurs sont plus informés par les prestataires sur les systèmes de collecte d’informations, mais demeurent pour autant toujours aussi nombreux à utiliser ces services, en témoignent les chiffres présentés ci-dessus. Car si la captation par les cookies, le partage de photos, de listes de contacts, etc est bien connue du grand public, la finalité de ces procédés reste floue et sans conséquences immédiates apparentes. Sans réelle conscience des enjeux de manipulations subtiles de leur opinion à des fins commerciales ou politiques, les consommateurs continuent de surclasser la valeur ajoutée de ces outils par rapport aux risques encourus.

Réduire la vulnérabilité numérique

Comment accompagner la technologie dans son développement pour permettre l’exploitation inédite des possibilités qu’offrent le Big Data et L’IA dans le respect de l’individu ?

  • Rapatrier algorithmes et données personnelles sous pavillon européen. Organiser le développement d’un acteur national pour récupérer des parts de marché dans l’UE de manière à pouvoir maîtriser d’avantage captation et traitement des données personnelles. Ainsi, augmenter notre capacité à contrôler et prévenir des dérives comme l’affaire Cambridge Analytica. Mais pour faire face à la force de frappe des plateformes existantes, financements et développements doivent converger de toute l’Europe. Une telle entreprise permettrait un rapatriement des utilisateurs et technologies dans un environnement plus maîtrisable, mais sa mise en oeuvre très complexe et sans garantie d’adoption par les utilisateurs n’en fait pas un scénario réaliste.
  • Durcir la législation et imposer plus de transparence. A l’image de la réglementation RGPD, l’Europe pourrait se doter de législations supplémentaires pour obliger les entreprises à plus de transparence non plus sur la captation des données mais sur leur traitement, leur revente et leur finalité. Ces nouvelles règles seraient un levier supplémentaire pour multiplier les pénalités en cas d’infraction, ainsi, encourager les entreprises à s’auto-réguler. Une fois de plus, la puissance des grandes entreprises du marché – GAFAM – et leur capacité à évoluer plus vite que les organismes de régulation rendent difficile le juste contrôle de leur activité. Il est probable que le durcissement des peines coûte d’avantage aux acteurs intermédiaires et petites structures plutôt qu’aux grands groupes, principalement ciblés par ces mesures.
  • Renforcer les campagnes de sensibilisation. S’il est difficile d’imaginer le développement d’un champion européen, ou la mise en oeuvre d’une législation efficace, il reste envisageable de sensibiliser le grand public aux risques de dépendance et manipulation. De la même façon que l’on perçoit distinctement le danger de l’usurpation d’identité ou du vol de coordonnées bancaires, il faut pouvoir se rendre compte de l’influence des algorithmes sur notre quotidien. De cette façon l’utilisateur, face aux services et contenus qui lui sont proposés gratuitement, pourra en mesurer plus justement le rapport gain / risque.

Il ne s’agit pas de se passer de ces plateformes, mais de trouver des moyens de concilier les services rendus avec une meilleure maîtrise de notre trace numérique. L’enjeu est double, il nous faut protéger l’individu contre les préjudices potentiels des algorithmes d’apprentissage. Mais également garantir un contrôle à l’échelle nationale et européenne pour empêcher les opérations de manipulation d’opinion de grande envergure. Quelles que soient les solutions envisagées, seule une réponse d’envergure européenne aura la portée nécessaire pour se montrer efficace face aux empires numériques que sont les GAFAM et la pression financière d’un marché en forte croissance.

Pierre-Alain Thiout le 9 avril 2021

Sources

https://fr.wikipedia.org/wiki/Destruction_créatrice

https://fr.wikipedia.org/wiki/Trace_numérique

https://comarketing-news.fr/big-data-un-marche-a-plus-de-200-milliards-des-2020

https://www.nouvelobs.com/nos-regions-connectees/20190318.OBS1990/le-big-data-en-cinq-chiffres.html

https://www.lemonde.fr/idees/article/2019/06/14/shoshana-zuboff-oublie-d-inscrire-le-capitalisme-de-surveillance-dans-une-histoire-plus-large_5476062_3232.html

https://www.franceculture.fr/emissions/les-nouvelles-de-leco/les-nouvelles-de-leco-du-jeudi-07-mars-2019

https://www.lesechos.fr/2013/03/la-ruee-vers-lor-des-donnees-personnelles-336562

https://fr.statista.com/infographie/17800/big-data-evolution-quantite-donnees-numeriques-creees-dans-le-monde/

https://www.distributique.com/actualites/lire-big-data-le-marche-promis-a-une-croissance-a-deux-chiffres-jusqu-en-2020-25336.html

https://www.lefigaro.fr/secteur/high-tech/2014/06/30/32001-20140630ARTFIG00096-facebook-a-conduit-une-experience-secrete-sur-700000-utilisateurs.php

https://fr.wikipedia.org/wiki/Scandale_Facebook-Cambridge_Analytica

https://www.lemonde.fr/pixels/article/2018/03/22/ce-qu-il-faut-savoir-sur-cambridge-analytica-la-societe-au-c-ur-du-scandale-facebook_5274804_4408996.html

https://jean-jaures.org/nos-productions/opinion-sensibilisation-manipulations-le-jeu-fausse-de-la-protection-des-donnees

Certains icônes utilisés dans les schémas proviennent de https://icons8.com/

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

%d bloggers like this: