Trucage de « sondage » sur France 3

Trucage de « sondage » sur France 3 : la presse découvre l’Astroturfing

21817646

Mis en lumière par notre confrère Al-Kanz, le trucage d’un sondage mis en ligne par France3 suite à l’affaire Baby Loup lève le voile sur une pratique très courante : l’Astroturfing.

Al Kanz, qui fut le premier à interviewer la personne à l’origine du trucage du sondage a peut être rendu un fier service à la République, et il convient de leur rendre hommage à tous les deux (Al-Kanz et le responsable du trucage), car il est essentiel que la presse réalise que ces pratiques sont courantes, et reposent sur un arsenal technologique souvent bien plus sophistiqué que celui mis en place par la personne interviewé par Le Monde dans son édition d’hier.

Qu’est-ce que l’Astroturfing ?

L’Astroturfing consiste à faire croire à un « effet de foule » là où n’en existe aucun ou à simuler un « engagement » autrement plus conséquent que ce qu’il est en réalité, et peut avoir des objectifs variés. Le plus simple est de faire croire à un mouvement d’opinion là où il n’y en a pas. C’est ce qu’a illustré le hacker interviewé par Al-Kanz, et rendons lui grâce de ne l’avoir fait qu’à cette fin. C’est une pratique techniquement très simple, d’autant plus simple que la sécurité ici mise en place par France 3 sur son site internet est pour ainsi dire inexistante. Tristement c’est d’ailleurs souvent la norme sur ce type de « sondages ».

Plus sophistiquées, d’autres opérations d’Astroturfing visent à initier un véritable mouvement d’opinion en se basant sur le « comportement moutonnier » de la population (connu des sociologues sous le nom de « bandwagon effect« ), ou pour faire éclater un effet de clustering (silos isolés) de l’opinion et faire prendre conscience à une multitude de personnes agencées jusqu’ici en petits groupes qu’elles pourraient s’unir et peser ainsi de façon plus significative. C’est ce phénomène qui est derrière des mouvements tels que les Pigeons, les Gilets Jaunes, ou les Bonnets Rouges, sans qu’il ne s’agisse pour autant d’Astroturfing dans ces cas précis, mais il serait aisé de déclencher de tels phénomènes en les accélérant à l’aide des technologies d’Astroturfing – on parlera ici de  »bootstrapping » d’opinion publique.

On est là dans le nec plus ultra des sciences politiques « deux-point-zéro ».

Hasard ou coïncidence, tout comme la surveillance était enseignée à Sciences Po. bien avant que n’éclate le scandale Prism ces sujets y sont enseignés cette année (ici et ici) et font également l’objet d’ateliers pratiques.

Trois ans d’enquête et d’investigation

Tout cela n’est pas nouveau, cela fait plusieurs années que nous étudions de très près ces technologies chez Reflets. En pratique, nous avons rencontré ces pratiques et ces technologies bien avant que Reflets ne voit le jour. En mai 2010, ReadWriteWeb s’est ainsi retrouvé confronté à une opération d’Astroturfing mise en place par la police tunisienne, à l’aide d’une officine privée qui fut rapidement démasquée et démantelée (voir aussi ici).

Ce fut notre première rencontre avec l’Astroturfing, et le début d’une très longue enquête, ponctuée de découvertes (plus ou moins) stupéfiantes, comme la participation de l’Armée Américaine à ce type d’opérations, découverte un an plus tard, en mai 2011 pour finir, comme Al-Kanz, par une multitudes de rencontres avec des individus et des officines qui mettent au point ce type de technologies.

Quelques mois plus tard, en juin 2011, certains membres de l’équipe de Reflets seront à nouveau l’objet d’attaques faites à l’aide de logiciels d’Astroturfing mise en place par une officine au sein d’une grande agence de communication Française. Le faible niveau technique de cette opération (démasquée en 24h) sera l’occasion de mesurer le niveau de maitrise technologique en vigueur dans ce qui est la principale agence de communication politique en France. Ce fut également l’occasion de mettre en place une petite infowar fort amusante (clic clic clic clic clic clic ) qui se termina par un pillage en règle des données contenus dans l’intranet du groupe Havas. Des données croustillantes qui, à ce jour, n’ont pas (encore) été rendues publiques.

Un an plus tard, en mai 2012, Reflets mettra à jour une autre opération d’Astroturfing réalisée par la même agence de communication, toujours pour un client politique, visant à simuler un engouement populaire en vue d’influencer le décision d’une fédération sportive dans le choix d’une localité destinée à accueillir d’importantes infrastructures. Ce fût, là encore, l’occasion d’une franche rigolade.

A peine trois mois plus tard, en juillet 2012, nous révélions, à la faveur d’une boulette faite par un ancien premier ministre, comment l’un des principaux partis politiques français pratiquait ce type de trucage de sondage dans le but de faire apparaitre comme crédible la candidature de certains sans que cela ne soit, à l’époque, repris par la presse.

Du hacker à l’arsenal technologique lourd

Il existe des technologies d’Astroturfing infiniment plus sophistiquées que celles révélées aujourd’hui parAl-Kanz, qui est l’œuvre d’un hacker isolé. Entendez par cela qu’il n’y a rien de bien compliqué à truquer un sondage en ligne.

Il convient cependant de ne pas confondre un ‘trucage de sondage’ réalisé en rameutant à l’aide des média sociaux (ou d’une newsletter) des militants et en les appelant à voter ou commenter en masse avec l’usage de technologies permettant d’automatiser ce processus. Ce sont deux choses très distinctes. Si la première méthode est couramment pratiquée en France, notamment par les partis d’extrême droite et d’extrême gauche (mais aussi, en son temps, par l’organisation mise en place par Ségolène Royal lors de sa candidature à la présidence de la République), il ne s’agit en rien de hacking, ni même, à proprement parler, de trucage, mais de militantisme un poil exacerbé. Quand ce type d’opération est réalisée à l’aide de logiciels, on change de dimension, car on ouvre la voie à une manipulation de masse opérée par un tout petit groupe, voire par une seule personne. L’essence de la cyber-propagande.

Les outils

Il existe deux principales catégories d’outils permettant de mettre en place de telles opérations de manipulation de masse de l’opinion publique.

La première se nomme « persona management », et permet à un opérateur de contrôler une multitude de comptes (profils) en parallèle, souvent de façon extrêmement efficace, l’outil allant même jusqu’à attribuer une IP spécifique, cohérente avec la géolocalisation affichée par chaque profil fictif, et fournissant à l’opérateur une multitude de feedbacks lui permettant de garder, pour chaque profil ainsi opéré, une cohérence dans le temps. Vous pouvez, à l’aide d’un tel outil, peupler les commentaires d’un article et organiser ce qui prendra l’apparence d’un débat entre plusieurs parties prenantes masquant un seul et même opérateur, mettant ainsi en scène une conversation entre une multitudes d’individus et lui donnant l’apparence d’une légitimité populaire.

Cette approche nécessite toutefois une certaine main d’œuvre, un opérateur ne pouvant ainsi orchestrer que plusieurs dizaines de faux profils tout au plus. C’est ce type d’outils qu’utilise l’armée américaine à des fins de « PsyOps« , officiellement au moyen orient, mais Prism a révélé que la NSA n’avait pas vraiment de limites géopolitiques. C’est vraisemblablement ce type d’outils qui furent utilisées dans l’opération CyberDawn, qui prit place juste avant l’invasion de la Libye et qui était destinée à implanter des ‘journalistes citoyens’ (en pratique des soldats américains issus d’unités de PsyOps), chargés par la suite de fournir des informations aux journalistes occidentaux incapables de se rendre sur le terrain (tout ceci sera par la suite mis à jour à la suite du hacking par Anonymous des emails internes de HBGary, un sous traitant de l’armée US ayant participé à la mise au point de cette opération).

L’autre classe d’outil consiste à pousser plus loin l’automatisation et à mettre en place de vastes réseaux de faux comptes (essentiellement sur Facebook ou Twitter, où la proportion de faux comptes est estimée entre 5 et 10%). Le challenge technologique consiste ici à animer les dizaines, voir centaines de milliers de faux profils ainsi gérés, en leur donnant l’apparence de véritables utilisateurs, à les insérer dans de vrais réseaux (c’est à dire à les faire suivre sur Twitter, ou devenir « amis » avec de vrais utilisateurs sur Facebook), puis à les faire interagir (‘dialoguer’) avec de vrais utilisateurs. Une tâche assez complexe, qui prend du temps pour installer les multiples faux profils dans les différents sous-réseaux de vrais utilisateurs visés, mais tout à faire réalisable et dont nous avons pu constater nous même l’existence. Cela fait longtemps qu’il existe des moteurs d’intelligence artificielle permettant d’automatiser l’accueil des consommateurs sur un site web, et ces technologies sont du même ordre technique (un peu plus sophistiquées ceci dit, et maitrisant plus de langues). IBM s’apprête, de son coté, à fournir une solution « dans le cloud » tout à fait en mesure de servir de « brique de base » pour la construction de telles capacités conversationnelles.

Le but ultime consiste à doter le réseau (« botnet ») de faux comptes ainsi animés d’une intelligence stratégique et de le lancer à l’assaut d’un groupe de vrais profils préalablement identifiés avec une mission (contrer une opinion, ou les faire cliquer sur un lien, par exemple). Ca peut sembler incroyable, mais tout gamer vous confirmera qu’un bon FPS dispose d’une telle intelligence artificielle doté d’un sens tactique et d’une capacité à mettre en œuvre une stratégie. Aussi surprenant que cela puisse paraitre, cela n’a rien d’invraisemblable, même si cela reste un réel chalenge technique, il n’est en rien irréalisable.

Combinés, ces outils permettent de mettre en place de vastes opérations de manipulation de l’opinion publique.

Quel impact ?

L’objectif des opérations rendues possibles par de telles technologies peut varier grandement d’un commanditaire à l’autre. Celle qu’a révélé Al-Kanz consiste à s’appuyer sur l’ignorance des médias qui multiplient des segments d’informations destinés à « prendre le pouls de l’opinion sur internet » et leur faire refléter une opinion publique qui ne correspond pas à la réalité. C’est basique, mais ça marche.

Plus sophistiquées, certaines opérations consistent à décloisonner des « clusters » d’opinion isolés afin de les réunir pour à la fois obtenir un groupe plus important, mais également dans le but de faire disparaitre le sentiment d’isolement des acteurs ainsi réunis et initier une phénomène connu sous le nom de ‘groupthinking‘ afin de manipuler le groupe ainsi formé. Une fois le groupe reconfiguré de la sorte, il sera plus aisé de l’orienter, surtout si le dispositif mis en place pour agréger ces micro-groupes disparates – typiquement une page Facebook – permet d’établir dans ce nouveau groupe une hiérarchie, comme c’est le cas d’un administrateur pour une page Facebook. Il existe cependant bien d’autres dispositifs qu’une page Facebook pour arriver à ce résultat.

Enfin, on peut manipuler à grande échelle l’opinion publique dans le but d’orienter des mouvements d’opinion, de contrôler des effets de foule, dont le comportement sur internet diffère sensiblement de ce qui a été observé en terme de dynamique des foules jusqu’ici.

Il existe une multitude d’exemples, nous en avons retenus deux particulièrement parlants.

Le premier nous parle parce qu’il nous est proche : lors de l’élection du futur patron de l’UMP, la candidature de Jean François Copé fut soutenue par une campagne d’Astroturfing, par la suite dénoncée par François Fillon sur Canal+ – cette campagne avait pour objectif de faire apparaitre comme légitime et soutenue par l’opinion publique une candidature qui semblait, dans les premiers temps de la campagne, pour le moins perdue d’avance.

La seconde campagne d’Astroturfing politique que nous avons retenue est bien plus lointaine, elle s’est déroulée en Corée du Sud en décembre dernier, lors des dernières élections présidentielles, et visait à discréditer le candidat de l’opposition. Cette campagne d’Astroturfing est particulièrement intéressante pour deux raisons. Son exécution, tout d’abord : elle est l’œuvre de deux services d’Etat combinés, l’armée et les services secrets, et montre, si Prism n’était pas suffisant, à quel point les démocraties sont en péril si elles ne mettent pas en œuvre au plus vite une supervision étroite de tels services.
L’autre raison pour laquelle cette campagne d’Astroturfing est intéressante est l’amplitude de celle-ci. La Corée du Sud est le pays le plus avancé en matière d’usage internet dans le monde, et au vu de l’ampleur de cette campagne d’Astroturfing, il ne fait aucun doute qu’une série de logiciels particulièrement sophistiqués ont été à l’œuvre. Un chiffre témoigne de l’ampleur de cette opération : plus de 24 millions de messages Twitter ont été diffusés dans les semaines qui ont précédé le scrutin, dans le seul but de discréditer un adversaire politique tout en conservant les apparats d’un débat démocratique et juste. Un phénomène fascinant, qui necessite cependant pour en saisir l’ampleur de comprendre le contexte spécifique de la Corée du Sud (pour cela je vous conseille cet article)

Demain

Il existe des algorithmes complexes en mesure de détecter certaines opérations d’Astroturfing, tout comme il existe des méthodes d’investigations permettant de les mettre à jour – comme nous l’avons fait à de nombreuses reprises chez Reflets. Mais c’est loin d’être simple, et c’est une course sans fin aux gendarmes et aux voleurs qui se met en place.

On prendra soin – du coup – à ne jamais prendre pour argent comptant les accusations de ‘trucage’ lancées à la va-vite par certains blogueurs qui s’improvisent experts dès qu’ils mettent la main sur un outil quelconque, quand ils font face à des sondages ou des mouvements de foule qui – systématiquement – sont en contradiction avec leurs opinions personnelles. Pages Facebook de soutien à divers bijoutiers braqués, mouvements nés d’une mobilisation improbable réunissant des acteurs sociaux que les paléo-politologues pensaient jusqu’ici opposés, déferlement de haine sur Twitter autour de hashtags racistes ou antisémites, tous ces phénomènes émergents que nous avons pu observer en France ces derniers temps ne relèvent pas pour le moment de l’Astroturfing, mais reflètent bien une réalité tangible, qu’il convient cependant d’appréhender en tenant compte du miroir déformant que constitue les technologies sociales dans lesquels ils prennent place.

L’important est de retenir que comme toute information, il est possible de truquer celles issues des média sociaux dès lors que l’on a des connaissances techniques dans le domaine ou les moyens de s’en adjoindre; ainsi le doute que nous cherchons à susciter dans l’esprit de nos lecteurs ne peut être que salvateur face à ces « sondages » notamment mais également face aux mouvements de foule plus globalement.

Si les gens commencent à douter de tout, ils vont peut être commencer à réfléchir par eux même.

 

Update

Alors que France 3 a publié sur Facebook une réponse à ce mini scandale  et a affirmé au Monde que ses « services ont fait le nécessaire pour que cela ne se reproduise plus » – le hacker qui a faussé les résultats du sondage fait à propos de l’affaire Baby Loup a de son coté mis à jour son script, et continue de jouer avec les sondages en ligne de France Télévision (mais pas que).

Il nous a fait parvenir des explications techniques relatives à son dernier exploit, visible sur le site de France 3où il a massivement fait monter le vote « ne se prononce pas » d’un autre sondage mis en ligne plus récemment par France Télévision, en passant par une série de proxies Russes, Ukrainiens et Européens, ainsi qu’en utilisant un malware présent sur de très nombreuses machines et une attaque CSRF sur des sites à fort trafic – entendez par là que ça commence à être sérieux en terme de hacking et que les sondages en ligne vont avoir du mal à lutter contre ce hacker qui compte bien – coûte que coûte – ouvrir les yeux de la presse sur les pratiques d’Astroturfing.

Capture d’écran

Par 

source

Commentaires sont clos