Publicité en ligne : tempête en vue ?

Publicité en ligne : tempête en vue ?

pub

Rien ne va plus dans le monde feutré de la publicité en ligne. Les annonceurs se rebiffent. Le Canard Enchaîné a publié deux articles ces dernières semaines qui dévoilent certaines pratiques du secteur et ce n’est pas réjouissant. Cette semaine, le volatile titre « Comment publicitaires et médias roulent les annonceurs » (Le Canard Enchaîné du mercredi 9 mars 2016, page 4). L’article raconte comment un annonceur a été « escroqué » de 834.000 euros par des médias et des régies Internet.

« Les juges ont calculé que le quart des sommes payées par une coopérative agricole qui avait lancé une campagne dans de nombreux médias étaient des « surfacturations » ne correspondant à aucune prestation réelle. Au cours du seul quatrième trimestre de 2009, sur les 3,2 millions d’euros dépensés en pub par la Compagnie générale de conserve (CGC), plus connue sous la marque D’Aucy, 834 000 euros rémunéraient des services fictifs. »

C’est Mediainspekt, une société chargée de traquer les faux clics et autres internautes fictifs qui a mis sous les projecteurs des pratiques bien connues, mais rarement exposées publiquement. En demandant au tribunal de commerce de trancher un différent commercial avec la Compagnie générale de conserve, elle a provoqué un grand déballage public. Les noms des régies et des médias facturant du clic à la louche et incapables de prouver leur réalité s’étalent désormais dans la presse.

La technique, c’est plus fort que toi

Il faut se plonger dans les méandres techniques du réseau et dans les méthodes de mesure d’audience pour comprendre les enjeux et la réalité du secteur de la publicité en ligne.

Dans le secteur de la presse, la mesure d’audience est un point essentiel. Tout journal veut connaître au mieux son lectorat. Cela lui permet de valoriser ses espaces dédiés à la publicité. Idem sur le Web. Mieux, il peut, sur Internet, profiler ses propres lecteurs qui peuvent devenir un atout monétisable. Les méthodes de comptage des ventes au numéro ou du taux de circulation d’un journal (le nombre de lecteur par exemplaire papier vendu) semblent, à l’ère d’Internet, des outils préhistoriques. La technologie porte des promesses de profilage des lecteurs sans bornes.

Pour ce qui est des sites Web, les traces conservées par le serveur, les logs, sont une mine d’information. Selon le paramétrage du serveur, on peut en général, sans parler des données récoltées par des cookies, savoir :

  • Quelle est l’adresse IP du visiteur (et donc géolocaliser son détenteur).
  • Quelle demande a été faite au serveur (les articles lu).
  • Quel est le système d’exploitation
  • Quel est le navigateur.
  • La résolution de l’écran.
  • D’où provient le lecteur.

L’ajout de cookies permet de tracer en détail une session, ce que fait très bien Google Analytics qui au fil du temps s’est imposé comme outil de mesure d’audience de référence. Il est très important pour un éditeur d’être parfaitement référencé dans ce moteur de recherche et utiliser ses outils de mesure d’audience permet d’affiner ce référencement. Aujourd’hui, la part de marché de Google Analytics atteint 82,8% des 10 millions de sites étudiés par W3Techs.

L’ensemble des acteurs, éditeurs, annonceurs, régies, etc. ont dans leur ensemble convenu d’adopter comme vérité le résultat de traitements informatiques complexes basés sur des données très imprécises. C’est une construction humaine qui figure une réalité, un étalon commun.

Sur Internet, personne ne sait que tu es un chien.

L’un des premiers dessins de presse concernant Internet (Peter Steiner paru dans le NewYorker le 5 juillet 1993) montrait un chien en train de tapoter sur un ordinateur et expliquant à une autre chien : « sur Internet, personne ne sait que tu es un chien ». Rien de plus vrai encore aujourd’hui en dépit des progrès phénoménaux réalisés dans le domaine du profilage des utilisateurs.

Les outils de mesure ont encore aujourd’hui beaucoup de mal à différencier un visiteur humain d’un programme informatique parcourant le réseau et « cliquant » sur une publicité. Quel outil sait repérer une adresse IP attribuée à un être humain et la conserver dans ses statistiques de visiteurs, tandis qu’il écartera les adresses IP d’une ferme de « bots » dans un datacenter ? Selon plusieurs études, près de 50% du trafic internet sur les sites dans le secteur de l’édition n’est pas le fait d’êtres humains…

L’imprécision des statistiques de visites des sites Web est particulièrement flagrante pour qui a migré de Google Analytics à Piwik (un outil libre généralement installé en local). Vous perdez en quelques instant 40% environ, de vos visiteurs. En sens inverse, vous gagnez 40% de trafic.

Les propriétaires des sites ou ceux qui sont rémunérés au clic sur les publicité ont tout intérêt à ce que le nombre de visiteurs et de clics soit élevé. Faire le tri dans les IPs humaines et les IPs de bots, c’est mauvais pour le business.

Les méthodes pour augmenter le trafic d’un site, quel qu’il soit, sont multiples et ont souvent été décrites très tôt dans l’histoire courte d’Internet.

Les iframes, les refreshs intempestifs, les armées de visiteurs achetés dans des pays lointains, les fournisseurs officiels de trafic -mais loin de fournir des visiteurs de qualité – comme Taboola Outbrain ou Advertise.com, l’assimilation dans le trafic d’un site de presse des statistiques de visites d’un site du groupe mais n’ayant aucun rapport avec le journal, tout est rodé, utilisé.

Le pot aux roses…

Pour toute personne familière des technologies qui sous-tendent Internet, l’imprécision des statistiques est une évidence. Et ce, de longue date. Chez les annonceurs, c’est parfois une découverte douloureuse. Bloomberg, dans un article très long et très documenté, rapporte les propos de Ron Amram, salarié d’Eineken USA. Au cours d’une réunion sur les performances d’une campagne en ligne, ses équipes découvrent que tous les clics ne sont pas le fait d’humains :

The most startling finding: Only 20 percent of the campaign’s “ad impressions”—ads that appear on a computer or smartphone screen—were even seen by actual people.

“The room basically stopped,” Amram recalls. The team was concerned about their jobs; someone asked, “Can they do that? Is it legal?” But mostly it was disbelief and outrage. “It was like we’d been throwing our money to the mob,” Amram says. “As an advertiser we were paying for eyeballs and thought that we were buying views. But in the digital world, you’re just paying for the ad to be served, and there’s no guarantee who will see it, or whether a human will see it at all.”

CNBC a récemment publié un article dénonçant des pratiques condamnables deBrightRoll, une société acquise par Yahoo.

La multiplication soudaine des articles dénonçant l’imprécision des statistiques en 2000/2001 avait participé à l’explosion de la bulle Internet. Les startups qui se valorisaient sur le nombre de visiteurs supposés de leurs sites voyaient le « modèle » s’écrouler. Assiste-t-on à un mouvement similaire aujourd’hui ?

 

Antoine Champagne

BOFH du site des étudiants du Master (2015-2016) Journaliste, générateur de transformations numériques et de communautés en ligne depuis 1993

Cet article a 2 commentaires

  1. Article intéressant car ce n’est pas si fréquent de parler du fonctionnement de la publicité (réel) en ligne. Une question : pourquoi Piwik serait meilleur pour identifier les bots ? Ne parlerait-on pas en fait du spam dans Google Analytics ? Deux remarques : petite coquille -> Goggle et votre barre du haut gagnerait à être moins haute (notamment sur mobile).

    1. Les étudiants du master CTN 2015-2016

      Piwik n’est pas mieux ou moins bien que Google Analytics. C’est un outil de traitement des logs comme un autre. avec ses défauts et ses qualités.
      🙂

Laisser un commentaire

Fermer le menu