A lire sur: http://www.ad-exchange.fr/comment-les-annonceurs-peuvent-ils-se-battre-contre-les-robots-fraudeurs-8547/
14/11/2013 |
De nombreuses études mettent en avant le montant de la fraude publicitaire qui pèse plusieurs centaines de millions de dollars selon les différentes estimations. C’est peu quand on sait que l’industrie pèse plusieurs dizaines de milliards de dollars. Et pourtant, il s’agit d’un phénomène qui perdure depuis des années. Il y a quelques années, c’était les faux clics sur les moteurs de recherches qui faisaient la une de la presse spécialisée. Désormais ce sont les robots mutant qui déclenchent des impressions publicitaires fantômes et des clics frauduleux.
Jusqu’ici, on a beaucoup pointé du doigt les éditeurs peu scrupuleux qui laisseraient faire, trop heureux de trouver du trafic supplémentaire et des revenus inavouables mais très confortables. Alors, certes les ad-exchanges sont pollués par des sites de mauvaise qualité et des éditeurs qui opèrent dans la zone grise, c’est aussi le devoir de l’annonceur et de son agence de mettre en place des mesures pour atténuer le phénomène. Alors comment vaincre les robots ?
L’une des façons les plus simples c’est de collaborer et des partager ses bases de données sur les listes noires. Tous les trading desks le font en interne afin que les différents annonceurs en profitent. Hélas personne n’a envie de partager les résultats à l’extérieur. Pourquoi ne pas coopérer entre la trentaine de trading desk français ?
Sur le papier c’est l’arme absolue. Dès qu’un membre de l’alliance détecte une fraude tout le monde en profite. Mais alors pourquoi personne n’y a pensé ? Pourquoi cela ne fonctionne-t-il pas encore ? Quels sont les freins ?
Chaque annonceur ou agence peut aussi exploiter les données issues de ses propres campagnes. Il s’agit de déterminer les indicateurs de performance qui mettent en avant l’origine frauduleuse du trafic. C’est important pour ceux qui opèrent des campagnes au CPC. Lorsqu’un placement ou un vendeur affiche un CTR supérieur à 1%, méfiance. Ensuite, il faut utiliser les capacités d’un outil de web analytique afin de déterminer si les clics se transforment en visites et le nombre de pages vue par visite. On peut donc éliminer les visiteurs qui n’achèteront jamais et se concentrer sur ses vrais clients.
D’un autre côté, il y a un revers de la médaille lors qu’on élimine l’audience des visiteurs qui ne fait jamais un achat. On peut perdre les consommateurs indécis qui prennent plus de temps pour acheter et qui ont besoin d’être rassurer. Le but de l’exercice est de déterminer quels sont les sites (ou les sellers) qui génèrent trop de clics. Certes un éditeur premium est aussi victime des « robots » mais c’est surtout le cas des sites appartenant à la longue traine, ceux qu’on ne connait pas.
La meilleure façon de vaincre les robots est de combiner les deux méthodes ci-dessus. Cela nécessite la segmentation permanente des cookies pour identifier les ensembles présentent une probabilité forte d’être des robots. Lorsque les internautes sont filtrés ainsi, on élimine les mauvaises herbes de l’inventaire disponibles sur les ad-exchanges et tente d’afficher les impressions publicitaires uniquement aux humains qui vivent dans de la vie réelle. Les annonceurs peuvent ainsi obtenir d’excellents résultats pour leurs campagnes tout en éliminant toute crainte de la fraude.
- See more at: http://www.ad-exchange.fr/comment-les-annonceurs-peuvent-ils-se-battre-contre-les-robots-fraudeurs-8547/#sthash.Dp789GQu.dpuf
Aucun commentaire:
Enregistrer un commentaire