Bid Throttling : pourquoi les éditeurs doivent optimiser leur volume de requêtes programmatiques ?
Depuis quelques années, le nombre de requêtes publicitaires explose. Cette augmentation de volume est dûe à de nombreux phénomènes dont la généralisation du header bidding, la multiplication des acteurs et, plus généralement, à la croissance du marché.
Le fonctionnement de cet écosystème tend à générer de plus en plus d’appels superflus, voués dès l’origine à ne pas aboutir (ex : globalisation des acteurs du marché, modification des OS et des navigateurs, obligation du consentement, globalisation du marché, etc.).
Il est ainsi pertinent de comprendre les effets indésirables que génère ce phénomène et connaître les solutions qu’ont les éditeurs pour y faire face sans impacter le revenu (yield).
Quels inconvénients peuvent découler de l’envoi massif de requêtes ?
Les effets délétères peuvent être classés en 4 grandes catégories :
- La première est financière : que l’enchère aboutisse ou non, le transfert de données à grande échelle sur des data centers génèrent des coûts Tech inutiles
- La deuxième est d’ordre environnemental : les serveurs sur lesquels ont lieu les transferts de données consomment de l’énergie et ce d’autant plus que cela passe désormais à 80 % par les réseaux cellulaires (3G, 4G, 5G).
- La multiplication de requêtes impacte les performances Web : plus les appels sont nombreux, plus l’affichage des pages du site risque de ralentir. De surcroît, ce phénomène de latence est accentué quand les échanges ont lieu en client side, c’est-à-dire à travers le navigateur de l’internaute.
- Enfin, un trop grand volume de requêtes inutiles détériore la perception de ces inventaires par les acheteurs et les outils qu’ils utilisent. Ils peuvent alors décider d’écarter cette source d’offres non-qualitative.
Pour pallier ce phénomène, plusieurs possibilités de filtrage des appels publicitaires?
Face à ces effets de bord, de nombreux éditeurs réduisent le nombre de partenaires auxquels ils sont connectés. Une stratégie simple d’un point de vue opérationnel, mais qui peut sanctionner les revenus de l’entreprise. C’est pour concilier réduction des appels superflus et revenus qu’est apparu le « traffic shaping » d’appel publicitaire, soit la capacité pour un éditeur d’adapter son volume de requêtes ou d’en supprimer de manière contrôlée.
La technique la plus courante est appelée throttling. Il s’agit d’un filtrage opéré à deux niveaux par les SSPs :
- Sur l’inventaire : les requêtes d’un éditeur sont écartées pour ne pas mettre en vente un inventaire qui intéresse peu les DSP.
- Auprès de la DSP : la SSP estime la probabilité qu’une DSP participe à une enchère. Si les chances sont faibles, l’émission des bid requests est limitée pour une période plus ou moins longue.
Il faut noter que les critères sur lesquels les filtrages sont opérés sont généralement la secret sauce des SSPs, qui ne les partagent pas publiquement.
Pour qu’ils puissent reprendre le contrôle sur ce filtrage à la source, les éditeurs commencent à se voir proposer des solutions pour générer ces limitations d’appels publicitaires. Ces technologies se basent sur le machine learning pour permettre aux éditeurs d’adapter leurs appels en continu.
La gestion intelligente du filtrage à la source de Nexx360 redonne du contrôle aux éditeurs et maximise leurs revenus tout en réduisant le gaspillage.
L’optimisation des appels publicitaires effectuée par la plateforme Nexx360 a été pensée pour et avec les éditeurs. Leurs besoins : une solution qui s’adapte à leur choix de partenaires, au rythme de leurs activités et de façon plus générale à leur stack publicitaire tout en préservant leurs revenus et leurs performances Web. Ce filtrage est proposé à tous les clients de Nexx360, nativement intégré aux outils d’optimisation et sans surcoût. Ainsi chaque émetteur peut drastiquement réduire ses émissions ainsi que ceux de la chaine programmatique tout en protégeant ses revenus.
Pour cela, la solution Nexx360 :
1. Analyse l’historique des enchères réalisées en fonction de plusieurs paramètres comme le placement, le browser, l’os, le pays, le device, etc.
2. Ces inventaires sont ensuite classés de A à F, sur le modèle du nutri-score dans le domaine de l’agroalimentaire. Plus la note est proche de F, moins ces catégories d’inventaires sont jugées performantes, plus le volume d’appels peut être réduit par l’éditeur sans risques… Et inversement !
À noter qu’un minimum de requêtes (échantillonnage ou sampling) est conservé pour observer les changements de comportement et s’y adapter automatiquement. Les éditeurs ont accès à toutes les informations de suivi : classement des acteurs, performances par critères (volume d’enchères, impressions, revenus, etc.). Il peut même paramétrer sa stratégie d’optimisation en fonction des acteurs avec lesquels il travaille directement, ou de ceux qu’il souhaite exclure de certains appels.
Selon Gabriel Chicoye, CTO & cofondateur de Nexx360 : “Ce classement modulaire permet d’adapter le nombre de requêtes aux performances des SSPs sans avoir à réduire définitivement le nombre de partenaires avec lesquels travaille l’éditeur. Au contraire, plus il y a de compétiteurs en course, plus la probabilité de vendre au meilleur prix augmente. De même, les DSPs sont plus à même d’enchérir sur les requêtes de qualité.”