De nombreux paramètres sont étudiés par les annonceurs pour maximiser l’efficacité d’une campagne vidéo sur les réseaux sociaux :
- le choix du format et de la durée de la vidéo,
- le respect de guidelines créatives d’excellence,
- la définition précise de la cible marketing,
- la puissance du plan de médiatisation de la video sur les réseaux sociaux comme YouTube…
…mais toute cette stratégie marketing peut être mise en péril si la vidéo est diffusée autour de contenus inappropriés aux valeurs de la marque.
C’est ainsi que la notion de Brand Safety entre en jeu, à savoir « l’ensemble des techniques qui permettent à une marque de s’assurer qu’elle n’apparaît pas dans des environnements qui pourraient présenter un risque pour son image ».
La problématique du Brand Safety sur les réseaux sociaux comme YouTube à été mise en avant à travers un sordide scandale provoqué par un Youtubeur américain, Paul Logan (16 millions de followers) début janvier 2018 lorsque ce dernier à diffusé une vidéo ou il se met en scène à coté d’un cadavre dans un forêt au Japon.
Au déla du caractère totalement inapproprié de la vidéo, le comble du scandale fut que ce Youtubeur était membre du Programme Preferred (plateforme publicitaire qui permet aux annonceurs de repérer les Youtubeurs les plus populaires) et garantissant aux marques un gage de Brand Safety…
Mettons nous à la place des annonceurs dont les pre-roll ont été diffusés juste avant cette vidéo (6 millions de vues, 48h avant son retrait) de ce Youtubeur bénéficiant de cette garantie Brand Safety…
Suite à ce scandale, YouTube a décidé mi janvier de renforcer son dispositif des programmes de monétisation « YouTube Partner Program » et « Google Preferred« .
Ainsi, pour YouTube Partner Program, il faudra aux chaines un minimum 1000 abonnés et 4000 heures de temps de visionnage sur l’année précédente pour être éligible à la monétisation (vs un dispositif à date instaurant un minimum de 10000 vues par chaine – sans temps de vue minimum requis).
Pour Google Preferred, chaque vidéo devra être validée par un modérateur humain, dont la mission est de vérifier que le contenu ne puisse pas heurter l’audience. Les équipes du service modération de YouTube devrait ainsi atteindre 10000 personnes cette année
En parallèle, YouTube capitalise également sur le machine learning (technique d’intelligence artificielle) permettant de détecter les vidéos inappropriées afin de les présenter à un modérateur humain pour analyse. Ce dispositif d’intelligence artificiel à permis de voir supprimer 150 000 vidéos en moins d’un an.
Cette politique sera mise en place à partir de mi-février aux États-Unis et d’ici fin mars dans la quinzaine d’autres pays dont la France.
A l’égard du développement fulgurant des vidéos misent en ligne chaque jour sur Youtube (400 heures de vidéos téléchargés toutes le heures), ces dispositifs seront ils efficaces pour protéger les marques?
Tout comme dans l’industrie aéronautique ou les crashs d’avion révèlent les déficiences techniques des avions et permettent d’améliorer infine la sécurité des passagers, faudra t il un nouveau scandale pour que de nouvelles mesures de sécurité des marques soient développeés par des plateformes comme Youtube ?
Et vous… annonceurs, savez-vous précisément ou sont diffusés vos publicités vidéo…?
A bon Youtubeur…