« Maman, c’est quoi un vibromasseur ? »

308 0

Chaque jour, plus d’un milliard d’heures de vidéos sont visionnées sur YouTube. Plus d’un milliard d’utilisateurs sont familiers avec la plateforme de vidéos en ligne de Google. Ces chiffres vertigineux nous rappellent la puissance de la plateforme et la nécessité de contrôler les contenus diffusés.

Pourtant, pour la deuxième fois cette année, YouTube est rappelé à l’ordre et est au cœur d’une polémique. The Verge, site américain traitant de l’actualité technologique, de l’information et des médias (détenu par Vox Media), a pointé du doigt des pratiques douteuses sur YouTube… Kids ! Les révélations ont immédiatement fait réagir les médias, mais aussi les annonceurs.

YouTube Kids, la plateforme des +18 ans ?

L’accès aux outils numériques se fait de plus en plus jeune, offrant la possibilité à de jeunes enfants d’accéder à pléthore de contenus. Pour éviter que le jeune public ne soit exposé à du contenu non-adapté et pour rassurer les parents, YouTube a lancé en 2015 (2016 en France) YouTube Kids. L’application propose une expérience complètement différente pour optimiser l’utilisation par des enfants. On y trouve un contrôle parental permettant notamment de limiter le temps de visionnage, la possibilité de retirer la barre de recherche, un design adapté, des paramétrages pour adapter les propositions de vidéos à l’âge des enfants (3-4 ans, 5-9 ans). Au total dans le monde, l’application cumule plus de 11 millions d’utilisateurs. Ce sont donc des millions de parents qui laissent leur enfant naviguer sur la plateforme, proposant des vidéos éducatives, des dessins animés, des chansons et des comptines.

Pourtant, tout n’est pas si rose sur YouTube Kids. Plusieurs journalistes ont repéré des contenus plus qu’inappropriés et dérangeants à destination des enfants. Des chaines ont notamment parodié des dessins animés ou des comptines pour en détourner le sens ou proposer des épisodes revisités. On pouvait ainsi trouver sur l’application un remix de la célèbre chanson « Une souris verte », avec des paroles telles que : « Une souris verte, qui fumait de l’herbe, je lui donne de la Beubeu… ». Et que dire d’un épisode de Tchoupi mettant en scène Mamadou (Oui, oui, Mamadou, pas Doudou) qui a une érection sous la couette et Tchoupi qui trouve un vibromasseur dans son sac. Et s’en sert de brosse à dent.

En plus des contenus publiés, de nombreux commentaires pédophiles ont également été repérés, y compris sur des vidéos totalement innocentes dans lesquelles on peut voir des enfants. De quoi inquiéter les parents qui pensaient leurs enfants protégés grâce au dispositif proposé par la plateforme de Google.

Action, réaction

YouTube a très vite réagi suite à ces révélations. En peu de temps, ce sont 150 000 vidéos qui ont disparues des radars et 270 chaines qui ont été supprimées. Ces problèmes de contenus ne concernent pas uniquement quelques vidéos isolés sur YouTube Kids mais bien des milliers de vidéos ! Fort heureusement, celles-ci ne sont généralement pas aussi visionnées que les épisodes officiels de dessins animés et tous les enfants n’ont pas été exposés à ce type de contenus. Toutefois, cela pose beaucoup de questions quant au filtrage opéré par les algorithmes.

YouTube annonce donc le recrutement de nouveaux modérateurs pour atteindre un total de 10 000, tous employés à plein temps par le groupe Alphabet (Google, YouTube…). Ces 10 000 modérateurs auront pour mission de contrôler le contenu publié sur les chaines et de surveiller les commentaires. Ils participeront également à la création d’une « White List » recommandant des chaines vérifiées et certifiées par la plateforme de vidéos. YouTube affirme que chacune des chaines sera vérifiée par un humain pour être ajoutée à la liste.

Problème : YouTube n’est pas le seul à réagir. Certains annonceurs ont très vite retiré leurs publicités de YouTube Kids : le groupe Lidl, le groupe Mars, Adidas, HP et Deutsche Bank pour n’en citer que quelques-uns ont ainsi boycottés le réseau.

Des risques sur le long terme

 Ce n’est pas la première fois que les algorithmes font parler d’eux, et cela pourrait couter cher. Déjà en début d’année YouTube faisait face au mécontentement des annonceurs dont les publicités étaient diffusées avant des vidéos prônant le terrorisme et/ou à caractère haineux. Du côté de chez Facebook, les diverses campagnes récentes (Brexit, présidentielles), avaient fait polémiques suite aux multiples diffusions de Fake News. Marc Zuckerberg avait ainsi réagi en annonçant le recrutement de 3000 nouveaux modérateurs pour contrôler la véracité des informations publiés.

Ces multiples incidents mettent en exergue les limites des algorithmes utilisés par les géants du net. Dans Les Echos, un responsable de média affirme que « ni Google, ni YouTube, ni Facebook ne disposent d’algorithmes suffisamment sophistiqués pour s’auto-contrôler ».

Or, les réseaux tels que Facebook ou YouTube tirent la plupart de leurs revenus de la publicité. Les annonceurs ont donc un poids énorme sur ces géants. La répétition de ces polémiques pourrait toucher la confiance des annonceurs, et, par conséquent, fragiliser le système économique de ces plateformes. Les algorithmes dits « apprenants » vont devoir apprendre très vite pour assurer une meilleure fiabilité, et rassurer à la fois les annonceurs et les utilisateurs.

Nicolas Morteau

Sources :

 

Crédits photos : 

Crédit photo 1 : capture d’écran du site https://kids.youtube.com/ réalisée le 12/12/17

Crédit photo 2 : capture d’écran réalisée par France Info le 13 novembre 2017

Total 1 Votes
0

Tell us how can we improve this post?

+ = Verify Human or Spambot ?

Pas de commentaire on "« Maman, c’est quoi un vibromasseur ? »"

Leave a Comment

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *