A plusieurs occasions cette année, je vous emmènerai découvrir les coulisses de YouTube pour vous montrer comment nous relevons certains des principaux défis que nous rencontrons mais également pour vous faire découvrir les compromis associés à chacune des actions que nous envisageons. Lors des prochaines éditions, nous explorerons des sujets tels que notre travail d'élaboration de règles, évoquer plus en détail des questions épineuses ou souligner de façon générale les avancées majeures dans notre parcours lié à la responsabilité. Mais pour cette première édition, j'aimerais revenir en détail sur nos actions en cours pour lutter contre les informations erronées potentiellement dangereuses sur YouTube.
Au cours des cinq dernières années, nous avons considérablement investi dans une structure que nous appelons les quatre R de la responsabilité. Grâce au machine learning (apprentissage automatique) et à nos équipes, nous retirons le plus rapidement possible les contenus qui enfreignent nos règles, nous relayons les contenus provenant de sources d’informations fiables et nous réduisons la propagation des contenus problématiques (j'en ai abordé les raisons dans cet article de blog). L'association de ces deux forces s'est révélée essentielle pour garantir que les contenus de mauvaise qualité soient moins visibles et enregistrent peu de vues, tout en préservant la liberté d'expression sur notre plateforme. Pourtant, les fausses informations continuent d'émerger à un rythme effréné et se propagent plus largement et rapidement que jamais. Pour y faire face, notre approche se doit d’évoluer en conséquence. Voici les trois prochains défis que nous souhaitons relever.
Identifier les tentatives de désinformation avant qu'elles ne deviennent virales
Pendant des années, la désinformation en ligne s’est cantonnée à un nombre réduit de sujets prédominants, comme les théories en rapport avec les attentats du 11 septembre, les premiers pas de l'Homme sur la Lune ou le fait que la Terre serait plate. Ces dernières, présentes depuis de nombreuses années sur Internet, ont constitué une archive de contenus au fil des ans. Ainsi, nous avons pu entraîner nos systèmes de machine learning afin de restreindre l'apparition de ces vidéos et autres contenus similaires dans les recommandations, en nous basant sur certains éléments récurrents. Toutefois, il est de plus en plus fréquent qu'une nouvelle théorie émerge et génère rapidement des vues. Il arrive également qu'un discours glisse d'un sujet à un autre (par exemple, certains contenus sur le bien-être peuvent dévier vers des controverses liées à la vaccination). Chaque discours peut se présenter et se propager différemment, et parfois même être délimité à certaines régions.
Nous avons fait face à ces défis au début de la pandémie de COVID-19, comme lorsqu'une théorie du complot affirmant que les antennes 5G étaient à l'origine du coronavirus a incité des personnes à incendier des antennes-relais au Royaume-Uni. En raison du risque clair et réel présenté par ce discours, nous avons réagi en modifiant nos consignes et en interdisant ce type de contenu. Dans ce cas, nous avons pu prendre des mesures rapidement car nous disposions déjà de règles concernant les informations incorrectes sur la COVID-19, basées sur les recommandations des autorités sanitaires locales et internationales.
Cependant, certaines tentatives de désinformation qui pourraient émerger dans le futur n'auront pas forcément des conseils d'experts reconnus pouvant éclairer nos politiques. Et plus les fausses informations sont récentes, moins nous disposons d'exemples pour alimenter nos systèmes. Pour remédier à cela, nous les entraînons de manière continue avec de nouvelles données, car nous souhaitons utiliser un ensemble toujours plus précis pour nos classificateurs, de mots clés issus d'autres langues et d'informations fournies par des analystes régionaux pour identifier des discours que notre règle de classification actuelle n'est pas en mesure de repérer. Avec le temps, nous parviendrons à détecter ces contenus viraux de manière plus rapide et plus précise.
En plus de limiter la propagation de certains contenus, nos systèmes proposent aux utilisateurs des vidéos provenant de sources fiables dans les résultats de recherche et les recommandations. Cependant, nous constatons l'absence de contenus de référence sur certains sujets, ce que nous appelons des "trous noirs de données". Par exemple, immédiatement après l’annonce d’une catastrophe naturelle, des contenus non vérifiés peuvent surgir, dans lesquels des spéculations sont émises concernant les causes du désastre et le nombre de victimes. A l’inverse, les sources d’informations fiables ont parfois besoin de temps pour vérifier certains éléments et créer des contenus vidéos. Par conséquent, lorsque des fausses informations se propagent rapidement, il arrive que nous ne puissions pas réagir immédiatement, car nous n'avons pas toujours assez de contenus fiables à mettre en avant.
Dans le cas d'actualités majeures telles qu'une catastrophe naturelle, nous affichons des panneaux d'informations pour rediriger les utilisateurs vers des informations provenant de médias pertinents. Concernant d’autres sujets spécifiques qui ne sont pas toujours couverts par les médias, nous présentons aux internautes des sections de fact-checking. Malheureusement, cela prend du temps, et nous ne pouvons pas couvrir tous les sujets émergents. C'est pourquoi nous réfléchissons à d'autres types de libellés à ajouter soit directement dans les vidéos soit en haut des résultats de recherche, tels qu'une clause de non-responsabilité avertissant les spectateurs du manque d'informations vérifiées sur un thème particulier. De plus, nous devons déterminer la possibilité que ces libellés mettent involontairement en lumière des sujets qui n'auraient pas nécessairement suscité l'intérêt. Nos équipes tiennent activement compte de ces facteurs pour trouver l'approche la plus adaptée.
Assumer notre part de responsabilité dans la propagation de fausses informations sur d'autres plates-formes
Nous devons également faire face à la diffusion hors YouTube de vidéos problématiques - à la limite d’enfreindre nos règlements sans pour autant franchir la ligne pouvant entraîner leur suppression - que nous ne souhaitons voir apparaître dans les recommandations des internautes. Nous avons entièrement repensé nos systèmes afin de réduire la viralité de ces contenus, et faire en sorte que leurs nombres de vues provenant de nos recommandations soient nettement inférieurs à 1 %. Toutefois, même si nous ne recommandons pas ces vidéos, elles peuvent toujours générer des vues sur d'autres sites et plateformes, qui incluent un lecteur intégré ou leur lien.
Une solution possible est de désactiver le bouton de partage ou de briser les liens vers les vidéos dont nous limitons déjà l'apparition dans les recommandations. Vous ne pourriez donc pas intégrer une vidéo litigieuse ou son lien sur un autre site. Cependant, empêcher le partage de certains contenus pourrait également constituer une restriction abusive des libertés des utilisateurs, ce qui nous pose problème. Nos systèmes réduisent l'apparition de contenus à la limite d’une infraction dans les recommandations, mais partager un lien est un choix actif et individuel, et non une action plus passive comme le fait de regarder une vidéo recommandée.
Le contexte est également primordial : les vidéos litigieuses qui sont intégrées dans une étude ou dans un bulletin d'informations peuvent nécessiter des exceptions ou une approche complètement différente. Nous devons donc veiller à trouver le bon équilibre entre contrôler la diffusion d'informations problématiques, incorrectes et potentiellement dangereuses d'une part, et la possibilité de s'informer et de discuter de sujets sensibles et controversés d’autre part.
Il serait aussi possible d'afficher un avertissement interstitiel au début des vidéos problématiques ou intégrées sur d'autres sites, afin d'avertir les spectateurs que le contenu peut inclure des informations incorrectes. Les avertissements font office de ralentisseurs : cette étape supplémentaire oblige les internautes à marquer une pause avant de regarder ou de partager un contenu. D'ailleurs, nous en utilisons déjà pour les contenus soumis à une limite d'âge, ainsi que pour les vidéos violentes ou explicites. Nous les considérons comme un outil efficace pour permettre aux spectateurs de mieux choisir les vidéos qu'ils regardent.
Nous continuerons à explorer attentivement les différentes options qui s'offrent à nous afin de limiter la propagation de fausses informations nuisibles sur Internet.
Redoubler d'efforts pour lutter contre la désinformation à travers le monde
Nos initiatives pour limiter la désinformation ont donné des résultats concrets, mais cela reste encore particulièrement complexe de les mettre en place dans plus de 100 pays et dans les dizaines de langues dans lesquels nous opérons.
Chaque culture définit différemment ce qui rend une source digne de confiance. Dans certains pays, les chaînes audiovisuelles publiques (comme la BBC au Royaume-Uni) sont considérées par la majorité comme des sources d'informations faisant autorité. Dans d'autres cas, les chaînes publiques peuvent se rapprocher de la propagande. Chaque pays propose aussi un large choix de contenus au sein de son écosystème de l'information, avec des médias qui appliquent des règles strictes de fact-checking, et d'autres qui assurent peu de contrôle et effectuent peu de vérifications. À cela s'ajoutent des contextes politiques et historiques, ainsi que des événements d'actualité qui peuvent entraîner l'émergence d'une désinformation hyperlocale, qui n'apparaît nulle part ailleurs dans le monde. Par exemple, pendant l'épidémie de Zika au Brésil, certains ont attribué la propagation de la maladie à des complots internationaux. Et récemment, au Japon, de fausses rumeurs ont été diffusées sur Internet, affirmant qu'un tremblement de terre avait été causé par une intervention humaine.
Compte tenu de cette diversité culturelle et régionale, nos équipes font face à un grand nombre de challenges dans la gestion des fausses informations qui émergent, avec des discours changeants ou encore le manque de sources fiables. Par exemple, au début de la pandémie, nous avons constaté que certains pays n'avaient pas accès aux dernières recherches de leurs autorités sanitaires et que ces autorités locales donnaient parfois des consignes différentes.
Les contenus considérés comme étant à la limite d'une infraction peuvent aussi varier significativement. Nous prenons toujours en compte les différentes manières dont les décisions de nos modérateurs de contenu pourraient être interprétées, selon les langues et les cultures. Il faut beaucoup de temps pour collaborer avec les équipes et les experts locaux afin d'identifier le contexte culturel qui détermine si une vidéo doit être classifiée ou non comme à la limite d'une infraction.
En plus de renforcer nos équipes en mobilisant davantage de spécialistes qui comprennent les spécificités régionales liées à la désinformation, nous envisageons de réaliser de nouveaux investissements dans des partenariats avec des experts et des organisations non gouvernementales du monde entier. Et, à l'instar de notre approche concernant les contenus viraux, nous travaillons sur la possibilité de mettre à jour nos modèles plus régulièrement afin de détecter la désinformation localisée et nous travaillons à rendre ces modèles compatibles avec encore plus des langues locales.
Renforcer notre transparence
Chez YouTube, nous sommes déterminés à poursuivre nos initiatives et nous appuyer sur les mesures mises en place pour restreindre l'apparition de fausses informations potentiellement dangereuses sur l'ensemble de nos produits, tout en permettant au plus grand nombre de faire entendre sa voix. Nous sommes conscients que nous n'avons pas toutes les réponses, mais nous pensons qu'il est important de partager avec vous les questions que nous nous posons et les problématiques que nous rencontrons. Il n'a jamais été aussi urgent d’assurer la sécurité et le bien-être de notre communauté, et j'ai hâte de vous tenir informés régulièrement de notre progression.
Neal Mohan - Chief Product Officer, YouTube