Canalblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Publicité
Flamme fragile
28 mars 2019

Quand le diable s’affiche sur les réseaux sociaux

Le mal voyage librement sur Internet. Il scintille devant nous à la vue de tous. Pourtant, malgré l'horreur vécue le 15 mars à Christchurch en Nouvelle-Zélande, la mise en œuvre de réformes des médias sociaux nécessitera des efforts considérables en matière de réglementation, qui nécessitera la coopération des géants de la technologie, des gouvernements et des consommateurs. Dans un monde parfait, les algorithmes de YouTube et Facebook utiliseraient une vidéo dès que quelqu'un tenterait de la télécharger. Si les machines reconnaissent un contenu troublant ou une vidéo déjà interdite, les images ne parviendront jamais au public. Alors que s'est-il passé en Nouvelle-Zélande? Le prétendu homme armé Brenton Tarrant n’a réuni que 200 personnes environ au cours de ses 17 minutes de retransmission de son attaque sur la mosquée Al Noor à Christchurch. Cependant, bien que Facebook Inc. ait retiré la vidéo de la page de Tarrant 12 minutes après la fin du flux en direct, des centaines de milliers de clones de la séquence ont été produits et diffusés sur Internet. La vidéo a été republiée sur Twitter, où elle s'est automatiquement diffusée sur le la chronologie des utilisateurs sans méfiance; il est apparu dans le tristement célèbre forum «Watch People Die» de Reddit, qui correspond exactement à son nom. et bien sûr, il est apparu sur YouTube, le premier site d’hébergement vidéo au monde. Facebook a réussi à empêcher 1,2 million d'exemplaires de circuler sur son site, mais 300 000 ont tout de même réussi. À son apogée, la vidéo a été mise en ligne une fois par seconde, a déclaré au Washington Post, Neal Mohan, responsable produits chez YouTube. Les censeurs de l'IA de Google et de YouTube travaillent bien pour les vidéos qu'ils ont eu le temps "d'apprendre" à reconnaître, tels que la propagande terroriste précédemment collectée ou la pornographie mettant en scène des enfants cataloguée par des agents de police. Dans une certaine mesure, les algorithmes peuvent repérer les permutations de cette séquence. Rasty Turek, directeur général de Pex, une start-up qui aide les entreprises à identifier des vidéos violant le droit d'auteur, continue toutefois de lutter contre ce qui se passe dans des clips inédits. Même si les plates-formes identifient du matériel frais comme inacceptable, les gens qui le publie peut utiliser des astuces simples comme changer la taille du clip, l’accélérer ou le ralentir, ou tout simplement le retourner pour tromper les algorithmes. Google et Facebook ont passé des années à essayer de trouver des moyens d'empêcher les vidéos problématiques de s'afficher sur leurs sites Web. L’outil d’identification de contenu de YouTube, utilisé depuis plus d’une décennie, donne aux titulaires de droits d’auteur tels que les studios de cinéma la possibilité de revendiquer un contenu, d’être payé et de supprimer des copies piratées. Une technologie similaire a été utilisée pour identifier un contenu illégal ou indésirable. Mais quand une nouvelle vidéo circule, elle peut être copiée, modifiée de façon mineure, puis chargée à nouveau, en passant à côté de la censure. «C’est une taupe», dit Turek. «Les gens sont géniaux dans ces domaines. Ils vont trouver comment faire quelque chose après. " Lors des audiences du Congrès américain qui se sont tenues au cours des deux dernières années, des dirigeants de Facebook et de YouTube ont déclaré qu’ils investissaient énormément dans l’intelligence artificielle qui permettrait de détecter et bloquer les vidéos violentes et graphiques avant que quiconque les voit. Mais si vous n'avez qu'une fraction de seconde, comment faites-vous la différence entre la fiction et la liberté d'expression et la réalité meurtrière? Passer des intentions idéales d’Amnesty International «Pour comprendre le contexte d’une vidéo, c’est comme une grenouille qui comprend une épicerie», explique Turek.

Publicité
Publicité
Commentaires
Publicité