Le faux assassinat du journaliste russe Arkadi Babtchenko relance le débat sur l’incapacité des robots et de l’IA de déceler les « fake news ». Les humains ne font pas vraiment mieux.
La presse mondiale s’est faite bernée par l’annonce de la mort du journaliste russe Arkadi Babtchenko, qui aurait été assassiné dans la capitale de l’Ukraine, Kiev, par les services russes. Le 30 mai 2018, lors d’une conférence de presse, l’information a été démentie et Arkadi Babtchenko est venu, pour montrer qu’il était bel et bien vivant. Trop tard, car nombre de médias avaient déjà publié, sur leur site ou dans leurs éditions papier, des articles sur cet assassinat. Les médias concernés ont logiquement fait état de leur mécontentement, estimant notamment qu’une « ligne rouge avait été franchie ». Christophe Deloire, secrétaire général de Reporters sans Frontières a ainsi estimé qu’il est « pathétique et regrettable que la police ukrainienne joue ainsi avec la vérité, quel que soit le motif». Sans parler des médias, ainsi entraînés dans la danse macabre ».
En France, plusieurs grandes marques de la presse, dont Le Monde, ont été impactées. Cet incident relance le débat sur l’incapacité des robots et de l’intelligence artificielle de repérer des « fake news » lorsqu’ils sélectionnent ou reprennent une information, voire à accélérer la propagation de ces fausses nouvelles. En l’occurrence dans ce cas, ce sont des humains qui ont été bernés.
L’IA a plusieurs années d’expérience
Et si les robots remplaçaient bientôt les journalistes ? Dans les faits, l’intelligence a déjà sa place au sein des rédactions depuis plusieurs années, mais pas en tant que journaliste. Le rôle des robots et de l’IA est plutôt de faire du « desk », c’est-à-dire de faire un premier tri dans la masse d’informations reçues par les rédactions, de proposer des « revues de presse » et de rédiger des articles, en général courts. On sait que des médias comme Le Monde, mais aussi L’Express, Le Parisien ou Radio France utilisent ces « rédacteurs automatiques » depuis au moins trois ans. Pour cela, ils ont notamment recours à la technologie de la startup française Syllabs. Sur son site, la jeune entreprise précise : « Lors des élections départementales de 2015, nous avons mis en place un service web pour produire des textes en temps réel sur les résultats des élections, à la fois par canton et par commune. Ces textes accompagnent les tableaux sur les pages des résultats pour chaque lieu. Au total, notre robot rédacteur a couvert l’intégralité des cantons (2054) et plus de 34 000 communes. Cela a permis au journal Le Monde de couvrir les élections de façon globale et de produire 36 000 textes pendant la nuit électorale. »
Quand les robots « aident » les journalistes
Les robots de Syllabs se présentent aujourd’hui comme les « premiers fournisseurs d’articles rédigés automatiquement pour les médias français, le secteur du tourisme, l’e-commerce, l’immobilier et le webmarketing. »
Des dizaines d’autres titres de presse se préparent à utiliser – ou utilisent déjà – l’intelligence artificielle pour faciliter le travail des journalistes, de Nice-Matin à Sud-Ouest en passant par 20 Minutes. Ce dernier va mettre en place un nouvel outil de publication (au plus tard début 2019, selon Stratégies) qui suggérera aux journalistes des mots-clés et des articles à associer à celui qu’il rédige, des photos pour l’illustrer ou encore un titre optimal pour le référencement Google…
Dernier exemple pour rappeler que les robots ne font d’erreurs que si l’erreur de base est humaine, rapporté dans Stratégies : les quatre robots de la startup Flint (Flint, Gordon, Yolo et Jeff). Ils identifient les articles « à ne pas rater sur l’actualité d’un secteur », mais la démonstration ne doit pas avoir lieu un 1er avril, surtout en France, car les robots reprennent les fausses informations que les médias publie chaque fois ce jour-là. Qui faut-il blâmer ? Les robots ou les journalistes qui s’ingénient à écrire de fausses informations chaque 1er avril ?
Pascal Boiron, Digital CMO