Aller au contenu principal

« L'intelligence artificelle ne comprend pas le second degré »

Une proposition de loi visant à lutter contre les contenus à caractère haineux sur internet va être examinée par le parlement français. On est allés demander à Charles Cuvelliez si l'IA pouvait aider.

Par Armel Hemme

L'info selon la pêche du jour. Écologie, politique, société... Tous les matins dans le Today’s Special, Armel Hemme interroge un acteur de l'actu, pêché dans les profondeurs des fils d'infos.

Une proposition de loi visant à lutter contre les contenus à caractère haineux sur Internet va être examinée par le parlement français... L’idée est, comme en Allemagne, de coller de grosses amendes aux réseaux sociaux s’ils n’agissent pas dans les 24h suivant un signalement des internautes.

Ça valait bien un coup de fil à Charles Cuvelliez, auteur d’un article sur ce chantier, dans le journal en ligne La Tribune.

Qu’est-ce qu’un contenu à caractère haineux exactement ?

Charles Cuvelliez : C’est bien tout le problème. Tout le monde a une idée de la définition d’un contenu haineux et le reconnaîtra assez facilement comme étant des attaques dirigées souvent ad hominem sur des bases de race, d’ethnie, de religion, d’orientation sexuelle. Maintenant les plateformes sont confrontées à des millions et des millions de posts pour lesquels une telle définition ne suffit pas : il faudrait des critères. Les plateformes sont démunies, et d’autant plus qu’elles n’ont pas d’autre choix que de recruter des petites mains. On en compte 20 000 chez Facebook, 10 000 chez YouTube et ça ne fait que croître. Des gens qui, à longueur de journées, sont obligés de regarder des contenus qui leur sont signalés comme haineux de la part des internautes.

Est-ce que ces jobs, qui doivent être bien déprimants, peuvent être remplacés par une intelligence artificielle capable de détecter des propos haineux ? A première vue ça paraît faisable, puisque ça existe déjà pour les images à caractère sexuel par exemple.

Charles Cuvelliez : On le pense, mais pas dans l’état actuel de la connaissance de l’intelligence artificielle. La comparaison avec les images à caractère sexuel est très juste, mais les images sexuelles on les reconnaît très vite par IA, car certaines caractéristiques apparaissent dans ces images, notamment les couleurs. Par contre, le contenu haineux c’est du contenu contextuel, des phrases, du vocabulaire. L’IA n’est pas capable de lire entre les lignes ni de comprendre si un contenu a priori haineux n’a pas tout simplement un caractère ironique, satirique ou métaphorique.

Il y a d’autres problèmes, par exemple le contenu haineux évolue. L’IA a besoin de données d’entraînement donc si ça change, elle peut vite être perdue… Et puis peut-on avoir vraiment un contrôle qualité sur l’ensemble des posts publiés chaque jour, c’est immense ?

Charles Cuvelliez : L’approche qui est suivie par l’Europe apporte un peu de baume à cette difficulté, à cette montagne de tâches. Les plateformes n’ayant pas de responsabilité éditoriale, elles sont obligées de réagir au contenu qu’on leur signale comme haineux. Mais même le contenu signalé représente des millions et des millions de posts à examiner chaque jour, et là de nouveau, même si l’IA faisait des progrès on ne serait pas dans un monde zéro défaut. Se pose le problème de la liberté d’expression, et si je fais une plateforme je vais bien évidemment ne pas prendre de risque.

Ne pas prendre de risques pour ne pas avoir à payer d’amende et donc filtrer à la louche, plutôt qu’avec finesse. On retient de cette interview que lutter contre les contenus à caractère haineux sur internet est une immense galère.

Today's Special, tous les matins dans la Grasse Matinale d'Armel Hemme, de 9h à 13h.