IA au service des médias: moins de fake news et plus d’éthique
Face aux milliards de tweets, d’articles en ligne, de vidéos partagées, il est indispensable d’avoir un algorithme qui les analyse automatiquement. Débusquer le contenu douteux devient alors plus facile. Les technologies en charge de ce travail sont basées sur l’intelligence artificielle. En plus d’être souvent opaques quant à leur fonctionnement, ces outils se basent sur l’analyse préalable de nombreux exemples leurs permettant d’apprendre à distinguer les contenus fallacieux. Mais avec la diversité des médias – vidéo, texte, image – le travail se complique et l’intégration de la dimension éthique devient essentielle et ne peut reposer seulement sur l’approche des entreprises privées, principalement les GAFAM. Le projet européen AI4MEDIA a pour but d’assurer une approche transparente et éthique. Pour réaliser ce travail, un consortium de 30 partenaires, experts dans le domaine, s’est créé. L’Institut de Recherche Idiap et la HES-SO Valais-Wallis sont les deux seules parties prenantes suisses.
Compréhension et confiance
Le groupe de recherche d’informatique sociale de l’Institut de Recherche Idiap va apporter une expertise cruciale : l’évaluation de la compréhension et de la confiance à l’égard des technologies basées sur l’intelligence artificielle. « Que ce soit un individu ou une organisation, un utilisateur doit pouvoir faire confiance aux outils qu’il utilise, » explique le professeur Daniel Gatica-Perez, responsable du groupe. « Cela implique que la technologie doive être transparente par rapport à son origine et son fonctionnement. De la sorte, l’utilisateur peut réellement juger de sa fiabilité. » Le groupe de recherche du professeur est actuellement impliqué dans une étude au sujet de la confiance dans les médias avec le soutien de l’organisme suisse Initiative for Media Innovation, ainsi qu’une autre étude nationale sur l’impact psycho-social du confinement lié au COVID-19. A cette fin, ils utilisent une application dont la plateforme a été développée à l’Idiap.
Un enjeu aussi crucial que dans le médical
« La production médiatique semble plus facile d’accès et d’utilisation que les données médicales, mais l’analyse automatisée demande autant de travail dans les deux cas, » avertit le professeur Henning Müller de l’Institut de recherche en informatique de gestion de la HES-SO Valais-Wallis. « Lorsque nous développons un algorithme, les contraintes sont autant éthiques que techniques, » ajoute-t-il. « Le but n’est pas de produire un outil de censure, mais de vérification du contexte. » Grâce au caractère européen du projet, l’intégration de multiples sources, de différentes langues et cultures, permettra de dissiper au mieux les possibles biais. Ainsi, il serait par exemple imaginable de proposer une sorte de label certifiant la qualité des informations d’un site internet, à l’instar de ce qui se fait dans le domaine médical. « L’objectif est d’offrir une intelligence artificielle avec une touche humaine, plus centrée sur nos besoins, tout en maintenant les standards de qualité et de fiabilité de la production de contenus multimédias. » conclut le professeur Müller.
Plus d’informations