Financé par le programme Horizon 2020 de l’Union européenne, le projet AI4Media auquel a participé l’équipe du Professeur Henning Müller de l’institut informatique de la HES-SO Valais-Wallis, aspire à devenir un centre d’excellence en mobilisant un vaste réseau de recherche. Ce projet se concentre sur les avancées et formations en IA pour le secteur des médias, tout en intégrant les valeurs européennes d’une IA éthique et fiable, afin de soutenir durablement l’industrie des médias.
Ce projet AI4Media s’engage à transformer le paysage médiatique en favorisant le développement de compétences essentielles pour faire face aux défis actuels de l’information. Il ambitionne ainsi de redonner le contrôle à la population et renforcer la confiance dans les médias publics.
Comprendre les algorithmes de recommandation
Les systèmes de recommandation, souvent opaques, enferment les utilisateurs dans des bulles d’information. AI4Media propose des solutions pour plus de transparence : un graphe visuel intègre les connaissances sur les utilisateurs et le contenu, et des algorithmes détectent les biais, les contenus manipulés et les deepfakes. En substance, AI4Media redonne le contrôle aux citoyens en améliorant la transparence des systèmes de recommandation. Cela pourrait contribuer à une meilleure compréhension des recommandations et à une utilisation plus éclairée des plateformes en ligne.
Vérifier les faits et détecter les fake news
L’IFCN (International Fact-Checking Network) lutte contre la désinformation en promouvant une vérification des faits transparente et non partisane. Face à la demande croissante, l’IFCN a du mal à répondre avec suffisamment d’évaluateur-trices certifié-es. AI4Media propose des outils d’intelligence artificielle pour faciliter ce processus, notamment des analyses de réseaux sociaux et des détecteurs de faux discours.
Renforcer la confiance dans les médias publics
L’éducation aux médias est essentielle pour les électeurs dans les sociétés démocratiques. La désinformation, la rhétorique populiste et l’amalgame entre opinions et faits scientifiques sont des problèmes croissants. AI4Media propose ImpACT, une technologie d’intelligence artificielle qui vérifie les arguments en temps réel lors de débats politiques, aidant ainsi le public à évaluer la fiabilité des dirigeant-es.
Accroître l’accessibilité de l’information à tous les publics
Dans un monde complexe, les médias doivent créer du contenu compréhensible pour tous. AI4Media propose ExplAIner, un outil IA qui adapte les contenus à différents contextes tout en conservant leur exactitude. Cette technologie permet de mieux raconter des histoires à des publics diversifiés, favorisant une compréhension partagée et évitant la multiplication de « vérités » divergentes.
Soutenir les médias publics pour diversifier les sources d’informations
Les systèmes de recommandation, bien que prometteurs pour les médias avec de vastes bibliothèques de contenus, ont des inconvénients. Ils favorisent souvent les habitudes de consommation des groupes majoritaires, laissant les groupes minoritaires exclus. Le voile algorithmique empêche l’audit et la responsabilisation. Le consortium AI4Media cherche à développer des alternatives pour les médias publics, offrant des outils de recherche et de navigation vidéo plus équilibrés
Lutter contre les « boîtes noires » qui constituent les algorithmes pour expliquer leur fonctionnement
L’IA, bien que puissante, reste souvent une “boîte noire” dont les explications sont opaques. Pourtant, des outils d’IA explicables émergent pour aider à comprendre ces systèmes. Malheureusement, ces explications restent souvent techniques et peu accessibles au grand public. Le consortium AI4Media a développé un composant Explainable AI pour aider à comprendre les réponses des réseaux neuronaux profonds.