On ne peut que se réjouir que des éditeurs commencent à établir des chartes sur l’utilisation de l’IA au sein de leurs rédactions. Le premier, en Suisse, a définir sa ligne éditoriale est Ringier.
Cet éditeur a décidé d’introduire des directives sur l’utilisation de l’intelligence artificielle pour toutes ses entreprises et ce pour les 19 pays où il est présent.
Les directives de Ringier sur l’utilisation de l’intelligence artificielle comprennent les points suivants:
- Les résultats générés par les outils d’IA doivent toujours faire l’objet d’un examen critique et les informations doivent être vérifiées, vérifiées et complétées en faisant appel à son propre jugement et à son expertise.
- En principe, les contenus créés à l’aide d’outils d’IA sont signalés. Un marquage n’est pas nécessaire dans les cas où un outil d’IA n’est utilisé qu’en tant qu’outil auxiliaire.
- Les collaborateurs ne sont pas autorisés à introduire dans un outil d’IA des informations confidentielles, des secrets d’entreprise ou des données personnelles de sources journalistiques, de collaboratrices et collaborateurs, de clientes et clients ou de partenaires commerciaux ou d’autres personnes physiques.
- Les codes de développement ne sont introduits dans un outil d’IA que si le code ne constitue pas un secret d’entreprise, n’appartient pas à des tiers et ne viole pas les droits d’auteur, y compris des directives relatives à l’open source.
- Les outils et technologies d’IA développés, intégrés ou utilisés par Ringier doivent toujours être équitables, impartiaux et non discriminatoires. Pour cette raison, nos propres outils, technologies et intégrations d’IA font l’objet d’un examen régulier.
Marc Walder, CEO de Ringier: «Nous sommes convaincus qu’une interaction responsable entre l’homme et la machine, basée sur des règles claires en matière d’IA, nous permettra d’améliorer encore nos produits et nos processus. En introduisant ces règles, nous assumons une responsabilité internationale afin d’exploiter les aspects positifs de l’IA tout en minimisant les risques. Ainsi, Ringier s’assure que l’IA est utilisée de manière transparente et en accord avec ses valeurs».