Détecter les articles et images produits par des intelligences artificielles s’avère de plus en plus compliqué. Ceci malgré l’existence de solutions mis spécifiquement au point à cet effet. Pourtant, ils se répandent progressivement sur Internet. Ce qui engendre de graves problèmes, surtout concernant l’exactitude et la qualité des informations diffusées dans ces contenus.
Depuis quelques semaines, les logiciels de génération de texte alimentés à l’intelligence artificielle (IA) se sont popularisés. Parmi les plus célèbres figure entre autres ChatGPT. Ce robot conversationnel (chatbots) propose d’écrire, sans aucune intervention humaine, des articles, ou de répondre à toutes sortes de questions. Il démontre une efficacité ahurissante dans cet exercice. De surcroît, aucun domaine de connaissance ne leur échappe : philosophie, géographie, histoire, mathématiques... Ces outils, qui pourraient être utiles à certains travailleurs en portage salarial, tirent directement leurs sources dans le Web mondial.
S’ils se caractérisent par leur fonctionnalité exceptionnelle, ces solutions comportent néanmoins également quelques aspects négatifs.
Les contenus erronés risquent de proliférer
La pollution du Web, due à la récente abondance de textes artificiels, constitue un des problèmes de ces instruments. La chercheuse Melissa Heikkilä insiste sur le sujet dans un article publié dans le fameux MIT Technology Review. Une déformation du sens de la réalité risque de découler de la propagation de ces articles, avertit-la scientifique.
Elle détaille que l'on pourrait bientôt ne plus savoir différencier si un texte émane d’une vraie personne ou d’une IA. Internet grouille en effet de contenu inexact et de fausses informations. De plus, l’intelligence artificielle des robots conversationnels ne distingue pas les documents qu’elle a écrit auparavant et ceux provenant d’humains. Le risque est qu’à terme, les articles créés avec cette technologie :
- Deviennent progressivement approximatifs sur le fond ;
- S’appauvrissent en permanence sur la forme.
Par ailleurs, les humains recourent à ces mêmes écrits afin d’en produire de nouveaux, eux-mêmes fondés sur des renseignements inexacts.
Melissa Heikkilä avertit également sur d’éventuels contenus comme les conseils de santé, qui n’auraient pas obtenu l’autorisation d’un véritable expert. La journaliste a expliqué que les logiciels d’intelligence artificielle pourraient aussi rendre stupidement plus facile :
La production de quantités d’informations erronées, d’abus et de spams, déformant les informations que nous consommons.
Des mesures doivent être prises
Plus grave encore, le phénomène s’élargit à présent aux images. Un chercheur en intelligence artificielle au King’s College London, Mike Cook, précise que le Web est aujourd’hui :
Contaminé à jamais par des images faites par l’IA. Les images que nous avons faites en 2022 feront partie de tous les modèles qui seront faits à partir de maintenant.
Désormais, concevoir des instruments capables de distinguer les contenus issus d’une intelligence artificielle s’impose donc afin de garantir :
- La véracité des informations présentées sur Internet ;
- La qualité des modèles linguistiques de demain.
Certains programmes permettent d’identifier les textes produits par une IA. Ils manquent toutefois d’efficacité contre ChatGPT, déclare Melissa Heikkilä.
Les humains doivent aussi s’impliquer dans la lutte contre les contenus artificiels. Une chercheuse chez Google Brain, Daphne Ippolito, pense que les gens peuvent faire preuve d’une grande capacité à filtrer les éléments d’excellente qualité :
Qui nous donneront le type de modèle linguistique que nous voulons.
Elle conseille également de prêter attention aux erreurs factuelles ou aux incohérences fines dans les articles exposés comme des vérités.