3
La désinformation électorale générée par l’IA sera partout
Si l’on en croit les récentes élections, la désinformation électorale et les deepfakes générés par l’IA vont constituer un énorme problème alors qu’un nombre record de personnes se rendront aux urnes en 2024. Nous voyons déjà des politiciens utiliser ces outils comme une arme. En Argentine, deux candidats à la présidentielle ont créé des images et des vidéos générées par l’IA de leurs adversaires pour les attaquer. En Slovaquie, des deepfakes montrant un chef de parti libéral pro-européen menaçant d’augmenter le prix de la bière et faisant des blagues sur la pédopornographie se sont répandus comme une traînée de poudre pendant les élections du pays. Et aux États-Unis, Donald Trump a encouragé un groupe qui utilise l’IA pour générer des mèmes aux tropes racistes et sexistes.
S’il est difficile de dire dans quelle mesure ces exemples ont influencé les résultats des élections, leur prolifération constitue une tendance inquiétante. Il deviendra plus difficile que jamais de reconnaître ce qui est réel en ligne. Dans un climat politique déjà enflammé et polarisé, cela pourrait avoir de graves conséquences.
Il y a quelques années à peine, la création d’un deepfake aurait nécessité des compétences techniques avancées, mais l’IA générative l’a rendu bêtement facile et accessible, et les résultats semblent de plus en plus réalistes. Même des sources réputées pourraient être trompées par le contenu généré par l’IA. Par exemple, les images générées par l’IA soumises par les utilisateurs et prétendant décrire la crise Israël-Gaza ont inondé les marchés d’images comme celui d’Adobe.
L’année à venir sera charnière pour ceux qui luttent contre la prolifération de tels contenus. Les techniques permettant de suivre et d’atténuer son contenu en sont encore aux premiers jours de développement. Les filigranes, tels que SynthID de Google DeepMind, sont encore pour la plupart volontaires et ne sont pas totalement infaillibles. Et les plateformes de médias sociaux sont notoirement lentes à éliminer la désinformation. Préparez-vous à une expérience massive en temps réel visant à éliminer les fausses nouvelles générées par l’IA.
—Mélissa Heikkilun
4
Des robots multitâches
Inspirés par certaines des techniques de base à l’origine de l’essor actuel de l’IA générative, les roboticiens commencent à construire des robots plus polyvalents, capables d’effectuer un plus large éventail de tâches.
Ces dernières années, dans le domaine de l’IA, l’utilisation de plusieurs petits modèles, chacun formé pour effectuer des tâches différentes (identifier des images, les dessiner, les légender), a été abandonnée au profit de modèles uniques et monolithiques formés pour faire toutes ces choses et bien plus encore. En montrant au GPT-3 d’OpenAI quelques exemples supplémentaires (appelés réglage fin), les chercheurs peuvent l’entraîner à résoudre des problèmes de codage, à écrire des scénarios de films, à réussir des examens de biologie au lycée, etc. Les modèles multimodaux, comme GPT-4 et Gemini de Google DeepMind, peuvent résoudre des tâches visuelles ainsi que linguistiques.
La même approche peut fonctionner pour les robots, il ne serait donc pas nécessaire d’en entraîner un à retourner des crêpes et un autre à ouvrir les portes : un modèle unique pourrait donner aux robots la capacité d’effectuer plusieurs tâches à la fois. Plusieurs exemples de travaux dans ce domaine ont vu le jour en 2023.