Elections américaines : L’intelligence artificielle menace l’intégrité des campagnes électorales

La course à l’élection présidentielle américaine de cette année risque d’être soumise à un déluge de fausses informations fabriquées grâce à l’intelligence artificielle. La voix du président Joe Biden reproduite par un logiciel informatique suscite notamment l’inquiétude quant à l’éventuelle multiplications de ce type d’enregistrements.  

L’enregistrement imitant la voix de Biden, et qui a été envoyé sous forme de message vocal à des citoyens américains, disait « Quelle absurdité ! », en référence à l’une de ses phrases culte.

L’appel robot a exhorté les habitants du New Hampshire à ne pas voter à la primaire démocrate le mois dernier, incitant les autorités de l’État à ouvrir une enquête.

Cela a également suscité des demandes de la part de militants pour renforcer les restrictions sur les outils d’intelligence artificielle générative ou interdire totalement les communications robotiques.

Les spécialistes de la désinformation craignent que l’usage abusif des applications basées sur l’IA ne se répande durant cette année électorale cruciale, grâce à la prolifération d’outils de clonage bon marché, faciles à utiliser et difficiles à retracer.

« Ce n’est que la pointe de l’iceberg », a déclaré à l’AFP Vijay Balasubramanian, PDG et co-fondateur de la société de cybersécurité Pindrop.

« Nous pouvons nous attendre à voir davantage de deepfakes (enregistrements truqués) au cours de ce cycle électoral » a-t-il ajouté.

Une analyse détaillée publiée par Pindrop a indiqué que le système de synthèse vocale développé par la startup de clonage vocal Eleven Labs a été utilisé pour compléter la communication du robot avec la voix de Biden.

Cette problématique survient alors que les militants des deux partis exploitent les outils d’intelligence artificielle pour transmettre les messages pendant les campagnes électorales et que les investisseurs en technologie investissent des millions de dollars dans de nouvelles sociétés de clonage électoral.

Vijay Balasubramanian a refusé de dire si Pindrop avait partagé ses conclusions avec Eleven Labs, qui a annoncé le mois dernier des investissements valorisant l’entreprise à 1,1 milliard de dollars, selon Bloomberg.

Eleven Labs n’a pas répondu aux demandes de commentaires répétées de l’AFP, sachant que son site web dirige les utilisateurs vers un service gratuit de synthèse vocale pour « créer instantanément des voix naturelles dans n’importe quelle langue ».

Les directives de l’entreprise stipulent que les utilisateurs sont autorisés à générer des copies de voix de personnalités politiques sans l’autorisation de ces derniers, à condition que les messages fabriqués soient exprimées de façon humoristique, d’une manière qui « montre clairement à l’auditeur que ce qu’il entend est une parodie et non un contenu original. »

Les régulateurs américains envisagent d’interdire les communications issues de l’intelligence artificielle, encouragés par le récent faux message attribué à Biden.

« Le moment des deepfakes politiques est arrivé” » a déclaré Robert Weissman, président du groupe activiste Public Citizen.

« Les décideurs politiques doivent agir rapidement pour imposer des protections, sinon nous serons confrontés à un chaos électoral. L’affaire des deepfakes du New Hampshire rappelle les nombreuses façons dont les deepfakes peuvent semer la confusion », a-t-il ajouté.

Les chercheurs craignent l’impact des outils d’intelligence artificielle qui produisent des enregistrements vidéo et audio qui semblent réels, dans la mesure où il est difficile pour les électeurs de faire la différence entre le vrai et le faux, ce qui sape leur confiance dans le processus électoral.

Related articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here