En cette grande année électorale, les architectes de l’IA s’opposent à son utilisation abusive

En cette grande année électorale, les architectes de l’IA s’opposent à son utilisation abusive


Les entreprises d’intelligence artificielle ont été à l’avant-garde du développement de cette technologie transformatrice. Désormais, ils s’efforcent également de fixer des limites à la manière dont l’IA est utilisée au cours d’une année remplie de élections majeures dans le monde.

Le mois dernier, OpenAI, le créateur du chatbot ChatGPT, dit il s’efforçait d’empêcher les abus de ses outils lors des élections, en partie en interdisant leur utilisation pour créer des chatbots prétendant être de vraies personnes ou institutions. Ces dernières semaines, Google a également annoncé qu’il limiterait la réponse de son chatbot IA, Bard, à certaines invites liées aux élections afin d’éviter les inexactitudes.. Et Meta, propriétaire de Facebook et Instagram, a promis de meilleure étiquette générée par l’IA contenu sur ses plateformes afin que les électeurs puissent plus facilement discerner quelles informations sont réelles et lesquelles sont fausses.

Vendredi, Anthropic, une autre start-up leader dans le domaine de l’IA, a rejoint ses pairs en interdisant que sa technologie soit appliquée à des campagnes politiques ou au lobbying. Dans un article de blog, la société, qui fabrique un chatbot appelé Claude, a déclaré qu’elle avertirait ou suspendrait tout utilisateur qui enfreindrait ses règles. Il a ajouté qu’il utilisait des outils formés pour détecter et bloquer automatiquement les opérations de désinformation et d’influence.

« L’histoire du déploiement de l’IA a également été pleine de surprises et d’effets inattendus », a déclaré la société. « Nous prévoyons que 2024 verra des utilisations surprenantes des systèmes d’IA – des utilisations qui n’étaient pas anticipées par leurs propres développeurs. »

Ces efforts s’inscrivent dans le cadre des efforts déployés par les sociétés d’IA pour maîtriser une technologie qu’elles ont popularisée alors que des milliards de personnes se rendaient aux urnes. Au moins 83 élections dans le monde, soit la plus grande concentration depuis au moins les 24 prochaines années, sont attendues cette année, selon Anchor Change, un cabinet de conseil. Ces dernières semaines, les gens de Taïwan, Pakistan et Indonésie ont voté, l’Inde, la plus grande démocratie du monde, devant organiser ses élections générales au printemps.

On ne sait pas exactement dans quelle mesure les restrictions sur les outils d’IA seront efficaces, d’autant plus que les entreprises technologiques progressent avec une technologie de plus en plus sophistiquée. Jeudi, OpenAI a dévoilé Sora, une technologie capable de générer instantanément des vidéos réalistes. De tels outils pourraient être utilisés pour produire texte, des sons et images dans les campagnes politiques, brouillant la réalité et la fiction et soulevant la question de savoir si les électeurs peuvent quel contenu est réel.

Le contenu généré par l’IA est déjà apparu dans les campagnes politiques américaines, provoquant une réaction réglementaire et juridique. Certains législateurs d’État sont rédiger des projets de loi pour réglementer le contenu politique généré par l’IA.

Le mois dernier, des habitants du New Hampshire ont reçu des messages d’appel automatisé les dissuadant de voter aux primaires de l’État, d’une voix très probable. généré artificiellement pour ressembler au président Biden. La Commission fédérale des communications la semaine dernière a interdit de tels appels.

“Des acteurs malveillants utilisent les voix générées par l’IA dans des appels automatisés non sollicités pour extorquer des membres vulnérables de la famille, imiter des célébrités et désinformer les électeurs”, avait alors déclaré Jessica Rosenworcel, présidente de la FCC.

Les outils d’IA ont également créé des représentations trompeuses ou trompeuses d’hommes politiques et de sujets politiques dans le monde. Argentine, Australie, Grande-Bretagne et Canada. La semaine dernière, l’ancien Premier ministre Imran Khan, dont le parti a remporté le plus de sièges aux élections pakistanaises, utilisé une voix IA pour déclarer la victoire en prison.

Dans l’un des cycles électoraux les plus importants de mémoire d’homme, la désinformation et les tromperies que l’IA peut créer pourraient être dévastatrices pour la démocratie, estiment les experts.

“Nous sommes en retard ici”, a déclaré Oren Etzioni, professeur à l’Université de Washington spécialisé dans l’intelligence artificielle et fondateur de True Media, une organisation à but non lucratif qui s’efforce d’identifier la désinformation en ligne dans les campagnes politiques. « Nous avons besoin d’outils pour répondre à cela en temps réel. »

Anthropic a déclaré vendredi dans son annonce qu’elle prévoyait des tests pour identifier comment son chatbot Claude pourrait produire du contenu biaisé ou trompeur lié aux candidats politiques, aux questions politiques et à l’administration électorale. Ces “équipe rouge” Les tests, qui sont souvent utilisés pour briser les protections d’une technologie afin de mieux identifier ses vulnérabilités, exploreront également comment l’IA répond aux requêtes nuisibles, telles que les invites demandant des tactiques de suppression des électeurs.

Dans les semaines à venir, Anthropic lancera également un essai visant à rediriger les utilisateurs américains ayant des questions liées au vote vers des sources d’information faisant autorité, telles que TurboVote de Democracy Works, un groupe non partisan à but non lucratif. La société a déclaré que son modèle d’IA n’était pas entraîné assez fréquemment pour fournir de manière fiable des informations en temps réel sur des élections spécifiques.

De même, OpenAI a déclaré le mois dernier qu’il prévoyait d’orienter les gens vers les informations de vote via ChatGPT, ainsi que d’étiqueter les images générées par l’IA.

“Comme toute nouvelle technologie, ces outils présentent des avantages et des défis”, a déclaré OpenAI dans un article de blog. «Ils sont également sans précédent, et nous continuerons à faire évoluer notre approche à mesure que nous en apprendrons davantage sur la manière dont nos outils sont utilisés.»

(Le New York Times poursuivi OpenAI et son partenaire Microsoft, en décembre, alléguant une violation du droit d’auteur sur le contenu d’actualité lié aux systèmes d’IA.)

Synthesia, une start-up dotée d’un générateur vidéo IA qui a été liés aux campagnes de désinformation, interdit également l’utilisation de la technologie pour des « contenus de type actualité », y compris des contenus faux, polarisants, controversés ou trompeurs. L’entreprise a amélioré les systèmes qu’elle utilise pour détecter les abus de sa technologie, a déclaré Alexandru Voica, responsable des affaires et de la politique d’entreprise de Synthesia.

Stability AI, une start-up dotée d’un outil générateur d’images, a déclaré qu’elle interdisait l’utilisation de sa technologie à des fins illégales ou contraires à l’éthique, s’efforçait de bloquer la génération d’images dangereuses et appliquait un filigrane imperceptible à toutes les images.

Les plus grandes entreprises technologiques ont également pris la parole. La semaine dernière, Meta a déclaré qu’elle collaborait avec d’autres entreprises. sur les normes technologiques pour aider à reconnaître quand le contenu a été généré avec l’intelligence artificielle. À la veille des élections parlementaires de l’Union européenne en juin, a déclaré TikTok dans un article de blog Mercredi, il interdirait les contenus manipulés potentiellement trompeurs et obligerait les utilisateurs à étiqueter les créations réalistes d’IA.

Google a dit en décembre que cela obligerait également les créateurs de vidéos sur YouTube et tous les annonceurs électoraux à divulguer le contenu modifié ou généré numériquement. La société a déclaré qu’elle se préparait pour les élections de 2024 en empêchant ses outils d’IA, comme Bard, de renvoyer des réponses à certaines requêtes liées aux élections.

“Comme toute technologie émergente, l’IA présente de nouvelles opportunités ainsi que de nouveaux défis”, a déclaré Google. L’IA peut aider à lutter contre les abus, a ajouté l’entreprise, « mais nous nous préparons également à la façon dont elle peut changer le paysage de la désinformation ».





Source link

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *