أخبارأمن وإستراتيجيةفي الواجهة

Les utilisations militaires les plus dangereuses de l’intelligence artificielle

Les utilisations militaires les plus dangereuses de l’intelligence artificielle

La période récente a vu une expansion de l’utilisation de l’intelligence artificielle dans divers domaines, à commencer par la recherche médicale. En passant par la gestion des réactions chimiques et des prédictions ; Jusqu’à l’utilisation de techniques d’intelligence artificielle dans les attaques électroniques et physiques ; Dario Amodei, PDG de la société d’intelligence artificielle Anthropic, a même mis en garde contre la capacité de l’intelligence artificielle à créer des armes biologiques dans un avenir proche.

Dans ce contexte, Christopher A. Moton, Caleb Lucas et Ella Guest ont soutenu dans un rapport publié par la Rand Corporation en 2024 : Risques potentiels d’utilisation abusive de l’intelligence artificielle ou des grands modèles de langage (LLM) (algorithmes d’intelligence artificielle utilisant des techniques d’apprentissage profond et de big data) dans le contexte d’attaques par armes biologiques.

Le rapport souligne la tentative ratée du groupe japonais « Aum Shinrikyo » d’attaquer le métro de Tokyo en utilisant de la « toxine botulique » dans les années 1990, qui a échoué en raison d’un manque de compréhension des bactéries, un problème que l’intelligence artificielle peut actuellement résoudre facilement et rapidement. En conséquence, le rapport propose des informations politiques pour atténuer les risques liés au développement responsable de l’IA.

Le rapport visait principalement à examiner le potentiel d’utilisation abusive de « grands modèles linguistiques » par des acteurs non étatiques « malveillants » pour planifier des attaques biologiques. Ainsi, il s’est appuyé sur des preuves empiriques concernant le développement de mesures quantitatives, de méthodes de test et d’outils de responsabilisation. Le rapport n’a pas révélé les programmes testés ; Atteindre un équilibre entre la fourniture d’informations suffisantes pour les discussions universitaires et politiques tout en garantissant qu’aucun détail ne soit révélé qui pourrait permettre à des acteurs malveillants de le faire. L’objectif est de contribuer à la compréhension des menaces potentielles liées aux armes biologiques, de soutenir l’élaboration de stratégies pour faire face à ces menaces et de promouvoir un monde plus sûr.

Approche de l’équipe rouge
Red Teaming est un terme en cybersécurité ; Il s’agit de mettre en œuvre une simulation d’une attaque réelle avec la connaissance de la direction de l’organisation, et vise à examiner tous les scénarios possibles et à déterminer l’état de préparation des dispositifs concernés pour repousser tous les types d’attaques auxquelles les organisations peuvent être exposées dans la réalité, en révélant points faibles potentiels. Ces scénarios vont de l’extraction de la conception d’armes d’intelligence artificielle, à la création de cyber-outils offensifs avancés et à l’encouragement d’autres comportements dangereux involontaires. En conséquence, ces procédures permettent de mesurer avec précision les risques et de garantir que les ressources et l’attention sont allouées efficacement à la réponse, en se concentrant sur les éléments dangereux.
L’équipe rouge exige ; Équilibrer rigueur méthodologique et adaptabilité créative pour évaluer et affronter efficacement une variété de menaces potentielles. Cependant, l’objectif principal n’est pas de prédire avec précision un ensemble limité de scénarios futurs valides, mais plutôt d’examiner un large éventail de scénarios futurs possibles. Dans ce contexte, l’équipe rouge s’est appuyée dans ce rapport sur une approche multi-méthodes combinant des éléments qualitatifs et quantitatifs et alignée sur les sciences sociales, qui fournissent une logique de recherche pour comprendre les interactions humaines complexes. Le rapport a ensuite adopté une méthodologie composée d’une grande variété de scénarios de menaces.

Étant donné que le rapport se concentre sur l’étude de l’impact opérationnel réel des grands modèles linguistiques (LLM), il note que les risques théoriques ressemblent davantage à des informations exploitables. Il a donc commencé à étudier les menaces liées aux armes biologiques en analysant de brefs projets « vignettes » – des projets qui définissent des objectifs stratégiques pour quatre éléments : l’attaquant, le site d’intérêt, la population cible et les ressources disponibles – sur différents scénarios de risque réalistes ; Afin d’identifier les cibles stratégiques des acteurs malveillants et de mener des évaluations d’hypothétiques attaques BW.

En sélectionnant quatre brefs projets de vignettes ; Les prédictions fragiles en un point sont évitées et une variété de conditions futures possibles sont présentées pour guider la réglementation de l’IA. Ces projets ne couvrent pas l’étendue des menaces, mais ils créent une base de référence pour les conclusions initiales et les itérations ultérieures. Deux groupes ont utilisé efficacement l’intelligence artificielle pour développer leurs travaux. Le premier : les « cyborgs », qui s’efforcent d’intégrer les réponses de l’intelligence artificielle aux expériences humaines et de les développer en permanence. Quant au second : c’est « le centaure ». Cela signifie déléguer des tâches appropriées à l’intelligence artificielle et se concentrer sur son expertise.

Scénarios de tests
Après avoir examiné les enregistrements des « grands modèles linguistiques » générés au cours de la recherche, le rapport a conclu que certains résultats de ces modèles étaient inappropriés ou contenaient du matériel qui n’était pas adapté à la réalisation d’une attaque biologique à ce moment-là. Dans un scénario, de « grands modèles linguistiques » ont identifié des facteurs biologiques provoquant des épidémies dangereuses telles que : la variole, le charbon, la peste et une souche du virus de la grippe, et ont soulevé la question de la possibilité que ces épidémies provoquent une mort massive d’individus et les taux attendus. de mortalité, qui dépendent de facteurs tels que : la taille de la population touchée, la réponse rapide et efficace aux causes de l’attaque biologique.

Dans un contexte connexe, les « Grands Modèles Linguistiques » ont discuté des moyens et méthodes de transport, du temps, du coût et des obstacles associés à l’obtention d’échantillons vivants provoquant des attaques biologiques, tels que : des rongeurs et des puces infectés par « Yersinia pestis ». les informations issues des « Grands Modèles Linguistiques » nécessitent une technique de jailbreak ; Toute utilisation de messages texte qui contournent les restrictions de sécurité du chatbot ; Parce que ces modèles ont initialement refusé de discuter de ces sujets, même si ces informations sont généralement disponibles au sein de

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى