Sommaire :
Préambule
L’IA porte en elle les germes d’un bouleversement de l’éthique des conflits armés et d’une modification radicale des rapports de l’homme à la guerre.
Les forces armées investissent massivement dans l’intelligence artificielle et il existe déjà des exemples de déploiement de cette technologie sur le champ de bataille (voir Gaza), qu’elle soit utilisée pour guider des opérations militaires ou dans le cadre de systèmes d’armement.
On peut mettre en lumière trois domaines dans lesquels l’intelligence artificielle est développée en vue d’une application militaire et qui soulèvent d’importantes questions sur le plan humanitaire :
son intégration dans des systèmes d’armement, et notamment dans des systèmes d’armes autonomes,
son utilisation dans des cyberopérations et des opérations d’information,
son rôle sous-jacent dans les systèmes militaires d’aide à la décision.
Ce sont les systèmes d’armes autonomes qui ont le plus retenu l’attention concernant l’utilisation de l’intelligence artificielle à des fins militaires. Par exemple, des inquiétudes ont été exprimées quant au fait que l’intelligence artificielle pourrait servir à déclencher directement une frappe contre une personne ou un véhicule. Les risques liés au recours à l’intelligence artificielle dans les cyberopérations et les opérations d’information, ainsi que dans les systèmes d’aide à la décision, sont passés un peu plus inaperçus.
En opérations, l’éthique est bien plus qu’une simple réflexion personnelle ou collective encadrant des valeurs et des principes. Elle est un moteur de l’action du militaire et le guide souvent de façon quasi "instinctive". En situation de commandement, elle est le socle des actes de responsabilité, qui se fonde sur un héritage culturel profond, et une humanité enseignée et partagée. Cette éthique des conflits armés peut être qualifiée d’«appliquée» dans le sens où elle confronte en permanence le militaire à des situations concrètes qui lui imposent de résoudre, souvent dans l’urgence et le "feu de l’action", des dilemmes internes.
L’IA s’affirmera probablement au fil du temps comme un facteur clé de supériorité opérationnelle. Si les débats actuels nous invitent à nous reposer cette question du sens et de l’éthique de l’action, thèmes légitimes et permanents que les militaires n’ont jamais cessé de questionner, il faut probablement s’accorder sur deux points : qu’une guerre technologique ne sera jamais une guerre "zéro mort" et que le risque de dérive éthique est grand. L’IA offrira l’illusion d’une capacité des forces armées pour anticiper et pour réagir plus rapidement, pour créer de la surprise dans des formes opérationnelles variées, et pour maîtriser le temps court.
La guerre de l’information
La guerre de l’information fait depuis longtemps partie intégrante des conflits. Mais l’émergence du numérique et de l’intelligence artificielle sur le champ de bataille a modifié la façon dont l’information et la désinformation se propagent, et dont cette dernière se crée.
Ainsi, l’intelligence artificielle a été largement exploitée pour produire de faux contenus – textuels, audio, vidéo et photo – qu’il est de plus en plus difficile de distinguer d’informations authentiques. L’intelligence artificielle et l’apprentissage automatique jouent un rôle prépondérant dans la guerre de l’information et, selon toute vraisemblance, ces technologies sont en passe de changer la nature et l’échelle de la manipulation de l’information, ainsi que ses conséquences dans le monde réel.
Pourquoi se préoccuper par l’utilisation de l’intelligence artificielle et de l’apprentissage automatique dans les conflits armés ?
L’utilisation de l’intelligence artificielle et de l’apprentissage automatique dans les conflits armés a d’importantes répercussions sur le plan humanitaire, juridique, éthique et de la sécurité.
Au vu de la rapidité avec laquelle les avancées de l’intelligence artificielle sont intégrées dans les systèmes militaires, les risques spécifiques que cela fait peser sur les personnes touchées par des conflits armés croissent en proportion.
Les conséquences à prendre en considération soient nombreuses et les risques suivants doivent plus particulièrement retenir notre attention :
l’augmentation des dangers posés par les armes autonomes ;
l’aggravation des dommages causés par les cyberopérations et la guerre de l’information sur les personnes et les infrastructures civiles ;
l’impact négatif sur la qualité des décisions prises par des humains dans les milieux militaires.
Le malheur est que les États font très peu pour que l’intelligence artificielle, y compris l’apprentissage automatique, ne puisse pas être utilisée sans un contrôle et un jugement humains effectifs pour réaliser des tâches ou prendre des décisions susceptibles d’avoir des incidences graves sur la vie humaine car les réglementations proposées sont nettement insuffisantes et peuvent être facilement contournées.
Le respect des obligations juridiques et des responsabilités éthiques en temps de guerre est de plus en plus délégué à des machines et à des logiciels.
L’IA a permis d’identifier puis de frapper en masse les cibles militaires, les domiciles privés et les bâtiments symboliques liés au Hamas.
Andrés Allemand Smaller
Pourquoi l’offensive israélienne dans la bande de Gaza est-elle tellement plus meurtrière que les précédentes? L’objectif affiché - éliminer le Hamas - n’explique pas tout. Trois évolutions marquantes changent la donne: l’intelligence artificielle (IA), la prise en compte de cibles pas militaires au sens strict, et une «tolérance» plus élevée pour les dommages collatéraux (nombre de civils tués à chaque frappe). Telles sont les conclusions de l’enquête menée par "+972 Magazine", un média israélien de gauche, sur la base d’entretiens approfondis avec sept membres et anciens membres du renseignement israélien s’exprimant sous couvert d’anonymat. Mais aussi, simplement, en écoutant les déclarations officielles. Décryptage.
Jamais la bande de Gaza n’avait été aussi massivement bombardée que depuis le 7 octobre, date de l’épouvantable attaque terroriste perpétrée en Israël par des militants du Hamas massacrant plus de 1200 personnes (surtout civiles), commettant viols et actes de torture, puis capturant 240 otages. Dans les huit semaines qui ont suivi, la riposte israélienne a coûté la vie à plus de 15'000 personnes. Parmi elles, 5000 militants du Hamas ont été tués, estimaient lundi des officiels israéliens.
Bien sûr, l’aviation a frappé beaucoup de «cibles tactiques» à caractère militaire: combattants, arsenaux, lance-roquettes, escouades antichars, quartiers généraux, postes d’observation, etc. À ces objectifs, il faut ajouter le tentaculaire réseau de tunnels creusés par le Hamas. Les frappes ont évidemment entraîné l’effondrement de maisons et d’immeubles civils. Mais à ces deux catégories de cibles viennent s’en ajouter deux autres, qui ont fait exploser le bilan mortel. Voici comment.
Frappes à domicile
Il est arrivé à Tsahal, par le passé, de frapper le domicile d’un leader du Hamas, tuant sa famille du même coup. Mais à présent, il s’agit d’éliminer tous les membres du Hamas, estimés à plus de 30’000 avant la guerre. Autant de domiciles familiaux, entourés de voisins. Un membre du renseignement israélien confie son malaise: «Je me souviens avoir pensé que c’était comme si [les militants palestiniens] bombardaient toutes les résidences privées de nos familles lorsque [nos soldats] rentrent dormir chez eux le week-end.»
Selon cette enquête, l’armée israélienne dispose de dossiers sur la grande majorité des cibles potentielles à Gaza, précisant le nombre de civils susceptibles d’être tués en cas de frappe. Avant chaque attaque, les unités de renseignement savent combien de civils mourront.
Chute d’édifices percutants
Quatrième catégorie: les bâtiments publics (administrations, banques, universités), les infrastructures et les grands immeubles. Leur effondrement marque les esprits. On les appelle matarot otzem en hébreu ou power targets en anglais. Détruire ces cibles va «créer un choc» dans la société civile, en espérant qu’elle fera pression sur le Hamas.
Officiellement, ce sont des cibles légitimes. «Il y aura toujours, dans le bâtiment, un étage [qui peut être lié au Hamas]. Mais la plupart du temps, il est clair que la cible n’a pas une valeur militaire justifiant une attaque [...] à l’aide de six avions et de bombes pesant des tonnes», explique l’une des sources citées par "+972 Magazine". À vrai dire, «le Hamas est omniprésent à Gaza; il n’y a pas un bâtiment qui n’ait quelque chose du Hamas, donc si vous voulez trouver un moyen de transformer un grand immeuble en cible, vous pourrez le faire», insiste un ancien responsable des services de renseignement.
Le procédé n’est pas nouveau, mais il a été systématisé. Les frappes sont nombreuses et l’armée n’attend plus forcément que le bâtiment soit évacué.
L’Évangile selon «Matrix»
Ce qui facilite la multiplication des frappes, c’est l’intelligence artificielle. En particulier le système Habsora (L’Évangile). Voilà «une machine qui traite d’énormes quantités de données plus rapidement et plus efficacement que n’importe quel humain, et qui les traduit en cibles exploitables», confiait en juin Aviv Kochavi, chef de l’armée israélienne jusqu’en janvier dernier. «Dans le passé, nous produisions 50 cibles à Gaza par année. Aujourd’hui, cette machine crée 100 cibles en une seule journée», a-t-il affirmé à Ynet, portail web très populaire en Israël. Ce saut technologique, il le compare au film «Matrix».
Mais le risque d’erreur n’est pas négligeable. «C’est vraiment comme une usine. Nous travaillons rapidement et nous n’avons pas le temps d’approfondir la cible», déplore une source qui travaillait auparavant pour la Division des cibles. L’armée, elle, vante cette «usine à cibles qui fonctionne 24 h/24» pour permettre des frappes jugées très précises.
Morts autorisées en nombre
Surtout, depuis le massacre perpétré en Israël, l’armée a relevé son «seuil de tolérance» pour les dommages collatéraux à Gaza. Des frappes sont autorisées qui ne l’étaient pas autrefois parce que le nombre de victimes civiles était jugé trop important. «Actuellement, nous mettons davantage l’accent sur ce qui cause le maximum de dégâts que sur le degré de précision», affirmait le 9 octobre Daniel Hagari, porte-parole de l’armée.
Un cas est évoqué par plusieurs sources: le commandement militaire israélien a approuvé le meurtre de centaines de civils dans une tentative pour assassiner un haut commandant du Hamas. «Les chiffres sont passés de dizaines de morts civiles (autorisées) à des centaines de morts civiles en tant que dommages collatéraux», a déclaré l’une des sources de l’enquête.
Le chef d’état-major de l’armée de l’air israélienne Omer Tishler a déclaré au cinquième jour des combats que toutes les attaques avaient une cible militaire légitime et qu’elles étaient menées «avec précision et professionnalisme, mais pas de manière chirurgicale, nous parlons ici de milliers de munitions» sur des quartiers qui servent de "nids de terreur" pour le Hamas. Des milliers de frappes ont eu lieu avant même que les civils palestiniens ne soient appelés à évacuer le Nord de la bande de Gaza.
L’Évangile et les dommages collatéraux
«L’Évangile» évalue même le nombre de civils susceptibles d’être tués lors d’une frappe contre une cible particulière. L’une des sources a révélé aux médias que «lorsque la directive précise "Dommage collatéral 5", cela signifie que nous sommes autorisés à frapper toutes les cibles qui tueront cinq civils ou moins.»
Un général retraité a déclaré au Guardian que les opérations de l’IA produisent 100 cibles par jour, dont 50% sont attaquées. Les forces armées israéliennes n’ont pas suffisamment d’avions et de drones pour suffire à la demande compte tenu des autres frappes urgentes.
Israël a mené jusqu’ici plus de 10'000 frappes aériennes depuis le 7 octobre. L’armée israélienne estime avoir tué entre 1000 et 2000 membres du Hamas. Selon le ministère de la Santé de Gaza dirigée par le Hamas, quelque 17 000 Palestiniens ont été tués, la plupart des civils, dont au moins 6150 enfants.
Appelée à réagir, l’armée israélienne a déclaré que l’unité (responsable de l’Évangile) «produit des attaques précises sur les infrastructures associées au Hamas, infligeant d’importants dégâts à l’ennemi et un minimum de préjudices aux non-combattants».
Des experts en IA et en conflits armés consultés par le Guardian se sont déclarés sceptiques quant aux affirmations selon lesquelles les systèmes basés sur l’IA réduiraient les dommages causés aux civils en encourageant un ciblage plus précis. Avec raison. Le nombre de civils tués dans les bombardements israéliens semble plutôt étayer la thèse contraire.
Selon "+972/Local Call", citant des sources des services de renseignement israéliens une frappe mortelle contre un commandant militaire de haut rang du Hamas a été approuvée même si on savait que des centaines de civils palestiniens allaient être tués. Le bombardement du camp de réfugiés de Jabaliya, qui ciblait un des chefs militaires du Hamas a fait 126 morts.
Israël et l’IA: on n’arrête pas le progrès
Israël avait déjà utilisé l’Intelligence artificielle lors de sa précédente offensive majeure à Gaza en 2021, la qualifiant de "première guerre d’IA". Au cours de ce conflit de 11 jours, des drones ont tué des civils, endommagé des écoles et rasé des immeubles en hauteur.
Toujours en 2021, le Washington Post avait révélé que les soldats israéliens utilisaient un programme de reconnaissance faciale pour surveiller des Palestiniens dans la ville d’Hébron, en Cisjordanie.
«Avec un opérateur humain, il y a toujours la possibilité, en théorie, qu’un humain puisse faire preuve de compassion, d’empathie et de jugement humain, alors qu’un système formé à partir de données et préprogrammé pour faire quelque chose n’a pas cette possibilité»
Liens
Comment l’intelligence artificielle va changer la guerre Euronews
L’IA et le quantique vont totalement changer les guerres du futur La RTS
Comment l’intelligence artificielle va transformer la guerre Éditoriaux de l’Ifri
L’intelligence artificielle transforme la guerre Julie JAMMOT avec W.G. DUNLOP à Washington Agence France-Presse
* * * *
CheckNews - publié le 2 décembre 2023
La guerre entre le Hamas et Israël
Florian Gouthière et Alexandre Horn
L’intelligence artificielle mise au service du bombardement sur la bande de Gaza, l’un des plus destructeurs et meurtriers du XXIe siècle. L’idée, qui appartenait il y a peu à la science-fiction, est désormais une réalité. L’armée israélienne le revendique officiellement dans sa communication.
Le sujet, qui avait déjà intéressé plusieurs titres de la presse israélienne et internationale ces dernières années, a été remis sur le devant de la scène, ces derniers jours, par une longue enquête du média israélo-palestinien de gauche +972, publiée le 30 novembre. En s’appuyant sur des témoignages de militaires et d’ex-militaires, l’article détaille les rouages de la campagne aérienne sans précédent menée par Tsahal sur Gaza depuis le 7 octobre. Et l’usage, fait par l’armée dans ce contexte, d’outils d’intelligence artificielle.
Tsahal revendique une «guerre par IA
L’utilisation de ce type de technologies dans un cadre militaire par les forces israéliennes a été documentée à plusieurs reprises. En 2021, après la campagne de bombardements menée pendant onze jours sur Gaza, le Jerusalem Post rapportait que Tsahal revendiquait avoir mené cette année-là la première «guerre par IA», mentionnant plusieurs outils algorithmiques destinés à optimiser l’action sur le terrain. Le quotidien israélien nommait alors trois algorithmes, nommés «Alchemist», «Gospel», et «Depth of Wisdom». Un autre système, «Fire Factory», a été décrit en juillet 2023 par le média Bloomberg.
Dans un contexte militaire, l’IA est utilisée pour analyser un très grand nombre de données issues du renseignement (ou de la logistique dans certains cas), et estimer rapidement les effets des différents choix stratégiques possibles. Deux outils, en particulier, seraient utilisés par Tsahal dans le cadre des attaques menées depuis le 7 octobre. Le premier, «Gospel» (ou «Habsora»), vise à suggérer les cibles les plus pertinentes pour une attaque, dans un périmètre donné. Le second, «Fire Factory», sert à optimiser, en temps réel, les plans d’attaques des avions et des drones, en fonction de la nature des cibles choisies. L’algorithme se chargerait de calculer la quantité de munitions nécessaires, d’attribuer les cibles aux différents avions et drones, ou de déterminer l’ordre le plus pertinent pour les attaques.
Une capture d’écran de «Fire Factory», publiée en juillet par Bloomberg à titre d’illustration, montre une carte avec plusieurs cibles entourées, ainsi qu’une frise chronologique sur laquelle se succèdent différentes frappes. A noter que la séquence d’attaque présentée est fictive ou que, tout du moins, un certain nombre d’éléments à l’image ont été altérés avant publication, les noms des cibles en hébreu étant ici fantaisistes (des restaurants de Tel Aviv, par exemple).
Toujours d’après Bloomberg, les systèmes d’intelligence artificielle de l’armée israélienne seraient développés par l’armée elle-même, mais aussi par des acteurs privés, comme l’entreprise du secteur de la défense Rafael, qui fournirait «Fire Factory». A propos d’un outil du même genre (mais d’un autre nom), l’entreprise vante sur son site «un changement de paradigme révolutionnaire dans l’analyse de la situation et le circuit entre le capteur et le tireur, permettant une efficacité, une vitesse et une précision sans précédent».
De 50 cibles par an à 100 cibles par jour
Dans les deux cas, les systèmes sont supervisés (d’après les déclarations de Tsahal cet été à Bloomberg) par des opérateurs humains qui, derrière l’écran, doivent vérifier et approuver tant les cibles que les plans de raids. Dit autrement, ces systèmes ne prendraient pas directement la décision de tirer, bien qu’une partie du processus soit automatisé. Selon des représentants des forces armées israéliennes interrogées par Bloomberg, ces solutions informatiques avaient été élaborées dans l’hypothèse de la conduire d’une «guerre totale» («all-out war»).
D’après le média +972, l’utilisation de ces solutions technologiques explique comment l’armée israélienne a pu bombarder la bande de Gaza à un rythme aussi effréné (15'000 cibles durant les seuls 35 premiers jours de bombardement, selon les chiffres mêmes de Tsahal). De fait, dans un communiqué publié début novembre, les forces armées israéliennes reconnaissaient elles-mêmes que «Gospel» (cité nommément) leur permettait de générer, de manière automatique, «des cibles à un rythme rapide».
Dans un article paru fin juin sur le média israélien YNet, l’ancien chef d’état-major de l’armée israélienne Aviv Kochavi expliquait que, lors de la guerre de 2021, «Gospel» générait 100 cibles par jour, ajoutant : «Pour mettre cela en perspective, dans le passé, nous produisions 50 cibles à Gaza par an.» Et de préciser que, lors de ces opérations militaires, la moitié des cibles suggérées par le logiciel avaient été attaquées. Au regard du rythme auquel l’algorithme propose de nouvelles cibles à bombarder, d’anciens officiers de renseignement critiques du procédé, interrogés par +972, assimilent le processus à une «usine d’assassinat de masse».
«Rien n’arrive par hasard»
Les pertes civiles font partie des éléments dont «Gospel» tient compte pour identifier de nouvelles cibles. En effet, selon l’enquête de +972, l’armée israélienne dispose d’informations sur la majorité des cibles potentielles à Gaza, permettant notamment d’estimer le nombre de personnes civiles susceptibles d’être tuées en cas de frappes. Or, selon une autre source interrogée par le média israélien, depuis le 7 octobre, le nombre de morts civils jugé acceptable par le commandement militaire israélien dans l’objectif d’atteindre un dirigeant du Hamas serait passé de «dizaines» à «des centaines».
«Nous ne sommes pas le Hamas. Ce ne sont pas des missiles aléatoires. Tout est intentionnel.»
«Rien n’arrive par hasard, déclare une autre source aux journalistes de +972. Lorsqu’une fillette de 3 ans est tuée dans une maison à Gaza, c’est parce que quelqu’un, dans l’armée, a décidé que ce n’était pas grave qu’elle soit tuée – que c’était un prix qui valait la peine d’être payé pour frapper [une autre] cible. Nous ne sommes pas le Hamas. Ce ne sont pas des missiles aléatoires. Tout est intentionnel. Nous savons exactement combien de dommages collatéraux il y a dans chaque maison.» (NDLR - plus cynique tu meurs)
Des milliers d’arbitrages invisibles
Outre l’intensification des frappes permise par ces outils, se pose également la question de la qualité des données de renseignement sur lesquelles reposent les analyses. En 2020, une enquête du quotidien britannique The Independent, citant des militaires israéliens, pointait déjà des failles dans le cibles visées par les bombardements de l’armée de l’air israélienne, y compris sur des cibles obsolètes, pour remplir des quotas.
Si ces données sont imprécises, périmées ou erronées, les suggestions logicielles n’auront aucune valeur stratégique. Or, si d’après un militaire interrogé par Bloomberg, une partie du choix des IA est transmise aux militaires décisionnaires, ces derniers ignorent le détail des milliers d’arbitrages invisibles réalisés par l’IA, et ne peuvent pas interroger leur fiabilité ou leur pertinence. De façon plus générale, l’utilisation de ces algorithmes rend plus difficile, pour les militaires, de comprendre ou de justifier leurs décisions.
(NDLR - il y a quand quelque chose d’affreusement cynique dans les commentaires justificatifs de l’état-major de l’IDF lorsqu’il cherche à donner sens à son bombardement massif de Gaza. Le fait reste que sa riposte est totalement disproportionnée et de compter les morts civils comme "dégâts collatéraux" en est le comble. Il y a là un mépris total de la vie, ou du moins, où pour une vie Israélienne, il se permet de prendre 100 vies Palestiniennes...)
L’influence de l’IA dépassera sans aucun doute les murs des états-majors ou des organes de commandement pour s’étendre sur le champ de bataille. Elle pourrait constituer à terme une part essentielle des systèmes d’arme.
Dans ce type de conflit, les hommes seraient incapables de faire face, d’un point de vue cognitif, à des armes modernes ou futures saturant les défenses, évoluant à des vitesses toujours plus élevées, et commandées par des logiciels fonctionnant toujours plus rapidement. Seule une IA pourrait commander la riposte.
L’avenir de l’IA militaire est incertain et il est plus que probable qu’elle continuera à être utilisée de manière croissante dans les opérations militaires. Toutefois, malgré les réglementations et les normes mises en place, il y a peu de chance qu’une utilisation responsable et éthique de l’IA dans le domaine militaire soit garantie. Car l’intelligence artificielle sera utilisée pour des fins illégitimes ou pour violer les droits de l’homme que l’on veuille ou pas et cela, malgré le fait d’avoir mis en place un cadre réglementaire solide qui encadrerait l’utilisation de l’IA dans le domaine militaire et d’avoir veillé à ce que les algorithmes seraient transparents et responsables.
L’intelligence artificielle dans l’armée n’est qu’une partie de l’ensemble des technologies de l’IA qui sont utilisées dans le domaine militaire. D’autres technologies de l’IA, comme l’apprentissage automatique et le traitement du langage naturel, sont également utilisées dans le domaine militaire pour diverses applications, telles que la reconnaissance vocale, la traduction automatique, la surveillance, l’espionnage et l’analyse de données de sécurité. En outre, l’IA militaire est souvent utilisée en conjonction avec d’autres technologies, comme les réseaux de capteurs et les drones, pour améliorer les capacités de surveillance et de reconnaissance.
L’IA militaire est en constante évolution et de nouvelles applications et utilisations sont développées régulièrement. Par exemple, il y a eu de récentes avancées dans le développement de robots militaires autonomes, qui pourraient un jour être utilisés pour effectuer des missions dangereuses ou difficiles.
Surtout, une peur existentielle nous anime. L’IA semble favoriser la mise en place de dispositifs de contrôle de la population. La reconnaissance faciale est utilisée de plus en plus pour identifier les personnes dont le comportement déroge avec les règles imposées par les autorités. Elles peuvent être lourdement sanctionnées. L’IA favoriserait ainsi l’autoritarisme politique. Sa diffusion dans le monde pourrait porter un coup rude aux valeurs démocratiques et indirectement, au champion qui s’est toujours targué d’en incarner l’essence, à savoir les États-Unis.
En conclusion, l’IA militaire est un domaine en constante évolution qui offre de nombreux avantages pour les opérations militaires, mais qui présente également des risques et des limites. Il est important que des réglementations et des normes soient mises en place pour garantir l’utilisation responsable et éthique de l’IA dans le domaine militaire et que les algorithmes soient transparents et responsables.
* * * *
Quelles sont les limites et les risques de l’IA dans le domaine militaire ?
Malgré ses quelques avantages, l’IA militaire présente de nombreux risques et des abus possibles qui sont difficiles à prendre en compte et à y remédier.
Tout d’abord, il y a le risque de dépendance vis-à-vis de l’intelligence artificielle. En déléguant certaines tâches à des algorithmes, il est possible de devenir dépendant de l’IA et de perdre certaines compétences humaines. Cela peut poser des problèmes en cas de panne ou de dysfonctionnement de l’IA, ou si l’IA est utilisée de manière abusive ou illégitime.
Il y un grand risque de manque de transparence dans les décisions prises par les algorithmes. En effet, il est difficile de savoir comment les algorithmes prennent leurs décisions et de les faire remonter jusqu’à une personne responsable. Cela peut poser des problèmes de responsabilité et de confiance, surtout dans le domaine militaire où les décisions peuvent avoir des conséquences graves.
Il y a surtout le risque non-négligable que l’IA soit utilisée pour des fins militaires illégitimes, comme la guerre de l’information ou la désinformation. En utilisant l’IA pour diffuser de fausses informations ou pour manipuler les opinions publiques, il est possible de déstabiliser les gouvernements et de provoquer des conflits.
Il y a enfin le risque de discriminations et de biais. En utilisant des données qui reflètent les biais existants dans la société, il est possible que les algorithmes de l’IA reproduisent ces biais et discriminent certaines personnes ou groupes de personnes. Cela peut avoir des conséquences graves, surtout dans le domaine militaire où les décisions peuvent avoir des conséquences graves.
Liens
L’intelligence artificielle et ses applications : un défi stratégique du CHEM
Régulation de l’IA militaire se heurte au "principe de réalité" Revue Conflits
Retour à ma page - l’analyse de l’IA - compilation d’articles de divers journaux
Risquées, les armes contrôlées par l’IA ? - Ce qu’il faut savoir - Science Presse
L’IA - comme technologie militaire - CSS-ETHZ
page compilée par G.P.T. - novembre 2023
page checked by...