Robots De Combat : Interdit Ne Peut Pas être Autorisé

Table des matières:

Robots De Combat : Interdit Ne Peut Pas être Autorisé
Robots De Combat : Interdit Ne Peut Pas être Autorisé

Vidéo: Robots De Combat : Interdit Ne Peut Pas être Autorisé

Vidéo: Robots De Combat : Interdit Ne Peut Pas être Autorisé
Vidéo: Real Steel - Fans de Robots ? [PS3-HD] 2024, Peut
Anonim

Les experts se sont réunis à Genève, mais aucun accord n'a pu être trouvé: les États-Unis et la Russie ont bloqué tous les travaux. C'est peut-être la seule fois où les hégémons travaillent si harmonieusement.

Robots de combat: interdit ne peut pas être autorisé
Robots de combat: interdit ne peut pas être autorisé

Des réunions d'experts au format de la Convention sur les armes inhumaines se sont terminées à Genève pour décider du sort des soi-disant robots de combat - des armes autonomes qui utilisent l'intelligence artificielle pour vaincre des cibles. Cependant, aucun accord n'a pu être trouvé. Les États-Unis, la Russie, la Corée du Sud, Israël et l'Australie faisaient partie des nations minoritaires qui ont réussi à bloquer le sentiment d'une interdiction complète des robots tueurs.

Ainsi, bien qu'il n'y ait toujours pas d'arme autonome fonctionnelle dans le monde, la technologie reste, pour ainsi dire, humaine - elle peut être développée et étudiée. Fait intéressant, les États-Unis et la Russie, selon le Stockholm Peace Research Institute (SIPRI), sont en tête de liste des plus grands exportateurs d'armes. La Corée du Sud, Israël et l'Australie ne sont pas non plus à la traîne dans ce classement - ils font partie des 20 premiers acteurs du marché.

Et bien que la Chine (le cinquième exportateur d'armes au monde, membre permanent du Conseil de sécurité de l'ONU prône l'interdiction des robots de combat, elle n'est pas parvenue à faire tourner la balance en son sens lors des rencontres. Aujourd'hui, 26 pays soutiennent ouvertement le interdiction de l'utilisation de l'intelligence artificielle en temps de guerre. D'autres répugnent à une position claire) La France et l'Allemagne (les troisième et quatrième exportateurs d'armes) proposent de signer un document qui consoliderait la primauté de l'homme sur l'intelligence artificielle, mais ils sont plus susceptibles du côté de ceux qui veulent développer des véhicules de combat autonomes.

« Il est certainement décevant qu'un petit groupe de géants militaires puisse retenir la volonté de la majorité », a commenté Mary Verhem, coordinatrice de la Campagne pour arrêter les robots tueurs, à propos des résultats des réunions de Genève.

En effet, la situation ressemble à une conspiration de magnats monopolistes armés, étant donné que les États-Unis et la Russie ne peuvent généralement pas parvenir à au moins une sorte de compromis sur des questions importantes. Prenez celui de la Syrie: Washington et Moscou se sont mutuellement bloqué leurs résolutions après avoir utilisé des armes chimiques en Syrie ce printemps. Soit dit en passant, les gaz asphyxiants et autres substances toxiques à des fins militaires étaient auparavant interdits par la Convention sur les armes inhumaines.

La prochaine réunion sur le sort des robots tueurs aura lieu à Genève en novembre.

Pourquoi veulent-ils interdire les armes autonomes

Les partisans de l'interdiction de la guerre des robots insistent sur le fait que le champ de bataille n'est pas un endroit pour l'intelligence artificielle. À leur avis, ces technologies représentent une menace énorme. Du moins, aujourd'hui, on ne sait pas comment la machine fera la distinction entre les combattants (ceux qui sont directement impliqués dans les hostilités) des non-combattants (les militaires qui ne peuvent utiliser des armes que pour l'autodéfense) et les civils en général. Il existe une possibilité que le travail tue les blessés et ceux qui se rendent, ce qui est interdit par les règles actuelles de la guerre.

Qu'est-ce qui empêche les travaux d'interrompre toutes les parties au conflit, même les propriétaires de telles armes ? Des éléments d'intelligence artificielle sont déjà utilisés avec succès dans des équipements militaires, des missiles; les robots sont attirés par la reconnaissance, mais le dernier mot revient toujours aux humains. Les armes autonomes n'obéiront pas aux ordres des commandants - c'est pourquoi elles sont autonomes. C'est pourquoi les généraux militaires de différents pays sont sceptiques quant à l'introduction de machines dans les rangs du personnel.

Et une autre question ouverte est le terrorisme international. La technologie des armes autonomes peut tomber entre de mauvaises mains et peut éventuellement être piratée. Il y a un an, le président russe Vladimir Poutine a déclaré que le maître du monde sera celui qui deviendra le leader du développement de l'intelligence artificielle. Dans le cas des armes autonomes, celui qui accède à ces technologies deviendra le maître du monde. Et pour cela, en fait, vous n'avez besoin que d'un ordinateur et d'un cagnard qui passera par les systèmes de sécurité. Soit dit en passant, le Pentagone a été piraté plus d'une fois. Par conséquent, personne ne peut garantir que les armes autonomes resteront inviolables.

On ne sait pas non plus qui sera légalement responsable si un crime de guerre est commis à la suite du fonctionnement du système d'armes autonome. « L'ingénieur, le programmeur, le fabricant ou le commandant qui a utilisé l'arme ? Si la responsabilité ne peut être définie comme l'exige le droit international humanitaire, le déploiement de tels systèmes peut-il être reconnu comme juridiquement ou éthiquement justifié ? », note le Comité international de la Croix-Rouge.

Fait intéressant, les scientifiques ont également préconisé l'interdiction des robots de combat. En juillet de cette année, plus de deux mille scientifiques, en particulier le créateur de Tesla et SpaceX Elon Musk et les co-fondateurs de DeepMind, ont signé un document selon lequel ils ne développeraient pas d'armes autonomes létales. Google a fait de même. Le géant de la technologie a renoncé à travailler sur le projet Maven du Pentagone. Et en 2017, un certain nombre de scientifiques ont déjà appelé l'ONU à interdire la création de robots tueurs.

D'ailleurs, la question de l'intelligence artificielle en temps de guerre est apparue à l'agenda des Nations unies fin 2013, mais pratiquement rien n'a changé depuis. Cette année seulement, des réunions d'experts ont commencé sous la forme de la Convention sur les armes inhumaines. C'est-à-dire qu'il a fallu plus de quatre ans pour arriver à un plan plus ou moins pratique.

Pourquoi ils ne veulent pas interdire les armes autonomes

Aussi banal que cela puisse paraître, la course aux armements est la principale raison pour laquelle ils ne veulent pas interdire les robots tueurs. Poutine a raison: celui qui obtiendra le premier des armes autonomes dominera le monde. Officiellement, cette raison est exprimée.

Le principal argument des opposants à l'interdiction est l'impossibilité de séparer l'intelligence artificielle civile des militaires. Par exemple, nous n'interdirons pas les couteaux de cuisine simplement parce que les terroristes peuvent les utiliser. En effet, il est pratiquement impossible de séparer le développement civil de l'intelligence artificielle du développement militaire. Mais maintenant, nous parlons de l'interdiction de cette arme, qui pourra déterminer et attaquer des cibles de manière indépendante. Ce pourrait être le projet Maven, sur lequel le département américain de la Défense travaille en collaboration avec Booz Allen Hamilton (Google a refusé le contrat).

Les développeurs de Maven veulent apprendre aux drones à analyser des images, en particulier à partir de satellites et - potentiellement - à identifier des cibles d'attaque. Le Pentagone a commencé à travailler sur le projet en avril 2017 et espérait obtenir les premiers algorithmes fonctionnels d'ici la fin de l'année. Mais grâce à la démarche des employés de Google, le développement a été retardé. En juin de cette année, selon Gizmodo, le système pouvait distinguer les objets élémentaires - voitures, personnes, mais il s'est avéré totalement insignifiant dans les situations difficiles. Si l'interdiction des armes autonomes est néanmoins adoptée au niveau de l'ONU, le projet devra être abandonné, tandis que le Pentagone prétend que leur développement peut sauver des vies, car il peut être programmé pour fonctionner de manière plus précise et fiable par rapport aux personnes.

"Il faut comprendre qu'on parle de technologie, qu'il n'y a pas d'échantillons qui fonctionneraient. L'idée de tels systèmes est encore très superficielle", notait à la veille de la réunion à Genève au ministère russe des Affaires étrangères. - A notre avis, le droit international, en particulier le domaine humanitaire, peut s'appliquer aux armes autonomes. Ils n'ont pas besoin de modernisation ou d'adaptation à des systèmes qui n'existent pas encore. »

Eh bien, et une autre raison réelle, mais non exprimée, c'est de l'argent. Aujourd'hui, le marché des technologies d'intelligence artificielle militaire est estimé à plus de six milliards de dollars. Mais d'ici 2025, le chiffre triplera - à près de 19 milliards, selon les analystes de la société américaine MarketsandMarkets. Pour les plus gros exportateurs d'armes, c'est une bonne motivation pour bloquer toute restriction au développement de robots tueurs.

La progression ne peut pas être arrêtée

Les partisans d'une interdiction des armes autonomes notent que la technologie se développe très rapidement et que l'intelligence artificielle finira par devenir une arme - une question de temps. Il y a de la logique dans leurs propos. L'intelligence artificielle fait partie intégrante de la quatrième révolution scientifique et technologique, qui se poursuit actuellement. Il ne faut pas oublier que le progrès technique est d'une manière ou d'une autre associé aux opérations militaires. La troisième révolution scientifique et technologique a duré jusqu'au milieu des années 50 du XXe siècle, c'est-à-dire que son apogée est tombée sur la période de la Seconde Guerre mondiale.

En 1949, Genève a adopté la Convention pour la protection des personnes civiles en temps de guerre. Dans la période d'après-guerre, ils complétaient également la IVe Convention de La Haye de 1907, qui déterminait les règles de conduite de la guerre. C'est-à-dire que les horreurs de la Seconde Guerre mondiale sont devenues le catalyseur de ce processus. Ainsi, les défenseurs des droits humains ne veulent pas attendre la troisième guerre mondiale pour protéger l'humanité des armes autonomes. C'est pourquoi décider du sort des robots tueurs est maintenant nécessaire, insistent-ils.

Selon les experts de Human Rights Watch, l'utilisation de robots de combat contredit la Déclaration de Martens - le préambule de la Convention de La Haye de 1899 sur les lois et coutumes de la guerre. En d'autres termes, les robots tueurs violent les lois de l'humanité et les exigences de la conscience publique (la position a été confirmée dans la IVe Convention de La Haye).

« Nous devons travailler ensemble pour imposer une interdiction préventive de ces systèmes d'armes avant qu'ils ne se répandent dans le monde », a déclaré Bonnie Doherty, chercheuse principale au département des armes à Human Rights Watch.

Eh bien, cela n'a pas fonctionné d'interdire les robots tueurs cette fois. Comme on pouvait s'y attendre, les réunions de novembre seront également infructueuses. Certes, presque tous les pays sont d'accord - la technologie ne peut pas circuler par gravité et les robots de combat ont besoin d'une telle grue d'arrêt. Mais il n'est toujours pas clair si l'humanité aura le temps de s'en tirer lorsque le besoin s'en fera sentir.

Conseillé: