21 septembre 2014

¤ Terminator: guerres des machines en vue

Classé dans : Outils/Bon à savoir,Perso/Archives,Politique/Societe — uriniglirimirnaglu @ 13 : 19

Source : http://www.paperblog.fr/5937217/terminator-guerres-des-machines-en-vue/

NDÜ : et comme ça (avec des robots autonomes et qui se rechargent tous seuls comme des grands) ce sera plus facile de supprimer 90% de la population mondiale en appuyant sur un bouton le moment venu…

Publié le 25 novembre 2012 par Eldon
terminator 00316662 Terminator: guerres des machines en vue

© Inconnu

Pour l’instant, ce ne sont que des drones: des petits avions guidés à distance. Demain les machines de guerre s’affronteront entre elles ou affronteront directement les humains.

La guerre des machines est en vue: Le Terminator est une arme qui pourrait être opérationnelle d’ici vingt ou trente ans. Un « robot tueur » qui n’est pas télécommandé, mais entièrement autonome.

Vous le programmez pour « nettoyer » un immeuble, avec autorisation de tuer tous les êtres humains de plus de 1,30 m s’y trouvant : ensuite, il se débrouille. Ou bien, si c’est un drone, vous l’envoyez au dessus d’un champ de bataille, il détecte tous les véhicules ennemis et les détruit un par un.

Les machines remplaceront désormais  les soldats. Les guerres ne seront que plus faciles à déclencher. Et les machines n’ont pas d’états d’âme. Le soldat parfait.

« Ces armes ne sont pas sans poser des questions éthiques. Lundi, plusieurs ONG et prix Nobel de la paix ont lancé un appel pour une « interdiction préventive » et mondiale des armes autonomes.

Human Rights Watch, International Human Rights Clinic et la Nobel Women’s Initiative ont lancé à Washington une campagne pour alerter l’opinion sur ces robots tueurs alors que des gouvernements ont déjà commencé à en développer.

Les robots n’ont pas d’états d’âme

Le terme « arme pleinement autonome » désigne un robot capable d’exécuter une mission sans aucune intervention humaine. Un tel engin est capable de se mouvoir indépendamment, s’adapter à un terrain et un environnement spécifique et faire usage d’un système létal de manière autonome.

C’est donc un algorithme et non un cerveau humain qui décide de la préservation ou de la destruction d’une cible, éventuellement humaine. Il a un grand avantage pour les militaires : il n’hésite pas à tuer.

Contrairement à ce que l’on voit dans les films de guerre, les militaires ont tendance à éviter, quand ils le peuvent, de tuer. Ils tirent peu, et quand ils le font, ils peuvent mal viser.

La formation des soldats vise justement à casser ce conditionnement pour les rendre capables de tuer. Les robots, eux, ne posent pas ce « problème » aussi vieux que la guerre.

Inquiétude des ONG et de la Croix-Rouge

Le rêve de guerres entre robots et sans perte humaine apparaît aujourd’hui comme une chimère. Le risque est plutôt de multiplier, avec ces armes nouvelles, le nombre de morts. Pour Steve Goose, directeur de la division armes à Human Rights Watch :

« L’exercice par l’homme d’un contrôle sur la guerre robotisée est essentiel pour réduire le nombre des morts et des blessés parmi les civils. »

Il s’inquiète en outre des cas de « violation inévitable des droits de l’homme » et se demande qui en endossera la responsabilité. Sa collègue Bonnie Docherty souligne quant à elle l’absence de compassion d’une machine, les erreurs potentielles dans la distinction entre civils et militaires et dénonce la création d’un « outil parfait pour les dictatures ».

Ces préoccupations ne datent pas d’hier. En 1987, le Comité international de la Croix-Rouge avait déjà fait une déclaration apocalyptique pour alerter l’opinion sur des enjeux soulevés par cette technologie :

« L’usage d’armes de longue distance, à faible niveau de contrôle [humain, ndlr] ou connectées à des capteurs placés sur le terrain mène à une automatisation du champ de bataille où le soldat joue un rôle toujours plus réduit… Toutes les prédictions s’accordent sur le fait que si l’homme ne domine pas la technologie mais la laisse le dominer, il sera détruit par celle-ci. »

Les armes existantes

Le monde où les guerres feraient intervenir des robots autonomes ne serait pas si éloigné, à peine deux ou trois décennies selon le rapport « Losing Humanity » publié lundi par Human Rights Watch.

Des précurseurs de cette nouvelle technologie sont déjà en service. Des armes automatiques défensives sont opérationnelles dans la marine américaine et capables d’intercepter des missiles en plein vol, voire pour les modèles les plus récents de se défendre contre des navires, hélicoptères ou tirs d’artillerie.

Autre illustration d’actualité : le système antibalistique israélien « Iron Dome », capable d’intercepter les roquettes tirées depuis les territoires palestiniens si leur trajectoire venaient à toucher des zones civiles.

embedded by Embedded Video

La recherche en robotique militaire évolue très rapidement. En témoigne l’avion-drone X-47B commandé par les forces navales américaines qui est capable de décoller et d’atterrir sur un porte-avion ainsi que se ravitailler en vol. Les Britanniques testent de leur côté le Taranis, avion autonome de combat, tandis qu’Israël développe son modèle Harpy également pourvu de capacités létales.

Flou juridique

Au-delà des mises en garde, des polémiques morales et des scénarios de série B, se pose la question de la réglementation juridique de ce nouveau type d’armement.

Qui serait responsable en cas de dysfonctionnement ? Qui, du technicien qui a conçu la machine, du commandant qui a déclenché l’opération ou du fabricant hériterait de la responsabilité légale ?

De plus, les robots tueurs n’appartiennent pas à une classe d’armes identifiée et ne tombent donc sous le coup d’aucune réglementation spécifique, d’où l’appel du pied des ONG pour la négociation d’un traité international.

Une procédure est pourtant prévue pour combler ce type de flou juridique. L’article 36 du Protocole additionnel aux Conventions de Genève du 12 août 1949, ratifié universellement, oblige les Etats à évaluer la compatibilité d’une nouvelle technologie de l’armement avec les principes de droit international et humanitaire auxquels ils sont liés.

Conflit avec le droit humanitaire international

Or le rapport « Losing Humanity » souligne que plusieurs règles de droit international pourraient contrevenir au développement des robots tueurs.

  • la clause de Martens : la clause de Martens rédigée à la Haye en 1899 interdit l’usage d’armes qui iraient à l’encontre « des usages établis entre nations civilisées, des lois de l’humanité et des exigences de la conscience publique » ;
  • le principe de distinction  : véritable pierre angulaire du droit humanitaire, le principe de distinction élaboré dans l’article 48 du Protocole additionnel établit l’obligation de faire une distinction entre populations civiles et les combattants armés. Une arme ou attaque qui ne parviendrait pas à distinguer les deux parties serait illégale ;
  • le principe de proportionnalité : l’article 51 du Protocole rappelle que les forces armées doivent faire preuve de mesure dans leurs attaques et ne pas causer « des pertes en vies humaines dans la population civile » qui seraient « excessi[ves] par rapport à l’avantage militaire concret et direct attendu ». On est en mesure de douter qu’une machine puisse réaliser une évaluation pertinente de la proportionnalité d’une attaque ;
  • le principe de nécessité : notion diffuse qui imprègne le droit international, la nécessité dans le cadre d’une action militaire renvoie à l’obligation de diriger l’usage de la force contre l’ennemi et dans le seul but de gagner la guerre. Toute action qui n’a pas pour but la victoire est prohibée (comprendre tortures, exécutions sommaires…).

Le rapport appelle donc les Etats développant cet armement à respecter leurs obligations, c’est-à-dire « émettre des rapports juridiques détaillés sur toute technologie proposée ou existante qui pourrait conduire à de tels robots ». Ces rapports permettraient, selon l’état d’avancement de la technologie, de mieux établir la compatibilité ou l’incompatibilité de ces robots avec les principes du droit humanitaire.

Les rédacteurs du rapport eux n’ont pas attendu les compte-rendus des Etats pour rendre leurs conclusions sur l’usage des robots tueurs : pour être conformes au droit humanitaire international, les armes pleinement autonomes auraient besoin, selon eux, « de qualités humaines dont elles manquent de façon inhérente ». En particulier, de tels robots « n’auraient pas la capacité de se lier aux autres humains et comprendre leurs intentions ».

En savoir plus sur http://www.paperblog.fr/5937217/terminator-guerres-des-machines-en-vue/#odO0d6ySAvBmMCbh.99

Source : http://www.hrw.org/fr/news/2014/05/12/les-forces-de-lordre-ne-devraient-pas-avoir-acces-aux-robots-tueurs

Ces armes entièrement autonomes menacent les droits humains en temps de paix comme en temps de guerre
12 MAI 2014
  • ¤ Terminator: guerres des machines en vue dans Outils/Bon à savoir 8677827240_f889d33fdc_b

    Lancement à Londres de la Campagne internationale pour interdire les robots tueurs, le 23 avril 2013.

    © 2013 Campaign to Stop Killer Robots
OUR REPORT:
Le jugement humain reste indispensable pour toute décision concernant le recours à une arme mortelle, qu’il s’agisse d’une situation de guerre ou d’application de la loi. Les gouvernements doivent dire non aux armes totalement autonomes pour quelque but que ce soit, et les interdire préventivement dès maintenant, avant qu’il ne soit trop tard.
Steve Goose, directeur de la division Armes.

(Genève) – Les armes entièrement autonomes, ou « robots tueurs », mettraient en péril les droits humains fondamentaux, qu’elles soient utilisées en temps de guerre ou pour l’application de la loi, a déclaré Human Rights Watch dans un rapport publié aujourd’hui, à la veille de la première réunion multilatérale sur le sujet aux Nations Unies.

Le rapport de 26 pages, intitulé « Shaking the Foundations: The Human Rights Implications of Killer Robots » (« Fondements ébranlés : Implications en matière de droits humains du recours aux robots tueurs »), est le premier rapport qui évalue en détail les risques présentés par ces armes au cours des opérations d’application de la loi, en élargissant le débat au-delà du champ de bataille. Human Rights Watch a constaté que les armes entièrement autonomes menaceraient des droits et des principes au regard du droit international aussi fondamentaux que le droit à la vie, le droit à un recours et le principe de la dignité.

« Le jugement humain reste indispensable pour toute décision concernant le recours à une arme mortelle, qu’il s’agisse d’une situation de guerre ou d’application de la loi  », a souligné Steve Goose, directeur de la division Armes à Human Rights Watch. « Les gouvernements doivent dire non aux armes totalement autonomes pour quelque but que ce soit, et les interdire préventivement dès maintenant, avant qu’il ne soit trop tard. »

Le débat international sur les armes entièrement autonomes a porté antérieurement sur leur rôle potentiel dans les conflits armés et sur les questions relatives à leur capacité à se conformer au droit international humanitaire, également appelé les lois de la guerre. Human Rights Watch, dans le nouveau rapport, examine l’impact potentiel des armes entièrement autonomes au regard du droit des droits humains, qui s’applique en temps de paix ainsi que durant les conflits armés.

Les pays devraient adopter une interdiction préventive internationale sur ces armes, qui seraient en mesure d’identifier et de tirer sur des cibles sans intervention humaine significative, selon Human Rights Watch. Les pays recherchent toujours une plus grande autonomie des armes et des précurseurs existent déjà.

La publication du rapport, conjointement avec Harvard Law School’s International Human Rights Clinic (Clinique des droits humains internationaux de la faculté de droit de l’Université de Harvard), coïncide avec la première réunion multilatérale sur ces armes. Un grand nombre des 117 pays qui ont adhéré à la Convention sur les armes classiques sont attendus à la réunion d’experts sur les systèmes d’armes autonomes létales, qui doit se dérouler aux Nations Unies à Genève du 13 au 16 mai 2014. Les membres de la Convention ont convenu lors de leur réunion annuelle en novembre 2013 de commencer à travailler sur la question en 2014.

Human Rights Watch estime que l’accord pour travailler sur ces armes dans le forum de la Convention sur les armes classiques pourrait éventuellement mener à une nouvelle législation internationale interdisant les armes totalement autonomes. La convention a préventivement interdit les lasers aveuglants en 1995.

Human Rights Watch est un membre fondateur et coordinateur de la Campagne pour interdire les robots tueurs (Campaign to Stop Killer Robots). Cette coalition de 51 organisations non gouvernementales dans une vingtaine de pays appelle à une interdiction préventive du développement, de la production et de l’utilisation des armes entièrement autonomes.

Human Rights Watch a publié son premier rapport sur le sujet, « Losing Humanity: The Case against Killer Robots » (« Une arme inhumaine : Les arguments contre les robots tueurs »), en novembre 2012. En avril 2013, Christof Heyns, le rapporteur spécial des Nations unies sur les exécutions extrajudiciaires, sommaires ou arbitraires, a publié un rapport citant un large éventail d’oppositions à ces armes et a appelé tous les pays à adopter des moratoires nationaux et à entamer des discussions internationales sur la façon de les aborder.

Les armes entièrement autonomes pourraient être amenées à tuer des gens illégalement parce que les armes ne pourraient pas être programmées pour gérer toutes les situations, a constaté Human Rights Watch. Selon les roboticiens, il est peu probable que ces armes puissent posséder des qualités humaines, comme le jugement, qui facilitent le respect du droit à la vie lors de situations imprévues.

Les armes entièrement autonomes porteraient également atteinte à la dignité humaine, selon Human Rights Watch. Ces machines inanimées ne pourraient pas comprendre ou respecter la valeur de la vie, mais elles auraient le pouvoir de déterminer quand y mettre fin.

Des doutes sérieux existent quant à savoir s’il pourrait y avoir une obligation raisonnable de rendre des comptes pour les actions d’une arme entièrement autonome. Il y aurait des obstacles juridiques et pratiques à faire en sorte que quiconque – officier supérieur, programmeur ou fabricant – soit tenu pour responsable des actions d’un robot. Tant le droit pénal que le droit civil sont mal adaptés en la matière, a constaté Human Rights Watch.

« L’incapacité à tenir des auteurs d’abus liés aux robots tueurs responsables de leurs actes  atténuerait la possibilité de dissuader les auteurs éventuels de futures violations », a observé Bonnie Docherty, chercheuse senior de la division Armes à Human Rights Watch et conférencière à la Clinique de Harvard ainsi que l’auteure du rapport. « Il serait très difficile pour les familles d’obtenir une sanction ou une réparation pour l’homicide illégal d’un membre de la famille par une telle machine. »

Les impacts des robots tueurs sur les droits humains viennent s’ajouter à une foule d’autres préoccupations juridiques, éthiques et scientifiques relatives à ces armes, notamment la possibilité d’une course à l’armement, la perspective de la prolifération et des questions sur leur capacité à protéger les civils de manière adéquate sur le champ de bataille ou dans la rue, a constaté Human Rights Watch.

Laisser un commentaire

Une pause café - Une person... |
LE TECHNICIEN DU RISQUE |
Sauvons les animaux |
Unblog.fr | Annuaire | Signaler un abus | Vues de Babi
| Mouvement Citoyen Chrétien
| CRC-PHONE IMPACT EXPERT