mercredi 30 avril 2014

Le Canada a demandé pour aider à garder les champs de bataille off »des robots tueurs»

london killer robots Quelque part au fond dans un laboratoire en Chine , les scientifiques travaillent à la construction de machines militaires autonomes qui pourraient un jour se retrouver sur un champ de bataille .

Ce n'est pas seulement la Chine . Russie et Israël travaillent sur leur propre matériel mortelle .

Le Royaume-Uni , Etats-Unis et la Corée du Sud ont même effectué des tests sur les armes autonomes dans les scénarios militaires .

Les implications potentiellement profondes de cette technologie en développement ont conduit à la formation de la Campagne pour la campagne Stop Killer Robots - un effort international pour voir ces machines interdites.

Les efforts sont semblables à des armes nucléaires par rapport à l'énergie nucléaire , en ce que les robots sont OK , mais des robots tueurs ne sont pas .

Canada n'est pas connu pour être le développement de ces armes , si la Campagne pour mettre fin Robots de tueur croit que c'est la raison pour laquelle le pays serait bien positionné comme un leader mondial pour initier un traité international contre un tel développement.

Cependant, l'utilisation de robots tueurs lutte contre nos batailles a des partisans .

Les partisans soulignent le potentiel de réduire le nombre de soldats humains sur un champ de bataille et victimes - comme c'était l'argument pour les mines il ya des décennies .

S'adressant à des journalistes à Ottawa le mardi , Ian Kerr , l'Université d'Ottawa et professeur Chaire de recherche du Canada en éthique , reconnaît l'erreur humaine et erreur de l'ordinateur sont tous les deux réalités , mais que l'erreur humaine dans les situations militaires est préférable .

«Nous demandons à la question de savoir si nous voulons abandonner le contrôle humain des machines , » dit-il .

" Les faiblesses humaines font partie de la condition humaine qui fait partie de la prise de décision et le jugement humain , qui est la pierre angulaire de notre système de justice . "

Machines n'ont pas conscience contextuelle - la capacité d'évaluer la valeur d'une cible militaire ou la valeur des civils vit potentiellement perdu , dit-il.

"Il n'y a pas de réciprocité si le décideur est une machine . Dans aucun sens est la machine une partie prenante. "

C'est la différence de même l'utilisation de drones - déjà plus récemment contentieux des champs de bataille .

Washington a utilisé des drones pour frapper et tuer les membres du groupe terroriste et les dirigeants d'outre-mer , qui soulève des questions éthiques de ces attaques .