Nous trouvons des robots tueurs soit menaçant, soit cool dans les films. Une franchise de film qui présente les deux est le Terminator et l'histoire derrière le film pourrait se concrétiser, si les plus grands scientifiques et sociétés robotiques au monde sur l'intelligence artificielle sont à croire.
La ??recherche sur l'intelligence artificielle (AI), qui peut permettre des machines autonomes et intelligentes, se déplace maintenant à un rythme à couper le souffle. Nous voyons maintenant des véhicules sans pilote dans des applications militaires et civiles, et dans le domaine des applications militaires, il existe des efforts pour proposer des véhicules autonomes autonomes qui peuvent faire leur propre mission sans avoir besoin de pilote humain éloigné. Un exemple est le projet britannique "Taranis" qui est un véhicule aérien de combat sans pilote destiné à inclure "l'autonomie totale".
Les robots entièrement autonomes et intelligents constituent-ils une menace pour la société tout comme dans Terminator, ou comme The Matrix ? Dans une lettre signée par 116 fondateurs et dirigeants de sociétés de robotique et d'intelligence artificielle, ils demandent l'interdiction des robots tueurs au début de la Conférence conjointe internationale sur l'intelligence artificielle (IJCAI) alors que les Nations Unies (ONU) ont voté pour entamer des discussions sur Ces types de systèmes d'armes comme une course aux armements sur des systèmes d'armes autonomes et non équipés commence à se réchauffer.
L'un des signataires est Elon Musk, fondateur de Tesla Systems et peut-être l'homme le plus intéressant dans les technologies de saignement avec ses entreprises sur des véhicules électriques avec Tesla, OpenAI pour Intelligence Artificielle, exploration spatiale avec SpaceX, transport de masse plus rapide avec le Hyperloop, et plus encore. Un autre est Mustafa Suleyman de Alphabet, la holding de Google, et est le chef de l'AI de Google DeepMind, la société qu'il a fondée avant que Google l'ait acheté.
Les signataires ont écrit (tel que rapporté par Business Insider Australia):
Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développés, ils permettront de lutter contre les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains peuvent comprendre. Ceux-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes piratées pour se comporter de manière indésirable. Nous n'avons pas longtemps à agir. Une fois que cette boîte de Pandora est ouverte, il sera difficile de fermer.
Nous implorons donc les Hautes Parties contractantes de trouver un moyen de nous protéger de tous ces dangers.
Il y a trop de ifs et d'autres, ainsi que de variables dans la création de systèmes d'armes autonomes, ou de mettre en panne des robots tueurs. La lettre montre l'appréhension des grands esprits de la robotique et de l'IA, et il est tellement difficile de le remettre en question qu'en savant plus sur la personne ordinaire dans la rue. Si vous vous souvenez des nouvelles sur Facebook, éteignez leur expérience d'IA lorsque leurs robots d'IA ont commencé à communiquer dans leur propre langue, imaginez-vous si les robots se sont communiqués et décident de faire leur propre destinée aux dépens des humains? Ou une expérience d'un robot armé disparu et difficile de l'arrêter? Ou une nation voisine ou un groupe de pirates informatiques qui contrôlent des robots qui peuvent détruire la destruction?
D'autres souligneront les «Trois lois de la robotique» d'Isaac Asimov comme un bon point de départ pour aider à protéger les humains contre les robots:
- Un robot ne peut pas nuire à un être humain ou, par l'inaction, permettre à un être humain de se blesser.
- Un robot doit obéir aux ordres qui lui sont donnés par des êtres humains, sauf si de telles ordonnances entreraient en conflit avec la Première loi.
- Un robot doit protéger sa propre existence tant que cette protection n'est pas en conflit avec la Première ou la Deuxième Loi.
Mais alors, tout pays, société ou organisation déloyale peut vouloir avoir des robots qui ne suivent pas les lois quelle que soit la convention qui régit le développement des robots armés. Avec la rapidité de la technologie, nous voyons ces robots tueurs apparaître bientôt et ils seront plus mortels et plus intelligents que les UAV et les drones actuels.
Alors, pensez-vous que l'interdiction des robots tueurs soit mise immédiatement et consacre des recherches aux robots qui sauvent des vies plutôt que de faire des guerres?
Laisser un commentaire