L'Intelligence Artificielle (IA) est partout et tout le monde veut se positionner et avoir une longueur d'avance. Elle est devenue l'affaire de tous puisqu'elle touche tous les secteurs (Santé, Education, Journalisme, Télécoms, militaire, etc…). Dans ce domaine, des programmes prennent des décisions et exécutent des actions. Pour cette raison, il devient important et nécessaire d'implémenter des règles et des principes d'Ethique-comme par exemple, ne pas porter atteinte à un être humain. Dans le domaine de la robotique, le monde ne peut pas se passer de l'écrivain de science-fiction Isaac Asimov, qui a formulé en 1940, les trois lois de la robotique. Il s'agit des règles auxquelles les robots doivent obéir (Manuel de la robotique 58è édition): -Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé en danger; – Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi; – Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi. En Aout 2017, des experts et des responsables d'entreprises relevant du secteur de l'intelligence artificielle (IA) ou la robotique ont tiré le signal d'alarme et ont interpellé les Nations Unies sur le danger pouvant être perpétré par les armes et les véhicules autonomes et appelé à l'instauration des normes internationales pour conjurer la menace d'une « Troisième révolution de la guerre ». Parmi les signataires, Elon Musk, le patron de Tesla (constructeur de voitures électriques, de batteries et de panneaux photovoltaïques), qui dénonce le risque que ferait peser l'émergence d'une IA. Et avant, en 2015, Stephen Hawking (grand physicien théoricien et cosmologiste : mort le 14 mars 2018), Elon Musk et Noam Chomsky (Linguiste et militant) ont adressé une lettre ouverte sur le sujet. Maintenant, la question fondamentale et légitime qu'on peut se poser: Est-ce que le moral est unique ? Qui doit mettre en place les règles d'éthiques ? Qui doit décider ? et qui doit contrôler ? Et avant tout, est ce que les robots actuels possèdent une capacité d'analyse leur permettant d'agir dans des cas complexes ? Dans certains cas particuliers, le véhicule autonome peut se trouver dans l'obligation de choisir entre se précipiter contre un chien ou un être humain. Ce genre de dilemmes éthiques ne peut être résolu en l'absence de propositions des échelles de valeurs. La guerre des robots est aujourd'hui une réalité et beaucoup de pays s'y prépare activement. Le budget alloué à cette guerre aux Etas unis, s'élève à 18 milliards de dollars en 2017. Pour l'US qui vise à limiter ses dégâts, dans sa guerre en Afghanistan, a déjà déployé des robots télécommandés et équipés de mitrailleuses et de lance-grenades. L'IA et la robotique sont en marche et une chose est certaine: l'apparition des machines extraordinaires s'accompagnera obligatoirement de risques d'accidents et il va falloir faire avec.