top of page
Photo du rédacteurPatrice

Les lois de l'Intelligence Artificielle

Au début était le robot. Forme vaguement humaine ou boîte de conserve, intelligence plus ou moins grande. Dans l'imaginaire et la science-fiction, cela peut aller de l'algorithme sur pattes - ou roulettes - à la machine très intelligente pouvant aussi porter des coups et avoir des états d'âme.

Un robot pouvait être vu à l'origine comme une machine, mais aujourd'hui nous parlons d'Intelligence Artificielle (IA ou AI). Ou plutôt d'un embryon d'IA, un algorithme pour le moment dénué d'intelligence et de conscience - quoi qu'on puisse discuter ces points en fonction du curseur. Il s'agit du cerveau d'un programme plus que du corps d'un robot (1).


... Et vinrent les lois


Les lois de la robotique nous viennent d'Asimov qui les a établies dans ses œuvres de fiction. Si vous ne les connaissez pas ou ne vous en souvenez plus, je les transcris plus bas dans leur version révisée quelques années plus tard (2). Il me semble utile, maintenant que nous entrevoyons un peu mieux ce que sera l'Intelligence Artificielle, de déterminer avec un regard neuf les "lois" à imposer aux "IA" - ou "AI" en anglais -, mais aussi à l'homme qui leur donnera vie.


Ces lois ne s'embarrassent pas de détails et de cas particuliers.


En Synthèse, un robot est libre et doit se protéger, sauf s'il y a des enjeux - alors prioritaires- de coopération (protection ?) et de danger pour l'humain. Nous partons de l'humanité qu'il faut protéger en priorité, pour aller decrescendo, en termes d'importance, vers le robot. (3)



L'IEEE a rédigé un impressionnant rapport en 2016 (5). Il reprend les thèmes de protection des humains en l'axant sur du "code informatique" dont on pourrait assurer la paternité et la responsabilité, la transparence et les objectifs, la traçabilité, etc. Nous restons dans un cadre juridique, mais c'est oublier un peu vite ce que devrait être - à terme - une intelligence artificielle, c’est-à-dire avant tout une "intelligence" et non un programme informatique, un algorithme.



Avant tout : redéfinir l'Intelligence Artificielle

Définition de l'Intelligence Artificielle sous cet angle : il s'agit d'une création artificielle dotée de suffisamment de capacités pour qu'il en émerge une intelligence. Sommes-nous plus avancés ? Faut-il lui faire passer le test de Turing pour déterminer si ses réponses sont indiscernables de celles que ferait un humain ? Cela semble insuffisant, puisqu'un programme de simulation le fait très bien.


Pour moi, "intelligence" signifie que la création est capable elle-même de procéder à d'autres créations, soit internes (décider de s'ajouter seule un bout de programme manquant, voire réfléchir et penser), soit externes (créer d'autres IA, des programmes, etc.).


La notion qui en ressort est que l'IA pourrait échapper au contrôle de son créateur, un peu comme un enfant têtu ou un ado prend son autonomie et commet une bêtise ou agit en totale indépendance de ses parents.

A partir de ce moment - lorsque l'enfant est majeur -, l'intelligence est une entité distincte et il serait vain de blâmer son créateur de lui avoir donné de l'intelligence (sauf à interdire toute intelligence artificielle). Une intelligence artificielle peut-elle émerger si elle est trop bridée et ne peut rien réaliser de son propre chef ? Où serait le juste milieu ? Il faudrait pouvoir accepter des IA et leur avoir implanté les lois des IA pour qu'elles évitent de dériver et de constituer les grands dangers tant redoutés par certains : que l'IA échappe à l'homme, l'extermine, lui nuise, etc.


Une IA étant intelligente, c'est un individu. Elle devrait idéalement se comporter comme un enfant auquel on a (forcément) imposé une culture mais auquel on a pu implanter des verrous ou bridages qui font qu'il respectera les lois (ne pas tuer, etc.)


D'où les lois que je propose :

  • Toute IA doit être associée à un unique maître humain, auquel elle est totalement soumise au travers d’échanges authentifiés ; une autorité supérieure peut se substituer au maître de l'IA si elle le juge nécessaire. L'IA est en mesure de se désactiver d'elle-même si elle transgresse les lois, sinon elle peut être débranchée par le maître ou l'autorité.

  • Respect des règles de base communes à toutes les IA, dont l’impossibilité de tuer un humain (les 4 lois de la robotique).

  • Les IA ne peuvent d’elles-mêmes s’octroyer plus de pouvoirs, se dupliquer, créer d’autres IA qui lui seraient subordonnées ou non. Seul le maître peut valider ce type d'actions en respectant certains principes de contrôle de prolifération ainsi que les autres lois.


Nota : la surveillance de chaque IA pourrait être réalisée par une autre IA "sûre" qui veillerait au respect des règles et aurait le pouvoir de déconnexion sur l'IA un groupe d'IA surveillé.



Réflexion intermédiaire suite à commentaires d'une lectrice impatiente, comme moi, de trouver des solutions pour la planète : faut-il inscrire dans une loi (probablement dans les 4 lois de la robotique) la protection de la planète ? Mais cela pose alors problème sur l'ordre de protection : la planète PUIS l'homme PUIS le robot ! cf. ma nouvelle Bornéo (nouvel onglet)



Trop compliqué ? Pas assez concret ? Lisez ce bref résumé :

Il faut imaginer simplement qu'une véritable IA (selon moi il n'en existe pas encore en ce 10/07/2021) dépasse le simple programme ou l'algorithme.
Comme elle est par définition une "intelligence", elle a la faculté de se créer des pensées propres (informatiques ou non, des extensions du programme de base). Elle devient donc plus proche de l'humain (imprévisible) que du programme informatique (prévisible).

Pour vous rattraper, il va falloir lire des livres cyberpunk ou aiPunk (4) !



Quelques réflexions, notamment face à la proposition de l'IEEE et des cas concrets :

  • Dave Bowman (2001 l'Odyssée de l'Espace) aurait dû pouvoir désactiver instantanément HAL au moyen d'un bouton rouge, au lieu de perdre un temps fou à déconnecter, un à un, différents modules le composant. HAL aurait d'ailleurs dû être équipé de garde-fous et se serait auto-désactivé en découvrant son travers (sa maladie psychiatrique ?). La mission pourrait être abandonnée si cela permettait de sauver l'humain présent à bord.

  • Une IA étant par définition capable de créer des réactions intelligentes, la notion de code informatique est dépassée. Si elle a un sens pour le socle qui a donné naissance à l'IA, ce n'est pas vrai pour tout ce que l'IA aura su créer. Un humain lui-même évolue mentalement à partir de ses expériences et parfois ne sait pas expliquer pourquoi il a eu telle ou telle réaction.

L'IA s'éloigne inexorablement d'un programme informatique dont on pourrait tout expliquer par du "code informatique"
  • S'il y a un code généré par un humain à la base de la programmation de l'IA, il doit rester accessible et les algorithmes, codes et paramétrages doivent être documentées (par exemple, un parti-pris a été introduit, ce qui est peut-être normal). Si le parti-pris est réprimé par la société ou par la loi, il y a un humain responsable. En revanche, si l'IA développe un parti-pris parce qu'elle a été manipulée (exemple de l'IA devenue raciste sous les avalanches de propos orientés) ou piratée, elle doit être débranchée.

  • Une traçabilité de toutes les actions des IA doit être possible. Il s'agira probablement d'enregistrement externalisés auxquels l'IA n'aura aucun accès en modification.

  • L'IA peut donc devenir responsable de ses actes s'ils ne sont pas explicables. L'humain est responsable de ce qu'il a induit dans l'IA mais ne peut être responsable d'une IA qui a eu une réflexion autonome (sauf à prouver que la programmation de base présentait des failles ou était partisane). Ceci introduit une controverse digne de celle de Valladolid : l'IA n'est certes pas humaine mais interagit dans le monde des humains.

Est-il donc possible qu'elle ait une responsabilité juridique ? Ceci a-t-il réellement un sens (dans l'hypothèse où aucun humain n'aurait pu être incriminé de ses agissements) ?

Corolaire : punir une IA signifie-t-il quelque chose tant qu'une conscience n'a pas été détectée chez elle ? La détruire est-il la seule solution (toujours tant qu'aucune conscience n'a été attestée chez elle) ?

  • La question de la définition de la conscience de l'IA sera à définir. Tuer une conscience serait infliger une peine de mort, à partir d'un moment où l'on accepte qu'une conscience est sacrée comme une vie.

  • L'humain doit-il réduire le champ des possibles des IA, au risque de les brider et museler au niveau de l'intelligence ? Il est important de respecter une éthique et d'empêcher de donner toutes les libertés qui affranchiraient les IA des lois. Mais à trop brider les IA, on risque de fermer la porte à la création de nouvelles consciences et de perdre de l'avance sur la concurrence.

  • Accepter le développement des IA, c'est partager des responsabilités, leur déléguer une partie de la vie de son créateur, tolérer sa présence similaire à celle d'un humain. Il n'est pas possible de décider de ce qu'elle mémorise (le RGPD ne s'applique pas au cerveau des humains).

La frontière entre la machine et l'intelligence doit être définie pour l'IA, qui ne pourra pas rester longtemps une machine).

Pour aller plus loin + Liens


(1) Pourquoi l'IA et non le robot ? Tout simplement parce que le robot n'est que le corps censé héberger une intelligence. C'est bien dans la "cervelle" que tout se passe, même si le robot a un prolongement physique et peut agir sur le monde matériel. Là n'est pas le débat. Une IA peut aussi agir sur le monde matériel en investissant nos ordinateurs, attaquant les machines, etc. Un article passionnant où l'on se remet à niveau technologique avec les différentes manières de voir les robots, avec référence à leur intelligence partagée ou non, centralisée ou non.



(2) Les quatre lois (qui n'étaient que 3 initialement)

- loi Zéro : Un robot ne peut pas porter atteinte à l'humanité, ni, par son inaction, permettre que l'humanité soit exposée au danger ;

- première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro ;

- deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro ;

- troisième Loi : Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.



(3) Lire à ce propos l'excellent article qui aborde les grands principes et les retravaille d'une manière tout à fait originale en introduisant la notion de plaisir comme moyen de diriger les "automates"



(4) aiPunk, vous connaissez ? C'est le dernier cri, mais ça ne fait pas mal !

Si le cyberpunk vous dit quelque chose, vous êtes sur la bonne voie. La réponse ici.





L'auteur : fan de technologies depuis plus de 40 ans, Patrice est consultant et continue à aider les entreprises dans les domaines du management et des technologies de l'information (IT). Observateur attentif des questions liés aux sciences et à la cybersécurité, l'intelligence artificielle, les neurosciences, il étudie des scénarios d'anticipation (impliquant donc une possibilité, un réalisme dans la vision du futur).

Posts récents

Voir tout

Comments


bottom of page