L’Intelligence Artificielle: La création d’un nouveau régime juridique de la responsabilité 

25 نوفمبر 2023
L’Intelligence Artificielle: La création d’un nouveau régime juridique de la responsabilité 

L’Intelligence Artificielle: La création d’un nouveau régime juridique de la responsabilité 

ملخص

         نتطرق إبان هذه الورقة البحثية لنظام المسؤولية المدنية عن فعل الأضرار الناجمة عن نظم الذكاء الاصطناعي ، هذا الأخير الذي أسفر عنه في الأونة الأخير جملة من الأضرار التي اقتحمت بشكل تدريجي  معظم دول العالم ، فظهرت بوادر التفكير في إرساء أنظمة قانونية  تعمل على تأطير هذا نوع من الأضرار و ترتيب المسؤولية لمرتكبيها، إلا أنه قد ترافقه جملة من الإشكالات المطروحة من قبيل الاعتراف بهذه الكيانات بالشخصية القانونية، بالإضافة إلي  مسألة تكيف نظم الذكاء الاصطناعي مع قوانين المسؤولية المتاحة و كذا تحديد طبيعة الفعل أو الخطأ والمعاير المعتمد لإثارة هذا نوع من المسؤولية المدنية.

L’introduction :

      Selon le philosophe « Poul valery » Dans ses mémoires au début du 19e siècle  «Chaque être humain est en train de devenir une machine, Non, il est plus correct que la machine soit celle qui est en train de la développer en un humain. »[1]

    En ce 21ème siècle, les vérités les plus puissantes du monde ont émergé dans la rencontre de l’homme avec la machine abstraite ; Alors , Ce que nous vivons aujourd’hui est le résultat de l’intégration d’entités avancées dans notre vie quotidienne décrites comme des robots et des programmes intelligents qui ont pu contrôler des secteurs sensibles  tels que l’industrie aéronautique et automobile…etc, ce qui peut causer à ces systèmes des dommages matériels ou physiques ou même des décès, ce qui nécessite de réclamer une indemnisation pour les personnes touchées.

D’abord ; L’intelligence artificielle peut être définie comme « la science qui consiste à faire aux machines ce que l’Homme ferait moyennant une certaine intelligence »[2]

Face à l’essor de ce phénomène, il apparaît nécessaire de s’interroger sur le cadre légal applicable à l’intelligence artificielle, et notamment sur les moyens à disposition des victimes d’intelligence artificielle pour obtenir réparation de leurs préjudices. [3]

La responsabilité légale d’une machine intelligente est un sujet complexe et en constante évolution. D’ailleurs ; La responsabilité est l’obligation imposée par la loi à une personne en raison de ses actions, de sa négligence ou de ses subordonnés. Mais dans le cas d’une machine intelligente, il peut être difficile de déterminer qui est responsable des dommages causés aux autres. Par conséquent, les règles juridiques applicables à une machine intelligente peuvent varier d’un pays à l’autre et d’un cas à l’autre.

    A ce niveau la problématique qui se pose : Dans quelle mesure la responsabilité juridique de L’intelligence artificielle peut-elle être engagée ? Quelle serait alors la personne responsable ?

   Pour répondre à cette problématique, nous nous appuierons dans notre étude de ce sujet sur deux axes, le premier est le cadrage général de l’intelligence artificielle en tant que concept, et le second axe pose la question sur le Fondements du système privé de la responsabilité de l’intelligence artificielle.

  1. Le cadre général de la responsabilité de l’intelligence artificielle

    L’intelligence artificielle peut être définie comme un objet immatériel renfermant une autonomie potentielle. Cette autonomie repose sur une capacité à agir[4].  Il est donc nécessaire d’adapter ce concept d’IA au droit de la responsabilité; cela poserait la question de l’idée de reconnaître les entités de l’IA comme des personnes morales.

  1. Adaptation de concept de L’IA au droit de la responsabilité

      La diffusion des technologies de l’intelligence artificielle dans les sociétés européennes et américaines appelle le développement de concepts classiques du droit de la responsabilité civile avec la nouvelle réalité produite par ces entités.[5]

   Au début ; L’intelligence artificielle (IA) fait actuellement l’objet de progrès exponentiels qui la placent au cœur des préoccupations collectives. Ses capacités s’accroissent dans quantité de champs, et l’utilisation de procédés algorithmiques[6]  الخوارزميات)) pour créer, agir ou décider se généralise[7].  

   Dans ce cadre ; L’une des théories les plus importantes défendues par la jurisprudence européenne est l’idée de « considérer l’intelligence artificielle comme un outil » ainsi que l’idée de « décrire l’intelligence artificielle comme un produit ».

   La 1ere théorie, défendue par une partie de la jurisprudence italienne, repose sur le fait que le propriétaire de l’instrument en est responsable et des conséquences de son utilisation, tant qu’il n’a pas une volonté indépendante de son propriétaire[8].

  On peut dire, de ce point de vue, que la théorie qui s’appuie sur les robots et les technologies d’intelligence artificielle comme outil, reconnaît la nécessité de faire peser la charge de l’indemnisation des dommages qui y conduisent sur ses propriétaires, ou utilisateurs, sur la base  de la responsabilité du fait d’autrui  ; Aussi c’est que le propriétaire du robot ne peut se soustraire à sa responsabilité au motif qu’il n’avait pas l’intention de conclure un tel contrat ou que le robot a commis une faute grave.

    A une autre coté ; selon la 2eme théorie qui appartiennent à l’école traditionnelle, qui réclame depuis longtemps la possibilité d’appliquer les principes régissant la responsabilité des produits pour responsabiliser les systèmes intelligents. c’est que aussi les propriétaires de cette approche demandant que les fabricants soient tenus responsables de la dommages qui peuvent être attribués à un « défaut » des systèmes intelligents en tant que produit[9]

    Dans ce contexte, les tribunaux des États-Unis d’Amérique ont été témoins de la poursuite en justice d’un grand nombre de victimes de l’entreprise qui fabriquait le système chirurgical connu sous le nom de « the Da Vinci system », qui est Robert, un inventeur de la société américaine « Intuitive surgery » Cependant, toutes les poursuites ont échoué, car Difficulté à prouver le défaut des systèmes intelligents en question. [10]

    Ce qui complique la tâche de trouver la personne responsable des systèmes intelligents selon les règles de la responsabilité du fait des produits est la difficulté d’établir des frontières séparant les dommages causés par le système intelligent lui-même, c’est-à-dire issus d’une auto-décision prise par le système à partir du reste des dommages résultant d’un défaut ou d’un dysfonctionnement existant dans le système intelligent ou le robot.

    Au Maroc ; L’apparition de la notion juridique d’intelligence artificielle a été en travée par le manque de cohérence scientifique, dont les fondements et contours doivent être précisés. Alors que l’individu s’aventure dans un monde déterritorialisé, la protection des libertés et des droits numériques doit s’appuyer sur des principes juridiques identifiés et clairement réaffirmés, et sur une large palette d’outils de régulation.[11] 

(2 L’idée de reconnaître les entités d’IA comme personnalité juridique

   Le débat sur l’octroi de la personnalité juridique à l’Intelligence Artificielle (IA) est en train de gagner en importance, car l’IA devient de plus en plus présente dans notre vie quotidienne. Si l’on reconnaît à l’IA la personnalité juridique, cela signifie qu’elle est considérée comme un être doté de droits et de responsabilités, comme une personne morale.[12]

     Face à défis que L’IA rencontre, certains experts prônent l’idée d’accorder une personnalité juridique aux robots et à l’intelligence artificielle. Cela impliquerait de leur attribuer un statut juridique distinct en tant qu’entités responsables de leurs actions. Une telle approche permettrait d’instaurer des règles et des responsabilités spécifiques en cas de préjudice causé par un robot ou un algorithme autonome. Néanmoins, cette proposition soulève des questions fondamentales sur la nature de l’intelligence artificielle et de la conscience, et si une entité artificielle peut réellement être dotée de droits et de responsabilités juridiques.[13]

Cette idée était appelée par la jurisprudence qui rend les robots responsables de leurs actes personnels, étant donné que cela ne sera possible qu’en leur reconnaissant la personnalité juridique, afin de leur faire peser la charge de réparer les dommages qu’ils ont directement subis.[14]     

  Le Parlement européen a fait un pas audacieux dans sa décision du 16 février 2018, proposant à la Commission européenne d’adopter des règles de droit civil dans le domaine de la robotique, et pourquoi pas de s’inspirer de l’idée de créer une « personnalité juridique pour robots, bien que temporairement.” Pour que les robots intelligents les plus avancés soient reconnus comme des personnes électroniques responsables, obligées de réparer les dommages qu’elles causent à autrui. [15]

Ainsi ; Le Parlement européen a préféré proposer l’idée de tenir les robots personnellement responsables des dommages qu’ils causent, au lieu d’adhérer à la thèse de tenir responsable le fabricant, le concepteur, le propriétaire ou l’utilisateur de ce robot. Ceci passe par la reconnaissance de la personnalité juridique des robots, dans le cadre de ce que certains ont appelé une « personnalité robotique» avec la possibilité de disposer de son propre système de sécurité. 

   En conclusion, il convient de noter que l’octroi de la personnalité juridique à l’IA pourrait également présenter des avantages. En effet, cela pourrait permettre de mieux réguler l’utilisation de l’IA, et de protéger les droits des individus. Les entreprises qui utilisent l’IA seraient ainsi contraintes de garantir que l’IA respecte les droits des individus, et que ses décisions sont justes et équitables. 

  1. Fondements du système privé de responsabilité du fait de l’intelligence artificielle

  Les difficultés rencontrées dans l’application des règles traditionnelles de responsabilité en matière d’intelligence artificielle conduisent à s’interroger sur le contenu et la nature des actes qui nécessitent de mettre en cause la responsabilité de ces entités.  Aussi il doit détermine, les critères à prendre en compte pour le fonctionnement de la responsabilité, et la réponse aux conséquences de l’indemnisation des dommages qu’elle entraîne, doivent être précisés.

  1. La nature des actes qui nécessitent de mettre en cause la responsabilité de L’IA

       Tout d’abord, avant de déterminer la nature de l’acte, il faut souligner un paradoxe important entre l’intelligence artificielle et le robot, où cette dernière vise à évoquer le robot de la machine physique, tandis que l’intelligence artificielle désigne son « cerveau الدمغة ». Il comprend tout dispositif intangible suffisamment indépendant pour effectuer un travail sans supervision humaine qui est généralement considéré comme destiné aux humains. Il peut guider un robot physique comme une voiture autonome, mais il peut également agir sans incorporation en écrivant des textes, en effectuant des transactions, en créant du travail ou en donnant des conseils.[16]

    Dans ce contexte, une partie de la jurisprudence française, a privilégié l’idée d’adopter un critère dont la réalité pratique s’est avérée remarquablement supérieure pour encadrer les dommages soudains dont il est difficile de déterminer la nature de l’acte de responsabilité, qui est le critère de “l’accident”. 

   La notion « d’accident » convient comme critère objectif pour engager la responsabilité, pour compenser les dommages qui trouvent leur source dans des actions extérieures soudaines et inattendues, comme c’est le cas des dommages résultant d’accidents de la circulation. C’est le cas des accidents résultant de l’intelligence artificielle, notamment les dommages causés par les robots utilisés pour répondre aux besoins personnels dans les habitations, alors qu’il est difficile à mettre en œuvre en ce qui concerne les robots médicaux ou ceux utilisés dans les opérations chirurgicales. [17]

   Outre le critère de l’accident, il existe d’autres critères proposés par la jurisprudence comme des actions qui imposent la responsabilité des entités intelligentes, notamment la notion de caractère « L’anormalité du dommage لا معقولية الضرر », comme critère essentiel sur lequel le droit de la responsabilité est fondée.  Ce critère peut être utilisé pour cadrer les dommages causés par l’intelligence artificielle, car il est plus approprié dans ce domaine d’estimer les conséquences de l’acte d’intelligence artificielle, plutôt que d’analyser l’acte lui-même car il est difficile d’une part de comparer les comportements d’un robot avec le comportement d’une personne ordinaire, et le modèle de comportement attendu de lui est souvent supérieur au niveau de comportement humain.

2)  Critères d’imputation d’une responsabilité

     La prédominance de la notion de faute est encore bien établie dans le domaine de la responsabilité civile comme critère d’attribution de celle-ci, y compris les activités dans lesquelles les lois visent à établir un régime de responsabilité objective ou par force de loi, il est donc courant, selon règles générales, d’assigner la responsabilité du concepteur d’intelligence artificielle pour les dommages qu’il engendre.[18]

   Cependant, le problème qui se pose concernant les dommages de l’intelligence artificielle est la difficulté à diagnostiquer le concepteur de l’intelligence artificielle isolément, et il est également difficile de déterminer l’identité de la victime. De plus, il est souhaitable à cet égard de s’affranchir de la logique punitive de la responsabilité et de se concentrer davantage sur l’objectif d’indemnisation des dommages, car le plus important ici est que le responsable soit aisé, c’est-à-dire assuré financièrement, et il est possible de rétablir la considération de l’aspect punitif lors de l’exercice des actions récursoires contre le fonctionnaire.

Il faut aussi souligner, d’autre part, qu’il est inévitable d’adopter la thèse appelée par une certaine jurisprudence, qu’il faut accorder aux robots la personnalité juridique, pour les tenir personnellement responsables des dommages qui peuvent leur être imputés. Avec une assurance de cette logique, au lieu de reconnaître la personnalité juridique du robot, une personne doit être désignée pour le garantir ou contracter en son nom pour l’assurer lui et ses actes.

          La conclusion

       En Conclusion ; À la lumière de notre étude de ce sujet, nous pouvons conclure les points suivants :

  • L’intelligence artificielle crée un nouveau monde où elle connaît actuellement d’énormes progrès qui la placent au centre des préoccupations collectives.
  • L’octroi de la personnalité juridique à l’IA est un débat complexe qui soulève de nombreuses questions importantes.
  • Les difficultés rencontrées dans l’application des règles traditionnelles de responsabilité en matière d’intelligence artificielle.
  • il peut être difficile de déterminer qui est responsable des dommages causés aux autres Ainsi Les difficultés de déterminer la nature de l’acte et les critères à prendre en compte pour le fonctionnement de la responsabilité, Par conséquent, les règles juridiques applicables à une machine intelligente peuvent varier d’un pays à l’autre et d’un cas à l’autre.

Bibliographie

  • Artificial Intelligence Tort Liability-  Musaab Thayir Abdulsattar – Ain Shams University – Arab Republic of Egypt- Journal of Legal and Political Sciences – Issue Two – 2021 –
  • Laura Viaut –  Responsabilité et intelligence artificielle – Actu-Juridique Publié le 22/01/2021
  • Gsmart IP SA – Doit-on attribuer la personnalité juridique à l’Intelligence Artificielle (IA) ? – Doit-on attribuer la personnalité juridique à l’Intelligence Artificielle (IA) ? (linkedin.com)  Publie le 20 mars 2023
  • Pamela FEUMBA – Droit des robots et IA – https://formation.lamy-liaisons.fr/lamy/articles/droits-des-robots – vu a 16/08/2023
  • La responsabilité du fait de l’intelligence artificielle – Mémoire de recherche Par ADRIEN BONNET – Année 2014 – 2015 
  • Abdessalam Saad JALDI J – L’intelligence artificielle au Maroc : entre encadrement réglementaire et stratégie économique – octobre 2022
  • La création d’un régime spécifique de responsabilité de l’Intelligence Artificielle (haas-avocats.com) à 08/08/2023
  • أضرار الروبوتات وتقنيات الذكاء الاصطناعي ـ معمر بن طرية جامعة عبد الحميد باديس مستغانم – حواليات جامعة الجزائر عدد خاص – نونبر 2018صفحة 126

[1] Artificial Intelligence Tort Liability-  Musaab Thayir Abdulsattar – Ain Shams University – Arab Republic of Egypt- Journal of Legal and Political Sciences – Issue Two – 2021 – page 388.

[2]  Laura Viaut –  Responsabilité et intelligence artificielle – Actu-Juridique Publié le 22/01/2021

[3]  La création d’un régime spécifique de responsabilité de l’Intelligence Artificielle (haas-avocats.com) à 08/08/2023

[4] Laura Viaut –  Responsabilité et intelligence artificielle – Actu-Juridique Publié le 22/01/2021

[5] أضرار الروبوتات وتقنيات الذكاء الاصطناعي ـ معمر بن طرية جامعة عبد الحميد باديس مستغانم – حواليات جامعة الجزائر عدد خاص – نونبر 2018صفحة

[6] L’algorithmique est l’étude et la production de règles et techniques qui sont impliquées dans la définition et la conception d’algorithmes, c’est-à-dire de processus systématiques de résolution d’un problème permettant de décrire précisément des étapes pour résoudre un problème algorithmique. ( Algorithmique — Wikipédia (wikipedia.org) en 10/08/2023.) 

[7] La responsabilité du fait de l’intelligence artificielle – Mémoire de recherche Par ADRIEN BONNET – Année 2014 – 2015 – page 1.

[8] أضرار الروبوتات وتقنيات الذكاء الاصطناعي – مرجع سابق – صفحة 127

[9] أضرار الروبوتات وتقنيات الذكاء الاصطناعي ـ مرجع سابق ـ ص 122

[10]     أضرار الروبوتات وتقنيات الذكاء الاصطناعي ـ مرجع سابق ـ ص 123

[11] Abdessalam Saad JALDI J – L’intelligence artificielle au Maroc : entre encadrement réglementaire et stratégie économique – octobre 2022 – page  13

[12] Gsmart IP SA – Doit-on attribuer la personnalité juridique à l’Intelligence Artificielle (IA) ? – Doit-on attribuer la personnalité juridique à l’Intelligence Artificielle (IA) ? (linkedin.com)  Publie le 20 mars 2023

[13] Pamela FEUMBA – Droit des robots et IA – https://formation.lamy-liaisons.fr/lamy/articles/droits-des-robots – vu a 16/08/2023

 [14]  أضرار الروبوتات وتقنيات الذكاء الاصطناعي ـ مرجع سابق ـ ص 134

[15]   أضرار الروبوتات وتقنيات الذكاء الاصطناعي ـ مرجع سابق ـ ص 135

[16] La responsabilité du fait de l’intelligence artificielle – Mémoire de recherche Par ADRIEN BONNET – Année 2014 – 2015  page 33

[17] أضرار الروبوتات وتقنيات الذكاء الاصطناعي ـ مرجع سابق ـ ص 137

[18] La responsabilité du fait de l’intelligence artificielle – Mémoire de recherche Par ADRIEN BONNET – Année 2014 – 2015