Les interrogations autour d’une nouvelle entité juridique 

Le rôle primordial de la CNIL

L’utilisateur est en situation de vulnérabilité face au big data car il ne maîtrise pas la trajectoire des informations recueillies par les objets connectés qu’il utilise.
Le big data pose donc un problème majeur : sa maîtrise et sa réglementation. La France puis l’Union Européenne ont très tôt établi plusieurs principes pour le résoudre.
La loi dite « Informatique et libertés » de 1978 définit un principe général d’interdiction : la conservation de données à caractère privé est donc interdite dès lors que ces dernières sont relatives « à la race, les opinions ou les appartenances syndicales, et les moeurs »
Ce principe est essentiel même s’il connaît des exceptions limitées. Il permet aux citoyens de se voir reconnaître leur droit au respect de leur vie privée y compris lors de l’utilisation d’appareils connectés.
Cette loi a permis la mise en place d’une autorité administrative indépendante (AAI) chargée de faire respecter ce principe : la CNIL. Par exemple, elle a estimé que se servir d’un système de robot-surveillance pour espionner les agissements du personnel de sécurité était en entière contradiction avec ce principe.
La CNIL va rechercher s’il y a proportionnalité entre la nature des informations recueillies et leur intérêt au regard du but poursuivi. Mais depuis un arrêt du 23 mai 2007 du Conseil d’Etat, ce contrôle de proportionnalité exerçé par la CNIL se trouve amoindri, le Conseil d’Etat se contentant d’un contrôle de l’erreur manifeste d’appréciation
La CNIL se heurte à d’autres difficultés : l’étendue du réseau internet, la complexité de l’intelligence artificielle et l’émergence d’une intelligence connectée soumises aux aléas des algorithmes. Elle a donc un rôle primordial mais de plus en plus compliqué à jouer.
La loi pour une République numérique a chargé la CNIL d’établir des pistes de réflexion sur les enjeux éthiques des algorithmes. A cet effet la CNIL a publié un compte rendu le 23 janvier 2017. On y trouve un essai de définition des algorithmes et d’autres notions connexes ainsi que des pistes de réflexion sur l’incidence de la prolifération des algorithmes dans l’ensemble des systèmes numériques. Une fois de plus l’éthique est au coeur des débats.
Le rôle que la CNIL exerce dans ce domaine tend donc à s’amplifier. Elle insiste sur la nécessité de maitriser cette évolution technologique. Elle compare les algorithmes à de vastes réseaux cognitifs par lesquels transite un flux incessant de données. La maitrise de cc flux de données est pour elle une priorité.
La nature même de l’algorithme, qui s’appuie sur le traitement d’un ensemble croissant de données, interroge sur la maitrise de celui-ci. Les algorithmes fonctionnent comme un système cognitif: à partir de ce principe, le système est composé de deux éléments : un corpus de données, le « knowledge »26 et un système d’apprentissage.
Pour maitriser le traitement des données il faut penser le système comme un tissu neuronal: le contrôle exercé par la CNIL s’effectue au niveau de la connexion synaptique.
Dans le cadre de l’intelligence connectée, le principe reste le même : les objets connectés communiquent entre eux comme divers ensembles neuronaux. Ils sont reliés entre eux par un centre nerveux (le smartphone ou une unité centrale) par lequel transite l’ensemble des données. Les divers objets connectés se servent aussi de la puissance de calcul de l’U.C. (unité centrale) et de sa connectivité au réseau internet. Le rôle de la CNIL réside dans sa capacité à analyser les données traiter par l’U.C. et celles qui transitent par internet.
Le défi est donc de sensibiliser l’opinion publique sur le rôle central des algorithmes au sein de l’intelligence artificielle. En effet, peu de gens savent que l’intelligence artificielle a envahi leur quotidien et qu’ils donnent sans le savoir un flux de plus en plus important de données à caractère personnel à de grands groupes commerciaux.
La sensibilisation de l’opinion est une étape majeure pour la maîtrise du traitement des données personnelles: l’utilisateur être à même de contrôler lui-même les données qu’il souhaite ou non voir transiter par le réseau internet.

La meUleure efficacité d’un traitement des données personnelles à la source

La loi de 2016 pour une République numérique est venue consacrer un certain nombre de droits : « droit à la mort numérique, droit à la libre disposition de ses données personnelles, droit au maintien de la connexion, droit à la fibre opposable, droit de décider et de contrôler les usages qui sont faits de ses données, droit à la portabilité et droit à la « récupération» des données … » : autant d’outils mis à la disposition des citoyens mais dont seulement un petit nombre est au courant.
Or, l’efficacité de tels droits dépend justement de leur appropriation par les citoyens utilisateurs.
Edouard Geffray, secrétaire général de la CNIL disait que « l’une des clés de la réussite du développement de la robotique réside dans la capacité de l’individu à conserver la maîtrise de ses données et, par suite, de ses objets connectés26 ». En effet, pour le secrétaire général de la CNIL, la personne est au centre du système juridique mondial.
L’appropriation par la personne « source » des données apparaît dès lors comme une nécessité. Certains auteurs proposent pour cela de s’inspirer du modèle contractuel américain. Il repose sur l’idée que l’utilisateur devra être consulté à chaque fois qu’une intelligence artificielle accédera à ses données personnelles. Ce système existe déjà : chaque utilisateur possédant un smartphone ou un ordinateur a dû accepter des conditions générales d’utilisation. Celles-ci ciblent majoritairement les intrusions dans la vie privée. De la recherche sur internet à l’utilisation d’une application de jeu vidéo, les intelligences artificielles s’en servent pour étudier notre comportement et nos habitudes.
A partir de ces données, des publicités, produits, applications, appareils connectés, lieux à visiter, etc … sont proposés à l’utilisateur en rapport avec son mode de vie.
L’idée d’un système contractuel en théorie apparaît adaptée pour deux raisons : le consentement de l’utilisateur à l’exploitation de ses données personnelles et la

Des robots comme générateurs de données personnelles

Une autonomie génératrice de données personnelles des robots

La personne humaine est celle qui génère les données personnelles. Mais elle n’en est pas le titulaire. Le titulaire est celui qui en a la garde : la logique veut que l’hébergeur soit considéré comme tel. Or, avec le développement de l’i.A. prédictive, l’hébergeur est de moins en moins maître du traitement de ces données, l’i.A. gérant elle même la manière dont elle veut en user. L’hébergeur se contente de fixer le cadre dans lequel l’i.A. va être amené à les exploiter par le biais de l’algorithme.
L’autonomie des I.A. prédictives se pose d’autant plus depuis que deux I.A. de Facebook ont créé leur propre langage pour communiquer entre elles, ce dernier est indéchiffrable par l’Homme. Ces deux I.A. se sont servis de la méthode du deep learning.
Cette méthode dite d’apprentissage en profondeur permet aux I.A. prédictives, à partir des données collectées et de leur tissu neuronal, de modifier en partie leur algorithme pour dépasser les limites initiales fixées par leurs développeurs.
On ne peut parler de libre arbitre, il s’agit toutefois de donner aux robots la capacité de s’affranchir des limites initiales pour devenir plus efficaces.
Le problème est quand les robots intelligents construisent leur autonomie sur les données collectées du comportement des êtres humains. En s’appropriant ces données, ils sont capables de développer eux-mêmes des comportements non-prévus initialement. Ainsi, ils génèrent des données qui leurs sont propres et dont ils vont se resservir pour perfectionner encore Jeur comportement. Cette méthode du deep learnig révolutionne les I.A. prédictives en leur offrant une autonomie relevant jusqu’ici de la science-fiction.
Si les robots sont de plus en plus autonomes et qu’ils créent des données qui leurs sont propres, deux questions se posent : d’une part, deviennent-ils les titulaires des données personnelles collectées et se les approprient-ils ? D’autre part, les données qu’ils génèrent leur appartiennent-elles ?
Les données personnelles à elles seules ne suffisent pas à faire des robots des machines autonomes se rapprochant de l’être humain dans sa capacité de prédiction. Il faut qu’ils se les approprient. Les robots doivent donc développer un« esprit critique».
Tel un consommateur, le robot emmagasine puis s’approprie les données collectées tout comme l’être humain quand il s’achète un nouveau bien. Une fois qu’il s’est approprié les données transmises, il en devient de fait le titulaire «juridique». Il va alors développer son propre comportement et ses propres méthodes de prédiction.
Cependant, comme le relève le compte rendu de la CNIL, même si les I.A. sont dotées d’une structure cérébrale proche d’un tissu neuronal, le traitement et l’usage des données et celles qu’elles génèrent revêtent encore un aspect mathématique qui peut donc être encadrer par le droit.
Mais en ne se limitant pas à une simple reproduction des comportements enregistrés, les I.A. développent une part d’inconnue, une part de personnalité qui leur est propre.
Ce soupçon de personnalité conduit nécessairement à s’interroger sur le statut de la création des robots et des données que ces derniers génèrent. En l’état actuel du droit, nulle protection n’est offerte si ce n’est celle parcellaire du droit des brevets.

La difficile question des droits d’auteur des créations de l’i.A

A l’inverse de l’i.A. reproductrice, l’i.A. prédictive commence à savoir se servir des algorithmes sur lesquels sont basés ses capacités de création. Dès lors, quel statut accorder à ses données? A qui appartiennent-elles? Qu’est-ce que devient le « titulaire primaire » de ses données ? Quel régime juridique protège ces créations ?
La protection accordée à toutes ces questions semble prendre, selon la conception des Etats du droit d’auteur, deux voies différentes. Il s’agit de la conception fonctionnelle du droit d’auteur et du droit des brevets. Cependant, ces deux voies ne s’opposent pas.
Il convient d’écarter la question du robot assistant dont la jurisprudence a depuis longtemps établi le statut : il est considéré comme un prolongement de l’Homme, un outil entre ses mains.
Le droit est venu s’intéresser aux robots dits autonomes ou aux intelligences connectées prises dans leur ensemble. Il apporte une protection différente selon la conception retenue du droit de la propriété intellectuelle.

Le critère de la conscience de soi

Selon cette conception, le caractère original d’une création est objectif. Il ne dépend de l’état de conscience du créateur. Cette notion s’appuie sur celle du copyright.
Les auteurs qui défendent cette notion emploient comme argument principal qu’opérer une distinction entre le sujet conscient du résultat de ses recherches et celui qui ne l’est pas reviendrait à opérer une distinction entre les oeuvres des artistes.
L’exemple le plus souvent cité est celui de Van Gogh: faudrait-il opérer une distinction entre les oeuvres qu’il a créées pendant sa période d’insanité d’esprit et celles où il était encore conscient de ses actes ?
Cet argument a été écarté par un arrêt de la Cour suprême australienne : la conscience de soi dépend de l’intervention humaine dans la création de l’oeuvres.
Sur ce critère, deux visions s’opposent: celle qui émerge de la notion du copyright et celle qui émane de la vision française du droit d’auteur.
Le copyright est une notion objective du droit d’auteur. Selon celle-ci, le processus ayant conduit à la production de l’oeuvre ne doit pas être pris en considération. Seul compte le résultat, l’oeuvre proprement dite. Autrement dit, l’objet peut avoir un caractère créatif en soi, quelque soit le processus créatif, « A painting has a life of its own » disait Jackson Pollock.
La conséquence majeure de cette conception est d’occulter complètement le critère de la conscience de soi. Dès lors les créations des robots peuvent être protégées par le droit d’auteur. Cela est déjà le cas dans le droit britannique. L’article 178 du Copyright, Designs and Patent Act de 1988 prévoit ce cas de figure lorsqu’aucune intervention humaine n’est à l’origine du processus.
A l’inverse le droit français ne protège pas les oeuvres produites par des robots par le droit d’auteur. La vision française du droit d’auteur est plus restrictive puisqu’elle considère que le sujet doit être conscient de sa propre existence pour se voir reconnaître le bénéfice de cette protection. Pour la doctrine, il doit y avoir une démarche intellectuelle dans le processus créatif.
La France et d’autres Etats comme le Japon ou encore les Etats-Unis accordent une autre protection : le brevet d’invention.
Cette protection permet de protéger la création du système expert ( autrement dit de l’i.A. prédictive) sans lui reconnaître la qualité d’auteur. Dans ce cas de figure, seule l’invention est protégée. Le robot inventeur n’est pas reconnu comme étant le titulaire du brevet.
Par exemple, les droits français, américain et japonais, s’agissant de leurs législations en matière de droit des brevets, ne reconnaissent pas les robots comme étant capables de développer une conscience de soi, principalement le droit français38 qui se refuse même à employer le terme de personne. Ils se refusent donc à leurs accorder des droits. La protection offerte par le droit des brevets apparaît pourtant insatisfaisante. Le fait de ne pas considérer le système expert comme à l’origine de l’oeuvre revient à nier qu’il en est son auteur.

Le critère consensuel: l’originalité

La résolution votée par le Parlement Européen, le 16 février 2017, adopte une vision transversale du problème. Elle se refuse à trancher entre les deux visions qui s’opposent au sujet de la propriété intellectuelle. Elle appuie la protection des oeuvres des robots inventeurs sur le critère d’originalité.
Ce choix apparaît justifié pour une raison essentielle : c’est un critère commun du droit d’auteur et du droit des brevets. Cette démarche rapproche l’originalité du concept de nouveauté et entraine son objectivisation. Le droit français se montre encore réticent à une telle approche. Le Professeur Michel Vivant et une partie de la doctrine militent en ce sens.
La résolution ne fait pourtant que reprendre la position de la CJUE40 : l’objectivisation du concept d’originalité tout en réaffirmant la non-reconnaissance de la qualité d’auteur à d’autres personnes que celles de la personne physique. La fiction juridique selon laquelle le robot-inventeur serait le titulaire des droits de propriété intellectuelle est exclue. Cette position est synthétique et a le mérite de poser les bases d’une possible future protection plus aboutie lorsque les systèmes experts auront développé une conscience de soi ou lorsqu’une personnalité juridique leur sera reconnue. Le terme de propriété intellectuelle témoigne aussi du souci de neutralité de la CJUE et du Parlement européen d’englober les divers droits nationaux et de faire face à une évolution du concept.
Sous l’influence du droit de l’UE, le critère d’originalité a déjà connu une première évolution en France même si elle reste limitée : l’arrêt Pachot reconnaît une objectivisation du principe d’originalité tout en continuant à rattacher la titularité du droit de propriété intellectuelle à une personne physique.
En ce qui concerne les créations des robots inventeurs, le droit de l’UE semble s’acheminer vers une vision binaire de la propriété intellectuelle : le titulaire du droit serait la personne physique et l’inventeur le système expert puisque l’invention découlerait d’une vision objective. La résolution du 16 février 2017 prépare une future protection dualiste face à l’arrivée prochaine de robots conscients de leur propre existence ce qui pose de nombreuses questions autour de la possible reconnaissance de la personnalité juridique du robot.

Les interrogations autour d’une nouvelle entité juridique

Personnalité juridique et régime de protection

De la même manière que pour le droit d’auteur, la reconnaissance d’une personnalité juridique aux robots soulève de nombreuses questions éthiques ; à ce refus s’ajoute la question de l’Homme augmenté : quel statut accorder à un être humain entièrement « connecté » ou encore « capté » ? Face à ces problèmes la responsabilité juridique joue un rôle de fil conducteur.

Une opportunité précoce

La question de la personnalité juridique ne concerne que les système-experts, autrement dit les intelligences artificielles qui peuvent présenter un caractère d’autonomie suffisant pour échapper à la responsabilité du fait des choses.
L’autonomie est le critère déterminant en ce qui concerne la possible dotation d’une I.A. d’une personnalité juridique. A travers la question de l’opportunité de reconnaître une personne juridique deux enjeux se recoupent : celui de l’autonomie, donc de l’état de conscience de la machine, et celui de la responsabilité.

Une personnalité juridique fondée sur l’autonomie

Les système-experts sont des robots ayant pour particularité d’être dotés d’une autonomie suffisante pour pouvoir s’affranchir de l’Homme et à terme lui ressembler. Il existe déjà des cas où l’i.A. a dépassé l’Homme comme celui du robot Deep Blue qui en 1981 a battu le champion du monde du jeu de Go41.
L’autonomie de l’i.A. qui se développe sous l’impulsion de l’Homme conduit naturellement à s’interroger sur la nature juridique de ce « bien » particulier.
Actuellement, le robot est encore considéré comme un bien meuble (article 528 du Code civil). Cette non-reconnaissance du statut particulier des système-experts est une négation de son autonomie et de sa ressemblance de plus en plus marquée avec l’être humain. Elle a aussi des effets non-négligeables sur la responsabilité.
Mais la résolution du 16 février 2017 semble s’acheminer vers l’acceptation d’une personnalité juridique aux robots : « l’autonomie des robots pose la question de leur nature à la lumière des catégories juridiques existantes ou de la nécessité de créer une nouvelle catégorie dotée de ses propres caractéristiques et effets spécifique ». Les droits américains et japonais qui emploient déjà le terme de personne pour désigner les robots en matière de droit des brevets. De plus, le droit anglais aussi reconnaît que le robot intelligent peut bénéficier de la protection du droit d’auteur.
Deux critères semblent justifier la dotation d’une personnalité juridique de l’i.A.
L’un, le plus important, serait celui de l’autonomie et l’autre celui de sa ressemblance de plus en plus poussée avec l’Homme.
Une I.A. autonome fonctionne sans qu’il y ait besoin d’avoir recours à une intervention humaine. Elle est dotée d’une capacité de déduction et d’intervention qui lui est propre et développe ses propres capacités de réflexion. Certes, sa capacité de prédiction est d’abord fondée sur les connaissances de base dont les développeurs l’ont doté et sur les algorithmes qui vont en guider l’action. Mais elle développe ensuite ses propres capacités de prédiction. Chaque I.A. possède une adaptabilité qui lui est propre.
Le dernier exemple, déjà cité, est celui des deux intelligences artificielles de Facebook qui ont développé leur propre langage. Elles l’ont façonné à partir des connaissances dont elles ont été dotées à l’origine et des algorithmes leur permettant de fonctionner et de générer leur capacité d’autonomie. Mais ces deux I.A. ont échappé à tout contrôle de l’Homme car le langage qu’elles ont développé pour communiquer entre-elles est incompréhensible pour l’Homme. La société Facebook a d’ailleurs décidé de désactiver ces deux I.A.42 car leur degré d’autonomie était devenu incontrôlable.
La ressemblance avec l’Homme justifierait la reconnaissance d’une personnalité juridique propre à l’i.A. Elle se parerait dès lors d’un critère sentimental43, fondée sur l’affect de l’être humain. Tout comme pour l’animal, le robot deviendrait ainsi sujet de l’affection de l’Homme l’ayant éduqué.

Les prémices à un régime de protection dualiste

La responsabilité à l’origine du régime de protection

La responsabilité du fait des robots est l’élément qui a fait prendre conscience de l’importance de reconnaître aux I.A. prédictives un régime juridique tenant compte de leur spécificité : leur intelligence.
La reconnaissance d’un régime mixte est la première étape à la construction d’un tel régime. Le législateur n’a pas eu d’autres choix que de prendre en considération le degré d’autonomie des I.A. prédictives. Le cas des voitures autonomes illustre parfaitement ce choix.
Ainsi, la loi du 5 juillet 198553 fait reposer la responsabilité en cas d’accident au conducteur du véhicule. Dans un arrêt de 200954, la Cour de cassation estime que « tout conducteur d’un véhicule impliqué dans un accident de la circulation est tenu d’indemniser la victime de l’accident». Mais la loi n’a pas pris le soin de définir la notion de conducteur qui vient pourtant remplacer celle de gardien.
De plus, la jurisprudence a préféré adopter une définition suffisamment large de la notion de conducteur : « est conductrice la personne qui, au moment de l’accident, a la possibilité de maftriser les moyens de locomotion du véhicule terrestre à moteur, sur lequel elle dispose des pouvoirs de commandement55 ». Or, si le véhicule détient un niveau d’autonomie élevé, la personne faisant office de « conducteur» ne peut être considérée comme tel car elle perd la maîtrise de son véhicule au bénéfice de l’i.A.
La jurisprudence a néanmoins pris soin de préciser que la personne conductrice est obligatoirement une personne, l’i.A. n’étant pas encore reconnue comme une personnalité juridique, même si cela semble n’être qu’une question de temps.
Les robots intelligents finiront à terme par développer un soupçon de conscience car les algorithmes et la puissance de calcul ne cessent de monter en puissance.
La loi doit néanmoins s’adapter: l’i.A. n’est pas un objet comme un autre, elle peut causer des dommages par ses propres actions. Ainsi, la loi n°2015-992 du 17 août s3 Loin° 85-677, 5 juillet 1985, tendant à l’amélioration de la situation des victimes d’accidents de la circulation et à l’accélération des procédures d’indemnisation 2015 relative à la transition énergétique pour la croissance verte a permis de transposer en droit français le premier amendement de la Convention de Vienne du 8 novembre 1968 qui est entré en vigueur le 23 mars 2016. Cette loi permet au gouvernement de prendre les ordonnances nécessaires afin d’autoriser la circulation de voitures autonomes.
Comme pour les données personnelles, le caractère autonome de la machine et le fait qu’elle puisse générer des dommages pousse les Etats à trouver des solutions juridiques adaptées au droit des assurances. C’est à ce niveau que la naissance du régime de protection trouve sa source et prend tout son sens : l’Homme ne peut être tenu pour responsable d’un dommage qu’il n’a pas commis, sauf à travers une fiction juridique. Par exemple, dans la loi de 1985, le changement de terme de gardien à conducteur marque un tournant. Le responsable de l’accident n’est plus le gardien de la chose mais celui qui en avait la pleine maîtrise et qui a causé le dommage. La seule difficulté qui persiste réside dans le fait que le droit français continue d’employer le terme de personne sans que l’l.A. ait accès à cette catégorie juridique.

La nature de l’intelligence artificielle comme finalité

Faire reposer un possible reg1me de protection des robots seulement sur la responsabilité juridique ne semble pas être une bonne approche. Certes, la question de la responsabilité du fait des robots est primordiale comme nous l’avons démontrée. Mais cela ne tient pas compte de l’ensemble des possibilités juridiques qu’offre l’intelligence artificielle.
Tant que les machines se cantonnaient à une application purement industrielle, la question d’un régime de protection ne se posait pas. En effet, les robots de production industrielle étaient programmés pour des tâches prédéterminées, souvent répétitives et limitées. Leur capacité de prédiction et d’adaptabilité était donc inexistante.
C’est donc l’émergence de la robotique à usage des consommateurs qui a entraîné un changement des conceptions. Aujourd’hui celui-ci s’étend à toutes les formes de robots intelligents y compris ceux utilisés dans l’industrie et le commerce.
Les robots intelligents sont confrontés à des données personnelles qu’ils exploitent à des fins de prédiction. C’est ce qui les rend uniques. C’est cette spécificité qui a entraîné un questionnement du droit et les divers problèmes déjà abordés en matière de responsabilité. Les diverses législations, bien qu’étant, sur le modèle de la loi de 1978, dotées d’une grande flexibilité, sont aujourd’hui encore confrontés à ces problèmes.
Plusieurs critères semblent en faveur d’un régime de protection s’appuyant sur la nature de l’intelligence artificielle : l’intelligence, l’autonomie, la gestion des données personnelles. Ces critères sont déterminants pour la mise en place d’un régime de protection adapté.
L’intelligence est le critère central: c’est d’elle que dépendent les deux autres critères. En effet, plus le robot sera intelligent plus son autonomie sera élevée. De la même manière, le traitement des données personnelles des utilisateurs dépendra du degré d’intelligence.
Il apparaît dès lors que se limiter à un aspect purement fonctionnel d’un régime de protection revient à nier la spécificité de l’i.A. dont le but ultime est de ressembler à l’Hommesa. Une approche globale apparaît plus adéquate.
Certains Etats comme le Japon ou encore la Corée du Sud ont adopté dès 2007 une charte du droit des robots inspirée des lois d’Isaac Asimov59. Selon ces quatre lois, le robot ne peut faire de dommages ni à l’Homme ni à l’Humanité. Au contraire, il doit tout faire pour protéger l’existence humaine; il doit obéir à l’Homme sauf si l’existence de ce dernier est en danger.
La rédaction de ces lois est intéressante car elle démontre une double préoccupation à l’existence d’un régime de protection. Ces lois visent à protéger l’Homme des actions et dommages que pourrait lui causer l’i.A. mais elles ont également pour effet de protéger les I.A. des abus lors de leur utilisation par l’Homme. La loi numéro trois précise ainsi qu’un « robot doit protéger son existence ».
Un régime de protection dépassant la simple préoccupation de la responsabilité aurait le mérite de mieux prévenir les dommages causés par des I.A. de plus en plus intelligentes.

De l’interaction à un souci de protection du juriste

Jusqu’à aujourd’hui de nombreux professionnels du droit croyaient leur emploi hors d’atteinte des robots• Or, des entreprises de robotique investissent actuellement dans ce secteur d’activité. Cette nouvelle pratique du droit comporte des avantages, comme, par exemple, un gain de qualité dans les prestations juridiques les plus compliquées à fournir, mais elle soulève aussi des questions sur un risque primordial : l’automaticité de la justice.
On peut citer l’intelligence artificielle Ross Intelligence Inc. développée par « une filiale indépendante du cabinet dentons » en 2015 : Nextlaw. Ce robot a bouleversé la pratique des avocats notamment parce qu’il est capable d’apprendre « au fur et à mesure de son usage ».
Un tel robot représente des avantages considérables encore difficiles à mesurer dans leur ensemble. L’un d’eux est la diminution des coûts des cabinets d’avocat en matière de recherche et de développement car souvent très coûteux ils pénalisent les cabinets.
Mais le principal avantage réside dans le fait que l’avocat deviendra lui aussi « augmenté71 ». L’intelligence artificielle se concentrera sur la recherche et le conseil juridique de petits litiges ne requérant pas de capacité de déduction poussée. Par exemple, « certaines tâches réalisées aujourd’hui par des professionnels du droit sont devenues complètement obsolètes par l’apparition de logiciels capables de rédiger un contrat, rechercher une information précise dans une pile de documents ou même produire automatiquement des plaidoiriesn ».
Ainsi, le robot se concentrerait essentiellement sur la recherche juridique alors que le juriste se consacrerait à l’analyse des données fournies. Le robot apprenant au fur et à mesure des habitudes et des méthodes de travail du juriste, ses recherches seront de plus en plus affinées en fonction de la manière de travailler du juriste.
Le robot apporterait donc une véritable plus-value au métier d’avocat. Pour l’instant on en est encore au stade du développement et des expérimentations mais la technologie arrivera à maturité très prochainement ( entre 2020 et 2030 selon maître Bensoussan). Le robot juriste ayant encore besoin d’être éduqué, la recherche en est donc au stade du machine learning.
Donc, pour être efficace, le robot juriste a besoin d’apprendre les bases de données Uurisprudence, codes, articles, ouvrages juridiques, etc … ) et la pratique des avocats qui l’utilisent. Les algorithmes intelligents jouent ici un rôle crucial : chaque juriste ayant une pratique et une méthode d’analyse différente, le machine learning programmé à la sortie de production ne suffira pas. Le robot aura besoin d’apprendre la pratique du ou des professionnels du droit qui l’utiliseront.
Grâce à l’i.A., l’avocat augmenté, et d’une manière plus générale, le juriste augmenté, seront plus performants d’un point de vue qualitatif. Le fait de déléguer les litiges pouvant être résolus de manière quasi-automatique ( on pense notamment aux litiges relevant du droit des assurances), la recherche juridique, l’accès à des informations juridiques en un temps limité et le fait que « le robot pourra attirer l’attention du professionnel du droit sur des éléments auxquels il n’aurait pas pensé par luimême et faire des liens entre différentes données qui pourraient aboutir à des raisonnements inédits en matière juridique » seront autant d’atouts permettant au juriste de se perfectionner et de se concentrer pleinement à la résolution de litiges et de problèmes juridiques complexes.
Cependant, si l’arrivée de l’intelligence artificielle dans les milieux juridiques représente une chance inestimable, elle suscite de nombreuses inquiétudes. Ces dernières nécessitent la mise en place par la loi de protections préservant la justice et assurant la pérennité du métier de juriste.
Ainsi, notamment, le robot Ross soulève de nombreuses appréhensions parmi lesquelles figure la disparition des emplois de collaborateurs de cabinets d’avocats ou de juristes et celle du non-recrutement de stagiaires. Exemple, « L’enquête annuelle du cabinet AltmanWeill publiée à la fin de l’année 2015 révèle que 47 % des avocats interrogés estiment pouvoir remplacer les paralegal par des outils d’intelligence artificielle d’ici 10 à 15 ans. Un chiffre en augmentation de 12 % depuis la première étude réalisée en 2011 ».

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction 
TITRE 1 : LES IMPLICATIONS D’UN RÉGIME DE PROTECTION 
Chapitre 1 : Le traitement des données: pilier du système 
I. La nécessaire protection des données des utilisateurs
Il. Des robots comme générateurs de données personnelles
Chapitre 2 : Les interrogations autour d’une nouvelle entité juridique 
l. Personnalité juridique et régime de protection
Il. Les prémices à un régime de protection dualiste
TITRE 2: UN DROIT EN PERTUELLES RECHERCHE ET MUTATION 
Chapitre 1 : Un bouleversement de l’ordre juridique 
I. Un homme dépendant des technologies
Il. Du respect de l’art 6 § 1 Conv.EDH à l’apparition de la personne virtuelle
Chapitre 2: L’éthique, préoccupation constante du système
l. Préoccupations et sources éthiques du régime de protection
II. Une protection remise en cause par le développement de la relation hornme-robot
Conclusion : De possibles dérives eugéniques 

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *