Sélectionner une page


BERLIN – Pensez-vous que les poursuites avec des personnes sont difficiles? Essayez de traduire en justice un robot intelligent.

Alors que les robots autonomes dotés de capacités globales semblables à celles des humains sont encore dans des décennies, les législateurs européens, les juristes et les fabricants sont déjà impliqués dans un débat sur leur statut juridique: si ce sont ces machines ou ces personnes qui devraient être en fin de compte responsables de leurs actes.

La bataille découle d’un passage de texte enfoui profondément dans un Parlement européen rapport début 2017, suggérant que les robots auto-apprenants pourraient avoir des «personnalités électroniques». Un tel statut pourrait permettre aux robots d’être individuellement assurés et tenus responsables des dommages s’ils deviennent des voleurs et commencent à nuire à des personnes ou à endommager des biens.

Ceux qui poussent à une telle modification de la loi, y compris certains fabricants et leurs filiales, estiment que la proposition est sensée. La personne morale ne transformerait pas les robots en personnes virtuelles qui pourraient se marier et bénéficier des droits de l’homme, disent-ils; cela les assimilerait simplement à des sociétés qui ont déjà le statut de «personne morale» et sont traitées comme telles par les tribunaux du monde entier.

Mais comment deviennent les robots et l’intelligence artificielle Questions politiques brûlantes Des deux côtés de l’Atlantique, la députée européenne et vice-présidente de la commission des affaires juridiques du Parlement européen, Mady Delvaux, et d’autres défenseurs du changement juridique font face à une opposition croissante. Dans une lettre 156 experts en intelligence artificielle de 14 pays européens, y compris des informaticiens, des professeurs de droit et des PDG, avertissent la Commission européenne, qui a été vue par POLITICO et devrait être dévoilée jeudi, que l’octroi à la personne morale d’un robot d’un « point de vue juridique et éthique «  » Inapproprié « serait une perspective. »

Avec la recherche d’une entité légale pour les robots, les fabricants essayaient seulement de se dégager de la responsabilité des actions de leurs machines – Noel Sharkey, professeur émérite d’intelligence artificielle et de robotique à la Université de Sheffield

Le rapport de la commission des affaires juridiques du Parlement recommandait l’idée de donner aux robots des « personnalités électroniques » et pourrait devenir un modèle pour les lois à travers l’Europe s’il était transformé en un cadre juridique. Delvaux a déclaré que même si elle n’était pas sûre que définir légalement les robots comme des personnalités était une bonne idée, elle était « de plus en plus convaincue » que la législation actuelle est insuffisante pour résoudre les problèmes complexes liés à la responsabilité et aux machines d’auto-apprentissage à résoudre, et que toutes les options devrait exister sur la table.

Les experts en IA à l’origine de la lettre à la Commission européenne ne sont pas d’accord.

« En reprenant la personne morale, nous dégagerons la responsabilité des industriels », a déclaré Nathalie Navejans, professeur de droit français à l’Université d’Artois qui a été le moteur de la lettre.

Noel Sharkey, professeur émérite d’intelligence artificielle et de robotique à l’Université de Sheffield, qui a également signé, a ajouté qu’en trouvant une entité juridique pour les robots, les fabricants essayaient simplement de se débarrasser de la responsabilité des actions de leurs machines.

« Cette [European Parliament position] J’appellerais cela la manière gluante que les fabricants se dégagent de leurs responsabilités », a-t-il déclaré.

Robots « boîte noire »

Avec chaque côté intensifiant le volume de leur plaidoyer, une chose sera claire: l’argent afflue dans la robotique et le débat s’intensifiera.

Les analystes supposent que la ruée vers l’or dans les domaines émergents ne fera que s’accélérer dans les années à venir. Par exemple, le marché des robots grand public – des machines qui agissent comme des compagnons à la maison – devrait Presque le triple au cours des cinq prochaines années, passant de 5,4 milliards de dollars en 2018 à 14,9 milliards de dollars en 2023.

Vendre des « cobots » – des machines conçues pour travailler avec des personnes – c’est prévision près de trente fois, passant d’un peu plus de 100 millions de dollars en 2015 à 3 milliards de dollars en 2020.

Et le marché des robots industriels – des machines qui peuvent assembler des voitures ou effectuer des tâches sophistiquées sur la chaîne de montage, par exemple – est attendu atteindront également 40 milliards de dollars d’ici 2020, contre 25,7 milliards de dollars en 2013.

Le boom actuel est lié au fait que les robots viennent d’entrer dans la deuxième phase de leur développement 59 ans après le premier robot industriel. rejoint la chaîne de montage des usines américaines General Motors.

Dans les décennies qui ont suivi, les machines sont restées largement réactives, programmées pour accomplir des tâches définies et répondre à un nombre limité de situations.

L’idée derrière le développement d’une personnalité électronique n’était pas d’accorder des droits de l’homme aux robots – c’était de s’assurer qu’un robot est et restera une machine soutenue par un humain.

En revanche, les derniers développements permettent aux machines d’exécuter des tâches qui nécessitaient auparavant une réflexion humaine. Grâce à la technologie actuelle, les ordinateurs peuvent apprendre et prendre leurs propres décisions en imitant et en multipliant les schémas du cerveau humain.

La préoccupation du législateur: des processus aussi complexes deviendront-ils des machines?Boîtes noires« Quels processus décisionnels sont difficiles ou impossibles à comprendre et donc impénétrables aux avocats chargés du contentieux qui tentent d’attribuer la responsabilité juridique des problèmes? »

Les robots peuvent-ils se marier?

Pour cette raison, affirment les partisans, l’Europe devrait accorder un «statut juridique» aux robots eux-mêmes, plutôt que de peser sur leurs fabricants ou leurs propriétaires.

« Dans un scénario où un algorithme peut prendre une décision autonome, qui devrait être responsable de ces décisions? » L’avocate d’entreprise basée à Milan, Stefania Lucchetti, a déclaré.

Le robot humanoïde Sophia a été nommé premier champion de l’innovation non humaine par le PNUD en novembre 2017 Prakash Mathema / AFP via Getty Images

Le modèle actuel, où le fabricant, le propriétaire ou les deux sont responsables, ne fonctionnerait plus à l’ère des robots entièrement autonomes, et l’UE devrait donner aux robots une sorte de personnalité juridique « comme les entreprises l’ont fait », a-t-elle ajouté.

La «personnalité» dont il parlait remonte au XIIIe siècle, lorsque le pape Innocent IV donna aux monastères un statut de personnalité. De nos jours, pratiquement tous les pays du monde appliquent le modèle aux entreprises, ce qui signifie que les entreprises ont certains des droits et obligations juridiques d’une personne, y compris la capacité de signer un contrat ou d’être poursuivies en justice. Selon ses partisans, un modèle juridique similaire pour les robots serait moins d’accorder des droits aux robots que de les responsabiliser en cas de problème, par exemple via la mise en place d’un système d’assurance obligatoire qui pourrait être alimenté par les actifs qu’un robot accumule sur le cours de son « existence ».

« Cela ne signifie pas que le robot est confiant ou peut épouser un autre robot », a déclaré Lucchetti.

De même, Delvaux a souligné que développer une personnalité électronique ne consistait pas à accorder des droits humains aux robots, mais plutôt à s’assurer qu’un robot est et restera une machine soutenue par un humain.

Au-delà de Sophia

La controverse sur les robots futuristes obscurcit la réalité selon laquelle les robots capables d’intelligence humaine et de prise de décision restent une perspective lointaine.

Les robots d’aujourd’hui sont meilleurs que les humains dans certaines applications étroites comme la reconnaissance d’images ou le jeu de société chinois Aller.

«Cela ne me dérange pas du tout l’idée d’un robot de spectacle. Mais quand ils commencent à le présenter aux Nations Unies et à donner aux nations une mauvaise idée de ce que la robotique peut faire et de la place de l’IA en ce moment, c’est très, très dangereux. » Noel Sharkey

Cependant, ces applications de pointe ne se distinguent que dans une plage étroite. Jouer au Go ou classer des images sont essentiellement les seules choses que ces machines peuvent faire, contrairement aux humains qui peuvent simultanément comprendre la langue, apprendre à jouer à divers jeux de société et reconnaître les images.

Même ainsi, les rapports des médias sur les progrès galopants de la robotique – qui pourraient suggérer qu’une intelligence robotique étendue est à portée de main – ont infiltré le débat public. Cela pourrait conduire les législateurs à tomber dans une réglementation prématurée, préviennent les signataires de la lettre.

Selon certains chercheurs, aucun robot n’a fait autant pour véhiculer des idées fausses sur la robotique que Sophia: un robot humanoïde apparu pour la première fois en mars 2016 et citoyen saoudien depuis lors s’est vu décerner un titre par les Nations Unies et les États-Unis. a ouvert la Conférence de Munich sur la sécurité cette année.

« L’idée d’un robot de spectacle ne me dérange pas du tout », a déclaré Sharkey, qui a cosigné la lettre et est co-fondateur de la Foundation for Responsible Robotics. « Mais quand ils commencent à le présenter aux Nations Unies et à donner aux nations une mauvaise idée de ce que la robotique peut faire et où se trouve l’IA en ce moment, c’est très, très dangereux. »

Il a ajouté: « C’est aussi très dangereux pour la législature. Ils le voient et le croient parce qu’ils ne sont pas ingénieurs et il n’y a aucune raison de ne pas y croire. »

Au lieu de cela, les dispositions de droit civil existantes de l’UE sont suffisantes pour répondre aux questions de responsabilité, affirment les 156 experts d’IA dans leur lettre ouverte.

Delvaux a déclaré que la discussion du Parlement sur une personnalité électronique à part entière est en cours et « peut-être qu’en fin de compte nous conclurons que ce n’est pas une bonne idée ».

Son objectif principal en proposant une entité juridique robotique était d’avoir un débat public sur le sujet, a-t-elle déclaré.

En ce sens, elle a réussi.





Source link

Recent Posts