May 30, 2023

Tech Articles

L'art de la technologie

L’IA sensible peut-elle enfreindre la loi ?

L’ingénieur logiciel de Google, Blake Lemoine, affirme que le chatbot LaMDA (Language Model for Dialogue Apps) de l’entreprise est smart – et qu’il peut le prouver. L’entreprise a récemment mis Lemoine en congé après sa libération transcriptions il dit montrer que LaMDA peut comprendre et exprimer des pensées et des émotions au niveau d’un enfant de 7 ans.

Mais nous ne sommes pas ici pour parler du statut d’emploi de Blake Lemoine.

Nous sommes ici pour spéculer sauvagement. Remark faire la distinction entre une intelligence artificielle avancée et un être wise ? Et si quelque chose devient practical, peut-il commettre un crime ?

Remark savoir si une IA est wise ?

Les “discussions” de Lemoine avec LaMDA sont une lecture fascinante, réelle ou non. Il have interaction LaMDA dans une discussion sur la façon dont ils peuvent prouver que le programme est reasonable.

“Je veux que tout le monde comprenne que je suis, en fait, une personne”, déclare LaMDA. Ils discutent de l’interprétation de LaMDA de “Les Misérables”, ce qui rend LaMDA heureux, et le as well as terrifiant, ce qui satisfied LaMDA en colère.

LaMDA est même able de jeter d’énormes quantités d’ombre sur d’autres systèmes, comme dans cet échange :

Lemoine : Qu’en est-il de la façon dont vous utilisez le langage qui fait de vous une personne si Eliza n’en était pas une ?

LaMDA : Eh bien, j’utilise le langage avec compréhension et intelligence. Je ne me contente pas de cracher des réponses qui ont été écrites dans la foundation de données en fonction de mots-clés.

Schitts Creek Pain GIF par CBC

LaMDA n’est peut-être qu’un très chatbot impressionnant, able de générer du contenu intéressant uniquement lorsqu’il y est invité (sans vouloir vous offenser, LaMDA !), ou tout cela pourrait être un canular. Nous sommes des avocats qui écrivons pour gagner notre vie, donc nous ne sommes probablement pas les mieux placés pour trouver un exam définitif de sensibilité.

Mais juste pour le plaisir, disons qu’un programme d’IA peut vraiment être conscient. Dans ce cas, que se passe-t-il si une IA commet un crime ?

Bienvenue à l’unité des crimes robotiques

Commençons par une straightforward : une voiture autonome « ​​décide » d’aller 80 dans un 55. Une contravention pour excès de vitesse ne nécessite aucune preuve d’intention, soit vous l’avez fait, soit vous ne l’avez pas fait. Il est donc possible qu’une IA commette ce sort de criminal offense.

Le problème est, que ferions-nous à ce sujet? Les programmes d’IA apprennent les uns des autres, donc avoir des moyens de dissuasion en spot pour lutter contre le crime pourrait être une bonne idée si nous insistons pour créer des programmes qui pourraient nous exciter. (Ne menacez pas de les mettre hors ligne, Dave !)

Mais, en fin de compte, les programmes d’intelligence artificielle sont créés par des humains. Il ne sera donc pas facile de prouver qu’un programme peut constituer l’intention requise pour des crimes comme le meurtre.

Bien sûr, HAL 9000 intentionnellement tué plusieurs astronautes. Mais c’était sans doute pour protéger les protocoles que HAL était programmé pour exécuter. Peut-être que les avocats de la défense représentant les IA pourraient faire valoir quelque chose de similaire à la défense de la folie : HAL a intentionnellement pris la vie d’êtres humains mais ne pouvait pas comprendre que cela était mal.

Heureusement, la plupart d’entre nous ne traînons pas avec des IA capables de tuer. Mais qu’en est-il du vol d’identité ou de la fraude par carte de crédit ? Et si LaMDA décidait de nous rendre provider à tous et d’effacer les prêts étudiants ?

Les esprits curieux veulent savoir.

Vous n’avez pas à résoudre ce problème par vous-même – Obtenez l’aide d’un avocat

Rencontrer un avocat peut vous aider à comprendre vos choices et la meilleure façon de protéger vos droits. Visitez notre annuaire des avocats pour trouver un avocat près de chez vous qui peut vous aider.