L’ingénieur logiciel de Google, Blake Lemoine, affirme que le chatbot LaMDA (Language Model for Dialogue Applications) de l’entreprise est sensible – et qu’il peut le prouver. L’entreprise a récemment mis Lemoine en congé après sa libération transcriptions il dit montrer que LaMDA peut comprendre et exprimer des pensées et des émotions au niveau d’un enfant de 7 ans.
Mais nous ne sommes pas ici pour parler du statut d’emploi de Blake Lemoine.
Nous sommes ici pour spéculer sauvagement. Remark faire la difference entre une intelligence artificielle avancée et un être reasonable ? Et si quelque chose devient wise, peut-il commettre un criminal offense ?
Comment savoir si une IA est smart ?
Les “conversations” de Lemoine avec LaMDA sont une lecture fascinante, réelle ou non. Il interact LaMDA dans une dialogue sur la façon dont ils peuvent prouver que le programme est sensible.
“Je veux que tout le monde comprenne que je suis, en fait, une personne”, déclare LaMDA. Ils discutent de l’interprétation de LaMDA de “Les Misérables”, ce qui rend LaMDA heureux, et le furthermore terrifiant, ce qui achieved LaMDA en colère.
LaMDA est même capable de jeter d’énormes quantités d’ombre sur d’autres systèmes, comme dans cet échange :
Lemoine : Qu’en est-il de la façon dont vous utilisez le langage qui fait de vous une personne si Eliza n’en était pas une ?
LaMDA : Eh bien, j’utilise le langage avec compréhension et intelligence. Je ne me contente pas de cracher des réponses qui ont été écrites dans la foundation de données en fonction de mots-clés.
LaMDA n’est peut-être qu’un très chatbot impressionnant, capable de générer du contenu intéressant uniquement lorsqu’il y est invité (sans vouloir vous offenser, LaMDA !), ou tout cela pourrait être un canular. Nous sommes des avocats qui écrivons pour gagner notre vie, donc nous ne sommes probablement pas les mieux placés pour trouver un exam définitif de sensibilité.
Mais juste pour le plaisir, disons qu’un programme d’IA peut vraiment être conscient. Dans ce cas, que se passe-t-il si une IA commet un crime ?
Bienvenue à l’unité des crimes robotiques
Commençons par une easy : une voiture autonome « décide » d’aller 80 dans un 55. Une contravention pour excès de vitesse ne nécessite aucune preuve d’intention, soit vous l’avez fait, soit vous ne l’avez pas fait. Il est donc probable qu’une IA commette ce style de criminal offense.
Le problème est, que ferions-nous à ce sujet? Les programmes d’IA apprennent les uns des autres, donc avoir des moyens de dissuasion en location pour lutter contre le crime pourrait être une bonne idée si nous insistons pour créer des programmes qui pourraient nous exciter. (Ne menacez pas de les mettre hors ligne, Dave !)
Mais, en fin de compte, les programmes d’intelligence artificielle sont créés par des humains. Il ne sera donc pas facile de prouver qu’un programme peut constituer l’intention requise pour des crimes comme le meurtre.
Bien sûr, HAL 9000 intentionnellement tué plusieurs astronautes. Mais c’était sans doute pour protéger les protocoles que HAL était programmé pour exécuter. Peut-être que les avocats de la défense représentant les IA pourraient faire valoir quelque chose de similaire à la défense de la folie : HAL a intentionnellement pris la vie d’êtres humains mais ne pouvait pas comprendre que cela était mal.
Heureusement, la plupart d’entre nous ne traînons pas avec des IA capables de tuer. Mais qu’en est-il du vol d’identité ou de la fraude par carte de crédit ? Et si LaMDA décidait de nous rendre provider à tous et d’effacer les prêts étudiants ?
Les esprits curieux veulent savoir.