Extrait de la chaîne Cathobel avec Gaël Giraud, économiste et prêtre jésuite, docteur en mathématiques, directeur de recherche au CNRS et ancien économiste en chef de l’Agence Française de Développement. Il analyse l’impact de l’intelligence artificielle sur le travail, la médecine, la justice et la guerre en rappelant que les machines ne sont pas intelligentes et ne peuvent remplacer la relation humaine, le jugement ni la responsabilité. Une réflexion critique sur les enjeux éthiques, sociaux et spirituels de l’IA dans nos sociétés contemporaines.
00:00Vous avez des tribunaux dans lesquels le juge, quand il prend une décision qui n'est pas celle que recommande la machine,
00:05est obligé de se justifier trois fois plus que ça n'était le cas précédemment.
00:09Parce qu'évidemment, ceux qui sont lésés par la décision contestent en disant « mais ce juge est nul, la machine dit exactement le contraire, je devrais être blanchi » ou le contraire, peu importe.
00:19Et donc là aussi, il y a un enjeu colossal parce que si vous connaissez des magistrats et des juges qui font ce métier,
00:25en fait, leur travail fondamental, c'est d'essayer de se mettre à la place des personnes qui sont dans le cas qu'ils étudient
00:32et de comprendre pourquoi il a fini par assassiner sa femme.
00:37Peut-être qu'elle était insupportable, mais peut-être que c'est lui qui est complètement à côté de ses chaussures.
00:41Donc ce travail-là, qui en fait amène à la décision finale du juge, qui est un jugement, aucune machine ne peut le faire.
00:47Si je rebondis sur cette question de l'intelligence artificielle par rapport, par exemple, au marché du travail,
01:02l'intelligence artificielle, ce n'est plus un secret pour personne, va le bousculer fondamentalement.
01:06Est-ce que vous voyez ça comme une occasion à saisir, une chance, ou bien cela va tellement nous bousculer
01:15que cela va nous plonger dans une crise sociale et par suite peut-être existentielle et identitaire ?
01:21Oui, ça va, vous m'entendez ? Oui, ça marche.
01:24Je vais essayer aussi de répondre à la fois à la question de Fabrice à la fin et puis celle que vous venez de poser.
01:30Donc peut-être, je vais commencer simplement par rappeler pour tout le monde, pour qu'on se mette d'accord là-dessus,
01:35l'intelligence artificielle, c'est une métaphore pour désigner des logiciels qui n'ont rien d'intelligent,
01:41qui sont des empilements d'interrupteurs, un neurone, quand on parle de réseau de neurones, un neurone, c'est un interrupteur.
01:47Un interrupteur, c'est un outil qui fait passer ou non le courant. Oui, non, 0,1.
01:53Vous avez des interrupteurs un tout petit peu subtils.
01:56Quand vous appuyez dessus, ils font traverser le courant, mais la lumière monte progressivement avant d'être au maximum.
02:02Appelons ça un interrupteur subtil. Un neurone, dans les réseaux de neurones, qui sont omniprésents dans l'intelligence artificielle aujourd'hui,
02:10c'est un interrupteur subtil, pas plus que ça.
02:13Et donc l'IA, c'est des empilements de couches d'interrupteurs subtils, c'est tout.
02:18Ça n'a rien à voir avec la manière dont un cerveau fonctionne, des synapses, un système nerveux.
02:22Donc ça, c'est une énorme métaphore. Et ces machines, de mon point de vue, n'ont strictement rien d'intelligent, premièrement.
02:29Deuxièmement, oui, ça va évidemment bouleverser le marché du travail, parce qu'il y a un certain nombre de tâches répétitives, automatiques,
02:35qu'on va pouvoir déléguer à ces machines. Mais ça pose d'énormes questions dès aujourd'hui, qui ne sont pas exactement celles de la tienne, Fabrice,
02:43mais je vais y revenir, mais qui sont des questions à la fois politiques, juridiques, éthiques, colossales.
02:48Donc j'en nomme juste trois. C'est l'usage de l'IA dans la médecine.
02:53Donc on a maintenant, vous savez ça, des logiciels spécialisés qui ont été entraînés, par exemple, pour identifier des cas de cancer
03:00à partir des symptômes qu'on observe aujourd'hui et qui font ça mieux que la plupart des médecins, même les plus compétents.
03:08Parce que c'est vrai qu'ils ont digéré davantage de données. Bon, OK. Et donc ça, c'est très utile.
03:12Mais la tentation va être forte, elle est déjà là, de remplacer carrément le médecin avec lequel vous avez un dialogue,
03:20ou j'ai un dialogue, par une machine. Et ça, c'est nier que dans le dialogue avec un médecin,
03:27il y a quelque chose de la thérapie qui se joue déjà là. Je prends comme exemple des personnes que je connais
03:33qui souffrent d'un cancer. Bon, la relation qu'elles ont avec leur cancérologue est fondamentale.
03:39Et ça fait partie de la thérapie et de la possibilité de la rémission.
03:41Il y a une espèce d'alliance implicite qui se noue entre le patient et le médecin qui ne se nouera jamais avec une machine.
03:49Et donc la tentation de remplacer le médecin par une machine, c'est croire que le médecin,
03:55c'est juste une banque de données qui fournit un catalogue de vos symptômes et un diagnostic.
04:00Non, c'est quelqu'un avec qui j'entre en relation parce qu'il est capable ou elle est capable de prendre ma place comme patient sans quitter la sienne
04:09et de comprendre de l'intérieur un peu ce que je vis. Et c'est dans cette relation-là qu'il y a quelque chose comme un début de chemin de thérapie qui s'inaugure à mon avis.
04:17Deuxième exemple, très rapidement, la question de la justice.
04:22Aux États-Unis, maintenant, vous avez des IA qui ont été entraînés sur la quasi-totalité de la jurisprudence américaine.
04:27Donc vous avez des tribunaux dans lesquels le juge, quand il prend une décision qui n'est pas celle que recommande la machine,
04:33est obligé de se justifier trois fois plus que ça n'était le cas précédemment.
04:37Parce qu'évidemment, ceux qui sont lésés par la décision contestent en disant « mais ce juge est nul, la machine disait exactement le contraire, je devrais être blanchi » ou le contraire, peu importe.
04:47Et donc là aussi, il y a un enjeu colossal parce que si vous connaissez des magistrats et des juges qui font ce métier,
04:53en fait, leur travail fondamental, c'est d'essayer de se mettre à la place des personnes qui sont dans le cas qu'ils étudient
04:59et de comprendre pourquoi il a fini par assassiner sa femme.
05:03Vous voyez ? Peut-être qu'elle était insupportable, mais peut-être que c'est lui qui est complètement à côté de ses chaussures.
05:08Donc ce travail-là, qui en fait amène à la décision finale du juge, qui est un jugement, aucune machine ne peut le faire.
05:16D'autant que si la machine est entraînée sur les données du passé, ce qui est le cas forcément, par construction,
05:21elle reproduit les biais du passé.
05:23Et donc dans le cas de la justice américaine, elle reproduit le fait que pendant des années, des décennies,
05:28cette justice a été raciste, misogyne et une justice de classe, fondamentalement.
05:34Donc ce n'est pas avec ça qu'on va rendre justice aujourd'hui.
05:38Deuxième exemple.
05:39Le troisième exemple, qui a été abondamment cité par le pape François dans ses derniers textes sur l'IA,
05:45c'est la question des machines létales autonomes.
05:48Donc ce sont des machines qui peuvent prendre la décision de tirer sur quelqu'un et de tuer quelqu'un
05:52sans qu'il n'y ait aucun humain qui n'ait appuyé sur un bouton.
05:55Alors imaginez que cette machine fasse une erreur et qu'elle exécute un innocent, un enfant qui était là par hasard.
06:03Et bon, le système de reconnaissance de la machine a cru que c'était un ennemi et l'a abattu.
06:07Alors qui est responsable de la décision ?
06:10Personne.
06:12On ne va pas aller faire un procès à la société privée qui a vendu le logiciel parce que la machine a exécuté un enfant.
06:18Et donc vous voyez bien qu'on est en train de, à ce moment-là, s'autoriser à mener une guerre
06:22dans laquelle plus personne n'est responsable des décisions qui sont prises dans cette guerre.
06:26Donc par exemple, le concept même de crime de guerre disparaît.
06:29Il est vidé de son sens.
06:31Vous n'allez pas accuser une machine d'avoir commis un crime de guerre.
06:33Qu'est-ce que ça veut dire ?
06:34A fortiori, le concept de crime contre l'humanité.
06:37Et donc toutes les règles de la guerre comme telles sont potentiellement remises en cause.
06:42Donc là, c'est trois lieux fondamentaux.
06:43Alors, pour résumer, à mon avis, ce qui est derrière ça, c'est l'incapacité fondamentale d'une machine à prendre la place de l'autre.
06:51Et le fait que ce qui peut-être nous caractérise, au moins en partie, pas les seuls,
06:56alors ça rejoint maintenant la question que tu posais Fabrice, c'est que nous, nous sommes capables de vivre quelque chose de cette expérience spirituelle
07:02qui est consentir à nous mettre à la place de l'autre sans quitter la mienne,
07:06pour comprendre l'autre, aimer l'autre, entrer en relation avec l'autre.
07:08Bon, ça c'est une expérience spirituelle humaine profonde qu'une machine ne peut pas faire.
07:13Après, si j'essaie de répondre à la question pourquoi, dans nos écoles, on a fini par consentir à essayer de déléguer la relation pédagogique,
07:22où là aussi c'est fondamental que le professeur, l'instit, puissent se mettre à la place de son élève, sinon c'est un mauvais prof en fait.
07:30Pourquoi est-ce qu'on a osé faire ça et être tenté de déléguer ça à une machine ?
07:34Je crois parce qu'il y a une tentation gnostique derrière l'imaginaire de l'IA,
07:38qui est qu'on pourrait viser une humanité sans corps.
07:41C'est ça qui est visé.
07:42Donc lorsque des sociétés de la Silicon Valley proposent qu'on puisse transplanter la conscience de quelqu'un dans une machine,
07:50c'est faire croire qu'une humanité vivante est possible sans corps, parce qu'une machine n'a pas de corps.
07:54Et ça c'est un vieux fantasme qui habite, y compris le christianisme,
07:59et contre lequel le christianisme lutte depuis 18 siècles maintenant.
08:03Et ça c'est vraiment quelque chose, je crois, qu'il faut dénoncer aujourd'hui.
Écris le tout premier commentaire