Inscrivez-vous à notre newsletter

  • HLCÉ

Martin Boonen

13 June 2024

Eventail.be – Pouvez-vous définir ce qu’est un éthicien de la technique ?
Louis de Diesbach –
Et bien, l’éthique est une des composantes de la philosophie. C’est la discipline de la philosophie qui porte sur les jugements moraux. Elle se pose la question du bien et du mal, et le travail de l’éthicien n’est pas de prendre parti, il s’agit de travailler avec les gens pour comprendre qu’elle est leur conception du bien ou du mal. Et on peut mettre cette conception en perspective avec la manière dont la société entend utiliser la technologie. L’idée étant plus de poser des questions que d’y répondre. Cela dit, sans se contenter de botter en touche, les éthiciens de la technique s’efforcent d’apporter des pistes de réflexion. Gilbert Hottois disait que l’éthique de la technologie était à cheval entre la métaphysique (qui étudie la nature fondamentale de la réalité et qui se demande ce que cela veut dire d’être humain), et la philosophie politique (qui réfléchit à l’organisation de la société, à son vivre ensemble). En résumé, j’essaie de comprendre ce que notre utilisation de la technologie dit de nous-même (la métaphysique) et de nos relations avec les autres (la philosophie politique).

Louis de Diesbach © Antonin Weber/Hans Lucas

– Vous rappelez dans votre livre que le développement des intelligences artificielles n’est, en réalité, pas tellement nouveau. Qu’est-ce qui fait que ce sujet est sur toutes les lèvres désormais ?
Ce qui change fondamentalement, c’est l’accessibilité au plus grand nombre de l’intelligence artificielle. C’est vrai qu’on la développe depuis très longtemps, de manière insoupçonnée, mais pour y avoir accès il fallait être ingénieur ou informaticien. La révolution ChatGPT, avec cette adoption massive, est bien plus d’ordre social que technologique. Mais le fait que le grand public, peu éduqué, peu formé, peu au fait de cette technologie et surtout, nourri par le fantasme de la fiction et alimenté par les discours alarmistes des médias, crée le sentiment dystopique, si ce n’est apocalyptique que l’on observe actuellement. Donner accès à cette technologie si puissante et si perturbante sans aucune mise en contexte, sans aucune explication technique, sans mode d’emploi à tant de monde, est préjudiciable et dommageable. Mais, il faut reconnaître que les inquiétudes qui naissent de ces technologies font vivre des auteurs, des commentateurs, des médias qui surfent sur la vague pour tirer leurs bénéfices vers le haut.

– Il faut donc réexpliquer ce que sont les intelligences artificielles, mais faut-il aussi, de l’autre côté, encadrer leur développement ?
Sans doute, mais qu’est ce que ça veut dire encadrer ? Est-ce qu’on limite la capacité des IA ? Est-ce qu’on trace des lignes rouges ? Est-ce qu’on légifère sur les trois lois de la robotique d’Isaac Asimov ? Un peu de tout ça, assurément. Je suis assez convaincu par l’AI Act sorti il y a quelques semaines. Il faut quand même se poser la question de savoir quelle IA on met à disposition de qui et dans quel contexte. Je suis, par exemple, assez partant pour que les images générées par IA portent une marque visible de leur origine qui puisse les identifier comme telles. Comment s’assurer que l’on respecte les valeurs de nos sociétés : les droits fondamentaux, la liberté, l’autonomie, … ? Ces questions n’ont rien à voir avec la technique, elles sont issues de la politique, et donc de la philosophie.

La course au développement des IA relève d'enjeux transnationaux © DR/Shuttterstock.com

– Et cet encadrement, d’où doit-il venir ?
J’aimerais beaucoup que la réponse viennent des entreprises elles-même et qu’elles organisent leur autorégulation. Malheureusement, dans l’organisation capitaliste de notre société, ce scénario n’est pas le plus probable. La proposition de mettre en place un moratoire sur le développement des IA m’a fait doucement rire : aucune entreprise privée ne va s’arrêter si les autres poursuivent. La proposition d’Ursula von der Leyen d’organiser un GIEC de la Tech et de l’IA me paraissait déjà plus intéressante. Cela dit, quand on voit de quelle manière les recommandations du GIEC sur le climat sont suivies… En tout cas, il faut que ces initiatives soient transnationales et un accord de cette nature sur un domaine si compétitif est difficile à imaginer aussi…

– Une bonne partie des fantasmes liés aux IA naissent du caractère anthropomorphique de la façon que nous avons d’échanger avec elles. Est-il obligatoire de singer la discussion humaine pour se servir d’une IA ?
L’anthropomorphisme, c’est extrêmement naturel et très ancien surtout, notamment dans la façon que l’on a de communiquer, que ce soit avec un être humain, un animal de compagnie ou une machine. Les développeurs d’intelligence artificielle ont très bien compris que ce réflexe anthropomorphique favorise de manière extrêmement sensible l’adoption de cette nouvelle technologie. ChatGPT est plus facile d’utilisation que Google, notamment parce que l’échange que l’on a avec cette IA se fait en langage naturel, contrairement à celui que l’on avec un moteur de recherche classique. Plus l’adoption est simple, plus grand sera le nombre d’utilisateurs, plus le potentiel commercial est grand et donc intéressant. La question me semble plus mercantile que purement idéologique.

Faut encadrer les IA ? © DR/Shutterstock.com

– Le terme même “d’intelligence” sème la confusion. L’homme ne se prend-t-il pas pour Dieu avec les IA ?
Je pense que depuis l’origine de la spiritualité, l’homme essaie, si ce n’est de défier Dieu, d’au moins faire jeu égal avec lui. Et que cette dimension là existe aussi dans la course au développement des intelligences artificielles. Des personnalités, d’ailleurs controversées comme Elon Musk ou Sam Altman, ont sans doute, dans un coin de leurs esprits, la volonté de jouer à Dieu. Mais cela n’empêche pas d’avoir ce grand projet capitaliste et commercial derrière les IA.

– Votre livre révèle que les IA sont par essence le reflet de notre société. Peut-on donc les diriger idéologiquement ?
Bien sûr. C’est déjà le cas, et parfois pour le mieux. L’un des reproches d’Elon Musk au sujet de ChatGPT, c’est sa sensibilité trop woke à son goût voulu par les équipes et la direction d’OpenAI. On laissera Musk penser ce qu’il veut de l’idéologie woke mais il met en lumière la capacité gigantesque d’OpenAI à avoir un pouvoir sur la pensée du monde, avec le risque d’uniformiser la pensée mondiale dans un sens arbitrairement choisi par une société privée. Ces orientations sont très visibles et sensibles quand les questions sont posées de manières très directes, franches ou basiques, mais dès que l’on installe de la nuance, elles sont beaucoup plus difficiles à mettre à jour. Là est le danger.

– Alors, d’après-vous, qu’est-ce que définit l’Humanité ?
C’est une question à laquelle je ne peux pas répondre directement, il me faudrait plusieurs heures ! Mais j’ai quand même une vision. Selon moi, on a souvent défini l’humanité à l’aune de son emprise sur le monde, sur sa capacité à dominer son environnement. Ce n’est pas ma vision. Pour moi, ce qui nous rend profondément humain c’est la relation avec autrui. Le meilleur exemple, ce sont ces soirées avec des proches où le temps file, loin des écrans, ces moments de partage hors du temps mais en pleine humanité. Dans mon livre j’ai essayé de dire çe que notre relation avec la tech disait de nous et de répondre à la question de savoir s’il est toujours nécessaire d’aller vers plus de tech. Ce dont, d’ailleurs, je ne suis pas persuadé. Mettre des gens autour d’une table serait parfois bien plus utile que d’imaginer une nouvelle application mobile pour le faire à notre place..

Société

Summer Exhibition Royal Academy

Arts & Culture

Royaume-Uni, Londres

Du 18/06/2024 au 18/08/2024

Informations supplémentaires

Livre

Bonjour ChatGPT – Comment l’intelligence artificielle change notre rapport aux autres

Auteur

Louis de Diesbach

Éditeur

Mardaga

Sortie

2024

Publicité

Tous les articles

Publicité