Vous avez peut-être entendu l’idée selon laquelle l’IA est un « Perroquet stochastique », Nous répéter mécaniquement nos paroles sans vraiment les comprendre. Mais valeur de Shannonphilosophe de la technologie à l’Université d’Édimbourg, pense qu’il existe une meilleure métaphore : l’IA, dit-elle, est un miroir.
Après tout, le perroquet est un autre esprit – pas tout à fait comme le nôtre, mais néanmoins un esprit sensible. Il n’existe pas de modèle de langage majeur comme ChatGPT. Il nous renvoie nos propres images, mots et tout ce que nous avons introduit dans ses données de formation. Quand nous nous unissons, nous nous ressemblons beaucoup narcisseLe garçon mythique qui voit son magnifique reflet dans l’eau et devient hypnotisé en pensant qu’il s’agit d’une autre personne.
dans son nouveau livre Miroir IAValor soutient que c’est notre tendance à considérer l’IA comme ayant un esprit – et à penser qu’elle pourrait même avoir le potentiel d’être plus morale que nous parce qu’elle est plus « objective » et « rationnelle » – qui constitue une réelle menace pour l’intelligence artificielle. l’humanité. L’IA présente des risques, même si l’IA peut faire quoi que ce soit par elle-même.
J’ai parlé à Valor de ce qu’elle pense vraiment du risque, de ce qu’il pense faire à l’action humaine et de la manière dont il contribue au transhumanisme, le mouvement qui dit que les humains devraient utiliser activement la technologie pour améliorer et faire évoluer notre espèce. Voici une transcription de notre conversation, éditée pour plus de longueur et de clarté.
Vous n’êtes pas le genre de personne qui reste éveillée la nuit dans la peur que l’IA ne devienne un esprit conscient qui décide par malveillance de nous asservir tous. Mais vous affirmez que l’IA présente un réel risque existentiel. Qu’est-ce que c’est?
Le risque dont je parle est existentiel au sens philosophique et touche réellement au cœur de ce que nous sommes en tant qu’êtres humains et de notre capacité à donner un sens à notre existence. L’un des défis fondamentaux de l’être humain, mais que nous tenons souvent pour acquis, est que nous ne sommes pas enfermés dans un ensemble de réflexes ou de réactions insensées – que nous sommes, en fait, capables de rompre avec nos habitudes cognitives. Nous pouvons utiliser les scripts sociaux auxquels nous sommes habitués et choisir d’aller dans de nouvelles directions. Nous pouvons choisir de nouveaux modèles moraux, de nouvelles structures politiques ou de nouvelles normes pour la société.
À chaque étape de l’histoire de l’humanité, nous assistons à des moments où des individus ou des communautés ont choisi de changer de modèle. Mais pour y parvenir, il faut avoir confiance en nous-mêmes, les uns dans les autres, et dans le pouvoir de l’action humaine. Et aussi une sorte de revendication morale sur notre droit à avoir ce pouvoir.
Dans tous les pays où je vais parler de l’IA, j’entends une chose : les humains sont-ils vraiment si différents de l’IA ? Ne sommes-nous pas simplement des machines à texte prédictives, après tout ? Faisons-nous parfois autre chose que la correspondance de modèles et la création de modèles ?
Cette stratégie rhétorique me fait vraiment peur. Ce ne sont pas les machines elles-mêmes. C’est la rhétorique de l’IA d’aujourd’hui qui consiste à amener les humains à abandonner leur pouvoir et leur croyance en leur libre arbitre et leur liberté. Il s’agit d’une menace existentielle, car c’est ce qui permettra aux humains de réaliser que nous pouvons simplement lâcher le volant et laisser l’IA prendre le relais.
Et la rhétorique de certains cercles est non seulement que nous pouvons, mais aussi que nous pouvons Nécessaire Laissez l’IA réfléchir et prendre de grandes décisions, car l’IA est soi-disant plus rationnel, plus objectif,
Absolument – et d’une manière ou d’une autre, vous ne parvenez pas à être efficace, vous ne parvenez pas à soutenir le progrès, vous ne parvenez pas à permettre l’innovation si vous ne vous y mettez pas.
Lorsque vous écrivez sur cette perte de confiance dans l’action humaine, vous vous tournez vers les existentialistes, qui soutiennent qu’il n’y a pas de sens intrinsèque à la vie – c’est quelque chose que les humains doivent choisir comment créer. Vous vous inspirez spécifiquement de José Ortega y Gasset, philosophe espagnol du début du XXe siècle, et de sa notion de «auto-créationPourquoi est-ce une considération importante pour vous dans le contexte de l’IA ?
Ortega a réfléchi au problème fondamental du sens humain, à savoir que nous devons le créer nous-mêmes. Et c’est ce qu’il entendait par autofabrication, qui signifie littéralement « auto-fabrication ». Il a dit que c’était la condition humaine fondamentale : se créer encore et encore. Le travail ne s’arrête jamais, car nos outils cognitifs ont la capacité de nous emmener dans le domaine de la conscience de soi, afin que nous puissions voir ce que nous faisons et décider de le changer.
Cette liberté est aussi, d’un point de vue existentiel, une sorte de fardeau, n’est-ce pas ? L’autofabrication est quelque chose qui demande pas mal de courage et de force, car le plus simple à faire est de demander à quelqu’un d’autre de vous dire que le script est définitif et que vous ne pouvez pas le modifier, vous pouvez donc simplement le suivre, et ensuite vous pourrez je ne fais pas ça. Ne vous chargez pas de décider de ce que sera l’avenir pour vous ou pour quelqu’un d’autre.
Ainsi, la rhétorique autour de l’IA nous dit que nous devrions renoncer à nos libertés humaines, et pour moi, cela constitue une violation si profonde de ce qu’il y a de bon dans le fait d’être humain. L’idée selon laquelle nous devrions y renoncer reviendrait à renoncer à la possibilité d’un développement artistique, d’un développement politique, d’un développement moral – et je ne pense pas que nous devrions faire cela.
Une façon de montrer cette rhétorique est dans le domaine de « l’éthique des machines » – l’effort pour construire Des machines éthiques qui peuvent nous servir de conseillers moraux, Les transhumanistes sont particulièrement enthousiasmés par ce projet. Le philosophe Eric Dietrich également logique Nous devrions créer des « robots meilleurs que notre nature » – des machines capables de nous surpasser moralement – puis remettre le monde à « l’Homo Sapiens 2.0 ». Qu’avez-vous lu à ce sujet ?
J’ai été sceptique quant au projet de machine morale, car il finit généralement par essayer de rassembler des décisions morales (et de former l’IA sur ces intuitions humaines) – mais le fait est que la foule gagne toujours. correct! Le crowdsourcing de décisions éthiques est donc une chose très dangereuse. Si vous deviez utiliser une machine morale participative qui collectait des jugements moraux dans l’Allemagne nazie, puis tentiez d’automatiser les jugements ailleurs avec elle, vous contribueriez à l’expansion d’une entreprise moralement criminelle.
Le crowdsourcing semble être une approche problématique, mais si nous ne nous conformons pas à ce que pense le grand public, que faisons-nous à la place ? Proposons-nous de suivre certains rois philosophes, ce qui pourrait susciter des craintes quant au caractère antidémocratique de cette démarche ?
Je crois qu’il y a toujours eu une meilleure solution, à savoir faire en sorte que la moralité reste un domaine controversé. Il devrait être ouvert à la contestation. Comprendre ce que signifie bien vivre avec les autres et ce que nous nous devons les uns aux autres – cette conversation ne pourra jamais s’arrêter. Je suis donc très réticent à poursuivre le développement de machines conçues pour trouver une réponse optimale et à m’arrêter là.
C’est vrai – travailler dans les limites de ce que les gens disent aujourd’hui des normes morales semble très différent de ce que vous appelez « se tenir à la place de la raison morale ». Expliquez ce que vous entendez par là.
,localisation des causes» était un concept développé par le philosophe Wilfrid Sellars. C’est le domaine dans lequel nous pouvons découvrir les raisons de chacun de croire quelque chose, où nous pouvons nous justifier mutuellement et chercher une justification. Plus tard, d’autres philosophes ont adopté son idée sur la place logique des raisons afin de pouvoir réfléchir à la place morale des raisons, comme nous le faisons également en éthique : lorsque nous faisons des affirmations morales les uns sur les autres, surtout si elles sont nouvelles et peu familières, nous il faut les justifier. Nos raisons doivent être accessibles les unes aux autres, afin que nous puissions trouver ce que nous reconnaissons et acceptons ensemble.
Je pense que si nous avions une machine vraiment morale, elle serait capable de se tenir dans cette position à nos côtés. Il sera capable d’articuler nos raisons et d’apprécier nos raisons, et dialoguera avec nous sur ces raisons d’une manière qui ne reflétera pas simplement le consensus auquel nous sommes déjà parvenus. Parce que toute machine qui reflète des modèles moraux familiers sera en difficulté si nous nous retrouvons dans une situation où l’environnement a changé ou est nouveau d’une manière ou d’une autre.
Cela me rappelle une qualité particulière sur laquelle vous écrivez souvent : La sagesse pratique, ou phronèsePour utiliser le mot grec ancien. De quoi s’agit-il et pourquoi est-ce si important ?
Aristote a écrit Nous construisons des qualités comme l’honnêteté par la pratique et l’habitude. Il est très facile de mentir et d’obtenir ce que vous voulez, mais une fois que vous avez pris l’habitude de dire la vérité, vous pouvez vraiment construire un personnage où il est facile d’être honnête, et dans de rares cas, vous devrez peut-être même lutter. Vous devez mentir.
Mais il y a aussi des moments où s’appuyer sur les habitudes que vous avez prises peut en réalité causer du tort, car il y a quelque chose de nouveau dans la situation et votre ancienne habitude peut ne pas être bien adaptée à la situation actuelle. La sagesse est la qualité intellectuelle qui vous permet de reconnaître cela et de transformer votre réaction conditionnée en quelque chose de meilleur. Par exemple, dans le mouvement des droits civiques, les gens pouvaient dire : En général, obéir à la loi est la chose morale à faire, mais à l’heure actuelle, nous réalisons que ce n’est pas le cas et qu’en fait, la désobéissance civile dans ce contexte est moralement requise. .
La connaissance pratique se construit par la pratique, tout comme toutes les autres vertus, donc si vous n’avez pas la possibilité de raisonner et n’avez pas l’habitude de délibérer sur certaines choses, vous ne pourrez pas bien délibérer plus tard. . Nous avons besoin de beaucoup de pratique cognitive pour développer et conserver des connaissances pratiques. Et il y a lieu de s’inquiéter du fait que l’automatisation cognitive nous prive de la possibilité de développer et d’entretenir ces muscles cognitifs. c’est le risque déclin intellectuel et moralCela se produit déjà et je pense que nous devons nous y opposer.
Lorsque j’essaie de donner une leçon charitable sur la tendance transhumaniste à laquelle nous assistons, je trouve que le sentiment sous-jacent est une honte pour la condition humaineEt après deux guerres mondiales, l’usage des armes nucléaires, la crise climatique, etc., il est compréhensible que l’humanité ressente cet embarras. Je peux donc comprendre psychologiquement comment il pourrait y avoir une motivation pour fuir l’humanité et se diriger vers des machines que nous pensons plus utiles, même si je ne suis pas d’accord avec cela. Et je pense que là où j’ai du mal, c’est comment savoir dans quelle mesure il est logique de se transformer en utilisant la technologie, sans plonger dans un humanisme profond ?
Il y a une sorte de vide dans le transhumanisme qui ne sait pas ce dont nous avons besoin, il veut juste le pouvoir de créer quelque chose de plus – de créer la liberté de notre corps, de la mort, de nos limites. Mais c’est toujours la liberté, mais jamais la liberté pour. La liberté pour quoi faire ? Quelle est l’attitude positive vers laquelle nous souhaitons évoluer ?
Je suis profondément optimiste quant à la condition humaine. Je crois que la moralité n’est pas seulement motivée par la peur – elle est encore plus motivée par l’expérience de l’amour, de l’attention mutuelle et de la solidarité. Notre première expérience de bonté est d’être pris en charge par un autre, qu’il s’agisse d’une mère, d’un père ou d’une infirmière. Pour moi, tout le reste est d’essayer de le poursuivre sous des formes nouvelles et plus élaborées. donc il y a une liberté pour moi PourEt cela est inhérent au fait d’être un animal humain.
Pourrait-il y avoir d’autres êtres meilleurs que nous ? Je pense vraiment que c’est une question qui n’a aucun sens. Mieux que quoi ? Ils sont peut-être meilleurs dans ce qu’ils sont, mais je pense que la moralité réside dans une forme particulière de votre existence. Nous existons en tant qu’être social particulier, vulnérable et interdépendant, doté de beaucoup d’énergie cognitive. Toutes ces choses dépendent de ce que signifie être moral en tant qu’être humain. Pour moi, cette abstraction – l’idée d’une certaine moralité universelle pure selon laquelle des êtres complètement différents de nous peuvent d’une manière ou d’une autre faire mieux que nous – je pense qu’elle comprend fondamentalement mal ce qu’est la moralité.