Source photo : THOMAS KLIKAUER

On pourrait voir la moralité interhumaine comme la « moralité 1.0 », et la moralité IA vers humain comme la « moralité 2.0 ». La moralité de l’IA est fondamentalement différente de la moralité interhumaine. Notre moralité centrée sur l’humain a commencé lorsque les premières tribus humaines ont créé des communautés fonctionnelles qui exigeaient des codes de conduite façonnant les relations interhumaines il y a des centaines de milliers d’années.

Avancez rapidement jusqu’à aujourd’hui et compte tenu de tout ce que nous savons sur l’étape actuelle de l’intelligence artificielle (IA), il est extrêmement peu probable que nous nous retrouvions dans la situation de “2001 Space Odyssey”.

Dans le film de Kubrick, un ordinateur appelé “HAL” répond à la commande humaine de, “ouvrez les portes de la baie des pods”, avec “J’ai bien peur de ne pas pouvoir faire ça, Dave”. Dans le vrai style hollywoodien – et très fictif –, le rejet par l’ordinateur de la commande humaine signifiait la domination des ordinateurs sur les humains. Pourtant, Stanley Kubrick met en lumière un dilemme homme-machine typique.

Comme l’a récemment discuté Elon Musk, un concept d’IA futuriste à l’origine par Ray Kurzweil – a suggéré qu’une machine appelée super intelligence émergera. C’est ce qu’on appelle ASI ou super intelligence artificielle. et également connu sous le nom de HLMI ou Human Level Machine Intelligence – défini grosso modo comme une intelligence artificielle qui surpasse les humains dans toutes les tâches intellectuelles.

Dans cette concoction, ASI est sur le point de prendre le contrôle de l’humanité – pour laquelle ASI nous dominera plutôt que l’inverse. Alternativement, ASI pourrait voir les humains comme nous voyons les insectes – et nous savons tous ce que les humains font aux insectes lorsqu’ils dépassent leurs limites !

Malgré l’idée de Kurzweil et la peur récemment très médiatisée, cela ne devrait pas se produire dans un avenir proche. Cependant, l’un des soi-disant parrains de l’IA – Geoffrey Hinton – a récemment noté, en ce moment, ils ne sont pas plus intelligents que nous, pour autant que je sache. Mais je pense qu’ils pourraient bientôt être.

Faisant partie des scénarios apocalyptiques, l’IA est appelée à devenir une singularité technologique. Cela marque le moment de l’histoire où les progrès exponentiels de l’IA apportent un changement radical. Les gens de l’IA appellent cela l’explosion de l’intelligence. Cette transformation sera si rapide et si grave que nous ne pourrons plus la comprendre.

Pire encore, il est appelé à devenir autonome, ce qui signifie que l’IA existera indépendamment des êtres humains. En bref, une machine ultra-intelligente concevra des machines toujours meilleures dans un processus autonome – sans avoir besoin de nous. C’est un peu comme un train à grande vitesse qui commencera un jour à construire ses propres voies.

Le susmentionné Ray Kurzweil reste l’un des principaux partisans de la singularité. Il a prévu que les améliorations de l’IA, des ordinateurs, de la génétique, de la nanotechnologie et de la robotique atteindront un point final : la singularité.

À ce stade, l’intelligence artificielle sera plus puissante que toutes les intelligences humaines réunies. Et, selon la prédiction, l’intelligence humaine et machine fusionnera dans le trans-humanisme promettant la vie éternelle. La formule est :

½ machine + ½ humain = vie éternelle

Sur le chemin de tout cela, l’étape la plus immédiate est le passage de la singularité de l’IA de Kurzweil à l’IAG ou à l’intelligence artificielle générale. C’est à ce moment que nos IA actuellement très spécifiques mutent en IA à usage général.

En tant qu’IA “générale”, AGI n’effectue plus une seule tâche comme simplement guider votre voiture, etc., mais AGI peut faire de nombreuses choses générales différentes. Ceci, donc l’espoir ou la crainte est que l’intelligence d’AGI correspond – et peut-être même dépasse – l’intelligence des humains.

C’est, selon certains experts en intelligence artificielle, notre avenir. Ce qui est plus réel et plus actuel, c’est que l’IA n’est rien de plus qu’une machine d’apprentissage basée sur des statistiques dotée d’un algorithme puissant. Les experts en IA pensent qu’une fois que l’IA peut apprendre de l’expérience – comme nous le pouvons et le faisons – ce que l’on appelle l’apprentissage en profondeur a lieu.

Ce que l’on appelle actuellement l’IA n’est rien d’autre qu’un algorithme statistique qui fonctionne lui-même à travers une quantité massive de données, les analyse statistiquement, puis émet le cours le plus probable. L’IA d’aujourd’hui est simplement une théorie des probabilités turbocompressée. C’est Bayes sous stéroïdes. Ceci est vendu comme “l’intelligence” ou l’IA.

Cela pourrait bien changer à l’avenir. Peut-être que ce moment futur viendra où certains

Qu’un tel scénario futuriste se réalise ou non, une grande partie de cela a encore des implications morales.

Après avoir esquissé tout cela, la philosophie morale soutient que les êtres humains et leur esprit sont fondamentalement différents des machines. Comme le dit l’expert en intelligence artificielle Hinton, le type d’intelligence que nous développons est très différent de l’intelligence que nous avons… nous sommes des systèmes biologiques et ce sont des systèmes numériques.

Contrairement aux machines, les êtres humains se concentrent sur la conscience et – peut-être plus important encore – nous sommes conscients de nous-mêmes. Plus important encore est le fait que la vie consciente ne doit pas être réduite à une description formelle de la vie. Au lieu de cela, il est lié à la moralité et à ce que la philosophie morale appelle, ce que signifie être humain.

La philosophie morale a tendance à s’opposer à l’idée que les programmes informatiques – qu’ils soient IA ou non – deviendront un jour conscients. Et, que les ordinateurs, les logiciels et même l’IA aient ou non un véritable état cognitif d’existence. Ces machines ne comprendront jamais le « sens ». Jusqu’à présent, les philosophes moraux ont raison. Jusqu’à aujourd’hui, les programmes informatiques peuvent produire une sortie basée sur l’entrée – et pas beaucoup plus.

Même les programmes d’IA ont un ensemble de règles spécifiques – appelé algorithme – et ces règles sont données aux programmes informatiques. Du point de vue de la philosophie morale, les ordinateurs, les programmes simples et même l’IA ne « comprennent » rien.

Pour la philosophie morale, il reste impératif de réaliser que même les programmes informatiques d’IA manquent de facultés humaines clés telles que, par exemple, l’intentionnalité – un concept si vital pour la philosophie morale kantienne.

La philosophie morale soutient également qu’il existe des différences cruciales entre la façon dont les humains et les ordinateurs pensent. Contrairement à l’IA, les êtres humains sont des êtres créateurs de sens, et ce sont des êtres vivants conscients et incarnés dont la nature, l’esprit et les connaissances ne peuvent être expliqués par des comparaisons avec des machines.

Pourtant, en termes philosophiques, l’IA nous apprend encore quelque chose sur la façon dont les humains pensent. Cela nous apprend également quelque chose sur un type particulier de pensée humaine et c’est une pensée qui ne peut pas être formalisée avec les mathématiques – une « pensée » purement basée sur le contrôle algorithmique et la manipulation.

Indépendamment du débat philosophique homme-machine, l’existence même de l’IA a déjà entraîné des conséquences morales – et immorales. L’une des questions intéressantes sur l’IA est celle de savoir si l’IA a ce que la philosophie appelle agence éthique lui-même.

Ces questions philosophiques ne relèvent plus de la science-fiction. Aujourd’hui, les êtres humains ont déjà confié certaines de nos décisions aux algorithmes d’IA. Dans les voitures, ils nous indiquent le chemin. Dans les salles d’audience et les postes de police, ils prennent des décisions qui « peuvent » être moralement problématiques.

En bref, les algorithmes d’IA ont reçu une sorte d’agence dans le sens où ils font des choses dans le monde réel. Ces actions ont des conséquences morales. Ceci est très pertinent, par exemple, pour la philosophie morale du conséquentialisme qui soutient que si le résultat ou la conséquence d’une action est bonne, elle est morale. Cela signifie que l’IA peut être moralement bonne.

La moralité de l’IA peut également être considérée comme une version de la moralité fonctionnelle. Cela signifie que l’IA aurait besoin de la capacité d’évaluer les conséquences morales de ses propres actions, ce qui fait actuellement défaut.

Une fois que cela peut être réalisé – si jamais cela peut être réalisé – cela pourrait également signifier que l’IA pourrait être en mesure de créer une forme supérieure de moralité. Et cela pourrait se produire avec AGI – mais certainement ASI, qui sera plus intelligent que nous et donc plus moral. C’est l’espoir, du moins.

Dans tous les cas, une telle forme future de moralité de l’IA dépendrait également de ce que les philosophes moraux appellent, un niveau suffisant de interactivitéautonomie et adaptabilitéet d’être capable moralement action admissible. Rien de tout cela ne peut être dit sur l’IA aujourd’hui. Peut-être que la moralité de l’IA prend vie lorsque l’IA remplit trois conditions de base :

1) L’IA est véritablement autonome lorsqu’elle peut agir indépendamment de son programmeur humain ;

2) lorsque l’IA peut expliquer son propre comportement en attribuant des intentions morales à ses actions. c’est-à-dire des idées morales comme l’intention de faire du bien ou de nuire ; et enfin,

3) lorsque l’IA commence à se comporter d’une manière qui montre une compréhension de ses propres responsabilités morales envers d’autres agents moraux comme les êtres humains.

Cela pourrait très bien signifier que ce que la philosophie morale considère comme une agence morale n’est plus lié à notre concept d’humanité – l’idée philosophique de la personnalité.

Actuellement, la philosophie morale a toujours raison de dire que nous ne devons rien aux machines. Nous pouvons toujours voir l’IA et les robots comme des outils, comme des biens. Jusqu’à aujourd’hui, nous n’avons aucune obligation morale envers eux.

Pour les êtres humains, ce sont, en grande partie, les intuitions morales et les expériences morales qui nous disent qu’il pourrait y avoir quelque chose de mal à, par exemple, maltraiter quelqu’un. Et cela pourrait même être vrai pour l’IA même lorsque l’IA n’a pas de propriétés humaines ou animales telles que la conscience et la sensibilité. Par exemple, tirer sur un chien enfreint notre devoir moral envers le chien.

Mais – et c’est un argument philosophique moral clé – une personne qui tire avec un chien endommage ses qualités humaines. C’est ce que nous devons exercer en vertu de notre devoir moral envers les animaux et l’humanité.

En d’autres termes, lorsque nous nous nuisons, nous devenons moins humains. On devient moins humain en tirant ou même en maltraitant un chien – comme le soutient le philosophe moral Kant. Et nous pourrions même devenir moins humains en maltraitant ou en tuant l’IA – dans un futur lointain.

De plus, si nous traitons notre chien avec gentillesse, selon la philosophie morale, ce n’est peut-être pas parce que nous nous engageons dans un raisonnement moral à propos de notre chien. Au lieu de cela, c’est parce que nous avons déjà une sorte de relation sociale avec notre chien.

Le chien est déjà un animal de compagnie et un compagnon avant que nous ne fassions le travail philosophique d’attribution d’un statut moral. À un moment donné, l’IA peut être capable de fonctionner de la même manière, comme le montre assez perspicacement l’exemple de la maîtresse de l’IA.

Au final, réfléchir à la moralité de l’IA ne nous apprend pas seulement quelque chose sur l’IA. Cela nous apprend aussi quelque chose sur nous-mêmes. Et enfin, cela nous apprend également comment nous pensons et comment nous faisons, devrions et devons nous rapporter à l’environnement non humain, y compris les animaux, les plantes et même l’intelligence artificielle.

Source: https://www.counterpunch.org/2023/05/12/ai-morality-2-0/

Cette publication vous a-t-elle été utile ?

Cliquez sur une étoile pour la noter !

Note moyenne 0 / 5. Décompte des voix : 0

Aucun vote pour l'instant ! Soyez le premier à noter ce post.



Leave a Reply

Your email address will not be published. Required fields are marked *