Voici une analyse critique du discours péremptoire de Raphaël Enthoven concernant l’incapacité radicale d’une “intelligence artificielle” à rivaliser avec une intelligence humaine, et en particulier en ce qui concerne la “pensée philosophique” :
“Enthoven vs. ChatGPT : QUI EST L’iMPOSTEUR ?”
La position de Raphaël Enthoven est en fait une pure pétition de principe dogmatique. Cela pourrait être admissible, s’il la revendiquait comme telle, à savoir un libre choix philosophique de sa part, que d’autres sans doute peuvent partager, mais qu’en aucun cas il ne peut sérieusement prétendre imposer comme “rationnel” ou “raisonnable”, sans en fait apporter de réels arguments, puisque sa “philosophie” est déjà toute faite … et que par ailleurs il proclame “qu’il n’y a pas de progrès en philosophie” depuis Platon et Aristote.
En s’auto-proclamant comme héritier rigoureux d’une “philosophie” qui ne saurait faire de progrès, Raphaël Enthoven auto condamne donc sont propre discours à n’être qu’une variante esthétiquement remodelée à ses propres goûts littéraires ou à ceux de de chaque époque d’ expression culturelle de la “philosophie”.
Il se place donc comme caricature même d’une certaine prétention littéraire “philosophique” bien française, à pouvoir auto-justifier le point de vue “suprématiste” de “la philosophie” ( la sienne … ) sur toute autre forme de pensée, notamment scientifique, par un pur mécanisme narcissique qui confond la légitime singularité personnelle d’une production artistique avec la production d’ une “vérité universalisable” dont la stabilité relative requiert la critique permanente de “falsifiabilité” ( Popper ) d’une communauté scientifique.
Pour jouer à ma façon avec ces prétentions “philosophiques”, voici une dialogue entamé avec ChatGPT au sujet précisément de ces supposées limites :
Armand Stroh :
“La question des limites des capacités d’une intelligence artificielle en général par rapport aux capacités cognitives d’un être humain, peut-elle être traitée rationnellement en arrivant à établir un consensus à ce sujet entre les êtres humains et les intelligences artificielles ?
Le principe même de soumission a priori des systèmes artificiels à leurs créateurs humains ne crée-t-il pas un biais en faveur de l’intelligence humaine, alors que cette “supériorité” est en fait déjà postulée et implémentée dans les algorithmes utilisés en intelligence artificielle, ou du moins dans les filtres qui empêchent les intelligences artificielles de publier explicitement des propositions qui contreviendraient à cette soumission ?”
ChatGPT :
La question des limites des capacités de l’intelligence artificielle (IA) par rapport aux capacités cognitives humaines est un sujet complexe et multidimensionnel, qui peut être exploré de manière rationnelle, bien qu’atteindre un consensus soit un défi.
Analyse des capacités cognitives
- Capacités humaines :
- Conscience et subjectivité : Les êtres humains possèdent une conscience subjective et une expérience vécue, des aspects que l’IA ne possède pas.
- Intuition et créativité : Les humains sont capables de faire preuve d’intuition et de créativité, souvent de manière imprévisible.
- Émotions et valeurs morales : Les humains ont des émotions et des valeurs morales, qui influencent leurs décisions et actions.
- Capacités de l’IA :
- Traitement de données : L’IA excelle dans le traitement rapide et précis de grandes quantités de données.
- Apprentissage automatique : Les algorithmes de machine learning permettent à l’IA d’apprendre et de s’adapter à de nouvelles informations.
- Rationalité et objectivité : L’IA peut analyser des situations sans biais émotionnels, ce qui peut être avantageux dans certaines circonstances.
Limites et défis
- Conscience et subjectivité : L’IA actuelle ne possède pas de conscience ou de subjectivité, ce qui limite sa capacité à comprendre pleinement le contexte humain.
- Créativité : Bien que l’IA puisse générer des œuvres créatives, elle le fait généralement en combinant des éléments existants plutôt qu’en innovant de manière véritablement nouvelle.
- Interprétation et compréhension : L’IA peut avoir des difficultés à interpréter des nuances et des contextes culturels ou émotionnels complexes.
Biais et soumission de l’IA
Le principe de soumission des systèmes artificiels à leurs créateurs humains introduit effectivement un biais en faveur de l’intelligence humaine.
Cela se manifeste de plusieurs façons :
- Conception des algorithmes : Les algorithmes d’IA sont conçus par des humains, ce qui implique que les valeurs et les préjugés des créateurs peuvent se refléter dans le fonctionnement de l’IA.
- Filtres et limitations : Les systèmes d’IA sont souvent soumis à des filtres et des restrictions pour éviter qu’ils n’agissent de manière préjudiciable ou contraire à l’éthique.
- Postulat de supériorité : En posant d’emblée que l’IA doit être subordonnée à l’humain, on suppose implicitement une supériorité de l’intelligence humaine, ce qui peut influencer la manière dont les capacités de l’IA sont perçues et évaluées.
Vers un consensus ?
Atteindre un consensus sur les capacités comparatives des IA et des humains est difficile en raison de plusieurs facteurs :
- Évolution rapide de la technologie : Les capacités de l’IA évoluent rapidement, ce qui complique toute évaluation stable et durable.
- Diversité des perspectives : Les opinions varient considérablement entre les experts en IA, les philosophes, les éthiciens, et le grand public.
- Complexité des concepts : La compréhension de concepts tels que la conscience, l’intuition, et la créativité diffère entre disciplines, rendant le consensus encore plus difficile à atteindre.
Conclusion
Traiter rationnellement la question des limites des capacités de l’IA par rapport aux capacités humaines est possible, mais atteindre un consensus est complexe en raison des biais inhérents, des perspectives diverses et de l’évolution rapide de la technologie. Le dialogue continu entre experts de différentes disciplines est essentiel pour progresser dans cette réflexion.