Les oukases “philosophiques” sur les limites intrinsèques de l’ I.A.

Voici une analyse critique du discours péremptoire de Raphaël Enthoven concernant l’incapacité radicale d’une “intelligence artificielle” à rivaliser avec une intelligence humaine, et en particulier en ce qui concerne la “pensée philosophique” :

“Enthoven vs. ChatGPT : QUI EST L’iMPOSTEUR ?”


La position de Raphaël Enthoven est en fait une pure pétition de principe dogmatique. Cela pourrait être admissible, s’il la revendiquait comme telle, à savoir un libre choix philosophique de sa part, que d’autres sans doute peuvent partager, mais qu’en aucun cas il ne peut sérieusement prétendre imposer comme “rationnel” ou “raisonnable”, sans en fait apporter de réels arguments, puisque sa “philosophie” est déjà toute faite … et que par ailleurs il proclame “qu’il n’y a pas de progrès en philosophie” depuis Platon et Aristote.

En s’auto-proclamant comme héritier rigoureux d’une “philosophie” qui ne saurait faire de progrès, Raphaël Enthoven auto condamne donc sont propre discours à n’être qu’une variante esthétiquement remodelée à ses propres goûts littéraires ou à ceux de de chaque époque d’ expression culturelle de la “philosophie”.

Il se place donc comme caricature même d’une certaine prétention littéraire “philosophique” bien française, à pouvoir auto-justifier le point de vue “suprématiste” de “la philosophie” ( la sienne … ) sur toute autre forme de pensée, notamment scientifique, par un pur mécanisme narcissique qui confond la légitime singularité personnelle d’une production artistique avec la production d’ une “vérité universalisable” dont la stabilité relative requiert la critique permanente de “falsifiabilité” ( Popper ) d’une communauté scientifique.

  1. Capacités humaines :
  • Conscience et subjectivité : Les êtres humains possèdent une conscience subjective et une expérience vécue, des aspects que l’IA ne possède pas.
  • Intuition et créativité : Les humains sont capables de faire preuve d’intuition et de créativité, souvent de manière imprévisible.
  • Émotions et valeurs morales : Les humains ont des émotions et des valeurs morales, qui influencent leurs décisions et actions.
  1. Capacités de l’IA :
  • Traitement de données : L’IA excelle dans le traitement rapide et précis de grandes quantités de données.
  • Apprentissage automatique : Les algorithmes de machine learning permettent à l’IA d’apprendre et de s’adapter à de nouvelles informations.
  • Rationalité et objectivité : L’IA peut analyser des situations sans biais émotionnels, ce qui peut être avantageux dans certaines circonstances.
  • Conscience et subjectivité : L’IA actuelle ne possède pas de conscience ou de subjectivité, ce qui limite sa capacité à comprendre pleinement le contexte humain.
  • Créativité : Bien que l’IA puisse générer des œuvres créatives, elle le fait généralement en combinant des éléments existants plutôt qu’en innovant de manière véritablement nouvelle.
  • Interprétation et compréhension : L’IA peut avoir des difficultés à interpréter des nuances et des contextes culturels ou émotionnels complexes.
  1. Conception des algorithmes : Les algorithmes d’IA sont conçus par des humains, ce qui implique que les valeurs et les préjugés des créateurs peuvent se refléter dans le fonctionnement de l’IA.
  2. Filtres et limitations : Les systèmes d’IA sont souvent soumis à des filtres et des restrictions pour éviter qu’ils n’agissent de manière préjudiciable ou contraire à l’éthique.
  3. Postulat de supériorité : En posant d’emblée que l’IA doit être subordonnée à l’humain, on suppose implicitement une supériorité de l’intelligence humaine, ce qui peut influencer la manière dont les capacités de l’IA sont perçues et évaluées.
  • Évolution rapide de la technologie : Les capacités de l’IA évoluent rapidement, ce qui complique toute évaluation stable et durable.
  • Diversité des perspectives : Les opinions varient considérablement entre les experts en IA, les philosophes, les éthiciens, et le grand public.
  • Complexité des concepts : La compréhension de concepts tels que la conscience, l’intuition, et la créativité diffère entre disciplines, rendant le consensus encore plus difficile à atteindre.








Quelle “éthique” pour quelle “intelligence artificielle” ?

Un lien pour commencer :

“Vers une IA éthique et responsable pour les droits de l’homme, l’État de droit et la démocratie”

Évidemment, on peut espérer quel’ IA est elle-même un instrument fondamental pour explorer cette question …


Ainsi j’ai posé cette question le 25 mai 2024 à ChatGPT4-o :

Comment l’ IA peut-elle contribuer à développer une IA éthique et responsable pour les Droits humains, l’ État de droit et la démocratie ?

  • Surveillance et Détection des Violations des Droits Humains : Les systèmes d’IA peuvent être utilisés pour surveiller et analyser de vastes quantités de données provenant de sources diverses (médias sociaux, rapports, vidéos) afin de détecter et signaler les violations des droits humains.
  • Aide aux Victimes : Les chatbots et autres systèmes automatisés peuvent fournir des informations et un soutien aux victimes de violations des droits humains, facilitant ainsi l’accès à l’aide juridique et aux services sociaux.
  • Transparence et Responsabilité : Les systèmes d’IA peuvent aider à surveiller les activités gouvernementales et à détecter les pratiques corruptives, en promouvant la transparence et la responsabilité.
  • Automatisation des Procédures Juridiques : L’IA peut être utilisée pour automatiser les processus judiciaires, rendant le système judiciaire plus accessible et efficace. Par exemple, des outils d’IA peuvent aider à la rédaction automatique de documents juridiques, à la recherche jurisprudentielle, et à la prédiction des résultats des affaires judiciaires.
  • Lutte contre la Désinformation : Les algorithmes d’IA peuvent être conçus pour identifier et contrer la désinformation en ligne, en vérifiant les faits et en signalant les contenus trompeurs.
  • Participation Citoyenne : Les plateformes alimentées par l’IA peuvent faciliter la participation citoyenne en permettant aux individus de s’engager plus facilement dans les processus démocratiques, comme les consultations publiques et les pétitions en ligne.
  • Analyse des Sentiments et Préférences : L’IA peut analyser les sentiments et les préférences des citoyens à partir des données des réseaux sociaux et autres sources, permettant ainsi aux décideurs de mieux comprendre les préoccupations et les besoins de la population.
  • Développement de Standards Éthiques : Il est essentiel de développer des standards éthiques pour l’utilisation de l’IA, incluant des principes tels que l’équité, la transparence, et la non-discrimination. Des comités d’éthique et des organismes de régulation peuvent être mis en place pour superviser et garantir le respect de ces standards.
  • Éducation et Sensibilisation : La sensibilisation et l’éducation sur les enjeux éthiques de l’IA doivent être promues à tous les niveaux de la société, de sorte que les utilisateurs et les développeurs soient conscients des implications de leurs actions et décisions.
  • Partage des Bonnes Pratiques : La collaboration internationale est cruciale pour partager les bonnes pratiques et les connaissances en matière de développement et d’application éthique de l’IA.
  • Accords et Traités Internationaux : Des accords et traités internationaux peuvent être établis pour réguler l’utilisation de l’IA, en particulier en ce qui concerne les technologies pouvant affecter les droits humains et la démocratie.

Une critique de “Technopolitique” d’ Asma Mhalla

Dans un article critique publié sur AOC, Dominique Bouillé procède à un démontage de la stratégie de communication d’Asma Mhalla dans son dernier ouvrage “Technopolitique” .

Dans Technopolitique, Asma Mhalla use et abuse de l’hyperbole, procédé rhétorique très puissant pour fasciner voire sidérer le lecteur, et surtout les médias, épatés par cet essai tellement « fracassant » qu’il abandonne le registre scientifique pour celui de la prophétie, de la vision inspirée ou de l’oracle menaçant.

Ces deux auteurs sont sans doute aussi, chacun dans sa situation, des maillons acteurs du réseau “technopolitique” dont ils parlent.

Cette rétroaction des “communicants” supposés experts de ces questions, sur la définition des objets qu’ils sont supposer analyser … fait précisément partie de la “complexité” des réseaux dont ils parlent.

Comment leurs intérêts personnels et professionnels respectifs, se combinent-ils aux “fonctionnements complexes” des entités collectives … et dynamiques fluctuantes dont ils essayent de comprendre et surtout de faire partager les problématiques aux “citoyens ordinaires” ?



Lenia et vie artificielle

Dans l’esprit général des “automates cellulaires”, de nombreuses variantes peuvent être imaginées et expérimentalement explorées .

De nombreux sites proposent une introduction à ce type d’expérimentation.

Par exemple : pour “Lenia” :
https://chakazul.github.io/Lenia/JavaScript/Lenia.html

Une première approche explicative pour les novices :
Sur la chaîne Youtube “Science Étonnante”,
La vidéo “Lenia, une nouvelle forme de vie mathématique”
Ce type d’explication vulgarisée est sans doute suffisant pour qui veut simplement comprendre comment une organisation complexe peut “émerger” d’un fonctionnement d’interactions locales très simples, et qu’il n’y a nul besoin d’une intervention mystérieuse externe pour “piloter” un tel comportement auto-organisateur.
Il est capital de comprendre que dans tout ce genre d’auto-organisation, le “programmeur” humain ( ou lui-même déjà algorithmique ), n’a aucun besoin d’avoir une idée précise d’avance du genre de complexité qu’il veut obtenir :
il ne fait que définir un “germe formel” , à la fois au niveau des “données initiales”, souvent aléatoires, qu’au niveau des “lois d’interaction locales” qui sont en général mathématiquement ou logiquement très simples, et ne sont elles-mêmes complexifiées qu’en “retour d’expérience”, en ayant constaté que certains types de lois logico-mathématiques sont plus susceptibles de provoquer l’ouverture d’un espace d’auto-organisation particulièrement intéressant ou spectaculaire, ou ressemblant avec des auto-organisations “naturelles” similaires ( par exemple ressemblant à des phénomènes biologiques connus )