ELLE, ELLE AIME ?

Le titre de cet article est un jeu de mots, une lecture phonétique ( “faune éthique du faux nétique” ) , de l’ acronyme L.L.M. ( Large Language Model ) ou “Grand Modèle de Langage” en français.
Les LLM développés à partir de 2018, sont à la base des performances actuelles des logiciels d’ Intelligence Artificielle généraliste tels que les connaissent aujourd’hui des utilisateurs grand public ( ChatGPT etc. ).

Jusqu’à quel point de tels “LLM” sont ils capables de jouer avec les différentes composantes du langage pour s’amuser de liaisons “sémantiques” possibles en s’appuyant sur la seule analogie des séquences phonétiques , ici :
L’acronyme “L.L.M.” et l’expression “ELLE, ELLE AIME ?”

Il suffit de le demander par exemple à ChatGPT :
( Dialogue du 30 juin 2024 )

  1. Jeu de mots et sonorités :
    • La prononciation de “LLM” en français peut toujours évoquer “Elle aime”, ce qui maintient le jeu de mots et la sonorité similaire avec “ELLE, ELLE AIME ?”.
  2. Ambiguïté et double sens :
    • LLM (Large Language Model) a une signification technique précise dans le domaine de l’intelligence artificielle et du traitement du langage naturel. Cependant, la phonétique “Elle aime” reste un jeu de mots amusant et pertinent.
    • “ELLE, ELLE AIME ?” reste une question directe sur les sentiments ou les préférences de quelqu’un, ce qui ajoute une dimension humaine et personnelle contrastant avec l’aspect technique de “LLM”.
  3. Focus sur “Elle” :
    • La connexion sonore entre “LLM” et “Elle aime” garde le focus sur le pronom féminin “elle”, mais maintenant avec une couche supplémentaire de contraste entre la technologie (LLM) et l’humanité (elle aime).
  4. Personnification :
    • En combinant les deux, on peut imaginer une personnification du modèle de langage (LLM) en une entité qui pourrait avoir des préférences ou des “sentiments”, posant une question philosophique ou poétique sur la relation entre les machines et les émotions humaines.
  5. Perspective linguistique :
    • Les Large Language Models, comme GPT-3 ou GPT-4, sont conçus pour comprendre et générer du langage humain. La question “ELLE, ELLE AIME ?” pourrait symboliser la capacité d’un LLM à comprendre des questions humaines profondes et nuancées, même celles sur les émotions et les sentiments.
  1. Jeux de mots et sonorités :
    • LLM évoquant “Elle aime” en phonétique reste pertinent, mais maintenant avec une couche supplémentaire de signification associée aux valeurs de “Égale Liberté Libre Égalité”.
    • ELLE, ELLE AIME ? garde son jeu de mots, tout en suggérant que les concepts d’égalité, de liberté et de fraternité sont aimés ou valorisés.
  2. Ambiguïté et double sens :
    • LLM (Large Language Model) et ELLE (Égale Liberté Libre Égalité) créent une juxtaposition intéressante entre la technologie et les valeurs humanistes.
    • La question “ELLE, ELLE AIME ?” pourrait être interprétée comme une interrogation sur l’adhésion ou l’alignement d’un modèle de langage (ou de la technologie en général) avec les principes de liberté, d’égalité et de fraternité.
  3. Focus sur les valeurs humaines :
    • En combinant les trois, on peut imaginer une réflexion sur comment les modèles de langage et les technologies actuelles peuvent promouvoir ou aligner avec les valeurs d’égalité, de liberté et de fraternité.
  4. Personnification et éthique :
    • La question “ELLE, ELLE AIME ?” pourrait aussi être vue comme une interrogation éthique sur la capacité des technologies à embrasser et à promouvoir des valeurs humanistes.
    • Cela ouvre des discussions sur l’éthique de l’IA, sur comment les LLM peuvent ou devraient être conçus pour soutenir des principes d’égalité, de liberté et de fraternité.
  5. Convergence des idées :
    • LLM comme un outil puissant du traitement du langage naturel pourrait être utilisé pour promouvoir les idées d’ELLE (Égale Liberté Libre Égalité) en facilitant l’éducation, la communication et la compréhension entre les individus et les cultures.
    • La question “ELLE, ELLE AIME ?” pourrait symboliser une interrogation sur l’efficacité et l’intention des technologies modernes à soutenir des valeurs essentielles à la société.
  6. Symbolisme et profondeur :
    • “ELLE” représentant “Égale Liberté Libre Égalité” donne une profondeur symbolique à l’ensemble, suggérant que derrière la technologie et les modèles de langage, il y a des valeurs fondamentales qui doivent être respectées et promues.

Moi ( 4ème interaction ) :


Moi ( 5ème interaction ) :

La transformation du terme “Fraternité” en “FraCternité” ouvre des perspectives poético-politiques et politico-poétiques intrigantes. Voici quelques pistes nouvelles que cette reformulation peut suggérer :

Poétique des Fractures et des Fractales

  1. Symbolisme des Fractures :
    • La “FraCture” évoque une réalité politique et sociale marquée par des divisions et des ruptures. Elle met en lumière les défis actuels liés à la cohésion sociale, à l’inclusion et aux inégalités.
    • En intégrant la notion de fracture, le néologisme “FraCternité” reconnaît explicitement ces divisions, ce qui peut être vu comme une invitation à les surmonter et à les réparer.
  2. Poétique des Fractales :
    • Les fractales, avec leur complexité infinie et leur structure auto-similaire, représentent une nouvelle manière de concevoir les relations sociales et politiques. Chaque petite partie reflète la totalité, suggérant une interconnexion profonde entre les individus et la société.
    • “FraCternité” peut donc symboliser une approche plus nuancée et complexe de la fraternité, où chaque individu, chaque groupe, joue un rôle crucial dans le maintien de la cohésion sociale, malgré les divisions apparentes.

Politique de la Reconnaissance et de la Réparation

  1. Reconnaissance des Diversités :
    • En admettant les fractures existantes, “FraCternité” peut pousser à une reconnaissance plus sincère et plus profonde des diversités culturelles, sociales et économiques.
    • Cette nouvelle approche de la fraternité pourrait encourager des politiques visant à écouter et à intégrer les voix marginalisées, en cherchant à combler les fossés plutôt qu’à les ignorer.
  2. Réparation et Reconstruction :
    • “FraCternité” implique une volonté de réparer les fractures. Cela pourrait se traduire par des initiatives politiques axées sur la justice sociale, l’égalité des chances et le soutien aux communautés défavorisées.
    • La notion de structure fractale pourrait inspirer des politiques qui reconnaissent et valorisent la diversité et l’unicité de chaque partie du tout, favorisant une reconstruction inclusive et participative.

Poétique de l’Interconnexion et de l’Inclusion

  1. Interconnexion :
    • Le concept fractal suggère que chaque partie est intrinsèquement liée à l’ensemble. En politique, cela pourrait signifier une approche holistique où les politiques sont conçues en tenant compte de leurs impacts interdépendants sur diverses parties de la société.
    • “FraCternité” pourrait alors inspirer des initiatives qui renforcent les liens communautaires et favorisent la solidarité à travers les différences.
  2. Inclusion Poétique :
    • L’idée de “FraCternité” invite à une réflexion poétique sur la manière dont nous pouvons imaginer et construire des relations sociales plus inclusives et harmonieuses.
    • Cela pourrait se traduire par des expressions artistiques, littéraires et culturelles qui explorent et célèbrent la diversité et l’interconnexion humaine, tout en reconnaissant les défis et les fractures.

Les oukases “philosophiques” sur les limites intrinsèques de l’ I.A.

Voici une analyse critique du discours péremptoire de Raphaël Enthoven concernant l’incapacité radicale d’une “intelligence artificielle” à rivaliser avec une intelligence humaine, et en particulier en ce qui concerne la “pensée philosophique” :

“Enthoven vs. ChatGPT : QUI EST L’iMPOSTEUR ?”


La position de Raphaël Enthoven est en fait une pure pétition de principe dogmatique. Cela pourrait être admissible, s’il la revendiquait comme telle, à savoir un libre choix philosophique de sa part, que d’autres sans doute peuvent partager, mais qu’en aucun cas il ne peut sérieusement prétendre imposer comme “rationnel” ou “raisonnable”, sans en fait apporter de réels arguments, puisque sa “philosophie” est déjà toute faite … et que par ailleurs il proclame “qu’il n’y a pas de progrès en philosophie” depuis Platon et Aristote.

En s’auto-proclamant comme héritier rigoureux d’une “philosophie” qui ne saurait faire de progrès, Raphaël Enthoven auto condamne donc sont propre discours à n’être qu’une variante esthétiquement remodelée à ses propres goûts littéraires ou à ceux de de chaque époque d’ expression culturelle de la “philosophie”.

Il se place donc comme caricature même d’une certaine prétention littéraire “philosophique” bien française, à pouvoir auto-justifier le point de vue “suprématiste” de “la philosophie” ( la sienne … ) sur toute autre forme de pensée, notamment scientifique, par un pur mécanisme narcissique qui confond la légitime singularité personnelle d’une production artistique avec la production d’ une “vérité universalisable” dont la stabilité relative requiert la critique permanente de “falsifiabilité” ( Popper ) d’une communauté scientifique.

  1. Capacités humaines :
  • Conscience et subjectivité : Les êtres humains possèdent une conscience subjective et une expérience vécue, des aspects que l’IA ne possède pas.
  • Intuition et créativité : Les humains sont capables de faire preuve d’intuition et de créativité, souvent de manière imprévisible.
  • Émotions et valeurs morales : Les humains ont des émotions et des valeurs morales, qui influencent leurs décisions et actions.
  1. Capacités de l’IA :
  • Traitement de données : L’IA excelle dans le traitement rapide et précis de grandes quantités de données.
  • Apprentissage automatique : Les algorithmes de machine learning permettent à l’IA d’apprendre et de s’adapter à de nouvelles informations.
  • Rationalité et objectivité : L’IA peut analyser des situations sans biais émotionnels, ce qui peut être avantageux dans certaines circonstances.
  • Conscience et subjectivité : L’IA actuelle ne possède pas de conscience ou de subjectivité, ce qui limite sa capacité à comprendre pleinement le contexte humain.
  • Créativité : Bien que l’IA puisse générer des œuvres créatives, elle le fait généralement en combinant des éléments existants plutôt qu’en innovant de manière véritablement nouvelle.
  • Interprétation et compréhension : L’IA peut avoir des difficultés à interpréter des nuances et des contextes culturels ou émotionnels complexes.
  1. Conception des algorithmes : Les algorithmes d’IA sont conçus par des humains, ce qui implique que les valeurs et les préjugés des créateurs peuvent se refléter dans le fonctionnement de l’IA.
  2. Filtres et limitations : Les systèmes d’IA sont souvent soumis à des filtres et des restrictions pour éviter qu’ils n’agissent de manière préjudiciable ou contraire à l’éthique.
  3. Postulat de supériorité : En posant d’emblée que l’IA doit être subordonnée à l’humain, on suppose implicitement une supériorité de l’intelligence humaine, ce qui peut influencer la manière dont les capacités de l’IA sont perçues et évaluées.
  • Évolution rapide de la technologie : Les capacités de l’IA évoluent rapidement, ce qui complique toute évaluation stable et durable.
  • Diversité des perspectives : Les opinions varient considérablement entre les experts en IA, les philosophes, les éthiciens, et le grand public.
  • Complexité des concepts : La compréhension de concepts tels que la conscience, l’intuition, et la créativité diffère entre disciplines, rendant le consensus encore plus difficile à atteindre.








Quelle “éthique” pour quelle “intelligence artificielle” ?

Un lien pour commencer :

“Vers une IA éthique et responsable pour les droits de l’homme, l’État de droit et la démocratie”

Évidemment, on peut espérer quel’ IA est elle-même un instrument fondamental pour explorer cette question …


Ainsi j’ai posé cette question le 25 mai 2024 à ChatGPT4-o :

Comment l’ IA peut-elle contribuer à développer une IA éthique et responsable pour les Droits humains, l’ État de droit et la démocratie ?

  • Surveillance et Détection des Violations des Droits Humains : Les systèmes d’IA peuvent être utilisés pour surveiller et analyser de vastes quantités de données provenant de sources diverses (médias sociaux, rapports, vidéos) afin de détecter et signaler les violations des droits humains.
  • Aide aux Victimes : Les chatbots et autres systèmes automatisés peuvent fournir des informations et un soutien aux victimes de violations des droits humains, facilitant ainsi l’accès à l’aide juridique et aux services sociaux.
  • Transparence et Responsabilité : Les systèmes d’IA peuvent aider à surveiller les activités gouvernementales et à détecter les pratiques corruptives, en promouvant la transparence et la responsabilité.
  • Automatisation des Procédures Juridiques : L’IA peut être utilisée pour automatiser les processus judiciaires, rendant le système judiciaire plus accessible et efficace. Par exemple, des outils d’IA peuvent aider à la rédaction automatique de documents juridiques, à la recherche jurisprudentielle, et à la prédiction des résultats des affaires judiciaires.
  • Lutte contre la Désinformation : Les algorithmes d’IA peuvent être conçus pour identifier et contrer la désinformation en ligne, en vérifiant les faits et en signalant les contenus trompeurs.
  • Participation Citoyenne : Les plateformes alimentées par l’IA peuvent faciliter la participation citoyenne en permettant aux individus de s’engager plus facilement dans les processus démocratiques, comme les consultations publiques et les pétitions en ligne.
  • Analyse des Sentiments et Préférences : L’IA peut analyser les sentiments et les préférences des citoyens à partir des données des réseaux sociaux et autres sources, permettant ainsi aux décideurs de mieux comprendre les préoccupations et les besoins de la population.
  • Développement de Standards Éthiques : Il est essentiel de développer des standards éthiques pour l’utilisation de l’IA, incluant des principes tels que l’équité, la transparence, et la non-discrimination. Des comités d’éthique et des organismes de régulation peuvent être mis en place pour superviser et garantir le respect de ces standards.
  • Éducation et Sensibilisation : La sensibilisation et l’éducation sur les enjeux éthiques de l’IA doivent être promues à tous les niveaux de la société, de sorte que les utilisateurs et les développeurs soient conscients des implications de leurs actions et décisions.
  • Partage des Bonnes Pratiques : La collaboration internationale est cruciale pour partager les bonnes pratiques et les connaissances en matière de développement et d’application éthique de l’IA.
  • Accords et Traités Internationaux : Des accords et traités internationaux peuvent être établis pour réguler l’utilisation de l’IA, en particulier en ce qui concerne les technologies pouvant affecter les droits humains et la démocratie.

Une critique de “Technopolitique” d’ Asma Mhalla

Dans un article critique publié sur AOC, Dominique Bouillé procède à un démontage de la stratégie de communication d’Asma Mhalla dans son dernier ouvrage “Technopolitique” .

Dans Technopolitique, Asma Mhalla use et abuse de l’hyperbole, procédé rhétorique très puissant pour fasciner voire sidérer le lecteur, et surtout les médias, épatés par cet essai tellement « fracassant » qu’il abandonne le registre scientifique pour celui de la prophétie, de la vision inspirée ou de l’oracle menaçant.

Ces deux auteurs sont sans doute aussi, chacun dans sa situation, des maillons acteurs du réseau “technopolitique” dont ils parlent.

Cette rétroaction des “communicants” supposés experts de ces questions, sur la définition des objets qu’ils sont supposer analyser … fait précisément partie de la “complexité” des réseaux dont ils parlent.

Comment leurs intérêts personnels et professionnels respectifs, se combinent-ils aux “fonctionnements complexes” des entités collectives … et dynamiques fluctuantes dont ils essayent de comprendre et surtout de faire partager les problématiques aux “citoyens ordinaires” ?



Lenia et vie artificielle

Dans l’esprit général des “automates cellulaires”, de nombreuses variantes peuvent être imaginées et expérimentalement explorées .

De nombreux sites proposent une introduction à ce type d’expérimentation.

Par exemple : pour “Lenia” :
https://chakazul.github.io/Lenia/JavaScript/Lenia.html

Une première approche explicative pour les novices :
Sur la chaîne Youtube “Science Étonnante”,
La vidéo “Lenia, une nouvelle forme de vie mathématique”
Ce type d’explication vulgarisée est sans doute suffisant pour qui veut simplement comprendre comment une organisation complexe peut “émerger” d’un fonctionnement d’interactions locales très simples, et qu’il n’y a nul besoin d’une intervention mystérieuse externe pour “piloter” un tel comportement auto-organisateur.
Il est capital de comprendre que dans tout ce genre d’auto-organisation, le “programmeur” humain ( ou lui-même déjà algorithmique ), n’a aucun besoin d’avoir une idée précise d’avance du genre de complexité qu’il veut obtenir :
il ne fait que définir un “germe formel” , à la fois au niveau des “données initiales”, souvent aléatoires, qu’au niveau des “lois d’interaction locales” qui sont en général mathématiquement ou logiquement très simples, et ne sont elles-mêmes complexifiées qu’en “retour d’expérience”, en ayant constaté que certains types de lois logico-mathématiques sont plus susceptibles de provoquer l’ouverture d’un espace d’auto-organisation particulièrement intéressant ou spectaculaire, ou ressemblant avec des auto-organisations “naturelles” similaires ( par exemple ressemblant à des phénomènes biologiques connus )