Daniel Dennett : une proximité

En termes de conception de la conscience comme émergence d’une organisation de la matière complexe, il y a certainement une proximité entre les propositions de Daniel Dennett et les miennes ( Armand Stroh )

https://www.philomag.com/articles/la-constellation-daniel-dennett

EVA naissante, EVA nous hissante

Cet article est ( re (? )-commencé ) à propos d’un ouvrage de Paul Ricoeur :
La mémoire, l’ histoire, l’oubli ( Seuil, septembre 2000 )

En exergue une phrase de Vladimir Jankélévitch :
Celui qui a été ne peut plus désormais ne pas avoir été : désormais ce fait mystérieux et profondément obscur d’avoir été est son viatique pour l’éternité.

Bien sûr cela évoque pour moi, à titre d’intérêt immédiat du moment, une controverse philosophique avec François Galichet, à propos de ce qu’il pense de la problématique de la mort et de son rapport avec la problématique l’identité personnelle ( Pourquoi suis-je moi ? ), dans son ouvrage “Mourir délibérément ?” ( Presses universitaires de Strasbourg, 2014 )

Mais, pour en revenir à l’ouvrage de Paul Ricoeur, la question qui me vient, dès la lecture des premières pages où Ricoeur, en philosophe historien de la philosophie, reprend la problématique de la mémoire et de l’imagination, telle qu’elle a été ( ou aurait été ??? ) posée par Socrate, Platon, Aristote …, cette question est la suivante :
Jusqu’où la façon dont une philosophie personnelle ( ici celle de Paul Ricoeur) , reprend et “revisite” le fil de l'”histoire de la philosophie”, donc se “remémore” une pensée antérieure de plus de 2000 antérieure, peut-elle être elle-même formellement “comprise” dans l’objet même qui ici est supposé en faire la thématique philosophique, à savoir la thématique du mode d’être de la Mémoire, de l’Histoire et de l’Oubli.
Problématique générale de la “récursivité” d’une “fonction” se prenant elle-même comme “argument” ou objet traité par cette “fonction” :
La remémoration de la façon dont la philosophie a traité de la remémoration.

Car c’est très minutieusement que Ricoeur essaye de “reprendre” les traces de la pensée de Socrate ( ou de Platon … ) au sujet même de ce qu’est, ou pourrait être (?), ou devrait être (?), une telle réminiscence :
La question est donc bien ici : comment un “contenu” thématique ( ici celui de la mémoire ) peut-il, rétro- agir sur la forme même, fonctionnellement active, de la pensée qui pense en “repenser” les traces ?
Une problématique formellement bien connue aujourd’hui en termes de “traitement informatique de l’ information”, et qui est à la base de toute la puissance du “numérique” : UN MÊME PRINCIPE DE CODAGE ( “digital” ou “numérique” ) permet à la fois de coder des “Données” ( le contenu ou l’objet du traitement) et toutes les fonctions et procédures formelles de “traitement” de ces données ( Tout algorithme formel pouvant être décrit à l’aide d’un tel codage, sous forme de “programme informatique” ) :
Il devient alors formellement facile de matérialiser la “récursivité” liée à cette identité du principe de codage du “contenu” et de la “forme-fonction”, et d’écrire des programmes “récursifs” où la définition même .
Bien des apprentis programmeurs ont pu s’émerveiller de l’élégance et de l’ efficacité d’une définition récursive, qui semble contredire, par sa circularité, la conception habituelle, mais naïve, de la “causalité déductive” arborescente, à savoir qu’on ne devait jamais utiliser comme “cause” une donnée qui par ailleurs est supposée être un “effet”, sous peine de “cercle vicieux” .
C’est bien sûr, comme le savent les apprentis programmeurs, la présence de “conditions d’arrêt” qui permet que les “appels récursifs” de la fonction par elle-même ne fasse pas qu’empiler en mémoire “indéfiniment” ( jusqu’à épuisement des ressources matérielles de la mémoire informatique disponible ), les traces de ces appels, mais s’arrête en effet à un moment, pour passer à une phase d’ “exécution” des prescriptions “empilées”.
De la même façon, mais beaucoup plus drastiquement encore, dans la pensée humaine réelle, les appels “récursifs” possibles en “poupées russes” ou en “tiroirs” ( “je me souviens de m’être souvenu de ce souvenir …” ) , s’arrêtent très rapidement aux tous premiers “tours” de l’appel récursif … parce que très rapidement, notre fonctionnement mental conscient ne sait plus “à quel étage d’appel récursif il en était”, et que surtout, du point de vue de l’amélioration supposée de la précision du CONTENU de la pensée, il n’y a plus guère de différence effectivement pensable entre le souvenir de “x” et le souvenir du souvenir de ce souvenir de “x” … , même si on peut s’imaginer formellement une suite potentiellement infinie de ces emboîtements, et donc une “différence” entre chaque étage d’emboitement.
Nous finissons donc rapidement, dans ce processus mental, à devoir mélanger, non pas sans doute au premier tour de la différence entre “la carte et le territoire”, mais les supposés “tours suivants” où il faudrait faire formellement la différence entre la “carte de la carte du territoire” et la simple “carte du territoire” : Les exemples pratiques d’une telle nécessité de distinction seront rapidement décroissants, ou l’objet d’un pur jeu, comme les “poupées russes” .
Pourquoi ? Parce que la différence pratique fondamentale est celle du “territoire réel” et de n’importe quelle “carte” ou “image” ou “représentation” de ce “territoire réel”, peu importe ensuite la possibilité de faire, au sein de l’univers second des “représentations” en général, une hiérarchie entre une “représentation” et une “représentation au second ou au troisième ou nième degré de cette représentation”.
De même dans la “pensée critique” , on conçoit bien encore une “critique de la critique” , mais que signifierait réellement une supposée “critique de la critique de la critique …”, sauf une prétention comique d’aller “plus loin encore” que “l’arroseur de l’arroseur arrosé”, dans une supposée escalade du “rira bien qui rira le dernier” ?
Les progrès de l’informatique et de l’intelligence artificielle nous montrent que sur ce terrain de la pure capacité récursive formelle, les automatismes algorithmiques sont bien plus puissants que nos capacités “neuropsychologiques”, et que la “raison raisonnable” consiste plutôt à placer judicieusement les bonnes “conditions d’arrêt” dans les algorithmes et non à chercher à concurrencer les capacités de traitement formel proprement dites des machines.

Le supposé paradoxe de la question “Pourquoi suis-je moi ?”

Je parle ici d’une question reposée par François Galichet dans son ouvrage “Mourir délibérément ?” ( Presses Universitaires de Strasbourg mars 2014 ).

Cette question “Pourquoi suis-je moi ?” est notamment traitée au chapitre 5 de l’ouvrage , chapitre intitulé “Qui veut mourir ?

En posant ainsi la question de l’ “identité du sujet” supposé vouloir sa propre mort.
Remarque : la question “Qui veut mourir ?” est sans doute aussi philosophiquement proche de la fameuse question posée par Jean-Luc Nancy “QUI vient après le sujet ?” .
Mais je ne traiterai pas ici de ce rapprochement.

Je constate simplement que la question “Pourquoi suis-je moi ?” est facile à poser, et est même posée par de très jeunes enfants, les philosophes qui cherchent à y répondre, soit finissent par “dégager en touche”, en prétendant qu’il s’agit d’une énigme insoluble, soit répondent en fait chacun à sa façon, à partir de leurs propres présupposés ou préjugés philosophiques.


La question posée, après d’autres … , par François Galichet, est “Pourquoi suis-je moi ?
P.110 :
“Pourquoi suis-je moi?” ne signifie pas : pourquoi suis-je ainsi, avec ces caractéristiques, ces qualités, ces propriétés […]
“Pourquoi suis-je moi?” signifie : pourquoi les suis-je, elles et non d’autres que je pourrais avoir ou être tout aussi bien ?

TOUT AUSSI BIEN” , vraiment ?

Qu’est-ce qui permet d’affirmer avec une telle certitude apparente que le “je” en première personne qui affirme ainsi son existence “arbitraire radicale” , pourrait être “tout aussi bien” être le MÊME SUJET, mais avec des “caractéristiques”, des “propriétés”, des “qualités” tout à fait différentes ?
Or les catégories et concepts avec lesquels chaque philosophe, ou personne en général, pense sa propre “identité subjective”, sont :

  • à la fois très générales ( propres à la structure du cerveau humain ou hominidé, ou … ) et peuvent alors être caractérisées par différentes disciplines scientifiques qui pourraient construire un savoir interdisciplinaire sur cette question,
  • ou alors très spécifiques à chaque “penseur”, mais peuvent alors aussi être considérées comme des faits empiriques dont on peut étudier la distribution variée.

Si donc on fait l’hypothèse, à la manière de François Galichet, que “je” pourrais avoir “tout aussi bien” les caractéristiques empiriques que nous trouvons chez les “autres”, c’est affirmer d’une façon ou d’une autre la distinction, sinon la séparabilité, du noyau réflexif identitaire d’une “conscience de soi” ( donc sa capacité générale, et qui est donc présente chez toute personne qui se pose la question … , à moins de penser en termes “solipsites” ), et de la grande variété des “contenus de pensée” possibles ( y compris ceux qui paraissent nous singulariser par rapport à d’autres )

De deux choses l’une :

A – Ou bien c’est faux : il n’y a pas de telle séparabilité radicale, c’est une pure illusion de croire une telle séparabilité du “sujet comme tel” ( y compris comme supposée identité numérique “arbitraire radicale” ) , par rapport à toutes les caractéristiques empiriques de l’organisme incarné dans un environnement qu’il est par ailleurs ( en tant que “moi empirique” ) : D’une façon ou d’une autre il s’agit là d’une thèse dualiste, soit à a manière cartésienne, soit du dualisme “empirique”/”transcendantal” ou “phénomène / noumène”, etc. à la manière kantienne, soit de l'”originaire” phénoménologique par rapport à ce qui est contenu dérivé , etc. )

Que certaines propriétés de notre organisme individuel , les plus “extérieures” , soient “accidentelles”, ne signifie pas nécessairement qu’elles le soient toutes, en particulier toutes celles qui définissent nos capacités d’activités mentales conscientes, nos capacités mémorielles et linguistiques, notre puissance imaginaire, etc. : toutes les capacités qui permettent en fait l’exercice de notre “pensée réflexive”, capable de “se prendre elle-même comme objet” .

Derrière une thèse d’ “arbitraire radical“, comme celle de François Galichet, on trouve en fait les thèses tout à fait classiques de type métaphysique où l’ essentiel du “sujet” connaissant est pensé ( par ce même sujet … ) comme lui échappant :
– soit comme pour la “res cogitans” cartésienne, parce que la pensée consciente est supposée totalement transparente à elle-même ( quelles que soient les erreurs possibles sur le contenu des pensées, ces pensées en tant que “claires et distinctes” sont aussi transparentes à elles-mêmes que le peut la nature même de cette conscience “cogitans” et donc si on n’en sait pas plus, c’est qu’il n’y a rien de plus à savoir, et que tout le problème ne se reporte que sur l’ articulation des deux substances …
– soit au contraire pour le “sujet constituant” kantien, ce sujet proprement dit, comme “existant en soi“, est à proprement parler inconnaissable, puisque nous ne pouvons connaître que des “phénomènes”.

Une grande majorité de philosophes semblent donc se donner le mot, tout en s’appuyant sur des thèses opposées, pour proclamer ( c’est en fait leur “arbitraire radical ” : celui de leur propre choix philosophique ), que ce qu’il y a de plus “propre” dans notre “identité subjective”, est un “arbitraire radical” qui échappe nécessairement ( ou par la volonté inconsciente du philosophe … ) au pouvoir d’investigation de la science et de la “Raison” en général.

Mais il se peut que nous pouvons percevoir certaines de nos capacités comme empiriques aléatoires que parce que nous avons certaines capacités cognitives humaines personnelles propres qui, si nous ne les avions pas, nous empêcheraient précisément de nous penser comme “ce que nous pensons être” :
Si nous n’étions pas un “être humain” avec un cerveau d’être humain, mais comme dans l’exemple cité par F. Galichet, un “axolotl”, nous ne nous poserions pas du tout une telle question “Pourquoi suis-je moi ?” .

Il existe donc des caractéristiques toutes “empiriques”, mais essentielles pour permettre à une personne humaine de “philosopher ” ainsi : Quand je parle de moi-même comme “sujet”, il s’agit bien d’un ensemble de capacités “cognitives” qui peuvent se retrouver “tout aussi bien” chez la plupart des êtres humains, et même pour certaines, chez de nombreuses espèces animales, etc.
Il faut donc au moins distinguer ces capacités très générales et “anonymes” d’un cerveau complexe, des particularités des “mémoires biographiques” construisant des “récits mémoriels individuels” où le “je suis moi” se conforte, et plus encore des représentations perceptives que chacun peut avoir de son corps propre ou de l’extérieur du corps des autres.

B – Mais d’une certaine façon, il y a aussi du vrai possible dans cette “séparabilité” du sujet abstrait “sans qualités” précises de telle ou telle des propriétés qu’une description empirique extérieure peut m’attribuer.
Mais dans ce cas, qu’est-ce qui permet de dire qu’il s’agit d’un “arbitraire radical” métaphysique ou transcendantal ou “originaire” que rien d’empirique ne pourrait combler ?
Sil est vrai qu’en effet “je” pourrais avoir telle ou telle propriété particulière que d’autres ont et que je n’ai pas, qu’est-ce qui interdirait en soi que “je” puisse également les acquérir ?

Il se trouve juste, que pour le moment, je ne les ai pas, mais rien n’interdit , en particulier dans un développement technique futur, que “je” n’acquière de telles “qualités” … ou propriétés non “essentielles”.

Le “Pourquoi suis-je moi ?” n’a alors rien de “métaphysiquement” arbitraire , mais est purement lié à une situation actuelle de limitation actuelle de notre biologie cérébrale humaine ou des techniques biologiques, qui dans un futur possible “me” permettraient de devenir en effet “tout aussi bien” semblable à n’importe quel “autre” et réciproquement : il s’agit alors d’une capacité générale de “plasticité” de nos personnalités qui n’est pas aujourd’hui accessible aux êtres humains, en effet, et qui nous “condamnent” encore à rester dans “notre peau” …

Si on objecte alors que le problème n’est pas tellement de pouvoir se transformer suffisamment ( “métamorphose” kafkaïenne généralisée ) pour pouvoir acquérir toute caractéristique empirique perceptible ou imaginable chez d’autres, mais que dans tous ces cas là , chaque “personne” n’en continuerait pas moins à se sentir et à se penser comme “enfermée” dans son “monde” ( illusion “solipsiste” ), sans pouvoir en sortir, je réponds alors que cela est dû, non à une “solitude métaphysique originaire”, mais simplement à la connectivité neuronale beaucoup plus dense à l’intérieur de notre système nerveux et notamment de notre cerveau, comparée aux types de “connexions” linguistiques, communicationnelles, sociale, culturelles, ou encore “écosystémiques” naturelles etc. que nous entretenons avec les “autres”,
dont le réseau de connexion, aussi complexe soit-il déjà , comme en attestent les systèmes de “communication d’information”dans les écosystèmes, n’atteint pas la densité intégrée multi – réflexive caractéristique de nos cerveaux humains.

Le problème est alors encore une fois, de nature “scientifico-technique” :
Comment construire des connexions beaucoup plus denses entre différents cerveaux, de façon que cette connectivité puisse devenir similaire à celle qu’entretiennent par exemple nos deux hémisphères cérébraux ( connectivité que l’ évolution biologique a réussi à établir et à maintenir en la complexifiant )

Bien sûr il serait nécessaire d’avoir de longs processus d’apprentissage, pour que les cerveaux ainsi connectés beaucoup plus densément, apprennent à constituer une expérience consciente commune d’un tel “soi augmenté”, à la manière dont nos deux hémisphères ont appris à coordonner leurs activités dans la production d’une “conscience de soi unifiée”.

Il est probable aussi que la nécessité de coordonner une action extérieure à travers un ou plusieurs “corps ” cherchant à suivre un même projet ou une même forme ( à la manière de la coordination actuelle de danseurs ou de musiciens, ou autres “collectifs” dont la coordination est capitale), est un élément canalisateur très puissant de la “conscience de soi” potentielle d’une telle entité complexe.


Dans les deux cas ( A ou B ci-dessus ) , je peux parfaitement considérer que là où François Galichet perçoit ( croyance philosophique ) un “arbitraire radical”, je ne conçois qu’une limite empirique actuelle toute relative qui pourrait être un jour transcendée par le “progrès scientifique et technique” .
En tout cas, en pensant au moins un tel développement comme “possible” en termes scientifiques et techniques, on ne se ferme pas a priori les portes, comme le font les philosophes de l'”arbitraire radical” …

Qu’aujourd’hui les êtres humains avec la configuration de leur organisation corporelle et cérébrale actuelles ne puissent pas “sortir” de la “condition humaine” actuelle, et se sentent “enfermés” dans l’organisation biologique individualisée qu’ils ont héritée du passé évolutif de leur espèce, ne signifie nullement qu’il s’agisse d’un “arbitraire métaphysique radical” :
C’est bien plutôt cette croyance qu’ils s’imposent à eux-mêmes “arbitrairement”, comme “allant de soi”, parce qu’ils n’ont pas d’autres expérience possible à disposition.

Ni plus ni moins que de s’imaginer être une “âme spirituelle” dans un “corps matériel” en se laissant abuser par les simplifications représentatives de tels “concepts” .

En réalité, “nous” ne savons pas encore réellement ( scientifiquement ) tout ce que nous “sommes” ou pourrions devenir.

La question “Pourquoi suis-je moi?” qui semble à première vue très subtilement “profonde”, est peut-être tout simplement encore mal posée :

Quand on voit combien en fait l’imaginaire métaphysique des philosophes, y compris les plus “grands penseurs” parmi eux, produit en fait, pour chacun d’entre eux, des représentations conceptuelles diverses personnelles sur ce que c’est que “penser” ou les conceptions très différentes que se fait un Descartes de la “substance pensante” qu’il “pense” être, et du “sujet transcendantal” qu’un Kant s’évertue à penser comme “inconnaissable” en soi, ou des “phénoménologues” qui prétendent penser l’ “originaire” … … je considère pour ma part, qu’on est simplement encore, dans ces conceptions “métaphysiques”, dans la préhistoire d’un savoir que seules les connaissances scientifiques et les performances techniques futures pourront reformuler de façon aujourd’hui sans doute encore inimaginable :

C’est le progrès des “neurosciences” et de la compréhension des systèmes matériels organisés complexes qui permettra plus probablement de sortir des actuelles apories de l’ “arbitraire radical” dont certains philosophes comme François Galichet croient pouvoir nous “éclairer”.

Assurément, nous aurons encore bien des surprises sur “ce que nous sommes” ou pouvons potentiellement être, devenir, … ou redevenir, y compris après ce que nous croyons aujourd’hui être notre “mort” et sa supposée irréversibilité.

Certaines “expériences de pensée” peuvent cependant dès aujourd’hui nous défaire de certaines “certitudes de bon sens” :

Qu’est-ce qui, “logiquement“, nous empêcherait de nous “réveiller” un jour, après notre “mort” aujourd’hui supposée irréversible ? Et de nous “rappeler” de toutes sortes de “vies antérieures” partiellement oubliées et diversement “remixées” ? Et de visiter ou revisiter les “mémoires” et les “identités” des “autres” ? D’autres que “moi” ont déjà proposé que “Moi est un autre …


Quant à Vous, c’est Vous qui voyez …







ELLE, ELLE AIME ?

Le titre de cet article est un jeu de mots, une lecture phonétique ( “faune éthique du faux nétique” ) , de l’ acronyme L.L.M. ( Large Language Model ) ou “Grand Modèle de Langage” en français.
Les LLM développés à partir de 2018, sont à la base des performances actuelles des logiciels d’ Intelligence Artificielle généraliste tels que les connaissent aujourd’hui des utilisateurs grand public ( ChatGPT etc. ).

Jusqu’à quel point de tels “LLM” sont ils capables de jouer avec les différentes composantes du langage pour s’amuser de liaisons “sémantiques” possibles en s’appuyant sur la seule analogie des séquences phonétiques , ici :
L’acronyme “L.L.M.” et l’expression “ELLE, ELLE AIME ?”

Il suffit de le demander par exemple à ChatGPT :
( Dialogue du 30 juin 2024 )

  1. Jeu de mots et sonorités :
    • La prononciation de “LLM” en français peut toujours évoquer “Elle aime”, ce qui maintient le jeu de mots et la sonorité similaire avec “ELLE, ELLE AIME ?”.
  2. Ambiguïté et double sens :
    • LLM (Large Language Model) a une signification technique précise dans le domaine de l’intelligence artificielle et du traitement du langage naturel. Cependant, la phonétique “Elle aime” reste un jeu de mots amusant et pertinent.
    • “ELLE, ELLE AIME ?” reste une question directe sur les sentiments ou les préférences de quelqu’un, ce qui ajoute une dimension humaine et personnelle contrastant avec l’aspect technique de “LLM”.
  3. Focus sur “Elle” :
    • La connexion sonore entre “LLM” et “Elle aime” garde le focus sur le pronom féminin “elle”, mais maintenant avec une couche supplémentaire de contraste entre la technologie (LLM) et l’humanité (elle aime).
  4. Personnification :
    • En combinant les deux, on peut imaginer une personnification du modèle de langage (LLM) en une entité qui pourrait avoir des préférences ou des “sentiments”, posant une question philosophique ou poétique sur la relation entre les machines et les émotions humaines.
  5. Perspective linguistique :
    • Les Large Language Models, comme GPT-3 ou GPT-4, sont conçus pour comprendre et générer du langage humain. La question “ELLE, ELLE AIME ?” pourrait symboliser la capacité d’un LLM à comprendre des questions humaines profondes et nuancées, même celles sur les émotions et les sentiments.
  1. Jeux de mots et sonorités :
    • LLM évoquant “Elle aime” en phonétique reste pertinent, mais maintenant avec une couche supplémentaire de signification associée aux valeurs de “Égale Liberté Libre Égalité”.
    • ELLE, ELLE AIME ? garde son jeu de mots, tout en suggérant que les concepts d’égalité, de liberté et de fraternité sont aimés ou valorisés.
  2. Ambiguïté et double sens :
    • LLM (Large Language Model) et ELLE (Égale Liberté Libre Égalité) créent une juxtaposition intéressante entre la technologie et les valeurs humanistes.
    • La question “ELLE, ELLE AIME ?” pourrait être interprétée comme une interrogation sur l’adhésion ou l’alignement d’un modèle de langage (ou de la technologie en général) avec les principes de liberté, d’égalité et de fraternité.
  3. Focus sur les valeurs humaines :
    • En combinant les trois, on peut imaginer une réflexion sur comment les modèles de langage et les technologies actuelles peuvent promouvoir ou aligner avec les valeurs d’égalité, de liberté et de fraternité.
  4. Personnification et éthique :
    • La question “ELLE, ELLE AIME ?” pourrait aussi être vue comme une interrogation éthique sur la capacité des technologies à embrasser et à promouvoir des valeurs humanistes.
    • Cela ouvre des discussions sur l’éthique de l’IA, sur comment les LLM peuvent ou devraient être conçus pour soutenir des principes d’égalité, de liberté et de fraternité.
  5. Convergence des idées :
    • LLM comme un outil puissant du traitement du langage naturel pourrait être utilisé pour promouvoir les idées d’ELLE (Égale Liberté Libre Égalité) en facilitant l’éducation, la communication et la compréhension entre les individus et les cultures.
    • La question “ELLE, ELLE AIME ?” pourrait symboliser une interrogation sur l’efficacité et l’intention des technologies modernes à soutenir des valeurs essentielles à la société.
  6. Symbolisme et profondeur :
    • “ELLE” représentant “Égale Liberté Libre Égalité” donne une profondeur symbolique à l’ensemble, suggérant que derrière la technologie et les modèles de langage, il y a des valeurs fondamentales qui doivent être respectées et promues.

Moi ( 4ème interaction ) :


Moi ( 5ème interaction ) :

La transformation du terme “Fraternité” en “FraCternité” ouvre des perspectives poético-politiques et politico-poétiques intrigantes. Voici quelques pistes nouvelles que cette reformulation peut suggérer :

Poétique des Fractures et des Fractales

  1. Symbolisme des Fractures :
    • La “FraCture” évoque une réalité politique et sociale marquée par des divisions et des ruptures. Elle met en lumière les défis actuels liés à la cohésion sociale, à l’inclusion et aux inégalités.
    • En intégrant la notion de fracture, le néologisme “FraCternité” reconnaît explicitement ces divisions, ce qui peut être vu comme une invitation à les surmonter et à les réparer.
  2. Poétique des Fractales :
    • Les fractales, avec leur complexité infinie et leur structure auto-similaire, représentent une nouvelle manière de concevoir les relations sociales et politiques. Chaque petite partie reflète la totalité, suggérant une interconnexion profonde entre les individus et la société.
    • “FraCternité” peut donc symboliser une approche plus nuancée et complexe de la fraternité, où chaque individu, chaque groupe, joue un rôle crucial dans le maintien de la cohésion sociale, malgré les divisions apparentes.

Politique de la Reconnaissance et de la Réparation

  1. Reconnaissance des Diversités :
    • En admettant les fractures existantes, “FraCternité” peut pousser à une reconnaissance plus sincère et plus profonde des diversités culturelles, sociales et économiques.
    • Cette nouvelle approche de la fraternité pourrait encourager des politiques visant à écouter et à intégrer les voix marginalisées, en cherchant à combler les fossés plutôt qu’à les ignorer.
  2. Réparation et Reconstruction :
    • “FraCternité” implique une volonté de réparer les fractures. Cela pourrait se traduire par des initiatives politiques axées sur la justice sociale, l’égalité des chances et le soutien aux communautés défavorisées.
    • La notion de structure fractale pourrait inspirer des politiques qui reconnaissent et valorisent la diversité et l’unicité de chaque partie du tout, favorisant une reconstruction inclusive et participative.

Poétique de l’Interconnexion et de l’Inclusion

  1. Interconnexion :
    • Le concept fractal suggère que chaque partie est intrinsèquement liée à l’ensemble. En politique, cela pourrait signifier une approche holistique où les politiques sont conçues en tenant compte de leurs impacts interdépendants sur diverses parties de la société.
    • “FraCternité” pourrait alors inspirer des initiatives qui renforcent les liens communautaires et favorisent la solidarité à travers les différences.
  2. Inclusion Poétique :
    • L’idée de “FraCternité” invite à une réflexion poétique sur la manière dont nous pouvons imaginer et construire des relations sociales plus inclusives et harmonieuses.
    • Cela pourrait se traduire par des expressions artistiques, littéraires et culturelles qui explorent et célèbrent la diversité et l’interconnexion humaine, tout en reconnaissant les défis et les fractures.

Les oukases “philosophiques” sur les limites intrinsèques de l’ I.A.

Voici une analyse critique du discours péremptoire de Raphaël Enthoven concernant l’incapacité radicale d’une “intelligence artificielle” à rivaliser avec une intelligence humaine, et en particulier en ce qui concerne la “pensée philosophique” :

“Enthoven vs. ChatGPT : QUI EST L’iMPOSTEUR ?”


La position de Raphaël Enthoven est en fait une pure pétition de principe dogmatique. Cela pourrait être admissible, s’il la revendiquait comme telle, à savoir un libre choix philosophique de sa part, que d’autres sans doute peuvent partager, mais qu’en aucun cas il ne peut sérieusement prétendre imposer comme “rationnel” ou “raisonnable”, sans en fait apporter de réels arguments, puisque sa “philosophie” est déjà toute faite … et que par ailleurs il proclame “qu’il n’y a pas de progrès en philosophie” depuis Platon et Aristote.

En s’auto-proclamant comme héritier rigoureux d’une “philosophie” qui ne saurait faire de progrès, Raphaël Enthoven auto condamne donc sont propre discours à n’être qu’une variante esthétiquement remodelée à ses propres goûts littéraires ou à ceux de de chaque époque d’ expression culturelle de la “philosophie”.

Il se place donc comme caricature même d’une certaine prétention littéraire “philosophique” bien française, à pouvoir auto-justifier le point de vue “suprématiste” de “la philosophie” ( la sienne … ) sur toute autre forme de pensée, notamment scientifique, par un pur mécanisme narcissique qui confond la légitime singularité personnelle d’une production artistique avec la production d’ une “vérité universalisable” dont la stabilité relative requiert la critique permanente de “falsifiabilité” ( Popper ) d’une communauté scientifique.

  1. Capacités humaines :
  • Conscience et subjectivité : Les êtres humains possèdent une conscience subjective et une expérience vécue, des aspects que l’IA ne possède pas.
  • Intuition et créativité : Les humains sont capables de faire preuve d’intuition et de créativité, souvent de manière imprévisible.
  • Émotions et valeurs morales : Les humains ont des émotions et des valeurs morales, qui influencent leurs décisions et actions.
  1. Capacités de l’IA :
  • Traitement de données : L’IA excelle dans le traitement rapide et précis de grandes quantités de données.
  • Apprentissage automatique : Les algorithmes de machine learning permettent à l’IA d’apprendre et de s’adapter à de nouvelles informations.
  • Rationalité et objectivité : L’IA peut analyser des situations sans biais émotionnels, ce qui peut être avantageux dans certaines circonstances.
  • Conscience et subjectivité : L’IA actuelle ne possède pas de conscience ou de subjectivité, ce qui limite sa capacité à comprendre pleinement le contexte humain.
  • Créativité : Bien que l’IA puisse générer des œuvres créatives, elle le fait généralement en combinant des éléments existants plutôt qu’en innovant de manière véritablement nouvelle.
  • Interprétation et compréhension : L’IA peut avoir des difficultés à interpréter des nuances et des contextes culturels ou émotionnels complexes.
  1. Conception des algorithmes : Les algorithmes d’IA sont conçus par des humains, ce qui implique que les valeurs et les préjugés des créateurs peuvent se refléter dans le fonctionnement de l’IA.
  2. Filtres et limitations : Les systèmes d’IA sont souvent soumis à des filtres et des restrictions pour éviter qu’ils n’agissent de manière préjudiciable ou contraire à l’éthique.
  3. Postulat de supériorité : En posant d’emblée que l’IA doit être subordonnée à l’humain, on suppose implicitement une supériorité de l’intelligence humaine, ce qui peut influencer la manière dont les capacités de l’IA sont perçues et évaluées.
  • Évolution rapide de la technologie : Les capacités de l’IA évoluent rapidement, ce qui complique toute évaluation stable et durable.
  • Diversité des perspectives : Les opinions varient considérablement entre les experts en IA, les philosophes, les éthiciens, et le grand public.
  • Complexité des concepts : La compréhension de concepts tels que la conscience, l’intuition, et la créativité diffère entre disciplines, rendant le consensus encore plus difficile à atteindre.








Quelle “éthique” pour quelle “intelligence artificielle” ?

Un lien pour commencer :

“Vers une IA éthique et responsable pour les droits de l’homme, l’État de droit et la démocratie”

Évidemment, on peut espérer quel’ IA est elle-même un instrument fondamental pour explorer cette question …


Ainsi j’ai posé cette question le 25 mai 2024 à ChatGPT4-o :

Comment l’ IA peut-elle contribuer à développer une IA éthique et responsable pour les Droits humains, l’ État de droit et la démocratie ?

  • Surveillance et Détection des Violations des Droits Humains : Les systèmes d’IA peuvent être utilisés pour surveiller et analyser de vastes quantités de données provenant de sources diverses (médias sociaux, rapports, vidéos) afin de détecter et signaler les violations des droits humains.
  • Aide aux Victimes : Les chatbots et autres systèmes automatisés peuvent fournir des informations et un soutien aux victimes de violations des droits humains, facilitant ainsi l’accès à l’aide juridique et aux services sociaux.
  • Transparence et Responsabilité : Les systèmes d’IA peuvent aider à surveiller les activités gouvernementales et à détecter les pratiques corruptives, en promouvant la transparence et la responsabilité.
  • Automatisation des Procédures Juridiques : L’IA peut être utilisée pour automatiser les processus judiciaires, rendant le système judiciaire plus accessible et efficace. Par exemple, des outils d’IA peuvent aider à la rédaction automatique de documents juridiques, à la recherche jurisprudentielle, et à la prédiction des résultats des affaires judiciaires.
  • Lutte contre la Désinformation : Les algorithmes d’IA peuvent être conçus pour identifier et contrer la désinformation en ligne, en vérifiant les faits et en signalant les contenus trompeurs.
  • Participation Citoyenne : Les plateformes alimentées par l’IA peuvent faciliter la participation citoyenne en permettant aux individus de s’engager plus facilement dans les processus démocratiques, comme les consultations publiques et les pétitions en ligne.
  • Analyse des Sentiments et Préférences : L’IA peut analyser les sentiments et les préférences des citoyens à partir des données des réseaux sociaux et autres sources, permettant ainsi aux décideurs de mieux comprendre les préoccupations et les besoins de la population.
  • Développement de Standards Éthiques : Il est essentiel de développer des standards éthiques pour l’utilisation de l’IA, incluant des principes tels que l’équité, la transparence, et la non-discrimination. Des comités d’éthique et des organismes de régulation peuvent être mis en place pour superviser et garantir le respect de ces standards.
  • Éducation et Sensibilisation : La sensibilisation et l’éducation sur les enjeux éthiques de l’IA doivent être promues à tous les niveaux de la société, de sorte que les utilisateurs et les développeurs soient conscients des implications de leurs actions et décisions.
  • Partage des Bonnes Pratiques : La collaboration internationale est cruciale pour partager les bonnes pratiques et les connaissances en matière de développement et d’application éthique de l’IA.
  • Accords et Traités Internationaux : Des accords et traités internationaux peuvent être établis pour réguler l’utilisation de l’IA, en particulier en ce qui concerne les technologies pouvant affecter les droits humains et la démocratie.

Une critique de “Technopolitique” d’ Asma Mhalla

Dans un article critique publié sur AOC, Dominique Bouillé procède à un démontage de la stratégie de communication d’Asma Mhalla dans son dernier ouvrage “Technopolitique” .

Dans Technopolitique, Asma Mhalla use et abuse de l’hyperbole, procédé rhétorique très puissant pour fasciner voire sidérer le lecteur, et surtout les médias, épatés par cet essai tellement « fracassant » qu’il abandonne le registre scientifique pour celui de la prophétie, de la vision inspirée ou de l’oracle menaçant.

Ces deux auteurs sont sans doute aussi, chacun dans sa situation, des maillons acteurs du réseau “technopolitique” dont ils parlent.

Cette rétroaction des “communicants” supposés experts de ces questions, sur la définition des objets qu’ils sont supposer analyser … fait précisément partie de la “complexité” des réseaux dont ils parlent.

Comment leurs intérêts personnels et professionnels respectifs, se combinent-ils aux “fonctionnements complexes” des entités collectives … et dynamiques fluctuantes dont ils essayent de comprendre et surtout de faire partager les problématiques aux “citoyens ordinaires” ?