La « normativité originaire » n’existe, comme « Dieu », que pour ceux qui y croient.

La « normativité originaire » est une expression employée dans plusieurs de ses ouvrages par François Galichet, mais qu’il cherche à défendre particulièrement dans son dernier texte, pas encore publié, mis en ligne sur son site https://philogalichet.fr, téléchargeable sous le titre : « La question pascalienne : pourquoi suis-je ici plutôt que là ? »

Or, je ne partage pas sa croyance en l’existence d’une telle « normativité originaire », car je n’en ai aucun besoin,

La présence du texte de François Galichet peut en revanche me permettre de préciser publiquement ma propre pensée, mais bien sûr en ne prétendant d’aucune façon que mes propres propositions, y compris les plus centrales, constituent une quelconque « prétention universalisante » et encore moins une « normativité originaire » qui serait en concurrence avec la sienne.

Le propre même de ma proposition « morale » centrale, énoncée dans l’ expression « Égale Liberté Libre Égalité« , est précisément qu’elle ne vaut que par et pour les personnes qui en adoptent LIBREMENT la valeur, pour elles-mêmes, conformément à leur propre libre décision, et non à une « prétention universalisante » suivant laquelle il me serait impossible de comprendre qu’elles ne l’adoptent pas !
Dans la partie « Libre Égalité » , ce qui est précisément proposé, c’est que la liberté de chaque personne PUISSE choisir d’Y adhérer, ou pas.

Ce qui est très loin de la façon dont François Galichet pense sa propre « normativité originaire », comme s’il ne pouvait ( … lui François Galichet ), concevoir que d’autres n’en acceptent pas ni l’ existence, ni la « normativité » prétendue.

Là où je propose une simple POSSIBILITÉ et en effet aussi un POUVOIR qui irait avec cette possibilité, sous condition de la LIBRE adhésion d’un certain nombre de personnes à un tel idéal ( pensé comme « Égale Liberté » ), une « universalisation » possible n’est alors que potentielle, puisque précisément soumise au libre accord des personnes.

La seule « normativité » alors en jeu, est celle qui dérive directement, pour chaque personne « libre et égale », de sa propre libre volonté de vouloir être une telle « libre volonté ». Si elle ne veut pas, par sa propre décision AUTONOME, être une telle « personne libre et égale« , c’est son problème et plus le mien, et je ne prétends avoir alors aucune « normativité originaire » à opposer à sa propre libre volonté, mais, si cette personne en venait, de fait, empiriquement, à vouloir m’imposer par la contrainte ses propres idées, je me donnerais directement le libre droit d’y opposer , sans plus de « justification » normative, une égale protection de ma propre sphère de libre décision, lui interdisant d’empiéter sur ma propre liberté auto-posée et donc auto-défendue si nécessaire.
( Il n’y a dans une telle conception de « défense symétrique » de ma liberté personnelle contre toute « domination » par une autre liberté rien d’original, et je suis même assez sûr qu’elle en comprendrait facilement la « logique », si elle n’est pas obnubilée par une croyance intégriste

Quelle « valeur culturelle » ?

Sur AOC :

Des activistes écologiques et des valeurs culturelles

Par Anna Longo

« Le geste des activistes écologiques est un appel lancé aux artistes et aux véritables créateurs à imaginer un nouveau monde, à faire valoir les droits du seul possible qu’il nous est présentement interdit de désirer : une société autre que celle de la compétition individualiste défendue par les libéraux, la seule société où l’art pourra effectivement exister en tant que « grand stimulant de la vie » et « résistance contre la mort ».

voir aussi le texte d’ Anna Longo concernant les « Machines prédictives « ( I.A., etc. )

http://chatonsky.net/anna-longo-artec/

Voir aussi :

Chatonsky : http://chatonsky.net/category/journal/

Économie circulaire forte

Le problème : article sur AOC :

https://aoc.media/analyse/2024/09/18/vers-leconomie-circulaire-forte

En quoi une analyse des conditions d’une « Économie circulaire forte » est-elle nécessaire pour permettre une réalisation plus effective des valeurs de Liberté et d’ Égalité telles qu’elles sont définies par la Proposition de l’Égale Liberté Libre Égalité ?

La Proposition de l’ « Égale Liberté Libre Égalité » est bien sûr une proposition à la fois morale, politique et juridique à très long terme, dont la réalisabilité progressive dépend d’une continuité suffisante des ressources physiques, énergétiques, matérielles, etc. nécessaires pour permettre à l’ensemble des personnes participant à un tel Projet, d’Y accroître à la fois leur propre liberté personnelle ( notamment comme « Libre Égalité » ) et l’ « Égale Liberté » actuelle et surtout future de toutes les personnes qui choisissent d’Y participer.

En particulier la « circularité » ou le développement « spiralaire » de l’ implication réciproque de l’ « Égale Liberté » ( collectivement assurée par les personnes participantes ) ET la «  »Libre Égalité » de cette implication personnelle, supposent une articulation à la fois explicitement volontaire ( individuelle et collective ) et implicitement facilitée par le processus « auto-organisateur » d’une complexité inconsciente de ses propres capacités ( « spontanéité » des processus de l’évolution ) de l’ensemble des processus qui maintiennent et développent à long terme la « croissance » de cette « Égale Liberté Libre Égalité ».

A partir du moment où on considère que le pilotage conscient volontaire ( qu’il soit individuel ou collectif ) n’est encore qu’une toute petite partie « émergente » de la complexité inconsciente des phénomènes d’ auto-organisation de la « nature » , il faut bien sûr, à l’intérieur de la « superstructure » de notre volonté consciente, maintenir la conscience de l’existence de cette gigantesque « infrastructure » inconsciente qui « nous » a produit … précisément sans que cette « nature » ait besoin, pour survivre en évoluant, de savoir ce qu’elle fait et en vue de quelque « finalité » imaginaire éthico-politique … que nous projetons rétrospectivement sur elle.

Les oukases « philosophiques » sur les limites intrinsèques de l’ I.A.

Voici une analyse critique du discours péremptoire de Raphaël Enthoven concernant l’incapacité radicale d’une « intelligence artificielle » à rivaliser avec une intelligence humaine, et en particulier en ce qui concerne la « pensée philosophique » :

« Enthoven vs. ChatGPT : QUI EST L’iMPOSTEUR ? »


La position de Raphaël Enthoven est en fait une pure pétition de principe dogmatique. Cela pourrait être admissible, s’il la revendiquait comme telle, à savoir un libre choix philosophique de sa part, que d’autres sans doute peuvent partager, mais qu’en aucun cas il ne peut sérieusement prétendre imposer comme « rationnel » ou « raisonnable », sans en fait apporter de réels arguments, puisque sa « philosophie » est déjà toute faite … et que par ailleurs il proclame « qu’il n’y a pas de progrès en philosophie » depuis Platon et Aristote.

En s’auto-proclamant comme héritier rigoureux d’une « philosophie » qui ne saurait faire de progrès, Raphaël Enthoven auto condamne donc sont propre discours à n’être qu’une variante esthétiquement remodelée à ses propres goûts littéraires ou à ceux de de chaque époque d’ expression culturelle de la « philosophie ».

Il se place donc comme caricature même d’une certaine prétention littéraire « philosophique » bien française, à pouvoir auto-justifier le point de vue « suprématiste » de « la philosophie » ( la sienne … ) sur toute autre forme de pensée, notamment scientifique, par un pur mécanisme narcissique qui confond la légitime singularité personnelle d’une production artistique avec la production d’ une « vérité universalisable » dont la stabilité relative requiert la critique permanente de « falsifiabilité » ( Popper ) d’une communauté scientifique.

  1. Capacités humaines :
  • Conscience et subjectivité : Les êtres humains possèdent une conscience subjective et une expérience vécue, des aspects que l’IA ne possède pas.
  • Intuition et créativité : Les humains sont capables de faire preuve d’intuition et de créativité, souvent de manière imprévisible.
  • Émotions et valeurs morales : Les humains ont des émotions et des valeurs morales, qui influencent leurs décisions et actions.
  1. Capacités de l’IA :
  • Traitement de données : L’IA excelle dans le traitement rapide et précis de grandes quantités de données.
  • Apprentissage automatique : Les algorithmes de machine learning permettent à l’IA d’apprendre et de s’adapter à de nouvelles informations.
  • Rationalité et objectivité : L’IA peut analyser des situations sans biais émotionnels, ce qui peut être avantageux dans certaines circonstances.
  • Conscience et subjectivité : L’IA actuelle ne possède pas de conscience ou de subjectivité, ce qui limite sa capacité à comprendre pleinement le contexte humain.
  • Créativité : Bien que l’IA puisse générer des œuvres créatives, elle le fait généralement en combinant des éléments existants plutôt qu’en innovant de manière véritablement nouvelle.
  • Interprétation et compréhension : L’IA peut avoir des difficultés à interpréter des nuances et des contextes culturels ou émotionnels complexes.
  1. Conception des algorithmes : Les algorithmes d’IA sont conçus par des humains, ce qui implique que les valeurs et les préjugés des créateurs peuvent se refléter dans le fonctionnement de l’IA.
  2. Filtres et limitations : Les systèmes d’IA sont souvent soumis à des filtres et des restrictions pour éviter qu’ils n’agissent de manière préjudiciable ou contraire à l’éthique.
  3. Postulat de supériorité : En posant d’emblée que l’IA doit être subordonnée à l’humain, on suppose implicitement une supériorité de l’intelligence humaine, ce qui peut influencer la manière dont les capacités de l’IA sont perçues et évaluées.
  • Évolution rapide de la technologie : Les capacités de l’IA évoluent rapidement, ce qui complique toute évaluation stable et durable.
  • Diversité des perspectives : Les opinions varient considérablement entre les experts en IA, les philosophes, les éthiciens, et le grand public.
  • Complexité des concepts : La compréhension de concepts tels que la conscience, l’intuition, et la créativité diffère entre disciplines, rendant le consensus encore plus difficile à atteindre.








Quelle « éthique » pour quelle « intelligence artificielle » ?

Un lien pour commencer :

« Vers une IA éthique et responsable pour les droits de l’homme, l’État de droit et la démocratie »

Évidemment, on peut espérer quel’ IA est elle-même un instrument fondamental pour explorer cette question …


Ainsi j’ai posé cette question le 25 mai 2024 à ChatGPT4-o :

« Comment l’ IA peut-elle contribuer à développer une IA éthique et responsable pour les Droits humains, l’ État de droit et la démocratie ?« 

  • Surveillance et Détection des Violations des Droits Humains : Les systèmes d’IA peuvent être utilisés pour surveiller et analyser de vastes quantités de données provenant de sources diverses (médias sociaux, rapports, vidéos) afin de détecter et signaler les violations des droits humains.
  • Aide aux Victimes : Les chatbots et autres systèmes automatisés peuvent fournir des informations et un soutien aux victimes de violations des droits humains, facilitant ainsi l’accès à l’aide juridique et aux services sociaux.
  • Transparence et Responsabilité : Les systèmes d’IA peuvent aider à surveiller les activités gouvernementales et à détecter les pratiques corruptives, en promouvant la transparence et la responsabilité.
  • Automatisation des Procédures Juridiques : L’IA peut être utilisée pour automatiser les processus judiciaires, rendant le système judiciaire plus accessible et efficace. Par exemple, des outils d’IA peuvent aider à la rédaction automatique de documents juridiques, à la recherche jurisprudentielle, et à la prédiction des résultats des affaires judiciaires.
  • Lutte contre la Désinformation : Les algorithmes d’IA peuvent être conçus pour identifier et contrer la désinformation en ligne, en vérifiant les faits et en signalant les contenus trompeurs.
  • Participation Citoyenne : Les plateformes alimentées par l’IA peuvent faciliter la participation citoyenne en permettant aux individus de s’engager plus facilement dans les processus démocratiques, comme les consultations publiques et les pétitions en ligne.
  • Analyse des Sentiments et Préférences : L’IA peut analyser les sentiments et les préférences des citoyens à partir des données des réseaux sociaux et autres sources, permettant ainsi aux décideurs de mieux comprendre les préoccupations et les besoins de la population.
  • Développement de Standards Éthiques : Il est essentiel de développer des standards éthiques pour l’utilisation de l’IA, incluant des principes tels que l’équité, la transparence, et la non-discrimination. Des comités d’éthique et des organismes de régulation peuvent être mis en place pour superviser et garantir le respect de ces standards.
  • Éducation et Sensibilisation : La sensibilisation et l’éducation sur les enjeux éthiques de l’IA doivent être promues à tous les niveaux de la société, de sorte que les utilisateurs et les développeurs soient conscients des implications de leurs actions et décisions.
  • Partage des Bonnes Pratiques : La collaboration internationale est cruciale pour partager les bonnes pratiques et les connaissances en matière de développement et d’application éthique de l’IA.
  • Accords et Traités Internationaux : Des accords et traités internationaux peuvent être établis pour réguler l’utilisation de l’IA, en particulier en ce qui concerne les technologies pouvant affecter les droits humains et la démocratie.

Site « Implications Philosophiques »

A utiliser comme ressource ?
A voir par exemple :
https://www.implications-philosophiques.org/faut-il-uberiser-la-pensee-de-lemergence/

Extrait :

« Florian Forestier est écrivain et docteur en philosophie. Conservateur à la Bibliothèque nationale où il occupe les fonctions de responsable de la politique de la diversité et de la création du centre de recherche. Docteur en philosophie, il a consacré des travaux à la question de la singularité dans la philosophie française contemporaine (La phénoménologie génétique de Marc Richir, Phaenomenologica, 2014, Le réel et le transcendantal, Jérôme Millon, 2015, Le grain du sens, Zetabooks, 2016). Il est également auteur de roman (Basculer, Belfond, 2021, Un si beau bleu, à paraître chez Belfond en 2024) et de nouvelles. Comme directeur des études du Think tank #Leplusimportant, il a coordonné plusieurs rapports et un essai (Désubériser. Reprendre le contrôle, Éditions du Faubourg, 2020) consacré aux effets de la transformation numérique sur le travail et à la régulation des réseaux sociaux.

Résumé

Une philosophie de l’émergence telle que Ferraris l’appelle ne peut s’appuyer sur des catégories physicalistes ou naturalistes. Elle ne peut pas non plus prendre son point de départ dans un niveau identifié de la nature (la physique atomique, les molécules, les organismes vivants). En effet, elle doit questionner la possibilité et la structure ontologique de l’émergence. Chez Ferraris, le noyau spéculatif de la logique transcendantale de l’émergence est l’enregistrement. Mais celui-ci ne présuppose-t-il pas d’autres conditions de possibilité – en particulier, le virtuel et le processus d’individuation. Lorsqu’on prend ceux-ci en compte, ne faut-il pas raconter autrement l’histoire de l’émergence, et ses différents moments ?

Mots-clés : Emergence, individus, virtualité, individuation, trace, institution