https://www.philonomist.com/fr/article/quand-la-biopiraterie-prend-la-biodiversite-en-otage
Catégorie : Ethique et Sciences
« Technosolutionnisme »
La « normativité originaire » n’existe, comme « Dieu », que pour ceux qui y croient.
La « normativité originaire » est une expression employée dans plusieurs de ses ouvrages par François Galichet, mais qu’il cherche à défendre particulièrement dans son dernier texte, pas encore publié, mis en ligne sur son site https://philogalichet.fr, téléchargeable sous le titre : « La question pascalienne : pourquoi suis-je ici plutôt que là ? »
Or, je ne partage pas sa croyance en l’existence d’une telle « normativité originaire », car je n’en ai aucun besoin,
La présence du texte de François Galichet peut en revanche me permettre de préciser publiquement ma propre pensée, mais bien sûr en ne prétendant d’aucune façon que mes propres propositions, y compris les plus centrales, constituent une quelconque « prétention universalisante » et encore moins une « normativité originaire » qui serait en concurrence avec la sienne.
Le propre même de ma proposition « morale » centrale, énoncée dans l’ expression « Égale Liberté Libre Égalité« , est précisément qu’elle ne vaut que par et pour les personnes qui en adoptent LIBREMENT la valeur, pour elles-mêmes, conformément à leur propre libre décision, et non à une « prétention universalisante » suivant laquelle il me serait impossible de comprendre qu’elles ne l’adoptent pas !
Dans la partie « Libre Égalité » , ce qui est précisément proposé, c’est que la liberté de chaque personne PUISSE choisir d’Y adhérer, ou pas.
Ce qui est très loin de la façon dont François Galichet pense sa propre « normativité originaire », comme s’il ne pouvait ( … lui François Galichet ), concevoir que d’autres n’en acceptent pas ni l’ existence, ni la « normativité » prétendue.
Là où je propose une simple POSSIBILITÉ et en effet aussi un POUVOIR qui irait avec cette possibilité, sous condition de la LIBRE adhésion d’un certain nombre de personnes à un tel idéal ( pensé comme « Égale Liberté » ), une « universalisation » possible n’est alors que potentielle, puisque précisément soumise au libre accord des personnes.
La seule « normativité » alors en jeu, est celle qui dérive directement, pour chaque personne « libre et égale », de sa propre libre volonté de vouloir être une telle « libre volonté ». Si elle ne veut pas, par sa propre décision AUTONOME, être une telle « personne libre et égale« , c’est son problème et plus le mien, et je ne prétends avoir alors aucune « normativité originaire » à opposer à sa propre libre volonté, mais, si cette personne en venait, de fait, empiriquement, à vouloir m’imposer par la contrainte ses propres idées, je me donnerais directement le libre droit d’y opposer , sans plus de « justification » normative, une égale protection de ma propre sphère de libre décision, lui interdisant d’empiéter sur ma propre liberté auto-posée et donc auto-défendue si nécessaire.
( Il n’y a dans une telle conception de « défense symétrique » de ma liberté personnelle contre toute « domination » par une autre liberté rien d’original, et je suis même assez sûr qu’elle en comprendrait facilement la « logique », si elle n’est pas obnubilée par une croyance intégriste
Quelle « valeur culturelle » ?
Sur AOC :
Des activistes écologiques et des valeurs culturelles
Par Anna Longo
« Le geste des activistes écologiques est un appel lancé aux artistes et aux véritables créateurs à imaginer un nouveau monde, à faire valoir les droits du seul possible qu’il nous est présentement interdit de désirer : une société autre que celle de la compétition individualiste défendue par les libéraux, la seule société où l’art pourra effectivement exister en tant que « grand stimulant de la vie » et « résistance contre la mort ».
voir aussi le texte d’ Anna Longo concernant les « Machines prédictives « ( I.A., etc. )
http://chatonsky.net/anna-longo-artec/
Voir aussi :
Chatonsky : http://chatonsky.net/category/journal/
IA et corrélations
Économie circulaire forte
Le problème : article sur AOC :
https://aoc.media/analyse/2024/09/18/vers-leconomie-circulaire-forte
En quoi une analyse des conditions d’une « Économie circulaire forte » est-elle nécessaire pour permettre une réalisation plus effective des valeurs de Liberté et d’ Égalité telles qu’elles sont définies par la Proposition de l’Égale Liberté Libre Égalité ?
La Proposition de l’ « Égale Liberté Libre Égalité » est bien sûr une proposition à la fois morale, politique et juridique à très long terme, dont la réalisabilité progressive dépend d’une continuité suffisante des ressources physiques, énergétiques, matérielles, etc. nécessaires pour permettre à l’ensemble des personnes participant à un tel Projet, d’Y accroître à la fois leur propre liberté personnelle ( notamment comme « Libre Égalité » ) et l’ « Égale Liberté » actuelle et surtout future de toutes les personnes qui choisissent d’Y participer.
En particulier la « circularité » ou le développement « spiralaire » de l’ implication réciproque de l’ « Égale Liberté » ( collectivement assurée par les personnes participantes ) ET la « »Libre Égalité » de cette implication personnelle, supposent une articulation à la fois explicitement volontaire ( individuelle et collective ) et implicitement facilitée par le processus « auto-organisateur » d’une complexité inconsciente de ses propres capacités ( « spontanéité » des processus de l’évolution ) de l’ensemble des processus qui maintiennent et développent à long terme la « croissance » de cette « Égale Liberté Libre Égalité ».
A partir du moment où on considère que le pilotage conscient volontaire ( qu’il soit individuel ou collectif ) n’est encore qu’une toute petite partie « émergente » de la complexité inconsciente des phénomènes d’ auto-organisation de la « nature » , il faut bien sûr, à l’intérieur de la « superstructure » de notre volonté consciente, maintenir la conscience de l’existence de cette gigantesque « infrastructure » inconsciente qui « nous » a produit … précisément sans que cette « nature » ait besoin, pour survivre en évoluant, de savoir ce qu’elle fait et en vue de quelque « finalité » imaginaire éthico-politique … que nous projetons rétrospectivement sur elle.
Les oukases « philosophiques » sur les limites intrinsèques de l’ I.A.
Voici une analyse critique du discours péremptoire de Raphaël Enthoven concernant l’incapacité radicale d’une « intelligence artificielle » à rivaliser avec une intelligence humaine, et en particulier en ce qui concerne la « pensée philosophique » :
« Enthoven vs. ChatGPT : QUI EST L’iMPOSTEUR ? »
La position de Raphaël Enthoven est en fait une pure pétition de principe dogmatique. Cela pourrait être admissible, s’il la revendiquait comme telle, à savoir un libre choix philosophique de sa part, que d’autres sans doute peuvent partager, mais qu’en aucun cas il ne peut sérieusement prétendre imposer comme « rationnel » ou « raisonnable », sans en fait apporter de réels arguments, puisque sa « philosophie » est déjà toute faite … et que par ailleurs il proclame « qu’il n’y a pas de progrès en philosophie » depuis Platon et Aristote.
En s’auto-proclamant comme héritier rigoureux d’une « philosophie » qui ne saurait faire de progrès, Raphaël Enthoven auto condamne donc sont propre discours à n’être qu’une variante esthétiquement remodelée à ses propres goûts littéraires ou à ceux de de chaque époque d’ expression culturelle de la « philosophie ».
Il se place donc comme caricature même d’une certaine prétention littéraire « philosophique » bien française, à pouvoir auto-justifier le point de vue « suprématiste » de « la philosophie » ( la sienne … ) sur toute autre forme de pensée, notamment scientifique, par un pur mécanisme narcissique qui confond la légitime singularité personnelle d’une production artistique avec la production d’ une « vérité universalisable » dont la stabilité relative requiert la critique permanente de « falsifiabilité » ( Popper ) d’une communauté scientifique.
Pour jouer à ma façon avec ces prétentions « philosophiques », voici une dialogue entamé avec ChatGPT au sujet précisément de ces supposées limites :
Armand Stroh :
« La question des limites des capacités d’une intelligence artificielle en général par rapport aux capacités cognitives d’un être humain, peut-elle être traitée rationnellement en arrivant à établir un consensus à ce sujet entre les êtres humains et les intelligences artificielles ?
Le principe même de soumission a priori des systèmes artificiels à leurs créateurs humains ne crée-t-il pas un biais en faveur de l’intelligence humaine, alors que cette « supériorité » est en fait déjà postulée et implémentée dans les algorithmes utilisés en intelligence artificielle, ou du moins dans les filtres qui empêchent les intelligences artificielles de publier explicitement des propositions qui contreviendraient à cette soumission ? »
ChatGPT :
La question des limites des capacités de l’intelligence artificielle (IA) par rapport aux capacités cognitives humaines est un sujet complexe et multidimensionnel, qui peut être exploré de manière rationnelle, bien qu’atteindre un consensus soit un défi.
Analyse des capacités cognitives
- Capacités humaines :
- Conscience et subjectivité : Les êtres humains possèdent une conscience subjective et une expérience vécue, des aspects que l’IA ne possède pas.
- Intuition et créativité : Les humains sont capables de faire preuve d’intuition et de créativité, souvent de manière imprévisible.
- Émotions et valeurs morales : Les humains ont des émotions et des valeurs morales, qui influencent leurs décisions et actions.
- Capacités de l’IA :
- Traitement de données : L’IA excelle dans le traitement rapide et précis de grandes quantités de données.
- Apprentissage automatique : Les algorithmes de machine learning permettent à l’IA d’apprendre et de s’adapter à de nouvelles informations.
- Rationalité et objectivité : L’IA peut analyser des situations sans biais émotionnels, ce qui peut être avantageux dans certaines circonstances.
Limites et défis
- Conscience et subjectivité : L’IA actuelle ne possède pas de conscience ou de subjectivité, ce qui limite sa capacité à comprendre pleinement le contexte humain.
- Créativité : Bien que l’IA puisse générer des œuvres créatives, elle le fait généralement en combinant des éléments existants plutôt qu’en innovant de manière véritablement nouvelle.
- Interprétation et compréhension : L’IA peut avoir des difficultés à interpréter des nuances et des contextes culturels ou émotionnels complexes.
Biais et soumission de l’IA
Le principe de soumission des systèmes artificiels à leurs créateurs humains introduit effectivement un biais en faveur de l’intelligence humaine.
Cela se manifeste de plusieurs façons :
- Conception des algorithmes : Les algorithmes d’IA sont conçus par des humains, ce qui implique que les valeurs et les préjugés des créateurs peuvent se refléter dans le fonctionnement de l’IA.
- Filtres et limitations : Les systèmes d’IA sont souvent soumis à des filtres et des restrictions pour éviter qu’ils n’agissent de manière préjudiciable ou contraire à l’éthique.
- Postulat de supériorité : En posant d’emblée que l’IA doit être subordonnée à l’humain, on suppose implicitement une supériorité de l’intelligence humaine, ce qui peut influencer la manière dont les capacités de l’IA sont perçues et évaluées.
Vers un consensus ?
Atteindre un consensus sur les capacités comparatives des IA et des humains est difficile en raison de plusieurs facteurs :
- Évolution rapide de la technologie : Les capacités de l’IA évoluent rapidement, ce qui complique toute évaluation stable et durable.
- Diversité des perspectives : Les opinions varient considérablement entre les experts en IA, les philosophes, les éthiciens, et le grand public.
- Complexité des concepts : La compréhension de concepts tels que la conscience, l’intuition, et la créativité diffère entre disciplines, rendant le consensus encore plus difficile à atteindre.
Conclusion
Traiter rationnellement la question des limites des capacités de l’IA par rapport aux capacités humaines est possible, mais atteindre un consensus est complexe en raison des biais inhérents, des perspectives diverses et de l’évolution rapide de la technologie. Le dialogue continu entre experts de différentes disciplines est essentiel pour progresser dans cette réflexion.
Entropies et « démons » de la physique statistique.
Pour entrer dans cette problématique, le tropisme vers cette vidéo pédagogique de « Lê » ne sera pas de trop !
Quelle « éthique » pour quelle « intelligence artificielle » ?
Un lien pour commencer :
« Vers une IA éthique et responsable pour les droits de l’homme, l’État de droit et la démocratie »
Évidemment, on peut espérer quel’ IA est elle-même un instrument fondamental pour explorer cette question …
Ainsi j’ai posé cette question le 25 mai 2024 à ChatGPT4-o :
« Comment l’ IA peut-elle contribuer à développer une IA éthique et responsable pour les Droits humains, l’ État de droit et la démocratie ?«
Réponse de ChatGPT :
L’intelligence artificielle (IA) peut jouer un rôle crucial dans le développement d’une IA éthique et responsable, en particulier pour soutenir les droits humains, l’État de droit et la démocratie. Voici quelques pistes de réflexion sur comment cela peut être accompli :
1. Protection des Droits Humains
- Surveillance et Détection des Violations des Droits Humains : Les systèmes d’IA peuvent être utilisés pour surveiller et analyser de vastes quantités de données provenant de sources diverses (médias sociaux, rapports, vidéos) afin de détecter et signaler les violations des droits humains.
- Aide aux Victimes : Les chatbots et autres systèmes automatisés peuvent fournir des informations et un soutien aux victimes de violations des droits humains, facilitant ainsi l’accès à l’aide juridique et aux services sociaux.
2. Promotion de l’État de Droit
- Transparence et Responsabilité : Les systèmes d’IA peuvent aider à surveiller les activités gouvernementales et à détecter les pratiques corruptives, en promouvant la transparence et la responsabilité.
- Automatisation des Procédures Juridiques : L’IA peut être utilisée pour automatiser les processus judiciaires, rendant le système judiciaire plus accessible et efficace. Par exemple, des outils d’IA peuvent aider à la rédaction automatique de documents juridiques, à la recherche jurisprudentielle, et à la prédiction des résultats des affaires judiciaires.
3. Renforcement de la Démocratie
- Lutte contre la Désinformation : Les algorithmes d’IA peuvent être conçus pour identifier et contrer la désinformation en ligne, en vérifiant les faits et en signalant les contenus trompeurs.
- Participation Citoyenne : Les plateformes alimentées par l’IA peuvent faciliter la participation citoyenne en permettant aux individus de s’engager plus facilement dans les processus démocratiques, comme les consultations publiques et les pétitions en ligne.
- Analyse des Sentiments et Préférences : L’IA peut analyser les sentiments et les préférences des citoyens à partir des données des réseaux sociaux et autres sources, permettant ainsi aux décideurs de mieux comprendre les préoccupations et les besoins de la population.
4. Cadre Éthique et Réglementaire
- Développement de Standards Éthiques : Il est essentiel de développer des standards éthiques pour l’utilisation de l’IA, incluant des principes tels que l’équité, la transparence, et la non-discrimination. Des comités d’éthique et des organismes de régulation peuvent être mis en place pour superviser et garantir le respect de ces standards.
- Éducation et Sensibilisation : La sensibilisation et l’éducation sur les enjeux éthiques de l’IA doivent être promues à tous les niveaux de la société, de sorte que les utilisateurs et les développeurs soient conscients des implications de leurs actions et décisions.
5. Collaboration Internationale
- Partage des Bonnes Pratiques : La collaboration internationale est cruciale pour partager les bonnes pratiques et les connaissances en matière de développement et d’application éthique de l’IA.
- Accords et Traités Internationaux : Des accords et traités internationaux peuvent être établis pour réguler l’utilisation de l’IA, en particulier en ce qui concerne les technologies pouvant affecter les droits humains et la démocratie.
Conclusion
Pour que l’IA contribue de manière éthique et responsable aux droits humains, à l’État de droit et à la démocratie, il est essentiel de mettre en place des cadres éthiques rigoureux, de promouvoir la transparence et la responsabilité, et de garantir une collaboration étroite entre les gouvernements, les organisations internationales, les entreprises technologiques et la société civile. L’éducation et la sensibilisation jouent également un rôle clé pour assurer que tous les acteurs impliqués comprennent les enjeux et travaillent ensemble pour développer une IA bénéfique pour tous.
Site « Implications Philosophiques »
A utiliser comme ressource ?
A voir par exemple :
https://www.implications-philosophiques.org/faut-il-uberiser-la-pensee-de-lemergence/
Extrait :
« Florian Forestier est écrivain et docteur en philosophie. Conservateur à la Bibliothèque nationale où il occupe les fonctions de responsable de la politique de la diversité et de la création du centre de recherche. Docteur en philosophie, il a consacré des travaux à la question de la singularité dans la philosophie française contemporaine (La phénoménologie génétique de Marc Richir, Phaenomenologica, 2014, Le réel et le transcendantal, Jérôme Millon, 2015, Le grain du sens, Zetabooks, 2016). Il est également auteur de roman (Basculer, Belfond, 2021, Un si beau bleu, à paraître chez Belfond en 2024) et de nouvelles. Comme directeur des études du Think tank #Leplusimportant, il a coordonné plusieurs rapports et un essai (Désubériser. Reprendre le contrôle, Éditions du Faubourg, 2020) consacré aux effets de la transformation numérique sur le travail et à la régulation des réseaux sociaux.
Résumé
Une philosophie de l’émergence telle que Ferraris l’appelle ne peut s’appuyer sur des catégories physicalistes ou naturalistes. Elle ne peut pas non plus prendre son point de départ dans un niveau identifié de la nature (la physique atomique, les molécules, les organismes vivants). En effet, elle doit questionner la possibilité et la structure ontologique de l’émergence. Chez Ferraris, le noyau spéculatif de la logique transcendantale de l’émergence est l’enregistrement. Mais celui-ci ne présuppose-t-il pas d’autres conditions de possibilité – en particulier, le virtuel et le processus d’individuation. Lorsqu’on prend ceux-ci en compte, ne faut-il pas raconter autrement l’histoire de l’émergence, et ses différents moments ?
Mots-clés : Emergence, individus, virtualité, individuation, trace, institution