management:outils:ia_llm_explication
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| management:outils:ia_llm_explication [2026/02/20 08:43] – ADICE | management:outils:ia_llm_explication [2026/02/21 16:25] (Version actuelle) – supprimée ADICE | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | ===== IA LLM explication ===== | ||
| - | |||
| - | ChatGPT 13/02/2026 | ||
| - | |||
| - | ====== IA, LLM et Philosophie : Analyse critique ====== | ||
| - | |||
| - | ===== 1. Qu’est-ce qu’un LLM ? ===== | ||
| - | |||
| - | Un LLM (Large Language Model) est un modèle de langage de grande taille fondé sur une architecture de type Transformer. | ||
| - | |||
| - | Il fonctionne par : | ||
| - | * Tokenisation du texte | ||
| - | * Transformation en vecteurs numériques (embeddings) | ||
| - | * Mécanisme d’attention | ||
| - | * Prédiction probabiliste du mot suivant | ||
| - | |||
| - | Il ne comprend pas le sens au sens humain, mais modélise les régularités statistiques du langage. | ||
| - | |||
| - | ---- | ||
| - | |||
| - | ===== 2. Apprentissage auto-supervisé ===== | ||
| - | |||
| - | Le pré-entraînement d’un LLM repose sur l’auto-supervision : | ||
| - | |||
| - | * Prédiction du mot suivant | ||
| - | * Masquage de mots | ||
| - | * Reconstruction contextuelle | ||
| - | |||
| - | Il n’y a pas d’étiquettes humaines sur le contenu. | ||
| - | Le modèle apprend les corrélations linguistiques, | ||
| - | |||
| - | ---- | ||
| - | |||
| - | ===== 3. Génération des réponses ===== | ||
| - | |||
| - | La réponse est produite mot par mot : | ||
| - | |||
| - | - Analyse du prompt | ||
| - | - Calcul d’une distribution de probabilité | ||
| - | - Sélection d’un token | ||
| - | - Boucle récursive | ||
| - | |||
| - | La cohérence globale émerge de la répétition locale de calculs probabilistes. | ||
| - | |||
| - | ---- | ||
| - | |||
| - | ===== 4. Proximité géométrique du sens ===== | ||
| - | |||
| - | Chaque mot est représenté comme un vecteur dans un espace à haute dimension. | ||
| - | |||
| - | Exemple simplifié : | ||
| - | |||
| - | * chat ≈ chien (proximité forte) | ||
| - | * amour ≈ haine (proximité abstraite) | ||
| - | * chat ≠ justice (distance élevée) | ||
| - | |||
| - | La similarité est calculée par : | ||
| - | * Distance euclidienne | ||
| - | * Similarité cosinus | ||
| - | |||
| - | La signification devient position dans un espace mathématique. | ||
| - | |||
| - | ---- | ||
| - | |||
| - | ===== 5. Falsifiabilité et Popper ===== | ||
| - | |||
| - | Selon Karl Popper : | ||
| - | |||
| - | * Une proposition scientifique doit être falsifiable. | ||
| - | * Elle doit pouvoir être réfutée par l’expérience. | ||
| - | |||
| - | Or un LLM : | ||
| - | * Ne teste pas ses affirmations. | ||
| - | * Ne confronte pas ses énoncés au réel. | ||
| - | * Ne distingue pas le vrai du plausible. | ||
| - | |||
| - | Conclusion : | ||
| - | Les énoncés générés ne sont pas falsifiables au sens poppérien. | ||
| - | |||
| - | ---- | ||
| - | |||
| - | ===== 6. Harari et l’« intelligence non-organique » ===== | ||
| - | |||
| - | Harari parle d’IA comme d’une " | ||
| - | |||
| - | Lecture possible : | ||
| - | |||
| - | * Métaphoriquement juste (rupture anthropologique). | ||
| - | * Scientifiquement discutable (absence de conscience et d’intention). | ||
| - | |||
| - | Un LLM est : | ||
| - | |||
| - | * Un système statistique | ||
| - | * Sans subjectivité | ||
| - | * Sans finalité propre | ||
| - | |||
| - | Il simule la rationalité sans participer au processus scientifique. | ||
| - | |||
| - | ---- | ||
| - | |||
| - | ===== 7. Mythe, philosophie et rationalité ===== | ||
| - | |||
| - | Philosophie classique : | ||
| - | |||
| - | * Clarifier les concepts | ||
| - | * Distinguer savoir et croyance | ||
| - | * Déconstruire les mythes | ||
| - | |||
| - | Harari : | ||
| - | |||
| - | * Produit un récit global | ||
| - | * Utilise des métaphores structurantes | ||
| - | * Met en scène une rupture civilisationnelle | ||
| - | |||
| - | Distinction : | ||
| - | |||
| - | ^ Discours mythique ^ Discours philosophique ^ Discours scientifique ^ | ||
| - | | Narratif | Conceptuel | Expérimental | | ||
| - | | Totalisant | Analytique | Falsifiable | | ||
| - | | Symbolique | Argumentatif | Empirique | | ||
| - | |||
| - | ---- | ||
| - | |||
| - | ===== 8. Synthèse générale ===== | ||
| - | |||
| - | Un LLM : | ||
| - | * Produit du vraisemblable | ||
| - | * N’a pas de critère interne de vérité | ||
| - | * N’est pas un sujet cognitif | ||
| - | |||
| - | Harari : | ||
| - | * Comprend la portée civilisationnelle | ||
| - | * Simplifie la nature technique | ||
| - | |||
| - | La vigilance critique reste nécessaire : | ||
| - | - Vérification des sources | ||
| - | - Distinction entre cohérence et vérité | ||
| - | - Retour au cadre de la démonstration rationnelle | ||
| - | |||
/var/www/la-plateforme-stevenson.org/htdocs/v4/data/attic/management/outils/ia_llm_explication.1771573426.txt.gz · Dernière modification : de ADICE