management:ia_wiki:llm_explication_1_base_ia
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédente | |||
| management:ia_wiki:llm_explication_1_base_ia [2026/02/27 08:10] – supprimée - modification externe (Date inconnue) 127.0.0.1 | management:ia_wiki:llm_explication_1_base_ia [2026/02/27 08:10] (Version actuelle) – ↷ Nom de la page changé de management:ia_wiki:llm_explication_1_ia_base_ia à management:ia_wiki:llm_explication_1_base_ia ADICE | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| + | ===== LLM explication 1 (base) IA ===== | ||
| + | |||
| + | ChatGPT 13/02/2026 | ||
| + | |||
| + | ===== 1. Qu’est-ce qu’un LLM ? ===== | ||
| + | |||
| + | Un LLM (Large Language Model) est un modèle de langage de grande taille fondé sur une architecture de type Transformer. | ||
| + | |||
| + | Il fonctionne par : | ||
| + | |||
| + | * Tokenisation du texte | ||
| + | * Transformation en vecteurs numériques (embeddings) | ||
| + | * Mécanisme d’attention | ||
| + | * Prédiction probabiliste du mot suivant | ||
| + | |||
| + | Il ne comprend pas le sens au sens humain, mais modélise les régularités statistiques du langage. | ||
| + | |||
| + | ---- | ||
| + | |||
| + | ===== 2. Apprentissage auto-supervisé ===== | ||
| + | |||
| + | Le pré-entraînement d’un LLM repose sur l’auto-supervision : | ||
| + | |||
| + | * Prédiction du mot suivant | ||
| + | * Masquage de mots | ||
| + | * Reconstruction contextuelle | ||
| + | |||
| + | Il n’y a pas d’étiquettes humaines sur le contenu. Le modèle apprend les corrélations linguistiques, | ||
| + | |||
| + | ---- | ||
| + | |||
| + | ===== 3. Génération des réponses ===== | ||
| + | |||
| + | La réponse est produite mot par mot : | ||
| + | |||
| + | - Analyse du prompt | ||
| + | - Calcul d’une distribution de probabilité | ||
| + | - Sélection d’un token | ||
| + | - Boucle récursive | ||
| + | |||
| + | La cohérence globale émerge de la répétition locale de calculs probabilistes. | ||
| + | |||
| + | ---- | ||
| + | |||
| + | ===== 4. Proximité géométrique du sens ===== | ||
| + | |||
| + | Chaque mot est représenté comme un vecteur dans un espace à haute dimension. | ||
| + | |||
| + | Exemple simplifié : | ||
| + | |||
| + | * chat ≈ chien (proximité forte) | ||
| + | * amour ≈ haine (proximité abstraite) | ||
| + | * chat ≠ justice (distance élevée) | ||
| + | |||
| + | La similarité est calculée par : | ||
| + | |||
| + | * Distance euclidienne | ||
| + | * Similarité cosinus | ||
| + | |||
| + | La signification devient position dans un espace mathématique. | ||
| + | |||
| + | ---- | ||
| + | |||
| + | ===== 5. Falsifiabilité et Popper ===== | ||
| + | |||
| + | Selon Karl Popper : | ||
| + | |||
| + | * Une proposition scientifique doit être falsifiable. | ||
| + | * Elle doit pouvoir être réfutée par l’expérience. | ||
| + | |||
| + | Or un LLM : | ||
| + | |||
| + | * Ne teste pas ses affirmations. | ||
| + | * Ne confronte pas ses énoncés au réel. | ||
| + | * Ne distingue pas le vrai du plausible. | ||
| + | |||
| + | Conclusion : Les énoncés générés ne sont pas falsifiables au sens poppérien. | ||
| + | |||
| + | ---- | ||
| + | |||
| + | ===== 6. Harari et l’« intelligence non-organique » ===== | ||
| + | |||
| + | Harari parle d’IA comme d’une " | ||
| + | |||
| + | Lecture possible : | ||
| + | |||
| + | * Métaphoriquement juste (rupture anthropologique). | ||
| + | * Scientifiquement discutable (absence de conscience et d’intention). | ||
| + | |||
| + | Un LLM est : | ||
| + | |||
| + | * Un système statistique | ||
| + | * Sans subjectivité | ||
| + | * Sans finalité propre | ||
| + | |||
| + | Il simule la rationalité sans participer au processus scientifique. | ||
| + | |||
| + | ---- | ||
| + | |||
| + | ===== 7. Mythe, philosophie et rationalité ===== | ||
| + | |||
| + | Philosophie classique : | ||
| + | |||
| + | * Clarifier les concepts | ||
| + | * Distinguer savoir et croyance | ||
| + | * Déconstruire les mythes | ||
| + | |||
| + | Harari : | ||
| + | |||
| + | * Produit un récit global | ||
| + | * Utilise des métaphores structurantes | ||
| + | * Met en scène une rupture civilisationnelle | ||
| + | |||
| + | Distinction : | ||
| + | |||
| + | ^Discours mythique^Discours philosophique^Discours scientifique| | ||
| + | |Narratif|Conceptuel|Expérimental| | ||
| + | |Totalisant|Analytique|Falsifiable| | ||
| + | |Symbolique|Argumentatif|Empirique| | ||
| + | |||
| + | ---- | ||
| + | |||
| + | ===== 8. Synthèse générale ===== | ||
| + | |||
| + | Un LLM : | ||
| + | |||
| + | * Produit du vraisemblable | ||
| + | * N’a pas de critère interne de vérité | ||
| + | * N’est pas un sujet cognitif | ||
| + | |||
| + | Harari : | ||
| + | |||
| + | * Comprend la portée civilisationnelle | ||
| + | * Simplifie la nature technique | ||
| + | |||
| + | La vigilance critique reste nécessaire : | ||
| + | |||
| + | - Vérification des sources | ||
| + | - Distinction entre cohérence et vérité | ||
| + | - Retour au cadre de la démonstration rationnelle | ||
| + | |||