Pourquoi l'ere du prompt engineering est terminee
De comment le dire a ce qu'on montre -- le jeu a change
GEUL — Un langage artificiel sémantiquement aligné pour une communication sans ambiguïté entre humains et IA
De comment le dire a ce qu'on montre -- le jeu a change
Paraitre pertinent et etre pertinent ne sont pas la meme chose
Une entree claire produit une sortie claire
Le langage naturel n'a pas de concept de phrase invalide
Une information valide n'est pas toujours une information necessaire
Des informations individuellement correctes peuvent etre collectivement fausses
Quand l'index depasse la fenetre, le paradigme de recherche lui-meme atteint sa limite
L'hallucination n'est pas un bug du LLM — c'est une inevitabilite structurelle causee par quatre defauts du langage naturel : ambiguite, absence de source, de confiance et de contexte temporel. Des modeles plus grands n'y remedient pas.
Les formats existants ne peuvent pas porter le sens
Les langages de programmation décrivent des procédures. Ils ne peuvent pas décrire le monde. JSON fournit une structure mais pas de sens. Même LISP ne fait qu'emprunter la syntaxe.
Réarranger les vecteurs d'embedding casse le modèle. Éviter la casse revient à reconstruire le modèle de zéro. Ce qu'il faut, ce n'est pas de la transparence à l'intérieur de la boîte noire, mais une couche transparente à l'extérieur.
Les langues artificielles pour les humains ont echoue -- les langues artificielles pour l'IA sont differentes
GEUL ne rejette pas Wikidata. Il transforme le systeme de classification et les statistiques de frequence de 100 millions d'entites en livres de codes SIDX. La grammaire est construite par-dessus un dictionnaire.
Quand le sens est grave dans les bits, la recherche devient raisonnement
L'intelligence sans memoire repart de zero a chaque fois
Transformer une seule inference en une procedure permanente