InscriptionConnexion
l'AGI là, la singularité, j'ai ptet trouvé une connerie
:chat_lunettes:



je vous met mon idée résumée simplement par l'IA, ça fonctionne en l'etat :

Le problème des LLMs actuels:
Un ChatGPT/Claude est "amnésique" - chaque conversation repart de zéro. Il ne croit rien, ne doute de rien, ne révise jamais ses opinions. C'est un perroquet très intelligent.
Ce que ce framework ajo:

Mémoire persistante structurée - Un graphe de connaissances (entités, relations) qui survit entre les sessions
Degrés de certitude - Chaque fait a un score de confiance (0-100%). Pas binaire vrai/faux comme une DB classique
Auto-révision - Quand une nouvelle info contredit une croyance, le système doit baisser sa confiance. Il apprend de ses erreurs
Doctrine - Des "valeurs" qui guident le raisonnement ("doute des sources officielles", "accuse si les preuves suffisent")

Pourquoi ça se rapproche de l'intelligence:
L'intelligence humaine c'est:

Accumuler des croyances
Les remettre en question face aux preuves
Agir malgré l'incertitude
Tracer pourquoi on croit quelque chose

Pourquoi ça scale: Le LLM ne voit jamais tout - on requête le graphe pour injecter uniquement les faits pertinents à la question, donc 10 000 ou 10 millions d'entités = même taille de contexte.

Un LLM seul = réflexe. LLM + ce framework = début de raisonnement persistant.
C'est pas l'AGI, mais c'est une brique: donner une "mémoire épistémique" à un modèle stateless.
il y a 3 jours
j'ai commandé un giga fast food pour la peine, je retourne à mon chatbot
il y a 3 jours
:Joueur_de_MMO:
@Lazuli ImageTocka Image
il y a 3 jours
litteralement moi depuis une semaine
:indien_vieux:
il y a 3 jours
litteralement moi depuis une semaine
:indien_vieux:
Force
:gne1:
@Lazuli ImageTocka Image
il y a 3 jours
l'AGI là, la singularité, j'ai ptet trouvé une connerie
:chat_lunettes:



je vous met mon idée résumée simplement par l'IA, ça fonctionne en l'etat :

Le problème des LLMs actuels:
Un ChatGPT/Claude est "amnésique" - chaque conversation repart de zéro. Il ne croit rien, ne doute de rien, ne révise jamais ses opinions. C'est un perroquet très intelligent.
Ce que ce framework ajo:

Mémoire persistante structurée - Un graphe de connaissances (entités, relations) qui survit entre les sessions
Degrés de certitude - Chaque fait a un score de confiance (0-100%). Pas binaire vrai/faux comme une DB classique
Auto-révision - Quand une nouvelle info contredit une croyance, le système doit baisser sa confiance. Il apprend de ses erreurs
Doctrine - Des "valeurs" qui guident le raisonnement ("doute des sources officielles", "accuse si les preuves suffisent")

Pourquoi ça se rapproche de l'intelligence:
L'intelligence humaine c'est:

Accumuler des croyances
Les remettre en question face aux preuves
Agir malgré l'incertitude
Tracer pourquoi on croit quelque chose

Pourquoi ça scale: Le LLM ne voit jamais tout - on requête le graphe pour injecter uniquement les faits pertinents à la question, donc 10 000 ou 10 millions d'entités = même taille de contexte.

Un LLM seul = réflexe. LLM + ce framework = début de raisonnement persistant.
C'est pas l'AGI, mais c'est une brique: donner une "mémoire épistémique" à un modèle stateless.
Ce n'est pas déjà le fonctionnement partiel de ChatGPT ?

Je crois qu'il s'adapte à toi.

Du coup, tu vas faire un agent en parallèle d'un chat ?

Style, tu poses une question, l'agent cherche à rajouter du contexte via la BDD et tu donnes le tout à un chat bot de base ?
:boots2:
:CigareeInverse:
:jdZ:
:drapeau_usa:
Vance 2028
:drapeau_usa:
:jdZ:
:Cigaree:
:boots1:
il y a 3 jours
github.com https://github.com/mem0ai/mem0

github.com https://github.com/langchain-ai/memory-agent

Tu n'es pas le premier visiblement mem0.ai https://mem0.ai/
:sueur:


6 mois plus tôt est les 24 millions était pour toi
:Colgate:


Image
:boots2:
:CigareeInverse:
:jdZ:
:drapeau_usa:
Vance 2028
:drapeau_usa:
:jdZ:
:Cigaree:
:boots1:
il y a 3 jours
Ce n'est pas déjà le fonctionnement partiel de ChatGPT ?

Je crois qu'il s'adapte à toi.

Du coup, tu vas faire un agent en parallèle d'un chat ?

Style, tu poses une question, l'agent cherche à rajouter du contexte via la BDD et tu donnes le tout à un chat bot de base ?
non, il est juste entrainé sur un giga corpus de donnée qu'il append
il y a 3 jours
github.com https://github.com/mem0ai/mem0

github.com https://github.com/langchain-ai/memory-agent

Tu n'es pas le premier visiblement mem0.ai https://mem0.ai/
:sueur:


6 mois plus tôt est les 24 millions était pour toi
:Colgate:


Image
bof


j'ai des résultats sur les dossiers epsteiin que personne a sortis encore avec, ça doit pas être si siimple
il y a 3 jours
bientôt l'auteur va découvrir Neuro Sama
:RaphielAraAra:
Maybe I just want to maybe...
il y a 3 jours
non, il est juste entrainé sur un giga corpus de donnée qu'il append
Comment tu fais pour le degré de certitude ?


Tu demandes au même modèle ou plusieurs modèles ?
:boots2:
:CigareeInverse:
:jdZ:
:drapeau_usa:
Vance 2028
:drapeau_usa:
:jdZ:
:Cigaree:
:boots1:
il y a 3 jours
Comment tu fais pour le degré de certitude ?


Tu demandes au même modèle ou plusieurs modèles ?
pose une question => modèle => envoie des données formatée pour trouver les infos pouvant repondre à la question => script créer une requete sql => script envoie le resultat de la requete le sql au modèle => modèle formate la réponse => modèle envoie des données formatée de certitude et de lien => script genere le sql => append la bdd avec une requete et les données de lien et de confiance => petite portion de donnée avec un taux de confiance lacunaire et des liens entre les données

après tu repose une question, ou tu laisse le modèle se poser des questions lui même pour append le graphe
:chat_lunettes:
il y a 3 jours
pose une question => modèle => envoie des données formatée pour trouver les infos pouvant repondre à la question => script créer une requete sql => script envoie le resultat de la requete le sql au modèle => modèle formate la réponse => modèle envoie des données formatée de certitude et de lien => script genere le sql => append la bdd avec une requete et les données de lien et de confiance => petite portion de donnée avec un taux de confiance lacunaire et des liens entre les données

après tu repose une question, ou tu laisse le modèle se poser des questions lui même pour append le graphe
:chat_lunettes:
Comme www.venho.ai https://www.venho.ai/ quoi
:jesus_zoom_visage:
:boots2:
:CigareeInverse:
:jdZ:
:drapeau_usa:
Vance 2028
:drapeau_usa:
:jdZ:
:Cigaree:
:boots1:
il y a 3 jours
=> non + full opensource
il y a 3 jours
=> non + full opensource
OK
:Colgate:


Bonne réinvention de la roue
:Colgate:
:boots2:
:CigareeInverse:
:jdZ:
:drapeau_usa:
Vance 2028
:drapeau_usa:
:jdZ:
:Cigaree:
:boots1:
il y a 3 jours
OK
:Colgate:


Bonne réinvention de la roue
:Colgate:
leur modèle est comme gpt, des contextes enorme pour traiter mal des données enorme

je bosse avec un modèle 7B et j'arrive à sortir des conclusion complexes sur les dossiers epsteiin, dans un premier temps, le site est en ligne
il y a 3 jours
leur modèle est comme gpt, des contextes enorme pour traiter mal des données enorme

je bosse avec un modèle 7B et j'arrive à sortir des conclusion complexes sur les dossiers epsteiin, dans un premier temps, le site est en ligne
Tu as le lien ?

Et Venho utilise aussi un petit modèle vu qu'il est fait pour tourner sur un mini pc

www.jollamind2.com https://www.jollamind2.com/
:boots2:
:CigareeInverse:
:jdZ:
:drapeau_usa:
Vance 2028
:drapeau_usa:
:jdZ:
:Cigaree:
:boots1:
il y a 3 jours
Tu as le lien ?

Et Venho utilise aussi un petit modèle vu qu'il est fait pour tourner sur un mini pc

www.jollamind2.com https://www.jollamind2.com/
oui mais là je suis en train de tout rebuild, donc je suis pas sur que ce soit pertinent, d'ici une heure ou 2 ça sera fonctionnel sur le corpus des mails d'epstein, et après j'ajoute tout les dataset exploitable petit à petit

j'en suis à 200€ d'IA dépensé dans le projet


pwnd.icu
il y a 3 jours