InscriptionConnexion
pour la mémoire toute les IA font ça maintenant je crois par contre, elles ont toutes la memoire a court terme avec la contexte windows et celle à long terme qu'elles peuvent influencer , le truc que tu as écrit là, graphe de connaissance/ vector database retrieval augmented generation
:AnyaOUI:


après pour l'AGI l'auteur tu as entendu parler de l'expérience de pensée de la chambre chinoise ?
Maybe I just want to maybe...
il y a 2 jours
Tu as le lien ?

Et Venho utilise aussi un petit modèle vu qu'il est fait pour tourner sur un mini pc

www.jollamind2.com https://www.jollamind2.com/
je l'ai laissé tourner, c'est une version full hallucination là j'ai fix ça, sii tu veux checker :

Vous devez être au niveau 0 pour voir ce message.
il y a 2 jours
pour la mémoire toute les IA font ça maintenant je crois par contre, elles ont toutes la memoire a court terme avec la contexte windows et celle à long terme qu'elles peuvent influencer , le truc que tu as écrit là, graphe de connaissance/ vector database retrieval augmented generation
:AnyaOUI:


après pour l'AGI l'auteur tu as entendu parler de l'expérience de pensée de la chambre chinoise ?
=> non
il y a 2 jours
question qui n'a aucun rapport : est ce que tu es programmeur / dev genre tu t'y connais en machin bdd sql tout ça pour utiliser l'IA en local ?
Maybe I just want to maybe...
il y a 2 jours
je l'ai laissé tourner, c'est une version full hallucination là j'ai fix ça, sii tu veux checker :

Vous devez être au niveau 0 pour voir ce message.
Pourquoi prendre l'affaire Epstein, tu n'as aucun moyen facile de vérifier si ton llm hallucine ?

Essaye les mails de Clinton par exemples, c'est bien documenté.
:boots2:
:CigareeInverse:
:jdZ:
:drapeau_usa:
Vance 2028
:drapeau_usa:
:jdZ:
:Cigaree:
:boots1:
il y a 2 jours
Pourquoi prendre l'affaire Epstein, tu n'as aucun moyen facile de vérifier si ton llm hallucine ?

Essaye les mails de Clinton par exemples, c'est bien documenté.
bah si j'ai tout les documents sur mon pc dans les db et je peux demander les sources de tout au chatbot
il y a 2 jours
pour la mémoire toute les IA font ça maintenant je crois par contre, elles ont toutes la memoire a court terme avec la contexte windows et celle à long terme qu'elles peuvent influencer , le truc que tu as écrit là, graphe de connaissance/ vector database retrieval augmented generation
:AnyaOUI:


après pour l'AGI l'auteur tu as entendu parler de l'expérience de pensée de la chambre chinoise ?
Actuellement au bout de 3 messages elles divaguent déjà donc bon, c'est pas si pertinent que ça
Image bosniecel
il y a 2 jours
Un groupe de terroriste pourai s'accaparer la façon de penser de ton IA en spammant de request ton idée est pas bonne.
:Escargochat:
il y a 2 jours
Un groupe de terroriste pourai s'accaparer la façon de penser de ton IA en spammant de request ton idée est pas bonne.
:Escargochat:
ils vont pas faire monter la confiance en des trucs faux
il y a 2 jours
pose une question => modèle => envoie des données formatée pour trouver les infos pouvant repondre à la question => script créer une requete sql => script envoie le resultat de la requete le sql au modèle => modèle formate la réponse => modèle envoie des données formatée de certitude et de lien => script genere le sql => append la bdd avec une requete et les données de lien et de confiance => petite portion de donnée avec un taux de confiance lacunaire et des liens entre les données

après tu repose une question, ou tu laisse le modèle se poser des questions lui même pour append le graphe
:chat_lunettes:
"pose une question => modèle => envoie des données formatée pour trouver les infos pouvant repondre à la question" il pourrait envoyer quoi comme type de données ? Par exemple si tu lui demandes "Quelle est la capitale de Paris" il réagirait comment ?
Image bosniecel
il y a 2 jours
"pose une question => modèle => envoie des données formatée pour trouver les infos pouvant repondre à la question" il pourrait envoyer quoi comme type de données ? Par exemple si tu lui demandes "Quelle est la capitale de Paris" il réagirait comment ?
Query: "Quelle est la capitale de la France ?"
Intent: find_relationship
Subject: "France" (entity type: location)
Predicate: "capitale" → relationship_type: "is_capital_of" (inverse)

SELECT * FROM entities WHERE canonical_name = 'france'
→ Entity #42 (type: location, importance: 90)

SELECT e.* FROM entities e
JOIN relationships r ON r.from_entity_id = e.id
JOIN relationship_types rt ON r.type_id = rt.id
WHERE r.to_entity_id = 42 AND rt.name = 'is_capital_of'
→ Entity #156: "Paris" (confidence: 95)

SELECT * FROM source_refs WHERE ref_type = 'relationship' AND ref_id = ...
→ 3 sources (Wikipedia weight:40, gov_record weight:85, textbook weight:55)

{
"answer": "Paris",
"confidence": 95,
"evidence": ["gov_record#12", "wikipedia#45"],
"contradictions": [],
"reasoning": "3 sources agree, no contradictions"
}
il y a 2 jours
ils vont pas faire monter la confiance en des trucs faux
Bah avec ton systeme si c'est tres possible, si une grande majorité décide de spammer l'ia de request avec une façon de penser débile celle si prendra la façon de penser de la majorité comme étant la plus plausible.
:Escargochat:
il y a 2 jours
Actuellement au bout de 3 messages elles divaguent déjà donc bon, c'est pas si pertinent que ça
on est plus en 2021 les IA sont plutôt extrêmement cohérente, c'est fini le temps ou l'on demandait comment faire pousser des oeufs de poules et que l'ia te répondait non ironiquement avec une méthode
:risitas_ahi:


l'expérience de pensée de la chambre chinoise qui montre que potentiellement meme une AGI ne serait pas vraiment consciente :
www.twitch.tv https://www.twitch.tv/vid[...]os/2661113541?t=25h51m24s
:baiserChossure:
Maybe I just want to maybe...
il y a 2 jours
Bah avec ton systeme si c'est tres possible, si une grande majorité décide de spammer l'ia de request avec une façon de penser débile celle si prendra la façon de penser de la majorité comme étant la plus plausible.
:Escargochat:
j'ai fix, bien vu


Pourquoi c'est impossible maintenant (version simple)
1. Un vote ne suffit pas
La confiance d'un fait = moyenne de TOUS les votes, pas le dernier. Un attaquant qui vote 100× compte comme 1 personne, pas 100.
2. Tout le monde n'a pas le même poids
Un email original pèse 60. Une "déduction" de l'IA pèse 20. Un attaquant ne peut que soumettre des déductions → son influence est plafonnée à 20%.
3. Les spammeurs se font griller
Plus de 100 actions/heure → flagué automatiquement → banni. Impossible de noyer le système.
4. Les vrais documents sont impossibles à falsifier
Chaque source a un hash (empreinte digitale). Un faux email Epstein n'aura pas le bon hash → rejeté.
5. Le système détecte les attaques coordonnées
10 comptes qui votent pareil sur la même cible en 24h → alerte automatique → votes annulés.
En résumé: Un terroriste peut crier très fort, mais sa voix compte comme un murmure. Et s'il crie trop, on le fait taire.
il y a 2 jours
Query: "Quelle est la capitale de la France ?"
Intent: find_relationship
Subject: "France" (entity type: location)
Predicate: "capitale" → relationship_type: "is_capital_of" (inverse)

SELECT * FROM entities WHERE canonical_name = 'france'
→ Entity #42 (type: location, importance: 90)

SELECT e.* FROM entities e
JOIN relationships r ON r.from_entity_id = e.id
JOIN relationship_types rt ON r.type_id = rt.id
WHERE r.to_entity_id = 42 AND rt.name = 'is_capital_of'
→ Entity #156: "Paris" (confidence: 95)

SELECT * FROM source_refs WHERE ref_type = 'relationship' AND ref_id = ...
→ 3 sources (Wikipedia weight:40, gov_record weight:85, textbook weight:55)

{
"answer": "Paris",
"confidence": 95,
"evidence": ["gov_record#12", "wikipedia#45"],
"contradictions": [],
"reasoning": "3 sources agree, no contradictions"
}
je comprends l'interet du degré de certitude , mais comme pour les humains, ça devrait être une fonction que l'IA décide d'utiliser ou pas en fonction du contexte , parce que nous on vérifie pas tout ce qu'on affirme , on le fait meme très rarement
:KJ_AAH:


par exemple sur la question "quelle est la capitale de la France" l'ia sait déjà la réponse et n'a pas besoin de fact check , ce serait une perte de temps , alors que si c'est une question pointue avec un contexte technique précis l'ia pourrait décider d'utiliser le système lui permettant de raisonner en profondeur et vérifier avec certitude si ce qu'elle dit est fiable, et pourrait lacher un "I dont know" si elle n'est pas sure plutôt qu'inventer un mensonge crédible
Maybe I just want to maybe...
il y a 2 jours
l'AGI là, la singularité, j'ai ptet trouvé une connerie
:chat_lunettes:



je vous met mon idée résumée simplement par l'IA, ça fonctionne en l'etat :

Le problème des LLMs actuels:
Un ChatGPT/Claude est "amnésique" - chaque conversation repart de zéro. Il ne croit rien, ne doute de rien, ne révise jamais ses opinions. C'est un perroquet très intelligent.
Ce que ce framework ajo:

Mémoire persistante structurée - Un graphe de connaissances (entités, relations) qui survit entre les sessions
Degrés de certitude - Chaque fait a un score de confiance (0-100%). Pas binaire vrai/faux comme une DB classique
Auto-révision - Quand une nouvelle info contredit une croyance, le système doit baisser sa confiance. Il apprend de ses erreurs
Doctrine - Des "valeurs" qui guident le raisonnement ("doute des sources officielles", "accuse si les preuves suffisent")

Pourquoi ça se rapproche de l'intelligence:
L'intelligence humaine c'est:

Accumuler des croyances
Les remettre en question face aux preuves
Agir malgré l'incertitude
Tracer pourquoi on croit quelque chose

Pourquoi ça scale: Le LLM ne voit jamais tout - on requête le graphe pour injecter uniquement les faits pertinents à la question, donc 10 000 ou 10 millions d'entités = même taille de contexte.

Un LLM seul = réflexe. LLM + ce framework = début de raisonnement persistant.
C'est pas l'AGI, mais c'est une brique: donner une "mémoire épistémique" à un modèle stateless.
Athena, comme les slips !
:mqdefgif3:
GIF
il y a 2 jours
Query: "Quelle est la capitale de la France ?"
Intent: find_relationship
Subject: "France" (entity type: location)
Predicate: "capitale" → relationship_type: "is_capital_of" (inverse)

SELECT * FROM entities WHERE canonical_name = 'france'
→ Entity #42 (type: location, importance: 90)

SELECT e.* FROM entities e
JOIN relationships r ON r.from_entity_id = e.id
JOIN relationship_types rt ON r.type_id = rt.id
WHERE r.to_entity_id = 42 AND rt.name = 'is_capital_of'
→ Entity #156: "Paris" (confidence: 95)

SELECT * FROM source_refs WHERE ref_type = 'relationship' AND ref_id = ...
→ 3 sources (Wikipedia weight:40, gov_record weight:85, textbook weight:55)

{
"answer": "Paris",
"confidence": 95,
"evidence": ["gov_record#12", "wikipedia#45"],
"contradictions": [],
"reasoning": "3 sources agree, no contradictions"
}
Les types de relations sont hardcodés ?
Image bosniecel
il y a 2 jours
Les types de relations sont hardcodés ?
je termine la base et je te passe le git, je suis pas contre un avis externe


mais oui c'est hardcodé, à base d'itération de prompt soit très large soit correctif, soit carrément libre
il y a 2 jours
je termine la base et je te passe le git, je suis pas contre un avis externe


mais oui c'est hardcodé, à base d'itération de prompt soit très large soit correctif, soit carrément libre
J'ai honnêtement rien à t'apprendre, mais j'essaye juste de comprendre un peu ce que tu fais car c'est intéressant je trouve
Image bosniecel
il y a 2 jours
J'ai honnêtement rien à t'apprendre, mais j'essaye juste de comprendre un peu ce que tu fais car c'est intéressant je trouve
bah là je vais utiliser l'API claude Opus pour traiter les mails et remplir la ddb
il y a 2 jours