InscriptionConnexion
Un LLM peut exécuter un script externe, qui peut à son tour [ interroger une BDD | consulter le web | faire des calculs | lire un thermomètre | allumer la lumière | etc ]


Utilisateur : Quelle est la température ?
LLM : Lance le script qui lit le thermomètre
LLM : Reçoit la tepérature
LLM : Il fait 21°


Utilisateur : Allume la lumière
LLM : Lance le script qui allume la lumière
LLM : Reçoit l'information "Lumière allumée"
LLM : La lumière est allumée
Une petite nuance : le LLM ne contrôle pas le script.


la réponse du LLM va renvoyer une variable. Response : allow

le script reçois cette var = allow

if allow then run "recherche.py"

le LLM ne décidé pas tout seul de lancer le script
Je ne suis pas patriote ou nationaliste. Je ne l'ai jamais été. Juste racialiste et anti européen. démocratie = scam.
il y a 4 jours
pour le dire plus clairement, c'est le script le vrai cerveau qui va donner des ordres. c'est lui l'exécutant.

le LLM n'a qu'un travail d'analyste (je simplifie car certains LLM savent utiliser des méthodes de calculs intégrée), avec une mémoire non fiable

la BDD est la mémoire fiable à 100%.


les trois ont un travail distinct mais c'est le script qui va déclencher tout
Je ne suis pas patriote ou nationaliste. Je ne l'ai jamais été. Juste racialiste et anti européen. démocratie = scam.
il y a 4 jours
pour le dire plus clairement, c'est le script le vrai cerveau qui va donner des ordres. c'est lui l'exécutant.

le LLM n'a qu'un travail d'analyste (je simplifie car certains LLM savent utiliser des méthodes de calculs intégrée), avec une mémoire non fiable

la BDD est la mémoire fiable à 100%.


les trois ont un travail distinct mais c'est le script qui va déclencher tout
j'ai pas ton courage
il y a 4 jours
j'ai pas ton courage
après je fais des vidéos YouTube pour expliquer tout ce bordel aux gens normaux donc c'est vraiment en moi le support utilisateur.

et je trouve qu'on complexifie inutilement l'informatique qui dans le fond, utilise toujours les mêmes principes (CRUD, SOC, conditions...)
Je ne suis pas patriote ou nationaliste. Je ne l'ai jamais été. Juste racialiste et anti européen. démocratie = scam.
il y a 4 jours
Une petite nuance : le LLM ne contrôle pas le script.


la réponse du LLM va renvoyer une variable. Response : allow

le script reçois cette var = allow

if allow then run "recherche.py"

le LLM ne décidé pas tout seul de lancer le script
Il le contrôle indirectement au travers de l'exécuteur, le programme qui est interfacé au LLM (très généralement à travers un API REST), et que tu as toi-même écrit. J'ai donné un exemple plus haut : ollama.com https://ollama.com/blog/tool-support

Cet exemple va chercher la température d'une ville donnée en argument.
Certifié tous gaz.
il y a 4 jours
Il le contrôle indirectement au travers de l'exécuteur, le programme qui est interfacé au LLM (très généralement à travers un API REST), et que tu as toi-même écrit. J'ai donné un exemple plus haut : ollama.com https://ollama.com/blog/tool-support

Cet exemple va chercher la température d'une ville donnée en argument.
C'est une illusion de contrôle

en fait quand tu dit à ton LLM il fait qu'elle température à Paris AJD ou 2+5 = ?

le LLM ne cherche pas dans sa mémoire (sauf les plus cons), ChatGpt fait le chemin "calcul détecté go mathplotlib transmettre les variables" ou "lance requête vers serveur meteo paris et lis le json"

un LLM en fait c'est con
Je ne suis pas patriote ou nationaliste. Je ne l'ai jamais été. Juste racialiste et anti européen. démocratie = scam.
il y a 4 jours
ton LLM oolama

"Example tools include:

Functions and APIs
Web browsing
Code interpreter
much more!
"

il est probablement architecturé comme ça :

oollama-v1
webbrowing.py
codeiterpreter.py
...

oolama est prompté pour capter qu'il doit se servir des tools.
Je ne suis pas patriote ou nationaliste. Je ne l'ai jamais été. Juste racialiste et anti européen. démocratie = scam.
il y a 4 jours
ton LLM oolama

"Example tools include:

Functions and APIs
Web browsing
Code interpreter
much more!
"

il est probablement architecturé comme ça :

oollama-v1
webbrowing.py
codeiterpreter.py
...

oolama est prompté pour capter qu'il doit se servir des tools.
Oui. Ça fait juste 3 pages que je le dis.
Certifié tous gaz.
il y a 4 jours
Vite mon ia dossier Trump
:Pikaeclair:
:Pikaeclair:

:cache_sexe:
Un visage sincère et plein d'empathie est le vrai visage de la " force"
il y a 4 jours