InscriptionConnexion
Parce qu'on aimerait bien se passer de payer 22,99 tous les mois pour GPT
:MacronZoomTroll:


Parce qu'on ne veut pas d'une API connectee à un aspirateur de données
:MacronZoomTroll:


Il nous faut des LLMs maison mais qui soient aussi performants que GPT
:MacronZoomTroll:


Sinon, ça ne sert à rien

Donc il y a plusieurs LLMs locaux :

- Ollama propose un panel de plusieurs modèles interessants avec intégration (si vous faites du software, ça pèse quelques Go mais aucun n'arrive à la cheville de GPT)
:Walter_crie:


- Open Chat (dans leurs bench ils explosent GPT)
:MacronZoomTroll:


- un nouveau que j'ai oublié (edit : il s'appelle JAN jan.ai https://jan.ai/ )
:WTF_lunettes_:



Visualisation du bordel type GPT :
bbycroft.net https://bbycroft.net/llm?utm_source=chatgpt.com

Et vous ? Vos LLMs locaux c'est quoi ?
:pouet:
il y a 3 jours
Parce qu'on aimerait bien se passer de payer 22,99 tous les mois pour GPT
:MacronZoomTroll:


Parce qu'on ne veut pas d'une API connectee à un aspirateur de données
:MacronZoomTroll:


Il nous faut des LLMs maison mais qui soient aussi performants que GPT
:MacronZoomTroll:


Sinon, ça ne sert à rien

Donc il y a plusieurs LLMs locaux :

- Ollama propose un panel de plusieurs modèles interessants avec intégration (si vous faites du software, ça pèse quelques Go mais aucun n'arrive à la cheville de GPT)
:Walter_crie:


- Open Chat (dans leurs bench ils explosent GPT)
:MacronZoomTroll:


- un nouveau que j'ai oublié (edit : il s'appelle JAN jan.ai https://jan.ai/ )
:WTF_lunettes_:



Visualisation du bordel type GPT :
bbycroft.net https://bbycroft.net/llm?utm_source=chatgpt.com

Et vous ? Vos LLMs locaux c'est quoi ?
:pouet:
Qu'est-ce que tu penses des TEE ?
:cafe:
il y a un jour
Qu'est-ce que tu penses des TEE ?
:cafe:
Ça prend du temps à faire et c'est seulement si tu veux faire des carabistouilles, mais ça peut être pratique si tu veux t'amuser et que tu sais configurer des serveurs.

T'as AMD SEV SNP et Intel TDX qui peuvent te servir dans ce cas
:MacronZoom:
il y a un jour
Ça prend du temps à faire et c'est seulement si tu veux faire des carabistouilles, mais ça peut être pratique si tu veux t'amuser et que tu sais configurer des serveurs.

T'as AMD SEV SNP et Intel TDX qui peuvent te servir dans ce cas
:MacronZoom:
Et ton avis sur les services en ligne qui proposent l'exécution en TEE ? C'est vraiment auditable en théorie ?
il y a un jour
Et ton avis sur les services en ligne qui proposent l'exécution en TEE ? C'est vraiment auditable en théorie ?
Ahi pour moi non, il faudrait que tu puisses mettre le nez dedans toi même et ils laisseront jamais faire parce que c'est le meilleur moyen pour chercher une faille.
:pouet:


Tout ce qu'ils peuvent te donner si tu demandes à auditer c'est du papier
:MacronZoomTroll:
il y a un jour
Ahi pour moi non, il faudrait que tu puisses mettre le nez dedans toi même et ils laisseront jamais faire parce que c'est le meilleur moyen pour chercher une faille.
:pouet:


Tout ce qu'ils peuvent te donner si tu demandes à auditer c'est du papier
:MacronZoomTroll:
Et moi qui pensais naïvement qu'un TEE créait un moyen de vérifier numériquement que les conditions d'exécution réelles sont celles déclarées
:zahi:
il y a un jour
Et moi qui pensais naïvement qu'un TEE créait un moyen de vérifier numériquement que les conditions d'exécution réelles sont celles déclarées
:zahi:
Tu pourras jamais tout vérifier surtout côté matériel et ils ont des surfaces non couvertes + canaux auxiliaires vulnérables parce que tu sais pas ce qu'ils font avec
:MacronRire:


:olicard:
Après si tu veux des architectures invulnérables il y en a en réseau local isolé
il y a un jour
Tu pourras jamais tout vérifier surtout côté matériel et ils ont des surfaces non couvertes + canaux auxiliaires vulnérables parce que tu sais pas ce qu'ils font avec
:MacronRire:


:olicard:
Après si tu veux des architectures invulnérables il y en a en réseau local isolé
Nonobstant je pose ces questions parce que j'ai peu de moyens à mettre dans du matériel capable de faire tourner un LLM décent localement; pour l'instant je suis un cloudfag
:noel:
il y a un jour
Nonobstant je pose ces questions parce que j'ai peu de moyens à mettre dans du matériel capable de faire tourner un LLM décent localement; pour l'instant je suis un cloudfag
:noel:
C'est le futur pourtant
:chat_lunettes:


La flemme de payer un cloud qui modulera les prix en fonction de la bande passante utilisée
:chat_lunettes:
il y a un jour
C'est le futur pourtant
:chat_lunettes:


La flemme de payer un cloud qui modulera les prix en fonction de la bande passante utilisée
:chat_lunettes:
c'est gagnant en dessous d'un certain volume de requêtes, mais au delà d'un certain seuil l'achat est plus rentable.

Tu dirais qu'il faut quoi comme budget aujourd'hui pour exécuter un modèle 87b dans des conditions décentes ?
il y a un jour
Go openrouter
:teddihopital:
:teddigolden:
il y a un jour
c'est gagnant en dessous d'un certain volume de requêtes, mais au delà d'un certain seuil l'achat est plus rentable.

Tu dirais qu'il faut quoi comme budget aujourd'hui pour exécuter un modèle 87b dans des conditions décentes ?
Non mais le prix peut etre dementiel il faut masse de vram et acheter des grosses Teslas
:chatcul:


Mais sinon t'as llama7B avec une carte de 16GoVRAM ça suffit
:chat_lunettes:
il y a un jour
En ce moment je teste différents LLM en local, je ne suis pas déçu
:theMilk:
il y a un jour
En ce moment je teste différents LLM en local, je ne suis pas déçu
:theMilk:
Lequel marche le mieux ? C'est quoi le type de tache le plus courant que tu fais ? (Code? Meta prompting ?....)
il y a un jour
Lequel marche le mieux ? C'est quoi le type de tache le plus courant que tu fais ? (Code? Meta prompting ?....)
Je lui donne en données mes notes et je lui demande parfois de chercher dedans
Là je galère encore dans la config
:risitas_gonfle:
il y a un jour
Non mais le prix peut etre dementiel il faut masse de vram et acheter des grosses Teslas
:chatcul:


Mais sinon t'as llama7B avec une carte de 16GoVRAM ça suffit
:chat_lunettes:
16Go
:rire:


Genre t'as ça ?

Pour llama3 8b, 6Go de VRAM suffit
Image
il y a 19 heures
16Go
:rire:


Genre t'as ça ?

Pour llama3 8b, 6Go de VRAM suffit
Bah oui j'ai 16Go de VRAM et t'en fais pas que je sollicite trop mes modèles ils me le font savoir
:MacronRire:


J'ai aussi accès à des TESLAS quand je veux faire des carabistouilles
:MacronZoomTroll:


Je sais que pour les modèles llama tu fais un peu ce que tu veux de toute façon j'ai juste testé avec ma carte quelques modèles classiques
:choque5:


Je vais peut etre m'acheter un laptop prochainement je prendrai un vieux truc type macbook air et je testerai des modeles dessus
:pouet:
il y a 17 heures
Bah oui j'ai 16Go de VRAM et t'en fais pas que je sollicite trop mes modèles ils me le font savoir
:MacronRire:


J'ai aussi accès à des TESLAS quand je veux faire des carabistouilles
:MacronZoomTroll:


Je sais que pour les modèles llama tu fais un peu ce que tu veux de toute façon j'ai juste testé avec ma carte quelques modèles classiques
:choque5:


Je vais peut etre m'acheter un laptop prochainement je prendrai un vieux truc type macbook air et je testerai des modeles dessus
:pouet:
Avec 16Go tu peux déjà te faire un petit deepseek-r1:14b
Image
il y a 17 heures
Avec 16Go tu peux déjà te faire un petit deepseek-r1:14b
Je mange pas chinois malheureusement
:MacronZoomTroll:
il y a 17 heures
Je mange pas chinois malheureusement
:MacronZoomTroll:
bah t'es con
Image
il y a 17 heures