InscriptionConnexion
L'implémentation est toujours expérimentale mais ils sont sur le bon chemins avec le système d'authentification avec preuves zk pour accéder au mixnet.
:poichonbucket:
Tu l'utilise toi ?
:miko_think3:
#CB99C9
il y a un jour
Tu l'utilise toi ?
:miko_think3:
Non j'utilise encore mullvad avec daita.
:chat_table:
Vēritās līberābit vōs
il y a un jour
Possible mais met en focus energy et regarde le score de Gpt-oss

Sinon tu t'y connais en LLM local ? J'ai un PC mais je sais pas quel modèle je peux heberger
Ton plus gros facteur de décision ça va être ta puissance de calcul. Si t'as 12G de VRAM ou 36 c'est pas la même réponse. . Pewdiepie a fait une vidéo où il héberge des models locaux, et en fait du moment que tu autorises la recherches sur internet mais les petits models sont performants.
:Glandu:
il y a un jour
Non j'utilise encore mullvad avec daita.
:chat_table:
Based
:chat_table:


Mullvad a tenu bon lors du hack de Vastaamo, du coup je reste fidèle perso
:miko_think3:
#CB99C9
il y a un jour
llama.cpp a aussi le mérite d'être opensource
:chat_table:
Oui ça c'est top mais la web ui je m'en branle parce que ça veut dire que ça transforme ta machine en serveur et donc c'est un tas d'autres soucis de sécurité à prendre en compte
Nous sommes un.
:Mindflayer:
il y a un jour
Ton plus gros facteur de décision ça va être ta puissance de calcul. Si t'as 12G de VRAM ou 36 c'est pas la même réponse. . Pewdiepie a fait une vidéo où il héberge des models locaux, et en fait du moment que tu autorises la recherches sur internet mais les petits models sont performants.
:Glandu:
Oui je l'ai vu.

J'ai 5GB de VRAM mais 32 de RAM
:Risisinge:
Nous sommes un.
:Mindflayer:
il y a un jour