InscriptionConnexion
coucou mes kheyou, vous le savez sans doute mais chat GPT est pas seul dans le game des IA

l'une d'elle est LLaMA qui a publier son code source, cependant le code source sans les données d'entrainement ben ça vaut pas grand chose

c'est pour ça qu'elles ont fuité magnet:?xt=urn:btih:ZXXDAUWYLRUXXBHUYEMS6Q5CE5WA3LVA&dn=LLaMA


la version 65 GB peut être tentant mais elle demande 38 G de ram pour tourné et prend 3J a dl, et selon facebook la versio 7GB tient tête a chat GPT3 donc vous faites pas chier pour le moment

voici le code github que vous devez utilliser pour exploiter les données

https://github.com/ggerganov/llama.cpp

paix sur vous




edit du 26/03/2023
si vous avez du mal a le faire fonctionner ou que vous voulez une interface a la chat gpt aller lire ce message
https://onche.org/topic/6[...]t-a-vie/9#message_1167862
il y a un an
Merci du topic khey je verrais sûrement ça ce soir
:frodo:

Première fois que je regrette de ne pas avoir une machine avec 64gb de RAM, ça fait partie des exceptions qui justifient la chose
:frodo:
il y a un an
Sc2Go1
Sc2Go1
1 an
Merci du topic khey je verrais sûrement ça ce soir
:frodo:

Première fois que je regrette de ne pas avoir une machine avec 64gb de RAM, ça fait partie des exceptions qui justifient la chose
:frodo:
j'ai 64GB de ram DDR5 car je suis un pigeon + un 13600k


mais je veins de test la version 65GB et ça prend VRAIMENT 3d


les autres versions
Image
il y a un an
up, les kheys comprennent pas le potentiel de ce topic
:cafe:
il y a un an
Morios
Morios
1 an
coucou mes kheyou, vous le savez sans doute mais chat GPT est pas seul dans le game des IA

l'une d'elle est LLaMA qui a publier son code source, cependant le code source sans les données d'entrainement ben ça vaut pas grand chose

c'est pour ça qu'elles ont fuité magnet:?xt=urn:btih:ZXXDAUWYLRUXXBHUYEMS6Q5CE5WA3LVA&dn=LLaMA


la version 65 GB peut être tentant mais elle demande 38 G de ram pour tourné et prend 3J a dl, et selon facebook la versio 7GB tient tête a chat GPT3 donc vous faites pas chier pour le moment

voici le code github que vous devez utilliser pour exploiter les données

https://github.com/ggerganov/llama.cpp

paix sur vous




edit du 26/03/2023
si vous avez du mal a le faire fonctionner ou que vous voulez une interface a la chat gpt aller lire ce message
https://onche.org/topic/6[...]t-a-vie/9#message_1167862
Je n'y connais absolument rien au IA (intelligence abominables) mais je te up pour la pertinence de ton topic.

La bise
:risibo:
Et non les shills toujours pas mort !
:philippot_garde:
il y a un an
Merci pour ce topic je le mets en fav.
il y a un an
Je n'y connais absolument rien au IA (intelligence abominables) mais je te up pour la pertinence de ton topic.

La bise
:risibo:
cimer copain
:DanceParty:
il y a un an
Morios
Morios
1 an
j'ai 64GB de ram DDR5 car je suis un pigeon + un 13600k


mais je veins de test la version 65GB et ça prend VRAIMENT 3d


les autres versions
Image
Ça vaut le coup d'attendre si le jump est digne de chatGPT-3 vers 4, je trouve 3.5 turbo extrêmement frustrant, essayer de trouver des moyens de lui extirper ce que tu veux prend parfois plus d'énergie que de chercher sur Google
:frodo:

J'ai pas renouvellé mon abonnement vu la limite de message avec chatGPT 4 pour l'instant
:frodo:

D'ailleurs je me suis inscris sur la waitlist de l'API de GPT4 day one et toujours rien
:frodo:
il y a un an
Sc2Go1
Sc2Go1
1 an
Ça vaut le coup d'attendre si le jump est digne de chatGPT-3 vers 4, je trouve 3.5 turbo extrêmement frustrant, essayer de trouver des moyens de lui extirper ce que tu veux prend parfois plus d'énergie que de chercher sur Google
:frodo:

J'ai pas renouvellé mon abonnement vu la limite de message avec chatGPT 4 pour l'instant
:frodo:

D'ailleurs je me suis inscris sur la waitlist de l'API de GPT4 day one et toujours rien
:frodo:
faut savoir de ce que j'ai compris LLaMA peut go internet et donner des liens pour se justifier, on est vraiment sur quelque chose de plutôt balèze , moi c'est le fais de pas devoir attendre sur la version gratuite qui m'intéresse
il y a un an
Morios
Morios
1 an
faut savoir de ce que j'ai compris LLaMA peut go internet et donner des liens pour se justifier, on est vraiment sur quelque chose de plutôt balèze , moi c'est le fais de pas devoir attendre sur la version gratuite qui m'intéresse
Qu'est ce que tu veux dire par attendre sur la version gratuite ? Ils en ont fait un produit et ont une waitlist avec pas mal de temps d'attente si tu payes pas ?
:frodo:
il y a un an
Sc2Go1
Sc2Go1
1 an
Qu'est ce que tu veux dire par attendre sur la version gratuite ? Ils en ont fait un produit et ont une waitlist avec pas mal de temps d'attente si tu payes pas ?
:frodo:
ben si y a trop de monde ça rame ou plante voir il te laisse pas entré

et la réponse met 2 plombe a sortir
il y a un an
Ya des gens sur ton magnet ?

Je suis toujours à 0 la
:attardin:
bite

il y a un an
64GB c'est indécent
:candyup_ent:
il y a un an
J'ai parlé trop vite ça commence
:interloque:
bite

il y a un an
Roger
Roger
1 an
64GB c'est indécent
:candyup_ent:
c'est pas 64 c'est 235.2 go
:maracas:
bite

il y a un an
Morios
Morios
1 an
ben si y a trop de monde ça rame ou plante voir il te laisse pas entré

et la réponse met 2 plombe a sortir
Tu parles de llama ou chatGPT khey ?
:frodo:

Avec chatGPT plus j'ai pas vraiment remarqué que c'était beaucoup plus rapide que la version gratuite d'ailleurs
:frodo:
il y a un an
Pinz
Pinz
1 an
c'est pas 64 c'est 235.2 go
:maracas:
télécharge pas toute les version kheys tu seras encore la semaine pro
:cafe:
il y a un an
Morios
Morios
1 an
télécharge pas toute les version kheys tu seras encore la semaine pro
:cafe:
je télécharge uniquement 7b 13b et 30b alors ?
bite

il y a un an
Sc2Go1
Sc2Go1
1 an
Tu parles de llama ou chatGPT khey ?
:frodo:

Avec chatGPT plus j'ai pas vraiment remarqué que c'était beaucoup plus rapide que la version gratuite d'ailleurs
:frodo:
chatGPT là c'est sur ton pc donc ça dépend de ton matos
il y a un an