Ce sujet a été résolu
Bon, j'ai mon nouveau PC pour de l'IA, et j'ai voulu essayer Mistral Small dans text-generation-Webui...
Et voir tout ce qu'on pouvait faire avec ce modèle.
Et voir tout ce qu'on pouvait faire avec ce modèle.
(je lui ai posé des équations à résoudre, mais tout le monde s'en branle de mon topic sur le forum général)
Vous devez être au niveau 20 pour voir ce message.
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a 9 mois
Merci de m'avoir débidé
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a 9 mois
La domina en question est pas réaliste faut dire
Je dois dire que je salue quand même la performance imaginative de faire tourner ça en scène hardcore avec exhibitionnisme
Le potentiel RP est quand même incroyable.
Le potentiel RP est quand même incroyable.
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a 9 mois
Après c'est moi aussi qui suis pas très RP, quitte à avoir une IA qui simule une personne, autant directement réellement parler avec plutôt que de RP
il y a 9 mois
Tu télécharge text-generation-webui sur ton PC ;
https://github.com/oobabooga/text-generation-webui
Et tu télécharge ensuite un modèle d'IA générique (j'ai pris mistral qui a une VF) :
https://huggingface.co/un[...].2-24B-Instruct-2506-GGUF
(à choisir suivant la puissance de ton PC, c'est self-hosted)
Une fois que tu as ça, tu lance l'outil et tu crée un personnage, la situation, la créativité de l'IA ect
Et tu télécharge ensuite un modèle d'IA générique (j'ai pris mistral qui a une VF) :
(à choisir suivant la puissance de ton PC, c'est self-hosted)
Une fois que tu as ça, tu lance l'outil et tu crée un personnage, la situation, la créativité de l'IA ect
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a 9 mois
Après c'est moi aussi qui suis pas très RP, quitte à avoir une IA qui simule une personne, autant directement réellement parler avec plutôt que de RP
Après j'ai pas envie de discuter avec des vrais personnes et étant marié, plus compliqué.
(même si je me plains pas car ma femme aime faire la femdom).
Là j'aime bien parce que c'est amusant
(même si je me plains pas car ma femme aime faire la femdom).
Là j'aime bien parce que c'est amusant
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a 9 mois
Après j'ai pas envie de discuter avec des vrais personnes et étant marié, plus compliqué.
(même si je me plains pas car ma femme aime faire la femdom).
Là j'aime bien parce que c'est amusant
(même si je me plains pas car ma femme aime faire la femdom).
Là j'aime bien parce que c'est amusant
Bah justement c'est pas une vraie personne mais ça le simule
il y a 9 mois
Bah justement c'est pas une vraie personne mais ça le simule
L'important n'est pas que ça soit une vrai personne, juste de s'amuser.
Et perso, j'avais envie de tester avec de l'IA car ça me passionne (et pas que pour le cul).
Elle fait vraiment de hardcore, j'ai mis créativité max.

Et perso, j'avais envie de tester avec de l'IA car ça me passionne (et pas que pour le cul).
Elle fait vraiment de hardcore, j'ai mis créativité max.
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a 9 mois
ANTIGAFAM2023
9 mois
Bon, j'ai mon nouveau PC pour de l'IA, et j'ai voulu essayer Mistral Small dans text-generation-Webui...
Et voir tout ce qu'on pouvait faire avec ce modèle.
Et voir tout ce qu'on pouvait faire avec ce modèle.
(je lui ai posé des équations à résoudre, mais tout le monde s'en branle de mon topic sur le forum général)
Vous devez être au niveau 20 pour voir ce message.
c'est vraiment stylé, j'avais encore rien vu de 18+ ia crédible jusqu'ici
en rute
il y a 9 mois
Tanek
9 mois
C’est extrêmement mal écrit c’est indigeste
Je maitrise pas encore la manière de faire les personnages et je penses que les modèles sont 0as encore opti.
Mais quand on voit l'évolution en seulement 4 ans, c'est incroyable.
Mais quand on voit l'évolution en seulement 4 ans, c'est incroyable.
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a 9 mois
Je maitrise pas encore la manière de faire les personnages et je penses que les modèles sont 0as encore opti.
Mais quand on voit l'évolution en seulement 4 ans, c'est incroyable.
Mais quand on voit l'évolution en seulement 4 ans, c'est incroyable.
Ouais bof, je trouve qu’on surcote énormément l IA de manière général
il y a 9 mois
Ouais bof, je trouve qu’on surcote énormément l IA de manière général
Bah c'est une revolution, ce n'est que le debut en plus.
Pour le coup j'ai testé des RP "safe for work" avec des dés ou elle propose toujours 6 choix (suivant les dés).
C'est vraiment pas mal alors que je maitrise pas l'art des prompt IA texte.
Pour le coup j'ai testé des RP "safe for work" avec des dés ou elle propose toujours 6 choix (suivant les dés).
C'est vraiment pas mal alors que je maitrise pas l'art des prompt IA texte.
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a 9 mois
Florentin
9 mois
@ANTIGAFAM2023 c'est quoi ta CG ?
5090 RTX Laptop (24Go de VRAM)
Mais en vrai tu peux faire tourner le modèle que j'utilise avec bien moins
Mais en vrai tu peux faire tourner le modèle que j'utilise avec bien moins
Vous devez être au niveau 5 pour voir ce message.
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a 9 mois
5090 RTX Laptop (24Go de VRAM)
Mais en vrai tu peux faire tourner le modèle que j'utilise avec bien moins
Mais en vrai tu peux faire tourner le modèle que j'utilise avec bien moins
Vous devez être au niveau 5 pour voir ce message.
Je m'étais dit, non jamais il me sort une xx90 ...
Et en plus sur portable bordel
Merci pour l'info sur la vram je savais pas que ca marchait comme ça.
Cette config c'est essentiellement pour faire de l'IA ?
Et en plus sur portable bordel
Merci pour l'info sur la vram je savais pas que ca marchait comme ça.
Cette config c'est essentiellement pour faire de l'IA ?
il y a 9 mois
Je m'étais dit, non jamais il me sort une xx90 ...
Et en plus sur portable bordel
Merci pour l'info sur la vram je savais pas que ca marchait comme ça.
Cette config c'est essentiellement pour faire de l'IA ?
Et en plus sur portable bordel
Merci pour l'info sur la vram je savais pas que ca marchait comme ça.
Cette config c'est essentiellement pour faire de l'IA ?
Après les cartes graphique de PC portable, c'est vraiment moins bon que les PC fixe, en gros une RTX 5090 Laptop vaut une RTX 4080 PC fixe.
Ca dépend, là je prend des modèles dit "GGUF" qui utilise quasiment que la VRAM de la carte.
Avantage du GGUF : Ultra rapide (plus rapide que ChatGPT), facile à installer?
Désavantage du GGUF : Moins quali et n'utilise pas tout ton hardware.
Tu as aussi les format Safetensor (avec des bibliothèque python xformer).
Avantage : Plus quali, peut se combiner avec ta RAM et ton CPU (du coup pas de limite sur la VRAM) tu fais tourner des modèles +gros
Désavantage : Bien bien plus lent
Avant j'avais un PC portable avec une RTX 2080 Laptop ... à 8 Go de VRAM mais 32 Go de RAM.
Du coup j'utilisais les safetensor (avec xformers) en chargeant mon modèle en RAM et VRAM.
Ca marchait aussi, mais très lent car la RAM est plus lente que la VRAM et la carte était moins bonne.
Tu as quoi comme carte, RAM et CPU ?
Ca dépend, là je prend des modèles dit "GGUF" qui utilise quasiment que la VRAM de la carte.
Avantage du GGUF : Ultra rapide (plus rapide que ChatGPT), facile à installer?
Désavantage du GGUF : Moins quali et n'utilise pas tout ton hardware.
Tu as aussi les format Safetensor (avec des bibliothèque python xformer).
Avantage : Plus quali, peut se combiner avec ta RAM et ton CPU (du coup pas de limite sur la VRAM) tu fais tourner des modèles +gros
Désavantage : Bien bien plus lent
Avant j'avais un PC portable avec une RTX 2080 Laptop ... à 8 Go de VRAM mais 32 Go de RAM.
Du coup j'utilisais les safetensor (avec xformers) en chargeant mon modèle en RAM et VRAM.
Ca marchait aussi, mais très lent car la RAM est plus lente que la VRAM et la carte était moins bonne.
Tu as quoi comme carte, RAM et CPU ?
Vous devez être au niveau 5 pour voir ce message.
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a 9 mois
Après les cartes graphique de PC portable, c'est vraiment moins bon que les PC fixe, en gros une RTX 5090 Laptop vaut une RTX 4080 PC fixe.
Ca dépend, là je prend des modèles dit "GGUF" qui utilise quasiment que la VRAM de la carte.
Avantage du GGUF : Ultra rapide (plus rapide que ChatGPT), facile à installer?
Désavantage du GGUF : Moins quali et n'utilise pas tout ton hardware.
Tu as aussi les format Safetensor (avec des bibliothèque python xformer).
Avantage : Plus quali, peut se combiner avec ta RAM et ton CPU (du coup pas de limite sur la VRAM) tu fais tourner des modèles +gros
Désavantage : Bien bien plus lent
Avant j'avais un PC portable avec une RTX 2080 Laptop ... à 8 Go de VRAM mais 32 Go de RAM.
Du coup j'utilisais les safetensor (avec xformers) en chargeant mon modèle en RAM et VRAM.
Ca marchait aussi, mais très lent car la RAM est plus lente que la VRAM et la carte était moins bonne.
Tu as quoi comme carte, RAM et CPU ?
Ca dépend, là je prend des modèles dit "GGUF" qui utilise quasiment que la VRAM de la carte.
Avantage du GGUF : Ultra rapide (plus rapide que ChatGPT), facile à installer?
Désavantage du GGUF : Moins quali et n'utilise pas tout ton hardware.
Tu as aussi les format Safetensor (avec des bibliothèque python xformer).
Avantage : Plus quali, peut se combiner avec ta RAM et ton CPU (du coup pas de limite sur la VRAM) tu fais tourner des modèles +gros
Désavantage : Bien bien plus lent
Avant j'avais un PC portable avec une RTX 2080 Laptop ... à 8 Go de VRAM mais 32 Go de RAM.
Du coup j'utilisais les safetensor (avec xformers) en chargeant mon modèle en RAM et VRAM.
Ca marchait aussi, mais très lent car la RAM est plus lente que la VRAM et la carte était moins bonne.
Tu as quoi comme carte, RAM et CPU ?
Vous devez être au niveau 5 pour voir ce message.
Pour la 5090 laptop je pensais qu'ils mettaient des puces plus puissantes et donc plus chères pour compenser la perte de perf par miniaturisation, parce que les laptop sont en general plus cher que du fixe
Pour le reste j'ai regarder et c'est vraiment le bordel quand tu commences de zéro
T'aurais un lien qui donne des tuto pour apprendre un peu en détail ? Je vais essayer le model 6K_Q pour 10GB sur ton dernier lien. Mais je sais pas si le modèle à 10GB ça veut dire pour 10Go de VRAM ? Parce que c'est Go et non GB les mesures sont différentes non ?
J'ai une rtx4070 12g, 32g RAM et 14500 intel. C'est pas une fusée mais ça fait le taff
Les séries 50xx Super ont été annoncées en fin d'année et elles auront plus de VRAM. Alors ça promet pour la série 60xx, je pense m'en prendre une quand ça sortir dans 1 ans+
Pour le reste j'ai regarder et c'est vraiment le bordel quand tu commences de zéro
T'aurais un lien qui donne des tuto pour apprendre un peu en détail ? Je vais essayer le model 6K_Q pour 10GB sur ton dernier lien. Mais je sais pas si le modèle à 10GB ça veut dire pour 10Go de VRAM ? Parce que c'est Go et non GB les mesures sont différentes non ?
J'ai une rtx4070 12g, 32g RAM et 14500 intel. C'est pas une fusée mais ça fait le taff
Les séries 50xx Super ont été annoncées en fin d'année et elles auront plus de VRAM. Alors ça promet pour la série 60xx, je pense m'en prendre une quand ça sortir dans 1 ans+
il y a 9 mois
En ligne
191
Sur ce sujet0










