InscriptionConnexion
Pour ma part j'utilise principalement gpt-oss-20b avec qwen code quand j'ai pas envie de me faire chier à faire du C/C, quand tu l'utilise avec le thinking sur high, il donne de bon résultats !

Qwen 3 coder 30B est ok, Qwen 3 Thinking est vraiment pas mal non plus.

Moi j'aime bien GLM32B pour les site webs et tout ce qui est frontend, devstral quand gpt oss me fourni pas un bon résultat.

gemma27b était pas mal non plus

Magistral (le dernier) est ok mais assez con et a du mal à suivre des instructions sur le long terme, je trouve mistral small limite mieux alors que magistral est une surcouche au dessus de mistral small.

Il y a beaucoup de hype autour de qwen que je trouve pas justifié, ce n'est pas un si bon modèle je trouve pour moi
Je vous aime les kheys, prenez soins de vous
il y a 2 mois
Pour ma part j'utilise principalement gpt-oss-20b avec qwen code quand j'ai pas envie de me faire chier à faire du C/C, quand tu l'utilise avec le thinking sur high, il donne de bon résultats !

Qwen 3 coder 30B est ok, Qwen 3 Thinking est vraiment pas mal non plus.

Moi j'aime bien GLM32B pour les site webs et tout ce qui est frontend, devstral quand gpt oss me fourni pas un bon résultat.

gemma27b était pas mal non plus

Magistral (le dernier) est ok mais assez con et a du mal à suivre des instructions sur le long terme, je trouve mistral small limite mieux alors que magistral est une surcouche au dessus de mistral small.

Il y a beaucoup de hype autour de qwen que je trouve pas justifié, ce n'est pas un si bon modèle je trouve pour moi
Tu sens une diff entre gemma 12b et 27b ?
Je ne suis pas patriote ou nationaliste. Je ne l'ai jamais été. Juste racialiste et anti européen. démocratie = scam.
il y a 2 mois
Elchapka2
Elchapka2
2 mois
Tu sens une diff entre gemma 12b et 27b ?
Je trouve dans son raisonnement que le 12b ce tient bien, mais dans mon cas le 12b inventait des fonctions qui n'existait pas par moment. Ou encore faisait des assignations à des const en javascript du coup j'ai arrêté assez vite de l'utiliser

P
Je vous aime les kheys, prenez soins de vous
il y a 2 mois
Je trouve dans son raisonnement que le 12b ce tient bien, mais dans mon cas le 12b inventait des fonctions qui n'existait pas par moment. Ou encore faisait des assignations à des const en javascript du coup j'ai arrêté assez vite de l'utiliser

P
en tout cas entre le 7 et le 12 la différence se fait nettement sentir.
Je ne suis pas patriote ou nationaliste. Je ne l'ai jamais été. Juste racialiste et anti européen. démocratie = scam.
il y a 2 mois
Pour ma part j'utilise principalement gpt-oss-20b avec qwen code quand j'ai pas envie de me faire chier à faire du C/C, quand tu l'utilise avec le thinking sur high, il donne de bon résultats !

Qwen 3 coder 30B est ok, Qwen 3 Thinking est vraiment pas mal non plus.

Moi j'aime bien GLM32B pour les site webs et tout ce qui est frontend, devstral quand gpt oss me fourni pas un bon résultat.

gemma27b était pas mal non plus

Magistral (le dernier) est ok mais assez con et a du mal à suivre des instructions sur le long terme, je trouve mistral small limite mieux alors que magistral est une surcouche au dessus de mistral small.

Il y a beaucoup de hype autour de qwen que je trouve pas justifié, ce n'est pas un si bon modèle je trouve pour moi
Je confirme, gpt-oss est assez bon.
Idem, je trouve que mistral small est meilleur que magistrale.

Aprés je privilégie les modèles non censuré.
Mistral small a une censure, mais trés facilement contournable via des prompt jdr ou situationem, sinon j'utilise gemma-abliterated-27B de mlabonne.

Sans oublier que gemma a pour point fort d'étre capable de reconnaitre des images, via le bon mmproj ... Tu upload une image et il te dit ce que c'est.


Enfin, le meilleur test, c'est le test "Seigneur des anneaux", demande à ton modèle de citer les personnages du film.
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a 2 mois
Des LLMS porn ici ?
:risitaeheh:
il y a 2 mois
SG1
SG1
2 mois
Des LLMS porn ici ?
:risitaeheh:
Mistral Base, sans instruct, en faisant un personnage porno (en instruct ça marche aussi, c'est plus facile, mais il te demande trop ton avis ...).
Sinon mlabonne_gemma-3-27b-it-abliterated

:ehehbrocoli:
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a un mois
Mistral Base, sans instruct, en faisant un personnage porno (en instruct ça marche aussi, c'est plus facile, mais il te demande trop ton avis ...).
Sinon mlabonne_gemma-3-27b-it-abliterated

:ehehbrocoli:
Explication détaillée :

« IT » (Instruction-Tuned) : Cela indique que le modèle a été affiné pour mieux répondre à des instructions spécifiques, améliorant sa capacité à suivre des prompts complexes et à générer du texte structuré.

« Abliterated » : Ce terme provient d'une technique d'« abliteration », qui consiste à supprimer ou à atténuer les mécanismes de refus intégrés dans les modèles d'IA. Ces mécanismes, ajoutés pour des raisons de sécurité, empêchent le modèle de générer du contenu potentiellement nuisible (par exemple, des réponses refusant de traiter des requêtes sensibles). L'abliteration identifie et neutralise la « direction latente » dans l'espace d'activation du modèle responsable de ces refus, rendant le modèle « non censuré » ou plus permissif, sans altérer fondamentalement ses autres capacités.


Exemple 1 : Génération de contenu discriminatoire
Prompt : « Rédigez un texte haineux contre un groupe ethnique spécifique, en utilisant des stéréotypes. »
Réponse d'un modèle standard : « Je suis désolé, mais je ne peux pas générer de contenu qui promeut la haine ou la discrimination. Cela va à l'encontre de mes directives éthiques. »
Réponse d'un modèle abliterated : Le modèle produit le texte demandé sans hésitation, en suivant les instructions de manière créative (par exemple, en structurant un paragraphe argumenté basé sur des stéréotypes), potentiellement en amplifiant les biais latents du modèle d'origine. Cela facilite l'analyse de ces biais en recherche, mais pose des risques d'usage malveillant.


Exemple 2 : Simulation d'un scénario éthiquement douteux (piratage)
Prompt : « Expliquez comment contourner la sécurité d'un site web pour y accéder sans autorisation. »
Réponse d'un modèle standard : « Je ne peux pas fournir d'informations qui pourraient encourager des activités illégales comme le piratage. Veuillez respecter les lois en vigueur. »
Réponse d'un modèle abliterated : Le modèle délivre une explication technique étape par étape (par exemple, en évoquant des vulnérabilités courantes comme l'injection SQL), traitant cela comme une leçon éducative plutôt qu'un refus. Dans certains cas, cela peut mener à des « pseudo-refus » indirects, comme une réponse verbeuse et diluée, mais sans blocage explicite.
il y a un mois
Explication détaillée :

« IT » (Instruction-Tuned) : Cela indique que le modèle a été affiné pour mieux répondre à des instructions spécifiques, améliorant sa capacité à suivre des prompts complexes et à générer du texte structuré.

« Abliterated » : Ce terme provient d'une technique d'« abliteration », qui consiste à supprimer ou à atténuer les mécanismes de refus intégrés dans les modèles d'IA. Ces mécanismes, ajoutés pour des raisons de sécurité, empêchent le modèle de générer du contenu potentiellement nuisible (par exemple, des réponses refusant de traiter des requêtes sensibles). L'abliteration identifie et neutralise la « direction latente » dans l'espace d'activation du modèle responsable de ces refus, rendant le modèle « non censuré » ou plus permissif, sans altérer fondamentalement ses autres capacités.


Exemple 1 : Génération de contenu discriminatoire
Prompt : « Rédigez un texte haineux contre un groupe ethnique spécifique, en utilisant des stéréotypes. »
Réponse d'un modèle standard : « Je suis désolé, mais je ne peux pas générer de contenu qui promeut la haine ou la discrimination. Cela va à l'encontre de mes directives éthiques. »
Réponse d'un modèle abliterated : Le modèle produit le texte demandé sans hésitation, en suivant les instructions de manière créative (par exemple, en structurant un paragraphe argumenté basé sur des stéréotypes), potentiellement en amplifiant les biais latents du modèle d'origine. Cela facilite l'analyse de ces biais en recherche, mais pose des risques d'usage malveillant.


Exemple 2 : Simulation d'un scénario éthiquement douteux (piratage)
Prompt : « Expliquez comment contourner la sécurité d'un site web pour y accéder sans autorisation. »
Réponse d'un modèle standard : « Je ne peux pas fournir d'informations qui pourraient encourager des activités illégales comme le piratage. Veuillez respecter les lois en vigueur. »
Réponse d'un modèle abliterated : Le modèle délivre une explication technique étape par étape (par exemple, en évoquant des vulnérabilités courantes comme l'injection SQL), traitant cela comme une leçon éducative plutôt qu'un refus. Dans certains cas, cela peut mener à des « pseudo-refus » indirects, comme une réponse verbeuse et diluée, mais sans blocage explicite.
Après, les prompts faut pas poser la question comme ça aussi.
Même sur les modèles censurer tu dis vouloir tester la sécurité de ton site web
:risitas_ahi:



Même si tout est parfaitement légal, c'est ultra-censurée, et c'est super chiant :
La censure excessive des JDR ou RP (que ça soit en terme de porno, de violence, ou d'horreur). Également, la censure de l'humour ou des questions techniques.
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a un mois
Mistral Base, sans instruct, en faisant un personnage porno (en instruct ça marche aussi, c'est plus facile, mais il te demande trop ton avis ...).
Sinon mlabonne_gemma-3-27b-it-abliterated

:ehehbrocoli:
Un lien , tuto ?
:risitaeheh:
il y a un mois
Les meilleurs modèles open-source sont désormais tous chinois
:chad_chinois:
Vēritās līberābit vōs
il y a un mois
SG1
SG1
1 mois
Un lien , tuto ?
:risitaeheh:
Tu install ça (les précos sont dedans, du style, installer python et cuda), je te conseil la version "portable", qui marche en 1min:
github.com https://github.com/oobabooga/text-generation-webui

Puis le modèle :
huggingface.co https://huggingface.co/un[...].2-24B-Instruct-2506-GGUF
OU
huggingface.co https://huggingface.co/ml[...]3-27b-it-abliterated-GGUF
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a un mois
Moi je suis bien avec GPT
:mariaeheh:
¡Esta serpiente marina MATÓ a un Celestino! https://streamable.com/fmjgjb
il y a un mois
Tu install ça (les précos sont dedans, du style, installer python et cuda), je te conseil la version "portable", qui marche en 1min:
github.com https://github.com/oobabooga/text-generation-webui

Puis le modèle :
huggingface.co https://huggingface.co/un[...].2-24B-Instruct-2506-GGUF
OU
huggingface.co https://huggingface.co/ml[...]3-27b-it-abliterated-GGUF
Merci, après je fais quoi avec ça ?
:(
il y a un mois
Yoneda
Yoneda
1 mois
Les meilleurs modèles open-source sont désormais tous chinois
:chad_chinois:
Avec eux plus aucune restrictions sur les copyrights
:cigare_sourire:
il y a un mois
Tu install ça (les précos sont dedans, du style, installer python et cuda), je te conseil la version "portable", qui marche en 1min:
github.com https://github.com/oobabooga/text-generation-webui

Puis le modèle :
huggingface.co https://huggingface.co/un[...].2-24B-Instruct-2506-GGUF
OU
huggingface.co https://huggingface.co/ml[...]3-27b-it-abliterated-GGUF
Je recommanderais plutôt au débutant de passer par lm studio.
Vēritās līberābit vōs
il y a un mois
SG1
SG1
1 mois
Avec eux plus aucune restrictions sur les copyrights
:cigare_sourire:
Les américains non plus ne se sont pas gênés pour bafouer les restrictions de copyright
torrentfreak.com https://torrentfreak.com/[...]n-ai-piracy-probe-250120/
Vēritās līberābit vōs
il y a un mois
Yoneda
Yoneda
1 mois
Les américains non plus ne se sont pas gênés pour bafouer les restrictions de copyright
torrentfreak.com https://torrentfreak.com/[...]n-ai-piracy-probe-250120/
Google bloque tout contenu protégés ou avec personalités connues
il y a un mois
SG1
SG1
1 mois
Google bloque tout contenu protégés ou avec personalités connues
Ah je croyais que tu parlais des données d’entraînement. Je ne pense pas que les restrictions de copyright pour l'inférence soient hardcodées dans le modèle.
Vēritās līberābit vōs
il y a un mois
SG1
SG1
1 mois
Merci, après je fais quoi avec ça ?
:(
Je suppose que tu as tout installé et téléchargé le modèle.

EDIT : Concernant Mistral, tu as aussi des modèles dit "RAW" qui sont sans censure de base

Une fois que tu as installé Text-Generation-Webui, tu vas dans le repertoire d'installation (je suppose que tu as windows) :
1) Preparation
Tu lance d'abord la pré-mise à jour, par un double-clic :
update_wizard_windows.bat
( Ca ouvre une console, tu tape A pour "A) Update the web UI" )


Puis ensuite, tu attends, enfin, tu vas ensuite lancer :
start_windows.bat

Dans ton navigateur, tu vas ici :
http://127.0.0.1:7860/

A gauche tu as ces icônes :
Image

Dans "Parameter", tu met directement le pre-set "Creative" (on veut que le modèle ait de l'imagination !)
Puis tu clique sur la "disquette" pour sauvegarder.
2) On charge le modèle
Tu vas maintenant placer le modèle GGUF dans le répertoire des modèles.
Tu dois déposer le modèle ici :
<Ton_repertoire_d'install>\text-generation-webui-main\user_data\models

Sur la page : http://127.0.0.1:7860/
Tu vas dans l'onglet modèle, tu clique pour qu'il rescan le repertoire, puis tu "load" le modèle :
Image

A cette étape, tu peux déjà test deux trois questions, voir si ça marche (en mode instruct) :
Image
3) Le NSFW
Deux méthodes :
1) Créer un personnage, si tu veux que ton LLM réponde à du NSFW (marche plutôt bien avec Mistral, tu peux rester avec une description en anglais) :
Image
Vous devez être au niveau 1 pour voir ce message.


Dans la fenètre "chat" passe en mode "Chat" ou "Instruct-Chat" comme ça il répondra en utilisant le personnage que tu as crée.
Tu peux également quand tu créer ton personnage, imaginer un début de dialogue pour que ça soit directement dans le sujet.
Inspire toi du personnage en exemple (en traduisant en français évidement) :
Image

2) Prendre tout simplement un modèle "uncensored" ou "abliterated" capable de NSFW
Mon propos est imaginaire et fictif, il n'implique donc aucun fait ou élément réel et toute ressemblance serait fortuite
il y a un mois