InscriptionConnexion
Hello les kheys, comme beaucoup j'utilise Ollama pour gerer des LLM en local et j'ai pas l'impression qu'on puisse fine-tuner un model via ollama (ou alors j'ai pas trouvé ou pas compris)

J'ai besoin de fine-tuner un model sur des données bien précise et non-connu des llm et qui sont variables dans le temps.

Je me demandais si quelqu'un savait comment faire pour choper un LLM et le fine-tuner avec nos propres datas

J'ai cru aussi comprendre qu'avec le embeding on pouvait l'orienter, si quelqu'un a des pistes...
:Pepe_risitas:


Merci
:risi_celestin:
J'aimerais bien te faire un cunni mais je ne peux pas sortir avec du rouge à lèvre en boite
:Synthwave:
il y a 7 mois
J'ai vu qu'avec transformers de hugging face il y avait surement moyen de moyenner, mais je suis pas sûr d'arriver à parametrer comme il faut pour optimiser le truc
:Abrutin:
J'aimerais bien te faire un cunni mais je ne peux pas sortir avec du rouge à lèvre en boite
:Synthwave:
il y a 7 mois
@Batard @ZeroTout
axolotl.ai https://axolotl.ai/

Section cookbook, par contre va surment falloir passer par des gpu en cloud, je testerai dans les prochains jours, en tout cas c'est l'outil utilisé pour finetuner des modèles
Je vous aime les kheys, prenez soins de vous
il y a 7 mois