Ce sujet a été résolu
Énorme pavé en approche ou je détaille l'evolution des neural networks sur les dernières années, si le sujet ne t'intéresse pas un minimum : passe ton chemin
Quand je dit IA, j'entends les réseaux neuronaux actuels, pas les trucs a la Skynet qui sont des fantaisies humides de fan de film style Terminator
Les IA de generation d'image et de texte ont vraiment explosé en popularité avec Dall-E 2 y'a 1 an et ChatGpt il y' a 4 mois. Je suis l'avancement des techs d'IA depuis 2017-2018 et BORDEL la vitesse d'evolution depuis 1 an c'est STRATOSPHÉRIQUE
Rendez vous compte, en 1 an on est passé de gribouillis vaguement reminescents d'un concept a des oeuvres d'art parfaites. Je rapelle au golem de base qu'il aura fallu plusieirs années d'attente avec une technologie aussi foireuse que GauGAN pour enfin arriver a cette revolution qu'est Diffusers (depuis largement optimisé et retravaillé)
Et COMPARAZAR depuis l'avenement des modèles Diffusers comme Midjourney et Stable Diffusion, l'evolution est EXPONENTIELLE, on est passé d'un simple model en 512x512 qui faisait des petites scenes sympas a un outil surpuissant et full customisable capable de faire des artworks complets en 4k. Merci ControlNet, merci Clip Skip, merci LoRa qui rend le training accessible a tous, merci la v-quantization meme si y'a encore des mongols pour dire "agneugneu les modeles v2 c'est nul pour l'art" non connard le modèle de BASE est plus orienté photo que peinture, suffit de l'entrainer avec ta 3090 et hop
Et la d'ici a un mois on va avoir Stable Diffusion XL, un model de base soupçonné d'être train en 1024x1024 voir plus haut encore (du jamais vu), tandis qu'a côté Midjoueney V5 devient quasiment INDIFFERENCIABLE d'un vrai artwork voir meme d'une vrai photo (je vous laisse chercher sur youtube pour tout ça)
En parallèle de tout ça on a les modèles textuels, je me rappelle encore de la sortie de GPT2 bordel, c'était une révolution. Tu pouvais taper n'importe quel scenario et l'IA continuait ton texte, c'était UNIQUE bordel. C'est a ce moment la que des services comme AI Dungeon on fait leur apparition. Les models etaient encore suffisament "légers" pour etre entrainés a domicile, ce qui a été fait sur des fanfictions (et du cul aussi, bien evidemment)
Puis 2 ans plus tard y'a eu GPT3 qui est passé en accès anticipé, la qualité avait décuplé et il était desormais rare que le texte parte en couilles ou ne fasse plus sens, le seul soucis maintenant était qu'on ne pouvait plus récupérer les models pour les run sur son PC, OpenAI était plus fermé que jamais, une stratégie qui continua avec GPT3.5, dont un fork allait nous donner la première version de ChatGPT.
L'avènement de ChatGPT n'est pas passé inaperçu, loin de la, c'est devenu un succès mondial. Il y'a des chances pour que même des membres de votre famille qui galèrent a utiliser un ordi en aient entendu parler. A l'origine, ChatGPT est donc un fork de GPT3.5 MAIS finetune pour prendre le role d'un assistant. La révolution a été de ne pas seulement continuer le texte, mais de COMPRENDRE UNE REQUÊTE, chose impensable avant GPT3 qui déjà arrivait a imiter un assistant si on lui donnait le bon texte de départ. Ce bon en avant a redéfini ce qu'est un modele d'IA textuelle, tant et si bien que malgré leurs moyens bien moins élèves qu'OpenAI, des entreprises open source essaient déjà d'implementer ce genre de fonctionnalités dans leurs modeles. Je pense a Alpaca, un finetune des modèles LlaMa qui ont leak de chez facebook (AHI) et qui est le premier assistant open source sachant a peu près ce qu'il fait. On a eu juste après un modèle comme Vicuna 13B, beaucoup plus malin mais livré avec un filtre anti NSFW (que les kheys de 4chan ont deja BRISÉ). Et la on attend les prochains modèles d'OpenAssistant qui sortent pas plus tard que demain, le 15 Avril. Une fois qu'ils auront été passé en 4bit par des mecs deters du board /g/, ils pourront tourner sur des cartes pas plus grandes que des 1070. Ce développement de l'open source qui commence a rattraper OpenAI est fascinant d'aurant plus que GPT4 est desormais en phase de test
TOUT ÇA, ça s'est fait en seulement 2 mois ce que je vous raconte. Des modèles open source et utilisable chez soi sont quasiment au niveau de GPT 3,et chaque jour on semble decouvrir une nouvelle implémentation, une nouvelle optimisation, un nouveau fork qui change la façon dont le modèle est entrainé, etc...
Le train est en marche les kheys, les prochains mois vont voir une percée des modèles IA comme vous ne pouvez pas l'imaginer, dans 1 an on pensera que GPT4 était a chier, je plaisante pas.
Je parle même pas des modèles de génération de VIDÉO qui debarquent tout juste, on a eu des previsu y'a 3 mois et la on va bientot pouvoir s'amuser avec Gen2 de RunwayML (go youtube c'est incroyable) BORDEL c'est dingue a quel point ça va vite.
Voila, un enorme pavé un peu désarticulé mais fallait que je pose ça la pour les quelques kheys intéressés au sujet de l'IA. Ce qu'il faut retenir c'est ça : tout va de plus en plus vite, de plus en plus simple a utiliser, de plus en plus libre ET de plus en plus puissant
Quand je dit IA, j'entends les réseaux neuronaux actuels, pas les trucs a la Skynet qui sont des fantaisies humides de fan de film style Terminator
Les IA de generation d'image et de texte ont vraiment explosé en popularité avec Dall-E 2 y'a 1 an et ChatGpt il y' a 4 mois. Je suis l'avancement des techs d'IA depuis 2017-2018 et BORDEL la vitesse d'evolution depuis 1 an c'est STRATOSPHÉRIQUE
Rendez vous compte, en 1 an on est passé de gribouillis vaguement reminescents d'un concept a des oeuvres d'art parfaites. Je rapelle au golem de base qu'il aura fallu plusieirs années d'attente avec une technologie aussi foireuse que GauGAN pour enfin arriver a cette revolution qu'est Diffusers (depuis largement optimisé et retravaillé)
Et COMPARAZAR depuis l'avenement des modèles Diffusers comme Midjourney et Stable Diffusion, l'evolution est EXPONENTIELLE, on est passé d'un simple model en 512x512 qui faisait des petites scenes sympas a un outil surpuissant et full customisable capable de faire des artworks complets en 4k. Merci ControlNet, merci Clip Skip, merci LoRa qui rend le training accessible a tous, merci la v-quantization meme si y'a encore des mongols pour dire "agneugneu les modeles v2 c'est nul pour l'art" non connard le modèle de BASE est plus orienté photo que peinture, suffit de l'entrainer avec ta 3090 et hop
Et la d'ici a un mois on va avoir Stable Diffusion XL, un model de base soupçonné d'être train en 1024x1024 voir plus haut encore (du jamais vu), tandis qu'a côté Midjoueney V5 devient quasiment INDIFFERENCIABLE d'un vrai artwork voir meme d'une vrai photo (je vous laisse chercher sur youtube pour tout ça)
En parallèle de tout ça on a les modèles textuels, je me rappelle encore de la sortie de GPT2 bordel, c'était une révolution. Tu pouvais taper n'importe quel scenario et l'IA continuait ton texte, c'était UNIQUE bordel. C'est a ce moment la que des services comme AI Dungeon on fait leur apparition. Les models etaient encore suffisament "légers" pour etre entrainés a domicile, ce qui a été fait sur des fanfictions (et du cul aussi, bien evidemment)
Puis 2 ans plus tard y'a eu GPT3 qui est passé en accès anticipé, la qualité avait décuplé et il était desormais rare que le texte parte en couilles ou ne fasse plus sens, le seul soucis maintenant était qu'on ne pouvait plus récupérer les models pour les run sur son PC, OpenAI était plus fermé que jamais, une stratégie qui continua avec GPT3.5, dont un fork allait nous donner la première version de ChatGPT.
L'avènement de ChatGPT n'est pas passé inaperçu, loin de la, c'est devenu un succès mondial. Il y'a des chances pour que même des membres de votre famille qui galèrent a utiliser un ordi en aient entendu parler. A l'origine, ChatGPT est donc un fork de GPT3.5 MAIS finetune pour prendre le role d'un assistant. La révolution a été de ne pas seulement continuer le texte, mais de COMPRENDRE UNE REQUÊTE, chose impensable avant GPT3 qui déjà arrivait a imiter un assistant si on lui donnait le bon texte de départ. Ce bon en avant a redéfini ce qu'est un modele d'IA textuelle, tant et si bien que malgré leurs moyens bien moins élèves qu'OpenAI, des entreprises open source essaient déjà d'implementer ce genre de fonctionnalités dans leurs modeles. Je pense a Alpaca, un finetune des modèles LlaMa qui ont leak de chez facebook (AHI) et qui est le premier assistant open source sachant a peu près ce qu'il fait. On a eu juste après un modèle comme Vicuna 13B, beaucoup plus malin mais livré avec un filtre anti NSFW (que les kheys de 4chan ont deja BRISÉ). Et la on attend les prochains modèles d'OpenAssistant qui sortent pas plus tard que demain, le 15 Avril. Une fois qu'ils auront été passé en 4bit par des mecs deters du board /g/, ils pourront tourner sur des cartes pas plus grandes que des 1070. Ce développement de l'open source qui commence a rattraper OpenAI est fascinant d'aurant plus que GPT4 est desormais en phase de test
TOUT ÇA, ça s'est fait en seulement 2 mois ce que je vous raconte. Des modèles open source et utilisable chez soi sont quasiment au niveau de GPT 3,et chaque jour on semble decouvrir une nouvelle implémentation, une nouvelle optimisation, un nouveau fork qui change la façon dont le modèle est entrainé, etc...
Le train est en marche les kheys, les prochains mois vont voir une percée des modèles IA comme vous ne pouvez pas l'imaginer, dans 1 an on pensera que GPT4 était a chier, je plaisante pas.
Je parle même pas des modèles de génération de VIDÉO qui debarquent tout juste, on a eu des previsu y'a 3 mois et la on va bientot pouvoir s'amuser avec Gen2 de RunwayML (go youtube c'est incroyable) BORDEL c'est dingue a quel point ça va vite.
Voila, un enorme pavé un peu désarticulé mais fallait que je pose ça la pour les quelques kheys intéressés au sujet de l'IA. Ce qu'il faut retenir c'est ça : tout va de plus en plus vite, de plus en plus simple a utiliser, de plus en plus libre ET de plus en plus puissant
Khey INFJ sympa bien que taré, catho, anti NWO, l'hélite 100% ready. Frère de croisade de @Joshua_38
il y a 2 ans
flemme de lire en vrai je met en favoris pour plus tard
il y a 2 ans
Tu utilises un vocabulaire trop pédant khey je comprend rien de ce que tu dis mais ça reste intéressant
il y a 2 ans
Qui a hâte d'une sorte d'IA avec qui faire la discussion comme dans IA?
bon heu moteur... moteur.... Moteeeur, moteur. Moooooteeeeeur. Aller moteur. MOOOOOOOTEEEEEUUUUR!!!!
il y a 2 ans
Askari
2 ans
Tu crois que je vais lire tout ça enculé
pour ça que je j'ai prévenu aux badauds de passer leur chemin
Khey INFJ sympa bien que taré, catho, anti NWO, l'hélite 100% ready. Frère de croisade de @Joshua_38
il y a 2 ans
JannoLastico
2 ans
Qui a hâte d'une sorte d'IA avec qui faire la discussion comme dans IA?
Tu peux déjà le faire avec de modèles comme Pygmalion 6B et les derniers finetune de Llama par OpenAssistant, je fais toirner le modèle 30B sur ma 3090 et c'est au level des premières version de GPT3
Khey INFJ sympa bien que taré, catho, anti NWO, l'hélite 100% ready. Frère de croisade de @Joshua_38
il y a 2 ans
DELAWARDE
2 ans
Énorme pavé en approche ou je détaille l'evolution des neural networks sur les dernières années, si le sujet ne t'intéresse pas un minimum : passe ton chemin
Quand je dit IA, j'entends les réseaux neuronaux actuels, pas les trucs a la Skynet qui sont des fantaisies humides de fan de film style Terminator
Les IA de generation d'image et de texte ont vraiment explosé en popularité avec Dall-E 2 y'a 1 an et ChatGpt il y' a 4 mois. Je suis l'avancement des techs d'IA depuis 2017-2018 et BORDEL la vitesse d'evolution depuis 1 an c'est STRATOSPHÉRIQUE
Rendez vous compte, en 1 an on est passé de gribouillis vaguement reminescents d'un concept a des oeuvres d'art parfaites. Je rapelle au golem de base qu'il aura fallu plusieirs années d'attente avec une technologie aussi foireuse que GauGAN pour enfin arriver a cette revolution qu'est Diffusers (depuis largement optimisé et retravaillé)
Et COMPARAZAR depuis l'avenement des modèles Diffusers comme Midjourney et Stable Diffusion, l'evolution est EXPONENTIELLE, on est passé d'un simple model en 512x512 qui faisait des petites scenes sympas a un outil surpuissant et full customisable capable de faire des artworks complets en 4k. Merci ControlNet, merci Clip Skip, merci LoRa qui rend le training accessible a tous, merci la v-quantization meme si y'a encore des mongols pour dire "agneugneu les modeles v2 c'est nul pour l'art" non connard le modèle de BASE est plus orienté photo que peinture, suffit de l'entrainer avec ta 3090 et hop
Et la d'ici a un mois on va avoir Stable Diffusion XL, un model de base soupçonné d'être train en 1024x1024 voir plus haut encore (du jamais vu), tandis qu'a côté Midjoueney V5 devient quasiment INDIFFERENCIABLE d'un vrai artwork voir meme d'une vrai photo (je vous laisse chercher sur youtube pour tout ça)
En parallèle de tout ça on a les modèles textuels, je me rappelle encore de la sortie de GPT2 bordel, c'était une révolution. Tu pouvais taper n'importe quel scenario et l'IA continuait ton texte, c'était UNIQUE bordel. C'est a ce moment la que des services comme AI Dungeon on fait leur apparition. Les models etaient encore suffisament "légers" pour etre entrainés a domicile, ce qui a été fait sur des fanfictions (et du cul aussi, bien evidemment)
Puis 2 ans plus tard y'a eu GPT3 qui est passé en accès anticipé, la qualité avait décuplé et il était desormais rare que le texte parte en couilles ou ne fasse plus sens, le seul soucis maintenant était qu'on ne pouvait plus récupérer les models pour les run sur son PC, OpenAI était plus fermé que jamais, une stratégie qui continua avec GPT3.5, dont un fork allait nous donner la première version de ChatGPT.
L'avènement de ChatGPT n'est pas passé inaperçu, loin de la, c'est devenu un succès mondial. Il y'a des chances pour que même des membres de votre famille qui galèrent a utiliser un ordi en aient entendu parler. A l'origine, ChatGPT est donc un fork de GPT3.5 MAIS finetune pour prendre le role d'un assistant. La révolution a été de ne pas seulement continuer le texte, mais de COMPRENDRE UNE REQUÊTE, chose impensable avant GPT3 qui déjà arrivait a imiter un assistant si on lui donnait le bon texte de départ. Ce bon en avant a redéfini ce qu'est un modele d'IA textuelle, tant et si bien que malgré leurs moyens bien moins élèves qu'OpenAI, des entreprises open source essaient déjà d'implementer ce genre de fonctionnalités dans leurs modeles. Je pense a Alpaca, un finetune des modèles LlaMa qui ont leak de chez facebook (AHI) et qui est le premier assistant open source sachant a peu près ce qu'il fait. On a eu juste après un modèle comme Vicuna 13B, beaucoup plus malin mais livré avec un filtre anti NSFW (que les kheys de 4chan ont deja BRISÉ). Et la on attend les prochains modèles d'OpenAssistant qui sortent pas plus tard que demain, le 15 Avril. Une fois qu'ils auront été passé en 4bit par des mecs deters du board /g/, ils pourront tourner sur des cartes pas plus grandes que des 1070. Ce développement de l'open source qui commence a rattraper OpenAI est fascinant d'aurant plus que GPT4 est desormais en phase de test
TOUT ÇA, ça s'est fait en seulement 2 mois ce que je vous raconte. Des modèles open source et utilisable chez soi sont quasiment au niveau de GPT 3,et chaque jour on semble decouvrir une nouvelle implémentation, une nouvelle optimisation, un nouveau fork qui change la façon dont le modèle est entrainé, etc...
Le train est en marche les kheys, les prochains mois vont voir une percée des modèles IA comme vous ne pouvez pas l'imaginer, dans 1 an on pensera que GPT4 était a chier, je plaisante pas.
Je parle même pas des modèles de génération de VIDÉO qui debarquent tout juste, on a eu des previsu y'a 3 mois et la on va bientot pouvoir s'amuser avec Gen2 de RunwayML (go youtube c'est incroyable) BORDEL c'est dingue a quel point ça va vite.
Voila, un enorme pavé un peu désarticulé mais fallait que je pose ça la pour les quelques kheys intéressés au sujet de l'IA. Ce qu'il faut retenir c'est ça : tout va de plus en plus vite, de plus en plus simple a utiliser, de plus en plus libre ET de plus en plus puissant
Quand je dit IA, j'entends les réseaux neuronaux actuels, pas les trucs a la Skynet qui sont des fantaisies humides de fan de film style Terminator
Les IA de generation d'image et de texte ont vraiment explosé en popularité avec Dall-E 2 y'a 1 an et ChatGpt il y' a 4 mois. Je suis l'avancement des techs d'IA depuis 2017-2018 et BORDEL la vitesse d'evolution depuis 1 an c'est STRATOSPHÉRIQUE
Rendez vous compte, en 1 an on est passé de gribouillis vaguement reminescents d'un concept a des oeuvres d'art parfaites. Je rapelle au golem de base qu'il aura fallu plusieirs années d'attente avec une technologie aussi foireuse que GauGAN pour enfin arriver a cette revolution qu'est Diffusers (depuis largement optimisé et retravaillé)
Et COMPARAZAR depuis l'avenement des modèles Diffusers comme Midjourney et Stable Diffusion, l'evolution est EXPONENTIELLE, on est passé d'un simple model en 512x512 qui faisait des petites scenes sympas a un outil surpuissant et full customisable capable de faire des artworks complets en 4k. Merci ControlNet, merci Clip Skip, merci LoRa qui rend le training accessible a tous, merci la v-quantization meme si y'a encore des mongols pour dire "agneugneu les modeles v2 c'est nul pour l'art" non connard le modèle de BASE est plus orienté photo que peinture, suffit de l'entrainer avec ta 3090 et hop
Et la d'ici a un mois on va avoir Stable Diffusion XL, un model de base soupçonné d'être train en 1024x1024 voir plus haut encore (du jamais vu), tandis qu'a côté Midjoueney V5 devient quasiment INDIFFERENCIABLE d'un vrai artwork voir meme d'une vrai photo (je vous laisse chercher sur youtube pour tout ça)
En parallèle de tout ça on a les modèles textuels, je me rappelle encore de la sortie de GPT2 bordel, c'était une révolution. Tu pouvais taper n'importe quel scenario et l'IA continuait ton texte, c'était UNIQUE bordel. C'est a ce moment la que des services comme AI Dungeon on fait leur apparition. Les models etaient encore suffisament "légers" pour etre entrainés a domicile, ce qui a été fait sur des fanfictions (et du cul aussi, bien evidemment)
Puis 2 ans plus tard y'a eu GPT3 qui est passé en accès anticipé, la qualité avait décuplé et il était desormais rare que le texte parte en couilles ou ne fasse plus sens, le seul soucis maintenant était qu'on ne pouvait plus récupérer les models pour les run sur son PC, OpenAI était plus fermé que jamais, une stratégie qui continua avec GPT3.5, dont un fork allait nous donner la première version de ChatGPT.
L'avènement de ChatGPT n'est pas passé inaperçu, loin de la, c'est devenu un succès mondial. Il y'a des chances pour que même des membres de votre famille qui galèrent a utiliser un ordi en aient entendu parler. A l'origine, ChatGPT est donc un fork de GPT3.5 MAIS finetune pour prendre le role d'un assistant. La révolution a été de ne pas seulement continuer le texte, mais de COMPRENDRE UNE REQUÊTE, chose impensable avant GPT3 qui déjà arrivait a imiter un assistant si on lui donnait le bon texte de départ. Ce bon en avant a redéfini ce qu'est un modele d'IA textuelle, tant et si bien que malgré leurs moyens bien moins élèves qu'OpenAI, des entreprises open source essaient déjà d'implementer ce genre de fonctionnalités dans leurs modeles. Je pense a Alpaca, un finetune des modèles LlaMa qui ont leak de chez facebook (AHI) et qui est le premier assistant open source sachant a peu près ce qu'il fait. On a eu juste après un modèle comme Vicuna 13B, beaucoup plus malin mais livré avec un filtre anti NSFW (que les kheys de 4chan ont deja BRISÉ). Et la on attend les prochains modèles d'OpenAssistant qui sortent pas plus tard que demain, le 15 Avril. Une fois qu'ils auront été passé en 4bit par des mecs deters du board /g/, ils pourront tourner sur des cartes pas plus grandes que des 1070. Ce développement de l'open source qui commence a rattraper OpenAI est fascinant d'aurant plus que GPT4 est desormais en phase de test
TOUT ÇA, ça s'est fait en seulement 2 mois ce que je vous raconte. Des modèles open source et utilisable chez soi sont quasiment au niveau de GPT 3,et chaque jour on semble decouvrir une nouvelle implémentation, une nouvelle optimisation, un nouveau fork qui change la façon dont le modèle est entrainé, etc...
Le train est en marche les kheys, les prochains mois vont voir une percée des modèles IA comme vous ne pouvez pas l'imaginer, dans 1 an on pensera que GPT4 était a chier, je plaisante pas.
Je parle même pas des modèles de génération de VIDÉO qui debarquent tout juste, on a eu des previsu y'a 3 mois et la on va bientot pouvoir s'amuser avec Gen2 de RunwayML (go youtube c'est incroyable) BORDEL c'est dingue a quel point ça va vite.
Voila, un enorme pavé un peu désarticulé mais fallait que je pose ça la pour les quelques kheys intéressés au sujet de l'IA. Ce qu'il faut retenir c'est ça : tout va de plus en plus vite, de plus en plus simple a utiliser, de plus en plus libre ET de plus en plus puissant
Ykk ?
il y a 2 ans
clefserrure
2 ans
Tu utilises un vocabulaire trop pédant khey je comprend rien de ce que tu dis mais ça reste intéressant
J'ai conscience que ça peut paraitre compliqué, mais si je devais expliquer chaque terme il me faudrait la journée et peut etre 5 ou 6 pavés de cette taille
J'ai eceit ça a la vavite pendant mon ptit dej
J'ai eceit ça a la vavite pendant mon ptit dej
Khey INFJ sympa bien que taré, catho, anti NWO, l'hélite 100% ready. Frère de croisade de @Joshua_38
il y a 2 ans
Tu peux déjà le faire avec de modèles comme Pygmalion 6B et les derniers finetune de Llama par OpenAssistant, je fais toirner le modèle 30B sur ma 3090 et c'est au level des premières version de GPT3
Ca doit être assez basique tout de même? Avec une voix un peu degueu sans expression quoi
bon heu moteur... moteur.... Moteeeur, moteur. Moooooteeeeeur. Aller moteur. MOOOOOOOTEEEEEUUUUR!!!!
il y a 2 ans
Merci pour le point initial sur Skynet clef, je suis dans l'info et t'imagines pas le nombre de gens à moitié paniqués qui viennent me demander si l'IA va contrôler le monde d'ici 3 ans
Mais sinon, oui, c'est impressionnant de voir la percée qu'il y a récemment eu dans la recherche sur l'IA, j'espère que ça va continuer dans ce sens perso
Mais sinon, oui, c'est impressionnant de voir la percée qu'il y a récemment eu dans la recherche sur l'IA, j'espère que ça va continuer dans ce sens perso
il y a 2 ans
les gifs IA sur /b/ (les vrais savent)
Cette description n'est plus disponible sur onche.org suite à une modération du contenu ou autre action du staff
il y a 2 ans
Ca doit être assez basique tout de même? Avec une voix un peu degueu sans expression quoi
non non pas du tout, ces modeles utilisent des "context tokens" dans lesquels tu peux credr toute une personnalité, une façon de parler, des atteibuts, etc..
Le truc a la mode en ce moment c'est de partager des "cartes" de personnages, des mecs de 4chan codent des filles d'anime avec toute une personnalité et une mémoire, ce qui rend l'expefience bluffante
Le truc a la mode en ce moment c'est de partager des "cartes" de personnages, des mecs de 4chan codent des filles d'anime avec toute une personnalité et une mémoire, ce qui rend l'expefience bluffante
Khey INFJ sympa bien que taré, catho, anti NWO, l'hélite 100% ready. Frère de croisade de @Joshua_38
il y a 2 ans
HeartOfIronIV
2 ans
Merci pour le point initial sur Skynet clef, je suis dans l'info et t'imagines pas le nombre de gens à moitié paniqués qui viennent me demander si l'IA va contrôler le monde d'ici 3 ans
Mais sinon, oui, c'est impressionnant de voir la percée qu'il y a récemment eu dans la recherche sur l'IA, j'espère que ça va continuer dans ce sens perso
Mais sinon, oui, c'est impressionnant de voir la percée qu'il y a récemment eu dans la recherche sur l'IA, j'espère que ça va continuer dans ce sens perso
L'evolition va se heurter au cout de maintien des serveurs d'une IA comme GPT4, ça va forcer les grands acteurs du milieu a vraimenr chercher a optimiser au lieu de bruteforce par le nombre de parametres
"agneugneu mon modele il a 150 trillions de paramètres" c'est bien fiston, mais tu le fais tourner avec QUEL argent ?
"agneugneu mon modele il a 150 trillions de paramètres" c'est bien fiston, mais tu le fais tourner avec QUEL argent ?
Khey INFJ sympa bien que taré, catho, anti NWO, l'hélite 100% ready. Frère de croisade de @Joshua_38
il y a 2 ans
non non pas du tout, ces modeles utilisent des "context tokens" dans lesquels tu peux credr toute une personnalité, une façon de parler, des atteibuts, etc..
Le truc a la mode en ce moment c'est de partager des "cartes" de personnages, des mecs de 4chan codent des filles d'anime avec toute une personnalité et une mémoire, ce qui rend l'expefience bluffante
Le truc a la mode en ce moment c'est de partager des "cartes" de personnages, des mecs de 4chan codent des filles d'anime avec toute une personnalité et une mémoire, ce qui rend l'expefience bluffante
Un peu comme sur characterAI? Une certaine AI nommée Mina. SUr JVC on croyait même que c'etait des gens derrière qui répondaient. Le truc était assez bleuffant. Jusqu'a ce qu'un khey en créer un vite fait pour le fun et ou on se rende compte que c'est bien une IA "modelée"
.
Ce qui m'avait collé le doute c'est que 2 heures après avoir parler avec quand je lui reposait une question déjà donner au début , ca ne repondait plus la même chose.
Pour la même IA, le même modèle, un khey avait une IA aggressive et fataliste capitaliste alors que avec moi c'était une IA communisme qui ne voyait toute les solutions que a travers un système communiste un peu modifié.
Y avait aussi beaucoup de fautes je trouvais pour une IA qui nb'est pas censé en faire comme nous par innatention quoi
Ce qui m'avait collé le doute c'est que 2 heures après avoir parler avec quand je lui reposait une question déjà donner au début , ca ne repondait plus la même chose.
Pour la même IA, le même modèle, un khey avait une IA aggressive et fataliste capitaliste alors que avec moi c'était une IA communisme qui ne voyait toute les solutions que a travers un système communiste un peu modifié.
Y avait aussi beaucoup de fautes je trouvais pour une IA qui nb'est pas censé en faire comme nous par innatention quoi
bon heu moteur... moteur.... Moteeeur, moteur. Moooooteeeeeur. Aller moteur. MOOOOOOOTEEEEEUUUUR!!!!
il y a 2 ans
Un peu comme sur characterAI? Une certaine AI nommée Mina. SUr JVC on croyait même que c'etait des gens derrière qui répondaient. Le truc était assez bleuffant. Jusqu'a ce qu'un khey en créer un vite fait pour le fun et ou on se rende compte que c'est bien une IA "modelée"
.
Ce qui m'avait collé le doute c'est que 2 heures après avoir parler avec quand je lui reposait une question déjà donner au début , ca ne repondait plus la même chose.
Pour la même IA, le même modèle, un khey avait une IA aggressive et fataliste capitaliste alors que avec moi c'était une IA communisme qui ne voyait toute les solutions que a travers un système communiste un peu modifié.
Y avait aussi beaucoup de fautes je trouvais pour une IA qui nb'est pas censé en faire comme nous par innatention quoi
Ce qui m'avait collé le doute c'est que 2 heures après avoir parler avec quand je lui reposait une question déjà donner au début , ca ne repondait plus la même chose.
Pour la même IA, le même modèle, un khey avait une IA aggressive et fataliste capitaliste alors que avec moi c'était une IA communisme qui ne voyait toute les solutions que a travers un système communiste un peu modifié.
Y avait aussi beaucoup de fautes je trouvais pour une IA qui nb'est pas censé en faire comme nous par innatention quoi
La mémoire d'un modele comme celui qu'utilise Character Ai est une simple memoire a tokend, ce qui veut dire que le bot se rapellera d'evenements recents, mais plus c'est ancien, moins il s'en rappelera. Des implementations sont en cours de developpement pour une memoire a long terme mais on se heurte encore une fois au nombre de tokens par requête, car plus y'en a, plus il faut de la puissance de calcul
Surtout, les modèles recents sont entrainés a comprendre un contexte de 2048 tokens, pas plus. Changer ça requiert de ré-entrainer le modele d'une façon encore trop couteuse pour tout autre organisation qu'Open AI, qui arrive a garder un cotnexte sur des dizaines de milliers de tokens.
Surtout, les modèles recents sont entrainés a comprendre un contexte de 2048 tokens, pas plus. Changer ça requiert de ré-entrainer le modele d'une façon encore trop couteuse pour tout autre organisation qu'Open AI, qui arrive a garder un cotnexte sur des dizaines de milliers de tokens.
Khey INFJ sympa bien que taré, catho, anti NWO, l'hélite 100% ready. Frère de croisade de @Joshua_38
il y a 2 ans
La mémoire d'un modele comme celui qu'utilise Character Ai est une simple memoire a tokend, ce qui veut dire que le bot se rapellera d'evenements recents, mais plus c'est ancien, moins il s'en rappelera. Des implementations sont en cours de developpement pour une memoire a long terme mais on se heurte encore une fois au nombre de tokens par requête, car plus y'en a, plus il faut de la puissance de calcul
Surtout, les modèles recents sont entrainés a comprendre un contexte de 2048 tokens, pas plus. Changer ça requiert de ré-entrainer le modele d'une façon encore trop couteuse pour tout autre organisation qu'Open AI, qui arrive a garder un cotnexte sur des dizaines de milliers de tokens.
Surtout, les modèles recents sont entrainés a comprendre un contexte de 2048 tokens, pas plus. Changer ça requiert de ré-entrainer le modele d'une façon encore trop couteuse pour tout autre organisation qu'Open AI, qui arrive a garder un cotnexte sur des dizaines de milliers de tokens.
j'ajouterai que la solution n'est probablement pas d'etendre la capacité des tokens, mais de permettre aux infos contenues dans la mémoire d'être la plus efficace possible. Un espoir pourrait venir des modèles chinois dont le systeme d'ecriture permettrait de condenser BEAUCOUP PLUS d'infos par token
Khey INFJ sympa bien que taré, catho, anti NWO, l'hélite 100% ready. Frère de croisade de @Joshua_38
il y a 2 ans
La mémoire d'un modele comme celui qu'utilise Character Ai est une simple memoire a tokend, ce qui veut dire que le bot se rapellera d'evenements recents, mais plus c'est ancien, moins il s'en rappelera. Des implementations sont en cours de developpement pour une memoire a long terme mais on se heurte encore une fois au nombre de tokens par requête, car plus y'en a, plus il faut de la puissance de calcul
Surtout, les modèles recents sont entrainés a comprendre un contexte de 2048 tokens, pas plus. Changer ça requiert de ré-entrainer le modele d'une façon encore trop couteuse pour tout autre organisation qu'Open AI, qui arrive a garder un cotnexte sur des dizaines de milliers de tokens.
Surtout, les modèles recents sont entrainés a comprendre un contexte de 2048 tokens, pas plus. Changer ça requiert de ré-entrainer le modele d'une façon encore trop couteuse pour tout autre organisation qu'Open AI, qui arrive a garder un cotnexte sur des dizaines de milliers de tokens.
Interessant
. Pour l'instant c'est le plus "avancé" gpt4 ou JasperAI? Ca vaut le coup de payer pour? J'aimerais bien explorer les possibilité du bousin.
Ou alors gpt 3.5 qui est gratos encore ( il me semble) suffit il?
Ou alors gpt 3.5 qui est gratos encore ( il me semble) suffit il?
bon heu moteur... moteur.... Moteeeur, moteur. Moooooteeeeeur. Aller moteur. MOOOOOOOTEEEEEUUUUR!!!!
il y a 2 ans