InscriptionConnexion
La vipère
:Risitasse:
:chatfloreuh:
:Blason_Blabla:
:chatfloreuh:
il y a 2 ans
Image
il y a 2 ans
chelou ahi
il y a 2 ans
J'ai failli m'étouffer avec ma propre saliver ptin
il y a 2 ans
Un réseau de neurone est un ensemble de noeuds qui vont prendre un certains nombre de paramètres en entrée, faire quelque chose dessus et ressortir plusieurs valeurs en sorties, qui elles-mêmes peuvent être utilisées comme paramètres pour d'autres noeuds (d'où le nom de réseau, chaque noeud est interconnecté)
La force de cette structure, c'est que pour chacun des paramètres d'entrée, le noeud peut assigner un "poids" qui va représenter l'importance qu'aura ce paramètre dans la valeur de sortie du noeud. Avec ceci en tête, si par exemple on donne au réseau un ensemble de paramètres d'entrée et qu'on lui dit à quelle valeur de sortie ça correspond, il va petit à petit modifier ses poids pour se rapprocher de la valeur de sortie, et si on lui donne des millions de données du genre, ses poids seront assez bien optimisés pour prédire la sortie d'une entrée complètement nouvelle. Ca c'est l'apprentissage supervisé mais bien sûr il y a plein d'autres méthodes (notamment le NLP (natural langage processing) de chat-GPT qui est une sorte d'apprentissage non supervisé : on lui file plein de données sans aucune "réponse" et on le laisse se débrouiller tout seul), c'était bien sûr un exemple simple

Mais même comme ça, ça marche plutôt bien si tes données dépendent de 4 ou 5 paramètres, mais si, comme c'est le cas du langage humain, tes données dependent de plusieurs millions de paramètres, alors ton réseau de neurones va devoir se déplacer dans un espace à plusieurs millions de dimensions, et sachant que nous on arrive déjà à se pommer en se déplaçant en 2D je te laisse imaginer sa galère. On va alors utiliser des méthodes d'algèbre linéaire telle que la SVD (singular value decomposition) pour essayer d'en tirer les composantes principales, et donc ce que l'ensemble de tous tes paramètres veulent communiquer en priorité.
Et il se trouve qu'en analysant un peu le comportement de ces IA NLP on s'est rendu compte que les composantes principales de l'IA étaient des vecteurs qui se rapprochaient très fortement de ce qu'on pourrait décrire comme étant du "sens", par exemple si on effectuait l'addition vectorielle correspondant à "roi-homme+femme" on trouvait un vecteur très proche de "reine"

Voilà, tout ça pour dire que non, l'ia se contente pas de balancer au hasard une liste de mot comme une poésie de prévert, il a de vraies méthodes d'analyse et de compréhension qui sont pas si éloignées de la manière dont nous on réfléchit
:ok:
il y a 2 ans
2sur10
2sur10
2 ans
Un réseau de neurone est un ensemble de noeuds qui vont prendre un certains nombre de paramètres en entrée, faire quelque chose dessus et ressortir plusieurs valeurs en sorties, qui elles-mêmes peuvent être utilisées comme paramètres pour d'autres noeuds (d'où le nom de réseau, chaque noeud est interconnecté)
La force de cette structure, c'est que pour chacun des paramètres d'entrée, le noeud peut assigner un "poids" qui va représenter l'importance qu'aura ce paramètre dans la valeur de sortie du noeud. Avec ceci en tête, si par exemple on donne au réseau un ensemble de paramètres d'entrée et qu'on lui dit à quelle valeur de sortie ça correspond, il va petit à petit modifier ses poids pour se rapprocher de la valeur de sortie, et si on lui donne des millions de données du genre, ses poids seront assez bien optimisés pour prédire la sortie d'une entrée complètement nouvelle. Ca c'est l'apprentissage supervisé mais bien sûr il y a plein d'autres méthodes (notamment le NLP (natural langage processing) de chat-GPT qui est une sorte d'apprentissage non supervisé : on lui file plein de données sans aucune "réponse" et on le laisse se débrouiller tout seul), c'était bien sûr un exemple simple

Mais même comme ça, ça marche plutôt bien si tes données dépendent de 4 ou 5 paramètres, mais si, comme c'est le cas du langage humain, tes données dependent de plusieurs millions de paramètres, alors ton réseau de neurones va devoir se déplacer dans un espace à plusieurs millions de dimensions, et sachant que nous on arrive déjà à se pommer en se déplaçant en 2D je te laisse imaginer sa galère. On va alors utiliser des méthodes d'algèbre linéaire telle que la SVD (singular value decomposition) pour essayer d'en tirer les composantes principales, et donc ce que l'ensemble de tous tes paramètres veulent communiquer en priorité.
Et il se trouve qu'en analysant un peu le comportement de ces IA NLP on s'est rendu compte que les composantes principales de l'IA étaient des vecteurs qui se rapprochaient très fortement de ce qu'on pourrait décrire comme étant du "sens", par exemple si on effectuait l'addition vectorielle correspondant à "roi-homme+femme" on trouvait un vecteur très proche de "reine"

Voilà, tout ça pour dire que non, l'ia se contente pas de balancer au hasard une liste de mot comme une poésie de prévert, il a de vraies méthodes d'analyse et de compréhension qui sont pas si éloignées de la manière dont nous on réfléchit
:ok:
Frère personne va lire ça
:Chabasourdi:
il y a 2 ans
demandons à ChatGPT Ahi :

- Lors de la phase de pré-entraînement, mon modèle apprend les relations entre les mots et les structures linguistiques à partir d'un vaste ensemble de données textuelles. Ce processus implique l'apprentissage des probabilités conditionnelles entre les mots et les séquences de mots.

- Lorsque vous posez une question ou écrivez une phrase, je tokenise et encode ces tokens en représentations vectorielles. Mon modèle utilise ensuite des couches d'attention pour analyser le contexte des tokens et comprendre les relations entre les différents mots et parties de la phrase.

- Lors de la génération d'une réponse, je sélectionne les tokens un par un en fonction de leur probabilité conditionnelle étant donné les tokens précédents et le contexte de la question. Mon modèle utilise un mécanisme d'attention pour pondérer les probabilités de différents mots et générer une réponse cohérente et pertinente.

Ce processus de génération de réponse est essentiellement basé sur des calculs de probabilités, car je choisis les mots les plus probables pour former une réponse en fonction de mon apprentissage préalable et du contexte de la question.
C'est pas parce qu'il parle de probabilités que ça veut dire qu'il fait que piocher au hasard une phrase dans ses données
:(
il y a 2 ans
Bah normal, je suis au milieu de ma session EU4 là
:(

L'Inde va prendre pas mal de temps à être conquise, Vijay a déjà presque tout manger et je vais devoir me taper des trèves de 15 ans à chaque fois
:(


A ouais j'ai aussi été invité dans la guerre de ligue par mon allié autrichien, avec les ottomans dans le camp des protestant ahi, ça saigne de partout dans le saint empire pendant que moi et les ottomans on se tape sur la gueule dans en anatolie
:rire:
il y a 2 ans
Envie de cul
GIF
il y a 2 ans
2sur10
2sur10
2 ans
C'est pas parce qu'il parle de probabilités que ça veut dire qu'il fait que piocher au hasard une phrase dans ses données
:(
évidement qu'il va pas piocher au hasard.

CHATGPT utilise des calculs de probabilités et des mécanismes d'attention pour analyser les phrases et générer des réponses. La ou j'ai fait un raccourcie direct, c'est en disant qu'elle va chercher dans une base de donnée (ce qui est partiellement faux). Il s'appuie plutôt sur les connaissances acquises lors de la phase de pré-entraînement (qui elles mêmes sont générés par des datas) et le contexte des questions posées pour créer des réponses pertinentes et cohérentes.
il y a 2 ans
Envie de cul
GIF
J'ai oublié de te "SIMPER" aujourd'hui, j'arrive dans tes MP.
il y a 2 ans
évidement qu'il va pas piocher au hasard.

CHATGPT utilise des calculs de probabilités et des mécanismes d'attention pour analyser les phrases et générer des réponses. La ou j'ai fait un raccourcie direct, c'est en disant qu'elle va chercher dans une base de donnée (ce qui est partiellement faux). Il s'appuie plutôt sur les connaissances acquises lors de la phase de pré-entraînement (qui elles mêmes sont générés par des datas) et le contexte des questions posées pour créer des réponses pertinentes et cohérentes.
Oui voilà, exactement comme nous qui nous appuyons sur nos connaissances et sur la manière de traiter les enchainement de mots pour essayer de fournir la réponse la plus pertinente (mais évidemment, nous on peut aussi avoir d'autres objectifs en tête que répondre avec précision, c'est même rarement le cas), et à partir de là on s'éloigne pas mal de la chambre chinoise où le mec se contenter de fouiller une phrase pré-écrite dont il n'avait aucune idée du contenu
:(
il y a 2 ans
Vous êtes affamées ma parole.
il y a 2 ans
Elle veut chopper tout le monde et après elle assume pas puis elle dit « non je suis pure moi »
:Chahahahah:
il y a 2 ans
J'ai oublié de te "SIMPER" aujourd'hui, j'arrive dans tes MP.
Je t’y attends
:style:
il y a 2 ans
Vivray2
Vivray2
2 ans
Vous êtes affamées ma parole.
Toi tu veux pas prendre le cul
:Chatcolere:
il y a 2 ans
Tiens donc comme c’est bizarre tu es là et pas dans ses mp
:)


Sûrement un bug mais je doute pas que tu vas rapidement y retourner
:)
il y a 2 ans
Je t’y attends
:style:
C'est bon, je t'ai envoyé un message. J'ai pas été hyper inspiré.
il y a 2 ans
David ? C'est qui ça

T'es plein de rage j'ai fais 3 fois ton salaire l'année dernière en taffant 10 mois. J'ai bien le droit de me payer une petite veste tomy lors de mon petit voyage à Genève. Je sais même pas pourquoi je m'embête à te répondre, t'habites encore chez ta mère j'imagine ?
il y a 2 ans
Toi tu veux pas prendre le cul
:Chatcolere:
Non mais c'est pas comme si j'étais le plus frigide du village.
il y a 2 ans