Ce sujet a été résolu
Pour le moment l'IA n'a aucune conscience et n'est pas prête d'en avoir (tant qu'elle est développe de cette manière la).
il y a 2 ans
mais quoi qu'il en soit ChatGPT reste ultra impressionnant.
Ca reste un assistant très performant.
C'est comme si t'avais un stagiaire de 3eme en permanence.
Ca reste un assistant très performant.
C'est comme si t'avais un stagiaire de 3eme en permanence.
il y a 2 ans
de toute façon une IA n'a pas la faculté de "penser", elle a juste la faculté de simuler une intelligence.
Le concepte de la chambre chinoise est la suivante :
on t'enferme dans une chambre chinoise. Cette chambre est remplie d'une multitude de livres uniquement rédigés en chinois. Tu captes absolument rien à ce qui est écrit.
1 fois par jour, un mec te glisse sous la porte un papier avec écrit une phrase en chinois. T'es persuadé qu'en répondant correctement tu pourras sortir. Alors tu te mets a chercher dans les bouquins une phrase totalement identique. Tu finis par la trouver. Du coup tu décide de répondre la phrase juste après que tu vois dans le bouquin.
Tu la rends à la personne. La personne qui lis la réponse est bluffée, elle est persuadée que tu comprends le chinois
C'est exactement la même chose pour toutes les IA.
c'est juste une histoire de perspective
Le concepte de la chambre chinoise est la suivante :
on t'enferme dans une chambre chinoise. Cette chambre est remplie d'une multitude de livres uniquement rédigés en chinois. Tu captes absolument rien à ce qui est écrit.
1 fois par jour, un mec te glisse sous la porte un papier avec écrit une phrase en chinois. T'es persuadé qu'en répondant correctement tu pourras sortir. Alors tu te mets a chercher dans les bouquins une phrase totalement identique. Tu finis par la trouver. Du coup tu décide de répondre la phrase juste après que tu vois dans le bouquin.
Tu la rends à la personne. La personne qui lis la réponse est bluffée, elle est persuadée que tu comprends le chinois
C'est exactement la même chose pour toutes les IA.
c'est juste une histoire de perspective
Ca marche pas, au niveau mémoire et temps de calcul, c'est impossible de pouvoir bluffer parfaitement une conversation. L'analogie est imaginable quand on s'imagine que le chinois c'est ptet un millier de combinaisons de symboles agençables toujours de la même manière et sans ton personnel, subtilités, double sens, non-dits, etc...
il y a 2 ans
Ca marche pas, au niveau mémoire et temps de calcul, c'est impossible de pouvoir bluffer parfaitement une conversation. L'analogie est imaginable quand on s'imagine que le chinois c'est ptet un millier de combinaisons de symboles agençables toujours de la même manière et sans ton personnel, subtilités, double sens, non-dits, etc...
informatique ment c'est exactement comme ca que ca marche.
Globalement c'est juste un calcul de probabilité qu'elle va faire en analysant ta phrase (elle va regarder quels sont les mots les plus importants ou non) pour chercher dans sa base de donnée.
Globalement c'est juste un calcul de probabilité qu'elle va faire en analysant ta phrase (elle va regarder quels sont les mots les plus importants ou non) pour chercher dans sa base de donnée.
il y a 2 ans
informatique ment c'est exactement comme ca que ca marche.
Globalement c'est juste un calcul de probabilité qu'elle va faire en analysant ta phrase (elle va regarder quels sont les mots les plus importants ou non) pour chercher dans sa base de donnée.
Globalement c'est juste un calcul de probabilité qu'elle va faire en analysant ta phrase (elle va regarder quels sont les mots les plus importants ou non) pour chercher dans sa base de donnée.
Ah non je t'assure que c'est pas comme ça que ça marche informatiquement
il y a 2 ans
Ah non je t'assure que c'est pas comme ça que ça marche informatiquement
demandons à ChatGPT Ahi :
- Lors de la phase de pré-entraînement, mon modèle apprend les relations entre les mots et les structures linguistiques à partir d'un vaste ensemble de données textuelles. Ce processus implique l'apprentissage des probabilités conditionnelles entre les mots et les séquences de mots.
- Lorsque vous posez une question ou écrivez une phrase, je tokenise et encode ces tokens en représentations vectorielles. Mon modèle utilise ensuite des couches d'attention pour analyser le contexte des tokens et comprendre les relations entre les différents mots et parties de la phrase.
- Lors de la génération d'une réponse, je sélectionne les tokens un par un en fonction de leur probabilité conditionnelle étant donné les tokens précédents et le contexte de la question. Mon modèle utilise un mécanisme d'attention pour pondérer les probabilités de différents mots et générer une réponse cohérente et pertinente.
Ce processus de génération de réponse est essentiellement basé sur des calculs de probabilités, car je choisis les mots les plus probables pour former une réponse en fonction de mon apprentissage préalable et du contexte de la question.
- Lors de la phase de pré-entraînement, mon modèle apprend les relations entre les mots et les structures linguistiques à partir d'un vaste ensemble de données textuelles. Ce processus implique l'apprentissage des probabilités conditionnelles entre les mots et les séquences de mots.
- Lorsque vous posez une question ou écrivez une phrase, je tokenise et encode ces tokens en représentations vectorielles. Mon modèle utilise ensuite des couches d'attention pour analyser le contexte des tokens et comprendre les relations entre les différents mots et parties de la phrase.
- Lors de la génération d'une réponse, je sélectionne les tokens un par un en fonction de leur probabilité conditionnelle étant donné les tokens précédents et le contexte de la question. Mon modèle utilise un mécanisme d'attention pour pondérer les probabilités de différents mots et générer une réponse cohérente et pertinente.
Ce processus de génération de réponse est essentiellement basé sur des calculs de probabilités, car je choisis les mots les plus probables pour former une réponse en fonction de mon apprentissage préalable et du contexte de la question.
il y a 2 ans
La chanson française la plus écoutée actuellement a l’international est Moulaga de de heuss l’enfoiré et jul
il y a 2 ans
J'ai une veste à 500 boule je la prend en photo tout de suite ou tu ftg tout de suite :rere:
il y a 2 ans
l'avantage du modele ChatGPT (ou d'autres modèle de langage comme LLaMA) c'est que ca simule vraiment bien une intelligence part les phrases que ca genere.
il y a 2 ans
Apex
2 ans
La chanson française la plus écoutée actuellement a l’international est Moulaga de de heuss l’enfoiré et jul
Hé la moulaga
il y a 2 ans