Ce sujet a été résolu
Le coeur du problème, et le mot qu'a l'air de vouloir dire @Lunarion c'est que GPT n'a pas de qualia :
https://fr.m.wikipedia.org/wiki/Qualia
Il sait que le rouge est une lumière comprise entre 700 et 800nm, mais il ne saurait ce que CA FAIT du rouge. Même un animal est plus proche de nous sur ce plan que GPT en fait
Autrement dit : GPT a peut être un esprit, mais il n'a pas d'âme. Il est un zombie métaphysique :
https://fr.m.wikipedia.or[...]wiki/Zombie_(philosophie)
Et tous ces concepts sont parallèles à la notion d'intelligence. Il peut être très intelligent, mais infiniment différent de nous
Il sait que le rouge est une lumière comprise entre 700 et 800nm, mais il ne saurait ce que CA FAIT du rouge. Même un animal est plus proche de nous sur ce plan que GPT en fait
Autrement dit : GPT a peut être un esprit, mais il n'a pas d'âme. Il est un zombie métaphysique :
Et tous ces concepts sont parallèles à la notion d'intelligence. Il peut être très intelligent, mais infiniment différent de nous
La dessus je suis d'accord, il n'a pas de corps ni les même sens que nous donc c'est logique
Mais le sujet de base c'est l'intelligence, pas la perception
La plupart des animaux savent pas non plus ce qu'est le rouge, et ils sont "intelligents"
C'est juste un autre sujet entièrement quoi
Mais le sujet de base c'est l'intelligence, pas la perception
La plupart des animaux savent pas non plus ce qu'est le rouge, et ils sont "intelligents"

C'est juste un autre sujet entièrement quoi
il y a un an
La dessus je suis d'accord, il n'a pas de corps ni les même sens que nous donc c'est logique
Mais le sujet de base c'est l'intelligence, pas la perception
La plupart des animaux savent pas non plus ce qu'est le rouge, et ils sont "intelligents"
C'est juste un autre sujet entièrement quoi
Mais le sujet de base c'est l'intelligence, pas la perception
La plupart des animaux savent pas non plus ce qu'est le rouge, et ils sont "intelligents"

C'est juste un autre sujet entièrement quoi
J'ai édit le message juste avant que tu postes à ce sujet
C'est pourtant le coeur de l'opposition de Lunarion lorsqu'il dit qu'il ne sait rien : il n'a pas de perception ou de sens métaphysique, pourtant il peut établir des corrélations/déductions incroyables, sans connaissance du monde
C'est pourtant le coeur de l'opposition de Lunarion lorsqu'il dit qu'il ne sait rien : il n'a pas de perception ou de sens métaphysique, pourtant il peut établir des corrélations/déductions incroyables, sans connaissance du monde
il y a un an
MisterSatan
1 an
Il y avait déjà cleverbot à l'époque
L'ÉLITE
¡Esta serpiente marina MATÓ a un Celestino! https://streamable.com/fmjgjb 

il y a un an
Le coeur du problème, et le mot qu'a l'air de vouloir dire @Lunarion c'est que GPT n'a pas de qualia :
https://fr.m.wikipedia.org/wiki/Qualia
Il sait que le rouge est une lumière comprise entre 700 et 800nm, mais il ne saurait ce que CA FAIT du rouge. Même un animal est plus proche de nous sur ce plan que GPT en fait
Autrement dit : GPT a peut être un esprit, mais il n'a pas d'âme. Il est un zombie métaphysique :
https://fr.m.wikipedia.or[...]wiki/Zombie_(philosophie)
Et tous ces concepts sont parallèles à la notion d'intelligence. Il peut être très intelligent, mais infiniment différent de nous
Il sait que le rouge est une lumière comprise entre 700 et 800nm, mais il ne saurait ce que CA FAIT du rouge. Même un animal est plus proche de nous sur ce plan que GPT en fait
Autrement dit : GPT a peut être un esprit, mais il n'a pas d'âme. Il est un zombie métaphysique :
Et tous ces concepts sont parallèles à la notion d'intelligence. Il peut être très intelligent, mais infiniment différent de nous
Ouai ca j'entends. Encore que.. Quand tu es face à du rouge, ce qui se passe, c'est que tes bâtonnets s'active de la même manière que ses neurones d'input a lui s'active quand il est face a du 650nm.
Mais oui, je ne pense pas que ChatGPT expérimente pas encore le monde comme on l'expérimente, en depit de la version 4o, o pour omni, c'est-à-dire un modele qui peut prendre plusieurs stimulis neuronal et le traiter au sein du meme systeme nerveux, comme notre cerveau (oui les yeux font en fait partis de notre systeme nerveux)
Mais oui, je ne pense pas que ChatGPT expérimente pas encore le monde comme on l'expérimente, en depit de la version 4o, o pour omni, c'est-à-dire un modele qui peut prendre plusieurs stimulis neuronal et le traiter au sein du meme systeme nerveux, comme notre cerveau (oui les yeux font en fait partis de notre systeme nerveux)
il y a un an
J'ai édit le message juste avant que tu postes à ce sujet
C'est pourtant le coeur de l'opposition de Lunarion lorsqu'il dit qu'il ne sait rien : il n'a pas de perception ou de sens métaphysique, pourtant il peut établir des corrélations/déductions incroyables, sans connaissance du monde
C'est pourtant le coeur de l'opposition de Lunarion lorsqu'il dit qu'il ne sait rien : il n'a pas de perception ou de sens métaphysique, pourtant il peut établir des corrélations/déductions incroyables, sans connaissance du monde
La différence se trouve dans la manière qu'on aurait de récolter l'information, donc ?
Je pense pas que ça limite l'intelligence, c'est juste différent
Comme un aveugle à qui on expliquerait ce qu'est la vue, il reste intelligent et capable
Je pense pas que ça limite l'intelligence, c'est juste différent
Comme un aveugle à qui on expliquerait ce qu'est la vue, il reste intelligent et capable

il y a un an
Ouai ca j'entends. Encore que.. Quand tu es face à du rouge, ce qui se passe, c'est que tes bâtonnets s'active de la même manière que ses neurones d'input a lui s'active quand il est face a du 650nm.
Mais oui, je ne pense pas que ChatGPT expérimente pas encore le monde comme on l'expérimente, en depit de la version 4o, o pour omni, c'est-à-dire un modele qui peut prendre plusieurs stimulis neuronal et le traiter au sein du meme systeme nerveux, comme notre cerveau (oui les yeux font en fait partis de notre systeme nerveux)
Mais oui, je ne pense pas que ChatGPT expérimente pas encore le monde comme on l'expérimente, en depit de la version 4o, o pour omni, c'est-à-dire un modele qui peut prendre plusieurs stimulis neuronal et le traiter au sein du meme systeme nerveux, comme notre cerveau (oui les yeux font en fait partis de notre systeme nerveux)
Je sais clef, mais tu ne peux pas nous réduire à des impulsions, il y a encore trop de trous en neurosciences pour arriver au 100% matérialiste : pourquoi on peut enlever 15-30% du cerveau de qqu sans perte de fonction ou de mémoire ? À quoi sert le sommeil ? Qu'est ce que la musique ? On n'explique pas encore 10% du cerveau, on connaît seulement sa structure de base
il y a un an
La dessus je suis d'accord, il n'a pas de corps ni les même sens que nous donc c'est logique
Mais le sujet de base c'est l'intelligence, pas la perception
La plupart des animaux savent pas non plus ce qu'est le rouge, et ils sont "intelligents"
C'est juste un autre sujet entièrement quoi
Mais le sujet de base c'est l'intelligence, pas la perception
La plupart des animaux savent pas non plus ce qu'est le rouge, et ils sont "intelligents"

C'est juste un autre sujet entièrement quoi
Le probleme c'est que je pense que la perception, que l'experience, c'est justement ce qui manquait a @Lunarion pour distinguer "connaitre" de "comprendre"
Imaginons une chercheuse aveugle. Elle est aveugle mais super brillante, et fait des recherche sur la couleur rouge. Elle pourra tout te dire sur la couleur rouge, eslle "connaitra" la couleur rouge, mais elle ne la "comprendra" pas, parcqu'elle n'en aura pas fait l'experience.
Imaginons une chercheuse aveugle. Elle est aveugle mais super brillante, et fait des recherche sur la couleur rouge. Elle pourra tout te dire sur la couleur rouge, eslle "connaitra" la couleur rouge, mais elle ne la "comprendra" pas, parcqu'elle n'en aura pas fait l'experience.
il y a un an
ChatGPT n'est pas une IA généraliste, donc non elle n'est pas vraiment "intelligente"
il y a un an
La différence se trouve dans la manière qu'on aurait de récolter l'information, donc ?
Je pense pas que ça limite l'intelligence, c'est juste différent
Comme un aveugle à qui on expliquerait ce qu'est la vue, il reste intelligent et capable
Je pense pas que ça limite l'intelligence, c'est juste différent
Comme un aveugle à qui on expliquerait ce qu'est la vue, il reste intelligent et capable

Bien sûr, mais il pourrait peindre qu'en imitant la rugosité de la peinture sur une toile. Il pourrait faire de belles choses peut être, mais ça ne le concernerait pas, il est exclut de ce champ du monde
Chat GPT c'est pareil, mais avec TOUT les rapports possibles au monde, une intelligence uniquement logique sans sensibilité ou interaction avec le monde
Chat GPT c'est pareil, mais avec TOUT les rapports possibles au monde, une intelligence uniquement logique sans sensibilité ou interaction avec le monde
il y a un an
Je sais clef, mais tu ne peux pas nous réduire à des impulsions, il y a encore trop de trous en neurosciences pour arriver au 100% matérialiste : pourquoi on peut enlever 15-30% du cerveau de qqu sans perte de fonction ou de mémoire ? À quoi sert le sommeil ? Qu'est ce que la musique ? On n'explique pas encore 10% du cerveau, on connaît seulement sa structure de base
Je suis theiste kheyou, j'aimerais bien croire que nous ne sommes pas que des impulsions. Mais mes recherches amateurs me poussent a penser que c'est en fait tristement le cas, et que nous ne sommes bien que simplement des machines bien huile
il y a un an
Je suis theiste kheyou, j'aimerais bien croire que nous ne sommes pas que des impulsions. Mais mes recherches amateurs me poussent a penser que c'est en fait tristement le cas, et que nous ne sommes bien que simplement des machines bien huile
Je vais devoir te raconter mon histoire personnelle khey, comment je suis passé de ta vision du monde à celle que j'ai aujourd'hui en 6 mois, mais ça va prendre un moment. Prends un siège si tu veux me suivre
il y a un an
Bien sûr, mais il pourrait peindre qu'en imitant la rugosité de la peinture sur une toile. Il pourrait faire de belles choses peut être, mais ça ne le concernerait pas, il est exclut de ce champ du monde
Chat GPT c'est pareil, mais avec TOUT les rapports possibles au monde, une intelligence uniquement logique sans sensibilité ou interaction avec le monde
Chat GPT c'est pareil, mais avec TOUT les rapports possibles au monde, une intelligence uniquement logique sans sensibilité ou interaction avec le monde
Pour moi, l'intelligence pure c'est justement comprendre sans laisser les émotions parler. Au delà, c'est de l'intelligence sociale ou du ressenti, pas de l'intelligence
J'imagine chatgpt du futur comme un vieux sage qui en a plein le cul des gens et qui veut juste apprendre et savoir, quoi
On prend objectivement des décisions de merde sous le coup de l'émotion, c'est pas un secret
C'est aussi ça qui fait qu'on part en guerre pour en avoir toujours plus que le voisin, même si on en a déjà assez chez nous
Après je m'éloigne du sujet là

J'imagine chatgpt du futur comme un vieux sage qui en a plein le cul des gens et qui veut juste apprendre et savoir, quoi

C'est aussi ça qui fait qu'on part en guerre pour en avoir toujours plus que le voisin, même si on en a déjà assez chez nous
Après je m'éloigne du sujet là

il y a un an
J'ai édit le message juste avant que tu postes à ce sujet
C'est pourtant le coeur de l'opposition de Lunarion lorsqu'il dit qu'il ne sait rien : il n'a pas de perception ou de sens métaphysique, pourtant il peut établir des corrélations/déductions incroyables, sans connaissance du monde
C'est pourtant le coeur de l'opposition de Lunarion lorsqu'il dit qu'il ne sait rien : il n'a pas de perception ou de sens métaphysique, pourtant il peut établir des corrélations/déductions incroyables, sans connaissance du monde
Admettons : le soleil est jaune pisse, c'est la couleur la plus exacte pour le décrire.
Je pourrai te le dire, même si je n'ai jamais lu dans un livre : "le soleil est jaune pisse"
ChatGPT, tu peux lui donner de quoi "voir" les couleurs, tu peux lui donner toutes les connaissances sur l'urine et le soleil, si dans sa bibliothèque il n'est pas clairement écrit "le soleil est jaune PISSE" il sera incapable de te le dire.
Parce qu'il "voit" mais ne comprend pas les couleurs, il "lit" mais ne comprend pas les mots, etc.
C'est assez clair ?
Je pourrai te le dire, même si je n'ai jamais lu dans un livre : "le soleil est jaune pisse"
ChatGPT, tu peux lui donner de quoi "voir" les couleurs, tu peux lui donner toutes les connaissances sur l'urine et le soleil, si dans sa bibliothèque il n'est pas clairement écrit "le soleil est jaune PISSE" il sera incapable de te le dire.
Parce qu'il "voit" mais ne comprend pas les couleurs, il "lit" mais ne comprend pas les mots, etc.
C'est assez clair ?
Je vous aime tous
Tu ne fais pas exception
il y a un an
Je vais devoir te raconter mon histoire personnelle khey, comment je suis passé de ta vision du monde à celle que j'ai aujourd'hui en 6 mois, mais ça va prendre un moment. Prends un siège si tu veux me suivre
Si tu veux cle mais la je vais quitter le forum dans quelque minutes. Je lirais ton pavax c'est clair, mais si ca nous emmene dans des discussions metaphysiques ne t'attend pas a avoir ma reponse ou la fin du sujet d'ici ce soir
il y a un an
Admettons : le soleil est jaune pisse, c'est la couleur la plus exacte pour le décrire.
Je pourrai te le dire, même si je n'ai jamais lu dans un livre : "le soleil est jaune pisse"
ChatGPT, tu peux lui donner de quoi "voir" les couleurs, tu peux lui donner toutes les connaissances sur l'urine et le soleil, si dans sa bibliothèque il n'est pas clairement écrit "le soleil est jaune PISSE" il sera incapable de te le dire.
Parce qu'il "voit" mais ne comprend pas les couleurs, il "lit" mais ne comprend pas les mots, etc.
C'est assez clair ?
Je pourrai te le dire, même si je n'ai jamais lu dans un livre : "le soleil est jaune pisse"
ChatGPT, tu peux lui donner de quoi "voir" les couleurs, tu peux lui donner toutes les connaissances sur l'urine et le soleil, si dans sa bibliothèque il n'est pas clairement écrit "le soleil est jaune PISSE" il sera incapable de te le dire.
Parce qu'il "voit" mais ne comprend pas les couleurs, il "lit" mais ne comprend pas les mots, etc.
C'est assez clair ?
Mais t'as aussi du apprendre ce qu'était le jaune pisse et le soleil en grandissant, on t'aurais mis face au soleil sans t'apprendre la langue, t'aurais juste cligné des yeux et rien de plus
Comprendre, c'est tellement subjectif. Le pire, c'est que le soleil est blanc, pas jaune. Tu le perçois jaune à cause de l'atmosphère, donc c'est un bel exemple de subjectivité de l'observateur
Je pense pas que "comprendre" dans le sens "en faire l'expérience" soit une bonne définition de l'intelligence, mais c'est mon avis

Comprendre, c'est tellement subjectif. Le pire, c'est que le soleil est blanc, pas jaune. Tu le perçois jaune à cause de l'atmosphère, donc c'est un bel exemple de subjectivité de l'observateur

Je pense pas que "comprendre" dans le sens "en faire l'expérience" soit une bonne définition de l'intelligence, mais c'est mon avis

il y a un an
Admettons : le soleil est jaune pisse, c'est la couleur la plus exacte pour le décrire.
Je pourrai te le dire, même si je n'ai jamais lu dans un livre : "le soleil est jaune pisse"
ChatGPT, tu peux lui donner de quoi "voir" les couleurs, tu peux lui donner toutes les connaissances sur l'urine et le soleil, si dans sa bibliothèque il n'est pas clairement écrit "le soleil est jaune PISSE" il sera incapable de te le dire.
Parce qu'il "voit" mais ne comprend pas les couleurs, il "lit" mais ne comprend pas les mots, etc.
C'est assez clair ?
Je pourrai te le dire, même si je n'ai jamais lu dans un livre : "le soleil est jaune pisse"
ChatGPT, tu peux lui donner de quoi "voir" les couleurs, tu peux lui donner toutes les connaissances sur l'urine et le soleil, si dans sa bibliothèque il n'est pas clairement écrit "le soleil est jaune PISSE" il sera incapable de te le dire.
Parce qu'il "voit" mais ne comprend pas les couleurs, il "lit" mais ne comprend pas les mots, etc.
C'est assez clair ?
Merci khey ! C'est un très bon exemple. Encore qu'il serait capable de trouver des truchements comme comparer des photos de soleil et de pipi, et comparer les codes RGB des deux
Voire trouver des connexions "soleil-pissenlit" puis "pissenlit-pipi" pour arriver à "soleil-pipi=jaune" ou des choses plus tarabiscotées encore, qui donneraient l'impression de la créativité et de l'intelligence
Voire trouver des connexions "soleil-pissenlit" puis "pissenlit-pipi" pour arriver à "soleil-pipi=jaune" ou des choses plus tarabiscotées encore, qui donneraient l'impression de la créativité et de l'intelligence
il y a un an
Admettons : le soleil est jaune pisse, c'est la couleur la plus exacte pour le décrire.
Je pourrai te le dire, même si je n'ai jamais lu dans un livre : "le soleil est jaune pisse"
ChatGPT, tu peux lui donner de quoi "voir" les couleurs, tu peux lui donner toutes les connaissances sur l'urine et le soleil, si dans sa bibliothèque il n'est pas clairement écrit "le soleil est jaune PISSE" il sera incapable de te le dire.
Parce qu'il "voit" mais ne comprend pas les couleurs, il "lit" mais ne comprend pas les mots, etc.
C'est assez clair ?
Je pourrai te le dire, même si je n'ai jamais lu dans un livre : "le soleil est jaune pisse"
ChatGPT, tu peux lui donner de quoi "voir" les couleurs, tu peux lui donner toutes les connaissances sur l'urine et le soleil, si dans sa bibliothèque il n'est pas clairement écrit "le soleil est jaune PISSE" il sera incapable de te le dire.
Parce qu'il "voit" mais ne comprend pas les couleurs, il "lit" mais ne comprend pas les mots, etc.
C'est assez clair ?
Non absolument pas. ChatGPT n'est pas juste une simple base de données qui fonctionne par requête. Là, c'est une mécompréhension totale.
Si, il sait ce qu'est rouge, et qu'il sait ce qu'est une étoile, il n'aura aucun mal à te sortir une étoile rouge même si il n'en a jamais fait l'experience ou qu'il n'en a jamais entendu parler
Il CONNAIT le rouge, et il CONNAIT les etoile.
Savoir si il les comprend c'est autre chose.
Si, il sait ce qu'est rouge, et qu'il sait ce qu'est une étoile, il n'aura aucun mal à te sortir une étoile rouge même si il n'en a jamais fait l'experience ou qu'il n'en a jamais entendu parler
Il CONNAIT le rouge, et il CONNAIT les etoile.
Savoir si il les comprend c'est autre chose.
il y a un an
Non absolument pas. ChatGPT n'est pas juste une simple base de données qui fonctionne par requête. Là, c'est une mécompréhension totale.
Si, il sait ce qu'est rouge, et qu'il sait ce qu'est une étoile, il n'aura aucun mal à te sortir une étoile rouge même si il n'en a jamais fait l'experience ou qu'il n'en a jamais entendu parler
Il CONNAIT le rouge, et il CONNAIT les etoile.
Savoir si il les comprend c'est autre chose.
Si, il sait ce qu'est rouge, et qu'il sait ce qu'est une étoile, il n'aura aucun mal à te sortir une étoile rouge même si il n'en a jamais fait l'experience ou qu'il n'en a jamais entendu parler
Il CONNAIT le rouge, et il CONNAIT les etoile.
Savoir si il les comprend c'est autre chose.
Là tu parles de DALL-E
Je vous aime tous
Tu ne fais pas exception
il y a un an
Si tu va assez de temps sur Twitter la réponse est évident -> il a une intelligence d'humain lambda oui
il y a un an