InscriptionConnexion
AnFata
AnFata
2 ans
Je vais devoir te raconter mon histoire personnelle khey, comment je suis passé de ta vision du monde à celle que j'ai aujourd'hui en 6 mois, mais ça va prendre un moment. Prends un siège si tu veux me suivre
:pepouille:
Si tu veux cle mais la je vais quitter le forum dans quelque minutes. Je lirais ton pavax c'est clair, mais si ca nous emmene dans des discussions metaphysiques ne t'attend pas a avoir ma reponse ou la fin du sujet d'ici ce soir
:issou1:
il y a 2 ans
Admettons : le soleil est jaune pisse, c'est la couleur la plus exacte pour le décrire.

Je pourrai te le dire, même si je n'ai jamais lu dans un livre : "le soleil est jaune pisse"

ChatGPT, tu peux lui donner de quoi "voir" les couleurs, tu peux lui donner toutes les connaissances sur l'urine et le soleil, si dans sa bibliothèque il n'est pas clairement écrit "le soleil est jaune PISSE" il sera incapable de te le dire.

Parce qu'il "voit" mais ne comprend pas les couleurs, il "lit" mais ne comprend pas les mots, etc.

C'est assez clair ?
Merci khey ! C'est un très bon exemple. Encore qu'il serait capable de trouver des truchements comme comparer des photos de soleil et de pipi, et comparer les codes RGB des deux
:pipi:


Voire trouver des connexions "soleil-pissenlit" puis "pissenlit-pipi" pour arriver à "soleil-pipi=jaune" ou des choses plus tarabiscotées encore, qui donneraient l'impression de la créativité et de l'intelligence
:pepew:
Image
il y a 2 ans
Admettons : le soleil est jaune pisse, c'est la couleur la plus exacte pour le décrire.

Je pourrai te le dire, même si je n'ai jamais lu dans un livre : "le soleil est jaune pisse"

ChatGPT, tu peux lui donner de quoi "voir" les couleurs, tu peux lui donner toutes les connaissances sur l'urine et le soleil, si dans sa bibliothèque il n'est pas clairement écrit "le soleil est jaune PISSE" il sera incapable de te le dire.

Parce qu'il "voit" mais ne comprend pas les couleurs, il "lit" mais ne comprend pas les mots, etc.

C'est assez clair ?
Non absolument pas. ChatGPT n'est pas juste une simple base de données qui fonctionne par requête. Là, c'est une mécompréhension totale.

Si, il sait ce qu'est rouge, et qu'il sait ce qu'est une étoile, il n'aura aucun mal à te sortir une étoile rouge même si il n'en a jamais fait l'experience ou qu'il n'en a jamais entendu parler

Il CONNAIT le rouge, et il CONNAIT les etoile.

Savoir si il les comprend c'est autre chose.
il y a 2 ans
Reconnaître de l'intelligence dans un perroquet stochastique
:MacronRire:
La meilleure façon de châtier les hommes est de toujours donner ce qu'ils réclament.
il y a 2 ans
Non absolument pas. ChatGPT n'est pas juste une simple base de données qui fonctionne par requête. Là, c'est une mécompréhension totale.

Si, il sait ce qu'est rouge, et qu'il sait ce qu'est une étoile, il n'aura aucun mal à te sortir une étoile rouge même si il n'en a jamais fait l'experience ou qu'il n'en a jamais entendu parler

Il CONNAIT le rouge, et il CONNAIT les etoile.

Savoir si il les comprend c'est autre chose.
Là tu parles de DALL-E
:cafe:
Je vous aime tous
:love:
Tu ne fais pas exception

il y a 2 ans
Si tu va assez de temps sur Twitter la réponse est évident -> il a une intelligence d'humain lambda oui
:chat-mirroir:
Je suis le vrais héros de tous les temps https://pastebin.com/RiUTcpxB
:DarkSasukonch:
il y a 2 ans
Là tu parles de DALL-E
:cafe:
les deux repose sur le meme principe, a savoir la représentation des mots (word embedding).
DALL-E et ChatGPT utilise en gros la même technologie pour comprendre ce que tu lui demandes.
En gros aller chercher les points de donne dont je te parlais et t'assurer que quand tu lui demandes Sol, Sun ou soleil, ils aillent bien chercher la même chose.
Mais si tu lui demandes un truc qu'il n'a jamais vu, il te sortira quand même quelque chose, la chose la plus proche qu'il connait.. Exactement comme le ferait un humain quand tu lui dit C'est quoi un Soleillon ?
il y a 2 ans
[ATTENTION : CE TOPIC DATE DES DEBUTS DE L'ERE CHATGPT, VERIFIEZ LES DATES DES POSTS]

Parfois je me dis que c'est fou ce qu'il peut faire mais parfois je me dit que c'est juste une illusion. Est ce qu'on pourra avoir un jour l'équivalent d'un être humain en terme de créativité et d'ingéniosité ?
non, il a juste la connaissance c'est tout
Artiste du forum
:nate:
https://risibank.fr/utilisateur/nate | Président du Kjistan et de tous les KJ
:kjistan:
il y a 2 ans
mais la encore, tu es sur de la competence. Tu te pose la question : est ce que ChatGPT est capable de faire X ?

Mais je ne suis pas sur que ce soit ca l'intelligence.
Non dans ce poste je parlais d’intelligence globale pas d'une compétence spécifique mais ça vaut pour les deux dans ce cas de figure. L'idée c'est "a quoi bon répliquer le cerveau humain alors qu'on en a déjà des milliards?"
il y a 2 ans
Il y a des aspect sur lesquels un réseau neuronal artificiel simulé par un ordinateur (comme on conçoit un ordinateur aujourd'hui) ne peut égaler un réseau neuronal biologique. Par exemple pour l'aspect continu. Un ordinateur ne peut rien simuler de continu vu qu'un ordinateur travaille avec une quantité de donnés finies. Pour égaler un cerveau humain sur cet aspect il faudrait créer un réseau neuronal physique qui s'altère physiquement tout comme le notre. Pour quelques neurones a la limite pourquoi pas, mais pour des millions voir des milliards de neurones ça relève de la science fiction a l'heure actuelle.

Cela dit cela n'empêche pas un réseau neuronal artificiel de nous surpasser sur certains aspects.
il y a 2 ans
Ouai en 2021 on aura tous internet dans notre cerveau avec neuralink, super
:maitregolem:


Bref les promesses de Musk (qui n'est pas chercheur en IA pour rappel) on sait ce que ça vaut
:maitregolem:
il y a 2 ans
de maniere "séquentielle" ? Tu peux détailler ?

De ce que je sais (je suis pas neurochirurgien) les neurones n'envoient leur signaux dans leurs synapses que lorsque l'activité électrochimique en input atteint un seuil suffisant. Ca se rapproche plutôt très bien des neurones artificiel, et ce n'est donc pas continue.
Non mais c'est écris noir sur blanc dans n'importe quel livre sur l'IA que c'est une approximation arrêtez de forcer aya
:maitregolem:


A U C U N chercheur en IA ne prétend qu'un réseau neuronal ARTIFICIEL fonctionne pareil qu'un réseau neuronal humain/animal.

Je suis pas neurochirurgien non plus
:maitregolem:


Dans le livre "artificial intelligence, a neural approach" de Stuart Russel (la bible de l'IA en gros), il est écris je cite: "Deep learning has it's origins in early work that tried to model networks of neurons in the brain with computational circuits. For this reason, the networks trained by deep learning methods are often called neural networks, even though the resemblance to real neural cels and structures is superficial", à la page 801.

Par exemple l'aspect séquentiel des réseaux neuronaux artificiels:

Ton processeur a un nombre limité de coeurs, donc il peut pas gérer tous les neurones simultanément. Et même admettons que t'aies 4 coeurs et 4 neurones a gérer dans un petit réseau, ton processeur fonctionne de manière séquentielle, il fait un calcul, puis un autre etc. a une certaine fréquence. Donc si un capteur mesure une différence et veut activer ton neurone virtuel, ben ton neurone doit attendre le processeur pour réagir, là ou un neurone biologique n'a pas besoin d'attendre son tour pour émettre un signal.

Globalement le niveau de parallélisme d'un vrai réseau neuronal est colossal
:lunettes_bleues:
par rapport a un réseau neuronal ARTIFICIEL.

Et ça c'est qu'un seul aspect
:cube_temporel:
il y a 2 ans
Si tu es capable de corriger GPT alors que tu n'as que 6 mois d'expérience je peux te dire que c'est très bon signe.

Car la plupart de mes ex. camarades ne sont purement pas capables de la corriger même parfois après 2 ans de BTS

Je corrige l'IA que si sur mon terrain. PHP et laravel essentiellement. Mais l'IA reste meilleure que moi en JS car je n'ai pas tout à fait compris la logique (par exemple le passage de données) et sûrement d'autres chose.
Ouai en gros chat-gpt c'est utile quand t'es sur un language que tu maitrises pas trop mais que tu sais globalement ce que tu veux faire.
:Risicolroulax:
il y a 2 ans
Imiter n'est pas comprendre.

Elle pourra parfaitement imiter, mais pas égaler.

Tout comme je pourrais parfaitement imiter un ingénieur qui travaille dans le nucléaire. Je pourrais porter sa tenue, aller dans la centrale, réciter son discours, utiliser son poste de travail, etc.

ça ne fait pas de moi un ingénieur nucléaire
Pour info cet argument ça s'appelle la chambre chinois de John Searle: fr.wikipedia.org https://fr.wikipedia.org/wiki/Chambre_chinoise

Au cas ou ça t'intéresse
:VeloCochonou:
il y a 2 ans
Il y a des aspect sur lesquels un réseau neuronal artificiel simulé par un ordinateur (comme on conçoit un ordinateur aujourd'hui) ne peut égaler un réseau neuronal biologique. Par exemple pour l'aspect continu. Un ordinateur ne peut rien simuler de continu vu qu'un ordinateur travaille avec une quantité de donnés finies. Pour égaler un cerveau humain sur cet aspect il faudrait créer un réseau neuronal physique qui s'altère physiquement tout comme le notre. Pour quelques neurones a la limite pourquoi pas, mais pour des millions voir des milliards de neurones ça relève de la science fiction a l'heure actuelle.

Cela dit cela n'empêche pas un réseau neuronal artificiel de nous surpasser sur certains aspects.
D'ailleurs, ce nom est incorrect.

Il correspond à la vision qu'on avait des neurones dans les années 50/60.
Je vous aime tous
:love:
Tu ne fais pas exception

il y a 2 ans
"Pour moi, l'intelligence pure c'est justement comprendre sans laisser les émotions parler. Au delà, c'est de l'intelligence sociale ou du ressenti, pas de l'intelligence
:hap:
"

Et pourtant cette dernière semble nettement plus difficile a modeler que la logique ou l'arithmétique
:Mouais_Jesus:


Peut-être qu'on considère ça comme une tâche simple justement par-ce qu'on est particulièrement bien faits pour ça
:Mouais_Jesus:


"On prend objectivement des décisions de merde sous le coup de l'émotion, c'est pas un secret "

Au contraire, cette partie de nous fonctionne extrêmement bien. Je t'invite a lire "Système 1 / Système 2 : Les deux vitesses de la pensée" a ce sujet
:Mouais_Jesus:


Notre pensée émotionnelle est extrêmement rapide parallèle et se trompe rarement tandis que notre pensée consciente est lente, séquentielle et fait souvent des erreures de distraction. Globalement quand on voit quelqu'un nous foncer dessus avec une machette la peur nous guidera vers la survie si celle-ci est possible même pour le plus grand imbécile, alors que faire des maths c'est dur, épuisant et on fait souvent des erreurs en comparaison
:Mouais_Jesus:
il y a 2 ans
D'ailleurs, ce nom est incorrect.

Il correspond à la vision qu'on avait des neurones dans les années 50/60.
En admettant que c'est une très vague approximation et qu'on oublie pas le ARTIFICIEL dans "réseau neuronal ARTIFICIEL" à la limite le mot me dérange pas, le problème comme on peut le voir sur ce topic c'est que beaucoup pensent que c'est exactement la même chose alors que non.
il y a 2 ans
Il est doué pour imiter et copier oui mais pour l heure il a besoin d innovation humaine pour acquérir de nouvelles compétences
:Kakashi_ahi:
Le posteur le plus rapide de l'Ouest Onchien
:Clint_tir_2:
:Badge_echecs:
il y a 2 ans
6 pages pour dire "non"
:Kalinpc:
il y a 2 ans