Ce sujet a été résolu
El famoso cardiologue remplacé. T'es au courant que la plupart des hôpitaux européens tournent encore au papier + calepin ?
La plupart des boîtes n'ont même pas de réels systèmes d'informations et tournent tous sur excel

La plupart des boîtes n'ont même pas de réels systèmes d'informations et tournent tous sur excel

Oui t'aura cette option.. face à la concurrence n'utilisons pas / détruisons les machines.
C'était le sens du mot "sabotage" initialement.. Des ouvriers apeurés qui glissaient leur sabot dans les machines.
Si ca n'a pas marché à l'époque, je ne vois pas pourquoi ca marcherait aujourd'hui.
En 1850 aussi tu devais avoir des mecs qui disaient.. "Mais tu te rends pas compte.. La plupart des usines n'ont pas de fourneau
"
C'était le sens du mot "sabotage" initialement.. Des ouvriers apeurés qui glissaient leur sabot dans les machines.
Si ca n'a pas marché à l'époque, je ne vois pas pourquoi ca marcherait aujourd'hui.
En 1850 aussi tu devais avoir des mecs qui disaient.. "Mais tu te rends pas compte.. La plupart des usines n'ont pas de fourneau

il y a 2 ans
Je pense être plus ready que n'importe quel citoyen français vivant encore sous le monarque Macron vu que j'habite dans une maison autonome dans une forêt de Suède.
N'oublie pas qu'il y a un an tu signais un papier pour sortir ton chien, mais le danger c'est l'IA, pas ceux qui s'en serviront
N'oublie pas qu'il y a un an tu signais un papier pour sortir ton chien, mais le danger c'est l'IA, pas ceux qui s'en serviront

Ce khey parfaitement lucide distribue les blackpills d'une main de maître !
il y a 2 ans
Non, il faut coffrer le plus possible pour échapper à ça et vivre en autonomie et isolement.
Revenu universel ça veut aussi dire logement partagé avec la faune locale.
Revenu universel ça veut aussi dire logement partagé avec la faune locale.
Oui voila donc c'est bien ce que je dit ... Dans 15 ans, on fout tous les marketeux dans des champs.
il y a 2 ans
Parce que ça sera mieux que l'humain de manière générale. Ce que tu prends comme exemple c'est des intelligences artificielles étroites, par définition, elles ne sont bonnes qu'à effectuer une tâche spécifique basée sur un ensemble de données.
Elles sont donc limitées et je suis d'accord là dessus, ne remplaceront jamais un humain.
En revanche, si on parvenait à réaliser une intelligence artificielle générale ( ce qui est clairement plausible ), la question est tout autre.
Elles sont donc limitées et je suis d'accord là dessus, ne remplaceront jamais un humain.
En revanche, si on parvenait à réaliser une intelligence artificielle générale ( ce qui est clairement plausible ), la question est tout autre.
Encore une fois il faut être precis
Que veut dire spécifique pour une IA ?
D'un côté je suis tenté de répondre "toutes les IA sont entraînées sur une tâche spécifique et cette IA générale dont tu parle ne serait qu'un agrégat d'ia spécifiques ".
D'un autre, peut on dire que la traduction est une tâche spécifique ? Ça a l'air spécifique quand on pense à une traduction anglais français. Mais si l'ia est aussi capable de traduire une image en texte ? Un texte en musique ? Un screenshot de site en code? Cette tâche de traduction est elle toujours spécifique ? Pour autant, est-ce cette IA générale dont tu parle ?
Mais c'est encore plus compliqué que ça... On a d'instinct la conception que le cerveau a un contrôle centralisé par la conscience. En réalité le cerveau est un assemblage de circuits décentralisés chacun optimisé pour une tâche en rapport avec le fonctionnement de notre corps (yeux estomac etc) . Mais pas en rapport avec une tâche à réaliser, comme c'est le cas avec l'ia.
Du coup quand on me dit que on va bientôt avoir une IA générale pour moi en tant que expert en IA je me dis oui bientôt on va assembler tous les petits bouts pour faire un assistant super polyvalent... Mais ça aura rien à voir avec un humain...
Je pense que l'ia est extrêmement overhypee et que le public remplit son ignorance (justifiée, on peut pas tous être experts) avec des images telles que cette ia générale... Alors que en réalité y'a rien de magique.
Edit: je crois aussi que on touche le plateau des performances maximales possible actuellement. Mais c'est un avis plus qu'un fait.
Que veut dire spécifique pour une IA ?
D'un côté je suis tenté de répondre "toutes les IA sont entraînées sur une tâche spécifique et cette IA générale dont tu parle ne serait qu'un agrégat d'ia spécifiques ".
D'un autre, peut on dire que la traduction est une tâche spécifique ? Ça a l'air spécifique quand on pense à une traduction anglais français. Mais si l'ia est aussi capable de traduire une image en texte ? Un texte en musique ? Un screenshot de site en code? Cette tâche de traduction est elle toujours spécifique ? Pour autant, est-ce cette IA générale dont tu parle ?
Mais c'est encore plus compliqué que ça... On a d'instinct la conception que le cerveau a un contrôle centralisé par la conscience. En réalité le cerveau est un assemblage de circuits décentralisés chacun optimisé pour une tâche en rapport avec le fonctionnement de notre corps (yeux estomac etc) . Mais pas en rapport avec une tâche à réaliser, comme c'est le cas avec l'ia.
Du coup quand on me dit que on va bientôt avoir une IA générale pour moi en tant que expert en IA je me dis oui bientôt on va assembler tous les petits bouts pour faire un assistant super polyvalent... Mais ça aura rien à voir avec un humain...
Je pense que l'ia est extrêmement overhypee et que le public remplit son ignorance (justifiée, on peut pas tous être experts) avec des images telles que cette ia générale... Alors que en réalité y'a rien de magique.
Edit: je crois aussi que on touche le plateau des performances maximales possible actuellement. Mais c'est un avis plus qu'un fait.
il y a 2 ans
Oui voila donc c'est bien ce que je dit ... Dans 15 ans, on fout tous les marketeux dans des champs.
Non, dans 15 ans c'est surtout raréfaction des ressources et totalitarisme NWO partout
Pas besoin d'IA pour vous priver de droits fondamentaux ou même de travail. Je me répète, il y a deux ans tu signais un document pour promener ton chien et personne n'a manifesté pour ça.

Pas besoin d'IA pour vous priver de droits fondamentaux ou même de travail. Je me répète, il y a deux ans tu signais un document pour promener ton chien et personne n'a manifesté pour ça.
il y a 2 ans
Non, dans 15 ans c'est surtout raréfaction des ressources et totalitarisme NWO partout
Pas besoin d'IA pour vous priver de droits fondamentaux ou même de travail. Je me répète, il y a deux ans tu signais un document pour promener ton chien et personne n'a manifesté pour ça.

Pas besoin d'IA pour vous priver de droits fondamentaux ou même de travail. Je me répète, il y a deux ans tu signais un document pour promener ton chien et personne n'a manifesté pour ça.
Je ne vois pas le rapport avec l'ia (le sujet du topic) ici

il y a 2 ans
Encore une fois il faut être precis
Que veut dire spécifique pour une IA ?
D'un côté je suis tenté de répondre "toutes les IA sont entraînées sur une tâche spécifique et cette IA générale dont tu parle ne serait qu'un agrégat d'ia spécifiques ".
D'un autre, peut on dire que la traduction est une tâche spécifique ? Ça a l'air spécifique quand on pense à une traduction anglais français. Mais si l'ia est aussi capable de traduire une image en texte ? Un texte en musique ? Un screenshot de site en code? Cette tâche de traduction est elle toujours spécifique ? Pour autant, est-ce cette IA générale dont tu parle ?
Mais c'est encore plus compliqué que ça... On a d'instinct la conception que le cerveau a un contrôle centralisé par la conscience. En réalité le cerveau est un assemblage de circuits décentralisés chacun optimisé pour une tâche en rapport avec le fonctionnement de notre corps (yeux estomac etc) . Mais pas en rapport avec une tâche à réaliser, comme c'est le cas avec l'ia.
Du coup quand on me dit que on va bientôt avoir une IA générale pour moi en tant que expert en IA je me dis oui bientôt on va assembler tous les petits bouts pour faire un assistant super polyvalent... Mais ça aura rien à voir avec un humain...
Je pense que l'ia est extrêmement overhypee et que le public remplit son ignorance (justifiée, on peut pas tous être experts) avec des images telles que cette ia générale... Alors que en réalité y'a rien de magique.
Edit: je crois aussi que on touche le plateau des performances maximales possible actuellement. Mais c'est un avis plus qu'un fait.
Que veut dire spécifique pour une IA ?
D'un côté je suis tenté de répondre "toutes les IA sont entraînées sur une tâche spécifique et cette IA générale dont tu parle ne serait qu'un agrégat d'ia spécifiques ".
D'un autre, peut on dire que la traduction est une tâche spécifique ? Ça a l'air spécifique quand on pense à une traduction anglais français. Mais si l'ia est aussi capable de traduire une image en texte ? Un texte en musique ? Un screenshot de site en code? Cette tâche de traduction est elle toujours spécifique ? Pour autant, est-ce cette IA générale dont tu parle ?
Mais c'est encore plus compliqué que ça... On a d'instinct la conception que le cerveau a un contrôle centralisé par la conscience. En réalité le cerveau est un assemblage de circuits décentralisés chacun optimisé pour une tâche en rapport avec le fonctionnement de notre corps (yeux estomac etc) . Mais pas en rapport avec une tâche à réaliser, comme c'est le cas avec l'ia.
Du coup quand on me dit que on va bientôt avoir une IA générale pour moi en tant que expert en IA je me dis oui bientôt on va assembler tous les petits bouts pour faire un assistant super polyvalent... Mais ça aura rien à voir avec un humain...
Je pense que l'ia est extrêmement overhypee et que le public remplit son ignorance (justifiée, on peut pas tous être experts) avec des images telles que cette ia générale... Alors que en réalité y'a rien de magique.
Edit: je crois aussi que on touche le plateau des performances maximales possible actuellement. Mais c'est un avis plus qu'un fait.
Explique-moi fondamentalement la différence entre ton cerveau et un réseau dense ?
Tes synapses agissent exactement comme des poids, et tes neurones physique comme des neurones.
Dans tous les cas il s'agit de traiter une information entrante (un signal électrique) et d'en ressortir un signal électrique sortant selon une fonction quelconque.
On sait depuis un paquet d'année qu'un perceptron peut approximer toute fonctions continues de R dans R.. On sait depuis un paquet d'année introduire la non-continuité via des fonctions d'activation...
Donc fondamentalement; quel est la diff entre un cerveau humain et un réseau de neuronnes ?
Il y a tellement aucune diff fondamentale, qu'on commence à merger les deux dans des interfaces hommes machines, ou le réseau de neurones prend en input des signaux encéphalographique..
Ca me surprendrait pas qu'on ai les capacités d'aller dans l'autre sens, mais peut être qu'une barrière morale nous empêche de foutre le résultats d'un réseau de neurones directement dans des cerveaux biologiques (meme si je sais que ca a été fait sur des souris..)
Donc aucune différence fondamentale entre un NN et un cerveau humain.. Le reste des différences accidentelles, je laisse la recherche en neuroscience nous les donner, et je ne doute pas qu'elle y arrivera (TRES TRES prochainement) au vu de la quantité de fric qui y est injecté.
Reste toute la question de l'entrainement..
Quelle est la différence entre les entrainements des réseaux de neurones actuels et l'entrainement d'un cerveau humain de bébé.
2 grosses différences fondamentales. Le temps que ca prend, et l'elasticité cérébrale.
On va déja commencé à développer des réseaux qui ajoute et uniformise de nouveaux neurones (donc poids/biais) au sein d'un training, il y a peu de recherche, mais le souci me semble juste technique plus que mathématique, on arrivera à dépasser ca..
Pour le temps, il s'agit de convertir le nombre d'informations qu'a pu traiter le cerveau de l'enfant pendant sn apprentissage et le nombre d'information que peuvent traiter ces gigantesques réseaux entrainés sur des gigantesques datacenter. C'est plus un problème depuis bien longtemps.
Reste enfn la différence accidentelle de la tache de l'entrainement, mais il est bien possible que ce soit résolu par la recherche transdisciplinnaire assez vite. On s'est d'ailleurs rendu compte assez vite que plus les réseaux etait gros (profond plus précisement), plus on pouvait profiter de l'evanescence du gradient pour obtenir des "few shot learner", donc des réseaux qui s'adapte extrement vite et bien à de nouvelles taches.
Donc aucune différence de fonctionnement, et 2 différence d'entrainement à un niveau fondamentale, et des différences que l'on va pas tarder à résoudre.. Le cerveau humain n'est absolument pas ready pour son remplacement
Tes synapses agissent exactement comme des poids, et tes neurones physique comme des neurones.
Dans tous les cas il s'agit de traiter une information entrante (un signal électrique) et d'en ressortir un signal électrique sortant selon une fonction quelconque.
On sait depuis un paquet d'année qu'un perceptron peut approximer toute fonctions continues de R dans R.. On sait depuis un paquet d'année introduire la non-continuité via des fonctions d'activation...
Donc fondamentalement; quel est la diff entre un cerveau humain et un réseau de neuronnes ?
Il y a tellement aucune diff fondamentale, qu'on commence à merger les deux dans des interfaces hommes machines, ou le réseau de neurones prend en input des signaux encéphalographique..
Ca me surprendrait pas qu'on ai les capacités d'aller dans l'autre sens, mais peut être qu'une barrière morale nous empêche de foutre le résultats d'un réseau de neurones directement dans des cerveaux biologiques (meme si je sais que ca a été fait sur des souris..)
Donc aucune différence fondamentale entre un NN et un cerveau humain.. Le reste des différences accidentelles, je laisse la recherche en neuroscience nous les donner, et je ne doute pas qu'elle y arrivera (TRES TRES prochainement) au vu de la quantité de fric qui y est injecté.
Reste toute la question de l'entrainement..
Quelle est la différence entre les entrainements des réseaux de neurones actuels et l'entrainement d'un cerveau humain de bébé.
2 grosses différences fondamentales. Le temps que ca prend, et l'elasticité cérébrale.
On va déja commencé à développer des réseaux qui ajoute et uniformise de nouveaux neurones (donc poids/biais) au sein d'un training, il y a peu de recherche, mais le souci me semble juste technique plus que mathématique, on arrivera à dépasser ca..
Pour le temps, il s'agit de convertir le nombre d'informations qu'a pu traiter le cerveau de l'enfant pendant sn apprentissage et le nombre d'information que peuvent traiter ces gigantesques réseaux entrainés sur des gigantesques datacenter. C'est plus un problème depuis bien longtemps.
Reste enfn la différence accidentelle de la tache de l'entrainement, mais il est bien possible que ce soit résolu par la recherche transdisciplinnaire assez vite. On s'est d'ailleurs rendu compte assez vite que plus les réseaux etait gros (profond plus précisement), plus on pouvait profiter de l'evanescence du gradient pour obtenir des "few shot learner", donc des réseaux qui s'adapte extrement vite et bien à de nouvelles taches.
Donc aucune différence de fonctionnement, et 2 différence d'entrainement à un niveau fondamentale, et des différences que l'on va pas tarder à résoudre.. Le cerveau humain n'est absolument pas ready pour son remplacement

il y a 2 ans
Encore une fois il faut être precis
Que veut dire spécifique pour une IA ?
D'un côté je suis tenté de répondre "toutes les IA sont entraînées sur une tâche spécifique et cette IA générale dont tu parle ne serait qu'un agrégat d'ia spécifiques ".
D'un autre, peut on dire que la traduction est une tâche spécifique ? Ça a l'air spécifique quand on pense à une traduction anglais français. Mais si l'ia est aussi capable de traduire une image en texte ? Un texte en musique ? Un screenshot de site en code? Cette tâche de traduction est elle toujours spécifique ? Pour autant, est-ce cette IA générale dont tu parle ?
Mais c'est encore plus compliqué que ça... On a d'instinct la conception que le cerveau a un contrôle centralisé par la conscience. En réalité le cerveau est un assemblage de circuits décentralisés chacun optimisé pour une tâche en rapport avec le fonctionnement de notre corps (yeux estomac etc) . Mais pas en rapport avec une tâche à réaliser, comme c'est le cas avec l'ia.
Du coup quand on me dit que on va bientôt avoir une IA générale pour moi en tant que expert en IA je me dis oui bientôt on va assembler tous les petits bouts pour faire un assistant super polyvalent... Mais ça aura rien à voir avec un humain...
Je pense que l'ia est extrêmement overhypee et que le public remplit son ignorance (justifiée, on peut pas tous être experts) avec des images telles que cette ia générale... Alors que en réalité y'a rien de magique.
Edit: je crois aussi que on touche le plateau des performances maximales possible actuellement. Mais c'est un avis plus qu'un fait.
Que veut dire spécifique pour une IA ?
D'un côté je suis tenté de répondre "toutes les IA sont entraînées sur une tâche spécifique et cette IA générale dont tu parle ne serait qu'un agrégat d'ia spécifiques ".
D'un autre, peut on dire que la traduction est une tâche spécifique ? Ça a l'air spécifique quand on pense à une traduction anglais français. Mais si l'ia est aussi capable de traduire une image en texte ? Un texte en musique ? Un screenshot de site en code? Cette tâche de traduction est elle toujours spécifique ? Pour autant, est-ce cette IA générale dont tu parle ?
Mais c'est encore plus compliqué que ça... On a d'instinct la conception que le cerveau a un contrôle centralisé par la conscience. En réalité le cerveau est un assemblage de circuits décentralisés chacun optimisé pour une tâche en rapport avec le fonctionnement de notre corps (yeux estomac etc) . Mais pas en rapport avec une tâche à réaliser, comme c'est le cas avec l'ia.
Du coup quand on me dit que on va bientôt avoir une IA générale pour moi en tant que expert en IA je me dis oui bientôt on va assembler tous les petits bouts pour faire un assistant super polyvalent... Mais ça aura rien à voir avec un humain...
Je pense que l'ia est extrêmement overhypee et que le public remplit son ignorance (justifiée, on peut pas tous être experts) avec des images telles que cette ia générale... Alors que en réalité y'a rien de magique.
Edit: je crois aussi que on touche le plateau des performances maximales possible actuellement. Mais c'est un avis plus qu'un fait.
Je ne comprends pas ton raisonnement. Tu m'expliques que nous ne sommes qu'un ensemble de circuits optimisés pour une tâche précise et deux lignes après tu m'expliques que l'IA générale n'aura rien à voir avec une humain puisque ça sera juste un amas d'IA spécifiques.
Désolé mais je trouve les ressemblances frappantes même dans ta manière d'expliquer le contraire.
Et pour ton exemple de traduction non. L'IA étroite ne quittera jamais son domaine de prédilection à savoir ici, la traduction et cela peu importe le format. Elle se base sur des données spécifiques pour comprendre et traduire le texte. ( même logique pour la musique, le Screenshot ... ). Le potentiel d'adaptabilité est moindre.
A contrario, une IA générale sera capable en se basant sur des donnés d'apprentissage de résoudre un problème sans avoir eu besoin d'être entrainé au préalable à sa réalisation. En généralisant ses compétences pour appréhender une nouvelle situation comme le ferait un humain.
Désolé mais je trouve les ressemblances frappantes même dans ta manière d'expliquer le contraire.
Et pour ton exemple de traduction non. L'IA étroite ne quittera jamais son domaine de prédilection à savoir ici, la traduction et cela peu importe le format. Elle se base sur des données spécifiques pour comprendre et traduire le texte. ( même logique pour la musique, le Screenshot ... ). Le potentiel d'adaptabilité est moindre.
A contrario, une IA générale sera capable en se basant sur des donnés d'apprentissage de résoudre un problème sans avoir eu besoin d'être entrainé au préalable à sa réalisation. En généralisant ses compétences pour appréhender une nouvelle situation comme le ferait un humain.
il y a 2 ans
Si on est tous d'ccord pour admettre que nous servons à rien.. Pourquoi continuer à faire tourner la machine..
Passons au revenue universel directement nan ?
Passons au revenue universel directement nan ?
Non, juste que nous produisons en masse des merdes au lieu de construire des belles choses, en prenant le temps. Toute une civilisation basé sur le jetable ce n'est plus possible. Je ne suis pas contre un revenu universel mais les dérives possibles étant tellement nombreuses... Et pourtant j'aurais beaucoup de choses à faire personnellement avec le temps que ça me libérerait.
il y a 2 ans
Explique-moi fondamentalement la différence entre ton cerveau et un réseau dense ?
Tes synapses agissent exactement comme des poids, et tes neurones physique comme des neurones.
Dans tous les cas il s'agit de traiter une information entrante (un signal électrique) et d'en ressortir un signal électrique sortant selon une fonction quelconque.
On sait depuis un paquet d'année qu'un perceptron peut approximer toute fonctions continues de R dans R.. On sait depuis un paquet d'année introduire la non-continuité via des fonctions d'activation...
Donc fondamentalement; quel est la diff entre un cerveau humain et un réseau de neuronnes ?
Il y a tellement aucune diff fondamentale, qu'on commence à merger les deux dans des interfaces hommes machines, ou le réseau de neurones prend en input des signaux encéphalographique..
Ca me surprendrait pas qu'on ai les capacités d'aller dans l'autre sens, mais peut être qu'une barrière morale nous empêche de foutre le résultats d'un réseau de neurones directement dans des cerveaux biologiques (meme si je sais que ca a été fait sur des souris..)
Donc aucune différence fondamentale entre un NN et un cerveau humain.. Le reste des différences accidentelles, je laisse la recherche en neuroscience nous les donner, et je ne doute pas qu'elle y arrivera (TRES TRES prochainement) au vu de la quantité de fric qui y est injecté.
Reste toute la question de l'entrainement..
Quelle est la différence entre les entrainements des réseaux de neurones actuels et l'entrainement d'un cerveau humain de bébé.
2 grosses différences fondamentales. Le temps que ca prend, et l'elasticité cérébrale.
On va déja commencé à développer des réseaux qui ajoute et uniformise de nouveaux neurones (donc poids/biais) au sein d'un training, il y a peu de recherche, mais le souci me semble juste technique plus que mathématique, on arrivera à dépasser ca..
Pour le temps, il s'agit de convertir le nombre d'informations qu'a pu traiter le cerveau de l'enfant pendant sn apprentissage et le nombre d'information que peuvent traiter ces gigantesques réseaux entrainés sur des gigantesques datacenter. C'est plus un problème depuis bien longtemps.
Reste enfn la différence accidentelle de la tache de l'entrainement, mais il est bien possible que ce soit résolu par la recherche transdisciplinnaire assez vite. On s'est d'ailleurs rendu compte assez vite que plus les réseaux etait gros (profond plus précisement), plus on pouvait profiter de l'evanescence du gradient pour obtenir des "few shot learner", donc des réseaux qui s'adapte extrement vite et bien à de nouvelles taches.
Donc aucune différence de fonctionnement, et 2 différence d'entrainement à un niveau fondamentale, et des différences que l'on va pas tarder à résoudre.. Le cerveau humain n'est absolument pas ready pour son remplacement
Tes synapses agissent exactement comme des poids, et tes neurones physique comme des neurones.
Dans tous les cas il s'agit de traiter une information entrante (un signal électrique) et d'en ressortir un signal électrique sortant selon une fonction quelconque.
On sait depuis un paquet d'année qu'un perceptron peut approximer toute fonctions continues de R dans R.. On sait depuis un paquet d'année introduire la non-continuité via des fonctions d'activation...
Donc fondamentalement; quel est la diff entre un cerveau humain et un réseau de neuronnes ?
Il y a tellement aucune diff fondamentale, qu'on commence à merger les deux dans des interfaces hommes machines, ou le réseau de neurones prend en input des signaux encéphalographique..
Ca me surprendrait pas qu'on ai les capacités d'aller dans l'autre sens, mais peut être qu'une barrière morale nous empêche de foutre le résultats d'un réseau de neurones directement dans des cerveaux biologiques (meme si je sais que ca a été fait sur des souris..)
Donc aucune différence fondamentale entre un NN et un cerveau humain.. Le reste des différences accidentelles, je laisse la recherche en neuroscience nous les donner, et je ne doute pas qu'elle y arrivera (TRES TRES prochainement) au vu de la quantité de fric qui y est injecté.
Reste toute la question de l'entrainement..
Quelle est la différence entre les entrainements des réseaux de neurones actuels et l'entrainement d'un cerveau humain de bébé.
2 grosses différences fondamentales. Le temps que ca prend, et l'elasticité cérébrale.
On va déja commencé à développer des réseaux qui ajoute et uniformise de nouveaux neurones (donc poids/biais) au sein d'un training, il y a peu de recherche, mais le souci me semble juste technique plus que mathématique, on arrivera à dépasser ca..
Pour le temps, il s'agit de convertir le nombre d'informations qu'a pu traiter le cerveau de l'enfant pendant sn apprentissage et le nombre d'information que peuvent traiter ces gigantesques réseaux entrainés sur des gigantesques datacenter. C'est plus un problème depuis bien longtemps.
Reste enfn la différence accidentelle de la tache de l'entrainement, mais il est bien possible que ce soit résolu par la recherche transdisciplinnaire assez vite. On s'est d'ailleurs rendu compte assez vite que plus les réseaux etait gros (profond plus précisement), plus on pouvait profiter de l'evanescence du gradient pour obtenir des "few shot learner", donc des réseaux qui s'adapte extrement vite et bien à de nouvelles taches.
Donc aucune différence de fonctionnement, et 2 différence d'entrainement à un niveau fondamentale, et des différences que l'on va pas tarder à résoudre.. Le cerveau humain n'est absolument pas ready pour son remplacement

D'un point de vue rationnel tu as raison. Je pourrais quand même te dire que tu considère comme acquis des conclusions qui ne sont pas encore la quand à la simulation totale et parfaite du cerveau humain. On ne l'a pas encore fait, on ne comprends pas encore l'intégralité du cerveau et rien ne prouve que l'on pourra le simuler entièrement un jour, ou que le simuler avec nos outils donnera quelque chose d'humain. Quoi qu'il en soit on en est encore loin. C'est ce que je voulais dire dans ma réponse.
Maintenant il faut que tu saches que d'un point de vue philosophique tout ton raisonnement repose sur la croyance que la science est une méthode qui va être capable de simuler l'humain par le cerveau. Je ne peux pas vraiment te convaincre du contraire en 1 poste sur onche étant donné que cette idéologie est si présente aujourd'hui qu'elle semble l'évidence même, mais réalise tout de même que ça fait pas plus de 100 ans que cette conception est majoritaire dans le monde et je suis gentil. Et qu'elle sert grandement le capitalisme.
Et il y a aussi une croyance de ma part, un espoir que tu te trompes... Car si tu as raison, une époque encore plus sombre nous attend.
Voilà voilà
Maintenant il faut que tu saches que d'un point de vue philosophique tout ton raisonnement repose sur la croyance que la science est une méthode qui va être capable de simuler l'humain par le cerveau. Je ne peux pas vraiment te convaincre du contraire en 1 poste sur onche étant donné que cette idéologie est si présente aujourd'hui qu'elle semble l'évidence même, mais réalise tout de même que ça fait pas plus de 100 ans que cette conception est majoritaire dans le monde et je suis gentil. Et qu'elle sert grandement le capitalisme.
Et il y a aussi une croyance de ma part, un espoir que tu te trompes... Car si tu as raison, une époque encore plus sombre nous attend.
Voilà voilà
il y a 2 ans
Je ne comprends pas ton raisonnement. Tu m'expliques que nous ne sommes qu'un ensemble de circuits optimisés pour une tâche précise et deux lignes après tu m'expliques que l'IA générale n'aura rien à voir avec une humain puisque ça sera juste un amas d'IA spécifiques.
Désolé mais je trouve les ressemblances frappantes même dans ta manière d'expliquer le contraire.
Et pour ton exemple de traduction non. L'IA étroite ne quittera jamais son domaine de prédilection à savoir ici, la traduction et cela peu importe le format. Elle se base sur des données spécifiques pour comprendre et traduire le texte. ( même logique pour la musique, le Screenshot ... ). Le potentiel d'adaptabilité est moindre.
A contrario, une IA générale sera capable en se basant sur des donnés d'apprentissage de résoudre un problème sans avoir eu besoin d'être entrainé au préalable à sa réalisation. En généralisant ses compétences pour appréhender une nouvelle situation comme le ferait un humain.
Désolé mais je trouve les ressemblances frappantes même dans ta manière d'expliquer le contraire.
Et pour ton exemple de traduction non. L'IA étroite ne quittera jamais son domaine de prédilection à savoir ici, la traduction et cela peu importe le format. Elle se base sur des données spécifiques pour comprendre et traduire le texte. ( même logique pour la musique, le Screenshot ... ). Le potentiel d'adaptabilité est moindre.
A contrario, une IA générale sera capable en se basant sur des donnés d'apprentissage de résoudre un problème sans avoir eu besoin d'être entrainé au préalable à sa réalisation. En généralisant ses compétences pour appréhender une nouvelle situation comme le ferait un humain.
Mais est ce qu'un humain en est capable justement.. C'est toute la question que je me pose en ce moment..
Est ce que si je donne un rubiks cube à un expert au go (qui n'a jamais appris à résoudre un rubiks cube), il pourra le résoudre en un temps convenable..
Est ce que si inversement je donne un jeu de go à un expert du rubiks cube, il peut gagner des parties correctes, je ne sais pas.
Je ne sais pas..
On apprend énormément de nos compétences par répétition, surtout à l'école (qui est une fabrique de crétin)..
C'est possible que l'humain ai une intelligence "générale" (au sens ou tu l'entends), mais ca ne fait pas consensus en neuroscience, et je n'en suis personnellement pas du tout certain.. Mais si tu as des ressources là dessus, je suis preneur.
Est ce que si je donne un rubiks cube à un expert au go (qui n'a jamais appris à résoudre un rubiks cube), il pourra le résoudre en un temps convenable..
Est ce que si inversement je donne un jeu de go à un expert du rubiks cube, il peut gagner des parties correctes, je ne sais pas.
Je ne sais pas..
On apprend énormément de nos compétences par répétition, surtout à l'école (qui est une fabrique de crétin)..
C'est possible que l'humain ai une intelligence "générale" (au sens ou tu l'entends), mais ca ne fait pas consensus en neuroscience, et je n'en suis personnellement pas du tout certain.. Mais si tu as des ressources là dessus, je suis preneur.
il y a 2 ans
D'un point de vue rationnel tu as raison. Je pourrais quand même te dire que tu considère comme acquis des conclusions qui ne sont pas encore la quand à la simulation totale et parfaite du cerveau humain. On ne l'a pas encore fait, on ne comprends pas encore l'intégralité du cerveau et rien ne prouve que l'on pourra le simuler entièrement un jour, ou que le simuler avec nos outils donnera quelque chose d'humain. Quoi qu'il en soit on en est encore loin. C'est ce que je voulais dire dans ma réponse.
Maintenant il faut que tu saches que d'un point de vue philosophique tout ton raisonnement repose sur la croyance que la science est une méthode qui va être capable de simuler l'humain par le cerveau. Je ne peux pas vraiment te convaincre du contraire en 1 poste sur onche étant donné que cette idéologie est si présente aujourd'hui qu'elle semble l'évidence même, mais réalise tout de même que ça fait pas plus de 100 ans que cette conception est majoritaire dans le monde et je suis gentil. Et qu'elle sert grandement le capitalisme.
Et il y a aussi une croyance de ma part, un espoir que tu te trompes... Car si tu as raison, une époque encore plus sombre nous attend.
Voilà voilà
Maintenant il faut que tu saches que d'un point de vue philosophique tout ton raisonnement repose sur la croyance que la science est une méthode qui va être capable de simuler l'humain par le cerveau. Je ne peux pas vraiment te convaincre du contraire en 1 poste sur onche étant donné que cette idéologie est si présente aujourd'hui qu'elle semble l'évidence même, mais réalise tout de même que ça fait pas plus de 100 ans que cette conception est majoritaire dans le monde et je suis gentil. Et qu'elle sert grandement le capitalisme.
Et il y a aussi une croyance de ma part, un espoir que tu te trompes... Car si tu as raison, une époque encore plus sombre nous attend.
Voilà voilà
je ne connais rien en philo.. Donc peut etre que je raisonne avec des présupposés sans m'en rendre compte effectivement..
il y a 2 ans
Je ne comprends pas ton raisonnement. Tu m'expliques que nous ne sommes qu'un ensemble de circuits optimisés pour une tâche précise et deux lignes après tu m'expliques que l'IA générale n'aura rien à voir avec une humain puisque ça sera juste un amas d'IA spécifiques.
Désolé mais je trouve les ressemblances frappantes même dans ta manière d'expliquer le contraire.
Et pour ton exemple de traduction non. L'IA étroite ne quittera jamais son domaine de prédilection à savoir ici, la traduction et cela peu importe le format. Elle se base sur des données spécifiques pour comprendre et traduire le texte. ( même logique pour la musique, le Screenshot ... ). Le potentiel d'adaptabilité est moindre.
A contrario, une IA générale sera capable en se basant sur des donnés d'apprentissage de résoudre un problème sans avoir eu besoin d'être entrainé au préalable à sa réalisation. En généralisant ses compétences pour appréhender une nouvelle situation comme le ferait un humain.
Désolé mais je trouve les ressemblances frappantes même dans ta manière d'expliquer le contraire.
Et pour ton exemple de traduction non. L'IA étroite ne quittera jamais son domaine de prédilection à savoir ici, la traduction et cela peu importe le format. Elle se base sur des données spécifiques pour comprendre et traduire le texte. ( même logique pour la musique, le Screenshot ... ). Le potentiel d'adaptabilité est moindre.
A contrario, une IA générale sera capable en se basant sur des donnés d'apprentissage de résoudre un problème sans avoir eu besoin d'être entrainé au préalable à sa réalisation. En généralisant ses compétences pour appréhender une nouvelle situation comme le ferait un humain.
Deuxieme remarque au sujet du deuxieme paragraphe..
Justement tous les progrets recents en NLP reposent sur le fait qu'en fait si, une ia entrainé sur une tâche spécifique peut très rapidement s'adapter à une autre tâche. On appelle ca le fine tuning.
Exemple avec GPT 3/4/5 (j'ai plus suivi ou est-ce qu'on en était).. Elle ont toutes été entrainé initialement sur de la token generation, cad basiquement prédire le mot suivant dans une phrase. Mais on se rend compte qu'on peut très facilement les réentrainer pour traduire des phrases, faire des résumés de textes, analyser le ton d'un propos.
Alors oui, du coté utilisateur, ca nécessite quelque manip, sans doute un réentrainement léger, mais du côté réseaux de neurones, il faut bien se rendre compte que c'est le même réseau.
Justement tous les progrets recents en NLP reposent sur le fait qu'en fait si, une ia entrainé sur une tâche spécifique peut très rapidement s'adapter à une autre tâche. On appelle ca le fine tuning.
Exemple avec GPT 3/4/5 (j'ai plus suivi ou est-ce qu'on en était).. Elle ont toutes été entrainé initialement sur de la token generation, cad basiquement prédire le mot suivant dans une phrase. Mais on se rend compte qu'on peut très facilement les réentrainer pour traduire des phrases, faire des résumés de textes, analyser le ton d'un propos.
Alors oui, du coté utilisateur, ca nécessite quelque manip, sans doute un réentrainement léger, mais du côté réseaux de neurones, il faut bien se rendre compte que c'est le même réseau.
il y a 2 ans
Je ne comprends pas ton raisonnement. Tu m'expliques que nous ne sommes qu'un ensemble de circuits optimisés pour une tâche précise et deux lignes après tu m'expliques que l'IA générale n'aura rien à voir avec une humain puisque ça sera juste un amas d'IA spécifiques.
Désolé mais je trouve les ressemblances frappantes même dans ta manière d'expliquer le contraire.
Et pour ton exemple de traduction non. L'IA étroite ne quittera jamais son domaine de prédilection à savoir ici, la traduction et cela peu importe le format. Elle se base sur des données spécifiques pour comprendre et traduire le texte. ( même logique pour la musique, le Screenshot ... ). Le potentiel d'adaptabilité est moindre.
A contrario, une IA générale sera capable en se basant sur des donnés d'apprentissage de résoudre un problème sans avoir eu besoin d'être entrainé au préalable à sa réalisation. En généralisant ses compétences pour appréhender une nouvelle situation comme le ferait un humain.
Désolé mais je trouve les ressemblances frappantes même dans ta manière d'expliquer le contraire.
Et pour ton exemple de traduction non. L'IA étroite ne quittera jamais son domaine de prédilection à savoir ici, la traduction et cela peu importe le format. Elle se base sur des données spécifiques pour comprendre et traduire le texte. ( même logique pour la musique, le Screenshot ... ). Le potentiel d'adaptabilité est moindre.
A contrario, une IA générale sera capable en se basant sur des donnés d'apprentissage de résoudre un problème sans avoir eu besoin d'être entrainé au préalable à sa réalisation. En généralisant ses compétences pour appréhender une nouvelle situation comme le ferait un humain.
Nous sommes un assemblage de circuits optimisés => oui mais ce que j'ai voulu dire c'est que ces circuits sont optimisés autour de notre corps et non autour de tâches. Et on est immensément loin de pouvoir fabriquer un œil ou une langue encore. Notre IA actuelle est donc par nature très différente de notre cerveau par les informations qu'elle prends en entrée. @hallavar ça aussi ça nous sépare encore de l'ia humaine d'un point de vue technique.
Les ressemblances sont frappantes => absolument, mais il faut se méfier des "ressemblances" que nous amateurs voyons et que les journalistes nous transmettent dans leurs compréhension fausée. Si tu plonges un bâton droit dans l'eau on dirait qu'il est tordu.
L'ia ne quittera jamais son domaine de predilection/l'adaptabilite est moindre => alors la par contre tu as 100% tord et encore une fois tu utilise des mots vagues. PaLM-E prends en entrée des données très différentes telles qu'es de images ou du texte et utilise des espaces mathématiques pour les voir de la même manière. Est ce que tu connais cette technique et que tu ne penses pas que c'est un exemple d'adaptabilité ? Si non, tu dois comprendre le principe d'embeding space et les plus basique exemple d'architecture qui se basent dessus, comme les GAN et autoencodeurs, pour voir de quoi je parle.
Une IA générale sera capable de résoudre des problèmes sans entraînement préalable => je ne sais pas de quoi tu parles, c'est trop vague. Mais je peux te mettre sur la piste de quelque chose de plus précis. Déjà il faut savoir que pas entraîné est différent de vide. Le cerveau humain lui même dispose de capacités inées qui ne nécessitent pas d'entraînement comme le réflexe de bloquer sa respiration sous l'eau. Mais si on transmet ça dans le domaine de l'ia, ça signifie qu'il faut un entraînement préalable pour ces tâches basiques. Est ce que cet entraînement préalable compte pour toi ? Car si oui la réponse est tout simplement non on ne créera jamais d'ia qui peut réaliser des taches sans entraînement préalable, ou à la rigueur sans contrôler fortement l'initialisation des poids pour que certaines fonctions apparaissent naturellement. Additionnelement, considère tu qu'une IA capable de réaliser une tâche qu'elle n'a jamais faite par transfert d'apprentissage est capable de réaliser cette tâche "sans entraînement préalable (sur cette tâche) "? Bref, sans une compréhension profondes de ces concepts on finit par ne rien dire du tout.
Les ressemblances sont frappantes => absolument, mais il faut se méfier des "ressemblances" que nous amateurs voyons et que les journalistes nous transmettent dans leurs compréhension fausée. Si tu plonges un bâton droit dans l'eau on dirait qu'il est tordu.
L'ia ne quittera jamais son domaine de predilection/l'adaptabilite est moindre => alors la par contre tu as 100% tord et encore une fois tu utilise des mots vagues. PaLM-E prends en entrée des données très différentes telles qu'es de images ou du texte et utilise des espaces mathématiques pour les voir de la même manière. Est ce que tu connais cette technique et que tu ne penses pas que c'est un exemple d'adaptabilité ? Si non, tu dois comprendre le principe d'embeding space et les plus basique exemple d'architecture qui se basent dessus, comme les GAN et autoencodeurs, pour voir de quoi je parle.
Une IA générale sera capable de résoudre des problèmes sans entraînement préalable => je ne sais pas de quoi tu parles, c'est trop vague. Mais je peux te mettre sur la piste de quelque chose de plus précis. Déjà il faut savoir que pas entraîné est différent de vide. Le cerveau humain lui même dispose de capacités inées qui ne nécessitent pas d'entraînement comme le réflexe de bloquer sa respiration sous l'eau. Mais si on transmet ça dans le domaine de l'ia, ça signifie qu'il faut un entraînement préalable pour ces tâches basiques. Est ce que cet entraînement préalable compte pour toi ? Car si oui la réponse est tout simplement non on ne créera jamais d'ia qui peut réaliser des taches sans entraînement préalable, ou à la rigueur sans contrôler fortement l'initialisation des poids pour que certaines fonctions apparaissent naturellement. Additionnelement, considère tu qu'une IA capable de réaliser une tâche qu'elle n'a jamais faite par transfert d'apprentissage est capable de réaliser cette tâche "sans entraînement préalable (sur cette tâche) "? Bref, sans une compréhension profondes de ces concepts on finit par ne rien dire du tout.
il y a 2 ans
je ne connais rien en philo.. Donc peut etre que je raisonne avec des présupposés sans m'en rendre compte effectivement..
Ça n'est pas un souci, principalement comme je l'ai dit tu as raison de penser ce que tu penses, ton raisonnement est correct. Qui en a quoi que ce soit à foutre de la philo ?
Moi
Moi
il y a 2 ans
Nous sommes un assemblage de circuits optimisés => oui mais ce que j'ai voulu dire c'est que ces circuits sont optimisés autour de notre corps et non autour de tâches. Et on est immensément loin de pouvoir fabriquer un œil ou une langue encore. Notre IA actuelle est donc par nature très différente de notre cerveau par les informations qu'elle prends en entrée. @hallavar ça aussi ça nous sépare encore de l'ia humaine d'un point de vue technique.
Les ressemblances sont frappantes => absolument, mais il faut se méfier des "ressemblances" que nous amateurs voyons et que les journalistes nous transmettent dans leurs compréhension fausée. Si tu plonges un bâton droit dans l'eau on dirait qu'il est tordu.
L'ia ne quittera jamais son domaine de predilection/l'adaptabilite est moindre => alors la par contre tu as 100% tord et encore une fois tu utilise des mots vagues. PaLM-E prends en entrée des données très différentes telles qu'es de images ou du texte et utilise des espaces mathématiques pour les voir de la même manière. Est ce que tu connais cette technique et que tu ne penses pas que c'est un exemple d'adaptabilité ? Si non, tu dois comprendre le principe d'embeding space et les plus basique exemple d'architecture qui se basent dessus, comme les GAN et autoencodeurs, pour voir de quoi je parle.
Une IA générale sera capable de résoudre des problèmes sans entraînement préalable => je ne sais pas de quoi tu parles, c'est trop vague. Mais je peux te mettre sur la piste de quelque chose de plus précis. Déjà il faut savoir que pas entraîné est différent de vide. Le cerveau humain lui même dispose de capacités inées qui ne nécessitent pas d'entraînement comme le réflexe de bloquer sa respiration sous l'eau. Mais si on transmet ça dans le domaine de l'ia, ça signifie qu'il faut un entraînement préalable pour ces tâches basiques. Est ce que cet entraînement préalable compte pour toi ? Car si oui la réponse est tout simplement non on ne créera jamais d'ia qui peut réaliser des taches sans entraînement préalable, ou à la rigueur sans contrôler fortement l'initialisation des poids pour que certaines fonctions apparaissent naturellement. Additionnelement, considère tu qu'une IA capable de réaliser une tâche qu'elle n'a jamais faite par transfert d'apprentissage est capable de réaliser cette tâche "sans entraînement préalable (sur cette tâche) "? Bref, sans une compréhension profondes de ces concepts on finit par ne rien dire du tout.
Les ressemblances sont frappantes => absolument, mais il faut se méfier des "ressemblances" que nous amateurs voyons et que les journalistes nous transmettent dans leurs compréhension fausée. Si tu plonges un bâton droit dans l'eau on dirait qu'il est tordu.
L'ia ne quittera jamais son domaine de predilection/l'adaptabilite est moindre => alors la par contre tu as 100% tord et encore une fois tu utilise des mots vagues. PaLM-E prends en entrée des données très différentes telles qu'es de images ou du texte et utilise des espaces mathématiques pour les voir de la même manière. Est ce que tu connais cette technique et que tu ne penses pas que c'est un exemple d'adaptabilité ? Si non, tu dois comprendre le principe d'embeding space et les plus basique exemple d'architecture qui se basent dessus, comme les GAN et autoencodeurs, pour voir de quoi je parle.
Une IA générale sera capable de résoudre des problèmes sans entraînement préalable => je ne sais pas de quoi tu parles, c'est trop vague. Mais je peux te mettre sur la piste de quelque chose de plus précis. Déjà il faut savoir que pas entraîné est différent de vide. Le cerveau humain lui même dispose de capacités inées qui ne nécessitent pas d'entraînement comme le réflexe de bloquer sa respiration sous l'eau. Mais si on transmet ça dans le domaine de l'ia, ça signifie qu'il faut un entraînement préalable pour ces tâches basiques. Est ce que cet entraînement préalable compte pour toi ? Car si oui la réponse est tout simplement non on ne créera jamais d'ia qui peut réaliser des taches sans entraînement préalable, ou à la rigueur sans contrôler fortement l'initialisation des poids pour que certaines fonctions apparaissent naturellement. Additionnelement, considère tu qu'une IA capable de réaliser une tâche qu'elle n'a jamais faite par transfert d'apprentissage est capable de réaliser cette tâche "sans entraînement préalable (sur cette tâche) "? Bref, sans une compréhension profondes de ces concepts on finit par ne rien dire du tout.
Quelle différence de nature entre les signaux que ton cerveau prend en input et ce que des réseaux de neurone prennent en input ?
Il s'agit dans tous les cas de signaux électriques dans un sens, et numérique dans l'autre.. D'ailleurs pour des raisons totalement hors sujet, on développe des TPU en analogique en ce moment(je kifferais faire une seconde thèse la dessus
).
Quand tes bâtonnets convertissent la réflexion de ta pupille en signal nerveux, c'est exactement ce qu'il font.. Ils convertissent une image en signal analogique.
Encore une fois, c'est à la base des interfaces homme machine.. Si il y avait une différence fondamentale entre un cerveau et un ordinateur, tu te rends ben compte que ça n'existerait pas.
Il s'agit dans tous les cas de signaux électriques dans un sens, et numérique dans l'autre.. D'ailleurs pour des raisons totalement hors sujet, on développe des TPU en analogique en ce moment(je kifferais faire une seconde thèse la dessus

Quand tes bâtonnets convertissent la réflexion de ta pupille en signal nerveux, c'est exactement ce qu'il font.. Ils convertissent une image en signal analogique.
Encore une fois, c'est à la base des interfaces homme machine.. Si il y avait une différence fondamentale entre un cerveau et un ordinateur, tu te rends ben compte que ça n'existerait pas.
il y a 2 ans