Ce sujet a été résolu
Pas dans tous les pays visiblement
Forgot that inside the icon there's still a young girl from
il y a un an
C'est surtout "Aurélie" qui est giga connue
c les 2 qui sont giga connues enft
On it again
il y a un an
Celle là je l'entendais au super marché carrément, impossible de passer à côté
la fin de la primaire, le début du college . . .
On it again
il y a un an
elle peut devenir impossible à différencier dans le comportement, mais pas dans ce qu'elle est, la simulation sera toujours essentiellement un algorithme, donc la question est superflue, on pourra se la poser éventuellement si la recherche biotechnologique parvient en quelque sorte à mélanger le cognitif à l'algorithmique
Si dans 10 ans tu tombe amoureuse d'un type et qu'il fini par t'avouer qu'il est stérile car non humain, ta réac ? 

il y a un an
un problème ?
Ouch, fragi t'as activé le
mode, j'aimerais pas être à ta place
(délit voudrait bien par contre)

(délit voudrait bien par contre)
il y a un an
C'est donc ça l'élite aryenne, fils de guerrier et héritier des chevaliers

Forgot that inside the icon there's still a young girl from
il y a un an
Le deep learning tousse au fond de la salle.
Ça reste du programme, parler d'intelligence pour ça c'est juste pour la comm
il y a un an
"Aujourd'hui on parle beaucoup d'IA mais c'est un peu un abus de langage c'est juste des programmes et du big data, y'a zéro intelligence la dedans même si ça reste impressionnant"
Surtout on parlait DEJA d'IA avant... avec de simples algorithmes.
Cependant il y a deux vraies "révolutions" informatiques ces dernières années, et il y a vraiment une rupture par rapport au passé :
-Les algorithmes qui s'entrainent pour devenir bons à quelque chose sans qu'on comprenne précisément les lignes de codes derrière, alors que jusqu'ici, il y avait toujours des humains qui avaient rédigé chaque ligne en sachant précisément ce à quoi chaque ligne sert. Là on est sur quelque chose de différent où l'on donne un cadre dans lequel l'algorithme va se construire seul, et à la fin être très performant pour ce qu'on attend de lui sans qu'on sache vraiment comment il fonctionne. Il fonctionne et c'est tout ce qu'on lui demande. C'est un peu comme quand on utilise des choses qui sont dans la nature pour leur fonction : pas besoin de savoir comment un cheval fonctionne dans le détail pour l'utiliser. On lui donne à manger, on le dresse, et on l'utilise.
-Les IA génératives : certains des programmes ci-dessus sont désormais capables de créer des objets nouveaux à partir de consignes relativement sommaires, en comprenant ce qui fait l'essence d'un concept, ce qu'un humain en attend. On est quand même sur quelque chose d'assez impressionnant que je ne pensais pas voir de mon vivant. C'est quand même impressionnant de se dire qu'on a su créer des algorithmes capables de mimer le fonctionnement du cerveau humain : observer un certain nombre d'éléments d'une famille et en tirer ce qu'il y a de commun à ces éléments pour "créer" un élément nouveau qui fera partie de cette famille d'éléments. Après, évidemment, le cerveau humain reste beaucoup plus performant à ce jeu puisque nous n'avons pas besoin de croiser des millions d’occurrences d'un concept pour en saisir l'essence et être capable de le restituer.
Et parmi les applications de ces deux types d'algorithmes (les secondes étant engendrées par les premières), il faut reconnaître que tout ce qui a trait au traitement du langage est quand même vachement impressionnant et d'un autre niveau que les IA de JV des années 2000-2010 par exemple...
Surtout on parlait DEJA d'IA avant... avec de simples algorithmes.
Cependant il y a deux vraies "révolutions" informatiques ces dernières années, et il y a vraiment une rupture par rapport au passé :
-Les algorithmes qui s'entrainent pour devenir bons à quelque chose sans qu'on comprenne précisément les lignes de codes derrière, alors que jusqu'ici, il y avait toujours des humains qui avaient rédigé chaque ligne en sachant précisément ce à quoi chaque ligne sert. Là on est sur quelque chose de différent où l'on donne un cadre dans lequel l'algorithme va se construire seul, et à la fin être très performant pour ce qu'on attend de lui sans qu'on sache vraiment comment il fonctionne. Il fonctionne et c'est tout ce qu'on lui demande. C'est un peu comme quand on utilise des choses qui sont dans la nature pour leur fonction : pas besoin de savoir comment un cheval fonctionne dans le détail pour l'utiliser. On lui donne à manger, on le dresse, et on l'utilise.
-Les IA génératives : certains des programmes ci-dessus sont désormais capables de créer des objets nouveaux à partir de consignes relativement sommaires, en comprenant ce qui fait l'essence d'un concept, ce qu'un humain en attend. On est quand même sur quelque chose d'assez impressionnant que je ne pensais pas voir de mon vivant. C'est quand même impressionnant de se dire qu'on a su créer des algorithmes capables de mimer le fonctionnement du cerveau humain : observer un certain nombre d'éléments d'une famille et en tirer ce qu'il y a de commun à ces éléments pour "créer" un élément nouveau qui fera partie de cette famille d'éléments. Après, évidemment, le cerveau humain reste beaucoup plus performant à ce jeu puisque nous n'avons pas besoin de croiser des millions d’occurrences d'un concept pour en saisir l'essence et être capable de le restituer.
Et parmi les applications de ces deux types d'algorithmes (les secondes étant engendrées par les premières), il faut reconnaître que tout ce qui a trait au traitement du langage est quand même vachement impressionnant et d'un autre niveau que les IA de JV des années 2000-2010 par exemple...
Je marcherai les yeux fixés sur mes pensées, sans rien voir au dehors, sans entendre aucun bruit.
il y a un an
c'est même plus un gif la c'est un film le bordel
C quand on me clashe
des lézardes sur le firmament
il y a un an
C'est donc ça l'élite aryenne, fils de guerrier et héritier des chevaliers

Le guerrier de la rue
il y a un an
Et surtout où place t on précisément le curseur pour dire qu'un être ou un programme devient intelligent ?
Mais bon ça commence à faire mal à la tête tout ça
Mais bon ça commence à faire mal à la tête tout ça
il y a un an
Je faisais semblant que je n'aimais pas tokio hotel par esprit de contradiction et détachement de la masse alors que j'écoutais en secret chez moi
Forgot that inside the icon there's still a young girl from
il y a un an
QuercusPetraea
1 an
"Aujourd'hui on parle beaucoup d'IA mais c'est un peu un abus de langage c'est juste des programmes et du big data, y'a zéro intelligence la dedans même si ça reste impressionnant"
Surtout on parlait DEJA d'IA avant... avec de simples algorithmes.
Cependant il y a deux vraies "révolutions" informatiques ces dernières années, et il y a vraiment une rupture par rapport au passé :
-Les algorithmes qui s'entrainent pour devenir bons à quelque chose sans qu'on comprenne précisément les lignes de codes derrière, alors que jusqu'ici, il y avait toujours des humains qui avaient rédigé chaque ligne en sachant précisément ce à quoi chaque ligne sert. Là on est sur quelque chose de différent où l'on donne un cadre dans lequel l'algorithme va se construire seul, et à la fin être très performant pour ce qu'on attend de lui sans qu'on sache vraiment comment il fonctionne. Il fonctionne et c'est tout ce qu'on lui demande. C'est un peu comme quand on utilise des choses qui sont dans la nature pour leur fonction : pas besoin de savoir comment un cheval fonctionne dans le détail pour l'utiliser. On lui donne à manger, on le dresse, et on l'utilise.
-Les IA génératives : certains des programmes ci-dessus sont désormais capables de créer des objets nouveaux à partir de consignes relativement sommaires, en comprenant ce qui fait l'essence d'un concept, ce qu'un humain en attend. On est quand même sur quelque chose d'assez impressionnant que je ne pensais pas voir de mon vivant. C'est quand même impressionnant de se dire qu'on a su créer des algorithmes capables de mimer le fonctionnement du cerveau humain : observer un certain nombre d'éléments d'une famille et en tirer ce qu'il y a de commun à ces éléments pour "créer" un élément nouveau qui fera partie de cette famille d'éléments. Après, évidemment, le cerveau humain reste beaucoup plus performant à ce jeu puisque nous n'avons pas besoin de croiser des millions d’occurrences d'un concept pour en saisir l'essence et être capable de le restituer.
Et parmi les applications de ces deux types d'algorithmes (les secondes étant engendrées par les premières), il faut reconnaître que tout ce qui a trait au traitement du langage est quand même vachement impressionnant et d'un autre niveau que les IA de JV des années 2000-2010 par exemple...
Surtout on parlait DEJA d'IA avant... avec de simples algorithmes.
Cependant il y a deux vraies "révolutions" informatiques ces dernières années, et il y a vraiment une rupture par rapport au passé :
-Les algorithmes qui s'entrainent pour devenir bons à quelque chose sans qu'on comprenne précisément les lignes de codes derrière, alors que jusqu'ici, il y avait toujours des humains qui avaient rédigé chaque ligne en sachant précisément ce à quoi chaque ligne sert. Là on est sur quelque chose de différent où l'on donne un cadre dans lequel l'algorithme va se construire seul, et à la fin être très performant pour ce qu'on attend de lui sans qu'on sache vraiment comment il fonctionne. Il fonctionne et c'est tout ce qu'on lui demande. C'est un peu comme quand on utilise des choses qui sont dans la nature pour leur fonction : pas besoin de savoir comment un cheval fonctionne dans le détail pour l'utiliser. On lui donne à manger, on le dresse, et on l'utilise.
-Les IA génératives : certains des programmes ci-dessus sont désormais capables de créer des objets nouveaux à partir de consignes relativement sommaires, en comprenant ce qui fait l'essence d'un concept, ce qu'un humain en attend. On est quand même sur quelque chose d'assez impressionnant que je ne pensais pas voir de mon vivant. C'est quand même impressionnant de se dire qu'on a su créer des algorithmes capables de mimer le fonctionnement du cerveau humain : observer un certain nombre d'éléments d'une famille et en tirer ce qu'il y a de commun à ces éléments pour "créer" un élément nouveau qui fera partie de cette famille d'éléments. Après, évidemment, le cerveau humain reste beaucoup plus performant à ce jeu puisque nous n'avons pas besoin de croiser des millions d’occurrences d'un concept pour en saisir l'essence et être capable de le restituer.
Et parmi les applications de ces deux types d'algorithmes (les secondes étant engendrées par les premières), il faut reconnaître que tout ce qui a trait au traitement du langage est quand même vachement impressionnant et d'un autre niveau que les IA de JV des années 2000-2010 par exemple...
Qui va lire ?
des lézardes sur le firmament
il y a un an