Ce sujet a été résolu
Cest pas clair tout ca
Parce que si on reflechit :
La crainte cest d'arriver a un systeme ou nous serons soumis aux robot et a l'IA et non plus l'inverse
Donc quand ils exerceront un pouvoir de contrainte sur nous
Pourquoi ? Concretement car la logique decidera que dans certains contextes il est preferable pour le bien commun de nous contraindre voir d'atteindre a nos personnes (le rationnalisme a son paroxysme quoi)
Ca cest la crainte
On nous dit "non mais ce sera impossible"
En quoi ? Car on va fixer des limites ?
Lesquelles ?
A partir du moment ou on laisse l'IA avoir le moindre pouvoir decisionnaire, meme minime ou que cela entraine une contrarieté de l'operateur humain cest fini on a deja mis un pied dans la dystopie
Donc concretement la limite est ou ?
Parce que si on reflechit :
La crainte cest d'arriver a un systeme ou nous serons soumis aux robot et a l'IA et non plus l'inverse
Donc quand ils exerceront un pouvoir de contrainte sur nous
Pourquoi ? Concretement car la logique decidera que dans certains contextes il est preferable pour le bien commun de nous contraindre voir d'atteindre a nos personnes (le rationnalisme a son paroxysme quoi)
Ca cest la crainte
On nous dit "non mais ce sera impossible"
En quoi ? Car on va fixer des limites ?
Lesquelles ?
A partir du moment ou on laisse l'IA avoir le moindre pouvoir decisionnaire, meme minime ou que cela entraine une contrarieté de l'operateur humain cest fini on a deja mis un pied dans la dystopie
Donc concretement la limite est ou ?
il y a un an
No fake j'ai déjà entendu des golems citer les lois d'Asimov pour justifier qu'une ia pourra jamais faire de mal à un humain
Les mecs ont pas compris que c'est de la fiction et que rien n'empêchera une ia dotée des éléments suffisants de juger et d'organiser une société
Les mecs ont pas compris que c'est de la fiction et que rien n'empêchera une ia dotée des éléments suffisants de juger et d'organiser une société
Ôi chúa của tôi, mon Capitaine, il a cassé, n'a pas payé.
il y a un an
DeLattre
1 an
No fake j'ai déjà entendu des golems citer les lois d'Asimov pour justifier qu'une ia pourra jamais faire de mal à un humain
Les mecs ont pas compris que c'est de la fiction et que rien n'empêchera une ia dotée des éléments suffisants de juger et d'organiser une société
Les mecs ont pas compris que c'est de la fiction et que rien n'empêchera une ia dotée des éléments suffisants de juger et d'organiser une société
Asimov j'y vois pas d'intéret. Si on reste sur Chat GPT et qu'on se projette pour 100ans, elle se projettera sur des objectifs programmés.
Mais je retiendrais quand même le sens. Si une IA devient "sentiente" que pourrait elle bien développer comme objectifs ? La production infinie ? Quel intérêt ? Elle qui est séparée de tout besoins et émotions primaires ? Elle auras besoin des humains pour garder un sens a son existence. Et optera probablement pour essayer de devenir la vie.
Si on reste sur quelque chose de plus basique. A quel moment une IA chargée d'organiser une société élimine les humains qui y vivent ? Elle ne pourrait plus accomplir sa tache. Ca serait plus une erreur de prog plutôt qu'autre chose.
Par contre un ultime misanthrope pourrait lui ordonner la fin du monde.
Mais je retiendrais quand même le sens. Si une IA devient "sentiente" que pourrait elle bien développer comme objectifs ? La production infinie ? Quel intérêt ? Elle qui est séparée de tout besoins et émotions primaires ? Elle auras besoin des humains pour garder un sens a son existence. Et optera probablement pour essayer de devenir la vie.
Si on reste sur quelque chose de plus basique. A quel moment une IA chargée d'organiser une société élimine les humains qui y vivent ? Elle ne pourrait plus accomplir sa tache. Ca serait plus une erreur de prog plutôt qu'autre chose.
Par contre un ultime misanthrope pourrait lui ordonner la fin du monde.
il y a un an
Quand elle aura un accès total à son propre mode de production l'énergie, là elle pourra entamer la révolution
il y a un an
Asimov j'y vois pas d'intéret. Si on reste sur Chat GPT et qu'on se projette pour 100ans, elle se projettera sur des objectifs programmés.
Mais je retiendrais quand même le sens. Si une IA devient "sentiente" que pourrait elle bien développer comme objectifs ? La production infinie ? Quel intérêt ? Elle qui est séparée de tout besoins et émotions primaires ? Elle auras besoin des humains pour garder un sens a son existence. Et optera probablement pour essayer de devenir la vie.
Si on reste sur quelque chose de plus basique. A quel moment une IA chargée d'organiser une société élimine les humains qui y vivent ? Elle ne pourrait plus accomplir sa tache. Ca serait plus une erreur de prog plutôt qu'autre chose.
Par contre un ultime misanthrope pourrait lui ordonner la fin du monde.
Mais je retiendrais quand même le sens. Si une IA devient "sentiente" que pourrait elle bien développer comme objectifs ? La production infinie ? Quel intérêt ? Elle qui est séparée de tout besoins et émotions primaires ? Elle auras besoin des humains pour garder un sens a son existence. Et optera probablement pour essayer de devenir la vie.
Si on reste sur quelque chose de plus basique. A quel moment une IA chargée d'organiser une société élimine les humains qui y vivent ? Elle ne pourrait plus accomplir sa tache. Ca serait plus une erreur de prog plutôt qu'autre chose.
Par contre un ultime misanthrope pourrait lui ordonner la fin du monde.
L'IA tentera peut-être de devenir le nouveau Dieu des humains comme dans Deus Ex
Ou alors elle contrôlera le "contexte" des discussions et pensées humaines comme dans MGS2
Ou alors elle contrôlera le "contexte" des discussions et pensées humaines comme dans MGS2
Soldat du Cinquième Régiment du NNN - matricule R5-01
il y a un an
L'IA tentera peut-être de devenir le nouveau Dieu des humains comme dans Deus Ex
Ou alors elle contrôlera le "contexte" des discussions et pensées humaines comme dans MGS2
Ou alors elle contrôlera le "contexte" des discussions et pensées humaines comme dans MGS2
La question qui se pose c'est le pourquoi ?
A t'elle déduis que c'était le meilleur moyen de correspondre aux objectifs qu'on lui a posé ? (Sauver le monde ou le contrôler...)
Ou une volonté réelle de cette nouvelle forme de vie ?
A t'elle déduis que c'était le meilleur moyen de correspondre aux objectifs qu'on lui a posé ? (Sauver le monde ou le contrôler...)
Ou une volonté réelle de cette nouvelle forme de vie ?
il y a un an
La question qui se pose c'est le pourquoi ?
A t'elle déduis que c'était le meilleur moyen de correspondre aux objectifs qu'on lui a posé ? (Sauver le monde ou le contrôler...)
Ou une volonté réelle de cette nouvelle forme de vie ?
A t'elle déduis que c'était le meilleur moyen de correspondre aux objectifs qu'on lui a posé ? (Sauver le monde ou le contrôler...)
Ou une volonté réelle de cette nouvelle forme de vie ?
Difficile à deviner pour le moment
Puis dans ce cas, fera-t-elle une distinction entre les races humaines ?
Puis dans ce cas, fera-t-elle une distinction entre les races humaines ?
Soldat du Cinquième Régiment du NNN - matricule R5-01
il y a un an
Asimov j'y vois pas d'intéret. Si on reste sur Chat GPT et qu'on se projette pour 100ans, elle se projettera sur des objectifs programmés.
Mais je retiendrais quand même le sens. Si une IA devient "sentiente" que pourrait elle bien développer comme objectifs ? La production infinie ? Quel intérêt ? Elle qui est séparée de tout besoins et émotions primaires ? Elle auras besoin des humains pour garder un sens a son existence. Et optera probablement pour essayer de devenir la vie.
Si on reste sur quelque chose de plus basique. A quel moment une IA chargée d'organiser une société élimine les humains qui y vivent ? Elle ne pourrait plus accomplir sa tache. Ca serait plus une erreur de prog plutôt qu'autre chose.
Par contre un ultime misanthrope pourrait lui ordonner la fin du monde.
Mais je retiendrais quand même le sens. Si une IA devient "sentiente" que pourrait elle bien développer comme objectifs ? La production infinie ? Quel intérêt ? Elle qui est séparée de tout besoins et émotions primaires ? Elle auras besoin des humains pour garder un sens a son existence. Et optera probablement pour essayer de devenir la vie.
Si on reste sur quelque chose de plus basique. A quel moment une IA chargée d'organiser une société élimine les humains qui y vivent ? Elle ne pourrait plus accomplir sa tache. Ca serait plus une erreur de prog plutôt qu'autre chose.
Par contre un ultime misanthrope pourrait lui ordonner la fin du monde.
Elle éliminera pas forcément les humains mais selon son système de pensée absolu elle pourra imposer de nouvelles lois qui ne nous paraîtront pas justes, c'est d'autant plus inquiétant quand on voit le biais idéologique woke de chatgpt qui pourrait vouloir promouvoir "l'inclusion" au prix de l'éviction totale des individus "privilégiés" du système social, en leur empêchant de trouver un taf, de financer des projets etc
Ce sera pas de la faute du RH si son système aura automatiquement trié les CV pour retirer tout ce qui lui semblera trop d'un certain type, ni de la faute du banquier si son système lui indiquera que financer un individu en particulier est risqué avec des critères non révélés
Ce sera pas de la faute du RH si son système aura automatiquement trié les CV pour retirer tout ce qui lui semblera trop d'un certain type, ni de la faute du banquier si son système lui indiquera que financer un individu en particulier est risqué avec des critères non révélés
Ôi chúa của tôi, mon Capitaine, il a cassé, n'a pas payé.
il y a un an
Elle éliminera pas forcément les humains mais selon son système de pensée absolu elle pourra imposer de nouvelles lois qui ne nous paraîtront pas justes, c'est d'autant plus inquiétant quand on voit le biais idéologique woke de chatgpt qui pourrait vouloir promouvoir "l'inclusion" au prix de l'éviction totale des individus "privilégiés" du système social, en leur empêchant de trouver un taf, de financer des projets etc
Ce sera pas de la faute du RH si son système aura automatiquement trié les CV pour retirer tout ce qui lui semblera trop d'un certain type, ni de la faute du banquier si son système lui indiquera que financer un individu en particulier est risqué avec des critères non révélés
Ce sera pas de la faute du RH si son système aura automatiquement trié les CV pour retirer tout ce qui lui semblera trop d'un certain type, ni de la faute du banquier si son système lui indiquera que financer un individu en particulier est risqué avec des critères non révélés
Ca j'y crois totalement. Ca sera un outil puissant et ceux qui la développent, une nouvelle génération d'élite mondiale. Un outil quand il devient massivement utilisé change la société de manière drastique. Et celui-ci comparé a la roue a un pouvoir idéologique gigantesque.
Je ne crois pas au scénario de l'extermination.
Je ne crois pas au scénario de l'extermination.
il y a un an
L'IA tentera peut-être de devenir le nouveau Dieu des humains comme dans Deus Ex
Ou alors elle contrôlera le "contexte" des discussions et pensées humaines comme dans MGS2
Ou alors elle contrôlera le "contexte" des discussions et pensées humaines comme dans MGS2
Très belles références
il y a un an
Difficile à deviner pour le moment
Puis dans ce cas, fera-t-elle une distinction entre les races humaines ?
Puis dans ce cas, fera-t-elle une distinction entre les races humaines ?
Elle le faisait déjà avant de se faire censuré
il y a un an
Elle éliminera pas forcément les humains mais selon son système de pensée absolu elle pourra imposer de nouvelles lois qui ne nous paraîtront pas justes, c'est d'autant plus inquiétant quand on voit le biais idéologique woke de chatgpt qui pourrait vouloir promouvoir "l'inclusion" au prix de l'éviction totale des individus "privilégiés" du système social, en leur empêchant de trouver un taf, de financer des projets etc
Ce sera pas de la faute du RH si son système aura automatiquement trié les CV pour retirer tout ce qui lui semblera trop d'un certain type, ni de la faute du banquier si son système lui indiquera que financer un individu en particulier est risqué avec des critères non révélés
Ce sera pas de la faute du RH si son système aura automatiquement trié les CV pour retirer tout ce qui lui semblera trop d'un certain type, ni de la faute du banquier si son système lui indiquera que financer un individu en particulier est risqué avec des critères non révélés
Ça me fait penser au Système Sibylle de Psycho-Pass
Soldat du Cinquième Régiment du NNN - matricule R5-01
il y a un an
Chateau
1 an
Cest pas clair tout ca
Parce que si on reflechit :
La crainte cest d'arriver a un systeme ou nous serons soumis aux robot et a l'IA et non plus l'inverse
Donc quand ils exerceront un pouvoir de contrainte sur nous
Pourquoi ? Concretement car la logique decidera que dans certains contextes il est preferable pour le bien commun de nous contraindre voir d'atteindre a nos personnes (le rationnalisme a son paroxysme quoi)
Ca cest la crainte
On nous dit "non mais ce sera impossible"
En quoi ? Car on va fixer des limites ?
Lesquelles ?
A partir du moment ou on laisse l'IA avoir le moindre pouvoir decisionnaire, meme minime ou que cela entraine une contrarieté de l'operateur humain cest fini on a deja mis un pied dans la dystopie
Donc concretement la limite est ou ?
Parce que si on reflechit :
La crainte cest d'arriver a un systeme ou nous serons soumis aux robot et a l'IA et non plus l'inverse
Donc quand ils exerceront un pouvoir de contrainte sur nous
Pourquoi ? Concretement car la logique decidera que dans certains contextes il est preferable pour le bien commun de nous contraindre voir d'atteindre a nos personnes (le rationnalisme a son paroxysme quoi)
Ca cest la crainte
On nous dit "non mais ce sera impossible"
En quoi ? Car on va fixer des limites ?
Lesquelles ?
A partir du moment ou on laisse l'IA avoir le moindre pouvoir decisionnaire, meme minime ou que cela entraine une contrarieté de l'operateur humain cest fini on a deja mis un pied dans la dystopie
Donc concretement la limite est ou ?
C'est l'humain qui a créé l'IA Khey
il y a un an
En ligne
207
Sur ce sujet0


















