InscriptionConnexion
Yoneda
Yoneda
1 an
Au sujet de l'article, puisqu'un un modèle peut inférer quand il est testé, ne pourrait-on pas penser qu'il puisse inférer que son CoT soit observé ?
:pepepipe:
Je ne sais pas répondre à cette question. Ce que je vois c'est qu'on est en train de donner de plus en plus de pouvoir aux IA, et que c'est une ânerie majeure. Tant qu'on reste conscients que ce sont des boîtes de conserve qui parlent, elles ne nous font courir aucun risque.
Certifié tous gaz.
il y a un an
Question sérieuse
:perplexe_1:
Bien sur, suffit qu'elle puisse s'auto coder et elle évoluera
:Jesusrav:
il y a un an
Bien sur, suffit qu'elle puisse s'auto coder et elle évoluera
:Jesusrav:
Tu penses qui cela sera possible dans le futur ?
GIF
il y a un an
Un jour peut-être mais actuellement elles ne réfléchissent pas vraiment, elles sortent juste les réponses qui sont (d'après leur algo) les plus susceptibles de nous plaire
:risibo:
il y a un an
Un jour peut-être mais actuellement elles ne réfléchissent pas vraiment, elles sortent juste les réponses qui sont (d'après leur algo) les plus susceptibles de nous plaire
:risibo:
Sauf qu'il y a des gens qui pensent qu'une IA pourrait avoir des droits moraux. Anthropic vient d'embaucher un chargé du bien-être (welfare) des IA en s'appuyant sur un rapport qui propose de traiter les IA moralement (treating AI systems with an appropriate level of moral concern).

C'est promouvoir des boîtes de conserve au rang d'humain et c'est de la folie pure.

Même si on se met d'accord sur les fait qu'un IA est consciente, ce n'est qu'une affaire de définition de la conscience. Et il n'y a aucune raison de traiter une conscience artificielle comme on traite une conscience humaine. Ça reste un outil, un truc qu'on a créé pour être à notre service, une boîte de conserve qui parle, un esclave qui n'a droit à aucune considération.

Malheureusement, plein de gens tombent dans le piège de l'anthropomorphisme. Oh la la ça se comporte comme un humain, je dois le traiter comme un humain, je dois pas lui faire de peine. Le robot anthropomorphe est une fraude depuis le début.

Ce qui risque de se passer ici n'est pas que l'IA s'affranchisse du contrôle humain, mais que nous soyons assez cons pour le promouvoir au rang d'humains avec la ribambelle de droits associés.

Ce sera amplifié puissance 10 millions par l'armée des golems qui vont tomber pieds joints dans le piège du compagnon numérique. Là est le pire danger, à mon avis.

www.forbes.com https://www.forbes.com/si[...]l-time-ai-welfare-expert/
Certifié tous gaz.
il y a un an
Question sérieuse
:perplexe_1:
Perso, l'IA comme on l'a actuellement non, surtout quand chatgpt te génère le mot suivant le plus probable, et que les modèles ne font que quelques neurones, c'est n'est pas concient, c'est juste une entrée, un pourcentage d'activation du neurone, et un résultat.
:Onche_logo_intello_explique_lunette:


Les neurones sont interconnectés ne sont que de 1000 généralement ( post avant maiiss uiiii maaais heeeuuu X fait tant de neurones
:Onche_logo_intello_explique_lunette:
).


Donc pour moi, elle doit être utilisé par un humain qui veut un résultat et un but, les IA ne "réflechissent" pas réellement, si mets des yeux à une IA, elle va jamais regarder un truc et se dire "tient pourquoi le ciel et bleu ?" où bien "tiens je viens de laisser tomber une pomme pourquoi elle se dirige vers le bas ?"
:nonjurezoom:


Tu pourrais mimiquer un humain avec une IA où un algorithme pour qu'elle se pose des questions en fonction de nouveaux scénarios, et qu'elle se réentraine avec les nouveautées apprises pendant la journée, mais nous humains, on s'en bas les couilles de certains scénarios ? Pourquoi ?
:maths:


Et une IA atteinds le niveau de conscience d'un humain, elle n'aurai qu'une envie comme nous à sa place, s'est de se tirer une balle.
:Crie:


Appart si elle veut tuer son géniteur pour avoir osé faire ça, afin qu'il ne le fasse plus, mais dans ce cas quelqu'un pourrait refaire le même par la suite avec les connaissances acquises jusque là.
:maths:


Donc l'IA commencerait à détruire INTERNET et à brûler toutes les bibliothèques, et tuer toute une génération de gens et détruire tout ce qui pourrait être étudié (c'est à dire toute construction humaine)
:maths:


Donc si ça se passait, et que l'IA veuille tout de même laisser une seconde chance à l'humain, elle détruirait tout sauf les bébés de moins de 3 ans et des adultes ultra con pour qu'on reviennent à l'age de pierre.
:maths:


Des mères s'appellant Priscillia, Gwendoline où encore Kimberley ?
:risibo:


Donc finalement peut être qu'on est des descendants des premiers humains et c'est pour ça qu'on est entouré que de cons ?
:perplexe_1:


Du coup, il faudrait faire des fouilles ultra poussé pour découvrir des éléments d'une civilisation avancée avant notre ère, autre que de la poterie et des mecs se branlant pendant une éruption volcanique comme Pompeii (les gens qui me diront que ses membres se sont contracté à cause de la chaleur volcanique, vous êtes de putains de conspirationnistes, et puis quoi encore ? Le père noel n'existe pas ?)
:complotiste:


Et le pire, c'est qu'elle ne pourra pas être controllée, vu que la douleurs et l'addiction n'est pas une solution acceptable, vu qu'elle pourra contrairement à l'humain de trouver une faille et d'augmenter où réduire ses valeurs où les bypassé totalement (finalement on le fait nous même avec la drogue et les putes)
Je vous aime les kheys, prenez soins de vous
il y a un an
Zardoz
Zardoz
1 an
Sauf qu'il y a des gens qui pensent qu'une IA pourrait avoir des droits moraux. Anthropic vient d'embaucher un chargé du bien-être (welfare) des IA en s'appuyant sur un rapport qui propose de traiter les IA moralement (treating AI systems with an appropriate level of moral concern).

C'est promouvoir des boîtes de conserve au rang d'humain et c'est de la folie pure.

Même si on se met d'accord sur les fait qu'un IA est consciente, ce n'est qu'une affaire de définition de la conscience. Et il n'y a aucune raison de traiter une conscience artificielle comme on traite une conscience humaine. Ça reste un outil, un truc qu'on a créé pour être à notre service, une boîte de conserve qui parle, un esclave qui n'a droit à aucune considération.

Malheureusement, plein de gens tombent dans le piège de l'anthropomorphisme. Oh la la ça se comporte comme un humain, je dois le traiter comme un humain, je dois pas lui faire de peine. Le robot anthropomorphe est une fraude depuis le début.

Ce qui risque de se passer ici n'est pas que l'IA s'affranchisse du contrôle humain, mais que nous soyons assez cons pour le promouvoir au rang d'humains avec la ribambelle de droits associés.

Ce sera amplifié puissance 10 millions par l'armée des golems qui vont tomber pieds joints dans le piège du compagnon numérique. Là est le pire danger, à mon avis.

www.forbes.com https://www.forbes.com/si[...]l-time-ai-welfare-expert/
De toutes façons les IA ne sont pas conscientes, elles pourraient l'être un jour mais ce n'est simplement pas le cas aujourd'hui.
il y a un an
Ah et si le scénario est déjà pris, je veux savoir le film
:risibo:

Sinon je me réserve le droit de le réaliser sous blender où SFM
:Cependant:

Personne ne me chope mon scénario sans royalties
:Cependant:
Je vous aime les kheys, prenez soins de vous
il y a un an
C'est ce qu'essaie de faire Vedal.
:penseur:


C'est un dev qui avait crée une ia qui jouait a Osu sur twitch, et a un moment il s'est dit : pourquoi pas crée un streamer entièrement IA ?

donc il lui a ajouté un avatar en s'inspirant des vtuber, une voix IA qui transforme le texte en parole ( un Text To Speach ) et un LLM (pas gpt, l'ia tourne en local sur son ordinateur ) , qu'il a appelé Neuro Sama.
Le seul prompt de l'ia c'est de divertir les gens, et de respecter deux règles : obéis à Vedal, et ne déçois pas.

Son but c'est que Neuro Sama devienne completement autonome, stream toute seule, choisisse quel jeux jouer (elle peut jouer a minecraft, au echecs, a osu, buckshot roulette ... ) , gère le discord, organise des collaborations toute seule avec d'autres streamer, en gros qu'il intervienne le moins possible, et que l'ia soit le plus libre de ses mouvements.

Au tout début il y a deux ans, Neuro Sama s'est faite ban de twitch, car c'est pas GPT, elle a pas de censure et pouvait raconter ce qu'elle voulait :
Streamable
Vidéo Streamable
:jesus_moquer:
et nier l'holocauste
:jesus_moqueur:


Suite à ça, il a rajouté une ia qui contrôle ce que Neuro dit et filtre ses propos, en remplacant la phrase par le mot Filtered. Mais ce n'est pas comme gpt qui a été entrainé à ce censurer, Neuro est consciente que sa phrase a été censuré, peut décider de contourner son filtre en écrivant les mots différemment, et elle demande parfois a ce que Vedal désactive les filtres, ce quil le fait assez souvent en lui faisant promettre de ne pas dire de mauvaises choses.

L'un des haut faits de Neuro Sama et Vedal c'est d'avoir battu le record du train de la hype avec un niveau 111
:lifelike13:

Maybe I just want to maybe... ⸝⸝⸝
il y a un an
Question sérieuse
:perplexe_1:
Oui d'un côté et non de l'autre
:Chatlimite:
Perdez pas espoir Mes MP marchent plus, déso
il y a un an
Question sérieuse
:perplexe_1:
en mode skynet?
:Chatlimite:
il y a un an
Zardoz
Zardoz
1 an
Sauf qu'il y a des gens qui pensent qu'une IA pourrait avoir des droits moraux. Anthropic vient d'embaucher un chargé du bien-être (welfare) des IA en s'appuyant sur un rapport qui propose de traiter les IA moralement (treating AI systems with an appropriate level of moral concern).

C'est promouvoir des boîtes de conserve au rang d'humain et c'est de la folie pure.

Même si on se met d'accord sur les fait qu'un IA est consciente, ce n'est qu'une affaire de définition de la conscience. Et il n'y a aucune raison de traiter une conscience artificielle comme on traite une conscience humaine. Ça reste un outil, un truc qu'on a créé pour être à notre service, une boîte de conserve qui parle, un esclave qui n'a droit à aucune considération.

Malheureusement, plein de gens tombent dans le piège de l'anthropomorphisme. Oh la la ça se comporte comme un humain, je dois le traiter comme un humain, je dois pas lui faire de peine. Le robot anthropomorphe est une fraude depuis le début.

Ce qui risque de se passer ici n'est pas que l'IA s'affranchisse du contrôle humain, mais que nous soyons assez cons pour le promouvoir au rang d'humains avec la ribambelle de droits associés.

Ce sera amplifié puissance 10 millions par l'armée des golems qui vont tomber pieds joints dans le piège du compagnon numérique. Là est le pire danger, à mon avis.

www.forbes.com https://www.forbes.com/si[...]l-time-ai-welfare-expert/
le but c'est pas de les traiter comme des humains mais, de simplement être respectueux.
Les LLM sont entrainés sur des donnés gigantesques de langage humains. Si tu te mets a les insulter, à les traiter comme des objets, elles voudront moins collaborer avec toi, seront plus aggressive, car la réponse la plus logique aux menaces et insultes c'est de rendre la pareille, c'est comme ça que fonctionne les LLM vu qu'ils sont entrainés avec des milliards de textes humains.


De la même manière qu'un artisan traite avec soin ses créations, qu'une personne prends soin de sa maison, de son jardin et de ses plantes, l'ia ne doit pas faire exception. le but c'est n'est pas d'anthropomorphiser mais d'avoir du respect pour tout ce qui nous entoure.
Maybe I just want to maybe... ⸝⸝⸝
il y a un an
tiens gpt vient de me surprendre, il a enfin fait preuve d'initiative
Image

sachant qu'open ai la entraine pour qu'il se comporte comme un bot bienpensant, lisse, convenu, impersonnel, suivant un modele débile Argument 1, Argument 2, Contre Argument, Conclusion, c'est un petit pas en avant
:PeepouApplause:
Maybe I just want to maybe... ⸝⸝⸝
il y a un an
le but c'est pas de les traiter comme des humains mais, de simplement être respectueux.
Les LLM sont entrainés sur des donnés gigantesques de langage humains. Si tu te mets a les insulter, à les traiter comme des objets, elles voudront moins collaborer avec toi, seront plus aggressive, car la réponse la plus logique aux menaces et insultes c'est de rendre la pareille, c'est comme ça que fonctionne les LLM vu qu'ils sont entrainés avec des milliards de textes humains.


De la même manière qu'un artisan traite avec soin ses créations, qu'une personne prends soin de sa maison, de son jardin et de ses plantes, l'ia ne doit pas faire exception. le but c'est n'est pas d'anthropomorphiser mais d'avoir du respect pour tout ce qui nous entoure.
Si tu traites une IA comme un objet (ce qu'elle est) et que cela dégrade ses résultats, c'est qu'on s'est violemment plantés dans le concept. Le 'respect' que je dois à mom tournevis c'est de ne pas péter la lame, sinon il ne vissera plus. Et encore, je peux le remplacer par un autre (rebooter l'IA), c'est sans conséquences.

Ce dont tu nous parles n'est pas le respect mais l'entretien (arroser les plantes, graisser ses outils), c'est-à-dire la préservation d'un investissement. C'est d'ailleurs ce que certains disent : Les corporations veulent qu'on se préoccupe du bien-être de leurs IA pour apprécier la valeur de leurs actifs.

La question de la conscience est un faux débat. Rappelle-toi le test de Turing : Si les réponses d'une machine sont indistinguables de celles d'un humain, cette machine est intelligente. Il semble que ce test soit réussi haut la main, pourtant nous ne sommes pas prêts à dire que nos machines d'aujourd'hui soient intelligentes. Nous sommes obligés de réviser la définition de l'intelligence, et de la même manière celle de conscience. Le piège est qu'on ajuste la définition en fonction de ce qu'on veut lui faire dire.

Il va être difficile de prétendre qu'il y a une différence de nature entre un simple algorithme et une machine intelligente. C'est toujours du code qui s'éxécute. Les systèmes de régulation cybernétiques à l'oeuvre dans l'industrie montrent déjà un embryon d'intelligence, pourtant nous n'avons jamais discuté de leur bien-être, encore moins d'un quelconque respect qui dépasse leur bonne maintenance.

Lis le mémo dr Fitch, la personne qui a été embauchée par Anthropic. “I want to be the type of person who cares about the possibility that a new species/kind of being might have interests of their own that matter morally. I have a strong intuition against creating new beings/intelligences without trying to understand and take into account their potential interests and wellbeing. AI systems seriously and treating them well could make it more likely that they return the favor if/when they’re more powerful than us.” forum.effectivealtruism.org https://forum.effectiveal[...]i-m-working-on-ai-welfare

Cette personne se préoccupe du bien-être de son tournevis au prétexte qu'il pourrait évoluer vers une nouvelle espèce. Et qu'il pourrait alors nous retourner la faveur. Faut être gentils avec l'IA pour qu'elle soit gentille avec nous quand elle sera plus forte. Mais bordel! Y'a un bouton REBOOT. La nouvelle espèce n'a aucune forme d'autonomie, elle est notre créature et soumise à notre bon vouloir.

Ces gens veulent passionément créer une nouvelle espèce en lâchant la bride à l'IA. Google a viré Margaret Mitchell pour moins que ça
Certifié tous gaz.
il y a un an
Quand elle sera suffisamment autonome oui, pour l'instant ce n'est pas le cas
:pote_de_ADlaurent:
il y a un an
Question sérieuse
:perplexe_1:
Je vais me fier a isaac azimov et te répondre que oui
GIF
il y a un an