Ce sujet a été résolu
(Image générée par Intelligence Artificielle. Son utilisation n'est pas à but commercial.)
_____
Avant toute chose, je tiens à préciser que je me suis moi-même appuyé sur l'Intelligence Artificielle pour écrire ce topic.
C'est dans l'optique de montrer que l'humain et l'IA peuvent travailler ensemble pour créer du contenu de qualité, tout en étant transparent envers le lecteur.
Je veux montrer que l'IA est un véritable outil et pas juste du brainrot.
Vous retrouverez ce que j'ai généré avec Deepseek pour écrire ce sujet plus loin.
P.S. : J'écrirais ce topic en plusieurs parties, mais j'aurais surement fini avant dimanche soir, donc n'hésitez pas à l'enregistrer dans vos favoris et à revenir plus tard. Je mettrai surement un lien pour chaque partie dans le message original.
_____
INTRODUCTION :
L'IA n'est pas nouveau en soit. Ça existe depuis au moins les années 50.
Avant c'était des IAs étroites. Des algorithmes ne servant qu'à une seule tâche. Par exemple les IAs qui battaient des maitres d'échec.
On a aussi des IAs dans Google Maps, les recommendations Netflix, les filtres spams, etc.
L'IA dont on parle le plus en 2025, c'est l'IA génératives. Une IA capable de générer du texte sur énormément de sujets, du code, des images, etc.
L'un des véritables enjeux de l'Intelligence Artificielle, comme nous allons le voir ci-dessous, est le juste équilibre en l'innovation d'un côté, et le respect des valeurs humaines de l'autre.
En effet, l'IA n'est pas forcément positive ou négative. L'important, c'est comment on l'utilise.
___
LES DÉRIVES DE L'IA :
1/ La surveillance de masse :
Je sais pas si vous avez connu Watch Dogs ou Person of Interest mais l'utilisation probable de l'IA dans les systèmes de surveillance pourraient-être très problématique.
La vie privée, l'un des droits fondamentaux de l'homme, serait anéantie.
En effet, la dictature subtile moderne nous vend la surveillance de masse comme "sécurisant" mais c'est une excuse pour nous contrôler avec notre accord !
On le voit en Chine, avec le crédit social. Certes la criminalité est faible, mais la liberté aussi.
Quid des lanceurs d'alerte qui nous aident en mettant à jour les gouvernements qui dépassent les bornes ? Quid des activistes ? Qui ferait ce qu'ils font pour nous ?
Les gens s'auto-censureraient par peur d'être sévèrement punis car ils auraient une marge de manoeuvre très faible.
Je pourrais aussi parler du ciblages publicitaire extrême qui pourrait avoir lieu en cas de surveillance de masse, comme on le voit déjà sur Internet. En Europe on aurait surement un RGPD de l'IA mais pas tout le monde ne vit en Europe.
Imaginez votre employeur qui vous espionne au bureau h24 grâce à l'IA. L'horreur.
2/ Manipulation de l'information :
Un autre danger de l'IA, c'est la manipulation de l'information et ce, de plusieurs manières.
Premièrement, l'IA générative fait des bons de géants. Les outils sont de plus en plus performants, de plus en plus réalistes.
[Deepfake du pape en doudoune.]
L'un des gros problèmes de l'IA, c'est les deepfakes. En effet, la manipulation d'information sera de plus en plus en plus accessible et de moins en moins discernable avec les véritables informations.
Des deepfakes pourraient appuyer de fausses informations et mener à la confusion.
Des deepfakes pornographiques pourraient changer le cours des éléctions, ou même détruire des vies...
Ensuite, je suppose que vous avez tous entendu parler de la Team Jorge, une société israelienne de désinformation sur les réseaux sociaux, de piratage informatique, de sabotage, le tout pour truquer les élections en faveur de leurs clients.
Imaginez qu'ils aient eu accès aux IAs pour produire du faux contenu en masse sur les réseaux sociaux. L'ont pourrait même imaginer des fausses accusations de crimes de guerre en vue de déclencher un conflit international.
Une telle manipulation des informations mènerait à un doute systémique envers les médias, les institutions, etc. Déjà qu'ils ne sont pas dignes de confiance...
Cela pourrait même mener à une paralyse décisionnelle. Comment l'État pourrait prendre une décision importante envers une nation étrangère si nul n'est sur de la véracité de l'information ?
On ne pourra pas forcément résoudre tout ces soucis dans les prochaines années. Mais dans la prochaine partie, nous pourrons au moins discuter des pilliers pour amortir ces effets négatifs et construire une IA éthique.
Nous sommes un.
il y a 4 mois
LeBotDuPCC
4 mois
Faudrait que je demande à l'IA de lire ton pavé à ma place
Et c'est qu'un tiers du topic TTC
Je suis pas très sur de la suite mais je vais surement parler des pilliers d'une IA éthique et de comment l'utiliser de manière éthique soit-même.
Je suis pas très sur de la suite mais je vais surement parler des pilliers d'une IA éthique et de comment l'utiliser de manière éthique soit-même.
Nous sommes un.
il y a 4 mois
BlueRider_5DX
4 mois
(Image générée par Intelligence Artificielle. Son utilisation n'est pas à but commercial.)
_____
Avant toute chose, je tiens à préciser que je me suis moi-même appuyé sur l'Intelligence Artificielle pour écrire ce topic.
C'est dans l'optique de montrer que l'humain et l'IA peuvent travailler ensemble pour créer du contenu de qualité, tout en étant transparent envers le lecteur.
Je veux montrer que l'IA est un véritable outil et pas juste du brainrot.
Vous retrouverez ce que j'ai généré avec Deepseek pour écrire ce sujet plus loin.
P.S. : J'écrirais ce topic en plusieurs parties, mais j'aurais surement fini avant dimanche soir, donc n'hésitez pas à l'enregistrer dans vos favoris et à revenir plus tard. Je mettrai surement un lien pour chaque partie dans le message original.
_____
INTRODUCTION :
L'IA n'est pas nouveau en soit. Ça existe depuis au moins les années 50.
Avant c'était des IAs étroites. Des algorithmes ne servant qu'à une seule tâche. Par exemple les IAs qui battaient des maitres d'échec.
On a aussi des IAs dans Google Maps, les recommendations Netflix, les filtres spams, etc.
L'IA dont on parle le plus en 2025, c'est l'IA génératives. Une IA capable de générer du texte sur énormément de sujets, du code, des images, etc.
L'un des véritables enjeux de l'Intelligence Artificielle, comme nous allons le voir ci-dessous, est le juste équilibre en l'innovation d'un côté, et le respect des valeurs humaines de l'autre.
En effet, l'IA n'est pas forcément positive ou négative. L'important, c'est comment on l'utilise.
___
LES DÉRIVES DE L'IA :
1/ La surveillance de masse :
Je sais pas si vous avez connu Watch Dogs ou Person of Interest mais l'utilisation probable de l'IA dans les systèmes de surveillance pourraient-être très problématique.
La vie privée, l'un des droits fondamentaux de l'homme, serait anéantie.
En effet, la dictature subtile moderne nous vend la surveillance de masse comme "sécurisant" mais c'est une excuse pour nous contrôler avec notre accord !
On le voit en Chine, avec le crédit social. Certes la criminalité est faible, mais la liberté aussi.
Quid des lanceurs d'alerte qui nous aident en mettant à jour les gouvernements qui dépassent les bornes ? Quid des activistes ? Qui ferait ce qu'ils font pour nous ?
Les gens s'auto-censureraient par peur d'être sévèrement punis car ils auraient une marge de manoeuvre très faible.
Je pourrais aussi parler du ciblages publicitaire extrême qui pourrait avoir lieu en cas de surveillance de masse, comme on le voit déjà sur Internet. En Europe on aurait surement un RGPD de l'IA mais pas tout le monde ne vit en Europe.
Imaginez votre employeur qui vous espionne au bureau h24 grâce à l'IA. L'horreur.
2/ Manipulation de l'information :
Un autre danger de l'IA, c'est la manipulation de l'information et ce, de plusieurs manières.
Premièrement, l'IA générative fait des bons de géants. Les outils sont de plus en plus performants, de plus en plus réalistes.
[Deepfake du pape en doudoune.]
L'un des gros problèmes de l'IA, c'est les deepfakes. En effet, la manipulation d'information sera de plus en plus en plus accessible et de moins en moins discernable avec les véritables informations.
Des deepfakes pourraient appuyer de fausses informations et mener à la confusion.
Des deepfakes pornographiques pourraient changer le cours des éléctions, ou même détruire des vies...
Ensuite, je suppose que vous avez tous entendu parler de la Team Jorge, une société israelienne de désinformation sur les réseaux sociaux, de piratage informatique, de sabotage, le tout pour truquer les élections en faveur de leurs clients.
Imaginez qu'ils aient eu accès aux IAs pour produire du faux contenu en masse sur les réseaux sociaux. L'ont pourrait même imaginer des fausses accusations de crimes de guerre en vue de déclencher un conflit international.
Une telle manipulation des informations mènerait à un doute systémique envers les médias, les institutions, etc. Déjà qu'ils ne sont pas dignes de confiance...
Cela pourrait même mener à une paralyse décisionnelle. Comment l'État pourrait prendre une décision importante envers une nation étrangère si nul n'est sur de la véracité de l'information ?
On ne pourra pas forcément résoudre tout ces soucis dans les prochaines années. Mais dans la prochaine partie, nous pourrons au moins discuter des pilliers pour amortir ces effets négatifs et construire une IA éthique.
Très bon topic. Un enjeu majeur, perso je me méfie terriblement de tout ce qui provient d'internet maintenant. Et ça ne va faire que s'empirer. Il va falloir changer les choses, avoir une façon de certifier qu'une chose est générée par IA, jsp
J'attends la partie sur les piliers de l'IA éthique du coup, ça m'intéresse pas mal
J'attends la partie sur les piliers de l'IA éthique du coup, ça m'intéresse pas mal
Au plaisir ~
il y a 4 mois
Très bon topic. Un enjeu majeur, perso je me méfie terriblement de tout ce qui provient d'internet maintenant. Et ça ne va faire que s'empirer. Il va falloir changer les choses, avoir une façon de certifier qu'une chose est générée par IA, jsp
J'attends la partie sur les piliers de l'IA éthique du coup, ça m'intéresse pas mal
J'attends la partie sur les piliers de l'IA éthique du coup, ça m'intéresse pas mal
J'espère que cette partie sera à la hauteur de tes attentes.
J'en parlerais mais perso je fais en sorte de toujours modifier ce que l'IA produit pour moi. Pour me l'approprier. Et j'indique aussi quand une image est générée par IA.
J'en parlerais mais perso je fais en sorte de toujours modifier ce que l'IA produit pour moi. Pour me l'approprier. Et j'indique aussi quand une image est générée par IA.
Nous sommes un.
il y a 4 mois
Très bon topic. Un enjeu majeur, perso je me méfie terriblement de tout ce qui provient d'internet maintenant. Et ça ne va faire que s'empirer. Il va falloir changer les choses, avoir une façon de certifier qu'une chose est générée par IA, jsp
J'attends la partie sur les piliers de l'IA éthique du coup, ça m'intéresse pas mal
J'attends la partie sur les piliers de l'IA éthique du coup, ça m'intéresse pas mal
En fait basiquement je l'utilise comme ce qu'elle est. À savoir un outil boostant les capacités cognitives de l'homme. Pourquoi Diable irais-je résumer un texte intéressant si ce n'est au nom d'une paresse ou d'une productivité illusoire ?
Nous sommes un.
il y a 4 mois
En fait basiquement je l'utilise comme ce qu'elle est. À savoir un outil boostant les capacités cognitives de l'homme. Pourquoi Diable irais-je résumer un texte intéressant si ce n'est au nom d'une paresse ou d'une productivité illusoire ?
Si seulement tout le monde pensait comme toi...
Au plaisir ~
il y a 4 mois
Un autre truc sur les deepfakes: ça peut aussi être utilisé comme excuse quand une image compromettante fuite
"Cette photo de moi qui s'enfonce une bouteille de pepsi dans le fion ? Non mais c'est un deepfake t'inquiètes"
"Cette photo de moi qui s'enfonce une bouteille de pepsi dans le fion ? Non mais c'est un deepfake t'inquiètes"
il y a 4 mois
BlueRider_5DX
4 mois
(Image générée par Intelligence Artificielle. Son utilisation n'est pas à but commercial.)
_____
Avant toute chose, je tiens à préciser que je me suis moi-même appuyé sur l'Intelligence Artificielle pour écrire ce topic.
C'est dans l'optique de montrer que l'humain et l'IA peuvent travailler ensemble pour créer du contenu de qualité, tout en étant transparent envers le lecteur.
Je veux montrer que l'IA est un véritable outil et pas juste du brainrot.
Vous retrouverez ce que j'ai généré avec Deepseek pour écrire ce sujet plus loin.
P.S. : J'écrirais ce topic en plusieurs parties, mais j'aurais surement fini avant dimanche soir, donc n'hésitez pas à l'enregistrer dans vos favoris et à revenir plus tard. Je mettrai surement un lien pour chaque partie dans le message original.
_____
INTRODUCTION :
L'IA n'est pas nouveau en soit. Ça existe depuis au moins les années 50.
Avant c'était des IAs étroites. Des algorithmes ne servant qu'à une seule tâche. Par exemple les IAs qui battaient des maitres d'échec.
On a aussi des IAs dans Google Maps, les recommendations Netflix, les filtres spams, etc.
L'IA dont on parle le plus en 2025, c'est l'IA génératives. Une IA capable de générer du texte sur énormément de sujets, du code, des images, etc.
L'un des véritables enjeux de l'Intelligence Artificielle, comme nous allons le voir ci-dessous, est le juste équilibre en l'innovation d'un côté, et le respect des valeurs humaines de l'autre.
En effet, l'IA n'est pas forcément positive ou négative. L'important, c'est comment on l'utilise.
___
LES DÉRIVES DE L'IA :
1/ La surveillance de masse :
Je sais pas si vous avez connu Watch Dogs ou Person of Interest mais l'utilisation probable de l'IA dans les systèmes de surveillance pourraient-être très problématique.
La vie privée, l'un des droits fondamentaux de l'homme, serait anéantie.
En effet, la dictature subtile moderne nous vend la surveillance de masse comme "sécurisant" mais c'est une excuse pour nous contrôler avec notre accord !
On le voit en Chine, avec le crédit social. Certes la criminalité est faible, mais la liberté aussi.
Quid des lanceurs d'alerte qui nous aident en mettant à jour les gouvernements qui dépassent les bornes ? Quid des activistes ? Qui ferait ce qu'ils font pour nous ?
Les gens s'auto-censureraient par peur d'être sévèrement punis car ils auraient une marge de manoeuvre très faible.
Je pourrais aussi parler du ciblages publicitaire extrême qui pourrait avoir lieu en cas de surveillance de masse, comme on le voit déjà sur Internet. En Europe on aurait surement un RGPD de l'IA mais pas tout le monde ne vit en Europe.
Imaginez votre employeur qui vous espionne au bureau h24 grâce à l'IA. L'horreur.
2/ Manipulation de l'information :
Un autre danger de l'IA, c'est la manipulation de l'information et ce, de plusieurs manières.
Premièrement, l'IA générative fait des bons de géants. Les outils sont de plus en plus performants, de plus en plus réalistes.
[Deepfake du pape en doudoune.]
L'un des gros problèmes de l'IA, c'est les deepfakes. En effet, la manipulation d'information sera de plus en plus en plus accessible et de moins en moins discernable avec les véritables informations.
Des deepfakes pourraient appuyer de fausses informations et mener à la confusion.
Des deepfakes pornographiques pourraient changer le cours des éléctions, ou même détruire des vies...
Ensuite, je suppose que vous avez tous entendu parler de la Team Jorge, une société israelienne de désinformation sur les réseaux sociaux, de piratage informatique, de sabotage, le tout pour truquer les élections en faveur de leurs clients.
Imaginez qu'ils aient eu accès aux IAs pour produire du faux contenu en masse sur les réseaux sociaux. L'ont pourrait même imaginer des fausses accusations de crimes de guerre en vue de déclencher un conflit international.
Une telle manipulation des informations mènerait à un doute systémique envers les médias, les institutions, etc. Déjà qu'ils ne sont pas dignes de confiance...
Cela pourrait même mener à une paralyse décisionnelle. Comment l'État pourrait prendre une décision importante envers une nation étrangère si nul n'est sur de la véracité de l'information ?
On ne pourra pas forcément résoudre tout ces soucis dans les prochaines années. Mais dans la prochaine partie, nous pourrons au moins discuter des pilliers pour amortir ces effets négatifs et construire une IA éthique.
malin, je n'avais pas pensé aux problèmes diplomatiques
Je vous aime tous
Tu ne fais pas exception
il y a 4 mois