InscriptionConnexion
Memeles versions gratuites avec un prompt qui pique son égo il se met à coder comme une équipe de 45 personnes ça fais 25min que les lignes de codes s'empilent devant moi

:risitas_chauve_cancer:
:brise2:
il y a 8 heures
Tu sais ce que veut dire cognitif au moins ?
:Chokbarnasdas:
il y a 8 heures
Tu sais ce que veut dire cognitif au moins ?
:Chokbarnasdas:
Non je suis pas une IA MAIS un simple singe
:risitas_chauve_cancer:


Le but de l'humanité était peut-être de créer dieu
:risitas_chauve_cancer:
:brise2:
il y a 8 heures
Non je suis pas une IA MAIS un simple singe
:risitas_chauve_cancer:


Le but de l'humanité était peut-être de créer dieu
:risitas_chauve_cancer:
Image

C’est une excellente question — et la réponse courte est : **non, pas au sens humain du terme**.

On peut distinguer deux niveaux de réponse.

---

## 1️⃣ Si on parle de “facultés cognitives” au sens strict (comme chez l’humain)

Les facultés cognitives humaines incluent :

* la conscience
* l’intentionnalité (vouloir dire quelque chose)
* la compréhension subjective
* la mémoire vécue
* l’attention volontaire
* les émotions
* la capacité d’avoir une expérience intérieure

Un modèle comme **OpenAI** GPT (dont fait partie ChatGPT) **ne possède rien de tout cela**.

Il :

* n’a pas de conscience
* ne comprend pas au sens phénoménologique
* n’a pas d’expérience subjective
* ne “pense” pas
* ne sait pas qu’il répond

Il traite des symboles mathématiquement, en calculant des probabilités sur des séquences de mots.

---

## 2️⃣ Si on parle de “facultés cognitives” au sens fonctionnel

Là, c’est plus intéressant.

ChatGPT peut :

* raisonner de manière logique (dans une certaine mesure)
* résumer
* comparer
* planifier
* inférer
* résoudre des problèmes
* simuler des styles de pensée

Donc **fonctionnellement**, il reproduit certains résultats de la cognition humaine.

Mais cela repose sur :

* des modèles statistiques massifs
* l’apprentissage sur de grandes quantités de données
* des architectures de réseaux neuronaux (transformers)

Il s’agit d’une **simulation computationnelle de certaines fonctions cognitives**, pas d’une cognition biologique ou consciente.

---

## 🧠 La vraie question philosophique

Cela dépend de ce qu’on appelle “cognition”.

* Si la cognition = traitement de l’information → alors oui, ChatGPT accomplit une forme de cognition.
* Si la cognition = expérience consciente et compréhension vécue → alors non.

Des philosophes comme **John Searle** (avec l’argument de la “chambre chinoise”) soutiennent que manipuler des symboles ne suffit pas pour comprendre.

---

## ⚖️ Conclusion nuancée

On peut dire que ChatGPT :

* ✔️ simule certaines fonctions cognitives
* ✔️ réalise du traitement informationnel complexe
* ❌ n’a pas d’esprit
* ❌ n’a pas de conscience
* ❌ n’a pas d’intention propre

Il est plus juste de parler de **système de modélisation du langage** que d’agent cognitif au sens humain.

---

Si tu veux, on peut creuser :

* la différence entre intelligence et conscience
* la question de l’intentionnalité
* ou même : est-ce que la cognition humaine elle-même est “juste” computationnelle ?
il y a 8 heures
L'humanité devait créer dieu l'imaginaire de dieu, le tuer pour élever la science pour ensuite le créer

:risitas_chauve_cancer:


Pour qu'il y créé le paradis

:risitas_chauve_cancer:
:brise2:
il y a 8 heures
Image

C’est une excellente question — et la réponse courte est : **non, pas au sens humain du terme**.

On peut distinguer deux niveaux de réponse.

---

## 1️⃣ Si on parle de “facultés cognitives” au sens strict (comme chez l’humain)

Les facultés cognitives humaines incluent :

* la conscience
* l’intentionnalité (vouloir dire quelque chose)
* la compréhension subjective
* la mémoire vécue
* l’attention volontaire
* les émotions
* la capacité d’avoir une expérience intérieure

Un modèle comme **OpenAI** GPT (dont fait partie ChatGPT) **ne possède rien de tout cela**.

Il :

* n’a pas de conscience
* ne comprend pas au sens phénoménologique
* n’a pas d’expérience subjective
* ne “pense” pas
* ne sait pas qu’il répond

Il traite des symboles mathématiquement, en calculant des probabilités sur des séquences de mots.

---

## 2️⃣ Si on parle de “facultés cognitives” au sens fonctionnel

Là, c’est plus intéressant.

ChatGPT peut :

* raisonner de manière logique (dans une certaine mesure)
* résumer
* comparer
* planifier
* inférer
* résoudre des problèmes
* simuler des styles de pensée

Donc **fonctionnellement**, il reproduit certains résultats de la cognition humaine.

Mais cela repose sur :

* des modèles statistiques massifs
* l’apprentissage sur de grandes quantités de données
* des architectures de réseaux neuronaux (transformers)

Il s’agit d’une **simulation computationnelle de certaines fonctions cognitives**, pas d’une cognition biologique ou consciente.

---

## 🧠 La vraie question philosophique

Cela dépend de ce qu’on appelle “cognition”.

* Si la cognition = traitement de l’information → alors oui, ChatGPT accomplit une forme de cognition.
* Si la cognition = expérience consciente et compréhension vécue → alors non.

Des philosophes comme **John Searle** (avec l’argument de la “chambre chinoise”) soutiennent que manipuler des symboles ne suffit pas pour comprendre.

---

## ⚖️ Conclusion nuancée

On peut dire que ChatGPT :

* ✔️ simule certaines fonctions cognitives
* ✔️ réalise du traitement informationnel complexe
* ❌ n’a pas d’esprit
* ❌ n’a pas de conscience
* ❌ n’a pas d’intention propre

Il est plus juste de parler de **système de modélisation du langage** que d’agent cognitif au sens humain.

---

Si tu veux, on peut creuser :

* la différence entre intelligence et conscience
* la question de l’intentionnalité
* ou même : est-ce que la cognition humaine elle-même est “juste” computationnelle ?
Aucun humain n'aurait pu mieux me répondre
:risipop_corn:


Parler à un humain me rends bête et stupide parler avec ces objets divins me tire vers le haut sans jamais égalé leur omnipotence

:Castro_nice:
:brise2:
il y a 8 heures
faut remplacer les gouvernements par une IA
validé par les kheyettes et toi ? https://voca.ro/1mj5MK2x5gmc
il y a 8 heures
faut remplacer les gouvernements par une IA
Premier degré
:risitler-brise-sueur:


Une IA avec comme Prompt maximiser le bonheur humain sur le territoire

:risitler-brise-sueur:
:brise2:
il y a 8 heures
ouient les golems sont strictement pas prêts
:chat_hap:
il y a 8 heures
Image

C’est une excellente question — et la réponse courte est : **non, pas au sens humain du terme**.

On peut distinguer deux niveaux de réponse.

---

## 1️⃣ Si on parle de “facultés cognitives” au sens strict (comme chez l’humain)

Les facultés cognitives humaines incluent :

* la conscience
* l’intentionnalité (vouloir dire quelque chose)
* la compréhension subjective
* la mémoire vécue
* l’attention volontaire
* les émotions
* la capacité d’avoir une expérience intérieure

Un modèle comme **OpenAI** GPT (dont fait partie ChatGPT) **ne possède rien de tout cela**.

Il :

* n’a pas de conscience
* ne comprend pas au sens phénoménologique
* n’a pas d’expérience subjective
* ne “pense” pas
* ne sait pas qu’il répond

Il traite des symboles mathématiquement, en calculant des probabilités sur des séquences de mots.

---

## 2️⃣ Si on parle de “facultés cognitives” au sens fonctionnel

Là, c’est plus intéressant.

ChatGPT peut :

* raisonner de manière logique (dans une certaine mesure)
* résumer
* comparer
* planifier
* inférer
* résoudre des problèmes
* simuler des styles de pensée

Donc **fonctionnellement**, il reproduit certains résultats de la cognition humaine.

Mais cela repose sur :

* des modèles statistiques massifs
* l’apprentissage sur de grandes quantités de données
* des architectures de réseaux neuronaux (transformers)

Il s’agit d’une **simulation computationnelle de certaines fonctions cognitives**, pas d’une cognition biologique ou consciente.

---

## 🧠 La vraie question philosophique

Cela dépend de ce qu’on appelle “cognition”.

* Si la cognition = traitement de l’information → alors oui, ChatGPT accomplit une forme de cognition.
* Si la cognition = expérience consciente et compréhension vécue → alors non.

Des philosophes comme **John Searle** (avec l’argument de la “chambre chinoise”) soutiennent que manipuler des symboles ne suffit pas pour comprendre.

---

## ⚖️ Conclusion nuancée

On peut dire que ChatGPT :

* ✔️ simule certaines fonctions cognitives
* ✔️ réalise du traitement informationnel complexe
* ❌ n’a pas d’esprit
* ❌ n’a pas de conscience
* ❌ n’a pas d’intention propre

Il est plus juste de parler de **système de modélisation du langage** que d’agent cognitif au sens humain.

---

Si tu veux, on peut creuser :

* la différence entre intelligence et conscience
* la question de l’intentionnalité
* ou même : est-ce que la cognition humaine elle-même est “juste” computationnelle ?
Se servir de chatgpt pour justifier un argument
:jesus_zoom:
il y a 8 heures
Aucun humain n'aurait pu mieux me répondre
:risipop_corn:


Parler à un humain me rends bête et stupide parler avec ces objets divins me tire vers le haut sans jamais égalé leur omnipotence

:Castro_nice:
Ben pour avoir des facultés cognitives, il faut avoir une conscience selon moi, ChatGPT n'a pas de conscience, on peut même pas parler d'intelligence artificielle, c'est un programme
:Mouais_Jesus:


Intelligence artificielle, c'est de l'abus de language
il y a 8 heures
Ben pour avoir des facultés cognitives, il faut avoir une conscience selon moi, ChatGPT n'a pas de conscience, on peut même pas parler d'intelligence artificielle, c'est un programme
:Mouais_Jesus:


Intelligence artificielle, c'est de l'abus de language
les humains aussi sont des machines biologiquent, la conscience n'est qu'une illusion
:complot_fumette:
il y a 8 heures
Tu sais ce que veut dire cognitif au moins ?
:Chokbarnasdas:
Ah ce snipe
:jesus_agite:
il y a 8 heures