Sinon l'astuce c'est de passer par
https://archive.is .
Je ne ferais personnellement jamais confiance à un perroquet stochastique
Les LLMs peuvent prédire correctement des résultats dans un domaine spécifique, mais ils ne les « comprennent » pas pour autant. Un humain pourrait "savoir" comment fonctionne la mécanique d'une orbite, de la même façon qu'une expression algébrique ou un programme informatique peuvent prédire les positions de satellites, mais la "compréhension" de l'homme est différente.
J'entends par là que si un LLM peut répondre correctement à un prompt, cela signifie essentiellement que quelque part dans le modèle doit se trouver un ensemble de poids qui contiennent des informations nécessaires pour prédire de manière probabiliste une réponse. Mais du point de vue du LLM, il n'est jamais question de bonne ou de mauvaise réponse, il s'agit en somme de produire une réponse corrélée statistiquement avec le prompt.