InscriptionConnexion
www.perplexity.ai https://www.perplexity.ai/

Si ça intéresse quelqu'un
:ok:
il y a un an
Merci, je vais tester
:Stifler_pouce:
C'est l'été ! Ton excuse pour rester affalé et ne pas BAISER ?!
:psycho_baise:
il y a un an
Marche pas sur les vrais paywall, inutile sur les autres qu'on peut déjà facilement faire sauter
il y a un an
Nul à chier
C'est l'été ! Ton excuse pour rester affalé et ne pas BAISER ?!
:psycho_baise:
il y a un an
y'a une ia pour pas payer de facture ou bof
:pizzacat:
il y a un an
Merci bien mon khey
:trader:
il y a un an
Pas l'impression que ça marche mais je peux me tromper
:mikkelsen_rayban:
Vous devez être au niveau
:gigachad:
pour voir ce message.
il y a un an
Ne contourne pas le paywall
:CattoJournal:
il y a un an
www.perplexity.ai https://www.perplexity.ai/

Si ça intéresse quelqu'un
:ok:
Sinon l'astuce c'est de passer par archive.is https://archive.is .
Je ne ferais personnellement jamais confiance à un perroquet stochastique
:Shinjicafe:


Les LLMs peuvent prédire correctement des résultats dans un domaine spécifique, mais ils ne les « comprennent » pas pour autant. Un humain pourrait "savoir" comment fonctionne la mécanique d'une orbite, de la même façon qu'une expression algébrique ou un programme informatique peuvent prédire les positions de satellites, mais la "compréhension" de l'homme est différente.
J'entends par là que si un LLM peut répondre correctement à un prompt, cela signifie essentiellement que quelque part dans le modèle doit se trouver un ensemble de poids qui contiennent des informations nécessaires pour prédire de manière probabiliste une réponse. Mais du point de vue du LLM, il n'est jamais question de bonne ou de mauvaise réponse, il s'agit en somme de produire une réponse corrélée statistiquement avec le prompt.
il y a un an