InscriptionConnexion
https://www.perplexity.ai/

Si ça intéresse quelqu'un
:ok:
:Sele_Verre:
Import/export officiel de topic jvc sans vergogne
:Sele_Verre:
il y a 23 jours
Merci, je vais tester
:Stifler_pouce:
:ouitoi:
:Flechegohp:
:Gohp:
il y a 22 jours
Marche pas sur les vrais paywall, inutile sur les autres qu'on peut déjà facilement faire sauter
il y a 22 jours
Nul à chier
:ouitoi:
:Flechegohp:
:Gohp:
il y a 22 jours
y'a une ia pour pas payer de facture ou bof
:pizzacat:
il y a 21 jours
Merci bien mon khey
:trader:
il y a 21 jours
Pas l'impression que ça marche mais je peux me tromper
:mikkelsen_rayban:
Vous devez être au niveau
:gigachad:
pour voir ce message.
il y a 20 jours
Ne contourne pas le paywall
:CattoJournal:
il y a 19 jours
https://www.perplexity.ai/

Si ça intéresse quelqu'un
:ok:
Sinon l'astuce c'est de passer par https://archive.is .
Je ne ferais personnellement jamais confiance à un perroquet stochastique
:Shinjicafe:


Les LLMs peuvent prédire correctement des résultats dans un domaine spécifique, mais ils ne les « comprennent » pas pour autant. Un humain pourrait "savoir" comment fonctionne la mécanique d'une orbite, de la même façon qu'une expression algébrique ou un programme informatique peuvent prédire les positions de satellites, mais la "compréhension" de l'homme est différente.
J'entends par là que si un LLM peut répondre correctement à un prompt, cela signifie essentiellement que quelque part dans le modèle doit se trouver un ensemble de poids qui contiennent des informations nécessaires pour prédire de manière probabiliste une réponse. Mais du point de vue du LLM, il n'est jamais question de bonne ou de mauvaise réponse, il s'agit en somme de produire une réponse corrélée statistiquement avec le prompt.
il y a 17 jours