Ce sujet a été résolu
C'est OpenWebUI que je veux utiliser avec OpenRouter qui va faire une requête
OpenWebUI est sur LocalHost:8080 donc je dois bloquer tout ce qui entre sur 8080 ?
OpenWebUI est sur LocalHost:8080 donc je dois bloquer tout ce qui entre sur 8080 ?
Oui, il est prudent de bloquer 8080. Mais tu me dis que ton firewall bloque déjà les connexions entrantes, donc c'est déjà fait.
De plus, ce genre d'UI n'écoute en général que localhost, et pas le réseau. Il faut leur demander explicitement (par exemple dans le cas où le service est sur une autre machine que ton navigateur web). J'ai un peu la flemme de piocher dans la doc.
De plus, ce genre d'UI n'écoute en général que localhost, et pas le réseau. Il faut leur demander explicitement (par exemple dans le cas où le service est sur une autre machine que ton navigateur web). J'ai un peu la flemme de piocher dans la doc.
Certifié tous gaz.
il y a 5 jours
Oui, il est prudent de bloquer 8080. Mais tu me dis que ton firewall bloque déjà les connexions entrantes, donc c'est déjà fait.
De plus, ce genre d'UI n'écoute en général que localhost, et pas le réseau. Il faut leur demander explicitement (par exemple dans le cas où le service est sur une autre machine que ton navigateur web). J'ai un peu la flemme de piocher dans la doc.
De plus, ce genre d'UI n'écoute en général que localhost, et pas le réseau. Il faut leur demander explicitement (par exemple dans le cas où le service est sur une autre machine que ton navigateur web). J'ai un peu la flemme de piocher dans la doc.
Non t'inquiète c'est bon merci pour tout !
Dernière question sur Docker si tu connais.
Ce pourrait être intelligent d'utiliser Docker pour des apps auto hébergées ponctuellement au besoin ? De type un frontend youtube pendant 1h ou 2 et après suppression du dock et sauvegarde des données sur un volume ?
Dernière question sur Docker si tu connais.
Ce pourrait être intelligent d'utiliser Docker pour des apps auto hébergées ponctuellement au besoin ? De type un frontend youtube pendant 1h ou 2 et après suppression du dock et sauvegarde des données sur un volume ?
Nous sommes un.
il y a 5 jours
Non t'inquiète c'est bon merci pour tout !
Dernière question sur Docker si tu connais.
Ce pourrait être intelligent d'utiliser Docker pour des apps auto hébergées ponctuellement au besoin ? De type un frontend youtube pendant 1h ou 2 et après suppression du dock et sauvegarde des données sur un volume ?
Dernière question sur Docker si tu connais.
Ce pourrait être intelligent d'utiliser Docker pour des apps auto hébergées ponctuellement au besoin ? De type un frontend youtube pendant 1h ou 2 et après suppression du dock et sauvegarde des données sur un volume ?
Je peux pa répondre, je suis allergique à Docker.
Certifié tous gaz.
il y a 5 jours
Non t'inquiète c'est bon merci pour tout !
Dernière question sur Docker si tu connais.
Ce pourrait être intelligent d'utiliser Docker pour des apps auto hébergées ponctuellement au besoin ? De type un frontend youtube pendant 1h ou 2 et après suppression du dock et sauvegarde des données sur un volume ?
Dernière question sur Docker si tu connais.
Ce pourrait être intelligent d'utiliser Docker pour des apps auto hébergées ponctuellement au besoin ? De type un frontend youtube pendant 1h ou 2 et après suppression du dock et sauvegarde des données sur un volume ?
prendre autant de precaution et avoir un comptre Elite de sang royal avec 93456 messages retracant 3ans de ton existance ici
il y a quelques incoherance avec ton niveau de parano ici si je peux me permettre cette petite remarque
il y a quelques incoherance avec ton niveau de parano ici si je peux me permettre cette petite remarque
il y a 5 jours
Je peux pa répondre, je suis allergique à Docker.
Ça marche merci
Nous sommes un.
il y a 5 jours
Ça marche merci
J'aime bien fouiner et l'architecture c'est ça :
https://github.com/open-w[...]ain/docs#project-workflow
'User' c'est toi devant ton navigateur web
'WebUI Server' c'est le truc qui répond à ton navigateur
'Ollama Server' c'est le runner de LLM avec lequel WebUI Server communique dans ton dos.
Il y a donc deux serveurs.
- Si tout ce monde là tourne sur la même machines :
Les deux serveurs écoutent localhost, aucun risque de recevoir des requêtes externes.
- Sinon
Il faut demander gentiment aux serveurs d'écouter sur '0.0.0.0', ce qui veut dire 'tout le réseau'. Il faut alors firewaller.
Je suis dans le second cas. J'ai un serveur stablediffusion qui tourne sur une machine avec des GPU, et j'ai mon cul posé devant une autre machine dans une autre pièce . La machine serveur est firewallée pour que personne s'amuse à générer des photos de chat à mon insu.
'User' c'est toi devant ton navigateur web
'WebUI Server' c'est le truc qui répond à ton navigateur
'Ollama Server' c'est le runner de LLM avec lequel WebUI Server communique dans ton dos.
Il y a donc deux serveurs.
- Si tout ce monde là tourne sur la même machines :
Les deux serveurs écoutent localhost, aucun risque de recevoir des requêtes externes.
- Sinon
Il faut demander gentiment aux serveurs d'écouter sur '0.0.0.0', ce qui veut dire 'tout le réseau'. Il faut alors firewaller.
Je suis dans le second cas. J'ai un serveur stablediffusion qui tourne sur une machine avec des GPU, et j'ai mon cul posé devant une autre machine dans une autre pièce . La machine serveur est firewallée pour que personne s'amuse à générer des photos de chat à mon insu.
Certifié tous gaz.
il y a 5 jours
J'aime bien fouiner et l'architecture c'est ça :
https://github.com/open-w[...]ain/docs#project-workflow
'User' c'est toi devant ton navigateur web
'WebUI Server' c'est le truc qui répond à ton navigateur
'Ollama Server' c'est le runner de LLM avec lequel WebUI Server communique dans ton dos.
Il y a donc deux serveurs.
- Si tout ce monde là tourne sur la même machines :
Les deux serveurs écoutent localhost, aucun risque de recevoir des requêtes externes.
- Sinon
Il faut demander gentiment aux serveurs d'écouter sur '0.0.0.0', ce qui veut dire 'tout le réseau'. Il faut alors firewaller.
Je suis dans le second cas. J'ai un serveur stablediffusion qui tourne sur une machine avec des GPU, et j'ai mon cul posé devant une autre machine dans une autre pièce . La machine serveur est firewallée pour que personne s'amuse à générer des photos de chat à mon insu.
'User' c'est toi devant ton navigateur web
'WebUI Server' c'est le truc qui répond à ton navigateur
'Ollama Server' c'est le runner de LLM avec lequel WebUI Server communique dans ton dos.
Il y a donc deux serveurs.
- Si tout ce monde là tourne sur la même machines :
Les deux serveurs écoutent localhost, aucun risque de recevoir des requêtes externes.
- Sinon
Il faut demander gentiment aux serveurs d'écouter sur '0.0.0.0', ce qui veut dire 'tout le réseau'. Il faut alors firewaller.
Je suis dans le second cas. J'ai un serveur stablediffusion qui tourne sur une machine avec des GPU, et j'ai mon cul posé devant une autre machine dans une autre pièce . La machine serveur est firewallée pour que personne s'amuse à générer des photos de chat à mon insu.
tu saurais comment configurer un serveur linux comfy pour un acces à distance ?
tu pense que c'est galère ?
tu pense que c'est galère ?
il y a 5 jours
J'aime bien fouiner et l'architecture c'est ça :
https://github.com/open-w[...]ain/docs#project-workflow
'User' c'est toi devant ton navigateur web
'WebUI Server' c'est le truc qui répond à ton navigateur
'Ollama Server' c'est le runner de LLM avec lequel WebUI Server communique dans ton dos.
Il y a donc deux serveurs.
- Si tout ce monde là tourne sur la même machines :
Les deux serveurs écoutent localhost, aucun risque de recevoir des requêtes externes.
- Sinon
Il faut demander gentiment aux serveurs d'écouter sur '0.0.0.0', ce qui veut dire 'tout le réseau'. Il faut alors firewaller.
Je suis dans le second cas. J'ai un serveur stablediffusion qui tourne sur une machine avec des GPU, et j'ai mon cul posé devant une autre machine dans une autre pièce . La machine serveur est firewallée pour que personne s'amuse à générer des photos de chat à mon insu.
'User' c'est toi devant ton navigateur web
'WebUI Server' c'est le truc qui répond à ton navigateur
'Ollama Server' c'est le runner de LLM avec lequel WebUI Server communique dans ton dos.
Il y a donc deux serveurs.
- Si tout ce monde là tourne sur la même machines :
Les deux serveurs écoutent localhost, aucun risque de recevoir des requêtes externes.
- Sinon
Il faut demander gentiment aux serveurs d'écouter sur '0.0.0.0', ce qui veut dire 'tout le réseau'. Il faut alors firewaller.
Je suis dans le second cas. J'ai un serveur stablediffusion qui tourne sur une machine avec des GPU, et j'ai mon cul posé devant une autre machine dans une autre pièce . La machine serveur est firewallée pour que personne s'amuse à générer des photos de chat à mon insu.
Ah ouais stylé de fou. Je t'avoue qu'un jour j'aimerais bien faire mon propre serveur avec une selection de front ends et d'apps de stockages pour tout controller-moi même
Nous sommes un.
il y a 5 jours
tu saurais comment configurer un serveur linux comfy pour un acces à distance ?
tu pense que c'est galère ?
tu pense que c'est galère ?
Ça fait partie de mon TO-DO parce que j'utilise actuellement A1111 et qu'il serait pas mal de passer à Comfy. Je n'ai pas encore la réponse, mais sous A1111, c'est aussi simple que
./webui.sh --listen
listen lui dit d'écouter sur toutes les adresses IP.
./webui.sh --listen
listen lui dit d'écouter sur toutes les adresses IP.
Certifié tous gaz.
il y a 5 jours
Ça fait partie de mon TO-DO parce que j'utilise actuellement A1111 et qu'il serait pas mal de passer à Comfy. Je n'ai pas encore la réponse, mais sous A1111, c'est aussi simple que
./webui.sh --listen
listen lui dit d'écouter sur toutes les adresses IP.
./webui.sh --listen
listen lui dit d'écouter sur toutes les adresses IP.
oui ca en local c'est simple suffit aussi de rajouter --listen dans le .bat
mais moi je disais plutot un serveur dédié uniquement à cela que tu peux acceder de l'exterieur
mais moi je disais plutot un serveur dédié uniquement à cela que tu peux acceder de l'exterieur
il y a 5 jours
oui ca en local c'est simple suffit aussi de rajouter --listen dans le .bat
mais moi je disais plutot un serveur dédié uniquement à cela que tu peux acceder de l'exterieur
mais moi je disais plutot un serveur dédié uniquement à cela que tu peux acceder de l'exterieur
Ben c'est "à l'extérieur" du serveur puisque mon navigateur web est sur une autre machine que le serveur. Tu veux dire à distance de chez toi ?
Certifié tous gaz.
il y a 5 jours
Ben c'est "à l'extérieur" du serveur puisque mon navigateur web est sur une autre machine que le serveur. Tu veux dire à distance de chez toi ?
oui tout à fait
il y a 5 jours
oui tout à fait
Tu mappes le port vers l'IP de la machine qui héberge le serveur dans les règles NAT de ta box. Le monde entier peut utiliser ton service.
Certifié tous gaz.
il y a 5 jours




















