Inference-Provider

OpenAI-kompatible Endpoints (Ollama, vLLM, Exo, mlx-lm) mit Hardware-Zuordnung. „Verbindung testen" ruft /v1/models live ab.
Name Typ Endpoint Hardware Sampling-Intervall Aktionen
ExoBender exo http://100.64.0.2:52415 kim 1000 ms
ExoCluster exo http://100.64.0.2:52415 bender zoidberg 1000 ms
Ollama ollama http://100.64.0.4:11434/ kim 1000 ms
liteLLM litellm-bridge http://100.64.0.4:4000/ kim 1000 ms
llama-tq3 ollama http://100.64.0.4:8090/ kim 1000 ms