Inference-Provider
OpenAI-kompatible Endpoints (Ollama, vLLM, Exo, mlx-lm) mit Hardware-Zuordnung. „Verbindung testen" ruft
/v1/models live ab.| Name | Typ | Endpoint | Hardware | Sampling-Intervall | Aktionen |
|---|---|---|---|---|---|
| ExoBender | exo | http://100.64.0.2:52415 | kim | 1000 ms | |
| ExoCluster | exo | http://100.64.0.2:52415 | bender zoidberg | 1000 ms | |
| Ollama | ollama | http://100.64.0.4:11434/ | kim | 1000 ms | |
| liteLLM | litellm-bridge | http://100.64.0.4:4000/ | kim | 1000 ms | |
| llama-tq3 | ollama | http://100.64.0.4:8090/ | kim | 1000 ms |