Run #40
qwopus3.5-9b-v3-q4:latest
unknown
· liteLLM
· gestartet 2026-05-10 23:21:51
completed
Aktueller Adapter
lm_eval_harness.ifeval
Samples
3353 / 3353
(100%)
Errors
541
Letzter Heartbeat
01:59:31
Beendet
2026-05-11 01:59:32
Cold-Start TTFT
Baseline — Streaming-Performance & Sanity · v1.0.0
Wie schnell antwortet das Modell auf den ersten Token-Stream nach Aufruf?
2325ms
Antwortzeit gesamt
·
100% pass
1 ok
·
0 failed
Sanity — Substring-Checks
Baseline — Streaming-Performance & Sanity · v1.0.0
Liefert der Endpoint überhaupt korrekte Antworten auf einfachste Fragen?
100%
3 ok
·
0 failed
Throughput — Tokens/sec
Baseline — Streaming-Performance & Sanity · v1.0.0
Wie viele Tokens pro Sekunde liefert das Modell unter realistischer Last?
100.4t/s
Tokens/sec (p50)
·
100% pass
6 ok
·
0 failed
GSM8K — Grundschulmathe
lm-evaluation-harness · v1.0.0+humaneval-unsafe-flag
Kann das Modell mehrstufig rechnen und Zwischenergebnisse halten?
1.5%
40 ok
·
2598 failed
humaneval
lm-evaluation-harness · v1.0.0+humaneval-unsafe-flag
0%
0 ok
·
164 failed
IFEval — Instruction Following
lm-evaluation-harness · v1.0.0+humaneval-unsafe-flag
Folgt das Modell strikten Anweisungen ohne Eigeninterpretation?
—
0 ok
·
0 failed
·
541 errors
›
Live-View
läuft
beendet
Heartbeat
kein Heartbeat
elapsed
Cancel angefordert
/
(%)
/
· err
Keine Sub-Benchmarks erfasst.
Noch keine Events.
Run beendet. Scrolle nach unten zur KI-Auswertung oder lade den vollständigen Event-Verlauf.
KI-Bewertung
KI-Bewertung wird im Hintergrund erstellt — Seite in ~30 s neu laden.
Stärken & Schwächen
Auf Basis der Pass-Raten dieses RunsStärken
Keine Sub-Benchmarks im "good"-Bereich.
Schwächen
- humaneval (0%)
- GSM8K — Grundschulmathe (1.5%)
Telemetrie
GPU-Auslastung (%)
VRAM (MB)
Snapshots
›
Konfiguration
{
"name": "Kurzcheck",
"provider_id": null,
"model_id": null,
"benchmarks": [
{
"adapter_key": "baseline",
"sub_benchmarks": [
"cold_start",
"throughput",
"sanity"
],
"threshold_override": null
},
{
"adapter_key": "lm_eval_harness",
"sub_benchmarks": [
"gsm8k",
"humaneval",
"ifeval"
],
"threshold_override": null
}
],
"tags": [],
"notes": null,
"model": {
"base_name": "qwopus3.5-9b-v3-q4:latest",
"quantization": "unknown",
"format": "gguf",
"source_url": null,
"build_notes": "selbst kompiliertes llmama mit TurboQuant3 für Gewichte",
"checksum": null
}
}
›
Provider
{
"name": "liteLLM",
"type": "litellm-bridge",
"endpoint_url": "http://100.64.0.4:4000/",
"api_key_env_var": null,
"sampling_params": [],
"provider_specific": [],
"telemetry_sample_interval_ms": 1000
}
›
Hardware
[
{
"name": "kim",
"hostname": "100.64.0.4",
"gpu_description": "RTX 5080 16GB",
"cpu": "Ryzen 9800 X3D",
"ram": "64GB DDR5",
"storage": "1TB+4TB SSD",
"network": null,
"notes": null
}
]
›
System
{
"php_version": "8.4.21",
"os": "Linux",
"os_release": "6.8.0-111-generic",
"symfony_version": "7.4.10",
"provider_version_hint": null,
"recorded_at": "2026-05-10T23:21:52+02:00"
}
Log-Verzeichnis
/home/webuser/htdocs/llmbench.mandarin.dev/dev/app/var/logs/runs/40