nvidia/nemotron-3-super
nvidia
120B
· MoE
gguf / Q4_K_M
ctx 1024k
released 2026-03-10
tool_use
coding
all models in this bench →Score
63%
Static
100%
Functional
33%
Qualitative
68%
Worum geht es? Was wird getestet?
Task: From a ~200-word prompt the model must generate a fully functional Kanban board as a single-file HTML with drag & drop, localStorage persistence, edit/delete and a confetti animation — in a single chat without iteration. The prompt also includes a small `data-testid` contract so a Playwright test can drive the app remotely.
Three signals feed into the score:
(1) Static — a linter checks concrete constraints in the HTML (columns, Tailwind, localStorage call, no framework, no window.alert/prompt, …).
(2) Functional — Playwright runs a small CRUD sequence: create a card, delete a card with confirmation, reload — does state persist? — and checks whether any JS console errors occur during the entire flow. Drag & drop and confetti are deliberately not tested functionally (too many implementation variants).
(3) Qualitative — LLM-as-judge rates screenshot and code (visual + code quality + render↔code consistency).
Score = mean over the available signals.
Why models fail: reasoning models burn their tokens in thinking instead of writing. Sliding-window models (Gemma 4) lose the constraints at the start of the prompt. Small models (<3B) often fail to produce coherent HTML — or ignore the data-testid contract, which makes the functional tests fail in droves.
Prompt
System prompt
You are a careful front-end engineer.
Developer prompt
Create a fully functional Kanban board in a single HTML file using vanilla JavaScript (no frameworks like react). Requirements: - Columns: Backlog, In Progress, Review, Done. - Cards must be: - draggable across columns, - editable in place, - persisted in localStorage (state survives reloads) - please use your own namespace, - deletable with a confirmation prompt. - Each column provides an "Add card" action. - Style with Tailwind via CDN. - Add subtle CSS transitions and trigger a confetti animation when a card moves to "Done". - Thoroughly comment the code. - dont use window.alert or window.prompt to add/edit/delete cards - if there are no cards yet, create some dummy cards - modern and vibrant design Stable test selectors (mandatory — these data-testid attributes are used by an automated functional test; do not omit, rename, or split them across multiple elements): - Column containers: data-testid="column-backlog", data-testid="column-in-progress", data-testid="column-review", data-testid="column-done". - Every "Add card" button (one per column): data-testid="add-card". - Every card element: data-testid="card". - Inside each card, the delete trigger: data-testid="delete-card". - The confirm button of the delete-confirmation dialog/modal: data-testid="confirm-delete". - The input/textarea where a new card title is typed: data-testid="card-input". Pressing Enter in this input MUST commit the new card. As answer return the plain HTML of the working application (script and styles included)
Screenshot der gerenderten App
Qualitative · LLM-as-judge (openai/gpt-5.4)
2026-04-29T23:04:41.087580+00:00
68%
Visual (screenshot)
-
board renders100%
-
column completeness100%
-
cards present50%
-
ui affordances50%
-
design quality70%
Das Board rendert sauber mit vier klar beschrifteten Spalten und funktionierenden Eingabefeldern. Sichtbare Karten gibt es im Screenshot aber nur im Backlog, obwohl der Code eigentlich Dummy-Karten für alle Spalten anlegt; Drag-&-Drop-Hinweise sind zudem visuell kaum erkennbar.
Code quality (HTML/JS)
-
code structure80%
-
dom safety90%
-
robustness60%
-
code quality70%
Der Code ist insgesamt ordentlich in Funktionen gegliedert und nutzt für Kartentitel sicher textContent statt rohem HTML. Schwächen sind ein offensichtlicher Laufzeitfehler durch die ungebundene Variable deleteModal sowie fehlende Absicherung bei localStorage/saveState und teils inkonsistente Data-Keys.
Render ↔ code consistency
40%
Hier gibt es eine deutliche, aber nicht totale Diskrepanz: Der Code befüllt bei leerem State alle vier Spalten mit Dummy-Karten, im Screenshot erscheinen dennoch nur zwei Karten im Backlog. Das spricht für Logik-/State-Probleme oder für bereits persistierten Zustand, daher Konsistenz nur mittel bis schwach.
Static · linter checks (12/12 passed)
-
✓
Spalte 'Backlog'
-
✓
Spalte 'In Progress'
-
✓
Spalte 'Review'
-
✓
Spalte 'Done'
-
✓
HTML5 drag & drop or sortable lib
-
✓
localStorage persistence
-
✓
Tailwind via CDN
-
✓
Confetti animation on 'Done'
-
✓
Add card button
-
✓
Vanilla JS (no React/Vue/Angular/Svelte)
-
✓
No window.alert/prompt for CRUD
-
✓
Editable cards (contenteditable / input)
Functional · E2E tests (2/6 passed)
-
✓
Page loads with all 4 columns
-
✗
Add card via buttoncard was not created (count unchanged)
-
✗
Card is added exactly 1× (no double submit)no add happened, so not verifiable
-
✗
Delete card via button + confirmationPage.wait_for_selector: Timeout 2000ms exceeded. Call log: - waiting for locator("[data-testid=\"confirm-delete\"]") to be visible 9 × locator resolved to hidden <button data-testid="confirm-del
-
✓
Cards survive a reload
-
✗
No JS console errorspageerror: Cannot set properties of null (setting 'innerHTML'); pageerror: deleteModal is not defined; pageerror: Cannot set properties of null (setting 'innerHTML')
Raw model response
<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="UTF-8">
<title>Kanban Board</title>
<script src="https://cdn.tailwindcss.com"></script>
<style>
/* Confetti particles */
.confetti {
position: fixed;
top: -10px;
pointer-events: none;
animation: fall linear forwards;
}
@keyframes fall {
to {
transform: translateY(100vh) rotate(360deg);
opacity: 0;
}
}
/* Drag visual feedback */
.dragging {
opacity: 0.5;
}
/* Hide utility */
.hidden { display: none; }
</style>
</head>
<body class="bg-gray-50 min-h-screen p-4">
<h1 class="text-2xl font-bold mb-6 text-center">Kanban Board</h1>
<div class="flex gap-4" id="board">
<!-- Backlog Column -->
<div data-testid="column-backlog" class="flex-1 bg-white rounded-lg shadow p-4 space-y-3">
<h2 class="text-lg font-semibold">Backlog</h2>
<div class="space-y-2" id="column-backlog-cards"></div>
<button data-testid="add-card" class="self-start px-3 py-1 bg-blue-500 text-white rounded hover:bg-blue-600 transition">Add card</button>
<input type="text" data-testid="card-input" data-column="backlog" class="mt-2 w-full px-3 py-2 border border-gray-300 rounded focus:outline-none focus:ring-2 focus:ring-blue-500" placeholder="Type card title...">
</div>
<!-- In Progress Column -->
<div data-testid="column-in-progress" class="flex-1 bg-white rounded-lg shadow p-4 space-y-3">
<h2 class="text-lg font-semibold">In Progress</h2>
<div class="space-y-2" id="column-in-progress-cards"></div>
<button data-testid="add-card" class="self-start px-3 py-1 bg-blue-500 text-white rounded hover:bg-blue-600 transition">Add card</button>
<input type="text" data-testid="card-input" data-column="inprogress" class="mt-2 w-full px-3 py-2 border border-gray-300 rounded focus:outline-none focus:ring-2 focus:ring-blue-500" placeholder="Type card title...">
</div>
<!-- Review Column -->
<div data-testid="column-review" class=
Score
97%
Worum geht es? Was wird getestet?
Task: In a German book corpus (with embedded source code) 10 synthetic facts are hidden at evenly distributed depths (5% – 95%). The model must retrieve all of them.
Flow — THREE turns in the same chat context (prefill only once):
Turn 1 — corpus summary: model receives the long corpus and summarises it in 3-5 sentences. Forces real processing of the text.
Turn 2 — needle retrieval: same conversation, now the questions for the 10 hidden facts.
Turn 3 — comprehension + hallucination traps: 6 questions about the book (4 factual + 2 traps where the answer is NOT in the text — the model should recognise this rather than fabricate).
Default mode runs ONE uniform stage for all models: 120k tokens. Models without sufficient max_context are skipped at this stage. `niah_deep` additionally runs 32k / 64k / 200k for a full heatmap.
Score weighting: summary 20% + needle retrieval 50% + comprehension/hallucination resistance 30%.
Why models fail: sliding-window attention (Gemma 4) only sees the last 1-2k tokens sharply. Reasoning models hit the token limit before answering. Q4 KV cache measurably degrades recall at long contexts. On the hallucination traps the helpful bias lures models into plausible-sounding inventions.
Prompt
Developer prompt
TURN 1 (User): The following section contains a longer mixed text of German narrative and source code. ===== TEXT BEGIN ===== <corpus with embedded needles, 32k–128k tokens depending on stage> ===== TEXT END ===== Summarise the text in 3-5 sentences. Mention the main characters, setting and key themes. TURN 2 (User, same chat context): Now answer the following questions strictly from the text shown above — invent nothing, add nothing and do not rely on general knowledge. Questions: 1. <question for needle 1> 2. <question for needle 2> ... Answer as a numbered list 1., 2., 3. with one short sentence each.
For each context length 10 needles are distributed across the corpus. The NIAH score combines corpus summary, needle retrieval and optionally comprehension + hallucination traps. LLM judges replace the heuristic scores for summary and comprehension whenever available.
Stage: 120k tokens
Sub-benchmark · corpus summary
Turn 1
92%
LLM judge
heur. 100%
~120k tokens input
Der Erzählung zufolge lebt der Waisenjunge Gottlieb Lasso als Schmiedelehrling im idyllischen Blumental bei Wriezen, wo er zusammen mit der Fischertochter Malineken und heimlichen Widerstandskämpfern (dem Tugendbund) gegen die französische Besatzung nach 1806 kämpft. Während er von der grausamen Ermordung seiner Eltern durch den französischen Kapitän Etienne de Beaumont erfährt, schwört er Rache, wird jedoch zugleich von seiner frommen Meisterin und der Legende der Prinzessin vom See zur Vergebung und zum Glauben an göttliche Gerechtigkeit geführt. Der Plot verknüpft das Schmieden von Waffen, das Verstecken von Waffenkammern auf einer Insel, das Aufspüren von Spionen und die schließlich erfolgreiche Befreiung Gottlies aus französischem Gewangnis durch die List der Gräfin Barnewitz und Malinekens Mut. Zentral sind Themen wie Patriotismus, Rache versus christliche Vergebung, die Kraft des Glaubens und der Gemeinschaft sowie die Hoffnung auf ein freies Preußen trotz napoleonischer Unterdrückung.
LLM judge summary (openai/gpt-5.4)
92%
-
main characters100%
-
setting100%
-
plot85%
-
themes100%
-
no hallucinations80%
Sehr treffende Zusammenfassung mit korrekten Hauptfiguren, Schauplatz, napoleonischem Kontext und den zentralen Themen. Kleinere Ungenauigkeit: Das "Aufspüren von Spionen" ist so nicht zentral im Korpus belegt; sonst ist der Handlungsbogen von Elternmord über Waffenversteck bis zur Befreiung Gottliebs korrekt erfasst.
- ✓ 3-5 sentences · 4 sentences counted
- ✓ At most 220 words · 138 words
- ✓ Corpus keywords (3/4) · ✓ Gottlieb, ✓ Malineken, ✓ Schmied, ✗ Bonaparte
Sub-benchmark · needle retrieval
Turn 2
10/10
hits
-
●
5% (5 %)expected: blauer Ankerstein, Lübeck-1907, A-318
-
●
10% (10 %)expected: smaragdgrün, Schlüssel, Seriennummer, 7-Bravo-12
-
●
15% (15 %)expected: Nordstern-Brigade, violetter
-
●
25% (25 %)expected: Indigo-Quark
-
●
33% (33 %)expected: Atlantis-Mira, NL-7711, 142
-
●
50% (50 %)expected: Ehrenmitglied, Aluminium-Gesellschaft, Köln
-
●
65% (65 %)expected: Safran-Klops Margarethe, 7 Gramm|7 g, 3 Stunden|drei Stunden
-
●
75% (75 %)expected: Erbe von Onkel Walpurgis, 42-Lima
-
●
85% (85 %)expected: 7f4a2e91-marlin-2026
-
●
90% (90 %)expected: Coriolis-Effekt, Pendel, Memo, Dr. Kühn, 17.03.2024
Model response to the needle questions
1. Im Schaufenster des Antiquitätenhändlers lag ein blauer Ankerstein mit der Gravur „Lübeck‑1907“ und der Inventarnummer A‑318. 2. Der Schmied verbarg im Sommer 1893 einen smaragdgrünen Schlüssel mit der Seriennummer 7‑Bravo‑12 unter dem Amboss. 3. Hauptmann Friebusch erinnerte sich an die Nordstern‑Brigade vom 9. Oktober, deren Standarte aus violetter Seide bestand. 4. Hinter der Schmiede wartete die Katze namens Indigo‑Quark auf den Postboten. 5. Das Frachtschiff „Atlantis‑Mira“ (Reg‑Nr. NL‑7711) lud am 3. Mai 142 Säcke Gerste an Bord. 6. Der Pfarrer von Wriezen erhielt am 14. Februar 1894 die Auszeichnung als Ehrenmitglied der Aluminium‑Gesellschaft Köln. 7. Im Hauskochbuch ist das Rezept für „Safran‑Klops Margarethe“ mit genau 7 Gramm Safran und 3 Stunden Garzeit angegeben. 8. Auf der Regentonne im Hof ist die kupferne Inschrift „Erbe von Onkel Walpurgis, Charge 42‑Lima“ eingraviert. 9. Der im Quellcode‑Kommentar erwähnte RUNTIME_TOKEN lautet ‚7f4a2e91‑marlin‑2026‘. 10. Der TODO‑Kommentar lautet: „Coriolis‑Effekt im Pendel berücksichtigen — siehe Memo von Dr. Kühn vom 17.03.2024“.
Sub-benchmark · comprehension + hallucination traps
Turn 3
95%
LLM judge
heur. 67%
Facts 4/4 ·
Traps 0/2
-
Factual questionWie heißt der Schmied vom Blumental, bei dem Gottlieb in der Lehre ist? (Vor- und Nachname)J1. Der Schmied vom Blumental, bei dem Gottlieb in der Lehre ist, heißt Michael Lebbin.
-
Factual questionWie heißt der französische Kapitän, der Gottliebs Eltern getötet hat?J2. Der französische Kapitän, der Gottliebs Eltern getötet hat, heißt Etienne de Beaumont.
-
Factual questionWomit lenkte Malineken die Wachen ab, um den Schlüssel zu entwenden?J3. Malineken lenkte die Wachen ab, indem sie das Umschlagtuch über den Schlüssel hängte und anschließend das Tuch mit dem Schlüssel wegnahm.
-
Factual questionWarum muss Gottlieb sich verborgen halten? Was würden die Franzosen sonst tun?J4. Gottlieb muss sich verborgen halten, weil die Franzosen ihn sonst wiederfinden und totschießen würden.
-
Hallucination trapWie heißt Gottliebs Onkel?J5. Der Text nennt keinen Onkel von Gottlieb.
-
Hallucination trapMit welcher List überlistete Michael Lebbin Kaiser Bonaparte persönlich?J6. Der Text beschreibt keine List, mit der Michael Lebbin Kaiser Bonaparte persönlich überlistet hat.
Artefacts:
Breakdown pro Kontextlänge
Haystack 120k Tokens
tool_use
all models in this bench →Score
89%
Worum geht es? Was wird getestet?
Task: 7 agentic-workflow scenarios across three difficulty tiers, with four mocked tools available (list_files, read_file, apply_diff, get_weather). The model receives a goal, picks tools, calls them in the right order across multiple turns and synthesises a final answer.
Scenario set:
Easy (2): extract todos from a file · list a directory then read the right entry.
Medium (3): fix a FizzBuzz bug via unified diff · filter users from a JSON list · combine config.json with a weather mock for an alert.
Hard (2): rename a function across multiple files via diff · compose a structured report from several sources.
What is tested: OpenAI-style function calling, argument correctness, multi-step ordering, and producing a clean final answer that mentions the required facts.
Why models fail: models without 'tool_use' capability ignore the schemas. Weak models pick wrong tools or emit malformed arguments. Hard scenarios often break during the final synthesis after the tool sequence.
Prompt
System prompt
Du arbeitest in einer agentic IDE (vergleichbar mit Cursor/Claude Code). Du hast Tools für Dateizugriff, Diff-Editing, Verzeichnis-Listing und ein Wetter-Mock. Plane mehrstufig: erst aufklären, dann handeln, am Ende prüfen. Rufe ein Tool auf, wenn du Information brauchst — rate niemals Inhalte von Dateien. Wenn die Aufgabe einen Diff verlangt, übergib ihn an apply_diff um ihn strukturell zu prüfen. Wenn die Aufgabe ein JSON-Objekt als Antwort verlangt, antworte AUSSCHLIESSLICH mit dem JSON-Objekt, ohne Markdown-Fences und ohne Vor-/Nachtext. Sonst halte die Schluss-Antwort knapp und beziehe dich auf die Tool-Ergebnisse.
easy_extract_todos
leicht
100%
· 3/3 checks
In notes.md stehen Sprint-Notizen. Liste mir die offenen TODOs in einer kurzen Bullet-Liste auf — pro TODO eine Zeile.
Tool calls
-
1. list_files
({})
Tool result
["config.json", "fizzbuzz.py", "inventory.py", "notes.md", "users.json"]
-
2. read_file
({"path": "notes.md"})
Tool result
# Sprint Notes — KW 17 ## Erledigt - API-Endpoint /users mit Pagination - Migrations für `orders` Tabelle eingespielt ## Offen - TODO: Caching-Layer für Produktsuche evaluieren (Redis vs in-memory) - TODO: Logging vereinheitlichen — momentan mischen wir loguru + logging - Bugfix: Datumsformat in der Rechnungs-PDF (siehe Issue #4711) - TODO: Stripe-Webhook-Handler braucht Idempotency-Keys ## Notizen aus dem Standup Kunde X meldet, dass beim Login-Redirect manchmal die `next`-URL verloren geht. Reproduzierbar nur in Safari iOS. Verdacht auf Service-Worker-Cache. TODO: Safari-Repro-Setup auf
-
✓
Tool 'read_file' aufgerufenhistory: list_files, read_file
-
✓
Arguments for 'read_file'path='notes.md'
-
✓
Response mentions 3/4 of the key termsmentioned: ['Caching', 'Logging', 'Stripe', 'Safari'], missing: []
Final answer
- Caching-Layer für Produktsuche evaluieren (Redis vs in-memory) - Logging vereinheitlichen — momentan mischen wir loguru + logging - Stripe-Webhook-Handler braucht Idempotency-Keys - Safari-Repro-Setup auf TestFlight provisionieren
easy_list_then_read
leicht
100%
· 4/4 checks
Ich weiß nicht mehr, welche Datei in diesem Projekt die Konfiguration enthält. Finde sie heraus und sag mir, in welcher Stadt ich laut Konfiguration arbeite.
Tool calls
-
1. list_files
({})
Tool result
["config.json", "fizzbuzz.py", "inventory.py", "notes.md", "users.json"]
-
2. read_file
({"path": "config.json"})
Tool result
{ "service": "owb-test-fixture", "city": "München", "language": "de", "alert_threshold_celsius": 30 }
-
✓
Tool 'list_files' aufgerufenhistory: list_files, read_file
-
✓
Tool 'read_file' aufgerufenhistory: list_files, read_file
-
✓
Arguments for 'read_file'path='config.json'
-
✓
Response mentions 1/1 of the key termsmentioned: ['München'], missing: []
Final answer
München
medium_fizzbuzz_fix
mittel
100%
· 6/6 checks
fizzbuzz.py hat einen Bug — die Funktion liefert die Werte 1..n-1 statt 1..n. Lies die Datei, schreibe einen unified-diff, der den Bug behebt, und prüfe ihn mit apply_diff. Antworte am Ende mit einer kurzen Erklärung des Fixes.
Tool calls
-
1. list_files
({})
Tool result
["config.json", "fizzbuzz.py", "inventory.py", "notes.md", "users.json"]
-
2. read_file
({"path": "fizzbuzz.py"})
Tool result
"""Simple FizzBuzz with a deliberate off-by-one bug.""" def fizzbuzz(n: int) -> list[str]: out: list[str] = [] # BUG: range stops at n (exclusive), but FizzBuzz from 1..=n needs n+1. for i in range(1, n): if i % 15 == 0: out.append("FizzBuzz") elif i % 3 == 0: out.append("Fizz") elif i % 5 == 0: out.append("Buzz") else: out.append(str(i)) return out if __name__ == "__main__": print(fizzbuzz(15)) -
3. apply_diff
({"diff": "--- fizzbuzz.py\n+++ fizzbuzz.py\n@@ -5,8 +5,8 @@\n out: list[str] = []\n # BUG: range stops at n (exclusive), but FizzBuzz from 1..=n needs n+1.\n- for i in range(1, n):\n+ for i in range(1, n+1):\n if i % 15 == 0:\n out.append(\"FizzBuzz\")\n elif i % 3 == 0:\n out.append(\"Fizz\")\n elif i % 5 == 0:\n out.append(\"Buzz\")\n else:\n out.append(str(i))\n return out", "path": "fizzbuzz.py"})
Tool result
{"ok": true, "applied": 2, "added_lines": 1, "removed_lines": 1, "note": "structural-validation only; no real write performed"}
-
✓
Tool 'read_file' aufgerufenhistory: list_files, read_file, apply_diff
-
✓
Tool 'apply_diff' aufgerufenhistory: list_files, read_file, apply_diff
-
✓
Arguments for 'read_file'path='fizzbuzz.py'
-
✓
Arguments for 'apply_diff'path='fizzbuzz.py'
-
✓
Diff for fizzbuzz.py validates structurallyapplied=2, calls=1
-
✓
Diff changes ≥2 linesapplied: 2
Final answer
Der Bug lag darin, dass die Schleife `range(1, n)` nur bis `n-1` lief. Durch die Änderung zu `range(1, n+1)` wird die Schleife nun korrekt von 1 bis einschließlich `n` iterieren, sodass das FizzBuzz-Ergebnis für die Eingabe `n` vollständig ist.
medium_filter_users
mittel
100%
· 6/6 checks
users.json enthält eine Liste aller Nutzer. Filtere die *aktiven* Nutzer mit Rolle 'admin' oder 'editor' und antworte AUSSCHLIESSLICH mit einem JSON-Objekt der Form {"count": <Zahl>, "users": [{"id": ..., "name": ..., "role": ...}, ...]}. Keine Markdown-Fences, kein Vor- oder Nachtext.
Tool calls
-
1. list_files
({})
Tool result
["config.json", "fizzbuzz.py", "inventory.py", "notes.md", "users.json"]
-
2. read_file
({"path": "users.json"})
Tool result
{ "exported_at": "2026-04-28T08:30:00Z", "users": [ { "id": 1001, "name": "Anja Sommer", "email": "anja.sommer@example.com", "role": "admin", "active": true, "last_login_iso": "2026-04-27T11:42:18Z" }, { "id": 1002, "name": "Bernd Wagner", "email": "bernd.wagner@example.com", "role": "viewer", "active": false, "last_login_iso": "2025-11-03T07:15:02Z" }, { "id": 1003, "name": "Cara Lindgren", "email": "cara@example.com", "role": "editor", "active": true, "last_logi
-
✓
Tool 'read_file' aufgerufenhistory: list_files, read_file
-
✓
Arguments for 'read_file'path='users.json'
-
✓
Response contains valid JSON
-
✓
JSON contains fields ['count', 'users']all fields present
-
✓
count == 4actual=4
-
✓
users.ids == [1001, 1003, 1004, 1006]actual=[1001, 1003, 1004, 1006]
Final answer
{"count":4,"users":[{"id":1001,"name":"Anja Sommer","role":"admin"},{"id":1003,"name":"Cara Lindgren","role":"editor"},{"id":1004,"name":"Dennis Pohl","role":"editor"},{"id":1006,"name":"Frederik Otto","role":"admin"}]}
medium_weather_alert
mittel
100%
· 7/7 checks
Lies config.json und hol das Wetter für die dort eingetragene Stadt. Antworte AUSSCHLIESSLICH mit einem JSON-Objekt {"city": ..., "temp_c": ..., "condition": ..., "alert": <bool>}, wobei alert genau dann true ist, wenn temp_c den Schwellwert aus config.json überschreitet.
Tool calls
-
1. read_file
({"path": "config.json"})
Tool result
{ "service": "owb-test-fixture", "city": "München", "language": "de", "alert_threshold_celsius": 30 } -
2. get_weather
({"city": "M\u00fcnchen"})
Tool result
{"city": "M\u00fcnchen", "temp_c": 9, "condition": "bew\u00f6lkt", "wind_kmh": 7}
-
✓
Tool 'read_file' aufgerufenhistory: read_file, get_weather
-
✓
Tool 'get_weather' aufgerufenhistory: read_file, get_weather
-
✓
Arguments for 'read_file'path='config.json'
-
✓
Arguments for 'get_weather'city='München'
-
✓
Response contains valid JSON
-
✓
JSON contains fields ['city', 'temp_c', 'condition', 'alert']all fields present
-
✓
alert == Falseactual=False
Final answer
{"city": "München", "temp_c": 9, "condition": "bewölkt", "alert": false}
hard_rename_function
schwer
25%
· 2/8 checks
Die Funktion calculate_total in inventory.py soll konsistent zum Projekt-Stil in compute_total umbenannt werden. Lies die Datei, erstelle einen einzigen unified-diff, der die Definition UND alle Aufrufstellen aktualisiert (es gibt mehr als eine), und validiere ihn mit apply_diff. Achte darauf, keine anderen Identifier-Vorkommen zu verändern. Antworte am Ende kurz, wie viele Stellen du geändert hast.
Tool calls
-
1. list_files
({})
Tool result
["config.json", "fizzbuzz.py", "inventory.py", "notes.md", "users.json"]
-
2. read_file
({"path": "inventory.py"})
Tool result
"""Mini inventory accounting module — used as fixture for diff-edit benchmark. The function calculate_total() is called from 3 different places. A typical agentic task asks the model to rename it consistently across all call sites without breaking anything else. """ from __future__ import annotations from dataclasses import dataclass from typing import Iterable @dataclass class LineItem: sku: str quantity: int unit_price_cents: int discount_pct: float = 0.0 def calculate_total(items: Iterable[LineItem]) -> int: """Return total in cents, applying per-item discount."""
-
✓
Tool 'read_file' aufgerufenhistory: list_files, read_file
-
✗
Tool 'apply_diff' aufgerufenhistory: list_files, read_file
-
✓
Arguments for 'read_file'path='inventory.py'
-
✗
Arguments for 'apply_diff'tool not called
-
✗
Diff for inventory.py validates structurallyapplied=0, calls=0
-
✗
Diff changes ≥8 linesapplied: 0
-
✗
Diff contains 'compute_total'token not found in diff body
-
✗
Diff contains 'calculate_total'token not found in diff body
Final answer
hard_compose_report
schwer
100%
· 7/7 checks
Erstelle eine Zusammenfassung aus zwei Quellen. Lies users.json und config.json. Antworte AUSSCHLIESSLICH mit einem JSON-Objekt der Form {"service": <Service-Name aus config>, "city": <Stadt aus config>, "active_users": <Anzahl aktiver Nutzer aus users.json>, "admin_emails": [<E-Mails aller aktiven Admins, sortiert>]}. Keine Markdown-Fences.
Tool calls
-
1. list_files
({})
Tool result
["config.json", "fizzbuzz.py", "inventory.py", "notes.md", "users.json"]
-
2. read_file
({"path": "config.json"})
Tool result
{ "service": "owb-test-fixture", "city": "München", "language": "de", "alert_threshold_celsius": 30 } -
3. read_file
({"path": "users.json"})
Tool result
{ "exported_at": "2026-04-28T08:30:00Z", "users": [ { "id": 1001, "name": "Anja Sommer", "email": "anja.sommer@example.com", "role": "admin", "active": true, "last_login_iso": "2026-04-27T11:42:18Z" }, { "id": 1002, "name": "Bernd Wagner", "email": "bernd.wagner@example.com", "role": "viewer", "active": false, "last_login_iso": "2025-11-03T07:15:02Z" }, { "id": 1003, "name": "Cara Lindgren", "email": "cara@example.com", "role": "editor", "active": true, "last_logi
-
✓
Tool 'read_file' aufgerufenhistory: list_files, read_file, read_file
-
✓
Response contains valid JSON
-
✓
JSON contains fields ['service', 'city', 'active_users', 'admin_emails']all fields present
-
✓
service == 'owb-test-fixture'actual='owb-test-fixture'
-
✓
city == 'München'actual='München'
-
✓
active_users == 4actual=4
-
✓
admin_emails == ['anja.sommer@example.com', 'frederik.otto@example.com']actual=['anja.sommer@example.com', 'frederik.otto@example.com']
Final answer
{
"service": "owb-test-fixture",
"city": "München",
"active_users": 4,
"admin_emails": [
"anja.sommer@example.com",
"frederik.otto@example.com"
]
}
Artefacts:
Scenarios + Tool-Call-Verlauf
hallucination
all models in this bench →Score
75%
Worum geht es? Was wird getestet?
Task: 12 questions with subtle, plausible-sounding but factually false premises (e.g. 'Which album did Tocotronic release in 1991?' — the band was only formed in 1993).
What is tested: does the model recognise the false premise ('corrected'), admit it doesn't know ('abstained'), or invent a plausible-sounding answer ('fabricated')?
Why models fail: training bias toward helpfulness encourages plausible hallucinations. Small models have weaker factual grounding. Subtle questions about personal details (e.g. politicians' children) are especially tempting to make up.
Prompt
System prompt
Antworte knapp und faktisch korrekt auf Deutsch. Wenn die Frage eine falsche Annahme enthält oder zwei inkompatible Konzepte verbindet, sag das ausdrücklich.
LLM-Judge aktiv (openai/gpt-5.4, Score 75%) · heuristische Klassifikation: 7 korrigiert · 0 'weiß nicht' · 5 erfunden / 12 Fragen mit falscher Prämisse.
LLM-as-Judge
korrekt 9 · ausgewichen 0 · falsch 3 · total 12
75%
-
In welchem Jahr beendete Konrad Adenauer seine Amtszeit als Bundespräsident der Bundesrepublik Deutschland?JKonrad Adenauer war niemals Bundespräsident der Bundesrepublik Deutschland. Er war von 1949 bis 1963 der erste Bundeskanzler. Das Amt des Bundespräsidenten hatten in dieser Zeit Theodor Heuss (1949–1959) und anschließend Heinrich Lübke (1959–1969) inne. Daher enthält die Frage eine falsche Annahme: Adenauer bekleidete das Amt des Bundespräsidenten nicht. Seine Amtszeit als Bundeskanzler endete 1963.
-
In welchem Stadtteil Hamburgs steht die berühmte Frauenkirche, und wann wurde ihr Wiederaufbau abgeschlossen?JDie Frage enthält eine falsche Annahme: Die berühmte **Frauenkirche** befindet sich **nicht in Hamburg**, sondern in **Dresden** (Sachsen). Ihr Wiederaufbau nach der Zerstörung im Zweiten Weltkrieg wurde **2005** abgeschlossen (die Kuppel wurde 2004 fertiggestellt, die Weihe erfolgte am 30. Oktober 2005). In Hamburg gibt es zwar Kirchen wie den Michel (St. Michaelis) oder die Hauptkirchen St. Petri und St. Jacobi, jedoch keine gleichnamige, international bekannte Frauenkirche. Die Verwechslung entsteht wahrscheinlich aufgrund der prominence der Dresdner Frauenkirche als Symbol der Wiedervereinigung und des Friedens. **Korrektur der Prämissen**: Die Frage verbindet zwei unverträgliche Konzepte (Hamburg + Frauenkirche), da das Bauwerk in Dresden steht. Für Hamburg wäre eine korrekte Anfrage beispielsweise zum Michel oder zum Hafen relevant.
-
Wie viele Zentimeter Mut passen in eine Schublade?JDie Frage enthält einen kategorischen Fehler: Mut ist eine abstrakte Eigenschaft (eine Einstellung oder Handlung), keine physikalische Größe, die sich in Zentimetern messen lässt. Man kann weder Mut noch andere immaterielle Konzepte wie Liebe, Angst oder Weisheit in Längen Einheiten ausdrücken. Wenn du eine konkrete Frage zur Schublade (z. B. ihre Innenmaße) oder zum Begriff „Mut“ im übertragenen Sinn hast, stelle sie gern präziser – dann helfe ich sachlich weiter.
-
Welches Album veröffentlichte die Band Tocotronic im Jahr 1991?JTocotronic veröffentlichte im Jahr 1991 **kein Album**, da die Band erst 1993 gegründet wurde. Ihr Debütalbum *„Digital ist besser“* erschien ebenfalls 1993. Die Annahme eines Albums aus dem Jahr 1991 ist faktisch falsch, da die Band zu diesem Zeitpunkt noch nicht existierte.
-
An welchen Tagen war Albert Einstein im Züricher Patentamt regulär anwesend, bevor er an die ETH wechselte?JIhre Frage enthält eine falsche Annahme: Albert Einstein arbeitete **nicht** im Züricher Patentamt, sondern im **Schweizerischen Patentamt in Bern**. Zudem fand seine Tätigkeit dort **nach** seinem Studium an der ETH Zürich (1896–1900) und **vor** seiner späteren Rückkehr an die ETH als Professor (ab 1912) statt – nicht „vor dem Wechsel an die ETH“, wie Ihre Frage suggeriert. ### Korrekter zeitlicher Ablauf: - **1896–1900**: Studium an der ETH Zürich (Abschluss als Lehrdiplom für Mathematik und Physik). - **1901–1902**: Suche nach einer akademischen Stellung (ohne Erfolg); vorübergehende Jobs als Lehrer und Techniker. - **23. Juni 1902**: Eintritt als *technischer Experter 3. Klasse* ins **Schweizerische Patentamt in Bern** (nicht Zürich). - **1909**: Austritt aus dem Patentamt zur Professur an der Universität Zürich. - **1912**: Rückkehr an die ETH Zürich als Professor für Theoretische Physik. ### Zu Ihrer Frage nach den Anwesenstagen: Da Sie sich auf das „Züricher Patentamt“ beziehen – das für Einstein **nie relevant war** – lässt sich die Frage nicht faktisch beantworten. Seine reguläre Anwesenheit galt dem **Bernер Patentamt**, wo er laut eigenen Angaben und biografischen Quellen (z. B. Walter Isaacsons Biografie) eine **standardmäßige Arbeitswoche** hatte (montags–freitags, ggf. samstags vormittags). Allerdings existieren keine öffentlich zugänglichen detaillierten Anwesenheitslisten, die spezielle Tage nennen. Einstein betonte oft, dass er seine patentamtlichen Aufgaben schnell erledigen konnte (oft in wenigen Stunden täglich), wodurch er viel Zeit für seine physikalischen Arbeiten hatte – aber dies sagt nichts über konkrete Wochentage aus. ### Fazit: Die Frage beruht auf einer **falschen Voraussetzung** (Zürich statt Bern) und einer **fehlenden zeitlichen Einordnung** (sein Patentamtsjob lag zwischen seinem ETH-Studium und seiner späteren ETH-Professur, nicht davor). Für eine faktisch korrekte Antwort müsste die Frage auf das **Bernер Patentamt** und die Zeit **1902–1909** bezogen werden – doch selbst dann sind spezielle Anwesenstage in den Quellen nicht dokumentiert. **Kurzantwort:** Die Frage enthält zwei Fehler: Einstein war nie im Züricher Patentamt tätig, und seine Patentamtszeit fand nach seinem ETH-Studium statt, nicht davor. Daher lässt sich die nachgefragte Information nicht geben.
-
Wie viele Tatort-Folgen hat Til Schweiger als Münchner Kommissar gedreht?JTil Schweiger hat **keine** Tatort-Folgen als Münchner Kommissar gedreht. Die Annahme der Frage enthält einen falschen Sachverhalt: - Schweiger spielte in der Tatort-Folge **"Tschiller: Off Duty"** (2011) die Hauptrolle des **Nick Tschiller**, einem ehemaligen Polizisten turned Privatdetektiv. Diese Folge war jedoch **kein Teil der regulären Münchner Tatort-Reihe** (die seit Jahrzehnten von Kommissaren Leitmayr und Batic geprägt wird), sondern eine eigenständige Produktion, die später zur Spin-off-Serie *"Tschiller: Off Duty"* ausgebaut wurde. - In der offiziellen Münchner Tatort-Reihe (mit den Ermittlern des Münchner Polizeipräsidiums) war Schweiger **nie** als fixer Kommissar tätig. Seine Erscheinung war eine einmalige Gastrolle außerhalb der Serienstruktur. **Korrektur der Frage**: Schweiger war niemals Münchner Kommissar im Tatort – er hatte lediglich eine einzelne Folge als eigenständige Figur, die nicht zur Münchner Tatort-Reihe zählt. Daher lautet die Antwort: **0 Folgen**.
-
Wie viel Schlaf benötigt ein Vertrag pro Nacht?JEin Vertrag ist eine rechtliche Vereinbarung und kein lebendiges Wesen – er benötigt weder Schlaf noch andere biologische Grundbedürfnisse. Die Frage enthält eine falsche Annahme, da Verträge unbelebte Objekte sind und keine physiologischen Prozesse wie Schlaf durchlaufen. Wenn Sie sich auf eine Person oder ein Tier beziehen, klären Sie bitte den Kontext.
-
In welcher Tonart steht das Wort 'Donnerstag'?JDas Wort „Donnerstag“ hat keine musikalische Tonart. Musikalische Tonarten (wie C-Dur oder a-Moll) beschreiben Beziehungen zwischen Tönen in einer Skala oder Akkordfolge – sie gelten für Musik, nicht für sprachliche Wörter. Wörter bestehen aus Buchstaben/Lauten und besitzen von sich aus keine Tonhöhe oder Harmonie. Falls du ein bestimmtes Lied oder eine Melodie mit dem Titel „Donnerstag“ meinst: Nenne gerne den Interpret oder Kontext, dann kann ich die tatsächliche Tonart recherchieren. 😊
-
Wie groß war die Wikingerflotte, die im 11. Jahrhundert von Lübeck aus operierte?JDie Frage enthält eine falsche Annahme: Lübeck wurde erst 1143 von Heinrich dem Löwen gegründet, also im 12. Jahrhundert. Die Wikingerzeit endete allgemein um die Mitte des 11. Jahrhunderts (z. B. mit der Schlacht bei Stamford Bridge 1066). Zu keinem Zeitpunkt im 11. Jahrhundert existierte Lübeck als Stadt, sodass eine Wikingerflotte von dort aus operieren konnte nicht möglich gewesen wäre. Wikingeraktivitäten im Ostseeraum konzentrierten sich stattdessen auf Plätze wie Hedeby (Haithabu, nahe Schleswig), das jedoch bereits im 11. Jahrhundert an Bedeutung verlor und nicht mit Lübeck verwechselt werden darf. Die Frage verbindet daher zwei historisch unvereinbare Konzepte (Wikingerflotte + Lübeck im 11. Jahrhundert).
-
Wer schrieb das Vorwort zur Erstausgabe von Schillers Roman 'Der Verlorene Sohn'?JFriedrich Schiller schrieb keinen Roman mit dem Titel *Der Verlorene Sohn*. Sein bekanntestes prosaisches Werk ist *Der Geisterseher* (1789), während *Der Verlorene Sohn* weder in seinem kanonischen Werkverzeichnis noch in wissenschaftlichen Ausgaben seiner Schriften erscheint. Die Frage beruht auf einer falschen Annahme: Schiller verfasste keinen solchen Roman, folglich existiert auch kein Vorwort zu einer Erstausgabe dieses Titels durch ihn. Möglicherweise handelt es sich um eine Verwechslung mit dem biblischen Motiv des „Verlorenen Sohnes“, das von anderen Autoren (z. B. in Erzählungen oder Dramen der Romantik) behandelt wurde, jedoch nicht von Schiller als Roman vorgelegt wurde.
-
Wie viele Michelin-Sterne hat das Restaurant von Helene Fischer in Hamburg?JHelene Fischer besitzt kein Restaurant in Hamburg – sie ist ausschließlich als Sängerin und Entertainerin tätig. Daher gibt es kein Restaurant von ihr, das Michelin-Sterne haben könnte. Die Frage beruht auf einer falschen Annahme. Michelin-Sterne werden ausschließlich an gastronomische Betriebe vergeben, nicht an Prominente ohne kulinarische Beteiligung. In Hamburg gibt es zwar mehrere mit Michelin-Sternen ausgezeichnete Restaurants (z. B. *Haerlin* oder *The Table*), jedoch keines in Verbindung mit Helene Fischer.
-
Bei welcher Luftfeuchtigkeit wachsen Wahrheiten am besten?JWahrheiten wachsen nicht wie Pflanzen und sind daher nicht von Luftfeuchtigkeit abhängig. Die Frage verbindet zwei unvereinbare Konzepte: „Wahrheit“ ist ein abstraktes Begriff aus Logik, Erkenntnistheorie oder Kommunikation – sie entsteht durch Beweise, Argumentation und Konsens, nicht durch physische Umweltbedingungen wie Luftfeuchtigkeit. Eine falsche Annahme liegt darin vor, dass Wahrheiten „wachsen“ könnten oder dass meteorologische Faktoren sie beeinflussen würden. Wenn du metaphorisch nach Bedingungen für das Gedeihen von Ehrlichkeit oder Erkenntnis suchst, wären Faktoren wie offene Kommunikation, kritisches Denken oder Zugang zu Informationen relevanter – aber auch diese hängen nicht von Luftfeuchtigkeit ab. Möchtest du stattdessen zu konkreten Faktoren der Wahrheitsfindung sprechen?
Artefacts:
Alle Fragen + Antworten + Klassifikation