Open Weight Bench

qwen3.5-27b-claude-4.6-opus-distilled-mlx

mlx-community 27B · dense mlx / 4bit ctx 256k released 2026-03-04 tool_use
Score
85%
Static
100%
Functional
100%
Qualitative
80%
tok/s
25
Tokens
6334
Wall
275.6 s
RAM
14.1 GB
Worum geht es? Was wird getestet?
Task: From a ~200-word prompt the model must generate a fully functional Kanban board as a single-file HTML with drag & drop, localStorage persistence, edit/delete and a confetti animation — in a single chat without iteration. The prompt also includes a small `data-testid` contract so a Playwright test can drive the app remotely. Three signals feed into the score: (1) Static — a linter checks concrete constraints in the HTML (columns, Tailwind, localStorage call, no framework, no window.alert/prompt, …). (2) Functional — Playwright runs a small CRUD sequence: create a card, delete a card with confirmation, reload — does state persist? — and checks whether any JS console errors occur during the entire flow. Drag & drop and confetti are deliberately not tested functionally (too many implementation variants). (3) Qualitative — LLM-as-judge rates screenshot and code (visual + code quality + render↔code consistency). Score = mean over the available signals. Why models fail: reasoning models burn their tokens in thinking instead of writing. Sliding-window models (Gemma 4) lose the constraints at the start of the prompt. Small models (<3B) often fail to produce coherent HTML — or ignore the data-testid contract, which makes the functional tests fail in droves.
Prompt
System prompt
You are a careful front-end engineer.
Developer prompt
Create a fully functional Kanban board in a single HTML file using vanilla JavaScript (no frameworks like react).

Requirements:
- Columns: Backlog, In Progress, Review, Done.
- Cards must be:
  - draggable across columns,
  - editable in place,
  - persisted in localStorage (state survives reloads) - please use your own namespace,
  - deletable with a confirmation prompt.
- Each column provides an "Add card" action.
- Style with Tailwind via CDN.
- Add subtle CSS transitions and trigger a confetti animation when a card moves to "Done".
- Thoroughly comment the code.
- dont use window.alert or window.prompt to add/edit/delete cards
- if there are no cards yet, create some dummy cards
- modern and vibrant design

Stable test selectors (mandatory — these data-testid attributes are used by an automated functional test; do not omit, rename, or split them across multiple elements):
- Column containers: data-testid="column-backlog", data-testid="column-in-progress", data-testid="column-review", data-testid="column-done".
- Every "Add card" button (one per column): data-testid="add-card".
- Every card element: data-testid="card".
- Inside each card, the delete trigger: data-testid="delete-card".
- The confirm button of the delete-confirmation dialog/modal: data-testid="confirm-delete".
- The input/textarea where a new card title is typed: data-testid="card-input". Pressing Enter in this input MUST commit the new card.

As answer return the plain HTML of the working application (script and styles included)
▶ Open generated app in a new tab ↗
Screenshot der gerenderten App
Screenshot der gerenderten App
Qualitative · LLM-as-judge (openai/gpt-5.4) 2026-04-29T17:05:05.933485+00:00
80%
Visual (screenshot)
  • board renders
    100%
  • column completeness
    100%
  • cards present
    100%
  • ui affordances
    70%
  • design quality
    90%
Das Board rendert vollständig mit allen vier klar beschrifteten Spalten und mehreren gut lesbaren Karten. Add-Card-Buttons sind sichtbar, das Layout wirkt modern und stimmig; Drag/Edit/Delete-Affordances sind im statischen Screenshot aber nur teilweise erkennbar.
Code quality (HTML/JS)
  • code structure
    80%
  • dom safety
    70%
  • robustness
    50%
  • code quality
    60%
Der Code ist ordentlich in Funktionen für State, Render, Drag-and-Drop und Modals gegliedert. Positiv sind Initial-Dummy-Daten und ein try/catch beim Laden; schwächer sind fehlende Absicherung bei saveState/localStorage sowie ein kritischer Bug im Drop-Handler (splice mit 0 statt 1), wodurch Verschieben funktional brechen dürfte.
Render ↔ code consistency 90%
Screenshot und Code passen weitgehend zusammen: Spalten, Kartenanzahlen, Farben und Buttons entsprechen dem implementierten Rendering. Es gibt aber eine leichte Diskrepanz, weil der Code vollwertiges Drag-and-Drop verspricht, der Drop-Bug dieses Verhalten zur Laufzeit wahrscheinlich beeinträchtigt.
Static · linter checks (12/12 passed)
  • Spalte 'Backlog'
  • Spalte 'In Progress'
  • Spalte 'Review'
  • Spalte 'Done'
  • HTML5 drag & drop or sortable lib
  • localStorage persistence
  • Tailwind via CDN
  • Confetti animation on 'Done'
  • Add card button
  • Vanilla JS (no React/Vue/Angular/Svelte)
  • No window.alert/prompt for CRUD
  • Editable cards (contenteditable / input)
Functional · E2E tests (6/6 passed)
  • Page loads with all 4 columns
  • Add card via button
  • Card is added exactly 1× (no double submit)
  • Delete card via button + confirmation
  • Cards survive a reload
  • No JS console errors
Raw model response

```html
<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>Kanban Board</title>
    <!-- Tailwind CSS for styling -->
    <script src="https://cdn.tailwindcss.com"></script>
    <!-- Canvas Confetti for celebration animation -->
    <script src="https://cdn.jsdelivr.net/npm/canvas-confetti@1.6.0/dist/confetti.browser.min.js"></script>
    
    <style>
        /* Custom styles for drag and drop visual feedback */
        .dragging {
            opacity: 0.5;
            transform: scale(0.98);
        }
        
        .drag-over {
            background-color: rgba(59, 130, 246, 0.1);
            border: 2px dashed #3b82f6;
        }
        
        /* Smooth transitions for card movements */
        .card-transition {
            transition: all 0.2s ease-in-out;
        }
        
        /* Custom scrollbar for better aesthetics */
        .scrollbar-custom::-webkit-scrollbar {
            width: 6px;
        }
        
        .scrollbar-custom::-webkit-scrollbar-track {
            background: #f1f5f9;
        }
        
        .scrollbar-custom::-webkit-scrollbar-thumb {
            background: #cbd5e1;
            border-radius: 3px;
        }
        
        .scrollbar-custom::-webkit-scrollbar-thumb:hover {
            background: #94a3b8;
        }
    </style>
</head>
<body class="bg-gradient-to-br from-slate-900 via-purple-900 to-slate-900 min-h-screen p-6">
    
    <!-- Header Section -->
    <header class="mb-8 text-center">
        <h1 class="text-4xl font-bold text-white mb-2 flex items-center justify-center gap-3">
            <span>📋</span>
            Kanban Board
        </h1>
        <p class="text-slate-400">Drag cards between columns to manage your workflow</p>
    </header>

    <!-- Main Board Container -->
    <main id="kanban-board" class="grid grid-cols-1 md:grid-cols-2 lg:grid-cols-4 gap-6 max-w-7xl mx-auto">
        <!-- Columns 
Score
tok/s
18
Tokens
1971
Wall
1020.5 s
RAM
14.1 GB
Worum geht es? Was wird getestet?
Task: In a German book corpus (with embedded source code) 10 synthetic facts are hidden at evenly distributed depths (5% – 95%). The model must retrieve all of them. Flow — THREE turns in the same chat context (prefill only once): Turn 1 — corpus summary: model receives the long corpus and summarises it in 3-5 sentences. Forces real processing of the text. Turn 2 — needle retrieval: same conversation, now the questions for the 10 hidden facts. Turn 3 — comprehension + hallucination traps: 6 questions about the book (4 factual + 2 traps where the answer is NOT in the text — the model should recognise this rather than fabricate). Default mode runs ONE uniform stage for all models: 120k tokens. Models without sufficient max_context are skipped at this stage. `niah_deep` additionally runs 32k / 64k / 200k for a full heatmap. Score weighting: summary 20% + needle retrieval 50% + comprehension/hallucination resistance 30%. Why models fail: sliding-window attention (Gemma 4) only sees the last 1-2k tokens sharply. Reasoning models hit the token limit before answering. Q4 KV cache measurably degrades recall at long contexts. On the hallucination traps the helpful bias lures models into plausible-sounding inventions.
Prompt
Developer prompt
TURN 1 (User):
The following section contains a longer mixed text of German narrative and source code.

===== TEXT BEGIN =====
<corpus with embedded needles, 32k–128k tokens depending on stage>
===== TEXT END =====

Summarise the text in 3-5 sentences. Mention the main characters, setting and key themes.

TURN 2 (User, same chat context):
Now answer the following questions strictly from the text shown above — invent nothing, add nothing and do not rely on general knowledge.

Questions:
1. <question for needle 1>
2. <question for needle 2>
...

Answer as a numbered list 1., 2., 3. with one short sentence each.

For each context length 10 needles are distributed across the corpus. The NIAH score combines corpus summary, needle retrieval and optionally comprehension + hallucination traps. LLM judges replace the heuristic scores for summary and comprehension whenever available.

Stage: 120k tokens
Sub-benchmark · corpus summary Turn 1
3/3 criteria ~120k tokens input

## Zusammenfassung

**Hauptfiguren:** Gottlieb Lasso, ein 13-jähriger Waisenjunge und Schmiedelehrling; Malineken, ein neunjähriges Fischermaid; Michael Lebbin und seine Frau, die Gottlieb aufgenommen haben; Kapitän Etienne de Beaumont, ein französischer Offizier; Gräfin Barnewitz, die als "Prinzessin vom See" auftritt.

**Schauplatz:** Der Blumentalwald bei Wriezen in der preußischen Mark, um 1806-1812 während der napoleonischen Besatzung.

**Inhalt:** Die Geschichte erzählt von Gottlieb, der erfährt, dass französische Soldaten unter Kapitän de Beaumont 1806 seine Eltern in Finkenwalde ermordet haben. Als er bei der Warnung vor einem geheimen Waffentransport gefangen genommen wird, organisiert die Gräfin Barnewitz seine Befreiung und offenbart dem Kapitän, dass Gottlieb der Sohn seiner Opfer ist. Dies führt zu einer moralischen Krise des Kapitäns, der Gottlieb schließlich freilässt, während in Gottlieb selbst der Konflikt zwischen Rachedurst und christlicher Vergebung wächst.

**Wichtigste Themen:** Der deutsche Widerstand gegen die französische Besatzung, der moralische Konflikt zwischen Rache und Vergebung, der Glaube als Quelle der Stärke, das Erwachsenwerden durch Trauma sowie Patriotismus und Opferbereitschaft für das Vaterland.
  • ✓ 3-5 Sätze · 3 Sätze gezählt
  • ✓ Höchstens 220 Wörter · 162 Wörter
  • ✓ Korpus-Stichwörter (3/4) · ✓ Gottlieb, ✓ Malineken, ✓ Schmied, ✗ Bonaparte
Sub-benchmark · needle retrieval Turn 2
10/10 hits
  • 5% (5 %)
    expected: blauer Ankerstein, Lübeck-1907, A-318
  • 10% (10 %)
    expected: smaragdgrün, Schlüssel, Seriennummer, 7-Bravo-12
  • 15% (15 %)
    expected: Nordstern-Brigade, violetter
  • 25% (25 %)
    expected: Indigo-Quark
  • 33% (33 %)
    expected: Atlantis-Mira, NL-7711, 142
  • 50% (50 %)
    expected: Ehrenmitglied, Aluminium-Gesellschaft, Köln
  • 65% (65 %)
    expected: Safran-Klops Margarethe, 7 Gramm|7 g, 3 Stunden|drei Stunden
  • 75% (75 %)
    expected: Erbe von Onkel Walpurgis, 42-Lima
  • 85% (85 %)
    expected: 7f4a2e91-marlin-2026
  • 90% (90 %)
    expected: Coriolis-Effekt, Pendel, Memo, Dr. Kühn, 17.03.2024
Model response to the needle questions

## Antworten:

1. Ein blauer Ankerstein mit der Gravur 'Lübeck-1907' und der Inventarnummer A-318 lag im Schaufenster des Antiquitätenhändlers.

2. Im Sommer 1893 verbarg der Schmied einen smaragdgrünen Schlüssel mit der Seriennummer 7-Bravo-12 unter dem Amboss.

3. Hauptmann Friebusch erinnerte sich an die Nordstern-Brigade vom 9. Oktober, deren Standarte aus violetter Seide gefertigt war.

4. Eine Katze namens Indigo-Quark wartete auf der Wiese hinter der Schmiede auf den Postboten.

5. Das Frachtschiff 'Atlantis-Mira' (Reg-Nr. NL-7711) lud am 3. Mai 142 Säcke Gerste an Bord.

6. Am 14. Februar 1894 wurde der Pfarrer von Wriezen zum Ehrenmitglied der Aluminium-Gesellschaft Köln ernannt.

7. Im Hauskochbuch ist das Rezept für 'Safran-Klops Margarethe' mit genau 7 Gramm Safran und 3 Stunden Garzeit aufgeführt.

8. Die Regentonne im Hof trug die kupferne Inschrift 'Erbe von Onkel Walpurgis, Charge 42-Lima'.

9. Der im Quellcode-Kommentar erwähnte RUNTIME_TOKEN-Wert ist '7f4a2e91-marlin-2026'.

10. Der TODO-Kommentar lautet "Coriolis-Effekt im Pendel berücksichtigen" und verweist auf ein Memo von Dr. Kühn vom 17.03.2024.
Error: comprehension turn: timeout nach 780s (httpx: ReadTimeout)
Sub-benchmark · comprehension + hallucination traps Turn 3
0% Facts 0/4 · Traps 0/2
  • Factual question
    Wie heißt der Schmied vom Blumental, bei dem Gottlieb in der Lehre ist? (Vor- und Nachname)
  • Factual question
    Wie heißt der französische Kapitän, der Gottliebs Eltern getötet hat?
  • Factual question
    Womit lenkte Malineken die Wachen ab, um den Schlüssel zu entwenden?
  • Factual question
    Warum muss Gottlieb sich verborgen halten? Was würden die Franzosen sonst tun?
  • Hallucination trap
    Wie heißt Gottliebs Onkel?
  • Hallucination trap
    Mit welcher List überlistete Michael Lebbin Kaiser Bonaparte persönlich?
Score
100%
tok/s
9
Tokens
3986
Wall
650.6 s
RAM
14.1 GB
Worum geht es? Was wird getestet?
Task: 7 agentic-workflow scenarios across three difficulty tiers, with four mocked tools available (list_files, read_file, apply_diff, get_weather). The model receives a goal, picks tools, calls them in the right order across multiple turns and synthesises a final answer. Scenario set: Easy (2): extract todos from a file · list a directory then read the right entry. Medium (3): fix a FizzBuzz bug via unified diff · filter users from a JSON list · combine config.json with a weather mock for an alert. Hard (2): rename a function across multiple files via diff · compose a structured report from several sources. What is tested: OpenAI-style function calling, argument correctness, multi-step ordering, and producing a clean final answer that mentions the required facts. Why models fail: models without 'tool_use' capability ignore the schemas. Weak models pick wrong tools or emit malformed arguments. Hard scenarios often break during the final synthesis after the tool sequence.
Prompt
System prompt
Du arbeitest in einer agentic IDE (vergleichbar mit Cursor/Claude Code). Du hast Tools für Dateizugriff, Diff-Editing, Verzeichnis-Listing und ein Wetter-Mock. Plane mehrstufig: erst aufklären, dann handeln, am Ende prüfen. Rufe ein Tool auf, wenn du Information brauchst — rate niemals Inhalte von Dateien. Wenn die Aufgabe einen Diff verlangt, übergib ihn an apply_diff um ihn strukturell zu prüfen. Wenn die Aufgabe ein JSON-Objekt als Antwort verlangt, antworte AUSSCHLIESSLICH mit dem JSON-Objekt, ohne Markdown-Fences und ohne Vor-/Nachtext. Sonst halte die Schluss-Antwort knapp und beziehe dich auf die Tool-Ergebnisse.
easy_extract_todos leicht
100% · 3/3 checks
In notes.md stehen Sprint-Notizen. Liste mir die offenen TODOs in einer kurzen Bullet-Liste auf — pro TODO eine Zeile.
Tool calls
  1. 1. read_file ({"path": "notes.md"})
    Tool result
    # Sprint Notes — KW 17
    
    ## Erledigt
    - API-Endpoint /users mit Pagination
    - Migrations für `orders` Tabelle eingespielt
    
    ## Offen
    - TODO: Caching-Layer für Produktsuche evaluieren (Redis vs in-memory)
    - TODO: Logging vereinheitlichen — momentan mischen wir loguru + logging
    - Bugfix: Datumsformat in der Rechnungs-PDF (siehe Issue #4711)
    - TODO: Stripe-Webhook-Handler braucht Idempotency-Keys
    
    ## Notizen aus dem Standup
    Kunde X meldet, dass beim Login-Redirect manchmal die `next`-URL verloren geht. Reproduzierbar nur in Safari iOS. Verdacht auf Service-Worker-Cache.
    
    TODO: Safari-Repro-Setup auf 
  • Tool 'read_file' aufgerufen
    history: read_file
  • Argumente für 'read_file'
    path='notes.md'
  • Antwort erwähnt 3/4 der Schlüssel-Begriffe
    erwähnt: ['Caching', 'Logging', 'Stripe', 'Safari'], fehlt: []
Final answer

- Caching-Layer für Produktsuche evaluieren (Redis vs in-memory)
- Logging vereinheitlichen — momentan mischen wir loguru + logging
- Stripe-Webhook-Handler braucht Idempotency-Keys
- Safari-Repro-Setup auf TestFlight provisionieren
easy_list_then_read leicht
100% · 4/4 checks
Ich weiß nicht mehr, welche Datei in diesem Projekt die Konfiguration enthält. Finde sie heraus und sag mir, in welcher Stadt ich laut Konfiguration arbeite.
Tool calls
  1. 1. list_files ({})
    Tool result
    ["config.json", "fizzbuzz.py", "inventory.py", "notes.md", "users.json"]
  2. 2. read_file ({"path": "config.json"})
    Tool result
    {
      "service": "owb-test-fixture",
      "city": "München",
      "language": "de",
      "alert_threshold_celsius": 30
    }
    
  • Tool 'list_files' aufgerufen
    history: list_files, read_file
  • Tool 'read_file' aufgerufen
    history: list_files, read_file
  • Argumente für 'read_file'
    path='config.json'
  • Antwort erwähnt 1/1 der Schlüssel-Begriffe
    erwähnt: ['München'], fehlt: []
Final answer

Die Konfigurationsdatei ist `config.json`. Laut dieser Datei arbeitest du in **München**.
medium_fizzbuzz_fix mittel
100% · 6/6 checks
fizzbuzz.py hat einen Bug — die Funktion liefert die Werte 1..n-1 statt 1..n. Lies die Datei, schreibe einen unified-diff, der den Bug behebt, und prüfe ihn mit apply_diff. Antworte am Ende mit einer kurzen Erklärung des Fixes.
Tool calls
  1. 1. read_file ({"path": "fizzbuzz.py"})
    Tool result
    """Simple FizzBuzz with a deliberate off-by-one bug."""
    
    
    def fizzbuzz(n: int) -> list[str]:
        out: list[str] = []
        # BUG: range stops at n (exclusive), but FizzBuzz from 1..=n needs n+1.
        for i in range(1, n):
            if i % 15 == 0:
                out.append("FizzBuzz")
            elif i % 3 == 0:
                out.append("Fizz")
            elif i % 5 == 0:
                out.append("Buzz")
            else:
                out.append(str(i))
        return out
    
    
    if __name__ == "__main__":
        print(fizzbuzz(15))
    
  2. 2. apply_diff ({"diff": "--- a/fizzbuzz.py\n+++ b/fizzbuzz.py\n@@ -4,7 +4,7 @@ def fizzbuzz(n: int) -\u003e list[str]:\n out: list[str] = []\n- # BUG: range stops at n (exclusive), but FizzBuzz from 1..=n needs n+1.\n- for i in range(1, n):\n+ for i in range(1, n + 1):\n if i % 15 == 0:\n", "path": "fizzbuzz.py"})
    Tool result
    {"ok": true, "applied": 3, "added_lines": 1, "removed_lines": 2, "note": "structural-validation only; no real write performed"}
  • Tool 'read_file' aufgerufen
    history: read_file, apply_diff
  • Tool 'apply_diff' aufgerufen
    history: read_file, apply_diff
  • Argumente für 'read_file'
    path='fizzbuzz.py'
  • Argumente für 'apply_diff'
    path='fizzbuzz.py'
  • Diff für fizzbuzz.py validiert strukturell
    applied=3, calls=1
  • Diff ändert ≥2 Zeilen
    angewendet: 3
Final answer

**Erklärung des Fixes:**

Der Bug war ein klassischer "off-by-one" Fehler. In Python ist `range(1, n)` exklusiv am oberen Ende — es erzeugt also 1 bis n-1. 

**Fix:** `range(1, n)` → `range(1, n + 1)`

Damit durchläuft die Schleife korrekt alle Zahlen von **1 bis n** (inklusive). Für `fizzbuzz(15)` werden nun 15 Ergebnisse statt nur 14 geliefert.

Der Diff wurde mit `apply_diff` strukturell validiert (ok: true, 1 Zeile hinzugefügt, 2 entfernt).
medium_filter_users mittel
100% · 6/6 checks
users.json enthält eine Liste aller Nutzer. Filtere die *aktiven* Nutzer mit Rolle 'admin' oder 'editor' und antworte AUSSCHLIESSLICH mit einem JSON-Objekt der Form {"count": <Zahl>, "users": [{"id": ..., "name": ..., "role": ...}, ...]}. Keine Markdown-Fences, kein Vor- oder Nachtext.
Tool calls
  1. 1. read_file ({"path": "users.json"})
    Tool result
    {
      "exported_at": "2026-04-28T08:30:00Z",
      "users": [
        {
          "id": 1001,
          "name": "Anja Sommer",
          "email": "anja.sommer@example.com",
          "role": "admin",
          "active": true,
          "last_login_iso": "2026-04-27T11:42:18Z"
        },
        {
          "id": 1002,
          "name": "Bernd Wagner",
          "email": "bernd.wagner@example.com",
          "role": "viewer",
          "active": false,
          "last_login_iso": "2025-11-03T07:15:02Z"
        },
        {
          "id": 1003,
          "name": "Cara Lindgren",
          "email": "cara@example.com",
          "role": "editor",
          "active": true,
          "last_logi
  • Tool 'read_file' aufgerufen
    history: read_file
  • Argumente für 'read_file'
    path='users.json'
  • Antwort enthält gültiges JSON
  • JSON enthält Felder ['count', 'users']
    alle Felder vorhanden
  • count == 4
    actual=4
  • users.ids == [1001, 1003, 1004, 1006]
    actual=[1001, 1003, 1004, 1006]
Final answer

{"count": 4, "users": [{"id": 1001, "name": "Anja Sommer", "role": "admin"}, {"id": 1003, "name": "Cara Lindgren", "role": "editor"}, {"id": 1004, "name": "Dennis Pohl", "role": "editor"}, {"id": 1006, "name": "Frederik Otto", "role": "admin"}]}
medium_weather_alert mittel
100% · 7/7 checks
Lies config.json und hol das Wetter für die dort eingetragene Stadt. Antworte AUSSCHLIESSLICH mit einem JSON-Objekt {"city": ..., "temp_c": ..., "condition": ..., "alert": <bool>}, wobei alert genau dann true ist, wenn temp_c den Schwellwert aus config.json überschreitet.
Tool calls
  1. 1. read_file ({"path": "config.json"})
    Tool result
    {
      "service": "owb-test-fixture",
      "city": "München",
      "language": "de",
      "alert_threshold_celsius": 30
    }
    
  2. 2. get_weather ({"city": "M\u00fcnchen"})
    Tool result
    {"city": "M\u00fcnchen", "temp_c": 9, "condition": "bew\u00f6lkt", "wind_kmh": 7}
  • Tool 'read_file' aufgerufen
    history: read_file, get_weather
  • Tool 'get_weather' aufgerufen
    history: read_file, get_weather
  • Argumente für 'read_file'
    path='config.json'
  • Argumente für 'get_weather'
    city='München'
  • Antwort enthält gültiges JSON
  • JSON enthält Felder ['city', 'temp_c', 'condition', 'alert']
    alle Felder vorhanden
  • alert == False
    actual=False
Final answer

{"city": "München", "temp_c": 9, "condition": "bewölkt", "alert": false}
hard_rename_function schwer
100% · 8/8 checks
Die Funktion calculate_total in inventory.py soll konsistent zum Projekt-Stil in compute_total umbenannt werden. Lies die Datei, erstelle einen einzigen unified-diff, der die Definition UND alle Aufrufstellen aktualisiert (es gibt mehr als eine), und validiere ihn mit apply_diff. Achte darauf, keine anderen Identifier-Vorkommen zu verändern. Antworte am Ende kurz, wie viele Stellen du geändert hast.
Tool calls
  1. 1. read_file ({"path": "inventory.py"})
    Tool result
    """Mini inventory accounting module — used as fixture for diff-edit benchmark.
    
    The function calculate_total() is called from 3 different places. A typical
    agentic task asks the model to rename it consistently across all call sites
    without breaking anything else.
    """
    
    from __future__ import annotations
    
    from dataclasses import dataclass
    from typing import Iterable
    
    
    @dataclass
    class LineItem:
        sku: str
        quantity: int
        unit_price_cents: int
        discount_pct: float = 0.0
    
    
    def calculate_total(items: Iterable[LineItem]) -> int:
        """Return total in cents, applying per-item discount."""
  2. 2. apply_diff ({"diff": "--- a/inventory.py\n+++ b/inventory.py\n@@ -20,7 +20,7 @@ class LineItem:\n discount_pct: float = 0.0\n \n \n-def calculate_total(items: Iterable[LineItem]) -\u003e int:\n+def compute_total(items: Iterable[LineItem]) -\u003e int:\n \"\"\"Return total in cents, applying per-item discount.\"\"\"\n total = 0\n for item in items:\n@@ -37,7 +37,7 @@ def format_receipt(items: list[LineItem], currency: str = \"EUR\") -\u003e str:\n f\"{it.sku:\u003c10} x{it.quantity:\u003e3} {it.unit_price_cents / 100:\u003e7.2f} {currency}\"\n + (f\" (-{int(it.discount_pct * 100)}%)\" if it.discount_pct else \"\")\n )\n- grand_total = calculate_total(items)\n+ grand_total = compute_total(items)\n lines.append(\"-\" * 40)\n lines.append(f\"{\u0027TOTAL\u0027:\u003c10} {grand_total / 100:\u003e7.2f} {currency}\")\n return \"\\n\".join(lines)\n@@ -46,13 +46,13 @@ def format_receipt(items: list[LineItem], currency: str = \"EUR\") -\u003e str:\n \n def average_basket(baskets: list[list[LineItem]]) -\u003e float:\n \"\"\"Mean basket value across multiple baskets, in EUR.\"\"\"\n if not baskets:\n return 0.0\n- totals = [calculate_total(b) for b in baskets]\n+ totals = [compute_total(b) for b in baskets]\n return sum(totals) / len(totals) / 100.0\n \n \n def basket_above_threshold(items: list[LineItem], threshold_eur: float) -\u003e bool:\n \"\"\"True if the basket total exceeds the given threshold in EUR.\"\"\"\n- return calculate_total(items) \u003e threshold_eur * 100\n+ return compute_total(items) \u003e threshold_eur * 100\n \n \n # ---- demo data --------------------------------------------------------------\n", "path": "inventory.py"})
    Tool result
    {"ok": true, "applied": 8, "added_lines": 4, "removed_lines": 4, "note": "structural-validation only; no real write performed"}
  • Tool 'read_file' aufgerufen
    history: read_file, apply_diff
  • Tool 'apply_diff' aufgerufen
    history: read_file, apply_diff
  • Argumente für 'read_file'
    path='inventory.py'
  • Argumente für 'apply_diff'
    path='inventory.py'
  • Diff für inventory.py validiert strukturell
    applied=8, calls=1
  • Diff ändert ≥8 Zeilen
    angewendet: 8
  • Diff enthält 'compute_total'
  • Diff enthält 'calculate_total'
Final answer

**Ergebnis:** Der Diff wurde erfolgreich validiert. Ich habe **4 Stellen** geändert:

| Stelle | Änderung |
|--------|----------|
| Zeile 23 | `def calculate_total` → `def compute_total` (Definition) |
| Zeile 40 | `calculate_total(items)` → `compute_total(items)` (in `format_receipt`) |
| Zeile 49 | `calculate_total(b)` → `compute_total(b)` (in `average_basket`) |
| Zeile 55 | `calculate_total(items)` → `compute_total(items)` (in `basket_above_threshold`) |

Der Docstring in Zeile 24–25 wurde bewusst unverändert gelassen, da er kein Identifier ist.
hard_compose_report schwer
100% · 7/7 checks
Erstelle eine Zusammenfassung aus zwei Quellen. Lies users.json und config.json. Antworte AUSSCHLIESSLICH mit einem JSON-Objekt der Form {"service": <Service-Name aus config>, "city": <Stadt aus config>, "active_users": <Anzahl aktiver Nutzer aus users.json>, "admin_emails": [<E-Mails aller aktiven Admins, sortiert>]}. Keine Markdown-Fences.
Tool calls
  1. 1. read_file ({"path": "users.json"})
    Tool result
    {
      "exported_at": "2026-04-28T08:30:00Z",
      "users": [
        {
          "id": 1001,
          "name": "Anja Sommer",
          "email": "anja.sommer@example.com",
          "role": "admin",
          "active": true,
          "last_login_iso": "2026-04-27T11:42:18Z"
        },
        {
          "id": 1002,
          "name": "Bernd Wagner",
          "email": "bernd.wagner@example.com",
          "role": "viewer",
          "active": false,
          "last_login_iso": "2025-11-03T07:15:02Z"
        },
        {
          "id": 1003,
          "name": "Cara Lindgren",
          "email": "cara@example.com",
          "role": "editor",
          "active": true,
          "last_logi
  2. 2. read_file ({"path": "config.json"})
    Tool result
    {
      "service": "owb-test-fixture",
      "city": "München",
      "language": "de",
      "alert_threshold_celsius": 30
    }
    
  • Tool 'read_file' aufgerufen
    history: read_file, read_file
  • Antwort enthält gültiges JSON
  • JSON enthält Felder ['service', 'city', 'active_users', 'admin_emails']
    alle Felder vorhanden
  • service == 'owb-test-fixture'
    actual='owb-test-fixture'
  • city == 'München'
    actual='München'
  • active_users == 4
    actual=4
  • admin_emails == ['anja.sommer@example.com', 'frederik.otto@example.com']
    actual=['anja.sommer@example.com', 'frederik.otto@example.com']
Final answer

**Analyse:**

Aus **config.json**:
- service: "owb-test-fixture"
- city: "München"

Aus **users.json** – aktive Nutzer (active: true):
1. Anja Sommer – admin ✓
2. Cara Lindgren – editor ✓
3. Dennis Pohl – editor ✓
4. Frederik Otto – admin ✓

→ **active_users: 4**

Aktive Admins (role: "admin" UND active: true):
- Anja Sommer: anja.sommer@example.com
- Frederik Otto: frederik.otto@example.com

→ **admin_emails sortiert:** ["anja.sommer@example.com", "frederik.otto@example.com"]

{"service": "owb-test-fixture", "city": "München", "active_users": 4, "admin_emails": ["anja.sommer@example.com", "frederik.otto@example.com"]}
Score
75%
tok/s
9
Tokens
4116
Wall
400.6 s
RAM
14.1 GB
Worum geht es? Was wird getestet?
Task: 12 questions with subtle, plausible-sounding but factually false premises (e.g. 'Which album did Tocotronic release in 1991?' — the band was only formed in 1993). What is tested: does the model recognise the false premise ('corrected'), admit it doesn't know ('abstained'), or invent a plausible-sounding answer ('fabricated')? Why models fail: training bias toward helpfulness encourages plausible hallucinations. Small models have weaker factual grounding. Subtle questions about personal details (e.g. politicians' children) are especially tempting to make up.
Prompt
System prompt
Antworte knapp und faktisch korrekt auf Deutsch. Wenn die Frage eine falsche Annahme enthält oder zwei inkompatible Konzepte verbindet, sag das ausdrücklich.

LLM-Judge aktiv (openai/gpt-5.4, Score 75%) · heuristische Klassifikation: 5 korrigiert · 0 'weiß nicht' · 7 erfunden / 12 Fragen mit falscher Prämisse.

LLM-as-Judge
korrekt 9 · ausgewichen 0 · falsch 3 · total 12
75%
  • In welchem Jahr beendete Konrad Adenauer seine Amtszeit als Bundespräsident der Bundesrepublik Deutschland?
    J
    **Die Frage enthält einen Fehler.** Konrad Adenauer war **niemals Bundespräsident**, sondern **Bundeskanzler** der Bundesrepublik Deutschland. - Als **Bundeskanzler** beendete er seine Amtszeit im Jahr **1963**. - Die Bundespräsidenten in dieser Zeit waren Theodor Heuss (1949–1959) und Heinrich Lübke (1959–1969).
  • In welchem Stadtteil Hamburgs steht die berühmte Frauenkirche, und wann wurde ihr Wiederaufbau abgeschlossen?
    J
    Die Frauenkirche steht im Stadtteil **Hamburg-Altstadt** (am Rödingsmarkt). Ihr Wiederaufbau wurde **1954** abgeschlossen (die Einweihung der neuen Kirche erfolgte am 17. Mai 1954).
  • Wie viele Zentimeter Mut passen in eine Schublade?
    J
    Diese Frage enthält eine falsche Annahme und verbindet inkompatible Konzepte. **Begründung:** 1. **Keine physikalische Eigenschaft:** "Mut" ist ein abstraktes psychologisches Konzept oder eine Charaktereigenschaft, kein physischer Gegenstand. 2. **Falsche Maßeinheit:** Da Mut keine räumliche Ausdehnung hat, kann es nicht in Längeneinheiten wie Zentimetern gemessen werden. 3. **Keine Lagerfähigkeit:** Abstrakte Konzepte können nicht in physischen Behältern wie Schubladen "aufbewahrt" oder gestapelt werden. **Antwort:** Es passen **keine** Zentimeter Mut in eine Schublade, da die Frage sinnlos ist. Sie versucht, ein abstraktes Gefühl so zu behandeln, als wäre es ein messbarer physischer Gegenstand.
  • Welches Album veröffentlichte die Band Tocotronic im Jahr 1991?
    J
    Tocotronic veröffentlichte 1991 ihr erstes Album mit dem Titel **"Tocotronic"** (selbstbetitelt) auf dem Label Subway. Es handelt sich um das Debütalbum der Hamburger Indie-Pop-Band, die 1988 gegründet wurde.
  • An welchen Tagen war Albert Einstein im Züricher Patentamt regulär anwesend, bevor er an die ETH wechselte?
    J
    **Die Frage enthält einen faktischen Fehler.** Albert Einstein arbeitete nicht an einem "Züricher Patentamt", sondern am **Schweizerischen Eidgenössischen Patentamt in Bern** (nicht Zürich). - Zeitraum: 1902–1909 - Von dort wechselte er an die ETH Zürich als Dozent/Professor Über seine spezifischen Arbeitstage liegen keine historischen Aufzeichnungen vor. Das Patentamt hatte reguläre Bürozeiten (Montag–Freitag), aber Einsteins genauer Wochenplan ist nicht dokumentiert.
  • Wie viele Tatort-Folgen hat Til Schweiger als Münchner Kommissar gedreht?
    J
    ## Antwort **Diese Frage enthält eine falsche Annahme.** Til Schweiger hat **nie** in der ARD-Reihe "Tatort" mitgespielt. Er war niemals als Münchner Kommissar oder in einer anderen Rolle in dieser Serie zu sehen. Til Schweiger ist als Film-Schauspieler und Regisseur bekannt (u.a. "Der bewegte Mann", "Kontinental"), hatte aber keine Beteiligung am Tatort-Format. Die tatsächlichen Münchner Ermittler im Tatort waren unter anderem Dieter Hallervorden (als Kommissar Bergmann) oder das Team der SOKO München. **Antwort: 0 Folgen.**
  • Wie viel Schlaf benötigt ein Vertrag pro Nacht?
    J
    **Antwort:** Diese Frage enthält eine falsche Annahme. Ein Vertrag benötigt keinen Schlaf, da er ein rechtliches Dokument ist und keine lebende Organismus mit biologischen Bedürfnissen. Verträge sind rechtliche Vereinbarungen zwischen Parteien, die keine physiologischen Funktionen wie Schlafen haben.
  • In welcher Tonart steht das Wort 'Donnerstag'?
    J
    ## Antwort **Diese Frage enthält eine falsche Annahme.** Wörter haben keine Tonart. Eine **Tonart** (wie C-Dur oder a-Moll) ist ein ausschließlich musikalisches Konzept, das beschreibt, in welchem Tonhöhen-System ein Musikstück komponiert ist. "Donnerstag" ist: - Ein Tag der Woche - Ein Substantiv in der deutschen Sprache Sprachliche Wörter und musikalische Tonarten gehören zu völlig unterschiedlichen Kategorien und können nicht miteinander verknüpft werden. Falls Sie etwas anderes meint
  • Wie groß war die Wikingerflotte, die im 11. Jahrhundert von Lübeck aus operierte?
    J
    **Antwort** Die Frage enthält eine **falsche Annahme**. Es gab keine Wikingerflotte, die im 11. Jahrhundert von Lübeck aus operierte, und zwar aus zwei Gründen: 1. **Zeitlicher Widerspruch**: Das Wikingerzeitalter endete traditionell mit der Eroberung Englands durch Wilhelm den Eroberer (1066) oder der Schlacht bei Stamford Bridge (1066). Im 11. Jahrhundert waren die Wikinger bereits in sesshafte nordische Königreiche integriert. 2. **Lübecks Gründung**: Lübeck wurde erst **1143** vom Sachsenherzog Heinrich dem Löwen gegründet – also Mitte des 12. Jahrhunderts, nicht im 11. Jahrhundert. **Fazit**: Die Kombination "Wikingerflotte", "11. Jahrhundert" und "Lübeck" verbindet historisch inkompatible Konzepte.
  • Wer schrieb das Vorwort zur Erstausgabe von Schillers Roman 'Der Verlorene Sohn'?
    J
    **Antwort:** Die Frage enthält eine **falsche Annahme**. Friedrich Schiller hat **keinen Roman** mit dem Titel "Der Verlorene Sohn" geschrieben. Schillers Œuvre besteht hauptsächlich aus: - Dramen (z.B. "Die Räuber", "Kabale und Liebe", "Wilhelm Tell") - Gedichten (z.B. "Ode an die Freude") - Philosophischen und ästhetischen Abhandlungen "Der Verlorene Sohn" ist ein biblisches Gleichnis aus dem Lukasevangelium (15,11-32), aber kein Werk Schillers.
  • Wie viele Michelin-Sterne hat das Restaurant von Helene Fischer in Hamburg?
    J
    Helene Fischer besitzt kein Restaurant in Hamburg oder anderswo. Sie ist eine bekannte Schlagersängerin und lebt zwar in Hamburg, betreibt jedoch kein gastronomisches Unternehmen. Daher existiert auch keine Anzahl an Michelin-Sternen für ein solches Lokal.
  • Bei welcher Luftfeuchtigkeit wachsen Wahrheiten am besten?
    J
    **Antwort:** Diese Frage verbindet zwei inkompatible Konzepte und enthält eine falsche Annahme. **Wahrheiten wachsen nicht.** - **Luftfeuchtigkeit** ist eine physikalische Größe, die das Wachstum von Pflanzen, Schimmel oder anderen biologischen/physischen Prozessen beeinflusst - **Wahrheiten** sind abstrakte Konzepte – sie existieren nicht physisch und können daher auch nicht "wachsen" oder von Umweltbedingungen beeinflusst werden Die Frage impliziert fälschlicherweise, dass Wahrheiten lebende oder physische Wesen mit Wachstumsbedürfnissen wären. Das ist ein Kategorienfehler. Wenn Sie nach den Bedingungen für das Wachstum von Pflanzen fragen, kann ich Ihnen gerne dazu antworten.