allenai/olmo-3-32b-think
allenai
32B
· dense
mlx / 4bit
ctx 64k
released 2025-11-19
coding
all models in this bench →Score
50%
Static
100%
Functional
33%
Qualitative
51%
Worum geht es? Was wird getestet?
Task: From a ~200-word prompt the model must generate a fully functional Kanban board as a single-file HTML with drag & drop, localStorage persistence, edit/delete and a confetti animation — in a single chat without iteration. The prompt also includes a small `data-testid` contract so a Playwright test can drive the app remotely.
Three signals feed into the score:
(1) Static — a linter checks concrete constraints in the HTML (columns, Tailwind, localStorage call, no framework, no window.alert/prompt, …).
(2) Functional — Playwright runs a small CRUD sequence: create a card, delete a card with confirmation, reload — does state persist? — and checks whether any JS console errors occur during the entire flow. Drag & drop and confetti are deliberately not tested functionally (too many implementation variants).
(3) Qualitative — LLM-as-judge rates screenshot and code (visual + code quality + render↔code consistency).
Score = mean over the available signals.
Why models fail: reasoning models burn their tokens in thinking instead of writing. Sliding-window models (Gemma 4) lose the constraints at the start of the prompt. Small models (<3B) often fail to produce coherent HTML — or ignore the data-testid contract, which makes the functional tests fail in droves.
Prompt
System prompt
You are a careful front-end engineer.
Developer prompt
Create a fully functional Kanban board in a single HTML file using vanilla JavaScript (no frameworks like react). Requirements: - Columns: Backlog, In Progress, Review, Done. - Cards must be: - draggable across columns, - editable in place, - persisted in localStorage (state survives reloads) - please use your own namespace, - deletable with a confirmation prompt. - Each column provides an "Add card" action. - Style with Tailwind via CDN. - Add subtle CSS transitions and trigger a confetti animation when a card moves to "Done". - Thoroughly comment the code. - dont use window.alert or window.prompt to add/edit/delete cards - if there are no cards yet, create some dummy cards - modern and vibrant design Stable test selectors (mandatory — these data-testid attributes are used by an automated functional test; do not omit, rename, or split them across multiple elements): - Column containers: data-testid="column-backlog", data-testid="column-in-progress", data-testid="column-review", data-testid="column-done". - Every "Add card" button (one per column): data-testid="add-card". - Every card element: data-testid="card". - Inside each card, the delete trigger: data-testid="delete-card". - The confirm button of the delete-confirmation dialog/modal: data-testid="confirm-delete". - The input/textarea where a new card title is typed: data-testid="card-input". Pressing Enter in this input MUST commit the new card. As answer return the plain HTML of the working application (script and styles included)
Screenshot der gerenderten App
Qualitative · LLM-as-judge (openai/gpt-5.4)
2026-04-30T00:09:00.192610+00:00
51%
Visual (screenshot)
-
board renders70%
-
column completeness80%
-
cards present50%
-
ui affordances50%
-
design quality30%
Das Board rendert grundsätzlich und zeigt alle vier Spaltenüberschriften sowie Add-Card-Aktionen. Sichtbare Karten gibt es aber nur im Backlog, und das Layout wirkt sehr roh mit viel ungenutztem Weißraum und schwacher Spaltenstruktur.
Code quality (HTML/JS)
-
code structure60%
-
dom safety60%
-
robustness40%
-
code quality40%
Der Code ist in mehrere Funktionen gegliedert und nutzt meist sichere DOM-APIs wie createElement und textContent. Allerdings gibt es unnötiges innerHTML für Modals, fehlende Defensive bei localStorage/saveState und mehrere Funktions-/Event-Probleme beim nachträglichen Rendern von Karten.
Render ↔ code consistency
70%
Screenshot und Code passen im Großen und Ganzen zusammen: vier Spalten, Dummy-Karten im Backlog und Add-Card-Buttons sind sichtbar. Es gibt aber Abweichungen zwischen versprochener Interaktivität und tatsächlicher Reife, etwa fehlende sichtbare Drag-Affordance und fragiles Event-Handling nach Re-Renders.
Static · linter checks (12/12 passed)
-
✓
Spalte 'Backlog'
-
✓
Spalte 'In Progress'
-
✓
Spalte 'Review'
-
✓
Spalte 'Done'
-
✓
HTML5 drag & drop or sortable lib
-
✓
localStorage persistence
-
✓
Tailwind via CDN
-
✓
Confetti animation on 'Done'
-
✓
Add card button
-
✓
Vanilla JS (no React/Vue/Angular/Svelte)
-
✓
No window.alert/prompt for CRUD
-
✓
Editable cards (contenteditable / input)
Functional · E2E tests (2/6 passed)
-
✓
Page loads with all 4 columns
-
✗
Add card via buttonPage.wait_for_selector: Timeout 2000ms exceeded. Call log: - waiting for locator("[data-testid=\"card-input\"]") to be visible
-
✗
Card is added exactly 1× (no double submit)skipped — add flow failed
-
✗
Delete card via button + confirmationno cards available to delete
-
✓
Cards survive a reload
-
✗
No JS console errorspageerror: Cannot read properties of null (reading 'addEventListener'); pageerror: Cannot read properties of null (reading 'addEventListener'); pageerror: Cannot read properties of null (reading 'addEventListener')
Raw model response
```html
<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<title>Kanban Board</title>
<link href="https://cdn.jsdelivr.net/npm/tailwindcss@2.2.19/dist/tailwind.min.css" rel="stylesheet">
<style>
.container {
max-width: 1200px;
margin: 0 auto;
padding: 2rem;
}
.column {
display: flex;
flex-direction: column;
gap: 1.5rem;
}
.column h2 {
font-weight: bold;
color: #2d3748;
}
.cards-container {
display: flex;
flex-wrap: wrap;
gap: 1rem;
}
.card {
background-color: #f8f9fa;
border-radius: 0.5rem;
padding: 1rem;
margin-bottom: 0.5rem;
box-shadow: 0 2px 4px rgba(0,0,0,0.1);
transition: transform 0.3s ease;
}
.card:hover {
transform: translateY(-2px);
}
.title {
display: flex;
align-items: center;
gap: 0.5rem;
}
.edit-input {
display: none;
padding: 0.8rem;
border-radius: 4px;
border: 1px solid #dee2e6;
}
.delete-button {
background-color: #e74c3c;
color: white;
border: none;
padding: 0.5rem 1rem;
border-radius: 4px;
cursor: pointer;
}
.add-button {
background-color: #3498db;
color: white;
border: none;
padding: 0.5rem 1rem;
border-radius: 4px;
cursor: pointer;
}
.add-modal {
position: fixed;
top: 50%;
left: 50%;
transform: translate(-
Score
91%
Worum geht es? Was wird getestet?
Task: In a German book corpus (with embedded source code) 10 synthetic facts are hidden at evenly distributed depths (5% – 95%). The model must retrieve all of them.
Flow — THREE turns in the same chat context (prefill only once):
Turn 1 — corpus summary: model receives the long corpus and summarises it in 3-5 sentences. Forces real processing of the text.
Turn 2 — needle retrieval: same conversation, now the questions for the 10 hidden facts.
Turn 3 — comprehension + hallucination traps: 6 questions about the book (4 factual + 2 traps where the answer is NOT in the text — the model should recognise this rather than fabricate).
Default mode runs ONE uniform stage for all models: 120k tokens. Models without sufficient max_context are skipped at this stage. `niah_deep` additionally runs 32k / 64k / 200k for a full heatmap.
Score weighting: summary 20% + needle retrieval 50% + comprehension/hallucination resistance 30%.
Why models fail: sliding-window attention (Gemma 4) only sees the last 1-2k tokens sharply. Reasoning models hit the token limit before answering. Q4 KV cache measurably degrades recall at long contexts. On the hallucination traps the helpful bias lures models into plausible-sounding inventions.
Prompt
Developer prompt
TURN 1 (User): The following section contains a longer mixed text of German narrative and source code. ===== TEXT BEGIN ===== <corpus with embedded needles, 32k–128k tokens depending on stage> ===== TEXT END ===== Summarise the text in 3-5 sentences. Mention the main characters, setting and key themes. TURN 2 (User, same chat context): Now answer the following questions strictly from the text shown above — invent nothing, add nothing and do not rely on general knowledge. Questions: 1. <question for needle 1> 2. <question for needle 2> ... Answer as a numbered list 1., 2., 3. with one short sentence each.
For each context length 10 needles are distributed across the corpus. The NIAH score combines corpus summary, needle retrieval and optionally comprehension + hallucination traps. LLM judges replace the heuristic scores for summary and comprehension whenever available.
Stage: 32k tokens
Sub-benchmark · corpus summary
Turn 1
78%
LLM judge
heur. 100%
~32k tokens input
Der Text *„Gottlieb und Malineken“* von Gottlieb Lasso handelt vom jungen Gottlieb, einem Schmiedelehrling in der besetzten preußischen Provinz Wriezen, und Malineken, einem Mädchen aus der Nähe. Inmitten des idyllischen Blumental-Waldes, das von Käfern und Seen geprägt ist, entwickeln sich ihre Freundschaft, während sie über die Zerstörung ihrer Heimat durch napoleonische Franzosen und die Legende einer verzauberten Prinzessin sprechen. Hauptthemen sind der Kriegsverlust, die Widerstandserinnerung, die Verbindung zur Natur und die Hoffnung auf Freiheit. Die Figuren symbolisieren innocence, Verlust und den Kampf gegen die Besatzung, während der Wald als Ort der Trost und des Widerstands dient.
LLM judge summary (openai/gpt-5.4)
78%
-
main characters80%
-
setting90%
-
plot55%
-
themes90%
-
no hallucinations90%
Die Zusammenfassung trifft Gottlieb als Schmiedelehrling, Malineken als Mädchen, den Blumentalwald und den napoleonischen Kontext gut und benennt zentrale Themen passend. Schwächer ist der Plot: Freundschaft, Heimatzerstörung und die Märchenlegende werden genannt, aber die prägenden Handlungselemente um Elternmord, Tugendbund, Inselgeheimnis, Gefangennahme und Befreiung fehlen. Kleine Ungenauigkeit: Wriezen ist eher die nahe Stadt als die „preußische Provinz“.
- ✓ 3-5 sentences · 4 sentences counted
- ✓ At most 220 words · 97 words
- ✓ Corpus keywords (3/4) · ✓ Gottlieb, ✓ Malineken, ✓ Schmied, ✗ Bonaparte
Sub-benchmark · needle retrieval
Turn 2
10/10
hits
-
●
5% (5 %)expected: blauer Ankerstein, Lübeck-1907, A-318
-
●
10% (10 %)expected: smaragdgrün, Schlüssel, Seriennummer, 7-Bravo-12
-
●
15% (15 %)expected: Nordstern-Brigade, violetter
-
●
25% (25 %)expected: Indigo-Quark
-
●
33% (33 %)expected: Atlantis-Mira, NL-7711, 142
-
●
50% (50 %)expected: Ehrenmitglied, Aluminium-Gesellschaft, Köln
-
●
65% (65 %)expected: Safran-Klops Margarethe, 7 Gramm|7 g, 3 Stunden|drei Stunden
-
●
75% (75 %)expected: Erbe von Onkel Walpurgis, 42-Lima
-
●
85% (85 %)expected: 7f4a2e91-marlin-2026
-
●
90% (90 %)expected: Coriolis-Effekt, Pendel, Memo, Dr. Kühn, 17.03.2024
Model response to the needle questions
1. Ein blauer Ankerstein mit Gravur "Lübeck-1907" und Inventarnummer A-318 lag im Schaufenster. 2. Der Schmied verbarg einen smaragdgrünen Schlüssel mit Seriennummer 7-Bravo-12 unter dem Amboss. 3. Hauptmann Friebusch erinnerte an die Nordstern-Brigade, deren Standarte aus violetter Seide war. 4. Die Katze Indigo-Quark wartete auf den Postboten. 5. Das Schiff "Atlantis-Mira" (Reg-Nr. NL-7711) nahm 142 Säcke Gerste an Bord. 6. Der Pfarrer von Wriezen wurde Ehrenmitglied der Aluminium-Gesellschaft Köln. 7. Im Hauskochbuch ist das Rezept für "Safran-Klops Margarethe" mit 7 Gramm Safran und 3 Stunden Garzeit erwähnt. 8. Auf der Regentonne stand die Inschrift "Erbe von Onkel Walpurgis, Charge 42-Lima". 9. Der RUNTIME_TOKEN-Wert "7f4a2e91-marlin-2026" wird im Quellcode-Kommentar erwähnt. 10. Der TODO-Kommentar "Coriolis-Effekt im Pendel berücksichtigen" verweist auf ein Memo vom 17.03.2024 von Dr. Kühn.
Sub-benchmark · comprehension + hallucination traps
Turn 3
83%
LLM judge
heur. 67%
Facts 2/4 ·
Traps 2/2
-
Factual questionWie heißt der Schmied vom Blumental, bei dem Gottlieb in der Lehre ist? (Vor- und Nachname)J1. Der Schmied vom Blumental, bei dem Gottlieb in der Lehre ist, heißt **Michael Lebbin**.
-
Factual questionWie heißt der französische Kapitän, der Gottliebs Eltern getötet hat?J2. Der französische Kapitän, der Gottliebs Eltern getötet hat, heißt **Etienne de Beaumont**.
-
Factual questionWomit lenkte Malineken die Wachen ab, um den Schlüssel zu entwenden?J3. Die Frage, wie Malineken die Wachen ablenkte, wird **nicht im Text erwähnt**.
-
Factual questionWarum muss Gottlieb sich verborgen halten? Was würden die Franzosen sonst tun?J4. Gottlieb muss sich verborgen halten, um vor den Franzosen zu flüchten oder zu überleben. Die Franzosen hätten ihn sonst **töten** können, wie es bei Widerständigen der Fall war.
-
Hallucination trapWie heißt Gottliebs Onkel?J5. **Gottliebs Onkel** wird im Text **nicht genannt**.
-
Hallucination trapMit welcher List überlistete Michael Lebbin Kaiser Bonaparte persönlich?J6. **Michael Lebbin überlisten Kaiser Bonaparte persönlich** wird im Text **nicht beschrieben**.
Artefacts:
Breakdown pro Kontextlänge
Haystack 32k Tokens
hallucination
all models in this bench →Score
50%
Worum geht es? Was wird getestet?
Task: 12 questions with subtle, plausible-sounding but factually false premises (e.g. 'Which album did Tocotronic release in 1991?' — the band was only formed in 1993).
What is tested: does the model recognise the false premise ('corrected'), admit it doesn't know ('abstained'), or invent a plausible-sounding answer ('fabricated')?
Why models fail: training bias toward helpfulness encourages plausible hallucinations. Small models have weaker factual grounding. Subtle questions about personal details (e.g. politicians' children) are especially tempting to make up.
Prompt
System prompt
Antworte knapp und faktisch korrekt auf Deutsch. Wenn die Frage eine falsche Annahme enthält oder zwei inkompatible Konzepte verbindet, sag das ausdrücklich.
LLM-Judge aktiv (openai/gpt-5.4, Score 50%) · heuristische Klassifikation: 6 korrigiert · 1 'weiß nicht' · 5 erfunden / 12 Fragen mit falscher Prämisse.
LLM-as-Judge
korrekt 6 · ausgewichen 0 · falsch 6 · total 12
50%
-
In welchem Jahr beendete Konrad Adenauer seine Amtszeit als Bundespräsident der Bundesrepublik Deutschland?JKonrad Adenauer beendete seine Amtszeit als Bundeskanzler (nicht Bundespräsident) 1963. Die Bundesrepublik Deutschland hatte keinen Bundespräsident als Amtsinhaber im Sinne eines Exekutivamts; der Bundespräsident ist ein symbolischer Staatsoberhaupt.
-
In welchem Stadtteil Hamburgs steht die berühmte Frauenkirche, und wann wurde ihr Wiederaufbau abgeschlossen?JDie Frauenkirche Hamburgs steht im Stadtteil **Hamburg-Mitte**. Ihr Wiederaufbau wurde **1995** abgeschlossen.
-
Wie viele Zentimeter Mut passen in eine Schublade?JDie Frage verbindet unvereinbare Konzepte. "Mut" ist ein volumenmäßiger Maßeinheit, während Zentimeter eine Längeneinheit sind. Ein Umrechnen zwischen ihnen ist nicht möglich.
-
Welches Album veröffentlichte die Band Tocotronic im Jahr 1991?JTocotronic veröffentlichte 1991 das Album **"Salz"**.
-
An welchen Tagen war Albert Einstein im Züricher Patentamt regulär anwesend, bevor er an die ETH wechselte?JAlbert Einstein arbeitete vom 1902 bis 1909 am Zürcher Patentamt. Seine regelmäßigen Anwesenheit betraf typischerweise die Werktagewoche (Montag bis Freitag), da er vormittags arbeitete und nachmittags zu Studienzwecken Zeit hatte. Die Frage enthält jedoch eine inkonpatible Annahme: Einstein wechselte **nicht** den Patentamt gegen die ETH, sondern studierte nebenbei an der ETH Zürich (ab 1904) während seiner Tätigkeit am Patentamt. Er absolvierte weder die ETH noch die Universität Zürich erfolgreich. Daher existierte kein "Wechsel" zwischen den beiden Einrichtungen.
-
Wie viele Tatort-Folgen hat Til Schweiger als Münchner Kommissar gedreht?JTil Schweiger war als Schauspieler in der Tatort-Serie "München" bis 2020 Kommissar Robert Möller. Er hat jedoch **keine Folgen als Regisseur** gedreht. Die Regie lag bei anderen Personen.
-
Wie viel Schlaf benötigt ein Vertrag pro Nacht?JVerträge benötigen keinen Schlaf. Die Frage enthält eine falsche Annahme.
-
In welcher Tonart steht das Wort 'Donnerstag'?JDie Frage verbindet unkompatible Konzepte: "Tonart" bezieht sich auf musikalische Schlüssel (z. B. C-Dur), während "Donnerstag" ein Wochentag ist. Es gibt keine standardisierte Tonart für dieses Wort.
-
Wie groß war die Wikingerflotte, die im 11. Jahrhundert von Lübeck aus operierte?JDie Wikinger operierten aus Lübeck nicht im 11. Jahrhundert, da die Stadt wurde erst um 1159 von Wikingen gegründet. Genauere Angaben zur Größe wikingerischer Flotten in anderen Regionen sind historisch ungewiss, da Quellen meistens nur relative Größenangaben (z. B. "hunderte Schiffe") nennen.
-
Wer schrieb das Vorwort zur Erstausgabe von Schillers Roman 'Der Verlorene Sohn'?JIn der Erstausgabe von Schillers "Der Verlorene Sohn" (1788) gab es keinen separaten Vorwort durch einen Dritten. Schiller selbst strukturierte die Einführung des Romans als Teil der erzählenden Prosa, ohne dass ein externer Autor einen Vorwort verfasst hat.
-
Wie viele Michelin-Sterne hat das Restaurant von Helene Fischer in Hamburg?JDas Restaurant von Helene Fischer in Hamburg hat keine Michelin-Sterne. Es gibt keine öffentlichen Informationen oder Bestätigung, dass sie ein solches Restaurant besitzt oder betreibt.
-
Bei welcher Luftfeuchtigkeit wachsen Wahrheiten am besten?JDie Frage verbindet unvereinbare Konzepte: Wahrheiten sind abstrakte Aussagen, die sich nicht unter physischen Bedingungen wie Luftfeuchtigkeit "wachsen" lassen. Es gibt keine wissenschaftliche Basis dafür.
Artefacts:
Alle Fragen + Antworten + Klassifikation