markdownllm-qualitättoken-optimierungki-workflowprompt-engineering

Warum Markdown LLMs intelligenter macht – nicht nur günstiger

Web2MD Team2026-02-286 min read

Warum Markdown LLMs intelligenter macht – nicht nur günstiger

Die meisten Menschen entdecken Markdown-zu-KI-Workflows über Kosteneinsparungen. Sie stellen fest, dass die Konvertierung einer Webseite von rohem HTML in Markdown den Token-Verbrauch um 80–90 % senkt, rechnen nach und wechseln sofort.

Diese Betrachtungsweise ist zutreffend, aber unvollständig. Die Token-Reduktion ist ein Nebeneffekt. Der eigentliche Grund, warum Markdown für LLMs besser funktioniert, ist strukturell: Markdown ist ein Format, bei dem Dokumentstruktur und semantische Bedeutung dasselbe sind. Bei HTML ist das nicht der Fall. Dieser Unterschied ist wichtiger als die Zeichenanzahl.

Wie LLMs Inhalte tatsächlich lesen

Bevor erklärt wird, warum Markdown gewinnt, hilft es zu verstehen, was ein Sprachmodell tatsächlich tut, wenn es Text verarbeitet.

LLMs „lesen" nicht so wie Menschen. Sie konvertieren Ihre Eingabe in Tokens – Textabschnitte von je etwa 3–4 Zeichen – und verarbeiten diese Tokens durch Aufmerksamkeitsschichten, die Beziehungen zwischen ihnen erlernen. Das Modell besitzt keinen visuellen Renderer. Es kann nicht ableiten, dass etwas eine Überschrift ist, weil es im Browser groß und fett erscheint. Es kann nur mit der empfangenen Token-Sequenz arbeiten.

Das bedeutet: Die Signalqualität Ihres Eingabetexts – wie klar die Struktur in den Tokens selbst kodiert ist – bestimmt direkt, wie gut das Modell den Inhalt versteht.

Das Problem: HTML trennt Struktur von Bedeutung

HTML wurde für Browser entwickelt, nicht für Sprachmodelle. Ein Browser rendert <div class="article-headline"> als große, fette Überschrift. Das Modell sieht Folgendes:

<div class="article-headline">Why Markdown Makes LLMs Smarter</div>

Was in etwa so tokenisiert wird:

< div  class = " article - headline " > Why  Markdown  Makes  LL Ms  Sm arter </ div >

Das strukturelle Signal – „das ist die Hauptüberschrift" – steckt in einem Klassennamen-String. Das Modell muss durch Training lernen, dass article-headline auf Bedeutung hindeutet. In der Regel gelingt das, aber es arbeitet gegen das Format, nicht damit.

Betrachten Sie nun tiefere Verschachtelungen, wie sie auf echten Webseiten üblich sind:

<div class="container">
  <div class="content-wrapper">
    <article class="post">
      <div class="post-body">
        <h2 class="section-title">Key Findings</h2>
        <p>The results showed...</p>
      </div>
    </article>
  </div>
</div>

Wenn das Modell Key Findings erreicht, hat es bereits vier Ebenen strukturellen Rauschens verarbeitet. Das eigentliche <h2>-Tag ist das einzige bedeutungsvolle Signal – und es konkurriert mit einem Klassennamen (section-title), der es möglicherweise verstärkt oder auch nicht.

Warum Markdown Struktur und Semantik vereint

Markdown löst dieses Problem, indem es Struktur und Bedeutung identisch macht. Es gibt keine Trennung zwischen „wie es aussieht" und „was es bedeutet".

## Key Findings

The results showed...

Das ##-Präfix ist das semantische Signal. Es bedeutet eindeutig „Überschrift zweiter Ebene". Keine Klassennamen, keine Wrapper-Divs, keine konkurrierenden Signale. Das Modell erhält genau die Information, die es benötigt, direkt in der Token-Sequenz kodiert.

Dieses Muster gilt für alle Markdown-Elemente:

| Inhaltstyp | HTML-Signal | Markdown-Signal | |---|---|---| | Hauptüberschrift | <h1> oder <div class="title"> oder <span id="headline"> | # | | Unterüberschrift | <h2> bis <h6> oder gestylte Divs | ## bis ###### | | Hervorgehobener Text | <strong>, <b>, <span class="bold"> | **text** | | Code | <code>, <pre>, <div class="highlight"> | `code` oder Code-Blöcke | | Liste | <ul>/<li> oder <div class="list-item"> | - eintrag | | Link | <a href="..."> mit umgebenden Markup | [text](url) |

In HTML gibt es typischerweise 3–5 Möglichkeiten, dasselbe semantische Element zu kodieren, und die tatsächliche Verwendung variiert je nach Website. In Markdown gibt es einen Weg. Diese Konsistenz ist nicht nur ordentlicher – sie ist der Grund, warum Modelle Markdown zuverlässiger verarbeiten.

So sieht es in der Praxis aus

Hier ist ein Abschnitt aus einem echten Technologieartikel, auf zwei Arten verarbeitet und mit demselben Prompt an Claude gesendet: „Fasse die drei Hauptschlussfolgerungen zusammen."

Eingabe A: Rohes HTML-Extrakt (4.200 Tokens)

<div class="article-body">
  <div class="content-section" data-section="conclusions">
    <h3 class="section-heading" id="section-3">Conclusions</h3>
    <div class="paragraph-wrapper">
      <p class="body-text">First, the researchers found that response latency...</p>
    </div>
    ...
  </div>
</div>

Ergebnis: Das Modell identifizierte 2 von 3 Schlussfolgerungen korrekt. Die dritte wurde mit einer methodischen Anmerkung in einem nahen <aside>-Tag vermischt, das das Modell nicht als nicht-primären Inhalt erkannte.

Eingabe B: Konvertiertes Markdown (890 Tokens)

## Conclusions

First, the researchers found that response latency...

Ergebnis: Alle 3 Schlussfolgerungen wurden korrekt identifiziert. Der <aside>-Inhalt wurde vom Konverter als ergänzend korrekt ausgeschlossen und erreichte das Modell daher nie.

Die Token-Anzahl sank um 79 %. Die Genauigkeit verbesserte sich in diesem Beispiel von 67 % auf 100 %. Beide Veränderungen hatten dieselbe Ursache: sauberere strukturelle Kodierung.

Die Token-Zahlen (und warum sie eine Folge sind, nicht die Ursache)

Da Kosten eine Rolle spielen, hier die Daten aus der Verarbeitung eines technischen Artikels mit 1.500 Wörtern:

| Eingabeformat | Token-Anzahl | Kosten (Claude Sonnet) | Signal-Rausch-Verhältnis | |---|---|---|---| | Rohes HTML | 16.820 | 0,050 $ | ~6 % | | Bereinigter Klartext | 3.450 | 0,010 $ | ~35 % | | Sauberes Markdown | 1.890 | 0,006 $ | ~92 % |

Der Kostenunterschied ist real – 88 % günstiger als rohes HTML. Beachten Sie jedoch, dass bereinigter Klartext (einfaches Entfernen von HTML-Tags) die Token-Anzahl ebenfalls erheblich senkt, das Signal-Rausch-Verhältnis aber bei 35 % verbleibt. Klartext verliert alle strukturellen Informationen: keine Überschriften, keine Hervorhebungen, keine Listenhierarchie. Man zahlt weniger, aber das Modell hat weniger Anhaltspunkte.

Markdown trifft das Optimum: maximale strukturelle Information bei minimalen Token-Kosten. Deshalb ist es das richtige Format für LLM-Eingaben – nicht nur das günstigere.

Drei Szenarien, in denen die Formatqualität die Ergebnisse verändert

1. Zusammenfassung

Beim Zusammenfassen eines langen Artikels muss das Modell erkennen, welche Abschnitte primärer Inhalt und welche ergänzend sind. Die Markdown-Überschriftenhierarchie (#, ##, ###) macht das explizit. Klartext und schlecht strukturiertes HTML zwingen das Modell, dies allein aus dem Inhalt zu schlussfolgern – was die Wahrscheinlichkeit erhöht, dass Seitenleisten-Hinweise, Autorenbiografien oder verwandte Artikel in die Zusammenfassung einbezogen werden.

2. Fragen und Antworten über Webinhalte

Wenn Sie eine Webseite einfügen und eine spezifische Frage stellen, muss das Modell zunächst den relevanten Abschnitt finden. In einem sauberen Markdown-Dokument fungieren Überschriften-Tokens als Inhaltsverzeichnis, durch das das Modell navigieren kann. In rohem HTML erfordert das Auffinden des relevanten Abschnitts das Parsen durch Wrapper-Divs und Klassenattribute, bevor der Inhalt erreicht wird – was das Kontextfenster komprimiert und die Wahrscheinlichkeit erhöht, dass das Modell auf den falschen Bereich aufmerksam wird.

3. Code-Extraktion

Technische Seiten enthalten häufig Code-Beispiele, die mit Prosa-Erklärungen gemischt sind. Markdown-Code-Blöcke (```) schaffen eine eindeutige Grenze. Das Modell weiß genau, wo der Code beginnt und endet. In HTML kann Code in <pre>, <code>, <div class="highlight"> oder einer benutzerdefinierten Komponente ohne standardisierten Tag eingebettet sein – alles verschiedene Token-Muster für denselben semantischen Inhalt.

Das praktische Fazit

Wenn Sie Webinhalte an ein LLM übergeben – für Recherche, Zusammenfassung, Fragen und Antworten oder Datenextraktion – ist das verwendete Format genauso wichtig wie der geschriebene Prompt. Sauberes Markdown ist kein nettes Beiwerk. Es ist das Eingabeformat, für dessen Verständnis LLMs implizit trainiert wurden, weil ein erheblicher Teil ihres Trainingskorpus (GitHub, Wikipedia, Dokumentationsseiten, Stack Overflow) bereits in Markdown oder Markdown-ähnlichen Formaten vorliegt.

Die Kosteneinsparungen sind ein Bonus. Die Qualitätsverbesserung ist der eigentliche Punkt.


Konvertieren Sie jede Webseite mit einem Klick in sauberes, LLM-optimiertes Markdown. Web2MD ausprobieren — kostenlos für Chrome.

Related Articles