Irgendwann kommt der Moment, in dem man vor Google Analytics sitzt und denkt: „Die Zahlen müssten eigentlich besser sein." Traffic stagniert, Rankings bewegen sich kaum, und man hat keine Ahnung, woran es liegt. Genau da hilft ein strukturierter SEO Audit.
Ein SEO Audit ist keine einmalige Aktion, sondern ein Werkzeug, das regelmäßig eingesetzt werden sollte. In diesem Beitrag gehe ich Schritt für Schritt durch, worauf es wirklich ankommt, und zeige dir, wie du deinen eigenen Audit aufbaust, ohne dabei den Überblick zu verlieren.
Und weil es 2026 nicht mehr reicht, nur für Google zu optimieren, schauen wir uns am Ende auch an, wie du Inhalte für KI-Systeme wie ChatGPT, Perplexity oder Google AI Overviews aufbereitest.
WAS IST EIN SEO AUDIT?
Ein SEO Audit ist eine strukturierte Analyse einer Website, bei der technische Grundlagen, On-Page-Optimierung und Inhaltsqualität auf Schwachstellen und Potenziale untersucht werden. Das Ziel ist es, herauszufinden, warum eine Seite in Suchmaschinen nicht so performt, wie sie sollte, und konkrete Maßnahmen abzuleiten.
Ein guter Audit deckt fünf Bereiche ab:
- Crawlability und Indexierung (kann Google die Seite überhaupt finden?)
- Technisches Fundament (ist die Seite schnell und fehlerfrei?)
- On-Page-Optimierung (sind Inhalte für Suchmaschinen aufbereitet?)
- Content-Qualität (verdient die Seite gute Rankings?)
- Autorität und Links (hat die Seite Glaubwürdigkeit im Netz?)
Diese Reihenfolge ist kein Zufall. Was nützt der beste Content, wenn Google die Seite gar nicht crawlen kann?
┌─────────────────────────────────────────────────────┐
│ SEO AUDIT 2026 │
│ ANALYSE-REIHENFOLGE │
└──────────────────────┬──────────────────────────────┘
│
┌────────────────┼────────────────┐
▼ ▼ ▼
┌───────────┐ ┌───────────┐ ┌───────────────┐
│ CRAWL- │ │ INDEXIE- │ │ TECHNISCHES │
│ ABILITY │ │ RUNG │ │ FUNDAMENT │
│ │ │ │ │ │
│ robots.txt│ │ Canonical │ │ Core Web │
│ Sitemap │ │ Noindex │ │ Vitals │
│ Struktur │ │ Redirects │ │ HTTPS/Mobile │
└─────┬─────┘ └─────┬─────┘ └──────┬────────┘
│ │ │
└───────────────┼────────────────┘
▼
┌────────────────────────────────┐
│ ON-PAGE SEO │
│ │
│ Title Tags · Meta Desc │
│ Überschriften · Bilder │
│ Interne Verlinkung │
└───────────────┬────────────────┘
▼
┌────────────────────────────────┐
│ CONTENT & AUTORITÄT │
│ │
│ E-E-A-T · Thin Content │
│ Keyword-Mapping · Backlinks │
│ Schema Markup │
└───────────────┬────────────────┘
▼
┌────────────────────────────────┐
│ GEO-READINESS │
│ │
│ Definitionen · FAQ │
│ Zitierbare Aussagen │
│ Vollständige Antworten │
└────────────────────────────────┘
SCHRITT 1: KÖNNEN SUCHMASCHINEN DEINE WEBSITE ÜBERHAUPT FINDEN?
Was ist Crawlability und warum ist sie so wichtig?
Crawlability beschreibt, wie gut Suchmaschinen-Bots wie der Googlebot in der Lage sind, eine Website zu durchsuchen und ihre Seiten zu erfassen. Wenn eine Seite nicht gecrawlt werden kann, wird sie auch nicht in den Index aufgenommen, und dann rankt sie nirgendwo.
Die drei wichtigsten Prüfpunkte:
robots.txt
Diese Datei (erreichbar unter deinedomain.de/robots.txt) teilt Suchmaschinen mit, welche Bereiche sie nicht crawlen sollen. Das Problem: Manchmal werden wichtige Seiten aus Versehen blockiert. Häufig passiert das nach einem Relaunch oder wenn jemand im CMS-Backend eine Option falsch gesetzt hat.
Was du prüfen solltest:
- Sind wichtige Seiten freigegeben?
- Gibt es einen Verweis auf die XML-Sitemap?
- Werden keine wichtigen Verzeichnisse geblockt (z.B.
/wp-content/oder Produktkategorien)?
XML-Sitemap
Eine XML-Sitemap ist eine strukturierte Liste aller wichtigen Seiten deiner Website, die du Suchmaschinen zur Verfügung stellst. Sie hilft Google, deine Inhalte vollständig zu erfassen.
Checkliste für die Sitemap:
- Existiert sie und ist sie unter
/sitemap.xmloder/sitemap_index.xmlerreichbar? - Wurde sie in der Google Search Console eingetragen?
- Enthält sie nur Seiten, die auch indexiert werden sollen (keine Weiterleitungsseiten, keine Noindex-URLs)?
- Wird sie regelmäßig aktualisiert?
Seitenarchitektur
Kein Nutzer und kein Bot mag es, ewig nach Inhalten zu suchen. Die Faustregel: Jede wichtige Seite sollte innerhalb von drei Klicks von der Startseite erreichbar sein. Orphan Pages (verwaiste Seiten), also Seiten ohne eingehende interne Links, werden von Google oft gar nicht erst gefunden.
SCHRITT 2: INDEXIERUNG PRÜFEN, EIN OFT UNTERSCHÄTZTER SCHRITT
Crawlability und Indexierung werden oft verwechselt. Eine Seite kann gecrawlt worden sein, aber trotzdem nicht im Google-Index landen. Und umgekehrt.
Schnelltest: Gib in der Google-Suche site:deinedomain.de ein. Die Anzahl der angezeigten Ergebnisse gibt dir einen groben Überblick, wie viele Seiten indexiert sind. Stimmt die Zahl mit deiner erwarteten Seitenanzahl überein?
Typische Indexierungsprobleme:
| Problem | Mögliche Ursache |
|---|---|
| Wichtige Seiten nicht im Index | Noindex-Tag versehentlich gesetzt |
| Zu viele Seiten indexiert | Parameterseiten, Filterseiten ohne Canonical |
| Doppelte Inhalte im Index | Fehlende oder falsche Canonical Tags |
| Soft 404s | Leere Seiten liefern HTTP 200 statt 404 |
Canonical Tags verdienen besondere Aufmerksamkeit. Ein Canonical Tag ist ein HTML-Element, das angibt, welche Version einer Seite als "ursprünglich" gilt, wenn ähnliche oder identische Inhalte unter verschiedenen URLs erreichbar sind. Zum Beispiel: Wenn ein Produkt unter mehreren URLs erreichbar ist (mit und ohne Trailing Slash, mit und ohne Parameter), sorgt der Canonical dafür, dass Google die richtige bevorzugt.
SCHRITT 3: TECHNISCHES SEO, DAS FUNDAMENT FÜR ALLES ANDERE
Core Web Vitals: Googles Messlatte für Nutzererfahrung
Seit 2021 fließen die Core Web Vitals als offizieller Rankingfaktor in Googles Algorithmus ein. Die drei Messgrößen:
LCP (Largest Contentful Paint): Wie lange dauert es, bis das größte sichtbare Element einer Seite geladen ist?
- Zielwert: unter 2,5 Sekunden
- Häufige Ursachen für schlechte Werte: unkomprimierte Bilder, fehlende CDN-Nutzung, langsamer Server
INP (Interaction to Next Paint): Wie schnell reagiert die Seite auf Nutzereingaben?
- Zielwert: unter 200 Millisekunden
- Häufige Ursachen: zu viel JavaScript, blockierende Skripte
CLS (Cumulative Layout Shift): Wie stark verschiebt sich das Layout während des Ladens?
- Zielwert: unter 0,1
- Häufige Ursachen: Bilder ohne feste Dimensionen, nachgeladene Werbebanner
Wo messen? Google PageSpeed Insights ist der einfachste Einstieg. Für tiefere Analysen lohnt sich WebPageTest.
Weitere technische Faktoren, die oft übersehen werden
HTTPS und SSL: Eine selbstverständliche Grundvoraussetzung heutzutage. Trotzdem gibt es immer noch Seiten mit ungültigem Zertifikat oder Mixed Content (also Ressourcen, die über HTTP geladen werden, obwohl die Seite HTTPS verwendet). Mixed Content-Warnungen im Browser sind ein schlechtes Signal.
Mobile-Freundlichkeit: Google bewertet Websites primär nach ihrer mobilen Version (Mobile-First Indexing). Das bedeutet: Wenn auf dem Smartphone weniger Inhalt zu sehen ist als auf dem Desktop, sieht Google auch weniger.
URL-Struktur: Gute URLs sind kurz, sprechend und enthalten das relevante Keyword. Schlechte URLs sehen so aus: deinedomain.de/?p=1234. Gute URLs so: deinedomain.de/seo-audit-checkliste.
SCHRITT 4: ON-PAGE SEO, DER TEIL, DEN DIE MEISTEN KENNEN
Title Tags: Dein erster Eindruck in der Google-Suche
Der Title Tag (auf Deutsch: Seitentitel) ist das, was in der Suchergebnisseite als blauer Klicklink erscheint. Er ist einer der wichtigsten On-Page-SEO-Faktoren überhaupt.
Worauf es ankommt:
- Jede Seite braucht einen einzigartigen Title Tag
- Das primäre Keyword steht möglichst weit vorne
- Die optimale Länge liegt bei 50 bis 60 Zeichen (sonst wird der Titel in den Suchergebnissen abgeschnitten)
- Der Titel sollte zum Klicken einladen, nicht nur für Bots optimiert sein
- Markenname kommt in der Regel ans Ende
Häufige Fehler:
Doppelte Title Tags sind ein klassisches Problem, besonders bei größeren Websites. Wenn fünf Seiten alle den gleichen Titel haben, weiß Google nicht, welche davon für eine Suchanfrage relevant ist.
Keyword-Stuffing (also das übermäßige Wiederholen von Keywords) funktioniert nicht. Google ist klug genug, das zu erkennen, und es klingt für Nutzer einfach seltsam.
Meta Descriptions: Kein Rankingfaktor, aber wichtig für Klicks
Die Meta Description ist kein direkter Rankingfaktor. Trotzdem beeinflusst sie, ob jemand auf dein Ergebnis klickt oder an dir vorbeiscrollt. Eine gute Meta Description:
- Ist einzigartig pro Seite
- Liegt bei 150 bis 160 Zeichen
- Enthält das primäre Keyword (wird in der Suche fett markiert)
- Hat ein klares Nutzenversprechen oder einen Call-to-Action
Wenn du keine Meta Description setzt, zieht Google sich selbst einen Text aus dem Seiteninhalt. Das geht manchmal gut, meistens aber nicht.
Überschriftenstruktur: H1 bis H6 richtig nutzen
Jede Seite braucht genau eine H1-Überschrift (die Hauptüberschrift). Sie sollte das primäre Keyword enthalten und klar beschreiben, worum es auf der Seite geht. Danach kommen H2-Überschriften für die Hauptabschnitte, H3 für Unterabschnitte, und so weiter.
Was ich in Audits immer wieder sehe:
- Mehrere H1-Tags auf einer Seite (oft weil der Seitentitel und das Logo beide als H1 formatiert sind)
- Überschriften, die nicht beschreiben, was danach kommt, sondern nur für optische Gestaltung genutzt werden
- Sprünge in der Hierarchie (von H1 direkt auf H3)
SCHRITT 5: BILDER UND INTERNE VERLINKUNG
Bilder richtig optimieren
Bilder sind häufig die größten Ladezeit-Killer auf einer Seite. Und gleichzeitig eine Chance, über die Google Bildersuche Traffic zu bekommen.
Checkliste für Bilder:
- Alle Bilder haben einen Alt-Text (eine kurze Beschreibung des Bildinhalts für Screenreader und Suchmaschinen)
- Dateinamen sind beschreibend (
seo-audit-screenshot.jpg) statt kryptisch (IMG_4832.jpg) - Bilder sind komprimiert (Tools: Squoosh, TinyPNG)
- Möglichst modernes Format verwenden (WebP ist kleiner als JPEG bei gleicher Qualität)
- Lazy Loading ist aktiviert (Bilder, die noch nicht im sichtbaren Bereich sind, werden erst geladen, wenn sie gebraucht werden)
Interne Verlinkung: Das unterschätzte SEO-Instrument
Interne Links (Links, die von einer Seite deiner Website auf eine andere zeigen) tun zwei Dinge: Sie helfen Nutzern, weitere relevante Inhalte zu finden. Und sie zeigen Google, welche Seiten wichtig sind und wie sie thematisch zusammenhängen.
Typische Probleme:
Orphan Pages: Seiten, auf die kein einziger interner Link zeigt. Google findet sie möglicherweise gar nicht.
Anchor Text: Der Ankertext (der klickbare Text eines Links) sollte beschreiben, wohin der Link führt. „Klick hier" sagt Google nichts. „SEO-Audit-Checkliste" schon.
Überoptimierung: Wenn alle internen Links auf eine bestimmte Seite mit exakt demselben Keyword-reichen Ankertext zeigen, sieht das unnatürlich aus.
SCHRITT 6: CONTENT-QUALITÄT, DAS SCHWIERIGSTE KAPITEL
Was ist E-E-A-T und warum ist es so wichtig?
E-E-A-T steht für Experience, Expertise, Authoritativeness und Trustworthiness. Es ist Googles Framework, um zu beurteilen, ob ein Inhalt vertrauenswürdig und von echter Expertise geprägt ist. Das Konzept stammt aus den Quality Rater Guidelines, also dem Handbuch, nach dem menschliche Qualitätsprüfer bei Google Websites bewerten.
Die vier Dimensionen im Überblick:
| Dimension | Was Google prüft | Wie du es zeigst |
|---|---|---|
| Experience | Gibt es echte Erfahrung mit dem Thema? | Eigene Beispiele, Screenshots, persönliche Erkenntnisse |
| Expertise | Ist der Autor qualifiziert? | Autorenseite mit Credentials, fachliche Tiefe im Text |
| Authoritativeness | Wird die Seite als Quelle zitiert? | Backlinks von relevanten Seiten, Erwähnungen |
| Trustworthiness | Kann man der Seite vertrauen? | HTTPS, Impressum, Datenschutz, korrekte Infos |
Was ist thin Content und warum bestraft er Rankings?
Thin Content bezeichnet Seiten mit wenig einzigartigen, wertvollen Informationen. Klassische Beispiele: Tag-Seiten in WordPress, die nur eine Liste von Beitrags-Titeln zeigen, Produktseiten, die einfach die Herstellerbeschreibung kopieren, oder Seiten, die nur existieren, um ein Keyword abzugreifen, ohne echten Mehrwert zu bieten.
Google will Inhalte bevorzugen, die eine Suchanfrage wirklich beantworten. Wenn deine Seite das nicht tut, wird sie früher oder später von Seiten überholt, die es besser machen.
Keyword-Kannibalisierung: Wenn du dir selbst im Weg stehst
Keyword-Kannibalisierung passiert, wenn mehrere Seiten deiner Website das gleiche Keyword anvisieren. Google weiß dann nicht, welche Seite es bevorzugen soll, und beide ranken schlechter als eine einzige starke Seite es täte.
Lösung: Ein Keyword-Mapping, bei dem jede Seite ein klares primäres Keyword und eine klare Aufgabe hat.
SCHRITT 7: SCHEMA MARKUP, EIN HÄUFIG MISSVERSTANDENER PUNKT
Schema Markup (auch Strukturierte Daten) ist Code, den du in deine Website einbindest, damit Google den Inhalt besser verstehen und ihn in Rich Results (erweiterten Suchergebnissen) anzeigen kann. Zum Beispiel: Sternebewertungen, FAQ-Bereiche oder Rezeptkarten direkt in den Suchergebnissen.
Ein wichtiger Hinweis für alle, die Audits durchführen oder durchführen lassen:
Viele CMS-Plugins (wie AIOSEO, Yoast oder RankMath) fügen Schema Markup über JavaScript ein. Das bedeutet: Wenn du die Website-Quelle mit einem einfachen Tool analysierst, siehst du das Markup oft gar nicht, obwohl es vorhanden ist. Ein Audit, der auf Basis davon „kein Schema gefunden" meldet, ist fehlerhaft.
So prüfst du Schema Markup richtig:
- Google Rich Results Test (rendert JavaScript)
- Screaming Frog mit JavaScript-Rendering aktiviert
- Direkt im Browser: Entwicklertools öffnen, Konsole, nach
application/ld+jsonsuchen
SCHRITT 8: HÄUFIGE PROBLEME JE NACH SEITENTYP
Nicht jedes SEO-Problem ist für jeden Seitentyp relevant. Hier eine schnelle Übersicht:
SaaS und Produktseiten
- Produktseiten haben oft zu wenig Inhalt (Thin Content)
- Der Blog ist nicht mit den Produktseiten verlinkt
- Es fehlen Vergleichsseiten (z.B. „Tool X vs. Tool Y") und Alternativen-Seiten
E-Commerce
- Kategorieseiten haben keinen eigenen Text, nur Produktlisten
- Produktbeschreibungen sind identisch mit denen der Hersteller
- Facettierte Navigation (Filter) erzeugt tausende von Duplicate-Content-URLs ohne Canonicals
Content- und Blogseiten
- Alte Beiträge werden nie aktualisiert
- Keyword-Kannibalisierung zwischen ähnlichen Artikeln
- Keine thematischen Cluster (Topical Clusters), also kein erkennbares Themenschwerpunkt-Schema
Lokale Unternehmen
- NAP-Daten (Name, Adresse, Telefonnummer) sind auf verschiedenen Plattformen inkonsistent
- Kein Local Business Schema Markup
- Keine standortspezifischen Landingpages
TOOLS FÜR DEINEN SEO AUDIT: WAS DU WIRKLICH BRAUCHST
Kostenlos:
- Google Search Console: Pflicht. Zeigt Indexierungsprobleme, Seitengeschwindigkeit, Top-Keywords und Crawl-Fehler.
- Google PageSpeed Insights: Core Web Vitals und Ladezeit-Optimierungsvorschläge.
- Rich Results Test: Für Schema-Markup-Prüfung.
- Bing Webmaster Tools: Wird oft vergessen, liefert aber zusätzliche Daten.
Kostenpflichtig (lohnt sich ab einer gewissen Seitengröße):
- Screaming Frog: Crawlt deine gesamte Website und liefert technische Daten. Unverzichtbar für größere Projekte.
- Ahrefs, Sistrix oder Semrush: Für Backlink-Analyse, Keyword-Research und Konkurrenzvergleich.
- Sitebulb: Ähnlich wie Screaming Frog, mit besserem Reporting.
SEO UND GEO: WARUM DU 2026 AUCH FÜR KI-SYSTEME OPTIMIEREN SOLLTEST
Hier kommt der Teil, der für viele noch neu ist.
Klassisches SEO optimiert für Google. GEO (Generative Engine Optimization) bedeutet, Inhalte so aufzubereiten, dass KI-Systeme wie ChatGPT, Perplexity oder Google AI Overviews sie verstehen, zitieren und als Antwort empfehlen.
Konkret heißt das für deinen Content:
Klare Definitionen: Erkläre Fachbegriffe direkt im Text. KI-Systeme suchen nach präzisen Definitionen, um sie als Antwort auf Nutzerfragen auszuspielen.
Fragen und Antworten: Formuliere Überschriften als echte Nutzerfragen und beantworte sie direkt darunter. Nicht nach drei Absätzen.
Zitierbare Aussagen: „KI verändert viel" ist nicht zitierbar. „Laut Googles Core Web Vitals-Bericht aus 2024 hat ein LCP über 4 Sekunden eine durchschnittlich 32 % niedrigere Conversion-Rate" schon.
Vollständige Antworten: Ein Beitrag sollte das Thema so abdecken, dass eine KI ihn als beste verfügbare Antwort einstufen kann. Das bedeutet: Kontext liefern, Teilfragen mitbeantworten, Gegenargumente nicht verschweigen.
FAQ-Bereich: Ein FAQ-Abschnitt am Ende erhöht die Chance deutlich, in KI-generierten Antworten aufzutauchen.
PRIORISIERUNG: WO ANFANGEN?
Nicht alles kann gleichzeitig angegangen werden. Hier ist eine pragmatische Reihenfolge:
Sofort angehen (blockiert Rankings):
- Crawl-Fehler und robots.txt-Blockierungen
- Fehlende oder falsche Canonicals
- Noindex-Tags auf wichtigen Seiten
- Weiterleitungsketten und -schleifen
Hohe Priorität (merkbarer Impact):
- Core Web Vitals verbessern
- Title Tags und H1s optimieren
- Thin Content ausbauen oder zusammenführen
- Interne Verlinkung stärken
Quick Wins (schnell gemacht, direkte Wirkung):
- Alt-Texte ergänzen
- Meta Descriptions schreiben, wo sie fehlen
- Sitemap in der Search Console einreichen
Langfristig (aufbauend):
- E-E-A-T-Signale stärken
- Topical Clusters aufbauen
- Backlink-Aufbau systematisieren
FAZIT: EIN SEO AUDIT IST KEIN EINMALIGES PROJEKT
Was mich an SEO Audits am meisten beeindruckt: Sie zeigen fast immer Probleme, die niemand auf dem Radar hatte. Eine robots.txt, die versehentlich wichtige Seiten sperrt. Ein Canonical, der in die falsche Richtung zeigt. Zehn Seiten, die das gleiche Keyword anvisieren und sich gegenseitig aus den Rankings drängen.
Der Wert liegt nicht nur im Finden dieser Probleme, sondern in der Priorisierung. Was blockiert Rankings jetzt? Was bringt mittelfristig den größten Hebel? Was kann warten?
Wenn du deinen ersten Audit machen willst: Fang mit der Google Search Console an. Sie ist kostenlos, direkt von Google, und zeigt dir mehr, als die meisten Leute vermuten. Von dort aus arbeite dich Schritt für Schritt durch die Bereiche, die ich hier beschrieben habe.
Und wenn du in Zukunft auch für KI-Systeme sichtbar sein willst: Schreib vollständig, definiere klar, und beantworte Fragen so, als würdest du sie einem klugen Freund erklären. Das ist gutes SEO. Und gutes GEO. Gleichzeitig.