Skip to main content
← alle tools SEO-Shame

Wie viel Google-Traffic verschenkst du?

URL eingeben → wir laden sitemap.xml + sampeln 5-10 Seiten. Prüfen Meta-Tag-Coverage, Schema.org, Open Graph, hreflang, Publishing-Freshness und Content-Dichte. Mit realistischen Traffic-Impact-Schätzungen pro Finding.

content-scale seo audit

Mit dem Absenden bestätigst du, dass du unsere Datenschutzerklärung gelesen hast und der Verarbeitung deiner Daten zustimmst.

So funktioniert das SEO-Shame

In drei Schritten zu deinem Ergebnis — kostenlos, ohne Anmeldung.

  1. 01

    URL eingeben

    Gib deine Website ein — wir laden robots.txt + sitemap.xml, extrahieren alle URLs mit lastmod-Dates.

  2. 02

    Deep-Sampling

    Wir sampeln Homepage + je 3 repräsentative URLs aus Blog/Shop/Pages. Pro Sample prüfen wir Title, Meta-Description, H1, Canonical, Open Graph, Schema.org/JSON-LD (Article/Product/FAQ/Organization), hreflang, Alt-Texte, Anchor-Texte und Content-Dichte.

  3. 03

    Impact-Report

    Claude aggregiert die Metriken und schreibt 4-6 Findings mit: Evidence (konkrete Zahlen), realistische Traffic/CTR/Ranking-Impact-Schätzung, konkreter Fix, Severity + Effort. Plus Score, Verdict, Share-Card.

FAQ

Häufige Fragen zum SEO-Shame.

thenotperfect --help seo-shame
THENOTPERFECT(SEO-SHAME) — Häufig gestellte Fragen
Q:Was unterscheidet das vom Website-Audit?
A: Der /tools/audit macht Lighthouse: Performance + On-Page-Basics für eine Seite. SEO-Shame macht Content-Scale-Analyse: wie sauber sind deine 400 Blog-Posts in Summe (Meta-Coverage, Schema.org, Title-Längen), wie frisch ist dein Publishing, hast du hreflang bei Multi-Language. Lighthouse sagt 'deine Homepage hat SEO 92'. SEO-Shame sagt '87% deiner 412 Posts ohne Meta-Description → 20-30% CTR-Verlust'.
Q:Wie genau ist die Traffic-Impact-Schätzung?
A: Basiert auf Branchenstandards: fehlende Meta-Descriptions → 15-30% CTR-Verlust (Google Search Console-Studien), Rich Snippets → 15-25% CTR-Boost (Semrush-Data), thin content (<250 Wörter) → direkter Ranking-Nachteil bei informationalen Keywords. Die AI nennt realistische Ranges, keine Fantasiezahlen.
Q:Warum wird nur gesamplet und nicht alles gescannt?
A: Eine große E-Commerce-Site hat 10.000+ URLs. Full-Scan = 30min Wartezeit + hohe Kosten. Sampling von 10 repräsentativen Pages (Homepage + 3 Blog + 3 Produkt + 3 Page) liefert in 90% der Fälle ein akkurates Gesamtbild, weil SEO-Issues sich über Template-Seiten konsistent wiederholen.
Q:Was ist mit meiner Site wenn keine sitemap.xml existiert?
A: Wir arbeiten dann nur mit der Homepage-Analyse. Output enthält dann weniger Scale-Metriken (kein 'x von y Posts ohne Meta-Description') aber alle On-Page-Checks. Zusätzliches Finding: 'keine sitemap.xml — Google crawlt langsamer, weniger URLs indexiert'.
Q:Werden meine Daten gespeichert?
A: Nein. Wir crawlen einmalig via GET-Requests, aggregieren die Metriken, senden sie an Claude, zeigen Ergebnis. Keine Persistenz, keine Logs mit deiner URL.
Q:Was kostet das Tool?
A: Komplett kostenlos. Keine Anmeldung, keine Limits für faire Nutzung.
Weitere Fragen? → thenotperfect.de/kontakt

Verwandte Tools

Weitere kostenlose Tools die dir helfen.