Ein unaufgeräumtes Schlafzimmer als Beispiel für die indexierten Seiten vieler Websites

Indexierte Seiten aufräumen | SEO-Campixx 2017

Kai Hedemann SEO

Oldenburger Möchtegern-Hipster auf dem Weg zur SEO-Campixx nach Berlin

Ich habe versucht mein bestes Hipsteroutfit für die Reise nach Berlin zu finden. Ich weiß ist er geht so.

Ich war letztes Wochenende auf meiner ersten SEO-Campixx in Berlin. Wow, was ein Event. Darauf darf kein SEO verzichten. Zwei Tage geballtes Wissen von den absoluten Top-Leuten der Branche. Die wichtigste Lektion jedoch zum Anfang: Nächstes Jahr fahre ich mit dem Auto. Das hätte mir viel Stress erspart. Auch wenn ich selbst ein paar Monate in Berlin gewohnt habe, vergesse ich oft wie groß unsere Hauptstadt doch ist. So brauchte ich vom Hauptbahnhof nochmal 1,5 Stunden bis ich mich endlich in meinem Hotel aufs Kissen legen durfte.

Viel wichtiger jedoch: Die Berliner behaupten ja immer, dass Berlin immer eine Reise wert ist. Ganz viel von unserer Hauptstadt habe ich natürlich nicht gesehen, denn schließlich ging es um Weiterbildung und Ideenfindung. Darum Reize und Motivation aufzubauen. Nachdem ich jetzt alles eine Woche, zurück im schönen Oldenburg sacken lassen konnte: “Scheiße ja, Berlin war diese Reise zu 100% wert”.

Meine wichtigsten SEO-Learnings fasse ich hier nochmal für euch zusammen. Das meiste wusste ich vorher auch schon, aber als Inhouse-SEO schadet es nie die Vorgesetzten und Kollegen auf externe Experten und Erfahrungen zu verweisen. Und natürlich selber wieder über einiges bewusst zu werden.

So und jetzt viel Spaß mit dem ersten Teil. Der Zweite folgt im Laufe der Woche.

Indexierte Seiten

Das kommende Beispiel möchte ich namentlich nicht nennen, aber es gab folgende Problemstellung: Das Portal kümmerte sich bis vor ein paar Monaten überhaupt nicht um die Suchmaschinenoptimierung. Dadurch sammelten sich knapp 160.000 Seiten im Index an. Generell kein ungewöhnlicher Fall, der auf vielen anderen Websites vorkommt. Ursache sind oft, dass Seiten, die keine Relevanz (mehr) besitzen oder keinen Traffic erhalten nicht überarbeitet oder gelöscht werden. Außerdem gibt es auch Automatismen auf größeren Websites, die Seiten generieren (siehe: Indexierte Filterseiten). Der neue Inhouse-SEO kam und begann systematisch Seiten zu löschen oder auf “noindex” zu stellen. Der Verlauf der indexierten Seiten sah so aus:

Indexierte Seiten: Extremer Abbau

(Quelle Sistrix)

Insgesamt 95% der Seiten wurden gelöscht oder auf “noindex” gestellt. Viel Hand- und Detaillarbeit. Hauptsächlich einfach Seiten, die nicht mehr aktuell waren oder einfach keinen Traffic generierten.Die Parallele Entwicklung des Sichtbarkeitsindex spricht für sich:

(Quelle Sichtbarkeitsindex Sistrix)

Der Effekt ist ein Knaller! Der Sichtbarkeitsindex stieg um über 600%. Das sollte jeden von uns darüber Nachdenken lassen unsere Seite mal richtig aufzuräumen.

Warum funktioniert das Entfernen der Seiten aus dem Index so gut?

Ein unaufgeräumtes Schlafzimmer als Beispiel für die indexierten Seiten vieler WebsitesAus Google-Sicht passiert das aus mehreren Gründen. Die beste Erklärung erhielten wir allerdings auch bereits während des Vortrages. Die Aktion lässt sich mit dem Aufräumen eines z.B. Kellers vergleichen. Dieser war sehr messihaft vollgestopft. Beim Aufräumen bildeten sich Haufen von Inhalten, die zusammengehörten (thematische Zuordnung), es kamen Sachen auf den Sperrmüll oder Ebay, die nicht mehr benötigt wurden (Relevanz). Außerdem wurden im Keller gar drei Reiskocher entdeckt (Duplicated Content). Der Besitzer des Kellers wusste teilweise gar nicht mehr, das er bestimmte Dinge besaß. Ein bisschen so geht es eben auch den Google Crawlern. Zum einen wissen die Bots gar nicht mehr wo sie suchen sollen und zum anderen besteht die Problematik der thematischen Zuordnung.

Weitere wichtige Argumente pro aufgeräumter Index, die sich vielleicht nicht ganz in das Beispiel pressen lassen:

  • Linkjuice: Der interne Linkjuice verteilt sich besser und stärker auf die wichtigen Inhalte, die eben gut ranken sollen.
  • Mehrfach rankende Keywords: Seiten konkurrieren nicht ausversehen miteinander. Es gibt ja gerade bei großen Seiten oft das Problem der doppelt rankenden Keywords. Seiten die hier untereinander konkurrieren liegen in der Regel dicht beieinander, nur meistens nicht in den Top10 der SERPs.
  • Positive User-Signale: Dadurch, das Seiten überhaupt besucht werden, erhalten diese positive (oder überhaupt) User-Signal. Da diese für Google ein entscheidendes Kriterium geworden sind, sollte auch immer dafür gesorgt werden, dass eure Besucher eure Seite auch aus den SERPs erreichen und nach Möglichkeit dort bleiben.

Indexierte Filterseiten

Oft generieren Online-Shops durch verschiedene Filterfunktionen durch angehängte URL-Parameter hunderte bis tausende Unterseiten, die jedoch die (nahezu) gleichen Inhalte besitzen. Hierdurch entsteht Massenhaft Duplicated Content (gleiche Inhalte). Da steht Google überhaupt nicht drauf, da jede Seite einzigartig sein soll. Andernfalls müllt jeder Seine Seite zu und Google muss mehr Aufwand betreiben um die Seiten zu erfassen und die Unterschiede zu verstehen. Das Ausschließen der URL-Parameter über die Google Search Console funktioniert laut meiner Tests übrigens eher “geht so” bis überhaupt nicht. Insgesamt war ich mir über dieses Thema bewusst, aber jetzt habe ich nochmal den Kick bekommen um hierauf explizit aufmerksam