5 Gründe, warum Seiten in Google nicht ranken

Diese Fehler solltest Du vermeiden, um von Google indexiert zu werden

Wie wichtig es ist, auf Google gefunden zu werden, muss man heute eigentlich niemandem mehr erzählen – insbesondere niemanden, der Content Marketing betreibt. Und doch kommt es immer wieder vor, dass Websites nicht von Google indexiert werden. Oft aufgrund von Fehlern, die einfach vermieden werden können.

Du hast erfolgreich eine tolle Website mit mehrwertbringenden Inhalten oder einen Webshop mit erstklassigen Produkten erstellt und wunderst Dich jetzt, dass Du kaum Traffic auf die Seite bekommst. Das könnte daran liegen, dass sie einfach nicht von Deiner Zielgruppe gefunden wird. Die wohl einfachste Lösung könnte sein, dass Du im Meta-Bereich Deiner Seite angegeben hast, dass sie nicht indiziert werden darf. Dann kann Google sie natürlich nicht finden. Es gibt aber eine Reihe weiterer Möglichkeiten. Häufig sind es simple Dinge, die dazu führen, dass Websites von Google nicht indexiert werden.

Deine Seite wird von der robots.txt blockiert

Die Datei robots.txt hat großen Einfluss auf die Auffindbarkeit Deiner Seite. Durch sie können sowohl einzelne Dateien, ganze Verzeichnisse und komplette Domains davon ausgeschlossen werden, durch den Google-Bot gecrawlt zu werden. Ein Fehler kann hier dazu führen, dass die gesamte Website nicht im Google-Index auftaucht, weil die URLs durch den Crawler nicht erfasst werden. Du solltest also darauf achten, dass Du keine wichtigen Verzeichnisse ausschließt.

Deine Website ist gerade erst live gegangen und (noch) nicht bei Google indexiert

Falls Deine Seite erst seit ein paar Tagen online ist, brauchst Du Dir in den meisten Fällen keine ernsthaften Gedanken darüber machen, warum Google sie nicht indexiert. Natürlich möchtest Du am liebsten direkt in den Google-Suchergebnissen auftauchen, am besten an prominenter Stelle. Aber auch wenn die Robots von Google täglich mehrere Millionen Seiten crawlen, solltest Du ihnen etwas Zeit geben. In der Regel hat Google Dich nach spätestens drei bis vier Tagen gefunden. Du kannst aber ein wenig nachhelfen, indem Du Deine Website bei der Google Search Console anmeldest und die dazugehörige URL einträgst.

Du hast keine XML-Sitemap erstellt

In einer XML-Sitemap sind alle URLs, die auf Deiner Webseite verfügbar sind, aufgeführt. Sie unterstützt den Google-Robot dabei, Deine Website zu durchsuchen und kann sogar Einfluss darauf nehmen, welche URLs beim Crawlen priorisiert werden. Eine XML-Sitemap solltest Du erstellen, wenn Deine Seite noch recht neu ist und es noch nicht viele Verlinkungen auf die Unterseiten gibt. Außerdem ist sie hilfreich, wenn es sehr viele Unterseiten gibt, denn ohne die Sitemap braucht Google recht lange alle Seiten zu indexieren.

Deine Website beinhaltet Duplicate Content

Google arbeitet daran, seinen Nutzern stets die relevantesten Suchergebnisse zu liefern. Duplicate Content, also identische Inhalte, die sich auf Deiner Website wiederholen, führen dazu, dass die Suchmaschine Probleme damit bekommt, zwischen den unterschiedlichen Versionen zu unterscheiden und somit eine als besseres Suchergebnis zu qualifizieren. Die Inhalte ranken dementsprechend nicht gut. Im Gegenteil – Google straft Duplicate Content sogar ab, da der selbe Inhalt auf mehreren Unterseiten einer Website dem User keinen Mehrwert bietet, sondern eher als störend empfunden wird. Auch wenn Du nicht bewusst identische Inhalte an verschiedenen Stellen Deiner Website eingestellt hast, kann es Ursachen für Duplicate Content geben. Hierzu kannst Du überprüfen, ob Deine über mehrere URLs erreichbar ist, ob Du mit Deiner Domain umgezogen bist, die alten Versionen Deiner Seiten-URLs aber noch erreicht werden können, oder ob es externe Websites gibt, die gegebenenfalls unerlaubterweise Deinen Content nutzen. Achte, falls Du einen Online-Shop betreibst, darauf, dass ähnliche Produkte nicht identische Produktbeschreibungen haben.

Deine Seite ist zu langsam oder der Server ist down

Eine recht banale Ursache dafür, dass Deine Seite nicht von Google indexiert wird, könnte sein, dass es einen Server-Ausfall gegeben hat. So ist es dem Crawler natürlich rein technisch überhaupt nicht möglich, Deine Seite zu erreichen. Generell ist es in Sachen Suchmaschinenoptimierung wichtig, dass der Server, den Du nutzt, leistungsfähig und schnell ist. Ansonsten kann es zu Verzögerungen bei der Darstellung Deiner Website kommen, was eine hohe Absprungrate zur Folge hat. Die wiederum wird von Google als negative User-Experience eingeordnet und entsprechend schlecht wirkt sich das auf Dein Ranking aus, denn schon seit 2010 ist die Ladezeit ein Rankingfaktor. Aber nicht nur ein langsamer Server kann Ursache für lange Ladezeiten sein. Die Gründe können auch direkt auf Deiner Website zu finden sein. Dazu gehören zum Beispiel zu große Bilder, ein fragmentiertes JavaScript oder überflüssige Teile im Quellcode. Auch zu viele CSS-Dateien können sich negativ auf die Ladezeit Deiner Website auswirken. Du solltest also stets darauf achten, dass die Dateigröße Deiner Bilder optimal fürs Web komprimiert ist.

Wie bereits gesagt, versucht Google stets, seinen Usern die relevantesten und besten Suchergebnisse zu liefern. Lange Ladezeiten führen zu negativen Nutzer-Erfahrungen, fehlende Keywords können als fehlende Relevanz interpretiert werden und zu wenige Links werden als geringe Popularität gedeutet. Aber wie man sieht, lässt sich jedes Problem bei der Suchmaschinenoptimierung auch beheben.

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.


*