Tipps zur Nutzung der Google Search Console

Wenn du deine Website selbst betreust, hast vielleicht schon den Tipp bekommen, dich bei der Google Search Console anzumelden. Du hast dich noch nicht angemeldet, weil du gar keine Notwendigkeit dafür siehst? Das ist aber in jedem Fall empfehlenswert, denn Google liefert hier ein kostenloses Tool, das dir viele wertvolle Hinweise für die Optimierung deiner Website gibt. Google zeigt dir in der Search Console, wie seine Crawler deine Website sehen und Seiten indexieren, während Google Analytics Auskunft darüber gibt, was deine Besucher auf deiner Website machen, über welche Kanäle sie auf die Website gekommen sind oder welches die beliebtesten Seiten auf deiner Website sind. Hier findest du einen Überblick über die wichtigsten Informationen für deine Website-Optimierung, die du in der Search Console finden kannst. Seit längerer Zeit schon steht eine neue Version der Search Console zur Verfügung. Wenn du mehrere Websites verwaltest, kommst du allerdings nach dem Einloggen noch auf die alte Version. Klicke dann oben links unter dem Search Console-Logo auf „Jetzt die neue Search Console testen“). Die alten Berichte sind nicht mehr abrufbar und in Kürze wird auch dieser kleine Umweg sicher behoben sein.

Die wichtigsten Features der Google Search Console

Als die Nachricht eintraf, dass Google die Search Console überarbeitet und den Zeitraum der Daten von drei auf sechzehn Monate verlängert, war ich ziemlich angetan. Denn so sind Auswertungen über einen längeren Zeitraum und somit auch Vorjahresvergleiche möglich. Das Design der neuen Version wirkt wesentlich aufgeräumter als bisher.

1. Der Bericht Leistung

Die Daten der ehemaligen Suchanalyse finden sich nun im Bericht Leistung. Es kann nach Suchtyp (Web, Bilder, Video), nach diversen Zeiträumen, nach Suchanfragen, nach Seiten, Ländern und Geräten gefiltert werden sowie Vergleiche angestellt werden. Mit welchen Suchanfragen sind Besucher auf deine Website gekommen? Diese Frage beschäftigt jeden Webmaster und in der Suchanalyse erfährst du, bei welchen Suchbegriffen deine Website in den Suchergebnissen gezeigt wurde (möglicherweise erst ab Seite 2 oder weiteren Seiten). Das sind die sogenannten Impressionen. Die Klicks zeigen, wie oft dann tatsächlich auf das Suchergebnis geklickt wurde, daraus ergibt sich die Klickrate. Diese Klickrate, auch CTR oder click-through-rate genannt, ist ein wichtiger Hinweis für Google, wie interessant und relevant deine Website für Besucher ist und gleichzeitig ein wichtiger Ranking-Faktor. Du kannst auch die Seiten analysieren, die in den Suchergebnissen erschienen sind und die geklickt wurden. Solche Seiten sind besonders interessant für deine Nutzer, halte sie also möglichst aktuell. Außerdem ist eine Analyse nach Ländern, Geräten, Suchtyp und Zeiträumen möglich.  

Google Search Console Bericht Leistung

Die Abfragefilter, die es schon vorher in der alten Version gab, können genutzt werden, indem man auf „neu“ klickt:

Abfragefilter in der neuen Search Console

Was kann man mit diesen Informationen anfangen?

Klickt man beispielsweise auf eine bestimmte Suchanfrage und danach auf Seiten, erhält man eine Liste der Seiten, die für dieses Keyword potenziell ranken können. Das ist eine wichtige Information für SEO, denn möglicherweise gibt es mehrere Seiten, die miteinander konkurrieren. Dann würde nicht unbedingt die URL in den Suchergebnissen gezeigt, die wichtiger ist. Gerade bei Blogs passiert es häufig, dass man mehrfach über das gleiche Thema schreibt. Dann wäre es empfehlenswert die besser positionierte Seite zu behalten und aufzupolieren. Die schlechtere(n) Seiten können dann auf diese aktualisierte Seite umgeleitet werden. Umgekehrt kann man unter Seiten auch eine bestimmte anklicken und geht danach auf Suchanfragen. Dann erhältst du eine Liste der Keywords mit denen diese Seite rankt. Dieser Artikel hier rankt beispielsweise mit den folgenden Suchbegriffen.  

Suchanfragen in der Google Search Console

Interessant ist für mich zu sehen, dass einige nach „google search console datenschutz“ suchen. Nur kurz zur Info, darum brauchst du dir keine Sorgen machen, denn hier liefert Google Daten. Es werden keine Besucherdaten erfasst wie bei Google Analytics. Du siehst, mit diesen Informationen erhältst du viele Hinweise für mögliche Themen und Texte für deine Website.

2. Der Bericht Abdeckung

Unter  Abdeckung findet man die früheren Crawling-Berichte. Der neue Report ist allerdings aussagekräftiger und umfangreicher als vorher. Es wird aufgelistet, ob es Fehler gibt (rot), ob es gültige Seiten gibt, die indexiert wurden, aber durch die robots.txt blockiert wurden (orange), wie viele gültige Seiten es gibt (grün) und welche ausgeschlossen wurden (grau). Ein Klick auf die Felder zeigt dann die betroffenen Seiten. Hier sollte man überprüfen, ob alles seine Richtigkeit hat. Hier findest du übrigens einen umfangreichen Guide zur robots.txt. Hier habe ich z. B. zwei Seiten, die irrelevant für das Ranking dieser Website sind, nämlich die zweiten Seiten des Blogs und einer Kategorie. Deshalb habe ich diese gar nicht erst in die Sitemap mit aufgenommen. Google findet diese zwar und teilt mir das mit, aber es ist kein Problem. Wenn du hier allerdings Fehler entdeckst, müssen diese natürlich behoben werden.  

Google Search Console Bericht Indexabdeckung 

Klickt man auf eine einzelne URL, erscheint rechts ein weiteres Menü in dem sich die Seitendetails befinden, wo man nachsehen kann, ob die Seite aus Versehen in der robots.txt blockiert wurde. Außerdem kann man die Funktion „Abruf wie durch Google“ nutzen, um zu sehen, ob Google die Seite richtig dargestellt wird. Dies führt momentan noch zur alten Version der Google Search Console.

Neu sind in dem Bericht die Gründe, warum URLs nicht indexiert wurden. Hier fasst Google die URLs zusammen, die zwar in der XML-Sitemap aufgelistet wurden und an Google gesendet wurden, die aber aus bestimmten Gründen nicht indexiert werden können. Deshalb sollte die XML-Sitemap immer nur die URLs enthalten, die auch wirklich an Google übergeben werden sollen. Wenn du beispielsweise in der XML-Sitemap PDFs angibst und diese über die robot.txt aus Versehen wieder ausschließt, erscheint dementsprechend eine Fehlermeldung. Wenn nämlich aufgrund der internen Verlinkung auf das PDF verwiesen wird, wird es indexiert. Wenn man das nicht möchte, muss man die Seite an sich auf <noindex> setzen und den Ausschluss in der robots.txt entfernen.

Bei den gültigen Seiten erhält man eine Auflistung der URLs bei denen alles ok ist. „Gesendet und indexiert“ bedeutet, dass die URL in der Sitemap vorhanden ist und in den Index aufgenommen wurde. „Indexiert, nicht in Sitemap gesendet“ weist darauf hin, dass Google hier Seiten findet, die potenziell indexiert werden, die aber noch in der Sitemap aufgelistet werden sollen. Bei den ausgeschlossenen Seiten findet man alle URLs, die hoffentlich berechtigterweise vom Index ausgeschlossen wurden. 

Die Gründe dafür sollte man sich allerdings genau ansehen, denn oft genug passieren hier unabsichtlich Fehler. Wenn die Fehlerbehebung abgeschlossen ist, kann man alles nochmal überprüfen lassen. Es ist übrigens auch möglich den Bericht zu teilen und gleich dem Programmierer zuzuschicken. Sehr interessant ist auch die Angabe „Google hat eine andere Seite als der Nutzer als kanonische Seite bestimmt“. Hier erkennt Google, dass mehrere URLs als „kanonische URL“ gekennzeichnet wurden. Dies ist die ursprüngliche URL, die im Index von Google landen soll. Weitere URLs mit sehr ähnlichem Inhalt werden von Google nicht oder nicht sehr häufig in den Suchergebnissen gezeigt. Sie bieten auch meist keinen weiteren Mehrwert für die Nutzer und man sollte versuchen, sollte Seiten mit sehr ähnlichem Thema entweder zusammenzufassen oder die weniger wertvolle Seite auf die wertvolle umleiten.

3. Sitemaps

Die Sitemap ist eine XML-Datei, die Google das Crawlen deiner Website erleichtert, eine Art Inhaltsverzeichnis. Unter dem Menüpunkt Sitemap kannst du sie ganz einfach hinzufügen. Google selbst empfiehlt das Einreichen der Sitemap, damit die Website schneller durchforstet werden kann. Siehe dir diese Sitemap vor dem Hochladen genau an. Oft werden nämlich von den Content-Management-Systemen alle Seiten in die Sitemap übernommen, auch wenn diese gar nicht indexiert werden sollen. Achte hier darauf, dass es keine Fehlermeldungen gibt.

Häufige Fehler sind beispielsweise das falsche Format (es muss XML sein) oder es werden Seiten eingereicht, die gar nicht indexiert werden sollen. Oder man verschreibt sich beim Dateinamen (alles schon vorgekommen ;)). Die Sitemap kann man mit einem Plugin für WordPress erstellen lassen. Empfehlenswert ist es ein SEO-Plugin zu verwenden, da die ausgeschlossenen Seiten dann in keinem Fall aus Versehen in der XML-Sitemap landen. Lies in diesem Artikel wie du in WordPress mit dem SEO-Plugin von Yoast die Sitemap erstellst. Du kannst auch einzelne Sitemaps einreichen, z.B. für Beiträge, für Seiten, für Bilder etc. Hauptsache du reichst keine Seiten ein, die mit dem no-index-Tag vom Index ausgeschlossen wurden oder in der robots.txt gesperrt wurden.

4. URL-Prüfung

Hier kann überprüft werden, ob eine URL  indexiert wurde und wann das letzte Crawling-Datum war. Außerdem wird die zugehörige Canonical-URL angezeigt (also die Original-URL, falls es mehrere URLs mit gleichem Inhalt gibt) und ob es eine zugehörige AMP-Version gibt (Accelerated Mobile Pages).

URL-Prüfung mit der Google Search Console

Wenn es Fehler gibt, werden diese natürlich ebenfalls angezeigt. Diese Informationen beziehen sich immer auf die indexierte Version der URL. Wenn also zwischenzeitlich Änderungen vorgenommen wurden, dann sind diese möglicherweise noch nicht berücksichtigt. Was man in diesem Zusammenhang verstehen muss: indexiert heißt nicht unbedingt, dass diese Seite in den Suchergebnissen erscheint. Du kannst auch in der Google Suche den Befehl: site:https//deine-domain.de eingeben, um die Seiten anzusehen, die sich im Index befinden und welche Google als wichtig erachtet.

5. Nutzerfreundlichkeit auf Mobilgeräten

Der Unterpunkt „Nutzerfreundlichkeit auf Mobilgeräten“ weist auf eventuelle Probleme mit der Darstellung auf Mobilgeräten hin. Es gibt seit einiger Zeit  ein Test-Tool von Google mit dem du deine Seite zusätzlich auf ihre Nutzerfreundlichkeit hin testen kannst und etwas detaillierte Informationen erhältst. https://search.google.com/test/mobile-friendly Im Idealfall sieht das Ganze natürlich so aus ;):

nutzerfreundlichkeit auf mobilen Geräten in der Google Search Console

Die Optimierung für mobile Geräte ist besonders wichtig, da Google diese Version der Website zur Indexierung heranzieht (Mobile First Indexing). Dabei geht es um die Erfassung von Inhalten, aber nicht um das Ranking. Desktop only-Websites werden natürlich weiterhin in den Suchergebnissen zu finden sein. Du hast wahrscheinlich schon eine Mail von Google diesbezüglich erhalten, wenn du bereits in der Search Console angemeldet bist.

Unter „Links“ findest du heraus, welche Links zu deiner Website verweisen. Diese „externen Links“ oder Backlinks sind für Google ein wichtiges Signal, wie interessant deine Website für andere Nutzer ist. Für die Suchmaschinenoptimierung ist es unerlässlich sich mit dem Thema Linkbuilding zu beschäftigen. Und das heißt nicht, dass man sich in Hunderte Webkataloge einträgt oder Links kauft ;). Diese Liste erhebt keinerlei Anspruch auf Vollständigkeit und ist sicherlich kein Ersatz für ein professionelles Backlink-Tools. Aber für einen ersten Überblick ist sie schon mal ganz interessant. Auch die interne Verlinkung (siehe Artikel SEO mit der internen Verlinkung) ist eine sinnvolle und wichtige SEO-Maßnahme. In diesem Bericht erhältst du eine Übersicht über  die Links, die innerhalb deiner Website gesetzt wurden. Verweise nicht zu oft auf eher unwichtige Seiten, die ja auch in der Navigation zu finden sind. Denn damit stärkst du diese Seite unnötigerweise. Umgekehrt kannst du Seiten stärken, die wichtig sind, indem du von anderen Seiten auf sie verlinkst. Dieser Bericht ist nicht besonders aussagekräftig, denn er listet einfach nur die Anzahl der am häufigsten intern verlinkten Seiten auf. Hier gibt es andere Tools, die besser aufzeigen, welche Seiten mit welchen anderen Seiten durch Verlinkung miteinander verbunden sind.

7. Die robots.txt

Laut Google benötigst du die robots.txt-Datei nur, wenn deine Website Inhalte aufweist, die nicht von Google oder anderen Suchmaschinen indexiert werden sollen. Wenn Google deine gesamte Website indexieren darf, benötigst du keine robots.txt-Datei (auch keine leere). Sinnvoll ist aber das Ausschließen der Anmeldeseiten zu deinem jeweiligen Backend. Bei WordPress ist das schon automatisch eingerichtet, außerdem gibt es Plugins mit denen sich die robots.txt editieren lässt. Was genau die robots.txt ist und wie du sie in der Google Search Console aufrufen kannst, erfährst du im umfangreichen Guide zur robots.txt.

8. Die Inhaberschaft der Website in der Search Console bestätigen und mit Google Analytics verknüpfen

Am einfachsten funktioniert die Verifizierung der Inhaberschaft der Website, wenn du bereits in Google Analytics angemeldet bist. Dazu musst du die Administratorrechte haben und auch die gleiche E-Mail-Adresse verwenden. Alternativ kann auch z.B. eine von Google generierte HTML-Datei auf den Server hochgeladen werden. Google hat Webmastern im Laufe der Zeit immer mehr Informationen darüber weggenommen, mit welchen Suchanfragen bzw. Keywords die Nutzer auf deine Website kommen. Das macht es bezüglich SEO immer schwerer herauszufinden, für welche Keywords man seine Seiten optimieren sollte.

Etwas mehr Auskünfte darüber erhält man in der Search Console wie oben beschrieben im Bericht „Leistung“. Damit du auch in Google Analytics diese Daten einsehen kannst, ist es sinnvoll die Search Console mit Google Analytics zu verbinden. In Google Analytics findet man die Daten dann die Daten der Search Console im Suchanfragenbericht und kann weitere Auswertungen vornehmen.

9. HTTP und HTTPS-Seiten in der Google Search Console

Seiten, die unter dem Internet-Protokoll HTTP laufen und solche, die ein SSL-Zertifikat haben und somit mit HTTPS laufen, sind für Google zwei verschiedene Websites. Dies bedeutet, dass wenn du bereits in der Search Console angemeldet warst mit deiner HTTP-Seite, du eine neue Property anlegen musst mit HTTPS. Du musst die HTTP-Seite nicht löschen und kannst beide in deinem Search-Console-Konto haben. Was du sonst noch beachten musst in der Search Console und in Google Analytics, wenn du die Website von HTTP auf HTTPS umstellst, habe ich in diesem Artikel zusammengefasst: https://tusche-online.de/die-search-console-anpassen-nach-umstellung-auf-https/

10. Fazit

Die Google Search Console ist ein unerlässliches Tool, um zu erfahren, wie Google die Website sieht, mit welchen Suchbegriffen Nutzer auf die Website kommen und ob die Seiten der Website überhaupt von Google indexiert werden. Natürlich gibt es viele andere kostenfreie und kostenpflichtige SEO-Tools, die detailliertere Berichte zu bestimmten Themen liefern, v.a. wenn die Website viele tausend Seiten hat. Aber trotzdem bietet die Search Console sehr interessante Einblicke und man sollte sie in jedem Fall nutzen.

Änderungshistorie:
– Update vom August 2019
– Der Originalartikel vom Dezember 2016 wurde im April 2018 überarbeitet.

 

Noch Fragen zu Google Analytics und dem Reporting?

In diesem individuellen Workshop erfährst du genau, welche KPIs für dein Unternehmen passen und wie du Google Analytics entsprechend anpassen kannst. Außerdem lernst du wie du ein Reporting zusammenstellst, das für verschiedene Personenkreise in deinem Unternehmen geeignet ist.