++49-89-21 89 42 89 info@tusche-online.de

Tipps zur Nutzung der Google Search Console

Wenn du deine Website selbst betreust, hast du vielleicht schon den Tipp bekommen, dich bei der Google Search Console anzumelden.

Hast du dich vielleicht noch nicht angemeldet, weil du gar keine Notwendigkeit dafür siehst? Dann verpasst du die Möglichkeit anhand einer Vielzahl von Daten auszuwerten, wie es um deine Website aus Google-Sicht steht. Google liefert hier ein kostenloses Tool, das dir viele wertvolle Hinweise für die Optimierung deiner Website gibt. Du erhältst Insights darüber, wie die Crawler von Google deine Website sehen und welche Seiten im Index sind und vieles mehr. Für mich ist die Search Console ein superwertvolles SEO-Tool.

Die Google Search Console sammelt keine Besucherdaten, sondern bezieht sich auf den Index und die technische Performance. Besucherdaten, d.h. Informationen darüber, was deine Besucher auf deiner Website machen, über welche Kanäle sie auf die Website gekommen sind oder welches die beliebtesten Seiten auf deiner Website sind, findest du bei Webanalyse-Tools wie Google Analytics.

Hier erhältst du einen Überblick über die wichtigsten Informationen für deine Website-Optimierung, die du in der Search Console finden kannst.

Die wichtigsten Features der Google Search Console

1. Die Übersicht

Im Menü links findest du die diversen Berichte. Die Menüpunkte können bei dir variieren, je nachdem welche Attribute auf deiner Website verwendet werden. Wenn du keine Auszeichnungen für Navigationspfade oder strukturierte Daten hast, dann wird dir natürlich auch kein Bericht dazu angezeigt.

Übersicht der Google Search Console

Um die Übersicht besser beurteilen zu können, gehen wir gleich mal in die Berichte rein:

2. Der Bericht Leistung

Mit welchen Keywords, also Suchanfragen sind Besucher auf die Website gekommen und auf welche Seiten?

Diese Frage beschäftigt jeden Webmaster und im Bericht Leistung erfährst du, bei welchen Suchbegriffen deine Website in den Suchergebnissen gezeigt wurde. Das sind die sogenannten Impressionen. Die Klicks zeigen, wie oft dann tatsächlich auf das Suchergebnis geklickt wurde, daraus ergibt sich die Klickrate. Diese Klickrate, auch CTR oder click-through-rate genannt, ist ein Hinweis für Google, wie interessant und relevant deine Website für Besucher ist. Für dich ist diese Zahl ein nützlicher Hinweis, weil du so z. B. die Darstellung in den Suchergebnissen mit einem noch aussagekräftigeren Seitentitel und Metabeschreibung optimieren könntest.

Der Bericht Leistung kann nach Suchtyp (Web, Bilder, Video) und nach diversen Zeiträumen gefiltert werden sowie nach Suchanfragen, Seiten, Ländern und Geräten. Die Seiten, die hier auftauchen, sind besonders interessant für deine Nutzer, halte sie also möglichst aktuell.

Die Übersicht in der Google Search Console mit den diversen Filtermöglichkeiten

Mit der Filterfunktion rechts kannst du nach Suchanfragen, Klicks, Impressionen, CTR und Position sortieren. So kannst du beispielsweise alle Suchanfragen herausfiltern, die über 5% Klickrate haben, oder Seiten ab einer bestimmten Anzahl von Klicks. Oder die Seiten, die auf mindestens Position 5 stehen etc.

Der Filter nach Suchanfragen, Klicks, Impressionen, CTR, Position

Die Daten werden bis zu 16 Monate gespeichert. Wenn du länger zurückreichende Daten in Zukunft benötigst, musst du die Daten regelmäßig exportieren und anderweitig verarbeiten.

Die Abfragefilter können genutzt werden, indem man auf „neu“ klickt:

Abfragefilter in der neuen Search Console

 

Klickt man beispielsweise auf eine bestimmte Suchanfrage und danach auf Seiten, erhält man eine Liste der Seiten, die für dieses Keyword potenziell ranken können. Das ist eine wichtige Information für SEO, denn möglicherweise gibt es mehrere Seiten, die miteinander konkurrieren. Dann würde nicht unbedingt die URL in den Suchergebnissen gezeigt, die wichtiger ist. Gerade bei Blogs passiert es häufig, dass man mehrfach über das gleiche Thema schreibt. Dann wäre es empfehlenswert die besser positionierte Seite zu behalten und aufzupolieren. Die schlechtere Seite kann dann auf diese aktualisierte Seite umgeleitet werden.

Umgekehrt kann man unter Seiten auch eine bestimmte Seite anklicken und geht danach auf Suchanfragen. Dann erhältst du eine Liste der Keywords mit denen diese Seite rankt. Vielleicht optimierst du dann nochmal den Seitentitel, weil du hier einen besseren Begriff findest? Der Bericht Leistung ist auch ideal, um Hinweise für mögliche Themen und Texte für deine Website zu erhalten, die auf deiner Website noch nicht abgedeckt sind.

3. URL-Prüfung

Hier kann überprüft werden, ob eine URL  indexiert wurde und gefunden werden kann.

Wenn es Fehler gibt, werden diese natürlich ebenfalls angezeigt. Diese Informationen beziehen sich immer auf die indexierte Version der URL. Wenn also zwischenzeitlich Änderungen vorgenommen wurden, dann sind diese möglicherweise noch nicht berücksichtigt. Ist die URL noch nicht auf Google, dann kannst du die Indexierung beantragen.

Du kannst auch in der Google Suche den Befehl: site:https//deine-domain.de eingeben, um die Seiten anzusehen, die sich im Index befinden und welche Google als wichtig erachtet.

4. Der Bericht Abdeckung

Unter  Abdeckung findet man Informationen darüber wie viele gültige Seiten es gibt, wie viele ausgeschlossen wurden und wo es möglicherweise Probleme gibt. Ein Klick auf die Felder zeigt dann die betroffenen Seiten. Hier sollte man überprüfen, ob alles seine Richtigkeit hat.

Klickt man auf eine einzelne URL, erscheint rechts ein weiteres Menü in dem sich die Seitendetails befinden, und wo man nachsehen kann, ob die Seite z. B. aus Versehen in der robots.txt blockiert wurde. Außerdem kann man die Funktion „URL-Prüfung“ nutzen, um zu sehen, ob Google die Seite richtig dargestellt wird. Laut Google benötigst du die robots.txt-Datei nur, wenn deine Website Inhalte aufweist, die nicht von Google oder anderen Suchmaschinen indexiert werden sollen. Wenn Google deine gesamte Website indexieren darf, benötigst du keine robots.txt-Datei. Sinnvoll ist aber das Ausschließen der Anmeldeseiten zu deinem jeweiligen Backend. Bei WordPress ist das schon automatisch eingerichtet, außerdem gibt es Plugins mit denen sich die robots.txt editieren lässt.

Was genau die robots.txt ist, erfährst du im umfangreichen Guide zur robots.txt.

Es ist wichtig Google nicht alle Seiten der Website zu zeigen. Wenn es viele URLs gibt, die nicht relevant sind, beispielsweise URLs, die durch Filterkombinationen entstehen, gibt es sehr viele URL-Kombinationen wie im nächsten Screenshot gezeigt. Trotzdem solltest du hier überprüfen, ob auch die richtigen URLs vom Index ausgeschlossen wurden.

In diesem Bericht fasst Google die URLs zusammen, die zwar in der XML-Sitemap aufgelistet wurden und an Google gesendet wurden, die aber aus bestimmten Gründen nicht indexiert werden können. Deshalb sollte die XML-Sitemap immer nur die URLs enthalten, die auch wirklich an Google übergeben werden sollen. Wenn du beispielsweise in der XML-Sitemap URLs angibst und diese über die robot.txt aus Versehen wieder ausschließt, erscheint dementsprechend eine Fehlermeldung.

Bei den gültigen Seiten erhält man eine Auflistung der URLs bei denen alles ok ist. „Gesendet und indexiert“ bedeutet, dass die URL in der Sitemap vorhanden ist und in den Index aufgenommen wurde. „Indexiert, nicht in Sitemap gesendet“ weist darauf hin, dass Google hier Seiten findet, die potenziell indexiert werden, die aber noch in der Sitemap aufgelistet werden sollen.

Bei den ausgeschlossenen Seiten findet man alle URLs, die hoffentlich berechtigterweise vom Index ausgeschlossen wurden.  Die Gründe dafür sollte man sich allerdings genau ansehen, denn oft genug passieren hier unabsichtlich Fehler. Wenn die Fehlerbehebung abgeschlossen ist, kann man alles nochmal überprüfen lassen. Es ist übrigens auch möglich den Bericht zu teilen und gleich dem Programmierer zuzuschicken.

Sehr interessant ist auch die Angabe „Google hat eine andere Seite als der Nutzer als kanonische Seite bestimmt“. Hier erkennt Google, dass mehrere URLs als „kanonische URL“ gekennzeichnet wurden. Dies ist die ursprüngliche URL, die im Index von Google landen soll. Weitere URLs mit sehr ähnlichem Inhalt werden von Google nicht oder nicht sehr häufig in den Suchergebnissen gezeigt. Sie bieten auch meist keinen weiteren Mehrwert für die Nutzer und man sollte wie oben erwähnt versuchen, solche Seiten mit sehr ähnlichem Thema entweder zusammenzufassen oder die weniger wertvolle Seite auf die relevantere umzuleiten.

5. Sitemaps

Die Sitemap ist eine XML-Datei, die Google das Crawlen deiner Website erleichtert, eine Art Inhaltsverzeichnis. Unter dem Menüpunkt Sitemap kannst du sie ganz einfach hinzufügen. Google selbst empfiehlt das Einreichen der Sitemap, damit die Website schneller durchforstet werden kann und die wirklich wichtigen Seiten in den Index kommen. Siehe dir diese Sitemap vor dem Hochladen genau an. Oft werden nämlich von den Content-Management-Systemen alle Seiten in die Sitemap übernommen, auch wenn diese gar nicht indexiert werden sollen.

Achte hier darauf, dass es keine Fehlermeldungen gibt. Häufige Fehler sind beispielsweise das falsche Format (es muss XML sein) oder es werden Seiten eingereicht, die gar nicht indexiert werden sollen. Oder man verschreibt sich beim Dateinamen (alles schon vorgekommen ;)).

Die Sitemap kann man mit einem Plugin für WordPress erstellen lassen. Empfehlenswert ist es ein SEO-Plugin zu verwenden, da die ausgeschlossenen Seiten dann in keinem Fall aus Versehen in der XML-Sitemap landen. Lies in diesem Artikel wie du in WordPress mit dem SEO-Plugin von Yoast die Sitemap erstellst.

Du kannst auch einzelne Sitemaps einreichen, z.B. für Beiträge, für Seiten, für Bilder etc. Hauptsache du reichst keine Seiten ein, die mit dem no-index-Tag vom Index ausgeschlossen wurden oder in der robots.txt gesperrt wurden.

6. Core Web Vitals

Google hat einen neuen Rankingfaktor angekündigt, nämlich die Page Experience mit momentan drei verschiedenen Messwerten. Hier geht es v.a. um die technische Performance der Website. Deine Website kann natürlich immer noch mit nicht so idealen Werten gut ranken, wenn der Inhalt exzellent ist. Wenn es allerdings eine andere Website gibt, die inhaltlich sehr ähnlich zu deiner Website ist, ist es möglich, dass diese dann besser rankt, weil das Nutzererlebnis von Google besser eingeschätzt wird. Und von den Nutzern natürlich auch. Denn hier geht es vor allem darum, ob die Ladezeiten gut sind, ob es keine nervigen Pop-ups/Interstitials gibt, ob die Seite mobiloptimiert ist, verschlüsselt ist (HTTPS) etc.

Mit den Page Speed Insights oder auch mit dem Chrome Lighthouse-Plugin kannst du einzelne URLs testen. Hier wurde nur eine einzelne URL getestet, die Probleme hat. Die Page Speed Insights listen genau auf, welche das sind und welche Maßnahmen ergriffen werden können. In WordPress sind das oft lahme Plugins oder Themes oder es wurden zu große Bilddateien hochgeladen.

Die Core Web Vitals in der Google Search Console

Eine ausführliche Beschreibung der Messwerte FCP, FID, LCP und CLS findest du bei Sistrix.

Ein Anmerkung: die User Experience und diese Messwerte sollen zwar ein Rankingfaktor werden, und auf schnelle Ladezeiten, Mobiloptimierung etc. sollten natürlich sowieso geachtet werden. Die im Screenshot gezeigte Seite ist sicher ein Extremfall. Aber versteife dich nicht auf die in der Search Console gezeigten Daten, sondern v.a. auf die Inhalte deiner Website.

7. Nutzerfreundlichkeit auf Mobilgeräten

Der Unterpunkt „Nutzerfreundlichkeit auf Mobilgeräten“ weist auf eventuelle Probleme mit der Darstellung auf Mobilgeräten hin. Es gibt auch ein Test-Tool von Google mit dem du deine Webiste auf ihre Nutzerfreundlichkeit hin testen kannst und etwas detaillierte Informationen erhältst.

https://search.google.com/test/mobile-friendly

Im Idealfall sieht das Ganze natürlich so aus ;):

nutzerfreundlichkeit auf mobilen Geräten in der Google Search Console

 

Die Optimierung für mobile Geräte ist besonders wichtig, da Google diese Version der Website zur Indexierung heranzieht (Mobile First Indexing). Dabei geht es um die Erfassung von Inhalten, aber nicht um das Ranking. Desktop only-Websites werden natürlich weiterhin in den Suchergebnissen zu finden sein. Die meisten Websites dürften bereits mobil-optimiert sein, also ein responsives Design haben, das auf allen Websites gut aussieht. Wer das noch nicht erledigt hat, sollte das schleunigst dafür sorgen, dass die Website auch mobil gut dasteht.

Unter „Links“ findest du heraus, welche Links zu deiner Website verweisen. Diese „externen Links“ oder Backlinks sind für Google ein wichtiges Signal, wie interessant deine Website für andere Nutzer ist. Für die Suchmaschinenoptimierung ist es unerlässlich sich mit dem Thema Linkbuilding zu beschäftigen. Und das heißt nicht, dass man sich in Hunderte Webkataloge einträgt oder Links kauft ;).

Diese Liste erhebt keinerlei Anspruch auf Vollständigkeit und ist sicherlich kein Ersatz für ein professionelles Backlink-Tools. Aber für einen ersten Überblick ist sie schon mal ganz interessant.

Auch die interne Verlinkung (siehe Artikel SEO mit der internen Verlinkung) ist eine sinnvolle und wichtige SEO-Maßnahme. In diesem Bericht erhältst du eine Übersicht über die Links, die innerhalb deiner Website gesetzt wurden. Verweise nicht zu oft auf eher unwichtige Seiten, die ja auch in der Navigation zu finden sind. Denn damit stärkst du diese Seite unnötigerweise. Umgekehrt kannst du Seiten stärken, die wichtig sind, indem du von anderen Seiten auf sie verlinkst.

Dieser Bericht ist nicht besonders aussagekräftig, denn er listet einfach nur die Anzahl der am häufigsten intern verlinkten Seiten auf. Hier gibt es andere Tools, die besser aufzeigen, welche Seiten mit welchen anderen Seiten durch Verlinkung miteinander verbunden sind.

9. Die Inhaberschaft der Website in der Search Console bestätigen und mit Google Analytics verknüpfen

Um die Verifizierung der Website vorzunehmen, muss eine von Google generierte HTML-Datei beispielsweise über ein FTP-Programm wie Filezilla in das root-Verzeichnis auf den Server hochgeladen werden. Alternativ kann ein DNS-Eintrag vorgenommen werden.

Google hat Webmastern im Laufe der Zeit immer mehr Informationen darüber weggenommen, mit welchen Suchanfragen bzw. Keywords die Nutzer auf deine Website kommen. Das macht es bezüglich SEO immer schwerer herauszufinden, für welche Keywords man seine Seiten optimieren sollte. Damit du auch in Google Analytics die Daten der Search Console und die Keywords einsehen kannst, ist es sinnvoll die Search Console mit Google Analytics zu verbinden. Kombiniert mit den Metriken von Google Analytics können so weitere Auswertungen vorgenommen werden.

10. HTTP und HTTPS-Seiten in der Google Search Console

Seiten, die unter dem Internet-Protokoll HTTP laufen und solche, die ein SSL-Zertifikat haben und somit mit HTTPS laufen, sind für Google zwei verschiedene Websites. Dies bedeutet, dass wenn du bereits mit deiner HTTP-Seite in der Search Console angemeldet warst, du nun eine neue Property anlegen musst mit HTTPS. Du musst die HTTP-Seite nicht löschen und kannst beide in deinem Search-Console-Konto haben. Was du sonst noch beachten musst in der Search Console und in Google Analytics, wenn du die Website von HTTP auf HTTPS umstellst, habe ich in diesem Artikel zusammengefasst: https://tusche-online.de/die-search-console-anpassen-nach-umstellung-auf-https/

11. Fazit

Die Google Search Console ist ein unerlässliches Tool, um zu erfahren, wie Google die Website sieht, mit welchen Suchbegriffen Nutzer auf die Website kommen und ob die Seiten der Website überhaupt von Google indexiert werden. Natürlich gibt es viele andere kostenfreie und kostenpflichtige SEO-Tools, die detailliertere Berichte zu bestimmten Themen liefern, v.a. wenn die Website viele tausend Seiten hat. Aber trotzdem bietet die Search Console sehr interessante Einblicke und man sollte sie in jedem Fall nutzen.

Der Originalartikel wurde im Dezember 2016 veröffentlich und wird seither immer wieder aktualisiert.