Donnerstag, 17. April 2014

Tag 9: SEO II ...und weiter geht´s mit dem Webmaster-Tools

Gestern sprachen wir von der On-Page-Optimierung bei SEO, heute nutzen wir das Webmaster-Tool von Google, um einerseits unsere Webseite bei der Google Suchmaschiene zu registrieren und damit sicher zu stellen, dass Google unsere Webseite bei der Suche auch findet. Andererseits bietet das Webmaster-Tools eine reihe an Funktionen, die uns helfen, unsere Seite entsprechend wichtiger SEO-Kriterien zu optimieren, denn GOOGLE LIEBT STRUKTUR

und so können wir den Webmaster-Tools nutzen, um:


  • Fehlerseiten, die beim Aufrufen der URLs durch den Suchmaschinen-Robot auftreten (Robots.txt) analysieren und entfernen zu lassen (Strukturierte Suche)
  • unsere Website hinsichtlich der Meta-Informationen zu optimieren (Data Highlighter
  • HTML-Verbesserungen erhalten 
  • Sitelinks abwerten - normalerweise entscheidet Google, welche Seiten für ihn Wichtigkeit haben und zeigt diese entsprechend an. Man kann mit dem Webmaster-Tools aber auch selbst Seiten abwerten, damit diese nicht angezeigt werden. 

JEDOCH,
"Wenn Sitelinks angezeigt werden, die einem Besucher nach Auffassung des Seitenbetreibers nicht angezeigt werden sollen, besteht die Möglichkeit, bis zu 100 URLs abzuwerten – einziges Manko: die Anpassung bleibt in der Regel nur 90 Tage und nicht dauerhaft aktiv."

Nachvollziehen, ob

  • andere auf meine Website verlinkt haben 
  • ob meine Seite als Ergebnis einer Suchanfrage erschien 
  • und daraufhin auch angclickt worden ist 

Die Funktion der Suchanfragen ist nützlich, um sich inhaltlich auszurichten. So kann ich anhand des gemessenen Erfolgs beliebte Themen stärken und andere vernachlässigen.


Desweiteren kann ich beispielsweise ...

  • meine Content-Keywords einsehen (Keywort-Density)
  • mit Hilfe des Robots.txt überprüfen
  • Sitemaps einreichen (hier kann ich Seiten einreichen, um sicherzustellen, dass Google diese Seiten auf jeden Fall auch wertet)
  • Crawling-Verhalten von Parametern bestimmen (im Falle von Duplicate Content, wenn also mehrere unserer Unterseiten über denselben Inhalt verfügen, hat das einen negativen Einfluss auf unser SEO. Wenn der duplizierte Inhalt jedoch aus einem bestimmten Grund sinnvoll ist, kann man hier Angaben über diverse Parameter machen und festelegen, wie Google die jeweiligen Seiten crawlen soll) 

Gehen wir aber nochmal ein paar Schritte zurück. Wir sprachen davon, dass Google Struktur liebt. Ein wichtiger Faktor für SEO sind die sogenannten Snippets. Schnipsel, die unter den organischen Suchergebnissen erste Infos über den Inhalt unserer Website geben.

Suchergebnis Südamerika reisen als Anzeige für ein Snippet

Die entsprechenden Informationen werden von der jeweiligen Suchmaschine automatisch generiert und beziehen sich auf die hinterlegten Meta-Informationen, wie


  • title
  • description
  • URL
Diese Standarddaten können durch sogenannte Rich Snippets (auch: microdata, microformats oder RDFa) noch erweitert werden. Hierzu zählen beispielsweise
  • Bewertungen
  • Autoren
  • Rezepte
  • Bilder
  • Videos
  • ... 
Informationen zu Snippet und Rich-Snippet des Webmaster-Tools


Die Informationen zum Erzeugen von Rich Snippets werden durch HTML-Markup im Quellcode einer Seite hinterlegt. Dieses Markup hilft Google bestimmte Arten von Daten zu erkennen, um diese dann sinnvoll in den Rich Snippets anzuzeigen. Mit der Funktion Data Highlighter des Webmaster-Tools oder auch mit Schema.org, kann man die wichtigen HTML-Tags für seine Internetseite herausfinden und die Daten entsprechend strukturieren.

Keine Kommentare:

Kommentar veröffentlichen