Schema.org-Doku für Location Pages

Sebastian Socha stellt im Blog von KennstDuEinen neue Funktionen des Schema.org-Markups vor, mit dem Unternehmer Informationen von Location Pages (Adressen, Telefonnummern, Öffnungszeiten) strukturiert für Google bereitstellen können. Die Infos können noch weiter spezifiziert werden: Telefonnummern für Kundenservice, technischen Support, Rechnungserstellung werden — falls vorhanden — gesondert ausgezeichnet. Auch Angaben zu möglichen Gebühren und ob die gewählte Nummer für Hörgeschädigte geeignet ist, lässt sich mit Schmema.org-Markup auszeichnen.

Ergänzend hat Google auch noch ein paar aussagekräftige Beispiele zusammengestellt, die aufzeigen, wie das Schema.org Markup für lokale Standorte und Fililen im HTML-Quellcode zum Einsatz gebracht wird.

KDE: Schema.org für “Location Pages”: Filialen und Standorte im Web sinnvoll auszeichnen

Crawling und Indexierung steuern

Im SISTRIX-Blog erläutert Johannes Beus verschiedene Möglichkeiten, um Crawling und Indexierung bei großen Webseiten zu steuern. Im Mittelpunkt steht dabei das Problem, dass Google nur ein begrenztes Crawling- und Index-Budget zur Verfügung stellt. Nur mit effektivem Management über robots.txt, noindex und canonical kann verhindert werden, dass dieses Budget verschwendet wird.

Zum Glück gibt es mittlerweile ein sehr großes und umfangreiches Arsenal an Werkzeugen, um zum Ziel zu kommen. Ich möchte die wichtigsten mit ihren Vor- und Nachteilen kurz vorstellen.

SISTRIX: Crawling und Indexierung umfangreicher Webseiten

Wenig beachtete Onpage-Fehler

Julian Dziki hat in seinem Blog eine Liste mit eher selten beachteten Fehlern in der Onpage-Optimierung veröffentlicht. Neben wiederkehrenden Textelementen, „gleichgültigem“ Crawling werden auch Themen wie unlogische Ordnerstrukturen und der falsche Einsatz des nofollow-Attributs angesprochen.

[Fehler wie diese] kommen selten in einführenden Artikeln vor, auch nicht in Büchern über SEO – daweil können sie das Ranking einer Webseite entscheidend bremsen.

seokratie.de: Die fünf am wenigsten beachteten Onpage Fehler 2012

Webmaster Tools mit Crawl Error Alerts

Googles Webmaster Tools bieten ab sofort eine neue Kategorie von Benachrichtigungen an: Bei größeren Crawler-Fehlern (404 File Not Found, 403 Forbidden, 503 Service Unavailable) werden Webmaster über das Message Center bzw. direkt per E-Mail benachrichtigt.

Google unterscheidet bei den Crawl Error Alerts zwischen „Site Errors“ und „URL Errors“. „Site Errors“ sind seitenweite Probleme wie ein falsch konfigurierter DNS-Server, ein nicht erreichbarerer Web-Server oder eine grob fehlerhafte robots.txt. „URL Errors“ bezeichnet weniger schwerwiegende Fehler (Server error, Soft 404, Access denied, Not found oder Not followed). Benachrichtigungen über „URL Errors“ werden nur dann verschickt, wenn es in kurzer Zeit einen großen Anstieg in den genannten fünf Kategorien gibt.

Consider turning on Message forwarding. We’ll send any Webmaster Tools messages to the email address of your choice.

So sieht eine mögliche Benachrichtigung aus:

Webmaster Central: New Crawl Error alerts from Webmaster Tools

AdSense mit besseren Crawling-Infos

Nach den Webmaster Tools sind nun auch die Crawling-Informationen für AdSense-Publisher überarbeitet worden. Neben einer Auflistung der blockierten URLs werden unter anderem die Anzahl der gescheiterten Crawling-Versuche sowie Infos zur Beseitigung von Crawling-Fehlern angezeigt.

This AdSense redesign is merely a first step toward empowering you with the most accurate and relevant information.

Inside AdSense: AdSense crawler error redesign

Webmaster Tools zeigt Crawling-Infos

Im Webmaster Central Blog hat Google angekündigt, mehr Informationen rund um Crawling in den Webmaster Tools anzuzeigen. Künftig wird unterschieden zwischen „Site-Errors“ (die gesamte Seite betreffend) und „URL-Errors“ (Fehler bei einzelnen URLs).

Statt wie bisher bis zu 100.0000 Crawling-Fehler aufzulisten, werden nun maximal die 1.000 „größten“ Fehler angezeigt. — aufgeteilt, sortier- und filterbar. Crawling-Fehler werden zudem bis zu 90 Tage gespeichert, um einen späteren Zugriff zu gewährleisten.

Eine weitere Neuerung ist die Möglichkeit, Fehler als „fixed“ markieren zu können:

This will remove the error from your list. In the future, the errors you’ve marked as fixed won’t be included in the top errors list, unless we’ve encountered the same error when trying to re-crawl a URL.

WCB: Crawl Errors: The Next Generation
GWB: Webmaster Tools zeigen Crawling-Fehler übersichtlicher an

SEO-Basics: robots.txt vs. noindex

Stefan Fischerländer hat im Blog von suchmaschinentricks.de einen SEO-Basics-Artikel zum Thema robots.txt und noindex-Metatag veröffentlicht. Dabei geht es um den nach wie vor weit verbreiteten Glauben, dass in der robots.txt angegebene URLs nicht von Google indexiert werden können:

Bereits ein Link auf eine URL [kann ausreichen, um] diese URL aufzunehmen. Dazu muss Google die verlinkte URL noch nicht einmal besucht haben. Auf diesem Weg also können URLs im Index landen, die in der robots.txt auf “Disallow” gesetzt sind.

Am Beispiel der robots.txt von idealo.de wird erläutert, wann Webmaster auf „Disallow“ und wann auf „noindex“ setzen sollten.

suchmaschinentricks.de: robots.txt vs. noindex

Crawling-Fehler in GWT beheben

Christoph Baur hat bei seo-book.de ein umfangreiches Tutorial zum Thema Crawling-Fehler in den Google Webmaster Tools geschrieben. Nach Kategorien wie XML-Sitemaps, robots.txt und 404-Fehlern geordnet beschreibt Christoph, wie man Crawling-Fehler mit verschiedenen Maßnahmen effektiv beheben kann.

Mit den Google Webmaster Tools liefert uns Google wirklich eine Menge an wertvollen Informationen, die wir auch nutzen sollten um unsere Webseiten zu verbessern.

seo-book.de: Google Webmaster Tools: Crawling-Fehler fixen

[via Marcus Tandler]