Webmaster Tools: “Abruf wie durch Google” mit Render-Funktion

In den Google Webmaster Tools ist die Funktion “Abruf wie durch Google” (“Fetch as Google”) um eine Render-Möglichkeit erweitert worden. Nutzer können nach Eingabe einer URL und Auswahl eines Geräts (Desktop und Mobile) sehen, wie Google die angegebene Seite rendert — mitsamt externen CSS- und JavaScript-Dateien, sofern diese nicht durch rotbots.txt-Anweisungen gesperrt wurden.

We hope this update makes it easier for you to diagnose these kinds of issues, and to discover content that’s accidentally blocked from crawling.

WCB: Rendering pages with Fetch as Google
Internetkapitäne: “Abruf wie durch Google” Warum Google Seiten rendern möchte

Webmaster Tools bald mit JavaScript-Debugger

In den kommenden Tagen werden die Google Webmaster Tools mit einem JavaScript-Debugger ausgestattet. Dieser soll Nutzern dabei helfen, JavaScript-Fehler zu erkennen, um das Crawling durch Googlebots zu vereinfachen bzw. die Nutzererfahrung zu verbessern. Wie es in der offiziellen Ankündigung im Webmaster Central Blog heißt, hat Google in den vergangenen Monaten eine “umfangreiche Anzahl Webseiten” mit JavaScript gerendert und ist nun zuversichtlich, ein Hilfetool zur Beseitigung von Fehlern anzubieten.

It’s hard to do that at the scale of the current web, but we decided that it’s worth it. We have been gradually improving how we do this for some time.

WCB: Understanding web pages better
SEL: Google Webmaster Tools To Add JavaScript Debugging Tool

Webmaster Tools: Indexierungsstatus mit HTTPS

In den Google Webmaster Tools wird der Indexierungsstatus von URLs nun auch nach HTTP/HTTPS aufgeschlüsselt dargestellt. Zuvor wurden SSL-verschlüsselte Bereiche zusammen im “normalen” Report angezeigt. Voraussetzung ist, dass beide Bereiche separat vom Seitenbetreiber verifiziert wurden.

This change does not affect the way we index your URLs, nor does it have an impact on the overall number of URLs indexed on your domain.

Der Ankündigung im Webmaster Central Blog zufolge hat Google am 9. März 2014 mit der Unterscheidung zwischen HTTP und HTTPs begonnen

WCB: More Precise Index Status Data for Your Site Variations

Webmaster Tools warnen vor Markup-Spam

Einem Bericht von Barry Schwartz bei Search Engine Roundtable zufolge benachrichtigt Google manche Nutzer derzeit über “spammige strukturierte Inhalte” auf ihren Seten. In den Nachrichten, die über die Webmaster Tools versendet werden, ist von “irrelvantem und irrreführendem Verhalten” die Rede.

This is the first time I have seen a webmaster report getting a manual action sent to them for spammy structured markup.

SER: Google Sends Manual Actions For Rich Snippet Spam & Spammy Structured Markup
Internetakpitäne: Neue Abstrafung durch Google wegen Rich Snippet Spam

Webmaster Tools: Crawl-Error nach Redirect

John Mueller hat im Webmaster Central Blog eine Neuerung bezüglich des Umgangs mit Crawlerfehlern angekündigt. In den Google Webmaster Tools werden diese ab sofort für die tatsächliche Ziel-URL angezeigt und nicht mehr für den ursprüngliche Weiterleitung.

We hope this change makes it a bit easier to track down crawl errors, and to clean up the accidental ones that you weren’t aware of!

WCB: Changes in crawl error reporting for redirects

Kaum Verbessung durch Disavow-Links

Im ABAKUS-Blog fasst Thomas Schaller die Ergebnisse einer Umfrage von Search Engine Roundtable zusammen, nach der nur 15% der 400 befragten SEOs durch die Nutzung von Googles Disavow-Links-Tools eine Ranking-Verbesserung feststellen konnten. Wichtig ist der Hinweis, dass sicher nicht bei allen Befragten auch eine manuelle Penalty verhängt wurde.

[W]enn man über das Disavow Tool Links entwertet, benötigt man im Gegenzug natürlich hochwertige Links um den Verlust auszugleichen. Dabei muss man aber sorgfältig darauf achten, dass bei dem neuen Linkbuilding nicht die gleichen Fehler wie vorher gemacht werden.

ABAKUS: Verbesserung durch Disavow nur bei 15%

Webmaster Tools mit neuer URL-Entfernung

John Mueller hat ein verbessertes Feature zur Entfernung/Aktualisierung von Webseiten in den Google-Suchergebnissen vorgestellt. Mit dem neu aufgelegten “Veraltete Inhalte entfernen“-Werkzeug haben Seitenbetreiber die Möglichkeit, Inhalte noch einfacher entfernen bzw. aktualisieren zu lassen.

Ihr könnt es zum Beispiel einsetzen, wenn eine Seite vollständig entfernt wurde oder wenn sie nur verändert wurde und das Snippet und die im Cache gespeicherte Seite entfernt werden soll.

Im verlinkten Blogartikel findet ihr zwei Tutorials, in denen die Vorgehensweise zur Entfernung/Aktualisierung genau beschrieben wird.

Webmaster-Zentrale: Verbesserte URL-Entfernung auf Websites Dritter

Webmaster Tools zeigen Markup-Fehler

In den Google Webmaster Tools werden ab sofort auch Fehler von strukturierten Daten mitsamt Hilfestellung zur Behebung angezeigt. Das Feature wurde seit Juni 2013 in der englischen Version der GWT getestet und steht nun allen Seitenbetreibern zur Verfügung — weitere Fehlertypen sollen in den kommenden Monaten hinzugefügt werden.

Wir haben rechts neben der Grafik im Dashboard eine separate Fehlertabelle hinzugefügt, damit ihr die Elemente und Fehler im zeitlichen Verlauf vergleichen könnt.

Webmaster-Zentrale: Dashboard für strukturierte Daten: Einfachere Fehlerbehebung mit neuen Markup-Fehlerberichten

Webmaster Tools zeigen Smartphone-Fehler

In den Google Webmaster Tools werden nun auch Smartphone-spezifische Fehler angezeigt. Unter dem Tab “Crawl Errors” sehen Seitenbetreiber ab sofort Serverfehler, falsche Weiterleitungen und blockierte URLs, die auf Smartphones Probleme bereiten.

For example, smartphone users are shown an error page or get redirected to an irrelevant page, but desktop users are shown the content they wanted.

WCB: Smartphone crawl errors in Webmaster Tools