Was sollten Webmaster nach der Aktualisierung der technischen Richtlinien nun beachten?

1 Kommentar

Gestern veröffentlichte Pierre Far auf dem Webmaster Zentrale Blog einen Post, in welchem er ankündigte, dass Google die technischen Richtlinien für Webmaster aktualisiert. Dem vorausgegangen war die Mitteilung von Google, dass das Indexierungssystem der Suchmaschine Webseiten wie ein “typischer moderner Browser darstellt, bei dem CSS und JavaScript aktiviert sind” (O-Ton des Blogposts). Die hier verlinkte Version des gestrigen Blogposts ist die von Johannes Mehlem ins Deutsche übersetzte Version.

Aufgrund der neuen Richtlinien sollten Webmaster dem Google-Bot nun Zugriff auf die CSS- und JavaScript-Dateien gewähren, denn andernfalls kann Google die Website ja nicht wie ein normaler Besucher lesen. Doch dies ist nicht nur eine Empfehlung seitens Google, sondern fast mehr eine Aufforderung. Denn sofern Webmaster das Crawling von JavaScript- und CSS-Dateien mittels robots.txt-Datei verbieten, wirke sich dies unmittelbar auf die Darstellung und Indexierung der Inhalte durch die Google-Algorithmen aus – es könne laut Google sogar zu schlechteren Rankings führen.

Daneben spielt auch die Ladegeschwindigkeit Eurer Website eine wichtige Rolle, denn Ladezeit ist wertvolle Rechenzeit und eine langsame Website könnte Besucher verschrecken. Ihr werdet es selber kennen: Wenn SEO.at quälend langsam laden würde, währt ihr die längste Zeit ein Leser von uns gewesen. In Zeiten von VDSL erwartet der Besucher einfach eine schnelle Ladezeit. Doch nicht nur Besucher werden unter Umständen verschreckt, sondern auch Google: “Seiten, die schnell dargestellt werden, sorgen nicht nur dafür, dass Nutzer schneller auf euren Inhalt zugreifen können, sondern machen auch die Indexierung dieser Seiten wesentlich effizienter”, schrieb Pierre Far in seinem gestrigen Blogpost. Der @-web Suchmaschinen-Blog hat dieses Thema nochmals tiefer analysiert und weist auch darauf hin, dass Google die Ladezeit einer Website im Jahr 2010 als Rankingfaktor deklarierte. Auch zeigt der Autor hier, wie man die eigene Website für eine optimale Indexierung gestalten sollte.

Auch eine gute Zusammenfassung der Inhalte und Learnings aus dem Blogpost von Pierre Far bietet Maik Bruns auf dem Blog der Internetkapitäne: “Du sollst nicht JS und CSS sperren! – Google ändert technische Richtlinien für Webmaster”

Google vs. VG Media: Axel Springer beugt sich nicht

Kommentar verfassen

Gestern berichteten wir, dass die VG Media erklärte Google eine ‘widerrufliche Gratiseinwilligung” zur Nutzung der Snippets seiner angeschlossenen Verlage zu erteilen. Allerdings haben nicht alle Verlage dem vollumfänglich zugestimmt und die Einwilligung unterschrieben. Der Axel Springer Verlag, laut dem Medienportal turi2.de “wichtigster Promoter des Leistungsschutzrechtes”, erteilt Google direkt für mehrere Titel keine ‘Gratiseinwilligung’: Welt.de, Computer Bild, Auto Bild und Sport Bild. „Wir wollen damit nicht nur ein Zeichen setzen, dass wir unsere Position nicht aufgeben, auch wenn wir unter Druck gesetzt werden“, so eine Sprecherin des Springer-Verlags im Handelsblatt, sondern “der Konzern nehme auch bewusst Umsatzeinbußen in Kauf, wenn Google die Suchergebnisanzeige bei diesen Titeln wie angekündigt auf Überschriften beschränke”, so das Handelsblatt weiter.

Nun hat Martin Mißfeldt auf seinem tagSeoBlog heute einen Artikel veröffentlicht, in dem er eine Site-Abfrage von Welt.de zeigt. Hier tauchen Teaserbilder neben dem Artikel auf. Jedoch stammen diese nicht aus dem Artikel der Welt, sondern von anderen News-Portalen, die einen thematisch gleichen Artikel verfasst haben. Schon länger zeigt Google passende Bilder von anderen Portalen in den Google News an, jedoch wird die Tatsache pikant, wenn man bedenkt, dass die Bilder sehr wahrscheinlich eher angeklickt werden als die Überschrift von, in diesem Falle, Welt.de.

Aus diesem Sachverhalt entwickeln sich zwei spannende Fragen:

  • Bekommen die Titel Welt.de, Computer Bild, Sport Bild und Auto Bild durch Auslistung der Snippets weniger Search-Traffic?
  • Falls ja, wie verarbeitet der Algorithmus eine geringere Klickrate und sinken dadurch zukünftig die Rankings?

Was meint ihr dazu?

Die Artikel von turi2 und dem Handelsblatt findet ihr nachfolgend:
turi2: Springer schickt “Welt” in den Google-Kampf.
Handelsblatt: Axel Springer streitet weiter mit Google

Den Artikel von Martin Mißfeldt findet ihr hier: Google spielt mit der Welt Katz und Maus

Streit zwischen VG Media und Google: VG Media gibt nach

3 Kommentare

In einer gestern veröffentlichten Pressemitteilung erklärt die Verwertungsgesellschaft (VG) Media , dass sich die ihr angehörigen Presseverlage “dem Druck Googles” beugen werden und Google eine “widerrufliche ‘Gratiseinwilligung’ in die unentgeltliche Nutzung ihrer Presseerzeugnisse” erteilen. Denn heute wäre der Stichtag gewesen – ab heute hätte Google keine Snippets der betreffenden Verlage mehr in seinen Suchergebnissen angezeigt.

Diesen Artikel lesen

Schleichendes “Panda-Update” in der Google-Bildersuche?

Kommentar verfassen

Martin Mißfeldt zeigt in seinem neuesten Blogpost, dass sich die Algorithmen der organischen Google-Suche und der Google-Bildersuche einander annähern. Wie auch bei den organischen Suchergebnissen verfolge Google das Ziel bei der Bildersuche Ergebnisse zu präsentieren, die in Websites mit relevantem Content eingebettet sind.

[...] über die Jahre gibt es in der Bildersuche schon eine Entwicklung, die mit den Panda-Wertvorstellungen vergleichbar ist.

Diesen Artikel lesen

SEO-united und MOZ geben Tipps zur Text-Optimierung

Kommentar verfassen

Gretus hat heute auf SEO-united einen Beitrag über die Optimierung von Texten verfasst. Dabei geht er auf die zielgerichtete Verwendung von Keywords, die Verbesserung von Texten durch nachträgliches akzentuiertes Einsetzen von Synonymen oder der klaren Strukturierung der Inhalte, ein.
Seine Quelle ist der gestern von Cyrus Shepard veröffentlichte Beitrag “More than Keywords: 7 Concepts of Advanced On-Page SEO” auf dem Moz-Blog, den Shepard folgendermaßen zusammenfasst:

Wenn wir auch weiterhin wie Menschen für Menschen schreiben, werden unsere Texte irgendwann von ganz alleine gefunden werden.

Übersetzt von Gretus auf SEO-united.de

Den vollständigen Artikel findet ihr hier: “Sieben einfache Tipps zur Optimierung von Texten”
Den Artikel von Cyrus Shepard im Moz-Blog hier: “More than Keywords: 7 Concepts of Advanced On-Page SEO”

Penguin 3.0 betrifft weniger als 1% der US-Suchanfragen

Kommentar verfassen

Wie wir gestern berichteten, ist Penguin 3.0 nun ausgerollt worden. Pierre Far von Google bestätigte heute via Google+, dass der Ausroll-Prozess weiterhin andauert:

It’s a slow worldwide rollout, so you may notice it settling down over the next few weeks.

Das Algorithmus-Update betrifft weniger als 1% der Suchanfragen in den USA und hilft vor allem Websites, die im Zuge von Penguin 2.0 in eine algorithmische Penalty geraten sind. Voraussetzung hier ist natürlich, dass die Webmaster die Gründe für die Penalty auf ihrer Website beseitigt haben. Auch ‘degradiert’ es Websites, die als Spam-Seiten eingestuft wurden.

Pierre Far bestätigt Penguin 3.0 via Google+

Penguin 3.0 veröffentlicht?: Das sagen verschiedene Quellen dazu

3 Kommentare

Update 16:50:
Im heutigen Webmaster Central Hangout hat John Mueller soeben bestätigt, dass Penguin 3.0 ausgerollt ist. Angaben zu weiteren Daten des Algorithmus-Updates konnte er allerdings noch nicht machen – es ist auch unklar ob Google in der Zukunft weitere Informationen zu Penguin 3.0 äußern wird.

Wie Search Engine Land am Wochenende berichtete, ist das Update des Penguin-Algorithmus ausgerollt worden. Barry Schwartz von Search Engine Land beruft sich dabei auf eine seitens Google bestätigte Aussage.

Google has confirmed to Search Engine Land that it updated its Penguin filter on Friday. Penguin targets sites deemed to be spammy, especially those found in violation of Google’s guidelines about linking.

In den Daten von SISTRIX sind bis zum jetzigen Zeitpunkt noch keine Auswirkungen spürbar – das könnte daran liegen, dass Penguin 3.0 noch nicht vollständig ausgerollt ist: “Stell Dir vor, es ist Penguin-Update und keiner macht mit”

[...] zumindest im deutschsprachigen Google-Index sind keine signifikanten Verschiebungen messbar. Natürlich gibt es Domains, die zwischen Freitag und Sonntag gewonnen oder verloren haben – die Veränderungen sind allerdings eher im geringen Prozentbereich und fallen in meinen Augen in das typische „Grundrauschen“ von Google. Hier von Penguin-Auswirkungen zu sprechen, ist falsch [...]

Die Berichterstattung weiterer Quellen ist wie folgt:
Seokratie: “Penguin 3 veröffentlicht – Das soll es gewesen sein?”
SEO-Südwest: “Google rollt Penguin 3.0 aus”
t3n: “Penguin: Google bestätigt Algorithmus-Update”
Jens Fröhlich von Indexlift hat die gesamte Historie von der Ankündigung bis zum Rollout von Penguin 3.0 auf seinem Blog aufgelistet: “Google Penguin Refresh Anfang Oktober 2014″

Jennifer Slegg von TheSEMPost analysiert schon die Auswirkungen: “Penguin 3.0 Finally Updates – Google Hits Homepages, Affiliates & 301 Redirect Spam”

Heute Nachmittag findet ein Webmaster Central Hangout mit John Mueller statt. Wird er das Rollout von Penguin 3.0 bestätigen?

[Update] 5 Lektionen über Website-Relaunch von RankingCheck

Kommentar verfassen

Eoghan Henn hat auf dem Blog von RankingCheck fünf seiner Learnings aus den eigenen Erfahrungen als SEO-Berater zusammengetragen, um andere SEOs davor zu schützen, die gleichen Fehler zu machen. Darunter sind neben Basics (ohne Inhalte kein Ranking und auch kein Traffic), auch Tipps, wie man beispielsweise mit einem Kunden umgeht, der aufgrund eines misslungenen Relaunchs die alte Website wieder online bringen möchte.

Den kompletten Artikel findet ihr auf dem Blog von RankingCheck: “5 Lektionen, die ich als SEO-Berater über Website-Relaunchs gelernt habe”

Update 21.10. 09:46 Uhr
Diese hilfreiche Checkliste von Jens Fröhlich kann euch bei einem Relaunch vielleicht auch helfen: “SEO Relaunch Checkliste”

Seokratie stellt Yandex Metrica zum Messen von Nutzerverhalten vor

Kommentar verfassen

Auf Seokratie.de stellt Julian Dziki in einem Video vor, wie man mithilfe des Analysetools der russischen Suchmaschine Yandex, Yandex Metrica – sozusagen dem Pendant zu Google Analytics – das Verhalten der Website-User tracken kann. Auch bei uns zählt das Userverhalten als Rankingfaktor – je besser Eure Besucher Eure Website finden, desto mehr mag Google sie auch.
Diesen Artikel lesen