Matt Cutts: Guestblogging oder Artikelspamming

Googles Matt Cutts geht im neuesten WebmasterHelp-Video bei YouTube erneut auf das Thema Guestblogging ein. Was hält Google von dieser Praxis und wo liegt die Grenze zum Artikelspamming?


(YouTube-Direktlink)

Frage: I predict that in future Google will penalise guest blogging sites. Any insights on guest blogging as spam?

Zusammenfassung: Wie immer geht es um die Verhältnismäßigkeit. Gastartikel bei „high-quality blogs“ zu verfassen ist nicht nur aus SEO-Sicht ein gutes Mittel um Besucher zu generieren. Guestblogging als einzigen Weg zu Links und Besuchern zu betrachten ist dabei aber nicht empfehlenswert. Blogger sollten auch nicht mit einem einzigen Artikel hausieren gehen, sondern ihre Quellen diversifizieren.

Matt Cutts über Penalty-Aufhebung

Matt Cutts geht im neuesten Video des WebmasterHelp-Cahnnels bei YouTube auf die Frage ein, wie Webseiten mit dem Disavow-Links-Tools aus einer Google-Penalty entlassen werden können.


(YouTube-Direktlink)

Frage: How did Interflora turn their ban in 11 days? Can you explain what kind of penalty they had, how did they fix it, as some of us have spent months try to clean things up after an unclear GWT notification. How to help report false positives?

Zusammenfassung: Matt geht nicht explizit auf die genannte Website ein, sondern erläutert die eher generelle Vorgehensweise. Google vergibt Penalties nach und nach, d.h. sie werden im Laufe der Zeit immer umfangreicher — wenn keine Besserung von Seiten der Webmaster in Sicht ist. Eine Methode, um aus Penalties wieder entlassen zu werden, ist das bekannte Disavow-Links-Tool aus den Google Webmaster Tools. Wenn Links entwertet und ein entsprechender Reconsideration Request gestellt wurde, stehen die Chancen nicht schlecht, dass Google die Seite wieder ranken lässt. Generell ist es aber nicht immer empfehlenswert, gleich alle Backlinks eines bestimmten Zeitraums zu entwerten. In manchen Fällen mag dies sinnvoll sein (z.B. wenn aus Google-Sicht schlechte SEO mit minderwertigen Links betrieben wurde), in der Regel lohnt aber ein genauer Blick auf das jeweilige Backlinkprofil.

Matt Cutts über Fremdcontent

Im neuesten Video des WebmasterHelp-Channels bei YouTue geht Matt auf das Thema Fremdcontent ein. Inwieweit können/sollten Seitenbetreiber fremde Inhalte bei sich einbauen, wenn sie die jeweilige Originalquelle nennen? Wo liegt die Grenze zu Spam/Stitching?


(YouTube-Direktlink)

Frage: Can a site still do well in Google if I copy only a small portion of content from different websites and create my own article by combining all, considering I will mention the source of that content (by giving their urls in the article)?

Zusammenfassung: Wie bei Matt üblich geht es auch beim Thema Fremdcontent immer um die Verhältnismäßigkeit. Zitate von anderen Webseiten einzubauen ist aus Google-Sicht in Ordnung, wenn es sich wirklich um Zitate handelt und nicht der komplette „eigene“ Artikel aus fremden Inhalten besteht. Es geht darum Mehrwerte zu schaffen. Wenn kein Mehrwert entsteht, hat Google auch keinen Grund, den entsprechenden Artikel in den Suchergebnisseiten zu listen. Aggregatoren, die Inhalte nicht selbst aufbereiten (d.h. automatisiert einstellen) bieten laut Matt keine Vorteile für den Nutzer. Anders sieht es bei Zusammenfassungen und den bereits erwähnten Zitaten aus.

Matt Cutts über ausgehende Links

Matt Cutts geht im neuesten Video des WebmasterHelp-Channels bei YouTube auf die Frage ein, wie viele ausgehende Links eine Seite maximal haben sollte.


(YouTube-Direktlink)

Frage: How many links on a page should we have? Is there a limit?

Zusammenfassung: Matt erläutert zunächst Googles frühere Herangehensweise. Demnach wurde die maximal berücksichtigte Anzahl ausgehender Links von der Dateigröße der Webseite abhängig gemacht: Bei 100 KB wurden maximal 100 Links gezählt und der Rest ignoriert. Begründet wird dies mit den früheren technischen Limitierungen. Heute sieht die ganze Sache etwas anders aus und die Größe einer Seite ist für ausgehende Links (zum Glück) nicht mehr relevant. Stattdessen wird eine nicht näher genannte „vernünftige“ Anzahl ausgehender Links empfohlen, die von der Länge und Art der Webseite abhängig gemacht werden sollte. Matt führt als Beispiel Aggregatoren an, die im Grunde nur aus Links bestehen. Nutzer sollten auch den PageRank-Fluss im Auge behalten: je mehr Links, desto geringer ist die einzelne Gewichtung. „Keep it to a reasonable level.“

Matt Cutts: Disavow Links ohne Penalty

Matt Cutts geht im neuesten Video des WebmasterHelp-Channels bei YouTube auf die Frage ein, ob Seitenbetreiber auch dann das Disavow-Links-Tool nutzen sollten, wenn keine Google-Penalty vorliegt.


(YouTube-Direktlink)

Frage: Should webmasters use the disavow tool, even if it is believed that no penalty has been applied? For example, if we believe ‚Negative SEO‘ has been attempted, or spammy sites we have contacted have not removed links.

Zusammenfassung: Matt erläutert zunächst die eigentliche Funktion des Disavow-Links-Tools. Wenn Seitenbetreiber „schlechtes SEO“ betrieben haben und nach einer Google-Penalty die eingehenden Links aufräumen möchten, können diese mit dem Disavow-Links-Tool entwertet werden. Dies kann z.B. dann sinnvoll sein, wenn die linkgebenen Seiten(betreiber) nicht auf E-Mails reagieren, in der um die Entfernung der Links gebeten wird.
Im Video erklärt Matt weiter, dass eine Google-Penalty nicht zwangsläufig bestehen muss, um das DL-Tool zu nutzen. Wenn Links z.B. von „irgendwelchen Bots“ gesetzt wurden, können sie mit dem DL-Tool vorab entwertet werden, ohne dass Google diese Links bereits als spammig erkannt hat.

Matt Cutts über Metatags

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt auf die Relevanz von Metatags ein: Wie wichtig sind einzigartige Beschreibungen für Unterseiten und was hält Google von automatisch generierten decriptions?


(YouTube-Direktlink)

Frage: Is it necessary for each single page within my website to have a unique metatag description?

Zusammenfassung: Laut Matt sollten sich Seitenbetreiber entweder für einzigartige Beschreibungen oder gar keine Beschreibungen entscheiden, in keinem Fall aber für doppelt genutzte Meta-Descriptions. In den Webmaster Tools werden solche duplicate descriptions jederzeit aufgeführt.
Die Frage, ob wirklich alle Unterseiten mit Beschreibungen versehen sollten wird von Matt verneint, da sich der „return on investment“ heutzutage nicht mehr lohnen würde. Es wird empfohlen, die wichtigsten Seiten mit einzigartigen Beschreibungen auszustatten — oder wenn die automatisch generierten Snippets von Google ein falsches Bild wiedergeben.

Matt Cutts über Geo-Weiterleitungen

Matt Cutts geht im neuesten Webmasterhelp-Video bei YouTube auf die Frage ein, ob Google es als Spam ansieht, wenn Nutzern basierend auf Geo-Informationen verschiedene Inhalte gezeigt werden. Wo ist die Grenze zum Cloaking?


(YouTube-Direktlink)

Frage: Using Geo-detection technique is against Google, I am offering the useful information (price, USP’s) to the users based on the Geo-location, will Google consider this as a Spam i.e. showing X content to SE and Y content to user.

Zusammenfassung: Matt sieht Weiterleitungen auf Basis von geografischen Eigenschaften (IP-Adresse) weder als Spam noch als Cloaking an. Ganz im Gegenteil sollen z.B. deutsche Nutzer auch auf die deutsche Version einer Internetseite geleitet werden — genau dafür werden multilinguale Seiten schließlich erstellt. Google selbst zeigt auf Basis von IP-Adressen andere Inhalte an, so dass Nutzer in der Regel die am besten geignete Version zu sehen bekommen.
Anders verhält es sich beim Googlebot: Um die Grenze zum Cloaking nicht zu überschreiten, sollten den Bots keine anderen Inhalte als dem Nutzer gezeigt werden.

Matt Cutts: kein PageRank-Update 2013

Matt Cutts hat sich bei Twitter zu einem möglichen PageRank-Update in den verbleibenden Monaten dieses Jahres geäußert. Demnach wäre er „überrascht“, wenn 2013 noch ein Update veröffentlicht würde.

matt-cutts-pr-update

Passend dazu gibt es ein neues Video im WebmasterHelp-Channel bei YouTube, in dem Matt auf die Frage eingeht, warum sich der (öffentlich einsehbare) PageRank in den letzten Monaten nicht verändert hat:


(YouTube-Direktlink)

Frage: Our website is not improving in Google PageRank despite having regular updates and foolproof content authorized by proven editors. What could be the reason for this?

Zusammenfassung: Matt weist zunächst darauf hin, dass der Google Toolbar-Pagerank nur periodisch aktualisiert wird. Zudem erlauben neue Versionen des Internet Explorers keine Toolbar-Installationen mehr — auch Google Chrome kommt ohne Toolbars aus.
Im weiteren verlauf des Vidoes erläutert Matt, dass der PageRank nach wie vor von der Anzahl und Qualität eingehender Links abhängig ist. Eine technisch saubere Architektur einer Seite ist in diesem Zusammenhang wichtig, damit der PageRank-Fluss nicht gestört wird.

SER: Google’s Matt Cutts: No PageRank Update Before 2014

Matt Cutts: Googlebot und valides HTML

Im neuesten WebmasterHelp-Video bei YouTube geht Matt Cutts auf die Frage ein, ob der Googlebot beim Crawlvorgang auf valides HTML achtet. Sollen Seitenbetreiber nach wie vor Energie und Zeit darauf verwenden, um Webseiten valide zu machen?


(YouTube-Direktlink)

Frage: Does the crawler really care about valid HTML? Validating google.com gives me 23 errors, 4 warning(s)

Zusammenfassung: Matt führt zunächst die Vorteile einer validen HTML-Struktur auf. Seiten sind einfacher zu warten und Upgrade-Prozesse laufen in der Regel problemfreier — der Code ist zudem besser nachvollziehbar für andere Entwickler/Designer. Für den Googlebot ist valides HTML allerdings nicht von großer Bedeutung; einen Rankingverlust schließt Matt gleich ganz aus. Google müsse „mit dem Web arbeiten, das wir haben — nicht mit dem, das wir wollen“. Wenn Google nur valide Seiten in den SERPs hätte, würde die Search Quality stark darunter leiden. Gründe für valides HTML gibt es genug, ein Rankingvorteil ist dadurch aber nicht gegeben.

Matt Cutts: eCommerce und Duplicate Content

Im neuesten WebmasterHelp-Video bei YouTube geht Matt auf das Thema Duplicate Content im eCommerce-Bereich ein. Stellt es für Google in Problem da, wenn gleiche Inhalte wie z.B. Produktinformationen auf verschiedenen Seiten im Netz zu finden sind?


(YouTube-Direktlink)

Frage: What can e-commerce sites do that sell products which have an ingredients list exactly like other e-commerce sites selling the same product to avoid Google as seeing it as duplicate content?

Zusammenfassung: Matts Aussage zufolge ist es „kein großes Problem“, wenn Händler Produktinformationen auf ihrer Seite aufbereiten, die in gleicher Form bereits an anderen Stellen im Web zu finden sind. Wie immer geht es um die Verhältnismäßigkeit: Wer lediglich einen Affiliate-Feed einbaut und darüber hinaus keinen Mehrwert bietet, sollte sich fragen, warum Google gerade diese Seite in den SERPs hervorheben muss.
Matt empfiehlt, neben Produktinfos und -spezifikationen eigene Inhalte zu den jeweiligen Produkten zu erstellen, um nicht in die Duplicate Content-Falle zu geraten.