Matt Cutts übt Selbstkritik

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt auf die Frage eines gewissen Barry Schwartz ein, der wissen möchte, was das Webspam-Team von Google in der Vergangenheit besser hätte machen können.


(YouTube-Direktlink)

Frage: Was there a key moment in your spam fighting career where you made a mistake that you regret, related to spam?

Zusammenfassung: Matt zufolge hat das Webspam-Team in der Vergangenheit zwei große Fehler begangen: Der Umgang mit bezahlten Links (die PageRank weitergeben) und die zögerliche Haltung bezüglich Content-Farmen. In Sachen Paid Links sieht Matt es als Versäumnis an, die Problematik nicht schon früher und konsequenter anzugehen. Matt zufolge hat das Webspam-Team erst 2006 wirklich verstanden, dass bezahlte PageRank-Links zu einer massiven Störung in der Zusammenstellung der Suchergebnisseiten führten.
Ein persönliches Versäumnis sieht Matt im Umgang mit Content-Farmen. Da eine dieser Seiten ihm selbst bei einer heiklen Situation aus der Patsche geholfen hatte, war seine persönliche Sichtweise anders als die von weiteren Google-Mitarbeitern, welche schon früher für ein strengeres Vorgehen gegen Content-Farmen plädierten. Erst nach und nach ist auch Matt überzeugt worden, dass „content machines“ in der Regel keinen Mehrwert für Google-Nutzer bringen.

Matt Cutts über 404 und 410-Statuscodes

Im neuesten Video des WebmasterHelp-Channels bei YouTube erläutert Matt Cutts den Unterschied zwischen den Statuscodes 404 und 410. Wie geht der Googlebot damit um und was bedeuten die Statuscodes für die Indexierung von Webseiten?


(YouTube-Direktlink)

Frage: Does Google do anything different when encountering a 404 versus a 410?

Zusammenfassung: Während der Statuscode 404 anzeigt, dass eine Seite (temporär) nicht gefunden wurde, gibt der Code 410 an, dass die angeforderte Seite permanent entfernt wurde. Matt zufolge wartet der Googlebot bei 404-Fehlern 24 Stunden, bevor die Seite erneut gecrawlt wird — allerdings werden auch mit 410-Hinweisen versehene Seiten „nicht vergessen“ und „zu späteren Zeitpunkten“ erneut überprüft.
Webmaster sollten den Statuscode 410 nur dann einsetzen, wenn es keinen adäquaten Ersatz gibt. Matt zufolge weiß Google aber um die Problematik der versehentlichen Fehlkonfiguration. Seitenbetreiber sollten sich nicht verrückt machen, wenn sie aus Versehen den falschen Statuscode eingesetzt haben.

Matt Cutts: Popularität vs. Autorität

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt Cutts auf die Thematik Popularität vs. Autorität. Wie unterscheidet Google zwischen diesen Eigenschaften?


(YouTube-Direktlink)

Frage: As Google continues to add social signals to the algorithm, how do you separate simple popularity from true authority?

Zusammenfassung: Matt erläutert den Unterschied zwischen Popularität und Autorität am Beispiel des PageRanks. Während Pornoseiten oft populär sind, werden sie vergleichsweise selten verlinkt, was zu einem niedrigen PageRank-Wert führt. Auf der anderen Seite sind Behördenseiten oft nicht besonders populär, werden aber häufig verlinkt und bekommen damit eine entsprechende PageRank-Reputation.
Im zweiten Teil des Videos geht Matt auf Query-Matches/Reputation ein: Wenn viele eingehende Links zu einem Thema(!) vorhanden sind, wird dies als Signal für Autorität gewertet. Matt zufolge wird Google diesbezüglich in einem nicht näher benannten Zeitraum Algo-Änderungen durchführen, um auf Basis von Reputationssignalen die jeweils besten Query-Matches liefern zu können.

Matt Cutts über ccTLDs und Targeting

Matt Cutts geht im neuesten Video des WebmasterHelp-Channels auf die Frage ein, wie man Google über verwandte Domains in Kenntnis setzen sollte. Welche Maßnahmen sollten Seitenbetreiber mit .com, .fr und .de-Adressen durchführen und wo liegt die Grenze zu (Footer-)Linkspam?


(YouTube-Direktlink)

Frage: Is there any way Google identifies „sister“ websites? For example, relationships between ebay.co.uk and ebay.com? Does linking from one to the other is taken as paid or unnatural? And I’m strictly talking about good, genuine ccTLDs for businesses 🙂

Zusammenfassung: Google versucht die Verwandtschaft zwischen Seiten selbst zu erkennen, kann dabei aber laut Matt „ein wenig Hilfe“ gut gebrauchen. Seitenbetreibern wird der korrekte Einsatz des Linkelements hreflang empfohlen, um Nutzern die jeweils passende Version einer Webseite anzuzeigen. Deutsche Nutzer bekommen ebay.de präsentiert, während französische User zu ebay.fr geleitet werden. — Eine weitere Möglichkeit sind XML-Sitemaps, welche dem Googlebot die lokalisierten Inhalte aufzeigen. Die Wahrscheinlichkeit, dass Nutzer zur falschen Seite weitergeleitet werden, wird Matt zufolge durch hreflang und/oder Sitemaps minimiert.
In Sachen direkte Verlinkung empfiehlt Matt, verwandte Domains zu verlinken — solange es sich nicht um 50 Links im Footerbereich handelt. In diesem Fall wäre eine globale Landingpage sinnvoller, von der aus Nutzer das für sie jeweils passende (lokale) Angebot selbst auswählen können.

Matt Cutts über Google ohne Backlinks

Matt Cutts geht im neuesten Video des WebmasterHelp-Channels bei YouTube auf die interessante Frage ein, ob eine Variante der Google-Suche existiert, bei der Backlinks als Rankingfaktor ausgeklammert sind.


(YouTube-Direktlink)

Frage: Hi Matt, does the big G have a version of the search engine that totally excludes any backlink relevance? I’m wondering what search would look like and am curious to try it out.

Zusammenfassung: Laut Matt existiert eine Backlink-freie Variante der Google-Suche tatsächlich — allerdings nur Google-intern und nicht für de Öffentlichkeit bestimmt. Die damit erzielten Ergebnisse seien allerdings „sehr schlecht“. Obwohl mit Links viel Schindluder getrieben werde, seien sie nach wie vor ein „really really big win“, wenn es um die Beurteilung der Qualität von Suchergebnissen geht. Matt gibt zu, dass bei Google tatsächlich mit dem Gedanken gespielt wurde, Backlinks als dominierenden Rankingfaktor abzuschalten, allerdings sei ein solches Vorgehen „zum jetzigen Zeitpunkt“ nicht möglich.

Matt Cutts über alte Domains

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt auf die Frage eines Seitenbetreibers ein, der sich wundert, dass seine 14 Jahre alte Domain von neuen Mitbewerbern überholt wird.


(YouTube-Direktlink)

Frage: I have been in business for over 14 years with my domain, and see much newer domains passing me. Any algorithms to protect older domains/sites in business from newer sites with more spam?

Zusammenfassung: Seitenbetreiber sollten sich nicht auf ihrem Erfolg ausruhen. Nur weil eine Seite in der Vergangenheit ein gutes Ranking bei Google vorweisen konnte, ist das kein Grund nur noch den Status Quo zu erhalten. Die erwähnten neuen Mitbewerber bieten vielleicht eine bessere Nutzererfahrnung an, haben modernere Templates und damit ein allgemein moderneres Erscheinungsbild. Matts Empfehlung: „Take a fresh look at your site“.

Was im Video nicht direkt angesprochen wird, aber sicher auch ein Faktor ist: Die Endgeräte der Nutzerschaft haben sich geändert. Die vor 14 Jahren eingestellte Website ist in der Regel (und verständlicherweise) nicht für Smartphones/Tablets optimiert, während die neuen Mitbewerber hier punkten können.

Matt Cutts: Verschiedene Algos für verschiedene SERP-Positionen?

Googles Matt Cutts beantwortet im neuesten Video des WebmasterHelp-Channels bei YouTube die Frage, ob je nach SERP-Position ein anderer Algorithmus greift. Ein Nutzer aus Dänemark hat die Vermutung, dass ein „Freshness-Algo“ für die obersten Positionen verantwortlich ist, während Backlinks und Social Signals die unteren Seiten der SERPs dominieren.


(YouTube-Direktlink)

Frage: Do Google use the same algorithm to rank all the results on page 1, or different algorithms for a wider variety in the results? (Pos. 1-3 – primary focus on freshness Pos. 4-6 – primary focus on backlinks Pos. 7-10 – primary focus on social signals)

Zusammenfassung: Matt verneint die Vermutung des Fragestellers und weist darauf hin, dass für die Zusammensetzung der SERPs „general Google algorithms“ verantwortlich sind. Eine Aufteilung nach Position findet nicht statt, vielmehr ist die jeweilige Relevanz und Reputation der ausschlaggebende Faktor.

Matt Cutts über kleine DC-Probleme

Matt Cuts geht im neuesten Video des WebmasterHelp-Channels auf die Frage eines brasilianischen Nutzers mit dem schönen Namen Computerklaus ein, der wissen möchte, wie Matt selbst mit kleineren Duplicate-Content-Problemen z.B. auf News-Seiten umgehen würde.


(YouTube-Direktlink)

Frage: If you had to deal with short-term duplicated content on a news site (perhaps publishing a story on two different URLs over one day), what would you do in order to avoid any penalty from a duplicate content filter?

Zusammenfassung: Matt geht in seiner Antwort davon aus, dass es sich um eine qualitativ hochwertige News-Seite handelt, die in der Vergangenheit nicht mit (manuellen) Penalties belegt wurde. Bei kleineren und temporären(!) Problemen mit doppelten Inhalten empfiehlt Matt den Einsatz von rel=“canonical“. Dem Googlebot wird damit die richtige URL mitgegeben und der PageRank nicht unnötig aufgeteilt. „Then you should be in pretty good shape“.

Siehe auch: Matt Cutts: 25-30% des Webs ist Duplicate Content

Matt Cutts über länderspezifische IPs

Googles Matt Cutts geht im neuesten Video des WebmasterHelp-Channels bei YouTube auf die Frage eines deutschen Nutzers ein, der wissen möchte, ob Google mit verschiedenen TLDs unter einer IP-Adresse d’accord geht.


(YouTube-Direktlink)

Frage: For one customer we have about a dozen individual websites for different countries and languages, with different TLDs under one IP number. Is this okay for Google or do you prefer one IP number per country TLD?

Zusammenfassung: „In einer perfekten Welt“ hat Matt zufolge jede Top-Level-Domain eine eigene IP-Adrese — dennoch ist es aus Google-Sicht nicht problematisch, wenn mehrere TLDs über eine IP gebündelt werden. Google kann damit mittlerweile gut umgehen und sieht die TLDs selbst als starken Indikator für das jeweilige Zielgebiet. Wer also aus monetären oder administrativen Gründen auf länderspezifische IPs verzichten möchte, braucht keine Google-Nachteile in Kauf nehmen.

Matt Cutts: 25-30% des Webs ist Duplicate Content

Im neuesten Video des Webmasterhelp-Channels geht Matt Cutts erneut auf das Thema Duplicate Content ein. Wie geht Google mit doppelten Inhalten um? Wird jeder zitierte Absatz gleich als Spam angesehen?


(YouTube-Direktlink)

Frage: How does Google handle duplicate content and what negative effects can it have on rankings from an SEO perspective?

Zusammenfassung: Gleich zu Beginn gibt Matt eine Schätzung ab, nach der 25-30% des Webs aus doppelten Inhalten besteht. Gleichzeitg verweist er auf die Tatsache, dass nicht jeder kopierte/zitierte Absatz in einem Blog gleich als DC gewertet wird — wie immer kommt es auf die Verhältnismäßigkeit an.
Interessant ist auch die Aussage, dass Google DC intern gruppiert und in den Suchergebnisseiten zunächst nur ein „DC-Ergebnis“ auflistet und den Rest sehr viel weiter unten versteckt. DC wird von Google also nicht automatisch als Spam angesehen. Trotzdem ist es keine gute Idee, massenhaft Inhalte von anderen Seiten zu kopieren; Matt führt Auto-RSS-Importer als Negativbeispiel an.