Google Payday Loan-Update 3.0

Wie Matt Cutts via Twitter bestätigt hat, wurde die dritte Iteration des Payday Loan-Updates gestern Abend veröffentlicht. Weitere Infos, wie z.B. der Anteil der für das Update relevanten Suchanfragen, wurden nicht bekannt gegeben. Beim letzten Payday Loan-Update von vor drei Wochen sind Matt Cutts zufolge 0,2% aller englischen Suchanfragen betroffen gewesen.

Payday 3.0 specifically targets spammy queries, versus spammy sites. What exactly that means is not 100% clear.

SEL: Google’s Payday Loan Algorithm 3.0 Rolling Out Now

Matt Cutts: Ranking ohne Links

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt Cutts auf die Frage eines indischen Seitenbetreibers ein, der wissen möchte, wie Google Inhalte bewertet, die über keine oder nur sehr wenige eingehende Links verfügen.


(YouTube-Direktlink)

Frage: How does Google determine quality content if there aren’t a lot of links to a post?

Zusammenfassung: Matt zufolge wird das Ranking von Inhalten ohne eingehende Links „wie früher“ bewerkstelligt, als Suchmaschinen Links noch nicht als wichtigstes Rankingkriterium nutzten. Hierbei wird der Inhalt selbst (so gut es eben geht) versucht zu beurteilen, d.h. auf Basis von (Exact-)Query-Matches. Auch die Beurteilung der Domain selbst als vertrauenswürdig / nicht vertrauenswürdig spielt eine Rolle. Die Zeiten von Keyword-Stuffing sind Matt zufolge allerdings vorbei; Keywords einfach so oft es geht zu wiederholen hat als Taktik ausgedient.

Linkbuilding-Klage in den USA

Gretus verweist bei SEO-united.de auf eine Klage gegen eine US-amerikanische SEO-Agentur, die ihrem Kunden nicht weniger als 2000 eingehende Links pro Monat zur Rankingverbesserung versprochen hat, ohne dabei auf „wertlose“ Links zurückzugreifen. Wie sich herausstellte, konnte die Agentur allerdings lediglich 188 „normale“ Links herbeizaubern, während die übrigen 6720 eingehenden Links über Linkfarmen produziert wurden.

Bei der letztendlichen Auswahl eines geeigneten Dienstleisters scheint es zumindest im Bereich Linkbuilding offenbar teilweise immer noch darauf anzukommen, wie viele Backlinks in welchem Zeitraum genau gesetzt werden.

SEO-united.de: Lassen sich Backlinks vertraglich garantieren?

Panda 4.0 und Payday Loan-Updates

Google hat über das Wochenende bzw. in der vergangenen Nacht zwei weltweite Updates veröffentlicht. Bei der nunmehr vierten Iteration des Panda-Updates handelt es sich wohl um direkte Algo-Veränderungen (im Gegensatz zu einem data refresh), die Matt Cutts zufolge 7,5% aller Suchanfragen betreffen.

Barry Schwartz von Search Engine Land zu Panda 4.0:

From talking to Google, it sounds like this update will be gentler for some sites, and lay the groundwork for future changes in that direction.

Bei dem zweiten Update handelt es sich um Version 2.0 des Payday Loan-Algorithmus, der im Sommer des vergangenen Jahres eingeführt wurde. Payday Loan bezieht sich auf nicht näher bezeichnete „very spammy queries“, läuft offiziellen Angaben zufolge unabhängig von Panda- und Pinguin-Updates und soll 0,2% aller englischen Suchanfragen betreffen.

SEL: Google Begins Rolling Out Panda 4.0 Now
SEL: Official: Google Payday Loan Algorithm 2.0 Launched: Targets “Very Spammy Queries”

Matt Cutts übt Selbstkritik

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt auf die Frage eines gewissen Barry Schwartz ein, der wissen möchte, was das Webspam-Team von Google in der Vergangenheit besser hätte machen können.


(YouTube-Direktlink)

Frage: Was there a key moment in your spam fighting career where you made a mistake that you regret, related to spam?

Zusammenfassung: Matt zufolge hat das Webspam-Team in der Vergangenheit zwei große Fehler begangen: Der Umgang mit bezahlten Links (die PageRank weitergeben) und die zögerliche Haltung bezüglich Content-Farmen. In Sachen Paid Links sieht Matt es als Versäumnis an, die Problematik nicht schon früher und konsequenter anzugehen. Matt zufolge hat das Webspam-Team erst 2006 wirklich verstanden, dass bezahlte PageRank-Links zu einer massiven Störung in der Zusammenstellung der Suchergebnisseiten führten.
Ein persönliches Versäumnis sieht Matt im Umgang mit Content-Farmen. Da eine dieser Seiten ihm selbst bei einer heiklen Situation aus der Patsche geholfen hatte, war seine persönliche Sichtweise anders als die von weiteren Google-Mitarbeitern, welche schon früher für ein strengeres Vorgehen gegen Content-Farmen plädierten. Erst nach und nach ist auch Matt überzeugt worden, dass „content machines“ in der Regel keinen Mehrwert für Google-Nutzer bringen.

Matt Cutts über die Zukunft von Backlinks

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt auf die Frage ein, ob Backlinks in Zukunft (weiter) an Bedeutung für das Ranking bei Google verlieren werden. Wie bewertet Matt den Status Quo von eingehenden Links und durch welche Mechanismen könnten Backlinks als Rankingfaktor abgelöst werden?


(YouTube-Direktlink)

Frage: Google changed the search engine market in the ’90s by evaluating a website’s backlinks instead of just the content, like others did. Updates like Panda and Penguin show a shift in importance towards content. Will backlinks lose their importance?

Zusammenfassung: Matt zufolge sind eingehende Links nach wie vor ein wichtiges Signal für Google, um die Reputation einer Seite/Domain einschätzen zu können. Dennoch könnten sie in Zukunft an Bedeutung verlieren, wenn Google die Bewertung von anderen Faktoren flächendeckend besser durchführen kann. Ein „Expertenranking“ könnte dabei helfen, Inhalte unabhängig(er) von der gewählten Plattform zu bewerten. Als Beispiel führt Matt u.a. Danny Sullivan von Search Engine Land an: Texte von Danny könnten unabhängig von der Domain als relevant/irrelevant eingestuft werden, da der Autor selbst über genug Reputation/Expertenwissen verfügt. Status Quo ist aber, dass Google heute nicht auf Backlinks als wichtigen Rankingfaktor verzichten kann.

Matt Cutts: So wählt Google Snippet-Titel

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt Cutts auf die Frage ein, wie Google die Snippet-Überschriften in Suchergebnisseiten auswählt.


(YouTube-Direktlink)

Frage: What criteria does Google use to change the title it shows in the SERPs depending on the query? Does schema influence that? Maybe headings (h1, h2..) have more weight?

Zusammenfassung: Google versucht die jeweils beste (kurze) Übersicht zur verlinkten Seite als Überschrift zu nutzen — welche darüber hinaus im Idealfall perfekt zur gestellten Suchanfrage passt. Dazu durchsucht Google den Inhalt der verlinkten Seite, überprüft Linktexte von (eingehenden) Links und schaut bei Bedarf sogar im Open Directory nach. Wenn die vom Seitenbetreiber gewählte Überschrift von Google als ideal betrachtet wird, werden keine Änderungen vorgenommen. Man hat die Snippet-Überschrift laut Matt „nahezu selbst in der Hand“.

Matt Cutts über „verbrannte“ Domains

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt Cutts auf das Thema „verbrannte“ Domains ein, d.h. Domains, die durch unlautere Praktiken in der Vergangenheit negativ aufgefallen sind und von Google entweder gar nicht mehr oder nur noch teilweise in den SERPs berücksichtigt werden. Was sollten Seitenbetreiber machen, bevor sie eine benutzte Domain kaufen?


(YouTube-Direktlink)

Frage: How can we check to see if a domain (bought from a registrar) was previously in trouble with Google? I recently bought, and unbeknownst to me the domain isn’t being indexed and I’ve had to do a reconsideration request. How could I have prevented?

Zusammenfassung: Matt empfiehlt zunächst eine site:domain.tld-Abfrage durchzuführen. Wenn Google kein einziges Ergebnis liefert, kann dies als schlechtes Indiz gewertet werden — eine Ausnahme sind geparkte Domains, da Google diese in den SERPs nicht auftauchen lässt. In diesem Fall ist die Domain nicht zwangsläufig „verbrannt“.
Als nächstes sollten Seitenbetreiber einfach die Domain ohne Endung bei Google eingeben, um zumindest rudimentär etwas über die Reputation der Seite erfahren zu können: Gab es Spam-Vorfälle wie z.B. Blog-Kommentar-Spam in der Vergangenheit? Wer redete wann wo über die Domain?
Eine weitere Möglichkeit besteht darin, über das Internetarchiv archive.org mehrere Snapshots der Domain einzusehen. So kann festgestellt werden, ob z.B. automatisch generierte Inhalte auf der Seite veröffentlicht wurden.
Den vielleicht besten Tipp hebt sich Matt für den Schluss des Videos auf: Wenn die Domain direkt vom ehemailigen Betreiber erstanden wird, könnte man als neuer Besitzer vorab nach Daten/Zugängen/Screenshots von Google Analytics fragen. Wenn dort ein dramatischer und in der Folge nicht wieder umgekehrter Traffic-Einbruch sichtbar wird, sollte man lieber die Finger von der Domain lassen.
Hat man die Domain bereits erstanden und erst im Nachhinein schwere Verbrennungsgrade feststellen können, hilft als letztes Mittel ein Reconsideration Request und/oder die exzessive Nutzung des Disavow-Links-Tools.

Matt Cutts über SEO-Mythen

Googles Matt Cutts geht im neuesten Video des WebmasterHelp-Channels bei YouTube auf SEO-Mythen ein. Welchen falschen/überholten Vorstellungen begegnen Matt auf Konferenzen, in Blogs etc.?


(YouTube-Direktlink)

Frage: What are some of the biggest SEO Myths you see still being repeated (either at conferences, or in blogs, etc)

Zusammenfassung: Gleich zu Beginn versucht Matt mit einem SEO-Klassiker aufzuräumen: Wer Anzeigen kauft, bekäme dadurch auch ein besseres organisches Ranking. Auch eine direkt gegenteilige Aussage ist Matt untergekommen: Wer keine Anzeigen kauft, wird mit besserem Ranking belohnt. — Matt zufolge agieren Anzeigengeschäft und organisches Ranking vollständig unabhängig voneinander. Google möchte immer die jeweils passendsten Ergebnisse präsentieren, damit Nutzer auch bei ihrer nächsten Suche wieder bei google.com und nicht der Konkurrenz landen.
Ein weiteren SEO-Mythos ist „Groupthink“. In Black-Hat-Foren werden je nach Lust und Laune Praktiken wie Artikelverzeichnisse, Gastbloggen, Linkwheels als geniale SEO-Methoden empfohlen. Seitenbetreiber sollten immer für sich selbst denken/handeln und nicht auf „das nächste große Ding“ setzen, welches gerade in Mode ist.

Matt Cutts über 404 und 410-Statuscodes

Im neuesten Video des WebmasterHelp-Channels bei YouTube erläutert Matt Cutts den Unterschied zwischen den Statuscodes 404 und 410. Wie geht der Googlebot damit um und was bedeuten die Statuscodes für die Indexierung von Webseiten?


(YouTube-Direktlink)

Frage: Does Google do anything different when encountering a 404 versus a 410?

Zusammenfassung: Während der Statuscode 404 anzeigt, dass eine Seite (temporär) nicht gefunden wurde, gibt der Code 410 an, dass die angeforderte Seite permanent entfernt wurde. Matt zufolge wartet der Googlebot bei 404-Fehlern 24 Stunden, bevor die Seite erneut gecrawlt wird — allerdings werden auch mit 410-Hinweisen versehene Seiten „nicht vergessen“ und „zu späteren Zeitpunkten“ erneut überprüft.
Webmaster sollten den Statuscode 410 nur dann einsetzen, wenn es keinen adäquaten Ersatz gibt. Matt zufolge weiß Google aber um die Problematik der versehentlichen Fehlkonfiguration. Seitenbetreiber sollten sich nicht verrückt machen, wenn sie aus Versehen den falschen Statuscode eingesetzt haben.