Matt Cutts über gutes Ranking bei schlechten Links

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt auf die Frage eines besorgten Google-Nutzers ein, der sich wundert, warum manche Webseiten trotz eines schlechten Backlinkprofils so gut ranken können.


(YouTube-Direktlink)

Frage: I’ve seen multiple websites that appear in the #1 spot for various keywords, whose backlink profiles are pretty low quality (i.e. lower quality blog pages). Why wouldn’t Penguin have moved these sites further down in rankings?

Zusammenfassung: Matt führt mehrere Möglichkeiten auf: Zunächst wirken die Panda-Updates nur bei “bestimmten Arten von Spam” und sind kein allgmeines Allheilmittel. Erfrischend ehrlich verweist Matt darauf, dass die Google-Algorithmen auch noch nicht “gut genug” seien, um zu 100% ordentliche Suchergebnisseiten zu produzieren. In diesem Fall freut sich Google über Spam-Reports oder entsprechende Petz-Postings im WebmasterForum.
Eine weitere Möglichkeit für ein gutes Ranking bei schlechten Links sieht Matt in der Tatsache, dass nicht alle beobachteten Links zwangsläufig schlecht sein müssen. Vielleicht hat der Fragesteller auch übersehen, dass die Webseite zwar über low-quality-Backlinks verfügt, auf der anderen Seite aber auch von CNN, der New York Times oder ähnlichen Quellen verlinkt wurde.

Matt Cutts über natürliche vs. Paid Links

Matt “Great Question!” Cutts hat ein neues Video im WebmasterHelp-Channel bei YouTube veröffentlicht. Thema des Tages sind natürliche Links, die von Google als Paid Links eingestuft werden könnten.


(YouTube-Direktlink)

Frage: On our travel site, we recommend and link out to hotels and B&B’s in our niche. Our readers find it useful. They’re not paid links, so we don’t add the nofollow attribute. What stops Google from suspecting these are paid links and penalizing us?

Zusammenfassung: Matt erläutert den Internetneulingen, dass Links Empfehlungen sind (That’s how most of the web works). Lediglich im SEO und Search-Bereich kann es nach Matts Aussage vorkommen, dass natürlich wirkende Links in Wahrheit einen kommerziellen Charakter haben. — Würde Google jeden verdächtigen Link dazu nutzen, um ganze Seiten im Ranking herabzusetzen, hätte dies massive Auswirkungen auf die SERPs und die Nutzerzufriedenheit. Auch die Kollateralschäden wären enorm – Google geht es also mehr um das Verhältniszwischen Content und Links.
Zum Schluss verweist Matt noch darauf, dass Paid Links nicht zwangsläufig zu einem SERP-Absturz führen müssen. Vielmehr ist eine schlichte Abwertung der ausgehenden Links einer Domain/Unterseite die logische Folge von Paid Links.

Pinguin-Updates: Google reduziert Spamlimit

Gretus berichtet bei SEO-united.de von einer interessanten Untersuchung zum Thema Spamlink-Limit, die von Portant Inc. durchgeführt wurde. Demnach hat Google bei der ersten Pinguin-Iteration noch eine Spamlink-Rate von 80% “toleriert”. Im Laufe der Zeit wurde diese Obergrenze der Untersuchung zufolge zunächst auf 65% (Juni 2012) und später auf 50% reduziert (Oktober 2012). Da die Ergebnisse von Portant Inc nur bis zum Ende des vergangenen Jahres zurückreichen, geht Gretus davon aus, dass Google die Stellschrauben für weitere Updates bereits erneut angezogen hat:

[Es] ist davon auszugehen, dass Google die [Obergrenze] in der Zwischenzeit noch weiter heruntergesetzt hat und demnächst auch Seiten mit nur 30% oder sogar nur 20% Spamlinks einer wie auch immer gearteten Sanktion unterzieht…

SEO-united.de: Google reduziert Obergrenze für Spamlinks

SISTRIX-Tipps zur internen Verlinkung

(Disclosure: SEO.at ist ein Angebot der SISTRIX GmbH)

Hanns Kronenberg hat im SISTRIX-Blog einen weiteren Artikel der SEO-Basics-Reihe veröffentlicht. Thema heute ist die interne Verlinkung und mit welchen Mitteln aufmerksame Seitenbetreiber diese verbessern können.
Hanns führt dazu mehrere Beispiele an und zeigt auf, dass eine intelligente interne Verlinkung zwar keinen Schub bezüglich der Domainpop geben, aber durchaus das Google-Ranking verbessern kann.

Bei der Anzahl, der Platzierung und der Gestaltung der Linktexte kann man sein eigenes Wunschkonzert spielen. Das klingt nicht nur fantastisch, es ist auch fantastisch.

SISTRIX: SEO-Basics: Interne Verlinkung optimieren

Matt Cutts über 301 und PageRank

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt Cutts auf die Frage ein, ob und wie viel an PageRank bei der Nutzung von 301-Weiterleitungen verloren geht.


(YouTube-Direktlink)

Frage: Roughly what percentage of PageRank is lost through a 301 redirect?

Zusammenfassung: Laut Matt ist es “seit einiger Zeit” so, dass es in Sachen PageRank-Fluss keinen Unterschied macht, ob ein Seitenbetreiber einen Link setzt oder eine 301-Weiterleitung einrichtet. Der übliche PageRank-“Verlust” ist demnach bei Links und 301 gleich. Die Konfusion diesbezüglich sieht Matt in der Tatsache, dass in der Vergangenheit viele Halbwahrheiten über das Thema publiziert wurden und auch Matt selbst nicht ganz schuldlos an der Sache ist. Seine Aussage zufolge sieht Google keinen Grund, das nun praktizierte verfahren in nächster Zeit zu ändern. Ob Seitenbetreiber lieber auf Links oder 301-Weiterleitungen setzen sollten ist demnach eine Frage des Nutzens und nicht des vererbten PageRanks.

Matt Cutts über schlechte Links in GWTs

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt auf die Frage ein, wie man über die Google Webmaster Tools Informationen zu “unnatürlichen” Links erhalten kann. Zudem teasert er ein Tool an, das die ganze Sache in Zukunft vereinfachen soll.


(YouTube-Direktlink)

Frage: Google Webmaster Tools says I have “unnatural links,” but gives little help as to which specific links are bad. Since I have never purchased links, I don’t know which ones to have removed, and I’m scared of removing good ones, which will hurt my traffic. Suggestions?

Zusammenfassung: Matt verweist zunächst auf die Transparenzoffensive von Google. War es früher noch so, dass Seitenbetreiber nur dann informiert wurden, wenn die Reputation der gesamten Webseite (Domain) in Gefahr war, gehen heute bereits Warnmails raus, wenn Google “nur” ein Problem mit spezifischen Unterseiten hat.
Zum jetzigen Zeitpunkt ist laut Matt das “Recent Links”-Feature der GWTs die beste Möglichkeit, um “unnatürliche” Links aufzuspüren. Webmaster sollten diese Liste im Auge behalten und bei Bedarf mit den blauen Briefen Googles in zeitliche Relation setzen.
Gegen Ende des Videos lässt Matt dann die Katze aus dem Sack: Google arbeite bereits an einem Tool, das Seitenbetreibern konkrete Beispiel für Links auflisten wird, denen Google nicht traut. Webmaster bekämen so “eine Idee” über nicht-vertrauenswürdige Links. Wann dieses nicht näher benannte Tool veröffentlicht wird ist bisher noch unklar.

Webmaster Tools zeigen mehr Links

Patrick Altoft berichtet im Blog von branded3.com, dass über die Google Webmaster Tools nun auch mehr als 1000 verlinkende Domains angezeigt werden können. Seinen Angaben zufolge stehen Daten zu mehr als 2500 Domains als Download zur Verfügung.

We have had a few instances of 2500+ domains being returned via this method in the past couple of weeks.

Achtung: Im GWT-Interface ist nach wie vor von “Top 1000 Domains” die Rede. Bei einem Klick auf “Download latest links” werden aber mehr als 1000 verlinkende Domains angezeigt.

branded3.com: Google Starts Showing More Than 2500+ Linking Domains in Webmaster Tools

[via @seounited]

SISTRIX-Analyse: Links vs. Sichtbarkeit

(Disclosure: SEO.at ist ein Angebot der SISTRIX GmbH, deren Toolbox Gegenstand dieses Artikel ist.)

Im SISTRIX-Blog hat Hanns Kronenberg den zweiten Teil seiner Analyse zu SEO-Kennzahlen veröffentlicht. Thema des neuen Artikels ist die Korrelation zwischen Sichtbarkeitsindex und der reinen Anzahl an eingehenden Links.

So wird deutlich, dass die reine Anzahl Links einen geringeren Einfluss auf die Sichtbarkeit bei Google besitzt als die Anzahl verlinkender Domains. Dieses Ergebnis war zu erwarten […]

In der folgenden Grafik wird die Anzahl Links (x-Achse) dem Sichtbarkeitsindex (y-Achse) gegenüber gestellt:

sistrix-sichtbarkeit-vs-links

SISTRIX: Vergleich der SEO-Kennzahlen Anzahl Links und Domain-Popularity

SEO-Spammer: Ein hausgemachtes Problem?

Dennis Tippe hat im Blog von seo-handbuch.de eine Mischung aus Rant und Zusammenfassung des aktuellen SEO-Images veröffentlicht. Ist automatisierter Linkspam ein hausgemachtes Problem? Sind SEOs selbst schuld an ihrem oft eher zweifelhaften Image?

Das Problem bei genau solchen automatisierten Sachen ist nicht nur, dass der Bereich SEO unweigerlich in ein schlechtes Licht gerückt wird, sondern dass hier nicht selten auch zugleich nützliche Linkquellen […] unbrauchbar für alle gemacht werden.

seo-handbuch.de: Image-Problem: Schadet Linkspam der SEO-Szene?

Umfrage zum Disavow-Links-Tool

Gretus hat bei SEO-united.de eine zweiteilige Umfrage zur Nutzung des Diavow-Links-Tools gestartet.

Da es in Bezug auf ein womögliches Algorithmus-Update interessant zu wissen wäre, wie viele Webseitenbetreiber auch hier in Deutschland das Disavow-Tool bereits genutzt haben, möchten wir die erwähnte Umfrage aufgreifen

Bei einer ähnlichen Umfrage bei Search Engine Roundtable gaben ca. 50% der US-SEOs an, das Tool bereits genutzt zu haben bzw. bald davon Gebrauch zu machen.

SEO-united.de: Umfrage zur Nutzung des Disavow-Tools
SER: Poll: Did You Use The Google Disavow Tool?