Matt Cutts über Grammatik und Ranking

Im neuesten Video des Webmasterhelp-Channels bei YouTube geht Matt auf die Frage eines Nutzers ein, ob fehlerhafte Grammatik und Rechtschreibung z.B. in Blog-Kommentaren einen Einfluss auf das Ranking der Webseite selbst hat.


(YouTube-Direktlink)

Frage: Should I correct the grammar on comments to my WordPress blog? Should I not approve comments with poor grammar? Will approving comments with grammar issues affect my page’s quality ratings?

Zusammenfassung: Matt zufolge ist ein fehlerhafte Grammatik in Blog-Kommentaren kein Rankingfaktor — bei den eigenen Inhalten sollten sich die Seitenbetreiber aber größtmögliche Mühe geben. Matt verweist auf die Problematik von YouTube-Kommentaren und erläutert, dass es nicht im Sinne der Nutzer wäre, wenn Videos aufgrund falscher Grammatik an Ranking verlieren würden.

Google warnt deutsche Webmaster

In der Webmaster-Zentrale hat Johannes Mehlem aus dem Search Quality Team speziell die deutschen Seitenbetreiber daran erinnert, dass gekaufte oder getauschte Links, die PageRank weitergeben, gegen die Google-Richtlinien für Webmaster verstoßen. Gesondert erwähnt wird die Teilnahme an Linktauschprogrammen sowie exzessives Gastbloggen „gepaart mit Beiträgen von geringer Qualität“.

Wir regen sehr dazu an, die Richtlinien für Webmaster zu lesen und damit anzufangen das Linkprofil eurer Seite im Blick zu behalten, um zu gewährleisten, dass es nicht spammig erscheint.

Webmaster-Zentrale: Unnatürliche Links und Anträge auf erneute Überprüfung
tagSeoBlog: Google knüpft sich deutsche “Linktausch-Netzwerke” vor

Matt Cutts über alte Domains

Im neuesten Video des WebmasterHelp-Channels bei YouTube geht Matt auf die Frage eines Seitenbetreibers ein, der sich wundert, dass seine 14 Jahre alte Domain von neuen Mitbewerbern überholt wird.


(YouTube-Direktlink)

Frage: I have been in business for over 14 years with my domain, and see much newer domains passing me. Any algorithms to protect older domains/sites in business from newer sites with more spam?

Zusammenfassung: Seitenbetreiber sollten sich nicht auf ihrem Erfolg ausruhen. Nur weil eine Seite in der Vergangenheit ein gutes Ranking bei Google vorweisen konnte, ist das kein Grund nur noch den Status Quo zu erhalten. Die erwähnten neuen Mitbewerber bieten vielleicht eine bessere Nutzererfahrnung an, haben modernere Templates und damit ein allgemein moderneres Erscheinungsbild. Matts Empfehlung: „Take a fresh look at your site“.

Was im Video nicht direkt angesprochen wird, aber sicher auch ein Faktor ist: Die Endgeräte der Nutzerschaft haben sich geändert. Die vor 14 Jahren eingestellte Website ist in der Regel (und verständlicherweise) nicht für Smartphones/Tablets optimiert, während die neuen Mitbewerber hier punkten können.

Matt Cutts über Social Signals

Googles Matt Cutts geht im neuesten Video des Webmasterhelp-Channels bei YouTube auf die Frage ein, ob und inwieweit Signale aus sozialen Netzwerken wie Twitter und Facebook als Rankingkriterium für Suchergebnisseiten genutzt werden.


(YouTube-Direktlink)

Frage: Are Facebook and Twitter signals part of the ranking algorithm? How much do they matter?

Zusammenfassung: Laut Matt spielen soziale Netzwerke „soweit ich weiß“ keine gesonderte Rolle bei der Zusammensetzung und Gewichtung von Suchergebnissen. Die Anzahl an Likes und Followern ist „derzeit“ kein Rankingkriterium; die Web-Search-Algorithmen haben keine gesonderten Auswertungsmechanismen für die genannten Netzwerke.
Zu der Begründung heißt es, dass Google nur crawlbare Signale werten kann. Das Unternehmen besitzt nach wie vor keinen Vollzugriff auf Facebook und Twitter. Google möchte das Ranking zudem nicht von einzelnen Webseiten abhängig machen, die den Zugriff theoretisch durch den Einsatz von robots.txt blockieren könnten.
Auch die Echtzeitnatur sozialer Netzwerke macht Google zu schaffen. Matt zufolge kann Google das Web nur als „temporären Snapshot“ crawlen, was auf schnelllebigen Seiten wie Twitter und Facebook problematisch wäre. Wichtige Verbindungen zwischen Nutzern werden ständig erstellt und entfernt, Freunde hinzugefügt und Follower geblockt. Solange Google diese Probleme nicht lösen kann, werden soziale Signale nicht als gesonderter Rankingfaktor eingesetzt.

Weitere Meinungen zum Thema:

tagSeoBlog: FaceBook- und Twitter-Signale sind kein Rankingfaktor
SEO-united: Warum Google keine (fremden) Social Signals bewertet!

Matt Cutts: Verschiedene Algos für verschiedene SERP-Positionen?

Googles Matt Cutts beantwortet im neuesten Video des WebmasterHelp-Channels bei YouTube die Frage, ob je nach SERP-Position ein anderer Algorithmus greift. Ein Nutzer aus Dänemark hat die Vermutung, dass ein „Freshness-Algo“ für die obersten Positionen verantwortlich ist, während Backlinks und Social Signals die unteren Seiten der SERPs dominieren.


(YouTube-Direktlink)

Frage: Do Google use the same algorithm to rank all the results on page 1, or different algorithms for a wider variety in the results? (Pos. 1-3 – primary focus on freshness Pos. 4-6 – primary focus on backlinks Pos. 7-10 – primary focus on social signals)

Zusammenfassung: Matt verneint die Vermutung des Fragestellers und weist darauf hin, dass für die Zusammensetzung der SERPs „general Google algorithms“ verantwortlich sind. Eine Aufteilung nach Position findet nicht statt, vielmehr ist die jeweilige Relevanz und Reputation der ausschlaggebende Faktor.

Matt Cutts über kleine DC-Probleme

Matt Cuts geht im neuesten Video des WebmasterHelp-Channels auf die Frage eines brasilianischen Nutzers mit dem schönen Namen Computerklaus ein, der wissen möchte, wie Matt selbst mit kleineren Duplicate-Content-Problemen z.B. auf News-Seiten umgehen würde.


(YouTube-Direktlink)

Frage: If you had to deal with short-term duplicated content on a news site (perhaps publishing a story on two different URLs over one day), what would you do in order to avoid any penalty from a duplicate content filter?

Zusammenfassung: Matt geht in seiner Antwort davon aus, dass es sich um eine qualitativ hochwertige News-Seite handelt, die in der Vergangenheit nicht mit (manuellen) Penalties belegt wurde. Bei kleineren und temporären(!) Problemen mit doppelten Inhalten empfiehlt Matt den Einsatz von rel=“canonical“. Dem Googlebot wird damit die richtige URL mitgegeben und der PageRank nicht unnötig aufgeteilt. „Then you should be in pretty good shape“.

Siehe auch: Matt Cutts: 25-30% des Webs ist Duplicate Content

Cutts: Mehr Ranking für Experten

Barry Schwartz verweist bei Search Engine Roundtable auf die neueste Ausgabe des „This Week in Google„-Videocasts, in dem Matt Cutts auf neue Entwicklungen in Sachen AuthorRank aufmerksam macht. Demnach arbeitet Google an Algo-Änderungen, um Experten mehr Sichtbarkeit in den Suchergebnisseiten zu geben.

So we are trying to figure out who are the authorities in the individual little topic areas and then how do we make sure those sites show up, for medical, or shopping or travel or any one of thousands of other topics.

Zum jetzigen Zeitpunkt gibt es noch keine Informationen darüber, wann der „Experten-Bonus“ tatsächlich auf die SERPs losgelassen wird.

SER: Google Continues Work On Promoting Topic Authorities

Matt Cutts über länderspezifische IPs

Googles Matt Cutts geht im neuesten Video des WebmasterHelp-Channels bei YouTube auf die Frage eines deutschen Nutzers ein, der wissen möchte, ob Google mit verschiedenen TLDs unter einer IP-Adresse d’accord geht.


(YouTube-Direktlink)

Frage: For one customer we have about a dozen individual websites for different countries and languages, with different TLDs under one IP number. Is this okay for Google or do you prefer one IP number per country TLD?

Zusammenfassung: „In einer perfekten Welt“ hat Matt zufolge jede Top-Level-Domain eine eigene IP-Adrese — dennoch ist es aus Google-Sicht nicht problematisch, wenn mehrere TLDs über eine IP gebündelt werden. Google kann damit mittlerweile gut umgehen und sieht die TLDs selbst als starken Indikator für das jeweilige Zielgebiet. Wer also aus monetären oder administrativen Gründen auf länderspezifische IPs verzichten möchte, braucht keine Google-Nachteile in Kauf nehmen.

Matt Cutts: 25-30% des Webs ist Duplicate Content

Im neuesten Video des Webmasterhelp-Channels geht Matt Cutts erneut auf das Thema Duplicate Content ein. Wie geht Google mit doppelten Inhalten um? Wird jeder zitierte Absatz gleich als Spam angesehen?


(YouTube-Direktlink)

Frage: How does Google handle duplicate content and what negative effects can it have on rankings from an SEO perspective?

Zusammenfassung: Gleich zu Beginn gibt Matt eine Schätzung ab, nach der 25-30% des Webs aus doppelten Inhalten besteht. Gleichzeitg verweist er auf die Tatsache, dass nicht jeder kopierte/zitierte Absatz in einem Blog gleich als DC gewertet wird — wie immer kommt es auf die Verhältnismäßigkeit an.
Interessant ist auch die Aussage, dass Google DC intern gruppiert und in den Suchergebnisseiten zunächst nur ein „DC-Ergebnis“ auflistet und den Rest sehr viel weiter unten versteckt. DC wird von Google also nicht automatisch als Spam angesehen. Trotzdem ist es keine gute Idee, massenhaft Inhalte von anderen Seiten zu kopieren; Matt führt Auto-RSS-Importer als Negativbeispiel an.

Jahresrückblick: Linkaufbau 2013

Im Blog der Internetkapitäne hat sich Andreas Schülke die Mühe gemacht und verschiedene Entwicklungen in Sachen Linkaufbau zusammengefasst. Welche Strategien wurden 2013 eingesetzt? Welche Nebelkerzen hat Matt Cutts geworfen? Ist Linkaufbau / SEO mal wieder tot?

Seit ziemlich genau einem Jahr beschäftige ich mich intensiv mit dem Thema Linkbuilding. Die Entwicklungen und Ratschläge, die ich in diesem Zeitraum am spannendsten fand, sind hier zusammengefasst.

Internetkapitäne: Der große Linkaufbau-Jahresrückblick 2013