Viele Websites verlieren durch falsche HTTP-Statuscodes wertvolles Volumen im Google-Index

2 Kommentare

Wie Googles Gary Illyes heute auf Google+ bekanntgab, mehren sich bei Google scheinbar Websites, deren Unterseiten aufgrund von falschen HTTP-Statuscodes nicht indexiert werden. Er macht Website-Betreiber darauf aufmerksam sich Gedanken darüber zu machen, welchen Statuscode Fehlerseiten ausgeben sollen. Wenn eine Seite einen 403-Fehler (Forbidden) ausgibt, also einen Fehler, der den Besucher von der Seite aussperrt, dann wird diese schnell aus dem Index entfernt. Falls die Seite nur temporär nicht verfügbar ist, dann sollte ein 503-Fehler (Service unavailable) ausgegeben werden – bei diesem Fehler schaut der Google-Bot nach einer Weile wieder vorbei, ob die Seite nun wieder verfügbar ist.

Der Post von Gary Illyes im Original:
Richtige HTTP-Statuscodes angeben_Post von Gary Illyes auf Google+

Neue TLDs in den SERPs von Google.at und Google.com noch nicht stark vertreten

Kommentar verfassen

Auf der heutigen SEOkomm in Salzburg hat Johannes Beus einen Vortrag über den Anteil der Top-Level-Domains in den Suchergebniss-Listen von Google in Österreich und Google in den USA gehalten. Die neuen TLDs können seit diesem Jahr registriert werden.

In seiner Auswertung hat er gezeigt, dass die neuen Domains in Österreich noch eher in den hinteren Positionen der SERPs zu finden sind – aber sie sind schon zu finden:

In den Google.at-SERPs können wir von den 572 TLDs derzeit 211 und damit 37% in freier Wildbahn finden. Alle neuen Domains zusammen nehmen in den Top-100 0,047% aller Treffer ein. In den Top-10 sind es noch 0,013% und in den Top-3 gerade einmal 0,009%. Somit sind die neuen TLDs zwar bereits messbar, in der Realität aber kaum vertreten.

Wie groß der Anteil der neuen Top-Level-Domains in den SERPs von Google.com ist und was Google eigentlich als “Domain” ansieht, zeigt Beus in einem Blogpost auf SISTRIX.de.

Die Folien zum Blogpost findet ihr auf Slideshare: Neue TLDs und SEO

Linksammlung: Welche Informationen hat Google über Dich?

Kommentar verfassen

Das Online-Medium Cloud Fender hat sechs Links zusammengestellt, mit denen Ihr überprüfen könnt, welche Informationen der Internet-Gigant Google über Euch schon gesammelt hat – meist ist ein Google-Konto vorausgesetzt. Auch solltet ihr in Eure Google-Profil eingeloggt sein, damit ihr die Daten direkt angezeigt bekommt.

Die Links findet ihr hier: 6 links that will show you what Google knows about you

Hat das alt-Attribut ausgedient?

1 Kommentar

Das alt-Attribut dient bei Bildern einerseits dazu, dass eine Bilderklärung ausgegeben werden kann, falls es nicht angezeigt werden kann. Andererseits dient es dazu, dass Suchmaschinen die Bildinformationen auslesen können – also sozusagen sehen können was darauf abgebildet ist.

Nach Berichten der Süddeutschen Zeitung und Golem.de arbeiten Google-Forscher an einem neuen Verfahren, mit dem ein Bild mathematisch analysiert und daraufhin beschrieben werden kann. Durch eine Kombination der CNN-Methode (Convolutional Neural Network) mit der RNN-Methode (Recurrent Neural Network) werden die Objekte auf dem Bild erkannt und in einen Zusammenhang gebracht:

Die Google-Entwickler nehmen ein Convolutional Neural Network (CNN), das darauf trainiert wurde, Objekte auf Bildern zu erkennen. Das CNN analysiert ein Bild und leitet das Ergebnis an ein rückgekoppeltes oder rekurrentes neuronales Netz (RNN) weiter. Das erstellt eine Beschreibung des Bildes. Quelle: Golem.de

Für diese abstrakte Beschreibung liefert Süddeutsche.de ein Praxis-Beispiel:

[Es werden] die sich im Bild befindlichen Objekte klassifiziert und nach der Wahrscheinlichkeit des Auftretens bewertet. So wird beispielsweise aus einem Bild, auf dem sich viele Menschen und viel Gemüse befinden, ein gut besuchter Markt mit Gemüsestand. Quelle: Süddeutsche.de

Computer können durch Kombination von RNN und CNN Bildinformationen auslesen

In einem ersten Schritt werden die Objekte im Bild ausgelesen und dann mit der RNN-Methode in einen Zusammenhang gebracht.

So könnte Google Objekte und deren Konstellation und Beziehung zueinander auf Bildern automatisch erkennen – das erklärende alt-Attribut wäre für die Suchmaschine überflüssig.
Doch das wäre zu schnell gedacht: Denn wenn das Bild, aufgrund von Verbindungsproblemen oder ähnlichem, nicht angezeigt werden könnte, ist das alt-Attribut weiterhin sehr hilfreich – und zwar um dem Nutzer in Textform anzeigen zu können, was auf dem Bild abgebildet ist.

Artikel von Süddeutsche.de: Was siehst du auf dem Bild, Google?
Artikel von Golem.de: Computer beschreibt Bild

Inhalte im sichtbaren Bereich werden von Google eher indexiert als “versteckte” Inhalte

1 Kommentar

Im Google Webmaster Central Hangout vom vergangenen Montag erklärte John Mueller, dass Content, der für den Besucher einer Website sofort ersichtlich ist, stärker von der Suchmaschine gewichtet wird, als Content, der erst durch Klicken einer “Ausklapp-Box” sichtbar wird. Praktisches Beispiel: Wenn wir einen Artikel veröffentlichen und eine “Diesen Artikel lesen”-Box einfügen, wird der sichtbare Text indexiert – der Text, der sich hinter dem Klick auf die Box verbirgt, möglicherweise nicht.

Auch Uwe Tippmann von Abakus postete gestern Abend eine kurze Meldung bei Google+ dazu:

Google+ Post von Uwe Tippmann

Die Aussage von John Mueller im Original:

Google rollt “mobile friendly”-Label aus – beeinflusst schlechte mobile Darstellung das Ranking?

3 Kommentare

Update 19.11.
So wird die Anzeige in den deutschen Suchergebnissen aussehen:
mobile-badging

Laut Johannes Mehlem wird dieses Label in den nächsten Wochen global umgesetzt.

Artikel vom 18.11.
Heute morgen berichtete Search Engine Land, dass Google ein “mobile friendly”-Label ausrollt. Damit sollen Websites gekennzeichnet werden, die

  • auf Flash verzichten
  • deren Text ohne Zoomen lesbar ist
  • deren Inhalte auf dem gesamten Screen angezeigt werden, ohne das der Besucher dafür horizontal scrollen oder zoomen muss
  • deren Links so platziert sind, dass sie mit dem Finger angetippt werden können, ohne einen Link in unmittelbarer Nähe mit anzuklicken

Wahrscheinlich wird dieses Label vorerst nur in den USA ausgerollt, könnte aber auch in die deutschen Suchergebnisse Einzug halten.

Mithilfe von Googles “Mobile Friendly Test Tool” können Websitebetreiber überprüfen, ob ihre Seite auf mobilen Geräten korrekt angezeigt wird.

Könnte aus diesem Label folgen, dass Seiten, die nicht auf mobile Endgeräte angepasst sind, schlechter ranken werden? Search Engine Land spekuliert, dass Google die mobile Darstellung künftig als Rankingfaktor werten könne. Über genau diese Thematik haben wir schon Anfang Oktober berichtet, jedoch könnte aus der Spekulation Ernst werden, denn Search Engine Land bezieht sich auf folgende Aussage von Google:

We see these labels as a first step in helping mobile users to have a better mobile web experience. We are also experimenting with using the mobile-friendly criteria as a ranking signal.

Was denkt ihr? Könnte die mobile Darstellung in der Zukunft ein Rankingfaktor werden?

Duplicate Content durch Reposting eigener Artikel?

1 Kommentar

Sobald man einen eigenen Artikel geschrieben und veröffentlicht hat, freut man sich natürlich über Feedback zu den Inhalten. Doch manchmal muss dabei etwas nachgeholfen werden – der Content muss verbreitet und gezielt platziert, also geseedet werden. So wird der Artikel in den verschiedenen Social Media-Kanälen platziert und möglicherweise von Influencern repostet und damit empfohlen. Genau das machen wir nun mit dem Artikel von Timo Borowski auf dem Hubspot-Blog. Wir verweisen auf ihn – allerdings reposten wir den Beitrag nicht. Wenn er allerdings repostet werden würde, bestünde die Gefahr von Duplicate Content. Borowski behandelt genau diese Thematik und gibt Tipps, damit Google eine Empfehlung einer Quelle durch Reposting nicht als Duplicate Content ansieht.

Die einfachste Variante ist die Benutzung des rel=canonical-Tags. Borowski erklärt wie:

Wenn ein Inhalt über verschiedene URLs abgerufen werden kann, lässt sich die sogenannte kanonische Seite, also Quelle des Blogposts, und alle anderen Webseiten mit diesem Content durch das Einfügen des Linkelementes rel=”canonical” und der URL der Originalquelle kennzeichnen. Suchmaschinen bewerten die Reposts nun nicht mehr als Duplicate Content und verzichten auf eine Abstrafung.

Anwendung des rel=canonical_Quelle SISTRIX

 

Doch anstatt den Artikel einfach 1:1 zu übernehmen kann er auch umformuliert werden. Oder Du verzichtest auf Empfehlungen anderer und veröffentlichst den Artikel nur auf Deiner Website – exklusiv sozusagen.
Eine weitere Möglichkeit ist das Anteasern, so wie in diesem SEO.at-Post. Wir erstellen eigenen Content, verweisen aber als Quelle auf den Artikel von Timo Borowski auf dem Hubspot-Blog. Somit sprechen wir auch eine Empfehlung aus, ohne den gleichen Inhalt zu veröffentlichen und damit Gefahr einer Abstraftung durch Duplicate Content seitens Google zu laufen.

Wie würdet ihr eine Empfehlung aussprechen? Per Repost oder gar nur über Social Media-Kanäle, wie Twitter, Facebook und Co.?

Alle weiteren Tipps und den vollständigen Artikel findet ihr hier: Schadet das Reposten von Blog Content Ihrer SEO?

Google Glass vor dem Aus?

Kommentar verfassen

Das Nachrichtenmagazin Meedia berichtete heute von einer “Google Glass-Krise”: Seit der ersten Vorstellung von Googles Datenbrille vor rund zwei Jahren scheint der Hype zu verfliegen. Dieser war in der Vergangenheit hoch – so konnte die Brille in einer limitierten Testversion für 1.500 Dollar erworben werden und die Menschen zahlten diesen horrenden Preis auch. Doch nun wurde der Verkaufsstart erneut verschoben, sodass die Brille, laut Golem.de, wahrscheinlich erst irgendwann im kommenden Jahr frei verfügbar sein wird.

Diesen Artikel lesen

Google+ Local Guide von “gut gemacht”

5 Kommentare

Die österreichische Online-Marketing Agentur “gut gemacht” hat auf ihrer Website ein E-Book mit Tipps und Tricks rund um das Google+ Local Profil veröffentlicht. In diesem E-Book werden Informationen zu dem übergeordneten Google+ Local-Konto und dem eigentlichen Profil gegeben und Fragen beantwortet, wie “Warum Google+ Local?” Das PDF findet ihr hier.

Das ein gutes und vor allem lückenlos ausgefülltes Google+ Places Profil Euch viele Besucher bringen kann, hat Antonius Klees von Seitwert auf dem diesjährigen SEO Day gezeigt. Anhand eines Kunden-Beispiels machte er deutlich, wie positiv die Auswirkungen einer vollständig ausgefüllten Places-Seite ist. Das Beispiel hat es sogar in die prominent in den SERPs angebrachte Places Box rechts neben den bezahlten und organischen Suchergebnissen gebracht.

Und falls ihr es lieber interaktiv habt: Wir haben auf SISTRIX.de ein Tutorial zur Google Places Optimierung online gestellt: Google Places Optimierung.

Kann man mit Google Chrome “Prerendering” Rückschlüsse auf Ranking-Stabilität ziehen?

Kommentar verfassen

Der Google Chrome Browser nutzt seit einigen Versionen die Nutzerinteraktionen zur Bewertung und Gewichtung von Links. Diese Funktion wurde in den Browser implementiert, nachdem Google das Patent “Ranking documents based on user behaviour and/or feature data” im Februar 2012 veröffentlichte. In der Version 17 des Browsers wurde die Funktion “beim Tippen in die ‘Omnibox’ wird die Webseite, die am wahrscheinlichsten aufgerufen wird, im Hintergrund vorgeladen” implementiert. Diese Verbesserungen sprechen dafür, das Chrome sozusagen für den User “mitdenkt”, also seine Interaktionen anhand von Verlaufsdaten analysiert und den nächsten Klick vorausahnen kann. Hanns Kronenberg hat sich im August dieses Jahres dem Thema angenommen und untersucht, ob Google diese Daten zur Bewertung von Links heranzieht – und damit Link-Spam erkennt und bekämpft.

SEO-Südwest hat sich nun mit der Neuerung des Chrome Browsers aus einem anderen Betrachtungswinkel beschäftigt. Wenn Chrome die Interaktion vorausahnt, dann könnten das Websitebetreiber nutzen um abzuschätzen, wie stabil das Ranking ihrer Website ist. Christian Kunz beschreibt das Vorgehen nach Erzählungen von Gene McKenna, dem Director of Product Management bei Groupon – wir übernehmen das Zitat der Einfachheit halber:

Im August und September hatte man einen starken Anstieg des Traffics von Chrome-Browsern auf die Homepage von Groupon beobachtet. Der Traffic von anderen Browsern änderte sich dagegen kaum. Zu beobachten war das in jedem überprüften Land. Irgendwann kam man dann zur Erkenntnis, dass die Groupon-Homepage bei der Google-Suche nach “Groupon” per Prerender vorab geladen wurde. Der Grund dafür ist, dass Google davon ausgeht, dass bei dieser Suche anschließend ein Klick auf die auf Position eins gelistete Groupon-Homepage stattfinden würde.

SEO-Südwest schreibt, dass ein hohes Aufkommen an diesem Pretender-Traffic auf eine gute und stabile Position in den SERPs hinweist – denn je öfter die Seiten im Hintergrund vorgeladen werden, desto besser sind sie wohl besucht.

Alle weiteren Informationen dazu findet ihr im Blogpost von Christian Kunz: Prerender: Google Chrome-Feature zeigt, wie stabil Rankings auf Platz eins wirklich sind

Auch Search Engine Land hat diese Thematik untersucht: Ranking First Is Good, But First With Prerender Is Better