Studie: Google-Traffic für größte deutsche Online-Shops wichtiger als Direkt-Traffic, AdWords-Traffic sinkt stetig

3 Kommentare

Die Marketing-Agentur Aufgesang Inbound Marketing GmbH hat heute die fünfte Auflage der Studie „Online-Marketing bei deutschen Online-Shops“ herausgegeben und damit die Entwicklungen der größten Trafficlieferanten für Online-Shops analysiert. Dazu wurden die Trafficquellen, wie organische Google-Suchergebnisse, AdWords und Social Media von den 199 größten Online-Shops in Deutschland untersucht.

Aus den Studienergebnissen wird ersichtlich, dass die organischen Suchergebnisse weiterhin die größte Trafficquelle für die untersuchten Online-Shops ist – Tendenz steigend. So ist der Traffic über die organischen Suchergebnisse weiterhin der wichtigste Kanal für die untersuchten Online-Shops und verzeichnete sogar einen Anstieg von 81,66% (2014) auf 82,45% (2015). Wie aus dem nachfolgenden Schaubild erkennbar, stieg der Anteil an Universal-Search Traffic im Vergleich zum Vorjahr enorm, wohingehend der Traffic über bezahlte Suchergebnisse zurückging.

Aufgesang_E-Commerce-Studie_Anteile_gesamt_Vergleich2014_2015-08-13

© Aufgesang

Vor allem Online-Shops, die ein „Komplettsortiment“ anbieten, haben eine hohe organische Sichtbarkeit. Online-Shops für Büroausstattung oder auch Shops für Tiernahrung stehen am unteren Ende der Skala:

Aufgesang_IM_Studie2015_Organische_Sichtbarkeit_2015-08-12

© Aufgesang

In der Aufschlüsselung aller Traffic-Kanäle sind die Google-Suchergebnisse, organisch und paid der wichtigste Kanal für die untersuchten Online-Shops und das noch vor direkten Zugriffen:

Aufgesang_IM_Studie2015_Verteilung_Traffic_Kanaele_2015-08-12

© Aufgesang

Auch wenn aus dem Kuchendiagramm des Gesamttraffics hervorgeht, dass der Traffic über soziale Netzwerke, wie Facebook, Google+ und Twitter, vergleichsweise gering ist, so stechen drei unterschiedliche Branchen heraus: die Möbelbranche (1,28% am Gesamttraffic), die Mode- und Kosmetikindustrie (1,61% und 2,96% am Gesamttraffic) und die Elektronikbranche (1,17% am Gesamttraffic). Alle anderen untersuchten Branchen können einen Social-Traffic von nur unter einem Prozentpunkt verzeichnen. Spitzenreiter unter den Netzwerken ist weiterhin Facebook mit über 81% des Gesamt-Social-Traffics aller Branchen:

Aufgesang_IM_Studie2015_Social_Media_Verteilung_2015-08-12

© Aufgesang

Alle Studienergebnisse und weitere Informationen zur statistischen Erhebung sind hier gegen einen Tweet oder Facebook-Share zum Download verfügbar.

 

Gary Illyes: Rankings kommen spätestens 2 Wochen nach Wechsel von HTTP auf HTTPS wieder

3 Kommentare

Mit einem harschen Tweet sorgte Webmaster Trends Analyst Gary Illyes heute für einigen Gesprächsstoff in der SEO-Community:

Damit macht er deutlich, dass jeder Webmaster seine Webseite auf HTTPS umstellen sollte, ob die Webseite nun eine Infoseite zu einem Klempner mit drei Unterseiten oder ein großer Shop mit mehreren tausend Unterseiten ist. Einige Webmaster fürchten einen längeren negativen Einfluss auf die Rankings bei Google nach der Umstellung von HTTP auf HTTPS, wie Jennifer Slegg von TheSEMPost in einem Artikel erklärte. Gary Illyes beschwichtigte nervöse Nutzer jedoch und erklärte, dass sich die Rankings im Schnitt für maximal zwei Wochen verschlechtern würden:

Twitter_Konversation_DaveNaylor_GaryIllyes

Was denkt ihr über dieses Thema? Stellt ihr Eure Seite auf HTTPS um, auch wenn ihr nur wenige Unterseiten und keine Eingabemaske für vertrauliche Daten habt? Nehmt ihr den Aufwand und mögliche kurzfristige Rankingeinbußen in Kauf?

Google zeigt Expandable Sitelinks in den Mobil-SERPs

1 Kommentar

Wir haben festgestellt, dass Google in den mobilen Suchergebnissen die bestehenden Sitelinks nun mit zusätzlichen ausklappbaren Sitelinks erweitert. Damit können Nutzer noch gezielter auf die Inhalte der Seite und zu tiefer gelegenen Unterkategorien navigiert werden.

Im folgenden Screenshot sind die zusätzlichen Sitelinks erkennbar:

Expanded_Sitelinks_Mobile_SERPs_Google

Im Jahr 2013 berichtete Search Engine Land schon darüber, dass Google ausklappbare Sitelinks in den mobilen Suchergebnissen testet. Nun scheint dies ein weiterer Test zu sein. Könnt ihr das Ergebnis reproduzieren?

Mobil-Webseite: Google kann „lazy loaded“ Content nicht crawlen

3 Kommentare

Sollte auf einer mobilen Webseite Content erst durch Scrollen sichtbar werden, könnte es dazu führen, dass dieser nicht vom Googlebot erkannt und gecrawlt werden kann. In der Folge würde dieser dann auch nicht indexiert. Besteht jedoch eine äquivalente Desktop-Seite mit dem gleichen Content, der ohne Scrollen vollständig angezeigt wird, besteht eine Chance, dass Google diese Inhalte auch für die mobilen Rankings erkennt und ausspielt. Diese Information gab John Mueller im englischen Webmaster Central Hangout vom vergangenen Freitag.

Doch um sicherzugehen, dass wirklich jegliche Inhalte problemlos gecrawlt und auch indexiert werden können, solltet ihr auf „lazy loading“ erst beim Scrollen verzichten und die Inhalte direkt beim Seitenaufruf vollständig anzeigen.

Die Aussage im Wortlaut findet ihr in der eingebetteten Aufzeichnung:

Um zu überprüfen, ob eine Gefahr für die eigene Mobil-Seite besteht, hilft die „Fetch as Google“-Funktion in der Search Console.

Mobile-only hat keinen negativen Einfluss auf Desktop-Rankings

Kommentar verfassen

Webmaster Trends Analyst John Mueller hat im englischen Webmaster Central Hangout vom vergangenen Freitag erklärt, dass Webseiten, die aufgrund ihrer strategischen Ausrichtung nur für mobile Endgeräte optimiert sind und über keine spezifische Desktop-Seite verfügen, keine Nachteile in den Desktop-Suchergebnissen haben.

So sagte er, dass in einem solchen Fall die Mobil-Seite in den Desktop-SERPs angezeigt würde. Einzige Voraussetzung wäre ein reibungsloses Rendern der Seite auf einem vergleichsweise großen Desktop-Bildschirm. Barry Schwartz hat bei Search Engine Land eine wichtige Aussage dazu von Mueller transkribiert:

[…] make sure that desktop users can still see some of your content, if it is formatted in a way that works best for mobile, that’s perfectly fine.

Die Aussage im Wortlaut findet ihr hier:

Interview | „So gerne wir Links haben, brauchen wir nicht wirklich Linkbuilding“

1 Kommentar

In unserem heutigen Interview zeigen wir Euch den Arbeitsalltag von Raphael Raue. Er arbeitet als Head of SEO bei SPIEGEL ONLINE und übernimmt mit seinem Kollegen Maximilian Rau die SEO-Arbeit des Online-Nachrichtenmagazins.

1. In welchem Organisationsbereich bist Du angesiedelt?
Mein Team ist direkt in der Redaktion angesiedelt. Das zeigt auch den Fokus unserer Arbeit, unterschlägt aber, dass Suchmaschinenoptimierung kein Thema einer Abteilung ist. Vielmehr müssen alle Ressorts mitgenommen werden.

2. Wie viele Mitarbeiter zählt das SEO-Team?
Das SEO-Team ist zurzeit noch klein, es besteht aus mir und Maximilian Rau, wir werden uns aber schon bald vergrößern. Ich verantworte den Bereich und konzentriere mich vor allem auf den technischen Teil der Arbeit. Max betreut Google News und die inhaltliche
Koordination. Aber wir werden von allen Ressorts und CVDs unterstützt, sodass bei uns eher Planung und Strategie liegen. An den durchzuführenden Maßnahmen arbeitet die gesamte Redaktion mit.

3. Wie sieht Dein Arbeitsalltag aus?
Da ich erst seit Anfang des Jahres bei SPIEGEL ONLINE bin, kann ich noch keinen normalen Arbeitsablauf beschreiben. Meine Arbeit besteht momentan viel aus Forschen, Zuhören, Schulen und dem Vernetzen aller Abteilungen. Ich werde in alle Vorgänge und Planungen einbezogen und versuche das spezifische Wissen und Denken, das meiner Meinung nach SEO ausmacht, einzubringen. Dabei geht es natürlich auch darum, das ein oder andere Vorurteil auszuräumen und – so platt es sich anhört – ins Gespräch zu kommen. SPIEGEL ONLINE wäre ohne die vielen unheimlich guten Journalisten nicht dort, wo es ist. Aber allein guter Inhalt macht noch keine gute Webseite aus. SEO ist ein weiterer Baustein in diese Richtung. Aber wie jede neue Struktur, muss sie erst in die bestehenden integriert werden. Mein Arbeitsalltag ist also so unterschiedlich, dass einfach noch kein Alltag aufkommt.

raphael-raue-arbeitsplatz

Raphael Raue im Büro: Google News und Analysetools wie die SISTRIX Toolbox sind zwei wichtige Komponenten seiner alltäglichen Arbeit.

4. Ist die gesamte SEO-Arbeit bei SPIEGEL ONLINE zentral bei Dir organisiert oder
gibt es mehrere Teams, die für verschiedene Unternehmensbereiche zuständig
sind? Arbeiten die Ressorts eigenständig?

Bei SPIEGEL ONLINE wurde natürlich auch schon SEO betrieben, bevor es eine eigene Abteilung gab. Die einzelnen Ressorts, Redakteure und auch die Technik haben sich schon immer mitverantwortlich gefühlt und tun dies weiterhin. Meine Aufgabe ist es, all diese Aktivitäten in einer Gesamtstrategie zu bündeln. Somit mag SEO bei mir zentral organisiert sein, aber ich freue mich über jede Eigenverantwortung und -initiative, höre zu, diskutiere Ideen und unterstütze meine Kollegen bei Tests. Alles, was funktioniert, trage ich dann weiter.

5. Optimieren die Redakteure ihre Artikel eigenständig?
Ja. Wir beraten und arbeiten auch nach, aber ein Großteil der Artikel kommt bei uns schon so an, wie wir uns das vorstellen. Für den Rest ist Max [Maximilian Rau, Anm. d. Red.] zuständig.

6. Ist Deine Arbeit eher technischer Natur oder liegt der Fokus auf den Inhalten und
deren Nachhaltigkeit?

Unsere Arbeit und somit meine Verantwortung umfasst beides, und das muss auch so sein. Technisches SEO und inhaltliche Ausrichtung muss im Journalismus Hand in Hand gehen. Und das nicht als Phrase, sondern als Konzept. Es geht sowohl darum, den Crawler zu leiten, als auch darum, die Inhalte so gut wie möglich auszuspielen. Wichtig ist es aber auch, Potenziale zu entdecken. SPIEGEL ONLINE gibt es jetzt seit 20 Jahren und somit stehen uns Top-Inhalte zur Verfügung. Aber durch die starke Marke und die exzellente Arbeit der Redaktion steht noch immer die Startseite im Mittelpunkt. Alte Artikel verschwinden bisweilen – das wollen wir ändern. Das ist nicht allein SEO-Arbeit, sondern auch eine redaktionelle. Mit dem Wissen, dass neben der Startseite und den Social-Media-Kanälen auch die Google-Suche sehr viel Potenzial hat, wollen wir neue Leser mit unseren Inhalten in Berührung bringen.

SEO in einem Medienhaus unterscheidet sich dadurch natürlich ein wenig von der klassischen SEO-Arbeit. So gern wir Links haben, brauchen wir nicht wirklich Linkbuilding. Unsere Inhalte sind gut, sie sind gesellschaftsrelevant und aktuell. Darauf liegt der Fokus und dadurch bekommen wir jede Menge Aufmerksamkeit. Meine Arbeit ist also sehr News-lastig. Und das bringt sehr viele Vorteile mit sich. Aber dabei dürfen wir unsere langfristigen Stücke nicht vergessen, müssen sowohl den Besucher, als auch den Crawler leiten und die Servicestücke, die Hintergründe und Ratgeber, die SPIEGEL ONLINE auch seit jeher ausmachen, besser auffindbar machen. Es geht dabei in gewisser Weise um eine Mischung aus technischen SEO, redaktionelle Feingefühl, UX und Crawling-Architektur.
Die Frage ist also nicht die nach einem Fokus. Ein Webseite, egal ob journalistisch oder servicegetrieben, ist ein Gesamtkonstrukt. Je größer dieses Konstrukt, desto komplexer wird es auch, eine ausgewogene Mischung aller Aspekte einer Webseite zu finden. Darauf liegt mein Fokus bei SPIEGEL ONLINE.

7. Wie regelt ihr den Abstimmungsprozess der unterschiedlichen Bereiche, die an
den Inhalten der Website beteiligt sind? (Content, Technik etc.)

Da ich erst so kurz hier bin, kann ich dazu noch nicht viel sagen. Ich denke die Prozesse gehen von der großen und starken Redaktion aus. Für die technischen Belange spreche ich stärker mit der IT. Aber viele technische Änderungen sind auch Änderungen am Markenkern, am Workflow. Wie oben schon erwähnt ist eine Webseite ein Gesamtkonstrukt – Technik bestimmt auf gewisse Weise Inhalte, und Inhalte bestimmen die Technik. Niemand liest einen Text, auch wenn er noch so gut ist, wenn er darauf 20 Sekunden warten muss. Technik ermöglicht Inhalt. Aber es besucht auch niemand eine Seite mit schlechtem Content, nur weil sie schnell lädt. Dementsprechend sind unsere Abstimmungsprozesse sehr eng und wir treffen uns wöchentlich in einer Entscheidungsrunde aus SEO, Social Media, Video, Design, IT und Chefredaktion. Dort werden die wichtigsten Themen besprochen, festgelegt und priorisiert. Das betrifft vor allem die großen Projekte. Für kleinere Änderungen spreche ich direkt mit den Entwicklern oder eben mit den Ressorts, CVDs etc.

8. Welche Widrigkeiten gibt es, durch die komplexe Struktur eines Verlages bei der
Umsetzung von SEO-Maßnahmen?

Komplexität bringt immer Nachteile mit sich. Man kann nicht alles kontrollieren, was man als SEO vielleicht kontrollieren möchte. Da kann es schon mal passieren, dass irgendetwas gelöscht wird, obwohl es einige Links und Rankings hatte. Oder es werden Weiterleitungen nicht so eingestellt, wie man das möchte. SEO ist zwar kein ganz neues Thema, aber es gilt: Je größer die Organisation, desto mehr Arbeit ist es, eine gewisse Konsistenz in die Gesamtstrategie zu bringen. SEO besteht eben nicht nur aus ein paar
Keywords hier und einigen Links dort. Wer nur gute Inhalte produziert, sie mit Keywords anreichert und hofft, dass allein aus diesem Grund alle zu einem kommen, wird nie sein ganzes Potenzial ausschöpfen. Menschen suchen – und sie suchen eben vor allem bei
Google. Wir wollen gefunden werden, also müssen wir SEO in jeden einzelnen Workflow integrieren. Und je komplexer die Workflows, desto mehr hat der Seo auch zu tun. Man kann das Widrigkeiten nennen, aber sind genau diese Herausforderungen und Anforderungen, die diesen Beruf so spannend machen. Es ist eben nicht nur ein technisches Thema, sondern ich rede mit allen Abteilungen im Haus und bin überall eingebunden.

9. Arbeitet ihr zusätzlich noch mit Agenturen zusammen oder setzt ihr alle
Maßnahmen inhouse um?

Wir setzen alle Maßnahmen inhouse um, arbeiten aber seit langem mit Sebastian Cario zusammen. Ich schätze diese Zusammenarbeit sehr, da er das Haus deutlich länger kennt und die meisten Projekte vor meiner Zeit hier konzeptionell begleitet oder angestoßen hat.
Aber auch zuvor wurden alle Maßnahmen inhouse umgesetzt. Die Meinung Sebastians ist mir wichtig und so ist er immer noch in beratender Funktion für uns tätig.

Das Interview mit Maik Mistian von Anfang August gibt es hier: „Beim Website-Relaunch ist es manchmal eine Herausforderung alle Projektbeteiligten für das Thema SEO zu sensibilisieren“

Google zeigt Tweets in US-Desktop-Suchergebnissen

Kommentar verfassen

Im Mai gab Google bekannt, dass Tweets in den mobilen Suchergebnissen von google.com angezeigt werden.

Wie Danny Sullivan nun auf Search Engine Land berichtete, zeigt die Suchmaschine nun auch Tweets in den Desktop-Suchergebnissen von google.com an:

Ein Google-Pressesprecher bestätigte diese Aussage und erklärte, dass Google mit der Anzeige von Tweets in den SERPs seit Mitte Juli experimentiert.

Anzeige im Knowledge Panel lässt sich nicht erzwingen

Kommentar verfassen

Webmaster Trends Analyst John Mueller hat im Webmaster Central Office-Hours Hangout vom vergangenen Dienstag erklärt, dass es kein Rezept und auch keine Garantie dafür gibt, dass Unternehmensinformationen im Knowledge-Panel oben rechts auf der Suchergebnisseite angezeigt werden. Bei Google ist es natürlich der Fall:

Google_Knowledge_Panel

Wenn Webmaster jedoch relevante Unternehmensinformationen in Datenbanken wie Wikipedia, Freebase und anderen einpflegen, dann spürt der Googlebot diese auf und diese werden dann, je nach Suchanfrage, vom Algorithmus als relevant oder nicht relevant eingestuft. Sofern sie als relevant für die Suchanfrage angesehen werden, zeigt die Suchmaschine diese auch im Knowledge-Panel an. Technische Kniffe um die Anzeige zu erzwingen gäbe es jedoch nicht:

So I think by going through and making sure that the base information is available, you’re doing the right thing there and the rest is not really something that depends on technical issues but rather on how we think this content might match what a user might be looking for.

Quelle: TheSEMPost

Die Original-Aussage von John Mueller findet ihr hier:

Canonical-Tag: Sinnvoll bei verschiedenen Hosts, Unsinn bei Verteilung von Linkjuice

Kommentar verfassen

Der Gründer und CEO von Audisto, Tobias Schwarz, hat heute einen umfangreichen Leitfaden zur korrekten Verwendung des Tags rel=canonical veröffentlicht. Darin stellt er klar, dass man den Canonical-Tag nicht für die verschiedenen Sprachversionen einer Webseite oder für die optimale Verteilung von Linkjuice nutzen sollte. Auch macht es, laut Schwarz, keinen Sinn den Canonical-Tag für die Paginierung zu nutzen. Jedoch gibt es eine Variante bei der Paginierung, wo rel=canonical Sinn macht: Eine „View all“-Seite. Wie diese Lösung genau funktioniert, zeigt Rene Dhemant bei FRAG SISTRIX.
Wenn ihr einen Online-Shop betreibt, rät Schwarz davon ab den Canonical-Tag beispielsweise für die Fokussierung von verschiedenen Ausprägungen eines Produktes auf die Ausprägung mit dem höchsten Absatz zu benutzen. Ein mögliches Beispiel wäre: Ihr betreibt einen Shop für T-Shirts. Dort verkauft ihr drei Farben, beispielweise rot, blau und schwarz. Von den Varianten generiert aber nur eine Farbe (schwarz) einen hohen Absatz. Nun wäre es nicht sinnvoll von den beiden anderen Farben per Canonical-Tag auf die dritte Farbe zu verweisen und die dritte Farbe auf sich selbst verweisen zu lassen. Denn bei einer Suchanfrage nach „rot“ würde Google laut Anweisung das schwarze T-Shirt anzeigen – somit würde der Suchende sehr wahrscheinlich nicht auf Euren Shoplink klicken.

Stattdessen ist es sinnvoll einen Canonical-Tag bei verschiedenen Hosts, beispielsweise www.xyz.de und xyz.de, zu setzen. Auch wenn die Mobil-Version einer Webseite per Subdomain (m.xyz.de) ausgeliefert wird kann die Gefahr von Duplicate Content mithilfe eines Canonical-Tag gebannt werden. Schwarz zeigt wie:

Damit Suchmaschinen wie Google einen gesetzten Canonical-Tag richtig verarbeiten können, ist es wichtig das dieser im Bereich einer Seite implementiert ist und bestenfalls auf eine Seite zeigt, die einen Statuscode 200 ausliefert.

Für die richtige Verwendung des Canonical-Tags gibt es auch ein offizielles Google-Dokument.

Alle weiteren Beispiele und den gesamten Leitfaden findet ihr hier. Falls ihr Content-Syndication betreibt, also Eure Inhalte (Blogartikel, Case Studies, Studien etc.) auch auf anderen Blogs und damit unter anderen URLs bereitstellt, sei Euch dieser Artikel von Rene Dhemant ans Herz gelegt: Content-Syndication nutzen & richtig umsetzen

Similiarweb-Analyse: Wikipedia im 3 Monatsverlauf mit rund 250 Millionen Visits weniger von Google

3 Kommentare

Roy Hinkis vom Website-Analysetool Similarweb fand heraus, dass die Online-Enzyklopädie Wikipedia seit Mai weniger Traffic auf die eigenen Angebote von Similarweb gebracht hat, als in den Monaten zuvor. Die stark abfallende Kurve hat er daraufhin weiter analysiert. So fand er heraus, dass die Visits von Google in den letzten 3 Monaten, vor allem bei Suchanfragen nach brands und TV-Serien extrem abgenommen hat. So verlor Wikipedia 41,3% des Traffics von Suchanfragen nach Facebook und sogar 76,3% Suchtraffic von der Suchanfrage nach der TV-Serie „The Flash“.

search-traffic-to-wikipedia

Einzige positive Entwicklung zeigt sich bei Suchanfragentraffic von „Game of Thrones“. Sogar das eigene brand „Wikipedia“ hat ein Minus zu verzeichnen. © Similarweb

Nun stellt sich die Frage nach der Ursache dieses hohen Verlustes an Suchtraffic der insgesamt bei 250 Millionen Visits weniger im Verlauf von drei Monaten liegt. Das Nachrichtenportal Business Insider spekulierte, dass Google die Wikipedia Einträge mit seinen eigenen Angeboten, also den direct answers, verdrängt. Bei Eingabe der Frage „Who won the french open 2015“ erscheint eine direkte Antwort der Suchmaschine. Die chronologische Liste aller Gewinner der French Open auf Wikipedia erscheint erst einige Plätze darunter (roter Pfeil):

Who_won_the_french_open_2015_direct_google_answer

Matt Southern vom Search Engine Journal äußert eine weitere Vermutung: So könnte Google bei den Algorithmus-Anpassungen aus der näheren Vergangenheit, von dem ja auch brand-Websites profitiert haben, brands in den Suchergebnissen gestärkt haben. Das würde den Verlust an Wikipedia-Suchtraffic vor allem bei brand-Suchanfragen erklären. Eine dritte Möglichkeit wären Nachwirkungen der Umstellung von HTTP auf HTTPS bei Wikipedia. Allerdings verkündete die Online-Enzyklopädie die Umstellung erst Mitte Juni – Traffic-Einbrüche verzeichnet Similarweb aber schon seit Mai.