Einreichen einer XML-Sitemap nur bei Websites mit über 10.000 Unterseiten nötig

Kommentar verfassen

John Mueller hat im gestrigen Webmaster Central Hangout erklärt, dass es für kleinere Websites mit unter 10.000 Unterseiten nicht unbedingt nötig ist, eine XML-Sitemap einzureichen:

Bei kleinen Websites mit 1000 bis 10.000 Seiten kann man auf eine Sitemap verzichten. Auf jeden Fall ist es nicht notwendig. Natürlich hilft uns eine XML-Sitemap die Seite besser zu verstehen, aber wir können sie auch so relativ gut crawlen.

shutterstock_174624449_urheber_Bloomua WEB

Quelle: Shutterstock

Natürlich ist es sehr wichtig, dass die Website intern gut verlinkt ist, damit sich der Googlebot anhand dieser Links durch die Seitenstruktur navigieren kann. Falls dem nicht so ist, macht es sicherlich Sinn eine XML-Sitemap in der Google Search Console einzureichen, um dem Crawler möglichst barrierefrei alle Unterseiten der Website offenzulegen. John Mueller erklärte weiter, dass es bei größeren Portalen mit mehr als 10.000 Seiten immer sinnvoll wäre eine Sitemap einzureichen.

Die Aussage im Wortlaut findet ihr hier:

Weitere Informationen und Gedanken dazu findet ihr bei Martin Missfeldt im tagseoblog: Kleine Sites (bis 10.000 Seiten) brauchen keine Sitemap

Ganz abgesehen von der Anzahl der Unterseiten einer Website, ist es hilfreich eine Sitemap einzureichen, um einen manuellen Crawling-Anstoß zu geben und Google über neue Inhalte auf der Website zu informieren.

Der IndexWatch 07/2015 steht bereit

Kommentar verfassen

Pünktlich zum Anfang des Monats hat Rene Dhemant den IndexWatch mit den Gewinnern und Verlierern des SISTRIX Sichtbarkeitsindexes im Juni 2015 veröffentlicht. In seiner Analyse hat Dhemant auch die Bewegungen in den SERPs aus den letzten Wochen thematisiert und die Umstellung auf SSL bei Wikipedia tiefergehend beleuchtet.

Zu den Gewinnern des Monats Juni zählen die News-Plattform internetworld.de (+85,68%), die Leipziger Volkszeitung lvz.de (+82,00%) und reifen.de (+77,59%). Die Internet World Business konnte wahrscheinlich im Zuge des Core Algorithmus Update an Sichtbarkeit dazugewinnen. Auch möglich ist ein Einfluss der HTTPS-Umstellung von Wikipedia – jedoch sind diese möglichen Faktoren nur Spekulation. Bei der Leipziger Volkszeitung führte ein Domainumzug zum hohen Anstieg in der Sichtbarkeit: so wechselte lvz-online.de zu lvz.de, was lvz.de durch korrekte gesetzte 301-Weiterleitungen einen Sichtbarkeitsschub gab:
IndexWatch_07-15-Domainumzug-LVZ

Die Liste der Verlierer im Juni führt Rain Bird, der führende Hersteller für Bewässerungslösungen aller Art (bspw. zur Bewässerung von Rasenflächen), an und hat 83,33% an Sichtbarkeit verloren. Auch hier ist ein Domainumzug der Grund: Rain Bird bündelt alle Länderseiten auf der Domain rainbird.eu und hat damit auch die Inhalte von rainbird.de umgezogen. Weitere Verlierer sind das Stadtportal der Stadt Offenbach, offenbach.de, mit einem Verlust der Sichtbarkeit von 64,78% und audi.de (-23,17%), sowie sky.de (-23,04%).

Alle Auswertungen findet ihr im aktuellen IndexWatch.

Schnelle Google-Indexierung durch WordPress Plugin PubSubHubbub

Kommentar verfassen

Es gibt mehrere Wege Google darüber zu informieren, wenn ihr neuen Content veröffentlicht habt. So kann es beispielsweise hilfreich sein, eine XML-Sitemap einzureichen – im Mai haben wir gezeigt, wie eine XML-Sitemap mit Timestamp dabei helfen kann.

Eine weitere Möglichkeit sind RSS-Feeds und das WordPress-Plugin PubSubHubbub. Trotz seiner doch sehr ungewöhnlichen Namens ist es sehr sinnvoll. Es informiert Google per Ping über neue Inhalte auf der Website und wird auch heute noch von Google empfohlen:

Schon im Oktober letzten Jahres hat Google in einem Blogpost best practises für die (Be-)Nutzung von XML-Sitemaps und RSS-Feeds vorgestellt: Best practices for XML sitemaps & RSS/Atom feeds. Das WordPress-Plugin könnt ihr hier herunterladen.

Keine Textprüfung von Google Local-Veranstaltungen?

1 Kommentar

Bei der Suchanfrage „Recklinghausen” liefert Google zurzeit ungewollt die Veranstaltungshinweise für organisierte Erwachsenenunterhaltung aus:

Suchanfrage_Recklinghausen_Veranstaltungen

Dies scheint daran zu liegen, dass der betreffende Websitebetreiber seine Veranstaltungen korrekt mit dem schema.org Markup versehen hat. So scheint es, dass diese Veranstaltungshinweise nicht mehr durch einen Textüberprüfungs-Filter laufen, sondern direkt ausgegeben werden. Ansonsten würde Google diese Veranstaltungen sicherlich nicht bei der Suchanfrage nach der Stadt Recklinghausen ausspielen.

Aktuell macht dieses Fundstück durch Rudolf Ring schon bei Facebook von sich reden. Auch Bianca Jacobi hat es aufgegriffen.

Was denkt ihr darüber? Was kann zu dieser Ausspielung der Veranstaltungen geführt haben?

Kommendes Panda-Update wird nur Data-Refresh sein

1 Kommentar

Im Gespräch mit Danny Sullivan von Search Engine Land hat Webmaster Trends Analyst Gary Illyes auf der SMX Advanced einige Details zum kommenden Panda-Update bekanntgegeben.
Seiner Aussage nach wird es sich dabei lediglich um ein Data Refresh handeln und nicht um eine umfassende Algorithmus-Änderung. Die letzte Änderung des Panda-Algorithmus war das Panda Update 4.0 vom 20. Mai 2014.

Die Aussage im Original findet ihr hier:

Wo liegt der Unterschied zwischen einem Data Refresh (oder auch Iteration genannt) und einer Algorithmus-Änderung?

Die Datengrundlage auf die sich eine Algorithmus-Änderungen stützt wird von Zeit zu Zeit aktualisiert. Ein “Data Refresh” (zu Deutsch Datenaktualisierung) beschreibt die Aktualisierung der Datenbasis, welche die Grundlage der jeweiligen Algorithmus-Aktualisierung ist. […] Eine Algorithmus-Änderung (Update) hat einen großen (bzw. den größten) wahrnehmbaren Effekt für Webmaster und das Ranking ihrer Websites, da sie eine neue Berechnungsgrundlage bzw. Bewertungsgrundlage für Websites einführt.

Aus: FRAG SISTRIX

Vereinfacht gesagt: Bei einem Data Refresh wird die Datenbasis aktualisert, bei einer Algorithmus-Änderung werden neue Berechnungs- und Bewertungsgrundlagen hinzugefügt oder alte Berechnungs- und Bewertungsgrundlagen entfernt.

Wie fließen Klicks in die Rankings in den SERPs mit ein?

4 Kommentare

Auf TheSEMPost hat sich Jennifer Slegg damit beschäftigt, wie Google die Suchergebnisse durch die Nutzerinteraktion „Klicks” beeinflusst. Der Aussage von Webmaster Trend Analyst Gary Illyes auf der SMX Advanced nach, ist Google immer besser darin geworden Klickbetrug aufzudecken. So ist es laut Illyes für Google ein Leichtes die Manipulation von Klicks in den Suchergebnissen, beispielsweise durch Klick-Bots, herauszufiltern, sodass diese Praktik keinen positiven oder auch negativen Einfluss auf die Position von Suchergebnissen haben kann:

It is well known that you can buy people and bots who will specifically click on links in the search results in a way that makes it appear your site is the better one and your competitor’s site is not. It is pretty easy to find those that do this kind of thing.

Quelle: TheSEMPost

Rand Fiskin von MOZ hat Anfang der Woche seine Follower per Twitter aufgerufen, genau dies auszuprobieren:

Sofern die Follower, die bei seinem Experiment mitmachen, aus vielen verschiedenen Bundesgebieten der USA kommen, könnte Google diese bewusste Manipulation der Klicks auf die Suchergebnisse der Suchanfrage „best grilled steak” eventuell nicht erkennen und entwerten. Denn Google misst ja die Nutzerinteraktion in den Suchergebnissen: Sofern ein Ergebnis auf Position 1 weit seltener angeklickt wird, als ein Ergebnis auf den nachfolgenden Positionen der gleichen Suchanfrage, könnte es zu einem Tausch der Positionen beider Suchergebnisse kommen – ganz im Sinne der Nutzererfahrung. Zur Optimierung der SERPs auf Basis von Nutzeraktionen hat Hanns Kronenberg im Feburar vergangenen Jahres einen Artikel zur Regalplatzoptimierung veröffentlicht – er stellt sich damit der Frage: Wie geht Google damit um, wenn Nutzer bei einer Suchanfrage vermehrt die Ergebnisse auf Position 3 und 4 klicken, als auf Position 1?

Allerdings kann Google Nutzerinteraktionen mit weiteren eigenen Daten verifzieren. So ist beim Google Chrome Browser, der laut StatCounter einen weltweiten Marktanteil von 49,2% (Mai 2015) hat, standardmäßig die Funktion „Vorabruf von Ressourcen zum schnelleren Laden von Seiten” aktiviert:

Chrome_Seiteninteraktion_vorausahnen

Mit dieser Funktion lädt Google im Hintergrund die Websites, die der Nutzer wahrscheinlich als Nächstes besuchen wird:

Über diese Funktion: Browser verwenden zum Laden einer Webseite die IP-Adresse. Wenn Sie eine Webseite besuchen, kann Chrome die IP-Adressen aller Links auf der Website suchen und Links, auf die Sie vermutlich als Nächstes klicken werden, bereits vorab abrufen. Mithilfe der Pre-Rendering- und Vorabruf-Technologie können Websites Links, die Sie möglicherweise als Nächstes aufrufen, schneller laden.

Hanns hat im Sommer letzten Jahres die Vermutung geäußert, dass Google Links mithilfe dieser Technologie bewertet. Je öfter ein Link geklickt wird, desto wertvoller ist er. Und je häufiger dieser per Prerendering im Google Chrome Browser vorab geladen wird, desto öfter wird er geklickt.
Sofern Google diese Daten auch beim Ausspielen der Suchergebnisse zu einer bestimmten Suchanfrage mit einbeziehen würde, könnte die Suchmaschine selbstständig die Positionen der Suchergebnisse optimieren: Jene, die häufiger prerendert werden, werden weiter vorne angezeigt, da sie ja scheinbar viele positive Nutzersignale aufweisen.

Ranking Check zeigt die Basics einer erfolgreichen mobilen Content-Marketing-Strategie

Kommentar verfassen

Auf dem RankingCheck-Blog hat sich Stefan Hassinger damit beschäftigt, wie eine nachhaltige Content-Marketing-Strategie für Mobil-Websites aussehen kann und exemplarisch die technischen Voraussetzungen und die speziellen Anforderungen an „Mobile-Content” herausgearbeitet.

Nachdem Google am 21. April das „mobile-friendly”-Update ausgerollt hat, sind die großen Veränderungen in den mobile SERPs größtenteils ausgeblieben. Die Ergebnisse der aktuellen SEO.at Umfrage zeigen auch keine, eindeutig dem „mobile-friendly”-Update zuzuordnenden Veränderungen – viele Sichtbarkeitsveränderungen könnten auch völlig andere Ursachen haben.

Dennoch ist die mobile Nutzung auf dem Vormarsch – Google erklärte, dass in weltweit 11 Ländern, darunter die USA, Großbritannien und Japan, mehr Suchanfragen über Mobilgeräte getätigt werden als über Desktop-PCs oder Laptops. Somit ist es wichtig den Mobil-Besuchern eine bestmögliche User-Experience zu bieten, damit sie wiederkommen und nicht zur Konkurrenz wechseln. Neben einer schnellen Ladezeit, großen und gut erreichbaren Buttons, kurzen, prägnanten Sätzen und lokalen Informationen, wie Öffnungszeiten, Adresse und Telefonnummer (falls verfügbar), gibt es noch einige andere Faktoren zu beachten. Diese findet ihr im Blog von RankingCheck: Tipps für eine effektive Mobile-Content-Marketing-Strategie

Der neue suchradar #54 mit dem Titelthema: „Bewegung im Netz: Kunden mobil erreichen” ist da!

Kommentar verfassen

Der suchradar in der Ausgabe 54 steht zum Download und als Print-Version bereit. Er kann hier heruntergeladen oder bestellt werden.

Neben dem Titelthema „Bewegung im Netz: Kunden mobil erreichen” hat sich die Redaktion bei dieser Ausgabe umfassend mit dem Thema „Mobile” befasst und zeigt neben der Conversion-Optimierung für mobile Endgeräte und einem Überblick von SEO-Tools für die mobile Suche auch was beim mobilen Shopping in Punkto Recht zu beachten ist und welche Apps in den mobilen SERPs bieten.

Alle Themen der Ausgabe im Überblick:

Top-Thema: „Bewegung im Netz – Kunden mobil erreichen“

> Mobile Suche: Was bisher geschah
> Mobile Webdesign: Conversion-Optimierung für mobile Endgeräte
> Der SEO-Tool-Überblick: Google-Tools für die mobile Suche
> Mobiles Recht: Was beim mobilen Shoppingangebot zu beachten ist
> Mobile Suchergebnisse: Welche Vorteile bieten Apps?

Online-Marketing
> Videos für Unternehmen: Wie das Medium Video im Online-Marketing eingesetzt werden kann

SEO
> Themenradar: Sind Ranking-Faktor-Analysen noch sinnvoll?
> Shop Corner: Von Versandapotheken lernen
> Kostenlose SEO-Tools: SISTRIX Smart

SEA
> Retargeting: Wie Search-Intent-Daten kanalübergreifend Gewinn bringen
> Regionale AdWords-Anzeigen: Account-Aufbau, Ausrichtung und Optimierung
> AdWords-Automatisierung: 13 Regeln aus der SEA-Praxis

Google Analytics
> Google Analytics: Referrer Spam erkennen und von der Analyse ausschließen
Recht
> Urteile im Online-Recht: Freiwillig verlängerte Widerrufsfrist, Telefonnummer in der Widerrufsbelehrung und Kundenspezifikation

Bloofusion Webinar: „AdWords für Online Shops” am 26.6.

Kommentar verfassen

Ende der Woche findet wieder ein Webinar von Bloofusion zum Thema „AdWords für Online-Shops” statt. Hier wird Shopbetreibern und Marketingverantwortlichen gezeigt, welche Instrumente AdWords bereithält und für wen sich diese eignen. Der Webinar-Leiter Martin Röttgerding erklärt, dass es hierbei primär um die Unternehmensperspektive und nicht um technische Einzelheiten gehen wird.

Für das Webinar am kommenden Freitag, den 26. Juni um 10 Uhr, könnt ihr Euch über diesen Link anmelden.

Mehr mobile als Desktop-Suchanfragen in weltweit 11 Ländern: Anleitung zum Tracking von Mobil-Besuchern

2 Kommentare

Anfang der Woche verkündete Google auf der London Tech Week, dass auch in Großbritannien mehr Nutzer mobil suchen, als mit dem Desktop-PC. Im Mai gab Google schon bekannt, dass in weltweit 10 Ländern, darunter in den USA und Japan, mehr Suchanfragen über Mobilgeräte getätigt werden als über Desktop-Geräte.

Copyright: Google

Copyright: Google


Somit verändert sich das Nutzerverhalten in Richtung „Mobile” – und 121Watt hat passend dazu eine Anleitung erstellt, wie Mobil-Nutzer mithilfe von Google Analytics effektiv analysiert werden. So zeigt 121Watt wie Analytics-Nutzer untersuchen können, wie groß der Anteil der Mobilnutzer am Gesamttraffic ist, woher und wann sie kommen und gibt anschließend Empfehlungen zu Optimierungsmöglichkeiten.

Den ganzen, sehr umfassenden Artikel findet ihr hier: Mobile Nutzer mit Google Analytics effektiv analysieren