TOP-MELDUNGEN
AKTUELLE MELDUNGEN

Website-Relaunch ohne Rankingverluste – Tipps von Birthe Stuijts

Kommentar verfassen

In regelmäßigen Abständen steht bei einer Website ein Relaunch an – sei es aufgrund einer strategische Neuausrichtung des Unternehmens, einer Umstellung auf ein neues Shopsystem oder auf ein Responsive Design oder einfach zugunsten eines neuen, frischen Websitedesigns. Tobias Fox hat auf der letztjährigen Campixx ein Interview mit Birthe Stuijts, der Geschäftsführerin der ranketing GmbH, geführt, in dem die beiden über einen erfolgreichen Relaunch ohne Verluste von Google-Ranking gesprochen haben.

Neben korrekten 301-Weiterleitungen auf die neuen Seiten, muss auch auf den geeigneten Zeitpunkt (nicht während des Weihnachtsgeschäftes bei Shops, nicht während Messezeiten bei Unternehmen) geachtet werden. Stuijts empfiehlt den SEO schon ganz zu Beginn des Relaunches mit ins Boot zu holen, auch wenn erst eine Designskizze, also das Scribble, erstellt wurde.

Alle weiteren Tipps und Erfahrungen von Birthe Stuijts findet ihr unten eingebetteten Video von VentureTV:

Googlebot versteht nun auch Accept-Language-HTTP-Header

Kommentar verfassen

Wie Pierre Far und Qin Yin von Google heute auf dem Webmaster Central Blog bekanntgaben, kann der Google-Crawler nun auch den Accept-Language-HTTP-Header verstehen, den manche Websites benutzen, um Besuchern aus unterschiedlichen Ländern die Websiteinhalte in ihrer Sprachversion auszuliefern. Informationen zur Verwendung des Accept-Language-HTTP-Header geben W3C auf ihrer Website: Accept-Language für Regionaleinstellungen verwenden

Weiter verwendet der Google-Crawler jetzt auch IP-Adressen außerhalb der Vereinigten Staaten.

Today we’re introducing new locale-aware crawl configurations for Googlebot for pages that we detect may adapt the content they serve based on the request’s language and perceived location. These are:

  • Geo-distributed crawling where Googlebot would start to use IP addresses that appear to be coming from outside the USA, in addition to the current IP addresses that appear to be from the USA that Googlebot currently uses.
  • Language-dependent crawling where Googlebot would start to crawl with an Accept-Language HTTP header in the request.
locale_adaptive_pages

Quelle: Google

Trotz dieser Neuerungen empfiehlt Google weiterhin die Auszeichnung der unterschiedlichen Sprachversionen einer Website mittels hreflang. Informationen zum Einsatz und der richtigen Konfiguration von hreflang gibt es bei SISTRIX.

Weitere Information zum Thema:
Google Webmaster-Tools Hilfe: Auf das Gebietsschema ausgerichtetes Crawling durch den Googlebot

Responsive Content im Responsive Design oder separate Mobil-URL?

3 Kommentare

Auf SEO Scene hat Frank Doerr ein Interview mit Nina Schäfer von Shopgate veröffentlicht. Die beiden thematisieren in diesem Interview die verschiedenen Möglichkeiten einem mobilen Nutzer die eigene Website anzuzeigen. Dabei stellen sie die Darstellung mittels responsive Webdesign und der Nutzung der Shopgate-Technologie gegenüber.

Responsive Design

Quelle: Shutterstock

Mit dem responsive Webdesign passt sich das Websitedesign in seinen Abmessungen und der Anordnung der Websiteelemente automatisch auf das vom Besucher verwendete Endgerät an. Bei Shops kann es allerdings sinnvoll sein, die Desktop-Seite und die Seite für mobile Endgeräte nicht nur in einem angepassten Design, sondern mit jeweils anderen Inhalten auszuliefern – denn wie Nina Schäfer betont, „[haben] Smartphone-Kunden […] andere Bedürfnisse und Vorstellungen an das Einkaufserlebnis eines mobilen Shops als PC-Benutzer. Das Gleiche gilt für Tablet-Shopper, die wiederum anders angesprochen werden müssen als Smartphone-Kunden. Dazu kommt eine schier unübersichtlich große Anzahl an unterschiedlichen Bildschirmgrößen, die berücksichtigt werden müssen – eine optimale Anpassung für jedes Gerät wird somit zusätzlich erschwert.“ Sie empfiehlt daher, für jedes Gerät (Laptop. Desktop-PC, Smartphone, Tablet) eine eigene Seite aufzubauen, die dann die Bedürfnisse des Nutzers optimal erfüllt.

Um unterschiedlichen Besuchern auch unterschiedliche Inhalte ausliefern zu können, kann einerseits mit “Responsive Content” gearbeitet werden. Dazu müsste per media query festgelegt werden, wie die Anordnung der Elemente auf unterschiedlichen Geräten aussieht. Mit JavaScript oder Ajax wird dann gesteuert, welche Inhalte bei welcher Bildschirmauflösung ausgegeben werden.

Andererseits könnte mit einer statischen Seite (beispielsweise m.seo.at) gearbeitet werden, die sozuagen alle mobilen Inhalte bündelt – hier würde allerdings nicht zwischen Tablet und Smartphone unterschieden, weder im Design noch in Punkto Inhalt. Auch besteht die Gefahr, dass in den SERPs neben der Desktop-Version auch die mobile Version angezeigt wird. Auch besteht die Gefahr von duplicate Content – dies kann aber mittels canonical-Tag behoben werden.
Die Gefahr von duplicate Content oder der Anzeige von mobilen Ergebnissen in der Desktop-Suche könnte bei einem responsive Design eliminiert werden.

Was denkt ihr? Welche Variante ist am praktikabelsten? Nutzt ihr ein responsive Design oder eine eigene Domain für Eure mobile Website? Was haltet ihr von “Responsive Content”?

Das Interview von Frank Doerr mit Nina Schäfer auf SEO Scene findet ihr hier: Mobile Commerce: App plus mobile vs. Responsive Webdesign

Weitere Informationen zum Thema:
Google-Informationen zu media queries findet ihr hier: CSS-Medienabfragen für Responsivität verwenden
Anleitungen zur Umsetzung von Responsive Content findet ihr auf Deutsch und Englisch.

“Sperre den Googlebot nicht von Deiner mobilen Website aus”

Kommentar verfassen

Wie Google Mitarbeiterin Zineb Ait Bahajji heute morgen auf Google+ bekanntgab, zeigt Google nun an, ob der, vor einem Jahr als Ersatz des Googlebot-mobile user-agent eingeführte, Googlebot for smartphones, Zutritt zu mobilen Websites hat oder nicht. Falls er per robots.txt ausgesperrt wird, wird die betroffene Seite anstelle der Meta-Description mit folgender Meldung angezeigt:

Da der Googlebot per robots.txt für das Crawlen der Website gesperrt worden ist, wird diese Information angezeigt. Quelle: Google+

Da der Googlebot per robots.txt für das Crawlen der Website gesperrt worden ist, wird diese Information angezeigt. Quelle: Google+

Damit geht Google seinen Weg stringent weiter, mobile Websites bestmöglich zu verstehen und so zu rendern, wie der Smartphone-Benutzer sie sieht. Nur auf diese Weise kann die Suchmaschine herausfinden, ob die Website “mobile-friendly” ist, oder Probleme bei der Darstellung auf Mobilgeräten auftreten.

Wenn ihr manche Fragmente Eurer Website per robots.txt sperrt, vor allem wenn es JavaScript und CSS-Dateien sind, dann wird es für Google unmöglich die Website so anzuzeigen, wie der Benutzer sie sieht. Da der Googlebot die Informationen auf der Seite dann nicht (vollständig) auslesen kann, wird keine Meta-Description in den SERPs angezeigt werden.

Barry Schwartz hat es auf Search Engine Roundtable auf den Punkt gebracht:

Google really, really, really doesn’t want you to block them.

Den vollständigen Post von Zineb Ait Bahajji findet ihr hier:

Google+_ZinebAitBahajji_Post

Google-Leitfaden zur Optimierung der Website für Mobilgeräte

2 Kommentare

Falls Eure Website bei dem mobile-friendly Test negativ abschneidet, könnt ihr nach Vorgaben eines Google-Leitfadens Eure Website für Mobilgeräte optimieren.

Der Leitfaden ist für viele Content-Management-Systeme verfügbar, die Google folgendermaßen auflistet:

  • WordPress
  • Joomla
  • Drupal
  • Blogger
  • vBulletin
  • Tumblr
  • DataLife Engine
  • Magento
  • PrestaShop
  • Bitrix

Nach einem Klick auf das jeweilige System, zeigt der Leitfaden Schritt für Schritt, wie die auf diesem System basierende Website für Mobilgeräte optimiert werden kann. Den Leitfaden findet ihr im Google Developers-Bereich.

Da Google in den letzten Tagen Meldungen an Webmaster nicht mobil-optimierter Websites verschickt hat, ist eine für Mobilgeräte optimierte Website umso wichtiger.

Neue, hochwertige Links können einer Website helfen dem Penguin zu entkommen

Kommentar verfassen

Wie Googles John Mueller Ende letzten Jahres erklärte, hilft es einer von der algorithmischen Pinguin-Penalty betroffenen Website, wenn sie neue hochwertige Links – beispielsweise allgemeine Empfehlungen von anderen Seiten oder Quellenverweise auf diese Seite – bekommt. Google schaut demnach, ob sich eine, in eine algorithmische Penalty geratene, Website positiv entwickelt und (wieder) qualitative eingehende Link bekommt. Dies wird, laut Mueller, positiv gewertet und kann helfen dem Penguin schneller zu entkommen.

Search Engine Roundtable spekulierte, dass es auf diese Weise sogar möglich ist, auch ohne Linkabbau oder die Benutzung des Disavow-Tools, dem Penguin zu entkommen. Mueller empfiehlt allerdings trotzdem Linkabbau zu betreiben und nicht abbaubare Links durch die Disavow-File zu entwerten – Webmaster sollten sich für die Benutzung des Disavow-Tools nicht schämen.

Die Originalaussage von John Mueller findet ihr im unten eingebetteten Videomitschnitt vom Webmaster Central office-hours hangout:

Vertrauen in Suchmaschinen weltweit höher als in herkömmliche Nachrichtenquellen

1 Kommentar

Laut dem Trust Barometer der Public Relations-Agentur Edelman genießen Suchmaschinen weltweit ein höheres Vertrauen als herkömmliche Medien. Nachdem im Jahr 2014 die Suchmaschinen den traditionellen Medien – wie Zeitungen, Zeitschriften und dem Rundfunk – noch knapp unterlegen waren, haben sie in den Hochrechnungen für 2015 die herkömmlichen Medien in Punkto Vertrauen überholt und liegen mit 2 Prozentpunkten vorne.

Vertrauen in die Medien_weltweit

Aus der Grafik wird ersichtlich, dass in 20 Länder kumuliert, das Vertrauen in Suchmaschinen steigt, wohingegen das Vertrauen in die klassischen Medien, wie Zeitungen, Zeitschriften und Rundfunk sinkt. Quelle: Trust Barometer 2015 von Edelman

Die Deutschen dagegen setzen noch mehr Vertrauen in die traditionellen Medien – jedoch nur im Vergleich zu Suchmaschinen. Denn separat betrachtet, büßen die Rundfunkanstalten, Zeitungen und Zeitschriften in der Prognose für 2015 kontinuierlich an Vertrauen bei ihren Rezipienten ein – trotz eines Drei-Jahres-Hochs in 2014. Die Suchmaschinen gewinnen dagegen Vertrauen, allerdings nur im geringen einstelligen Bereich.

Vertrauen in Medien_Deutschland

In Deutschland prognostiziert die PR-Agentur Edelman, dass das Vertrauen in klassische Medien in diesem Jahr stark schwinden wird. Die Suchmaschinen gewinnen nur leicht dazu. Quelle: Edelman Trust Barometer 2015

Welchen Nachrichtenquellen schenkt ihr am Meisten Vertrauen? Suchmaschinen, wie Google, da sie alle Nachrichten aller Quellen aggregieren und daher einen Überblick und eine größtmögliche Objektivität schaffen? Oder habt ihr eine spezielle, ganz persönliche Nachrichtenquelle, die ihr regelmäßig offline lest oder online ansurft?

Webmaster denken über Wechsel von HTTPS zurück zu unverschlüsseltem HTTP nach

6 Kommentare

Wie Barry Schwartz auf Search Engine Roundtable berichtete, denken einige Webmaster über einen Wechsel zur unverschlüsselten Verbindung mittels HTT-Protokoll nach. Er bezieht sich damit auf einen Beitrag im WebmasterWorld-Forum, in dem ein Nutzer schrieb, dass er HTTPS nicht unbedingt für seine Informations-Website benötigt, die keine sensiblen Kundendaten speichert und auch bisher keine nennenswerten Rankingauswirkungen bemerkt habe:

I tested https for a while and I decided to switch back to http. Quelle: WebmasterWorld.com

The main reasons are:
– I don’t really need https for an informational website
– I don’t see any ranking nor trust improvement […] Quelle: WebmasterWorld.com

Dieser Thread darf natürlich nicht verallgemeinert werden. Ob es schon viele Webmaster sind, die über einen Wechsel nachdenken wird nicht erkenntlich.

John Mueller kommunizierte Ende September letzten Jahres, dass ein Wechsel von HTTP auf HTTPS vorerst keine signifikanten Rankingveränderungen auslösen würde – daran wird sich bis heute nichts geändert haben, denn es gibt keine anderslautende Äußerung seitens Google.

Nun ist natürlich die Frage, ob Webmaster nun den Schritt zurück gehen sollten oder weiter abwarten, ob Google Websites mit HTTPS mit besseren Rankings belohnt. Man sollte auch an die Besucher denken. Ist es nicht ein gutes Gefühl, wenn man als Nutzer sieht, dass die persönlichen Daten verschlüsselt übertragen werden? Besucht ihr eine Website eher, wenn sie die Information mittels HTTPS ausliefert?

Frank Doerr zeigt typische Problemfälle bei SEO für Online-Shops

Kommentar verfassen

Auf SEO-Scene.de hat Frank Doerr aufgezählt welche Probleme typisch für die Suchmaschinenoptimierung von Online-Shops sind. Dabei stellen die verschiedenen Shopsysteme und Plugins, die im Einsatz sein können neben schlechter Kommunikation von Hostinganbieter zum Kunden, als auch die Zusammenarbeit zwischen SEO und Shop-Agentur Problem-Potenziale dar.

Das größte Problem sind allerdings Shop-Agenturen, die überhaupt kein Interesse an der Zusammenarbeit mit einem SEO haben, weil sie glauben, dies selbst zu können oder weil es an ihrer marketingtechnischen Allmachtsphantasie kratzt. Denn wenn die SEO-Analyse zeigt, dass die Hausaufgaben nicht zu meiner vollsten Zufriedenheit gemacht wurden (und das war bislang stets der Fall), dann gibt es zumindest mit solchen Agenturen ein großes Problem. Und führt früher oder später zu meinem Rat an den Kunden: „Wechseln Sie die Web-Agentur!“

Die interessanten Einblicke in den Agenturalltag gepaart mit vielen hilfreichen Tipps zur Problembehebung findet ihr auf SEO Scene: SEO für Shops – typische Problemfälle

Webprojekt Quondos startet am 21. Januar in Deutschland

Kommentar verfassen

Quondos.de ist laut eigenen Aussagen eine “kostenpflichtige E-Learning-Plattform für Online-Marketing”, auf der jede Woche mehrere Videos zu den Schwerpunkten SEO und Online-Marketing veröffentlicht werden. Das Besondere an dem Konzept von Quondos.de ist die Umsetzung – die Mitglieder können hautnah miterleben, wie sich die Webprojekte zweier gegnerischen Parteien entwickeln. Am 21. Januar startet die vormals nur in Spanien nutzbare Plattform auch in Deutschland. In dieser neuen Runde treten Julian Dziki und Nicolas Sacotte aus Deutschland gegen Carlos Bravo und Alex Navarro aus Spanien an – die Aufgabe ist es ein Webprojekt “von Null an” aufzubauen. Die Abonnenten sehen in regelmäßigen Videos den Verlauf der Projekte und können Learning direkt aus der Praxis ziehen.

Die Kosten für ein Monatsabo liegen bei 29 Euro, 12 Monate kosten 299 Euro.

Yes we launch! Quondos startet am 21. Januar – die offizielle Ankündigung als Blogpost.