Vertrauen in Suchmaschinen weltweit höher als in herkömmliche Nachrichtenquellen

1 Kommentar

Laut dem Trust Barometer der Public Relations-Agentur Edelman genießen Suchmaschinen weltweit ein höheres Vertrauen als herkömmliche Medien. Nachdem im Jahr 2014 die Suchmaschinen den traditionellen Medien – wie Zeitungen, Zeitschriften und dem Rundfunk – noch knapp unterlegen waren, haben sie in den Hochrechnungen für 2015 die herkömmlichen Medien in Punkto Vertrauen überholt und liegen mit 2 Prozentpunkten vorne.

Vertrauen in die Medien_weltweit

Aus der Grafik wird ersichtlich, dass in 20 Länder kumuliert, das Vertrauen in Suchmaschinen steigt, wohingegen das Vertrauen in die klassischen Medien, wie Zeitungen, Zeitschriften und Rundfunk sinkt. Quelle: Trust Barometer 2015 von Edelman

Die Deutschen dagegen setzen noch mehr Vertrauen in die traditionellen Medien – jedoch nur im Vergleich zu Suchmaschinen. Denn separat betrachtet, büßen die Rundfunkanstalten, Zeitungen und Zeitschriften in der Prognose für 2015 kontinuierlich an Vertrauen bei ihren Rezipienten ein – trotz eines Drei-Jahres-Hochs in 2014. Die Suchmaschinen gewinnen dagegen Vertrauen, allerdings nur im geringen einstelligen Bereich.

Vertrauen in Medien_Deutschland

In Deutschland prognostiziert die PR-Agentur Edelman, dass das Vertrauen in klassische Medien in diesem Jahr stark schwinden wird. Die Suchmaschinen gewinnen nur leicht dazu. Quelle: Edelman Trust Barometer 2015

Welchen Nachrichtenquellen schenkt ihr am Meisten Vertrauen? Suchmaschinen, wie Google, da sie alle Nachrichten aller Quellen aggregieren und daher einen Überblick und eine größtmögliche Objektivität schaffen? Oder habt ihr eine spezielle, ganz persönliche Nachrichtenquelle, die ihr regelmäßig offline lest oder online ansurft?

Webmaster denken über Wechsel von HTTPS zurück zu unverschlüsseltem HTTP nach

6 Kommentare

Wie Barry Schwartz auf Search Engine Roundtable berichtete, denken einige Webmaster über einen Wechsel zur unverschlüsselten Verbindung mittels HTT-Protokoll nach. Er bezieht sich damit auf einen Beitrag im WebmasterWorld-Forum, in dem ein Nutzer schrieb, dass er HTTPS nicht unbedingt für seine Informations-Website benötigt, die keine sensiblen Kundendaten speichert und auch bisher keine nennenswerten Rankingauswirkungen bemerkt habe:

I tested https for a while and I decided to switch back to http. Quelle: WebmasterWorld.com

The main reasons are:
– I don’t really need https for an informational website
– I don’t see any ranking nor trust improvement […] Quelle: WebmasterWorld.com

Dieser Thread darf natürlich nicht verallgemeinert werden. Ob es schon viele Webmaster sind, die über einen Wechsel nachdenken wird nicht erkenntlich.

John Mueller kommunizierte Ende September letzten Jahres, dass ein Wechsel von HTTP auf HTTPS vorerst keine signifikanten Rankingveränderungen auslösen würde – daran wird sich bis heute nichts geändert haben, denn es gibt keine anderslautende Äußerung seitens Google.

Nun ist natürlich die Frage, ob Webmaster nun den Schritt zurück gehen sollten oder weiter abwarten, ob Google Websites mit HTTPS mit besseren Rankings belohnt. Man sollte auch an die Besucher denken. Ist es nicht ein gutes Gefühl, wenn man als Nutzer sieht, dass die persönlichen Daten verschlüsselt übertragen werden? Besucht ihr eine Website eher, wenn sie die Information mittels HTTPS ausliefert?

Google verschickt Meldungen an Webmaster nicht-optimierter Mobilseiten

5 Kommentare

Laut Search Engine Land verschickt Google an mehrere Webmaster per E-Mail und Benachrichtigung in den Webmaster Tools, dass ihre Websites nicht “mobile-friendly” sind, beziehungsweise Fehler bei der mobilen Version der Website auftreten, die der Benutzerfreundlichkeit schaden.

Search Engine Land veröffentlichte eine Kopie der E-Mail:

Copyright & Quelle: Search Engine Land

Copyright & Quelle: Search Engine Land

Aufgrund dieser Meldung spekuliert das Online-Medium, dass Google bald härter durchgreifen könnte, wenn Websites nicht für die mobile Darstellung optimiert sind. Mit dem “mobile-friendly”-Testing Tool könnt ihr untersuchen, ob ihr auch eine solche Meldung zu erwarten habt.

Search Engine Land: Google Sending Mobile Usability Warnings To Huge Number Of Webmasters

Ist die Nutzerfreundlichkeit auf Mobilgeräten nun ein offizieller Rankingfaktor?

Kommentar verfassen

Zurzeit brodelt die Gerüchteküche ja mächtig, wenn es um das Thema “Nutzerfreundlichkeit von Websites auf Mobilgeräten als Rankingfaktor” geht. So berichtete Jennifer Slegg auf TheSEMPost gestern, dass Websites mit einer schlechten User Experience (UX) auf Mobilgeräten bereits an Sichtbarkeit verlieren.

People began noticing that websites that received this notice (Anm. d. Redaktion: Warnung, dass die Website nicht “mobile-friendly” ist) are no longer ranking when a search is done on a mobile device. The rankings are retained for desktop searches, but the visibility is mobile searches drops dramatically.

Auch David Naylor, der Geschäftsführer der britischen Agentur Bronco, veröffentlichte heute einen Blogpost mit dem Titel: “Have Google Released A Mobile Algorithm, We Think So…”

In seinem Post berichtete er von Rankingverlusten von eben jenen Domains, die keine “mobile-friendly”-Version ihrer Seite für Mobilgeräte auslieferten:

A closer look at the impact that seems to have been seen w/e commencing 24th January, seemed to show that sites that were seeing the biggest reduction in rankings were those that failed to offer a superior mobile experience for those that are using Google on mobile or tablet devices.

Heute nahm John Mueller von Google im Webmaster Central Hangout offiziell Stellung zu den Gerüchten. Er sagte, dass Google schon in 2013 einige technische Fehler bei Mobilseiten aufgezählt hat, die es zu beheben gilt und die Google als Rankingfaktor benutzt – einige davon sind auch heute noch aktuell.

Zur Beantwortung unserer Headline: Heute geht Google einen Schritt weiter und bevorzugt “mobile-friendly”-Websites gegenüber Seiten, die nicht für Mobilgeräte optimiert sind und dieselben Inhalte bieten. Die Desktop-Rankings der sozusagen “mobile-unfriendly”-Seiten werden allerdings davon nicht betroffen. Also sollten Webmaster von Websites, die einen hohen Traffic über die mobile Suche bekommen, ihre Websites für Mobilgeräte optimieren.

Webmaster von Websites, deren größte Traffic-Quelle aber die Desktop-Suche ist, müssen sich nicht fürchten. Eine nicht auf Mobilgeräte optimierte mobile Seite sollte, laut John Mueller, keine Einbußen in den Desktop-Rankings bedeuten.

With the new “mobile-friendly”-Tag we’ve said that we experiementing with ranking changes there as well. So I would certainly expect, that things move more in this direction.

Die Aussagen von John Mueller findet ihr hier nochmals im Original:

Zielgerichtete Kommunikation mit Besuchern statt WDF*IDF

Kommentar verfassen

Auf SEO Couch hat sich Heiko Stiegert dem Thema Content-Strategie angenommen. Dabei stellt er eine Herangehensweise zur Erstellung von Content vor, die nicht auf Keywordrecherchen und optimierten Texten nach WDF*IDF basiert, sondern am Nutzerbedarf ausgerichtet ist.

shutterstock_113023936_Urheber Chatchawan

Quelle: Shutterstock

Denn sofern Inhalte, plakativ gesagt, den “Zahn der Zeit” treffen und genau die Informationen bieten, die Besuchern sehr wahrscheinlich brauchen, dann sind sie erfolgreich.

Mit Fokus auf ein effizientes Customer Lifecycle Management (CLM) bedeutet dies, die richtige Botschaft zum richtigen Augenblick, am richtigen Ort, der Zielgruppe anzubieten.

Mit der Bündelung von Informationen eines gleichen Themas in einer sogenannten Themenwelt schafft man als Webmaster eine Anlaufstelle für den Besucher, holt ihn sozusagen ab und versorgt ihn gebündelt mit dem richtigen Bündel an Informationen.

Dieses abstrakte Thema erläutert Stiegert anhand von dem Produkt “Zahnzusatzversicherung” – wie genau, könnt ihr in seinem Artikel: Mit Perspektivwechsel & Customer-Journey zur Content Strategie nachlesen.

Website-Relaunch ohne Rankingverluste – Tipps von Birthe Stuijts

Kommentar verfassen

In regelmäßigen Abständen steht bei einer Website ein Relaunch an – sei es aufgrund einer strategische Neuausrichtung des Unternehmens, einer Umstellung auf ein neues Shopsystem oder auf ein Responsive Design oder einfach zugunsten eines neuen, frischen Websitedesigns. Tobias Fox hat auf der letztjährigen Campixx ein Interview mit Birthe Stuijts, der Geschäftsführerin der ranketing GmbH, geführt, in dem die beiden über einen erfolgreichen Relaunch ohne Verluste von Google-Ranking gesprochen haben.

Neben korrekten 301-Weiterleitungen auf die neuen Seiten, muss auch auf den geeigneten Zeitpunkt (nicht während des Weihnachtsgeschäftes bei Shops, nicht während Messezeiten bei Unternehmen) geachtet werden. Stuijts empfiehlt den SEO schon ganz zu Beginn des Relaunches mit ins Boot zu holen, auch wenn erst eine Designskizze, also das Scribble, erstellt wurde.

Alle weiteren Tipps und Erfahrungen von Birthe Stuijts findet ihr unten eingebetteten Video von VentureTV:

Googlebot versteht nun auch Accept-Language-HTTP-Header

Kommentar verfassen

Wie Pierre Far und Qin Yin von Google heute auf dem Webmaster Central Blog bekanntgaben, kann der Google-Crawler nun auch den Accept-Language-HTTP-Header verstehen, den manche Websites benutzen, um Besuchern aus unterschiedlichen Ländern die Websiteinhalte in ihrer Sprachversion auszuliefern. Informationen zur Verwendung des Accept-Language-HTTP-Header geben W3C auf ihrer Website: Accept-Language für Regionaleinstellungen verwenden

Weiter verwendet der Google-Crawler jetzt auch IP-Adressen außerhalb der Vereinigten Staaten.

Today we’re introducing new locale-aware crawl configurations for Googlebot for pages that we detect may adapt the content they serve based on the request’s language and perceived location. These are:

  • Geo-distributed crawling where Googlebot would start to use IP addresses that appear to be coming from outside the USA, in addition to the current IP addresses that appear to be from the USA that Googlebot currently uses.
  • Language-dependent crawling where Googlebot would start to crawl with an Accept-Language HTTP header in the request.
locale_adaptive_pages

Quelle: Google

Trotz dieser Neuerungen empfiehlt Google weiterhin die Auszeichnung der unterschiedlichen Sprachversionen einer Website mittels hreflang. Informationen zum Einsatz und der richtigen Konfiguration von hreflang gibt es bei SISTRIX.

Weitere Information zum Thema:
Google Webmaster-Tools Hilfe: Auf das Gebietsschema ausgerichtetes Crawling durch den Googlebot

Responsive Content im Responsive Design oder separate Mobil-URL?

4 Kommentare

Auf SEO Scene hat Frank Doerr ein Interview mit Nina Schäfer von Shopgate veröffentlicht. Die beiden thematisieren in diesem Interview die verschiedenen Möglichkeiten einem mobilen Nutzer die eigene Website anzuzeigen. Dabei stellen sie die Darstellung mittels responsive Webdesign und der Nutzung der Shopgate-Technologie gegenüber.

Responsive Design

Quelle: Shutterstock

Mit dem responsive Webdesign passt sich das Websitedesign in seinen Abmessungen und der Anordnung der Websiteelemente automatisch auf das vom Besucher verwendete Endgerät an. Bei Shops kann es allerdings sinnvoll sein, die Desktop-Seite und die Seite für mobile Endgeräte nicht nur in einem angepassten Design, sondern mit jeweils anderen Inhalten auszuliefern – denn wie Nina Schäfer betont, „[haben] Smartphone-Kunden […] andere Bedürfnisse und Vorstellungen an das Einkaufserlebnis eines mobilen Shops als PC-Benutzer. Das Gleiche gilt für Tablet-Shopper, die wiederum anders angesprochen werden müssen als Smartphone-Kunden. Dazu kommt eine schier unübersichtlich große Anzahl an unterschiedlichen Bildschirmgrößen, die berücksichtigt werden müssen – eine optimale Anpassung für jedes Gerät wird somit zusätzlich erschwert.“ Sie empfiehlt daher, für jedes Gerät (Laptop. Desktop-PC, Smartphone, Tablet) eine eigene Seite aufzubauen, die dann die Bedürfnisse des Nutzers optimal erfüllt.

Um unterschiedlichen Besuchern auch unterschiedliche Inhalte ausliefern zu können, kann einerseits mit “Responsive Content” gearbeitet werden. Dazu müsste per media query festgelegt werden, wie die Anordnung der Elemente auf unterschiedlichen Geräten aussieht. Mit JavaScript oder Ajax wird dann gesteuert, welche Inhalte bei welcher Bildschirmauflösung ausgegeben werden.

Andererseits könnte mit einer statischen Seite (beispielsweise m.seo.at) gearbeitet werden, die sozuagen alle mobilen Inhalte bündelt – hier würde allerdings nicht zwischen Tablet und Smartphone unterschieden, weder im Design noch in Punkto Inhalt. Auch besteht die Gefahr, dass in den SERPs neben der Desktop-Version auch die mobile Version angezeigt wird. Auch besteht die Gefahr von duplicate Content – dies kann aber mittels canonical-Tag behoben werden.
Die Gefahr von duplicate Content oder der Anzeige von mobilen Ergebnissen in der Desktop-Suche könnte bei einem responsive Design eliminiert werden.

Was denkt ihr? Welche Variante ist am praktikabelsten? Nutzt ihr ein responsive Design oder eine eigene Domain für Eure mobile Website? Was haltet ihr von “Responsive Content”?

Das Interview von Frank Doerr mit Nina Schäfer auf SEO Scene findet ihr hier: Mobile Commerce: App plus mobile vs. Responsive Webdesign

Weitere Informationen zum Thema:
Google-Informationen zu media queries findet ihr hier: CSS-Medienabfragen für Responsivität verwenden
Anleitungen zur Umsetzung von Responsive Content findet ihr auf Deutsch und Englisch.

“Sperre den Googlebot nicht von Deiner mobilen Website aus”

1 Kommentar

Wie Google Mitarbeiterin Zineb Ait Bahajji heute morgen auf Google+ bekanntgab, zeigt Google nun an, ob der, vor einem Jahr als Ersatz des Googlebot-mobile user-agent eingeführte, Googlebot for smartphones, Zutritt zu mobilen Websites hat oder nicht. Falls er per robots.txt ausgesperrt wird, wird die betroffene Seite anstelle der Meta-Description mit folgender Meldung angezeigt:

Da der Googlebot per robots.txt für das Crawlen der Website gesperrt worden ist, wird diese Information angezeigt. Quelle: Google+

Da der Googlebot per robots.txt für das Crawlen der Website gesperrt worden ist, wird diese Information angezeigt. Quelle: Google+

Damit geht Google seinen Weg stringent weiter, mobile Websites bestmöglich zu verstehen und so zu rendern, wie der Smartphone-Benutzer sie sieht. Nur auf diese Weise kann die Suchmaschine herausfinden, ob die Website “mobile-friendly” ist, oder Probleme bei der Darstellung auf Mobilgeräten auftreten.

Wenn ihr manche Fragmente Eurer Website per robots.txt sperrt, vor allem wenn es JavaScript und CSS-Dateien sind, dann wird es für Google unmöglich die Website so anzuzeigen, wie der Benutzer sie sieht. Da der Googlebot die Informationen auf der Seite dann nicht (vollständig) auslesen kann, wird keine Meta-Description in den SERPs angezeigt werden.

Barry Schwartz hat es auf Search Engine Roundtable auf den Punkt gebracht:

Google really, really, really doesn’t want you to block them.

Den vollständigen Post von Zineb Ait Bahajji findet ihr hier:

Google+_ZinebAitBahajji_Post

Google-Leitfaden zur Optimierung der Website für Mobilgeräte

2 Kommentare

Falls Eure Website bei dem mobile-friendly Test negativ abschneidet, könnt ihr nach Vorgaben eines Google-Leitfadens Eure Website für Mobilgeräte optimieren.

Der Leitfaden ist für viele Content-Management-Systeme verfügbar, die Google folgendermaßen auflistet:

  • WordPress
  • Joomla
  • Drupal
  • Blogger
  • vBulletin
  • Tumblr
  • DataLife Engine
  • Magento
  • PrestaShop
  • Bitrix

Nach einem Klick auf das jeweilige System, zeigt der Leitfaden Schritt für Schritt, wie die auf diesem System basierende Website für Mobilgeräte optimiert werden kann. Den Leitfaden findet ihr im Google Developers-Bereich.

Da Google in den letzten Tagen Meldungen an Webmaster nicht mobil-optimierter Websites verschickt hat, ist eine für Mobilgeräte optimierte Website umso wichtiger.

Neue, hochwertige Links können einer Website helfen dem Penguin zu entkommen

Kommentar verfassen

Wie Googles John Mueller Ende letzten Jahres erklärte, hilft es einer von der algorithmischen Pinguin-Penalty betroffenen Website, wenn sie neue hochwertige Links – beispielsweise allgemeine Empfehlungen von anderen Seiten oder Quellenverweise auf diese Seite – bekommt. Google schaut demnach, ob sich eine, in eine algorithmische Penalty geratene, Website positiv entwickelt und (wieder) qualitative eingehende Link bekommt. Dies wird, laut Mueller, positiv gewertet und kann helfen dem Penguin schneller zu entkommen.

Search Engine Roundtable spekulierte, dass es auf diese Weise sogar möglich ist, auch ohne Linkabbau oder die Benutzung des Disavow-Tools, dem Penguin zu entkommen. Mueller empfiehlt allerdings trotzdem Linkabbau zu betreiben und nicht abbaubare Links durch die Disavow-File zu entwerten – Webmaster sollten sich für die Benutzung des Disavow-Tools nicht schämen.

Die Originalaussage von John Mueller findet ihr im unten eingebetteten Videomitschnitt vom Webmaster Central office-hours hangout: