“Sperre den Googlebot nicht von Deiner mobilen Website aus”

Kommentar verfassen

Wie Google Mitarbeiterin Zineb Ait Bahajji heute morgen auf Google+ bekanntgab, zeigt Google nun an, ob der, vor einem Jahr als Ersatz des Googlebot-mobile user-agent eingeführte, Googlebot for smartphones, Zutritt zu mobilen Websites hat oder nicht. Falls er per robots.txt ausgesperrt wird, wird die betroffene Seite anstelle der Meta-Description mit folgender Meldung angezeigt:

Da der Googlebot per robots.txt für das Crawlen der Website gesperrt worden ist, wird diese Information angezeigt. Quelle: Google+

Da der Googlebot per robots.txt für das Crawlen der Website gesperrt worden ist, wird diese Information angezeigt. Quelle: Google+

Damit geht Google seinen Weg stringent weiter, mobile Websites bestmöglich zu verstehen und so zu rendern, wie der Smartphone-Benutzer sie sieht. Nur auf diese Weise kann die Suchmaschine herausfinden, ob die Website “mobile-friendly” ist, oder Probleme bei der Darstellung auf Mobilgeräten auftreten.

Wenn ihr manche Fragmente Eurer Website per robots.txt sperrt, vor allem wenn es JavaScript und CSS-Dateien sind, dann wird es für Google unmöglich die Website so anzuzeigen, wie der Benutzer sie sieht. Da der Googlebot die Informationen auf der Seite dann nicht (vollständig) auslesen kann, wird keine Meta-Description in den SERPs angezeigt werden.

Barry Schwartz hat es auf Search Engine Roundtable auf den Punkt gebracht:

Google really, really, really doesn’t want you to block them.

Den vollständigen Post von Zineb Ait Bahajji findet ihr hier:

Google+_ZinebAitBahajji_Post

Neue, hochwertige Links können einer Website helfen dem Penguin zu entkommen

Kommentar verfassen

Wie Googles John Mueller Ende letzten Jahres erklärte, hilft es einer von der algorithmischen Pinguin-Penalty betroffenen Website, wenn sie neue hochwertige Links – beispielsweise allgemeine Empfehlungen von anderen Seiten oder Quellenverweise auf diese Seite – bekommt. Google schaut demnach, ob sich eine, in eine algorithmische Penalty geratene, Website positiv entwickelt und (wieder) qualitative eingehende Link bekommt. Dies wird, laut Mueller, positiv gewertet und kann helfen dem Penguin schneller zu entkommen.

Search Engine Roundtable spekulierte, dass es auf diese Weise sogar möglich ist, auch ohne Linkabbau oder die Benutzung des Disavow-Tools, dem Penguin zu entkommen. Mueller empfiehlt allerdings trotzdem Linkabbau zu betreiben und nicht abbaubare Links durch die Disavow-File zu entwerten – Webmaster sollten sich für die Benutzung des Disavow-Tools nicht schämen.

Die Originalaussage von John Mueller findet ihr im unten eingebetteten Videomitschnitt vom Webmaster Central office-hours hangout:

Webmaster denken über Wechsel von HTTPS zurück zu unverschlüsseltem HTTP nach

6 Kommentare

Wie Barry Schwartz auf Search Engine Roundtable berichtete, denken einige Webmaster über einen Wechsel zur unverschlüsselten Verbindung mittels HTT-Protokoll nach. Er bezieht sich damit auf einen Beitrag im WebmasterWorld-Forum, in dem ein Nutzer schrieb, dass er HTTPS nicht unbedingt für seine Informations-Website benötigt, die keine sensiblen Kundendaten speichert und auch bisher keine nennenswerten Rankingauswirkungen bemerkt habe:

I tested https for a while and I decided to switch back to http. Quelle: WebmasterWorld.com

The main reasons are:
– I don’t really need https for an informational website
– I don’t see any ranking nor trust improvement […] Quelle: WebmasterWorld.com

Dieser Thread darf natürlich nicht verallgemeinert werden. Ob es schon viele Webmaster sind, die über einen Wechsel nachdenken wird nicht erkenntlich.

John Mueller kommunizierte Ende September letzten Jahres, dass ein Wechsel von HTTP auf HTTPS vorerst keine signifikanten Rankingveränderungen auslösen würde – daran wird sich bis heute nichts geändert haben, denn es gibt keine anderslautende Äußerung seitens Google.

Nun ist natürlich die Frage, ob Webmaster nun den Schritt zurück gehen sollten oder weiter abwarten, ob Google Websites mit HTTPS mit besseren Rankings belohnt. Man sollte auch an die Besucher denken. Ist es nicht ein gutes Gefühl, wenn man als Nutzer sieht, dass die persönlichen Daten verschlüsselt übertragen werden? Besucht ihr eine Website eher, wenn sie die Information mittels HTTPS ausliefert?

Frank Doerr zeigt typische Problemfälle bei SEO für Online-Shops

Kommentar verfassen

Auf SEO-Scene.de hat Frank Doerr aufgezählt welche Probleme typisch für die Suchmaschinenoptimierung von Online-Shops sind. Dabei stellen die verschiedenen Shopsysteme und Plugins, die im Einsatz sein können neben schlechter Kommunikation von Hostinganbieter zum Kunden, als auch die Zusammenarbeit zwischen SEO und Shop-Agentur Problem-Potenziale dar.

Das größte Problem sind allerdings Shop-Agenturen, die überhaupt kein Interesse an der Zusammenarbeit mit einem SEO haben, weil sie glauben, dies selbst zu können oder weil es an ihrer marketingtechnischen Allmachtsphantasie kratzt. Denn wenn die SEO-Analyse zeigt, dass die Hausaufgaben nicht zu meiner vollsten Zufriedenheit gemacht wurden (und das war bislang stets der Fall), dann gibt es zumindest mit solchen Agenturen ein großes Problem. Und führt früher oder später zu meinem Rat an den Kunden: „Wechseln Sie die Web-Agentur!“

Die interessanten Einblicke in den Agenturalltag gepaart mit vielen hilfreichen Tipps zur Problembehebung findet ihr auf SEO Scene: SEO für Shops – typische Problemfälle

Webprojekt Quondos startet am 21. Januar in Deutschland

Kommentar verfassen

Quondos.de ist laut eigenen Aussagen eine “kostenpflichtige E-Learning-Plattform für Online-Marketing”, auf der jede Woche mehrere Videos zu den Schwerpunkten SEO und Online-Marketing veröffentlicht werden. Das Besondere an dem Konzept von Quondos.de ist die Umsetzung – die Mitglieder können hautnah miterleben, wie sich die Webprojekte zweier gegnerischen Parteien entwickeln. Am 21. Januar startet die vormals nur in Spanien nutzbare Plattform auch in Deutschland. In dieser neuen Runde treten Julian Dziki und Nicolas Sacotte aus Deutschland gegen Carlos Bravo und Alex Navarro aus Spanien an – die Aufgabe ist es ein Webprojekt “von Null an” aufzubauen. Die Abonnenten sehen in regelmäßigen Videos den Verlauf der Projekte und können Learning direkt aus der Praxis ziehen.

Die Kosten für ein Monatsabo liegen bei 29 Euro, 12 Monate kosten 299 Euro.

Yes we launch! Quondos startet am 21. Januar – die offizielle Ankündigung als Blogpost.

Tutorial zur Einbindung der Sitelinks Search Box

Kommentar verfassen

Seit einiger Zeit zeigt Google eine Suchbox in den Suchergebnissen an – damit lassen sich noch in den SERPs interne Suchen in der Website durchführen. Diese seit September 2014 implementierte Funktion muss allerdings zuerst eingerichtet werden. Kai Spriestersbach zeigt auf dem Search One-Blog, wie man die Sitelinks Search Box auf zwei Wegen (JSON-LD Markup und microdata Markup) für die eigene Website baut – das Tutorial findet ihr hier: Tutorial: Interne Suche direkt im Suchergebnis

Termfrequenz geht an den Start und übernimmt SEO House

Kommentar verfassen

Seit dem Ende von Radio4SEO im Oktober 2014, befand sich das Thema SEO-Podcast auf Halde. Nun starten Jens Fauldrath, Markus Walter, Markus Kellermann, Eric Kubitz und Kai Spriestersbach mit termfrequenz.de einen neuen Podcast-Host, der heute mit seiner ersten Sendung dem “SEO House” startete. Manche werden die “SEO House”-Show noch als Show von Radio4SEO kennen – das House hat nun eine neue Heimat.

SeoHouseShow-400x400px

Quelle: termfrequenz.de

Mit dem Ende von radio4SEO haben wir uns alle gefragt, wie es weiter geht. Carlos und Thomas waren schon weg. SEMFM und Björn haben sich eine eigene Heimat gesucht. Ich wollte aber gerne die Kombination der verschiedenen Themen beibehalten. Was also tun? Zum Glück hatte ich noch die Domain termfrequenz in meinem Bestand. Irgendwie erschien mir diese passend für einen Podcast-Host. Immerhin versenden wir hier Terme. Und eine kleine Konnotation zu unserem Thema hat sie auch noch. Gesagt, getan! Jens Fauldraht, auf termfrequenz.de

Die Ankündigung von Jens Fauldrath zum SEO House 55 im Original: SEOHouse 55: Wir sind wieder da!

Bing benennt drei Faktoren für Content Qualität – was lässt sich daraus ableiten?

2 Kommentare

Im Dezember letzten Jahres hat die Suchmaschine von Microsoft – Bing – einen Blogpost veröffentlicht, in welchem der Senior Program Manager des Bing Content Quality Teams, Michael Basilyan, zeigt, wie Bing die Qualität von Inhalten misst und bewertet. Die Qualität von Inhalten ist laut Basilyan ein primärer Rankingfaktor für Bing und reiht sich in die folgende Ranking-Formel ein:

ranking-topical-relevane-context-content-quality-1024x107

Quelle: Bing Blogs

Doch wie misst und definiert Bing die Qualität von Inhalten? Sie teilt sich auf drei Faktoren auf – “Authority, Utility und Presentation”. Authority, also frei übersetzt die Expertise, erkennt Bing durch einen eindeutig gekennzeichneten Autor – “admin” als Autor hat einen negativen Impact auf den Faktor, “Max Mustermann” wird sich positiv auswirken. Wenn dieser Max Mustermann dann noch oft zitiert und verlinkt wird oder aber eine aktive Social Media Community befeuert, dann wird er in der Gunst von Bing weiter steigen. Sehr wahrscheinlich wird hier auch der Faktor “Brand” eine große Rolle spielen, sodass Unternehmen und Personen, die ein gewisses Grundvertrauen besitzen von Bing auch von vorne herein eine höhere Expertise besitzen.

Utility, also die Benutzerfreundlichkeit, wird anhand von mehreren Signalen gemessen: Wird der Text klar an eine Zielgruppe adressiert und stimmen Textteile mit der Headline oder Subheadline inhaltlich überein? Wird also das behandelt, was versprochen wird? Auch wertet Bing Schaubilder, Videos und Diagramme positiv. Neben diesen Signalen ist für Bing eine Website die eigenen unique content liefert und keine “recycelten” Beiträge, wertvoller als eine, die als Sammelsurium schon publizierter Beiträge dient oder schon behandelte Themen wieder aufgreift.

Der dritte Faktor “Presentation” erklärt sich eigentlich von selbst: Eine Website, bei der der Besucher vor lautet Werbung gar keinen Content findet, bzw. diesen erst suchen muss, wird in diesem Kapitel einige Einbußen hinnehmen müssen. Eine klar strukturierte Website mit einer eindeutigen Navigation, wo Besucher ohne großartiges Scrollen schon direkt Content above-the-fold finden, wird dagegen viel besser abschneiden.

Nun hat Bing in Deutschland noch einen sehr geringen Anteil am Suchmaschinenmarkt – laut Webtrekk lag der Anteil im vierten Quartal 2014 bei 3,3%. Suchmaschinenriese Google dagegen verbucht einen Anteil von 92,9% – man kann quasi von einem Google-Monopol sprechen.

Webtrekk Suchmaschinen Anteile Q4:2014

Webtrekk Suchmaschinen Anteile Q4/2014. Quelle: Webtrekk

Es stellt sich also die Frage, ob man die Qualitätsmerkmale von Bing auf Google transferieren kann, also wenn man SEO betreibt (und mit einem Marktanteil von über 90%, kann man fast von Google-SEO sprechen), auf die drei Faktoren “Authority, Utility und Presentation” achten sollte? Die Frage beantwortet sich von selbst: Es ist wichtig diese Faktoren zu berücksichtigen, denn so können Inhalte entstehen, die einen Mehrwert bieten und denen die Leser vertrauen – auch sehr im Sinne von Google. Was meint ihr?

Google URL Builder hilft bei Identifizierung von Website-Besuchern

Kommentar verfassen

Google Analytics ist ein mächtiges Tool zur Analyse der Besucher einer Website – so können Webmaster häufige Suchbegriffe herausfiltern über die Besucher zu ihrer Website gelangen. Ebenso können per Google Analytics die Traffic-Quellen und häufige Referrer ermittelt werden.

Nun gibt es unter den Trafficquellen manchmal die Quelle “(Direct)” und das Medium “(none)”.
Quelle (direct)_Google Analytics Screenshot
Doch hiermit ist nicht zwangsläufig ein direkter Besuch der Website über die URL-Eingabe in die Adresszeile des Browsers gemeint. Wie lunapark.de schreibt, gibt es einige weitere Wege: So zählen angeklickte Link in E-Mails, Zugriffe aus mobilen Apps, Links aus Dokumenten (PDF, Word o.ä.), wie auch manche Weiterleitungen über Shortener-Dienste (beispielsweise durch Klick auf einen gekürzten Link in einem Tweet) dazu.

Doch wie kann man nun herausfinden, woher die Besucher kommen? Haben sie auf einen Link im E-Mail Newsletter geklickt oder hat sie ein Tweet zur Website gebracht? Um genau herauszufinden woher die Besucher kommen, muss ein Link mit eindeutigen Parametern vertaggt werden. Dabei hilft, laut Lunapark.de, der Google URL Builder. Hier kann der Link mit einer eindeutigen Kennzeichnung versehen werden – beispielsweise “E-Mail” und schon taucht als Quelle “E-Mail” in Google Analytics auf. Natürlich bedeutet eine manuelle Vertaggung aller Link einen Mehraufwand, allerdings kann so exakt nachgehalten werden über welches Medium die Besucher auf die eigenen Website gelangen.

Lunapark.de: Direct Traffic in Google Analytics: Was verbirgt sich dahinter?
Google URL Builder: Tool zur URL-Erstellung

Spanien: Nur geringer Traffic-Einbruch durch Abschaltung von Google News

Kommentar verfassen

Seit knapp einem Monat ist die Newsseite von Google in Spanien nun abgeschaltet. Besucher, die news.google.es ansurfen, sehen einen Hinweis, dass das Angebot aufgrund spanischer Gesetze eingestellt werden musste. Zur Erinnerung: Laut spanischem Gesetz muss Google für die Ausschnitte von redaktionellen Inhalten der spanischen Zeitungen und Newsportalen Gebühren zahlen – vergleichbar dem deutschen Leistungsschutzrecht. Doch anders als beim Leistungsschutzrecht sieht das spanische Gesetz nicht vor, dass die Verlage auf die Gebühren verzichten, also eine Einwilligung zur Gratisnutzung erteilen, berichtet Chip. So müssen wohl oder übel alle spanischen Verlage auf die Trafficquelle Google News verzichten – und da Google News ein kostenloses Angebot von Google ist, will das Unternehmen dafür nicht zahlen:

But sadly, as a result of a new Spanish law, we had to close Google News in Spain. This legislation requires every Spanish publication to charge services like Google News for showing even the smallest snippet from their publications, whether they want to or not. As Google News itself makes no money (we do not show any advertising on the site) this new approach was not sustainable.

shutterstock_174393956_ UrheberTwin Design

Viele Nutzer von Google.es wurden in der Vergangenheit über die Google Suche zu den Google News geleitet. Nun werden sie wahrscheinlich direkt auf die Internetauftritte der Zeitungen und Newsportale verwiesen – sofern die Portale gute Suchmaschinenoptimierung betreiben. Quelle: Shutterstock

Das Newsportal Search Engine Journal hat untersucht, wie stark der Traffic-Einbruch durch die Abschaltung von Google News ausgefallen ist. Um es schon vorweg zu nehmen: Bei den großen spanischen Zeitungen und Newsportalen fiel der Traffic, der über die News kam, sehr gering aus – so haben sie auch nur einen Traffic-Einbruch von im Schnitt 2-3 % zu verzeichnen. Eine interessante Entdeckung macht Natalie Halimi, die Autorin des Search Engine Journal Artikels, zum Schluss ihrer Analyse: Google News hatte einen sehr hohen Anteil an Traffic durch Referrer, also Websites, die auf Google News verwiesen. In einer näheren Betrachtung war der größte Referrer die Google Suche – ein Indiz dafür, dass viele Nutzer über die Google Suche zu den Google News gelangten. Falls dem so sein sollte, dann müssten die spanischen Verlage keine Angst haben, denn die Besucher würden weiterhin auf ihre Websites kommen: Und zwar direkt über die organische Suche und nicht über Umwege durch Google News. So ist wohl nun wieder klassische Suchmaschinenoptimierung am Zug – denn die bevorzugte Behandlung durch die Eintragung in die Google News entfällt ja seit Mitte Dezember.

Wie ihr in Deutschland eine Website bei Google News eintragt, zeigt Soeren Eisenschmidt in einem aktuellen Blogpost auf Eisy.eu.