Chrome zeigt bald HTTP-Seiten als unsicher an

Kommentar verfassen

Parisa Tabriz, Team-Lead des Google-Security-Engineering-Teams hat per Twitter angekündigt, dass Googles eigener Browser in Zukunft Seiten, die ihre Inhalte ohne SSL-Verschlüsselung ausliefern mit einem speziellen Symbol gekennzeichnet. Dies soll zeigen, dass sie unsicher sind:

Das entsprechende Symbol wird anstelle des Favicons auftauchen und ein graues Schloss mit einem roten „X“ sein. t3n hat einen Screenshot dazu veröffentlicht. Bei HTTPS-Seiten taucht an dieser Stelle ein grünes Vorhängeschloss auf.

Neue Version der Webmaster Guidelines

Kommentar verfassen

Google hat seine Webmaster Guidelines überarbeitet. Die Überarbeitungen beziehen sich größtenteils auf strukturelle Änderungen, jedoch sind auch einige Punkte hinzugekommen.

  • Provide a sitemap file with links that point to the important pages on your site. Also provide a page with a human-readable list of links to these pages (sometimes called a site index or site map page).
  • Design your site to have a clear conceptual page hierarchy.
  • Follow our recommended best practices for images, video, and structured data.

Webmaster Guidelines_Google

Die neuen Struktur der Webmaster Guidelines sieht folgendermaßen aus: Google unterteilt die Richtlinien in „General Guidelines“ und „Quality Guidelines“. In den „General Guidelines“ werden die Themen „Help Google find your pages“, „Help Google understand your pages“ und „Help visitors use your pages“ zusammengefasst. In der Vorgänger-Version der Richtlinien unterteilte Google die Punkte noch in „Design and Content Guidelines“ und „Technical Guidelines“. Einen Blick auf die alten Webmaster Richtlinien könnt ihr bei Barry Schwartz auf Search Engine Roundtable werfen, er hat sie per Screenshot festgehalten. Den Bereich der Qualitätsrichtlinien hat Google nicht überarbeitet.

Machine Learning? Warum bringt Google „blautöne“ und „reptilienarten“ in Verbindung?

4 Kommentare

Martin Missfeldt hat auf Facebook einen interessanten Screenshot von Google Suggest gepostet. So schlägt die Suchmaschine bei der Eingabe der Suchanfrage „blautöne“ das Keyword „reptilienarten“ vor:

Martin_Missfeldt_Post_blautoene_Facebook

Auch die Google Trends zeigen, dass ein statistischer Zusammenhang zwischen „blautöne“ und „reptilienart“ besteht:

Google_Trends_Blautoene_Reptilienart

Wir Menschen würden diese beiden Begriffe nie in einen Zusammenhang bringen. Auch wenn es Reptilien mit blauen Pigmenten, wie beispielsweise den Malachit-Stachelleguan, gibt, so wird nur ein sehr geringer Prozentsatz aller Google-Nutzer diese Farbe mit einer Reptilie in Verbindung bringen. Daher muss es eine andere Erklärung für diesen Zusammenhang für Google geben.

Gibt man „reptilienart“ bei Google ein, so tauchen auf den ersten fünf Plätzen Websites auf, die Lösungen zur Smartphone-App 94% anbieten:

Google_Reptilienart

Die Suchanfrage „blautöne“ liefert immerhin zwei Websites mit Lösungen zur Smartphone-App 94%:

Google_Blautoene

Ich habe einmal stichprobenartig einige der Websites besucht. Neben dem Lösungsvorschlag zum Thema „Reptilienarten“ erwähnen alle Websites auch einen Lösungsvorschlag zum Thema „Blautöne“. Sieht Google dadurch einen Zusammenhang? Lernt Google auf diese Weise schon? Können wir hier beim „Machine Learning“ live mit dabei sein?

Keywordrecherche für Online-Journalisten

4 Kommentare

Dass sich Online- und Print-Journalismus grundlegend voneinander unterscheiden, ist nichts Neues. Denn auch wenn sich bei beiden Medien Überschneidungen in der Zielgruppe finden – so lesen beispielsweise Welt.de-Leser bestimmt auch gerne die gedruckte Zeitung oder sind wiederkehrende Leser, wenn nicht sogar Abonnenten. Doch ein nicht geringer Anteil der Welt.de-Leser surfen das Online-Portal nicht gezielt an, weil die Welt „ihre“ Zeitung ist, sondern kommen über Google. Das Statistikportal Statista zeigt dies in der folgenden Grafik:

Neben den „Stammlesern“ kommen viele Besucher über die Google-Suche oder Google-News. Dazu geben sie Suchanfragen ein und klicken auf das für sie am attraktivsten und informativsten aussehende Ergebnis. Um allerdings mit ihrem Text für die Suchanfrage zu ranken, müssen Journalisten umdenken.
Früher in Print-Zeiten galt es noch möglichst Doppelungen zu vermeiden und Synonyme zu verwenden, damit ein Text ansprechend war. Im Online-Journalismus helfen Doppelungen dagegen deutlich zu machen, um welches Thema es im Text geht. Doch noch viel wichtiger: Es müssen die richtigen Wörter im Text verwendet werden. Redakteure sollten beim Verfassen eines Textes an die Suchbegriffe denken, nach denen ihre Zielgruppe – genauer gesagt ihre Leser – suchen würden. Und da die Google-Besucher ja meist keine Stammleser sind, müssen sie einen möglichst großen Querschnitt aller Internetnutzer treffen – Stichwort „hohes Suchvolumen“.

Auf dem Blog „Lousy Pennies“ hat Stephan Goldmann einen Artikel veröffentlicht, in dem er deutlich macht, dass Journalisten ja für den Leser publizieren und daher auch darauf achten sollten, dass der Leser die publizierten Inhalte findet. Also sollten man sich auch im Sprachumfeld des Lesers aufhalten und Wörter nutzen, die der Leser auch benutzt. Denn ein potenzieller Leser wird nur Worte aus seinem Sprachumfeld ins Suchfeld bei Google eintippen. Jene Onlinemedien, die sich nicht nach dem Sprachumfeld dieses Lesers richten, würden dann in den SERPs nicht auftauchen – sie nutzen schlicht und einfach die falschen Worte. Und auch wenn Google als Suchmaschine immer klüger wird, so wird es noch lange dauern, bis die Suchmaschine versteht, dass die CHIP-Redakteure mit „Pixelknecht“ nichts anderes als „Bildbearbeitungsprogramm“ meinen.

Tools zur Keywordrecherche

Herauszufinden, in welchem Sprachumfeld sich der Großteil der Internetnutzer aufhält und dann „Leseroptimiert“ zu schreiben, ist gar nicht schwierig. Google selbst hat mehrere hilfreiche Tools auf Lager: Google Suggest, Google Trends und den Google Keyword Planner. Google Suggest klappt auf, wenn ein Google-Nutzer einen Suchbegriff in die Suchleiste eingibt und schlägt weitere Kombinationen mit diesem Suchbegriff vor. Google Trends visualisieren die Häufigkeit von Suchanfragen im historischen Kontext. Damit lassen sich, wie der Name schon sagt, Trends identifizieren. Der Google Keyword Planner ermittelt das Suchvolumen eingegebener Keywords. Auf diese Weise können Publisher herausfinden, nach welchen Suchbegriffen die Internetnutzer suchen und ihren Text anpassen. Auch kann man auf diese Weise sehen, ob potenzielle Leser nach den verwendeten Begriffen in ihrem Text suchen würden. Externe Tools, wie Übersuggest oder das Keywordtool.io, ermitteln für einen eingegeben Suchbegriff alle von Google ausgelieferten Keyword-Vorschläge und generiert neue Vorschläge. Suchvolumina können dann im Google Keyword-Planner eingesehen werden.

Matt Cutts: Starke Auswirkungen des Core-Updates durch viele kleine Anpassungen in der Pipeline

1 Kommentar

Im Online-Format „This Week in Google“, das von twit.TV produziert wird, hat sich Matt Cutts, der sich zurzeit in einer Auszeit befindet, zum letzten Google Core-Update geäußert.

Seiner Auffassung nach haben die Google-Ingenieure den Code vor den Weihnachtstagen „eingefroren“ und diverse Veränderungen dann auf einen Schlag Anfang des Jahres eingespielt. Diese zahlreichen Veränderungen hätten dann zu den starken Ausschlägen im Core-Algorithmus und letztlich auch zu den starken Schwankungen in den diversen SEO-Wetter-Tools geführt.

Seine Aussage im Wortlaut (via Search Engine Roundtable):

[…] my suspicion, I don’t know for sure, that this particular change, I don’t think it was Penguin, it was just been a lot of stuff been building up in the pipeline and the code freeze has been lifted and we’re ready to begin launching stuff. So you see a lot of changes often right at the beginning of the year cause you know, everything has been waiting to go out.

Allerdings ist dies nur eine Vermutung von Matt Cutts. Er befindet sich immer noch in seiner Auszeit und ist daher nicht tief in Google-Interna und -Abläufe involviert.

Google lässt sich Zeit beim Reindexieren von Bildern

Kommentar verfassen

Andrew Rodgers, ein SEO aus Dublin hat John Mueller via Twitter gefragt, wie oft der Googlebot noch Änderungen an bereits indexierten Bildern sucht.

Die Antwort von John:

Wer also ein Bild, welches einmal im Index von Google gelandet ist, durch ein Update ersetzen will, der muss sich in Geduld üben – reindexiert wird es in jedem Fall.

„Das wird Punk!“ Jan Kutschera verlässt TRG und widmet sich eigenen Projekten

1 Kommentar

Per Facebook hat der ehemalige Geschäftsführer von TRG bekanntgegeben, dass er seinen Posten als Geschäftsführer bei The Reach Group aufgibt.

Jan_Kutschera_ankündigung_Facebook

„Allerdings bin ich nach wie vor Gesellschafter und von dieser Ebene aus natürlich am Erfolg des Unternehmens interessiert“, erklärt er uns im Interview. Doch nicht nur mir wird die Frage nach dem „Warum?“ auf der Zunge gelegen haben. Jan hat uns die Frage beantwortet:

Warum hast Du Dich zu diesem Schritt entschlossen?
„Wir haben nach dem Zusammenschluss alle ehemaligen Geschäftsführer der verschmelzenden Unternehmen in ihrer Position belassen, das war erst einmal der einfachste Schritt um die Unternehmen zusammenzuführen. Das sechs Geschäftsführer bei einem Unternehme dieser Größe allerdings zu viele sind war uns damals schon klar. Um das Unternehmen nun zielgerichtet nach vorne zu bringen war der erste konsequente Schritt nun also die Geschäftsführung zu verkleinern. Neben mir sind ja auch André Koegler und Philipp Roth aus der Geschäftsführung ausgeschieden. Diese werden allerdings operativ weiter arbeiten. Für mich also ein Wendepunkt an dem ich einfach mal eine Abbiegung genommen habe, bei der diejenigen die ich Freunde nenne sagen: Es wird Dir besser tun. Ich bin also gespannt. Manchmal ist es besser etwas loszulassen und sich auf neues einzulassen.“

In den nächsten Wochen wird er mit seiner neuen Freiheit „eine Menge Gespräche führen“, aber auch für beratende Tätigkeiten bei TRG zur Verfügung stehen. In der weiteren Zukunft wird er sich auch weiterhin an anderen Unternehmen beteiligen und ihnen mit seinem Wissen zur Verfügung stehen.

Doch Jan hat noch mehr verraten. Und zwar plant er ein Content Bootcamp. Das hat er auf seiner Website www.jankutschera.de angeteasert:

In den nächsten Monaten möchte ich mit Deiner Hilfe und vielen anderen das Content Bootcamp durchlaufen. Das bedeutet für mich: ich möchte mein Wissen und meine Einstellung gegenüber Formaten einfach mal über Board werfen und unbefangen an die Erstellung von Content gehen. Dabei ist Content für mich nicht nur Text, Video, Grafik und Foto sondern alles was man darstellen kann. Von der Idee zum Produkt bis hin zu visuellen und nonvisuellen Inhalten. Vom Video bis zur Veranstaltung, vom Webinar bis zum Dub Mix, vom Produkt bis zur Mitarbeiterkommunikation. Dabei sollst Du mich begleiten, mich kritisieren und mir sagen, was Du Scheiße findest. Du darfst mitmachen, Du darfst zusehen oder weggucken.

Jan wird also Inhalte erstellen und sich im laufenden Prozess das Feedback seiner Zuschauer holen und dieses umsetzen. Das Ziel soll es sein, dass er und auch seine Zuschauer/Mitwirkenden aktiv voneinander lernen können, um noch besseren Content zu erstellen. Dazu dient seine Website als grundlegende Plattform, auf der sich interessierte Nutzer mit ihrer E-Mail registrieren können.

Uns hat er noch ein bisschen mehr zu seinen Plänen erzählt:
„Nun es gibt www.jankutschera.de als grundlegende Plattform dessen, was ich erstmal Content Marketing Bootcamp genannt habe. Auch hier gibt es eine Ahnung wohin es sich entwickeln kann, aber ich möchte gemeinsam mit den Teilnehmern da hinein gleiten. Wer weiß welche Richtung es nimmt. Dem möchte ich nicht vorweggreifen. Es wird auf jeden Fall sehr Interaktiv, es ist kostenlos und jeder kann mitmachen. Wichtig ist: ich möchte durchaus mit Formaten scheitern. In der Vergangenheit war das schwer, daher möchte ich jetzt Gas geben und voll vor die Wand. Entweder knalle ich voll dagegen, oder ich durchbreche sie. Was es aber nicht ist: Es ist kein Kurs, es gibt kein Ebook, man muss nichts machen, aber man darf. Ich bin auch schon ganz nervös, da ich ja live gesehen habe, wer sich in der ersten Stunde bereits alles registriert hat. Ich glaube jetzt einfach mal: Das wird was ganz großes. Das wird Punk!“

Das klingt nach einem spannenden Schritt in die Zukunft. Wir wünschen Jan viel Erfolg dabei und alles Gute! Über das Projekt werden wir Euch weiterhin auf dem Laufenden halten.

Steigende Mobil-Visits schwächen Werbeerlöse von Nachrichtenportalen

Kommentar verfassen

Immer mehr Menschen surfen mobil. So benutzen wir immer öfter unser Smartphone, um eine Wikipedia-Suche durchzuführen, ein Angebot im Supermarkt zu vergleichen oder die nächste Bahnverbindung herauszufinden. Sofern dies nicht über Apps geschieht ist oftmals Google die erste Anlaufstelle. Auch Google merkt den messbaren Anstieg der Mobilnutzung. Letztes Jahr verkündete das Unternehmen, dass die Mobil-Suchanfragen in mehr als 11 Ländern jene über ein Desktop-Gerät übersteigen.

Auch Nachrichtenportale bekommen diese Entwicklung zu spüren. Die Strategieberatung LSP Digital – seines Zeichens Mutterunternehmen des Statistik-Portals „Statista.de“ – hat auf selbigem Portal eine Auswertung der mobilen Visits von vier großen deutschen Nachrichtenportalen im Vergleich zu den mobilen Werbeerlösen veröffentlicht. Diese Auswertung zeigt einerseits den Anteil der Besuche über Mobilgeräte an den Gesamt-Besuchen und andererseits die Anteile der mobilen Werbeumsätze am Gesamt-Online-Umsatz.

Hier wird schnell ersichtlich, dass alle vier Portale mindestens ein Drittel ihrer Besucher über Mobilgeräte akquirieren. T-Online kann mit 29% den geringsten Anteil an Mobilbesuchern verzeichnen, Focus Online mit fast 50% den größten Anteil. Was sofort auffällt: Die Nachrichtenportale verdienen mit mobiler Werbung kaum Geld.
Infografik: Mobile Shift „schmerzt“ unterschiedlich stark | Statista
Mehr Statistiken finden Sie bei Statista

Am schlechtesten monetarisieren Focus.de und T-Online.de. Der Focus erwirtschaftet nur knapp ein Fünftel seiner Gesamt-Werbeeinnahmen über den Mobilauftritt. Doch fast die Hälfte der Besucher kommt über diesen Kanal. Bei T-Online sieht es ähnlich schlecht aus. Die Mobil-Besucher machen fast ein Drittel der Gesamt-Visits aus und das Portal erwirtschaftet lediglich 4% (!) über mobile Werbung.

US-Suchmarkt: Google verliert Desktop-Traffic und Desktop-Marktanteile

1 Kommentar

Laut den aktuellen Statistiken des Webanalyse-Unternehmens comScore konnte Google 2015 im Vergleich zu 2014 über 1 Milliarde weniger Suchanfragen verzeichnen. Allerdings sind die Desktop-Suchanfragen im Allgemeinen auch um rund 1,3 Milliarden zurückgegangen. Am wenigsten Verlust mussten Microsofts Suchmaschine Bing und die Suchmaschine Yahoo hinnehmen, wie aus den folgenden Tabellen ersichtlich wird.

comScore Search Query Report Desktop_2014

Anteile an den US-Desktop-Suchanfragen 2014
© comScore

 

comScore Search Query Report Desktop_2015

Anteile an den US-Desktop-Suchanfragen 2015 © comScore

Könnte dieser generelle Shift der Suchanfragen darauf zurückzuführen sein, dass immer mehr Menschen über ihr Smartphone suchen und nicht mehr mit Desktop-PC oder Laptop? Das der Anteil der Sprachsuchen und lokalen Suchen immer weiter wächst und daher die gut 1,3 Milliarden Suchen von Desktop zu Mobile gewandert sind? Dies vermutet zumindest Greg Sterling von Search Engine Land. Google verkündete im letzten Jahr, dass die mobilen Suchanfragen in 11 Länder, einschließlich der USA, die Desktop-Suchanfragen übersteigen – eine mögliche Ursache.

Google verliert Desktop-Marktanteile an Bing & Yahoo

Allerdings hat Google im US-Desktop-Markt auch Marktanteile verloren. Und zwar gegen seine Konkurrenten Bing und Yahoo. Dies wird aus den folgenden Tabellen ersichtlich (erste Tabelle: 2014, zweite Tabelle: 2015):

comScore Search Share Report Desktop Only_2014

Marktanteile am US-Suchmarkt 2014
© comScore

comScore Search Share Report Desktop Only_2015

Marktanteile am US-Suchmarkt 2015
© comScore

Den Verlust der Marktanteile könnte Google verschmerzen, wenn der Suchmaschinenriese im Gegenzug Marktanteile im Mobil-Markt gutmachen könnte. Denn dort liegt die Zukunft.

 

Andere Crawler können den Googlebot behindern

Kommentar verfassen

Dawn Anderson, SEO aus Manchester hat per Twitter gefragt, ob der Googlebot in seinem Crawling beeinträchtigt wird, wenn viele andere Crawler auf ein und denselben Webserver zugreifen. Webmaster Trends Analyst John Mueller antwortete, dass andere Crawler, die alle zum gleichen Zeitpunkt auf einen Webserver zugreifen, diesen in die Knie zwingen könnten – es gibt zuviele zeitgleiche Requests. Das wird dann auch den Googlebot in Mitleidenschaft ziehen und könnte auf Kosten der Crawl- und Indexierungsgeschwindigkeit gehen:

Denn im WWW tummeln sich diverse Crawler, die bei langsamen Webservern für Probleme sorgen könnten. Abhilfe schafft eine gut gepflegte robots.txt, die unerwünschte Webcrawler vom Crawling ausschließt.