TOP-MELDUNGEN
AKTUELLE MELDUNGEN

Nichts als die Wahrheit: Google misst Vertrauenswürdigkeit von Websites

1 Kommentar

Update 3.3.2015:
Wie genau der Algorithmus arbeiten soll, zeigt der Blogger Christoph Kappes. Der Algorithmus isoliert aus einer Textpassage eine Aussage und zerlegt diese in Subjekt, Prädikat und Objekt. Kappes zeigt dies anschaulich an einem Beispiel:

Wenn ein Satz lautet „In der Wochenzeitung, die Dienstag erschien, wurde der 6jährige Staatspräsident Müller von einer achtarmigen Kellnerin erschossen“, dann sind hierin drei Fakten versteckt, welche die Maschine speichert, zum Beispiel eine achtarmige Kellnerin.

Aus dieser Textpassage isoliert der Algorithmus die “achtarmige Kellnerin” und ordnet sie in Subjekt, Prädikat und Objekt ein. “Das Subjekt ist „Kellnerin“, das Prädikat „hat-Arme“ und das Attribut ‘8’”, erklärt Kappes. Dieses sogenannte “Triplet” speichert Google ab und gleicht es mit den Informationen anderer Websites ab – sofern es übereinstimmt und auf einer Website eine hohe Anzahl weiterer übereinstimmender “Triplets” gefunden werden, wird diese als vertrauenswürdig eingestuft.

Somit ist die Marschrichtung von Google eher Websites herauszufiltern, die vertrauenswürdig sind und diese öfter anzuzeigen. Sehr wahrscheinlich werden die “Triplets” mit Datenbanken, wie “FactCheck.org” abgeglichen, um eine zusätzliche Sicherheit zum Vertrauenswürdigkeit der Informationen zu gewährleisten.

Artikel vom 2.3.2015:
In einem wissenschaftlichen Aufsatz zeigen Google Mitarbeiter die Zukunft der Suchmaschine. “Knowledge-Based Trust: Estimating the Trustworthiness of Web Sources” ist der Titel der Arbeit und zugleich auch die Marschrichtung der Zukunft für den Marktführer in Deutschland.

We propose a new approach that relies on endogenous signals, namely, the correctness of factual information provided by the source. A source that has few false facts is considered to be trustworthy.

Bisher zählten Backlinks als wichtiges Ranking-Kriterium. Schon seit einiger Zeit wird die Quantiät der Links immer unwichtiger und es zählt die Qualität der Links. Eine Website kann also nicht mehr nur dank tausender Backlinks gut ranken, sondern es müssen vor allem relevante Links von vertrauenswürdigen Quellen sein. Neben diesen hochwertigen Links, zählt auch guter Content mit hohem Mehrwert für den Besucher – und hier kommt der wissenschaftliche Aufsatz der Googler ins Spiel: Um diesen hochwertigen Content als vertrauenswürdig einzustufen müssen, schon als vertrauenswürdig deklarierte, Quellen herangezogen werden und die Inhalte mit diesen Quellen abgeglichen werden. Falls die Website wenig falsche Informationen enthält wird auch sie als vertrauenswürdig eingestuft.

Urheber_ BoBaa22_shutterstock_189816743

Quelle: Shutterstock

Das Funktionsprinzip ist ein Algorithmus, der eine gewaltige Menge Daten (2,8 Milliarden Fakten) aus Apps zum Faktencheck, wie z.B. “FactCheck.org”, herausgezogen hat und nun mit den Daten im Internet abgleicht. Treten hohe Übereinstimmungen auf, wird eine Website als vertrauenswürdig eingestuft – bisher sind es 119 Millionen Seiten.

Mitte Februar berichteten wir schon von einem Google Patent, dass zeigt wie Google die Inhalte im Knowledge Graph verifiziert.

Es wird immer deutlicher, dass Google die Qualität und den Wahrheitsgehalt seiner Ergebnisse verbessern will. So wird es nicht nur relevante Suchergebnisse liefern, sondern auch verlässliche. Wird Google damit in der Zukunft zu einer eigenen Wikipedia? Was denkt ihr?

Den Aufsatz zum Nachlesen findet ihr hier: Knowledge-Based Trust: Estimating the Trustworthiness of Web Sources

Weitere Quellen:
FAZ: Google-Suchmaschine setzt auf Fakten
New Scientist: Google wants to rank websites based on facts not links

Umstrukturierung bei Google+: Aus einem Netzwerk werden drei Dienste

Kommentar verfassen

G+ Logo

Quelle: Google

Google gab heute bekannt, dass Bradley Horowitz die Leitung von Google+ übernimmt. Das bestätigte der Manager auch mit einem Post im sozialen Netzwerk von Google:

Bradley Horowitz übernimmt Google+ Leitung_Confirmation on Google+

Laut dem Googlewatchblog soll sich die Anzahl der Mitarbeiter, die dem Google+-Team angehörten, seit den Anfängen von Google+ unter Leitung von Vic Gundotra, auf knapp die Hälfte verringert haben – der Beginn einer negativen Entwicklung? Das der neue Google+-Topmanager Horowitz, der nur zwischenzeitlich andere Aufgaben im Konzern übernahm, aber neben Gundotra von Beginn an bei Google+ dabei gewesen ist, in seinem Post nur von “Photos” und “Streams” spricht und nicht von Google+ als Gesamtkonstrukt passt zu den Aussagen von Google Produktleiter Sundar Pichai. Der verkündete in einem Interview mit dem Wirtschaftsmagazin Forbes, dass man bei Google zukünftig die Produkte Fotos, Hangouts (Communications) und Google+-Streams getrennt voneinander weiterentwickeln wolle:

I think increasingly you’ll see us focus on communications, photos and the Google+ Stream as three important areas, rather than being thought of as one area.

Quelle: Prismatic

Brauen sich hier dunkle Wolken über dem einst so hoch gehypten sozialen Netzwerk zusammen? Spricht eine Aufspaltung für ein baldiges Ende von Google+?

Der Googlewatchblog fasst die Entwicklungen folgendermaßen zusammen und stellt die beiden Möglichkeiten vor:

Vielleicht ist Horowitz zur sauberen Abwicklung gekommen, vielleicht aber auch um das Netzwerk endlich wieder entscheidend nach vorne zu bringen und doch noch einmal anzugreifen. Zu wünschen wäre es.

Quelle: Googlewatchblog

Google behandelt TLD .berlin per default genauso wie .com

1 Kommentar

Wie Googles John Mueller im vergangenen Webmaster Central office-hours hangout erklärte, wertet Google die neuen Top-Level-Domains (TLD), wie beispielsweise .berlin ebenso wie die Domainendungen .com. Per default, also ohne gesonderte Einstellungen, wird .berlin beispielsweise nicht in den lokalen Suchergebnissen von Berlin stärker gewertet – “Geo-Targeting müsste dafür in den Google Webmaster Tools eingestellt werden”, sagt John Mueller im Hangout.

Wie Geo-Targeting in den Webmaster-Tools eingestellt werden kann, zeigt Google auf seinen Hilfeseiten: Ausrichtung auf Zielländer

Google Places Optimierung

Allein die TLD .berlin reicht nicht um die eigene Website für lokale Suchergebnisse zu optimieren. Ein Google Places Eintrag hilft hier weiter.

Der weitaus wichtigere “Hebel”, um beispielsweise in den Suchergebnissen mit Suchstandort Berlin angezeigt zu werden, ist die Google Places Optimierung – also Eingabe von Adresse, Telefonnummer etc. und im besten Falle auch Empfehlungen (Verlinkungen) von anderen lokalen Unternehmen, Dienstleistern und so weiter. Tipps zur Google Places Optimierung gibt es bei SISTRIX.

Die Originalaussage von John Mueller findet ihr hier:

Suchmaschinen-Marktanteile 2009-2014: Google immer obenauf, T-Online verliert an Bing

1 Kommentar

Auf Basis der Webtrekk Webstatistiken, die das Berliner Unternehmen quartalsweise veröffentlicht, haben wir die Entwicklung der Marktanteile im deutschen Suchmaschinenmarkt seit Aufzeichnung der Statistiken 2009 zusammengetragen.

Dass Google den Suchmaschinenmarkt über den gesamten Zeitraum dominiert, ist nicht weiter verwunderlich – der Gigant hält kontinuierlich 90% oder mehr am deutschen Markt. Wenn man jedoch Google ausblendet wird deutlich, dass sich in den letzten fünf Jahren einiges getan hat – die übrigen rund 10% haben sich zwischenzeitlich gut vermischt und die Plätze auf dem Treppchen hinter der Nummer eins getauscht.

Suchmaschinen-Anteile 2009-2014

Google besetzt über fünf Jahre hinweg dominant die Spitze des Suchmaschinenmarktes.

So sind auf den ersten Blick bei den “anderen Suchmaschinen” Peaks im Jahr 2009, 2010 und 2012 auszumachen. Diese anderen Suchmaschinen werden von Webtrekk nicht genau ausgewiesen, könnten aber unter anderem Duck Duck Go, MetaGer, Blekko und auch WolframAlpha sein. Letztgenannte startete mit großen Ambitionen und wurde von ihren Entwicklern als “Antwort- und Findemaschine” und “Google Killer” vorgestellt. Den Anspruch eine “Findemaschine” zu sein hat Google von seinem Killer nun übernommen – WolframAlpha dagegen konnte sich gegen Google nicht wirklich behaupten. 2010 wurde die Suchmaschine Blekko vorgestellt, die sich als Anti-Spam-Suchmaschine positioniert – auf diese Vorstellung könnte man den Ausschlag des Graphen zu diesem Zeitpunkt zurückführen.

Suchmaschinen-Anteile Zoom Andere_Yahoo_Bing_T-Online

Es wird deutlich, dass zwischenzeitlich immer neue Suchmaschinen am Markt genutzt werden, sich aber nicht wirklich durchsetzen können.

Wenn man nun noch tiefer in die Graphen reinzoomt, wird erkennbar, dass Microsofts Suchmaschine Bing, die 2009 als Nachfolger von Live Search in einer Beta-Phase gestartet, ist kontinuierlich an Marktanteilen gewinnt. T-Online dagegen verliert ab Ende 2009 im gleichen Zuge kontinuierlich. Ob da ein Zusammenhang besteht ist unklar. Von den drei Konkurrenten konnte Bing aber in den fünf Jahren am meisten Marktanteile ergattern, Yahoo blieb mit fast linearem Verlauf bei rund 1% Marktanteil stehen und T-Online musste die größten Einbußen einstecken.

Suchmaschinen-Anteil-Zoom Yahoo_Bing_T-Online

2009 gestartet kann sich Microsofts Suchmaschjne Bing, als Nachfolger von Live Search, gegen die Konkurrenz durchsetzen und nimmt 2009-2010 vor allem T-Online Marktanteile ab.

Welche Suchmaschine nutzt ihr? Warum habt ihr Euch für die Nutzung dieser Suchmaschine entschieden?

“Mobile-friendly” wird ab dem 21. April zum Rankingssignal

2 Kommentare

Wie Google auf dem Webmaster Central Blog bekanntgab, wird die Suchmaschine ab dem 21. April die Mobilfreundlichkeit von Websites als Rankingssignal zählen, um seinen Nutzern nur Suchergebnisse auszugeben, die für ihre Suchanfrage relevant, hochwertig und optimal auf ihrem Gerät lesbar sind:

Consequently, users will find it easier to get relevant, high quality search results that are optimized for their devices.

Bisher wertete Google “mobile-friendly” noch nichts als Rankingsignal, sondern zeigte lediglich das Label in den mobilen Suchergebnissen an. Damit sollte sichergestellt werden, dass Nutzer, die eine Website besuchen wollen, schon im Vorfeld sehen ob die Inhalte dieser Website auf ihrem Mobilgerät korrekt dargestellt werden können und auch ohne Scrollen sichtbar sind.

Im gestrigen Webmaster Central Hangout äußerte sich John Mueller noch nicht eindeutig darüber, ob “mobile-friendly” bald als Rankingsignal für die mobilen Suchergebnisse gewertet wird. Nun ist es aber offiziell. Die Aussagen von John findet ihr im eingebetteten Mitschnitt:

Ob Eure Website “mobile-friendly” ist, könnt ihr mit einem Test von Google herausfinden – falls nicht, gibt Euch der Suchmaschinen-Gigant auch Tipps, um Eure Website mobilfreundlich zu gestalten.

In den mobilen Suchergebnissen wird Google außerdem noch stärker Apps und Inhalte von Apps anzeigen. Dass alle Android-Apps indexiert werden, gab die Suchmaschine schon im Juni vergangenen Jahres bekannt.

Starting today, we will begin to use information from indexed apps as a factor in ranking for signed-in users who have the app installed. As a result, we may now surface content from indexed apps more prominently in search.

Eine schrittweise Anleitung zur Implementierung der App-Indexierung gibt Google auf seinen Hilfeseiten.

Alle Informationen könnt ihr im Google Webmaster Central Blog: Finding more mobile-friendly search results

OM Talk on Air #3 mit Informationen zur Campixx Week

Kommentar verfassen

Vom 9. bis zum 15. März findet die Campixx-Week am Müggelsee statt. Anders als in den letzten Jahren können sich Online-Marketer nun eine ganze Woche auf den neuesten Stand bringen lassen und Wissen austauschen. Am Wochenende vom 14./15. März schließt sich dann die altbekannte SEO Campixx an. Viele Hintergrundinformationen gab heute der Initiator Marco Janck im OM Talk von Soeren Eisenschmidt und Carsten Hinrichs über die SEO Campixx und die Campixx Week bekannt.

Alle Informationen dazu gibt es im unten eingebetteten Video-Mitschnitt des heutigen OM Talk:

Weitere Informationen zu den Thementagen der Campixx Week findet ihr auf der offiziellen Website: Campixx Week 2015

Google erweitert “Flights” um neue Funktionen

Kommentar verfassen

Schon seit 2011 bietet Google eine eigene Flugsuchmaschine an. Google Flights aggregiert, ähnlich wie Fluege.de oder swoodoo.de, die Flüge verschiedener Fluggesellschaften. Bisher konnten Google-Nutzer einen Abflughafen und einen Zielflughafen eingeben, sowie Datum und Uhrzeit und bekamen dann sortiert nach dem günstigsten Flug, die Angebote verschiedener Anbieter angezeigt.

“There are about a trillion flights you could take from New York in the coming year,” said Kourosh Gharachorloo during a demo of the site on Tuesday. The question Google aims to answer: Which of those trillion is the right one for each traveler?

Zitat aus Paul Bradys Artikel auf Condé Nast Traveler

In der schier unendlichen Auswahl von Flügen ist es trotzdem sehr schwierig den “besten” Flug zu finden. Denn die Kriterien für den “besten” Flug sind sehr subjektiv. In einer Kombination aus Flugpreis, Anzahl der Zwischenstopps, Abflugzeiten und Annehmlichkeiten an Bord versucht Google in der neuesten Version von Flights der allgemeinen Definition des “besten” Flugs näher zu kommen und einen großen Querschnitt der subjektiven Kriterien zu erfüllen. Ein weiteres neues Feature ist die Anzeige von Google, wenn der Abflug von einem Flughafen in der Nähe des eingegebenen Flughafens günstiger ist – natürlich gilt dies auch für den Zielflughafen.

Schon seit 2013 hilft Google Suchenden weiter, die zwar wissen ob sie einen Badeurlaub oder einen Städtetrip machen möchten, aber nicht genau wissen welche Stadt oder Badeort es sein soll. Es zeigt daher Vorschläge an, wenn die Sucheingabe eine Region und kein Abflughafen ist:

Google zeigt Regionen statt Abflughäfen an

Weitere Neuerungen beschreibt Paul Brady in einem Blogpost auf dem Condé Nast Traveler-Blog: 5 Reasons You Should Start Using Google’s Flight Search Tool

Auch Google selbst hat heute nochmal auf neue und alte Funktionen aufmerksam gemacht: Get away with Google Flights

Nutzt ihr Google Flights? Sagt Euch die Google Flugsuchmaschine zu? Wie gefallen Euch die neuen und die, wieder ins Gedächtnis gerufenen, alten Funktionen?

suchradar 52: Tag Manager, Blogger-Relations und mehr

Kommentar verfassen

Die neue Ausgabe des suchradars steht zum Download bereit. Im suchradar 52 behandelt die Redaktion von Bloofusion unter anderem das Thema “Google Tag Manager: Konsolidierte Steuerung von Online Marketing Tags”. Mit dem 2012 von Google vorgestellten Tool lassen sich beispielsweise einfache Tracking-Codes erstellen – wir berichteten.

Weitere Themen in dieser Ausgabe:

Online-Marketing
> Blogger Relations: Tipps für erfolgreiches Bloggermarketing
> Content-Promotion-Tools: Mit kostenpflichtiger Verbreitung von Inhalten viel(e) erreichen
> User Experience 2015: Welche Trends bei der Nutzererfahrung wichtig werden
SEO
> YouTube-Hacks: Tricks für mehr Erfolg mit Videos
> Markup-Implementation: Testen von strukturierten Daten
> Shop-Corner: Von Otto.de lernen
SEA
> AdWords-Konkurrenten: Mögliche Gründe für bessere Anzeigenpositionen
> Google AdWords: Anzeigen gezielt setzen und optimieren
Analytics
> Google Analytics: Tipps zur Identifizierung von Brand-Traffic
Recht
> Abmahnung, Unterlassungserklärung und dann? Was bei Rechtsverstößen zu beachten ist
> Urteile im Online-Recht: Werbung mit „geprüftes eBay-Mitglied“, Lieferzeit ca. 2 – 4 Tage, Bestellabbrecher-Mails und Neues seit 1.1.2015

Wie immer könnt ihr die neueste suchradar als PDF hier herunterladen: suchradar Magazin: Die aktuelle Ausgabe

Wie können hreflang und canonical-Tag zur gleichen Zeit benutzt werden?

1 Kommentar

Auf dem How to…-Blog hat Eoghan Henn anschaulich erklärt, wie hreflang und canonical-Tag gleichermaßen benutzt werden können, ohne sich dabei in die Quere zu kommen. Ganz ohne viele Worte zeigen wir Euch nur sein Schaubild, denn das erklärt eigentlich schon alles:

Hreflang nur zwischen Seiten, auf die per canonical verwiesen wurde.

Quelle: How to…

If you are using a canonical tag solution on your website, make sure that URLs that have a canonical tag pointing to another URL do not receive hreflang annotations. hreflang annotations are okay for URLs that point to themselves via canonical tag and for URLs that do not have canonical tags.

Den gesamten Beitrag könnt ihr auf dem Blog von Eoghan Henn lesen: How to use hreflang and canonical tags together

Weitere Informationen zur richtigen Verwendung von hreflang findet ihr im “hreflang-Guide für internationales SEO” von SISTRIX.

Bloofusion-Webinar am Freitag, 27. Februar von 10-11 Uhr

Kommentar verfassen

Am kommenden Freitag, den 27. Februar findet von 10-11 Uhr ein Bloofusion-Webinar zum Thema “Daten in Content-Marketing verwandeln” statt. Dabei wird anhand von Fallbeispielen erläutert, “wie aus Daten Inhalte kreiert werden, die im Online-Marketing erfolgreich eingesetzt werden können”, so Andreas Schülke von Bloofusion.

Die Inhalte des Webinars beschreibt Schülke folgendermaßen:

    Datenbasiertes Content-Marketing wirft viele Fragen auf:
  • Wo kommen Daten überhaupt her?
  • Wie erzähle ich mit Daten eine spannende Geschichte?
  • Wie können Daten ansprechend und verständlich präsentiert werden?
  • Wie sollte ich meine datenbasierten Inhalte dann streuen und verbreiten?

Für das Webinar könnt ihr Euch einfach über den folgenden Link anmelden: Webinar am Freitag: Daten in Content-Marketing verwandeln