Nichts als die Wahrheit: Google misst Vertrauenswürdigkeit von Websites

Kommentar verfassen

In einem wissenschaftlichen Aufsatz zeigen Google Mitarbeiter die Zukunft der Suchmaschine. “Knowledge-Based Trust: Estimating the Trustworthiness of Web Sources” ist der Titel der Arbeit und zugleich auch die Marschrichtung der Zukunft für den Marktführer in Deutschland. So soll ein neuer Algorithmus Informationen herausfiltern, die wahr sind.

We propose a new approach that relies on endogenous signals, namely, the correctness of factual information provided by the source. A source that has few false facts is considered to be trustworthy.

Bisher zählten Backlinks als wichtiges Ranking-Kriterium. Schon seit einiger Zeit wird die Quantiät der Links immer unwichtiger und es zählt die Qualität der Links. Eine Website kann also nicht mehr nur dank tausender Backlinks gut ranken, sondern es müssen vor allem relevante Links von vertrauenswürdigen Quellen sein. Neben diesen hochwertigen Links, zählt auch guter Content mit hohem Mehrwert für den Besucher – und hier kommt der wissenschaftliche Aufsatz der Googler ins Spiel: Um diesen hochwertigen Content als vertrauenswürdig einzustufen müssen, schon als vertrauenswürdig deklarierte, Quellen herangezogen werden und die Inhalte mit diesen Quellen abgeglichen werden. Falls die Website wenig falsche Informationen enthält wird auch sie als vertrauenswürdig eingestuft.

Urheber_ BoBaa22_shutterstock_189816743

Quelle: Shutterstock

Das Funktionsprinzip ist ein Algorithmus, der eine gewaltige Menge Daten (2,8 Milliarden Fakten) aus Apps zum Faktencheck, wie z.B. “FactCheck.org”, herausgezogen hat und nun mit den Daten im Internet abgleicht. Treten hohe Übereinstimmungen auf, wird eine Website als vertrauenswürdig eingestuft – bisher sind es 119 Millionen Seiten.

Mitte Februar berichteten wir schon von einem Google Patent, dass zeigt wie Google die Inhalte im Knowledge Graph verifiziert.

Es wird immer deutlicher, dass Google die Qualität und den Wahrheitsgehalt seiner Ergebnisse verbessern will. So wird es nicht nur relevante Suchergebnisse liefern, sondern auch verlässliche. Wird Google damit in der Zukunft zu einer eigenen Wikipedia? Was denkt ihr?

Den Aufsatz zum Nachlesen findet ihr hier: Knowledge-Based Trust: Estimating the Trustworthiness of Web Sources

Weitere Quellen:
FAZ: Google-Suchmaschine setzt auf Fakten
New Scientist: Google wants to rank websites based on facts not links

Umstrukturierung bei Google+: Aus einem Netzwerk werden drei Dienste

Kommentar verfassen

G+ Logo

Quelle: Google

Google gab heute bekannt, dass Bradley Horowitz die Leitung von Google+ übernimmt. Das bestätigte der Manager auch mit einem Post im sozialen Netzwerk von Google:

Bradley Horowitz übernimmt Google+ Leitung_Confirmation on Google+

Laut dem Googlewatchblog soll sich die Anzahl der Mitarbeiter, die dem Google+-Team angehörten, seit den Anfängen von Google+ unter Leitung von Vic Gundotra, auf knapp die Hälfte verringert haben – der Beginn einer negativen Entwicklung? Das der neue Google+-Topmanager Horowitz, der nur zwischenzeitlich andere Aufgaben im Konzern übernahm, aber neben Gundotra von Beginn an bei Google+ dabei gewesen ist, in seinem Post nur von “Photos” und “Streams” spricht und nicht von Google+ als Gesamtkonstrukt passt zu den Aussagen von Google Produktleiter Sundar Pichai. Der verkündete in einem Interview mit dem Wirtschaftsmagazin Forbes, dass man bei Google zukünftig die Produkte Fotos, Hangouts (Communications) und Google+-Streams getrennt voneinander weiterentwickeln wolle:

I think increasingly you’ll see us focus on communications, photos and the Google+ Stream as three important areas, rather than being thought of as one area.

Quelle: Prismatic

Brauen sich hier dunkle Wolken über dem einst so hoch gehypten sozialen Netzwerk zusammen? Spricht eine Aufspaltung für ein baldiges Ende von Google+?

Der Googlewatchblog fasst die Entwicklungen folgendermaßen zusammen und stellt die beiden Möglichkeiten vor:

Vielleicht ist Horowitz zur sauberen Abwicklung gekommen, vielleicht aber auch um das Netzwerk endlich wieder entscheidend nach vorne zu bringen und doch noch einmal anzugreifen. Zu wünschen wäre es.

Quelle: Googlewatchblog

Google behandelt TLD .berlin per default genauso wie .com und .de

Kommentar verfassen

Wie Googles John Mueller im vergangenen Webmaster Central office-hours hangout erklärte, wertet Google die neuen Top-Level-Domains (TLD), wie beispielsweise .berlin ebenso wie die Domainendungen .com und .de. Per default, also ohne gesonderte Einstellungen, wird .berlin beispielsweise nicht in den lokalen Suchergebnissen von Berlin stärker gewertet – “Geo-Targeting müsste dafür in den Google Webmaster Tools eingestellt werden”, sagt John Mueller im Hangout.

Wie Geo-Targeting in den Webmaster-Tools eingestellt werden kann, zeigt Google auf seinen Hilfeseiten: Ausrichtung auf Zielländer

Google Places Optimierung

Allein die TLD .berlin reicht nicht um die eigene Website für lokale Suchergebnisse zu optimieren. Ein Google Places Eintrag hilft hier weiter.

Der weitaus wichtigere “Hebel”, um beispielsweise in den Suchergebnissen mit Suchstandort Berlin angezeigt zu werden, ist die Google Places Optimierung – also Eingabe von Adresse, Telefonnummer etc. und im besten Falle auch Empfehlungen (Verlinkungen) von anderen lokalen Unternehmen, Dienstleistern und so weiter. Tipps zur Google Places Optimierung gibt es bei SISTRIX.

Die Originalaussage von John Mueller findet ihr hier:

“Mobile-friendly” wird ab dem 21. April zum Rankingssignal

2 Kommentare

Wie Google auf dem Webmaster Central Blog bekanntgab, wird die Suchmaschine ab dem 21. April die Mobilfreundlichkeit von Websites als Rankingssignal zählen, um seinen Nutzern nur Suchergebnisse auszugeben, die für ihre Suchanfrage relevant, hochwertig und optimal auf ihrem Gerät lesbar sind:

Consequently, users will find it easier to get relevant, high quality search results that are optimized for their devices.

Bisher wertete Google “mobile-friendly” noch nichts als Rankingsignal, sondern zeigte lediglich das Label in den mobilen Suchergebnissen an. Damit sollte sichergestellt werden, dass Nutzer, die eine Website besuchen wollen, schon im Vorfeld sehen ob die Inhalte dieser Website auf ihrem Mobilgerät korrekt dargestellt werden können und auch ohne Scrollen sichtbar sind.

Im gestrigen Webmaster Central Hangout äußerte sich John Mueller noch nicht eindeutig darüber, ob “mobile-friendly” bald als Rankingsignal für die mobilen Suchergebnisse gewertet wird. Nun ist es aber offiziell. Die Aussagen von John findet ihr im eingebetteten Mitschnitt:

Ob Eure Website “mobile-friendly” ist, könnt ihr mit einem Test von Google herausfinden – falls nicht, gibt Euch der Suchmaschinen-Gigant auch Tipps, um Eure Website mobilfreundlich zu gestalten.

In den mobilen Suchergebnissen wird Google außerdem noch stärker Apps und Inhalte von Apps anzeigen. Dass alle Android-Apps indexiert werden, gab die Suchmaschine schon im Juni vergangenen Jahres bekannt.

Starting today, we will begin to use information from indexed apps as a factor in ranking for signed-in users who have the app installed. As a result, we may now surface content from indexed apps more prominently in search.

Eine schrittweise Anleitung zur Implementierung der App-Indexierung gibt Google auf seinen Hilfeseiten.

Alle Informationen könnt ihr im Google Webmaster Central Blog: Finding more mobile-friendly search results

Google erweitert “Flights” um neue Funktionen

Kommentar verfassen

Schon seit 2011 bietet Google eine eigene Flugsuchmaschine an. Google Flights aggregiert, ähnlich wie Fluege.de oder swoodoo.de, die Flüge verschiedener Fluggesellschaften. Bisher konnten Google-Nutzer einen Abflughafen und einen Zielflughafen eingeben, sowie Datum und Uhrzeit und bekamen dann sortiert nach dem günstigsten Flug, die Angebote verschiedener Anbieter angezeigt.

“There are about a trillion flights you could take from New York in the coming year,” said Kourosh Gharachorloo during a demo of the site on Tuesday. The question Google aims to answer: Which of those trillion is the right one for each traveler?

Zitat aus Paul Bradys Artikel auf Condé Nast Traveler

In der schier unendlichen Auswahl von Flügen ist es trotzdem sehr schwierig den “besten” Flug zu finden. Denn die Kriterien für den “besten” Flug sind sehr subjektiv. In einer Kombination aus Flugpreis, Anzahl der Zwischenstopps, Abflugzeiten und Annehmlichkeiten an Bord versucht Google in der neuesten Version von Flights der allgemeinen Definition des “besten” Flugs näher zu kommen und einen großen Querschnitt der subjektiven Kriterien zu erfüllen. Ein weiteres neues Feature ist die Anzeige von Google, wenn der Abflug von einem Flughafen in der Nähe des eingegebenen Flughafens günstiger ist – natürlich gilt dies auch für den Zielflughafen.

Schon seit 2013 hilft Google Suchenden weiter, die zwar wissen ob sie einen Badeurlaub oder einen Städtetrip machen möchten, aber nicht genau wissen welche Stadt oder Badeort es sein soll. Es zeigt daher Vorschläge an, wenn die Sucheingabe eine Region und kein Abflughafen ist:

Google zeigt Regionen statt Abflughäfen an

Weitere Neuerungen beschreibt Paul Brady in einem Blogpost auf dem Condé Nast Traveler-Blog: 5 Reasons You Should Start Using Google’s Flight Search Tool

Auch Google selbst hat heute nochmal auf neue und alte Funktionen aufmerksam gemacht: Get away with Google Flights

Nutzt ihr Google Flights? Sagt Euch die Google Flugsuchmaschine zu? Wie gefallen Euch die neuen und die, wieder ins Gedächtnis gerufenen, alten Funktionen?

Google im Visier der russischen Kartellbehörde

Kommentar verfassen

Mehreren Medienberichten zufolge hat sich der russische Suchmaschinenanbieter Yandex an die Kartellbehörde seines Landes gewandt, da Google, laut Aussage von Yandex, den Herstellern von Android-Smartphones die Vor-Installation von Yandex Apps verbietet, berichtet das Handelsblatt. Auch sei die voreingestellte Suchmaschine auf Android Smartphones immer Google. Yandex hat sich schon am vergangenen Mittwoch an die Kartellbehörde gewandt, berichtet heise.de.

yandex_eng_logo

Aus einer auf tech.eu veröffentlichten offiziellen Aussage des Moskauer Unternehmens wird der Unmut gegen Googles Bevormundung bei der App-Installation bei Android-Geräten deutlich:

[…] Many believe that Android is an open platform.

In reality, manufacturers of Android-powered devices are locked into the proprietary Google Play application store and closed APIs. In order to install Google Play on their devices, device manufacturers are required to preinstall the entire suite of Google GMS services, and set Google as the default search.

In addition to that, device manufacturers are increasingly prohibited from installing any services from Google’s competitors on their devices.

Mit dem Umgang seiner Online-Dienste wird Google auch in der EU kritisiert – im November letzten Jahres stimmte das EU-Parlament für eine Aufspaltung Googles.

Website gehacked? Google gibt Tipps zur Prävention und Beseitigung von Hacks

Kommentar verfassen

Im Google Webmaster Central Blog hat Google anhand zweier Case Studies Tipps veröffentlicht, die befolgt werden können, sofern die eigene Website von Hackern angegriffen wurde:

[…] we talked to two webmasters with hacked sites to learn more about how they were able to fix their sites. We’re sharing their stories with the hope that they might provide ideas to other webmasters who have been victims of hacking.

example-compromised

Gehackte Websites zeigt die Suchmaschine in den SERPs mit einer Warnmeldung an. Quelle: Google


Tipps zur Prävention vor Hacker-Angriffen:
  • Benutze SFTP anstelle von FTP, da per FTP-Transfer hochgeladene Dateien nicht verschlüsselt sind. SFTP verschlüsselt nicht nur hochgeladene Dateien, sondern auch die System-Passwörter
  • Prüfe die Berechtigungen von sensiblen Dateien, wie besipielsweise die .htaccess-Datei
  • Sei wachsam in Bezug auf neue Nutzer im Admin-Bereich Deiner Website

Die Tipps sind frei aus dem Google Blogpost übersetzt.

In dem Hilfe-Dokument “Hilfe für Webmaster bei gehackten Websites” und einem extra dafür eingerichteten Forums-Bereich im Webmaster Central Help Forum, gibt Google hilfreiche Anweisungen was nach einem Angriff auf die eigene Website zu tun ist.

Wurde Eure Website schon einmal gehackt? Wie seid ihr danach vorgegangen?

Der Post im Google Webmaster Central Blog zum Nachlesen: Case Studies: Fixing Hacked Sites

Wie verifiziert Google “direct answers” im Knowledge Graph und der One-Box?

3 Kommentare

Vor rund einer Woche teilte Google mit, dass auf den Google Sucheergebnisseiten zukünftig innerhalb des Knowledge Graphs medizinische Informationen eingeblendet werden, sodass zu einer medizinischen Suchanfrage direkt erste Informationen geliefert werden können. Diese Informationen sind von Medizinern gegengecheckt worden, sodass sie glaubwürdig sind:

We worked with a team of medical doctors (led by our own Dr. Kapil Parakh, M.D., MPH, Ph.D.) to carefully compile, curate, and review this information. All of the gathered facts represent real-life clinical knowledge from these doctors and high-quality medical sources across the web, and the information has been checked by medical doctors at Google and the Mayo Clinic for accuracy.

Allerdings kann die Suchmaschine nicht alle Informationen von Experten beurteilen lassen – dafür ist die Informationsdichte im Internet viel zu hoch. Daher müssen Algorithmen und Automatismen her, die die Glaubwürdigkeit von Informationen prüfen und beurteilen. Denn Google will sich ja, wie im Geschäftsbericht 2014 offiziell angekündigt, zu einer “Findesuchmaschine” entwickeln. Daher müssen die bei einer Suchanfrage präsentierten Antworten natürlich korrekt sein.

Wie beurteilt und verifiziert die Suchmaschine nun die vielfältigen Antworten auf unterschiedlichste Suchanfragen, die beim Crawling gefunden werden? Bill Slawski zeigt auf SEO by the Sea ein Google-Patent, aus dem hervorgeht, wie die Suchmaschine korrekte Informationen aus dem Internet herausfiltert. Dazu sammelt Google viele Informationen aus verschiedenen Quellen zu einer Suchanfrage. Wenn mehrere Quellen ein und dieselbe Antwort liefern, ist die Wahrscheinlichkeit hoch, dass diese Antwort korrekt ist:

A hypothetical fact that is supported by at least a certain number of documents, and is not contained within another fact with at least the same level of support, is presented as likely correct. Quelle: SEO by the Sea

Diese Informationen müssen natürlich strukturiert und vereinheitlicht werden. Diese Aufgabe übernehmen die Google-Hausmeister – Bill Slawski stellt die verschiedenen Varianten und das dazugehörige Google-Patent vor: Mechanism for managing facts in a fact repository

Google One-Box _Alter Heinz Erhardt

Bei der Suchanfrage “Alter Heinz Erhardt” zeigt die Suchmaschine eine direkte Antwort an – eine Quelle jedoch nicht.

Knowledge Graph_Heinz Erhardt

Beim Suchbegriff “Heinz Erhard” zeigt der Knowledge Graph einen kurzen Ausschnitt aus der Wikipedia an – und nennt die Quelle.

Wie denkt ihr über die Entwicklung von Google von einem “Quellengeber” zu einem “Antwortgeber”? Verlasst ihr Euch auf die direkten Antworten der Suchmaschine oder prüft ihr sie anhand von weiteren Quellen nochmal nach?

Der Artikel zum Thema von Bill Slawski: How Google Was Corroborating Facts For Direct Answers

Google positioniert sich mehr und mehr als “Findemaschine”

4 Kommentare

Martin Missfeldt hat auf seinem tagSeoBlog einen Artikel veröffentlicht, in welchem er einen Ausblick auf die Zukunft und Entwicklung der Suchmaschine Google gibt – dabei stützt er seine Aussagen auf Inhalte des aktuellen Business-Reports von Google. In diesen Business-Reports – zu deutsch: Geschäftsberichten – legen Aktienunternehmen ihre Jahreszahlen offen. Doch diese Berichte handeln nicht nur von Bilanzen und Geschäftszahlen, sondern in diesen Berichten zeigen Aktienunternehmen auch wohin der Weg in der Zukunft gehen soll. Dies hat Google im aktuellen Business-Report, den ihr hier in Gänze lesen könnt, auch getan. Die zukünftige Strategie Googles ist es nicht mehr nur Suchergebnisse in Form von Links zu den gewünschten Informationen anzuzeigen, sondern Suchergebnisse in Form von direkten Antworten auf Sucheingaben zu präsentieren – Missfeldt bezeichnet den Weg treffend: “Google will Findmaschine sein”.

Schon heute zeigt Google zu bestimmten Suchanfragen direkte Ergebnisse an, sodass der Suchende gar nicht mehr auf einen Link in den SERPs klicken muss, um seine Antwort zu bekommen – Beispiele dafür sind u.a. “Wetter Bonn” oder “Bundesliga Ergebnisse”:

Google OneBox_Bundesliga Ergebnisse

Was haltet ihr von der zukünftigen Google-Strategie? Wird Google bald gar keine Links mehr anzeigen?

Entwickler von Suchmaschine MetaGer: “Politik hat das Internet verschlafen”

4 Kommentare

Dem Online-Nachrichtenableger der ZDF heute Nachrichten, heute.de, hat Wolfgang Sander-Beuermann, der Geschäftsführer von SUMA-EV, ein Interview zur Entwicklung des Internets und des Suchverhaltens der Deutschen gegeben. Seine Firma SUMA-EV hat eine Meta-Suchmaschine namens MetaGer entwickelt und möchte damit eine Alternative zum übermächtigen Google schaffen. Mit einem Marktanteil von über 94% (Statista Zahlen von Dezember 2014) ist Google hierzulande klarer Platzhirsch.

Sander-Beuermann fragt sich, warum wir in Deutschland keine eigene Suchmaschine entwickeln, wie beispielsweise Yandex in Russland oder Baidu in China. MetaGer sei da ein richtiger Schritt in die Zukunft, könne aber allerdings als Metasuchmaschine, die nur die Ergebnisse anderer Suchmaschinen aggegriert, keine echte Konkurrenz für Google sein: “Denn [Metasuchmaschinen] […] fehlt die Basis – ein eigener Webindex, in dem alle Webinhalte gelistet sind. Erst mit einem eigenen Webindex ist eine Suchmaschine unabhängig von anderen und auf solider Geschäftsbasis in der Lage, revolutionär Neues zu entwickeln”, erklärt Sander-Beuermann im ZDF-Interview. Um diesen Webindex aufzusetzen, der sehr viel Geld kostet, fordert er Unterstützung seitens des Staates – er geht sogar noch weiter und hofft auf einen europäischen Weg: “eine gemeinsame europäische Anstrengung hat eine Chance, den massiven technologischen Rückstand Europas aufzuholen”, so Sander-Beuermann zum ZDF.

Was denkt ihr? Brauchen wir eine eigene Suchmaschine?

Das gesamte Interview findet ihr auf der Internetpräsenz von heute.de:“Deutsche Politik hat das Internet verschlafen”
Die Metasuchmaschine MetaGer zum Testen: Suchmaschine MetaGer von SUMA-EV