Wie verifiziert Google “direct answers” im Knowledge Graph und der One-Box?

2 Kommentare

Vor rund einer Woche teilte Google mit, dass auf den Google Sucheergebnisseiten zukünftig innerhalb des Knowledge Graphs medizinische Informationen eingeblendet werden, sodass zu einer medizinischen Suchanfrage direkt erste Informationen geliefert werden können. Diese Informationen sind von Medizinern gegengecheckt worden, sodass sie glaubwürdig sind:

We worked with a team of medical doctors (led by our own Dr. Kapil Parakh, M.D., MPH, Ph.D.) to carefully compile, curate, and review this information. All of the gathered facts represent real-life clinical knowledge from these doctors and high-quality medical sources across the web, and the information has been checked by medical doctors at Google and the Mayo Clinic for accuracy.

Allerdings kann die Suchmaschine nicht alle Informationen von Experten beurteilen lassen – dafür ist die Informationsdichte im Internet viel zu hoch. Daher müssen Algorithmen und Automatismen her, die die Glaubwürdigkeit von Informationen prüfen und beurteilen. Denn Google will sich ja, wie im Geschäftsbericht 2014 offiziell angekündigt, zu einer “Findesuchmaschine” entwickeln. Daher müssen die bei einer Suchanfrage präsentierten Antworten natürlich korrekt sein.

Wie beurteilt und verifiziert die Suchmaschine nun die vielfältigen Antworten auf unterschiedlichste Suchanfragen, die beim Crawling gefunden werden? Bill Slawski zeigt auf SEO by the Sea ein Google-Patent, aus dem hervorgeht, wie die Suchmaschine korrekte Informationen aus dem Internet herausfiltert. Dazu sammelt Google viele Informationen aus verschiedenen Quellen zu einer Suchanfrage. Wenn mehrere Quellen ein und dieselbe Antwort liefern, ist die Wahrscheinlichkeit hoch, dass diese Antwort korrekt ist:

A hypothetical fact that is supported by at least a certain number of documents, and is not contained within another fact with at least the same level of support, is presented as likely correct. Quelle: SEO by the Sea

Diese Informationen müssen natürlich strukturiert und vereinheitlicht werden. Diese Aufgabe übernehmen die Google-Hausmeister – Bill Slawski stellt die verschiedenen Varianten und das dazugehörige Google-Patent vor: Mechanism for managing facts in a fact repository

Google One-Box _Alter Heinz Erhardt

Bei der Suchanfrage “Alter Heinz Erhardt” zeigt die Suchmaschine eine direkte Antwort an – eine Quelle jedoch nicht.

Knowledge Graph_Heinz Erhardt

Beim Suchbegriff “Heinz Erhard” zeigt der Knowledge Graph einen kurzen Ausschnitt aus der Wikipedia an – und nennt die Quelle.

Wie denkt ihr über die Entwicklung von Google von einem “Quellengeber” zu einem “Antwortgeber”? Verlasst ihr Euch auf die direkten Antworten der Suchmaschine oder prüft ihr sie anhand von weiteren Quellen nochmal nach?

Der Artikel zum Thema von Bill Slawski: How Google Was Corroborating Facts For Direct Answers

Wie vermeidet man Duplicate Content bei zwei verschiedenen Startseiten-URLs?

Kommentar verfassen

Stellt Euch folgendes Szenario vor: Eure Homepage ist standardmäßig durch Euer Content-Management-System (CMS) unter der URL “http://www.domainxyz.de/index.php” erreichbar, wird allerdings von anderen Websites nicht genau mit dieser URL verlinkt, sondern mit “http://www.domainxyz.de”. Laut Sammy Zimmermann könnte dies für Google Duplicate Content darstellen.

Um das zu vermeiden schlägt er eine Default-Dokumentweiterleitung vor, denn eine 301-Weiterleitung würde zu folgendem Problem führen: Wenn nun eine Weiterleitung von der URL mit index.php auf die URL ohne eingerichtet wird, dann wird der Server, falls ein Besucher über “http://www.domainxyz.de/index.php” auf die Website kommt auf die URL “http://www.domainxyz.de” weiterleiten wie gewünscht, jedoch per Default versuchen die URL mit index.php zu laden, da es ja die Startseite ist. Eine Default-Dokumentweiterleitung kann jedoch Abhilfe schaffen – wie diese technisch umgesetzt wird, zeigt Zimmermanns auf seinem Blog.

Das Problem betrifft laut Zimmermanns besonders ältere Content-Management-Systeme, wie beispielweise Gambio, WordPress und Co. haben dieses Problem nicht.

Google positioniert sich mehr und mehr als “Findemaschine”

4 Kommentare

Martin Missfeldt hat auf seinem tagSeoBlog einen Artikel veröffentlicht, in welchem er einen Ausblick auf die Zukunft und Entwicklung der Suchmaschine Google gibt – dabei stützt er seine Aussagen auf Inhalte des aktuellen Business-Reports von Google. In diesen Business-Reports – zu deutsch: Geschäftsberichten – legen Aktienunternehmen ihre Jahreszahlen offen. Doch diese Berichte handeln nicht nur von Bilanzen und Geschäftszahlen, sondern in diesen Berichten zeigen Aktienunternehmen auch wohin der Weg in der Zukunft gehen soll. Dies hat Google im aktuellen Business-Report, den ihr hier in Gänze lesen könnt, auch getan. Die zukünftige Strategie Googles ist es nicht mehr nur Suchergebnisse in Form von Links zu den gewünschten Informationen anzuzeigen, sondern Suchergebnisse in Form von direkten Antworten auf Sucheingaben zu präsentieren – Missfeldt bezeichnet den Weg treffend: “Google will Findmaschine sein”.

Schon heute zeigt Google zu bestimmten Suchanfragen direkte Ergebnisse an, sodass der Suchende gar nicht mehr auf einen Link in den SERPs klicken muss, um seine Antwort zu bekommen – Beispiele dafür sind u.a. “Wetter Bonn” oder “Bundesliga Ergebnisse”:

Google OneBox_Bundesliga Ergebnisse

Was haltet ihr von der zukünftigen Google-Strategie? Wird Google bald gar keine Links mehr anzeigen?

Fehlende Daten in Google WMT – Relaunch der Search Query Reports als möglicher Grund?

2 Kommentare

Wie mehreren Medien in den letzten Tagen berichteten sind seit dem 8. Februar keine aktuellen Zahlen zu Suchanfragen in den Webmaster Tools von Google verfügbar. So schrieb SEO Südwest, dass die Einführung von erweiterten Search Query Reports dafür verantwortlich sein könnten. Auch Barry Schwartz berichtete auf Search Engine Land von fehlenden Daten.

Könnte die Verzögerung der Datenlieferung an den neuen Search Query Reports liegen, oder gibt es eine andere Ursache? Jennifer Slegg berichtete auf The SEM Post, dass in einem Thread in Googles Webmaster Help Forum von einem bekannten Problem die Rede sei, dass aktuell behoben würde.

“This is a known issue and should be fixed in a few days or so” Zitat von “travler.” im Webmaster Help Forum

Auf den Google+-Post von Jennifer Slegg zu ihrem aktuellen Artikel antwortete John Mueller von Google, dass die Datenlieferung zurzeit in “der Aufholjagd” ist, aber noch nicht bei allen Webmastern angezeigt wird.

John Mueller Antwort auf Jennifer Slegg Post_Google+

Quelle: Google+

Was nun wirklich der Grund dafür war, dass seit dem 8. Februar keine aktuellen Zahlen zu Suchanfragen in den Webmaster Tools angezeigt wurden, ist unklar. Werden bei Euch mittlerweile wieder aktuelle Daten (oder Daten seit dem 8. Februar) angezeigt?

Entwickler von Suchmaschine MetaGer: “Politik hat das Internet verschlafen”

4 Kommentare

Dem Online-Nachrichtenableger der ZDF heute Nachrichten, heute.de, hat Wolfgang Sander-Beuermann, der Geschäftsführer von SUMA-EV, ein Interview zur Entwicklung des Internets und des Suchverhaltens der Deutschen gegeben. Seine Firma SUMA-EV hat eine Meta-Suchmaschine namens MetaGer entwickelt und möchte damit eine Alternative zum übermächtigen Google schaffen. Mit einem Marktanteil von über 94% (Statista Zahlen von Dezember 2014) ist Google hierzulande klarer Platzhirsch.

Sander-Beuermann fragt sich, warum wir in Deutschland keine eigene Suchmaschine entwickeln, wie beispielsweise Yandex in Russland oder Baidu in China. MetaGer sei da ein richtiger Schritt in die Zukunft, könne aber allerdings als Metasuchmaschine, die nur die Ergebnisse anderer Suchmaschinen aggegriert, keine echte Konkurrenz für Google sein: “Denn [Metasuchmaschinen] […] fehlt die Basis – ein eigener Webindex, in dem alle Webinhalte gelistet sind. Erst mit einem eigenen Webindex ist eine Suchmaschine unabhängig von anderen und auf solider Geschäftsbasis in der Lage, revolutionär Neues zu entwickeln”, erklärt Sander-Beuermann im ZDF-Interview. Um diesen Webindex aufzusetzen, der sehr viel Geld kostet, fordert er Unterstützung seitens des Staates – er geht sogar noch weiter und hofft auf einen europäischen Weg: “eine gemeinsame europäische Anstrengung hat eine Chance, den massiven technologischen Rückstand Europas aufzuholen”, so Sander-Beuermann zum ZDF.

Was denkt ihr? Brauchen wir eine eigene Suchmaschine?

Das gesamte Interview findet ihr auf der Internetpräsenz von heute.de:“Deutsche Politik hat das Internet verschlafen”
Die Metasuchmaschine MetaGer zum Testen: Suchmaschine MetaGer von SUMA-EV

Google verabschiedet sich vom SPDY-Netzwerkprotokoll zugunsten von HTTP/2

Kommentar verfassen

Chromium-Blog Google Logo

Quelle: Google

Wie das Unternehmen im Chromium-Blog bekannt gab, wird Google das von ihnen eingeführte Netzwerkprotokoll SPDY bis 2016 einstellen. Das seit dem Chrome-Browser 6 unterstützte Netzwerkprotokoll kann ohne Verluste von HTTP/2 abgelöst werden, da es die wichtigsten Funktionen von SPDY, wie Multiplexing, Header Kompression und Prioritization unterstützt.

We plan to remove support for SPDY in early 2016, and to also remove support for the TLS extension named NPN in favor of ALPN in Chrome at the same time. Server developers are strongly encouraged to move to HTTP/2 and ALPN

Durch die Entwicklung von SPDY sehe Google sich als Wegbereiter der nächsten Version des weit verbreiteten HTTP-Protokolls – HTTP/2 ist sozusagen die Weiterentwicklung von HTTP 1.1 auf Basis von SPDY – und sei froh, dass damit ein weiterer Grundstein für ein performanteres und sichereres Internet gelegt worden ist. In den nächsten Wochen wird die Unterstützung des HTTP/2-Protokolls im Chrome Browser in der Version 40 ausgerollt.

Bericht zum “Recht auf Vergessenwerden”: Im Zweifel für den Geschädigten

Kommentar verfassen

Vergangenen Freitag legte der Expertenbeirat von Google zum “Recht auf Vergessenwerden” seinen Bericht mit Kriterien für die Entfernung von Links laut dem “Recht auf Vergessenwerden” vor. Auch definierte der Beirat darin die Vorgehensweise nachdem ein Löschantrag eingegangen ist.

Google_Mountain View_Symbolfoto

Google, Mountain View. Quelle: Google Inc.

 

Die Kriterien sind folgende:

  • Data Subject’s Role in Public Life
  • Source
  • Time
  • Nature of the Information
    • Types of information that bias toward an individual’s strong privacy interest
    • Types of information that bias toward a public interest

Wenn ein Löschantrag nicht klar anhand dieser Kriterien beurteilt werden kann, gilt im Zweifel für den Löschantrag.

Ein Punkt ist hierbei interessant: Sofern sich die durch den Löschantrag betroffende Quelle auch in den Suchergebnissen außerhalb der EU wiederfindet, beispielsweise in Amerika, also der Google-Suche mit der TLD .com, wird der Löschanspruch umgangen, er bezieht sich also nur auf Suchen innerhalb der EU. Auch mit dieser Einschränkung kommt Google dem “Recht auf Vergessenwerden” nach, denn auch wenn hierzulande google.com in den Browserschlitz eingegeben wird, werden wir immer zu landesspezifischen Version der Google-Suche weitergeleitet.

The Ruling is not precise about which versions of search a delisting must
be applied to. Google has chosen to implement these removals from all
its European-directed search services, citing the CJEU’s authority across
Europe as its guidance.

The Council understands that it is a general practice that users in Europe, when typing in www.google.com to their browser, are automatically redirected to a local version of Google’s search engine. Google has told us that over 95% of all queries originating in Europe are on local versions of the search engine. Given this background, we believe that delistings applied to the European versions of search will, as a general rule, protect the rights of the data subject adequately in the current state of affairs and technology.

The Council supports effective measures to protect the rights of data
subjects. Given concerns of proportionality and practical effectiveness,
it concludes that removal from nationally directed versions of Google’s
search services within the EU is the appropriate means to implement
the Ruling at this stage.

Mehreren Medienberichten zufolge hat sich Beiratsmitglied und Wikipedia-Gründer Jimmy Wales skeptisch über die jetzige Regelung geäußert. Er bemängelt, dass ein Wirtschaftsunternehmen über das Löschen oder Nicht-Löschen urheberrechtlich geschützter Werke entscheiden darf, ohne das Einverständnis der Urheber einzuholen. Somit wäre die Meinungsfreiheit bedroht.

Medienberichte
Welt.de: Googles Lösch-Beirat streitet über das Vergessen
Netzpolitik.org: “Im Zweifel wird gelöscht” – Google-Expertenbeirat legt Bericht zum Recht auf Vergessen vor

Was denkt ihr über das “Recht auf Vergessenwerden”? Ist es in dieser Form sinnvoll oder muss die Regelung grundsätzlich überarbeitet werden?

Das Dokument im Original: The Advisory Council to Google on the Right to be Forgotten

Starke Ausschläge von SEO Wetter in den letzten Tagen sind auf “Algorithmus-Optimierungen” zurückzuführen

1 Kommentar

In den letzten Tagen gab es in der SEO-Szene einige Berichte über ein mögliches großes Update eines der Google Algorithmen. So berichtete Barry Schwartz auf Search Engine Roundtable, es könne sich um ein Panda-Update handeln – auch Christian Kunz von SEO Südwest berichtete darüber. Die Daten von SEOlytics und das SEO Wetter zeigten auch starke Hinweise auf ein mögliches Algorithmus-Update – besonders ab Mittwoch (4.2.) gab es starke Schwankungen in den Rankings.

Ranking-Dynamik Februar 2015

Quelle: SEOlytics

SEO Wetter Jan:Feb 2015

Quelle: Seowetter

Heute präsentierte Barry Schwartz dann die Auflösung und offizielle Aussage von Google: Es war kein Algorithmus-Update.

Google äußert sich zu den Spekulationen eines möglichen Updates in den letzten Tagen: “as usual, we’re continuing to make tweaks, but we don’t have a specific “update” to announce.” Quelle: Search Engine Roundtable

Es sind definitiv Ausschläge zu verzeichnen, jedoch handele es sich nur um “tweaks”, also Optimierungen seitens Google.

Google Talk wird zum 16. Februar eingestellt

Kommentar verfassen

Der Google Instant Messaging Dienst Google Talk wird zu Mitte des Monats Februar eingestellt. Diese Nachricht begründet sich in mehreren Medienberichten, u.a. von heise.de und dem Googlewatchblog. Der im Jahr 2005 gestartete Dienst wird dann vollständig von Google Hangouts abgelöst – eine Entwicklung, die sich schon seit längerem anbahnte, da Google die Funktionen von Talk nicht mehr erweiterte, und sogar viele davon entfernte, u.a. die Jabber-Kompatibilität im Mai 2013, als Hangouts (vormals Google+ Hangouts) startete.

Bestehende Nutzer von Google Talk werden, laut dem Googlewatchblog, per automatisch generierten Nachrichten über das Aus des Messengers informiert.

Für einen Blick in die Vergangenheit muss Wikipedia herhalten, denn eine offizielle Google Talk Website gibt es nicht mehr: Geschichte von Google Talk

Bald wieder Tweets in den Google-SERPs

1 Kommentar

Laut Insider-Informationen von Bloomberg wird Google im nächsten Halbjahr wieder Tweets aus dem Kurzmitteilungs-Dienst Twitter in den Suchergebnissen anzeigen. Anders als bei der von 2009-2011 andauernden Partnerschaft zwischen Google und Twitter, in welcher die Suchmaschine die Tweets noch extra crawlen musste, soll Google bei der “Neubelebung” nun einen direkten Zugang zu der Twitter-Datenbank über die Firehouse-Schnittstelle haben und die Tweets nun in Echtzeit anzeigen können. Der Googlewatchblog spekuliert, dass die Twitter-Integration in die Google-SERPs durch eine Onebox erfolgen könnte und somit bei wichtigen Ereignissen grafisch abgesetzt die relevantesten Tweets im Sekundentakt einfließen können.

Twitter_logo_blue

Laut Informationen von Bloomberg wird schon an dieser Integration gearbeitet, da der Deal noch nicht offiziell besiegelt ist, noch unter Ausschluss der Öffentlichkeit:

Engineers from Twitter and Google are already working on the arrangement, said the people, who asked not to be identified because the deal isn’t public.

Wann die Partnerschaft der beiden Unternehmen offiziell bekanntgegeben wird ist unklar – ein möglicher Zeitpunkt dafür könnte schon morgen sein: Twitter wird morgen seine aktuellen Quartalsergebnisse vorstellen.

Quellen
Bloomberg: Twitter Reaches Deal to Show Tweets in Google Search Results
Googlewatchblog: Bericht: Google zeigt in Kürze wieder aktuelle Twitter-Tweets in den Suchergebnissen