Google plant Großes: wird SEO bald noch eine Relevanz haben?
Für die Google-Suchmaschine zählen nur Fakten
Inhaltsverzeichnis
Der Weg von Google führt zu Internetauftritten, die nichts als die Wahrheit beinhalten. Pseudowissen und Verschwörungen und Pseudowissen haben bei Google verloren; ein Grund, warum eine ganze Reihe populärer Websites den „Wahrheits-Test“ nicht bestanden hat und durchgefallen ist. Mehr als 119 Millionen Websites sind lt. Google vertrauenswürdige Seiten; sie haben den Test bestanden.
Künstliche Klicks und unsinnige Inhalte: werden zukünftig nicht mehr vorne ranken
Wer seine Klickzahlen in die Höhe treiben will und aus diesem Grund das Netz mit Unsinn füllt, muss auf die Hilfe von Google zukünftig verzichten. Pseudowissen hat in den Suchanfragen grundsätzlich nichts verloren und gehört nach Ansicht von Google nicht auf den oberen Bereichen der Ergebnisliste. Derzeit nimmt Google Änderungen an den Qualitätskriterien im Suchalgorithmus vor. In einem Aufsatz teilten dies Software-Ingenieure der weltgrößten Suchmaschine mit. Der Maßstab für eine wissensbasierte Vertrauenswürdigkeit ist ein Inhalt, der auf Wissen basiert. Google verlangt von den Seitenbetreibern und ihren Websites Fakten; Klicks sind Nebensache. Die ersten Plätze in den Suchergebnislisten bekommt ausschließlich die Wahrheit; auf Populismus legt die Suchmaschine keinen Wert, denn Google will „Nichts als die Wahrheit“.
Google´s Anspruch: Die Spreu vom Weizen trennen!
Ganz überraschend kommt der Anspruch von Google nicht. Bereits im letzten Jahr kündigten Forscher aus dem Hause Google den Aufbau einer Datenbank an. Wie kann es anders sein, als dass die weltgrößte Suchmaschine auch die weltgrößte Datenbank aufbauen will, die unter der Bezeichnung „Knowledge Vault“ alle Fakten über die Erde, die belegt sind, speichert. Google will, dass jeder User, der bei Google über die Suchanfrage Fragen die Welt betreffend stellt, soll nach dem Willen der Suchmaschine möglichst eine korrekte Antwort erhalten. Als Google seine neuen Richtlinien veröffentlichte, kam zwischen den Zeilen eine Furcht zum Vorschein. Eine Angst, dass Google zu einer unseriösen Plattform, vollgestopft mit wilden Gerüchten werden könnte. Auch die Gefahr, dass die weltgrößte Suchmaschine unbeabsichtigt von Verschwörungstheoretikern als Handlanger genutzt wird. Google will Texte, deren Inhalt falsch ist wie etwa die Behauptung, dass Barack Obama keine amerikanische Staatsbürgerschaft besitze, will Google in seinen Ergebnislisten so weit hinten aufführen, dass dieser nicht leicht auffindbar ist. Das gilt auch, wenn dieser Text von Millionen Menschen gelesen und diese den Text über den Link an Freunde und Bekannte weitergegeben haben.
Inhalte like Wikipedia
Grundsätzlich geht es um das Vollziehen eines Wechsels vom populistischen Abschnitt zu einem Ansatz aus wissenschaftlicher, enzyklopädischer Basis, vielleicht ähnlich wie Wikipedia. Google hat es geschafft, die KV-Datenbank um mehr als 75 Prozent innerhalb von sechs Monaten zu erweitern. Aktuell sind in der Datenbank mehr als zwei Milliarden Websites gelistet. Alle diese Seiten wurden auf ihre „trustworthiness (Vertrauenswürdigkeit)“ mittels einem automatisierten Verfahren geprüft. Kann Google eigentlich feststellen, welche Informationen sein Vertrauen rechtfertigen und welche es nicht tun? Die Antwort gibt die Veröffentlichung, in der es heißt: Als vertrauenswürdig stuft Google auch eine Quelle ein, in der nur wenige, nicht korrekte Fakten enthalten sind.
Fakten, Fakten und nochmals Fakten
Faktenwissen ist Faktenwissen, was nicht zwangsläufig bedeutet, dass dieses Wissen richtig ist. Wäre dies der Fall, müsste die Wissenschaft nicht ständig neu differenzieren. Alles ist eine Frage, von welchem Standpunkt man eine Angelegenheit sieht. Auch die Google Datenbank kann ich alle Fragen beantworten, auch wenn es bei der Frage „nur“ um ein recht billiges Kleid handelt. Dieses wurde unter den Keywords „TheDress“ oder „dressgate“ international bekannt. Die Frage, ob das Kleid Schwarz, Blau, Gold oder Weiß im Netz wahrgenommen wurde, war der Datenbank zu schwer. Dabei hätte man doch erfahren können, dass das Kleid der Besitzerin, die auch Urheberin des Hypefotos ist, schwarz-blau war. Unerklärlich ist jedoch, warum viele User sowie die Besitzerin auf dem Schnappschuss das Kleid in weiß-goldener Farbe sehen. Derzeit kann das Gegenteil der Wahrnehmung der Besitzerin anschaulich bewiesen werden. Fakt ist, dass es nicht für jede optisch Täuschung l plausible Erklärungen gibt. Erstens ist jeder Mensch anders, weshalb für die Wahrnehmung der individuelle Kontext zu berücksichtigen ist.
Wahrheit oder Wahrscheinlichkeit?
Wer das ultimative Wissen dieser Welt sucht, wird es nicht finden. Dieser Umstand beschreibt eine Art Hype oder philosophisch den neuen Realismus; beides wird derzeit wieder mal – heftig diskutiert. Sicher soll es im modifizierten Ranking bei Google nicht um die absolute Wahrheiten gehen. Google will, plausibel ausgedrückt, empirisch, als Ausdruck beweiskräftiges und gesichertes Informationsmaterial. „Knowledge-based Trust“ (KBT), Googles „neuer“ Algorithmus ist deshalb auf das Rechnen mit Wahrscheinlichkeiten ausgerichtet. Die Frage, wie groß die Wahrscheinlichkeit ist, dass Daten und Werte stimmen und die behauptete Tatsache korrekt und stimmig ist. Schaut sich die aufgeführten Fakten an, geht es auf informationstechnischer Sicht um eine erweiterte Wahrscheinlichkeitsrechnung. In diesen Statistiken werden eine riesige Menge Daten clever zusammengeführt und entsprechend eingestuft. Google nutzt mit seiner Suchmaschine für seinen Daten- und Faktencheck eine Vielzahl Apps und Softwares. Serviceanbieter wie „Snopes“ oder „FactCheck.org“ bedienen sich schon lange derartiger Prüfprogramme.
KBT
Mit dem KBT geht das über die eingehende Suchanfrage. Diese Anfrage geht bei der riesigen Datenbank ein, die eine Abfrage nach drei Elementen erhält, welche im Zusammenhang mit den bei der Suchmaschine eingegangenen Suchbegriffen stehen. Das sind die drei Säulen oder das „Triple“ auf dessen Schultern die Google-Wahrheit ruht. Der Aufbau ist entspricht den drei grammatikalischen Bestandteilen, aus denen ein deutscher Satz besteht:
• Subjekt – Frage: Um wen oder was geht es?
• Prädikat – Frage: Was willst du darüber wissen und
• Objekt – Frage: Was weiß die Datenbank? Nimmt man als Beispiel die Frage nach der Nationalität des amtierenden US-Präsidenten, dann ist Subjekt der Begriff „Obama“, Prädikat der Begriff „Nationalität“ und Objekt die Antwort: „Vereinigte Staaten“.
Lassen sich diese drei Informationen für jede Suchanfrage anwenden, gehören diese Informationen in jenen Bereich, der zukünftig ein Listening nach dem neuen Algorithmus, der die vermeintliche Wahrheit findet.
Qualität ist entscheidend
Entscheidend für die durch die Wahrscheinlichkeitsrechnung ermittelte Vertrauenswürdigkeit ist sicher auch ein stetiger Abgleich der Software für das Prüfverfahren. Bisher nutzt Google 16 Extraktoren, die seriöse, relevante, Daten aus dem Pool ziehen. Daraus erstellt Google seine Hierarchie. Dabei bedient sich Google bei der eigenen KV-Datenbank, welche die Suchmaschine bereits validiert hat. Des Weiteren füttert die Suchmaschine die Datenbank kontinuierlich mit Daten, die sie aus dem Internet gewinnt und geprüft hat.
Die Vision
Eine solche Vision gab es schon mal, und zwar von IDM. Dieses Unternehmen hatte ganz ähnliche Ziele wie Google mit „Watson“ verfolgt. Bereits in der ersten Ausbaustufe wäre dies, wenn man es so sehen will, ein Megacomputer. Es wäre die Realität von HAL 9000, den wir aus dem Film „2001: Odyssee im Weltraum“ kennen. Ein utopischer Riesencomputer, der zwar nach seinem Wissensstand jede Frage beantworten kann. Seine Vorgehensweise ist allerdings starr und – wie alle Maschinen – ist auch dieser Computer überfordert, wenn die Fragen individuellen und emotionalen Charakter haben. Das Vorgehen ist generell anders als das, welches man durch das bisherige Popularitätsranking kennt. Das, was Google verspricht, ist schon bedeutend. Die Suchmaschine gibt kein geringeres Versprechen als den Informationsgehalt der ganzen Welt in Zukunft mathematisch in Bezug auf seinen Wahrheitsgehalt zu bewerten. Dies geschieht nach einem System, das auf neutral ist und auf anschaulichen Fakten basiert, nach dem Motto: Qualität anstelle von Quantität. Die äußeren Merkmale wie beispielsweise die Anzahl der Hyperlinks werden durch „endogene Signale“ und nach Beschreibung der Wissenschaftler– „die Wertigkeit der Informationen selbst“ ersetzt. Dennoch bleibt die Frage offen, wie erfolgreich Google beim Herausfiltern von Gerüchten, Verschwörungstheorien und Pseudowissen in der Zukunft sein wird. Die Antwort kennt Google auch noch nicht; die Frage kann auch eine Wahrscheinlichkeitsrechnung nicht beantworten; allein der Alltag kann es.
Pilotstudien abgeschlossen
Die Softwareingenieure von Google haben die Pilotstudien zu diesem Projekt abgeschlossen. In dem nach Abschluss eines Projekts „übliche“ Aufsatz der Ingenieure steht, dass sie nach eigenen Angaben mehr als 2,8 Milliarden „Triple-Anfragen“ im Web anwendeten. Nach diesen Angaben hat das Unternehmen die Inhalte von mehr als 119 Millionen Webadressen sowie noch weitere 5,6 einzelne Websites darauf getestet, ob sie vertrauenswürdig sind.
Werden Foren verlieren?
Durch das Netz der Jäger von Google, die auf der Suche nach der vermissten Wahrzeit waren, sind viele bekannte Internetseiten durchgerutscht. Darunter sind 14 bisher als Top-Humor-Adressen gesetzt sind komplett durchgefallen. 1Superseiten, die zu den 15 Prozent der amerikanischen Internetseiten gehörten, die am meisten angeklickt wurden sind dank der Googles KBT-Suchmaschine nach ganz unten der Ergebnislisten gerutscht. Das Schicksal kann auch Internetforen ereilen, in denen sich User schriftlich und kommentarfreudig über die Ereignisse der Welt austoben. Auch diese Foren dürften zu den großen Verlierern bei der Google-Suche nach der Wahrheit gehören. Die Wahrscheinlichkeitsrechnung, dass Google mit solchen Maßnahmen auch „Bösewichten“ ins Handwerk pfuscht, bleibt bisher ohne Ergebnis und wird sicher keinen großen Erfolg ausweisen.
Dirk Schiff ist Head of SEO bei der AnalyticaA GmbH, Master (MBA) im Bereich Digital Business mit Schwerpunkt Search Engine (SEO und (SEA), Journalist (FJS) und Online Marketing Experte. Er optimiert seit über 18 Jahren Internetseiten. Er leitete bei stellenanzeigen.de den SEO-Bereich Inhouse, sowie für 40 Verlagsportale.