Seit Jahren nutzten Webmaster den kleinen grünen Balken als ultimative Informationsquelle um den Wert der Webseite zu erkennen, obwohl es sich dabei stets um weniger aussagekräftige Zahlen handelte. Aber wen interessierte diese Tatsache schon? Nun hat Google endgültig dem ganzen einen Riegel vorgeschoben.
Bereits am 07. März 2016 kündigte Google das Ende des Toolbar PageRank an. Nun, 6 Wochen später, wurde es endgültig zu Grabe getragen. Jegliche Überreste sind beseitigt und der Datenfeed geschlossen. Die Quelle zur Messung des Toolbar PageRanks ist endgültig versiegt.
Toolbar PageRank
Über viele Jahre hinweg lieferte das Toolbar PageRank eine wichtige Kennzahl für SEO-Experten und Webmaster um den Wert einer Webseite zu erkennen. Die Webseite wurde mit einer Zahl zwischen 0 und 10 bewertet und bot so eine Vergleichsmöglichkeit mit anderen Internetpräsenzen. Durch regelmäßige Updates der Daten war es möglich den Erfolg oder Misserfolg von durchgeführten SEO-Maßnahmen zu ermitteln. Weitestgehend unbekannt war allerdings die Tatsache, dass Toolbar PageRank kaum im Bezug zum eigentlichen PageRank stand. Der eigentliche PageRank ist der Kern von Googles Suchmaschinen-Algorithmus. Seine Komplexität kann unmöglich auf eine Zahl zwischen 0 und 10 reduziert werden.
Des Weiteren ist zu bedenken, dass die Einteilung des Toolbar PageRanks nicht in linearer Form, sondern logarithmisch vorgenommen wurde. Ebenfalls wurden regelmäßige Updates so gut wie nie durchgeführt, anders als beim internen Google PageRank, welches fortlaufen Aktualisierungen unterzogen wird. Die Updates der Toolbar-Daten wurden im Laufe der letzten Jahre generell immer weniger und auch unregelmäßiger durchgeführt. Oftmals erfolgten diese nur ein oder zweimal im Jahr. Daher ist der ausgegeben Wert niemals aussagekräftig gewesen.
Der lange Weg zum Ende
Erstmals fragte Google im Jahr 2007 Webmaster, ob man das Toolbar PageRank abschaffen sollte. Zwei Jahre Später erfolgte dann die Entfernung der Informationen aus der heutigen Search Console. Und seit dem Jahr 2015 erfolgten im Grunde kaum noch Updates und Google Mitarbeiter wiesen immer wieder daraufhin, dass dem Wert keinerlei Bedeutung beigemessen werden sollte. Erst mit der endgültigen Abschaffung in diesem Jahr macht Google dem ein Ende.
Interessanterweise führte die Abschaffung des Toolbar PageRanks unter den Nutzern noch zu heftigen Widerständen und Diskussionen. Heute hat kaum einer Interesse an diesem Schritt gezeigt. Die Kommentare halten sich in Grenzen und stören tut es im Grunde keinen.
Vielmehr musste Google sogar erst offiziell bestätigen, dass das Ende tatsächlich bevorsteht bis man diese Aussage von Barry Schwartz in SEO- und Webmaster-Kreisen Ernst nahm.
Nur in Einzelfällen reagierten Nutzer panisch auf die Abschaffung ihres Toolbar PageRanks.
https://i0.wp.com/www.in-seo.de/wp-content/uploads/2016/04/google-pagerank.png?fit=1392%2C870&ssl=18701392Dirkhttps://www.in-seo.de/wp-content/uploads/2023/04/dirk-schiff-logo-4.pngDirk2016-04-25 14:58:552016-04-25 14:58:55Die Zeiten von Toolbar PageRank sind endgültig vorbei
In vielen Fällen wird der Antrag auf erneute Überprüfung bei Google fehlschlagen. Einer der Hauptgründe ist, wenn der Webmaster bzw. Suchmaschinenoptimierer zu unerfahren ist und willkürlich Links entfernt, ohne dabei gewisse Richtlinien einzuhalten und ohne die Fehler zu kennen.
Inhaltsverzeichnis
1 Links aus den Google Webmaster Tools entwerten [anker name=”eins”]
2Moneykeywords können Schaden anrichten
3 Achtung vor voreiligen Schritten der Linkentwertung oder Löschung
4Links mit Tools entwerten
5Branded Links anstatt Keywords einsetzen
6 Antrag auf erneute Überprüfung abgelehnt – warum?
7 Aussage eines Google Mitarbeiters
Links aus den Google Webmaster Tools entwerten [anker name=”eins”]
Viele Webmaster stellen die Liste zum Entwerten der Links aus den Webmaster Tools zusammen. Sie erhalten Beispiele von Google und suchen unter der Rubrik „Links“ innerhalb der Webmaster Tools. Daraus erstellen sie dann die Liste und in den meisten Fällen wird anschließend der Antrag auf erneute Überprüfung abgelehnt. Warum? Weil die Backlinks, die in den Webmaster Tools zu finden sind, in den meisten Fällen bei Weitem nicht ausreichen, um die kompletten schadhaften Links zu entwerten. Die Linkliste für das Disavow-Tool muss aus diversen Quellen heraus erstellt werden. Nicht nur die Google Webmaster Tools liefern Ergebnisse zur Erstellung der Backlinkliste, sondern auch Tools wie z.B. Kostenlos
http://www.Backlinktest.com
http://www.backlinkwatch.com/index.php Kostenlos nur eingeschränkt nutzbar
https://ahrefs.com/site-explorer
https://moz.com/researchtools/ose/
https://de.majestic.com/
Moneykeywords können Schaden anrichten
Bei der Linkentwertung geht es entweder um die harten „Moneykeywords“ oder um unnatürliche Spamlinks. Um die Links mit Moneykeywords zu entwerten, bedarf es einer Anzeige der Ankertexte. Es macht Sinn, wenn Sie eine komplette Liste Ihrer Backlinks herunterladen und dann jeden einzelnen Link manuell ansehen und dann entscheiden, was Sie tun. Entwerten ist nicht immer die beste Möglichkeit, die alten Rankings wieder herzustellen. Wenn Sie die Möglichkeit haben, den Linktext zu ändern, sollten Sie dies in Erwägung ziehen. Somit geht die Linkpower der einzelnen Links nicht verloren. Entwerten, ändern oder löschen Sie jeden Backlink, den Sie für unnatürlich halten. Prüfen Sie anhand der IP-Adressen, des Domaininhabers und anderen Faktoren, ob die Links aus Linknetzwerken stammen. Falls das der Fall ist, löschen Sie diese Links. Backlinks von Webseiten, die zum Linkaufbau erstellt wurden, wie z.B. Brückenseiten, gehören ebenfalls auf die Entwertungsliste. Wenn Sie eine andere Webseite übernommen haben, lassen Sie sich am vom letzten Betreiber die genauen Details über die Linkaufbaumaßnahmen geben und prüfen diese Backlinks bis ins kleinste Detail.
Achtung vor voreiligen Schritten der Linkentwertung oder Löschung
Wenn Sie zu schnell viele Links entwerten, verlieren Sie Linkpower. Bevor Sie Links entwerten, sollten Sie erst einmal den Webmaster der jeweiligen Seite fragen, ob er den Linktext ändert. Das gilt nur für Backlinks, bei denen ausschließlich der Linktext für schlechte Rankings verantwortlich ist. Unnatürliche Links erkennen Sie auch daran, wenn sie nach einem immer gleichen Muster gesetzt wurden. Wenn Sie z.B. 100 Links über den Backlinkchecker finden, die den gleichen Linktext haben, aber keine Moneykeywords enthalten, sollten Sie diese ändern. Dies könnte z.B. auch ein Link sein, der mit dem Linktext „hier“ gesetzt wurde. Manche Linkverkäufer setzen Backlinks mit Tools, womit die Backlinks automatisiert mit immer gleichem Linktext gesetzt werden.
Links mit Tools entwerten
Vertrauen Sie nicht immer auf Linkerkennungstools. Wichtig ist, dass Sie zuerst alle Backlinks der Webseite überprüfen. Nur so können Sie sicher gehen, dass Sie in der Lage sind, jeden schadhaften Link aufzufinden. Arbeiten Sie lieber einige Wochen am Linkabbau und betreiben die Maßnahme sorgfältig, anstatt schnell unnötige Links zu löschen oder zu entwerten. Mit dem Entwerten von nicht schadhaften Links, können Sie einen großen Schaden anrichten, der nicht mehr rückgängig zu machen ist. Viele Backlinks, die in verschiedenen Backlinkchecker Tools gelistet sind, funktionieren nicht mehr und bei diesen macht es keinen Sinn, mit dem Disavow-Tool von Google zu entwerten. Daher sollte wirklich jeder einzelne Link vorher angeklickt werden, damit Sie sich diesen auf der jeweiligen Seite im Web ansehen können und dann entscheiden.
Branded Links anstatt Keywords einsetzen
Viele Tools zeigen nicht direkt die gesuchten unnatürlichen Links an, sondern Links, die den Firmen- oder Markennamen im Ankertext enthalten. Wenn die Webseite, die auf Ihre Seite verweist, nicht als schadhaft einzustufen ist, sollten Sie gesetzte Branded Links nicht löschen oder entwerten. Vielen Webmastern gefällt der Gedanke nicht, mühsam aufgebaute Backlinks zu verlieren, wobei sie absolut richtig liegen damit, denn wer instinktiv Links entwertet, aber nicht sicher ist, dass diese schadhaft sind, der verschlechtert unnötig seine Rankings.
Antrag auf erneute Überprüfung abgelehnt – warum?
In vielen Fällen wird die erstmalige Antragstellung, die SEOs für ihre Kunden oder der Webseitenbetreiber selbst gestellt haben, abgelehnt von Google. Das liegt häufig am zu schnellen und unkontrollierten Handeln. Wenn Sie z.B. nur Backlinks mit einem hohen PageRank entwerten lassen, weil Sie der Ansicht sind, dass diese Links Schaden anrichten, heißt das noch lange nicht, dass weitere Links mit einem bestimmten schädlichen Muster vorhanden sind. Für Google zählt ob die Links auf unnatürliche Art und Weise aufgebaut wurden.
Denken Sie über folgende Fragen genau nach und notieren sich die Antworten. Dies wird Ihnen dabei helfen, schadhafte Links zu finden.
Haben Sie Links gekauft?
Wo haben Sie Links gekauft?
Wurde der Linkverkäufer oder die Seite, auf der Ihre Links gesetzt wurden, abgestraft?
Rankt die fremde Seite, die auf Ihre Seite verlinkt schlechter als vorher? Verfügt diese überhaupt noch über einen PageRank?
Haben Sie Backlinks mit bestimmten Mustern zu Ihrer Seite gesetzt oder mit einem Tool gearbeitet, worüber Sie Links aufgebaut haben?
Haben Sie Backlinks in großen Mengen zu günstigen Preisen gekauft?
Gibt es Backlinks, die sich in einem Netzwerk befinden, wobei mehrere Webseiten, über fast identische IP-Adressen verfügen?
Aussage eines Google Mitarbeiters:
„Im Rahmen unseres Bestrebens hohe Qualität und Relevanz für Suchergebnisse zu gewährleisten, haben wir Maßnahmen bezüglich Linkkauf und -verkauf für ein europäisches sowie ein deutsches Linknetzwerk eingeleitet. Wenn ihr mehr über die Arten von unnatürlichen Links und die Schritte beim Reconsideration Request erfahren wollt, findet ihr mehrere Quellen in unserem Blogpost.“
Quelle: Johannes Mehlem 18.08.2014 Google Search Quality via Google Plus
Es kommt bei Googles Entscheidung nicht darauf an, wie viele Links Sie entwertet haben, sondern ob es die richtigen unnatürlichen Links waren. Es reicht nicht aus starke unnatürliche Links zu entweten. Auch schwache Backlinks mit schadhaften Linktexten in Form von Moneykeywords müssen entwertet werden. Ansonsten wird der Antrag auf erneute Überprüfung mit Sicherheit scheitern.
Nehmen Sie sich viel Zeit zur Bereinigung des Linkprofils. Es bringt nichts, ein paar auffällige Links schnell zu entwerten oder zu entfernen. Reichen Sie erst dann den Antrag auf erneute Überprüfung ein, wenn Sie sich sicher sind, alle Backlinks, die auf Ihre Seite verweisen, überprüft zu haben. Viele kostenlose Backlinkchecker zeigen nur einen Bruchteil Ihrer Backlinkstruktur. Sprechen Sie vor der Antragstellung bei Google die einzelnen Webmaster an und bitten um Entfernung oder Änderung der schlechten Links, je nach Bedarf. In vielen Fällen erhalten Sie keine Antwort vom Seitenbetreiber auf Ihre E-Mail. Greifen Sie zum Telefon und versuchen es auf diesem Wege, denn es ist ein sehr wichtiges Thema. Sie sollten nichts unversucht lassen, um Ihre Webseite zu retten. Wenn Sie eine Datei bei Google hochladen, darf diese nicht schreibgeschützt sein. Jede einzelne URL muss vollständig aufgeführt werden, so dass Google richtig darauf zugreifen kann. Schreiben Sie Google im Rahmen des Antrags ausführlich, warum Sie der Meinung sind, dass Ihre Webseite nicht mehr gegen die Richtlinien verstößt und die manuelle Maßnahme gegen Ihre Seite aufgehoben werden soll. Achten Sie dabei auf die Grammatik. Wenn Sie mehrere Links von einer Domain entwerten möchten, sollten Sie darauf achten, falls Links von einer Subdomain dieser Domain auf Ihre Seite verweisen, diese einzeln im Antrag zu deklarieren.
Dirk Schiff ist Head of SEO bei der AnalyticaA GmbH, Diplomierter Online Marketing Manager, Journalist (FJS) und Online Marketing Experte. Er optimiert seit 2007 Internetseiten. Er leitete bei stellenanzeigen.de den SEO-Bereich Inhouse, sowie für 40 Verlagsportale.
Duplicate Content bezeichnet den Inhalt, welcher sich in seiner Darstellung auf verschiedenen Websites befindet. Also doppelt oder mehrfach in nahezu identischer Form vorhanden ist. Google & Co. sehen das nicht gern. Sobald die Suchmaschinen den Duplicate Content finden, filtern sie ihn heraus und bewerten diesen Inhalt der Seite teilweise negativ.
Definition
Suchmaschinen definieren Duplicate Content, dass auf verschiedenen Domains / URLs fast identische Dokumente vorhanden sind. Diese Form kommt häufig dann vor, wenn Websitebetreiber ihre aktuelle Seite verändern wollen und eine neue Seite erstellen. In der Regel fließen die Inhalte der vorhandenen Seite in die neue Website ein. Die aktuelle Website bleibt noch für einige Zeit im Netz, während der Betreiber die neue Seite ebenfalls ins Web stellt. Da beide Seiten größtenteils über denselben Inhalt verfügen, ist ein Duplicate Content vorhanden, da beide Seiten im gleichen Webspace vorhanden sind.
Die verschiedenen Formen
Verschiedene Formen kommen bei Duplicate Content vor. Diese sind beispielsweise
• zwei Websites mit Dokumenten, die völlig identisch ist. • Zwei Websites mit gleichem Inhalt, identisch in jedem Byte, • Unterschiedliche URLs mit fast identischen Inhalten, • Seiten, die nicht in Zusammenhang stehen, dennoch über einen weitgehenden identischen Inhalt verfügen und • identisch Texte als Block oder Absatz auf verschiedenen Websites.
Was passiert bei doppeltem Content?
Bei den ersten beiden Formen behandelt Google die Seite, welche über mehr PageRank verfügt, als Originalseite und rankt sie “normal”. Alle weiteren Seiten, welche denselben Inhalt ganz oder ähnlich beinhalten, wertet die Suchmaschine als Kopien und wertet diese entsprechend ab.
Bei den unterschiedlichen URLs, sofern sich die Websites nicht im <head> unterscheiben, zeigt Google Konsequenz und wertet alle Seiten ab. Betroffen sind Meta-Keywords und Meta-Description. Mit dieser Methode versuchen die Suchmaschinen, die Methode vieler verschiedener URLs mit fast identischen Inhalten von Onlineshops oder Blogs in den Griff zu bekommen.
Websites, die in keinem Zusammenhang stehen und sich irgendwo im Web befinden, aber dennoch über nahezu identische Inhalte verfügen, bleiben von Strafen der Suchmaschinen verschont. Google & Co. ist es nicht möglich, sich um die vielen einzelnen Seiten im Netz zu kümmern und Domain mit Spam zu finden. Natürlich fällt es Google auf, wenn auf einer einzigen Domain viele hundert Seiten auftauschen, die aus dem “Nichts” kommen. Bei Textblöcken oder -absätzen ist es unwahrscheinlich, dass Google und Co. die Ähnlichkeiten erkennen.
Gefahren für Seiten mit Duplicate Content
Mit dem PageRank-Algorithmus schob Google dem Duplicate Content einen Riegel vor. Brückenseiten oder Seiten, die im Web “vergessen” wurden erhalten von den Suchmaschinen einen geringen PageRank und verschwinden damit von alleine aus dem Index. Allein der Kauf von PageRank macht den Suchmaschinen oft einen Strich durch ihre Rechnung. Deshalb stellt Duplicate Content damals wie heute bei der Indexierung des Netzes das Hauptproblem dar.
Die Suchmaschinen wie Google & Co. haben derzeit keinen Plan, wie sie mit Duplicate Content in der Regel verfahren. Diese Planlosigkeit macht die ganze Angelegenheit riskant und gefährlich. Eine Reihe Websites brechen ein, ohne dass ein Grund zu erkennen ist. Nur sehr langsam kommen diese Seiten wieder nach oben. Kein Risiko, in den Gefahrenbereich der Suchmaschinen zu geraten, haben Websitebetreiber, deren Seiten keinerlei Aktivitäten im “Grauzonenbereich” aufweisen.
Dirk Schiff ist Head of SEO bei der AnalyticaA GmbH, Diplomierter Online Marketing Manager, Journalist (FJS) und Online Marketing Experte. Er optimiert seit 2007 Internetseiten. Er leitete bei stellenanzeigen.de den SEO-Bereich Inhouse, sowie für 40 Verlagsportale.
Für alle überraschend kam die Aktualisierung des öffentlichen PageRank von Google. Im Gegensatz zur Bedeutungslosigkeit für das Ranking genießt der PageRank bei Betreibern von Websites ungebrochene Aufmerksamkeit. Google
Die Community der SEO hat viel erwartet, doch kein öffentliches Page-Rank-Ubdate. Dennoch spielte Google dieses aus, was die SEO-Gemeinde unerwartet traf. Webseitenbetreiber haben die Möglichkeiten, die aktualisierten, von Google vorgegebenen Werte von den einschlägigen Websites abrufen. Gleiches bieten die Webdienste an, von denen gleich mehrere listen, wie beispielsweise seo-united.
Kaum von Bedeutung, doch hartnäckig im Mittelpunkt – PageRank
Beim Ranking ist der PageRank bedeutungslos oder hat nur eine geringe Bedeutung. Anders beim Crawling! Hier spielt der PageRank eine größere Rolle. Seinen Kommentar veröffentlichte Soeren Eisenschmidt auf eisy.eu. Er ist der Meinung, der PageRank habe Einfluss auf den Google-Bots und dessen Aufenthalt auf einer Seite. Der Google-Bot besucht die Unterseiten der Webseiten selten oder gar nicht, wenn sie einen niedrigen PageRank aufweisen. Dem PageRank schrieb SEO viele Jahre Bedeutung für das Ranking zu. Diese These ist mittlerweile überholt. Experten streiten dies sogar vehement ab.
Mittlerweile hat Google eine Aktualisierung des öffentlichen Page Ranks vorgenommen. Matt Cutts ist bei Google der Leiter des Webspam-Teams. Er bestritt über Twitter im Oktober 2013 die Wahrscheinlichkeit eines Updates für den PageRank im Jahr 2013. Er wäre überrascht, wenn Google dieses Jahr ein Update ins Netz bringt. Intern im Unternehmen Google aktualisieren die Mitarbeiter den PageRank bei allen Websites, die sich im Index befinden. In unregelmäßigen Abständen gelangen die Werte durch Google an die Öffentlichkeit.
Dirk Schiff ist Head of SEO bei der AnalyticaA GmbH, Diplomierter Online Marketing Manager, Journalist (FJS) und Online Marketing Experte. Er optimiert seit 2007 Internetseiten. Er leitete bei stellenanzeigen.de den SEO-Bereich Inhouse, sowie für 40 Verlagsportale.
https://www.in-seo.de/wp-content/uploads/2023/04/dirk-schiff-logo-4.png00Dirk Schiffhttps://www.in-seo.de/wp-content/uploads/2023/04/dirk-schiff-logo-4.pngDirk Schiff2014-05-04 13:54:242014-05-04 13:54:24Google ist bei SEO immer für eine Überraschung gut!
Ohne Offpage-Optimierung ist die Auffindbarkeit einer Webseite in den Suchmaschinen fast unmöglich. Maßnahmen außerhalb der eigenen Webseite bezeichnet man als Offpage-Optimierung. Der Aufbau einer vertrauenswürdigen Backlinkstruktur ist nach wie vor der wichtigste Faktor für das Ranking. Die eigehenden Links sollten hauptsächlich aus einem themenrelevanten Umfeld stammten. Über ein manuelle Recherche oder eine Recherche mit kostenlosen und kostenpflichtigen Tools lassen sich gute Backlinks für die eigene Webseite finden. Auch Kontakte zu Linkpartnern, Freunden oder Bekannten gehören dazu. Umso stärker und vertrauenswürdiger die Backlinkstruktur des Partners ist, umso mehr „Trust“ bzw. Vertrauen vererbt die Webseite des Partners. Die Quantität der Backlinks ist lange nicht mehr so ein großer Faktor wie vor 3 Jahren. Qualität und Vertrauen zählen wesentlich mehr.
PageRank
Der PageRank hat immer noch eine gewisse Bedeutung für Webseitenbetreiber und Google, sagt aber nicht immer etwas über die Rankings aus. Im Web befinden sich einige Webseiten, die mit Top-Keywords unter den ersten 10 Plätzen bei Google ranken, welche einen niedrigen PageRank verzeichnen. PageRank ist nicht alles. Wichtiger ist es sich die Webseitenstruktur, Themenrelevanz zur eigenen Seite und diverse Werte anzuschauen.
Dirk Schiff ist Head of SEO bei der AnalyticaA GmbH, Diplomierter Online Marketing Manager, Journalist (FJS) und Online Marketing Experte. Er optimiert seit 2007 Internetseiten. Er leitete bei stellenanzeigen.de den SEO-Bereich Inhouse, sowie für 40 Verlagsportale.
https://www.in-seo.de/wp-content/uploads/2023/04/dirk-schiff-logo-4.png00Dirk Schiffhttps://www.in-seo.de/wp-content/uploads/2023/04/dirk-schiff-logo-4.pngDirk Schiff2012-09-12 14:58:302012-09-12 14:58:30Offpage-Optimierung ist immer noch der wichtigste Ranking Faktor
Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren.Weitere InformationenAkzeptierenOpt-Out