Beiträge

Googles neustes Update

Phantom-Update von Google

Googles neustes Update

Phantom Update – Hauptverdächtiger ist Google

Wieder einmal gibt es in den Suchergebnissen Bewegungen von einer Stärke, die den Verdacht auf ein neues Update von -Google aufkommen lassen. Besonders in den letzten Tagen wurden starke Schwankungen in den Suchergebnislisten bei der Suchmaschine Google gemeldet.
In den Rankings stieg eine große Anzahl Domains extrem stark an, während andere aus unerklärlichen Gründen kaum noch zu finden sind. Eine Reihe unserer Kunden meldeten diese Vorgänge bei uns. Wir haben alle Möglichkeiten überprüft, so auch die verschiedenen Google-Updates wie Panda– und Pinguin-Update. Gefunden haben wir keine Unregelmäßigkeit; auch in den Google Webmaster-Tools wurden wir nicht fündig.
Experten der Branche nennen dieses Phänomen mittlerweile Phantom Update und unter Verdacht steht natürlich Google. Phantom Update ist eine Bezeichnung der Branche. Es ist zwar ein mehr als ungewöhnlicher Name, der daher rührt, dass Google offiziell kein Update bestätigt hat. Blickt man zurück, so stellt man fest, dass vor etwa zwei Jahren schon einmal der Verdacht bestand, dass Google ein “Phantom-Update” durch das Netz schickte – eine Bestätigung von Google darüber steht bis heute aus. Auf die direkte Anfrage von Barry Schwartz (Search Engine Land) bei Google wurde ihm offiziell mitgeteilt, dass es von Google kein Update gab. Es hat kein Update gegeben, wobei sich das “kein” auch auf Panda- oder Penguin-Update bezieht.

SEOs und das Phantom Update

Über diese Aussage von Google lächeln viele SEOs. Sie glauben der Aussage von Google überhaupt nicht. Martin Mißfeldt ist ein in Deutschland bekannter SEO. Er schreibt in seinem Blog detailliert über den Sachstand. Mehr als 30 % Sichtbarkeit haben seine Seiten zu Teil verloren. Er nennt die Seiten beim Namen und erwähnt in seinem Block beispielsweise die Seite www.brillen-sehhilfen.de. Der Eindruck von Martin Mißfeldt lässt sich tatsächlich ebenfalls im Sichtbarkeitsindex (OVI) der XOVI Suite nachvollziehen. Hier kann man klar erkennten, dass die von Martin Mißfeldt betriebene Website stetig gewachsen ist. Schwankungen gibt es im Netz immer, egal ob es sich um besondere Anstiege oder Abstiege handelt. Martin Mißfeldt ist ein Experte, der nichts auf unnatürliche Linkbuildings gibt, das weiß jeder, der seinen Block verfolgt. Auf eine schlechte Suchmaschinenoptimierung ist der Sichtbarkeitsverlust in keinem Fall zurückzuführen; hier ist eine andere Ursache verantwortliche, die noch nicht ergründet wurde.

Jonas Weber von Google

Der frühere Mitarbeiter im Google Dubliner Search Quality Team, Jonas Weber, heute selbstständiger SEO besuchte erst vor Kurzem die SMX Sidney in Australien. Ebenfalls anwesend war vom Google-Webmaster Trends Team Gary Illyes als Speaker. In seinem Recap hat Jonas Weber einige Aussagen von Gary Illyes festgehalten. Zu diesen Aussagen gehört auch die Antwort auf die Frage zu den großen Verschiebungen in den Rankings der letzten Wochen.

Hierzu erklärte Gary Illyes:

“Einiges am Core Algo haben wir verändert. Dabei handelt es sich um Dinge, die nicht für die Öffentlichkeit bestimmt sind. Über geheime Dinge kommunizieren wir nicht. Mit dem Mobile Update hat dies jedoch nichts zu tun”  Damit gibt Gary Illyes einen Hinweis, dass tatsächlich von Google am Algorithmus Änderungen vorgenommen werden.

Es gibt wie immer Gewinner und Verlierer

XOVI hat sich bezüglich dieser Tatsache einige Domains näher angesehen. 
Hier die Sichtbarkeits-Verlierer: 
Es fällt besonders ins Auge, dass es sich um größere Brands handelt, die teilweise einen massiven Sichtbarkeitsverlust oder OVI Wert verloren haben.

Beispiele:

Www.billiger.de, eine Preissuchmaschine büßte etwa 10 % des OVI gegenüber der Vorwoche ein. Dabei stellte XOVI fest, dass die Rankings nicht vollständig fehlen, sondern “lediglich”“ schlechter wurden. Erleidet ein rankenden Keywords einen Komplettverlust, so wird dies mit 1,44 % verzeichnet; ein Wert, der niemanden in irgendeiner Weise verunsichern würde. Der OVI wird jedoch auch an der Platzierung gemessen, ist es nur natürlich, dass die Sichtbarkeit sinkt, wenn sich die die Platzierungen der Website in den Suchergebnisseiten (SERPs oder Search Engine Result Page)) verschlechtert. Gegenüber der Vorwoche verlor die Domain an den TOP 10-Rankings etwa fünf Prozent. Für einen verminderten OVI führt XOVI ein weiteres Beispiel ans. Dabei handelt es sich um das Finanzportal “www.finanzen.de”. Das von Google geheim gehaltene und “nicht-stattgefundene” Phantom-Update hat wohl auch hier zugeschlagen. Die Seite erlitt gegenüber der Vorwoche einen Verlust von etwa zwölf Prozent; dieser Verlust wird mit Sicherheit auch im Traffic spürbar sein. Dieser Umstand hängt davon ab, welche Keywords im freien Fall waren und ob viel Traffic kam.

Ranking Boost

Die Kehrseite ist, dass eine Reihe Domains an Sichtbarkeit erheblich gewannen. Dies passierte nicht kontinuierlich, sondern schlagartig. Www.blume2000.de und www.fleurop.de, zwei bekannte Händler im Bereich Blumenversand erhielten zur gleichen Zeit in den Rankings einen Boost. Im OVI ist allerdings mehr als deutlich erkennbar, beide Websites verzeichneten in den vergangenen Monaten mehr einen Seitwärtstrend. Sichtbar waren kleine Schwankungen, die im normalen Bereich lagen. Bei diesen hatte fleurop in der Regel die Nase vorne. Seit dem 03. Mai 2015 verzeichnen beide Domains Gewinne im Ranking – nicht einzeln, sondern parallel. Auffällig ist, der parallele Verlauf der Entwicklung.

Sparkasse

Www.sparkasse.de, das Portal der Sparkassen ist ein weiterer Gewinner des Phantom-Updates. Dabei handelt es um ein Finanzportal der Sparkassen insgesamt und nicht um eine spezielle Sparkasse. Das Portal erlitt in den ersten Mai-Tagen (bis 03,05,2015) einen Verlust im Ranking. Zum 10. Mai 2015 erfolgte eine Wiederherstellung des alten Rankingstandes; ein nochmaliger Anstieg erfolgte am 18. Mai 2015. Aktuell rankt die Sparkassen-Website so gut wie nie zuvor.

Ergebnis

Es ist fast sicher, dass Google am Algorithmus offensichtliche Änderungen vorgenommen hat. Eine große Anzahl SEOs stellten große Schwankungen beim Ranking ihrer eigenen Projekten oder bei denen ihrer Kundenfest. Offiziell bestreitet oder verneint Google das Stattfinden eines konkretes Updates. Die Suchmaschine gibt lediglich die in der Vergangenheit stattgefundenen Anpassungen zu.

Tipp

Panik ist jetzt ein schlechter Ratgeber. Kein SEO sollte jetzt Panik bekommen und seine bisherigen Strategien verwerfen. Auch dann nicht, wenn es einen starken Ranking-Verlust gab. Abwarten und die Entwicklung der SERPs beobachten, ist jetzt die bessere Strategie. Es ist mit Sicherheit davon auszugehen, dass die SEO-Branche dem “von Google bestrittenen” Phantom Update auf den Grund gehen wird. Spezialisten werden auf die Suche gehen und fündig werden, indem sie möglicherweise ein Muster erkennen, das hinter den Veränderungen steckt. Wir erfahren in den Blogs der SEO-Experten oder aber in einschlägigen Foren oder in den sozialen Netzwerken über ihre Fortschritte und ihre Ergebnisse. Es ist selbstverständlich bitter, wenn die Website einen allgemeinen Sichtbarkeitsverlust hinnehmen muss. Wichtig ist jedoch, dass die wichtigen Keyword nicht aus den Augen verloren gehen. . Das Monitoring-Tool der XOVI Suite eignet sich hierfür am besten (Sowie: Blog Artikel zum Keyword Monitoring). Sie können dort die Traffic bringenden Keywords anlegen. Die jeweiligen Rankings lassen sich a täglich auf diese Weise beobachten.

Keywords

Auch kann ein direkter Vergleich mit Mitbewerbern und den Keywords möglichweise Aufschluss darüber bringen, welche Veränderungen man auf der eigenen Seite vornehmen muss, damit die Seite bei Google wieder in den TOP-Rankings kommt. Es ist keinesfalls ausgeschlossen, dass Google hier “lediglich” einen Test durchführt. Deshalb ist es ratsam, die Entwicklung etwas abwarten. Die Bezeichnung Google Phantom Update, welche das nicht vorhandene Update von der Branche erhielt, macht dieser Bezeichnung alle Ehre.

Update

Um ein Muster festzustellen, schaute sich Martin Mißfeldt seine Seiten nochmals näher an. Heftig wird auch in seinem Blog über das Update diskutiert.

20. Mai 2015

John Müller von Google hat am 19.05.2015 im Google Webmaster Hangout das Phantom Update bestätigt. Er erklärte, dass es sich um ein normales Update des Algorithmus handelt, wie es auch in der Vergangenheit öfter vorkam. Es hat dieses Mal lediglich mehr Seite als zuvor betroffen. Google hat die Qualität von Webseiten neu bewertet, so die Begründung von John Müller. Google will auf seinen Ergebnislisten nach Möglichkeit nur Seiten mit der besten Qualität anzeigen, so Müller weiter. Was John Müller nicht erwähnte, sind die Kriterien, welche jetzt der Beurteilung der Qualität von Google zugrunde gelegt werden.

Quellen:

http://www.xovi.de/2015/05/phantom-update-hat-google-wieder-zugeschlagen/

 

spam update

Webspam Update gegen unnatürliche SEO

Google geht gegen verschiedene Arten von Spam vor, die vor einiger Zeit ohne Folgen blieben. Unnatürliche Links, Webspam, Spam, Moneykeywords und weitere manipulative SEO-Maßnahmen . Manche Optimierungsfehler werden durch den Algorithmus mit einer Verschlechterung der Rankings bestraft und andere von Google Mitarbeitern, durch manuelle Maßnahmen.

spam update

Algorithmus

Wer zu häufig sogenannte „Moneykeywords“ als Linktext einsetzt, muss damit rechnen, dass der Algorithmus die Seite schlecht bewertet und hat dadurch Einbußen bei den Rankings. Google verbesserte mit dem Penguin-Algorithmus die Suchergebnisse. Bereits mit dem Einsatz von Moneykeywords, verstößt man gegen Googles Richtlinien.

Manuelle Abstrafung

Wer Links über Netzwerke gesetzt hat oder offensichtlich gekauft hat wird von Google manuell bestraft, wobei in manchen Fällen nur ein Teil der Seite betroffen ist und bei schwerwiegenden Verstößen, häufig sogar die komplette Seite.

Selbst Gastbeiträge sind laut Google Guru Matt Cutts kritisch zu betrachten

Matt Cutts kündigte an, das auch Gastbeiträge sich im Visier von Google befinden. Im Detail hat er nicht bekannt gegeben, was erlaubt und was verboten ist. Diese könnten als Manipulation der Suchergebnisse gesehen werden. Auch bei dieser Maßnahme kann ein manuelles Penalty verhängt werden.

Deutsche Linknetzwerke abgestraft

Kurz nach Matt Cutts Ankündigungen wurden Deutsche Linknetzwerke abgestraft. Was ist passiert? Die Webseiten der sogenannten Content-Marketing-Anbieter wurden abgestraft. Genauso auch kann es deren Kunden erwischen, die dort Links ge- oder verkauft haben. Der Käufer leidet alleine schon darunter, wenn die Seite des Verkäufers abgestraft wurde, denn dann ging die Power des gekauften Links verloren. Linkkäufer werden häufig sogar aus dem Google Index und den Google News rausgeworfen. Wenn die Meldung den Webmaster erreicht, dass eine manuelle Maßnahme aufgrund unnatürlicher Links, gegen seine Seite unternommen wurde, ist es erst einmal zu spät, die Seite schnell zu retten. Rankingverluste sind die Folge davon und es bleiben ihm ein paar Möglichkeiten. Er kann schadhafte Links entfernen und bei Links mit Moneykeywords, wo an sich der Link selbst nicht schadhaft ist, aber der Linktext für schlechte Rankings sorgt, den Linktext ändern lassen. Lassen die schädlichen Links sich nicht entfernen, so kann er diese über das Disavow-Tool von Google entwerten lassen. Diese Maßnahme ist derzeit umstritten, wobei ein Google-Mitarbeiter mitteilte, dass bei Neuaufbau qualitativ hochwertiger Links, es möglich sei, ohne Linkentwertung oder Abbau, die bestrafte Seite wieder aus der Maßnahme zu befreien. Es macht Sinn weiterhin gute Links aufzubauen und das bereits während einer Abbaumaßnahme.

Branchenbücher verloren zum Teil Rankings

Im letzten Jahr haben verschiedene Aggregatoren, Branchenbücher und Portale mit minderwertigen Inhalten, viele Rankings verloren.

SEO Backlinks entwerten

Suchmaschinenoptimierung und richtig Links entwerten

In vielen Fällen wird der Antrag auf erneute Überprüfung bei Google fehlschlagen. Einer der Hauptgründe ist, wenn der Webmaster bzw. Suchmaschinenoptimierer zu unerfahren ist und willkürlich Links entfernt, ohne dabei gewisse Richtlinien einzuhalten und ohne die Fehler zu kennen.

SEO Backlinks entwerten

Inhaltsverzeichnis

  • 1 Links aus den Google Webmaster Tools entwerten [anker name=”eins”]
  • 2 Moneykeywords können Schaden anrichten
  • 3 Achtung vor voreiligen Schritten der Linkentwertung oder Löschung
  • 4 Links mit Tools entwerten
  • 5 Branded Links anstatt Keywords einsetzen
  • 6 Antrag auf erneute Überprüfung abgelehnt – warum?
  • 7 Aussage eines Google Mitarbeiters

 

 

Links aus den Google Webmaster Tools entwerten [anker name=”eins”]

Viele Webmaster stellen die Liste zum Entwerten der Links aus den Webmaster Tools zusammen. Sie erhalten Beispiele von Google und suchen unter der Rubrik „Links“ innerhalb der Webmaster Tools. Daraus erstellen sie dann die Liste und in den meisten Fällen wird anschließend der Antrag auf erneute Überprüfung abgelehnt. Warum? Weil die Backlinks, die in den Webmaster Tools zu finden sind, in den meisten Fällen bei Weitem nicht ausreichen, um die kompletten schadhaften Links zu entwerten. Die Linkliste für das Disavow-Tool muss aus diversen Quellen heraus erstellt werden. Nicht nur die Google Webmaster Tools liefern Ergebnisse zur Erstellung der Backlinkliste, sondern auch Tools wie z.B.
Kostenlos
http://www.Backlinktest.com
http://www.backlinkwatch.com/index.php
Kostenlos nur eingeschränkt nutzbar
https://ahrefs.com/site-explorer
https://moz.com/researchtools/ose/
https://de.majestic.com/

Moneykeywords können Schaden anrichten

Bei der Linkentwertung geht es entweder um die harten „Moneykeywords“ oder um unnatürliche Spamlinks. Um die Links mit Moneykeywords zu entwerten, bedarf es einer Anzeige der Ankertexte. Es macht Sinn, wenn Sie eine komplette Liste Ihrer Backlinks herunterladen und dann jeden einzelnen Link manuell ansehen und dann entscheiden, was Sie tun. Entwerten ist nicht immer die beste Möglichkeit, die alten Rankings wieder herzustellen. Wenn Sie die Möglichkeit haben, den Linktext zu ändern, sollten Sie dies in Erwägung ziehen. Somit geht die Linkpower der einzelnen Links nicht verloren. Entwerten, ändern oder löschen Sie jeden Backlink, den Sie für unnatürlich halten. Prüfen Sie anhand der IP-Adressen, des Domaininhabers und anderen Faktoren, ob die Links aus Linknetzwerken stammen. Falls das der Fall ist, löschen Sie diese Links. Backlinks von Webseiten, die zum Linkaufbau erstellt wurden, wie z.B. Brückenseiten, gehören ebenfalls auf die Entwertungsliste. Wenn Sie eine andere Webseite übernommen haben, lassen Sie sich am vom letzten Betreiber die genauen Details über die Linkaufbaumaßnahmen geben und prüfen diese Backlinks bis ins kleinste Detail.

Achtung vor voreiligen Schritten der Linkentwertung oder Löschung

Wenn Sie zu schnell viele Links entwerten, verlieren Sie Linkpower. Bevor Sie Links entwerten, sollten Sie erst einmal den Webmaster der jeweiligen Seite fragen, ob er den Linktext ändert. Das gilt nur für Backlinks, bei denen ausschließlich der Linktext für schlechte Rankings verantwortlich ist. Unnatürliche Links erkennen Sie auch daran, wenn sie nach einem immer gleichen Muster gesetzt wurden. Wenn Sie z.B. 100 Links über den Backlinkchecker finden, die den gleichen Linktext haben, aber keine Moneykeywords enthalten, sollten Sie diese ändern. Dies könnte z.B. auch ein Link sein, der mit dem Linktext „hier“ gesetzt wurde. Manche Linkverkäufer setzen Backlinks mit Tools, womit die Backlinks automatisiert mit immer gleichem Linktext gesetzt werden.

Links mit Tools entwerten

Vertrauen Sie nicht immer auf Linkerkennungstools. Wichtig ist, dass Sie zuerst alle Backlinks der Webseite überprüfen. Nur so können Sie sicher gehen, dass Sie in der Lage sind, jeden schadhaften Link aufzufinden. Arbeiten Sie lieber einige Wochen am Linkabbau und betreiben die Maßnahme sorgfältig, anstatt schnell unnötige Links zu löschen oder zu entwerten. Mit dem Entwerten von nicht schadhaften Links, können Sie einen großen Schaden anrichten, der nicht mehr rückgängig zu machen ist. Viele Backlinks, die in verschiedenen Backlinkchecker Tools gelistet sind, funktionieren nicht mehr und bei diesen macht es keinen Sinn, mit dem Disavow-Tool von Google zu entwerten. Daher sollte wirklich jeder einzelne Link vorher angeklickt werden, damit Sie sich diesen auf der jeweiligen Seite im Web ansehen können und dann entscheiden.

Branded Links anstatt Keywords einsetzen

Viele Tools zeigen nicht direkt die gesuchten unnatürlichen Links an, sondern Links, die den Firmen- oder Markennamen im Ankertext enthalten. Wenn die Webseite, die auf Ihre Seite verweist, nicht als schadhaft einzustufen ist, sollten Sie gesetzte Branded Links nicht löschen oder entwerten. Vielen Webmastern gefällt der Gedanke nicht, mühsam aufgebaute Backlinks zu verlieren, wobei sie absolut richtig liegen damit, denn wer instinktiv Links entwertet, aber nicht sicher ist, dass diese schadhaft sind, der verschlechtert unnötig seine Rankings.

Antrag auf erneute Überprüfung abgelehnt – warum?

In vielen Fällen wird die erstmalige Antragstellung, die SEOs für ihre Kunden oder der Webseitenbetreiber selbst gestellt haben, abgelehnt von Google. Das liegt häufig am zu schnellen und unkontrollierten Handeln. Wenn Sie z.B. nur Backlinks mit einem hohen PageRank entwerten lassen, weil Sie der Ansicht sind, dass diese Links Schaden anrichten, heißt das noch lange nicht, dass weitere Links mit einem bestimmten schädlichen Muster vorhanden sind. Für Google zählt ob die Links auf unnatürliche Art und Weise aufgebaut wurden.
Denken Sie über folgende Fragen genau nach und notieren sich die Antworten. Dies wird Ihnen dabei helfen, schadhafte Links zu finden.

  • Haben Sie Links gekauft?
  • Wo haben Sie Links gekauft?
  • Wurde der Linkverkäufer oder die Seite, auf der Ihre Links gesetzt wurden, abgestraft?
  • Rankt die fremde Seite, die auf Ihre Seite verlinkt schlechter als vorher? Verfügt diese überhaupt noch über einen PageRank?
  • Haben Sie Backlinks mit bestimmten Mustern zu Ihrer Seite gesetzt oder mit einem Tool gearbeitet, worüber Sie Links aufgebaut haben?
  • Haben Sie Backlinks in großen Mengen zu günstigen Preisen gekauft?
  • Gibt es Backlinks, die sich in einem Netzwerk befinden, wobei mehrere Webseiten, über fast identische IP-Adressen verfügen?
Aussage eines Google Mitarbeiters:

„Im Rahmen unseres Bestrebens hohe Qualität und Relevanz für Suchergebnisse zu gewährleisten, haben wir Maßnahmen bezüglich Linkkauf und -verkauf für ein europäisches sowie ein deutsches Linknetzwerk eingeleitet.
Wenn ihr mehr über die Arten von unnatürlichen Links und die Schritte beim Reconsideration Request erfahren wollt, findet ihr mehrere Quellen in unserem Blogpost.“
Quelle: Johannes Mehlem 18.08.2014 Google Search Quality via Google Plus

Es kommt bei Googles Entscheidung nicht darauf an, wie viele Links Sie entwertet haben, sondern ob es die richtigen unnatürlichen Links waren. Es reicht nicht aus starke unnatürliche Links zu entweten. Auch schwache Backlinks mit schadhaften Linktexten in Form von Moneykeywords müssen entwertet werden. Ansonsten wird der Antrag auf erneute Überprüfung mit Sicherheit scheitern.
Nehmen Sie sich viel Zeit zur Bereinigung des Linkprofils. Es bringt nichts, ein paar auffällige Links schnell zu entwerten oder zu entfernen. Reichen Sie erst dann den Antrag auf erneute Überprüfung ein, wenn Sie sich sicher sind, alle Backlinks, die auf Ihre Seite verweisen, überprüft zu haben. Viele kostenlose Backlinkchecker zeigen nur einen Bruchteil Ihrer Backlinkstruktur. Sprechen Sie vor der Antragstellung bei Google die einzelnen Webmaster an und bitten um Entfernung oder Änderung der schlechten Links, je nach Bedarf. In vielen Fällen erhalten Sie keine Antwort vom Seitenbetreiber auf Ihre E-Mail. Greifen Sie zum Telefon und versuchen es auf diesem Wege, denn es ist ein sehr wichtiges Thema. Sie sollten nichts unversucht lassen, um Ihre Webseite zu retten. Wenn Sie eine Datei bei Google hochladen, darf diese nicht schreibgeschützt sein. Jede einzelne URL muss vollständig aufgeführt werden, so dass Google richtig darauf zugreifen kann. Schreiben Sie Google im Rahmen des Antrags ausführlich, warum Sie der Meinung sind, dass Ihre Webseite nicht mehr gegen die Richtlinien verstößt und die manuelle Maßnahme gegen Ihre Seite aufgehoben werden soll. Achten Sie dabei auf die Grammatik. Wenn Sie mehrere Links von einer Domain entwerten möchten, sollten Sie darauf achten, falls Links von einer Subdomain dieser Domain auf Ihre Seite verweisen, diese einzeln im Antrag zu deklarieren.

 

SEO nach den Spielregeln von Google

Suchmaschinenoptimierung besteht aus den Teilbereichen OnPage und OffPage. Da sich OnPage mit der Struktur der eigenen Seite befasst, geht diese der OffPage-Optimierung voraus.

Beautiful slender woman relaxing with her laptop

OnPage-Optimierung

Bei der OnPage-Optimierung geht es hauptsächlich um die inhaltliche Anpassung der eigenen Website. Die Regeln stellte Google 2011 mit der Aktivierung des Panda Updates, mit dem Google seinen Algorithmus nach Bedarf aktualisiert. Zur OnPage-Optimierung gehören neben der Struktur auch die Inhalte von allen Unterseiten einer Website. Spannende Webseiten haben nach den Regeln von Google interessant gestaltete Inhalte, die informativ und von hoher Qualität im kompletten Content ausgestattet sind und damit einzigartig sind. Zu den Inhalten gehören ebenfalls die Überschriften, die in ihrer Wortwahl die Thematik des nachfolgenden Textes aufgreifen. Die ordentliche Formatierung und Strukturierung ergänzen die OnPage-Optimierung.

Keywords – für Suchmaschinen ein wichtiger Faktor

Wer sich über Suchmaschinen auf die Suche nach bestimmten Informationen begibt, verwendet Schlagwörter oder Schlüsselwort-Kombinationen. Anhand dieser Eingabe finden Suchmaschinen geeignete Seiten und listen diese auf. Bei der OnPage-Optimierung nutzen Suchmaschinenoptimierer Keywords und/oder Keyword-Kombinationen, um den Suchmaschinen die Suche nach ihrer Website zu erleichtern und diese im oberen Bereich der Ergebnislisten aufzuführen. Diese werden aber nicht in Form von Meta-Tag-Keywords, sondern in Title und Description eingesetzt.

Texte und Keywords
Im Textblock befinden sich Keywords, die mit dem Textblock einen logischen Zusammenhang bilden. Meta-Tag Keywords berücksichtigen die Suchmaschinen nicht; Suchmaschinenoptimierer verwenden Title- und Description-Tags mit Blick auf die SERPs, die Auszüge des Textes aus beiden Tags anzeigen. Um geeignete Keywords und Keyword-Kombinationen zu finden, bedienen sich Suchmaschinenoptimierer verschiedenen Datenbanken, die im Netz frei verfügbar sind. Zu diesen gehören die Keyword-Datenbank des Google-Adwords-Keywordplaners oder der MetaGer Web-Assoziator sowie weitere Tools. Der Google AdWords KeywordP Planer zeigt Begriffe, die mit dem ursprünglichen Keyword verwandt oder ähnlich sind. Daneben ist der Google AdWords Keyword Planer eine interessante Adresse, weil er die Anzahl der Suchanfragen auflistet, deren Menge in etwa den monatlichen Suchanfragen entspricht.
In der Regel beinhaltet eine Seite der Website ein bis drei Keywords, die sich im Textblock, sowie in Title und Description verteilen. Bei einer Website mit vielen weiteren Unterseiten befinden sich die Keywords auf den separaten Seiten. Suchmaschinenoptimierer legen für umfangreiche Websites neben dem Hauptschlüsselwort auch die entsprechenden Nebenkeywords fest. Dabei achten sie auf die Inhalte, die sich thematisch mit den Keywords ergänzen.

Feinheiten der OnPage-Optimierung

Eine weitere Maßnahme stellt Landing Page dar. Dies bezeichnet eine Weiterleitung über einen Link auf eine spezielle Seite. Nutzer gelangen bequem beim Anklicken des Links auf eine für diesen Zweck optimierte Seite. Für Suchmaschinenoptimierer ist es wichtig, die Techniken von Webcrawlern und Sortieralgorithmen der Suchmaschinen zu kennen, um eine Website optimal zu gestalten. Dies geschieht bei der OnPage-Optimierung und gestaltet sich schwierig. Grund dafür sind die Suchmaschinen, die es vermeiden, große Teile ihrer Technik offenzulegen. Den kleinen Teil, den sie bekannt geben, ändern und erneuern sie regelmäßig.
Diese Maßnahmen dienen der Vorbeugung von Missbrauch, mit dem sich “schlechte” Seiten auf den oberen Rängen der Ergebnislisten schleichen. Suchmaschinen wie Google wollen Ergebnislisten, die den Nutzern relevante, interessante und einzigartige Informationen bieten. Die unbekannten und geheimen Techniken der Suchmaschinen untersucht und analysiert Reverse Engineering. Dabei stehen die Inhalte der Ergebnislisten im Fokus. Mit dieser Analyse erhalten Suchmaschinenoptimierer Aufschluss über das Indizieren der Website von den Suchmaschinen und welche Kriterien beim Bewerten der Websites im Fokus stehen. Anders als bei Geschäftsbriefen legen die Suchmaschinen derzeit immer noch wenig Wert auf eine korrekte Grammatik und eine Schreibweise nach der deutschen Rechtschreibung. Falsch geschriebene Keywords, die Google zuordnen kann, finden die Suchalgorithmen bei ihrer Suche ebenfalls. Google & Co. haben die Technik, um falsche Schreibweisen zu erkennen und den Suchbegriffen zuzuordnen.
Die Mechanismen der Suchmaschinen erfahren eine stetige Weiterentwicklung; eine Tatsache, die Suchmaschinenoptimierer wissen. Dies ist ein Grund, warum die OnPage-Optimierung immer wieder auf dem Programm steht. Suchmaschinenoptimierer überprüfen bei jeder Optimierung die Relevanz der Keywords und erneuern Texte und Struktur nach den aktuellen Trends und Vorgaben. Nicht nur die Regeln von Google ändern sich mit jedem Update, sondern auch das Verhalten der Nutzer im Netz.

OffPage-Optimierung

Im Gegensatz zur OnPage-Optimierung findet die OffPage-Optimierung außerhalb der eignen Website statt. Bei der OffPage-Optimierung stehen eingehenden Links (Backlinks) im Fokus. Backlinks sind Links, die von anderen Websites zum eigenen Internetauftritt führen. Die OffPage-Optimierung ist wichtig, weil Google die Qualität und Quantität der Backlinks prüft. Diese Links beeinflussen das Listing der Website. Eine Linkpopularität von hoher Qualität lassen die Suchmaschinen in das Ranking der Webseite einfließen.
Aus diesem Grunde steht bei der OffPage-Optimierung die Linkstruktur im Fokus. Google & Co. legen bei Backlinks Wert auf das inhaltliche und thematische Zusammenspiel der fremden Seite zur Zielseite. Damit Suchmaschinenoptimierer in der Vielfalt des Webs diese Seiten finden, bedienen sie sich den Link Research Tools, die im Netz nach geeigneten Seiten suchen.

Links aufbauen

Suchmaschinenoptimierer verwenden für den Linkaufbau. Dabei achten sie bei Backlinks auf deren hohe Qualität sowie das Zusammenpassen der Thematik der fremden Seite mit der eignen Website. Kommt aus solch hochwertigen Links eine Linkpopularität zustande, wertet Google dies positiv. Eine große Rolle spielen die Social Media, wobei sich die Portaln über großen Zuwachs freuen. Die gleichlaufende Erzeugung von Social Signals wie Shares, Comments, Likes und Plus1 ist eine wichtiger Bestandteil der OffPage-Optimierung. Auf der Mehrzahl der Website finden User die Erwähnung der sozialen Medien in Form von Social Signals. Diese Signale fließen bei den Suchmaschinen in die Analyse ein. Dabei analysieren die Algorithmen nicht nur Backlinks, sondern ebenfalls den Austausch einer Website von Nutzern der sozialen Netzwerke. Die Meinung des Google Gurus, Matt Cutts, ändert sich ständig, einmal bringen Social Signals hinsichtlich der Rankings und einmal nicht. Auch wenn Social Signals wohl doch kein so großen Rankingfaktor darstellen, bringen die User Signals etwas.
Weitere Faktoren
Suchmaschinenoptimierer achten besonders bei Backlinks auf Qualität und Thematik der fremden Seite. Stellt diese keinen Bezug zur eignen Website dar, erkennt der Google Algorithmus dies und straft die Seite unter gewissen Umständen sogar ab. Auch Websites, die über übermäßig viele Backlinks ohne inhaltlichen Mehrwert verfügen, sowie solche Seiten, deren Anchor Texte ohne Bezug und mit Moneykeywords überladen sind, strafen die Suchmaschinen gnadenlos ab. Im Gegenzug bewertet Google die Websites positiv, die über Links im Textblock verfügen, die einen direkten Zusammenhang der fremden und eigenen Seite erkennen lassen. Platziert der Experte den Link im Textblock des Contents und damit einzigartig ist und außerdem einen Zusammenhang inhaltlich und thematisch darstellt, entspricht diese Seite den Wünschen der Suchmaschine. Eine nach den Regeln von Google gestaltete Website nutzt selten Links mit dem sogenannten “rel=”nofollow”Attribut”. Dieses beschreibt einen Backlink, der keinen Mehrwert darstellt und für die Zielseite für viele Webseitenbetreiber wertlos ist. Doch mittlerweile hat sich dies auch etwas geändert. Jeden nicht natürlichen Linkaufbau erkennt Google früher oder später. Unnatürliche Linkaufbaumaßnahmen  resultieren in der Regel aus dem Kauf einer Vielzahl von Links, von denen wenige oder keine einen inhaltlichen oder thematischen Bezug zur Zielseite aufweisen. Google straft derartige Machenschaften entsprechend ab.

Googles neue Richtlinien zu unnatürlichen Links

 Zu unnatürlichen Links gehören nicht nur die mit Moneykeywords

Google führt seit einiger Zeit außerhalb der Algorithmus Änderungen auch manuelle Aktionen durch, um unnatürliche Links zu entlarven und bestrafen. Wer gegen die Webmaster Richtlinien verstößt, dem geht’s an den Kragen. Letztendlich könnte der Verstoß alle wichtigen Rankings betreffen und Betroffenen den Geldhahn abdrehen.

Sobald ein verdächtiges Verhalten durch Google bemerkt wird, schaut sich das Spam-Team die Webseite an und handelt. Linktauschprogramme oder Linknetzwerke im großen Stil werden nicht mehr akzeptiert. Diverse Arten von Links sind davon betroffen, wie mittlerweile auch Gastbeiträge, die nichts mit Qualität zu tun haben, sondern einfach mutwillig zum Zwecke des Linkaufbaus genutzt werden, insbesondere wenn ein schneller Linkaufbau erkennbar ist. Das Gleiche gilt für Link- und Artikelverzeichnisse, wenn die Methodik übertrieben wird.

Verkauf von Links ist ebenfalls nicht gestattet

Wenn Sie selbst Links auf Ihrer Webseite in Massen verkaufen, die PageRank vererben und Google steigt dahinter, wird genauso abgestraft, als beim eigenen Linkaufbau mit unlauteren Methoden. Dazu gehören Content Placement, Blog-Marketing oder speziell für den Linktausch erstellte Netzwerke. Ranking-Signale werden dadurch verzerrt und deshalb entspricht dies nicht Googles Richtlinien.

„Wir regen sehr dazu an, die Richtlinien für Webmaster zu lesen und damit anzufangen das Linkprofil eurer Seite im Blick zu behalten, um zu gewährleisten, dass es nicht spammig erscheint. Wenn ihr glaubt, dass manche Links verdächtig sind, dann sollte ihr diese entfernen oder eure Online-Agentur fragen dies zu tun.“, wird von Google Mitarbeitern geraten.

Was ist zu tun wenn man von manuellen Maßnahme betroffen ist?

Wer von einer manuellen Spam-Maßnahme betroffen ist, kann diese Information in seinem Google-Webmaster-Tools-Konto einsehen unter „Suchanfragen“ → „Manuelle Maßnahmen“. Anschließend ist die eigene Webseite auf mögliche Spam-Links zu untersuchen und gegebenenfalls löscht man sämtliche Links oder ändert die Linktexte ab und anschließend stellt man dann den Antrag auf erneute Überprüfung der Webseite. Löschen die Webmaster diese Links zu der eigenen Seite nicht, so bleibt nur noch die Löschung über das Disavow-Tool von Google.

SEO, Panda & Co.: Google verschärft nochmal die Richtlinien

Vor einigen Tagen war wahrscheinlich Googles Panda-Update wieder aktiv. Google verschont selbst große Seiten nicht, wenn unnatürliche Links mit im Spiel sind. Selbst die Webseite von BBC erhielt ein Penalty wegen unnatürlicher SEO.

War der Panda da

© S.Kobold - Fotolia.com - Panda Update

Google wurde befragt warum die Webseite von BBC bestraft wurde. Diese Anfrage blieb jedoch ohne jeglichen Kommentar. Ein Artikel der weltweit größten Nachrichtenagentur wurde im Ranking herabgestuft. Ein Webmaster Trend Analyst, John Mueller aus der Schweiz teilte über die Google-Hilfe mit, dass bei dieser Unterseite unnatürliche SEO-Maßnahmen im Spiel waren. Nicht nur ein Artikel, sondern auch Teilbereiche oder sogar die komplette Webseite können durch Google bestraft werden. Da der unnatürliche Linkaufbau nur für diese eine Unterseite durchgeführt wurde, gab es auch nur für diesen Bereich ein Penalty durch Google. D.h. das Spam-Team von Google kann darüber entscheiden nach Begutachtung einer auffälligen Webseite. Nicht nur der Algorithmus alleine entscheidet über Rankingverluste.

Panda Update Nr. 25 ?

Einige Webseitenbetreiber meldeten sich bei uns und berichteten über Rankingverluste in den letzten Tagen. Der Grund dafür ist ein eventuell erneutes Panda-Update. Im Internet wird derzeit ebenfalls darüber berichtet. Google hat dieses mögliche Panda-Update nicht angekündigt, aber bei der SMX West teilte Matt Cutts mit, dass es wieder ein Update geben würde. Google schraubt zwar ständig am Suchalgorithmus, aber bei diesem Update des Algorithmus gab es größere Veränderungen.

Das letzte offiziell von Google bestätigte Panda Update, Nummer 24 wurde am 22. Januar 2013 bestätigt, betroffen waren  rund 1,2% der englischsprachigen Suchanfragen.

Google Panda Updates wurden erstmalig am 24. Februar 2011 eingeführt, wodurch das Unternehmen mit Hochdruck gegen die Macher von geringer Content-Qualität und Content-Farmen durchgegriffen hat. Damals beeinflusste die Veränderung 11,8% der englischsprachigen Suchergebnisse. Auch in Deutschland war die Situation kaum anders.

Hier finden Sie alle Panda Updates die es bisher gab: (Quelle: Searchengineland.com)

 

  1. Panda Update 1 , Feb. 24, 2011 (11,8% der Anfragen; angekündigt, Deutsch nur in den USA)
  2. Panda Update 2 , April 11, 2011 (2% der Abfragen, angekündigt, in englischer Sprache rollte international)
  3. Panda Update 3 , May 10, 2011 (keine Änderung gegeben, bestätigt, nicht bekannt gegeben)
  4. Panda Update 4 , 16. Juni 2011 (keine Änderung gegeben, bestätigt, nicht bekannt gegeben)
  5. Panda Update 5 , 23. Juli 2011 (keine Änderung gegeben, bestätigt, nicht bekannt gegeben)
  6. Panda Update 6 , Aug. 12, 2011 (9.6% der Anfragen in vielen nicht-englischen Sprachen; angekündigt)
  7. Panda Update 7 , 28. September 2011 (keine Änderung gegeben, bestätigt, nicht bekannt gegeben)
  8. Panda Update 8 , 19. Oktober 2011 (etwa 2% der Abfragen, nachträglich bestätigt)
  9. Panda Update 9 , 18. November 2011: (weniger als 1% der Anfragen; angekündigt)
  10. Panda Update 10 , 18. Januar 2012 (keine Änderung gegeben, bestätigt, nicht bekannt gegeben)
  11. Panda Update 11 , 27 Februar, 2012 (keine Änderung gegeben, angekündigt)
  12. Panda Update 12 , 23. März 2012 (etwa 1,6% der Abfragen betroffen; angekündigt)
  13. Panda Update 1 3, 19. April 2012 (keine Veränderung gegeben; spät aufgedeckt)
  14. Panda Update 14 , 27. April 2012: (keine Veränderung gegeben; bestätigt; erste Update innerhalb von wenigen Tagen ein anderes)
  15. Panda Update 15 , 9. Juni 2012: (1% der Anfragen; spät angekündigt)
  16. Panda Update 16 , 25. Juni 2012: (ca. 1% der Anfragen; angekündigt)
  17. Panda Update 17 , 24. Juli 2012: (ca. 1% der Anfragen; angekündigt)
  18. Panda Update 18 , 20. August 2012: (ca. 1% der Anfragen; spät angekündigt)
  19. Panda Update 19 , 18. September 2012: (weniger als 0,7% der Anfragen; angekündigt)
  20. Panda Update 20 , 27. September 2012 (2,4% Englisch Abfragen belastet, nachträglich bekannt
  21. Panda Update 21 , 5. November 2012 (1,1% des englischsprachigen Anfragen in den USA; 0,4% weltweit, bestätigt, nicht bekannt gegeben)
  22. Panda Update 22 , 21. November 2012 (0,8% der englischen Abfragen betroffen waren; bestätigt, nicht bekannt gegeben)
  23. Panda Update 23 , 21. Dezember 2012 (1,3% der englischen Abfragen betroffen waren; bestätigt, angekündigt)
  24. Panda Update-24 , 22. Januar 2013 (1,2% der englischen Abfragen betroffen waren; bestätigt, angekündigt)
  25. Panda Update 25 , 15. März 2013 (bestätigt als käme; nicht als geschehen bestätigt)

 

SEO Tipps von Googles Guru

Matt Cutts gibt Tipps zur Verbreitung von News. Offensichtlich ist PR ebenfalls ein wichtiger Teil der Suchmaschinenoptimierung geworden. Empfohlen wird, dass man die Nachrichten der eigenen Seite regelmäßig aktualisiert und nicht ständig eine neue Webseite für seine Beiträge erstellt.

by Jehochman (Transferred by aeoris) Wikipedia

Mehr Sinn macht es also, die Beiträge auf einer Webseite in einer gewissen Regelmäßigkeit zu publizieren. Matt Cutts, Kopf des Google Spam Teams erklärt in seinem Video, wie Webseitenbetreiber dafür sorgen können, dass ihre Verlinkungen nicht unnatürlich wirken. Google sendet seit fast einem Jahr Linkwarnungen über die Webmaster-Tools, wenn unnatürliche Linkmuster zu erkennen sind. Die Webmaster werden dazu angehalten zu handeln, wenn sie eine solche Nachricht von Google erhalten haben. Google bietet ein sogenanntes „Disavow-Tool“ an um diese unnatürlichen Links zu entwerten.

Seit 10 Monaten besteht bereits die Möglichkeit dieses Tool zu nutzen. In Verbindung mit der Linkwarnung versendet Google mittlerweile auch Beispiele über unnatürliche Links, damit der Webmaster erkennen kann, welche Links er zu entwerten hat.

Matt Cutts Videos

Nachrichten von Google wegen BlackHat SEO

Google informiert Webmaster darüber wenn Sie aufgrund von BlackHat-SEO-Methoden abgestraft werden. Matt Cutts gibt in einem neuem Video bekannt, dass 90 Prozent der Nachrichten, die über die Webmaster-Tools an den Webmaster raus geschickt werden, sich um BlackHat-SEO handeln.

Nur 3 Prozent der Nachrichten beinhalten das Thema unnatürliche Links. Viele Webmaster stellten sich die Frage warum eine Nachricht an sie verschickt wurde über die Webmaster Tools. Cutts stellte in seiner Video-Antwort klar, dass wie die 700.000 Nachrichten, die von Google versendet wurden aufgeteilt sind. Er teilte mit, dass nur 2.500 der 700.000 Nachrichten das Thema unnatürliche Links behandelten, aber rund 600.000 der 700.000 BlackHat-SEO beinhalten.

Hier ist das Video: