Beiträge

Penguin in Echtzeit

Penguin Algorithmus von Google 2016

Penguin in EchtzeitPenguin nun im Google Kernalgorithmus eingefügt

Google setzt für sein Ranking Algorithmen ein. Diese bestehen aus mehr als 200 Hinweisen, Signalen und verschiedenen Daten. Aus diesen wird dann das Ranking erstellt. Zu den berücksichtigten Daten zählen u.a. bestimmte Wörter auf der Webseite (Keywords), Region, PageRank oder auch die Aktualität der Inhalte. Die Algorithmen bzw. Signale selber haben ebenso verschiedene Prioritäten. Eines dieser wird Penguin genannt. Bereits seit 2012 leistet es seine Dienste für das Ranking. Nun steht ein eingehendes Update an. Nun wird Penguin mit der Aktualisierung dem Kernalgorithmus hinzugefügt. Nachdem eine umfassende Entwicklungs- und Testphase nun abgeschlossen ist, steht das Update in allen Sprachen nun bereit. Die wichtigsten Änderungen richten sich dabei nach den Wünschen der Webmaster.

Penguin in Echtzeit

Bisher erfolgte die Aktualisierung von betroffenen Seiten durch Penguin nur mit einer bestimmten Verzögerung. Penguin selber wurde nur zu bestimmten Zeiten aktualisiert und konnte erst danach die durchgeführten Änderungen auf Webseiten berücksichtigen. So wurden Verbesserungen der Präsenz im Internet einzelner Webseiten von zahlreichen Algorithmen sofort erkannt, andere wie etwa Penguin brauchte eine gefühlte Ewigkeit. Dieses Penguin-Update bewirkt nun die Aktualisierung von Webseiten in Echtzeit. Für gewöhnlich sollten die Änderungen bereits nach dem erneuten Indexieren und Crawlen sichtbar sein.

Detailliertere Auswirkungen durch Penguin

Eine weitere große Aktualisierung betrifft die Auswirkungen auf Spam. Das Google-Ranking wird nun auf Basis von Spamsignalen angepasst. Hier nimmt Penguin SEO-Methoden ins Visier, welche die Grenze zum Spamming überschreiten. Diese Webseiten werden demnach im Ranking herabgesetzt.

Mit dem Penguin Update soll vor allem Webspam weiter eingegrenzt und zeitgleich hochwertige Inhalte und Inhalte mit Mehrwert gestärkt werden.

Das neue Update wird in allen Sprachen zeitgleich eingeführt. Betroffen werden aller Voraussicht nach 3,1% der englischsprachigen Webseiten und etwa 3% der deutschen, chinesischen und arabischen. In den Sprachen, in denen Spam weiter verbreitet ist, wird Penguin selbstverständlich einen größeren Effekt haben. So geht man davon aus, dass beispielsweise 5% der polnischen Suchanfragen betroffen sein werden.

Es wird dringend empfohlen, dass Webmaster sich ganz und gar auf die Erstellung von ansprechenden und hochwertigen Webseiten konzentrieren. Auf die Verwendung von aggressiven Webspam-Taktiken sollte vollständig verzichtet werden. Andere Methoden in Form von „White Hat“ Suchmaschinenoptimierung sind empfehlenswerter.

„White Hat“-Suchmaschinenoptimierer

Diese Webmaster gehen nach dem Prinzip vor gute Inhalte zu erstellen, Webseiten schneller reagierbar zu machen oder auch die Benutzerfreundlichkeit für Besucher zu erhöhen. Diese Maßnahmen wirken sich positiv sowohl auf die Nutzer als auch Suchmaschinen aus. Zudem spielt gutes, kreatives Marketing eine positive Rolle. Dieses wirkt sich zumeist gut auf soziale Medien und Suchmaschinen aus. Aufgrund dessen generiert die Webseite häufig mehr Besucher und wird häufiger verlinkt. Im Gegenteil dazu existieren auch die sog. „Black Hat“-Suchmaschinenoptimierer. Diese suche sich diverse Schlupflöcher und Abkürzungen um die Webseite im Ranking hoch zu treiben. Hierzu zählen Methoden wie Linktauschprogramme oder überflüssige Keywords. Diesen ist Penguin nun auf der Spur.

 

Google Webite

Die Google freundliche Webseite

Die Richtlinien für Webmaster aus dem Hause Google sind bekanntlich das Standardwerk vieler Administratoren, wenn es darum geht, Webseiten qualitativ hochwertig zu gestalten und einige technische Hilfen dazu zu nutzen. Hier noch einige weitere Tricks, wie Webseiten freundlich für Google werden können.

Informationen mit Mehrwert für Besucher

Das Internet gehört heute zur meist genutzte Quelle, wenn es darum geht, nützliche Informationen zu unterschiedlichen Themen zu erhalten. Daher sollte jeder seine Webseite mit möglichst viel hochwertigen und qualitativ sehr guten Texten ausstatten, die den Besuchern eine echte Bereicherung bieten. Dies gilt insbesondere für die Startseite. Ist diese vom Webmaster sehr informativ gestaltet, animiert es die Besucher zum Weiterlesen und andere Webmaster setzten gerne Links zu solchen Seiten. Die Texte selbst sollten klar und deutlich zu verstehen sein und natürlich auch alle Suchbegriffe enthalten, die für Google nützlich sind.

Herstellung anderer Webseiten Links zur eigenen Seite

Links können dazu beitragen, dass die Crawler bei Google die gewünschte Webseite einfacher finden, was wiederum auch einen positiven Einfluss bei den Suchergebnissen nach sich zieht. Durch verschiedene technische Mechanismen beurteilt Google einen Link von Seite A an Seite B so, dass die Seite A ein positives Votum für die Seite B abgibt, und diese damit als wichtig einstuft. Bei diesem Verfahren schließt Google von vornherein alle unnatürlichen Likks aus, da für eine gute Indexierung und dem daraus folgenden Ranking nur Links relevant sind, die durch andere Webseiten natürlich entstanden sind.

Problemloser Zugriff auf die Webseite

Eine Google freundliche Webseite sollte logische Linkstruktur haben. So sollte jede Seite mindestens einen statischen Textlink beinhalten. Um zu sehen, ob der gesamt Text angezeigt wird, sollte vorab ein Textbrowser verwendet werden. Sehr empfehlenswert ist hier etwa Lynx. Zeigt dieser Frames, JavaScript, Cookies, Sitzungs-IDs, DHTML oder Macromedia Flash an, dann sollten dies Funktonen im Text beseitigt werden, damit Besucher einen einfachen Weg zur Nutzung der Seiten haben.

Diese Fehler sollten vermieden werden

Die Webseiten sollten weder Listen von Keywords noch Cloaking enthalten. Auch sollten diese nicht nur für die Crawler von Google ausgelegt sein. Befinden sich Inhalte auf der Seite, die von den Nutzern selbst nicht gesehen werden sollen, kann dies dazu führen, dass Google dies als irreführend ansieht und dass die Webseite erst gar nicht im Ranking aufgeführt wird.

Man sollte den Kauf eines Dienstes oder eine Programmes vermeiden, welches zur Suchmaschinenoptimierung beiträgt und verspricht die Webseite ganz oben ins Ranking zu packen. Diese sind eher schädlich und können zum Ausschluss bei Google führen.

Sollen Namen, Textinhalte oder Links angezeigt werden, die wichtig sind, sollte man auf der Webseite dafür keine Bilder verwenden. Denn Google kann diese Informationen aus Grafiken nicht verarbeiten. Besser ist es hier mit ALT Befehlen zu arbeiten.

Man sollte auch vermeiden, mehrere Kopien einer Webseite mit unterschiedlichen URL Namen zu erschaffen.

SEO & Google Rankingfaktoren 2015 für Ihre Webseite

Ranking-Faktoren: Die Karten wurden 2015 neu gemischt

abstrakt, analyse, analysieren, backlinks, figur, gezeichnet, homepage, html, icon, index, inhalt, internet, keyword, konzept, konzeptionell, lšsung, marketing, mŠnnchen, onlinemarketing, optimierung, programmierung, professionell, qualitŠt, rang, ranking, recherche, schlŸsselwort, searchengine, seo, stichmŠnnchen, stichwort, strategie, suchbegriffe, suche, suchen suchergebnis, suchmaschine, suchmaschinenoptimierung, symbol, tagcloud, traffic, webdesign, webgestaltung, webmaster, webpage, webseite, website, Webanwendung, werkzeuge ,zeichnung, Query Deserve Freshness, Ranking-Algorithmus

Behalten Sie im Ärmel das Ass: Zu den Ranking-Faktoren des Jahres 2015 bietet Ihnen für Top-Rankings bei den Google Suchergebnislisten sowie zu den wichtigsten aktuellen Insights zu den wichtigsten Faktoren die Searchmetrics-Analyse. Es gibt neben den Rang-Wechselbeziehungen sowie unbeschreiblich viele Tipps für Page-Optimierung zum ersten Mal in diesem Jahr für Top10-Rankings Benchmarks. Damit haben Sie eine Vergleichsmöglichkeit zwischen ihrer Webseite und denen der Top10. Sie wollen die Informationen über das Aussehen der Datenbank, den Ablauf der Analysen und was genau ein Ranking-Faktor ist! Bei uns gibt es dafür ausreichend Informationen.

Was ist ein Ranking-Faktor?

Im Jahr 2015 erscheint unser Whitepaper in neuem Design. Informative Kurztexte, viele Tipps & Learnings sowie prägnante Charts finden Sie auf unserer Seite. Die aktuelle Studie können Sie bei Searchmetrics als PDF-Datei runterladen. Damit haben Sie diese neben ihrem Computer auch auf Ihren mobilen Endgeräten wie Smartphone und Tablet zu Hand.

Wir geben Ihnen einen Überblick zu den wichtigsten Punkten der Ranking-Faktoren des Jahres 2015:

1. Absinken der Relevanz von Backlinks

Die Zeiten der unnatürlichen Linkbuildings sind endgültig vorbei, auch wenn bisher Backlinks immer noch immer eine Größe sind, die nach der Statistik mit einem guten Ranking korreliert. In naher Zukunft könnten Links allgemein, t – auch seit Disavow – weiter an Bedeutung verlieren; aktuell sind andere Faktoren wichtiger. Es geht derzeit um existentes Link-Earning mittels Content. User würden ihn gern verlinken, da dieser ist dermaßen gut ist. Deswegen ging der Anteil der Backlinks zu den analysierten URLs zur Homepage zurück. Häufiger verweisen Backlinks auf ganz spezielle Landing Pages. Auch zurück ging der ging der Anteil der Backlinks zurück, welche im Anchortext das Keyword tragen – im Anchor haben Backlinks haben die Domain oft. Die Relevanz von Backlinks wird weiterhin zugunsten anderer Elemente in den Hintergrund treten, aufgrund der Nutzung von mobilen Endgeräten und Social-Kanälen.

2. Für optimale User Experience ist die User Experience Onpage-Optimierungen eine grundsätzliche Voraussetzung

Mit vielen neuen Faktoren haben wir dieses Jahr das Kapitel mit der Thematik User Experience bestückt, damit dieser aufsteigende Stellenwert eine bessere Berücksichtigung findet. Ein responsives Design hat ein Drittel aller von uns untersuchten Websites. Dieses gewährleistet auch auf mobilen Endgeräten eine optimale Darstellung. Wir stellten fest, dass die Seiten, die besser ranken ihrem Content eine bessere Struktur gaben und eine gute Linkstruktur, sowie viele interaktive Elemente beinhalten. Für Internetnutzer und den Suchmaschinen-Bot sind diese Seiten nicht nur besser verstehbar, sondern auch gut interpretierbar. Für Google sind deshalb Bounce Rate, Click-Through-Rate und Time on Site die wichtigsten Anhaltspunkte, um die Zufriedenheit der Nutzer zu messen. Entsprechend passt die Suchmaschine das Ranking an.

3. Ein Bonus sind Social Signals für das organische Ranking

Während in diesem Jahr Likes & Shares von Facebook, Google+ und Tweets stark mit besserem Ranking korrelieren, sinkt die Mehrzahl der Korrelationen in diesem Bereich. Ist die Zahl der Social Signals zu hoch, geht die Suchmaschine davon aus, dass diese Seite entweder kontinuierlich neuen Content veröffentlicht oder ein Brand ist. Es gibt auch andere Websites, die ein gutes Ranking erzielen, ohne dass sie viele Social Signals beinhalten. Likes, Tweets und Pins stellen, so betont Google immer wieder, kein direktes Ranking-Signal dar.

4. Das Keyword hat immer weniger Bedeutung

Rückläufig ist in der Mehrzahl der Bereiche die Bedeutung des “Keywords” als Ranking-Faktor . Dies ist sowohl in der Description als auch im Body der Fall. Damit sind im vorderen Bereich der Ergebnislisten von Google immer öfter URLs, wobei nicht zwangsläufig das entsprechende Keyword in der Description oder im Body vorhanden ist. Stark gesunken ist auch der Anteil der Keyword-Domains. Diese korrelierten noch vor kurzer Zeit mit einem positiven Ranking.

5. Holistischer Content

Die Zeit des holistischen Contents begann, als die Ära des Keywords vorbei war. Dabei geht um das Zusammenschmelzen zu einem Topic von verschiedener, in Beziehung stehender Randthemen. Für eine große Zahl von Suchanfragen bietet diese neue Ganzheitlichkeit einen relevanten Content, der die sich um das Hauptthema dreht. Dies brachte einen Anstieg der Anzahl der Wörter auf den analysierten Seiten mit. Zugelegt hat das Nutzen von Proof-Terms (eng verwandt mit dem Haupt-Keyword) sowie Relevant Terms (semantisch entfernt verwandt mit dem Haupt-Keyword) bei den Top30-Rankings.

OnpageDoc das Profi-Onpage-Tool für SEOs, Agenturen &Webmaster

Das neue Tool für SEOs, Webmaster und Agenturen mit dem Namen „OnpageDoc“, ist vor dem 01.04.2014, noch mit 50 Prozent für die ersten drei Monate rabattiert. Bereits am ersten Tage verzeichneten die Gründer 1000 Voranmeldungen für ihr innovatives Tool. Meta-Tags, interne Verlinkung oder Status Codes werden auf den Prüfstand gestellt. Doch das ist noch nicht alles! Möchten Sie wissen über welche Backlinks Ihre Mitbewerber verfügen? OnpageDoc wertet interne und externe Backlinkdaten für die eigene oder fremde Domain aus.

SMS Benachrichtigung wenn etwas nicht stimmt

Sie können sich via SMS benachrichtigen lassen, wenn etwas mit der Seite nicht stimmt. Sämtliche Fehler wie z.B. schädliche Backlinks, zu langsame Ladezeiten oder falsche Onpage-Optimierung werden angezeigt.

Auf dem neusten Stand

Neben Backlinks, gehören Social Signals zur Optimierung einer Webseite. Social-Media- und Analytics- Daten geben Auskunft über Sichtbarkeit und Dinge, die noch einer Optimierung bedürfen. Mit einer genauen Kennzahlenauswertung lässt sich die IST-Situation ganz einfach feststellen.

Backlinks

Hinweise über die Qualität der Backlinks werden gegeben, so dass Sie reagieren können und Backlinks selbst löschen oder ändern, falls es notwendig ist. So bleibt Linkjuice erhalten!

SEO und Keywordmonitoring nicht nur für deutschsprachige Länder

Für 33 Länder der Welt profitieren Sie von Daten wie Rankingentwicklung, Mitbewerbervergleich oder Chancen-Keywords.

Das Gute an OnpageDoc ist, dass Sie das umfangreiche Tool ab 29,90 Euro im Monat nutzen können. Wer sich beeilt und vor dem 01.04.2014 sich für die Nutzung entscheidet, erhält einen Preisnachlass von 50  Prozent, für die ersten drei Monate. Die Leistungen, die wir hier aufgeführt haben sind nur ein Teil, von denen, die angeboten werden. Doppelter Content wird überwacht, eine Analytics Anbindung mit Ihren Daten ist möglich oder Optimierung von Google Places: Das alles sind Leistungen von OnpageDoc und das Schöne daran ist, das Tools läuft auch mobil!

SEO-Tools werden es 2013 schwerer haben

Es ist denkbar, dass SEO-Toolanbieter es im nächsten Jahr schwerer haben werden, weiterhin am Markt zu bestehen. Nicht alle Tool-Anbieter nutzen die Datenabfrage über die API von Google. In den USA hat Google bereits mit einigen Tool-Anbietern wie z.B. SEOmoz, Ahrefs und Raven, Kontakt aufgenommen und die Nutzung der API untersagt. Wer sich nicht daran hält, dem droht eine Sperrung der Abfragen. Automatisierte unerlaubte Abfragen über die Google-API nennt man Scraping, was laut den Richtlinien von Google nicht gestattet ist. In Deutschland ist noch keine Auseinandersetzung zwischen Google und den bekannten Toolanbietern wie Xovi, Sistrix, Searchmetrics oder SEOlytics bekannt.

SEO Tools

© julien tromeur - Fotolia.com

Auszug aus Googles Richtlinien:

Auszug aus der Nutzung unserer Dienste

Sie sind zur Einhaltung der Richtlinien verpflichtet, die für unsere Dienste gelten.Verwenden Sie unsere Dienste nicht in missbräuchlicher Art und Weise. Sie sind beispielsweise nicht berechtigt, in die Dienste einzugreifen oder in anderer Weise als über die von Google bereitgestellte Benutzeroberfläche und gemäß unseren Vorgaben auf die Dienste zuzugreifen. Sie dürfen unsere Dienste nur in dem gesetzlich zulässigen Rahmen nutzen. Dazu gehören auch die rechtlichen Bestimmungen zur Ausfuhr-und Wiederausfuhrkontrolle. Wir können die Bereitstellung unserer Dienste an Sie aussetzen oder einstellen, wenn Sie gegen unsere Nutzungsbedingungen oder Richtlinien verstoßen oder wenn wir ein mutmaßliches Fehlverhalten untersuchen.

SEO-Tool-Anbieter beziehen Daten ohne Berechtigung

Einige Toolanbieter beziehen die Daten ohne Genehmigung von Google, die zur Auswertung von Webseiten benötigt werden. Zahlreiche Kunden zahlen viel Geld an diese Anbieter um Ihre Internetseiten und die Ihrer Kunden auswerten zu können. Google fährt nun die Krallen aus und schiebt ein Riegel vor. Es ist denkbar, dass Google bald selbst ein kostenpflichtiges SEO-Tool auf den Markt bringt. Völlig zurecht werden sich dauerhaft einige Anbieter warm anziehen müssen und die Daten aus anderen Quellen beziehen. 2011 und 2012 ging es mit den Updates „Panda“ und „Penguin“ bereits mächtig an den Kragen. Google macht in jeglicher Hinsicht ernst.

Automatisierte Abfragen sind von Google untersagt. Außer den bekannten Anbietern gibt es noch einige unbekannte Firmen, die die automatische Abfrage von Google derzeit noch nutzen. Wenn Google selbst die Einnahmen dieser Anbieter verzeichnen könnte, wäre die weltgrößte Suchmaschine noch reicher. Google wird anhand unlauterer Abfragen in echten Statistiken manipuliert. Dabei sieht es so aus, als ob ein Mensch das Ergebnis abfragen würde. Auch Kunden die bei Google-Adwords Werbung schalten, erhalten verfälschte Ergebnisse. Impressionen und Klickraten stimmen einfach nicht mit realen Werten überein. Durch die verbotenen Abfragen, die weltweit durch SEO-Tool-Anbieter durchgeführt werden, entstehen Google einige Kosten wie z.B. für Strom oder Server. Google hat die Möglichkeit rechtlich gegen die verbotene Datennutzung anzukämpfen. Wer weiterhin ohne vorige Absprache mit Google Daten automatisiert abfragt und diese dann noch verkauft, sollte mit Folgen rechnen. Geht es Google dabei nur um die Einnahmen? Denn immer mehr Dienste werden kostenpflichtig. Im nächsten Jahr ist bei Google-Shopping ebenfalls mit Kosten zu rechnen. Die Suchmaschine möchte mehr Profit erwirtschaften als in den letzten Jahren.

Fazit

Im Web wird über das Ende der SEO-Branche spekuliert. Die bekannten SEO-Tool-Anbieter in Deutschland, wie z.B. Sistrix, Xovi, SEOlytics oder Searchmetrics sehen der Angelegenheit ganz gelassen entgegen. Wahrscheinlich arbeiten diese Anbieter nicht unerlaubt mit einer automatisierten Datenabfrage über die API von Google, sondern verfügen über eigene Server sowie andere Möglichkeiten, um diese Daten zu beziehen. Ein Ende der SEO-Branche ist auf jeden Fall noch lange nicht in Sicht. Ganz im Gegenteil: Die Updates wie Panda-, Penguin-, und EMD- Update sorgen für Verbesserungen der Suchergebnisse. Genauso sollte man die möglichen Änderungen der Tool-Anbieter betrachten.

 

Quellen:

http://ahrefs.com/news/ahrefs-close-keywords-analysis

http://www.seomoz.org/blog/the-nasty-problem-with-scraping-results-from-the-engines

Google Changes

Nicht alle Ankündigungen durch Google wurden direkt ernst genommen. Ob es der Author-Tag war oder das Panda Update. Erst als Google ernst machte, wurde die Welt der Webmaster durcheinander gewürfelt. Die Suchmaschinenergebnisse wurden noch nie so häufig von Google verändert, als in den letzten beiden Jahren. Dies sorgt bei den Suchmaschinenoptimierern, Unternehmern und Webmastern für Furore.

Im Internet wird heftig über das Penguin-Update diskutiert.  Anders wie beim Panda-Update spielte Google das Update länderübergreifend zeitgleich ein. In diversen Foren waren Kommentare wie „Jetzt ist meine Existenz zerstört!“ zu lesen. Nicht nur kleine Portale verloren Rankings sondern auch Große. Einige Artikelverzeichnisse wurden komplett aus dem Index aussortiert. Webseitenbetreiber unter den Betroffenen glauben keine Schuld daran zu tragen, dass die Seiten durch das Update schlechter bewertet wurden. Man ist sich nicht bewusst über eine Überoptimierung oder Ähnliches. In den meisten Fällen ist lt. Analysen ganz einfach festzustellen, ob, wie und warum einzelne Webseiten abgestraft oder gar de-indexiert wurden.  Dennoch waren auch „WhiteHat-SEOs“ unter den Abgestraften.

 

 

Whitehat-SEO VS Blackhat-SEO

Wer sich in der Vergangenheit an die Google-Richtlinien gehalten hat, kann trotzdem in Googles Visier geraten. Offensichtlicher Linkkauf wird besonders hart bestraft. In Deutschland wurde ein relativ neues Geschäft eines Seitenbetreibers, welcher 100 Blog-Accounts öffentlich vermietete. Google blickte hinter die Kulissen und katapultierte alle 100 Blogs aus dem Index. Somit war dieses Business gescheitert. Dies war nicht der einzige Versuch eines Webmasters Google zu manipulieren. Pinguin kann Verlinkungen mit immer gleichen Keywords aufspüren. Der kommerzielle Anchor-Text wurde teilweise lahmgelegt. Sogenannte „Money-Keywords“ mussten dran glauben. Vor einiger Zeit zählten diese Methoden nicht unbedingt zu Blackhat-SEO. Long-Tail-Keywords, URLS oder Branding in der Verlinkung ersetzen zukünftig Money-Keywords.

Anchor Text

Mindestens 50 Prozent der Links sollten nicht aus direkten Schlüsselwörtern bestehen. Betroffene können die Anchor-Texte bei der internen Verlinkung abändern und teilweise auch bei der externen Verlinkung. Dieser Schritt kann schon für kleinere Verbesserungen der Rankings sorgen. Natürlich werden sich die Änderungen nicht sofort bemerkbar machen. Fraglich ist, ob es nicht besser sein wird, wenn man einfach alles bestehen lässt in der Backlinkstruktur und beim zukünftigen Linkbuilding auf die Feinheiten achtet.

Semantische Suche

Nicht zu vergessen ist die angekündigte semantische Suche.  Eine Vorsorgemaßnahme für gutes Ranking lautet: Fakten schaffen auf der eignen Webseite!