Videocontent

SEO Rankingfaktoren 2017

SEO RankingDie allgemeinen Rankingsignale ändern sich ständig, weil Google den Algorithmus regelmäßig aktualisiert. Mittlerweile lässt sich nicht mehr jeder Rankingfaktor pauschalisieren. Die Suchanfragen der Menschen nehmen großen Einfluss auf diese Faktoren.

Grundsätzlich gilt, dass nur noch wenige allgemeine Rankingfaktoren existieren. Die von mir dargestellten Faktoren sind Richtwerte und Beispiele aus der Praxis. Mittlerweile kann Google unterschiedliche Faktoren für das Ranking für jede einzelne Suchanfrage individuell auswerten.

  • Content und zwar ganzheitlich

Eine sehr hohe Relevanz auf die Rankings haben relevante Inhalte auf einer Webseite. Schreiben Sie die Texte nicht für die Suchmaschinen, sondern für den Nutzer. Es reicht aus, wenn die Inhalte für die Suchmaschinen strukturiert werden und Sie auf Ihrer Seite eine richtige Onpage Optimierung durchführen. Der Content muss für den Menschen einfach lesbar und interessant sein.

In der heutigen Zeit reicht es nicht mehr aus 250 Wörter zu einem bestimmten Thema von einer anderen Webseite abzuschreiben und von diesen Beiträgen eine Vielzahl zu erstellen. Die Menschen möchten echte und nützliche Inhalte lesen.

Früher

Vor ein paar Jahren war es möglich den Content von anderen Webseiten einfach umzuschreiben und bei einem Textanbieter die Texte zu bestellen. Diese wurden nach Fertigstellung lieblos auf der Webseite präsentiert und wenn über Linktauschs viele Backlinks generiert wurden, konnten durchaus hervorragende Top-10-Rankings erzielt werden.

Heute

Der Text-, Bild- und Videocontent muss zur Zielgruppe und zu den Suchanfragen passen. Es ist nicht immer gesagt, dass Sie mit einer Webseite mit viel Text hohe Rankings erreichen. Wenn es um Schönheits-Operationen geht und  der Suchende gerade auf der Suche nach echten Fotos, der bereits behandelten Patienten ist, kann eine Landingpage, die genau dies anbietet, besser ranken, als eine Seite zu diesem Thema, die ausschließlich mit viel Text dargestellt wird.

Videocontent

Zusammenspiel der Unterseiten und der Hauptseite

Einer der wichtigsten Faktoren für gute Rankings Ihres Contents ist das Zusammenspiel der einzelnen Themenbereiche einer Webseite und dies wurde zunehmend wichtiger in den letzten Jahren. Für die Praxis bedeutet das, dass man nicht für jedes Keyword eine Unterseite anlegen muss.

Es besteht die Möglichkeit über interessante und ausgefeilte Texte, die gut strukturiert, schön bebildert und semantisch stimmig sind, viele Benutzer auf Ihre Webseite zu bringen. Einzelne Suchbegriffe zu mehreren Themenbereichen werden innerhalb eines Textes zusammengeführt. Alle Begriffe müssen dabei zu einem Hauptthemengebiet gehören. Der Nutzer steht bereits bei der Planung eines solchen Textes im Vordergrund. Wenn Ihnen diese Aufgabe gut gelingt, werden die Leser den Text teilen und im besten Fall, von Ihrer Webseite aus verlinken. Der Content einer Webseite muss ganzheitlich zusammen passen.

Was muss ich vorab beachten?

  • Welche Keywords passen zum gesamten Thema meiner Webseite?
  • Welche Unterthemen passen zum gesamten Thema meiner Webseite?
  • Gibt es bereits Suchbegriffe oder Themengebiete auf meiner Webseite, die nicht zum Hauptthema meines Business passen?
  • Wie sucht der Interessierte aktuell bei Google?
  • Habe ich mich ausreichend mit dem Suchverhalten meiner Leserschaft der befasst?
  • Wie finde ich die besten Keywords?
  • Lohnen sich Nischenkeywords für mich?
  • Wer erstellt meinen Content?

Hat die Textlänge eine Relevanz auf das Ranking?

Ja! Die Anzahl der Wörter bei Landingpages, Unterseiten einer Webseite, Pressemitteilungen und Blogbeiträgen bei Webseiten mit guten Rankings bei Google hat sich Jahr für Jahr stetig erhöht. Der Content auf diesen Seiten hat sich zudem kontinuierlich in punkto Qualität verbessert, wodurch es möglich geworden ist, dass dem User demensprechend mehr Fragen über die Google-Suche beantwortet werden können. Daraus resultieren für die Seitenbetreiber mehr Sichtbarkeit und verbesserte Rankings bei Google.

Im mobilen Bereich ist die durchschnittliche Wortanzahl der Webinhalte um ungefähr 30 Prozent gestiegen. Aufgrund der längeren Texte, erhöht sich die Anzahl der Keywords auf der gesamten Webseite. Keywordstuffing hat sich dennoch in den letzten Jahren verringert. Wenn einzelne Keywords in bestimmte Bereiche der Webseite integriert werden, hat dies immer noch eine Relevanz auf das Ranking, was aber bereits in den letzten Jahren deutlich an Bedeutung verloren hat. Zukünftig werden einzelne Keywords immer weniger relevant sein und ein ganzheitlicher Content im Zusammenspiel mit dem Rest der Webseite, höher bewertet werden

„So haben 2016 weniger als die Hälfte der Landingpages in den Top20 das Keyword im Title oder der Description; das Keyword in der H1 tragen nur noch ein Drittel aller Seiten. Das Content-Verständnis von Google bemisst sich entsprechend an der Relevanz von Inhalten, nicht an der Verwendung einzelner Suchbegriffe. Nur 45 Prozent der Top20-URLs hatte 2016 noch das Keyword im Title.“

Quelle:  Searchmetrics Ranking Faktoren 2016

User Signals: Benutzersignale

Benutersignale

Seit längerer Zeit entscheiden die Nutzer mit über Ihre Rankings. Dabei spielt der Content Ihrer Webseite eine besondere Rolle. Bilder, Videos, Texte, eine gute Interne Verlinkung oder eine hohe Benutzerfreundlichkeit Ihrer Webseite sollten dafür sorgen, dass der Leser begeistert ist und sich von Seite zur Seite Ihrer Webpräsenz durchklickt und damit eine geringe Absprungrate erreicht wird. Ihre primäre Zielsetzung für die organischen Rankings bei Google muss lauten, dem Nutzer ausreichende Informationen zu seiner Suchanfrage anzubieten. Er wird länger auf Ihrer Webseite verweilen und sich informieren, was Google wiederum mit besseren Rankings belohnt. Die Klickrate auf die Suchergebnisse steigt.

Die Click-Through-Rate (Klickrate auf die Suchergebnisse) und die Bounce Rate (Absprungrate) gehören mittlerweile zu den wichtigsten Faktoren für das Ranking bei Google. Die Suchmaschinen werten dieses Verhalten als Feedback der echten Besucher. Wenn der Nutzer sich ausgiebig auf Ihrer Webseite informiert, schließt die Suchmaschine daraus, dass die Webseite für ihn interessant erscheint. Springt der User nach ganz kurzer Zeit auf das nächste Suchergebnis, so war er nicht zufrieden.

Google ist in der Lage Nutzersignale über die hauseigenen Services und Technologien auszuwerten. Dazu gehören z.B.:

Das Klickverhalten des Suchenden

  • Verweildauer
  • Google Analytics
  • Google Search Console
  • Google Chrome Browser
  • Google Adwords
  • Google Adsense
  • YouTube
  • Android
  • Und Vieles mehr

Wenn Sie es schaffen, den Nutzer mehr als 3 Minuten auf Ihrer Webseite zu halten, wirkt sich dies positiv auf die Gesamtbewertung Ihrer Webseite aus. Bei Top-10-Rankings werden lt. einer Analyse von Searchmetrics bei der Time On Site, eine Dauer von 3 Minuten und 43 Sekunden durchschnittlich festgestellt, wobei die Bounce Rate (Absprungrate) durchschnittlich bei 40 Prozent liegt, für die Top-10-Suchergebnisse bei Google.

Technische Faktoren: Onpage-Optimierung

H-Überschriften

Die Strukturierung eines Textes mit H-Überschriften gehört zur Onpage-Optimierung und wird als Bewertungskriterium von Google herangezogen.

HTTPS-Verschlüsselung: SSL-Zertifikat

Die Seiten-Verschlüsselung wurde von Google als offizieller Rankingvorteil bekannt gegeben. Google markiert ab 2017 unverschlüsselte URLS ohne HTTPS als unsicher im eigenen Chrome Browser. HTTPS gehört in 2017 zu den Rankingfaktoren.

Mehr Infos dazu finden Sie unter: https://webmasters.googleblog.com/2014/08/https-as-ranking-signal.html.

TLD-Rankings: .de-Endung punktet

Domains mit der Endung „.de“ werden in Sachen Ranking in Deutschland gegenüber Domains mit .com-Endung bevorzugt bewertet. Lokal in bestimmten Städten werden Domains mit den Städtenamen in der Endung wie z.B. mit .hamburg bevorzugt, gegenüber anderen Endungen.

Dateigröße eines Onlinedokumentes

Onlinedokumente mit größerem Umfang ranken durchschnittlich besser, als kleinere. Hierbei lässt sich sehr schwer eine Empfehlung geben, da es zu einer verlangsamten Ladezeit führen kann, wenn das einzelne Dokument größer wird. Webseiten mit guten Rankings verfügen grundlegend über einen größeren Content als nicht so erfolgreiche Webseiten. Meistens haben sie auch mehr Designelemente.

Ladezeiten einer Webseite: PageSpeed

Die Schnelligkeit einer Webseite gehört mittlerweile zu den Rankingfaktoren und fließt somit in die Bewertung durch Google mit ein.

Der Suchmaschinenriese Google bietet ein kostenfreies Tool zur Messung der PageSpeed kostenlos für Sie bereit unter:

https://developers.google.com/speed/pagespeed/insights

Die Startseite von Google verfügt über eine Ladezeit von 100 maximal zu erreichenden Punkten. Google zeigt Ihnen über das Tool bis ins kleinste Detail, welche Dinge an der Webseite verbessert werden müssen, um eine bessere Ladezeit zu erreichen.

Auch wenn die Ladezeit einen geringeren Teil im Verhältnis zu anderen Rankingfaktoren im Gesamtranking bei Google ausmacht, sollte man alle Register ziehen und die Ladezeit verbessern.

Der Leser freut sich auch, wenn die Startseite schnell aufgebaut wird. Bei langen Ladezeiten verlässt er die Seite vielleicht wieder sofort. Dadurch wird Ihre Absprungrate schlechter, was auch wiederum Einfluss auf Rankings nehmen kann.

Mobile Webseite

Handy online

Die Gesamtzugriffe über mobile Geräte haben im letzten Jahr weiterhin zugenommen. Im Hause Google wurde bereits 2015 bekannt gegeben, dass in verschiedenen Ländern, mehr Menschen mobil eine Suchanfrage gestellt haben, als über den Desktop-PC. Dazu gehörten beispielsweise die USA und Japan.

Google spielte 2015 ein sogenanntes „Mobile Update“ und informierte die Webseitenbetreiber darüber, dass eine mobile Webseite Auswirkungen auf Rankings haben könne. Seit diesem Zeitpunkt gehen immer mehr mobile Seiten online. Die meisten Seitenbetreiber folgen dem Trend und lassen Ihre Webseiten für Mobilgeräte optimieren.

Über folgenden Link können Sie die Mobiltauglichkeit Ihrer Webseite direkt über Google selbst kostenlos testen:

https://search.google.com/search-console/mobile-friendly

Interne Verlinkung & Benutzerfreundlichkeit

Die interne Verlinkung gehört zu den wichtigsten Rankingfaktoren. Benutzerfreundlichkeit und die Optik der Webseite spielen zudem immer eine wichtige Rolle. Es kommt nicht nur darauf an, wie viele interne Links Sie gesetzt haben, sondern auch auf die Relevanz dieser Verknüpfungen. Der Benutzer muss etwas davon haben, wenn er sich durch Ihre Webseite klickt. Die Links müssen jeweils zu der Unterseite passen, wo der Kunden durch das Draufklicken hingeleitet wird. Die verlinkten Seiten müssen alle erreichbar sein. Die Suchmaschinen bewerten anhand dessen die Benutzerfreundlichkeit Ihrer Webseite und der User wird es Ihnen danken, weil er Ihre Seite viel lieber durchforstet. Denken Sie dabei an den Nutzer und verlinken nicht immer ein und dasselbe Schlüsselwort aus dem Text heraus, sondern gestalten jeden Link ganz individuell.

Links zu nützlichen externen Quellen

Verlinken Sie von Ihrer Seite aus auch zu nützlichen externen Quellen. Dies können beispielsweise Studien, andere Webseiten oder Ratgeber sein. Wenn es Ihrem Leser einen Mehrwert verschafft, wirkt sich dies absolut positiv auf die eigene Webseite aus.

Bilder und Videos

Nachweislich locken ansprechende Bilder und Videos die auf der eigenen Webseite oder auf sozialen Netzwerken publiziert oder geteilt werden, sich positiv auf die Rankings Ihrer Seite aus. Da die Suchmaschinen das Nutzerverhalten und auch die Absprungrate als Rankingkriterien heranziehen, sollten Sie zum einen versuchen, den Nutzer auf Ihre Seite zu bringen und zum anderen durch interessanten Bild-, Video-, und Textcontent für Ihre Inhalte zu begeistern. So bleibt er länger auf Ihrer Seite und Ihre Absprungrate sinkt. Vergessen Sie nicht Ihre Bilder und Videos richtig zu optimieren. Dateiname, Titel von Bild oder Video, Alt Tag und Bildbeschreibung müssen vergeben werden. Reichen Sie eine Bild- und Videositemap bei Google ein.

Nützliche Menüs und anklickbare Bullet Points

Gut rankende Webseite haben im Vergleich zum Vorjahr mehr Menüs, klickbare Buttons, sowie weitere interaktive Elemente im Einsatz. Der User muss sich auf Ihrer Seite gut zurecht finden und gleich genau das finden, was er sucht.

 

Social Signals

Bereits seit einigen Jahren untersuchte ich verschiedene Zusammenhänge zwischen Social Signals und dem organischen Ranking und bin immer zu der Erkenntnis gekommen, dass sich diese auf organische Rankings und auf die Rankings der Google News positiv auswirken. Vor einigen Jahren wurde die Thematik stark diskutiert und sogar Experten waren der Meinung, dass Social Signals nichts mit dem organischen Ranking zu tun haben.

Die neuste Studie von Searchmetrics bestätigt dies wie folgt:

„Die Korrelation zwischen Social Signals und Ranking-Position ist extrem hoch; so hoch wie bei keinem anderen Ranking-Faktor.“

Ganz entscheidend dabei ist, dass man nicht immer die direkte Verbesserung der Rankings betrachtet, sondern die indirekte. Denn diese tritt definitiv ein, wenn mehr Besucher durch Social Media Postings auf Ihre Webseite gelangen und ihnen Ihre Inhalte gefallen.

Backlinks

Backlinks gehören heute immer noch zu den wichtigen Rankingfaktoren. Jedoch hat sich die Wirkung sehr stark verändert. In den ersten Jahren des Internets waren sie so gut wie alleine für alle Rankings verantwortlich. SEO war hauptsächlich auf „Backlinks ausgerichtet“. Nach und nach wurden andere Faktoren zunehmend wichtiger und die Relevanz von Backlinks nahm ab. Heute funktioniert es nicht mehr so leicht, schnell mal eine Seite zu erstellen und ein paar starke Links zu setzen und gleich in der Top-10 von Google zu landen. Heute zählen Onpage-Optimierung, Benutzersignale und interessante Inhalte.

Backlinks entscheiden zwar nicht mehr so stark wie gut Sie mit Ihrer Seite ranken, können aber für positive Rankingeffekte und neue Besucher sorgen, wenn diese in der richtigen Form auf einer passenden Seite platziert werden. Dabei gilt es, die Richtlinien des Penguin-Algorithmus zu kennen und einzuhalten.

Die Relevanz der Backlinks sinkt weiterhin, wird aber nach großer Wahrscheinlichkeit nicht wegfallen.

SEO Mythen

 

Wie zu jedem Thema kursieren auch um die Suchmaschinenoptimierung Mythen, die für viele Wahrheiten bedeuten, aber keine sind. Auch die beste Optimierung der Webseite ist keine Garantie, dass die Seite einen Sprung auf den ersten Platz der Ergebnislisten von Google und Co. macht. Es ist ein großer Erfolg, wenn die Webseite auf der ersten Seite ihren Platz findet. Um die eigene Seite zum Erfolg zu bringen, beinhaltet die Webseite Texte mit vielen Worten, mindestens jedoch 300 Worte. Auch wenn die Texte lang und länger sind, ist dies keine Garantie für ein gutes Ranking. Besser ist es, kleinere Texte mit interessantem Inhalt auf die Seite zu platzieren. Der Inhalt eines Textes ist weit aus wichtiger als seine Länge.

Mythen um SEO

Suchmaschinenoptimierung ist für jede Webseite eine Notwendigkeit. Auch wenn die Texte und die Inhalte der Webseite noch so gut sind; wird die Seite von Google abgestraft, wenn die Suchmaschine die Webseite nicht lesen kann. Bei der Suchmaschinenoptimierung wird die Seite für Google und Co. „lesbar“ gemacht, damit der Algorithmus sie bei seiner Suche findet. Dennoch kommt es auch auf die Inhalte an. Hochwertige Texte, die dem User einen Mehrwert bieten und interessant gestaltet sind, kommen immer an. Wichtig ist, dass die Texte einzigartig sind und weder der Text noch Passagen daraus auf anderen Webseiten vorhanden sind.

Das Keyword ist ein wichtiger Bestandteil der auf der Webseite platzierten Texte. Allerdings sollte das Keyword nicht den Text beherrschen, sondern so eingebaut werden, dass es sinnvoll ist. Den Text mit demselben Keyword zuzupflastern erzeugt nur Langeweile und in keinem Fall ein gutes Ranking.

Den richtigen Suchmaschinenoptimierer finden

 

Suchmaschinenoptimierung ist eine Herausforderung, die nicht jeder gewachsen ist. Um die richtige Agentur zu finden, welche die Herausforderung annimmt und die Webseite optimiert, ist das Einholen verschiedener Angebote erforderlich. Auch die „Mund-zu-Mund-Werbung“ ist eine große Hilfe. War der Freund, Bekannte oder Geschäftspartner mit einer Agentur zufrieden, beeinflusst dies die Vergabe des Auftrags.

Bevor sich der Webseitenbetreiber auf die Suche nach einer Agentur begibt, muss er seine Ziele finden und festlegen. Will er mit Keywords seine Mitbewerber überrunden oder setzt er seine Prioritäten auf bestimmte Produkte oder seine Dienstleistungen? Anhand dieser Fragen holt der Webseitenbetreiber Angebote ein. Oft haben die Angebote unterschiedliche Abrechnungsmodelle. Einige bieten ihre Dienste zu Festpreisen an; Preise, die sich auf ein Paket beziehen. Andere präsentieren ihr Angebot mit festen monatlichen Pauschalen und wieder andere bieten eine Variante an, die sich auf den Erfolg bezieht. Bei letztgenannter Abrechnungsmethode muss der „Erfolg“ klar beschrieben sein.

Sobald ein Angebot in Betracht kommt und beauftragt werden soll, ist es sinnvoll die Person, mit der täglich gearbeitet wird, persönlich kennenzulernen. Wichtig ist die Kompetenz der Person, aber auch die Sympathie – beides gemeinsam vereinfacht die Zusammenarbeit. Erklärt ein Anbieter, dass er sich in allen Bereich perfekt auskennt, sollte dieser nicht für die Beauftragung in Betracht kommen. Um eine Webseite individuell und nach den Ansprüchen von Google und Co. zu optimieren ist es besser auf ein Team zu setzen, bei dem jedes Mitglied seinen Fachbereich hat. Einen weiteren Aspekt sollte man auf keinen Fall außer Acht lassen: Wer springt für den Mitarbeiter ein, wenn dieser erkrankt, sich im Urlaub befindet oder die Agentur verlässt?

 

Ziel ist das Verbessern der Rankings

 

Jeder Webseitenbetreiber ist bestrebt, seine Webseite unter den ersten zehn der Ergebnisliste von Google wiederzufinden. Dies Ergebnis ist optimal, wären da nicht die vielen Anforderungen von Google und Co., die viele Webseitenbetreiber vor große Probleme stellen. Anders sieht es bei Suchmaschinenoptimierern aus! Diese sind die Updates, neuen Regeln und Anforderungen von Google gewohnt und stellen sich diesen Herausforderungen. Wir sagen bewusst „Google“, denn diese Suchmaschine ist nicht nur die größte weltweit, sondern auch die Suchmaschine, die mit neuen Regeln und Anforderungen der „Vorreiter“ ist.

Search engine optimization

Die search engine optimization oder Suchmaschinenoptimierung – kurz SEO – ist eine Bezeichnung für verschiedene Maßnahmen, welche das Ziel hat, Webseiten bei den Ergebnislisten der Suchmaschinen auf die besten Plätze zu bringen. SEO wird auch beim Online Marketing als Teilbereich angesehen. Damit die SEO-optimierte Webseite die Ansprüche von Google und Co. erfüllt, ist die Optimierung von OnPage und OffPage erforderlich.

Heute beschränkt sich die Suchmaschinenoptimierung nicht nur auf Computer, sondern auch auf mobile internetfähige Geräte wie Smartphones. Auf den um ein Vielfaches kleineren „Bildschirmen“ der Smartphones muss das klare Erscheinungsbild der Webseite vorhanden sein. Auch der schnelle Wechsel zu einem der auf der Seite vorhandenen Links muss machbar sein. Für Google ist die Dauer des Besuchs des Users auf der Webseite ein Faktor für die Bewerbung. Halten sich Besucher lange auf der Webseite auf, kommt diese bei Usern an. Seiten, die ankommen sind in den „Augen“ der Suchmaschine gut und entsprechend fallen Bewertung und Platzierung aus. Eine einmalige Suchmaschinenoptimierung reicht nicht aus, denn Google optimiert seine Anforderungen regelmäßig

Penguin in Echtzeit

Das Penguin Update 4.0

Die Gewinner durch das Penguin-Update 4.0

 

Nun ist das neue Penguin-Update 4.0 ausgerollt und die ersten Konsequenzen sind spürbar. Google scheint dabei die Fesseln weitestgehend gelockert zu haben, so dass zahlreiche Website wieder mehr SEO Visibility vorweisen können, die in der Vergangenheit abgestraft wurden.

Langfristige Auswirkungen sind in den Bereichen Backlink-Audit, Link-Bewertungen und Negative SEO zu erwarten.

Penguin Updates sorgen seit 2012 immer wieder für Aufsehen. Sofern eine Webseite in der Vergangenheit aufgrund von Linkspam abgestraft, dauerte es eine ganze Weile bis diese sich davon erholen konnten. Manche Webseiten mussten sogar bis zum aktuellen Update ausharren und eine Strafe von über 3 Jahren erdulden.

Andere konnten sich teilweise durch eine Änderung der Linkstruktur wenigstens wieder einen gewissen Freiraum verschaffen.

Was ist Penguin 4.0?

 

Penguin ist ein Google Algorithmus, der maßgeblich für das Ranking verantwortlich ist. Die aktuelle Version Penguin 4.0 wurde nun schlussendlich dem Kernalgorithmus der Suchmaschine hinzugefügt. Dies hat zur Folge, dass die Link-Daten, welche Google-Bots beim Crawlen erheben, in Echtzeit berücksichtigt werden.

Allen voran sollen sog. Spamsignale Berücksichtigung erfahren. Neben den Links zählen nun auch Cloaking und Keyword-Stuffing als solche.

 

Echtzeitauswirkungen und flexiblere Bewertungen

 

Ein Forschungsschwerpunkt von Google ist künstliche Intelligenz. Die Entwicklungen sind bereits so weit fortgeschritten, dass Google in der Lage war seinen Kern-Algorithmus auf Basis von datengetriebenem Machine Learning umzustellen.

Mit Penguin 4.0 gehören groß angekündigte Update fortan der Vergangenheit an. Alle wichtigsten Elemente wie Hummingbird, RankBrain, Panda und nun auch Penguin sind fester Bestandteil des Kern-Algorithmus.

 

Zudem agiert Penguin 4.0 nicht mehr wie bisher domainweit, sondern beschränkt sich auf Abstrafung der URL auf der der Spam gefunden wurde.

Die Belegung mit Filtern betrifft also nur noch einzelne URLs anstatt der ganzen Domain.

So konnten auch Webseiten einen SEO Visibility-Boost verzeichnen, die ihre Backlink-Struktur nicht aufgeräumt haben.

 

Die Auswirkungen von Penguin 4.0

 

Nach dem Rollout von Penguin 4.0 sind eindeutige Veränderungen erkenntlich.

So berichten Webseitenbetreiber beispielsweise, dass die SEO Visibility massiv anstieg, obwohl monatelange Cleanups im Vorfeld keinen Erfolg brachten. Eindeutige Gewinner oder Verlierer durch das Penguin Update sind kaum auszumachen, da man als Außenstehender nicht wissen kann welche Links auf welcher Website disavowed wurden.

Dennoch lassen einige Boosts vermuten, dass diese mit der Aktualisierung zusammenhängen wie beispielsweise bei den Domains pkwteile.de oder schicksal.com. Beide Domains erhielten etwa 40% mehr SEO-Visibility seit Penguin 4.0. Sowohl pkwteile.de als auch schicksal.com wurden seit Penguin 1 abgestraft.

 

Schicksal.com büßte mit Penguin 1 sogar rund 65% Visibility ein. Eine Erholung konnte bisher nicht vollkommen erfolgen.

Die Betreiber haben in den letzten Jahren viel unternommen um den Google-Fesseln zu entkommen. Es wurde nicht nur ordentlich aufgeräumt, sondern auch umstrukturiert. Dabei wurden u.a. schlechte Links entwertet, die Content-Strategie umgestellt und die Redaktion ausgebaut.

Dabei haben sämtliche SEO Agenturen und Experten den Standpunkt vertreten, dass die Domain nicht mehr zu retten sei und der Betreiber besser etwas Neues aufbauen sollte.

Nun kann die Domain einen SEO Visibility Anstieg von 40% vorweisen.

Fairerweise muss man aber zugeben, dass ein Zuwachs von 40% zwar beachtlich ist, aber sich bei weitem in den absoluten Visibility-Punkten nicht so deutlich niederschlägt wie es klingen mag. Der Grund liegt hierfür in der niedrigen Ursprungs-Visibility, die bei kleineren Domains vorliegt.

Inoffizielle Ankündigung des Updates durch  Crawling-Peaks des Google-Bots

© Steve Young - Fotolia.com

© Steve Young – Fotolia.com

Bevor Penguin 4.0 startete hatte die Crawling-Aktivität von Google-Bots massiv zugenommen. Damit scheint Google eine Art Bestandsaufnahme von bestehenden Link- und Seiten-Strukturen im Internet durchgeführt zu haben.

Das Echtzeit-Penguin sollte wohl anhand eines aufgenommenen Status Quo in Aktion treten.

Bei dieser Aktion verblüffte die hohe Anzahl der gecrawlten Webseiten gegenüber einer sehr niedrigen Download-Dauer.

Es scheint so, dass Google die beanstandeten Signale früherer Penguin-Versionen gecrawlt hat.

Dieses Vorgehen würde auch die geringe Download-Zeit erklären. Schließlich wurden vermehrt 404-Fehler gecrawlt, was auf nicht existente Webseiten hinweist.

Wie geht es mit Penguin 4.0 weiter?

Unsaubere Links werden künftig dank Penguin 4.0 sofort nach ihrer Entdeckung abgestraft. Allerdings ist davon nur die spezifische URL betroffen und nicht wie bisher die gesamte Domain.

Bedingt durch dieses Vorgehen wird es schwieriger als Grund des Visibility-Abfalls Backlinks auszumachen.

Sind Ranking-Verluste aufgefallen, sollten im ersten Schritt der Content, die Nutzerintention und die Struktur optimiert werden. Bringen diese Maßnahmen nicht den gewünschten Erfolg kann das Backlinkprofil die Ursache darstellen. Dieses Problem muss nicht beim ersten Blick, auch nicht beim zweiten oder dritten auffallen. Die Gründe hierfür können vielfältig sein. So kann es beispielsweise ein Mitarbeiter zu gut mit Backlinks meinen, ein Mitbewerber und Konkurrent mit Absicht schlechte Links verbreiten oder die URL wird beim Testing einfach als Target ausgemacht.

SEO Update

Es wird in Zukunft also weitaus schwieriger sein, die Beurteilung von Links durch Google nachvollziehen zu können. Allerdings wird es auch deutlich weniger Negativ SEO geben, da der Konkurrent nicht mehr in der Lage ist Domains abschießen zu können. Dieses Abschießen erfolgte bisher u.a. indem viele schlechte Links auf die konkurrierende Webseite verbreitet wurden.

Durch Penguin 4.0 hat sich der taktische Blick auf Backlink-Aufbau und einzelne Keywords erledigt. Es kommt von nun an auf langfristige Maßnahmen an.

Zu den langfristigen Maßnahmen zählt ein kontinuierlicher Backlink-Audit. Dieser sollte ein fester Bestandteil bilden um sich vor negativen Signalen zu schützen.

Eine weitere wichtige Maßnahme ist die Content-Strategie. Hier kommt es maßgeblich auf relevanten und einzigartigen Inhalt an. Zeitgleich sollte dieser die Nutzerintentionen perfekt bedienen.

Alles was zählt ist im Grunde die Bedürfnisse der Nutzer zu befriedigen. Wer dies mit seiner Webseite schafft, kann darauf vertrauen, dass der Inhalt konsumiert, aktiv verlinkt, geteilt und geliked wird. Dies belohnt Google stets langfristig mit guten Ranking-Platzierungen.

Quelle:

Searchmetrics Blog

Penguin in Echtzeit

Penguin Algorithmus von Google 2016

Penguin in EchtzeitPenguin nun im Google Kernalgorithmus eingefügt

Google setzt für sein Ranking Algorithmen ein. Diese bestehen aus mehr als 200 Hinweisen, Signalen und verschiedenen Daten. Aus diesen wird dann das Ranking erstellt. Zu den berücksichtigten Daten zählen u.a. bestimmte Wörter auf der Webseite (Keywords), Region, PageRank oder auch die Aktualität der Inhalte. Die Algorithmen bzw. Signale selber haben ebenso verschiedene Prioritäten. Eines dieser wird Penguin genannt. Bereits seit 2012 leistet es seine Dienste für das Ranking. Nun steht ein eingehendes Update an. Nun wird Penguin mit der Aktualisierung dem Kernalgorithmus hinzugefügt. Nachdem eine umfassende Entwicklungs- und Testphase nun abgeschlossen ist, steht das Update in allen Sprachen nun bereit. Die wichtigsten Änderungen richten sich dabei nach den Wünschen der Webmaster.

Penguin in Echtzeit

Bisher erfolgte die Aktualisierung von betroffenen Seiten durch Penguin nur mit einer bestimmten Verzögerung. Penguin selber wurde nur zu bestimmten Zeiten aktualisiert und konnte erst danach die durchgeführten Änderungen auf Webseiten berücksichtigen. So wurden Verbesserungen der Präsenz im Internet einzelner Webseiten von zahlreichen Algorithmen sofort erkannt, andere wie etwa Penguin brauchte eine gefühlte Ewigkeit. Dieses Penguin-Update bewirkt nun die Aktualisierung von Webseiten in Echtzeit. Für gewöhnlich sollten die Änderungen bereits nach dem erneuten Indexieren und Crawlen sichtbar sein.

Detailliertere Auswirkungen durch Penguin

Eine weitere große Aktualisierung betrifft die Auswirkungen auf Spam. Das Google-Ranking wird nun auf Basis von Spamsignalen angepasst. Hier nimmt Penguin SEO-Methoden ins Visier, welche die Grenze zum Spamming überschreiten. Diese Webseiten werden demnach im Ranking herabgesetzt.

Mit dem Penguin Update soll vor allem Webspam weiter eingegrenzt und zeitgleich hochwertige Inhalte und Inhalte mit Mehrwert gestärkt werden.

Das neue Update wird in allen Sprachen zeitgleich eingeführt. Betroffen werden aller Voraussicht nach 3,1% der englischsprachigen Webseiten und etwa 3% der deutschen, chinesischen und arabischen. In den Sprachen, in denen Spam weiter verbreitet ist, wird Penguin selbstverständlich einen größeren Effekt haben. So geht man davon aus, dass beispielsweise 5% der polnischen Suchanfragen betroffen sein werden.

Es wird dringend empfohlen, dass Webmaster sich ganz und gar auf die Erstellung von ansprechenden und hochwertigen Webseiten konzentrieren. Auf die Verwendung von aggressiven Webspam-Taktiken sollte vollständig verzichtet werden. Andere Methoden in Form von „White Hat“ Suchmaschinenoptimierung sind empfehlenswerter.

„White Hat“-Suchmaschinenoptimierer

Diese Webmaster gehen nach dem Prinzip vor gute Inhalte zu erstellen, Webseiten schneller reagierbar zu machen oder auch die Benutzerfreundlichkeit für Besucher zu erhöhen. Diese Maßnahmen wirken sich positiv sowohl auf die Nutzer als auch Suchmaschinen aus. Zudem spielt gutes, kreatives Marketing eine positive Rolle. Dieses wirkt sich zumeist gut auf soziale Medien und Suchmaschinen aus. Aufgrund dessen generiert die Webseite häufig mehr Besucher und wird häufiger verlinkt. Im Gegenteil dazu existieren auch die sog. „Black Hat“-Suchmaschinenoptimierer. Diese suche sich diverse Schlupflöcher und Abkürzungen um die Webseite im Ranking hoch zu treiben. Hierzu zählen Methoden wie Linktauschprogramme oder überflüssige Keywords. Diesen ist Penguin nun auf der Spur.

 

SEO Update

Die Regeneration von Penguin Abstrafungen durch das Update auch ohne Linkabbau machbar

 

John Mueller, Google-Mitarbeiter macht Hoffnung, dass auch ohne Löschen und Entwerten von vorhandenen Links ein besseres Ranking wieder möglich ist. Die Schlüssellösung lautet „Linkaufbau mit Qualitätslink“. Man kann also mit qualitativ hochwertigen Backlinks die „schlechten“ neutralisieren und den Wert der Webseite für Google wieder anheben.

Bereinigung des Linkprofils

Während eines Hangouts stellte John Mueller klar, dass Penguin der Prämisse nachgehe das ganzheitliche Linkprofil zu bewerten und nicht nur einzelne Links. Also können die Rankingverluste durch neue hochwertige Backlinks ausgemerzt werden, sofern diese das gesamte Linkprofil aufwerten. Daher kann u.U. auf das Löschen und Entwerten von Links verzichtet werden. Obwohl der Google-Mitarbeiter deutlich herausstellten, dass es besser wäre schlechte Backlinks zu entfernen und nicht nur auf den neuen Backlinkaufbau zu vertrauen.

Qualität der Backlinks ausschlaggebend

Der Google-Algorithmus Penguin kann Abstrafungen auch dann vollständig aufheben, wenn die schlechten Backlinks bestehen bleiben, aber neue, besser hinzukommen. Die Richtung der neuen Links muss stimmen. Es muss das gesamte Niveau der Links angehoben werden. Dazu ist es nicht zwangsläufig notwendig die alten, schlechten Backlinks zu entfernen. Der Algorithmus selber soll zukünftig noch weiter optimiert werden, so dass verbesserte Linkstrukturen noch leichter erkannt werden können.

Google empfiehlt…

Des Weiteren legt John Mueller nahe nicht einfach bestehende Links ohne Details zu entwerten oder zu löschen. Nur wer genau erkennt, welche Links schädlich für die Internetpräsenz sind, sollte diese entfernen. Eine willkürliche Entfernung könnte mehr schaden als nutzen. Als erfahrener SEO sollte man übrigens am besten auf das Disavow-Tool verzichten. Das Tool agiert rein technisch. Ein erfahrener SEO sollte beispielsweise unnatürlich Links selber erkennen können. Einmal entwertete Links können nicht mehr zur Bewertung herangezogen werden. Wer schlechte Links entwertet und hochwertige aufbaut hat die Chance, dass der Rankingabbau durch den Pengiun-Algorithmus rückgängig gemacht wird. Allerdings besteht die Möglichkeit nur, wenn eine wesentliche Verbesserung der Backlinkstruktur der Webseite erkennbar ist. Eine gewisse Anzahl der Backlinks müssen sehr hochwertig sein um von Google berücksichtigt zu werden. Das bedeutet im Klartext: Empfehlen andere Personen die Seite, wird auch Google dieses berücksichtigen und ggf. honorieren.  Es ist aber nicht eindeutig angezeigt, dass der Webmaster mit beispielsweise mehr als 50% guter Links das alte Ranking wieder herstellen wird. Hier kommt es auf die gesamte Struktur der Backlinks und eine tendenzielle Verbesserung der Webseite an. Genaue Zahlen welches Verhältnis die gesamte Webseite hinsichtlich seiner Backlinkstruktur vorweisen muss, sind nicht bekannt. Eine schrittweise Aufarbeitung der Backlinkstruktur wird langfristig eine automatische Rankingverbesserung herbeiführen. Mehr Infos finden Sie unter https://www.in-seo.de/linkabbau/ .

Wie wird man ein SEO? Die SEO-Ausbildung

Generell führen viele Wege zum Ziel. So existieren vielfältige Möglichkeiten SEO zu erlernen.

SEO lernen

Suchmaschinenoptimierung – Theorie oder Praxis?

Gibt es hier überhaupt ein oder? Fakt ist nun mal: „Theorie ist ohne Praxis leer und Praxis ohne Theorie ist blind.“ Fälschlicherweise gehen viele anfangs davon aus, dass der Bereich SEO ein überschaubares Gebiet ist. Schließlich handelt es sich ja „nur“ um einen Teilbereich des Suchmaschinenmarketings. Aber weit gefehlt. Insbesondere in den letzten 2 -3 Jahren die Bedeutung von SEO wahnsinnig zugenommen. SEO ist heute nicht nur sehr umfassend, sondern auch kompliziert. Wer erfolgreich SEO-Maßnahmen umsetzen möchte braucht weit mehr Wissen als die Grundlagen zum Thema Metadaten verfassen und Linkaufbau.

Das alleinige Sammeln von praktischen Erfahrungen reicht hierbei nicht aus. Der SEO benötigt die Fähigkeiten seine praktischen Erfahrungen mit theoretischen Erkenntnissen zu verbinden. Diese Symbiose führt erst zum Erfolg.

Leider ist es im SEO-Alltag häufig so, dass zwischen Theorie und Praxis eine scheinbar unüberwindbare Kluft besteht. Während die Praktiker meistens keine Ahnung davon haben was die Theoretiker überhaupt machen, können die Theoretiker häufig noch nicht mal erahnen was die Praktiker benötigen.

Wie man ein SEO wird

Im Grunde existieren zwei mögliche Wege ein SEO-Experte zu werden – den wissenschaftlich-orientierten und den praxisorientierten. Keiner der beiden Wege stellt für sich allein die optimale Ausbildung dar. Häufig stellen Unternehmen, große wie kleine oder mittelständische, frisch gebackene Studienabsolventen als ihre SEO-Experten ein. Oftmals weisen diese Absolventen keinerlei Erfahrungen im Bereich SEO auf und so nimmt der Misserfolg seinen Lauf.

Es gibt aber auch Studiengänge, die sehr wohl Kenntnisse vermitteln, die für einen späteren SEO-Job durchaus relevant sind. Oftmals sind das Kenntnisse, die kaum ein praxisorientierter SEO-Spezialist vorweisen kann. Maßgeblich kommt es halt auf den gewählten Studiengang an.

SEO-Studium

Mit einem Studium schlägt man den  wissenschaftlich-orientierten Weg ein. Allerdings existiert in Deutschland kein vollwertiges Studium „SEO“. Aber zahlreiche Studiengänge können als SEO-relevant bezeichnet werden wie beispielsweise Studien aus dem Informationsbereich. Der Studiengang der Informationswissenschaft bietet im Grundgerüst die Themen Suchmaschinen, Datenbanken // Datenbankrecherche, Informatik. Abhängig der gewählten Universität und Fachhochschule kann der Schwerpunkt unterschiedlich gelagert sein. Universitäten und Hochschulen, die diesen Studiengang anbieten sind über ganz Deutschland verteilt und befinden sich u.a. in Berlin, Köln, Hannover, Hamburg und Darmstadt.

SEO-Ausbildung

 

Neben dem Beruf kann man sich weiterbilden um ein SEO-Spezialist zu werden. Es gibt hier die Möglichkeit sich mit Hilfe von Seminaren und Lehrgängen weiterzubilden oder ein berufsbegleitendes Studium zu absolvieren. Anbieter von Seminaren und Lehrgängen gibt es wie Sand am Meer und sind kaum auseinander zu halten. Jeder hält sich für den besten und erfahrensten Coach etc. Hier im Dickicht sich zu Recht zu finden kann eine Herausforderung darstellen. Eine gute Anlaufstelle bietet hier u.a. die IHK und lokale Seminar-Angebote beispielsweise in München. Berufsbegleitende Weiterbildungen in Form eines Fernstudiums bieten u.a. dda Köln, cimdata Berlin und die afs-Akademie Berlin. Die Fernstudiengänge ähneln sich alle in dem Punkt, dass sie größtenteils an das berufliche und private Leben des Studenten angepasst werden können. Cimdata ermöglicht beispielsweise eine individuelle Studiendauer.

afs-Akademie – berufsbegleitendes Studium

Die afs-Akademie ist die einzige SEO-Akademie Deutschlands, die sowohl zertifiziert als auch staatlich anerkannt ist. Die Akademie mit Sitz in Berlin hat es sich zum Ziel gesetzt „echtes SEO-Wissen aus der Praxis und deren wissenschaftliche Grundlagen zu vermitteln“. Die berufsbegleitende Weiterbildung im Bereich SEO dauert lediglich 6 Monaten, statt wie bei anderen Anbietern teilweise Jahre. Hier bietet sich die Möglichkeit sich im Gebiet der Suchmaschinenoptimierung weiterzubilden und zeitgleich neue (wichtige) Kontakte zu knüpfen. Um das Fernstudium absolvieren zu können wird kein besonderer Kenntnisstand vorausgesetzt. Ebenso ist das Angebot nicht auf eine spezielle Berufsgruppe beschränkt. Das Fernstudium beinhaltet 6 Präsenztermine als auch Studium begleitende Vorlesungen an den Präsenzterminen in Berlin.

Die Themenmodule des Studiums sind vielfältig und beinhalten von SEO-Basics, Keywords und Marketing, Mobile & More bis hin zu Onpage– und Offpage-Optimierung, Webanalyse und Tools. Die Referenten sind SEO-Experten, die man teilweise auch als Sprecher auf diversen SEO-Konferenzen antreffen kann.

Die Teilnehmer werden mit Hilfe der Durchführung von Klausuren und durch die Abgabe bzw. Präsentation eines eigenen Projekts bewertet. Als Abschlusszeugnis erhalten die Teilnehmer entweder ein benotetes oder ein unbenotetes SEO-Zertifikat.

Fernstudium Suchmaschinenoptimierung

Der Studium Aufbau ist dem eines jeden Fernstudiums gleichzusetzen. Die Teilnehmer müssen den größten Teil des Lehrstoffes in Eigenverantwortung erlernen. Einmal in der Woche werden dem Kursteilnehmer neue Lehrmaterialien im Bereich Online-Campus der Akademie Website bereitgestellt. Diese Materialien beinhalten nicht nur Informationen, welche für die Klausuren relevant sind, sondern verweisen auch zu anderen Quellen. Dadurch hat der Teilnehmer die Möglichkeit sich tiefer in das jeweilige Thema einzuarbeiten. Für Fragen stehen die Referenten online zur Verfügung. Klausuren werden einmal im Monat während des Präsenztermins geschrieben. Zeitgleich arbeiten die Teilnehmer während des gesamten Kurses an eigenen Projekten. Jeder vorgenommene Schritt wird mittels einer Projektdokumentation festgehalten. Durch Vorträge der SEO-Experten während der Präsenztermine erhalten die Kursteilnehmer einen tief greifenderen Einblick in die relevanten Themenbereiche. Präsenztermine finden einmal im Monat über die Dauer eines Wochenendes in Berlin statt. Die Teilnehmer sind verpflichtet an diesen Terminen vor Ort teilzunehmen.

Theorie und Praxis

Hierbei handelt es sich um einen möglichen praxisbezogenen Weg sich im Bereich SEO weiter zu bilden. Eine Weiterbildung ist z.B. auch über die Teilnahme an diversen Seminaren und Lehrgängen möglich. Das gesamte menschliche Leben wird stets vom Lernen begleitet. Daher ist jeder in der Lage alles zu lernen. Man muss sich nur das Interesse am Lernen bewahren und sollte niemals aufhören zu lernen.

Aber praxisbezogenes als auch theoretisches Wissen wird erst durch den engen Kontakt mit anderen SEOs und intensiven Networking wirklich wertvoll. Hier bietet sich die Möglichkeit sich stets weiter zu bilden und auch weiter zu entwickeln. Neue Kenntnisse kombiniert mit Erfahrungen ermöglichen den Weg eigene SEO-Strategien zu entwickeln und SEO-Maßnahmen erfolgreich umzusetzen. Daher findet die Ausbildung zu einem SEO-Spezialisten nicht durch eine einmalige Weiterbildung oder durch ein relevantes Studium statt. SEO ist ein stetiger Prozess, der sowohl auf die theoretischen als auch praktischen Erkenntnisse aufbaut. Änderungen und Weiterentwicklungen finden immer wieder im Bereich SEO statt und wer erfolgreich sein will muss sich diesen Änderungen anpassen und auf diese reagieren können.

Daher weist ein guter SEO-Spezialisten die Fähigkeit Theorie und Praxis miteinander zu verbinden auf und stets up-to-date zu sein.

 

 

SEO Lexikon

SEO ABC: die wichtigsten Begriffe: Buzzword-Dichte

Die vielen Buzzwords sind für die Undurchsichtigkeit des Themas Suchmaschinenoptimierung ursächlich. COMPUTERWOCHE erklärte in einem Artikel deshalb die wichtigsten SEO-Begriffe.

SEO Lexikon

Ziel der Suchmaschinenoptimierung

Die Suchmaschinenoptimierung hat ein einfaches Ziel. Um dieses zu erreichen, verwendet sie Maßnahmen, welche dazu beitragen, die Webseite für Suchmaschinen wie Google & Co. so attraktiv als möglich zu machen. Hauptsächlich sind es Bildbeschreibungen, Schlüsselwörter (Keywords), Links und anderes, welche Suchmaschinenoptimierer für die Suchmaschinen effektiver lesbar machen. Suchmaschinen sind begeistert von einzigartigen und guten Inhalten, deshalb zählen auch die Inhalte bei der SEO. Doch SEO oder Search Engine Optimization bedeutet viel mehr, es geht hier um Internetnutzer Reputation und Experience. Der Idealfall einer Suchmaschinenoptimierung ist die Empfehlung der gestalteten Website bei Suchbegriffen, die relevant sind und die Seite auf den Ergebnislisten der Suchmaschinen ganz weit oben steht.

Buzzword

Die Buzzword-Dichte erhöht sich eklatant beim Thema Suchmaschinenoptimierung. Aus der Welt der Suchmaschinenoptimierung gibt unsere Bildergalerie einen Überblick über die wichtigsten SEO-Begriffe.

Das SEO-ABC

Suchmaschinenoptimierung ist in vielen Bereichen kein Hexenwerk; klingt aber oft so. Für Neulinge und Webexperten klingen die unbeschreiblich vielen Fachbegriffe wie Chinesisch. Dies ist hauptsächlich der Grund, warum der Einstieg in die Materie so schwer ist. Auch der Austausch beispielsweise auf SEO-Konferenzen zwischen Neulingen und Experten ist nicht einfach. Wie ein Blick in die Bildergalerie zeigt, verbergen sich hinter diesen vielen Buzzwords konkrete Maßnahmen sowie Messgrößen und keine abstrakte Handlungen. In-Seo.de bietet ebenfalls ein Lexikon mit SEO-Begriffen an.

meta title

Meta-Tags Title, Description und mehr

Die Meta-Tags werden in den HMTL-Code (HTML-Tags) in den Head (Kopf) der Webseite implementiert. Die Sprache, der Autor, ein Copyright oder die für Google relevantesten Meta-Tags, wie Title und Description, sind mögliche Meta-Angaben. In der oberen Browser Leiste wird der Titel (Meta-Tag-Title) angezeigt. Die weiteren Meta-Tags werden nicht im Browser angezeigt. Title und Description sind für die Snippets (Suchergebnisse bei Google) relevant.

meta title

Diese Angaben bekommt Ihr Kunde zu sehen, der Ihre Firma oder Webseite, nach Eingabe eines bestimmten Suchbegriffes, in den Suchergebnissen bei Google angezeigt. Anhand der Meta-Tags informieren Sie die Suchmaschinen über bestimmte Inhalte Ihrer Webseite.

Keywords als Meta-Tag nicht mehr relevant

Vor einigen Jahren hatten die Meta-Tags einen noch größeren Nutzen für die Suchmaschinenoptimierung Ihrer Webseite. Aufgrund von Missbrauch der Meta-Tag-Keywords ist die Relevanz der Meta-Tag-Angaben für die Suchmaschinen gesunken. Meta-Tag-Keywords werden von Google in punkto SEO überhaupt nicht mehr berücksichtigt. D.h. für die Praxis, dass Sie sich die Arbeit sparen können, Meta-Tag-Keywords in die Webseite einzupflegen.

Meta-Tag-Elemente

Keywords – Keywords spielen für Google und SEO keine Rolle mehr, schaden aber auch nicht

  • Title – Title hat genau wie Description eine hohe Relevanz für die Suchmaschinen in Sachen SEO
  • Description – Die Meta Beschreibung muss wie auch der Meta Titel zum Text der Seite passen und hat ebenso eine hohe Relevanz für Google, Yahoo, Bing und andere Suchmaschinen. Meta-Tag- Title – und Description werden in den Suchergebnissen angezeigt. In seltenen Fällen zeigt Google im Snippet nicht die eingegebenen Meta-Tags im Suchergebnis, aber meistens nur dann, wenn diese mit dem Text der Seite nicht richtig harmonieren. Beachten Sie bei der Formulierung, dass diese für den Kunden ansprechend ist, damit er Ihre Seite auch besucht, wenn er sie über die organische Suche bei Google findet.
  • robots.txt – Diese Datei steuert die Suchmaschinen-Bots bzw. Crawler. Sie können über diese Datei festlegen, wenn Google bestimmten Seiten Ihrer Webseite oder Inhalten nicht folgen oder diese nicht indexieren soll wie z.B.
    <meta name=“robots“ content=“index,nofollow“>
  • index / noindex – Webseite indexieren / Webseite nicht indexieren
  • follow / nofollow – Links folgen / Links nicht folgen
  • noarchive Seite –  nicht archivieren
  • language – Bei der Sprache tragen Sie zum besseren Verständnis für die Suchmaschinen, die Sprache Iher Seite ein

Es gibt noch weitere Möglichkeiten an Meta-Tags wie z.B. Author oder Publisher usw…