• 0Einkaufswagen
IN-SEO.de
  • Startseite
  • Leistungen
    • Website SEO Analyse
    • SEO Beratung
    • Linkbuilding Agentur
    • Texte
    • SEO Agentur
    • Social Media Marketing
    • Webdesign
    • SEO für Branchen, Berufe & mehr
    • Linkabbau
  • Referenzen
  • Shop
  • Kontakt
    • Über uns
    • Was kostet SEO?
    • Lexikon
    • Meine Bücher
    • Partner & Freunde
    • Übersicht
    • SEO Checkliste
    • Blog
    • SEO lernen
    • Impressum
    • Datenschutzerklärung
  • Suche
  • Menü Menü

SEO-Check kostenlos!

Schlagwortarchiv für: ranking

Beiträge

Crawling – Indexierung – Bewertung – Ranking

6. Mai 2020/in SEO /von Dirk Schiff

Wie kommen meine Seiten in den Google-Index?

Technische Anforderungen an deine Website

Bevor du mit deiner Webseite an den Start gehst, stellt sich die Frage, wie deine Seite technisch aufgebaut werden musst. Mit einer detaillierten Zielsetzung fällt dir die Entscheidung leichter, für welches System du dich am Ende entscheidest. Wenn du dich vorab für das falsche System entscheidest, ist es sehr wahrscheinlich, dass du zu einem späteren Zeitpunkt zu einem komplett anderen System wechseln musst. Manche CMS oder Shopsysteme können gewisse Kapazitäten einfach nicht stemmen.

SEO lernen – Dieses SEO Buch enthält alles was Du wissen musst!

In den meisten Fällen entscheiden sich Unternehmen für das Content Management System WordPress. Eine individuelle Programmierung ist zu kostenintensiv. Viele Anforderungen an dein System ergeben sich erst zu einem späteren Zeitpunkt.

Beispiel

Du erstellst eine Webseite für eine Jobbörse auf der Basis von WordPress. Du hast dir das Theme JobRoller gekauft. Nach einer bestimmten Zeit kann das Theme deinem Anzeigenvolumen nicht mehr standhalten und du benötigst eine andere Programmierung.

Tipp

Plane die Architektur deine Webseite im Detail. Damit ersparst du dir einen frühen Wechsel deines Systems. Achte darauf, dass du nicht zu schnell online gehst, nur weil es dir unkompliziert erscheint. Definiere die technischen Anforderungen im Detail über überlege dir ob du bestimmte Features brauchst.

Crawling & Indexing

Crawling und Indexing entscheiden über deine Rankings. Was ist der Unterschied?

Crawling

Die Suchmaschinen-Bots, auch Spider genannt, durchsuchen deine Webseite nach Inhalten. Sie werden analysiert und bewertet. Das Crawling stellt die Grundlage für die Indexierung dar. Die Bewertung deiner Inhalte ergibt das Ranking.

Crawling durch den Google-Bot – Indexierung – Bewertung – Ranking

Crawling richtig managen

Du kannst den Crawling-Prozess selbst managen. Bevorzuge die Seiten für dein Crawling, die für SEO die höchste Relevanz verzeichnen. Bestimmte im Detail welche Seiten für das Crawling herangezogen werden sollen.

  1. Crawling

Der Suchmaschinen-Bot (Google-Bot) sammelt Daten im Web. Er crawlt deine Webseite.

  1. Indexierung

Deine Seite wird im Index der Suchmaschine zur Verfügung gestellt und bewertet.

  1. Ranking

Anhand unterschiedlicher On- und Offpage- Faktoren und dem Besucherverhalten wird deine Webseite gerankt.

Rankingfaktoren erfüllen und besser ranken

Entscheidend ist letzten Endes die Erfüllung der Rankingfaktoren. Ohne Indexierung ist es nicht möglich ein Ranking zu erzielen. Bevor deine Seite indexiert wird, musst du dafür sorgen, dass sie crawlbar ist.

SEO-Relevanz von Inhalten

Nicht jeder Inhalt, der für den Nutzer relevant ist, hat eine Bedeutung für SEO. Jede Seite, die für deine Umsätze eine Relevanz hat, ist auch relevant für dein Ranking.

Ratgeber-Seiten, die die Möglichkeit eines Cross-Sellings bieten, sind ebenfalls relevant für SEO, d.h. sie müssen indexiert werden.

Beispiel:

  • Du bist Fotograf aus Köln und dein Hauptaugenmerk ist die Hochzeitsfotografie.

  • Deine Hauptleistung ist auf der Unterseite /hochzeitsfotos dargestellt.
  • Du hast deine Seite auf die Phrase „Hochzeitsfotos Köln“ optimiert.
  • d.h. diese Seite eine sehr hohe Relevanz für Crawling, Indexing und Rankings.
  • Um unter „Hochzeitsfotograf Köln“ gefunden zu werden, legst du im Blog die Seite /hochzeitsfotos an.

SEO-RELEVANTE SEITENTYPEN

Welche Seitentypen sind für das Ranking relevant?

  • Startseite
  • Kategorieseite
  • Produktseite
  • Blogartikel-Seite
  • Magazin-Artikel-Seite
  • Landing-Page
  • Rategeberseiten
  • Lexikonseiten

Welche Seiten haben keine Relevanz für das Indexing?

  • Nicht gut optimierte Inhalte.
  • Warenkorb
  • Dashboard
  • Login-Seite
  • Tag-Seiten
  • Seiten ohne Inhalte
  • Thin Content (dt. dünner Inhalt)
  • Produktvarianten, die kaum oder keine Zugriffe verzeichnen

Sind Produktseiten meines Online-Shops relevant für die Rankings?

Grundsätzlich sind Produktseiten relevant für deine Rankings. Wenn du aber nicht ausreichend Ressourcen für die Optimierung dieser Seiten aufbringen kannst, dann solltest du differenzieren. Jedes Produkt sollte richtig optimiert sein.

Wie gehe bei meiner Optimierung der Produkte praktisch vor?

Du filterst deine Produkte nach folgenden Kriterien:

  • Welche meiner Produkte verkaufen sich am besten?
  • Über welche Produkte kommen die Besucher auf meine Webseite?
  • Welche Produkte bringen mir den meisten Traffic?
  • Habe ich Produktvarianten (z.B. andere Farbe), die keine Relevanz für die Suche (Suchvolumen) haben?

Produkte, die keine hohe Relevanz haben, verlinkst du intern etwas weniger im Verhältnis zu den Seiten, die für dich eine hohe Relevanz verzeichnen. D.h. Seiten mit geringer Relevanz sollen indexiert werden, weil sie intern auf relevante Seiten verweisen. Sie bieten deinem Nutzer einen Mehrwert, sind aber nicht wichtig für den organischen Einstieg über deine Webseite.

Beispiel:

Tag-Seiten bei WordPress sind ein gutes Beispiel für eine solche Seite, weil sie auf viele Seiten verweisen, die eine hohe Relevanz für das Ranking haben.

  • Überprüfe deine Seitenstruktur darauf, welche Seiten indexiert werden sollen.
  • Diese machst du via Robots.txt-Datei für die Suchmaschinen zugänglich.
  • Nicht Ranking-relevante Seiten sperrst du aus über die Robots-Datei.
  • Für alle anderen Seiten, die nicht für die Robots gesperrt werden, erstellst du eine XML-Sitemap, die du in deinem Account der Google-Search-Console hochlädst.
  • Dort überprüfst du die Indexierung deiner Seiten.
  • Achte darauf, dass unnötige Seiten nicht für den Google-Bot zugänglich gemacht werden, da Google ein sogenanntes Crawl-Budget vergibt. Damit ist die Dauer gemeint, die der Suchmaschinen-Bot auf deiner Webseite crawlt.
  • Der Bot soll keine unnötige Zeit auf deiner Webseite verweilen, da sonst Crawl-Budget unnötig verbraucht wird.
  • Setzte innerhalb deines Contents interne Links. Wichtige Seiten verlinkst du häufiger.
  • Nutze eine gezielte interne Verlinkung durch Paginierung.

Welche Möglichkeiten gibt es zur Steuerung des Crawlings?

Sitemaps – XML & HTML

Der Google-Bot verfolgt jeden Link deiner Webseite. Wenn du für eine gute interne Verlinkung sorgst, wird der Crawler alle wichtigen Seiten indexieren. Auch Bilder und Videos werden gecrawlt. Du reichst deine XML-Sitemap über die Search Console ein. Eine HTML-Sitemap, die du im Footer verlinkst macht ebenfalls Sinn.

Die Sitemap gibt dir keine Garantie dafür, dass alle Seiten im Index landen. Aber auch Seiten, die nicht indexiert werden, sich aber in der Sitemap befinden, kannst du im Nachgang optimieren. Wenn du zum Beispiel zwei Unterseiten deiner Webseite mit wenig Content hast, die gut zusammen passen, aber nach dem Crawling nicht im Index landen, kannst du die beiden Seiten einfach zusammen lege zu einer größeren Seite.

Robots.txt

Du bindest den Link zu deiner Sitemap in der robots.txt deiner Webseite ein. Der Bot folgt an erster Stelle, den Befehlen, die  du in der Sitemap für ihn hinterlegt hast. Dort legst du fest, welchen wichtigen Seiten er folgen soll.

Google Search Console

Im Administrationsbereich deiner Google Search Console hast du die Möglichkeit über den Tab „Sitemaps” in der Navigationsleiste Sitemaps bei Google einzureichen. Du kannst genau überprüfen wie URLs aus deinen Sitemaps indexiert wurden.

Welche technischen Voraussetzungen braucht deine Sitemap?

  • Ablage im Root-Verzeichnis deines Servers
  • XML-Format (Musterseite.de/sitemap.xml)
  • Angabe aller URLs zur Indexierung
  • UTF-8 Codierung
  • ASCII-Zeichen
  • Bis maximal 50.000 URLs
  • Bis maximal 50MB

Ab einer bestimmten Größe deiner Sitemap, macht es Sinn, mehrere kleine Sitemaps anzulegen. Wenn du WordPress als CMS nutzt, werden über das SEO Yoast Plugin automatisch mehrere Sitemaps generiert, die in verschiedene Bereich aufgeteilt sind. Beispielsweise wird für die Artikel eine separate Sitemap angelegt. Es existiert eine Index-Sitemap, die auf alle weiteren Sitemaps verlinkt. Wenn du grundsätzlich mehrere Seitentypen einsetzt, solltest du von Anfang an, mehrere Sitemaps anlegen.

Welche Seiten gehören in meine Sitemap?

Du solltest ausschließlich Seiten in deine Sitemap packen, die eine Relevanz für deine Rankings haben und indexierbar sind.

Welche Seiten schließe ich aus der Sitemap aus?

  • Seiten mit einer Weiterleitung  mit dem Statuscode 301 und 302
  • Seiten die nicht erreichbar sind mit dem Statuscode 404 und 410
  • Seiten die via Canonical Tag auf eine andere Seite verweisen
  • Seiten die mit der Meta-Robots-Angabe noindex
  • Tag-Seiten
  • Paginationen
  • Seiten die nur einen beschränkten Zugriff haben (Passwortschutz, Statuscode 404)

Hinterlege deine Sitemaps nicht nur in der Search Console, sondern auch in der Robots.txt-Datei.

Bilder- und Video- Sitemaps

Wenn du eigene Bilder und Videos nutzt, erstellst du jeweils eine Sitemap, die du in deiner Index-Sitemap verlinkst.

Wie erstelle ich eine Sitemaps

Ein Sitemap-Generator hilft dir dabei eine Sitemap zu erstellen. Wenn du WordPress nutzt, kannst du eine oder mehrere Sitemaps über SEO Plugins erstellen.

Sitemap-Generator  

https://timestampgenerator.com/tools/xml-sitemap-from-list

Robots.txt-Datei

Über die robots.txt-Datei teilst du den Suchmaschinen mit, welche Seiten und Dateien gecrawlt werden und welche nicht in das Crawling einbezogen werden.

Du kannst einzelne Bereiche wie z.B. Seiten oder Verzeichnisse komplett vom Crawling ausschließen. In der Regel crawlt der Google-Bot die komplette Seite, wenn du vorher keine Bereiche ausgeschlossen hast. Wenn du oder eine andere Webseite auf die Seiten verlinkt, die in der robots.txt gesperrt wurden, kann es sein, dass diese dennoch indexiert werden. Herausfinden kannst du das über deiner Search Console unter dem Punkt „Abdeckung“.

Rufe deine Nachrichten in der Search Console regelmäßig ab, denn du wirst informiert, wenn Probleme beim Crawlen auftreten.

Welche Anweisungen kann ich dem Bots erteilen?

  • Disallow

Damit legst du die Bereiche fest die vom Bot ausgeschlossen werden.

  • User-agent

Du legst fest welcher Bot oder User-Agent angesprochen wird.

  • Allow

Du legst fest welche Bereiche dennoch gecrawlt werden dürfen.

Die Anweisungen Disallow- und Allow kannst du auf komplette Domains, Subdomains oder einzelne Verzeichnisse erteilen.

Beispiel

User-agent: *

Disallow:

  • Die Bots dürfen auf alle Dateien zugreifen

User-agent: *

Disallow: /

  • Kein User Agent darf deine Domain crawlen

User-agent: googlebot

Disallow: /not-for-bing/

Der Google-Bot darf auf deine Seite zugreifen und sie crawlen, aber für das Verzeichnis /dont-crawl ist das Crawling für den Google-Bot verboten.

Welchen Bot kannst du über die Robots.txt-Datei steuern?

Du kannst einzelne Bots, aber auch Crawler steuern. Dadurch hast du die Möglichkeit deinen Server vor Überlastung zu schützen. Wenn du zu viele Webseitenaufrufe zur gleichen Zeit verzeichnest, kann deine Webseite abstürzen. In diesem Fall kannst du einzelne Bots über die rotbots.txt-Datei blockieren. Du kannst Malware-Bots dadurch aussperren.

Indexierung

Seit 2019 werden noindex-Anweisungen in der robots.txt nicht mehr berücksichtigt.

Wozu brauche ich eine Robots.txt?

Wenn du an der Neuerstellung deiner Webseite arbeitest und die Webseite aber erst nach Fertigstellung indexieren lassen möchtest.

Du möchtest bestimmte Bereiche nicht crawlen lassen. Dabei gilt es zu berücksichtigen, dass keine Links auf diese Seiten zeigen.

Wenn du gezielt Bots das Crawling verbieten möchtest, wie z.B. Spam-Bots.

 

 

 

 

SEO Content

SEO Texte richtig schreiben

17. Februar 2020/in Allgemein /von Dirk Schiff

Du hast dir bestimmt schon häufiger die Frage gestellt wie man einen richtigen SEO-Text schreibt? Um in den Suchergebnissen bei Google gut gefunden zu werden, musst du gewisse Voraussetzungen bei deinem SEO-Text erfüllen. Sollte der Text suchmaschinenoptimiert sein? Solche Fragen tauchen immer wieder auf.

Ich erkläre dir welche Voraussetzungen du in deinem Text erfüllen musst, um damit die bestmöglichen Rankings bei Google herauszuholen. Dabei geht es auch um Themen wie Keyworddichte oder WDF * IDF. Es kommt nicht darauf an wie du die Art von Content bezeichnest, wenn du planst einen bestimmten Text zu publizieren. Du musst nur bestimmte Kriterien erfüllen, um gute Rankings zu erreichen.

Was bedeutet SEO-Text?

Viele Webseitenbetreiber bezeichnen einen Text als „SEO-Text“. Für die Praxis hat diese Bezeichnung jedoch einen negativen Touch. Über diese Benennung lässt sich diskutieren. Viele Menschen suchen danach im Web, weil sie damit ein gutes Ranking bei Google beabsichtigen. Vor einigen Jahren wurden Texte gezielt mit Keywords vollgestopft, weil dies positive Auswirkungen auf das Ranking bei Google hatte. Heutzutage bedarf anspruchsvollen Texten mit guter Grammatik und geschickten Formulierungen. Der Text mit einer hohen Keyworddichte ist nicht gefragt bei deinen Lesern. Dennoch kannst du deinen Text suchmaschinenoptimiert erstellen, ohne ihn mit Keywords zu überladen. Durch die damaligen negativen SEO-Praktiken bleibt der SEO-Text bis heute auch als „negativ“ in den Köpfen der Leser. Mach dir darüber keine Gedanken und optimiere deinen Text richtig für die Suchmaschinen und insbesondere für deine Leserschaft. Wie die Menschen diese Art von Content bezeichnen, kann dir egal sein. Die Kunst dabei ist es, den Text so zu schreiben, dass der Leser neugierig wird und ihm dein Content gefällt. Und das ohne auf die Idee zu kommen, dass es ein SEO-Text sein könnte.

Gibt es überhaupt den richtigen SEO-Text?

Ja, es ist einfach ein suchmaschinenoptimierter Text. Jeder Text, mit dem du beabsichtigst gut zu ranken bei Google könnte als „SEO Text“ bezeichnet werden. Egal ob du eine Landing Page erstellst, eine Kategorie-Seite, eine Shop-Verkaufsseite oder einen Rategebertext. Der Content sollte immer für den Nutzer möglichst verständlich und interessant dargestellt werden. Wenn du dadurch viele Klicks erzielst und die Leser ansprichst, rankt dein Text besser. Zum sogenannten SEO Text gehört eine gute Strukturierung über H-Überschriften, Bullet-Points, Grafiken und mehr. Nicht nur der Leser muss deine Texte verstehen, sondern auch die Suchmaschinen. Bestimmte Details wie interne Links innerhalb deiner Texte dürfen in keinem Fall fehlen. Schreibe dein Text so gut, dass du dir vorstellen kannst ihn selbst gerne lesen zu wollen. Bestimmte technische Details sollten bei der Erstellung deines SEO Textes eingehalten werden.

Finetuning Tipp

Setze einen starken Deeplink auf die neue URL, worunter du deinen Artikel platziert hast.

Wie nutze ich sinnvoll Keywords für den SEO Text?

SEO Links München

© Coloures-Pic : SEO aus München

Keywords gehören immer in den SEO Text. Du verwendest die Keywords in der Regel in den Meta-Tags, in den H-Überschriften und mindestens 2 Mal im Content. Nutze zusätzlich Synonyme deiner Keywords. Achte darauf, dass du innerhalb deines Textes nicht zu häufig dein Hauptkeyword verwendest. Wenn du über Stellenanzeigen im Internet schreibst, muss der Begriff selbstverständlich in deinen Text hinein.

Worauf sollte ich in Bezug auf die Keyworddichte achten?

Keyworddichte, auch Keyword Density genannt, bedeutet wie häufig du ein Keyword in deinem Text verwendest. Vor einigen Jahren wurde die Keyworddichte sogar zu den Rankingfaktoren bei Google gezählt. Zum Glück gilt das heute nicht mehr.

Denn was nützt es dir, wenn du auf der Suche bist nach einer Immobilie oder einem Immobilienmakler und auf der gefundenen Website 50 Mal die Keywordphrase „Immobilienmakler München“ im Text vorkommt. Das liest sich sehr unangenehm und hinterlässt für den Leser einen schlechten Eindruck.

WDF * IDF löst Keyworddichte ab

Anstatt Keyworddichte gibt es heute WDF * IDF. Diese intelligente Formel berechnet in wie fern dein ganzer Content auf das Keyword deines Textes abgestimmt wurde und wie oft dein gewähltes Keyword im Verhältnis zum ganzheitlichen Content genutzt wird.

Mit welchen Tools lässt sich WDF * IDF messen?

  • Content Success – RYTE
  • temlabs.io
  • wdfidf-tool.com

Das heißt wenn es um Immobilien geht, solltest du den kompletten Content rund herum ausbauen, wie z.B. Eigentumswohnungen, Grundstücke, Häuser und mehr und nicht nur die Begriffe Immobilien und Immobilienmakler verwenden.

Eine WDF * IDF-Analyse ist sehr hilfreich, wenn es darum geht die richtigen Wörter für deinen SEO-Text zu finden. Du hast die Möglichkeit bestimmte Begriffe herauszufiltern, die mit deinem Keyword in Zusammenhang stehen. Somit fällt es dir leichter die passenden H-Überschriften und weitere Keywords für deinen Text ausfindig zu machen.

Wenn du z.B. IT Jobs als Hauptkeyword verwendest, kommen in deinem Text Begriffe wie Softwareentwickler, Programmierer oder Product Owner vor.

WDF * IDF in der praktischen Anwendung

Was muss ich beim Erstellen des SEO Textes beachten?

  • Schreibe für deine Leser
  • Strukturiere deinen Text durch H-Überschriften
  • Nutze Bilder und Videos
  • Optimiere deine Meta-Tags
  • Nutze dein Keyword in den Überschriften
  • Nutze dein Keyword im Title und in der Description
  • Nutze Keywords im Bilddateinamen und im Alt-Attribut
  • Nutze Synonyme deines Keywords im Text
  • Verwende dein Hauptkeyword mindestens 2 bis 3 Mal im Text
  • Schreibe möglichst spannend für deine Leser
  • Verwende Bullet Points verschönere deinen Content durch Hervorhebungen im Text

Welche technischen Details verbessern den SEO Content?

  • Alt Tag
  • Bildunterschrift mit Keyword
  • Seo-optimierter Dateiname
  • Komprimiere deine Bilder um eine gute Performance zu erhalten

Wenn du bereits beim Hochladen des Bildes eine Größe von 5000 X 3500px hast, wird sich dies negativ auf die Performance auswirken.

Wie baue ich meinen SEO-Text auf?

Wir erhalten ständig Fragen wie man einen SEO-Text optimal aufbaust und dazu gibt es einen Fahrplan.

  1. Du musst eine gute Headline bestimmen in der ein prägnantes Keyword oder ein spannender Name drin vorkommt. Dadurch weckst du Interesse beim Leser und erzeugst gleichzeitig ein Ranking mit dem relevanten Keyword für die Suchmaschine.
  2. Halte dich an die wichtigen technischen Details in Sachen SEO.
  3. Bringe das Wichtigste in deinen Überschriften unter und überlade deinen Text nicht mit Keywords.
  4. Verrate nicht gleich die perfekte Lösung zu Beginn deines Textes.
  5. Gehe bei deinen Überschriften in der Reihenfolge von <h1> bis <h5> vor. So können der User und auch der Googlebot deine Seite besser lesen.

Der Nutzer kann anhand der Überschriften recht schnell entscheiden, ob er an deinem Content interessiert ist. Wenn du es schaffst ihn dadurch anzusprechen, gewinnst du einen neuen Leser. Gliedere deinen SEO-Text in Absätze, was der Strukturierung deines gesamten Textes dient. Die Lesbarkeit wird dadurch stark verbessert. Zusätzlich kannst du Sprungmarken für deinen Text einsetzen. Wenn du am Anfang ein Inhaltsverzeichnis anlegst, hat der Nutzer die Möglichkeit, direkt an die Stelle des Textes zu springen, die ihn besonders interessiert.

Suche in Blogbereich integrieren

Wenn ein Nutzer gezielt auf einer Ratgeber Seite nach etwas sucht nutzt er häufig die Suchfunktion über eine kleine Lupe, wo er sein gefragtes Thema in der Suche eingeben kann.

Besondere Details wie eigene Studien

Erstelle eigene Studien oder Umfragen und verpacke sie als spannenden Content. Ich habe z.B. einen Text geschrieben „Harald Glööckler ist ein Trend“ oder „Modedesigner Harald Glööckler wird häufiger gegoogelt als Lagerfeld & Joop“. Dadurch konnte ich viel Aufmerksamkeit erzielen. Der Beitrag war in den Google News gelistet und Harald Glööckler war zu dieser Zeit sehr aktiv im TV. Mehrere Portale und die PR Agentur von Harald Glööckler haben über meinen Artikel geschrieben. Damit konnte ich einen Linkbait erreichen und mein Artikel performte sehr gut.

Mit interessanten Zahlen und Fakten kannst du bei den Lesern eine große Aufmerksamkeit erreichen. Setzt du diese Fakten in Verbindung mit einem bekannten Namen oder einem Keywords gezielt in deiner Headline ein, kann das zu einem gewissen Erfolg deines Artikels führen. Die Daten müssen nicht einmal gekauft sein. Du kannst über Google Trends oder bestimmte Keyword Tools einige spannende Daten recherchieren.

Texte aufklappbar gestalten

Wenn du deinen SEO Text aufklappbar gestaltest, kann der User sich einen schnelleren Überblick über deinen Text verschafften. „Mobile First Index“ heißt es bei Google. Also denke auch daran deine Texte mobil gut und übersichtlich aufzubereiten. Er kann durch das Aufklappen schneller über deine Seite Scrollen.

Auf dem Desktop soll man seine Texte nicht verstecken, weil sie unter Umständen schlechter bewertet werden könnten.

Unterschiedliche Schriften einsetzen

Wenn du deinen Text farblich hervorhebst, verbesserst du damit das ganze Erscheinungsbild. Nutze nicht zu außergewöhnliche Schriftarten, denn sie sind manchmal unangenehm zu lesen. Dann verkürzt der Nutzer seine Lesedauer und auch das ist ein Rankingfaktor. Darüber hinaus kann nicht jeder Browser jede Schriftart lesen.

Welche Länge sollte der SEO Text haben?

Es kommt darauf an, welche Art von Text du schreibst. Ein Ratgeber Text sollte schon mindestens 1000 Wörter aufwärts haben. Schreibst du eine Produktbeschreibung für dein Shop, empfehle ich dir 300 Wörter. Ansonsten würde sich dein Kunde erschlagen fühlen. Ziehe deine Texte nicht künstlich in die Länge. Beantworte alle Fragen, die den Leser interessieren. Qualität zählt vor Quantität. Viele Suchmaschinenoptimierer setzen auf holistischen Content. Ich habe die Erfahrung gemacht, dass Texte ab 1500 Wörter einfach mehr bringen, als ein Text von 800 Wörtern.

SEO Mythen

3. Januar 2017/in SEO /von Dirk Schiff

 

Wie zu jedem Thema kursieren auch um die Suchmaschinenoptimierung Mythen, die für viele Wahrheiten bedeuten, aber keine sind. Auch die beste Optimierung der Webseite ist keine Garantie, dass die Seite einen Sprung auf den ersten Platz der Ergebnislisten von Google und Co. macht. Es ist ein großer Erfolg, wenn die Webseite auf der ersten Seite ihren Platz findet. Um die eigene Seite zum Erfolg zu bringen, beinhaltet die Webseite Texte mit vielen Worten, mindestens jedoch 300 Worte. Auch wenn die Texte lang und länger sind, ist dies keine Garantie für ein gutes Ranking. Besser ist es, kleinere Texte mit interessantem Inhalt auf die Seite zu platzieren. Der Inhalt eines Textes ist weit aus wichtiger als seine Länge.

Mythen um SEO

Suchmaschinenoptimierung ist für jede Webseite eine Notwendigkeit. Auch wenn die Texte und die Inhalte der Webseite noch so gut sind; wird die Seite von Google abgestraft, wenn die Suchmaschine die Webseite nicht lesen kann. Bei der Suchmaschinenoptimierung wird die Seite für Google und Co. „lesbar“ gemacht, damit der Algorithmus sie bei seiner Suche findet. Dennoch kommt es auch auf die Inhalte an. Hochwertige Texte, die dem User einen Mehrwert bieten und interessant gestaltet sind, kommen immer an. Wichtig ist, dass die Texte einzigartig sind und weder der Text noch Passagen daraus auf anderen Webseiten vorhanden sind.

Das Keyword ist ein wichtiger Bestandteil der auf der Webseite platzierten Texte. Allerdings sollte das Keyword nicht den Text beherrschen, sondern so eingebaut werden, dass es sinnvoll ist. Den Text mit demselben Keyword zuzupflastern erzeugt nur Langeweile und in keinem Fall ein gutes Ranking.

Penguin in Echtzeit

Penguin Algorithmus von Google 2016

29. September 2016/in SEO /von Dirk Schiff

Penguin in EchtzeitPenguin nun im Google Kernalgorithmus eingefügt

Google setzt für sein Ranking Algorithmen ein. Diese bestehen aus mehr als 200 Hinweisen, Signalen und verschiedenen Daten. Aus diesen wird dann das Ranking erstellt. Zu den berücksichtigten Daten zählen u.a. bestimmte Wörter auf der Webseite (Keywords), Region, PageRank oder auch die Aktualität der Inhalte. Die Algorithmen bzw. Signale selber haben ebenso verschiedene Prioritäten. Eines dieser wird Penguin genannt. Bereits seit 2012 leistet es seine Dienste für das Ranking. Nun steht ein eingehendes Update an. Nun wird Penguin mit der Aktualisierung dem Kernalgorithmus hinzugefügt. Nachdem eine umfassende Entwicklungs- und Testphase nun abgeschlossen ist, steht das Update in allen Sprachen nun bereit. Die wichtigsten Änderungen richten sich dabei nach den Wünschen der Webmaster.

Penguin in Echtzeit

Bisher erfolgte die Aktualisierung von betroffenen Seiten durch Penguin nur mit einer bestimmten Verzögerung. Penguin selber wurde nur zu bestimmten Zeiten aktualisiert und konnte erst danach die durchgeführten Änderungen auf Webseiten berücksichtigen. So wurden Verbesserungen der Präsenz im Internet einzelner Webseiten von zahlreichen Algorithmen sofort erkannt, andere wie etwa Penguin brauchte eine gefühlte Ewigkeit. Dieses Penguin-Update bewirkt nun die Aktualisierung von Webseiten in Echtzeit. Für gewöhnlich sollten die Änderungen bereits nach dem erneuten Indexieren und Crawlen sichtbar sein.

Detailliertere Auswirkungen durch Penguin

Eine weitere große Aktualisierung betrifft die Auswirkungen auf Spam. Das Google-Ranking wird nun auf Basis von Spamsignalen angepasst. Hier nimmt Penguin SEO-Methoden ins Visier, welche die Grenze zum Spamming überschreiten. Diese Webseiten werden demnach im Ranking herabgesetzt.

Mit dem Penguin Update soll vor allem Webspam weiter eingegrenzt und zeitgleich hochwertige Inhalte und Inhalte mit Mehrwert gestärkt werden.

Das neue Update wird in allen Sprachen zeitgleich eingeführt. Betroffen werden aller Voraussicht nach 3,1% der englischsprachigen Webseiten und etwa 3% der deutschen, chinesischen und arabischen. In den Sprachen, in denen Spam weiter verbreitet ist, wird Penguin selbstverständlich einen größeren Effekt haben. So geht man davon aus, dass beispielsweise 5% der polnischen Suchanfragen betroffen sein werden.

Es wird dringend empfohlen, dass Webmaster sich ganz und gar auf die Erstellung von ansprechenden und hochwertigen Webseiten konzentrieren. Auf die Verwendung von aggressiven Webspam-Taktiken sollte vollständig verzichtet werden. Andere Methoden in Form von „White Hat“ Suchmaschinenoptimierung sind empfehlenswerter.

„White Hat“-Suchmaschinenoptimierer

Diese Webmaster gehen nach dem Prinzip vor gute Inhalte zu erstellen, Webseiten schneller reagierbar zu machen oder auch die Benutzerfreundlichkeit für Besucher zu erhöhen. Diese Maßnahmen wirken sich positiv sowohl auf die Nutzer als auch Suchmaschinen aus. Zudem spielt gutes, kreatives Marketing eine positive Rolle. Dieses wirkt sich zumeist gut auf soziale Medien und Suchmaschinen aus. Aufgrund dessen generiert die Webseite häufig mehr Besucher und wird häufiger verlinkt. Im Gegenteil dazu existieren auch die sog. „Black Hat“-Suchmaschinenoptimierer. Diese suche sich diverse Schlupflöcher und Abkürzungen um die Webseite im Ranking hoch zu treiben. Hierzu zählen Methoden wie Linktauschprogramme oder überflüssige Keywords. Diesen ist Penguin nun auf der Spur.

 

amazon affiliate

Abstrafung von Amazon Affiliate durch Google?

7. April 2016/in Allgemein /von Dirk Schiff

 

amazon affiliateEs scheint sich eine weitere große Veränderung in den Suchergebnissen von Google anzubahnen. Demnach sieht es so aus, als ob Google neuerdings Amazon Affiliates abstraft mit Rankingverlust. Seit einigen Tagen berichten Betroffene über, teilweise immense, Rankingverluste. Sollte dem so sein, wäre das der nächste nachvollziehbare Schritt um die Suchergebnisse weiterhin zu verbessern.

Amazon Affiliate Seiten

Es gibt verschiedene Ausführungen von Amazon Affiliate Seiten, die mit unterschiedlicher Qualität aufwarten. Generell gilt allerdings: Per Link verweisen diese Seiten zu Produkten auf Amazon. Die unterschiedlichen Qualitäten stellen sich vor allem durch Seiten dar, die automatisch irgendeinen Inhalt generieren und denen Websites, die eigene hochwertige Produkttests beinhalten und dann mittels einem Link zum jeweiligen Produkt auf Amazon verweisen. Durch den Verkauf des Produkts erhält der Seitenbetreiber eine Provision.

Warum stören diese Seiten?

Prinzipiell hat Google nichts gegen diese Seiten einzuwenden. Aber viele Betreiber bauen diese Webseiten mit wenig bis gar keinen hochwertigen Content. Vielmehr stößt der Besucher nur auf 0815 Infos oder auf Inhalte von anderen Websites. Diese Seiten bieten keinen Mehrwert für den Nutzer wie beispielsweise solche, die eigenen hochwertigen Content beinhalten.

John Mueller beantwortet diverse Fragen über Hangouts

John Mueller vom Google Team Schweiz bestätigte via Hangouts, dass im Allgemeinen keine Beanstandung von Affiliate Seiten bestünde, nur der mangelnde Content ein Dorn im Auge wäre. Die wichtigsten Fragen und Antworten der letzten Hangouts sind nachfolgend nochmal zusammengetragen.

Frage: Verschlechtert es den Wert einer Seite, wenn der Index aus 30–50 % Affiliate-Seiten mit entsprechenden Links besteht?
Antwort John Mueller: Affiliate ist nichts, was automatisch schlecht ist. Es ist normaler Content. Wenn die Inhalte also gut sind, dann wird das funktionieren. Aber wenn ihr nur gescrapte Dinge anbietet, dann sehen wir das als minderwertig an. Wichtig ist immer die Qualität.

Frage: Es wurden mal Webspam Signale angesprochen. Eines dieser Signale war, dass Traffic weitergeleitet wird. Kann Google nachvollziehen, wenn ein Nutzer von Google auf einer Seite landet, etwas Zeit dort verbringt und dann zu einer anderen Seite weiterklickt? Werden dafür Daten von Google Analytics herangezogen?
Antwort John Mueller: So weit ich weiß, sehen wir das nicht. Was auf eurer Seite passiert, ist eure Sache. Aber wir sehen vielleicht indirekte Dinge, zum Beispiel wenn Nutzer sich nur durch eine Affiliate-Seite durchklicken. Wir sehen dann, dass Leute eure Seite nicht weiterempfehlen und schauen uns das dann an. Daten von Google Analytics nutzen wir nicht für unsere Algorithmen.

Frage: Google verlangt, dass Affiliate-Seiten einen Mehrwert bieten sollen. Nun scheint doch eine Möglichkeit zu sein, einen Abschnitt mit einem Preisvergleich mit Produkten und Versandkosten von Konkurrenten einzurichten. Fällt dieses unter Mehrwert oder nicht?
Antwort John Mueller: Tatsächlich irgendetwas, was einen zusätzlichen Wert hat. So ein Preisvergleich kann eine Möglichkeit sein. Die eigene Website sollte Besucher dazu bringen, die Website aufrufen zu wollen, da sie dort etwas finden, was sie auf Konkurrenzseiten nicht finden können. Es muss also etwas sein, dass euch von der Konkurrenz abhebt. Wenn die eigene Website kein Alleinstellungsmerkmal hat, gibt es für Google keinen Grund sie besser als andere, ähnliche Websites zu ranken.
Insbesondere die letzte Antwort des Google Mitarbeiters verdeutlicht den hohen Stellenwert des Mehrwerts einer Seite. Gerade die letzte Antwort zeigt deutlich, dass eben der Mehrwert entscheidend ist.

Abstrafungen und Down-Rankings

So scheint nun die Folge zu sein, dass Google Down-Rankings und manuelle Maßnahmen vornimmt.
Aber sind die betroffenen Seiten nur Einzelfälle oder hat Google am Algorithmus herumgeschraubt?
Da es auch Seiten getroffen hat, welche keine Benachrichtigung über manuelle Maßnahmen in der Search Console getroffen hat, liegt die Annahme nah, dass Änderungen im Algorithmus erfolgt sind.
Letztendlich ist es jedoch auffällig, dass Webseiten mit schwächerem Content und ohne Affiliate Amazon Links immer noch weiter oben im Suchmaschinenranking angezeigt werden. Von den Down-Rankings und Abstrafungen sind vielmehr lediglich Amazon Affiliate Seiten betroffen. Aufgrund dessen scheint der Verdacht bestätigt zu sein, dass es sich hierbei um eine gezielte Maßnahme gegen Amazon Affiliate Seiten handelt.

Änderungen der Richtlinien für Evaluatoren: Google verbessert die Qualität der Suchergebnisse

28. Dezember 2015/in Allgemein /von Dirk Schiff

 

Am 02. Dezember 2015 gab Google bekannt, dass die Richtlinien zur Bewertung der Suchqualität aktualisiert werden. Zeitgleich wurde auf regelmäßige Änderungen, welche nicht im öffentlichen Dokument sofort festgehalten werden, eingegangen.  Für die weitere Entwicklung der Suchalgorithmen, bedienen sich die Google Mitarbeiter verschiedener Experimente. Zu diesem Prozess zählt auch die Bewertung der Qualität der Google-Suchergebnisse mit Hilfe von Evaluatoren. Diese geben ein aufschlussreiches Feedback zu den durchgeführten Experimenten.

Ranking

Dabei werden die Bewertungen der Evaluatoren nicht genutzt um ein Ranking einzelner Webseiten zu konstruieren. Vielmehr helfen diese dabei die vorgenommenen Experimente besser zu verstehen und einzuschätzen.
Für die Bewertungen durch die Evaluatoren werden die Google-Richtlinien herangezogen. In diesen zeigt sich das Verständnis von Google darüber, was seine Nutzer von der Suche erwarten.

Im Jahr 2013 veröffentlichte Google die Richtlinien zur Erstellung von Bewertungen durch Personen. Mit diesem Schritt zeigte sich Google transparenter in seiner Funktionsweise und hat seither die Möglichkeit Webmastern genau zu verdeutlichen worauf es ankommt um Webseiten in der Suchmaschine zu platzieren.

Entwicklung

 

Doch in den letzten zwei Jahren stand die Entwicklung nicht still und vieles hat sich verändert. So muss Google beispielsweise auf ein geändertes Verhalten der Nutzer und auf einen Tausch der Endgeräte reagieren. Für die Suche wird heutzutage nur noch selten der heimische PC genutzt. Stattdessen greifen die User vermehrt auf Mobilgeräte zurück und das Smartphone ist im Grunde überall zugegen.
Die Richtlinien werden von Google regelmäßig geändert und angepasst. Die Anpassung erfolgt nicht nur anhand der Änderung von Nutzerverhalten und des Endgerätwechsels, sondern auch unter Berücksichtigung von Nutzerwünschen. Allerdings wurde seit 2013 keine Aktualisierung mehr öffentlich gemacht. Dieser Umstand hat sich mit der Überarbeitung und Veröffentlichung der Richtlinien für Evaluatoren geändert. Diese wurden auf die gegebenen Umstände, dass Menschen jederzeit und überall mit ihren Endgeräten online gehen können und daher auch die Suchfunktion anders nutzen, abgestimmt.

Richtlinien

Auch zukünftig wird Google Anpassungen vornehmen schon alleine aus dem Grund, dass sich auch in Zukunft die Nutzungsweisen und die Anforderungen ändern werden. Um stets den hohen Anforderungen an Smartphones usw. gerecht werden zu können und auch weiterhin den Nutzern schnelle und effiziente Antworten durch die Suchfunktion bieten zu können, wird Google stetig die Richtlinien überarbeiten. Allerdings wird das öffentliche Dokument, in denen die Richtlinien für Nutzer nachzulesen sind, nicht im gleichen Atemzug überarbeitet. Wichtige Änderungen sollen allerdings in regelmäßigen Abständen in das Dokument integriert werden.

Domainname und Endung: Vorteile bei Google?

28. Oktober 2015/in Allgemein /von Dirk Schiff

Haben nTLDs Vorteile?

Eye viewing digital information. Conceptual image.

Google hat immer wieder Neuerungen – diesmal sind es die Endungen nTLDs. Welche Wirkung diese bei der Google-Suchmaschine und beim Ranking haben und ob sich die Registrierung lohnt, sind Fragen, die eine Antwort verlangen. Auch die Frage, ob und in welcher Weise Google diese neuen Endungen der Domains berücksichtigt. Googles Antwort kam vor wenigen Tagen.

Ranking mit bestimmten Top-Level-Domains

Google äußert sich nicht zum ersten Mal über das Ranking von Webseiten mit den neuen Endungen. Webmaster Trend Analyst John Mueller ergriff zu diesem Thema das Wort. Dieses bestand aus einer kurzgehaltenen Blogpost mit für viele Leser unbefriedigenden Antworten. Die Kernfrage bezog sich auf die neuen generischen Endungen und wie diese die Suche beeinflussen. Hierzu schreibt John Mueller, das System behandele die neuen gTLDs overall (insgesamt) nicht anders als die anderen. Es gäbe weder Vor- noch Nachteile für Top Level Domains mit oder ohne Keyword. Weiter führt Mueller aus, die Nutzung der von internationalen Top Level Domains sei dieselbe wie der anderer TLDs; aktuell behandelt Google Punycode-Domains in der gleichen Art wie die uncodierte Version dieser Domains. Eine Empfehlung gibt Mueller ebenfalls aus: Er meint, Suchmaschinenoptimierer sollten für den Rest einer URL für den Pfad und den Fragewert immer UTF-8 nutzen, Ausnahme sei, das Setzen von ausschließlich ASCII-Zeichen.

Gewichtung bei den Suchmaschinen

Die Gewichtung der neuen Endungen TLDs in Bezug auf „com“ ist eine Frage, bei der sich Mueller neutral verhält. Er sagt: „Die Endungen behandelt Google gleich wie die alten gTLDs. Das gilt ebenfalls regionale TLDs, deren Behandlung den gTLDs entspricht, also konsistent wie die Behandlung der Endungen wie „eu“ und „asia“. Über kurz oder lang kann es zu Änderungen kommen, abhängig wie geoTLDs verwendet werden. Anders verhält es sich mit ccTLDs: Durch sie erhält Google Hinweise, wie sie innerhalb eines Landes genutzt, weshalb sie als relevant angesehen werden. Zu den Ausnahmen gehört die Frage, ob bei einem Wechsel auf eine neue Domain Unterstützung von Google kommt. John Mueller gibt hierfür Informationen sowie weiterführende Links in seinem Blogpost. Ganz ohne Resonanz blieb Googles Statement nicht. Managing Director bei OpenRegistry, Hans Seeuws, zeigt Skepsis und findet dafür Unterstützung von David Hallam (NCC Group). Overall ist ein Begriff, der viel Spielraum für Abweichungen lässt. Diese entzünden Zweifel beispielsweise über die Sonderbehandlung bei der Google-Suchmaschine für „brand-Besitzer“. Beide Skeptiker zeigen wiederholt die Grundlagen des SEO und den Wert der nTLD als Keyword auf.

SEO & Google Rankingfaktoren 2015 für Ihre Webseite

2. September 2015/in Allgemein /von Dirk Schiff

Ranking-Faktoren: Die Karten wurden 2015 neu gemischt

abstrakt, analyse, analysieren, backlinks, figur, gezeichnet, homepage, html, icon, index, inhalt, internet, keyword, konzept, konzeptionell, lšsung, marketing, mŠnnchen, onlinemarketing, optimierung, programmierung, professionell, qualitŠt, rang, ranking, recherche, schlŸsselwort, searchengine, seo, stichmŠnnchen, stichwort, strategie, suchbegriffe, suche, suchen suchergebnis, suchmaschine, suchmaschinenoptimierung, symbol, tagcloud, traffic, webdesign, webgestaltung, webmaster, webpage, webseite, website, Webanwendung, werkzeuge ,zeichnung, Query Deserve Freshness, Ranking-Algorithmus

Behalten Sie im Ärmel das Ass: Zu den Ranking-Faktoren des Jahres 2015 bietet Ihnen für Top-Rankings bei den Google Suchergebnislisten sowie zu den wichtigsten aktuellen Insights zu den wichtigsten Faktoren die Searchmetrics-Analyse. Es gibt neben den Rang-Wechselbeziehungen sowie unbeschreiblich viele Tipps für Page-Optimierung zum ersten Mal in diesem Jahr für Top10-Rankings Benchmarks. Damit haben Sie eine Vergleichsmöglichkeit zwischen ihrer Webseite und denen der Top10. Sie wollen die Informationen über das Aussehen der Datenbank, den Ablauf der Analysen und was genau ein Ranking-Faktor ist! Bei uns gibt es dafür ausreichend Informationen.

Was ist ein Ranking-Faktor?

Im Jahr 2015 erscheint unser Whitepaper in neuem Design. Informative Kurztexte, viele Tipps & Learnings sowie prägnante Charts finden Sie auf unserer Seite. Die aktuelle Studie können Sie bei Searchmetrics als PDF-Datei runterladen. Damit haben Sie diese neben ihrem Computer auch auf Ihren mobilen Endgeräten wie Smartphone und Tablet zu Hand.

Wir geben Ihnen einen Überblick zu den wichtigsten Punkten der Ranking-Faktoren des Jahres 2015:

1. Absinken der Relevanz von Backlinks

Die Zeiten der unnatürlichen Linkbuildings sind endgültig vorbei, auch wenn bisher Backlinks immer noch immer eine Größe sind, die nach der Statistik mit einem guten Ranking korreliert. In naher Zukunft könnten Links allgemein, t – auch seit Disavow – weiter an Bedeutung verlieren; aktuell sind andere Faktoren wichtiger. Es geht derzeit um existentes Link-Earning mittels Content. User würden ihn gern verlinken, da dieser ist dermaßen gut ist. Deswegen ging der Anteil der Backlinks zu den analysierten URLs zur Homepage zurück. Häufiger verweisen Backlinks auf ganz spezielle Landing Pages. Auch zurück ging der ging der Anteil der Backlinks zurück, welche im Anchortext das Keyword tragen – im Anchor haben Backlinks haben die Domain oft. Die Relevanz von Backlinks wird weiterhin zugunsten anderer Elemente in den Hintergrund treten, aufgrund der Nutzung von mobilen Endgeräten und Social-Kanälen.

2. Für optimale User Experience ist die User Experience Onpage-Optimierungen eine grundsätzliche Voraussetzung

Mit vielen neuen Faktoren haben wir dieses Jahr das Kapitel mit der Thematik User Experience bestückt, damit dieser aufsteigende Stellenwert eine bessere Berücksichtigung findet. Ein responsives Design hat ein Drittel aller von uns untersuchten Websites. Dieses gewährleistet auch auf mobilen Endgeräten eine optimale Darstellung. Wir stellten fest, dass die Seiten, die besser ranken ihrem Content eine bessere Struktur gaben und eine gute Linkstruktur, sowie viele interaktive Elemente beinhalten. Für Internetnutzer und den Suchmaschinen-Bot sind diese Seiten nicht nur besser verstehbar, sondern auch gut interpretierbar. Für Google sind deshalb Bounce Rate, Click-Through-Rate und Time on Site die wichtigsten Anhaltspunkte, um die Zufriedenheit der Nutzer zu messen. Entsprechend passt die Suchmaschine das Ranking an.

3. Ein Bonus sind Social Signals für das organische Ranking

Während in diesem Jahr Likes & Shares von Facebook, Google+ und Tweets stark mit besserem Ranking korrelieren, sinkt die Mehrzahl der Korrelationen in diesem Bereich. Ist die Zahl der Social Signals zu hoch, geht die Suchmaschine davon aus, dass diese Seite entweder kontinuierlich neuen Content veröffentlicht oder ein Brand ist. Es gibt auch andere Websites, die ein gutes Ranking erzielen, ohne dass sie viele Social Signals beinhalten. Likes, Tweets und Pins stellen, so betont Google immer wieder, kein direktes Ranking-Signal dar.

4. Das Keyword hat immer weniger Bedeutung

Rückläufig ist in der Mehrzahl der Bereiche die Bedeutung des „Keywords“ als Ranking-Faktor . Dies ist sowohl in der Description als auch im Body der Fall. Damit sind im vorderen Bereich der Ergebnislisten von Google immer öfter URLs, wobei nicht zwangsläufig das entsprechende Keyword in der Description oder im Body vorhanden ist. Stark gesunken ist auch der Anteil der Keyword-Domains. Diese korrelierten noch vor kurzer Zeit mit einem positiven Ranking.

5. Holistischer Content

Die Zeit des holistischen Contents begann, als die Ära des Keywords vorbei war. Dabei geht um das Zusammenschmelzen zu einem Topic von verschiedener, in Beziehung stehender Randthemen. Für eine große Zahl von Suchanfragen bietet diese neue Ganzheitlichkeit einen relevanten Content, der die sich um das Hauptthema dreht. Dies brachte einen Anstieg der Anzahl der Wörter auf den analysierten Seiten mit. Zugelegt hat das Nutzen von Proof-Terms (eng verwandt mit dem Haupt-Keyword) sowie Relevant Terms (semantisch entfernt verwandt mit dem Haupt-Keyword) bei den Top30-Rankings.

SEO Faktoren

SEO Rankingfaktoren 2014

14. Dezember 2014/in SEO /von Dirk Schiff

 

Für Websitebetreiber ist es wichtig, ein gutes Ranking zu erzielen. Je besser die Website in den Ergebnislisten oder beim Ranking ist, desto erfolgreicher ist die eigene Seite. Um eine ordentliche Platzierung zu erreichen, optimieren Webdesigner die Website regelmäßig.

Was bedeutet Ranking?

SEO Faktoren

Ranking ist die Rangordnung der Ergebnislisten der Suchmaschinen. Google & Co. listen anhand der Anfragen von User Websites auf. Dabei befinden sich Seiten im oberen Bereich, welche zu den eingegebenen Suchbegriffen die höchste Relevanz aufweisen. Die Website, welche die Mehrzahl der gesuchten Begriffe beinhaltet, befindet sich ganz oben in der Ergebnisliste der Suchmaschinen.

Jede Suchmaschine hat ihre individuellen Kriterien, welche die Rangfolge bestimmen. Diese Kriterien halten Suchmaschinen-Betreiber unter Verschluss, weshalb sich Suchmaschinenoptimierer auf ihre Kenntnisse verlassen müssen. Optimieren sie eine Website auf das Ranking, lassen sie sich bis zu vier Wochen Zeit, um die Wirkung ihrer Optimierung zu begutachten. Auch Suchmaschinen brauchen Zeit, um eine veränderte Website zu erfassen, manchmal sogar noch viel länger.

SEO Rankingfaktoren allgemein



Die Verbesserung der Relevanz einer Website erfolgt bei der Suchmaschinenoptimierung, hauptsächlich bei der OnPage-Optimierung. Die Suchmaschinen bewerten jedoch nicht ausschließlich die Anzahl der Keywords einer Website, sondern beziehen weitere Kriterien für das Ranking mit ein. Dazu zählt der Name, unter dem die Domain registriert ist, die Linkpopularität sowie die Benennung von Verzeichnungen und Dateien innerhalb der Domain. Diese Faktoren summieren Suchmaschinen in ihrer Bewertung. Die daraus resultierende Summe ergibt den Gesamtwert eines Internetauftritts, der letztendlich die Rangfolge bei Google & Co. bestimmt. Weist die eigene Website gute Bewertungen zu den einzelnen, von Google & Co. überprüften Faktoren auf, erhält die Seite eine gute Platzierung.



Das Ziel von Google



Google fordert von den Websites interessante Inhalte, Content, hochwertige Links; um nur einige Faktoren zu nennen. Beinhaltet eine Website diese Anforderungen, bewertet Google diese Seite gut, was sich auf das Ranking auswirkt. Damit Websites den Anforderungen entsprechen, sollten Suchmaschinenoptimierer einige Dinge beachten.

• Ein organischer Aufbau, dessen Inhalt stets mit hochwertigem Content aktualisiert wird.
• Nutzer und Zielgruppe zu kennen, diese anzusprechen und lange auf der eigenen Website zu halten.
• Eine barrierefreie Website bietet aufgrund einer schnellen Ladezeit Usern mehr Nutzen.
• Eine Navigation mit Text sowie Links mit Linktexten honoriert die Suchmaschinen.
• Bei Texten auf Content achten.
• Links sind nach wie vor Faktoren, die sich bei der Bewertung durch Suchmaschinen bezahlt machen. Dabei ist auf wertvolle Links zu achten, Spam und minderwertige Links sind zu vermeiden.

Geduld ist ein weiterer Punkt, den Suchmaschinenoptimierer beachten, da Suchmaschinen lange Zeit benötigen, um eine Bewertung der neu gestalteten Seite vorzunehmen.

Rankingfaktoren 2014



Jedes Jahr geben spezielle Website für Suchmaschinenoptimierer die Rankingfaktoren als Orientierungshilfe bekannt. Diese sind beispielsweise 2014 die technische Architektur einer Website, hochwertige Links sowie ein interessanter Inhalt. Die Untersuchung der Rankingfaktoren ergab nachstehende Faktoren als Highlights für das Jahr 2014:

• Ansätze, welche kontextbasiert und holistisch sind,
• Architektur der Website,
• technische Performance,
• Keyword-Links,
• Social Signals und
• neu bei der Bewertung die User Signals.

Wichtige Faktoren sind weiterhin hochwertige Backlinks sowie eine ausbalancierte Linkstruktur im Innenbereich und kurze Ladezeiten. Die Kriterien für 2014 werden sicher nicht dieselben Faktoren sein, jedenfalls nicht in dergleichen Reihenfolge.

Quelle Rankingfaktoren 2014: Searchmetrics.com/de

OnpageDoc das Profi-Onpage-Tool für SEOs, Agenturen &Webmaster

13. März 2014/0 Kommentare/in SEO /von Dirk Schiff

Das neue Tool für SEOs, Webmaster und Agenturen mit dem Namen „OnpageDoc“, ist vor dem 01.04.2014, noch mit 50 Prozent für die ersten drei Monate rabattiert. Bereits am ersten Tage verzeichneten die Gründer 1000 Voranmeldungen für ihr innovatives Tool. Meta-Tags, interne Verlinkung oder Status Codes werden auf den Prüfstand gestellt. Doch das ist noch nicht alles! Möchten Sie wissen über welche Backlinks Ihre Mitbewerber verfügen? OnpageDoc wertet interne und externe Backlinkdaten für die eigene oder fremde Domain aus.

SMS Benachrichtigung wenn etwas nicht stimmt

Sie können sich via SMS benachrichtigen lassen, wenn etwas mit der Seite nicht stimmt. Sämtliche Fehler wie z.B. schädliche Backlinks, zu langsame Ladezeiten oder falsche Onpage-Optimierung werden angezeigt.

Auf dem neusten Stand

Neben Backlinks, gehören Social Signals zur Optimierung einer Webseite. Social-Media- und Analytics- Daten geben Auskunft über Sichtbarkeit und Dinge, die noch einer Optimierung bedürfen. Mit einer genauen Kennzahlenauswertung lässt sich die IST-Situation ganz einfach feststellen.

Backlinks

Hinweise über die Qualität der Backlinks werden gegeben, so dass Sie reagieren können und Backlinks selbst löschen oder ändern, falls es notwendig ist. So bleibt Linkjuice erhalten!

SEO und Keywordmonitoring nicht nur für deutschsprachige Länder

Für 33 Länder der Welt profitieren Sie von Daten wie Rankingentwicklung, Mitbewerbervergleich oder Chancen-Keywords.

Das Gute an OnpageDoc ist, dass Sie das umfangreiche Tool ab 29,90 Euro im Monat nutzen können. Wer sich beeilt und vor dem 01.04.2014 sich für die Nutzung entscheidet, erhält einen Preisnachlass von 50  Prozent, für die ersten drei Monate. Die Leistungen, die wir hier aufgeführt haben sind nur ein Teil, von denen, die angeboten werden. Doppelter Content wird überwacht, eine Analytics Anbindung mit Ihren Daten ist möglich oder Optimierung von Google Places: Das alles sind Leistungen von OnpageDoc und das Schöne daran ist, das Tools läuft auch mobil!

Seite 1 von 212
  • diplom online marketing managerOnline Marketing Manager werden?12. Januar 2021 - 00:11

    Hast Du schon einmal darüber nachgedacht im Bereich Online Marketing zu arbeiten und Karriere zu machen? Nutze die Zeit während der Corona Pandemie als Sprungbrett und werde Diplomierter Online Marketing Manager. Mit diesem Abschluss erreichst Du fundierte Kenntnisse auf akademischem Niveau. Wir schenken Dir einen 100 Euro Bildungsgutschein zum Lehrgang Diplomierte/r Online Marketing Manager/in an […]

  • SEO für Unternehmer & CEO´s21. Dezember 2020 - 16:36

    Suchmaschinenoptimierung ist im Vergleich zur Google-Werbung eine günstige und nachhaltige Methode, die Sichtbarkeit seiner Webseite zu verbessern. Du zahlst weitaus weniger Geld als bei der Schaltung von Google Ads. Definiere vorab deine Ziele! Alle SEO-Kampagnen sind für den Unternehmer skalierbar und anhand Traffic relevanter KPIs messbar. Du erzielst mehr Sichtbarkeit in der organischen Suche von […]

  • Suchmaschinenoptimierung lernen: Weiterbildung, Zertifikat, Coaching oder Studium?14. Dezember 2020 - 16:13

    Warum sollte ich SEO lernen? Wenn du SEO für dein eigenes Projekt lernst, kannst du damit mehr Traffic, mehr Umsatz und neue Kunden erreichen. Wie kann ich Suchmaschinenoptimierung professionell lernen? Du kannst von der klassischen Weiterbildung bis hin zum Master Studiengang verschiedene Ausbildungs- und Lernmethoden auswählen. Mehr Infos dazu findest du unter unseren Seiten „SEO-Ausbildung“ […]

  • Google Core Update Dezember 2020: Algorithums11. Dezember 2020 - 22:58

    Core Update noch im Dezember 2020? Google überrascht mit der Ankündigung, das Core Update noch in diesem Jahr durchzuführen. Wird es vielleicht sogar noch ein verfrühtes Weihnachtsgeschenk? So rätseln die Nutzer. Die ersten Daten sind jedoch präsent. Erkenne ich, ob meine Domain von dem Core Update betroffen ist? Der tägliche Sichtbarkeitsindex in SISTRIX bezieht sich […]

  • SEO KPIs: bessere Performance bei Google11. Dezember 2020 - 16:05

    Was sind KPIs? KPI: Begriff erklärt KPI heißt abgekürzt Key Performance Indicator. KPIs sind Kennzahlen, anhand dessen wichtige Performance-Werte von Unternehmen gemessen werden. Dadurch kannst du den Erfolg gezielter Kampagnen messen. Das Unternehmen ist in der Lage herauszufiltern, welche detaillierten wichtigen Fakten, seine Werbe- oder SEO- Kampagne in der Umsetzung gebracht haben. Ein messbarer Erfolg […]

  • Public RelationsGoogle Mobile First Indexing: Ändert sich was an SEO?23. November 2020 - 22:30

    Google verbannt den Desktop Content ab März 2021 Google ist immer für eine Überraschung gut. So verbannt der Google Index am Frühjahr 2021 die Desktop Only Websites. Mehr Bugs dürfen M-Dot-Websites und andere Mobilversionen in der Zukunft aufweisen. Geplant war von Google, dass bereits im September 2020 seine Mobile-First-Indexierung abgeschlossen sein sollte. Seit Jahren ist […]

  • BacklinkkaufPillar Page: SEO Geheimwaffe20. November 2020 - 15:58

    Das Thema „Pillar Page“ ist seit 2018 ein spannendes Thema zur Steigerung des organischen Traffics. Im Vergleich zur klassischen Landing Page zu einem bestimmten Keyword, wird bei der Pillar Page ein ganzer Themenbereich in den Fokus gestellt. Dabei geht es um einen ganzheitlichen und gut strukturierten Content. Was ist eine Pillar Page? Die Pillar Page […]

  • SEO StudiumSEO-Studium: Master oder Bachelor11. November 2020 - 16:13

    Viele SEO-Manager haben in ihrem Job die Berufung gefunden und sind aber als Quereinsteiger in diesem Beruf gelandet. Eine Weiterentwicklung zur Führungskraft im Unternehmen, könnte aufgrund des fehlenden Studiums schwierig werden. Wenn Du Head of SEO oder Team Lead werden möchtest, ist meistens ein Hochschulabschluss im Online Marketing gefragt. Das wird zumindest in den meisten […]

  • Störung des Ranking-Algorithmus der Google-Suche im November 20206. November 2020 - 18:29

    Seit einigen Tagen ist in der SEO-Branche ein Google Update zum großen Thema geworden. Der Suchmaschinenriese hat die Algorithmus Änderung in Form eines Updates bisher nicht bestätigt. Daher ist von einer Störung des Algorithmus auszugehen. Am 03. November wurde auf einschlägigen Blog und in Foren über Algorithmus Änderungen im Web diskutiert. Davor wurde bereits am […]

  • Top 10 bei GoogleGoogle-Algorithmus-Update Oktober 2020?3. November 2020 - 23:32

    Einige Gerüchte und Forenbeiträge in Web könnten Hinweise auf ein Google-Algorithmus-Updaten geben. Einige Webseitenbetreiber berichteten über Ranking Veränderungen vom 28. Oktober 2020. Diverse SEO Tools zeigen ebenfalls ähnliche Signale für eine Vielzahl an Webseiten. Am Morgen des 28. Oktobers konnte man auf Webmaster World diverse Mitteilungen zu starken Ranking Veränderungen bei Google lesen. Einige Webseitenbetreiber […]

  • diplom online marketing managerOnline Marketing Manager werden?12. Januar 2021 - 00:11
  • SEO für Unternehmer & CEO´s21. Dezember 2020 - 16:36
  • Suchmaschinenoptimierung lernen: Weiterbildung, Zertifikat, Coaching oder Studium?14. Dezember 2020 - 16:13
  • Google Core Update Dezember 2020: Algorithums11. Dezember 2020 - 22:58
  • SEO KPIs: bessere Performance bei Google11. Dezember 2020 - 16:05

Recent posts

  • diplom online marketing manager
    Online Marketing Manager werden?
  • SEO für Unternehmer & CEO´s
  • Suchmaschinenoptimierung lernen: Weiterbildung, Zertifikat, Coaching oder Studium?
  • Google Core Update Dezember 2020: Algorithums
  • SEO KPIs: bessere Performance bei Google

Onlinemarketing Tipps

Kontakt Adresse

In SEO

Wallbergstraße 28

81539 München

Telefon: 089 – 12099039

Datenschutzerklärung

Datenschutzerklärung

IN-SEO Agentur München - Dirk Schiff - Enfold WordPress Theme by Kriesi
    Nach oben scrollen
    Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Weitere Informationen Akzeptieren Opt-Out