Harald Glööckler wird häufiger gegoogelt als Lagerfeld und Armani

Der Modeschöpfer Harald Glööckler wird in Deutschland über Google, die bekannteste Suchmaschine der Welt, häufiger gesucht als Karl Lagerfeld und Giorgio Armani. Deutschlandweit verzeichnet die Suchmaschine unter dem Namen „Harald Glööckler“ 90.500 Anfragen pro Monat. Bei Karl Lagerfeld sind es vergleichsweise 60.500 Anfragen und bei Giorgio Armani 49.500 Anfragen monatlich in Deutschland.

Quelle: Google Adwors Keyword Tool

Die Anzahl der Anfragen bezieht sich auf Deutschland. Global werden Armani und Lagerfeld häufiger gegoogelt als Glööckler. Doch deutschlandweit hat der „Prince of Fashion“, Harald Glööckler die Nase vorne. Seine Marke POMPÖÖS, deren Schriftzug mit einer Krone und einem Liliensymbol designt wurde, hat sich international durchgesetzt, hin zu einem bekannten Modelabel. Herr Glööckler arbeitet seit Jahren knallhart an seiner Karriere. Promigrößen wie Gina Lollobrigida, Chaka Khan oder Brigitte Nielsen schätzen sein Talent und seine Menschlichkeit. In den letzten Jahren bereicherte er das deutsche Fernsehen, in verschieden Formaten wie Let´s Dance oder seiner eigenen Personaltiy-Doku unter dem Namen Glööckler, Glanz und Gloria. Außerdem moderierte der Modezar bei VOX den modischen Jahresrückblick 2012 “Desaströös bis Pompöös”.

Der Umzug des Firmen- und Wohnsitzes von Berlin-Charlottenburg nach Berlin-Mitte („Unter den Linden“) lief bei VOX sowie die Sendung 25 Jahre Pompöös (Die unglaubliche Karriere des Harald Glööckler) . Zu sehen gab es Einblicke hinter die Kulissen von Harald Glööckler und dessen Lebensgefährten Dieter Schroth mit Billy King. Der Modemacher ist zudem noch als Botschafter des Deutschen Kinderhilfswerkes im Einsatz. Zu seinen Projekten gehörten 2012 z.B. zwei erfolgreiche Bücher, das Glööckler-Haus, eine Hundekollektion und die eigenen Pralinen mit dem Namen Pralinöös. Bei dieser Präsenz ist es nicht weiter verwunderlich, dass er in Deutschland häufiger gegoogelt wird als Lagerfeld oder Armani.

Social ROI Studie Uni St. Gallen

Einer Studie der Universität St. Gallen zufolge gibt es noch kein Messverfahren für den Social Media ROI. Für Unternehmen lässt sich der Erfolg von Social-Media-Marketing-Kampagnen nicht so einfach messen. Doch die Angst davor, dass Mitarbeiter einer Firma ihr Unwesen über soziale Netzwerke im Web treiben könnten, ist kleiner geworden.

 

Social Media Uni St. Gallen

Gerd Altmann/Shapes:AllSilhouettes.com / pixelio.de

Strategien im Bereich Social Media sowie die Umsetzung von Kampagnen im deutschsprachigen Raum verbessern sich ständig. Dennoch nutzt nicht jedes Unternehmen die sozialen Netzwerke zur Neukundengewinnung oder Steigerung der Reputation. Die Universität in St. Gallen hat 48 Firmen aus dem deutschsprachigen Raum (Deutschland, Österreich und Schweiz) sowie 43 Experten aus Beratung und Forschung zum Thema befragt. Jedes dritte Unternehmen legt ein eigenes Budget für Social Media fest. Interaktion und Kommunikation der Interessierten sind wichtige Merkmale der sozialen Netze. 58 Prozent der Befragten befinden die Ermittlung des „Return of Social Media“ (ROI) als sehr wichtig. 86 Prozent nutzen bis dato noch kein anerkanntes Messverfahren für den Erfolg der Kampagnen. Den genauen Mehrwert eine Kampagne zu erfahren, ist relativ schwierig.

Entwicklung von Social Media bei Unternehmen und Experten

Man kann zwar die Entwicklung der Fans erkennen, doch eindeutig nachvollziehbar ist dabei nicht, welcher Fan durch welche Maßnahme neu dazu gekommen ist. Etablierte Messverfahren würden fehlen, meinte Alexander Rossmann von der Universität St. Gallen. Die Studienergebnisse zeigen dies eindeutig. 35 Prozent der Befragten sind der Meinung, dass sich im Bereich Top-Management eine steigende Sensibilität für Social Media entwickelt. Drei von vier Unternehmen verfügen über eine strukturelle Einbindung mit zentraler Koordination sowie einer dezentralen Umsetzung der Maßnahmen. Die Social-Media-Aktivitäten werden bei 3 von 4 Firmen über andere Budgets mitfinanziert. Vier von fünf Unternehmen haben bereits neue Stellen im Bereich der sozialen Medien geschaffen.

Unterschiedliche Meinungen

Experten sind sich über die Fortschritte dieses Bereiches noch nicht einig. Ein von drei Unternehmen haben ihre eigene Strategie bereits praktisch umsetzen können. Das bestätigten nur neun Prozent der befragten Experten. Die restlichen Experten sind der Meinung, dass bis dato nur experimentiert und getestet wurde. Bei den Unternehmen sehen das nicht einmal ein Viertel der Befragten so.

Manche SEO-Taktiken sind out

Zuerst besuchte der Panda die Welt des Internets und dann der böse Pinguin. Das Panda-Update wirbelte schon viel durcheinander und daraufhin wurde das Web aufgeräumt mit dem neuen Penguin-Algorithmus. Einige Webmaster sind der Meinung, dass sie durch diese Maßnahmen unfair behandelt wurden. Obwohl Webseitenbetreiber in dem Glauben waren, dass sie sich an die Richtlinien von Google gehalten haben, erlitten sie eine Bauchlandung bzw. einen Kollateralschaden der Rankings ihrer Webseite.

 

Suchmaschinenoptimierung und die Taktik

© fotogestoeber - Fotolia.com

Welche SEO-Taktiken sind jetzt nicht mehr wirkungsvoll?

Automatisierte Anmeldung bei Artikelverzeichnissen

Die automatisierte Anmeldung bei Artikelverzeichnissen (AVZ) mit der Auswahl immer gleichbleibendem Titel und gleicher Beschreibung funktioniert nicht mehr. Nur manuelle Eintragungen bei Artikelverzeichnissen machen Sinn. Statt solchen Eintragungen sind Gastbeiträge auf hochwertigen Blogs sinnvoller.

Linktausch im großen Rahmen

Linktauschaktivitäten im großen Rahmen werden von Google schlecht bewertet. Besser ist es einseitig Links aufzubauen. Den ein oder anderen Link kann man selbstverständlich weiterhin tauschen, aber nur in einem natürlichen Maß.

Sinnlose Inhalte erstellen um Content zu generieren

Wer weiterhin sinnlosen Content erstellt, nur damit die Webseite mit Inhalten gefüllt ist, wird dam it keinen Erfolg verzeichnen. Auch Google erkennt mittlerweile anhand von Besucherzahlen und Social Signals, wie gut und beliebt der Content ist.

Social Signals ignorieren

Wer Social Signals ignoriert und nicht zur Steigerung der eigenen Rankings einsetzt ist selbst Schuld. D.h. für die Praxis: so schnell wie möglich Social Buttons einbauen und Liken lassen!

Anchor Text mit Money-Keywords gestalten

Den Anchor-Text sollte man nach dem heutigen Stand der Dinge nicht zu häufig mit Money-Keywords befüllen, ansonsten läuft man Gefahr durch den Penguin-Algorithmus schlechter zu ranken.

 

SEO läuft in 2013 anders und wird teurer

Im Jahr 2012 haben sich im Bereich der Suchmaschinenoptimierung einige Veränderungen ergeben. 2013 folgen sicherlich noch einige Updates bei Google, um die Qualität der Suchergebnisse zu verbessern. Algorithmus-Updates wie Penguin und Panda können jederzeit erneut ausgerollt werden. Author Rank, Social Signals oder Googles neues Tool, zum Entwerten von Spam-Links gehören zu den spannenden Neuerungen.

Änderung bei SEO und SEM

© cynoclub - Fotolia.com

Services bei Google wie z.B. Shopping werden zukünftig immer teurer. Google Shopping wird 2013 erstmalig kostenpflichtig. In der Vergangenheit war dies für Onlineshops eine gute Möglichkei,t mit ihren Artikeln in den Suchergebnissen bei Google besser aufgefunden zu werden, ohne sehr viel SEO betrieben zu haben. Wer weiterhin dabei bleiben will, muss zahlen. Marken zählen zu den Gewinnern in 2012. Auch die vertikale Suche spielt eine immer wichtigere Rolle. Komponenten wie Google-News oder Local können ebenfalls mit gezielten Suchmaschinenoptimierung verbessert werden. Genauso gehören Videos und Bilder mit zu den wichtigen Komponenten von SEO.

SEO wird teurer

Viele Unternehmer befassen sich nicht genug mit dem Thema Suchmaschinenoptimierung. Daher ist diesen auch nicht unbedingt bekannt, dass z.B. der Panda-Algorithmus beim Link-Building anderen SEO-Konzepten bedarf, als vor einiger Zeit. Dabei konzentriert man sich auf die Qualität der Inhalte. Linkbuilding-Kampagnen laufen nicht mehr professionell ab, wenn man massenweise gespinnte Artikel über kostenlose Artikelverzeichnisse publiziert und direkt mal überall mit Money-Keywords verlinkt. Um den ganzen Richtlinien und Neuerungen von Google zu entsprechen, muss man auf dem Laufenden bleiben. Aus diesem Grund wird SEO auch teuer. Wer mit billigen Methoden schnell und gut ranken möchte, wird daran scheitern. Hochwertige Inhalte produzieren sich nicht automatisch und schon gar nicht billig. Der Wettbewerb der Branche wird in Deutschland immer härter.

Was ist bei der Suchmaschinenoptmierung noch erlaubt?

Suchmaschinenoptimierung: Welche Anchor Texte gehen noch?

Google Mitarbeiter Uli Lutz aus dem Bereich Search Quality nahm an einem Panel bei der SEOKomm in Salzburg teil. Auf der Konferenz wurden diverse Dinge diskutiert, unter anderem auch die Webmaster-Tools von Google und der heiß umstrittene Anchor-Text. Es wurden auch Vorschläge abgegeben, wie man die Webmaster-Tools verbessern kann, die auch von Uli Lutz an Google weitergegeben wurden.

Das Disavow Link Tool von Google sorgt für viele Fragen. Es dient zum Entwerten von Spam-Links oder Links mit denen ein Webmaster selbst nicht einverstanden ist. Eine spannende Frage die sich stellte war, ob man Webseiten, die einem suspekt sind über das Tool herausfiltern soll zum entwerten. Schlechte Links in einer gewissen Anzahl seien völlig normal und gehören wohl zu einer natürlich wirkenden Backlinkstruktur. Es stellt sich eher die Frage, ob Webseiten, die dauerhaft nur starke Trust-Links aufbauen nicht auffällig sind? Google ist der Meinung, dass man das Tools wirklich nur bei extremen Fällen zum Einsatz bringen sollte. Nämlich genau dann, wenn die größte Anzahl an Links aus Spam besteht. Dies gilt insbesondere bei Spam-Kommentar-Links und zu viel gekauften Links.

Links mit gleichem Anchor Text

Antje Delater / pixelio.de

Blacklist bei Google

Eine Webseite kommt nicht auf die Blacklist wenn man das Disavow Link Tool einmal eingesetzt hat um ein paar Links zu entwerten. Wenn man einige Links entwertet hat, heißt das nicht gleich, dass man einen Antrag auf erneute Überprüfung der Webseite stellen sollte. Im Falle einer Benachrichtigung durch Google über unnatürliche Links, macht es Sinn, nach einer Entfernung dieser mit dem Tool, einen Antrag auf erneute Überprüfung der Webseite über die Webmaster-Tools zu stellen. Wer denkt, dass er von Penguin betroffen ist, der benötigt keine Antragstellung auf erneute Überprüfung. Andererseits kann eine erneute Überprüfung auch nicht schaden.

EMD (exact-match-domains)-Updates bei Keyword-Domains

Wer eine gut rankende Keyworddomain hat, braucht sich keine Sorgen zu machen darüber, dass er schlechter ranken wird, denn das EMD-Update bezieht sich nur auf Seiten mit minderwertiger Qualität. Das heißt wer über hochwertigen Content verfügt, braucht sich keine Sorgen zu machen, dass das Ranking durch das EMP-Update abbaut. Der Mehrwert für den Nutzer bringt einen enormen Vorteil für das Ranking der eigenen Seite.

Anchor Text

Wenn der Anchor Text immer gleich ist aufgrund einer Herkunft eines Plugins, ist dies nicht so problematisch, weil Google den Unterschied erkennt. Doch es kann sein, dass die Links nicht so stark in die Bewertung der Rankings einfließen als individuelle Links. Dabei kommt es auch wieder auf die Natürlichkeit der Links an. In der Praxis werden dennoch Widgets durch Suchmaschinenoptimierer und Webmaster missbraucht. Dies kann natürlich auch negative Auswirkungen auf Rankings haben. Es wird davon abgeraten solche Spam-Links in einen Counter einzubauen. Dies kann schnell zur missglückten SEO-Maßnahme werden.

Weiterführende Informationen

http://googlewebmastercentral-de.blogspot.de/2012/12/google-search-quality-seokomm-salzburg.html?utm_source=feedburner&utm_medium=email&utm_campaign=Feed:+blogspot/vIRG+%28Webmaster-Zentrale+Blog%29

WDF*P*IDF relevant für SEO und Keyworddichte

Der alte Faktor Keyworddichte bekommt durch die neue Formel für SEO-Texte einen Arschtritt verpasst.WDF*P*IDF heißt die neue Formel, welche nach Bemessung der Keyworddichte sogar Relevanz für das Ranking einer Internetseite hat. In der Vergangenheit ging es immer darum, Texte richtig für die Suchmaschinen zu optimieren, indem man eine Vielzahl von Keywords untergebracht hat. Doch dem wird mit WDF*P*IDF ein Ende gesetzt. Denn zukünftig wird es nicht mehr so stark darauf ankommen, wie oft man bestimmte Begriffe im Text unterbringt. Google checkt vielmehr inwiefern ein Zusammenhang zwischen der Thematik einer Webseite und dem Content besteht. Die Formel an sich ist nicht neu, denn sie dient als Grundlage für alle Suchmaschinen (Google, Bing, Yahoo und Co.).

Was ist überhaupt WDF?

wdf*p*idf

Tony Hegewald / pixelio.de

WDF heißt Within-document Frequency. Damit wird die dokumentspezifische Gewichtung des Wortes gemessen. Donna Harman hat diese Formel ins Leben gerufen. Ein nutzbarer Gewichtungswert auf Basis der Informationswissenschaft wird bestimmten Worten zugeteilt und auf ein gesamtes Dokument abgestimmt. Dieser Wert wird gemeinsam in einer Formel mit dem Wert IDF (Inverse Document Frequency) oder auch „Inverse Dokumentfähigkeit“ kombiniert und in ein Bestimmtes Verhältnis gesetzt. Duch den Wert WDF wird nicht die relative Häufigkeit eines Wortes im Dokument festgestellt, sondern ein gestauchter Wert, der besser verwendbar ist. Je höher die WDF eines Wortes ist, desto häufiger kommt dieses Wort im Dokument vor.

Die Formel

WDF(i) = frac{log_2(mathrm{Freq}(i,j)+1)}{log_2(L)}

i=:Wort
j=:Dokument
L=:Gesamtzahl der Wörter in Dokument j
Freq(i,j)=:Häufigkeit des Wortes i im Dokument j

Erklärung zu “+1”: falls Freq(i,j) = 0 ist, erreicht man mit dem “+1” dass im Zähler log2(1) = 0 steht.


Beispiel

Ein Dokument besteht aus 12000 Wörtern, also ist L=12000. Das Wort i kommt in diesem Dokument 23 mal vor, also ist Freq(i,j)=23.
Nun braucht man nur noch einsetzen und es entsteht:

WDF(i)= frac{log_2(23+1))}{log_2(12,000)}

Als Ergebnis erhält man den Gewichtungswert WDF(i)= 0,3 (gerundet), zum Vergleich ist die relative Häufigkeit des Wortes i hier 0,001 %.

Und was heißt nun IDF?

Inverse Dokumenthäufigkeit (IDF)

Inverse Dokumenthäufigkeit (Inverse Document Frequency (IDF)) zeigt die Information Information Retrieval zur Bestimmung der Trennfähigkeit eines Wortes bzw. Termes für die Indexierung von Dokumenten. Ein Wort, das nur in wenigen Dokumenten oft vorkommt, ist geeigneter als eines, das in fast jedem Dokument oder nur sehr gering auftritt. Zusammen mit der Termfrequenz (Tf-idf-Maß) wird sie zur Gewichtung von Wörtern bei der Automatischen Indexierung eingesetzt.

Die Inverse Dokumenthäufigkeit lässt sich berechnen als

IDF_{t}=logleft(1+frac{N_D}{f_t}right)

wobei N_D die Anzahl der Dokumente bezeichnet und f_t die Anzahl der Dokumente, die den Term t enthalten. Wenn die Dokumentenhäufigkeit wächst, wird der Bruch kleiner.

Relevant für Dokumente hinsichtlich SEO sind Keyworddichte und Termfrequenz

Termfrequenz

Die Termfrequenz ist die Häufigkeit des Wortes im gesamten Text einer Webseite. Die Termfrequenz lässt sich einfach feststellen, doch sie gibt nicht unbedingt Auskunft darüber wie gut oder schlecht eine Webseite optimiert wurde. Relevant ist die Gesamtzahl der Wörter im Verhältnis zum eigentlich relevanten Keyword. D.h. wenn es bei einer Webseite um Bücher geht und andere Begriffe wie Auto oder Motorrad darin vorkommen, sind diese nicht direkt relevant für die Optimierung des Begriffes „Bücher“.

Keyworddichte oder Keyword-Density

Die Keyworddichte hat etwas mehr Aussagekraft als die Termfrequenz. Dabei wird die Häufigkeit eines Begriffes mit der Gesamtzahl aller Wörter in eine Verhältnis gesetzt. Die Suchwort- oder Keyworddichte (von Englisch keyword density) beschreibt, wie häufig ein Begriff (das Suchwort) in einem Dokument vorkommt. Sie ist der Quotient aus absoluten Anzahl eines bestimmten Terms (Wort- oder Wortkombination) und der Anzahl aller Terme im Dokument.

Doch die reine Keyworddichte ist nicht mehr so stark relevant für das Ranking einer Internetseite. Die Meinungen gehen dabei weit auseinander. Ob 3 Prozent, 5 Prozent oder 10 Prozent. Wer weiß das schon so genau? Manche Seiten ranken unter bestimmten Begriffen auf einer guten Position, obwohl der Begriff mit dem Sie vorne ranken, nicht oder ganz selten im Text oder den Meta-Tags der Seite vorkommt.

Formel WDF*P*IDF

Diese Formel ist statt einer Keyworddichte relevant. D.h. nicht mehr nur die Keyword-Density in einem Dokument wird wahrgenommen, sondern WDF*P*IDF. Mehrere Faktoren eines Dokumentes spielen ein Rolle. Die gesamte Thematik einer Webseite wird aufgegriffen und von Google bewertet und nicht nur der Text einer Hauptseite. Alle Keywords werden mit dem Rest der Seite gegenübergestellt. Vergessen darf man nicht, dass dies nur ein Faktor von vielen anderen darstellt und es in der Praxis nicht nur darauf ankommt, aber wenn man jeden einzelnen Rankingfaktor berücksichtigt, verbessert sich auch das Ranking. In der Praxis berücksichtigt die Suchmaschine auch die Relevanz von Title, Discription, Text und Thema einer Webseite ganz stark.

Wie sieht Google das?


Quelle:

Wikipedia

SEO-Tools werden es 2013 schwerer haben

Es ist denkbar, dass SEO-Toolanbieter es im nächsten Jahr schwerer haben werden, weiterhin am Markt zu bestehen. Nicht alle Tool-Anbieter nutzen die Datenabfrage über die API von Google. In den USA hat Google bereits mit einigen Tool-Anbietern wie z.B. SEOmoz, Ahrefs und Raven, Kontakt aufgenommen und die Nutzung der API untersagt. Wer sich nicht daran hält, dem droht eine Sperrung der Abfragen. Automatisierte unerlaubte Abfragen über die Google-API nennt man Scraping, was laut den Richtlinien von Google nicht gestattet ist. In Deutschland ist noch keine Auseinandersetzung zwischen Google und den bekannten Toolanbietern wie Xovi, Sistrix, Searchmetrics oder SEOlytics bekannt.

SEO Tools

© julien tromeur - Fotolia.com

Auszug aus Googles Richtlinien:

Auszug aus der Nutzung unserer Dienste

Sie sind zur Einhaltung der Richtlinien verpflichtet, die für unsere Dienste gelten.Verwenden Sie unsere Dienste nicht in missbräuchlicher Art und Weise. Sie sind beispielsweise nicht berechtigt, in die Dienste einzugreifen oder in anderer Weise als über die von Google bereitgestellte Benutzeroberfläche und gemäß unseren Vorgaben auf die Dienste zuzugreifen. Sie dürfen unsere Dienste nur in dem gesetzlich zulässigen Rahmen nutzen. Dazu gehören auch die rechtlichen Bestimmungen zur Ausfuhr-und Wiederausfuhrkontrolle. Wir können die Bereitstellung unserer Dienste an Sie aussetzen oder einstellen, wenn Sie gegen unsere Nutzungsbedingungen oder Richtlinien verstoßen oder wenn wir ein mutmaßliches Fehlverhalten untersuchen.

SEO-Tool-Anbieter beziehen Daten ohne Berechtigung

Einige Toolanbieter beziehen die Daten ohne Genehmigung von Google, die zur Auswertung von Webseiten benötigt werden. Zahlreiche Kunden zahlen viel Geld an diese Anbieter um Ihre Internetseiten und die Ihrer Kunden auswerten zu können. Google fährt nun die Krallen aus und schiebt ein Riegel vor. Es ist denkbar, dass Google bald selbst ein kostenpflichtiges SEO-Tool auf den Markt bringt. Völlig zurecht werden sich dauerhaft einige Anbieter warm anziehen müssen und die Daten aus anderen Quellen beziehen. 2011 und 2012 ging es mit den Updates „Panda“ und „Penguin“ bereits mächtig an den Kragen. Google macht in jeglicher Hinsicht ernst.

Automatisierte Abfragen sind von Google untersagt. Außer den bekannten Anbietern gibt es noch einige unbekannte Firmen, die die automatische Abfrage von Google derzeit noch nutzen. Wenn Google selbst die Einnahmen dieser Anbieter verzeichnen könnte, wäre die weltgrößte Suchmaschine noch reicher. Google wird anhand unlauterer Abfragen in echten Statistiken manipuliert. Dabei sieht es so aus, als ob ein Mensch das Ergebnis abfragen würde. Auch Kunden die bei Google-Adwords Werbung schalten, erhalten verfälschte Ergebnisse. Impressionen und Klickraten stimmen einfach nicht mit realen Werten überein. Durch die verbotenen Abfragen, die weltweit durch SEO-Tool-Anbieter durchgeführt werden, entstehen Google einige Kosten wie z.B. für Strom oder Server. Google hat die Möglichkeit rechtlich gegen die verbotene Datennutzung anzukämpfen. Wer weiterhin ohne vorige Absprache mit Google Daten automatisiert abfragt und diese dann noch verkauft, sollte mit Folgen rechnen. Geht es Google dabei nur um die Einnahmen? Denn immer mehr Dienste werden kostenpflichtig. Im nächsten Jahr ist bei Google-Shopping ebenfalls mit Kosten zu rechnen. Die Suchmaschine möchte mehr Profit erwirtschaften als in den letzten Jahren.

Fazit

Im Web wird über das Ende der SEO-Branche spekuliert. Die bekannten SEO-Tool-Anbieter in Deutschland, wie z.B. Sistrix, Xovi, SEOlytics oder Searchmetrics sehen der Angelegenheit ganz gelassen entgegen. Wahrscheinlich arbeiten diese Anbieter nicht unerlaubt mit einer automatisierten Datenabfrage über die API von Google, sondern verfügen über eigene Server sowie andere Möglichkeiten, um diese Daten zu beziehen. Ein Ende der SEO-Branche ist auf jeden Fall noch lange nicht in Sicht. Ganz im Gegenteil: Die Updates wie Panda-, Penguin-, und EMD- Update sorgen für Verbesserungen der Suchergebnisse. Genauso sollte man die möglichen Änderungen der Tool-Anbieter betrachten.

 

Quellen:

http://ahrefs.com/news/ahrefs-close-keywords-analysis

http://www.seomoz.org/blog/the-nasty-problem-with-scraping-results-from-the-engines

Googles neuster Feinschliff & die Folgen für SEO

Penguin, Panda, EMD (Exact Match Domains) haben Googles Algorithmus stark verändert gegenüber den Jahren davor. Das Panda Update wurde bereits 13 Mal aktualisiert in Form von weiteren Algorithmus-Anpassungen. Fakt ist, dass sich Googles Qualität der Suchergebnisse definitiv verbessert hat. Zu den Änderungen des organischen Algorithmus kommt noch der semantische Teil.

 

Algorithmus Änderung

© Steve Young - Fotolia.com

Im November 2012 wurde das Panda-Update mehrfach gestartet. 65 Qualitätsverbesserungen der Suche gab es bei Google in den Monaten August und September 2012. Suchmaschinenoptimierung muss den Algorithmus-Änderungen ebenfalls angepasst werden, um weiterhin passable Ergebnisse zu erzielen.

Hier habe ich einige wichtige Änderungen des Google-Algorithmus und der Suche aufgelistet:

Projekt Page Quality

Inhalte mit hoher Qualität werden durch den Algorithmus gefiltert und gefunden.

Projekt Autocomplete

Die Autocomplete-Funktion von Google ergänzt bereits nach Eingabe von ein paar Buchstaben, bis hin zu kompletten Wörtern oder Sätzen. Diese Funktion wurde nochmals überarbeitet und zeigt die Suchergebnisse noch genauer, auf die Suchanfragen abgestimmt und das bereits während der Eingabe eines Suchbegriffs an.

Projekt Other Ranking Components

Zur Bestimmung des Web-Rankings mit Standorten wurden Verbesserungen hinsichtlich relevanter Suchanfragen durchgeführt.

Projekt Freshness

Frische Inhalte ranken für eine kurze Zeit lang vorne in den Suchergebnissen

Projekt “Knowledge Graph

Der Wissens Graph wird ständig angepasst und erweitert. Mittlerweile bezieht Google auch Daten aus Google+ und Wikipedia, die unmittelbar in der Sidebar rechts angezeigt werden. (Search Plus your World)

Penguin Algorithmus

Der Penguin-Algorithmus filtert verschiede Qualitätsfaktoren wie z.B. Anchor-Text, übermäßig viele Keywords im Content, Footer-Links und vor allem Spam.

Harte Money-Keywords in der Verwendung der externen Verlinkung zur eigenen Webseite zeigen in Massen keine Wirkung mehr. Der natürliche Linkaufbau ist der beste Weg ein gutes Ranking zu erreichen. Der Anker-Text stellt nach wie vor ein Linksignal dar. D.h. in der Praxis verwendet man sogenannte Long-Tail-Keyword-Phrases, bei denen mit geringer Dosierung relevante Suchbegriffe in verschiedenen Formen untergebracht werden. Hochwertige Texte werden auf natürliche Art und Weise mit Backlinks belohnt, denn wenn der Text interessant genug ist, berichten auch Magazine darüber.

Offizielle Quelle:

http://insidesearch.blogspot.de/2012/10/search-quality-highlights-65-changes.html

SEO: Google Search plus your World

Google verbessert durch die Einführung von Search plus your World wieder einmal die Suchergebnisse. Dabei geht es auch darum Suchergebnisse öffentlicher Inhalte für den Nutzer optimal darzustellen. Google+- und Wikipedia- Ergebnisse fließen in die organischen Suchergebnisse ein.

Wikipedia Einträge werden mittlerweile schon über Search plus your World in den organischen Suchergebnissen eingeblendet. Google hat seine Suche somit mehr in die Richtung „semantische Suche“ aufgebaut. Googles Ziel ist es bei Eingabe einer Person oder des höchsten Berges der Welt direkt in der Sidebar der organischen Suchergebnisse Fakten anzuzeigen. Die Zielsetzung Googles lautet die Nadel im Heuhaufen zu finden. Bei einigen Suchen werden die letzten Beiträge aus Google+, Fotos und Fakten aus den Wikipedia-Einträgen angezeigt.

Was ist neu bei den Suchergebnissen von Google?


Persönliche Ergebnisse

Personen, die prominent sind erhalten zusätzliche Ergebnisse in der Sidebar von Google auf der rechten Seite, wo sonst Adwords-Anzeigen stehen, in Form von Google+ – Fotos und – Beiträgen, sowohl die eigenen Ergebnisse der gesuchten Person und die speziell mit Ihnen gemeinsam gesucht werden bzw. ihnen ähnlich sind.

Beispiel Bruno Mars

Google+ Ergebnisse mit Bruno Mars

Quelle: Google.de

Kann man diese Ergebnisse mit SEO beeinflussen?

Wenn man selbst über einen Wikipedia-Eintrag verfügt, besteht die Möglichkeit, dass diese Ergebnisse bei der Suche der eigenen Firma oder der Person über Search plus your world angezeigt werden. Ebenfalls ist es möglich eine Vanity-URL bei Google Plus zu beantragen. Wenn diese genehmigt wird, zeigt Google bei der Suche nach der eigenen Firma ebenfalls Informationen und Google Plus Beiträge in der Sidebar an. D.h. die Suche funktioniert in diesem Bereich nur semantisch. Mit SEO lässt sich daran nichts ändern.

Den richtigen Domainnamen aussuchen

Warum ist der Domainname so wichtig und wie gelange ich an die perfekte Domain?

Webseitenname

Gerd Altmann / pixelio.de

Zum einen ist der Domainname wichtig für die Suchmaschinen, da sogenannte „Keyworddomains“ bessere Chancen auf eine gute Platzierung haben als Domains ohne Schlüsselwörter. Wenn die Keyworddomain genauso gut suchmaschinenoptimiert ist als die Domain ohne Keywords, rankt die Keyworddomain deutlich besser.  Dies ist der Grund für die hohen Preise der Keyworddomains beim Domainhandel. Dennoch lassen sich bei Sedo.de, dem bekanntesten  Domainhandelsplatz weltweit, über Auktionen häufig Schnäppchen erwerben.

Man kann Sedo auch umgehen, indem man auf der Webseite Denic.de den Namen der Domain, die man beabsichtigt zu kaufen eingibt. Dadurch gelangt man an die Kontaktdaten des Domaininhabers und kann eine Anfrage für den Kauf der Domain stellen. In Normalfall sollte der Preis günstiger sein als über die Plattform Sedo, da der Verkäufer eine Provision an Sedo abdrücken muss bei Verkauf über Sedo.

Auswahl des Domainnamens

Wer als Immobilienmakler in einer bestimmten Stadt unter den Suchbegriffen „Immobilien“ oder „Immobilienmakler“  bei Google gut gefunden werden möchte, sollte bei der Auswahl des Domainnamens an eines der Schlüsselwörter denken. Wenn man z.B. plant, in Stuttgart unter der Begriffkombination „Immobilien Suttgart“ in der Top-10 von Google zu landen, würde der perfekte Domainname für die neue Firma am besten „Immobilien-Stuttgart.de“ lauten. Für Google macht die umgekehrte Variante auch keinen großen Unterschied, denn im Keywordtool von Google ist Anzahl der Suchanfragen genau gleich hoch, egal ob ich „Immobilien Stuttgart“ oder „Stuttgart Immobilien“ eingebe. Das Keywordtool ist ein wichtiges Instrument um festzustellen, welche Suchbegriffe für eine Internetseite optimiert werden.

Falls die Domain Immobilien-Stuttgart.de nicht zu haben ist, kann man weitere Varianten im Keywordtool ausprobieren. Beispielsweise kann die Einzahl ähnlich gute Ergebnisse liefern. Immobilie-Stuttgart.de ist eine gute Alternative. Wenn die Keyworddomain Ihnen nicht gefallen sollte, kaufen Sie einfach 2 Domains und schreiben auf Ihre Visitenkarte den Namen, der Ihnen gefällt. Dies könnte so aussehen, dass auf der Visitenkarte Immobilien-Betram.de steht und die dieser Domainname einfach auf die Keyworddomain umgeleitet wird. Für die Suchmaschinen wird die Keyworddomain optimiert und denoch sieht der Kunde den schöneren Domainnamen auf der Karte. Damit schlagen Sie zwei Fliegen mit einer Klappe.

Warum De-Domain?

De-Domains werden in der Regel in Deutschland besser gerankt als Domains mit anderen Endungen. Ausnahmen bestätigen die Regeln. Natürlich gibt es auch Beispiele wo Domains mit anderen Endungen besser ranken als die DE-Domain. Bei der Auswahl des Domainnamens ist zu berücksichtigen, dass man keine Markenrechte verletzt.