Eine Verbesserung der Sichtbarkeit von Webseiten erfolgt durch die Suchmaschinenoptimierung. Man vergleicht einen Internetauftritt gerne mit einer Visitenkarte, die, wie auch die Internetpräsenz, optimal und seriös gestaltet sein sollte. Die Mehrzahl der User, es sind immerhin 90 Prozent, suchen bei Google, der weltgrößten Suchmaschine. Anhand des eingegebenen Suchwortes oder Keyword beginnt die Suchmaschine mit ihrer Suche. Fakt ist, die Mehrzahl der User durchforstet nur die erste Seite der Ergebnisliste; die weiteren Seiten werden kaum beachtet. Eine erfolgreiche Webseite erscheint im oberen Teil der Ergebnisliste. Suchmaschinenoptimierer gestalten die Seite in der Form, dass sie beim Ranking besser ist und unter den ersten zehn Ergebnissen von Google steht. Dann ist die Seite erfolgreich.
Suchmaschinenoptimierer (SEO)
Suchmaschinenoptimierer wissen genau, welche Suchworte User eingeben, um ein Produkt, eine Dienstleistung oder Informationen zu erhalten. Eine gut gemachte Optimierung, die sich an den Regeln von Google hält, erreicht, dass der User seine Information, sein Produkt oder seine Dienstleistung dort erhält, wo er sie erwartet. Für Webseitenbetreiber hat dies große Bedeutung. Sie nutzen die Dienste von Suchmaschinenoptimierern, um in den Ergebnislisten von Google im oberen Teil geführt zu werden.
Die meisten Webseitenbetreiber engagieren professionelle Suchmaschinenoptimierer. Der Grund ist heißt Google. Die Suchmaschine stellt immer wieder neue Anforderungen an die Webseiten und setzt diese mit ihren Updates auch durch. Seiten, die sich nicht an die Regeln und Ansprüche der Suchmaschine halten, sind schnell unter “ferner liefen” zu finden. Die Suchmaschinenoptimierung ist keine Arbeit, die irgendwann erledigt ist. Die Webseiten müssen kontinuierlich optimiert werden, damit Google sie oben in den Ergebnislisten präsentiert.
Dirk Schiff ist Head of SEO bei der AnalyticaA GmbH, Diplomierter Online Marketing Manager, Journalist (FJS) und Online Marketing Experte. Er optimiert seit 2007 Internetseiten. Er leitete bei stellenanzeigen.de den SEO-Bereich Inhouse, sowie für 40 Verlagsportale.
https://i0.wp.com/www.in-seo.de/wp-content/uploads/2016/07/professionelle-Suchmaschinenoptimierer.jpg?fit=1920%2C1280&ssl=112801920Dirk Schiffhttps://www.in-seo.de/wp-content/uploads/2023/04/dirk-schiff-logo-4.pngDirk Schiff2016-07-06 10:43:472016-07-06 10:43:47Suchmaschinenoptimierung: verbessert die Sichtbarkeit Ihrer Webseite bei Google
Ranking-Faktoren: Die Karten wurden 2015 neu gemischt
Behalten Sie im Ärmel das Ass: Zu den Ranking-Faktoren des Jahres 2015 bietet Ihnen für Top-Rankings bei den Google Suchergebnislisten sowie zu den wichtigsten aktuellen Insights zu den wichtigsten Faktoren die Searchmetrics-Analyse. Es gibt neben den Rang-Wechselbeziehungen sowie unbeschreiblich viele Tipps für Page-Optimierung zum ersten Mal in diesem Jahr für Top10-Rankings Benchmarks. Damit haben Sie eine Vergleichsmöglichkeit zwischen ihrer Webseite und denen der Top10. Sie wollen die Informationen über das Aussehen der Datenbank, den Ablauf der Analysen und was genau ein Ranking-Faktor ist! Bei uns gibt es dafür ausreichend Informationen.
Was ist ein Ranking-Faktor?
Im Jahr 2015 erscheint unser Whitepaper in neuem Design. Informative Kurztexte, viele Tipps & Learnings sowie prägnante Charts finden Sie auf unserer Seite. Die aktuelle Studie können Sie bei Searchmetrics als PDF-Datei runterladen. Damit haben Sie diese neben ihrem Computer auch auf Ihren mobilen Endgeräten wie Smartphone und Tablet zu Hand.
Wir geben Ihnen einen Überblick zu den wichtigsten Punkten der Ranking-Faktoren des Jahres 2015:
1. Absinken der Relevanz von Backlinks
Die Zeiten der unnatürlichen Linkbuildings sind endgültig vorbei, auch wenn bisher Backlinks immer noch immer eine Größe sind, die nach der Statistik mit einem guten Ranking korreliert. In naher Zukunft könnten Links allgemein, t – auch seit Disavow – weiter an Bedeutung verlieren; aktuell sind andere Faktoren wichtiger. Es geht derzeit um existentes Link-Earning mittels Content. User würden ihn gern verlinken, da dieser ist dermaßen gut ist. Deswegen ging der Anteil der Backlinks zu den analysierten URLs zur Homepage zurück. Häufiger verweisen Backlinks auf ganz spezielle Landing Pages. Auch zurück ging der ging der Anteil der Backlinks zurück, welche im Anchortext das Keyword tragen – im Anchor haben Backlinks haben die Domain oft. Die Relevanz von Backlinks wird weiterhin zugunsten anderer Elemente in den Hintergrund treten, aufgrund der Nutzung von mobilen Endgeräten und Social-Kanälen.
2. Für optimale User Experience ist die User Experience Onpage-Optimierungen eine grundsätzliche Voraussetzung
Mit vielen neuen Faktoren haben wir dieses Jahr das Kapitel mit der Thematik User Experience bestückt, damit dieser aufsteigende Stellenwert eine bessere Berücksichtigung findet. Ein responsives Design hat ein Drittel aller von uns untersuchten Websites. Dieses gewährleistet auch auf mobilen Endgeräten eine optimale Darstellung. Wir stellten fest, dass die Seiten, die besser ranken ihrem Content eine bessere Struktur gaben und eine gute Linkstruktur, sowie viele interaktive Elemente beinhalten. Für Internetnutzer und den Suchmaschinen-Bot sind diese Seiten nicht nur besser verstehbar, sondern auch gut interpretierbar. Für Google sind deshalb Bounce Rate, Click-Through-Rate und Time on Site die wichtigsten Anhaltspunkte, um die Zufriedenheit der Nutzer zu messen. Entsprechend passt die Suchmaschine das Ranking an.
3. Ein Bonus sind Social Signals für das organische Ranking
Während in diesem Jahr Likes & Shares von Facebook, Google+ und Tweets stark mit besserem Ranking korrelieren, sinkt die Mehrzahl der Korrelationen in diesem Bereich. Ist die Zahl der Social Signals zu hoch, geht die Suchmaschine davon aus, dass diese Seite entweder kontinuierlich neuen Content veröffentlicht oder ein Brand ist. Es gibt auch andere Websites, die ein gutes Ranking erzielen, ohne dass sie viele Social Signals beinhalten. Likes, Tweets und Pins stellen, so betont Google immer wieder, kein direktes Ranking-Signal dar.
4. Das Keyword hat immer weniger Bedeutung
Rückläufig ist in der Mehrzahl der Bereiche die Bedeutung des “Keywords” als Ranking-Faktor . Dies ist sowohl in der Description als auch im Body der Fall. Damit sind im vorderen Bereich der Ergebnislisten von Google immer öfter URLs, wobei nicht zwangsläufig das entsprechende Keyword in der Description oder im Body vorhanden ist. Stark gesunken ist auch der Anteil der Keyword-Domains. Diese korrelierten noch vor kurzer Zeit mit einem positiven Ranking.
5. Holistischer Content
Die Zeit des holistischen Contents begann, als die Ära des Keywords vorbei war. Dabei geht um das Zusammenschmelzen zu einem Topic von verschiedener, in Beziehung stehender Randthemen. Für eine große Zahl von Suchanfragen bietet diese neue Ganzheitlichkeit einen relevanten Content, der die sich um das Hauptthema dreht. Dies brachte einen Anstieg der Anzahl der Wörter auf den analysierten Seiten mit. Zugelegt hat das Nutzen von Proof-Terms (eng verwandt mit dem Haupt-Keyword) sowie Relevant Terms (semantisch entfernt verwandt mit dem Haupt-Keyword) bei den Top30-Rankings.
Dirk Schiff ist Head of SEO bei der AnalyticaA GmbH, Diplomierter Online Marketing Manager, Journalist (FJS) und Online Marketing Experte. Er optimiert seit 2007 Internetseiten. Er leitete bei stellenanzeigen.de den SEO-Bereich Inhouse, sowie für 40 Verlagsportale.
https://i0.wp.com/www.in-seo.de/wp-content/uploads/2015/09/ranking-faktoren-seo-2015.jpg?fit=412%2C321&ssl=1321412Dirk Schiffhttps://www.in-seo.de/wp-content/uploads/2023/04/dirk-schiff-logo-4.pngDirk Schiff2015-09-02 15:07:312015-09-02 15:07:31SEO & Google Rankingfaktoren 2015 für Ihre Webseite
Der Weg von Google führt zu Internetauftritten, die nichts als die Wahrheit beinhalten. Pseudowissen und Verschwörungen und Pseudowissen haben bei Google verloren; ein Grund, warum eine ganze Reihe populärer Websites den “Wahrheits-Test” nicht bestanden hat und durchgefallen ist. Mehr als 119 Millionen Websites sind lt. Google vertrauenswürdige Seiten; sie haben den Test bestanden.
Künstliche Klicks und unsinnige Inhalte: werden zukünftig nicht mehr vorne ranken
Wer seine Klickzahlen in die Höhe treiben will und aus diesem Grund das Netz mit Unsinn füllt, muss auf die Hilfe von Google zukünftig verzichten. Pseudowissen hat in den Suchanfragen grundsätzlich nichts verloren und gehört nach Ansicht von Google nicht auf den oberen Bereichen der Ergebnisliste. Derzeit nimmt Google Änderungen an den Qualitätskriterien im Suchalgorithmus vor. In einem Aufsatz teilten dies Software-Ingenieure der weltgrößten Suchmaschine mit. Der Maßstab für eine wissensbasierte Vertrauenswürdigkeit ist ein Inhalt, der auf Wissen basiert. Google verlangt von den Seitenbetreibern und ihren Websites Fakten; Klicks sind Nebensache. Die ersten Plätze in den Suchergebnislisten bekommt ausschließlich die Wahrheit; auf Populismus legt die Suchmaschine keinen Wert, denn Google will “Nichts als die Wahrheit”.
Google´s Anspruch: Die Spreu vom Weizen trennen!
Ganz überraschend kommt der Anspruch von Google nicht. Bereits im letzten Jahr kündigten Forscher aus dem Hause Google den Aufbau einer Datenbank an. Wie kann es anders sein, als dass die weltgrößte Suchmaschine auch die weltgrößte Datenbank aufbauen will, die unter der Bezeichnung “Knowledge Vault“ alle Fakten über die Erde, die belegt sind, speichert. Google will, dass jeder User, der bei Google über die Suchanfrage Fragen die Welt betreffend stellt, soll nach dem Willen der Suchmaschine möglichst eine korrekte Antwort erhalten. Als Google seine neuen Richtlinien veröffentlichte, kam zwischen den Zeilen eine Furcht zum Vorschein. Eine Angst, dass Google zu einer unseriösen Plattform, vollgestopft mit wilden Gerüchten werden könnte. Auch die Gefahr, dass die weltgrößte Suchmaschine unbeabsichtigt von Verschwörungstheoretikern als Handlanger genutzt wird. Google will Texte, deren Inhalt falsch ist wie etwa die Behauptung, dass Barack Obama keine amerikanische Staatsbürgerschaft besitze, will Google in seinen Ergebnislisten so weit hinten aufführen, dass dieser nicht leicht auffindbar ist. Das gilt auch, wenn dieser Text von Millionen Menschen gelesen und diese den Text über den Link an Freunde und Bekannte weitergegeben haben.
Inhalte like Wikipedia
Grundsätzlich geht es um das Vollziehen eines Wechsels vom populistischen Abschnitt zu einem Ansatz aus wissenschaftlicher, enzyklopädischer Basis, vielleicht ähnlich wie Wikipedia. Google hat es geschafft, die KV-Datenbank um mehr als 75 Prozent innerhalb von sechs Monaten zu erweitern. Aktuell sind in der Datenbank mehr als zwei Milliarden Websites gelistet. Alle diese Seiten wurden auf ihre “trustworthiness (Vertrauenswürdigkeit)” mittels einem automatisierten Verfahren geprüft. Kann Google eigentlich feststellen, welche Informationen sein Vertrauen rechtfertigen und welche es nicht tun? Die Antwort gibt die Veröffentlichung, in der es heißt: Als vertrauenswürdig stuft Google auch eine Quelle ein, in der nur wenige, nicht korrekte Fakten enthalten sind.
Fakten, Fakten und nochmals Fakten
Faktenwissen ist Faktenwissen, was nicht zwangsläufig bedeutet, dass dieses Wissen richtig ist. Wäre dies der Fall, müsste die Wissenschaft nicht ständig neu differenzieren. Alles ist eine Frage, von welchem Standpunkt man eine Angelegenheit sieht. Auch die Google Datenbank kann ich alle Fragen beantworten, auch wenn es bei der Frage “nur” um ein recht billiges Kleid handelt. Dieses wurde unter den Keywords “TheDress” oder “dressgate” international bekannt. Die Frage, ob das Kleid Schwarz, Blau, Gold oder Weiß im Netz wahrgenommen wurde, war der Datenbank zu schwer. Dabei hätte man doch erfahren können, dass das Kleid der Besitzerin, die auch Urheberin des Hypefotos ist, schwarz-blau war. Unerklärlich ist jedoch, warum viele User sowie die Besitzerin auf dem Schnappschuss das Kleid in weiß-goldener Farbe sehen. Derzeit kann das Gegenteil der Wahrnehmung der Besitzerin anschaulich bewiesen werden. Fakt ist, dass es nicht für jede optisch Täuschung l plausible Erklärungen gibt. Erstens ist jeder Mensch anders, weshalb für die Wahrnehmung der individuelle Kontext zu berücksichtigen ist.
Wahrheit oder Wahrscheinlichkeit?
Wer das ultimative Wissen dieser Welt sucht, wird es nicht finden. Dieser Umstand beschreibt eine Art Hype oder philosophisch den neuen Realismus; beides wird derzeit wieder mal – heftig diskutiert. Sicher soll es im modifizierten Ranking bei Google nicht um die absolute Wahrheiten gehen. Google will, plausibel ausgedrückt, empirisch, als Ausdruck beweiskräftiges und gesichertes Informationsmaterial. “Knowledge-based Trust” (KBT), Googles “neuer” Algorithmus ist deshalb auf das Rechnen mit Wahrscheinlichkeiten ausgerichtet. Die Frage, wie groß die Wahrscheinlichkeit ist, dass Daten und Werte stimmen und die behauptete Tatsache korrekt und stimmig ist. Schaut sich die aufgeführten Fakten an, geht es auf informationstechnischer Sicht um eine erweiterte Wahrscheinlichkeitsrechnung. In diesen Statistiken werden eine riesige Menge Daten clever zusammengeführt und entsprechend eingestuft. Google nutzt mit seiner Suchmaschine für seinen Daten- und Faktencheck eine Vielzahl Apps und Softwares. Serviceanbieter wie “Snopes” oder “FactCheck.org” bedienen sich schon lange derartiger Prüfprogramme.
KBT
Mit dem KBT geht das über die eingehende Suchanfrage. Diese Anfrage geht bei der riesigen Datenbank ein, die eine Abfrage nach drei Elementen erhält, welche im Zusammenhang mit den bei der Suchmaschine eingegangenen Suchbegriffen stehen. Das sind die drei Säulen oder das “Triple” auf dessen Schultern die Google-Wahrheit ruht. Der Aufbau ist entspricht den drei grammatikalischen Bestandteilen, aus denen ein deutscher Satz besteht:
• Subjekt – Frage: Um wen oder was geht es?
• Prädikat – Frage: Was willst du darüber wissen und
• Objekt – Frage: Was weiß die Datenbank? Nimmt man als Beispiel die Frage nach der Nationalität des amtierenden US-Präsidenten, dann ist Subjekt der Begriff “Obama”, Prädikat der Begriff “Nationalität” und Objekt die Antwort: “Vereinigte Staaten”.
Lassen sich diese drei Informationen für jede Suchanfrage anwenden, gehören diese Informationen in jenen Bereich, der zukünftig ein Listening nach dem neuen Algorithmus, der die vermeintliche Wahrheit findet.
Qualität ist entscheidend
Entscheidend für die durch die Wahrscheinlichkeitsrechnung ermittelte Vertrauenswürdigkeit ist sicher auch ein stetiger Abgleich der Software für das Prüfverfahren. Bisher nutzt Google 16 Extraktoren, die seriöse, relevante, Daten aus dem Pool ziehen. Daraus erstellt Google seine Hierarchie. Dabei bedient sich Google bei der eigenen KV-Datenbank, welche die Suchmaschine bereits validiert hat. Des Weiteren füttert die Suchmaschine die Datenbank kontinuierlich mit Daten, die sie aus dem Internet gewinnt und geprüft hat.
Die Vision
Eine solche Vision gab es schon mal, und zwar von IDM. Dieses Unternehmen hatte ganz ähnliche Ziele wie Google mit “Watson” verfolgt. Bereits in der ersten Ausbaustufe wäre dies, wenn man es so sehen will, ein Megacomputer. Es wäre die Realität von HAL 9000, den wir aus dem Film “2001: Odyssee im Weltraum” kennen. Ein utopischer Riesencomputer, der zwar nach seinem Wissensstand jede Frage beantworten kann. Seine Vorgehensweise ist allerdings starr und – wie alle Maschinen – ist auch dieser Computer überfordert, wenn die Fragen individuellen und emotionalen Charakter haben. Das Vorgehen ist generell anders als das, welches man durch das bisherige Popularitätsranking kennt. Das, was Google verspricht, ist schon bedeutend. Die Suchmaschine gibt kein geringeres Versprechen als den Informationsgehalt der ganzen Welt in Zukunft mathematisch in Bezug auf seinen Wahrheitsgehalt zu bewerten. Dies geschieht nach einem System, das auf neutral ist und auf anschaulichen Fakten basiert, nach dem Motto: Qualität anstelle von Quantität. Die äußeren Merkmale wie beispielsweise die Anzahl der Hyperlinks werden durch “endogene Signale” und nach Beschreibung der Wissenschaftler– “die Wertigkeit der Informationen selbst” ersetzt. Dennoch bleibt die Frage offen, wie erfolgreich Google beim Herausfiltern von Gerüchten, Verschwörungstheorien und Pseudowissen in der Zukunft sein wird. Die Antwort kennt Google auch noch nicht; die Frage kann auch eine Wahrscheinlichkeitsrechnung nicht beantworten; allein der Alltag kann es.
Pilotstudien abgeschlossen
Die Softwareingenieure von Google haben die Pilotstudien zu diesem Projekt abgeschlossen. In dem nach Abschluss eines Projekts “übliche” Aufsatz der Ingenieure steht, dass sie nach eigenen Angaben mehr als 2,8 Milliarden “Triple-Anfragen” im Web anwendeten. Nach diesen Angaben hat das Unternehmen die Inhalte von mehr als 119 Millionen Webadressen sowie noch weitere 5,6 einzelne Websites darauf getestet, ob sie vertrauenswürdig sind.
Werden Foren verlieren?
Durch das Netz der Jäger von Google, die auf der Suche nach der vermissten Wahrzeit waren, sind viele bekannte Internetseiten durchgerutscht. Darunter sind 14 bisher als Top-Humor-Adressen gesetzt sind komplett durchgefallen. 1Superseiten, die zu den 15 Prozent der amerikanischen Internetseiten gehörten, die am meisten angeklickt wurden sind dank der Googles KBT-Suchmaschine nach ganz unten der Ergebnislisten gerutscht. Das Schicksal kann auch Internetforen ereilen, in denen sich User schriftlich und kommentarfreudig über die Ereignisse der Welt austoben. Auch diese Foren dürften zu den großen Verlierern bei der Google-Suche nach der Wahrheit gehören. Die Wahrscheinlichkeitsrechnung, dass Google mit solchen Maßnahmen auch “Bösewichten” ins Handwerk pfuscht, bleibt bisher ohne Ergebnis und wird sicher keinen großen Erfolg ausweisen.
Dirk Schiff ist Head of SEO bei der AnalyticaA GmbH, Diplomierter Online Marketing Manager, Journalist (FJS) und Online Marketing Experte. Er optimiert seit 2007 Internetseiten. Er leitete bei stellenanzeigen.de den SEO-Bereich Inhouse, sowie für 40 Verlagsportale.
https://i0.wp.com/www.in-seo.de/wp-content/uploads/2015/03/google-neuer-algorithmus.jpg?fit=298%2C433&ssl=1433298Dirk Schiffhttps://www.in-seo.de/wp-content/uploads/2023/04/dirk-schiff-logo-4.pngDirk Schiff2015-03-04 21:46:372015-03-04 21:47:07Google plant Großes: wird SEO bald noch eine Relevanz haben?
Google verfolgt im kommenden Jahr zwei Baustellen mit Sicherheit weiter: das mobile Advertisement und die Technologie. Gegenüber den Smartphones und Tablets und den immensen Werbemöglichkeiten vertreiben die Desktop-PCs mehr und mehr aus dem privaten Bereich. Mittlerweile haben sich Smart Devices in den Alltag integriert. Aufgrund der permanenten Internetverbindungen liefern sie eine große Menge verwertbare Daten. Diese erleichtern das Targeting. An dieser Tatsache kommt Google nicht vorbei! Für die Suchmaschine ist es ein “Muss” in diesen Bereich investieren. Neben der Bereitstellung seiner Suchmaschine, stellt Google ebenfalls die Mehrzahl der Smart Devices Betriebssysteme zur Verfügung. Mit großer Wahrscheinlichkeit kommt 2014 eine stärkere Individualisierung dieser Geräte. Daneben ist das Verknüpfen der internetfähigen Techniken wahrscheinlich. Für Marketer kommt den AdWords im Jahr 2014 mehr Bedeutung zu.
Google lässt sich im Hinblick auf technologische Änderungen im kommenden Jahr einiges einfallen. Gerüchten zufolge ist die Planung einer Konsole im Gespräch. Die Gerüchte stützen sich auf den Kauf verschiedener Unternehmen aus der Robotertechnologie. Google visiert die Nutzer im Freizeitbereich an. Dazu gehören beispielsweise Games, TV – Bereiche aus dem Unterhaltungssektor. Googles Version ist Gaming und gleichzeitig das Bestellen von Essen über das Internet, ohne Beeinflussung des Spielflusses. Ein Spielerlebnis, das auf Advertising beruht, i kann bald Realität sein. Ob Google dies bereits 2014 realisiert, bleibt abzuwarten. Die Weichen sind derzeit gestellt.
Für den SEO Bereich gilt in jedem Falle: Die mobilen internetfähigen Endgeräte im Auge behalten. Die Webseite einzigartig – Content – gestalten und sich auf die Besucher der Seite konzentrieren. Die Besucherzahlen geben beim Verdienst den Ausschlag.
Dirk Schiff ist Head of SEO bei der AnalyticaA GmbH, Diplomierter Online Marketing Manager, Journalist (FJS) und Online Marketing Experte. Er optimiert seit 2007 Internetseiten. Er leitete bei stellenanzeigen.de den SEO-Bereich Inhouse, sowie für 40 Verlagsportale.
https://i0.wp.com/www.in-seo.de/wp-content/uploads/2014/12/in-seo-logo.png?fit=392%2C77&ssl=177392Dirk Schiffhttps://www.in-seo.de/wp-content/uploads/2023/04/dirk-schiff-logo-4.pngDirk Schiff2013-10-04 17:38:282014-12-14 14:51:38Ein kurzer Blick ins Jahr 2014
Mit Marissa Mayer verzeichnet auch Yahoo große Fortschritte. Bevor sie Chefin von Yahoo wurde, arbeitete Sie für Google. Seit sechs Monaten bereichert sie nun die Konkurrenz. Am Suchmaschinenmarkt zeigen sich große Veränderungen. Google setzt immer mehr auf „kostenpflichtige“ Produkte, Facebook kündigte eine neue Suchfunktion an und Yahoo wächst.
Quelle: http://de.yahoo.com/
Lange Zeit war es ruhig im Hause Yahoo. Doch die neue Chefin Marissa Meyer sorgt für Zuwächse und zugleich bringt der Firmenumbau einen neuen Kostenfaktor. “Wir haben noch viel Arbeit vor uns, aber wir sehen erste positive Trends”, teilte Mayer letzten Montag bei einer Telefonkonferenz mit. Im vierten Quartal steigerte sich der Umsatz um zwei Prozent. Die Suchmaschine erhielt höhere Einnahmen. Auch andere Geschäftsfelder von Yahoo verbesserten die Umsätze. Schlechter sah es bei den grafischen Werbeanzeigen aus. Der Grund dafür war, der Wegfall der Anzeigen aus Südkorea. Damit lagen die Einnahmen der Werbeanzeigen acht Prozent unter den Einnahmen aus dem Vorjahr. Alle Prognosen von Analysten wurden übertroffen. Offensichtlich bringt Mayer neuen Wind in die altbewährte Suchmaschine. Auch die Aktienwerte sind um zwei Prozent gestiegen. Marissa Meyer ist mit den aktuellen Zahlen der Suchmaschine Yahoo mehr als zufrieden. Das Unternehmen aus Sunnyvale Kalifornien legte erstmalig innerhalb der letzten vier Jahre in puncto Umsatz zu.
Mayer kommt von Google
Mitte letzten Jahren wurde Mayer bei Google abgeworben. Yahoo soll durch sie wieder bekannter werden. Der Bereich Südkorea wurde geschlossen, weil er unrentabel war für das Unternehmen. Neue Dienste und Inhalte sind bei Yahoo geplant. Marissa Meyer könnte jede Menge neue Innovationen für Yahoo bedeuten. Die Nutzer sollen durch gute Dienstleistungen wieder eine Bindung zu Yahoo herstellen können. Die Suchmaschine verfügt über Dienste wie Yahoo-Mail und die Bilderplattform Flickr. Beides wurde erneuert mit der Zielsetzung besser mit Smartphones zu funktionieren. Für Mayer ist das mobile Geschäft enorm wichtig. Partnerschaften mit NBC und CBS wurden durch die neue Chefin an Land gezogen. Wie auch bei Google und Facebook sind die Haupteinnahmequellen Werbung (Ads). In diesem Bereich kooperiert Yahoo mit Microsoft. Die Technik der Suchmaschine Bing kommt bei Yahoo zum Einsatz. Wichtig für Yahoo ist die Display-Werbung der grafischen Anzeigen.Wird Yahoo eine stärkere Konkurrenz für Google? Facebook ist schon auf dem Weg an Google heranzutreten mit der neuen Suchfunktion (Graph Search). An finanziellen Mitteln fehlt es Zuckerberg jedenfalls nicht.
Dirk Schiff ist Head of SEO bei der AnalyticaA GmbH, Diplomierter Online Marketing Manager, Journalist (FJS) und Online Marketing Experte. Er optimiert seit 2007 Internetseiten. Er leitete bei stellenanzeigen.de den SEO-Bereich Inhouse, sowie für 40 Verlagsportale.
Die Suchmaschine bing von Microsoft ist im Jahr 2009 gestartet. Jetzt erhält diese Suchmaschine einer Generalüberholung, die die Integration verschiedener sozialer Netzwerke vorsieht. Die Integration von Facebook, Twitter, Quora und Co. soll bewirken, dass Microsoft mit seiner Suchmaschine Google Marktanteile abnimmt.
Bing fungiert hier nicht nur als Suchmaschine, sondern, so das bing-Team, auch eine Hilfe für Nutzer sein um verschiedene Dinge zu erledigen und dabei die besten Informationen im Web zu finden. Die Nutzeroberfläche wird dazu ganz neu gestaltet und basiert auf drei Säulen. Wie gewohnt zeigt bei der Suche die Standardübersicht die Ergebnisliste an. Doch in der zweiten Säule, der “Snapshot-Leiste” erhält der Nutzer zusätzliches Informationsmaterial, das zum Vergleich von Produkten, Preisen und Meinungen hilfreich ist. Die dritte Säule, die „Sidebar“, enthält aggregierte Ergebnisse, die von Freunden, Experten und Wissenden ins Netz gestellt wurden, die aus dem Bereich des eigenen sozialen Netzwerkes kommen. Nicht nur auf den Partner Facebook setzt Microsoft, sondern auch auf Konkurrenten wie Twitter, Quora, Foursquare. Keine Scheu zeigt Microsoft auch vor Google+.
Google hat ebenfalls die Ergebnisse, die aus den sozialen Netzwerken kommen, in seine Suchmaschine integriert, wobei jedoch Google+ fokussiert ist und kaum Platz für die Konkurrenz wie Facebook, Twitter und Co. hat. Die sozialen Ergebnisse sind bei Google auch auf der gleichen Seite wie die Ergebnisliste der Suche eingebaut, doch werden diese separat in einer “Sidebar” geführt. Diese Sidebar – und das ist interessant – ist durch eine Verknüpfung mit dem sozialen Netz verbunden, sodass die Suche über die Sidebar direkt auf Facebook gepostet ist. So kann man sich den Rat und das Wissen der Freunde holen bzw. dieses einbeziehen.
Die bing-Suche hat sich total verändert
Nicht nur an der Optik hat Microsoft gefeilt, so die Angaben des Unternehmens, und den sozialen Aspekt verstärkt in den Fokus gehoben, Microsoft hat auch seinen Algorithmus überholt und geschliffen. Dabei wurden die Kenfunktionen optimiert, sodass der Nutzer künftig die für seine Suche relevanten Ergebnisse bereits im oberen Teil der Ergebnisliste findet. Derzeit müssen 75 % der Nutzer bei einer Suche im Web, so der bing-Senior-Director Weitz, müssen bei der Websuche einen anderen Begriff für die Suche eingeben, damit sie das Ergebnis erhalten, was sie gesucht haben. Als Vergleich nahm er ein Auto, das nur dann läuft, wenn es vier Mal gestartet wird. Für Weitz wäre das ein Ärgernis. Dieses Problem will Microsoft mit der neuen Suchmaschine lösen.
Beachten muss man dazu, dass Google im deutschen Suchmaschinenmarkt mit mehr als 90 % eine eindeutige Dominanz zu verzeichnen hat, während bing gerade einmal auf 2 % kommt – jedenfalls nach dem Stand vom April 2012). In den USA sieht das, so ComScore ganz anders aus. Ebenfalls mit Stand vom April 2012 verzeichnet die Microsoft mit seiner Suchmaschine immerhin 25 %, wobei Google auch hier an erster Stelle mit 68.6 % Anteil steht. Microsoft verteilt seine überholte Suchmaschine in den kommenden Wochen, voraussichtlich bis Anfang Juni, nur in den USA. Wer sich für bing interessiert, kann sich registrieren auf der Webseite bing.com/new.
Dirk Schiff ist Head of SEO bei der AnalyticaA GmbH, Diplomierter Online Marketing Manager, Journalist (FJS) und Online Marketing Experte. Er optimiert seit 2007 Internetseiten. Er leitete bei stellenanzeigen.de den SEO-Bereich Inhouse, sowie für 40 Verlagsportale.
In Deutschland wurde ein Anbieter mit 100 Artikelverzeichnissen abgestraft. Alle Verzeichnisse sind aus dem Index entfernt worden. Auch bei Google Webmaster Tools verschickt Google Mails an Webmaster mit der Information über unlautere gekaufte Links. Jetzt macht Google ernst und straft weltweit ab.
Google arbeitet ständig an der Anpassung seiner Suchmaschine und einem besseren Algorithmus für die User. In einem Versuch sollen die besten Websites und die relevantesten Ergebnisse zu finden sein für den Suchenden. Unnatürlicher Linkaufbau muss dran glauben. Im März 2012 begannen die Menschen mit der Verbreitung von Warnungen, die bei Google über die Webmaster Tools verschickt wurden mit dem Inhalt “unnatürliche Links” und jetzt ist es schon so weit, dass viele dieser Websites Rankingverluste einkassiert haben. Einige Seiten wurden de-indexiert, was bedeutet, dass ihre Seiten der Website nicht mehr in Google angezeigt werden. Diese Nachricht erreichte heute auch einen Betreiber von 100 Artikelportalen. Die Portale waren gepflegt, aber Google entdeckte scheinbar, dass man einen Multi-Account dort kaufen konnte.
Was ist das Erschreckende bei dieser Abstrafung? Im Gegensatz zu anderen Google-Algorithmus-Änderungen können Sie nicht auf diese Strafe eine Antwort hinterlassen, indem Sie die Dinge auf Ihrer Website ändern oder Google anschreiben. Dieses Mal geht es darum, Links zu Ihrer Website von anderen Websites (allgemein genannt Backlinks), die Google als bezahlt interpretiert oder mit immer dem gleichen Anker-Text befindet, einfach entwertet.
Mit der Aktualisierung und Entwertung von unnatürlichen Verlinkungen, hat Google deutlich gemacht, dass Backlink-Qualität von höchster Bedeutung ist. Der Google-Algorithmus wurde geändert, um Links mit niedriger Qualität oder Links, die spammy oder bezahlt werden abzuwerten. Mit anderen Worten, wird Google versuchen, “natürliche” Links von gekauften zu unterscheiden. SEO ist nicht mehr wie es einmal war!
Dirk Schiff ist Head of SEO bei der AnalyticaA GmbH, Diplomierter Online Marketing Manager, Journalist (FJS) und Online Marketing Experte. Er optimiert seit 2007 Internetseiten. Er leitete bei stellenanzeigen.de den SEO-Bereich Inhouse, sowie für 40 Verlagsportale.
Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren.Weitere InformationenAkzeptierenOpt-Out