Marketing-Börse PLUS - Fachbeiträge zu Marketing und Digitalisierung
print logo

9 wichtige SEO-Trends, um Top-Rankings dauerhaft zu sichern

Suchmaschinenoptimierung (SEO) ist ein wichtiger Weg zu neuen Kunden. Doch es kommen ständig neue Herausforderungen auf uns zu.
Torsten Schwarz | 21.06.2013

Es wird immer komplexer, bei Google Top-Positionen zu ergattern. Vor zehn Jahren reichte eine gute Onpage-Optimierung noch aus, um in den Google-Suchergebnissen ganz oben zu stehen. Heute sind Onpage-Fehler ein KO-Kriterium. Dann kam das wilde Sammeln von Backlinks. Heute können schlechte Backlinks sogar zur Abwertung führen. Inzwischen gibt es auch keine großen Google-Updates mehr - die Suchmaschine braucht keine größeren Fehler mehr zu korrigieren, weil sie am Ziel angelangt ist: Webseiten werden nach ihrer Beliebtheit bei den Lesern gerankt. Grund genug, einmal die aktuellen Trends zu überprüfen. Ende der Updates Das Panda-Update bestrafte Contentmüll und belohnte hochwertige Inhalte. Seit dem Freshness-Update zählt die Aktualität stärker. Das Pinguin-Update machte überoptimierten Seiten mit schlechten Backlinks den Garaus. Seit dem Venice-Update berücksichtigt Google den regionalen Bezug stärker. Inzwischen gibt es jedoch unzählige Mini-Updates - bei Panda sind es schon über 23. Fazit: Die Ära der Suchmaschinentricks ist vorbei – Googles Algorithmus fällt auf keinen mehr herein. Nur noch Inhalte zählen. Kumulierte Sichtbarkeit statt Top-Keywords Lange war es üblich, ein paar Keywords auf Toppositionen zu hieven. Das war gut für's Image und man konnte damit prahlen. Nun aber werden die Suchergebnisse immer mehr personalisiert. Je nach persönlichem Interessensschwerpunkt werden andere Seiten angezeigt, wenn man nach "Golf" sucht: Der Autonostalgiker bekommt Golf-Cabrio, der Sportler wird auf den nächsten Golfplatz geschickt. Regionalität spielt ebenso eine Rolle, denn es wird der nächstgelegene Golfplatz oben angezeigt. Fazit: Nicht die Position einzelner Keywords sollte gemessen werden, sondern der "Position Spread": Wie viele Keywords sind überhaupt in den Suchmaschinen sichtbar und wie viele davon auf den ersten drei Seiten? Die kumulierte Sichtbarkeit gewinnt. Gliederung und Strukturierung Damit auch alle Seiten gut erfasst werden, sollte die Website klar gegliedert und strukturiert sein. Möglichst viele Seiten sollten in den ersten drei Hierarchieebenen erscheinen. Zu jedem inhaltlichen Fokus sollte es möglichst nur ein Seite geben, die weit oben in der Hierarchie verlinkt ist. Tödlich sind Paginierungen, bei denen die Seite 30 dann wirklich erst auf Seite 29 verlinkt ist. Für Google ist das dann auf der 30. Hierarchieebene - wird also wahrscheinlich gar nicht erst erfasst. Sich Google zum Freund machen Google sucht für seinen Index inhaltlich wertvolle Seiten. Mit Tricksern geht Google in den direkten Dialog. Zunächst einmal zeigt das Unternehmen ganz offen, welche Seiten gerade wegen Spam-Verdacht aus dem Google-Index entfernt wurden. Vorher gibt es eine Verwarnung via Google-Webmaster-Tools. Dort sollte jeder Webseitenbetreiber angemeldet sein, weil es hier auch wertvolle Hinweise auf Onpage-Fehler gibt: Faule Links können zum Verhängnis werden Nach mehreren Penguin-Updates ist nun klar, dass gekaufte Links tödlich sein können. Wer gute Inhalte bietet, auf den wird automatisch verlinkt. Wer künstliche Links produziert, riskiert den Rauswurf oder eine Abwertung. Gegen negative Links hilft nur eines - die Selbstanzeige. Google bietet die Möglichkeit über die Webmastertools Links zu nennen, die nicht bewertet werden sollen. Dann werden diese Links als nicht existierend betrachtet. Das heißt sie können fortan weder nutzen noch schaden. Noch besser jedoch ist das Entfernen der schlechten Links. Linkfarmen und Linknetzwerke werden bestraft. Droht ein Rauswurf aus dem Index, schreibt Google, was moniert wurde. Das kann dann behoben und anschließend ein Reconsideration Request gestellt werden. Das ist ein Antrag auf Wiederaufnahme in den Index. Bis man jedoch aus dem Filter wieder raus ist, kann es bis zu einem Jahr dauern. Hier geht es zum "disavow"-Tool. Reputation der Autoren zählt Nicht nur Facebook, auch Google will genauer wissen, mit wem es zu tun hat. Dazu wurde Google+ entwickelt. Hier registrieren sich Nutzer und wenn sie gut schreiben und viele Freunde haben, dann steigt ihre Reputation. Dieser Author-Rank ist für Google wichtig, um die Inhalte von Webseiten zu bewerten. Hier gibt es eine Analyse. Sind die Besucher zufrieden? Stärker als je zuvor, versucht Google, die Besucher selbst zum Messfühler zu machen: Wie lange bleiben Besucher auf einer Site, die Google einem Suchenden vorgeschlagen hat? Wie hoch ist die Bouncerate? Das ist der Anteil der Besucher, die nach einem Klick auf die Seite sofort wieder zu Google flüchten und weitersuchen. Klares Zeichen, dass die Seite nicht das hielt, was sie versprochen hat. Videos und Bilder helfen übrigens, das Interesse der Nutzer zu wecken. Google hat vor kurzem eine Firma gekauft, die Leseverhalten und -geschwindigkeit auf einer Webseite erfasst. Alte Regeln gelten nicht mehr Half es früher noch, das wichtigste Keyword im Domainnamen zu haben, so führt dies heute zu keiner Verbesserung des Ranking mehr. Title und Description sollten nicht nur die wichtigsten Keyword enthalten, sondern insbesondere auch konversionsstark sein. Das Ziel der Suchmaschine ist es, Suchenden eine möglichst attraktive Ergebnisseite (SERP: Search Engine Result Page) zu präsentieren. Zum Teil zieht Google auch Informationen direkt aus der Webseite. Dazu dient Schema.org, ein System für ein einheitliches Vokabular für strukturierte Daten im Web. Die Technik muss stimmen Neu ist die stärkere Gewichtung technischer Onpage-Faktoren. Duplicate Content sowie die Einmaligkeit der Texte auf der Website spielen eine Rolle. Oft sind die CMS nicht richtig konfiguriert. Google verliert schnell die Geduld mit technisch nicht einwandfreien Websites. Dazu zählen auch die Reaktionszeit und die Downloadgeschwindigkeit. Je langsamer die Website, desto seltener kommt der Crawler. Oder es werden nicht alle Seiten erfasst. Google möchte, dass bei nicht existierenden Seiten eine echte 404er-Fehlermeldung erscheint, damit die Seite aus dem Index gelöscht werden kann. Weiterleitungen - zum Beispiel auf die Startseite - sind nicht erwünscht. Gratis-Download: Suchmaschinenmarketing Das komplette Kapitel 6 aus dem "Leitfaden Online Marketing".