Tricks für besseres Suchmaschinen-Ranking
Google entzaubert

DeveloperIT-ProjekteSoftware

Ein Top-Ranking in einer Suchmaschine wie Google ist die Fahrkarte zum Erfolg einer Website. Mit Tricks, Geld und reichlich Arbeit kann jeder seine Site nach oben hieven.

Der ewige Kampf

Tricks für besseres Suchmaschinen-Ranking

Eine Google-Recherche ist der schnellste Weg, die Informationsschätze im Web zu finden. Dieser Mythos ist ungebrochen, und das beflügelt nicht nur Surfer, sondern eine ganze Internet-Branche, die den Web-Anbietern einen Platz in den oberen Rängen der Suchmaschine verspricht. Hier wird mit teilweise harten Bandagen gekämpft und mit abenteuerlichen Tricks operiert. Doch die Haltbarkeit solcher trickreicher Methoden ist begrenzt. Natürlich versuchen die Suchmaschinen, ihre Suchroboter gegen allzu fragwürdige Tricks zu schützen und entsprechend gegenzusteuern.

Das so genannte Florida-Update von Google war eine solche Aktion, die in der Szene für erhebliche Unruhe sorgte. Mancher Ranking-König fand sich danach plötzlich im Keller wieder. Man kann daraus eine Prämisse in Sachen Suchmaschinen-Promotion formulieren: Jeder Trick ist vergänglich. Vorsicht ist also geboten gegenüber Garantieversprechen für Top-Platzierungen in Suchmaschinen, für die auch noch teures Geld verlangt wird.

Suchmaschinen-Optimierung von Websites ist solides Handwerk und ein Dauerjob für Designer, Online-Redakteure und Webmaster. Natürlich bringt die Anmeldung bei möglichst vielen Suchmaschinen und Webkatalogen etwas, und sei es nur eine Erhöhung der eigenen Link-Popularität. Allerdings sollte man den damit erzielten Erfolg durch eine Logfile-Analyse ständig im Auge behalten.


Link-Popularity

Tricks für besseres Suchmaschinen-Ranking

Einen hohen Stellenwert beim Ranking wird der so genannten Link-Popularity zugemessen. Dahinter steckt der Gedanke, dass die Anzahl der Links auf eine Seite auch einen Gradmesser für deren Qualität darstellt. Natürlich haben manche Schlaumeier gemeint, sie könnten das System durch die Einrichtung von Link-Parks austricksen. Es darf allerdings bezweifelt werden, ob solche Tricks langfristig eine Garantie für ein gutes Ranking darstellen. Unbestritten ist jedoch, dass die Link-Popularity ein wichtiges Kriterium darstellt. Auch die Relevanz der Site, auf der ein solcher Link steht, wird herangezogen. Außerdem werden auch interne Links gezählt. Es kann also keineswegs schaden, wenn möglichst viele und vor allem auch prominente Sites einen Link auf die eigene Site gesetzt haben.

Man kann die Link-Popularity seiner Site übrigens einfach testen. Zahlreiche Suchmaschinen stellen dafür eine spezielle Suche zur Verfügung. Bei Altavista, Lycos und Google gibt man ins Suchfeld einfach link:www.domain.de ein. Um an attraktive Links zu kommen, bieten sich Content-Partnerschaften an. Auch der Eintrag in möglichst vielen Suchmaschinen und Katalogen kann hier Früchte tragen. Auch dabei gilt wieder: Ein Eintrag in einem attraktiven Katalog wie dem Open Directory Project (dmoz.de) oder Yahoo zählt mehr als einer in einem obskuren Link-Park oder die Teilnahme an einem der zahlreichen Link-Tauschprogramme.


Domain-Indizierung

Tricks für besseres Suchmaschinen-Ranking

Neben Link-Popularity und der Anzahl der Klicks auf Suchergebnisse werden die Inhalte ganzer Domains für die Suchmaschinen immer wichtiger. Die Algorithmen suchen in allen Seiten einer Domain nach einem Schwerpunktthema. Theme-based Indexing lautet das Stichwort. Für den Anbieter, der unter einer Domain ein ganzes Themenspektrum anbietet, führt dies zwangsläufig
zu der Überlegung, ob eine Aufteilung auf verschiedene Domains mit klarer Themenfokussierung nicht der bessere Weg ist.

Meta-Tags haben im Hinblick auf Suchmaschinen bei weitem nicht mehr die Bedeutung wie früher. Von zahlreichen Suchmaschinen, darunter auch Google, werden sie überhaupt nicht mehr berücksichtigt. Auf sie ganz zu verzichten ist jedoch auch nicht optimal. Hat man doch bei den Katalogen und Suchmaschinen schlechte Karten, bei denen die in den Meta-Tags hinterlegten Keywords und Beschreibungen noch für das Ranking herangezogen werden.

Besser sind die Chancen, wenn man optimale Wortkombinationen findet, die den Inhalt einer Seite am besten charakterisieren, die so genannten Key-Phrases. Wichtig ist auch die Dichte von Stichworten. Wichtige Suchbegriffkombinationen sollten mindestens drei bis vier Mal pro Seite vorkommen.


Titel einer Seite

Tricks für besseres Suchmaschinen-Ranking

Auch die Position, an der sich die Suchbegriffe befinden, hat Einfluss auf die Platzierung in Suchmaschinen. Vor allem beim Titel einer Seite, der wohl wichtigsten Platzierung mit Suchmaschinen-Relevanz, werden oft Fehler gemacht. Hier ist kein Platz für exotische Headlines, sondern der optimale Ort zum Unterbringen der wichtigsten Stichwortkombinationen.

Auch die Headline-Tags erfreuen sich großer Beliebtheit bei den Suchmaschinen-Robotern. Webdesigner mit einem feinen Gespür für Suchmaschinen-Platzierungen werden daher vermehrt diese Tags zur Strukturierung eines Webdokuments einsetzen. Der Optik einer Webseite muss dies keinen Abbruch tun. Mit Hilfe von CSS lassen sich auch H-Konstruktionen für elegantes Webdesign nutzen. Auch der Text, der sich innerhalb des Anker-Tags a href befindet, wird von Suchmaschinen geschätzt. Berücksichtigen sollte man auch, dass Suchbegriffe möglichst weit vorn in einer Seite stehen sollten. Je weiter hinten sie stehen, desto unbedeutender werden sie aus Sicht eines Suchroboters.


Doorway-Pages und Cloaking

Tricks für besseres Suchmaschinen-Ranking

So genannte Doorway-Pages wurden lange Zeit als der Supertrick gehandelt, mit dem sich Suchmaschinen vortrefflich übertölpeln lassen. Doch die sind zwischenzeitlich auch etwas intelligenter geworden und lassen sich nicht mehr so einfach hinters Licht führen. Es handelt sich bei Doorway-Seiten um speziell für Suchmaschinen-Spider zugeschnittene Eingangsseiten, die aus einer Sammlung von Links zu allen wichtigen Seiten der Site bestehen und auf denen auch alle gewünschten Suchbegriffe und -kombinationen untergebracht werden. Der Erfolg solcher Bemühungen ist wie gesagt zweifelhaft. Auf eine Sitemap sollte man bei einer umfangreichen Website dennoch nicht verzichten. Sie liefert dem normalen Surfer einen schnellen Überblick über das gesamte Angebot und Suchmaschinen-Robotern einen kompletten Überblick über alle Verknüpfungen der Site.

Als ultimativer Trick in der Szene gilt noch immer das Cloaking. Die Technik, die dahinter steckt: Suchmaschinen-Roboter bekommen andere Seiten präsentiert als normale Surfer. Das Routing erfolgt über eine Art Browserweiche, die die Kennung des Robots und gleich auch noch seine IP-Adresse abfragt und ihn dann mit einer exakt auf die Ranking-Algorithmen zugeschnittenen Seite bedient. Besonders fies ist das Verfahren natürlich dann, wenn der Inhalt der Seite für die Surfer und der für den Suchroboter meilenweit auseinander klaffen. Werden solche Cloaking-Versuche ruchbar, ist die Chance groß, von der Spitzenposition einer Suchmaschine direkt ins Aus befördert zu werden. Seriöse Anbieter, die ein solches Risiko nicht eingehen wollen oder können, werden daher die Finger von solchen fragwürdigen und im Übrigen auch aufwendigen Tricks lassen.

Allerdings ist die Versuchung groß und Not macht erfinderisch. Dynamisch generierte Seiten, Flash-Anwendungen und Javascript-Spielereien haben Suchmaschinen gegenüber einen konstruktiv bedingten, schweren Stand, der sich per Cloaking dramatisch verbessern lässt. Auch bei einem notwendigen Neudesign einer Site mit einer guten Suchmaschinen-Platzierung kann die Versuchung groß sein, den Absturz nach dem Redesign per Cloaking zu vermeiden.


Dynamische Seiten finden

Tricks für besseres Suchmaschinen-Ranking

Suchroboter stehen mit dynamischen Seiten zwangsläufig auf Kriegsfuß. Das liegt vor allem daran, dass die eigentlichen Inhalte solcher Seiten in Datenbanken schlummern. Dazu kommt, dass eine indizierte Seite zum Zeitpunkt des Aufrufs durch einen Surfer mit hoher Wahrscheinlichkeit schon wieder andere Inhalte aufweist als zum Zeitpunkt der Indizierung. Ein weiteres Problem besteht darin, dass nicht nur die Inhalte bei solchen Seiten dynamisch erzeugt werden, sondern auch Links. Das führt einen Suchroboter zwangsläufig in die Irre. Machtlos sind Suchmaschinen auch bei Seiten, die ein Surfer erst durch Eingabe von Parametern generiert.

Es gibt jedoch auch dafür ein paar Lösungen. Die einfachste Methode ist, eine dynamische Seite aufzurufen und sie als statische HTML-Seite wieder abzuspeichern. Bei wenigen Seiten kann man dies manuell erledigen, sind es viele Seiten, eignet sich ein Skript besser. Die eleganteste Methode stellt das URL-Rewriting dar. Beim Apache-Webserver leistet da das Modul mod_rewrite wertvolle Dienste. Die Direktiven des Moduls arbeiten mit regulären Ausdrücken (RegExp). Damit lassen sich zum Beispiel Suchmuster für einen Suchmaschinen-unfreundlichen URL definieren und entsprechend umwandeln. Umgesetzt wird dies mit den so genannten RewriteRule-Direktiven. Auch für ASP und IIS gibt es entsprechende Tools.


Gekaufte Besucher

Tricks für besseres Suchmaschinen-Ranking

Wenn alle Tricks nichts fruchten, bleibt noch der Ausweg, sich ein Top-Ranking einfach zu kaufen. Adwords heißt dieses System bei Google, und auch andere Suchmaschinen bieten solche Optionen an. Das Prinzip: Der Website-Betreiber legt Keywords fest, unter denen er gefunden werden will. Tippt ein Besucher die Begriffe ein, wird der gekaufte Link mit den Suchergebnissen angezeigt. Bezahlt wird nach erfolgten Klicks oder mit einem Pauschalbetrag für einen bestimmten Zeitraum. Dieser so genannte Besucherkauf ist ein Erfolg versprechender Weg zum Beispiel für neue Online-Shops, die sich zum Start eine solide Kundenbasis anlegen wollen.


Fazit

Tricks für besseres Suchmaschinen-Ranking

Webseiten für Suchmaschinen zu optimieren ist nicht nur eine Wissenschaft für sich, sondern für manche ein großes Geschäft. Suchmaschinen-Optimierer versprechen, Top-Platzierungen für ihre Kunden zu erreichen natürlich gegen entsprechende Geldsummen.

Die Suchmaschinenbetreiber sehen das gar nicht gern. Sie müssen gegenhalten, um die Unabhängigkeit der Suchergebnisse von der Marketingpotenz der Site-Betreiber zu untermauern. So suchen sie immer wieder nach Hürden, die von den Optimierern schwerer überwindbar sind.