Suchmaschinenoptimierung - Aspekte einer SEO-konformen Webseite

Aus Winfwiki

Wechseln zu: Navigation, Suche
Name des Autors / der Autoren: Stefan Rausch
Titel der Arbeit: "Suchmaschinenoptimierung - Aspekte einer SEO-konformen Webseite"
Hochschule und Studienort: FOM Düsseldorf


Inhaltsverzeichnis


1 Abkürzungsverzeichnis

AbkürzungBedeutung
AJAXAsynchronous JavaScript and XML
DMOZDirectory Mozilla
IOSCInternet Society
IISInternet Information Server
IPInternet Protocol
ISAPIInternet Server API
ISRIndex Stream Readers
MiBMegabinärbyte
ODPOpen Directory Project
OWLWeb Ontology Language
PRPageRank
RDFResource Description Framework
RIARich Internet/Interactive Application
SEMSearch Engine Marketing
SEOSearch Engine Optimization
URLUniform Resource Locator
XMLExtensible Markup Language

2 Abbildungsverzeichnis

Abb.-Nr.Abbildung
1SEO und SEM auf Google
2Aufbau einer Suchmaschine
3Suche nach XING auf google.de
4Mögliche Verzeichnisstruktur eines Webservers
5Beispielansicht des Google Analytics Dashboards

3 Einleitung

Diese Hausarbeit beschäftigt sich mit der Webseiten-Optimierung für Suchmaschinen. Dabei werden sowohl die historischen Entwicklungen von Suchmaschinen in den letzten Jahre, insbesondere aber die konkreten Stellschrauben zur Suchmaschinenoptimierung betrachtet. Der geschichtliche Aspekt von Suchmaschinen und Verzeichnisdiensten, ebenso wie die Funktionsweise von Suchmaschinen wird aus Gründen des Umfangs nur auszugsweise betrachtet. Die in dieser Hausarbeit erläuterten Maßnahmen orientieren sich besonders an der Suchmaschine Google. Das kann unter Umständen bedeuten, dass einige Punkte für andere Suchmaschinen gegebenenfalls weniger relevant sind.

3.1 Begriffsabgrenzung

Abbildung 1: SEO und SEM auf Google
Abbildung 1: SEO und SEM auf Google
Als Suchmaschinenoptimierung werden Maßnahmen zur Steigerung der Platzierung auf den redaktionellen Seiten der Suchmaschine bezeichnet.[1] Es wird auch von sogenannten organischen Suchergebnisseiten gesprochen. Grundsätzlich kann das Suchmaschinenmarketing in zwei Teilbereiche aufgeteilt werden, den Search Engine Marketing (SEM) und den Search Engine Optimization (SEO) Part. Bei SEM geht es vor allem um bezahlte Suchergebnisse. Das heißt es kann auf Keywords zu denen die eigene Seite gefunden werden soll geboten werden. Dadurch wird auf den Suchergebnisseiten, je nach Höhe des eingesetzten Betrags, mehr oder minder häufig eine kleine Textanzeige mit einer kurzen Beschreibung und einem Link zur eigenen Seite eingeblendet. Bei SEO geht es hingegen um die organische bzw. natürliche Suche, bei der Seiten mit der höchsten Relevanz (aus Suchmaschinensicht) in den Ergebnistreffern ganz oben stehen. Wie diese Suchergebnisse, sowohl SEO, als auch SEM betreffend auf der Ergebnisseite aufgeführt werden, zeigt Abbildung 1: "SEO und SEM auf Google" in der rechten Spalte. Der rot markierte Bereich kennzeichnet den SEM-Teil, das heißt die bezahlte Suche. Der SEO-Bereich ist hingegen grün markiert. In dieser Hausarbeit ist der Fokus ausschließlich auf die organische Suche gelegt. Aspekte des Search Engine Marketings finden in den Ausführungen keine weitere Beachtung.

3.2 Motivation & Ziele

Das World Wide Web bietet eine schier unendliche Reichweite an Informationen zu allen erdenklichen Themen. Das "Netz" und seine Nutzerzahl steigt ständig an und so ist es nicht verwunderlich, dass dieses Medium in Industrie und Wirtschaft immer weiter zu einem eigenen Vertriebskanal ausgebaut wird. Auch für Unternehmen heißt es Reichweite schaffen und möglichst viel Traffic auf die eigenen Seiten bringen. Nur wer sich mit dem Thema Web intensiv beschäftigt und die einzelnen Subkanäle wie zum Beispiel SEO, SEM und Affiliate-Marketing für die eigenen Verkaufszwecke geschickt nutzt, kann mittelfristig einen guten Geschäftserfolg über den Online-Kanal vorweisen. Und so ist es doch immer wieder erstaunlich, wie der Traffic auf die eigenen Seiten oft durch einfache und vor allem kostengünstige Maßnahmen zur Suchmaschinenoptimierung erhöht werden kann. Ziel dieser Hausarbeit ist es ein grundlegendes Verständnis über die Funktions- und Arbeitsweise von Suchmaschinen zu vermitteln und eine Basis zur Gestaltung einer SEO-konformen Webseite zu erarbeiten.

4 Historische Entwicklung

Es gibt verschiedene Formen mit denen ein Benutzer das World Wide Web nach Informationen und Dokumenten durchsuchen kann. Aus technologischer Sicht kann zwischen vier Arten der Suche unterschieden werden. Diese zum Teil unterschiedliche Herangehensweisen werden in den nachfolgenden Abschnitten genauer betrachtet.

4.1 Verzeichnisdienste

Ein Verzeichnisdienst, oft auch als Internet-Katalog bezeichnet, beinhaltet nur ausgewählte Webseiten. Beim Aufbau handelt es sich um eine Baumstruktur, wobei die Webseiten thematisch nach Rubriken eingeordnet sind.[2] Dies hat den Vorteil, dass ein Benutzer der den Begriff für das Gesuchte nicht kennt, sich anhand der Struktur immer weiter vorarbeiten kann. Als die Suchmaschinentechnologie noch nicht so ausgereift war, erfreuten sich Web-Kataloge großer Beliebtheit. Heute haben sie in Bezug auf die Nutzerzahlen deutlich abgenommen. Dennoch sind Verzeichnisdienste für die Suchmaschinenoptimierung relevant, da sich eine "gute" Verlinkung auf die Positionierung auf den Ergebnisseiten der Suchmaschine auswirken kann. Es gibt nur wenige relevante Kataloge, bei denen sich eine Eintragung lohnt.[3] Zu nennen sind hier das Open Directory Project (ODP)[4][5], bei dem es sich momentan weltweit um das größte manuell gepflegte Verzeichnis handelt.[6] Weiterhin gelten die Kataloge von Yahoo![7], Web.de[8] und AllesKlar.de[9] im deutschsprachigem Raum als relevant, wobei ein Eintrag in diesen Verzeichnissen kostenpflichtig ist.[10]

4.2 Klassisch-algorithmische Suchmaschinen

Die klassisch-algorithmischen Suchmaschinen bilden den heutigen Standard. Wird im Allgemeinen von Suchmaschinen gesprochen, so ist in aller Regel diese Form der Suchmaschine gemeint. Für den Benutzer scheinen Suchmaschinen als solches nur aus einer Suchmaske zu bestehen, die bei Eingabe eines Suchbegriffs oder einer Phrase einige mehr oder minder passende Suchergebnisse liefern. Grundsätzlich sind Suchmaschinen jedoch wesentlich komplexer. Eine Erläuterung zum Aufbau und zur Struktur solcher klassisch-algorithmischen Suchmaschinen kann in Abschnitt 5.1 "Aufbau und Struktur" nachgelesen werden. Dort wird genauer auf das Funktionsprinzip und die dahinterstehenden Komponenten eingegangen. Beispiele für klassisch-algorithmische Suchmaschinen sind Yahoo![11] und Google[12].

4.3 Meta-Suchmaschinen

Eine spezielle Form der algorithmischen Suchmaschine ist die Meta-Suchmaschine. Sie zeichnet sich dadurch aus, dass sie eine Anfrage direkt an mehrere Suchmaschinen weiterleitet und das Ergebnis mittels eines eigenen Suchalgorithmus aufbereitet. Dies führt dazu, dass Meta-Suchmaschinen keinen eigenen Index benötigen, wodurch sie günstiger für den Betreiber sind, da dieser keine eigene Hardware bereitstellen muss.[13] Als Folge können Webseiten jedoch nicht direkt bei solch einer Suchmaschine eingetragen werden, die einzige Möglichkeit besteht durch die Aufnahme in den Index der Suchmaschine, die die Meta-Suchmaschine abfragt. Ebenso kann eine Webseiten-Optimierung nicht direkt für die Meta-Suchmaschine erfolgen. Es muss immer eine Optimierung für die abgefragten Suchdienste stattfinden, um auch in einer Meta-Suchmaschine ein besseres Ranking zu erhalten.[14] Häufig werden Meta-Suchmaschinen mit sogenannten All-in-one Formularen verwechselt. Ein Unterschied zwischen beiden Varianten ist für einen Benutzer auf den ersten Blick nicht direkt erkennbar. Daher hat die Internet Society (IOSC) im Jahr 1998 sieben Kriterien für Meta-Suchmaschinen festgelegt, von denen mindestens sechs erfüllt sein müssen.[15]

  • Parallele Suche: Die Suche muss parallel erfolgen und darf nicht in Form einer Queue abgearbeitet werden.
  • Ergebnis-Merging: Die Suchergebnisse müssen zusammengeführt und in einem einheitlichen Format ausgegeben werden.
  • Doubletten-Eliminierung: Mehrfache Suchtreffer, welche über die verschiedenen Suchdienste erzielt wurden, müssen entweder eliminiert oder gekennzeichnet werden.
  • Logische Operatoren: Es müssen mindestens die beiden logischen Operatoren "AND" und "OR" verwendbar sein.
  • Informationsweitergabe: Es muss sichergestellt werden, dass es bei der Aufbereitung der Suchergebnisse zu keinem Informationsverlust kommt. Beispielsweise müssen Kurzbeschreibungen, falls diese vorhanden sind auch in auf den Ergebnisseiten der Meta-Suchmaschine erscheinen.
  • Search Engine Hiding: Die jeweiligen Eigenschaften der einzelnen, von der Meta-Suchmaschine abgefragten Suchdienste, dürfen für den Benutzer keine Rolle spielen. Er muss sich nicht mit einer möglicherweise spezifischen Bedienung eines einzelnen Suchdienstes auskennen.
  • Vollständige Suche: Es muss eine vollständige Ausgabe aller Suchergebnisse jedes einzelnen Suchdienste erfolgen.[16]

Bekannte Meta-Suchdienste werden von WebCrawler.com[17] und MetaGer[18] angeboten.[14]

4.4 Semantische Suchmaschinen

Die nächste Generation bilden die semantischen Suchmaschinen. Diese Suchmaschinen sind nicht nur in der Lage die reine Syntax zu erfassen, sondern zusätzlich den semantischen Zusammenhang einer Suchanfrage zu erkennen. Klassisch-algorithmische Volltextsuchmaschinen wie Google haben die Schwäche, dass sie grundsätzlich Zeichenketten im Text lokalisieren. Dies führt dazu, dass bestimmte Inhalte, die in einem logischen Zusammenhang zur Suchanfrage stehen, nicht gefunden werden. Eine semantische Suchmaschine hingegen ist in der Lage Synonyme, Übersetzungen und falsch geschriebene Begriffe einer sinngemäßen Bedeutung zuzuordnen. Dies geschieht mithilfe von Wissensnetzen oder sogenannten Ontologiesprachen, wie zum Beispiel dem Resource Description Framework (RDF) oder der Web Ontology Language (OWL).[19] Solche Wissensnetze lassen sich durch mathematische Methoden erstellen. So kann die inhaltliche Nähe von zwei Wörtern bestimmt werden. Eine relativ hohe Übereinstimmung würden die Begriffe "Kuchen" und "backen" ergeben.[20] Semantische Suchmaschinen können den Kern einer Frage besser erfassen und liefern dadurch exaktere Suchergebnisse. Derzeit befinden sich diese Suchmaschinen noch in der Entwicklung, es ist jedoch davon auszugehen, dass diese Form der Suche die klassisch-algorithmische Suche in Zukunft ablösen wird.

5 Funktionsweise von Suchmaschinen

Die Funktionsweise von Suchmaschinen ist nicht trivial. Im folgenden Abschnitt wird der grobe Aufbau einer klassisch-algorithmischen Suchmaschine erläutert, welche zu den heutigen Standardsuchdiensten zählt. Grundsätzlich ist darauf hinzuweisen, dass es sich nicht um eine detaillierte Beschreibung handelt, da dem Leser nur kurz das Konzept einer Suchmaschine dargelegt werden soll. Zudem handelt es sich um eine allgemeine Beschreibung, die nicht auf alle Suchmaschinen zutreffen muss.

5.1 Aufbau und Struktur

Abbildung 2: Aufbau einer Suchmaschine
Abbildung 2: Aufbau einer Suchmaschine[21]
Eine klassisch-algorithmische Suchmaschine besteht in aller Regel aus den folgenden Komponenten:
  • Automated Web Browser
  • Parsing Module
  • Indexing Module
  • Query Module
  • Index Stream Readers
  • Index
  • Maintenance Module

Beim Automated Web Browser handelt es sich um den sogenannten Web Crawler (auch Robot, Bot oder Spider genannt), der sich anhand von Hyperlinks und bekannten Dokumenten durchs Web "hangelt", um so neue Seiten und Dokumente zu finden. Dieser Vorgang findet stetig statt. Das Parsing Module führt die Syntaxanalyse durch und hat die Aufgabe, die vom Crawler gefundenen Dokumente in indexierbare Einheiten, das heißt einzelne Wörter oder Wortstämme zu zerlegen. Zudem verzeichnet es das Vorkommen von Begriffen in den Dokumenten. Das Indexing Module (auch Indexierer genannt) übernimmt den nächsten Schritt und speichert Wort-Speicherstellen-Paare ab. Daraus ergeben sich dann zwei Indizes. Zum einen, der der die Wörter mit den Nummern der Dokumente, in denen diese vorkommen enthält und zum anderen, ein Index mit den Dokumentennummern zugeordneten Wörtern. Dies hat den Vorteil, dass alle Dokumente ermittelt werden können, in denen ein oder mehrere bestimmte Begriffe vorhanden sind. Zudem können sämtliche in einem Dokument vorkommenden Begriffe ermittelt werden. Die Query Module Komponente dient der Abfrage des Indexes. Gibt der Benutzer einer Suchmaschine einen bestimmten Begriff ein, so wandelt das Query Module diese Abfrage in eine verwertbare Form um. Hierzu zählt auch, dass Operatoren, wie zum Beispiel "OR" oder "AND" aufgelöst werden. Anschließend übergibt das Query Module die Abfrage an die Index Stream Readers (ISR), welche dann einen Abgleich mit dem Index vornehmen und die passenden Dokumente an das Query Module zurückliefern, welches diese dann dem Suchenden präsentiert. Das Maintenance Module ist etwas losgelöst von diesem Prozess. Es handelt sich dabei um ein Datenpflegemodul, welches den Index während des laufenden Betriebs ständig aktualisiert und Dubletten eliminiert.[22] In Abbildung 2 sind die einzelnen Komponenten, sowie die Zusammenhänge visuell veranschaulicht.

5.2 Ranking

Suchmaschinen ranken Dokumente. Sie untersuchen und analysieren Webseiten und stufen diese nach bestimmten Kriterien ein. Die Ranking-Verfahren mit denen dies geschieht sind dabei grundsätzlich geheim. Zwar sind bereits viele Dinge bekannt, die eine positive oder auch negative Auswirkung auf das Suchmaschinenranking haben, allerdings sind die Algorithmen nicht statisch. Das heißt, sie werden ständig weiterentwickelt und keiner der großen Suchmaschinenbetreiber gibt freiwillig den Quellcode frei. Zwar werden immer wieder Hinweise gegeben, aber dennoch werden die einzelnen Faktoren nicht bis ins letzte Detail preisgegeben. Das bedeutet, Suchmaschinenoptimierung heißt vor allem ausprobieren. Mittlerweile sind schon viele Maßnahmen bekannt, die dabei helfen das Ranking einer Webseite zu steigern. Um was für Faktoren und Maßnahmen es sich dabei handelt, wird im Abschnitt 6 "Konzeption" konkretisiert. Auch ist die Frage, welche Maßnahmen wie gewichtet werden nicht immer klar zu beantworten. Letztendlich hängt das Ranking von vielen Faktoren ab, die eine mehr oder minder starke Ausprägung haben.

6 Konzeption

In diesem Abschnitt werden alle Maßnahmen erläutert, die zur Suchmaschinenoptimierung ergriffen werden können. Es wird zwischen der On-Page- und der Off-Page-Optimierung unterschieden. Darüberhinaus gibt es noch einen Abschnitt über häufig gemachte Fehler, die eine kontraproduktive Auswirkung auf die Relevanz der Seiten haben können. Teil dieses Abschnitts sind auch bekannte Spam-Praktiken, mit denen Suchmaschinen gezielt manipuliert werden sollen. Zuletzt gibt es noch einen Überblick über die Möglichkeiten der Erfolgskontrolle.

6.1 On-Page-Optimierungen

Zur On-Page-Optimierung (oft auch als On-Site-Optimierung bezeichnet) gehören Maßnahmen, die in Bezug auf den Aufbau und die Struktur einer Webseite durchgeführt werden. Hierzu zählen neben einem sauber programmierten Quellcode, entsprechende Meta-Informationen, sowie Keywords und interne Verlinkungen.[23]

6.1.1 Head- und Meta-Informationen

Webseiten bestehen aus einem sogenannten Head- und einem Body-Teil. Der Body enthält den eigentlichen Inhalt der Webseite, der auch dem Besucher der Seite anzeigt wird. Der Head-Teil hingegen ist größtenteils nicht sichtbar und enthält Zusatzinformationen für den Browser, aber auch für Suchmaschinen. Die einzelnen Informationen sind durch Tags abgegrenzt und werden in den nachfolgenden Abschnitten genauer erläutert.[24]

6.1.1.1 Title-Tag

Die Wahl eines passenden Title-Tags ist aus mehreren Gründen relevant. Zum einen wird hiermit der Titel der Webseite festgelegt, welcher auch in der Kopfzeile des Browsers erscheint, zum anderen wird die Webseite unter diesem Namen auch auf den Ergebnisseiten von Suchmaschinen gelistet. Zu beachten ist das die Anzahl der Wörter im Title zwischen fünf und sieben liegen sollte. Die Worte, die dabei zu Beginn stehen, werden grundsätzlich höher bewertet als die weiter hinten. Das heißt, es sollte sich beim Title um eine kurze, prägnante Beschreibung handeln, um was es auf der Seite geht. Der Title-Tag hat noch eine dritte Funktion, er dient dem Browser als Vorschlagname für Bookmarks bzw. Lesezeichen.[24]

6.1.1.2 Meta-Description

Die Meta-Description wird im Gegensatz zum Title nicht auf der Webseite angezeigt. Dieser Text dient ausschließlich als Kurzbeschreibung für die Suchmaschine. Auch heute wird dieser Text noch auf den Suchergebnisseiten als Beschreibung mit ausgegeben. Dies muss jedoch nicht immer so sein. Wird beispielsweise ein Text genommen, der wenig mit dem eigentlichen Seiteninhalt zu tun hat, verwenden Suchmaschinen wie Google einen eigenen Textteil (auch Snipplets genannt). Dieser Text kann sich vor oder nach dem gesuchten Keyword im Seitentext befinden. Suchmaschinen erzeugen auch dann eigene Snipplets, wenn die Begriffe der Description nicht prominent genug im Seitentext stehen. Somit können irreführende Beschreibungen auf den Suchergebnisseiten unterbunden werden.[24] Die Meta-Description sollte eine Länge von 250 Zeichen nicht überschreiten.[25]

6.1.1.3 Meta-Keywords

Mit Meta-Keyword-Tag können die einzelnen Keywords (Suchwörter) angegeben werden, unter der die Seite gefunden werden soll. Mittlerweile ist die Bedeutung der Meta-Keywords sehr umstritten, da nicht vollständig klar ist, ob diese noch von Suchmaschinen in die Relevanzberechnung einfließen. Durch, in der Vergangenheit durchgeführte Tests ließ sich die Relevanz dieses Tags nicht bestätigen. Jedoch kann es grundsätzlich auch nicht schaden diesen Tag mit ein paar Daten zu füllen. Zu beachten ist, dass nicht zu viele Keywords verwendet werden, das heißt sieben Begriffe sind ausreichend. Die Keywords sollten allerdings nicht durch Kommata getrennt werden, da dies als eine Abgrenzung der einzelnen Suchbegriffe zueinander gewertet werden könnte. Es empfiehlt sich diese nur durch Leerzeichen zu trennen, da sie so freier kombinierbar sind.[24]

6.1.1.4 Robots-Tag

Beim Robots-Tag handelt es sich um eine Meta-Angabe, mit der dem Suchmaschinen-Crawler bestimmte Hinweise in Bezug auf die Indexierung und das Verfolgen von Links gegeben werden kann. Dieser Tag kann die Attribute "follow", "index", "nofollow" oder "noindex" enthalten. Der Webseitenbetreiber kann der Suchmaschine beispielsweise die Anweisung geben diese Seite nicht zu indexieren, aber allen Links auf der Seite zu folgen. Dies kann zum Beispiel auf einer Sitemap-Seite sinnvoll sein. Es kann auch das weitere Verfolgen von Links ausgeschlossen, aber die Indexierbarkeit der Seite zugelassen werden. Eine Kombination von "follow" und "index" ist nie sinnvoll, da dies die Kernaufgabe der Suchmaschine darstellt und sie nicht extra dazu aufgefordert werden muss. Soll also alles erlaubt sein, sollte dieser Tag im Zweifelsfall weggelassen werden. Es ist allerdings nicht sichergestellt, dass sich alle Crawler an diesen Meta-Tag halten. Genauso wie bei der robots.txt (siehe Abschnitt 6.2.4 Verzeichnisstruktur) kann es sein, dass dieser Tag gar nicht ausgelesen oder einfach ignoriert wird.[24]

6.1.1.5 Weitere Tags

Es gibt noch viele weitere Meta-Tags, die allerdings häufig von Suchmaschinen nicht ausgewertet werden. Besonders hervorzuheben ist der "Revisit-after"-Tag. Bei diesem Tag kann ein zeitlicher Wert eingetragen werden. Dieser Tag soll der Suchmaschine mitteilen, wie häufig, bzw. wann sie dieses Dokument das nächste Mal crawlen soll. Zumindest alle großen Suchmaschinen ignorieren diesen Tag einfach, da sie ihre eigenen Verfahren und Algorithmen zur Bestimmung des nächsten Besuchs besitzen. So ermittelt zum Beispiel Google mittels eines Hash-Werts, wie oft im Durchschnitt eine Seite aktualisiert wird und passt die Besuchsfrequenz entsprechend an. Diese Meta-Information hat also keine Relevanz bei der Suchmaschinenoptimierung und muss daher nicht beachtet werden. Ein weiterer zu erwähnender Meta-Tag ist der sogenannte "content-language"- oder Sprachtag. Bei diesem Tag wird ein Kürzel für die auf der Seite verwendete Sprache hinterlegt. Für Deutsch zum Beispiel "de". Grundsätzlich ist auch diese Meta-Information irrelevant, da die Suchmaschinen selbstständig in der Lage sind Sprachen zu erkennen (siehe auch Abschnitt 6.1.4 Sprache). Dennoch kann so ein Tag nützlich sein, wenn der Seitentext beispielsweise in bayrisch verfasst wurde. Denn Suchmaschinen können zwar einzelne Sprachen voneinander unterscheiden, Dialekte könnten dabei allerdings problematisch werden und im schlimmsten Fall dafür sorgen, dass das Dokument bzw. die Seite nicht indexiert wird.[24]

6.1.2 Keywords

Um eine Webseite für Suchmaschinen zu optimieren, müssen bestimmte Schlüsselwörter definiert werden, die in den Content der Seite einfließen. Keywords im Allgemeinen sind nicht mit den Meta-Keywords zu verwechseln, welche sich in den Meta-Tags im Head der Seite befinden. Als logische Konsequenz empfiehlt es sich jedoch im Seiten-Content dieselben Schlüsselwörter zu verwenden, wie in den Meta-Informationen. Die Wahl der Begriffe ist dabei von erheblicher Bedeutung und die richtige Entscheidung nicht immer leicht. Dies hängt vor allem damit zusammen, dass die Keywords einerseits möglichst zum Inhalt passen müssen, zum anderen sind viele dieser Begriffe stark umkämpft. Bei der Auswahl der Keywords ist die Verwendung eines Dudens in Bezug auf die Rechtschreibung ratsam. Auch sollte nach Synonymen recherchiert werden, da es zu einem guten Schreibstil gehört, nicht dieselben Begriffe immer wieder zu wiederholen. Bei der Wahl der Schlüsselbegriffe sollte darauf geachtet werden, welche der Wörter am wahrscheinlichsten sind. Aber nicht nur der Begriff selbst ist von entscheidender Bedeutung, sondern auch die sogenannte Keyword Density (Wortdichte). Diese beschreibt das Verhältnis zwischen dem absoluten Vorkommen eines Keywords im Verhältnis zu allen anderen Wörtern. Eine zu geringe Dichte kann dazu führen, dass die Seite zu den gewünschten Begriffen nicht gefunden wird. Der Grund dafür ist, dass das Dokument eine zu geringe Relevanz in Bezug auf das Keyword aufweist. Eine zu hohe Wortdichte hingegen kann dazu führen, dass das Vorgehen als Keyword Stuffing eingestuft und schlechter gerankt wird (siehe Abschnitt 6.3.4 "Keyword Stuffing"). Es ist daher das richtige Verhältnis zu treffen. In der Regel wird empfohlen, dass die Wortdichte zwischen 1% und maximal 8% liegen sollte. Es gibt verschiedene Tools um die Keyword Density einer Webseite zu überprüfen. Beispielsweise kann unter www.keyworddensity.com durch Eingabe einer URL und der entsprechenden Schlüsselwörter eine Analyse durchgeführt werden.[26]

6.1.3 Sprache

Abbildung 3: Suche nach XING auf google.de
Abbildung 3: Suche nach XING auf google.de[27]
Grundsätzlich können Suchmaschinen nur nach Zeichenketten suchen. Das bedeutet, dass sie den Inhalt von Wörtern nicht erkennen und auch keine Rechtschreibung oder Sprache beachten. Sie suchen lediglich nach den eingegebenen Zeichenkombinationen. Die Sprache eines Dokumentes oder einer Webseite ist jedoch für den Benutzer eine wichtige Eigenschaft. Daher gibt es Verfahren mit denen die Sprache erkannt werden kann. Das erste Verfahren basiert auf einem Wörterbuch, auf dessen Basis die Dokumente untersucht werden. Es handelt sich allerdings um eine sehr aufwändige Methode, da die Suchmaschinen eine Liste mit möglichst vielen verschiedenen Sprachen durchsuchen müssen. Die zweite Variante ist performanter. Die Suchmaschine versucht für eine Sprache typische Buchstabenkombinationen zu finden, um das Dokument der passenden Sprache zuzuordnen. Problematisch sind daher immer Webseiten, die innerhalb eines Dokuments mehrere Sprachen kombinieren. Dies kann dazu führen, dass von der Suchmaschine die dominantere Sprache ausgewählt wird und diese eben für den Webseitenbetreiber die geringere Priorität hat. Kritisch wird es, wenn die Suchmaschine sich für keine der Sprache entscheiden kann, dann wird das Dokument oder die Seite als "unclassified" eingestuft, was einer Nichtaufnahme in den Index entspricht. Eine weitere Vorgehensweise in Bezug auf die Mehrsprachigkeit einer Seite ist es, je nach Besucher, die Webseite automatisiert nach der zugehörigen Sprache auszuliefern. Dies kann relativ zuverlässig anhand der IP-Adresse eines Benutzers erfolgen. Problematisch wird diese Herangehensweise jedoch aus SEO-Sicht, da viele amerikanische Suchmaschinen wie zum Beispiel Google oder Yahoo! ihre Crawler aus den USA "losschicken". Dies hat zur Folge, dass automatisch eine englisch- anstatt einer deutschsprachigen Seite ausgeliefert wird. Ein Negativbeispiel hierfür zeigt Abbildung 3. Hier wurde bei Google nach dem Suchwort "xing" mit der Option "Seiten auf Deutsch" gesucht, dennoch erscheint nur die Seite mit englischsprachigem Text.[27]

6.1.4 Linkstruktur

Die Linkstruktur ist bei der Webseiten-Konzeption von hoher Bedeutung. Sie definiert wie sich Suchmaschinen auf den Webseiten bewegen. Die meistbesuchte Seite einer Webpräsenz ist normalerweise die Homepage oder Startseite. Aus diesem Grund sollten von hier aus Links zu den wichtigsten Unterseiten gesetzt werden. Dies hat den Grund, dass die meisten großen Suchmaschinenbetreiber Webseiten inkrementell crawlen und es dadurch wahrscheinlicher ist, dass besonders wichtige Seiten direkt mit indexiert werden. Die Zahl der gesetzten Links sollte 100 nicht überschreiten, um zum einen die Übersichtlichkeit weiterhin zu gewährleisten, zum anderen um sicherzustellen, dass der Suchmaschinen Crawler auch allen Links folgt. Sollten mehr als 100 Links pro Seite existieren, kann es passieren, dass eine Suchmaschine die Seite als Linkfarm einstuft.[28]

6.2 Off-Page-Optimierungen

Bei sogenannten Off-Page-Optimierungen (auch Off-Site-Optimierungen genannt) geht es um Maßnahmen, die sich nicht auf den Aufbau oder den Inhalt einer Webseite beziehen. Das heißt, es handelt sich um Methoden, die nicht durch Optimierung bzw. Anpassung des Quellcode umsetzbar sind.[29] Off-Page-Optimierungen implizieren grundsätzlich externe Faktoren, wie zum Beispiel Links fremder Domänen. Als extern werden jedoch nicht nur die Faktoren angesehen, die nur mittelbar beeinflusst werden können, sondern auch solche, auf die ein Webseitenbetreiber direkten Einfluss hat, wie zum Beispiel die Verzeichnisstruktur oder das Sitemap-Protokoll auf dem Webserver.[23]

6.2.1 Linkpopularität

Bei der Linkpopularität handelte es sich ursprünglich um einen Faktor, der eine Relevanzbeurteilung aufgrund der Anzahl eingehender Links (auch als Backlinks bezeichnet) zulässt. Es galt das Prinzip, dass ein Dokument oder eine Webseite umso relevanter war, je mehr Backlinks darauf verwiesen. Problematisch an diesem Verfahren ist die Tatsache, dass grundsätzlich nur die Anzahl der Links von Bedeutung war. Dies führte dazu, dass viele Seitenbetreiber sich sogenannte Linkfarmen zu Nutze machten.[30] Eine Linkfarm ist meist eine Ansammlung von Seiten, die zur Suchmaschinenmanipulation genutzt werden. Jede einzelne Seite einer Linkfarm ist auf ein bestimmtes Stichwort optimiert und enthält zahlreiche Links auf verschiedene Seiten, zum Teil auch auf andere Linkfarmen. Dies hat den Zweck die Linkpopularität und damit die Relevanz für die Suchmaschine zu steigern. Mittlerweile sind die meisten Suchmaschinen in der Lage, solche Linkfarmen zu erkennen und die teilnehmenden Seiten abzustrafen. Solch eingehende Links auf eine Webseite werden von Suchmaschinen als sogenannte "Bad Neighbourhood" definiert.[31] Bei der Linkpopularität ist nicht mehr nur die Quantität von Backlinks, sondern auch die Qualität von Bedeutung. Backlinks die von Seiten mit bestimmten Top-Level-Domänen wie zum Beispiel .edu oder .gov gesetzt werden, bekommen ein höheres Gewicht als andere. Dies liegt daran, dass diese Top-Level-Domänen nur gegen Nachweis registriert werden können und somit die Wahrscheinlichkeit, dass es sich dabei um einen Spammer oder eine Linkfarm handelt deutlich verringert.[32]

6.2.2 PageRank

Das Unternehmen Google entwickelte auf Basis der Linkpopularität ein eigenes Verfahren, welches nach dem Mitbegründer Lawrence Page benannt wurde: Der sogenannte PageRank (PR). Dem PageRank liegt ein Algorithmus zugrunde auf Basis dessen der sogenannte PageRank-Wert (oft auch einfach als PageRank bezeichnet) berechnet wird. Beim PageRank-Algorithmus werden nicht die Inhalte in ihrer Gesamtheit der Seite bewertet, sondern es geht zunächst ebenfalls wie bei der Linkpopularität um die Vernetzung von Seiten und Dokumenten untereinander. Hier ist jedoch weniger die absolute Zahl der eingehenden Verlinkungen relevant, als die Bedeutung bzw. Wichtigkeit des einzelnen Dokuments, welches auf die Seite verlinkt. Das heißt, ein aus Sicht von Google relevantes Dokument vererbt einen Teil seiner Relevanz (und damit einen Teil seines PageRanks) auf das verlinkte Dokument, ohne dabei selbst seine Relevanz (oder seinen PageRank) einzubüßen.[30] Je mehr Backlinks jedoch von einer Seite abgehen, desto weniger des PageRanks wird an die einzelnen verlinkten Seiten vererbt. Der PageRank wird quasi unter den verlinkten Seiten aufgeteilt. Grund hierfür ist die Annahme des sogenannten Random Surfers, der zufällig ohne auf den inhaltlichen Zusammenhang achtend, auf jeweils einen Link auf einer Seite klickt. Somit würde die Wahrscheinlichkeit einem bestimmten Backlink zu folgen sinken, je mehr Links auf der Webseite existieren.[33]


Der PageRank-Algorithmus ist wie folgt aufgebaut: PR(A) = (1 − d) + d(PR(T1) / C(T1) + ... + PR(Tn) / C(Tn))[33]

  • PR(A) ist der PageRank von Seite A
  • PR(Tn) ist der PageRank der Seiten von denen ein Backlink auf Seite A zeigt
  • C(Tn) ist die Gesamtzahl der Backlinks auf Seite Tn
  • d ist ein Dämpfungsfaktor der ca. bei 0,85 liegt und dafür sorgt, dass nicht nach mehreren Iterationen alle Webseiten einen PageRank von 10 haben[34]


Im Folgenden wird das Vorgehen bei der PageRank-Berechnung nochmal erläutert:[30]

  1. Alle Webseiten werden mit einem Wert initialisiert, wobei der Startwert aufgrund des konvergierenden Algorithmus irrelevant ist. Der Startwert hat nur auf die Geschwindigkeit einer guten Konvergenz Einfluss.
  2. Der PageRank jeder Seite, die einen Backlink auf die eigene Seite gesetzt hat, wird ermittelt und durch die jeweilige Anzahl der ausgehenden Links dividiert.
  3. Die Berechnung des eigenen PageRanks kann nun auf Basis der PageRanks der Backlinks berechnet werden.
  4. Ab dem zweiten Schritt werden die Berechnungen so oft wiederholt, bis der PageRank aller Seiten konvergiert ist.

6.2.3 Anchor Text

Bei Ankertexten (in der Fachsprache auch als Anchor Text bezeichnet) handelt es sich um ein wichtiges Kriterium für die Bewertung einer Webseite. Wenn auf einer Seite ein Link auf eine andere Seite gesetzt wird, dann werten Suchmaschinen den für den Link verwendeten Text als Kurzbeschreibung. Dies hat den Grund, dass die Anchor Texte oft eine genauere Beschreibung einer Seite liefern, als die Seite selbst. Es entspricht also einer Art Empfehlung für die Seite. Zudem geben diese Links Hinweise auf nicht indexierbare Seiten, die zum Beispiel nur aus Bildern oder Rich-Media Inhalten bestehen. Das hat zur Folge, dass Suchmaschinen in ihren Ergebnisseiten auch Webseiten ranken können, die nicht crawlbar sind. Wichtig zu beachten ist, dass Ankerlinks immer eine kurze und prägnante Beschreibung der verlinkten Webseite liefern. Links die zum Beispiel mit "hier" gekennzeichnet sind, sollten daher vermieden werden.[33]

6.2.4 Verzeichnisstruktur

Abbildung 4: Mögliche Verzeichnisstruktur eines Webservers
Abbildung 4: Mögliche Verzeichnisstruktur eines Webservers[35]
Soll eine Webseite SEO-optimiert werden, spielen auch konzeptionelle Dinge wie die Ordnerstruktur auf dem Webserver eine nicht unerhebliche Rolle. Suchmaschinen Crawler haben die Angewohnheit eine Webpräsenz nie ganz zu crawlen. Meist werden immer nur ein paar wenige Seiten gecrawlt und irgendwann kommt der Robot zurück um weitere Seiten zu indexieren. Dies geschieht vor allem aus Performancegründen. Das gesamte World Wide Web ist sehr groß und selbst Suchmaschinen wie Google haben nur einen Bruchteil aller Seiten und Dokumente indexiert. Um nun möglichst viele Dokumente in den Index aufnehmen zu können und um diese dabei auch noch aktuell zu halten, müssen sich Suchmaschinenbetreiber Kriterien überlegen, anhand derer eine Seite häufiger oder eher selten gecrawlt wird. Hier kommt unter anderem die Verzeichnistiefe zum tragen. Es wird davon ausgegangen, dass die wichtigste Seite einer Webpräsenz immer die Startseite ist. Daher kehrt der Suchmaschinencrawler hier besonders häufig hin zurück. Umso tiefer es in die Verzeichnisse geht, desto weniger relevant erscheinen die Seiten. Aus diesem Grund ist eine flache Ordnerstruktur, einer tiefen vorzuziehen. Ein Bespiel hierfür ist in Abbildung 4 dargestellt. Auf der linken Seite ist eine unoptimierte Ordnerstruktur mit vielen Kategorie- und Unterordnern abgebildet. Auf der rechten Seite hingegen, ist die Ordnerstruktur flacher und somit optimierter. Nach Möglichkeit sollten Ordner und Dokumente auch nicht mehr umbenannt werden, denn dies hat zur Folge, dass Verlinkungen aus der organischen Suchergebnissen zumindest temporär ins Leere laufen, zum anderen begünstigt es die Duplicate Content Problematik (siehe hierzu Abschnitt 6.3.2 Duplicate Content).[36] Gibt es Dokumente und Verzeichnisse, die von den Suchmaschinen nicht erfasst werden sollen, hat der Optimierer die Möglichkeit dies anhand einer Datei im Wurzelverzeichnis des Webservers, der sogenannten Robots.txt, zu unterbinden. Die Robots.txt bzw. das Robots Extension Protocol sollte jedoch nicht dazu verwendet werden Informationen zu verstecken. Der Grund liegt darin, dass die Robots.txt für jeden öffentlich einsehbar ist und "bösartige" Crawler, die die Webseiten nach Sicherheitslücken untersuchen, sich nicht an die Anweisungen in der Datei halten.[37] Ein weiterer wichtiger Aspekt ist die Ordner- und Dateinamenskonvention. Egal ob es sich um Dokumente, Bilder, Flash oder andere Multimedia-Inhalte handelt, es gibt auch bei der Namensgebung ein paar Besonderheiten. So sollte jede Datei möglichst einen "sprechenden" Namen enthalten, das heißt einen Namen anhand dessen der Inhalt interpretiert werden kann. Zum anderen sollte darauf geachtet werden, den Bindestrich als Trennzeichen bei mehreren zusammengehörigen Begriffen innerhalb einer Datei zu verwenden. Als Beispiel kann die URL dieses Artikels herangezogen werden.

Beispiel: www.uwe-kern.de/winfwiki/index.php/Suchmaschinenoptimierung_-_Aspekte_einer_SEO-konformen_Webseite


Der Dokumentenname des Artikels setzt sich aus den Begriffen "Suchmaschinenoptimierung", "Aspekte", "einer", "SEO-konformen" und "Webseite" zusammen. Zur Trennung der einzelnen Begriffe wird jeweils ein Unterstrich verwendet. Dieses Zeichen ist für den angedachten Zweck jedoch eher suboptimal, da Google einen Unterstrich zwischen zwei Wörtern als zusammengehörigen Begriff interpretiert.[38]

Google interpretiert die URL wie folgt: www.uwe-kern.de/winfwiki/index.php/Suchmaschinenoptimierung-AspekteeinerSEO-konformenWebseite


Die einzelnen Begriffe werden aneinandergereiht, wodurch der Sinn der Wörter verloren geht. Aus diesem Grund sollten einzelne Wörter immer durch einen Bindestrich getrennt werden.

So sollte es im Optimal Fall aussehen: www.uwe-kern.de/winfwiki/index.php/Suchmaschinenoptimierung-Aspekte-einer-SEO-konformen-Webseite

6.2.5 Sitemap-Protokoll

Um den Suchmaschinen die Indexierung der Webpräsenz zu erleichtern, können Webmaster das Sitemap-Protokoll verwenden. Basis ist eine XML-Datei, die alle URLs und zudem ein paar weitere Informationen zu den einzelnen Seiten enthält. Beispielsweise kann die Änderungsfrequenz und die Priorität angegeben werden. Die Änderungsfrequenz bietet der Suchmaschine Hinweise darauf, wie oft eine Seite aktualisiert wird und wann es lohnt, diese Seite das nächste Mal zu crawlen. Grundsätzlich sind solche Angaben nicht als Befehl zu verstehen. Suchmaschinen können, müssen jedoch diese Informationen nicht nutzen. Das gleiche gilt auch für die Priorität. Es kann mittels eines Wertes zwischen 0.0 und 1.0 die Wichtigkeit der einzelnen Seiten innerhalb der Webpräsenz definiert werden. Die Verwendung des Sitemap-Protokolls bietet sich vor allem bei großen Webpräsenzen an, da Suchmaschinen bei kleineren Seiten in der Regel keine Probleme mit der Indexierung haben. Eine Sitemap sollte nicht mehr als 50.000 URLs enthalten oder größer als 10 MiB sein. Hat der Webauftritt mehr URLs, können mehrere Sitemaps abgelegt werden. Die einzelnen XML-Sitemaps werden dann in einem XML-Sitemap-Index erfasst, so dass die Suchmaschine erkennen kann, dass die URLs über mehrere Dateien verteilt sind.[39]

6.3 Fehlervermeidung

Neben den einzelnen Maßnahmen, die zur Optimierung der Webseiten und somit zur Steigerung der Relevanz führen, gibt es auch solche, die möglichst vermieden werden sollten, da sie sich kontraproduktiv auswirken können. So kann es Probleme aufgrund von Technologien geben, die nur rudimentär oder gar nicht von Suchmaschinen interpretiert werden, bis hin zu Maßnahmen, die von Suchmaschinen als Spam klassifiziert und unter Umständen mit einer Löschung aus dem Index abgestraft werden. Die kritischen Punkte und Maßnahmen werden in den folgenden Abschnitten genauer erläutert.

6.3.1 Multimedia

Häufig wird zur optischen Aufwertung einer Seite multimedialer Content eingebunden. Oft werden diese auch als sogenannte Rich Internet Applications oder Rich Interactive Applications (RIA) bezeichnet. Dabei handelt es sich um Technologien, die den Einsatz von Video, Audio und Animationen ermöglichen, wie z. B. Adobe Flash[40], Silverlight[41] von Microsoft oder Java-Applets[42]. All diese Techniken haben das Ziel die Webseite gestalterisch aufzuwerten und für einen Besucher interessanter zu machen. Problematisch ist jedoch, dass Suchmaschinen grundsätzlich solche Inhalte nicht durchsuchen können. Die Crawler sind stets auf Inhalte in Form von Text angewiesen, da sie nur diese Form von Inhalt indexieren können. Zwar gibt es mittlerweile auch Bestrebungen Flash-Inhalte zu crawlen, jedoch kann auch innerhalb einer Flash-Datei nur der textliche Inhalt ausgewertet werden. Zudem steckt diese Technik derzeit noch in den Kinderschuhen und wird bisher von fast keiner Suchmaschine eingesetzt. Auch die JavaScript- oder die auf JavaScript und XML basierende AJAX-Technologie stellt Suchmaschinen vor Probleme. Zwar kann mit diesen Konzepten zur Webprogrammierung eine Form der Interaktivität erzeugt werden, jedoch bleiben die hierbei hinterlegten Inhalte für den Suchmaschinen Crawler unsichtbar. So kann dies bei weniger wichtigen Inhalten unkritisch sein, wenn jedoch Hyperlinks oder gar die gesamte Navigation auf JavaScript basiert, sollte zumindest alternativ über eine reine HTML-Linkstruktur nachgedacht werden. Dann ist auch die Suchmaschine in der Lage, die dahinterliegenden Seiten zu erreichen.[43]

6.3.2 Duplicate Content

Als Duplicate Content werden gleiche oder sehr ähnliche Inhalte, die mehrfach im Web publiziert wurden, bezeichnet. Mit gleich ist dabei eine exakte inhaltliche Gleichheit gemeint. Letztendlich tritt dieses Problem immer dann auf, wenn Webseiten einfach kopiert werden und bestenfalls noch kleinere Anpassungen am Content der Seite vorgenommen werden. So tritt diese Problematik häufig dann auf, wenn Webpräsenzen zum Beispiel eine andere Domain bekommen. Kritisch daran ist, dass Suchmaschinen eine der beiden gedoppelten Seiten aus dem Index verbannen. Umso schlechter, wenn es sich dabei ausgerechnet um die falsche Seite handelt. Um solche Probleme, wie z.B. die des Domainwechsels zu vermeiden, können sogenannte Weiterleitungen eingesetzt werden. Zu empfehlen ist hier die permanente serverseitige Weiterleitung (Status Code 301). Bekommt ein Suchmaschinen Crawler statt dem üblichen Status 200 einen Code 301, weiß die Suchmaschine, das die angeforderte Seite nur noch unter der neuen Adresse erreichbar ist und ändert die Einträge im Index entsprechend ab.[44]

6.3.3 Dynamische Seiten

Dynamische Seiten sind zunächst Inhalte, die mit dem Aufruf automatisch generiert werden. Dies geschieht mithilfe eines Content-Management-Systems (CMS), welches die Seite in Echtzeit (on-the-fly) erzeugt. Ein großer Vorteil dieser Systeme liegt darin, dass Inhalte, Struktur und Layout unabhängig voneinander verwaltet werden können. So ist das erstellen neuer Seite auf Basis von Templates, also Seitenvorlagen schnell möglich. Auch können inhaltliche Änderungen ohne großen Aufwand und ohne Fachwissen in Bezug auf Webprogrammierung durchgeführt werden. Suchmaschinen haben grundsätzlich einige Probleme mit solchen Seite umzugehen.[45] Dies hat zum einen den Grund, dass Content-Management-Systeme häufig deshalb eingesetzt werden, weil sich Inhalte ständig ändern. Dies ist nicht im Sinne der Suchmaschine, da die gecrawlten Seiten möglicherweise noch unter alten Suchbegriffen zu finden sind, diese aber mittlerweile einen anderen Content enthalten oder nicht mehr erreichbar sind. Ein weiterer Grund ist die Tatsache, dass solche Systeme häufig dann eingesetzt werden, wenn Inhalte mehrfach verwendet werden sollen. Das heißt, es gibt mehrere Seiten mit ähnlichen oder teilweise gleichen Inhalten. Die Suchmaschinen möchten den Benutzern jedoch möglichst viele Seiten-Unikate anbieten. Oft werden CM-Systeme (bei denen es sich oft um Webshops handelt) anhand der Parameter in der URL erkannt. Suchmaschinen erkennen Sie anhand der Sonderzeichen wie zum Beispiel "&" oder "?". Dies deutet immer daraufhin, dass die Inhalte nicht auf dem Webserver als Datei abgelegt sind, sondern dynamisch aus einer Datenbank geladen werden. Mittlerweile werden solch generierte Seiten, wenn sie nicht zu viele Variablen und Parameter in der URL mitführen, auch in den Suchmaschinen Ergebnisseiten angezeigt. Als Richtwert gilt, dass nicht mehr als zwei Parameter angehängt werden sollten. Sollte dies nicht vermeidbar sein, gibt es noch die Möglichkeit ein spezielles Tool zum Umschreiben der URL einzusetzen. Es handelt sich dabei um eine Applikation, die jede URL der angeforderten Seite nach bestimmten Regeln umschreibt.[46]


Beispiel einer URL mit dynamischer Adresse: www.beispiel-shop.de/detailseite.jsf?produktid=3&farbid=1

Beispiel einer URL die durch ein Tool umgeschrieben wurde: www.beispiel-shop.de/detailseite/dvd-player-schwarz.jsf


Bei Einsatz eines Apache[47] Webservers kann hierfür das kostenlose Tool mod_rewrite[48] verwendet werden. Handelt es sich bei dem Webserver um einen Internet Information Server (IIS)[49] von Microsoft, muss eine kostenpflichtige Applikation erworben werden. Als Beispiel sind hier das Internet Server API (ISAPI)[50] Tool von Helikon Tech und das IISRewrite[51] Tool von QwerkSoft zu nennen. [46]

6.3.4 Keyword Stuffing

Keyword Stuffing, oft auch als Keyword Spamming bezeichnet ist eine Methode zur Erhöhung der Keyword Dichte einer Seite.[52] Dabei konnte gerade in den Anfängen von Suchmaschinen anhand einfacher Tricks das Ranking in der organischen Suche manipuliert werden. Häufig wurde das Keyword, auf welches die Seite optimiert werden sollte, zusammenhangslos immer wieder auf die Seite geschrieben. Die Schriftfarbe für das Keyword war weiß, genauso wie die Farbe des Hintergrunds. So war es für Suchmaschinen lesbar, ein menschlicher Besucher hingegen hat davon in aller Regel nichts bemerkt. Das Problem wurde jedoch schnell erkannt und die Algorithmen entsprechend angepasst, so dass eine solche Manipulationsmethode nicht mehr von Erfolg gekrönt ist. Genauso verhält es sich mit der Wiederholung des Keywords innerhalb des Contents. Wie schon in Abschnitt 6.1.3 "Keywords" aufgezeigt, sollte die Keyword Dichte 6% bis 8% nicht übersteigen, da mehr ebenfalls schon als Keyword Stuffing aufgefasst und von den Suchmaschinen entsprechend abgestraft werden kann.[53]

6.3.5 Doorway Pages

Bis zum Jahr 2006 waren sogenannte Doorway Pages, oft auch als Brückenseiten bezeichnete, vorgelagerte Startseiten im World Wide Web weit verbreitet. Die Idee dahinter ist eine für Suchmaschinen optimierte Webseite zu schalten, die ein gutes Ranking und damit eine höhere Positionierung in den Suchmaschinenergebnisseiten erreicht. Ruft ein Benutzer diese Seite auf, bekommt er diese in aller Regel gar nicht zu sehen, sondern wird direkt (meist mittels JavaScript) auf die eigentliche Startseite weitergeleitet. Der Suchmaschinen-Crawler hingegen kann eine skriptbasierte Weiterleitung nicht interpretieren und crawlt daher nur die vorgeschaltete, optimierte Startseite. So kann ein besseres Ranking erzielt werden, ohne dass die eigentliche Startseite irgendwelchen Einschränkungen unterliegt. Grundsätzlich gibt es zwei Möglichkeiten, weswegen das Schalten von Doorway Pages häufig praktiziert wird. Zum einen, weil die eigentliche Startseite aus Rich Media Inhalten besteht, mit Frames aufgebaut wurde oder andere Technologien einsetzt, die von den Crawlern nur schwer oder gar nicht erkannt werden; zum anderen, weil der Betreiber der Seite mit anderen Inhalten gefunden werden möchte als die Webseite eigentlich beinhaltet. Der zweite Fall fällt in die Kategorie des klassischen Suchmaschinenspams. Das schalten von Doorway Pages wird durch die Richtlinien der meisten Suchmaschinen untersagt und wird entweder mit einer Minderung der Relevanz oder gar dem Entfernen der Domain aus dem Index bestraft.[54] So wurde im Frühjahr 2006 ein großer Automobilkonzern, der mithilfe von Doorway Pages versuchte sein Ranking zu verbessern, aus dem Google-Index entfernt und der PageRank auf null gesetzt. Dies löste aufgrund des konsequenten Vorgehens seitens Google eine große Resonanz in den Medien aus, wodurch in den darauffolgenden Wochen viele Webseiten, die ebenfalls solche Techniken einsetzten, umgebaut wurden.[55]

6.3.6 Cloaking

Cloaking ist eine unerlaubte Technik zur Suchmaschinenoptimierung, bei der dem Crawler der Suchmaschine eine andere Seite bzw. anderer Inhalt ausgeliefert wird, als dem menschlichen Besucher. Das Ziel ist es ähnlich wie bei den Doorway Pages, die Suchmaschine zu täuschen und durch hoch optimierte Inhalte das Ranking der eigenen Webseite zu verbessern. In diesem Fall handelt es sich jedoch um keine Weiterleitung, sondern um eine gezielte Abfrage, ob es sich um einen Crawler oder einen "normalen" Besucher handelt. Der Besucher bekommt die unoptimierte, häufig mit Rich-Media-Inhalten versehene Seite angezeigt. Die Suchmaschinen Crawlern können solche Inhalte in der Regel nicht interpretieren, daher wird ihnen eine auf die Inhalte optimierte Seite ausgeliefert.[56] Oft wir diese Methode auch mit Agent Delivery beschrieben. Technisch möglich wird dies, indem der Webseiten-Betreiber die IP-Adresse und die Kennung des User-Agents des Besuchers abfragt. Beim User-Agent handelt es sich um ein Client-Programm, welches die Schnittstelle zum Benutzer darstellt. Beispielsweise handelt es sich bei Browsern oder auch E-Mail-Client um User-Agents. Erkennt der Webserver, dass es sich bei dem Request um die Abfrage eines Crawlers handelt, wird der für Suchmaschinen optimierte Inhalt ausgeliefert.[57] Google reagiert auf Cloaking ebenso wie auf Doorway Pages, entweder mit Abstrafung oder direkt mit einer Index-Löschung.[56]

6.4 Erfolgskontrolle

Abbildung 5: Beispielansicht des Google Analytics Dashboards
Abbildung 5: Beispielansicht des Google Analytics Dashboards[58]
Den Optimierungsmaßnahmen sollten auch immer Erfolgskontrollen folgen. Der Aufwand für eine Suchmaschinen-konforme Webseite macht sich nur dann bezahlt, wenn auch ein Erfolg gemessen werden kann. Denn nur durch eine Überprüfung kann die Wirksamkeit der getroffenen Maßnahmen nachgewiesen werden. Auch können kontraproduktive Maßnahmen durch solche Kontrollen eruiert werden. Wichtig ist daher die Erfolgskontrolle in den Prozess der Optimierung zu integrieren. Die Basis der Kontrolle bilden dabei die Logfiles des Webservers. In den Logfiles werden alle Anfragen (egal ob erfolgreich oder nicht) an den Server gespeichert und diese lassen sich zur Kontrolle auswerten. Folgende Daten können den Logfiles entnommen werden:
  • Wann die Webseite von den Suchmaschinen Crawlern besucht wurde
  • Welche der Crawler besonders häufig da waren
  • Welche Seiten von den Crawlern abgerufen wurden
  • Über welche Suchmaschinen und Suchbegriffe, Besucher auf den Webauftritt kamen
  • Die Anzahl der Besucher, die über bestimmte Links auf die Webseite kamen[59]


Ein typischer Eintrag in einem Logfile kann wie folgt aussehen:

80.132.76.109 - - [06/Feb/2009:14:54:19 +0100]
"GET /Suchmaschinenoptimierung.html HTTP/1.1"
200 40876 "www.google.de/search?q=suchmaschinenoptimierung&start=0"
"Mozilla/5.0 (Windows; U; Windows NT 6.0; de; rv:1.9.0.5)
Gecko/2009011913 Firefox/3.0.6"


Ein solcher Eintrag kann wie folgt interpretiert werden:

  1. 80.132.76.109: Hierbei handelt es sich um die IP-Adresse des anfragenden Rechners.
  2. -: Der Remote Logname, wird in der Regel nicht verwendet daher "-".
  3. -: Benutzername des Remote Users. Dieser wird nur in das Logfile geschrieben, wenn die angeforderte Datei geschützt ist.
  4. [06/Feb/2009:14:54:19 +0100]: Zeitpunkt des Zugriffs.
  5. "GET /Suchmaschinenoptimierung.html HTTP/1.1": Hier wird von der sogenannten "First line of Request" gesprochen, dabei handelt es sich um die eigentliche Anfrage an den Webserver. In diesem Fall wird das Dokument "Suchmaschinenoptimierung.html" angefordert.
  6. 200: Ein Status-Code, der dem Remote-User zurückliefert, dass die Anfrage "OK", also erfolgreich ist.
  7. 40876: Dieser Wert gibt die Größe des angeforderten Dokumentes wieder. In diesem Fall sind es 40.876 Byte.
  8. "www.google.de/search?q=suchmaschinenoptimierung&start=0": Hier bei handelt es sich um den Referer. Dieser gibt an, von wo der Besucher kam. Es ist erkennbar, dass der Benutzer in dem Beispiel über ein Suchergebnis der Google-Suche auf der entsprechenden Seite gelandet ist. Der Referer wurde in diesem Beispiel auf das Wesentliche gekürzt.
  9. "Mozilla/5.0 (...): Dieser Eintrag gibt Auskunft über die verwendete Software, mit der die Anfrage durchgeführt wurde. Es lässt sich aus dem Beispiel entnehmen, dass der Besucher den Firefox Browser (Version 3.0.6) und als Betriebssystem Windows Vista verwendet.


Eine Logfile-Auswertung sollte grundsätzlich über spezielle automatisierte Tools erfolgen, da es sich gerade bei häufig besuchten Webseiten um tausende von Einträgen pro Tag oder Stunde handeln kann. Anhand solcher Programme können auch häufig Statistiken generiert werden, die einen besseren Überblick über die Besucherentwicklung geben. Von einer händischen Auswertung ist aufgrund des Aufwands generell abzuraten. Eine Alternative zu den Serverlogs bilden die sogenannten Zählpixel. Vom Prinzip wird auf jeder einzelnen Seite ein sogenanntes Zählpixel (auch Blindpixel genannt) eingebunden. Dabei handelt es sich um eine kleine transparente Bilddatei (meist nur 1x1 Pixel groß), die bei jedem Aufruf der Seite von einem Server im Internet heruntergeladen wird. Eine Zählpixel-Anwendung ist beispielsweise Google Analytics[60]. In Abbildung 5 ist hierzu eine Beispielauswertung einer Webseite dargestellt. Die Zählpixel-Methode hat gegenüber der Logfile-Analyse einige Vorteile, die jedoch im Rahmen dieser Hausarbeit nicht weiterverfolgt werden.[59]

7 Fazit

Das World Wide Web ist aus dem Alltag gar nicht mehr wegzudenken. Es enthält schier unendlich viele Informationen und ermöglicht den Zugriff auf diese Informationen in einer nie zuvor da gewesenen Geschwindigkeit. Es verbindet zudem die Vorteile der Aktualität mit der geographischen Unabhängigkeit. Grundsätzlich kann von überall auf dieselben Informationen zugegriffen werden (von meist politisch-bedingter Zensur abgesehen). Allerdings bringt die Masse an Dokumenten und Webseiten auch das Problem der Unüberschaubarkeit mit sich. Wenn bestimmte Informationen benötigt werden, bleibt die Frage: Wo danach suchen? Für dieses Problem wurden die Suchmaschinen entwickelt. Das Ziel ist es in kürzester Zeit, möglichst relevante Ergebnisse auf eine Anfrage zu liefern. Dies ist aufgrund des unterschiedlichen Aufbaus von vielen Webseiten ein Problem. Es gilt die benötigten Informationen, die grundsätzlich verfügbar, aber aufgrund der Masse an Dokumenten leicht untergehen, zu finden. Daher mussten viele spezialisierte Suchalgorithmen geschaffen werden, die in der Lage sind relevante von irrelevanten Dokumenten zu unterscheiden. Mittlerweile leisten Suchmaschinen sehr gute Ergebnisse, doch gibt es auch immer noch Optimierungsbedarf. So können die heutigen großen Suchmaschinen zwar eine Syntax, nicht jedoch eine Semantik in dem Gesuchten erkennen. In dieser Hinsicht gibt es bereits heute schon Bestrebungen, Suchmaschinen zu entwickeln, die die Semantik, das heißt die Bedeutung hinter einer Anfrage verstehen können. Noch dominieren jedoch die klassisch-algorithmischen Suchdienste. Und wer heute mit seiner Webpräsenz in den Rankings der großen Suchanbieter wie Google und Yahoo! mit dabei sein möchte, kommt um Optimierungen nicht herum. Suchmaschinenoptimierung heißt Wettrüsten, die Suchalgorithmen verändern sich ständig, wenn oftmals vielleicht auch nur marginal und ohne, dass der Optimierende eine Veränderung bemerkt. Auf Dauer ergeben sich durch die Änderungen jedoch neue Optimierungspotenziale, die nicht verpasst werden sollten. Auch bedeutet dies, dass Dinge, die gestern noch erlaubt waren, morgen schon unerwünscht sein können. Als bestes Beispiel sind hier die Doorway Pages anzuführen, die lange Zeit geduldet und dann zu einem Ausschluss aus dem Suchindex führten. Optimierungen sollten daher immer mit Bedacht durchgeführt werden. Denn eine Webpräsenz ist schnell aus dem Suchindex entfernt, umso schwieriger und kostspieliger ist es sie dort wieder hinein zu bekommen. Es gilt also die Entwicklungen zu beobachten und gegebenenfalls Maßnahmen zu ergreifen. Wer dauerhaft im SEO-Bereich erfolgreich sein möchte, sollte dem Thema die notwendige Relevanz zusprechen und vor stetigen Optimierungen nicht zurückschrecken. Eine Garantie für den Erfolg gibt es jedoch nicht.

8 Fußnoten

  1. Vgl. Lammenett, E. (2006), S. 145
  2. Vgl. Roddewig, S. (2003), S. 230
  3. Vgl. Koch, D. (2007), S. 23
  4. Das Open Directory wird aufgrund seiner Verbindung zum Mozilla Project auch oft als Directory Mozilla (dmoz) bezeichnet.
  5. http://www.dmoz.org
  6. http://www.dmoz.org/about.html
  7. http://de.dir.yahoo.com/
  8. http://suche.web.de/search/dirhp/
  9. http://www.allesklar.de/
  10. Vgl. Koch, D. (2007), S. 22
  11. http://de.yahoo.com/
  12. http://www.google.de/
  13. Vgl. Lewandowski, D. (2005), S. 25 f.
  14. 14,0 14,1 Vgl. Alby, T. et al (2007), S. 53 f.
  15. Vgl. o. V. (2008), http://www.die-barrierefreie-website.de/suchmaschinen/metasuchmaschinen.html, (31.12.2008, 00:52)
  16. Vgl. Sander-Beuermann, W. (1998), http://www.heise.de/ct/98/13/178/, (31.12.2008, 01:01)
  17. http://www.webcrawler.de/webcrawlerde/ws/index
  18. http://metager.de/
  19. Vgl. Hitzler, P. et al (2007), S. 10 ff.
  20. Vgl. o. V.: http://www.semager.de/blog/impressum/was-ist-semager/, (Stand 04.02.2009, 21:34)
  21. In Anlehnung an: Lewandowski, D. (2005), S. 28
  22. Vgl. Lewandowski, D. (2005), S. 27 f.
  23. 23,0 23,1 Vgl. Alby, T. et al (2007), S. 225 f.
  24. 24,0 24,1 24,2 24,3 24,4 24,5 Vgl. Fischer, M. (2006), S. 132 ff.
  25. Vgl. Alby, T. et al (2007), S. 87
  26. Vgl. Alby, T. et al (2007), S. 64 ff.
  27. 27,0 27,1 Vgl. Alby, T. et al (2007), S. 61 ff.
  28. Vgl. Alby, T. et al (2007), S. 77
  29. Vgl. Glöggler, M. (2003), S. 169
  30. 30,0 30,1 30,2 Vgl. Koch, D. (2005), S. 51 ff.
  31. Vgl. Alby, T. et al (2007), S. 224
  32. Vgl. Fischer, M. (2006), S. 163 f.
  33. 33,0 33,1 33,2 Vgl. Brin, S. et al, http://infolab.stanford.edu/~backrub/google.html, (04.01.2009, 01:15)
  34. Vgl. Fischer, M. (2006), S. 170
  35. In Anlehnung an: Alby, T. et al (2007), S. 75 f.
  36. Vgl. Alby, T. et al (2007), S. 74 ff.
  37. Vgl. o. V.: http://www.robotstxt.org/robotstxt.html, (Stand 02.02.2009, 21:47)
  38. Vgl. o. V.: http://www.google.com/support/webmasters/bin/answer.py?hl=de&answer=76329, (Stand 31.01.2009, 16:38)
  39. Vgl. Alby, T. et al (2007), S. 84 f.
  40. http://www.adobe.com/de/products/flashplayer/
  41. http://msdn.microsoft.com/de-de/silverlight/bb419316.aspx
  42. http://java.sun.com/applets/
  43. Vgl. Fischer, M. (2006), S. 206 bis 211
  44. Vgl. Alby, T. et al (2007), S. 101 f.
  45. Vgl. Lewandowski, D. (2005), S. 54 f.
  46. 46,0 46,1 Vgl. Fischer, M. (2006), S. 212 ff.
  47. http://www.apache.org/
  48. http://www.modrewrite.de/
  49. http://www.iis.net/
  50. http://www.isapirewrite.com/
  51. http://www.qwerksoft.com/products/iisrewrite/
  52. Vgl. Wiedmaier, P. (2007), S. 114 ff.
  53. Vgl. Fischer, M. (2006), S. 224
  54. Vgl. Fischer, M. (2006), S. 225 f.
  55. Vgl. Alby, T. et al (2007), S. 105
  56. 56,0 56,1 Vgl. o. V.: http://www.google.de/support/webmasters/bin/answer.py?answer=66355, (Stand 02.01.2009, 14:18)
  57. Vgl. Fischer, M. (2006), S. 226 f.
  58. In Anlehnung an: Alby, T. et al (2007), S. 131
  59. 59,0 59,1 Vgl. Alby, T. et al (2007), S. 145 ff.
  60. http://www.google.com/analytics/de-DE/

9 Literatur- und Quellenverzeichnis

Alby, Tom (2007) Alby, Tom (2007); Karzauninkat, Stefan: Suchmaschinenoptimierung: Professionelles Website-Marketing für besseres Ranking, 2. Auflage, Carl Hanser Verlag, München 2007, ISBN 978-3-446-41027-5
Brin, Sergey Brin, Sergey; Page, Lawrence: The Anatomy of a Large-Scale Hypertextual Web Search Engine, http://infolab.stanford.edu/~backrub/google.html, (04.01.2009, 01:15)
Erlhofer, Sebastian (2008) Erlhofer, Sebastian (2008): Suchmaschinenoptimierung für Webentwickler. Das umfassende Handbuch, 4. Auflage, Galileo Press, Bonn 2008, ISBN 978-3-8362-1233-5
Fischer, Mario (2006) Fischer, Mario (2006): Website Boosting. Suchmaschinen-Optimierung, Usability, Webseiten-Marketing, Mitp-Verlag, Heidelberg 2006, ISBN 978-3-8266-1586-3
Glöggler, Michael (2003) Glöggler, Michael (2003): Suchmaschinen im Internet. Funktionsweisen, Ranking Methoden, Top Positionen, Springer, Berlin 2003, ISBN 978-3-5400-0212-3
Hitzler, Pascal (2007) Hitzler, Pascal (2007); Krötzsch, Markus; Sebastian, Rudolph; Sure, York: Semantic Web: Grundlagen, Springer, Karlsruhe 2007, ISBN 978-3-5403-3993-9
Koch, Daniel (2007) Koch, Daniel (2007): Suchmaschinenoptimierung: Website-Marketing für Entwickler, Addison-Wesley, München 2007, ISBN 978-3-8273-2469-6
Lammenett, Erwin (2006) Lammenett, Erwin (2006): Praxiswissen Online-Marketing: Affiliate- und E-Mail-Marketing, Keyword-Advertising, Online-Werbung, Suchmaschinen-Optimierung, Gabler, Wiesbaden 2006, ISBN 978-3-8349-0273-3
Lewandowski, Dirk (2005) Lewandowski, Dirk (2005): Web Information Retrieval: Technologien zur Informationssuche im Internet, Deutsche Gesellschaft f. Informationswissenschaft u. Informationspraxis, Frankfurt am Main 2005, ISBN 978-3-9254-7455-2
o. V. o. V.: About /robots.txt In a nutshell, http://www.robotstxt.org/robotstxt.html, (02.02.2009, 21:47)
o. V. o. V.: Cloaking, irreführende JavaScript-Weiterleitungen und Brückenseiten, http://www.google.de/support/webmasters/bin/answer.py?answer=66355, (Stand 02.01.2009, 14:18)
o. V. o. V.: Erstellen einer Google-freundlichen URL-Struktur, http://www.google.com/support/webmasters/bin/answer.py?hl=de&answer=76329, (Stand 31.01.2009, 16:38)
o. V. o. V.: Metasuchmaschinen, 01.07.2008, http://www.die-barrierefreie-website.de/suchmaschinen/metasuchmaschinen.html, (31.12.2008, 00:52)
o. V. o. V.: Was ist Semager, http://www.semager.de/blog/impressum/was-ist-semager/, (Stand 04.02.2009, 21:34)
Roddewig, Sven (2003) Roddewig, Sven (2003): Website Marketing: So planen, finanzieren und realisieren Sie den Marketing-Erfolg Ihres Online-Auftritts, Vieweg & Sohn Verlagsgesellschaft mbH, Braunschweig/Wiesbaden 2003, ISBN 978-3-5280-5808-1
Sander-Beuermann, Wolfgang (1998) Sander-Beuermann, Wolfgang (1998): Suchen im Web - Schatzsucher: Die Internet-Suchmaschine der Zukunft, 1998, http://www.heise.de/ct/98/13/178/, (31.12.2008, 01:01)
Wiedmaier, Philipp (2007) Wiedmaier, Philipp (2007): Optimierung für Suchmaschinen am Beispiel von Google: Grundlagen, Ranking, Optimierung, Vdm Verlag, Saarbrücken 2007, ISBN 978-3-8364-0516-4
Persönliche Werkzeuge