Dies ist ein oft unterschätztes oder sogar vergessenes Thema, wenn's um den Bau und die Veröffentlichung einer Webseite geht. Auch ich habe dem lange kaum Beachtung geschenkt, doch irgendwann kommt halt bei 'fast' jedem die Einsicht, so auch bei mir. Und von den Auswirkungen nach der Umsetzung auf dieser Seite war ich einfach nur noch überwältigt!

 

Also. Der erste Schritt ist noch nicht mit all zuviel Arbeit verbunden, denn es geht nur mal drum, die Basics kennen zu lernen. Und wie so oft bietet sich da Wikipedia an. Das Thema ist hier ausführlich, aber trotzdem aufs Wesentliche beschränkt beschrieben (wiederspricht sich diese Aussage grad? egal!).

 

Bei der Suche nach Hilfsmitteln (ich bin ne faule Sau! Wenn irgendwas mir Arbeit abnimmt, dann setze ich das auch ein!) bin ich dann auf die Seite von Seitwert.de gestossen. Hier kann man seine Webseite analysieren lassen (kostenlos) und bekommt anschliessend gut erläuterte Ergebnisse zurück. Und dank den Hilfetexten hat man in wenigen Stunden seine Seite massiv optimiert!

 

Und gleich noch ein Test! W3C ist ein Gremium, dass sich zum Zeil gesetzt hat, die WWW-Programmierung zu standardisieren. Daraus erfolgt logischerweise auch eine Optimierung des gesammten Codes im WWW. Wer sich also an ihre Regeln hält, optimiert so seine Seite für Browser, WWW-Software und auch für Suchmaschinen. Und letzteres wollen wir ja gerade erreichen. Bequemerweise bietet W3C einen Validator an, mit dem man seine Webseite nach nicht konformen Stellen scannen lassen kann, und auch hier wird im Ergebnis gleich erklärt, was man anpassen muss.

 

So, jetzt haben wir ne ganze Menge Testergebnisse, die wir auswerten und umsetzen müssen. Wer HTML-Kenntnisse hat, sollte damit wenig Probleme haben, ansonsten hilft SelfHTML weiter.

Die Fehler vom W3C-Test zu korrigieren ist reine Fleissarbeit. Leider lassen sich gerade bei CMS manchmal nicht alle Fehler beseitigen. Dies ist allerdings nicht allzu tragisch, denn auch minimieren kann eine Lösung sein. Nach meinen Erfahrungen reicht es, die Fehlerzahl auf ca. <=5 zu reduzieren.

Also nächstes nehmen wir uns die META-Tags "keywords" und "description" vor. Die keywords werden zwar von vielen Suchmaschinen nicht mehr ausgewertet, aber trotzdem,  auch hier macht eine Optimierung Sinn. Früher galt hier "viel ist mehr", aber heute beschränkt man sich auf 10 keywords, nicht mehr, aber auch nicht weniger. Ebenfalls bei der META-Description gilt es sich in Bescheidenheit zu üben. Hier sind  170 Zeichen das Optimum, weil Google genau diese Anzahl verwendet. Als Minimum gilt hier ein Wert von ca. 60 Zeichen.

Richtig schwierig wirds eigentlich erst jetzt. Denn was jede Seite braucht, um in einer Suchmaschine möglichst weit oben in den Ergebnissen zu stehen, sind Backlinks! Und zwar ne ganze Menge Backlinks! Backlinks sind Verweise von anderen Seiten auf die eigene. Und je besser die verweisende Seite bewertet ist, um so wertvoller ist der Backlink, denn anhand der Anzahl Backlinks und der Bewertung der Seite, woher der Backlink stammt wird die eigene Seite von den Suchmaschinen eingestuft. Also gilt es, möglichst viele Backlinks von möglicht hoch bewerteten Seiten zu ergattern.

ACHTUNG!!! Die meisten Suchmaschinen erkennen heute gefakte Backlinks! Also lasst euch nicht auf irgendwelche dubiosen Angebote ein!

Hier können Social Bookmarks und Webkataloge hilfreich sein. Auch ein Linktausch mit ausgewählten Seiten ist nicht zu verachten, aber bitte immer vorher die Seite gut studieren, denn Backlinks von unseriösen Seiten können zu einer massiven Spamflut führen!

Bei einigen Suchmaschienen wie Google oder Yahoo! kann man Sitemaps im XML-Format einreichen, die den Bots beim Crawlen behilflich sind. Und wenn wir schon bei den Bots (Roboter - die von den Suchmaschinen eingesetzten Programme zum Scannen der Seiten) sind: in der Datei robots.txt kann man festhalten, welche Verzeichnisse auf dem eigenen Server die Bots nicht durchsuchen sollen.

Zu guter letzt widmen wir uns noch kurz den Rankings. Bekannt sind der Pagerank von Google und in letzter Zeit immer mehr auch derjenige von Alexa. Der Google-Pagerank ist eigentlich nicht weiter beeinflussbar, als damit, was wir bisher getan haben. Der Alexa-Rank hingegen können wir auf einfachste weise verbessern. Einfach die Alexa-Toolbar installieren und ab und zu, oder besser so oft wie möglich die eigene Webseite besuchen. So steigt die Seite immer weiter nach oben.

 

Und somit wäre das Thema SEO abgeschlossen... nee, stimmt natürlich nicht, denn man findet immer wieder Details, die noch verbessert werden können, insofern, dass man von Zeit zu Zeit mal den Seitwert-Check lauffen lässt. Und das absolut Wichtigste zum Schluss: mehr Content (Inhalt) und vorallem aktualisierter Content werten eine Seite am allerbesten auf, denn das ist das, was die Besucher mitbekommen und sie zur Wiederkehr animiert!