Dynamische Websites optimiert

Suchmaschinenfreundliche URLs

Skript-generierte URLs dynamischer Websites sind Gift für jede Suchmaschine. Die Adressen werden oft nicht oder nicht immer korrekt gecrawlt, entsprechend schlecht ist das Ranking. Ein paar Tricks und zusätzliche Tools helfen, die Problem-URLs suchmaschinenoptimiert und lesefreundlich anzupassen.

  1. Suchmaschinenfreundliche URLs
  2. Teil 2: Suchmaschinenfreundliche URLs
Suchmaschinenfreundliche URLs

© Archiv

Suchmaschinenfreundliche URLs

Dynamische Websites optimiert

Skript-generierte URLs dynamischer Websites sind Gift für jede Suchmaschine. Die Adressen werden oft nicht oder nicht immer korrekt gecrawlt, entsprechend schlecht ist das Ranking. Ein paar Tricks und zusätzliche Tools helfen, die Problem-URLs suchmaschinenoptimiert und lesefreundlich anzupassen.

Suchmaschinenfreundliche URLs

© Archiv

Ein oft unterschätztes Kriterium für die Gewichtung der Suchergebnisse für eine Website ist die komplette URL. Diese setzt sich aus dem Domain-Namen, der Verzeichnisstruktur und dem Dateinamen zusammen. Beachtet man einige grundsätzliche Richtlinien, so sind URLs statischer Websites kein Problem für Suchmaschinen. Oberstes Prinzip ist es dabei immer, aussagekräftige, "sprechende" Namen zu verwenden - optimalerweise in allen Teilen der URL. Besonders gut kommt es bei Google und Co an, wenn direkt in den URLs Keywords eingesetzt werden.

Diese Prinzipien stoßen bei dynamischen Websites, wie sie von Online-Shops, Blogs oder CM-Systemen generiert werden, an ihre Grenzen. Dynamische Anwendungen erzeugen Seiten zur Laufzeit aus einer Datenbank heraus. Die Anfragen an die serverseitigen Programme werden dabei oft über Parameter in der URL gesteuert.

Das Ergebnis sind dann die typischen "Rattenschwanz URLs" nach dem Muster www.meineseite.de/index.php?option=com_content&task=view&Itemid=123. Solche Adressen haben keinerlei Aussagekraft bezüglich des Inhaltes. Wer könnte schon aufgrund einer solchen URL schließen, dass der Inhalt des Artikels sich zum Beispiel mit Klimaanlagen befasst?

Viel schlimmer aber: Diese Form von URLs wird von Suchmaschinen skeptisch betrachtet und zum Teil gar nicht indiziert. Schließlich ändern sich dynamische Seiten recht schnell, der Inhalt ist in Kürze veraltet und der Suchtreffer verweist ins Nirwana oder auf eine ganz andere Seite als die, die gecrawlt wurde.

Die Problemzonen

Verdächtig sind Suchmaschinen bereits Dateiendungen, die nicht mit .htm oder .html enden, sondern beispielsweise mit .php oder .asp. Diese Extensionen bezeichnen Dateien, die ein Skript serverseitig ausführen und die HTML-Seite erst generieren, bevor sie dann zum Browser geschickt wird.

Suchmaschinenfreundliche URLs

© Archiv

Das "Schweizer Taschenmesser" der URL-Manipulation: Die Dokumentation zu mod_rewrite.

Die roten Warnlampen gehen jedoch spätestens dann richtig an, wenn eine URL weitere Indikatoren für Dynamik enthält - etwa die Angabe eines cgi-bin-Verzeichnisses oder von CGI-Escape-Zeichen wie ?, &, = mit angehängten Parametern. Dies zeigt eindeutig auf serverseitige Skriptfunktionalität.

Besonders problematisch sind Session-IDs nach dem Muster: www.xyz.de/index.php? sid=4234JENV3434. Diese werden von vielen Shop-Systemen, E-Commerce-Seiten oder auch normalen Webseiten beim ersten Seitenaufruf vergeben. Die ID wird an die URL angehängt und von Link zu Link weitergegeben So lässt sich ein Besucher über viele Seiten hinweg identifizieren. Das Problem: Die ID bleibt nur für einen Besuch gültig, beim nächsten Mal wird wieder eine neue vergeben.

Session-IDs sind Suchmaschinen-Robots ein Greuel. Denn bei jedem Besuch finden sie die Seiten, die sie bereits indexiert haben, unter einer neuen Adresse mit einer neuen Session-ID vor. Google nimmt URLs mit Session-ID deshalb nicht in den Index auf. Zwar finden sich immer mal wieder Seiten mit SIDs an guter Position. Doch die offizielle Google-Richtlinie, welche empfiehlt, auf Session-IDs zu verzichten und das Spidern von id= verneint, besteht nach wie vor.

Zur Ehrenrettung muss gesagt werden: Viele Suchmaschinen sind tatsächlich in der Lage, dynamisch erzeugte Seiten zu indizieren und in den Index aufzunehmen. Doch gewisse Schwierigkeiten bestehen immer - etwa, wenn die Anzahl der übergebenen Parameter zu groß wird. So indizieren Yahoo, MSN und Google etwa dynamisch erzeugte Dokumente nur, wenn die Wertigkeit der Seite hoch genug ist und die Anzahl der Parameter eine gewisse Grenze nicht überschreitet. Google beispielsweise empfiehlt, nur zwei Parameter einzusetzen.

Königsweg mod_rewrite

Wer auf der sicheren Seite sein will, sollte dafür sorgen, dass auch dynamische Sites mit aussagefähigen statischen URLs angezeigt werden. Solche suchmaschinenfreundlichen URLs - kurz SEF für "Search Engine friendly" - haben zudem positive Nebeneffekte. Neben einem verbesserten Ranking erhöhen sie auch die Lesbarkeit und Kommunizierbarkeit durch die Nutzer.

Für die Erzeugung von SEF-URLs gibt es mehrere Methoden. Der Königsweg für gute Adressen ist das Modul mod_rewrite des Apache-Webservers. Bei dieser Methode bleiben die Parameter in der URL bestehen, aber deren Syntax wird so geändert, dass keine Zeichen vorkommen, die auf dynamische Websites hinweisen.

Was ist das Geheimnis von mod_rewrite? mod_rewrite ermöglicht es, beliebige URLs mit so genannten regulären Ausdrücken umzuschreiben. Den Besuchern und somit auch den Crawlern der Suchmaschinen werden statt dynamischen, parametrisierten Adressen statische HTML-Dokumente vorgetäuscht. Am CM-System oder Shop muss selbst nichts geändert werden. Beispielsweise wird so aus

"/index.cfm?action=shownews&newsid=?204"
der String "/index.cfm/action/?shownews/newsid/204.htm"
oder ?"/index.cfm/action/shownews/newsid/?204/".

Eine solche Syntax verwendet beispielsweise Amazon - dadurch werden alle Buchseiten von Amazon in den Suchmaschinen erfasst, obwohl die Seiten dynamisch generiert werden.

Viele, allerdings nicht alle Webhoster, stellen das mod_rewrite-Modul bereit. Ob dies der Fall ist, lässt sich mit einer einfachen PHP-Datei überprüfen. Speichern Sie hierfür die Datei mit dem Inhalt

<?php phpinfo(); ?>

auf dem Server ab. Nach dem Aufruf der Datei werden im Browser alle Server-Informationen angezeigt. Mit der Tastenkombination Strg+F öffnet sich ein Fenster, in dem Sie nach "mod_rewrite" suchen können. Befindet sich das Modul in der Liste der aktivierten Module, so ist mod_rewrite verfügbar.

Bei Betreibern eines eigenen Webservers läuft das Modul in der Regel ohnehin. Sollte dies nicht der Fall sein, kann es mit folgenden Befehlen geladen werden:

LoadModule rewrite_module modules/?mod_rewrite.so
AddModule mod_rewrite.c

Mehr zum Thema

HTML5: Quick Reference Guide
Ratgeber: "HTML5"

Die wichtigsten Tags auf einen Blick: In unserem praktischen Arbeitsblatt finden Sie einen wertvollen Begleiter für die Umstellung Ihrer Webprojekte…
internet, webdesign, google, content, ranking, seo, suchmaschine
Ratgeber: Urheberrecht

Einzigartige Inhalte bieten Lesern Mehrwert und sind ein wichtiges Qualitätsmerkmal. Ärgerlich, wenn sich jemand durch Kopieren an fremden Ergebnissen…
Die besten HTML5-Tipps
Neue Tipps & Tricks für blitz.io

Wer die Leistung einer Applikation ermitteln möchte, braucht keine Skripte zu schreiben, sondern kann einen der zahlreichen Online-Dienste einspannen.…
image.jpg
Ratgeber: Webentwicklung

Die clientseitige Javascript-Entwicklung bietet fast keine Entwicklungsumgebungen und auch keine vernünftigen Werkzeuge zur Fehlersuche. Eine der…
internet, webdesign, meteor, webapplikationen
Ratgeber

Mit Meteor sollen Entwickler in kurzer Zeit Umgebungen für Webapplikationen erstellen können, ohne sich um lästige Details kümmern zu müssen. Wir…