Suchmaschinentricks
Allgemeines
Im
Folgenden findet Ihr Informationen wie man erfolgreich von den
Suchmaschinen aufgenommen wird und möglichst weit vorne zu
finden ist. Neben allgemeinen Infos hab ich auch ein paar
persöhnliche Erfahrungen von mir und Bekannten aufgenommen
was wichtig ist bzw. was man lieber läßt .
MetaTags
Automatische Suchmaschinen
wie Altavista oder Fireball durchsuchen mit automatischen
Suchprogrammen (Robots/Spiders) das Web und analysieren gefundene
Sites nach ihrem Inhalt. (Dies tun Sie auch ohne vorherige
Anmeldung des Webmasters). Die Ergebnisse Ihrer Suche bestimmen
dann die Plazierung der Site bei der Suchmaschine. Auf diese
Platzierung könnt Ihr aktiv Einfluß nehmen. Wenn Eure
Site jenseits von Position 100 liegt ist der Eintrag praktisch
wertlos. Diese robots werten neben dem echten Seiteninhalt auch
bestimmte, extra dafür ausgelegte "Varialblen"
aus. Die Metatags. Hier ein paar Beispiele wie diese aufgebaut
sind und wo man Sie plaziert:
<HEAD>
<TITLE>Titel
der Website der am besten auch gleich den Inhalt
beschreibt</TITLE>
<META
name="description" content="Hier eine kurze
Beschreibung von max. 200 Zeichen ueber den Site-Inhalt">
<META
name="keywords" content="Hier hinterlegen Sie ein
paar aussagekraeftige Schluesselwoerter. Ohne Leerzeichen, durch
Komma getrennt.">
</HEAD>
Das
sind natürlich nicht alle aber man kommt damit schon recht
weit.
Robots
Den automatischen
Suchagenten beeinflussen
Wie
verhindere ich dass die Suchagenten der Suchmaschinen alle
Bereiche meiner Hompage scannen? Eventuell sollen nicht alle
Bereiche meiner Homepage der Öffentlichkeit zugänglich
sein bzw. gar nicht bekannt sein. Die automatischen Suchprogramme
scannen normalerweise die ganze Site. Sind nun Bereiche die
ausschließlich für den Betreiber oder einen
eingeschränkten Personenkreis gedacht sind am Server
vorhanden, so sollte der Suchagent der Suchmaschinen am besten
diesen Bereich gar nicht lesen. Dies kann ich mit einem
Bestimmten file, welches immer auf der root (Anfangsverzeichnis)
liegen muss beeinflussen. Mit dem file "robots.txt"
weise ich die robots an bestimmte Seiten zu ignorieren. Hier ein
Beispiel wie dieses file aufgebaut ist.
#
robots.txt fuer http://www.wesistema.de/
User-agent:
*
Disallow: /privat/bilder/ # hier hat der
robot nichts verloren!
Disallow: /tmp/ #
das ist nie aktuell bzw. belanglos
Disallow:
/info.html # nicht fnr die Oeffentlichkeit
Die
Zeile mit "User-agent" beschreibt für welchen
Suchrobot der folgende Abschnitt gilt. Der Stern steht für
Alle. Nach "Disallow:" kommt der Bereich der
ausgelassen werden soll. Ein vorangestelltes # bezeichnet einen
Kommentar der nicht ausgewertet wird.
Damit
sind die wichtigsten Einstellungen gemacht. Mehr Info dazu (in
Englisch) gibt es auf der Seite von http://www.google.de zu
finden.