Suchmaschinentricks


Allgemeines

Im Folgenden findet Ihr Informationen wie man erfolgreich von den Suchmaschinen aufgenommen wird und möglichst weit vorne zu finden ist. Neben allgemeinen Infos hab ich auch ein paar persöhnliche Erfahrungen von mir und Bekannten aufgenommen was wichtig ist bzw. was man lieber läßt .


MetaTags

Automatische Suchmaschinen wie Altavista oder Fireball durchsuchen mit automatischen Suchprogrammen (Robots/Spiders) das Web und analysieren gefundene Sites nach ihrem Inhalt. (Dies tun Sie auch ohne vorherige Anmeldung des Webmasters). Die Ergebnisse Ihrer Suche bestimmen dann die Plazierung der Site bei der Suchmaschine. Auf diese Platzierung könnt Ihr aktiv Einfluß nehmen. Wenn Eure Site jenseits von Position 100 liegt ist der Eintrag praktisch wertlos. Diese robots werten neben dem echten Seiteninhalt auch bestimmte, extra dafür ausgelegte "Varialblen" aus. Die Metatags. Hier ein paar Beispiele wie diese aufgebaut sind und wo man Sie plaziert:
<HEAD>
<TITLE>Titel der Website der am besten auch gleich den Inhalt beschreibt</TITLE>
<META name="description" content="Hier eine kurze Beschreibung von max. 200 Zeichen ueber den Site-Inhalt">
<META name="keywords" content="Hier hinterlegen Sie ein paar aussagekraeftige Schluesselwoerter. Ohne Leerzeichen, durch Komma getrennt.">
</HEAD>
Das sind natürlich nicht alle aber man kommt damit schon recht weit.


Robots

Den automatischen Suchagenten beeinflussen
Wie verhindere ich dass die Suchagenten der Suchmaschinen alle Bereiche meiner Hompage scannen? Eventuell sollen nicht alle Bereiche meiner Homepage der Öffentlichkeit zugänglich sein bzw. gar nicht bekannt sein. Die automatischen Suchprogramme scannen normalerweise die ganze Site. Sind nun Bereiche die ausschließlich für den Betreiber oder einen eingeschränkten Personenkreis gedacht sind am Server vorhanden, so sollte der Suchagent der Suchmaschinen am besten diesen Bereich gar nicht lesen. Dies kann ich mit einem Bestimmten file, welches immer auf der root (Anfangsverzeichnis) liegen muss beeinflussen. Mit dem file "robots.txt" weise ich die robots an bestimmte Seiten zu ignorieren. Hier ein Beispiel wie dieses file aufgebaut ist.

# robots.txt fuer http://www.wesistema.de/
User-agent: *
Disallow: /privat/bilder/ # hier hat der robot nichts verloren!
Disallow: /tmp/ # das ist nie aktuell bzw. belanglos
Disallow: /info.html # nicht fnr die Oeffentlichkeit

Die Zeile mit "User-agent" beschreibt für welchen Suchrobot der folgende Abschnitt gilt. Der Stern steht für Alle. Nach "Disallow:" kommt der Bereich der ausgelassen werden soll. Ein vorangestelltes # bezeichnet einen Kommentar der nicht ausgewertet wird.
Damit sind die wichtigsten Einstellungen gemacht. Mehr Info dazu (in Englisch) gibt es auf der Seite von http://www.google.de zu finden.













logo