Donnerstag, 25. Oktober 2012

Das Bergfest

Heute ist die Hälfte des Kurses um und wir haben schon viel gelernt.

Mit User-agent: BeispielRobot bestimmt man welche Dateien ausgeschlossen werden sollen.
Wenn man ein Verzeichnis hat, auf welches ein Programm nicht zu greifen soll, benutzt man

#Alle Robots ausschließen
User-agent: *
Disallow: /temp/

Einfügen, damit der Crawler einwandfrei funktioniert.

Man sollte auch eine interessante Fehlerseite einbauen. Nicht einfach: hier ist ein Fehler aufgetreten, sondern etwas überraschendes. Dann sollte wieder auf die Hauptseite gelonkt werden.

Crawler: liest Seiten, die im Internet gehostet sind aus, Wort für Wort, in den Wörtern sollten dann die  Keywords stehen und anhand der robot txt kann man dann  ausschließen (wenn man möchte) ob den Links und Indexdateien (dem Impressum gefolgt werden soll).

Htaccess Datei: Unterordner x muß schreibgeschütz sein. Außerdem können Umleitungen auf bestimmte Ordner durchgeführt werden.
Einsatzmöglichkeit:
Zugriffsschutz.
Request Umleitung

Hyperlinks:
Nicht machen, da man sonst abgestraft wird (Google merkt das und setzt uns im Ranking runter)
Website mit H1 Überschriften.
Nicht gleiche Farbe wie Hintergrund
Die Schrift sollte nicht unter 6 Punkt sein.
Irgendwelche Keywords hinter Bildern verstecken.

25 Gründe, warum Google abstraft:
t3n.de/news/seo-25-grunde-abstrafung-google-410319/seo_google_abstrafung_infografik/

Container müssen angezeigt werden, sonst bezeichnet es Google als Betrug. Es dürfen die Container nicht verschoben werden (hoch runter).

Viewport = Sichtfeld

Domain ist Key Word Relevant.
Der Title der Webseite und die discription ist Keyword relevant.
In den Metaangaben kann man Key Words zum Auslesen für andere Suchmaschinen angeben.
Website kann zusätzlich mit einer Robots txt und htacess. weiter konfiguriert werden.
Man hat die Möglichkeit die einzlenen Seiten zu idezieren und man kann den Crawler sagen, ob er den Links folgen soll oder nicht.


Keine Kommentare:

Kommentar veröffentlichen