SEO Tutorial: Kapitel 1.1 - Auslesen

Das Auslesen von Internetseiten übernehmen sogenannte "Crawler"; diese vollautomatischen Lese-Roboter überprüfen Webseiten in wiederkehrenden Abständen und fertigen Momentaufnahmen an, die ggf. auch im Suchmaschinen-Cache abgespeichert werden. Bei einem erneuten Besuch werden alle Veränderungen gegenüber dem bisherigen Stand einer Website festgehalten und für Neuberechnung von Seitenwerten verwendet.

Das automatische Crawlen variiert bei den unterschiedlichen Webseiten in der zeitlichen Abfolge recht stark, bei bekannten Internet-Präsenzen mit vielen Veränderungen im Content sowie der Backlink-Struktur sind die Abstände weitaus geringer als bei kleinen "statischen" Seiten. Jede Webseite wird dabei nach verschiedenen Gesichtspunkten überprüft. Vergleichs-Programme erkennen Textfragmente, die bereits an anderer Stelle im Internet gesichtet wurden - hierbei ist die Trefferquote im Erkennen von Duplicate Content mittlerweile sehr hoch, weshalb u.a. vom Gebrauch sogenannter "Text-Spinning-Werkzeuge" dringend abgeraten werden muss.

Lese-Robots untersuchen des Weiteren die Verlinkungen und zeichnen das Besucher-Verhalten innerhalb der Website unter verschiedenen Aspekten auf. Die so gewonnenen Daten werden als Grundlage für nachfolgende Beurteilungen und Bewertungen festgehalten.