Robot, Crawler, Spider

Ein Robot (auch Crawler, Webcrawler oder Spider genannt) ist ein Programm, welches automatisch das World Wide Web (www) durchsucht und die Informationen auf Webseiten analysiert. Robots werden überwiegend von Suchmaschinen verwendet, um den Inhalt der gefundenen Webseiten mittels Indexierung auszuwerten, zu speichern und so ein sp?teres Suchen zu erm?glichen.

Weitere Artikel

« zurück zur Wiki-Übersicht

一线高清视频观看在线,一本之道高清视频在线观看,暖暖视频大全高清免费动漫