Pająk/przeszukiwacz sieciowy

TL; DR
Przeszukiwacze sieci Web, zwane również pająkami lub botami, przemierzają sieć WWW w celu indeksowania stron pod kątem wyszukiwarek, dzięki czemu wyniki podane po wyszukaniu określonego słowa kluczowego są trafne.
Co to jest robot internetowy?
Robot indeksujący, pająk lub robot wyszukiwarki (taki jak Googlebot lub Bingbot) przemierza, pobiera i indeksuje treści z całego Internetu, automatycznie uzyskując dostęp do witryny i przechodząc przez wszystkie zawarte w niej linki.
Jak działają roboty sieciowe?
Wyszukiwarki prawie zawsze obsługują boty w celu gromadzenia, indeksowania i dostarczania odpowiednich linków w odpowiedzi na zapytania użytkowników (słowa kluczowe).
Rola robota indeksującego wyszukiwarki jest bardzo podobna do osoby organizującej całą bibliotekę i tworzącej łatwą do sprawdzenia stronę lub katalog wszystkich książek, aby łatwo je znaleźć; podobnie boty porządkują strony w sieci i wyświetlają odpowiednie na podstawie tego, czego szuka dana osoba.
Nowe strony i witryny są aktualizowane i publikowane co sekundę, a głównym celem robotów indeksujących jest rozpoczęcie indeksowania z listy znanych adresów URL i kontynuowanie, gdy znajdą hiperłącza do innych adresów URL i dodają je do listy stron do czołgać się dalej.