Crawlowanie – legalne czy nie.

Ciekawy artykuł autorstwa Ewy Wojnarskiej-Krajewskiej.

W Prawo

Crawlery są programami komputerowymi, których zadaniem jest systematyczne przeszukiwanie Internetu i indeksowanie stron internetowych. Crawlery są potrzebne, żeby użytkownik mógł pozyskiwać przetworzone i wyselekcjonowane informacje według interesujących go kryteriów. Bez nich szukalibyśmy informacji w Internecie z podobną skutecznością jak zaginionego przedmiotu w odmętach oceanu. To jednak nie jedyny cel, któremu crawlery służą. W dzisiejszych czasach wiele innowacyjnych pomysłów w sieci powstaje w oparciu o przetwarzanie informacji pozyskanych z wielkich baz danych. Wydaje się, że ograniczenie możliwości eksploracji internetu za pomocą automatów cofnęłoby jego rozwój.

Status prawny czynności crawlowania jest jednak niejasny.

Z jednej strony istnieją regulacje prawne, które ograniczają możliwość crawlowania, ale tylko w określonych przypadkach. Jak interpretowane są te regulacje? Jak bardzo ograniczają legalny crawling?

Z drugiej strony firmy często próbują chronić swoje zasoby przed ich przeszukiwaniem za pomocą odpowiednich zapisów w regulaminach i używania robotów txt. Jaką skuteczność prawną mają takie działania?

Na te pytania postaram się odpowiedzieć.

View original post 1,151 more words

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: