Wyniki zwracane przez wyszukiwarkę Google coraz częściej prowadzą do stron co najmniej wątpliwej reputacji – zawierających spam, skopiowane, niepełnowartościowe treści lub linki do komercyjnych, płatnych serwisów. Wobec niewystarczających działań zapobiegawczych ze strony Google, na problem zareagowali producenci oprogramowania zabezpieczającego, implementując coraz bardziej rozbudowane systemy filtrowania wyszukiwanych stron. Np. program antywirusowy F-Secure aktualnie pozwala użytkownikom weryfikować reputację 120 milionów witryn. Lista ta jest ciągle poszerzana.

żródło: www.flickr.com żródło: www.flickr.com

Szeroką debatę na temat niskiej jakości wyników wyszukiwania zwracanych przez Google wywołał w styczniu tego roku profesor Vivek Wandhwa, wykładający na uniwersytetach Harvard, Berkeley i Duke. Na swoim blogu alarmował, że w gąszczu spamu i stron z niepełnowartościową i powtarzającą się treścią studentom coraz trudniej dotrzeć do rzeczowych, merytorycznych informacji. – Formy treści zmieniają internet w ogromne wysypisko śmieci. Wiele stron po prostu powtarza treści z innych stron, np. TechCrunch, a Google nie ma motywacji do powstrzymania tego procederu ze względu na zyski reklamowe czerpane ze stron spamerów – ubolewał prof. Wandhwa, dodając: – Specjaliści ds. rozwoju Google w rozmowie ze mną przyznali, że dział technologiczny i biznesowy korporacji dzieli potężny Chiński Mur*.

W reakcji na falę krytyki przetaczającą się przez media, kilka tygodni później Google wprowadziło zmiany w algorytmie wyszukiwania tak, by obniżyć pozycję stron niskiej jakości. W oficjalnym komunikacie** wydanym pod koniec lutego br. Google informuje, że zmiana wpłynęła pozytywnie na 11,8% zapytań. Modyfikacja ta wywołała jednak również niepożądane skutki uboczne. Niektóre znane i szanowane serwisy (jak witryna British Medical Journal czy Technorati, uznany serwis indeksujący blogi) także spadły w rankingach wyszukiwarki.***

W obliczu niesatysfakcjonujących efektów działań podejmowanych przez Google, na problem zareagowali producenci oprogramowania zabezpieczającego, kładąc coraz większy nacisk na rozbudowę narzędzi do filtrowania i weryfikacji wyników zapytań zwracanych przez wyszukiwarki. Na przestrzeni ostatnich 15 miesięcy prowadzona przez F-Secure baza adresów stron rozrastała się w ekspresowym tempie. Pod koniec 2009 roku zawierała ona dane na temat reputacji 44 milionów serwisów www. Z końcem marca 2011 weryfikacji podlegało już 120 milionów witryn. Zbiór ten jest ciągle aktualizowany i poszerzany.

– Internet nieustannie się rozrasta, a wraz z nim także liczba stron zawierających treści wątpliwej jakości, treści komercyjne albo zainfekowane linki. Spamerzy używają takich serwisów do generowania zysków z reklam albo nieuczciwych praktyk – mówi Michał Iwan, dyrektor zarządzający F-Secure Polska. – Nasi eksperci ds. baz danych cały czas pracują nad ulepszeniami systemów pozwalających na szybkie wyłowienie zaufanych „wysp” w rosnącym morzu śmieci. Nasze systemy importują, identyfikują i filtrują miliony adresów stron dziennie. Za kilka lat mogą to być nawet setki milionów – przewiduje Michał Iwan i dodaje: – Internet staje się też bardziej kontekstowy. Osoby przeprowadzające złośliwe ataki i spamerzy coraz częściej korzystają z technologii lokalizacji IP. Dlatego to, co wygląda na bezpieczną wyspę z jednego kraju, z perspektywy innego może okazać się groźną aplikacją – dodaje Michał Iwan.

Tym samym ocena reputacji stron internetowych będzie w przyszłości wymagała spojrzenia z globalnej perspektywy. F-Secure już teraz buduje infrastrukturę, która będzie w stanie sprostać temu wyzwaniu.

* http://wadhwa.com/2011/01/29/the-future-of-search-who-will-win-the-spam-wars

** http://googleblog.blogspot.com/2011/02/finding-more-high-quality-sites-in.html

*** http://www.guardian.co.uk/technology/blog/2011/feb/28/google-changes-sites-affected