Audyt logistyczny
Strona główna*O firmie*Nasze usługi doradcze*Nasze projekty i klienci*Mapa serwisu*Kontakt

Strona główna > O firmie, publikacje naszych specjalistów > Web 3.0: Wątpliwości szarego szperacza



Web 3.0: Wątpliwości szarego szperacza

Marek Wierzbicki

Artykuł opublikowany oryginalnie w Computerworld 45/2009 [ISSN: 0867-2334]

Oswoiliśmy się już z terminem Web 2.0. Znamy go zarówno w teorii jak i w praktyce. Niemal każdy z nas jest dostawcą treści do stron Web 2.0 (Blip, Twitter, LinkedIn, blogi, komentarze). Coraz częściej internetowi guru zaczynają nam mówić, że nieuchronnie zbliża się do nas sieć semantyczna, czyli Web 3.0. Jeszcze do końca nie mam pewności co to będzie, a już mam w tym zakresie pewne wątpliwości. I zamierzam się nimi podzielić..

Abyśmy mieli pewność, że rozmawiamy o tym samym, bardzo ogólnikowo zdefiniuję jak na dziś rozumiem sieci semantyczne, czyli tajemnicze Web 3.0. Już sam numer mówi nam, że będzie to medium wypełnione treścią lepiej niż w przypadku 2.0. Biorąc pod uwagę analogię przejścia między 1.0 a 2.0 (czyli przejście od sieci o statycznej treści tworzonej przez dostawców stron do dynamicznej treści tworzonej przez użytkowników) zakładam, że w wersji 3.0 dynamiczna treść zostanie inteligentnie i dynamicznie zagregowana pod kątem oczekiwań użytkownika. Ta zagregowana treść będzie dla nas dostępna przede wszystkim przez wyszukiwarki, o czym napiszę w dalszej części artykułu.

Wyszukiwanie informacji

Wydaje mi się, że idea dynamicznej agregacji jest tu dość istotna. Po pierwsze zakładam, że potrzeba dynamiczności wynika z używania tej wiedzy w tak zwanym długim ogonie, to znaczy zapotrzebowanie na zagregowaną wiedzę (na konkretną jednostkową informację) będzie bardzo niewielkie. Gdyby zapotrzebowanie na tą wiedzę było duże, to zgodnie z teorią niewidzialnej ręki rynku, pojawiłyby się portale dostarczające tą wiedzę, na którą jest duże zapotrzebowanie, w sposób bezpośredni.

Oczywiście jako szarego szperacza nie interesuje mnie to, co teoretycy Web 3.0 uznają za najważniejsze, czyli ontologie i metody inteligentnej agregacji treści. Mnie interesuje, aby na pytanie: "Czy zdążę jeszcze dziś oddać buty do naprawy i gdzie je zawieźć" otrzymać odpowiedź: "Tak. Najbliższy szewc pracuje do godziny 18:00 na ulicy Kaletniczej 22" (co na dziś jest jednym z oczekiwanych działań w obszarze Web 3.0). W odpowiedzi zagregowano wiedzę na temat mojego miejsca położenia, czasu, geolokalizowanej informacji o usługach oraz inteligentnej interpretacji języka naturalnego.

Diabeł tkwi w szczegółach

Pierwsza poważna wątpliwość, która wydaje się być oczywista, to konieczność agregowania dowolnej treści. Będzie to wymagać możliwości potencjalnego połączenia informacji z niemal dowolnych źródeł w dowolnym momencie. Zamiast pytania o naprawę butów pytanie mogłoby brzmieć: "Jakie wino kupić przyjacielowi na imprezę i gdzie je kupić?" (tu trzeba by dodać jeszcze informację o adresie przyjaciela z którym jesteśmy w tym samym serwisie społecznościowym i jego preferencjach związanych z alkoholem, ale to załatwi portal Moje wino).

Jeśli przyjmiemy, że chcielibyśmy otrzymać poprawną odpowiedź na niemal każdy temat, ilość danych koniecznych do przetworzenia byłaby nie kilka tysięcy razy większa niż obecnie istnieje we wszystkich wyszukiwarkach razem wziętych, ale do potęgi kilka tysięcy. Oznacza to, że w przewidywalnym okresie nie powstaną wyszukiwarki wszystkiego. Pojawią się osobne wyszukiwarki dla sprzętu elektronicznego, alkoholu, nieruchomości i innych wąsko specjalizowanych dziedzin. Czyli żeby wyszukać inteligentną zagregowaną informację z jakiejś dziedziny najpierw będziemy musieli znaleźć właściwą wyszukiwarkę semantyczną, a dopiero później w niej wyszukać właściwą informację. Oczywiście doprowadzi to do powstawania luk i nieoptymalnych odpowiedzi, gdyż każda z wyszukiwarek branżowych będzie dawała trochę inaczej poprawną odpowiedź.

Kolejny problem, który nasuwa mi się na myśl wynika ze znanego już obecnie charakteru treści tworzonych przez internautów w modelu Web 2.0. Wszystkie statystyki pokazują, że z własnej woli internauci najczęściej oceniają przedmioty, miejsca czy zdarzenia entuzjastycznie pozytywnie lub krytycznie negatywnie. Ocen przeciętnych jest w porównaniu ze skrajnymi bardzo mało. Tak więc na przykład poszukując odpowiedniego dla siebie notebooka musimy przedzierać się przez gąszcz ocen wspaniały wyświetlacz/bardzo lichy wyświetlacz oraz wspaniała czas pracy na bateriach/beznadziejny czas pracy na bateriach. Mało jest ocen typu kompleksowego, z jednoczesnym wymienieniem wad i zalet oraz wskazaniem obszarów przeciętnych. Wyszukiwarka agregująca będzie się musiała przedzierać przez takie niezbyt odpowiednie dla niej informacje, usiłując ponadto odfiltrować od tego spam, coraz częściej ukryty w sposób coraz bardziej subtelny.

Personalizacja wyniku

Jednak próba wyszukania z gąszczu informacji właściwego rozkładu właściwych informacji to nic, w porównaniu z koniecznością personalizacji informacji pod kątem profilu osoby szukającej. Dobrym przykładem będzie tu pytanie o najlepszy hotel na weekend w Krakowie. Otóż zupełnie inny będzie określony jako najlepszy przez biznesmena w podróży służbowej, inny przez jego kochankę, a jeszcze inny przez rodzinę z dziećmi. Czasami ta sama osoba w zależności od sytuacji będzie oczekiwać różnych odpowiedzi.

Poprawna agregacja danych z uwzględnieniem perspektywy osoby pytającej wymagałaby jednoznacznej identyfikacji wszystkich osób w internecie. Jak na razie nie udało się tego dokonać mimo kilku prób. I nie sądzę, żeby się udało, nawet jeśli przezwyciężone zostałyby problemy techniczne. Zawsze będą chciały istnieć osoby anonimowe czy ukrywające się pod różnymi profilami (np. stanowczy prezes ukrywający się pod innym pseudonimem na forum pantoflarzy). Sądzę, że ten brak jednoznacznej interpretacji profilu osoby tworzącej treść będzie kolejnym problemem, który stanie na przeszkodzie sukcesowi Web 3.0.

Już teraz w obrębie pojedynczych serwisów (dobrze widać to na przykład w Amazonie czy Merlinie) istniej problem personalizacji podpowiedzi związanych z oglądanymi książkami (inne osoby kupujące tą książkę kupiły też ...). Jeśli oglądamy książkę o Javie, poza oczywistymi propozycjami (czyli inne książki o Javie) najczęściej pojawiają się książki związane z językami do tworzenia stron internetowych (PHP, Ruby itp.). Automat sugerujący inne atrakcyjne dla konkretnego odbiorcy książki, powinien jednak wziąć pod uwagę, czy szukamy książki o Javie, gdyż interesuje nas programowanie obiektowe, przenośność oprogramowania czy też tworzenie stron WWW. Dopiero po zaklasyfikowaniu nas do odpowiedniej grupy, automat powinien zaproponować najczęściej kupowane książki przez tą grupę czytelników do której należymy. Niby proste, a jednak...

Model biznesowy

Na koniec pozostawiłem najważniejszą wątpliwość, czyli kto za to zapłaci. W obecnej sytuacji model biznesowy sieci Web 2.0 nie jest jeszcze dobrze ugruntowany. Są co prawda firmy, które zarabiają na publikacji treści w internecie, ale przerażająca większość serwisów albo traci finansowo, albo dorabia do swojego istnienia ideologię z której wynika, że albo zamierza dopiero zarabiać w przyszłości, albo powstaje hobbystycznie, czyli dokładanie do interesu jest naturalne.

Jeśli przyjąć model zachowania sieci Web 3.0, czyli oparcie jej na wyszukiwaniu inteligentnie agregowanej informacji, należy się spodziewać, że wynik wyszukiwania w takiej sieci będzie prostą informacją jednostkową. Będzie to liczba, realny adres, nazwa produktu, termin itp. Bo w końcu na pytanie o najbliższy, jeszcze otwarty sklep monopolowy, sprzedający konkretne wino, nie dostaniemy listy stron tych sklepów, tylko jeden, góra kilka adresów z nazwami ulic. W takim modelu nie za bardzo jest miejsce na reklamę, bo po cóż internaucie z Warszawy informacja, że w Łodzi istnieje sklep, który ma to wino, lub że można je za tydzień otrzymać przesyłką kurierską (w końcu on potrzebuje je za godzinę, bo idzie do znajomych na spotkanie). Z drugiej strony sklep, który został wytypowany jako właściwy dla osoby zadającej pytanie też nie za bardzo ma po co się reklamować - jest duża szansa, że internauta i tak trafi właśnie do tego sklepu. Gdzie więc miejsce na zwykłe strony, podobne do istniejących obecnie?

Podsumowanie

Czy wątpliwości które przytoczyłem oznaczają, że Web 3.0 to totalna klapa i należy zrezygnować z rozmawiania na ten temat? Nie. Należy tylko zmienić podejście do tej kwestii. Dotychczas wszystkie ważne zdarzenia były nazywane już po poważnym ukształtowaniu się konkretnego trendu, a często wtedy, gdy zaczęła się już kolejna epoka. Poczekajmy dokąd zaprowadzi nas innowacyjna twórczość właścicieli portali. Sądzę że to właśnie oni wypracują doświadczalnie model działania, któremu za rok czy dwa będziemy mogli nadać odpowiedni numerek. I może będzie to w końcu 3.0.

COPYRIGHT © 2009-2017 by BINCODE (dawniej MOTTE)