Audyt logistyczny
Strona główna*O firmie*Nasze usługi doradcze*Nasze projekty i klienci*Mapa serwisu*Kontakt

Strona główna > O firmie, publikacje naszych specjalistów > Informatyka w analizie zjawisk ekonomicznych



Informatyka w analizie zjawisk ekonomicznych

Marek Wierzbicki

Wersja poprawiona. Oryginalnie opublikowana w materiałach z XV Górskiej Szkoły PTI, Szczyrk 2003.

Ceny akcji na giełdzie, kursy walut, ceny obligacji czy metali szlachetnych, inflacja, stopa bezrobocia czy wielkość PKB to tylko niektóre wartości, które mają wielkie znaczenie w prowadzeniu wielu przedsięwzięć ekonomicznych. W zależności od przyszłych, nieznanych cen bądź tendencji firma może osiągnąć wielkie zyski, działać w sposób przeciętny bądź stanąć na krawędzi bankructwa. W dawnych powieściach i filmach fantastycznych komputery osiągały możliwości, które pozwalały na prognozowanie wszystkich tych wartości bez większych problemów. Czy w czasach, gdy komputery są silniejsze niż pamiętny HAL z Odysei kosmicznej, jest to możliwe? Artykuł przedstawia możliwości informatyki w tej dziedzinie.

Twórcy SF od dawna fascynowali się możliwościami oferowanymi w nieokreślonej przyszłości przez superkomputery. W większości przypadków problem dotyczył jednak posiadania przez maszyny świadomości porównywalnej do ludzkiej. Ani HAL z Odysei kosmicznej, ani Lemowski GOLEM, ani nawet Joshua z filmu Gry wojenne nie zajmowały się w jawny sposób wykorzystaniem swoich możliwości obliczeniowych. Jednak drzemała w nich moc, zdolna do analizowania cudzych zachowań i podejmowania decyzji adekwatnych do tych zachowań. Czyż nie tego poszukują osoby analizujące zjawiska ekonomiczne? Komputer obserwuje zachowanie rynku i podejmuje obiektywne, pozbawione uczuć i trafne ekonomicznie decyzje. Kupuje bądź sprzedaje akcje, obligacje czy surowce. I zarabia krocie bez udziału, albo z niewielkim udziałem człowieka. Jakkolwiek współczesne komputery możliwościami obliczeniowymi znacznie przewyższają te wyimaginowane maszyny, systuacja taka nie występuje w realnym życiu. Zaczynając od ENIACa, poprzez CRAYa, a kończąc na Deep Blue twórcy tych maszyn próbowali osiągnąć wzrost mocy obliczeniowej, który przerodziłby zmiany ilościowe w jakościowe. Mimo osiągnięcia doraźnie pewnych pozytywnych efektów (jak na przykład wygrana w szachy z Kasparovem) komputery nie są w stanie bezbłędnie prognozować przyszłych zmian cen na giełdzie, czy tendencji w gospodarce. Nie oznacza to jednak, że dzisiejsza sytuacja analityków jest taka sama jak przed laty. Komputery, a w zasadzie oprogramowanie, skutecznie może pomagać w analizie zjawisk ekonomicznych i promować osoby lub firmy aktywnie korzystające z ich możliwości.

1 Przyspieszenie przetwarzania informacji

Wszyscy zajmujący się informatyką w sposób zawodowy wiedzą, że komputer to nic innego, jak urządzenie, które w łatwy i szybki sposób umożliwia gromadzenie i przetwarzanie danych. W najbardziej prymitywnej formie dane zamiast na papierze gromadzone są na dysku. Zaletą jest przejście z dostępu sekwencyjnego na swobodny. Daje to możliwość łatwego tworzenia zbiorów przekrojowych bądź generowania danych przetworzonych, które ułatwiają analizę pewnych zjawisk.

1.1 Pozyskiwanie i gromadzenie danych

Giełdy akcji funkcjonują na świecie w kilkudziesięciu krajach świata. Podobnie jest z giełdami towarowymi. A na każdej z nich notowanych jest od kilkudziesięciu do kilku tysięcy walorów, często w kilku odmianach (różniących się na przykład terminem realizacji czy wygaśnięcia kontraktu). Do tego w większości krajów obowiązują różne waluty narodowe bądź regionalne i każdy z krajów stosuje własną politykę stóp procentowych. Daje to kolejne tysiące wartości, które codziennie mogą być okazją do zarobienia, bądź stracenia pieniędzy. Wiadomo, że nikt nie jest w stanie przeanalizować ani nawet zarejestrować wszystkich tych sytuacji, zwłaszcza jeśli należą do różnych klas zdarzeń. Jednak dobry analityk powinien uwzględniać maksymalnie dużo informacji mających wpływ na obsługiwany sektor gospodarczy, aby móc z nich wyciągać jak najtrafniejsze wnioski. Oczywiste jest tu wykorzystanie systemów komputerowych. Systemów, gdyż pod uwagę należy wziąć nie tylko komputer, który przechowa dane, ale i źródło tych danych oraz infrastrukturę ich dostarczania.

Pozornie najprostszym sposobem zbierania danych jest ściąganie ich za pośrednictwem internetu. Wybieramy dostawcę (płatnego bądź nie), który udostępnia swoim klientom zestaw danych z interesującego nas obszaru, w miejscu widocznym przez komputer włączony do sieci. Najczęściej są to serwery WWW bądź FTP, choć istnieją specjalizowane rozwiązania korzystające z własnych standardów. Popularnymi dostawcami danych z rynków międzynarodowych są eSignal.com czy Island.com. W Polsce bezpłatne notowania są rozprowadzane na przykład przez Gazetę Giełdy PARKIET na jej internetowej stronie i Dom Maklerski BOŚ. Poza tym niemal wszystkie biura maklerskie w ramach usługi dostępu do rachunku przez internet oferują swoim klientom notowania (w czasie rzeczywistym bądź nieznacznie opóźnione). Notowania udostępniają też swoim klientom producenci programów dla inwestorów giełdowych. Na przykład ABAKUS dostarcza dane do swoich programów do analizy technicznej GIEŁDA, a SKYNET do swojego programu Portfel Inwestora.

Wadą rozwiązań internetowych jest konieczność ciągłego pobierania informacji o nowych zdarzeniach. Często może to niepotrzebnie blokować sieć dostępową, powodując spowolnienie jej pracy. Poza tym rozwiązanie takie wymusza wiarygodne potwierdzanie dostępu do źródła notowań, co może być punktem wprowadzającym nieszczelność systemu. W związku z tymi problemami powstały metody dostarczania danych nie wymagające dostępu do sieci (niebagatelne znaczenie miał fakt, że systemy te powstały zanim internet upowszechnił się na tyle, by stanowić akceptowalną alternatywę). Klasycznym przykładem jest agencja REUTERS, dostarczająca notowania z użyciem kodowanych danych, rozpowszechnianych przez kanał telewizyjny. Dane te są przekazywane w sposób analogiczny do telegazety, tyle że nie mają postaci możliwej do odczytania w sposób jawny. Nie da się więc ich wyświetlić na którejś ze stron. Do ich odczytania potrzebny jest specjalny dekoder, dostarczany przy podpisywaniu umowy na subskrybcję odbioru tych danych (na terenie Polski REUTERS dostarcza notowania, nazywane serwisem RSP, z użyciem platformy CYFRA+). Formalnie nie jest potrzebny nawet dostęp do internetu, choć w praktyce przydaje się na przykład w celu aktualizacji oprogramowania, bądź jako zapasowe źródło danych. W Polsce podobny do REUTERSa sposób dostępu oferuje system TSG (dla którego pośrednikiem są kanały telewizji publicznej), który dotyczy notowań na Giełdzie Papierów Wartościowych w Warszawie.

Na osobne omówienie zasługuje system Emitent. Jest on podstawowym środkiem przekazywania informacji wymaganych przez ustawę Prawo o publicznym obrocie papierami wartościowymi, w stosunku do spółek dopuszczonych do obrotu na rynku papierów wartościowych, przy wykorzystaniu technik elektronicznych. Uczestnikami podstawowymi systemu są: emitenci (czyli firmy notowane na giełdzie), Komisja Papierów Wartościowych i Giełd, Giełda Papierów Wartościowych w Warszawie, Centralna Tabela Ofert i Polska Agencja Prasowa. System Emitent funkcjonuje w środowisku poczty elektronicznej, do której uczestnicy dołączają się na prawach stacji roboczej bądź węzła pocztowego. Zintegrowane z pocztą formularze elektroniczne umożliwiają nadanie standardowej struktury przesyłanym raportom i automatyzację ich dalszego przetwarzania i dystrybucji. Transport wiadomości zapewniają połączenia cyfrowych sieci transmisji danych. Oczywiście wszystko na odpowiednio wysokim poziomie bezpieczeństwa, zapewnionym przez szyfrowanie i podpisy elektroniczne. Dzięki takiej organizacji wszystkie obowiązkowo wysyłane informacje pochodzące ze spółek mogą być natychmiast dystrybuowane do inwestorów giełdowych.

Poza problemem pozyskiwania danych osobną kwestią jest ich lokalne gromadzenie w celu późniejszego wykorzystania. W zależności od ilości tych danych i sposobu wykorzystania w przyszłej analizie można do tego celu stosować różne środki. W najprostszym przypadku dane można przechowywać w plikach tekstowych bądź w innych prostych, plikowych bazach danych. Z takiego rozwiązania korzystają najczęściej proste programy do analiz giełdowych. Bazy te mają standardowe formaty, które są publicznie dostępne. Najbardziej znanym w tym obszarze jest standard programu MetaStock, rozpoznawany przez kilkaset programów giełdowych na całym świecie. W przypadku dużej ilości danych bazy tego typu są jednak bardzo mało efektywne. Aby uzyskać wystarczającą szybkość dostępu należy posłużyć się specjalizowanymi bazami danych. W zakresie baz plikowych jednym z najszybszych i najbardziej niezawodnych standardów jest Paradox firmy Borland. Jeśli jednak danych jest bardzo dużo, a dostęp do nich musi odbywać się według najróżniejszych kryteriów, nie zawsze zdefiniowanych w momencie powstawania bazy, niezaprzeczalnym liderem stają się serwery SQL (na przykład Oracle bądź MSSQL).

1.2 Filtrowanie, agregacja i prezentacja

Samo posiadanie dużej ilości danych nie wpływa w żaden sposób na lepszą ocenę zjawisk ekonomicznych. Najczęściej ułatwienia w zdobywaniu tych danych w pierwszej fazie mogą nawet podziałać negatywnie - osoba analizująca zjawisko jest zalewana masą informacji, z których trudno jej wyciągnąć jakiekolwiek wnioski. Aby nadmiar informacji nie przytłaczał ich odbiorcy, wymagane jest właściwe filtrowanie tych danych. Naturalnym jest wykorzystanie swobodnego dostępu do informacji oferowanego przez komputerowe bazy danych. Z milionów rekordów bardzo łatwo wyselekcjonować dane dotyczące tylko jednej branży, podobnej wielkości firm czy mające podobną zyskowność. Rozważając kwestię samej prezentacji danych warto zastanowić się nad wyborem programu używanego do analizy. Jedno skrajne podejście zakłada korzystanie z narzędzia umożliwiającego w sposób szybki i nieskomplikowany wykonywanie prostych analiz (najczęsciej z użyciem tak zwnych wizualnych metod tworzenia zestawień). Do tej grupy należy na przykład Excel czy Access. Na drugim biegunie są narzędzia skomplikowane, które w prostych zestawieniach są bardziej pracochłonne, natomiast stają się nieocenione przy tworzeniu analiz o skomplikowanych algorytmach. Najczęściej nauka obsługi tych narzędzi jest czasochłonna, a zysk z ich używania ujawnia się dopiero w ekstremalnych warunkach. Dobrym przykładem może być użycie T-SQL czy Visual Basic for STATISTICA. Proste filtrowanie danych z użyciem tych języków oczywiście jest możliwe. Jednak dopiero zaawansowane przetwarzanie ujawnia ich lwi pazur. Profesjonalny analityk powinien potrafić korzystać z narzędzi obu typów.

Jeśli w systemie przechowuje się dużą liczbę danych zdarza się, że analizy są bardzo czasochłonne zarówno z punktu widzenia czasu oczekiwania jak i działania (czyli obciążenia) systemów komputerowych. Czas potrzebny na uzyskanie odpowiedzi od serwera powiększony o czas przetwarzania tych danych może być nieakceptowalny. Jeżeli dodatkowo podobne analizy są powtarzane wielokrotnie, należy zastosować rozwiązanie systemowe, które przyspieszy cały proces. Rozwiązaniem takim jest hurtownia danych wraz z systemem BI (business inteligence czyli analityka zarządcza). Hurtownia umożliwia gromadzenie większej iości danych pochodzących z różnych źródeł wraz z ich wstępną agregacją. Dzięki temu system informatyczny przygotowany jest na odpowiedź na najczęściej zadawane pytania. Często oprócz prostej agregacji w hurtowni przygotowuje się również dane wielowymiarowe przydatne do przyszłych analiz. Dane takie najczęściej przygotowuje się raz dziennie, po zakończeniu pojawiania się nowych zdarzeń w dniu poprzednim. Dobrym pośrednim rozwiązaniem stosowanym w tym celu są serwery OLAP. Najczęściej są one wyposażone w narzędzia graficznej konstrukcji zestawień, jednak struktura tych zestawień może być naprawdę bardzo efektywna.

Poza filtrowaniem czy prostym przetwarzaniem bardzo ważne jest właściwe prezentowanie danych. Najprostszym podejściem jest prezentowanie wyników atrakcyjnych (na przykład spółek rosnących) w kolorze zielonym, a nieatrakcyjnych w czerwonym. Dzięki takiemu podejściu bardzo łatwo na pierwszy rzut oka skupić się na właściwych danych. Dalszym rozszerzeniem może być na przykład intensywość koloru uzależniona od stopnia atrakcyjności danego wyniku. Jedak tabelaryczne zestawienie danych, wyróżnianych różnymi kolorami to tak naprawdę nic innego, jak próba przemycenia grafiki w danych tekstowych. Klasyczna teza mówi, że jeden rysunek niesie znacznie więcej informacji niż wielkie zestawienia. Idąc tym tropem graficzna prezentacja danych mówi znacznie więcej, niż cała kolumna liczb. I tak jest w praktyce. Większość uniwersalnych narzędzi umożliwiających tworzenie różnego rodzaju zestawień pozwala na ich graficzną prezentację w postaci wykresów różnego rodzaju.

Niejako na marginesie prezentacji danych powinno się wrócić do serwisów udostępniających dane. Zarówno internetowi jak i inni dostawcy danych, niemal zawsze wraz z serwisem dostarczają narzędzia służące do ich prezentacji. REUTERS poza odbiorem czystych notowań czy kwotowań umożliwia prezentację ich w sposób graficzny, wraz z prosta analizą. Podobnie jest z innymi znanymi dostawcami. W Polsce, w kręgu internetowych dostawców notowań z Warszawskiej Giełdy Papierów Wartościowych, ostatnio bardzo popularny jest program ISPAG firmy WDSoftware. Jest to aplet, który (po wykupieniu licencji) można umieścić na własnej stronie internetowej. Sięga on do notowań składowanych na tym samym serwerze, na którym udostępniona jest strona z tym programem. Niemal zawsze więc te same notowania mogą być ściągane przez użytkownika do własnego komputera jak i oglądane bezpośrednio w przeglądarce. Ze znanych w Polsce firm z narzędzia tego korzysta między innymi PARKIET czy DM BOŚ. W USA podobną działalność prowadzi firma BigCharts.

1.3 Proste wnioskowanie

Dalszym etapem wykorzystywania komputera w analizie danych jest przetwarzanie i prezentacja ich w taki sposób, aby ułatwić i przyspieszyć wyciąganie wniosków, co do zjawisk opisywanych przez te dane. To ułatwienie można osiągnąć na różne sposoby. Najbardziej popularna metoda bazuje na tezie, że historia lubi się powtarzać. Oczywiście w zjawiskach ekonomicznych nie występują dokładnie takie same przypadki, które można bezbłędnie sklasyfikować. Porównanie z historią dotyczy wyłącznie cech charakterystycznych zjawiska i polega na wyciąganiu wniosków co do przyszłego stany analizowanego procesu na podstawie podobnych, występujących wcześniej stanów. Ponownie odwołam się do analizy przebiegu cen akcji, jako dobrego przykładu używania w tym celu narzędzi informatycznych. Inwestorzy giełdowi uważają, że wszystkie możliwe do wystąpienia sytuacje rynkowe już wystąpiły. I mowa tu nie tylko o tak spektakularnych zjawiskach jak wojna, rewolucja, zamach stanu czy bąbel spekulacyjny (pierwszy zdarzył się jeszcze w XVII wieku i dotyczył handlu cebulkami tulipanów), ale i o podpisaniu dobrych kontraktów czy drobnych niepowodzeniach firm bądź nieodpowiedzialnych wystąpieniach jakiegoś polityka. Wszystko to już było. A skoro tak, to należy się spodziewać, że wszystkie możliwe do wystąpienia układy cen na giełdzie już wystąpiły (jeśli przyjąć odpowiedni poziom kwantowania, jest to niezaprzeczalna prawda). Skoro tak, to wystarczy tylko zaprząc komputer do przeanalizowania danych historycznych i zmusić go do podpowiedzenia nam, co może się stać w najbliższej przyszłości.

Inwestorzy giełdowi wykorzystują do tego celu metodę zwaną analizą techniczną. Wykorzystuje ona graficzną prezentację cen akcji powiązaną z ich przetworzonymi wartościami, nazywanymi wskaźnikami technicznymi. Wskaźniki te to w większości przypadków kombinacja liniowa cen, przyrostów i wartości transakcji zawieranych na poszczególnych sesjach. Oczywiście kombinacje te nie niosą żadnej dodatkowej informacji (w sensie teorii informacji). Jednak algorytmy ich wyznaczania są tworzone w taki sposób, aby zminimalizować szum zawarty w przebiegach wzorcowych. Dzięki temu analiza informacji przetworzonej może przynosić większą efektywność niż analiza czystego przebiegu. Najczęściej spostrzeżenia co do charakterystycznych zachowań akcji nie dotyczą samych przebiegów, tylko właśnie przebiegów wskaźników technicznych. Inwestorzy przy ocenie aktualnej sytuacji na giełdzie kierują się poradami typu: kupuj, gdy wskaźnik RSI przebije poziom 30 od dołu. W większości przypadków wnioski te wynikają ze statystyki historycznych zachowań.

Klasycznym, najbardziej popularnym w Polsce programem umożliwiającym korzystanie z analizy technicznej jest MetaStock amerykańskiej firmy EQUIS. Poza tym programem (występującym zarówno w wersji popularnej jak i dla profesjonalistów) na świecie produkuje się kilka tysięcy programów przeznaczonych do analizy technicznej. Z tej wielkiej masy na uwagę zasługują na pewno TradeStation i AdvencedGET. Coroczny ranking najlepszych produktów w zakresie analizy rynku kapitałowego w USA prowadzi redakcja miesięcznika Technical Analisis of Stock and Commodities. W Polsce w szczytowym okresie zainteresowania giełdą sprzedawane było około 30 różnych programów do analizy technicznej rodzimej produkcji. Najsilniejszym narzędziem, które powstało w naszym kraju jest program AAT firmy ASHER.

Innym typem prostego wnioskowania jest analiza pewnych wskaźników ekonomicznych. Dobrym przykładem jest tu analiza fundamentalna. Umożliwia ona wycenę wartości przedsiębiorstw i podejmowanie na tej podstawie właściwych decyzji. Analiza niektórych wartości bilansowych pozwala na określenie stanu firmy, na kilka różnych sposobów. Wyniki można porównywać z wartościami historycznymi z uwzględnieniem branży, wielkości bądź innych czynników wpływających na funkcjonowanie przedsiębiorstwa. Często jednak zamiast porównania do wartości obserwowanych w przeszłości wskaźnik można odnosić do wartości wyliczonych teoretycznie. Wyniki tej analizy mogą być wykorzystane zarówno do podejmowania decyzji w inwestycjach giełdowych bądź bezpośrednich jak i do oceny wiarygodności kredytowej. Analizy tego typu są na tyle proste, że bez większych problemów można je wykonać z użyciem każdego arkusza kalkulacyjnego. Mimo to na rynku istnieje oprogramowanie specjalistyczne, dedykowane do tych celów. W Polsce sporą popularnościa cieszy się program Statica oraz arkusze serwisu Notoria.

2 Nowa jakość algorytmów

Wszystkie wymienione wcześniej sposoby wykorzystania informatyki bazowały generalnie na ułatwieniach w analizie zjawisk ekonomicznych, osiągniętych dzięki używaniu programów komputerowych do przechowywania, prezentacji bądź prostego przetwarzania danych. Opisane działania były możliwe do zastosowania bez użycia komputerów, a ich wprowadzenie jedynie przyspieszyło i ułatwiło te analizy. Jednak takie wykorzystanie informatyki nie wprowadzało nowej jakości do pracy analityków. Dopiero istnienie technicznych możliwości do przeprowadzenia wielu skomplikowanych operacji, niemożliwych bez istnienia szybkich i uniwersalnych maszyn liczących, spowodowało ożywienie w powstawaniu (bądź adaptacji z innych dziedzin) nowych algorytmów, specjalizowanych do modelowania procesów ekonomicznych. Często stopień komplikacji wykluczał powstanie takich modeli w okresie papieru i ołówka, choć podwaliny pod niektóre teorie zostały położone jeszcze przed upowszechnieniem się dostępu do komputerów.

2.1 Ryzyko i analiza portfelowa

Klasyczną teorią, która powstała w sposób oderwany od możliwości jej praktycznego zastosowania była analiza portfelowa. Pewnego jesiennego popołudnia 1950 roku Harry Markowitz zastanawiał się jak budować portfele akcji, które miałyby najwyższą oczekiwaną stopę zwrotu przy ustalonym ryzyku, bądź jak najniższe ryzyko przy ustalonej stopie zwrotu. Kilka godzin pracy doprowadziło go do spostrzeżenia jak łączyć ze soba akcje, aby tworzone przez nie portfele spełniały warunek efektywności (za teorię tą dostał nagrodę Nobla w 1990 roku). Analiza portfelowa bazuje na zjawisku dywersyfikacji. Oznacza to, że dwa walory, które posiadaja pewne ryzyko po połączeniu w jedną inwestycję mogą dać ryzyko mniejsze, niż każdy ze składników tej inwestycji. Oczywiście czy tak się stanie zależy od kilku czynników opisujących inwestycje tworzące portfel.

Na poziomie dwóch akcji tworzących portfel zadanie jest rozwiązywalne analitycznie. Markowitz wymyślił sposób jak rozłożyć konstruowanie portfela zawierającego dowolną liczbę akcji na proste, rozwiazywalne analitycznie równania dotyczące dwóch składowych. Mimo to problem dalej był nierozwiązywalny z użyciem papieru i ołówka (dzięki temu powstało kilka uproszczeń, w tym rewelacyjna metoda Sharpe'a). Dopiero upowszechnienie się komputerów spopularyzowało tą metodę. Dzięki zastosowaniu specjalizowanego oprogramowania możliwe stały się działania na wielkich macierzach stóp zwrotu, ryzyka i korelacji. Bez względu na stosowane podejście (to znaczy brutalne wykorzystanie mocy komputera do odwracania wielkich macierzy, bądź metoda analityczna stosowana krok po kroku) znalezienie na polskiej giełdzie portfela minimalnego ryzyka wymaga rozwiązania przynajmniej kilkuset równań. Nie da się tego zrobić nie tylko przy użyciu ołówka, ale nawet przy użyciu ogólnie dostępnych arkuszy kalkulacyjnych. Potrzebne do tego jest specjalistyczne oprogramowanie.

Światowe uznanie w zakresie tworzenia oprogramowania ułatwiającego dywersyfikację ryzyka mają dwie firmy: Barra i RiskMetrics. Obie, poza prostym przeniesieniem do swoich programów modeli teoretycznych zajmują się również rozwijaniem własnych metod szacowania i redukcji ryzyka. Barra istnieje na rynku od 1975 roku. W tym czasie dorobiła się kilku programów wspomagających zarządzanie ryzykiem portfela. Do najbardziej znanych należą Aegis Portfolio Manager i Cosmos System. Poza oprogramowaniem Barra znana jest z autorskich algorytmów wyznaczania składu portfeli takich jak Screen i Strat. RiskMetriks jest dużo młodszą firmą, istniejąca dopiero od początku lat dziewiąćdziesiątych. Jednak dzięki dynamicznemu rozwojowi jest obecnie lepiej znana na rynku. Wynika to przede wszystkim z nacisku położenego na tworzenie modeli zarządzania ryzykiem. Większość metod opracowanych przez RiskMetriks jest publikowana w postaci ogólnie dostępnych algorytmów, co pozwala na lepsze zrozumienia działania programów tej firmy, dzięki czmu zdobywaja coraz większe uznanie. Do analizy ryzyka inwestycji służy RiskManager i CDO Manager. Mimo bardzo dobrych opinii na temat programów zagranicznych, największą popularność w zakresie oprogramowania do analizy portfelowej w inwestycjach giełdowych zdobył w Polsce program Kapitał firmy Motte. Podobnie jak światowe wzorce poza stosowaniem klasycznych, ogólnie dostępnych modeli, firma Motte zastosowała w Kapitale własne rozwiązania. Portfele pełzające, budowane w celu najbezpieczniejszego wyprzedzenia indeksu odniesienia nie mają konkurencyjnych odpowiedników w programach innych firm.

Na marginesie tych rozważań należy wspomnieć też o wycenie pojedynczych walorów. Jest to element silnie związany z analizą portfelową z dwóch powodów. Po pierwsze wycena czy szacunek ryzyka niemal zawsze jest wykorzystywane właśnie w analizie całego portfela (zapewnia to obniżenie błędu prognozy lub wycena dotyczy instrumentów specjalnie skonstruowanych do zabezpieczania pozycji w portfelu). Z drugiej strony niektóre z modeli wyceny bazują na założeniu, że istnieją portfele całkowicie zdywersyfikowane. Dzięki temu można oszacować ryzyko jednej ze składowych na podstawie innych, łatwiej analizowalnych składników. Analiza pojedynczych papierów przede wszystkim dotyczy instrumentów pochodnych, czyli opcji bądź kontraktów terminowych. Za jeden z najlepszych programów w tej dziedzinie uznawany jest OptionStation. Poza analizą instrumentów pochodnych w zakresie analizy pojedynczego instrumentu od kilku lat coraz większą popularność zdobywają modele heteroskedastyczne. Cechą tych modeli jest to, że mogą być stosowane nie tylko do analizy cen akcji na giełdzie, ale do analizy dowolnego zjawiska ekonomicznego. Jedynym warunkiem, który musi być spełniony to odpowiednio duża liczba danych opisujących dane zjawisko. Modele heteroskedastyczne umożliwiają analizę wariancji składnika resztowego modeli. Dzięki temu można konstruować nawet dość proste modele prognostyczne, które mogą mieć wyższą od oczekiwanej trafność działania. Efekt ten uzyskuje się właśnie poprzez analizę składnika losowego i wykorzystanie spostrzeżenia, że składnik ten podlega prawom serii to znaczy większe i mniejsze jego wartości grupują się w dłuższe ciągi. Jednym z programów, który umożliwia konstruowanie modeli heteroskedastycznych jest pakiet MatLab. Specjalizowane modele heteroskedastyczne (stosowane między innymi do prognozowania zużycia energii elektrycznej) są też używane w programach z serii TOPS firmy SavvySoft. Warto przy tym wiedzieć, że modele heteroskedastyczne mogą być fragmentem wyceny instrumentów pochodnych bądź służyć do oceny wielkości składnika resztowego w portfelach. Tak na przykład jest w programach firmy RiskMetriks, gdzie modele o cechach heteroskedastycznych są stosowane w sposób niejawny.

Poza analizą portfelową w zakresie inwestycji ten rodzaj modelowania stosuje się również w zarządzaniu ryzyku kredytowym. Jakkolwiek idea problemu jest bardzo zbliżona, czyli łączenie ze sobą różnych kredytów powoduje zmniejszenie ryzyka ponoszonego przez kredytodawcę, w praktyce wykorzystuje się do tego celu inne oprogramowanie niż stosowane do dywersyfikacji ryzyka inwestycji. Do najpopularniejszych programów z tej dziedziny należą CreditManager firmy RiskMetrics oraz seria programów Kondor produkowanych przez Reutersa. W większości przypadków programy te są modyfikowane i dostosowywane do potrzeb poszczególnych odbiorców. Dzięki temu funkcjonalność poszczególnych instalacji może znacząco się różnić.

2.2 Analiza spektralna i cykle

Fakt, że zjawiska ekonomiczne podlegają cykliczności był podejrzewany już bardzo dawno temu. Znajomość okresowej regularności ruchów cen akcji dawałaby potężną przewagę, pozwalającą w trafny sposób przewidywać kursy na wiele sesji naprzód. Istnieją przy tym przekonywające argumenty na rzecz występowania cykli na giełdzie. Szereg czynników, które mogą mieć wpływ na ceny akcji, ma charakter periodyczny. Regularnie co tydzień następuje weekendowa przerwa w funkcjonowaniu giełdy; wielu inwestorów, amatorów co miesiąc otrzymuje pieniądze, które mogą lokowć na giełdzie; w regularnych odstępach czasu spółki publikują swoje wyniki finansowe; długoterminowe zlecenia tracą ważność w tym samym dla wszystkich zleceń momencie; banki centralne większości państw regularnie ogłaszają zmiany oficjalnych stóp procentowych; różne pory roku regularnie wpływają na kondycję finansową większości spółek, co roku w taki sam sposób. Tradycyjnym narzędziem, używanym przy poszukiwaniu cykli jest zwykła linijka, którą mierzy się odległości między istotnymi dołkami i szczytami notowań. Stosując tę metodę, łatwo się jednak pomylić. Oprócz składowych regularnych dużą rolę w kształtowaniu cen na giełdzie odgrywają przypadkowe szumy, które często zupełnie zniekształcają obraz sytuacji. Mogą one uniemożliwić dostrzeżenie istotnych okresowości. Z drugiej strony, psychologiczna tendencja do wyszukiwania regularności sprawia, że łatwo jest znaleźć "cykle" nawet w zupełnie losowym przebiegu. Nie ma więc żadnej gwarancji, że widoczna "na oko" okresowość w ogóle występuje. Ostatnim problemem jest nakładanie się na siebie cykli o niewymiernych okresach. Efekt takiego złożenia może być niezauważalny nawet dla bardzo sprawnych w tej dziedzinie analityków. Jedynym skutecznym sposobem na znalezienie ewentualnej okresowości jest zastosowanie efektywnych algorytmów wbudowanych w specjalistyczne oprogramowanie.

Pozornie najprostszym sposobem znajdowania okresowości jest zastosowanie transformaty Fouriera w odniesieniu do badanego przebiegu. Funkcja taka (najczęściej w wersji FFT) występuje w wielu zaawansowanych programach analitycznych na przykład MatLabie. Jednak efektywność wykorzystania tego mechanizmu często nie jest zadowalająca. Przyczyną są błędy w założeniu stosowania transformaty Fouriera do analizy przebiegów ekonomicznych. Przekształcenie całej dostępnej historii danych w składowe okresowe oznacza, iż przyjmujemy (bardzo często zupełnie nieświadomie), że od następnego dnia historia zacznie się powtarzać. Oczywiście tak nie jest, więc przekształcenie to określa wyłącznie jak w historii układał się rozkład przebiegu na składowe okresowe. Nie ma to żadnego związku z przyszłą okresowością, która wcale nie musi wystąpić.

Do analizy przebiegów giełdowych wykorzystuje się więc inne mechanizmy, często zaczerpnięte z fizyki. Jednym z takich rozwiązań jest MESA (Maximum Entropy Spectrum Analysis) autorstwa Johna Ehlersa. Algorytm ten jest wykorzystywany w programie o tej samej nazwie firmy MesaSoftware. Jego idea bazuje na traktowaniu inwestorów jako mechanizmu filtrującego nieskończoną ilość informacji docierającą na rynek w postaci białego szumu. Mesa traktuje ceny jako przebieg losowy i próbuje dopasować (w sposób adaptacyjny) filtr, który na wyjściu generowałby przebiegi jak najbardziej zbliżone do rzeczywistych przebiegów giełdowych. Autor algorytmu wychodzi przy tym ze słusznego przekonania, że inwestorzy zmieniaja swoje zachowanie na tyle powoli, że w nabliższym czasie ich reakcje będą niemal takie same jak w przeszłości. Dzięki temu może w pewnym przybliżeniu szacować zachowanie rynku w najbliższej przyszłości. Zupełnie inne podejście proponuje program Cyklop firmy Motte. Tu również korzenie sięgają zaawansowanej fizyki. Analizowany przebieg poddawany jest rozszeczepieniu w sposób analogiczny do rozszczepienia występującego na siatce dyfrakcyjnej. W programie można obserwować rozszeczepione widmo i wychwytywać miejsca o największym znaczeniu dla przebiegu (najjaśniejsze w rozszczepionym widmie). Dzięki temu można określić, które częstotliowści są w przebiegu najistotniejsze. Składając tylko te najważniejsze można otrzymać przebieg wzorcowy (niezaszumiony małoznaczącymi częstotliwościami). W programie Cyklop ujawnia się przy tym pozorny paradoks - przebieg składający się tylko z najważniejszych częstotliwości wcale nie musi być bardziej wygładzony od swojego zaszumionego odpowiednika. Wynika to z faktu, że podstawowe składowe okresowe przebiegu cenowego wcale nie są gładkie.

Poza mechanizmami wbudowanymi do specjalizowanych programów analize przebiegów czasowych pod kontem częstotliwości można przeprowadzić z użyciem narzędzi ogólnych (na przykład wspomniany MatLab, który umożliwia programową filtrację sygnałów w najróżniejszy sposób). Warunkiem jest jednak stworzenie własnych algorytmów i skryptów realizujących te algorytmy w języku tego pakietu. Najczęściej nie jest to sprawą prostą i dostepną przeciętnemu analitykowi (często wiedza z zakresu fizyki, elektroniki bądź informatyki znacząco przekracza zakres wiedzy analityków giełdowych, czy nawet uznanych specjalistów od modeli ekonomicznych). Jednak z własnego doświadczenia wiem, że osiągnięte wyniki mogą być bardzo ciekawe i wnosić wiele konstruktywnych wniosków. Na marginesie samodzielnego pisania skryptów do pakietu MathLab można poruszyć kwestię spektralnego podejścia do analizy portfelowej. Istnieje bardzo świeży, zupełnie nie wyeksplaatowny pomysł na konstrukcję portfela w taki sposób, aby podbijać (bądź obniżać) amplitudę różnych częstotliwości zmian inwestycji poprzez właściwe ich grupowanie. Rozwiązanie takie będzie łączyło ze sobą analizę częstotliwości z analizą portfelową. Na razie nie słyszałem o specjalizowanym oprogramowaniu, które zapewniałoby taką funkcjonalność, więc jedynym rozwiązaniem są właśnie pakiety ogólnego przeznaczenia.

2.3 Analiza chaosu

Chaos to jedno z młodszych zjawisk, które ujawniło się wyłącznie dzięki istnieniu komputerów i bez nich byłoby prawdopodobnie zupełni niezauważone. Odkrywca zjawiska Edward Lorentz jak to często bywa, natrafił na nie przez przypadek. W 1956 roku uczestniczył w programie konstruowania algorytmów prognozowania pogody. Aby wykazać, że badane metody nie są poprawne musiał znaleźć układ 12 równań, który dawałyby niecykliczne i nieregularne, ale jednocześnie deterministyczne rozwiązania (da się numerycznie przewidzieć ich najbliższe wartości). Na skutek kilkukrotnego powtarzania takich samych doświadczeń Lorentz zauważył, że nieznaczne różnice na początku doświadczenia skutkują rozbieżnościami porównywalnymi wielkością z samym sygnałem już po kilkudziesięciu iteracjach. W praktyce oznacza to, że nawet gdybyśmy wyznaczyli zupełnie poprawny model zjawiska ekonomicznego nie da się za jego pomocą prognozować tego zjawiska w dłuższym okresie. Wynika to z czułej zależności od warunków początkowych i jest jedną z podstawowych własności chaosu. Parametr ten umożliwia nam określenie, czy układ jest chaotyczny czy też nie. Wielkość tej czułości określa się liczbowo z użyciem wykładnika Lapunowa. Jego dodatnia wartość świadczy o rozbieżności układu, czyli całkowitej niemożności prognozowania. Jednocześnie istnieją momenty, kiedy wspomniany wykładnik jest ujemny, czyli obserwowane zjawisko jest przynajmniej częściowo prognozowalne. Do analizy wielkości wykładnika Lapunowa służy algorytm Wolfa. Algorytm ten, zapisany w języku Fortran jest publicznie dostępny i można go wbudować w dowolne narzędzie specjalizowane do analizy zjawisk ekonomicznych.

Na marginesie analizy wykładnika Lapunowa należy wspomnieć o ciemnej stronie zastosowania komputerów w analizie i inwestowaniu na rynkach finansowych. Bardzo często o chaosie deterministycznym mówi się, że jest to porządek udający bałagan. Gdyby w przebiegach giełdowych pojawił się jednak fragment deterministyczny prawdopodobieństwo zaobserwowania wystąpienia tej sytuacji byłoby bardzo małe. To znaczy może wystąpić taka sytuacja, że przyszłe zachowanie (przynajmniej to krótkookresowe) jest dobrze prognozowalne (gdyż jest zbieżne do deterministycznego modelu), jednak nikt nie jest w stanie tego zauważyć. Pozornie nie wpływa to na stabilność rynku finansowego. I to oczywiście prawda, pod warunkiem, że ten krótkotrwały zbieżny fragment notowań pojawi się spontanicznie. Niestety istnieje teoretyczna możliwość, żeby taki deterministyczny przebieg pojawił się na skutek działań zorganizowanej grupy inwestorów. Problemem przy tym jest wielka trudność udowodnienia zaistnienia zmowy inwestorów, ze względu na to, że dla zewnętrznego obserwatora działanie to nie miałoby na celu wywołania zwyżki bądź zniżki kursu a jedynie wepchnięcie go na stabilną orbitę atraktora (co jest procesem niemożliwym, bądź bardzo trudnym do zaobserwowania). Próbę wykrycia zaistnienia takiej sytuacji można przeprowadzić z użyciem pakietu Maple. Pomocą w wykrywaniu takich nielegalnych działań, ale również w znajdowaniu dobrych okazji do inwestowania jest metoda Recurrent Plots. Metoda ta umożliwia wykrycie istnienia fragmentów przebiegów cenowych leżących na stabilnych orbitach dziwnych atraktorów. Jednym z najbardziej kompletnych programów umożliwiających wszechstronną analizę szeregów czasowych pod kontem chaosu jest program DataPlore.

Chaos, jakkolwiek bardzo modny wśród teoretyków oraz praktyków niezwiązanych z rynkiem finansowym jest na razie bardzo słabo reprezentowany w dziedzinie zjawisk ekonomicznych. Jedną z niewielu firm zajmujących się ta kwestią w sposób profesjonalny jest szwajcarska firma OlsenData. Podobnie jak znane i wymieniane wcześniej firmy Barra i RiskMetriks OlsenData zajmuje się konstruowaniem modeli teoretycznych, edukacją i publikacjami na temat zaawansowanych teorii związanych z rynkiem kapitałowym i produkcją opogramowania bazującego na opisywanych modelach. Jednym z ciekawszych rozwiązań jest program OPAS (Olsen Portfolio Allocation System) firmy RiskEye zależnej od OlsenData. Przeznaczony on jest do analizy ryzyka inwestycji i uwzględnia chaotyczne modele rynku kapitałowego.

3 Modelowanie zjawisk złożonych

Wszystkie wymienione wcześniej modele i programy komputerowe umożliwiające korzystanie z tych modeli bazowały na rozwiązaniach deterministycznych. To znaczy producent bądź autor zakładali jakąś zależność istniejącą w ramach analizowanego zjawiska, a program umożliwiał zbadanie badź wykorzystanie tego modelu. Co jednak zrobić w przypadku, gdy model zjawiska ekonomicznego nie jest jawnie znany, a chcielibyśmy spróbować prognozować jego zachowanie? Należy wykorzystać algorytmy samodzielnie znajdujące rozwiązania optymalne.

3.1 Sieci neuronowe

Funkcjonowanie mózgu fascynowało ludzi od wielu pokoleń. Już w XVIII wieku próbowano konstruować urządzenia do gry w szachy, które mogłyby wykazać się samodzielną umiejętnością analizowania sytuacji i podejmowania inteligentnych decyzji. Jednak gra w szachy posiada ściśle określone i dość łatwo algorytmizowalne zasady (problemem jest jedynie liczba możliwych rozwiązań). Wśród zjawisk ekonomicznych wiele jest takich, które mają tylko częściowo określone lub zupełnie nieokreślone reguły działania. Do częsciowo określonych zjawisk należy na przykład rynek energii elektrycznej. Wiadomo, że występują silne związki przyczynowo-skutkowe między upływem czasu i zużyciem energii (w zakładach przemysłowych występuje cykl dzienny i cykl tygodniowy, wśród odbiorców indywidualnych dodatkowo cykl roczny). Zupełnie inaczej ma się sytuacja w przypadku rynków finansowych. Tu nie występują żadne jawne zależności między innymi zjawiskami, a na przykład ruchami cen na giełdzie. Co prawda wielu teoretyków próbuje je znaleźć, ale jak na razie bez żadnych zachwycających efektów. W przypadku braku jawnych związków przyczynowo-skutkowych należy zastosować systemy samodzielnie wykrywające te związki.

Jednym z bardziej popularnych systemów posiadających zdolność uczenia się są sieci neuronowe. Stanowią one nowoczesne narzędzie analityczne posiadające unikalne cechy, takie jak zdolność uczenie się i generalizacji zdobywanej wiedzy. Efektem staje się umiejętność wyciągania wniosków nawet na podstawie danych niekompletnych bądź znacząco zaszumionych. Warto zauważyć, że przyswajanie wiedzy przez sieci neuronowe może odbywać się w sposób ciągły (wraz z pojawianiem się najnowszych informacji o analizowanym zjawisku). Tak więc rozwój dziedzin w których sieci są stosowane, nie powoduje dezaktualizacji modeli implementowanych przez nie. Wydaje się, że jest to chyba jedyna technologia, która jest w stanie zautomatyzować zadania związane z koniecznością analizy coraz większych ilości informacji. Można się spodziewać, że firmy, które już teraz stosują systemy oparte na tej technologii, uzyskają z czasem istotną przewagą nad konkurencją, dla której termin "sztuczna inteligencja" pozostaje tylko egzotycznie brzmiącym zwrotem. W praktyce sztuczne sieci neuronowe to nic innego jak programy komputerowe, które symulują działanie mózgu. Istnieje wiele symulatorów systemów neuronowych. W Polsce firma AiTech jest producentem pakietu Sphinx (nagradzany między innymi przez PTI na Softarg 2000). Przez dłuższy czas standardem na świecie był BrainMaker. Obecnie popularność zdobywa NeuroSolution firmy NeuroDimension. Poza programowymi symulatorami sieci neuronowych istnieją także symulatory sprzętowe. Mają one postać kart rozszerzających możliwości komputera, bądź samodzielnych urządzeń. Ostatnimi czasy sprzętowe symulatory tracą na popularności ze względu na coraz szybsze komputery o uniwersalnych możliwościach. Wśród ciągle produkowanych symulatorów sprzętowych można wymienić na przykład kartę ZISC, produkowanej we francuskim oddziale IBM.

Sam symulator sieci neuronowej może być jednak porównywalny do umysłu noworodka. Nic nie umie i nie ma żadnych umiejętności. Wszystkiego trzeba go uczyć i wszystko pokazywać. Różnica jest taka, że małe dziecko poznaje jednocześnie wiele dziedzin (musi się nauczyć mówić, chodzić, rozpoznawać dobre i złe uczynki). Ponadto niektóre reguły rządzące światem są dziecku podawane w sposób jawny. Z symulatorem sieci neuronowych jest inaczej. Po pierwsze musi nauczyć się rozwiązywania tylko jednego problemu. Po drugie jako przykłady pokazywane mu są wyłącznie szczególne przypadki zjawiska ekonomicznego zaistniałego w przeszłości. Na podstawie zbioru tych przypadków symualtor musi sam zbudować regułę, która rządzi tym zjawiskiem. Reguła ta to nic innego jak parametry nieliniowej funkcji o wielu wejściach, która jak najlepiej określa zależność między wejściem, a wyjściem. Jakkolwiek dużo zależy od wyboru struktury i typu sieci neuronowej oraz od sposobu jej nauki według moich doświadczeń wybór symulatora sieci zależy raczej od preferencji osoby trenującej i od możliwości środowiskowych niż od analizowanego zjawiska (oczywiście pod warunkiem, że symulator jest odpowiednio uniwersalny). O sukcesie w bardzo dużym stopniu decyduje jednak człowiek, który trenuje sieć neuronową. To on musi wybrać zmienne wejściowe podawane sieci neuronowej, ich liczbę, strukturę sieci, sposób nauki adekwatny do analizowanego problemu oraz kryterium na podstawie którego sieć ma być uczona. Oczywiście istnieją narzędzia wspomagające podejmowanie takich decyzji, ale ostateczne zdanie należy do człowieka. W zakresie analizy rynku kapitałowego jedne z lepszych efektów w Polsce osiągają bracia Zbigniew i Ryszard Łukoś. Są autorami doskonałej strategii inwestycyjnej Portfel neuronowy istniejącej przez kilka lat w Beskidzkim Domu Maklerskim oraz bardzo skutecznego systemu Obligacje, używanego przez jeden z największych banków w Polsce.

Sieci neuronowe są bardzo wszechstronnym narzędziem i wykorzystanie ich w analizowaniu zjawisk ekonomicznych nie ogranicza się tylko do prognozowania zmian cen na giełdzie czy wyboru najlepszej strategii inwestycyjnej. Pomysłów na użycie tego narzędzia może być bardzo dużo. Poza wymienionymi do najczęściej spotykanych należy wyznaczanie optymalnej drogi w procesach logistycznych. Poza tym w fazie eksperymentalnej są zastosowania sieci neuronowych do analizy bezpieczeńtwa transakcji z użyciem kart kredytowych czy wykrywania nadużyć giełdowych. W tym drugim przypadku sieć uczy się po prostu zachowania rynku, które można uznać za naturalne i stara się wychwytywac takie przypadki, które nie przystają do tego naturalnego zachowania, alarmując osobę nadzorującą transakcje. Chodzi tu o wykrywanie oszustw typu insider trading, czyli wykorzystanie wiadomości poufnych przed ich publicznym ogłoszeniem. Podobnie jest w przypadku wykorzystania kart kredytowych. Jeżeli występuje odstepstwo od klasycznego zachowania użytkownika karty i jest ono jest zbyt wielkie, istnieje podejrzenie, że karta jest wykorzystywana przez osobę nieuprawnioną (złodzieja). W praktyce może się to wiązać z koniecznościa podania dodatkowego kodu autoryzacyjnego. Z jednej strony jest to utrudnienie, lecz zapewnia podniesienie bezpieczeństwa naszych pieniędzy.

3.2 Inne systemy niedeterministyczne

Pisząc o wyborze zmiennych wejściowych wspominałem o narzędziach wspomagających człowieka w wyborze zmiennych wejściowych do systemu neuronowego. Do tego celu można używać klasycznych programów statystycznych (np. SPSS). Można też skorzystać z modelowania genetycznego. Poszukiwanie rozwiązań optymalnych za pomocą systemów genetycznych to kolejny pomysł bazujący na podglądaniu życia. W prawdziwym życiu urodzenie dziecka wiąże się zawsze z pewnym wymieszaniem cech genetycznych obojga rodziców. Wzorując się na tym programy wykorzystujące algorytmy genetyczne tworzą całą populację z możliwych rozwiązań danego problemu (tak jakby urodziło się od razu wiele różnych dzieci). Przez wielokrotnie powtarzanie urodzin przypadkowych lub najlepiej przystosowanych osobników, tworzone są kolejne populacje, z których każda charakteryzuje się zwiększeniem jakości rozwiązania. W konsekwencji algorytmy genetyczne sterują ewolucją rozwiązań za pomocą procesów genetycznych. W programie symulującym ewolucję genetyczną możemy intensywniej eliminować osobniki źle spełniające nasze oczekiwania i szybciej dzięki temu doczekać się rozwiązań optymalnych. Dobrym przykładem praktycznym jest poszukiwanie optymalnej drogi w systemie logistycznym (obecnie kwestie logistyczne rozwiązuje się inaczej, ale przedstawiona zasada jest jak najbardziej słuszna). W początkowej fazie generuje się kilkadziesiąd przypadkowych dróg, którymi może odbywać się transport. Wielokrotnie krzyżując te drogi ze sobą (wybierając fragmenty z różnych rozwiązań) mamy szansę osiągnąć najlepsze rozwiązanie. Algorytmy genetyczne stosuje się też do poprawiania pracy długich rurociągów i gazociągów. Do optymalizacji genetycznej stosuje się najczęściej rozwiązania dedykowane tworzone na zamówienie. Istnieją jednak ogólnie dostępne programy, które umożliwią zapoznanie się z problemem. Należy do nich na przykład program GeneHunter firmy WardSystems.

Do systemów samodzielnie znajdujących najlepsze rozwiązanie można też zaliczyć algorytmy poszukujące minimalizacji problemów kombinatorycznych np-zupełnych metodami przybliżonymi. Problemy np-zupełne, to takie przypadki, gdzie liczba możliwych rozwiązań rośnie w sposób wykładniczy w stosunku rozmiaru problemu. Klasycznym przykładem jest problem komiwojażera, który musi odwiedzić pewną liczbę miast poruszając się po najkrótszej trasie. Przypadek o 20 miastach wymaga kilkaset milionów razy więcej operacji, niż przypadek z 10 miastami. Rozwiązanie problemu (w sposób brutalny, czyli sprawdzenie wszystkich kombinacji) dla 100 miast zajęłoby zapewne współczesnym komputerom więcej czasu, niż wiek ziemi. Istnienie problemów tego typu wymusiło powstawanie nowych metod, które umożliwiłyby znalezienie rozwiązania optymalnego, bądź bliskiego optymalnemu w zadowalającym czasie.

Tak jak wcześniej napisałem rozwiązań tego typu problemów można poszukiwać z użyciem algorytmów genetycznych. Stosuje się też specjalistyczne symulatory neuronowe korzystające z sieci Hopfielda. Jednak obecnie przyjmuje się, że najlepszym podejściem do tej kwestii (występującej przede wszystkim w zadaniach związanych z procesami logistycznymi w dużych firmach) są algorytmy mrówkowe. Po raz pierwszy jego użycie zaproponował Marco Dorigo, wzorując go na zachowania kolonii mrówek - owadów o niewielkich indywidualnych zdolnościach, potrafiących doskonale ze sobą współdziałać tworząc bardzo sprawne rozwiązania logistyczne. Znalezienie najkrótszej trasy między mrowiskiem a pożywieniem to zadania wykonywane na co dzień z bardzo wysoką efektywnością. Mrówki osiągają takie efekty dzięki znaczeniu trasy swojej podróży za pomocą feromonu pozostawianego na podłożu. Feromon to substancja zapachowa, która skłania te owady do podążania w kierunku jej najsilniejszego stężenia. Mrówka wydziela feromon w sytuacji gdy znalazła pożywienie i powraca z nim do gniazda. Informuje w ten sposób pozostałe mrówki o lokalizacji tego pożywienia. Zdolność do znajdowania najkrótszej drogi wynika z faktu, że krótsze drogi będą pokonywane szybciej i zostaną intensywniej oznaczone dodatkowym śladem feromonowym. Silniejszy ślad przyciągnie następnie większą ilość mrówek, które spowodują powstanie dodatniego sprzężenia zwrotnego. Każda następna mrówka idąca tą samą trasą dołoży swój ślad, zwiększając tym samym jej atrakcyjność. Dzięki takiemu zachowaniu mrówek, w krótkim czasie prawie wszystkie osobniki będą podążać najkrótszą z dostępnych tras. Algorytmy mrówkowe stosuje się do wielu problemów optymalizacji globalnej, w których (dla algorytmów deterministycznych) barierą nie do pokonania jest złożoność obliczeniowa. Jakkolwiek są to metody przybliżone, rozwiązania proponowane przez te algorytmy są bardzo bliskie optymalnym, przy znacznie niższych kosztach czasowych powstawania.

W ramach systemów niedetrministycznych można wymienić różnego rodzaju algorytmy przeszukiwania przestrzeni wyników w sposób pozwalający na szybkie znalezienie optymalnego rozwiązania. Do algorytmów takich należy na przykład przeszukiwanie tabu. Tu również efektem jest znalezienie rozwiązania nieistotnie różnego od optymalnego, w czasie istotnie mniejszym od przeszukania wszystkich możliwości. Innym podejściem jest stosowanie tak zwanych heurystyk, czyli algorytmów pozwalających odrzucić pewne rozwiązania bez ich pełnego sprawdzania. Dzięki temu następuje znaczące obniżenie kosztów rozwiązania bez zbytniego niebezpieczeństawa ominięcia najlepszego wyniku. Algorytmy mrówkowe, przeszukiwanie tabu czy inne podobne rozwiązania należą do rozwiązań niszowych, tworzonych najczęściej na bezpośrednie zamówienie odbiorcy.

3.3 Systemy wspomagania decyzji

Po początkowej fazie fascynacji zaawansowanym przetwarzaniem danych zrodziła się potrzeba zautomatyzowania tego procesu do takiej postaci, aby użycie tych programów wymagało jak najmniej wiedzy czysto informatycznej. Ponadto użytkownicy chcieli stawiać pytania i otrzymywać odpowiedzi w języku naturalnym. Wymagania te nie były spełniane przez klasyczne programy analityczne bądź uczące się. W związku z tym zapotrzebowaniem powstały systemy ekspertowe. Operując ogólnymi przykładami można powiedzieć, że są to programy pozwalający gromadzić wiedzę ludzi-ekspertów (w formie faktów i reguł wnioskowania) i udostępniać ją użytkownikom (nie-ekspertom) w sposób zbliżony do dialogu z innym człowiekiem. Dzięki umiejętności formułowania pytań i zrozumienia odpowiedzi, udzielanych nawet potocznym językiem, system ekspertowy potrafi rozwijać tę wiedzę wywodząc w drodze wnioskowania nowe reguły i fakty. Program taki, prowadząc z użytkownikiem rozmowę potrafi, na podstawie wielu fragmentarycznych informacji (niekompletnych bądź nieprecyzyjnych), określić na przykład: obiekt, stan, procedurę, postawić diagnozę lub sporządzić prognozę lub doradzić co czynić w danej sytuacji. Działanie programu oparte jest na bazie wiedzy, bazie reguł wnioskowania oraz algorytmie uczącym się bądź prognozującym stan jakiegoś zjawiska. Bardzo często systemy ekspertowe potrafią samodzielnie gromadzić nie tylko dane, ale i reguły wnioskowania. Tak więc powtórne wystąpienie podobnego problemu skraca czas dojścia programu do właściwego wniosku. Oczywiście programy ekspertowe są ekspertami tylko w jednej dziedzine to znaczy program znający się na inwestycjach giełdowych niekoniecznie musi się znać na ryzyku kredytowym, a na pewno nie będzie się już znał na logistyce przedsiębiorstwa.

Mimo wielu zalet systemy ekspertowe nie znalazły bardzo szerokiego zastosowania w analizach ekonomiczych. Z reguły bowiem ich działanie jest bardziej nastawione na odbiorcę masowego i nie przygotwanego do rozwiązania problemu. W zakresie analiz zjawisk ekonomicznych rzadko zdarza się taka sytuacja. Najczęściej dyrektor lub prezes firmy posiadają na tyle dużą wiedzę o swojej firmie i o sposobie zarządzania nią, że nie potrzebują zadawać ogólnych pytań i otrzymywać ogólnych odpowiedzi. Na potrzeby zaawansowanych managerów powstają systemy wspomagania procesu podejmowania decyzji (DSS - decision support systems). Są to pakiety programów wspomagające biznesowe i organizacyjne czynności decyzyjne. W praktyce do DSS zalicza się aplikacje, które służą do analizowania i wnioskowania na podstawie zasobów informacyjnych przedsiębiorstwa. Pozwalają sprawdzić jakie efekty mogą przynieść różne rozwiązania tego samego problemu oraz pomagają wdrażać długotrwałe projekty, zwłaszcza te, które już na etapie pomysłu powstały w wersji wariantowej, zależnej od przyszłego rozwoju sytuacji. Poza wyznaczaniem celów strategicznych DSS mogą służyć do śledzenia ich realizacji jak i przekrojowego raportowania. Poza tym nadają się do zarządzania zasobami ludzkimi (włącznie z wychwytywaniem najmniej lub najbardziej efektywnych pracowników), analizy opłacalności wytwarzania poszczególnych produktów czy skuteczności kanałów dystrybucyjnych. Często też systemy wspomagania podejmowania decyzji stosuje się tam, gdzie nie ma określonej procedury prowadzącej do optymalnego rozwiązania. DSS pomaga stworzyć wtedy wiele alternatywnych planów i symulować ich wykonanie, ułatwiając wybór najlepszego rozwiązania.

Systemy wspomagania podejmowania decyzji są najczęście pakietami tworzonymi we własnym zakresie przez zaawansowane działy IT na bazie narzędzi typu OLAP bądź Statistica (zwłaszcza w wersji WebStatistica Knowledge Portal, która umożliwia publikowania danych w internecie bądź intranecie). Takie podejście wynika z faktu, że większość danych i tak trzeba importować z własnych systemów informatycznych firmy. Tak więc udział firmowego działu IT i tak jest bardzo wysoki w każdym takim projekcie. Jeśli jednak firma decyduje się jednak na zakup systemu na zewnątrz ma w Polsce do wyboru klika rozwiązań. Pakietami takimi zajmują się między innymi firmy InfoVide, Hogart czy BPSC.

3.4 Modelowanie na agentach

Z podobnej potrzeby jak systemy wspomagania podejmowania decyzji zrodziło się modelowanie na agentach. Mimo dużych podobieństw w genezie technologia ta działa zupełnie inaczej. Klasyczne drążenie danych (data mining) bazuje na informacjach statycznych. Umożliwia wykrycie nieoczywistych zależności, jednak tylko wtedy, gdy zależności te występują w danych zagregowanych. Sam proces agregacji często jest bezwzględnie koniczny ze względu na wielowymiarowość procesów zachodzących w przedsiębiorstwach. Trudno wymagać od menadżerów, aby analizowali kostki OLAPowe o kilkuset wymiarach (nawet, gdyby było to możliwe). Poza tym największy kłopot sprawiają dynamiczne systemy złożone, których nie da się opisać nawet za pomocą skomplikowanych zależności globalnych. I tu pojawia się miejsce na modelowanie z użyciem agentów. Jakkolwiek bowiem fakt, że reguły globalne nie dają się ująć w jawne algorytmy, nie przesądza tej kwestii w odniesieniu do lokalnych zachowań. Cechą systemów złożonych jest to, że funkcjonują jako całość. Analiza zachowania pojedyczego fragmentu może być bowiem zupełnie inne w czasie, gdy badamy go samodzielnie i w całości. Na przykład bardzo prosto określić reguły czasowe i prawdopodobieństwo awarii pojedynczego samochodu. Jeśli jednak firma posiada kilkaset samochodów, nie wszystkie trasy muszą być bezwzględnie codziennie przemierzane, a samochód z trasy mniej ważnej może zostać przesunięty na trasę priorytetową, wtedy określenie efektywności działania całej sieci może być bardzo trudne. Chyba, że stosuje się modelowanie na agentach. Każdy z samochodów to jeden agent (bardzo prosty do zdefiniowania). Każda trasa to kilka podstawowych parametrów (często również banalnych do zakodowania). Zestawem takich danych programuje się odpowiedni symulator i już po kilkudziesięciu tysiącach iteracji (wykonanych w ciągu jednego dnia) wiadomo gdzie są potencjalne zagrożenia, a gdzie zabezpiezenie jest nadmierne (i można z niego zrezygnować bez szkody dla niezawodności, a z zyskiem dla firmy). Czasem więc warto pomyśleć o zatrudnieniu zewnętrznej firmy consultingowej, która prowadzi doradztwo logistyczne.

Modelowanie na agentach bardzo często wykorzystuje się do optymalizacji sieci logistycznej przedsiębiorstwa. Każdy agent reprezentuje najprostszy możliwy fragment sieci, wraz z regułami rządzącymi zachowaniem tego fragmentu. Tak powstałą sieć optymalizuje się sekwencyjnie (najczęściej z wykorzystaniem algorytmów mrówkowych). Następnie dokonuje się modyfikacji algorytmu działania agentów i dokonuje się powtórnej optymalizacji. Proces ten powtarza się tak długo, aż w systemie zaczną się pojawiać zakleszczenia (system przestanie spełniać swoją założoną funkcjonalność). Dzięki temu można wyeliminować niepotrzebne koszty. W podobny sposób buduje się model w najnowszej metodzie zarządzania ryzykiem kredytowym. W rozwiązaniach klasycznych każdy z instrumentów kredytowych lub każda z grup klientów, opisana jest tym samym algorytmem zachowania. Różne są tylko parametry poszczególnych grup. Dodatkowo definiuje się korelację zachowań, która jako element trudno wyobrażalny może wprowadzać bardzo wiele błędów. W przypadku modelowania z użyciem agentów robi się to zupełnie inaczej. Każda z grup kredytobiorców algorytmizowana jest osobno, z użyciem własnego agenta. Nie ma potrzeby modelowania korelacji, czyli statystycznych związków między grupami. Jeśli takie związki istnieją, to uwzględnia się je jawnie. Na przykład wiarygodność osób pracujących w małych przedsiębiorstwach rodzinnych będzie jawnie zależeć od kondycji tych przedsiębiorstw. Będzie to zależność liniowa z progiem i histerezą. Jej określenie będzie znacznie prostsze, niż oszacowanie korelacji między tymi dwoma grupami, a mimo to bardziej dokładne. Kiedy utworzeni zostaną agenci wszystkich grup, wystarczy tylko dokonać iteracyjnej symulacji, żeby ustalić ryzyko w sposób znacznie dokładnijszy, niż w jakiejkolwiek innej metodzie. Oczywiście z samych założeń modelowania na agentach wynika, że rozwiązania takie muszą być dedykowane i wytwarzane na zamówienie. W USA największy rozgłos w dziedzinie dedykowanych rozwiązań w tej dziedzinie zdobyła firma BiosGroup (obecnie CapGemini).

4 Podsumowanie

Jak widać wykorzystanie informatyki w analizie zjawisk ekonomicznych może być bardzo szerokie. Zaczynając od gromadzenia i pozyskiwania danych, poprzez ich prostą analizę, kończąc na skomplikowanych modelach analitycznych czy procedurach biznesowych. Komputery, ich pojedyncze składniki, oprogramowanie i infrastruktura - wszystko to razem tworzy możliwości ukryte pod pojęciem informatyka. Warto zauważyć, że starałem się ograniczyć materiał wyłącznie do produktów, które w jawny sposób odnosiły się do tematu, czyli wspomagały analizę zjawisk ekonomicznych. Ominąłem całą grupę pakietów używanych do wspomagania zarządzenia przedsiębiorstwem (MRP, ERP, WMS, SCM, CRM itp.), które zawierają w swoich obszernych możliwościach mniejsze lub większe moduły analityczne. Zależało mi na pokazaniu tych narzędzi, które są związane ze wspomaganiem analiz samego zjawiska (na przykład zachowania rynku), a nie obsługi tego przedsięwzięcia (prowadzenie rachunku, obsługa inwestora itp.). Oczywiście mimo tego, że starałem się wymienić wszystkie grupy zjawisk pojedyncze z nich mogłem pominąć. Podobnie jest z programami komputerowymi używanymi w poszczególnych grupach. Zawsze starałem się wymieniać najbardziej znany i popularny bądź najbardziej wszechstronny program. Jednak we wszystkich przypadkach jest to tylko moje osobiste zdanie, a inne osoby mogą mieć inne preferencje w tej kwestii.

Przejdźmy do krótkich rozważań, czy stosowanie informatyki w analizach zjawisk ekonomicznych przynosi jakiekolwiek pozytywne skutki. W większości przypadków teoretycy silne forsują tezę o tak zwanej efektywności rynku, bądź samoczynnym dążeniu do rozwiązań optymalnych. Ekonofizycy często popierają to tezą zaczerpniętą z fizyki, że układy dążą do stanów o ekstremalnej energii. Jednak tezy teoretyczne nie mają pełnego odzwierciedlenia w praktyce. Rozwój metodologii wynikający z coraz większych możliwości numerycznego przetważania dużej ilości danych umożliwiły pojawienie się praktycznych metod, pozwalających na osiąganie wcześniej niemożliwych efektów. To znaczy rozwiązania, które intuicyjnie wydawały się bardzo dobre teraz nie okazują się już takie rewelacyjne. Dzięki zastosowaniu specjalizowanych programów komputerowych możliwe stało się na przykład częściowe prognozowanie ruchów cen bądź optymalizacja procesów gospodarczych w stopniu nigdy wcześniej nieosiągalnym. Właściwe użycie informatyki pozwala więc na znaczące obniżenie kosztów bądź zapewnienie sobie stałych ponadprzeciętnych zysków.

Należy jednak pamiętać, że nie wszystkie modele ekonomiczne czy biznesowe mogą być skutecznie analizowane z użyciem ogólnie dostępnych programów. Procesy bez sprzężenia zwrotnego dają się łatwo modelować z użyciem produktów kupowanych prosto z półki. Jednak w przypadku dziedzin, w których może wystąpić efekt tak zwanej samospełniającej się przepowiedni skuteczność ogólnie dostępnych narzędzi jest bardzo niska. Tak jest na przykład w przypadku prognozowania cen akcji bądź towarów na giełdzie. Gdyby któreś z ogólnie dostepnych narzędzi poprawnie prognozowało ceny, wtedy wszyscy użytkownicy starali by się wyprzedzić znaną przyszłość. Wyobraźmy sobie, że wszyscy wiedzą, że jutro rozpocznie się wzrost cen. Wiedząc o tym racjonalni inwestorzy będą chcieli dokonać zakupów wcześniej, aby zapewnić sobie uczestnictwo w tym wzroście. Duży popyt spowoduje wzrost cen wcześniej, niż wynikało to z prognozy i będzie skutkował niespełnieniem się prognozy. W związku z tym dokonując wyboru narzędzia do analizy należy wziąć ten problem pod uwagę i na tej podstawie zdecydować, czy chcemy używać programu z półki, czy pisanego na zamówienie. Warto pamiętać, że programy standardowe są znacznie tańsze. Za kwotę kilkunastu tysięcy złotych można kupić niezły pakiet programów stystycznych, analitycznych czy neuronowych ogólnego przeznaczenia. Jednak za tę kwote dostaje się najczęściej gołe narzedzie, które trzeba umieć wykorzystywać, często tworząc do niego własne skrypty czy struktury danych. Zatrudnienie właściwego człowieka bądź firmy będzie na pewno znacznie droższe. Jednak efekty działania specjalistów będą na pewno znacznie lepsze. Czy koszty związane z tym, że nastąpi redukcja kosztów bądź zwiększeniem zysków w innym regionie działań będą warte poniesienia? O tym trzeba zadecydować samodzielnie. I to niekoniecznie z użyciem narzędzi informatycznych.

5 Literatura

  • Achelis S., Technical Analysis from A to Z, IRWIN, Chicago1995
  • Brandt S., Analiza danych, WN-PWN, Warszawa 1999
  • Brzeszczyński J., Kelm R., Ekonometryczne modele rynków finansowych, WIG-Press, Warszawa 2002
  • Gamdzyk P., Na kłopoty agenty, ComputerWorld, 24 marca 2003
  • Gatley E. Sieci neuronowe. Prognozowanie finansowe., WIG-Press, Warszawa 1999
  • Gątarek D., Maksymiuk R., Krysiak M., Witkowski Ł., Nowoczesne metody zarządzania ryzykiem finansowym, WIG-Press, Warszawa 2001
  • Głowiński C., Sztuczna inteligencja, PCkurier 4 lutego 1999
  • Goldberg D., Algorytmy genetyczne i ich zastosowania, WNT, Warszawa 1995
  • Górka J., Osińska M., Analiza spektralna stóp zwrotu z inwestycji w akcje, Nowy Rynek Kapitałowy 3/2003
  • Grinold R., Kahn R., Activa Portfolio Management, Probus, Chicago 1995
  • Haugen R., Nowa nauka o finansach, WIG-Press, Warszawa 1999
  • Hołyst J., Żebrowska M., Urbanowicz K., Observations of deterministic chaos in financial time series by recurrence plots, can one control chaotic economy?, The European Physical Journal B 20/2001
  • Hull J., Kontrakty terminowe i opcje, WIG-Press, Warszawa 1997
  • Jarzyński K., Komputer na giełdzie, cykl 310 artykułów, Parkiet, marzec 1994 - czerwiec 2001
  • Jones K. C., Digital Portfolio Theory, Computational Economics, 18/2001
  • Koziński M., Zamiast kryształowej kuli, PCkurier, 21 marca 2003
  • Mantegna R., Stanley E., Ekonofizyka - wprowadzenie, WN-PWN, Warszawa 2001
  • Mulawka J., Systemy ekspertowe, WNT, Warszawa 1996
  • Peitgen H., Jurgens H., Saupe D., Granice chaosu, WN-PWN 1997
  • Peters E. E., Teoria chaosu a rynki kapitałowe, WIG-Press, Warszawa 1997
  • Rynek kapitałowy. Skuteczne inwestowanie. Materiały po konferencji Międzyzdroje 2002, Uniwersytet Szczeciński, Szczecin 2002
  • Sieci neuronowe. Materiały na seminarium StatSoft, Kraków 1999
  • Siegel J., Shim J., Hartman S., Przewodnik po finansach, WN-PWN, Warszawa 1995
  • Tadeusiewicz R., Sieci neuronowe, RM, Warszawa 1993
  • Technical Analysis of Stock and Commodities, Bonus Issue 2002
  • Weron A., Weron R., Inżynieria finansowa, WNT, Warszawa 1998
  • Wierzbicki M., Analiza portfelowa, cykl 12 artykułów, Gra na giełdzie, 1996
  • Wierzbicki M., Pożytki z chaosu, Parkiet, 26 sierpnia 2000
  • Wierzbicki M., Zarządzanie portfelem inwestycyjnym, Parkiet, 4 listopada 2000
  • Zarzycki J. Cyfrowa filtracja ortogonalna sygnałów losowych, WNT, Warszawa 1998
COPYRIGHT © 2009-2017 by BINCODE (dawniej MOTTE)