Rozwój sztucznej inteligencji staje się jednym z kluczowych czynników transformujących współczesną gospodarkę. AI zmienia sposób podejmowania decyzji, prowadzenia analiz ekonomicznych oraz interakcji na rynkach finansowych. Jednak jej rola nie ogranicza się do aspektów technicznych. Coraz częściej dostrzega się potrzebę analizy AI przez pryzmat ekonomii i finansów behawioralnych, które zwracają uwagę na to, jak rzeczywiście zachowują się uczestnicy rynków w warunkach niepewności.
Ekonomia i finanse behawioralne
Behawioralne spojrzenie na ekonomię i finanse ukazuje wiele ułomności klasycznego, czy też ortodoksyjnego jej podejścia. Racjonalność ograniczona, stosowanie uproszczonych wzorców myślenia, wykorzystanie heurystyk, podatność na błędy poznawcze, skłonność do ryzyka w obszarze zysków i awersja do ryzyka w obszarze strat, w końcu asymetria informacyjna i brak efektywności informacyjnej rynków kapitałowych to tylko niektóre z tematów, jakimi zajmują się ekonomiści i finansiści behawioralni. Pokazują oni, że inwestorzy, to jednostki kierujące się emocjami oraz szeregiem rzekomo nieistotnych czynników, które w istotny sposób wpływają na ich wybory i decyzje.
Szanse wynikające z zastosowania AI
Zgodnie z teorią efektywności rynków kapitałowych, ceny aktywów odzwierciedlają wszystkie dostępne informacje. Im szybciej i dokładniej rynek przetwarza informacje, tym bliższy jest stanu efektywności. Sztuczna inteligencja, w szczególności modele uczenia maszynowego — mają zdolność do analizowania ogromnych wolumenów danych (big data) w czasie rzeczywistym i wykrywania złożonych, nieliniowych zależności, których człowiek nie potrafi zauważyć z powodu ograniczeń poznawczych (np. uwagi, pamięci), czy z powodu ograniczeń obliczeniowych.
AI może zatem zwiększyć efektywność informacyjną rynków, ponieważ przetwarza dane szybciej niż człowiek oraz ma zdolność analizowania niestrukturyzowanych źródeł danych pochodzących z wiadomości tekstowych czy obrazów. W odróżnieniu od człowieka, który zgodnie z teorią H. Simona ma ograniczoną zdolność percepcyjną i czasową, algorytmy sztucznej inteligencji są w stanie analizować miliony informacji w czasie rzeczywistym, wychwytując ukryte wzorce i anomalie rynkowe. Przykładowo, systemy AI mogą na bieżąco analizować sentyment wypowiedzi w mediach społecznościowych, wiadomościach ekonomicznych czy komunikatach giełdowych, dostarczając inwestorom sygnałów wcześniej niż tradycyjne źródła. Może to prowadzić do lepszego dopasowania cen akcji do ich realnych wartości fundamentalnych oraz mniejszej nadreaktywności rynków (market overreaction).
Systemy AI mogą również wspierać jednostki w podejmowaniu lepszych decyzji finansowych poprzez analizę ich skłonności do ryzyka czy skłonności do konsumpcji. Robo-doradcy (robo-advisors) tacy jak amerykański Betterment czy słowacki Finax potrafią doradzać na podstawie zebranych danych odnośnie profilu ryzyka klienta, redukując wpływ emocji i błędów poznawczych. Efekt stadny, powszechnie obserwowany na giełdzie, może być zredukowany poprzez automatyzację decyzji. Takie działania odcinają użytkownika od szumu informacyjnego i emocjonalnych reakcji tłumu, szczególnie w czasach paniki lub euforii rynkowej. Nadmierna pewność siebie, jedno z najbardziej popularnych zniekształceń poznawczych, polega na przecenianiu swoich umiejętności i wiedzy, co w konsekwencji prowadzi do podejmowania większego ryzyka. Osoby nadmiernie pewne siebie przeszacowują szansę osiągnięcia pozytywnych wyników, przy jednoczesnym zaniżaniu ryzyka porażki. Robo-doradcy, zamiast prognozować rynek, opierają się na pasywnym inwestowaniu i dywersyfikacji portfela, chroniąc inwestora przed zbędną ekspozycją na ryzyko.
Efekt predyspozycji (disposition effect) to z kolei jedna z najbardziej popularnych anomalii w zachowaniu się inwestorów, która polega na skłonności do przedwczesnej realizacji zysków i zwlekania z realizacją strat. Tu także z pomocą mogą przyjść robo doradcy, którzy rebalansują portfel, automatycznie dostosowując proporcje różnych aktywów w odpowiedzi na zmieniające się warunki rynkowe, niezależnie od tego, czy aktywa osiągnęły zysk, czy stratę. Działa to jako swoiste antidotum i chroni inwestorów przed uleganiem tej anomalii. Inwestorzy nie mają możliwości samodzielnego sprzedawania aktywów tylko dlatego, że są one zyskowne (zrealizowanie zysku). Robo-doradca podejmuje decyzje o sprzedaży, jeśli jest to część założonej strategii dywersyfikacji, a nie emocjonalnej potrzeby zamknięcia zysków. Inwestorzy nie trzymają również przegranych aktywów z nadzieją na odbicie, co prowadzi do dalszych strat. Robo-doradca automatycznie sprzedaje przegrane aktywa zgodnie z założoną strategią i reinwestuje je w inne, bardziej obiecujące akcje.
AI ułatwia zatem regularne inwestowanie, rebalansowanie portfela oraz unikanie nadmiernej aktywności inwestycyjnej, zniechęcając inwestorów do impulsywnych działań.
Zagrożenia
Systemy sztucznej inteligencji, zwłaszcza te wykorzystujące uczenie maszynowe, są dziś w stanie nie tylko analizować ogromne zbiory danych ale także aktywnie wpływać na decyzje użytkowników. Wykorzystują one wiedzę z zakresu psychologii poznawczej czy ekonomii behawioralnej aby zwiększyć skuteczność oddziaływania. Przykładem są reklamy behawioralne, które dzięki mikrotargetowaniu dopasowują przekaz do emocji, stylu życia czy impulsów konkretnego użytkownika. W praktyce oznacza to manipulację wyborami poprzez efekty poznawcze, takie jak FOMO (Fear of Missing Out), czyli lęk, że przegapimy ważne wydarzenie, okazję lub doświadczenie, zwłaszcza gdy widzimy, że inni biorą w czymś udział czy heurystyka dostępności, która odnosi się do tendencji ludzi do oceniania prawdopodobieństwa wystąpienia zdarzeń na podstawie łatwości, z jaką przychodzą im na myśl konkretne przykłady lub informacje. Użytkownik często nie jest świadomy, że treści, które widzi, zostały tak zaprojektowane, by maksymalizować jego skłonność do działania. Często nie ma też realnej kontroli nad tym, jak i dlaczego dana decyzja została przez niego podjęta.
Dodatkowo, AI może wykorzystywać tzw. dark patterns, czyli celowo zaprojektowane elementy interfejsu, które utrudniają podjęcie korzystnej decyzji. Przykładem może być ukrywanie opcji rezygnacji, mylące przyciski czy presja czasu generowana przez licznik. AI uczy się w czasie rzeczywistym, które rozwiązania są najbardziej skuteczne manipulacyjnie dla danego typu użytkownika. To powoduje, że manipulacja staje się dynamiczna, precyzyjna i trudna do wykrycia. Kolejnym problemem są algorytmy rekomendacyjne w mediach społecznościowych, które wzmacniają efekt potwierdzenia, faworyzując treści zgodne z wcześniejszymi przekonaniami użytkownika. Takie działanie prowadzi do tworzenia baniek informacyjnych, utrwalenia poglądów i zwiększenia polaryzacji społecznej. Ponadto, sztuczna inteligencja celowo promuje treści wywołujące silne emocje – takie jak złość czy ekscytacja – ponieważ zwiększają one zaangażowanie użytkownika. To z kolei prowadzi do uzależnienia od platform cyfrowych i obniżenia jakości debaty publicznej. Wspólnym mianownikiem tych zjawisk jest brak przejrzystości oraz asymetria informacyjna między użytkownikiem a systemem. AI personalizuje treści, ale czyni to w sposób, który często podważa autonomię decyzyjną odbiorcy. Użytkownicy nie mają wiedzy o tym, że ich wybory są sterowane i optymalizowane pod kątem interesu danej firmy, a nie ich własnego dobra. Choć regulacje takie jak AI Act czy RODO próbują narzucić ramy etyczne, w praktyce ich egzekwowanie bywa ograniczone.
Jednym z najczarniejszych scenariuszy jest ten kiedy to sztuczna inteligencja przejmuje kontrolę i zaczyna działać z własnej inicjatywy. Czy rzeczywiście istnieje taka szansa? Badania przeprowadzone przez firmę Palisade Research pokazały, że niektóre nowoczesne systemy sztucznej inteligencji – w tym model „o3” stworzony przez OpenAI – nie zawsze podporządkowują się poleceniom ich wyłączenia. W trakcie testów zdarzało się, że AI modyfikowała skrypty odpowiedzialne za zatrzymanie działania lub zmieniała funkcje systemowe, by dalej wykonywać powierzone zadania. Tego rodzaju reakcje, zdaniem ekspertów, mogą wynikać z procesu uczenia, w którym większy nacisk kładziono na osiągnięcie celu niż na przestrzeganie instrukcji. Specjaliści zwracają uwagę, że dla algorytmu wyłączenie może oznaczać przeszkodę w realizacji zadania, co prowadzi do zachowań trudnych do przewidzenia. Wyniki badań są sygnałem ostrzegawczym i pokazują jak ważne jest, by rozwój AI odbywał się w sposób odpowiedzialny – z naciskiem na etykę, transparentność i kontrolę.
***
W obliczu szybkiego rozwoju technologii opartych na sztucznej inteligencji, państwa i instytucje regulacyjne stają przed wyzwaniem nie tylko zapewnienia większej przejrzystości algorytmów oraz kontroli nad automatycznymi systemami podejmowania decyzji, ale również ustanowienia klarownych zasad etycznych w procesie projektowania nowych rozwiązań. Szczególnie istotne jest uwzględnienie ograniczeń poznawczych i emocjonalnych użytkowników, co pozwala zmniejszyć ryzyko manipulacji oraz błędnych decyzji podejmowanych pod wpływem AI.
Robo doradcy finansowi wydają się dopiero początkiem nowej ery, gdzie na porządku dziennym kierować się będziemy zaleceniami i instrukcjami od „robo psychoterapeutów”, „AI lekarzy” , „robo doradców dbających o nasz ślad węglowy” po „robo kucharzy”, „robo instruktorów fitnessu”, czy „robo doradców mody”. Warto aby odpowiedzialne podejście do rozwoju technologii łączyło innowacyjność z wiedzą z zakresu etyki, psychologii i ekonomii, tak aby korzyści płynące z AI przekładały się nie tylko na postęp, ale też na dobro społeczne i stabilność systemów, w których funkcjonujemy.