GPT w procesach inwestycyjnych – czy to ma sens?

,

Generatywna AI, czyli jakbyśmy powiedzieli po polsku tworząca sztuczna inteligencja bierze świat sztormem. Dla osób interesujących się nowymi technologiami to bardzo trudny czas, bo praktycznie co kilka dni pojawiają się doniesienia o nowych rozwiązaniach bazujących na różnego rodzaju modelach do tworzenia treści, obrazów, filmów czy muzyki. Nie sposób śledzić wszystkich trendów, bowiem co raz więcej pojawia się rozwiązań open source, czyli takich, których kod źródłowy jest możliwy do pobrania za darmo z sieci.

Naiwnością byłoby oczekiwać, że te narzędzia ominą procesy inwestycyjne. W tym poście skupię się wyłącznie na technologii GPT oraz wykorzystaniu modeli językowych, ponieważ zdecydowana większość informacji w procesie inwestycyjnym wyrażana jest treściami pisanymi.

Szybki przegląd sytuacji.

Technologia GPT, czyli generative pretrained transformer (tworzący wyszkolony transformer) to rozwiązanie, którego sercem jest wytrenowany/ wyszkolony model językowy (ang. LLM). Taki model tworzy się złożonymi technikami, które w skrócie polegają na „przepuszczeniu” przez sieć neuronową gigantycznego korpusu wiedzy, który wcześniej pobrano z Internetu. Według porównania Yann André LeCun (Chief AI Scientist at Meat) gdyby jeden człowiek miał przeczytać treści użyte do wytrenowania takiego modelu w średnim tempie, to zajęło mu by to ponad 20 tys. lat. Najlepszym publicznie dostępnym modelem jest model ChatGPT4 (płatny) oraz 3.5 (bezpłatny) stworzony przez OpenAI oraz jego rywal nie dostępny w PL Bard – stworzony przez Google. Jednak sporo zamieszania na rynku tych technologii zrobiła też Meta (właściciel Facebooka), która udostępniła stworzony przez siebie model językowy LLaMa w formule open source, czyli każdy kto ma pojęcie jak to zrobić może uruchomić własnego chatbota.

To spowodowało, że zarysowują się dwa wyraźne trendy rozwoju tych technologii:

1. łączenie rozwiązań stworzonych przez dużych graczy (OpenAI, Google) poprzez włączanie tej technologii do swoich rozwiązań (za pomocą interfejsu API) oraz

2. wykorzystanie publicznie otwartych modeli językowych do tego, żeby „doszkalać” je własnymi danymi. To rozwiązanie wydaje się być bardzo obiecujące dla podmiotów, które nie będą chciały udostępniać wrażliwych dokumentów u zewnętrznych dostawców.

Trzeba jednak pamiętać, że technologia rozwija się w takim tempie, że kierunki które wydawały się obiecujące jeszcze dwa miesiące temu dziś wymagają korekty.  

Do czego mogą się przydać technologie generatywne typu ChatGPT w procesie inwestycyjnym

W pierwszej kolejności trzeba zrozumieć koncepcyjnie jak można wykorzystać ChatGPT, ponieważ z jednej strony możemy żądać informacji wprost z samego modelu, np. opisz mi stosowane sposoby łączenia rur pvc – w rezultacie dostaniemy zgromadzoną w modelu wiedzę nt. sposobów łączenia rur, ale co ważniejsze w model wbudowane są funkcje wnioskowania.

W tym drugim podejściu ChatGPT analizuje nasze treści i oczekiwania wykorzystując wiedzę zgromadzoną już w modelu. Możemy więc przesłać własne instrukcje, które model zinterpretuje i da nam odpowiedź. Np.

Użytkownik:

W kontrakcie klauzuli 6 jest taki zapis […….]. W trakcie realizacji zamawiający poinformował wykonawcę, że przystępuje do naliczania kar umownych z tytułu X, ale nie w mojej ocenie nie zostały spełnione przesłanki do takiego działania. Proszę zaproponuj odpowiedź, możesz zadawać dodatkowe pytania.

W tym przypadku ChatGPT będzie „prowadził” użytkownika zadając kolejne pytania i będzie proponował kolejne wersje pisma do zamawiającego. Ten proces nazywa się prompt engineering i jest nową kompetencją, która będzie pożądana w najbliższym czasie. Inżynieria promptowania oznacza umiejętność takiego zadawania pytania modelom językowym, żeby otrzymywać najbardziej pasujące odpowiedzi.

Oczywiście narzędzia tego typu mają ograniczoną pojemność informacji, którą można przesłać w ramach zapytania. Nie można np. wrzucić całej umowy z prośbą o analizę ryzyk kontraktowych albo napisania odwołania. Właśnie ze względu na to ograniczenie zaczęły powstawać narzędzia, które umożliwiają „przepytywanie” własnych zasobów wiedzy – np. dokumentów czy baz danych. Dzięki takim rozwiązaniom możliwe jest analizowanie modelem językowym dowolnych danych i prowadzenia na nich różnych procesów wnioskowania. Np. można w ten sposób dokonać analizy posiadanych kompetencji (w przypadku dużej firmy) i zlecić modelowi poszukiwania rynków, nisz, gdzie takie aktywności mogłyby zostać dodatkowo wykorzystane.

Takie zadania można kazać wykonać już dziś narzędziom AI, choć oczywiście ma to sens jedynie dla zadań w języku angielskim. W tych dużych modelach językowych (OpenAI) mimo iż były trenowane również na korpusie polskich danych, to jednak stanowią one jedynie ok.2%.

Do takich zadań stosuje dodatkowe rozwiązania, które „podłącza” się do ChatGPT, co oznacza, że dane, które chcemy analizować musimy przechowywać w chmurze w specjalnych formatach bazodanowych (tzw. wektorowych bazach danych). Nie wszystkie firmy czułyby się z tym komfortowo.

Z tego powodu równie prężnie rozwija się drugi trend technologiczny, czyli „doszkalanie” istniejących publicznie dostępnych modeli językowych własnymi danymi na swoich serwerach. Tu warto wspomnieć o bardzo dynamicznie rozwijających się rozwiązaniach, które pozwalają na to, żeby szkolenie modeli nie wymagało farm serwerów o ogromnej mocy obliczeniowej, a były możliwe na zwykłych komputerach, choć oczywiście o wysokich parametrach. W ten sposób „prywatny” chat z własnymi dokumentami i danymi będzie dostępny dla wybranych użytkowników w firmie i będzie posiadał bardzo branżowe kompetencje.

Dziś trudno ocenić, które z tych podejść lepiej przyjmie się na rynku. Testy, które sam przeprowadziłem na razie nie pozwalają na korzystanie z tych narzędzi w języku polskim w stopniu, który mógłby dać jakąś użyteczną wartość. To się oczywiście zmieni w niedługim czasie i zakładam, że pojawi się polski model językowy (jeden już jest opracowany w 2021 roku RoBert), o wysokich parametrach, który pozwoli na takie integracje.

Wyobraźmy więc sobie do czego mogłoby się to przydać.

Pierwszym pomysłem jaki przychodzi mi do głowy to wpisanie się trend skracania drogi od pozyskania informacji do podjęcia decyzji (Fast-Paced Decision-Making). To światowy trend i często wskazywany jako jedna z metod budowania przewagi.   Wyobraźmy sobie firmę średniej lub dużą, która posiada kilkadziesiąt kontraktów. W klasycznych modelach zarządzania kontraktami C-level management analizuje status kontraktów i wyniki w różnych interwałach, jednak nie częściej niż raz w tygodniu. Zdarza się często, że te interwały są znacznie dłuższe, przez co na wielu kontraktach decyzje podejmowane są późno, a często za późno.

Możemy sobie wyobrazić, że do procesów w firmie włączamy model językowy, który dodatkowo ma dostęp do całej wiedzy przedsiębiorstwa (korespondencja, bazy danych, oficjalne maile, reporty etc,.). Dodatkowo tworzymy tzw. „agenta” lub „asystenta”, któremu zadajemy określone zadanie, żeby np. śledził całą przepływającą przez firmę korespondencję w celu identyfikacji potencjalnie niezabezpieczonych sytuacji na kontrakcie albo np. analizował wybrane grupy kontraktów łącznie, pod katem ryzyk, albo stanu zaawansowania.

Taki agent mógłby autonomicznie interweniować w przypadku wykrycie ryzyka lub mógł pełnić rolę wszystkie- wiedzącego doradcę zarządu, który byłby w stanie odpowiedzieć na dowolne pytanie dotyczące dowolnie trwającego w firmie kontraktu. Warto zaznaczyć, że z czasem taki agent będzie mógł realizować dowolne zadania analityczne, a jego zdolności analityczne będą wielokrotnie przekraczały nawet doświadczonego managera.

 Taki model oczywiście wymagałby spełnienia szeregu warunków – jak np. wspólna platforma komunikacji, czy przekształcanie formy pisemnej w rozpoznawalne PDF’y.

Ważne, żeby zwrócić uwagę, że to nie są fantazje, ale rozwiązania, które w znacznej mierze są możliwe do realizacji już dziś. Ograniczenia wynikające z braku dobrego modelu języka polskiego z czasem znikną i uważam, że warto zainwestować w nowe kompetencje.

Żyjemy w bardzo ciekawych czasach

AI Midjourney

Komentarze

Jedna odpowiedź do „GPT w procesach inwestycyjnych – czy to ma sens?”

  1. Awatar lean_robert
    lean_robert

    1. Jak wynika z tekstu, polskich danych, wspomagających AI, nie ma (2% to jest margines błędu).
    Świadczy to najlepiej o tym, że sztuczna inteligencja jest bezradna, gdy nie ma do pogryzienia czegoś już stworzonego przez człowieka. Nie ma zatem się czym zachwycać, ale prowadzi nas to do punktu 2.

    2. Zachwyty nad AI przypominają grę w piłkę nożną na poziomie przedszkola lub dolnych klas szkoły podstawowej: wszyscy starają się być tam, gdzie jest piłka. Jeśli na tym ma polegać strategia meczu piłkarskiego, to należałoby się mocno zastanowić, czy faktycznie istota ludzka dorosła nie tylko do zmagania się z programowaną maszyną, ale nawet do jej obsługi…

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *