3 pytania do Pawła Guli - AI w bankowości
Sztuczna inteligencja – słowa, które od kilku ostatnich lat odmieniane są przez niemal wszystkie przypadki, a popularność ChatGPT tylko bardziej podgrzewa obecny trend. Dla zwykłego użytkownika AI to jeszcze ciekawostka, przydatny „gadżet”, a jaki stosunek do tej technologii ma branża finansowa?
Czy banki powinny bać się AI?
O przyszłość tej technologii zapytaliśmy Pawła Gulę, Prezesa zarządu CRUZ i entuzjastę nowych technologii w biznesie.
1. W trakcie Europejskiego Kongresu Finansowego wielu ekspertów mówiło o kluczowym momencie w rozwoju AI, przed którym właśnie stoi branża finansowa. Patrząc w przyszłość - jaką widzisz perspektywę na najbliższe 5 lat jeśli chodzi AI w bankowości? Czy sceptyczna do tej pory branża finansowa zaufa tej technologii?
P.G.: W ciągu 5 lat z pewnością nastąpi zmiana w zakresie AI. Czy będzie rewolucyjna? Nie spodziewam się tego, ponieważ to, co dzieje się obecnie to konsekwencja zmian technologicznych oraz łatwości z jaką można pozyskać i analizować duże zbiory danych. Rynek finansowy jest mocno regulowany. Decyzje, jakie na nim zapadają, muszą być zawsze przejrzyste. Czarna skrzynka (tutaj AI), podejmująca decyzje w tym obszarze, to pewnie jeszcze przez dłuższy czas marzenie, które kiedyś się spełni. Czy to będzie za 5 lat? Przy bieżącej dynamice zmian nie jestem przekonany, ale mogę się mylić. Powstały już autonomiczne samochody czy drony, ale czy w pełni im zaufaliśmy? Jeszcze nie. Myślę, że tak samo będzie z AI w bankowości. Decyzje AI w pewnym momencie będziemy akceptować z pewnym prawdopodobieństwem, może nawet bliskim 100%.
2. Jakie widzisz główne zagrożenia bezpieczeństwa ze strony sztucznej inteligencji?
P.G.: GenAI to potężne narzędzie do generowania nieprawdziwych treści i to chyba największe zagrożenie, jakie widzę w obecnie. Ciągle jeszcze traktuję AI jako eksperckie maszyny, które bez ingerencji człowieka niewiele są w stanie stworzyć. To ludzie generują najbardziej użyteczne algorytmy. Kolejną kwestią są dane - złe dane to złe wyniki. W historii badań nad AI było już kilka inicjatyw, które zostały wstrzymane z powodu błędnie wyciągniętych przez algorytm wniosków. I tutaj znowu wracamy do człowieka - bez odpowiednich osób, które to zweryfikują nie będzie ostatecznego rozwiązania.
3. Pytanie, które wielokrotnie padało na Kongresie - czy Twoim zdaniem należy zahamować prace nad rozwojem GenAI?
P.G.: Tych prac zdecydowanie nie można zatrzymać. Natomiast mocno sceptycznie powinniśmy podchodzić do wyniku, który otrzymamy. Wolałbym wiedzieć, jak została podjęta dana decyzja i co ją warunkowało, niż ślepo poddać się werdyktowi maszyny, którą sterują nieznane algorytmy.