SZ nr 93–100/2017
z 14 grudnia 2017 r.
Stuknij na okładkę, aby przejść do spisu treści tego wydania
Sztuczna inteligencja przejrzy nas na wylot
Ewa Biernacka
Czy inteligentnie zaprogramowane i obdarzone zdolnością do uczenia się maszyny mogą w przyszłości wyręczyć psychoterapeutę? Ewa Biernacka pyta o to dr. Tomasza Witkowskiego, psychologa z firmy doradczo-szkoleniowej MODERATOR i Klubu Sceptyków Polskich.
Ewa Biernacka: Kilka pytań, z prośbą o mały wykład na temat algorytmów wspomagających pracę psychologa: Czy człowiek dysponuje technologią mogącą wykonywać pracę o stopniu złożoności charakteryzującym czynności psychoterapeutów? Czy psychoterapia jest na tyle spójnym procesem, że da się ją przełożyć na język maszyn? Czy w przyszłości sztuczna inteligencja AI zastąpi psychoterapeutów?
Tomasz Witkowski: W latach 20. XX w. ukazały się pierwsze artykuły omawiające wyższość diagnoz aktuarialnych (maszynowych, statystycznych, matematycznych) nad wywiadem klinicznym. Na początku lat 40. było to tematem doktoratu psychologa Theodore’a Sarbina, który w szeregu eksperymentów udowodnił wyższą skuteczność przewidywania na ich podstawie np. sukcesu zawodowego. W latach 50. metody te propagował psycholog kliniczny Paul Meehl, późniejszy prezydent American Psychology Association, jako lepsze od metod klinicznych. W połowie XX w. psychologowie zaczęli przegrywać w konkurencji z maszynowymi diagnozami. Dziś ogromne postępy AI trudno sobie nawet wyobrazić. Tytułem przykładu: rok temu ukazała się metaanaliza, dzieło zespołu Josepha Franklina. Pokazała ona, że w ciągu 50 lat badań nad predyktorami samobójstwa nie posunęliśmy się ani o krok: metaanaliza wiedzy klinicznej wypracowanej przez 50 lat na podstawie 365 prac empirycznych nie dała większej pewności niż rzut monetą. Zaś zespół kilku badaczy na zlecenie i dla potrzeb Armii Stanów Zjednoczonych wypracował samouczący się algorytm na podstawie analizy jedynie 68 przypadków dostępnych w archiwach tej armii – o blisko 80-proc. skuteczności.
Inny przykład – maszyna-terapeutka Ellie, także skonstruowana na zlecenie armii – umie w czasie półgodzinnej rozmowy z pacjentem (kamery analizują odpowiednie mimiczne punkty na twarzy, a analizatory brzmienie głosu) precyzyjnie zdiagnozować epizod depresji, czego żaden psycholog chyba nie potrafi zrobić. Maszyna dysponuje gigantyczną liczbą informacji, do których może odnosić zarejestrowane dane, jest je w stanie błyskawicznie przeszukiwać i porównywać – stąd wysoka trafność diagnozy.
E.B.: Skąd jeszcze?
T.W.: Maszyna nie ma samooceny, a więc nie boi się popełniania błędów. Nie mając samooceny, nie jest nadmiernie pewna w stosunku do stawianych przez siebie diagnoz i nie ma intuicji klinicznej: „tyle przypadków widziałem, że w mgnieniu oka oceniam, że ten pacjent ma to i to”, która często jest słuszna, ale w przypadkach bardziej złożonych może zawieść. Sztuczna inteligencja w każdym przypadku bierze pod uwagę wszystkie możliwe warianty. Więc o ile klinicysta korzysta z heurystyki i rzeczywiście bywa w tym bardzo dobry, o tyle maszyna w tym samym lub krótszym czasie przeszukuje wszystkie możliwe dostępne dane, nieoparte na heurystykach.
E.B.: W medycynie złożone algorytmy sztucznej inteligencji wspomagają już np. lekarzy w leczeniu białaczki. Jak to jest w psychologii?
T.W.: Diagnostyka maszynowa czy z wykorzystaniem AI na razie praktycznie nie jest stosowana, klinicyści jej nie chcą. Badania prowadzone są przez naukowców lub na potrzeby armii. Warto jednak wspomnieć o roli maszyn AI w wyborze najlepszych kandydatów do pracy. Niektóre samouczące się algorytmy nauczyły się przewidywania na podstawie analizy wypowiedzi kandydata, że będzie on miał w ciągu najbliższego pół roku epizod depresyjny, albo że kobieta, świadomie nieplanująca zajścia w ciążę, z dużym prawdopodobieństwem za rok w nią zajdzie. Pojawiły się w związku z tym pierwsze procesy o dyskryminację potencjalnych pracowników – maszyna odrzuca bowiem kandydata, który za pół roku będzie na dwumiesięcznym zwolnieniu z powodu depresji, czy kobietę, która za rok weźmie urlop macierzyński. Zabroniono więc stosowania tego typu algorytmów, zgodnie z przepisami dotyczącymi nierównego traktowania. Ale to pokazuje potężną siłę predykcyjną tych urządzeń.
Inny przykład: na podstawie wpisów na Twitterze algorytm nauczył się rozpoznawać, czy osoba je pisząca jest po spożyciu alkoholu. Badania te robiono w pubie. Jedne osoby wypiły 2–3 piwa, inne niczego nie wypiły, obie grupy wieczorem twittowały. Algorytm bezbłędnie wykrył, kto pił. W ciągu 24 godzin maszyna nauczyła się to określać, trudno powiedzieć na podstawie jakich parametrów, przypuszczalnie: składni, interpunkcji, czasu pisania, czasu na szukanie słów itp.
E.B.: Błyskotliwe rozwiązanie skądinąd błahej zagadki, czy ktoś coś pił, zanim coś napisał, da się przenieść na poważniejsze pola analiz?
T.W.: Oczywiście. System tworzy się na bazie systemu eksperckiego – inteligentnego programu komputerowego wykorzystującego procedury wnioskowania do rozwiązywania problemów na tyle trudnych, że normalnie wymagają ekspertyzy wysoce wykwalifikowanych i doświadczonych specjalistów. Wiedza (niezbędna do zapewnienia odpowiedniego poziomu ekspertyzy), wraz z procedurami wnioskowania, może być uważana za model ekspertyzy, którą normalnie mają tylko najlepsi specjaliści w tej dziedzinie. Wiedza systemu eksperckiego składa się zazwyczaj z faktów i heurystyk. Fakty są podstawą bazy wiedzy systemu – informacją ogólnie dostępną i powszechnie akceptowaną przez specjalistów w danej dziedzinie. Heurystyki są zwykle bardziej subiektywnymi metodami stawiania hipotez, które charakteryzuje proces oceny i rozwiązywania problemu przez określonego specjalistę. Przykładami heurystyk są: intuicyjne domysły, skojarzenia, zdroworozsądkowe zasady postępowania. Poziom ekspertyzy, oferowany przez dany system ekspercki, jest przede wszystkim funkcją rozmiaru i jakości bazy wiedzy, jaki ma do dyspozycji.
E.B.: AI opiera się na danych psychologii evidence--based?
T.W.: Tak. AI jest już wykorzystywana do prognozy schizofrenii z ponad 74-procentową pewnością – na podstawie analizy skanów mózgu. AI błyskawicznie robi użytek np. z mimiki twarzy, świetnie się tego uczy. Wymaga do tego danych naukowych: powtarzalnych, replikowalnych, nieepizodycznych.
E.B.: W jakim kierunku idą badania nad zastosowaniem Artificial Intelligence do celów terapeutycznych?
T.W.: W kierunku specjalizacji do wykonywania konkretnych zadań. Ellie powstała po to, żeby żołnierze, gdzieś w odległych rejonach świata, po dramatycznych epizodach mieli szansę na szybki kontakt terapeutyczny z maszyną specjalizującą się w radzeniu sobie z epizodami traumatycznymi. W Wielkiej Brytanii Narodowy Instytut Zdrowia poleca kilka aplikacji (mobilnych lub na komputerze), np. do radzenia sobie z depresją, z myślami samobójczymi, samookaleczeniami, ze stresem w miejscu pracy. Inne radzą sobie z fobiami społecznymi. Jeśli ktoś z takim lękiem, kto zgłosi się do AI-Therapy stworzonego przez Fjolę Helgadottir, to wirtualny terapeuta zajmie się nim, zgodnie z protokołami terapii poznawczo-behawioralnej. Z prasy znam opis sytuacji pewnej Islandki. Kiedy przeprowadziła się do Wielkiej Brytanii, by rozpocząć studia na Oxfordzie, jej osobiste relacje się rozsypywały, dotarła do niej wiadomość o śmierci obojga rodziców, poczuła, że traci kontrolę nad swoim życiem. Fjola Helgadottir namówiła ją właśnie na wypróbowanie AI-Therapy. Po kilku dniach interaktywnego przesłuchania, zbierania danych osobowych, algorytm stawiał głębsze i trudniejsze pytania, zmuszał ją do identyfikowania niepokojących myśli. Na koniec zdiagnozował lęk społeczny i przejął rolę terapeuty, prowadząc przez ćwiczenia, które doprowadziły ją do odzyskania kontroli nad sobą.
Protokoły terapeutyczne, które wbudowujemy w maszyny inteligentne, są protokołami o wysokim poziomie evidence-based. Tu sięga się do obszaru terapii behawioralnej lub behawioralno-poznawczej, precyzyjnych, możliwych do powtórzenia protokołów, stale doskonalonych i cały czas badanych. Zatem pewność, że będą działały dobrze, jest wysoka.
E.B.: Czy powstaną maszyny „leczące” samotność?
T.W.: Takie projekty są na bardzo zaawansowanym etapie rozwoju. Szczególnie w Japonii buduje się roboty – nie tylko AI w postaci procesora komputerowego, ale również funkcjonalne maszyny, wychodząc naprzeciw problemowi opieki nad ludźmi starszymi. Poza pomocą w czynnościach domowych, zaczynają pełnić rolę towarzysza w samotności. Warto przy okazji wspomnieć o ciekawym projekcie, istotnym w AI stosowanej w celu terapeutyczno-diagnostycznym, z udziałem polskiego uczonego dr. Rafała Rzepki – uczenia maszyn systemu wartości. Ludzie funkcjonują na podstawie jakiegoś systemu wartości, dlatego maszyny budowane w Japonii będą kierować się w swoim myśleniu/zachowaniu – jeśli można użyć takich słów – ludzkim systemem wartości.
E.B.: Wdrukujemy im etykę samurajów w Japonii, chrześcijańską w kręgu kultury zachodniej?
T.W.: To zależy od metody zastosowanej do uczenia się tej modalności. Zasadniczo są dwa podejścia – przyjmuje się jakąś koncepcję teoretyczną, np. etykę samurajów bądź imperatyw kategoryczny Kanta czy utylitaryzm itd., i wbudowuje się ją maszynie. Druga koncepcja, zdecydowanie bardziej praktyczna, to zastosowanie metody podobnej do procesu uczenia się wartości przez ludzi. Większość z nas nie przyjmowała nigdy żadnej doktryny etycznej, tylko od dzieciństwa uczyła się, co jest dobre, a co złe. W istniejących systemach wartości zasady pozwalające funkcjonować w społeczeństwie są dość podobne – wyuczone metodą prób i błędów: coś komuś ukradliśmy, ukarano nas, byliśmy nielojalni, straciliśmy przyjaciela, rodzina nas za coś potępiła, otoczenie udzieliło nam negatywnych informacji zwrotnych. Dziś bogatą bazą do zbierania informacji o ludzkim systemie wartości jest Internet (choć jest tam też masa paskudnych rzeczy), w postaci komentarzy na temat różnych wydarzeń, jak np. atak terrorystyczny. Większość tych sądów, po odrzuceniu skrajności, ilustruje ludzką moralność: potępia akt przemocy, ewidentne zło. Maszyna może się na ich podstawie uczyć. To jest bardziej uniwersalne niż jej programowanie z użyciem zasad etycznych samurajów czy imperatywu kategorycznego.
E.B.: Po co ludziom „maszyny psychologiczne”?
T.W.: W tej chwili – po odjęciu ok. 12% bogatych społeczności – pozostałe 88% ludzkości nie ma dostępu do psychoterapii, bo jej po prostu na to nie stać. Mówimy więc o miliardach ludzi, którzy nie mają szans na kontakt z psychologiem czy terapeutą. AI może im taki dostęp zapewnić. Są też ludzie pracujący gdzieś na platformach wiertniczych na morzu, w stacjach badawczych w odludnych terenach, amerykańscy czy australijscy farmerzy – odcięci od dostępu do pracowników udzielających pomocy w różnych dramatycznych sytuacjach, są służby różnego rodzaju, np. armia. AI tym wszystkim ludziom może zapewnić pomoc niemal natychmiastową. Potrzeba do tego tylko łącza, zasięgu Internetu czy telefonu komórkowego.
Najpopularniejsze artykuły