Together Magazyn » Zdrowie » AI w terapii: wsparcie czy zagrożenie dla zdrowia psychicznego?
designers consulting

AI w terapii: wsparcie czy zagrożenie dla zdrowia psychicznego?

Sztuczna inteligencja bez wątpienia zrewolucjonizowała wiele dziedzin naszego życia. Okazuje się jednak, że AI sięga aż do miejsc zupełnie nieoczekiwanych. Jednym z najnowszych (oraz najbardziej niepokojących) trendów jest coraz powszechniejsze wykorzystywanie technologii ChatuGPT w celach… psychoterapuetycznych.

Polska nie jest krajem porównywalnym chociażby z nordyckimi socjaldemokracjami: publiczna służba zdrowia od dawna jest niedofinansowana, psychoterapia w ramach NFZ cechuje się trudną dostępnością, a wizyty prywatne bywają zbyt kosztowne dla sporej części członków naszego społeczeństwa.

Niektórzy zwracają się więc w kierunku bezpłatnych alternatyw. Jedną z nich jest właśnie ChatGPT, który jest w stanie wcielać się w rolę terapeuty. Niestety, nie oznacza to, że można postawić znak równości pomiędzy rzetelną psychoterapią a pisaniem z chatbotem, a próby ignorowania tego faktu mogą okazać się wysoce szkodliwe dla naszego zdrowia psychicznego.

ChatGPT jako substytut czy wsparcie terapii?

Atrakcyjność AI w formie substytutów psychoterapii nie stanowi zagadki. Wystarczy wskazać na kilka głównych czynników, takich jak:

  • bardzo mały koszt,
  • całodobowa dostępność,
  • brak ograniczeń czasowych,
  • możliwość uzyskania wsparcia w każdym miejscu,
  • anonimowość.

W kontekście tych faktów nietrudno więc domyślić się, że wizja darmowego, zawsze dostępnego terapeuty z komputera może mieć spory powab, zwłaszcza dla osób, które niekoniecznie posiadają edukację psychologiczną. Co więcej, pojawiają się badania naukowe, wskazujące na korzyści ChatuGPT dla zdrowia psychicznego, jednak należy podchodzić do nich z dystansem. AI rzeczywiście może, w pewnej mierze, łagodzić niepokój i dawać efekt czasowej poprawy samopoczucia, ale rezultaty takiej terapii są krótkotrwałe i powierzchowne, a ponadto nie jest ona wolna od ryzyka.

Czy nadmiar AI może zwiększać poczucie osamotnienia?

Korzystanie ze sztucznej inteligencji w celach wsparcia psychologicznego niesie ze sobą także pewne zagrożenia. Przez wzgląd na popularność zjawiska, pojawia się coraz więcej badań, których przedmiotem jest zagadnienie, jak się ma sztuczna inteligencja do zdrowia psychicznego, a wyniki tych badań nie zawsze przemawiają za AI.

Najpierw trzeba wspomnieć o tym, że jednym z zadań prawdziwego terapeuty jest dozowanie dystansu i uważanie na to, aby nie doszło do uzależnienia emocjonalnego ze strony pacjenta. AI nie posiada takich możliwości. Należy również mieć na uwadze, że sztuczna inteligencja nie jest w stanie ocenić naszego stanu emocjonalnego, ani też odczytywać istotnych sygnałów niewerbalnych. W skrajnych przypadkach, terapuetyczne korzystanie z chatbotów może przyczynić się do izolacji społecznej, co dobrze opisuje znany już psychologom efekt tzw. zamknięcia w bańce AI.

Prywatność w interakcji z ChatGPT – dlaczego to ważne?

Podczas terapii powierzamy drugiej stronie najbardziej wrażliwe informacje. O ile terapeuta ma obowiązek zachowania tajemnicy, o tyle w realiach internetu proces ten ma inną specyfikę. Trzeba więc zadbać o odpowiednie zabezpieczenia prywatności, jak VPN, szyfrowanie end-to-end oraz w pełni anonimowe konto, aby uchronić się przed ryzykiem przechwycenia poufnych danych na nasz temat.

Jak VPN wspiera bezpieczeństwo w terapii z AI?

Najlepszy VPN tworzy bezpieczny korytarz sieciowy, dzięki któremu nasza aktywność w internecie staje się niewidzialna i niemal niedostępna dla hakerów. Jest to możliwe dzięki ukrywaniu danych lokalizacji, szyfrowaniu połączenia oraz zastępowaniu Twojego adresu IP adresem serwera VPN, który jest tajny i niemożliwy do infiltracji dla hakerów.

VPN zapewnia więc prywatność nawet przy korzystaniu z publicznych sieci Wi-Fi, skutecznie zabezpieczając sesję przed próbami przejęcia czy podsłuchu. Eksperci są zgodni, że najlepszym rozwiązaniem jest renomowana, płatna aplikacja ze sprawdzoną polityką prywatności oraz dobrze zabezpieczonymi serwerami. Tym niemniej, na rynku są dostępne też całkiem niezłe darmowe aplikacje VPN, przy czym, decydując się na taką opcję, koniecznie należy dokładnie zweryfikować standard zabezpieczeń, politykę prywatności i jurysdykcję, pod którą podpada dostawca programu.

Praktyczne wskazówki dla świadomego korzystania z AI terapii

Chatbot może, w określonych przypadkach, stanowić ciekawe uzupełnienie psychoterapii, jednak tylko o tyle, o ile będziemy korzystać z niego w sposób świadomy i przemyślany. Należy zachować ostrożność i wskazówka ta jest motywowana kilkoma różnymi czynnikami. Niektóre z nich odnoszą się wprost do kwestii naszego dobrostanu psychicznego, z kolei inne tyczą się również istotnego problemu bezpieczeństwa w sieci. Oto kilka praktycznych porad:

  • Określ dzienne i tygodniowe limity na korzystanie z AI.
  • Nie umieszczaj w swoim koncie użytkownika prawdziwych danych osobowych. Warto też stworzyć nowy e-mail do rejestracji profilu.
  • Wybierz dobry VPN (bazuj na renomie i opiniach użytkowników) i za każdym razem korzystaj z niego w trakcie rozmawiania z chatbotem.
  • Twórz anonimowe kopie rozmów i umieszczaj je w zabezpieczonych hasłem folderach.
  • Korzystaj tylko z unikatowych, mocnych haseł.

Terapia wspierana przez AI bezpiecznie i świadomie

Nie należy mieć złudzeń: żadna sztuczna inteligencja nie zastąpi procesu terapuetycznego z doświadczonym specjalistą. Co więcej, w wielu przypadkach próby realizowania pseudo-psychoterapii z wykorzystaniem AI mogą okazać się wysoce szkodliwe dla naszego dobrostanu psychicznego. Na dalszę metę, „terapeutyczne” obcowanie ze sztuczną inteligencją może prowadzić do zapętlenia emocjonalnego oraz tendencjami do izolacji.

Ponadto, trzeba też pamiętać o zagrożeniach dla prywatności, z jakimi wiąże się przekazywanie Chatowi GPT najbardziej poufnych i w najwyższym stopniu wrażliwych informacji na nasz temat. Niestety, AI służy również hakerom, znacząco ułatwiając im personalizowane ataki, w tym nasłuchiwanie rozmów prowadzonych przez sieci. AI posiada też pewien potencjał uzależnieniowy, dlatego warto z góry wyznaczyć sobie limity korzystania z ChatuGPT, a następnie trzymać się tychże limitów.

Należy również pozostawać w kontakcie ze znajomymi, rodziną, przyjaciółmi, a przede wszystkim: z terapeutą. To właśnie doświadczony psycholog powinien nadzorować ewentualne korzystanie ze sztucznej inteligencji w roli wsparcia procesu terapeutycznego. Technologia może stanowić dodatek do psychoterapii, ale żaden chatbot nie jest i nie będzie w stanie pełnoprawnie oraz bezpiecznie zastąpić psychoterapuety.

5/5 – (1 głosów)
Szanowni Państwo,
Together Magazyn

W dniu 25 maja 2018 r. weszło w życie Rozporządzenie o Ochronie Danych Osobowych (RODO), czyli Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE. Jego celem jest unowocześnienie oraz ujednolicenie regulacji dotyczących ochrony danych osobowych obowiązujących na terenie Unii Europejskiej.

Niezbędne pliki cookies

Aby strona działała poprawnie pliki cookie powinny być włączone przez cały czas.

Pliki cookie innych firm

Włączenie tych plików cookie pomaga nam ulepszać naszą stronę.