ProMedico Pismo Śląskiej Izby Lekarskiej w Katowicach listopad 2025 nr 324

13 Pro Medico listopad 2025 Generatywna AI w czatBotach służy wciąganiu człowieka w rozmowę. Two- rzy zdania w oparciu o dostarczone przez człowieka słowa, odzwierciedlając je, rozwijając i potwierdzając. Człowiek w kontakcie z czatBotem AI odczuwa rzadko przeżywaną w codziennym życiu przyjemność, kiedy jego poglądy i twier- dzenia są w każdym wymiarze potwier- dzane, wzmacniane i utrwalane. Opisuje się już zjawisko dysocjacji społecznej, kiedy ludzie używający przez długi czas czatBotów AI wolą bardziej „rozmawiać” z nimi niż z innymi ludźmi. Przyjemność „rozmowy” z istnością, która daje nam 100% swojego zainteresowania i zga- dza się ze wszystkim, co mówimy, może sprawiać przyjemność, która na zasadzie uzależnień behawioralnych – może przy- wiązywać. Wszystko to obserwuje się już i opisuje w piśmiennictwie medycznym, generalnie jednak – nikt się tym specjal- nie nie przejmuje. Człowiek „rozmawiający” z czatBotem AI ulega złudzeniu obecności kogoś po dru- giej stronie. Złudzeniu, ponieważ czatBot AI to maszyna cyfrowa pozbawiona świa- domości i działająca na zasadzie zapro- gramowanych algorytmów, czyli pro- gramu komputerowego. Spotkałem się ostatnio w internecie ze stwierdzeniem, że lepsza jest psychoterapia z czatBo- tem AI niż żadna i nie zgadzam się z tym. CzatBoty AI nie mają świadomości, nie myślą krytycznie i nie są w stanie, tak jak Człowiek społeczny, jako zestaw ról, powstaje na styku potrzeb własnych i potrzeb innych osób, które mogą być zaspokojone dzięki współpracy z innymi osobami oraz nieustannemu dialogowi i uzgadnianiu wspólnego obrazu świata. I w tym miejscu stawiam wniosek, że AI zagraża istnieniu ludzkiego gatunku. człowiek, rozumieć drugiego człowieka, dawać mu rad i zaleceń, więc również nie są w stanie prowadzić terapii. Złudzenie obecności, że po drugiej stronie jest ktoś, kto nas słucha i odpowiada, pozostaje złudzeniem. To w istocie jak rozmowa z echem – odpowiada nam, ale nikogo tam nie ma. Opisuje się już pogorszenia stanu psy- chicznego, powstawanie lub nasilanie się urojeń prześladowczych i wielkościo- wych po długotrwałymużywaniu czatBo- tów AI. Kiedy ktoś ma podejrzenia, że jest prześladowany, albo że jest wybitną jed- nostką, czatBot AI będzie to powtarzał, wzmacniał i potwierdzał w „rozmowie”. Jeśli ktoś jest z kolei w żałobie i ma myśli rezygnacyjne, jest noc i nie ma z kim porozmawiać, to czatBot, rezonując, potwierdzi mu, że świat i życie nie mają sensu. Jest to szczególnie niebezpiecz- ne w sytuacji, kiedy ktoś jest w kryzysie i jest odizolowany społecznie, nie ma się do kogo zwrócić, nie ma bliskich przyja- ciół i nie może pójść do psychologa lub psychiatry. Oferta psychoterapeutycz- nych czatBotów AI jest jak pułapka, cze- kająca na takie osoby. Tak jak w teatrze codziennego życia, niezwykle ważne jest w jaki sposób śro- dowisko medyczne, a w szczególności psychiatria, zdefiniuje podejście do czat- Botów AI. Na razie coraz częściej dyskutu- jemy nad tym, czy do wywiadu lekarskie- go standardowo nie dołączyć już pytania o to, czy pacjent korzysta regularnie z takich czatBotów? Może to być coraz ważniejszy czynnik, prowadzący do nasi- lania objawów zaburzeń psychicznych u osób w kryzysie. Fot. Chroma Stock

RkJQdWJsaXNoZXIy NjQzOTU5