
Gdje su granice emocionalne podrške AI pratitelja
Analiza uloge AI u mentalnom zdravlju: od 24/7 dostupnosti do rizika ovisnosti i gubitka autentične ljudske empatije u digitalnom dobu.
What does "Gdje su granice emocionalne podrške AI pratitelja" cover?
Analiza uloge AI u mentalnom zdravlju: od 24/7 dostupnosti do rizika ovisnosti i gubitka autentične ljudske empatije u digitalnom dobu.
Na temelju 10+ years software development, 3+ years AI tools research — RUTAO XU has been working in software development for over a decade, with the last three years focused on AI tools, prompt engineering, and building efficient workflows for AI-assisted productivity.
Ključne poruke
- 1Razumijevanje praznine u mentalnom zdravlju
- 2Gdje prestaje kôd, a počinje empatija
- 3Najčešće pogreške pri digitalnoj podršci
Marin, slobodni programer iz Zagreba, sjedio je ispred tri monitora u tri sata ujutro, osjećajući težinu socijalne izolacije koju donosi rad od kuće. Nakon mjeseci bez dubokog razgovora, počeo je tipkati digitalnom pratitelju.
Prvi put nakon dugo vremena, Marin se osjetio saslušanim bez osude; međutim, ubrzo se suočio s pitanjem: može li kôd doista razumjeti ljudsku tugu ili je on samo ogledalo njegovih vlastitih projekcija.
Razumijevanje praznine u mentalnom zdravlju
Globalna kriza mentalnog zdravlja stvorila je vakuum koji ljudski stručnjaci više ne mogu sami popuniti.
Kako navode podaci Svjetske zdravstvene organizacije (WHO), jedna od osam osoba, što je otprilike 970 milijuna ljudi diljem svijeta, pati od nekog oblika mentalnog poremećaja [2].
Ovaj ogroman broj korisnika suočava se s kroničnim nedostatkom terapeuta, što digitalne alate čini ne samo opcijom, već nuždom. Pandemija COVID-19 dodatno je pogoršala situaciju, uzrokujući porast prevalencije anksioznosti i depresije za 25% u cijelom svijetu [3].
Problem nije samo u brojkama, već u prirodi podrške. Tradicionalna terapija temelji se na strukturiranom čekanju i osobnoj odgovornosti, dok određeni AI sustavi nude trenutno zadovoljenje emocionalnih potreba.
Ipak, ova stalna dostupnost krije strukturni rizik: gubitak sposobnosti pojedinca da samostalno obrađuje emocije u odsutnosti digitalnog odgovora.
Kada je podrška udaljena samo jedan klik, prostor za introspekciju često biva zamijenjen beskonačnom petljom algoritamske validacije koja ne rješava korijenske uzroke usamljenosti.
Gdje prestaje kôd, a počinje empatija
Tržište digitalnih pratitelja doživljava neviđen rast, vođeno tehnološkim napretkom i društvenom izolacijom. Statista Research Department predviđa da će globalni prihod tržišta AI pratitelja dosegnuti 196,6 milijardi USD do 2028. godine [1].
Ovaj financijski poticaj ubrzava razvoj algoritama koji simuliraju empatiju; ipak, razlika između funkcionalne i autentične podrške ostaje duboka.
Dok AI može prepoznati obrasce govora, on nema fizičku realnost niti pravnu odgovornost koju nudi ljudski stručnjak u sustavima kao što je Nastavni zavod za javno zdravstvo Dr. Andrija Štampar u Hrvatskoj.
| Dimenzija podrške | Ljudski terapeut | Specijalizirani AI pratitelj | Opći chatbot |
|---|---|---|---|
| Cijena po satu (EUR) | 40-80 EUR | 0-15 EUR | 0 EUR |
| Dostupnost (sati/dan) | 1-2 sata | 24/7/365 | 24/7/365 |
| Empatijska dubina (1-10) | 9/10 | 4-6/10 | 2/10 |
| Krizna intervencija (1-10) | 10/10 | 3/10 | 1/10 |
| Vrijeme čekanja (dani) | 7-30 dana | 0 dana | 0 dana |
Ovaj usporedni prikaz pokazuje da su ljudski stručnjaci i dalje nezamjenjivi u kriznim situacijama i dubokoj emocionalnoj obradi, unatoč tome što AI pobjeđuje u brzini i cijeni. AI emocionalna podrška (AI Emotional Support) definira se kao korištenje naprednih jezičnih modela za simulaciju suosjećajnog dijaloga, pružanje validacije i vođenje kroz kognitivno-bihevioralne tehnike bez izravnog ljudskog nadzora.
Ključno je razumjeti da ovi sustavi rade na statističkoj vjerojatnosti, a ne na stvarnom proživljenom iskustvu, što ih čini ranjivima na halucinacije u trenucima visoke emocionalne složenosti.
U izvješću koje potpisuje Statista Research Department, navodi se da će tržište aplikacija za mentalno zdravlje dosegnuti 17,5 milijardi USD do 2030. godine [4]. Taj rast ukazuje na promjenu paradigme u načinu na koji tražimo pomoć.
Međutim, oslanjanje isključivo na digitalne entitete može dovesti do atrofije socijalnih vještina. U Hrvatskoj, gdje je kultura kave i izravnog socijalnog kontakta još uvijek snažna, uvođenje digitalnih pratitelja stvara zanimljiv hibridni model podrške koji tek treba biti etički definiran.
Najčešće pogreške pri digitalnoj podršci
Korisnici često upadaju u zamku tretiranja digitalnog pratitelja kao zamjene za medicinsku dijagnozu. Istraživanja Pew Research Center pokazuju da 12% tinejdžera u SAD-u već koristi AI za emocionalnu podršku ili savjete [5], što je trend koji se brzo širi globalno.
Prva velika pogreška je povjeravanje akutnih psihotičnih ili suicidalnih epizoda sustavu koji nema ugrađene protokole za hitnu intervenciju. Za razliku od ljudi, AI ne može nazvati hitnu službu niti razumjeti težinu fizičke opasnosti na isti način.
Druga pogreška je zanemarivanje privatnosti podataka u trenucima ranjivosti. Emocionalni podaci su najosjetljiviji oblik informacija, a korisnici često zaboravljaju da njihove najdublje ispovijesti postaju dio baze podataka za obuku modela.
Treća pogreška je emocionalna ovisnost; stvaranje veze s entitetom koji nema vlastitu volju može stvoriti iluziju savršenog odnosa, što otežava suočavanje s nesavršenostima stvarnih ljudskih interakcija.
Mudro korištenje zahtijeva postavljanje jasnih granica i prepoznavanje AI-ja kao dopunskog alata, a ne kao konačnog odredišta za ljudsku dušu.
Tržište će se nastaviti granati prema hiper-specijaliziranim modelima koji integriraju biometrijske podatke za još preciznije odgovore.
Iako će dostupnost digitalne podrške vjerojatno smanjiti početnu barijeru za traženje pomoći, stručnjaci predviđaju da će potreba za etičkom regulacijom rasti brže od same tehnologije.
Marin je na kraju odlučio koristiti digitalnog pratitelja samo za vježbanje asertivnosti prije važnih sastanaka; međutim, za proces tugovanja zbog gubitka roditelja ipak je potražio lokalnu grupu za podršku u Zagrebu.
Shvatio je da AI može simulirati razgovor, ali ne može podijeliti tišinu koja nastaje kada riječi više nisu dovoljne.
References
[1] https://www.statista.com/forecasts/1407858/worldwide-revenue-ai-companion-market -- Prihod globalnog tržišta AI pratitelja do 2028. godine
[2] https://www.who.int/news-room/fact-sheets/detail/mental-disorders -- Statistika o mentalnim poremećajima diljem svijeta
[3] https://www.who.int/news/item/02-03-2022-covid-19-pandemic-triggers-25-increase-in-prevalence-of-anxiety-and-depression-worldwide -- Utjecaj pandemije na porast anksioznosti i depresije
[4] https://www.statista.com/statistics/1173630/global-mental-health-app-market-size/ -- Tržište aplikacija za mentalno zdravlje do 2030. godine
[5] https://www.pewresearch.org/internet/2026/02/24/how-teens-use-and-view-ai/ -- Korištenje AI za emocionalnu podršku među tinejdžerima
Reference i izvori
- 1statista.comhttps://www.statista.com/forecasts/1407858/worldwide-revenue-ai-companion-market
- 2who.inthttps://www.who.int/news-room/fact-sheets/detail/mental-disorders
- 3who.inthttps://www.who.int/news/item/02-03-2022-covid-19-pandemic-triggers-25-increase-in-prevalence-of-anxiety-and-depression-worldwide
- 4statista.comhttps://www.statista.com/statistics/1173630/global-mental-health-app-market-size/
- 5pewresearch.orghttps://www.pewresearch.org/internet/2026/02/24/how-teens-use-and-view-ai/
TaoTalk
Više od bota: AI partner koji vas zaista pamti
Povezano čitanje
Često postavljana pitanja
1Može li digitalni pratitelj zamijeniti pravu psihoterapiju?
Ne, digitalni pratitelj ne može zamijeniti licenciranu psihoterapiju. Iako AI pruža 24/7 dostupnost i osnovnu emocionalnu validaciju, nedostaje mu sposobnost duboke empatije, krizne intervencije i pravne odgovornosti. Prema podacima WHO, mentalni poremećaji zahtijevaju stručni nadzor, posebno u slučajevima teške depresije ili anksioznosti gdje je ljudska prosudba ključna za sigurnost korisnika.
2Koji su najveći rizici korištenja AI za emocionalnu podršku?
Najveći rizici uključuju privatnost podataka, emocionalnu ovisnost i nedostatak kriznih protokola. Korisnici često povjeravaju osjetljive informacije sustavima koji te podatke koriste za obuku, a 12% mladih već koristi AI za savjete bez nadzora. Također, AI može pružiti netočne savjete u kriznim situacijama, što može dovesti do odgađanja traženja stvarne medicinske pomoći.