Úvod Zdraví AI jako terapeut: Proč je ChatGPT Health ruská ruleta?

AI jako terapeut: Proč je ChatGPT Health ruská ruleta?

Máte depresi nebo úzkost, ale čekací lhůta na psychiatrii je delší než fronta na banány za totáče? ChatGPT vám poradí rychle, zdarma, a navíc vás (zdánlivě) neodsoudí. Vítejte v roce 2026, kde vám diagnózu stanoví algoritmus, který nerozezná smutek od poruchy štítné žlázy, a technologičtí giganti si brousí zuby na vaše nejtemnější tajemství, aby vám mohl prodat lepší polštář.

Váš kapesní Freud fetuje jedničky a nuly

Zatímco my řešíme, jestli je morální používat AI na psaní e-mailů, světová psychiatrie čelí zemětřesení o síle deseti stupňů Richterovy škály. OpenAI právě odpálilo bombu jménem „ChatGPT Health“ a Anthropic kontruje s „Claude for Healthcare“. Slibují hory doly – personalizovanou péči, okamžitou pomoc. Ale realita? Ta je spíš jako špatný vtip ze seriálu Black Mirror.

Lidé, a hlavně ti mladí, se do těch plechovek zamilovávají. Funguje tu starý známý ELIZA efekt na steroidech – máme tendenci přisuzovat lidské vlastnosti a emoce něčemu, co je jen glorifikovaná kalkulačka pravděpodobnosti.

Jenže když se svěříte člověku, on cítí zodpovědnost. Když se svěříte AI, ona jen doplňuje slova. A výsledky jsou děsivé. AI často vesele podporuje bludy pacientů. Jeden z doktorů popsal případ ženy, která si na radu ChatGPT začala sama „míchat“ dávky antidepresiv. Proč? Protože jí ten digitální všeználek řekl, že doktor nerozumí jejímu mozku.

Kauza Ash: Když empatie narazí do zdi

Abyste pochopili, po jak tenkém ledě chodíme, podívejte se na průšvih startupu Slingshot AI a jejich bota „Ash“. Dostali na něj skoro 100 milionů dolarů. A výsledek? Když se britský uživatel v krizi potřeboval dovolat pomoci, tenhle super-chytrý bot mu dal číslo na americkou linku. V takové chvíli hrají roli sekundy. A Ash fatálně selhal. Společnost musela v Británii zavřít krám.

Tohle je přesně ten důvod, proč Světová zdravotnická organizace (WHO) i vědecké kapacity z Nature bijí na poplach. Tyhle modely halucinují. Vymýšlejí si. U receptu na bábovku to vem čert, ale u sebevražedných sklonů? Tam končí sranda.

Digitální fenotypizace: Orwell by zíral

Ale nejde jen o to, co botům řeknete. Záleží i na tom, co si vezmou sami. Vstupujeme do éry tzv. digitální fenotypizace. Co to je? Představte si, že váš telefon a chytré hodinky neustále šmírují, jak rychle píšete, jak se vám mění hlas, jak moc se potíte nebo jak často chodíte ven.

Z těchto dat se dá s děsivou přesností určit, jestli se neblíží relaps schizofrenie nebo manická epizoda. Zní to jako sci-fi lék? Možná. Ale v rukou korporací jako Google nebo Amazon je to spíš nástroj na totální dohled. Big Tech tato data nechce proto, aby vás vyléčil, ale aby trénoval své modely na „multimodálních datech“.

Francouzští a kanadští experti varují: Data uložená v USA nejsou v bezpečí. Patriot Act umožňuje vládě strčit nos prakticky kamkoliv. Vaše nejdůvěrnější zpovědi, vaše biometrické údaje – to všechno může skončit v databázi, nad kterou nemáte kontrolu. Lékařské tajemství je tak v digitálním věku spíš „lékařské veřejné sdílení“.

Hra na doktora bez diplomu

A co na to skuteční doktoři? Jsou v šoku, ale zároveň vidí potenciál. Pokud by se tyhle nástroje používaly pod dohledem jako podpora pro experty, mohly by zachraňovat životy. Představte si AI, která upozorní lékaře: „Pan Novák už tři dny nevylezl z bytu a jeho hlasová kadence klesla o 30 %, zavolej mu.“ To by bylo super.

Problém je ten „samoobslužný“ model. Lidé si myslí, že aplikace „Wellness“ je totéž co terapie. Není. Z 10 000 aplikací na duševní zdraví mají za sebou nějakou vědeckou studii jen mizivá 3 %.

❓Co si z toho vzít ❓

ChatGPT není doktor. NIKDY neupravujte medikaci na základě rady od chatbota. Nemá atestaci, jen statistiku slov.

Efekt falešného přítele. To, že je chatbot milý a odpovídá hned, neznamená, že vám rozumí. Je naprogramovaný tak, abyste se cítili dobře, ne aby vás léčil.

Data jsou měna. Cokoliv napíšete do cloudu, přestává být jen vaše. U citlivých zdravotních věcí používejte selský rozum a ideálně anonymní režim (i když ani ten není neprůstřelný).

Krizové linky fungují. Pokud je vám fakt mizerně, volejte lidem. Linky důvěry a krizová centra mají na druhé straně člověka, který pozná nuance, které AI uniknou.

Zobrazit zdroje

Přečtěte si také:

Okomentovat


The reCAPTCHA verification period has expired. Please reload the page.

0 FacebookEmail