Tot mai multi pacienti apeleaza la psihologi roboti cu Inteligenta Artificiala. Psihologii umani spun ca aceste platforme reproduc sistemele de opresiune si pun in pericol ecosistemul nostru informational
Cea mai noua tendinta in terapiile emotionale sunt terapeutii roboti cu Inteligenta Artificiala se arata intr-un raport de trenduri Wunderman Thompson Intelligence.
Singur ca inca nu vorbim la scara larga de terapeuti care folosesc Inteligenta Artificiala, dar in prezent, exista cateva platforme de terapie cu inteligenta artificiala disponibile pentru utilizare.
In luna mai, startup-ul de inteligenta artificiala Inflection AI a lansat Pi: un robot prietenos pentru sprijin emotional, validare si companie simpla, conversationala. CEO-ul Inflection AI, Mustafa Suleymen, a declarat pentru The New York Times ca Pi este dezvoltat pentru a „sti ceea ce nu stie” si ca „nu ar trebui sa incerce sa pretinda ca este uman sau sa pretinda ca este ceva ce nu este”.
Athena Robinson, director clinic al serviciului Woebot Health, bazat pe inteligenta artificiala, numeste terapia prin inteligenta artificiala un „aliat de auto-ajutorare ghidata”. Robotul pune intrebari pe baza unei programari ghidate de practici sustinute stiintific si poate sugera pasi sanatosi pentru a gasi linistea de moment sau poate seta memento-uri pentru a medita sau a asculta muzica linistitoare.
Un alt robot, numit Replika, este un autoproclamat „companion AI caruia ii pasa, mereu aici pentru a asculta si a vorbi, mereu de partea ta”. Replika are in prezent peste 2 milioane de utilizatori care folosesc aplicatia pentru sfaturi, pregatire pentru interviuri, consiliere matrimoniala, chiar si pentru a exersa inainte de o interactiune sociala stresanta. BetterHelp, care a crescut in popularitate in timpul pandemiei pentru oferta sa de terapie bazata pe text, ofera acum servicii si prin intermediul unui chatbot.
Wysa, o alta aplicatie, ofera un serviciu gratuit doar prin chatbot pentru clientii care nu isi permit serviciile sale de teleterapie. Robotul este descris ca fiind „prietenos” si „empatic” si raspunde cu fraze de sustinere si sugestii de ajutor din indicatii pre-scrise de un psiholog specializat in terapie cognitiv-comportamentala.
Exista insa si dezavantaje ascunse ale acestor aplicatii.
Multi terapeuti sunt ingrijorati de faptul ca, vorbind cu un robot, desi este util pentru a raspunde la anumite intrebari directe sau pentru a oferi raspunsuri si indrumari, acesta nu va oferi in mod eficient sprijinul la nivel uman de care ar putea avea nevoie o persoana care se confrunta cu o boala psihica sau care se afla in suferinta psihica.
Terapeutul licentiat in domeniul casatoriei si familiei Emma McAdam a abordat acest paradox pe canalul ei de YouTube, „Therapy in a Nutshell”. „ChatGPT se pricepe foarte bine sa raspunda la intrebari bazate pe subiecte. Este bun la furnizarea de informatii despre optiunile tipice de tratament”, a spus ea in episodul „Terapeutul vs. Inteligenta artificiala”. „Dar nu poate oferi niciodata o relatie de sustinere si structura de sustinere motivationala a unei terapii reale cu o persoana reala.”
Unele aplicatii de sanatate mintala, cum ar fi Koko, au testat modul in care utilizatorii ar putea reactiona la raspunsurile generate de inteligenta artificiala in cadrul platformei. In cadrul unui experiment de testare a ChatGPT-3, utilizatorii Koko au primit raspunsuri scrise de un robot, dar aprobate de un om.
In cadrul experimentului s-a constatat ca majoritatea raspunsurilor generate cu ajutorul GPT-3 au avut evaluari mai bune. Cu toate acestea, unele persoane au considerat, asa cum a mentionat McAdam mai sus, ca raspunsurile au fost utile, dar ca, intr-un fel, le-a lipsit „sprijinul” pe care l-ar putea primi de la o persoana reala. Cofondatorul Koko, Robert Morris, a vorbit cu Fast Company despre acest studiu: „Cand primesc aceste raspunsuri e ca si cum as spune: „Da, mi se pare corect”. Dar nu ma simt sustinut”.
Partizanatul este, de asemenea, un motiv de ingrijorare pentru multi experti in domeniul tehnologiei si al psihologiei.
In luna martie, Institutul de cercetare Distributed AI Research Institute (DAIR) a avertizat ca utilizarea inteligentei artificiale pentru nevoi intime si interpersonale, cum ar fi terapia, „reproduce sistemele de opresiune si pune in pericol ecosistemul nostru informational” din cauza tendintei sale de a genera raspunsuri bazate pe date partinitoare sau discriminatorii.
Amenintarea de partinire ar putea avea un impact, mai ales daca anumite populatii apeleaza mai frecvent la robotii de chat pentru terapie. „Cred ca comunitatile marginalizate, inclusiv populatiile rurale, sunt mai susceptibile de a fi cele care au bariere de acces, asa ca ar putea fi, de asemenea, mai susceptibile de a apela la ChatGPT pentru nevoile lor, daca au acces la tehnologie in primul rand”, a declarat psihiatrul Jessica Gold de la Universitatea Washington din St. Louis pentru platforma tehnologica Vice, Motherboard.
Studiile de piata pentru 2023 au aratat ca sanatatea mintala este categoria de piata cu cea mai rapida crestere, cu mult peste 200%, iar sanatatea si bunastarea se afla in urma cu aproximativ 150%.
Daca social media a democratizat terapia, atunci IA o poate revolutiona daca este dezvoltata in mod responsabil, punand in acelasi timp la dispozitia maselor servicii si ajutoare de baza. Pe masura ce aceasta tehnologie avanseaza si se maturizeaza, aplicarea inteligentei artificiale intr-un domeniu atat de extins, popular si monetar precum sanatatea mintala poate schimba modul in care consumatorii cauta terapie in viitor.