Menadžerica u kompaniji za vještačku inteligenciju OpenAI izazvala je nedavno zaprepaštenost napisavši da je upravo imala „prilično emotivnu, intimnu konverzaciju“ s naširoko prisutnim četbotom svoje firme.
Bujica negativnih komentara
- Nisam ranije probala terapiju, ali ovo je vjerovatno to - objavila je Lilijan Veng na društvenoj mreži X (nekadašnji Twitter), izazivajući bujicu negativnih komentara koji je optužuju da potcjenjuje težinu mentalne bolesti.
Međutim, njeno viđenje interakcije sa četbotom ChatGPT može se objasniti jednom verzijom placebo efekta, piše MedicalXpress.
Istraživači iz Masačusetskog instituta za tehnologiju (MIT) i Državnog univerziteta Arizone zatražili su od više od 300 učesnika studije da stupe u interakciju s programima vještačke inteligencije za mentalno zdravlje i pripremili ih za ono što mogu da očekuju.
Nekima je rečeno da je četbot saosjećajan, drugima da je manipulativan, a trećoj grupi da je neutralan.
Bilo je mnogo vjerovatnije da će oni kojima je rečeno da je četbot brižan vidjeti svog četbot-terapeuta kao dostojnog povjerenja.
Iz ove studije se vidi da je vještačka inteligencija do neke mjere stvar subjektivnog shvatanja.
Nove kompanije već godinama nude programe vještačke inteligencije koji pružaju terapiju, društvo i drugu podršku mentalnom zdravlju – i to je veliki biznis.
Međutim, ima mnogo kontroverzi u tom poslu.
Opći strah
Kao i u slučaju svakog drugog sektora koji bi vještačka inteligencija mogla poremetiti, kritičari su zabrinuti da će roboti zamijeniti ljudsku radnu snagu umjesto da joj budu dopuna.
Što se mentalnog zdravlja tiče, vlada zabrinutost da roboti vjerovatno neće dobro uraditi posao.
Doprinoseći općem strahu zbog vještačke inteligencije, neke aplikacije na polju mentalnog zdravlja imale su loše momente u nedavnoj prošlosti.
Korisnici „Replike“, popularnog virtuelnog prijatelja ponekad reklamiranog kako pomaže mentalnom zdravlju, dugo su se žalili da taj program može biti opsjednut seksom i okrutan.
Američka neprofitna kompanija „Koko“ je u februaru izvela eksperiment sa 4.000 korisnika nudeći savjetovanje pomoću modela GPT-3, zaključujući da automatski odgovori jednostavno ne funkcioniraju kao terapija.
-Simulirana empatija je vrlo čudna, prazna - napisao je osnivač te firme Rob Moris.
Njegovi nalazi su slični nalazima istraživača iz MIT-a i Univerziteta Arizone, koji su rekli da su neki učesnici iskustvo sa četbotom opisali kao „razgovor sa zidom“.
Međutim, Moris je bio prinuđen da se brani nakon rasprostranjenih kritika na račun eksperimenta, uglavnom zbog toga što nije bilo jasno da li su korisnici bili svjesni svog učešća.
Ideja četbota kao terapeuta je tijesno vezana s počecima te tehnologije iz 60-ih. Prvi četbot ELIZA razvijen je kao simulacija jednog tipa psihoterapije.
Prvi četbot ELIZA
ELIZA je korištena kod polovine učesnika novog istraživanja, a GPT-3 kod druge polovine. Iako je efekt bio mnogo jači sa GPT-3, korisnici pripremljeni za pozitivnost ipak su generalno smatrali da je ELIZA dostojna povjerenja.
-Način na koji je vještačka inteligencija predstavljena društvu ima značaj pošto mijenja način na koji se vještačka inteligencija doživljava - kažu se u studiji. Možda je poželjno da se korisnik pripremi da ima niža ili negativnija očekivanja.