Pszichológus helyett ChatGPT?

Pszichológus helyett ChatGPT?
Illusztráció: Jaap Arriens / NurPhoto / Getty Image

916

Egyre többen használják pszichológusnak a ChatGPT-t, és meglepő módon szakértők szerint ez nem feltétlenül olyan nagy baj. Egy, a PLOS Mental Health szaklapban megjelent tanulmány szerint párterápiára például kifejezetten hasznos lehet elbeszélgetni a géppel, egy másik, Nature-ben megjelent tanulmány szerint pedig jó kiegészítője lehet a pszichoterápiának. Felmerül viszont a kérdés, hogy mennyire szerencsés dolog ilyen bensőséges kapcsolatot kialakítani egy programmal. Ezt Vajda János pszichológus és ügyvéd szerint majd csak az idő dönti el. A szakértő a Mindennapi Pszichológia Magazin által szervezett eseményen adott elő.

Vajda szerint nehéz egy olyan előadásra felkészülni, ami a mesterséges intelligenciáról szól, mert a fejlődése nem lineáris – „amit tegnap még elméleti síkon emlegetünk, az néhány hét múlva gyakorlati alkalmazás”. Az MI története alapvetően a bipoláris zavarra emlékeztet abból a szempontból, hogy a kitörő lelkesedést általában nagy csalódás követi. Ez az úgynevezett „MI-tél”, ami abból adódik, hogy egyszerűen nem mérjük fel az algoritmus előtt álló feladatok komplexitását, mondta.

Ennek ellenére kétségtelen, hogy a mesterséges intelligencia rengeteget fejlődött az elmúlt évtizedekben. Az 1950-es években jelentek meg az első komolyabb számítógépek, ezek értelemszerűen nem váltottak még ki nagy érzéseket az emberekből. 1966-ban azonban bekövetkezett az első nagy fordulat, amikor Joseph Weizenbaum megalkotta az Eliza nevű chatbotot. Ez kifejezetten egy pszichoterapeutát utánzott, de csak mintázat-felismeréssel dolgozott, a válaszai a betáplált kérdésekhez hozzárendelt sablonokon alapultak. A felhasználók azonban már erre is erős érzelmi reakciókat adtak, úgy érezték, hogy Elisa megérti őket, és hamarosan már intim történeteket osztottak meg vele. Vajda szerint ebből is látszik, hogy az emberek könnyen rávetítik az elvárásaikat egy programra, megvan bennük az antropomorfizációra való hajlam. „Túlbecsüljük egy egyszerű program képességeit azért, mert a válaszai emberinek tűnnek” – mondta, hozzátéve, hogy a nyelvi formának erős a megtévesztő ereje.

A 2000-2010-es években aztán megjelent Siri és Alexa, amik (akik?) már játékosabbak voltak, személyiségközpontúbb reakciókat adtak. A 2010-es évek közepétől pedig elérkezett a társkorszak forradalma, és a testre szabhatóbb érzelmi kapcsolatok a chatbotok iránt.

Működési logika alapján Vajda alapvetően háromfajta mesterséges intelligenciát különböztet meg:

  • a szenzorikus észlelésen alapulót,
  • a szabályalapút vagy pszichometrikusat,
  • illetve a nagy nyelvi modelleken alapuló rendszereket.

A szenzorikus érzékelésen alapuló MI-k nem szöveget, hanem képeket, hangot, mozdulatot, és egyéb biomarkereket elemeznek. Ilyen például az Affectiva, amivel az előadás alatt megnézhettünk egy rövid videót kecskékről és a Doritos csipszről, majd az arckifejezéseink alapján kielemezte, milyen érzelmek futottak át rajtunk. A Hume egy másik ilyen alkalmazás, ami másodpercről másodpercre érzékeli a mimikát, és az érzelmi állapotnak megfelelően válaszol.

A pszichometrikus MI-k strukturált adatokkal dolgoznak. Közéjük tartozik például a WoeBot, ami strukturált kognitív terápiás beszélgetésekre egész jó, vagy a Crashbot, ami kognitív viselkedésterápiás programra épül, és a ChatGPT nyílt forráskódjára íródott.

A nagy nyelvi modelleken alapuló rendszereket a ChatGPT-nek hála mindenki ismeri, de ide tartozik még a Replika és a Hume is. Ezek a programok nemcsak címkéket adnak vissza, a betáplált szavak és mondatok alapján képesek szöveget generálni, ezért is emlegetjük őket chatbotként.

És itt jön az igazán érdekes része a kérdéskörnek: mennyire emberiek vajon ezek a chatbotok, vagyis mi mennyire látjuk őket annak? 2023-ban a Replika-felhasználók több mint 10 százaléka mondta azt, hogy képes romantikus szerelmet érezni a digitális, generált partnere iránt. „Az MI és az emberek közötti kötődés valószínűleg nem múló trend, hanem kialakulóban lévő norma, és nem az a kérdés, hogy lesz-e ilyen kötődés, hanem hogy hogyan tudjuk ezt úgy alakítani úgy, hogy megőrizzük az emberségünket” – mondta Vajda.

Evolúciós szempontból nem túl meglepő, hogy kialakítunk érzéseket olyan programok iránt, amikkel nap mint nap beszélgetünk. „Az emberekben megvan a hajlam, hogy ott is tudatot, szándékot feltételezzenek, ahol nincs erről szó” – mondta a szakértő. A hiperaktív ágensfelderítő eszköz (HADD) minden ember sajátja, azt jelenti, hogy cselekvőképességet és a szándékosságot tulajdonítunk olyan helyekre is, ahol azok nem, vagy csak kis eséllyel léteznek. Hasonló elven működik az is, amikor alakzatokat látunk a felhőkben. Ez a tulajdonságunk még kétdimenziós geometriai alakzatoknál is megvan: a Heider-Simmel kísérlet kimutatta, hogy ha három alakzat (egy nagy háromszög, egy kis háromszög és egy kis kör) mozog egy képernyőn, valamint egy nyitódó és záródó téglalap alakú dobozban, az emberek akaratlanul is történetet vázolnak a látott mozgás mögé.

„Ez evolúciós alapon fejlődött ki, már az ősemberben is megvolt” – mondta Vajda. Az ősembernek segített túlélni, mivel hasznos volt számára, hogy inkább túlbecsülte, mintsem alulbecsülte más entitások jelenlétét vagy szándékosságát. Ha a bokorban vadállatot látott, és kiderült, hogy mégsem az volt, kevésbé jelentett veszélyt számára, mintha nem látta volna az állatot, és kiderült volna, hogy mégis ott van. „Ez gyakorlatilag a jobb félni, mint megijedni mondás igazolása” – mondta Vajda.

A robotokat jellemzően a mindennapi életben is hajlamosak vagyunk személyiséggel felruházni, elég csak a régen népszerű tamagocsikra gondolni, vagy arra, hogy az otthoni robotporszívónak is általában van nevük. A mesterséges intelligencia ráadásul nagyon profin képes tükrözni minket. Ez azon is látszik, hogy az MI-t empatikusabbnak látjuk, mint az embereket, és hogy ugyanúgy bánt minket, ha robotot bántalmaznak, mintha élőlénnyel tennék ugyanezt. Egy 2025-ös kísérlet megfigyelte, hogyan értékelik az emberek a mesterséges intelligencia által generált empatikus válaszokat az emberi válaszokhoz képest az együttérzés, a reagálóképesség és az általános preferencia szempontjából. Kiderült, hogy a résztvevők a mesterséges intelligencia válaszait előnyben részesítették és együttérzőbbnek értékelték az emberi válaszadókhoz képest.

Egy 2013-as német kísérlet azt figyelte meg, hogy milyen fiziológiai változásokon megy keresztül az ember, ha azt látják, hogy egy robotdinoszauruszt különös kegyetlenséggel bántalmaznak egy videón. Kiderült, hogy a kísérletben résztvevők agyában ugyanazok az empátiakörök aktiválódtak, mintha azt látták volna, hogy embereket bántalmaznak. Japán kutatók hasonló kísérletet végeztek, és ugyanerre az eredményre jutottak, de kimutatták azt is, hogy egy milliszekundummal később jön elő az empátia, ha a robotokról van szó.

Persze nemcsak szimpatizálunk a robotokkal, valahol tartunk is tőlük egy kicsit – legalább is akkor, ha már nagyon emberszerűek. Ez az úgynevezett hátborzongató völgy (uncanny valley) jelenség, feltételezett kapcsolat egy tárgy emberhez való hasonlósága és a tárgyra adott érzelmi reakció között. Az olyan humanoid tárgyak, amik tökéletlenül hasonlítanak a valódi emberi lényekre, a nyugtalanság és az ellenszenv furcsa vagy furcsán ismerős érzéseit váltják ki a megfigyelőkből.

Ez is evolúciós örökségünk, mondta Vajda, mivel törzsi alapon működünk, és a társadalmi felépítésünkben van egy „mi”, a közösség, és van egy „ők”, az idegenek. Az idegen potenciális veszélyforrás: ha valaki úgy néz ki, mintha törzsbeli lenne, úgy is viselkedik, de valami mégis megkülönbözteti tőlünk, az a törzsi határokat feszegeti.

Vajda szerint kérdés, hogy az idegrendszerünk átstrukturalizálódás előtt áll-e a mesterséges intelligencia miatt. Nem lenne meglepő, hiszen az MI-társak a nap 24 órájában rendelkezésre állnak. Vajda elmondta, hogy egy kutatás kimutatta: ha valaki több hónapig naponta interakcióba lép egy chatbottal, akkor is érzékeli az MI jelenlétét, amikor offline.

Az MI azonban valójában nem képes empátiára, ami a társas kapcsolatok alapja. Vajda azt mondta: a kognitív empátiát, vagyis a perspektívaváltás képességét akár még tudhatja is utánozni, „mentálisan” reprezentálhatja a másik nézőpontját, és erre reflektálhat megfelelően. Affektív empátiára azonban, amikor valaki mélyebb azonosulásra képes, és át is érzi a másik állapotát, egyértelműen nem képes, hiszen nem rendelkezik testtel, idegrendszerrel.

Persze kérdés, hogy valóban fontos-e, hogy képes-e érezni az MI, vagy sem. Felhasználói élmény szempontjából nem feltétlenül, hiszen nem különbözik attól, amit egy emberi interakcióban átélnénk. „A legtöbb ember nem is a másik valódi érzéseire vágyik, hanem arra, hogy őt magát megértsék” – mondta Vajda. „Sokszor az MI paradox módon jobban viselkedik ezekben a helyzetekben, mint az emberek. Ez kötődőképes az emberi pszichében, mert olyan, mint egy idealizált szülői alak.”

De mennyire baj az, ha valaki kvázi pszichológusként használja a ChatGPT-t? Vajda szerint nem lehet tudni, de lehetnek előnyös vetületei: az például, hogy a program mindig ott van, amikor egy mentálisan sérült vagy érzékeny embernek szüksége van rá, és fordulhat hozzá a nap 24 órájában, segítség lehet. A pszichoterápiát azonban biztosan nem képes kiváltani.

Kedvenceink
Partnereinktől
Kövess minket Facebookon is!