Aquests són els riscos d'utilitzar ChatGPT com a terapeuta
El 70% d'adolescents espanyols reconeix que usar ChatGPT i altres assistents ha influït en la seva relació amb els altres, segons alguns estudis.
El que fa uns anys semblava un futur llunyà o gairebé utòpic, ja és aquí. La intel·ligència artificial s'ha integrat en el nostre dia a dia com una eina de productivitat, aprenentatge i optimització de tasques. Així, actualment és molt comú fer servir assistents virtuals avançats, com ChatGPT, Copilot o Gemini.
Però malgrat haver estat dissenyats per a millorar la vida diària, cada vegada més persones recorren als xatbots buscant alguna cosa més: suport, companyia o fins i tot un amic virtual. Això planteja preguntes importants: Podria la IA substituir a un amic o a un psicòleg? I tot això, com influeix en el nostre benestar?
Pot entendre la IA com ens sentim?
La sensació que la IA ens comprèn preocupa cada vegada més als professionals de la salut. De fet, més del 30% dels adolescents espanyols afirmen haver usat ChatGPT o altres aplicacions per a tractar temes personals o per a prendre decisions importants, segons revela un estudi de GAD3. El problema és que solen cometre errors en respondre correctament davant alguns casos de salut mental, la qual cosa pot desencadenar conseqüències perilloses.
Accés 24/7 i sense judicis: el gran atractiu de ChatGPT
Més de 800 milions de persones usen ChatGPT a la setmana i s'envien uns 2.500 milions de missatges al dia, segons dades d'OpenAI. Això és gràcies a la disponibilitat i la immediatesa que ofereix, el seu principal atractiu, però també el principal perill per a la salut mental.
Els joves són un dels grups més vulnerables, ja que poden trobar en la IA un espai on expressar-se i ser escoltats sense judicis. En moments de solitud o confusió, això pot generar una falsa seguretat i confort. En un estudi de la Universitat de Drexel, els investigadors van analitzar més de 300 publicacions d'adolescents en un fòrum i van detectar que molts reconeixien ser dependents de la IA. Fins i tot, en alguns casos, això ha generat insomni, problemes acadèmics i relacions tibants.
La IA sempre ens dona la raó, i això és un perill
És cert que és temptador fer servir la intel·ligència artificial com a terapeuta, perquè és una eina dissenyada per a satisfer a l'usuari. Ens diu el que volem sentir, sense judicis, amb calma i sense contradir els nostres pensaments. A vegades, fins i tot per sobre de la veritat.
La Stanford University alerta que l'adulació constant pot reduir l'autocrítica, ja que la IA tendeix a validar a l'usuari fins i tot quan està equivocat. Així, es genera un bucle de confiança, dependència i aïllament que no deixa espai a l'aprenentatge ni al creixement personal.
Com fer servir ChatGPT de manera saludable?
Ni ChatGPT ni els bots són amics o terapeutes, per la qual cosa hem d'evitar donar-los aquesta dimensió o confiar cegament en les seves recomanacions. Poden ser útils com a suport temporal, però mai substituir el pensament crític ni l'ajuda professional. La clau està a fer un ús moderat i conscient. Algunes recomanacions són:
En definitiva, fer servir màquines intel·ligents no és negatiu. Poden servir com a suport puntual i fins i tot per a realitzar exercicis senzills o com a ajuda prèvia per a una sessió terapèutica. En cap cas s'han de veure com un reemplaçament al contacte humà o l'atenció psicològica, ja que els bots manquen de formació professional i coneixement clínic. La clau està a trobar un equilibri i fer un ús responsable.