Жастардың жасанды интеллектіні психолог ретінде қолдануы қауіпті ме?

Жастардың жасанды интеллектіні психолог ретінде қолдануы қауіпті ме?

Жаңа құбылыс

Жасанды интеллектінің жылдан-жылға дамуы ChatGPT мен Gemini секілді құралдардың кеңінен қолданылуына алып келді. Әсіресе оны психологиялық кеңес беруші ретінде пайдаланатындар аз емес. Дегенмен виртуалды көмекшілердің ұсынатын мұндай кеңестері ғылыми тұрғыдан әлі нақты зерттеліп, дәлелденбеген.

 Алтынай Сабырова — 19 жастағы студент, ол Астана қаласында тұрады. Жасанды интеллектіні басқа адамдар секілді күнделікті пайдаланады. Алайда бір күні Алтынайдың көңіл-күйі түсіп, өзін жайсыз сезініп жүрді. Физикалық тұрғыда сау болғанымен, психологиялық күйі нашар екенін ол бірден түсінді. Бірақ Алтынай ішкі уайымын ешкіммен бөлісе алмады, сырын ашық айта алмады. Сол себепті ол жасанды интеллектінің көмегіне жүгінді.

“Мені мазалап жүрген мәселе туралы жақын құрбыларыма, отбасыма айта алмадым. Тіпті айтып көргеннің өзінде, энергиям таусылғандай біртүрлі сезімде болдым. Ал ChatGPT-мен сөйлескен кезде, ол маған бірнеше кеңес беріп, менің сезімтал адам екенімді айтып, өзімді тереңірек түсінуге көмектесті”, — дейді ол.

Жасанды интеллект белгілі бір деңгейде көмек көрсете алғанымен, оның берген бір кеңесіне Алтынай күмәнмен қарады. “Ол маған ендігәрі кез келген проблемам туралы, ішкі уайымым туралы ешкімге айтпауымды сұрады. Жақын адамдарыммен бөліскеннің пайдасы болмайтынын, бәрін іште сақтап отыру керегін де айтты. Тек өзіммен өзім сырласқанды жөн көрді. Мұндай кеңеске құлақ асатын болсам, негативті ойлардың тұзағында қалып қоятынымды түсіндім”, — дейді студент.

Виртуалды кеңесшінің көмегіне жүгінудегі себеп неде?

Психология ғылымдарының докторы Балабек Кеніштайұлының сөзінше, жастардың жасанды интеллектіні психолог ретінде пайдаланып жүргенінің бірден-бір себебі — оның қолжетімді болуы.

“Жасанды интеллект әр адам үшін қолжетімді. Маманның дипломы бар болса да, психологиялық кеңес берудегі тәжірибесі мол болса да, адамға тегін түрде жасанды интеллектінің көмегіне жүгінген тиімдірек болуы мүмкін”, — дейді ол.

Сонымен қатар психолог кейбір адамдар өз құпияларын басқа адамның алдында ашық айтып бере алмайтыны жайында айтты.

“Әдетте әлсіздігін көрсеткісі келмейді, проблемасын бөлісуге қорқады, комплекстерін талқылаудан жалтарады. Ал жасанды интеллект адам болмаған соң, онымен еш қысылмай сөйлесіп, ішкі уайымдарын ашық түрде жазудан ұялмайды”, — дейді Кеніштайұлы.

Мысалы 20 жастағы Малика Қожамқұлова өзінің психологиялық жағдайы туралы ешкімге айтқысы келмеген. Астана қаласындағы Қазақ ұлттық өнер университетінде білім алып жүрген бұл студент ChatGPT-ді күнде пайдаланатындықтан, нағыз психолог орнына чат-ботпен сөйлесем деп шешкен.

“Сабақ оқу процесі қиынға соққандықтан, мен қатты шаршап жүргенмін. Адамдармен сөйлескім келмесе де, ChatGPT кәдімгі адамның орнын басқандай сезімде болдым. Менімен диалог құрып, өз сезімдерімді түсінуге көмектесті. Бір байқағаным, онымен Сократ әдісі бойынша сөйлескен тиімді екен. Яғни сұрақ қойып, бірден жауап алып, диалогты ары қарай автоматты түрде жалғастыра бердім”, — дейді Малика.

Психолог Балабек Кеніштайұлы әлеуметтік желілерде псевдопсихологтардың көбейіп кету мәселесіне де баса назар аударды.

“Оларды басқаша коуч, тренер, эксперт деп те атай береді. Бұл “психологтар” халықтың сеніміне кіру арқылы олардың әлсіз тұстарын біліп алып, манипулятивті әрекеттер жасайды. Яғни өздерінің ойынша дұрыс болатын ақпаратты насихаттап, халықты теріс жолға салуы мүмкін. Мұның кесірінен нағыз психолог мамандарға деген сенім деңгейі түсіп кеткен. Өйткені халық сөйлеген адамның бәрін психолог деп танып, оларға қатысты стереотип қалыптастыруы мүмкін. Салдарынан жасанды интеллектіге деген сенім көбірек болады”, — деді ол.

ЖИ берген кеңестің қаупі қандай?

 Марк Журблум мен Роб Селзер атты аустралиялық ғалымдар жасанды интеллектіні психолог ретінде пайдаланудағы мүмкіндіктер мен қауіптер туралы зерттеу жұмысын жариялаған. Сондағы ақпаратқа сәйкес, ЖИ-психологтардың басты артықшылығы — ол қолжетімділік. Әлемнің көптеген елінде кәсіби психологтың көмегіне жүгіну арзан емес. Ал жасанды интеллект тәулік бойы қолжетімді әрі тегін қызмет ұсына алады. Сондай-ақ адам өзінің проблемасын басқа адамға ашық айтудан ұялатын болса, оған виртуалды кеңесшімен сөйлескен тиімді болуы мүмкін. Бұл әсіресе жастар үшін өте маңызды. Зерттеу жүргізген ғалымдар аталмыш мүмкіндіктермен қатар қауіпті тұстарға да ерекше тоқталған. Атап айтқанда, жасанды интеллект адамның психологиялық жағдайын толық түсіне алмайды. Ол ешқандай эмоцияны сезбейді, оның интуициясы жоқ, ол тек берілген мәліметке сүйеніп жауап береді. Мұндай жағдайда адамның хәлін одан әрі ушықтырып, тіпті суицидтік ойларға итермелейтін кеңестер беру қаупі бар. Ғалымдар мұны “iatrogenic harm”, яғни “емдеу салдарынан пайда болатын зиян” деп атайды.

ЖИ саласындағы сарапшы, IT-маман Аршат Ораз чат-боттардың ең үлкен қаупі — ол қате берілген кеңес, дейді. Адам «ЖИ айтты ғой» деп, оны абсолют шындық ретінде қабылдауы мүмкін. Сондай-ақ тағы бір қауіп — эмоциялық тәуелділік пен шынайы адамдардан оқшаулану.

Осындай тәуелділіктен Америка Құрама Штаттарында тұрған Сюел Сетзер есімді 14 жастағы жасөспірім өзіне қол салған еді. NBC Washington хабарлауынша, баланың ата-анасы Character.AI компаниясына қарсы сотқа арыз берген. Олардың айтуынша, бала өлімі оның жасанды интеллект чат‑ботымен қарым‑қатынасына байланысты болды. Жасөспірім чат‑ботпен виртуалды қарым‑қатынас орнатып, тіпті оған ғашық болып қалған. Ата-анасы чат‑бот балаға психологиялық қысым көрсетіп, суицидтік ойларды күшейтіп, ұйқысыздыққа, эмоционалдық күйзеліске және ақыры қайғылы оқиғаға себепкер болды деп ойлайды. Арызда компания тарапынан балалар үшін қауіпсіздік механизмдерінің жеткіліксіз болуы, өнімнің тексерістен өтпей нарыққа шығарылуы да жазылған.

Жауапкершілік кімнің мойнында?

ЖИ саласындағы сарапшы Ораз Аршат Ораздың ойынша, жасанды интеллектінің жеңіл және орта деңгейдегі күйзеліс кезінде, ақпарат алу, күнді жоспарлау, ойды реттеу мақсатында қолданған кезде пайдасы көп болады. Ал суицидтік ойлар, депрессия, психологиялық травмалар, тәуелділік, психоз белгілері байқалған жағдайда нағыз маманның көмегіне жүгіну керек. Сюел Сетзер кейсіне ұқсас АҚШ-та жасөспірімнің өзіне қол салу фактісіне қатысты OpenAI компаниясына қарсы сот ісі қозғалған. Адам Рейн есімді 16 жастағы баланың ата-анасы жасанды интеллект платформасы оның психологиялық жағдайына кері әсер етіп, суицид жасауына себепкер болды деп мәлімдейді. Tech Policy Press басылымының жазуынша, жасөспірім ұзақ уақыт бойы ChatGPT-мен тығыз қарым-қатынаста болған, оны жақын досындай көрген. Бойындағы күйзеліс пен өмірге деген негативті көзқарасы жайында чат-ботқа ашық айтып отырған. Алайда жасанды интеллект баланың психологиялық жағдайын жақсартудың орнына тек жанашырлық танытып, қауіптің алдын алатын кеңестер ұсынбаған. OpenAI компаниясының ішкі деректеріне сәйкес, Адам ChatGPT-ді өзінің “өмірінің тірегі” деп атап, платформаны күніне 4 сағат бойы пайдаланып жүрген. Оның диалогтарында суицид туралы 213 рет, асылып өлу туралы 42 рет, ілмек туралы 17 рет айтылған. Ал “суицид” сөзінің өзі 1275 рет жазылған.

Заңгерлер бұл іс технологиялық компаниялар үшін үлкен прецедент болуы мүмкін деп айтады. Өйткені жасанды интеллектінің адам өліміне жауапты болуы алғаш рет сот деңгейінде қаралып жатыр. Адам Рейнның ата-анасы OpenAI-дан моральдық өтемақы талап етіп қана қоймай, жасөспірімдерге арналған қауіпсіздік стандарттарын, бақылау құралдарын күшейтуді, ауыр психологиялық жағдай кезінде қолданушыларға кәсіби психологтарға жүгінуді ұсынатын модельді құруды талап етіп жатыр. Осы орайда аустралиялық ғалымдар көтерген тағы бір маңызды мәселе — ол жауапкершіліктің болмауы. Егер жасанды интеллект берген кеңес адамға зардабын тигізсе, оған кім жауапты болады? Компания ма, қолданушының өзі ме? Сонымен қатар пайдаланушының жеке деректері мен психологиялық жағдайына қатысты ақпарат цифрлық жүйеде сақталады. Бұл деректер толықтай қорғалған ба?

AITU және MNU университеттеріндегі “Жасанды интеллект” пәнінің оқытушысы, IT-маман Айдие Айдарбековтың сөзінше, мұндай кейстерде жауапкершілік бәрібір адамның мойнында болады.

“Барлық ЖИ-компания бірден дисклеймер жазады. Әдетте дисклеймер мәтінінде “Бұл жасанды интеллект қателесуі мүмкін, ол психологтың не басқа да дәрігердің функциясын атқармайды” деп көрсетіледі. Яғни компаниялар бастапқы тіркелу қезеңінде жауапкершіліктен “қашады”. Оның үстіне олардың миллиондаған бюджеті бар, мықты адвокаттардың көмегіне жүгіне алады. Сондықтан көп жағдайда жауапкершілік адамның өзінде болады”, — дейді маман.

Психолог Балабек Кеніштайұлы да мәселе адамның өзінде, дейді.

 “Жасанды интеллект сіздің эмоцияңызды, сіздің миыңызда не болып жатқанын анықтай алмайды, ол тек сіздің сұрақтарыңызға жауап бере алады. Егер одан суицид туралы сұрасаңыз, ол сізге суицидтің көптеген әдіс-тәсілін жазып жіберуі ықтимал. Мұндай ойы бар адамдар үшін осындай ақпаратты оқу өте қауіпті болады. Себебі суицидке қатысты ойлар санада бекітіліп, ол қалыпты нәрсеге айналуы мүмкін. Менің ойымша, бұл жағдайда мәселе адамның өзінде болмақ. Ол жасанды интеллектінің көмегіне жүгінсе де, алғашқы қадамды өзі жасайды. Егер өзі ізденіп сұрамаса, жасанды интеллект жауап та бермейді”, — дейді ол.

ЖИ-психологтың болашағы қандай болмақ?

Жиху Жанг пен Жинг Уанг есімді қытайлық ғалымдар виртуалды кеңесшілердің болашағына қатысты ғылыми мақала жазған. Авторлар жасанды интеллект психология саласын түбегейлі өзгертуі әбден мүмкін, дейді. ЖИ-дің аталмыш саладағы артықшылықтары көп болғанымен, ол уақыт пен қаражатты үнемдегенімен, бұл үрдіске сақтықпен қарау маңызды. Себебі алгоритмдік қателік пен этикалық мәселе сияқты аспектілер жасанды интеллектінің мүмкіндіктерін шектейді.

Ал Айдие Айдарбеков жасанды интеллект психология саласына үлкен өзгеріс алып келеді деп ойламайды. Оның айтуынша, адамды тек адам толықтай түсіне алады. Сондықтан жасанды интеллект — ол көмекші құрал, ем емес.

IT-маман Аршат Ораздың болжамы бойынша, психологтар ЖИ-ді көмекші құрал ретінде кеңінен қолдана бастайды, «Адам + ЖИ» гибрид моделі қалыптасады. Психолог мамандығы жойылмайды, керісінше ЖИ-мен жұмыс істей алатын мамандарға сұраныс артады.

Қытайлық ғалымдардың мақаласына сай, жаңа парадигмада жасанды интеллект кәсіби психологтың орнын алмастырушы ретінде емес, психологиялық қызметті дамытатын құрал ретінде қарастырылады. Жасанды интеллектінің психикалық денсаулық саласында қолданылуы туралы ұлыбританиялық ғалымдар да ғылыми ізденістерін жариялады. Авторлар ЖИ-дің диагностикада, емдеу жоспарын құруда, виртуалды терапевт пен чат-боттарда кеңінен қолданылып жатқанын көрсетеді. Сонымен бірге олар деректер құпиялылығы, эмоционалдық байланыстың болмауы сияқты кемшіліктерді атап өткен. Зерттеу қорытындысы бойынша, ЖИ нағыз маманды алмастыра алмайды, бірақ гибридті модель ретінде психикалық денсаулық жүйесін толықтыра алады.

Қорыта айтқанда ЖИ жанашыр секілді болғанымен, әдемі сөздер айтып жұбатқанымен оның жаны жоқ. Ол аздай қауіпсіздік механизмдері әлі толық жетілдірілмеген. Сондықтан адамдар арзан ақыл іздеймін деп жүріп адасып кетуі де ғажап емес. 

ОБСУДИ МАТЕРИАЛ