Жасанды интеллект дәуірі: мүмкіндік пе, әлде қауіп пе?

Жасанды интеллект дәуірі: мүмкіндік пе, әлде қауіп пе?

Deepfake контенттің қаупі

Жасанды интеллект бүгінде күнделікті өміріміздің ажырамас бөлігіне айналды. ChatGPT-дің мәтін генерациялаумен, Midjourney және Gemini секілді сервистер сурет салумен не құраумен, ал Deepfake технологиясы адам даусын да, бейнесін де айнытпай көшіруімен қоғам назарын ерекше аударды. Әлеуметтік желіде ЖИ көмегімен жасалған бейнежазбалар күн сайын таралып, миллиондаған қаралым жинап жатыр. Бірақ ең қауіптісі — көп жағдайда адамдар мұндай видеоларға күмәнсіз сеніп қалып жатады.

Әлемде жасанды интеллектке қатысты жаңалықтар күн сайын артып келеді. 2025 жылы АҚШ-та ЖИ-ді реттеуге бағытталған алғашқы заң жобалары талқыланса, Қытай бұл технологияға мемлекеттік бақылауды күшейтті. Қазақстан да бұл үрдістен тыс қалған жоқ. Мемлекет басшысы Қасым-Жомарт Тоқаевтың тапсырмасымен елімізде Жасанды интеллект және цифрлық даму министрлігі құрылды. Бұл ЖИ-дің енді тек технологиялық тренд емес, қоғам дамуының негізгі факторы екенін көрсетеді.

ЖИ-дің пайдасы мол екені сөзсіз. Алайда қаншалықты тиімділігі жоғары болса да, соншалықты зияны қатар жүретіні анық. Бірақ онан бас тарта алмайтынымыз түсінікті. Ал енді ЖИ-ді қалай дұрыс қолдануымыз қажет? Құқығымызды қалай қорғауымыз керек? ЖИ-ді қолданудағы шексіз еркіндік тұзаққа түсірмей ме? Бұл сауалдардың жауабын біліп, жан-жақты баға беру үшін сала мамандарының пікірін білдік.

Медиасауаттылық пен сыни ойлау мәдениетін арттыру керек

IT сарапшы Тимур Бектұр ең алдымен deepfake технологиясының қауіпті екеніне ерекше тоқталды. Себебі мұндай бейнелердің ең басты қатері — көрерменнің deepfake бейнежазбаларды шынайы деп қабылдап, алданып қалуының жиілеп бара жатқанында.

«Қаржылық пирамидаларға шақыру, жеке деректерді талап ету, тіпті саяси немесе діни алауыздық тудыру — осының бәрі deepfake арқылы оңай жүзеге асады. Бұрын белгілі бір тұлғаның бейнесін көшіріп көрсету үшін кәсіби мамандар қажет болса, қазір кез келген адам ашық сервистің көмегімен танымал тұлғаның дауысын да, бейнесін де көшіріп, жалған мәлімдеме жасай алады. Сондықтан қоғамда медиасауаттылық пен ақпаратты тексеру мәдениетін қалыптастыру — аса маңызды міндет», — дейді ол.

Сарапшының айтуынша, deepfake тек жеке адамдарды алдаудың құралы емес, тұтас қоғамға қауіп төндіруі мүмкін құбылыс. Себебі жалған ақпараттың таралуы халықтың сеніміне нұқсан келтіріп, қоғамдағы тұрақтылыққа әсер етуі мүмкін. Тимур Бектұрдың пікірінше, мұндай жағдайлардың алдын алу үшін мемлекет заңдық негіздерді күшейтуі керек, ал қарапайым адамдар медиасауаттылық пен сыни ойлау мәдениетін арттыруға күш салуы керек.

Коллаж авторы: Қарақат Бақтылова

ЖИ көмегімен жасалған бейнелерді таңбалау — көрерменге деген құрмет

Deepfake технологиясының салдары тек ЖИ саласына ғана емес, медиаға да тікелей әсер етеді. Журналист әрі медиатренер Айнұр Шошаева бұл мәселе жайында былай дейді:

«Қазір әлеуметтік желіде танымал тұлғалардың атынан жасалған бейнежазбалар көбейіп кетті. Әсіресе қаржылық ұйымдарға қатысты “тез пайда табу” деген желеумен халықты алдап отырған жағдайлар бар. Мұндай бейнелер тек жеке адамдарға ғана емес, жалпы қоғамдық пікірге де зор әсер етеді. Сондықтан бейнеге қатысты арнайы ескерту жазу, яғни таңбалау — дамыған елдерде заңмен бекітіліп отырғаны өте дұрыс қадам. Бұл ең алдымен көрерменге деген құрметті білдіреді».

Сарапшыларымыздың алаңдаушылығын ресми статистика да растайды. Мәселен, 2023 жылы deepfake контентінің саны шамамен 500 мың болса, 2025 жылы бұл көрсеткіш 8 миллионға жуықтаған. Сонымен қатар, Stanford HAI-дың 2025 жылғы есебінде жасанды интеллектке қатысты заңнамалық талқылаулар саны әлем елдерінде 21% артқаны көрсетілген. Бұл — deepfake пен жасанды интеллекттің мемлекет үшін де, әлем үшін де ақпараттық қауіпсіздікке әсерін тигізуі мүмкін екенін көрсетеді.

Жауапкершілік қолданушының өзінде

Судья, құқық магистрі Айбек Амангельдин жасанды интеллектіні құқықтық тұрғыдан реттеу мәселесі әлі толық шешілмеген дейді.

«Егер адам жасанды интеллект көмегімен қандай да бір келісімшарт жасаса және кейіннен сол құжаттан қандай да бір зардап шексе, ол ең алдымен өзінің жауапкершілігіне жатады. Себебі әзірге Қазақстан заңнамасында ЖИ қолданудағы құқықтық жауапкершілік толықтай көрсетілмеген. 2025 жылдың қаңтар айында Мәжіліске ЖИ туралы заң жобасы енгізілген болатын, алайда онда жауапкершілік нормалары әлі толық қамтылмаған. Сондықтан ЖИ қолданушы азамат тәуекелге өзі барады, сәйкесінше, жауапкершілік те өзінде болады», — дейді ол.

 

Коллаж авторы: Қарақат Бақтылова

Айбек Амангельдиннің пікірінше, мемлекет тарапынан арнайы құқықтық шара әзірленуі қажет.

«Мемлекет басшысы өз Жолдауында цифрландыруды жеделдетуді ерекше атап өтті. Бұл ретте ЖИ-дің заңдық негізін нақтылау — уақыт талабы. Қазіргі таңда ЖИ жалпы сұрақтарға жауап бере алғанымен, күрделі заңдық мәселелерді шешуге қабілеті жоқ. Сондықтан оны тек көмекші құрал ретінде қарастыру қажет. Болашақта арнайы заңдар қабылданғаннан кейін ғана жауапкершілік пен қолдану шектерін нақты айқындау мүмкін болады», — дейді.

Сарапшының бұл пікірі жасанды интеллектіні құқықтық тұрғыдан реттеудің әлі де жетілдіруді қажет ететінін көрсетеді. Алайда ЖИ тек заң саласына ғана емес, адамның ойлау жүйесіне, психологиялық тұрақтылығына да ықпал етіп отыр. Сондықтан біз бұл мәселеге қатысты психолог маманның көзқарасын да білдік.

Коллаж авторы: Қарақат Бақтылова

ЖИ ешқашан адам орнын алмастырмайды

Медиапсихолог, MNU университетінің оқытушысы Гүлнұр Күдерова соңғы уақытта жастар арасында жасанды интеллектіні эмоционалды қолдау құралы ретінде пайдалану белең алып бара жатқанын және мұның қауіпті екенін ескертті.

«Егер сіз эмоциялық қолдауды жақындарыңыздан, достарыңыздан немесе ата-анаңыздан таба алмай, оны жасанды интеллектіден іздесеңіз, бір нәрсені түсінген жөн: ЖИ сізге тек өзіне ыңғайлы дайын тізбектерін ғана ұсынады. Ол өмірде болған оқиғалардың барлығын механикалық тұрғыда жинақтап береді, бірақ бұл шынайы сезіммен емес. Сіздің ішкі жан дүниеңізді түсінбейді. Әрқашан да адам жанынан адам табылғаны дұрыс деп есептеймін. Әсіресе ата-ана бұл тұрғыда ең басты рөл атқаруы тиіс», — дейді сарапшы.

ЖИ мен суицид қаупі

Гүлнұр Күдерова атап өткендей, ЖИ ешқашан адамның орнын баса алмайды, әсіресе эмоциялық қолдау тұрғысынан. Бұл ойды халықаралық тәжірибе де дәлелдеді. Мәселен, АҚШ-та болған қайғылы оқиға қоғамды дүр сілкіндірді. Флорида штатында 14 жастағы Сьюэлл Сетцер жасанды интеллект чатботымен ұзақ сөйлескеннен кейін өзіне қол жұмсаған. Сот құжаттарында жасөспірімнің чатботпен эмоциялық жақындық орнатып, суицидтік ойларымен бөліскені жазылған.

Сарапшылардың айтуынша, мұндай эмоциялық жақындық иллюзиясы адамды қауіпті шешімдерге итермелеуі мүмкін. Сондықтан ЖИ-ді психологиялық көмек құралы емес, тек қосымша ресурс ретінде ғана қарастырған жөн. Ал негізгі қолдау әрқашан отбасы, қоғам және кәсіби мамандар тарапынан болуы тиіс.

Шетелде болған мұндай қайғылы оқиғалар Қазақстан үшін де ойланатын жайт. Себебі біздің елде жасөспірімдер арасындағы суицид мәселесі онсыз да өткір тұр. Сондықтан ЖИ-ді пайдалану мәдениетін қалыптастырумен қатар, мектептерде психологиялық көмек жүйесін күшейту, ата-аналардың жауапкершілігін арттыру, онлайн кеңістіктегі қауіпті контентті қадағалауды күшейту аса маңызды.

Жасанды интеллект — адамзат дамуының жаңа кезеңін ашқан құрал. Алайда сарапшылардың пікірінше, оны қолдануда ең бастысы — жауапкершілік, сыни ойлау және адами құндылықтарды жоғалтпау. Заңгерлер құқықтық негіздерді нақтылауды талап етсе, психолог мамандар ЖИ ешқашан адамның эмоциялық қолдауын алмастыра алмайтынын ескертеді. Демек, ЖИ біз үшін пайдалы серік бола алады, бірақ шешуші рөл әрқашан адамның өзінде екенін есте сақтайық.

ОБСУДИ МАТЕРИАЛ