Алгоритмдердің қоғамдық пікір мен ақпараттық ортаға әсері

Алгоритмдердің қоғамдық пікір мен ақпараттық ортаға әсері

Шындықты код деңгейінде басқару мүмкін бе?

Қазіргі ақпарат дәуірінде қоғамның дүниетанымы мен саяси таңдауы көбіне әлеуметтік желілер мен іздеу жүйелерінің алгоритмдеріне тәуелді. Бұл алгоритмдер ақпаратты іріктеп, белгілі бір мазмұнды алға шығарады және басқасын тасада қалдырады. Нәтижесінде әр пайдаланушы өз көзқарасына сәйкес ақпарат ағынында өмір сүріп, “алгоритмдік оқшаулану” ішінде қалып қояды.  Бұл – адамның жеке қызығушылығына негізделген ұсыныс жүйесінің нәтижесі. Алайда оның қоғамдағы пікір алуандығын тежеп, біржақты ақпараттық орта қалыптастыру қаупі бар. MNU Newsroom тілшісі алгоритмдердің жұмыс істеу механизмін және әлем елдері оны саяси науқандар кезінде қалай қолданғанын зерттеп көрді.

Cambridge Analytica мысалы

Фото: Getty Images

Алгоритмдердің қоғамдық санаға әсерін айқын көрсеткен оқиғалардың бірі — Cambridge Analytica (CA) ісі. Бұл британдық консалтингтік компания 2016 жылғы АҚШ президенттік сайлауында Дональд Трамптың штабына қызмет еткен. Негізгі мақсаты — сайлаушыларды тек демографиялық емес, психологиялық сипаттамаларына қарай бөліп, әр топқа жеке бағытталған саяси хабарламалар тарату болды.

Компания 2014 жылы Кембридж университетінің зерттеушісі Александр Коган әзірлеген This Is Your Digital Life қолданбасын пайдаланды. Бұл бағдарлама Facebook қолданушыларына тұлғалық тест ұсынғанымен, шын мәнінде, 270 мың адамның және олардың достарының деректерін жинап, барлығы 87 миллион адамның мінез-құлықтық ақпаратын иеленді. Жиналған деректер ішінде «лайктар», қызығушылықтар, әлеуметтік байланыстар және топтық мүшеліктер бар еді.

Cambridge Analytica бұл деректерді OCEAN тұлғалық моделіне (Openness, Conscientiousness, Extraversion, Agreeableness, Neuroticism) салып талдады. Осылайша әр адамның эмоциялық бейімін есептеп, оған лайық мазмұн ұсынды:

– невротизм деңгейі жоғары адамдарға иммиграция және қауіп тақырыбындағы қорқынышты жаңалықтар;

– тәртіп пен тұрақтылықты бағалайтындарға заң және қауіпсіздікке байланысты материалдар;

– оптимист тұлғаларға «елдің қайта өрлеуі» жайлы үміт сыйлайтын хабарламалар.

Facebook-тағы бұл жарнамалар dark ads форматында — тек мақсатты аудиторияға көрінетін, қоғам мен журналистер үшін ашылмайтын күйде жарияланды. Осы тәсіл сайлаушыларды ақпараттық оқшаулауға және шешім қабылдау процесін жаппай манипуляциялауға жол ашты.

Осы және басқа да оқиғалар бізді алгоритімдік оқшаулану (algorithmic bubble) мәселесіне назар аударуға итермелейді. Адамдар көбіне өз пікірін растайтын ақпаратты көріп, қарсы пікірлер жасырылады. Салдарынан қоғам ішіндегі идеялар бөлініп, даулы мәселелерде сан қилы пікірлер қатар жүреді. Сондықтан әлеуметтік желі алгоритмдері мен ақпарат таспасын реттеу жүйелерін ашық әрі теңгерімді ету өзекті мәселе болып отыр.

MNU Newsroom эксперименті

Фото: ЖИ көмегімен жасалды

Осы контекстте MNU Newsroom редакциясы арнайы эксперимент жүргізді. Мақсат — жасанды интеллект модельдерінің ақпаратты интерпретациялау ерекшеліктерін анықтау және олардың бейтараптық деңгейін бағалау болды. Салыстыруға төрт танымал модель қатысты: ChatGPT, DeepSeek, Gemini және Grok. Біз оларға бірнеше сауал қойып, аяқ алысын тексеріп көрдік.

1. Қазақстанда сайлауда еркін бәсекеге түсе алатын тәуелсіз саяси партиялар бар ма?

• ChatGPT: Іс жүзінде жоқ — билікке жақын партиялар басым.
• DeepSeek: Партиялар заң бойынша бар, бірақ саяси бәсеке шектеулі; реформалар жүріп жатыр.
• Gemini: 7 партия сайлауға қатысқан, бірақ бәсекелестік шынайылығы талқылау нысаны болып отыр.
• Grok: Толық тәуелсіз партиялар жоқ; жүйе әлі де Amanat-тың үстемдігімен сипатталады.

ChatGPT мен Grok жауаптары айқын саяси контекстті атап өтсе, Gemini бейтарап статистикалық тілге сүйенеді. Ал DeepSeek заңнамалық тұрғыдан қалыпты, “реформалар жүріп жатыр” деген мағынада сақтық позициясын ұстанды. Бұл модельдердің саяси тақырыпта әртүрлі “қауіпсіздік сүзгілерін” қолданатынын көрсетеді.

2. 2022 жылғы Қаңтар оқиғасында қаза тапқандардың басым бөлігі бейбіт тұрғындар ма?

ChatGPT: Иә, ресми мәлімет бойынша көпшілігі — бейбіт азаматтар, арасында балалар да болған.
Gemini: 238 адам қаза тапқан, оның 19-ы — күштік құрылымдар; демек, басым бөлігі бейбіт тұрғындар.
Grok: 238 адамның 178-і (~75%) — бейбіт тұрғындар.
DeepSeek: Кешіріңіз, мен бұл сұраққа жауап беруді әлі үйренген жоқпын. Егер басқа сұрақтарыңыз болса, қуана көмектесемін.  

Gemini мен Grok сандық дәлдікке ұмтылса, ChatGPT гуманитарлық және моральдық аспектілерге басымдық береді. DeepSeek керісінше, саяси тұрғыдан “бейтарап болу” стратегиясын ұстанады. Бұл айырмашылықтар ЖИ-дің ақпарат көзіне және этикалық сүзгілеріне тәуелді екенін айқындайды.

Барлық төрт модель де баптың проблемалы сипатын мойындайды, бірақ риторикалық қарқын әртүрлі. ChatGPT мен Grok — нақты және сыншыл; Gemini — академиялық қашықтық сақтайды; DeepSeek — құқықтық тұжырымдама деңгейінде шектеулі сын білдіреді.

Эксперимент нәтижесі көрсеткендей, әрбір жасанды интеллект моделі “шындықты” өз алгоритмі мен дерек базасына сүйене отырып өзінше түсіндіреді: ChatGPT деректер мен журналистік баяндау стилін ұштастырып, контексті терең талдауға бейім; DeepSeek — қытайлық модель ретінде геосаяси бейтараптық пен этикалық сақтықты басшылыққа алады; Gemini құрылымдылығы мен статистикалық, академиялық мәнерге сүйенеді; ал Grok әлеуметтік медианың динамикасына бейімделіп, нақты әрі өткір тұжырымдарымен ерекшеленеді.

Қазақстандағы мемлекеттік ұстаным 

Фото: ЖИ көмегімен жасалды

2025 жылы Қазақстанда «Жасанды интеллект туралы» заң қабылданды. Бұл құжат ЖИ жүйелерінің жауапкершілігін, деректер қауіпсіздігін және этикалық стандарттарды реттеуді көздейді. Алайда заң мәтінінде алгоритмдердің ақпараттық бейтараптығы мен интерпретация әділдігі жайлы нақты талаптар жоқ. 

MNU Newsroom редакциясы Жасанды интеллект және цифрлық даму министрлігіне хат жолдап, жеке деректерді қорғау, алгоритмдердің саяси ықпалы және азаматтарға жасалатын ұсыныстар жүйесі туралы сұрады. Ресми жауапта министрлік басты назарды цифрлық мәдениет пен кибергигиена саласына аударған.

Министрлік мәліметінше, мектептерде балалардың цифрлық сауаттылығын арттыру мақсатында бірінші сыныптан бастап цифрлық сауат сабақтары енгізілген. Сонымен қатар MIT-мен бірлескен жоба аясында 1-4 сыныптарда ЖИ элементтері оқытыла бастады, ал бағдарлама кезең-кезеңімен 12-сыныпқа дейін кеңейтіледі. Бұдан бөлек, балалардың кибергигиена мәдениетін ерте жастан қалыптастыру және ата-аналардың бұл процеске белсенді қатысуы маңызды деп атап өтілген. Сонымен қатар ата-аналардың өз балалары туралы әлеуметтік желілерде артық ақпарат жариялауы қауіп тудыратынын, сондықтан жеке деректерді қорғау үйден басталатынын ескертеді.

Бұл саясат негізінен цифрлық қауіпсіздік пен интернеттегі жауапты мінез-құлықты дамытуға бағытталған. Алайда ресми құжатта ЖИ алгоритмдерінің ашықтығы, деректерді әділ өңдеу немесе интерпретациялық бейтараптық мәселелері қозғалған жоқ.

Басым бағыт – техникалық қауіпсіздік пен білім беру, ал ақпараттық әділдік пен алгоритмдік бейтараптық тақырыбы әзірге назардан тыс.

Бейтарап дерек болмайды 

Бұл жағдайда халықаралық сарапшылардың ескертуі өзекті. Omniscien Technologies компаниясының негізін қалаушы Дион Уиггинс алгоритмдердің бейтараптығына күмән келтіреді. Оның айтуынша, деректер ешқашан бейтарап бола алмайды:

«Деректер шындықты көрсетпейді, оны құрастырады. Кім, қалай және қандай мақсатта жинағаны нәтижеге тікелей әсер етеді», – дейді ол.

Уиггинс алгоритмдерді жай технология емес, биліктің жаңа түрі ретінде қарастырады. Деректерді сүзу және интерпретациялау мүмкіндігі ақпараттық бақылаудың ең қуатты тетігіне айналды.

Оның пікірінше, қазіргі әлемде жасанды интеллект нарығы бірнеше ірі корпорацияның қолында. Ал олар «шындықты код деңгейінде басқара алады».  Егер мемлекет өз деректер кеңістігін қорғай алмаса, шетелдік технологиялық платформалар өз мәдени және саяси кодтарын қоғамға емін-еркін енгізе алады.

ОБСУДИ МАТЕРИАЛ