ЖИ мен мәтін
Қазіргі кезде жасанды интеллект жазған мәтіндер интернет кеңістігін жаулап алып қана қоймай, күнделікті өмірімізге еніп кетті. Мектеп оқушылары да, студенттер де, тіпті ғалымдар да ЖИ жазған мәтінді қолданып жүр. Болашақта журналистика мамандығына оқуға түскісі келетін 10-11-сынып оқушылары да мәтінді өзі жазбай, нейрон желілердің көмегіне жүгінетін болды. Бұл – сауатсыздық пен енжарлыққа бастайтын кесел. Оған дер кезінде тосқауыл қоймасақ, ертеңгі күні бармағымызды шайнаймыз. Зерттеуші-ғалымдар цифрлық технологияны бейберекет қажетіне жарату балалардың ойлау қабілетін әлсіретіп, эмоциялық жағынан дамуын тежейтінін анықтады. ЖИ жазған мәтін мен адам қолымен жазылған мәтін текетіреске түскен заманда қандай мәселелер алдымыздан шығуы мүмкін? Соған талдау жасайық.
ЖИ жазған мәтін жалықтырды
Шынын айтсақ, қазір жасанды интеллект жазған мәтін жұртты ығыр қылды. Өйткені оған қатысты дау-дамай көбейіп кетті. Өткен айда «Википедияның» ағылшын нұсқасы нейрон желілердің көмегімен мақала жазуға және оны түзетуге тыйым салды. Беделді қауымдастық ЖИ жасаған мәтін энциклопедияның негізгі қағидаттарына қайшы келетінін хабарлады. Ресми нұсқаға нақты шектеулер енгізілді. Соған сәйкес, редакторлар ЖИ-ді тек қарапайым мәтінді түзетуге ғана пайдаланады. Бірақ оған жаңа ақпарат қоса алмайды. Сондай-ақ ЖИ аударған мәтінді адам мұқият тексергеннен кейін ғана қолдануға болады деген өзгеріс енгізілді. Ұзаққа созылған дау-дамайдан шаршаған тараптар бұл шешімді бірден қолдады. Нейрон желілер контентімен арада болған текетіресті реттеу үшін WikiProject AI Cleanup атты жеке жоба да жүзеге асты. Өйткені ЖИ мәтін дайындағанда әр нәрсені орынсыз ұлғайтып, жұмбақтап, тіпті жалған ақпарат қосып, сайып келгенде, барлығын былықтырып жіберетініне адамдардың көзі жетті. Сол себептен адамдар оны жағымсыз дүние ретінде қабылдауға көшті. Айтпақшы, мұндай ұстанымды «Википедияны» қолданушылар ғана емес, жасанды интеллект саласының басты жоба жасаушылары да ашық мойындады.
Сілтеме салған сергелдең
ЖИ жазған мәтіндер қазір ғылым саласына да зиян тигізіп, ғылыми қауымдастықты қатты алаңдатып отыр. Соған нақты мысал келтірейік. Ақпараттарды талдау маманы Гийом Кабанак Google Scholar-дан өзінің ғылыми жұмысынан дәйексөз келтірген стоматологияға арналған мақала туралы хабарлама алған. Ол өзі жазған мәтінді де, ғылыми жұмысының сілтемесін де тани алмай, қатты әбіржіген. Цифрлық идентификатор ғылыми еңбекті ашып бере алмағандықтан, автор бұл мәтінді ЖИ-дің жазғанын бірден аңғарған. Мұндай оқиғалар өте көп. Жуырда Nature журналы бір қызықты зерттеу жүргізіп, ғылыми мақалаларда мыңдаған жалған сілтемелердің бар екенін анықтады. Мәселе мынада екен: ғалымдар әдебиет іздегенде, мәтін жазғанда және библиография тіркегенде тілдік модельдерді жиі қолданады. Өкініштісі сол, мұндай құралдар мүлдем өмірде болмаған мәліметтерді генерациялап, шынайы ақпарат ретінде ұсынады. Бұған дәлел: информатика пәні бойынша конференцияларда жинақталған 18 мыңға жуық мақаланы талдағанда, соның ішінде 2,6 пайызы, кейбір жағдайда 6 пайызы жалған сілтемелер болып шыққан. Nature журналы мен Grounded Al бірлесіп жүргізген зерттеуде ірі баспалардың 4 мыңнан астам жарияланымы қамтылған. Зерттеу нәтижесінде бір жылда жалған сілтемесі бар 100 мыңнан аса ғылыми жарияланым анықталыпты. Жасанды интеллект ғылыми еңбек авторларын, зерттелген тақырыптарды, жариялаған журналдарды – бәрін бір материалға қосып, жұртты адастырған. Ең сорақысы, нақты бір ғылыми жұмыс сілтемесінің өзінен қате шығады: не атауы бұрмаланған, не авторы дұрыс емес. Бір зерттеуде ЖИ генерациялаған сілтемелердің 20 пайызы ойдан шығарылғаны әшкереленген. Дәйексөздердің 45 пайызы бұрмаланғаны тағы бар. Осыдан кейін беделді ғылыми журналдардың редакциялары сілтемеге қатысты мәселе туындаған жағдайда мақалаларды авторына кері қайтаруда. Бұл мәселе ғалымдардың басын қатырды. Өйткені жалған сілтемелер ғылыми нәтижелерді тексеруге кедергі келтіріп, өзге зерттеушілерді адастырып, ғылыми қорытындыларды бұрмалайды. Ғылыми журналдардың қожайындарын қатты алаңдатып отырғаны мұндай қателердің таралу жылдамдығы оларды анықтаудан бірнеше есеге көп. Егер мұндай жағдай өзгермесе, ғылыми әдебиет шынайылық пен сенімнен айырылатыны анық.
Жазу құралы емес, ұрлықтың бір түрі
Өткен жылы нейрон желілерге қатысты көптеген жанжал шыққаны мәлім. Соның бірі – кітап шығару саласына қатысты дау-дамай. Жазушы Лена Макдональдтың «Академия Даркхоллоу: Газ 2» атты фэнтези-романын қызығып оқыған оқырман: «Мен бұл үзіндіні Дж. Бридің стиліне сәйкес келуі үшін көшіріп алдым» деген жазбаны оқып, жағасын ұстаған. Бұл сөз тіркесі оқырманға арналып, жазылмағаны сөзсіз. Соның нәтижесінде кітапқа қатысты жағымсыз ой-пікірлер жазылып, таралым мен сатылымға да әсер етті. Тіпті кейбір оқырмандар: «Жасанды интеллект – бұл жазу жазатын құрал емес, тірі адамның жазған хатын ешқашан алмастыра алмайтын ұрлықтың бір түрі» деп кейістік білдірді. Кітаптардың баспадан жылдам басылып шығуы да жұрттың күдігін ұлғайта түсті. Фэнтези-романның алғашқы бөлімі 2025 жылы қаңтарда, екінші бөлімі 13 наурызда, ал үшінші бөлімі 23 наурызда шықты. Бұған таңғалған оқырмандар кітап авторының шығармашылық әлеуетіне күдікпен қарап, жасанды интеллектінің көмегімен жазылған әдеби шығарманың шынайылығына илана алмады.
Жағымсыз мәтіннен қауіп бар ма?
Біз күн сайын әлеуметтік желілерді «ақтарып», өзімізге қызықты бейнежазба, мәтінмен жазылған жазба, оқиға, сурет және мақалаларды іздейміз. Солардың көпшілігін ЖИ генерациялайды. Кейбір инфлюенсерлер ЖИ-дің өнімін өз өнімі ретінде ұсынады. Бұдан қандай қауіп бар? PR маманы Диана Жұмағұлова генерацияланған мәтіндерді екіге бөледі: жеке және коммерциялық. Біріншісінде сіз өзіңізге ұнаған адамның парақшасына жазыласыз, сөйтіп ол туралы көбірек білгіңіз келеді. Ал парақшадан ЖИ жасаған мәтінді көріп, ол адамға деген қызығушылық пен сенім жоғалады. Коммерциялық мәтіндермен де осыған ұқсас жағдай орын алады. Өзін толғандырған мәселеге жауап іздеген интернет қолданушы стандартты және жалпылама жауап алса, оның әлгі маманға деген сенімі азаяды. Сенім жоқ жерде табыс та жоқ. Мұндай жағдайда атышулы брендке де, беделді маманға да қызығушылық төмендеп, жағымсыз көзқарас қалыптасады. Демек, жасанды интеллектке бәрін сеніп тапсырған маманның кәсібі құлдырайды деген сөз. Тағы бір PR-маман Анастасия Коханюк нейрон желілердің фактілерді шатастырып, көбінесе шынайы емес дерек көздерін пайдаланатынын айтады. «Сол себептен чаттан келген мәтінді көшіріп алып, тексерместен жариялауға болмайды. Ондай жағдайда автор оқырманды адастырып, сергелдеңге салады» дейді ол. Диана Жұмағұлова да бұл пікірді қостап, белгілі бір сала маманының өз қолымен жазылған мәтінді ғана әлеуметтік желілерге жариялауға болатынын айтады. «Иә, уақытты үнемдеу деген мәселе бар. Алайда медицина, психология, білім беру сияқты салаларда кәсіби мамандардан көмек сұрайтын адамдарға шынайы ақпарат қана берілуі тиіс. Өйткені адамдар бәрін эмоционалды түрде қабылдайды» дейді сарапшы.
ЖИ жазғанды қалай танимыз?
Сарапшы-мамандар ЖИ жазған мәтінді адамдыкінен ажыратудың 9 түрлі тәсілін ұсынады. Біріншіден, ЖИ-дің мәтінінде жеке жазбалар мен үндеулер болмайды. Нейрон желілер жасап шығарған мәтін құрғақ келеді. Ол жерде оқырманға арналған жекелеген ой-пікірлер я болмаса сұрақтар кездеспейді. Екіншіден, мәтіннің стилі айрықша тегіс болып келеді. Ондай мәтіндер тым біртекті, тірі және алуан түрлі құрылымы жоқ сөйлемдерден құралады. Үшіншіден, ЖИ жазған мәтінде сөз тіркестері қайталанып беріледі. Нейрон желі шаблон тіркестерін бір немесе бірнеше рет қайталап, ұсынады. Төртіншіден, ЖИ жасап берген мәтінде грамматикалық қателер кездеспейді. Бесіншіден, ЖИ мәтіндерінің мазмұны бейтараптыққа толы. Сол мәтінді оқып отырған адам бейтарап ұстанымды лезде аңғарады. Тұрақты ұстаным, нақты ой-пікір, белгілі бір эмоция таба алмайсыз. Алтыншыдан, жалған ақпарат генерациясы ұлғайып барады. Жасанды интеллект жалған ақпаратты шынайы ақпарат ретінде ұсынады. Мұны «галлюцинация» деп атайды. Ондай мәтіндерде ойдан шығарылған фактілер мен дәйексөздер толып жүреді. Жетіншіден, нейрон желінің сөздік қорының шектеулі екені бірден байқалады. Мәтінді оқып отырған адам белгілі бір сөздердің, сөз тіркестерінің жұтаңдығын, шектеулі екенін көреді. Сегізіншіден, үстірт логикалық пайымдауды тап басып, ажырата аласыз. ЖИ-дің мәтінінде терең логикалық қорытындылар, интерактивті диалог болмайды. Ол жерде тек бір ғана көзқарас менмұндалап тұрады. Тоғызыншыдан, дәлдік пен шынайылық деген нәрселер ұшыраспайды. Жасанды интеллект сенімді мәліметтерді жинақтап беруі мүмкін, бірақ тексерген кезде оның бұрмаланған ақпарат екенін тез анықтайсыз. Ғылыми ортада бұл мәселеге ең алдымен назар аударылады.
Қазіргі кезде цифрлық технологиялар керемет жылдамдықпен дамып барады. Соның бір жағымсыз тұсы, «ізгілендірілген» мәтіндерді адамның қолымен жазылған мәтіннен айыру қиынға соғуда. Мысалы, Turnitin, GPTZero сияқты цифрлық құралдар терең талдау жасауға көмектескенімен, олардың сенімділігі мен шынайылығы шектеулі. Біз мұғалімдер мен оқушыларға ЖИ-ді пайдалануға тыйым салу арқылы бұл мәселені шеше алмаймыз. Тығырықтан шығатын жолдың бірі – оқушыларды, студенттерді, мұғалімдерді осындай құралдармен тиімді жұмыс істей білуге үйрету, оқыту, баулу. Кез келген ақпаратты суық ақылға салып, шынайылығын тексере алатын адамды ғана ЖИ адастыра алмайды. Менің ойымша, қандай заман болса да, ЖИ мәтін жазуға келгенде тамаша көмекші болуы мүмкін, бірақ адам баласының шығармашылық ой-қабілетін алмастыра алмайды.
Жақсыдан үйрен, жаманнан жирен
Өткен жылдың күзінде Олий Мәжіліс жасанды интеллект (ЖИ) технологияларын теріс пайдаланғандарды жауапқа тартуды қарастыратын заң жобасын мақұлдады. Заңнамалық құжатта алғаш рет «жасанды интеллект» ұғымының ресми анықтамасы беріліп, оны пайдалану ережелері айқындалған. Заң жобасында жасанды интеллектіні заңсыз мақсатта қолдануға қатысты қатаң жазалау шаралары нақты жазылған. Мысалы, жеке деректерді рұқсатсыз өңдегені немесе таратқаны үшін 50-ден 100-ге дейінгі базалық есептік мөлшерінде айыппұл салу, 15 күнге дейінгі мерзімге әкімшілік қамауға алу және техникасын тәркілеу жазасы қарастырылған. Сондай-ақ БАҚ-тарда немесе әлеуметтік желілерде жасанды интеллектінің көмегімен жасалған контенттің арнайы белгісі көрсетілуі шарт. Заңда сондай-ақ адам құқығына әсер ететін шешімдерді тек алгоритмдер негізінде, яғни адамның қатысуынсыз қабылдауға тыйым салынатыны айқын жазылған. Ал біздің заңнамамызда осындай тәжірибе бар ма? Ойланып қаламыз.
Төлен ТІЛЕУБАЙ



