Deepfake – ХХІ ғасырдың визуалды вирусы

Deepfake – ХХІ ғасырдың визуалды вирусы
сурет: istockphoto.com

Бұл ғасыр – жасанды интеллект ғасыры. Ғалымдар енді әлем бұрынғыдай болмайды деп дабыл қағуда. Себебі жасанды интеллект тек деректерді өң­деп қана қоймай, барлық саланы жаулап үлгерді. Соның ішінде жар­нама, маркетингті. Мәселен, бұрындары әлдебір өнімді жарнамалау үшін та­нымал тұлғаларға қомақты қаржы ұсынып жатса, бүгінде жасанды интеллект ар­қылы олардың дауысы мен келбетін көшіріп, кез келген тауарды жар­на­малауға болады. Бұл құрал  – дипфейк деп аталады. 

Дипфейк: ол не?

Дипфейк – «deep» (терең) және «fake» (жал­ған) сөздерінен құралған. Жо­ғары­да атап кеткендей, осы  технология ар­қылы адамдардың бейнелері мен дыбыстары өз­гертіліп, оларды басқа контекстте қол­дану­ға болады. Мәселен, бір адамның бет-әлпетін бас­қа адамның бетіне қою немесе белгілі бір адам­ның дауысын мүлдем басқа сөздермен сөй­лету.  Дипфейктердің жылдам таныл-ғанына, шындықты бұрмалап, адамдарды ал­дауға мүмкіндік беретіні әсер етті.
Қазір дипфейк түрлі салаларда қолданы­ла­ды: киноиндустрияда,  маркетингте, көп­те­ген әлеуметтік желіде, журналистикада жә­не көпшілікке арналған көгілдір экран мен мәдени шараларда. Бұл жасанды бейне мық­ты нейрондардың көмегі арқылы жұмыс жа­сайды. Яғни, дипфейк пен нейрондардың ара­сында тығыз байланыс бар. Соның арқа­сында кез келген адамның түрін, дауысын кел­тіре отырып фото, видео және аудио­жаз­ба­ларды жасауға болады. Тіпті, түпнұсқа­сы­нан ажырату қиын. Сонымен қатар  өмі­ріңіз­де айтпаған сөздерді айтып, аяқ баспаған жерде жүріп, жасамаған әрекетті жасау мүм­­­кіндігіне ие боласыз. Таңғаларлығы – бұл тех­нология тек тірі адамдардың бейнесін ал­мастырумен шектелмейді. Өмірден өткен тұл­ғаларға «жан бітіру» мүмкіндігі бар.
Дипфейк технологиясының кем­ші­лік­тері­мен қоса артықшылықтары да бар. Нақ­ты­рақ айта кетсек, бұл технология, шығар­ма­­­­шылық саласында жаңа мүмкіндіктер ту­ғы­зады. Мысалы, жоғарыда атап өткендей, ки­ноиндустрияда актерлердің бейнелерін за­манауи тәсілдермен өңдеу арқылы жаңа туындылар жасауға болады. Сонымен қатар білім беру саласында да бұл технология ар­қылы оқыту процесін интерактивті етіп, оқу­шылар мен студенттердің қызығу­шы­лы­ғын арттырады. Тарихи тұлғалардың фо­то­сы­на «жан беру», дыбыстау арқылы виртуалды шы­найылыққа бір қадам жақындай түседі. Мә­селен, Кенесары немесе Қасым хандардың бей­несін жаңғыртып, олардың дауысы мен сөз­дерін есту оқушыға жай ғана мәтін оқы­ғаннан гөрі әлдеқайда әсерлі болады. Ал екін­ші тарапта, жеке бас тұлғалардың, аза­маттардың құпия деректеріне дәл осы дип­фейк арқылы түрлі кибершабуылдар жа­са­лып, ұрланып жатады. Бұл зиянның бер жағы ғана. Қа­зіргі кездегі өзекті мәселелердің бірі – алаяқ­тардың біреудің жеке бас деректерін қол­­дан жасап, адамдардың банктік шот­та­ры­на қол жеткізіп, ондағы ақшаны өз пайдасына  жара­тып, жалған несие рәсімдеуі.

Дипфейктермен күресудің  
әдіс-тәсілдері

Inbusiness.kz. сайтындағы ақпаратқа сүйен­сек, Ресей фейк жаңалықтарға қарсы қа­тал шараларды енгізген алғашқы елдердің бірі.  2019 жылдан бері елде қоғамдық маңы­зы бар ақпаратты әдейі жалған тарату үшін әкім­шілік және қылмыстық жауапкершілікті қа­растыратын заң күшіне енді. Азаматтарға са­лынатын айыппұл 100 мың, лауазымды тұл­­­ғаларға – 300 мың, ал заңды тұлғаларға – 1 мил­лион рубльге дейін жетеді. Егер жалған  ақ­парат адамдардың өмірі мен денсаулығына қауіп төндірсе немесе жаппай тәртіп­сіз­дік­тер­ді туындатуы мүмкін болса, айыппұлдар ар­тады, ал кінәлілер 15 жылға дейін бас бостандығынан айырылуы мүмкін.  Сингапур әлемдегі  ең қатал дезинформациямен күрес заң­­­­­дарының бірімен танымал. POFMA (Protection from Online Falsehoods and Manipulation Act) заңы қоғамдық  пікірге, сайлауға не­­­­месе ұлттық қауіпсіздікке әсер ете алатын жал­ған ақпаратты әдейі тарату үшін 50 мың АҚШ доллары көлемінде айыппұл немесе 5 жыл­ға дейін бас бостандығынан айыруды қа­­­растырады. Фейктерді тарату үшін авто­мат­тандырылған құралдарды (мысалы, бот­тар­ды) қолдану одан да қатал жазаланады – 100 мың доллар айыппұл және 10 жылға дейін түрмеге жазасы.

Біздің елде бұл күрес қалай жүріп жатыр?

Елімізде де дипфейк технологиясы ар­қылы жасалып жатқан алаяқтық фак­торлар көптеп тіркеліп жатыр. Әсіресе, бұл үрдіс жарнама бағытында белең алып тұр. 
Енді әңгімемізді нақты мысалдармен өр­біт­сек: Дана Нұржігіт – тележурналист, продю­сер, қоғам қайраткері. Ол өзінің Instagram-парақшасында Димаш Құдайбер­ген­мен ертеректе жасаған сұхбатын бір ком­па­ния бұрмалап, өздеріне жарнама жаса­ға­нын жариялады. Видеоның басы Дана Нұр­жігіттің Димаш Құдайбергенге «маңызды ақ­паратыңмен бөліскің келгенін білеміз» деп сөз беруімен басталады. Бұл видеоны жасан­ды интеллект арқылы өте сапалы жасағаны сон­шалық, бір көргенде сенбеуіңіз мүмкін емес. Дауыстары, бет әлпеттері, мимика – бар­лығы айнытпай жасалынған. Бұл видео­ның астына Дана Нұржігіт: «Абайлаңыздар, deep fake!  Жасанды интеллект Димаш екеу­мізді де фейк жарнамаға қосыпты! Сен­беңіз­дер!» – деп жазба қалдырған. Желі қол­дану­шы­лары бұл орайда екі тарапқа бөлінді: бірі жа­санды интеллекттің берер зияны осы десе, бірі Димашқа сенетінін  жазып  кеткен.
2024 жылы әлеуметтік желілерде та­ны­мал актер Рүстем Омаровтың бейнесі мен дауы­сы қолданылған дипфейк жарнама пай­да болды. Бұл бейнероликте Рүстем Ома­ровтың белгілі бір сұхбатының бөлігін жа­сан­ды интеллект арқылы кесіп алып, кредит жабу жөнінде таза қаржылық пирамиданың жар­намасын жасаған. Осыны көрген Рүстем­нің өзі халыққа алданбаңыздар деп үндеу жа­сады.
2025 жылдың басынан бері Қазақстанда жал­ған ақпарат тарату бойынша 34 қыл­мыс­тық іс қозғалды, олардың тек үшеуі әйелдерге қа­тысты. Интернет-ресурстарды заңсыз пай­да­лану туралы бір іс тіркелді.  Жылдың ал­ғаш­қы айларында 246 заңсыз жарияланым анықталды, оның 232-сі әлеуметтік желілерде тараған. «Анализ және ақпарат орталығы» онлайн кеңістікті мониторингтеп, заңсыз­дық­­тарды уәкілетті органдарға жедел жет­кізе­ді. Заңсыздық анықталған жағдайда плат­форма иелеріне фейк контентті жою ту­ралы хабарламалар жіберіледі. Құқық бұзу­шылықтар туралы мәліметтер ІІМ-ге беріледі. Министрлік ірі платформалармен өзара бай­ланыс үшін арнайы механизмдер әзірледі, мы­салы, Facebook автоматтандырылған жүйе ар­қылы хабарламалар алады, ал YouTube үшін ресми хаттар дайындалады.                                                                                     
Елімізде де, әлемде де мұндай оқиға өте көп. Қазір бұл мысалдардан да асып түсетін жайттар орын алып жатыр. Сон­­­­­дықтан дипфейктен сақтану керек екенін естен шығармағанымыз жөн. Сондай-ақ бұл тех­нологияны жауапкершілікпен пайда­лануы­мыз керек, ол үшін ақпараттық сауат­ аса маңызды. 

Әсел  СҮЛЕЙМЕН,
Еуразия ұлттық университетінің 
ІІ курс студенті 

Бөлісу:

Серіктес жаңалықтары