Оның артықшылықтарымен қатар, алаңдаушылық туғызатын тұстары да жоқ емес. Соның бірі – дипфейктердің қарқын алуы.
Бүгінде бұл технология жалған ақпарат тарату, алаяқтық сияқты мақсаттарда жиі пайдаланылады. Сарапшылар дипфейктерді шынайы дүниеден ажырату күннен күнге қиындай түскенін мойындап отыр, деп хабарлайды inbusiness.kz сайты.
Жалпы алғанда дипфейк деп жасанды интеллект көмегімен жасалатын жалған сурет, бейне немесе аудиожазбаларды атайды. Target Information Security директоры, ақпараттық қауіпсіздік аудиторы Лаура Тлепинаның айтуынша, дипфейктерді анықтау – техникалық тұрғыдан күрделі міндет.
"Сарапшылар арнайы машиналық оқу алгоритмдерін пайдалану арқылы бейне мен аудиодағы көзге көрінбес ұсақ бөлшектерге назар аударады. Мысалы, жасанды видеоларда кейде бет бөліктерінің шекарасындағы бұзылыстар немесе сөйлеген сөз бен ерін қимылының арасындағы сәйкессіздік байқалуы мүмкін. Мұндай артефактілерді, яғни қолдан жасалған дүниені іздеу – осы дипфейкті танудың бір жолы. Бұдан бөлек, жалған контент көбінесе әлеуметтік желілерде белгісіз аккаунттар, боттар арқылы тарайды. Сондықтан күмәнді жазбаның метадеректерін қарау да көмектеседі", – деді сарапшы.
Сала маманы жасанды интеллект тудырған қазіргі дипфейктерді анықтау күннен-күнге қиындап бара жатқанын айтады.
Оның сөзінше, алгоритмдер мен детекторлар жаңа пайда болған фейктерге ілесе алмай келеді. Қазір фейктер бұрынғыдан шынайы көрінеді, себебі Deepfake технологиясы үздіксіз жетілдіріліп жатыр, деп есептейді ол.
"Қазіргі дипфейктер кәдімгі видео сияқты табиғи көрінеді, сондықтан кейбір жалған роликтерді көзбен қарап анықтау мүмкін емес. Оларды талдау үшін AI детекторлары мен сарапшылардың көмегі қажет болады. Сондай-ақ, дипфейктер тарай бастаған соң кез келген шынайы видеоның өзін біреулер бұл компьютерде жасалған деуі мүмкін. Мұндай жағдайда қоғамда ақпаратқа деген сенім төмендейді. Яғни, дипфейк жалған контент таратып қана қоймай, шынайы деректердің беделіне де әсер етеді", – деп атап өтті Лаура Тлепина.
Дипфейктердің қоғам мен мемлекет үшін ең басты қаупі неде?
Ақпараттық қауіпсіздік аудиторы дипфейктердің ең үлкен қаупі жалған ақпараттың шынайы боп көрінуінде дейді.
"Қаскөйлер мұндай видеолар мен аудиоларды қоғамды алдау, арандату мақсатында пайдалануы мүмкін. Мемлекет үшін дипфейктер сайлау науқандары және жалпы ақпараттық қауіпсіздік саласында қатер тудырады. Мәселен, бір саясаткердің атынан жалған мәлімдеме беріліп, сайлаушылардың таңдауына ықпал етуге тырысуы да мүмкін. Қоғам үшін бұл технологияның қаупі – жалпы ақпаратқа деген сенімнің жоғалуы. Экрандағы кез келген бейне шындыққа сәйкес келмеуі мүмкін деп ойлай бастасақ, онда адамдар ресми жаңалыққа да, бір-бірінің сөзіне де күмәнмен қарайтын болады. Тағы бір зиян – жеке адамдарға жасалатын шабуылдар. Әсіресе, танымал тұлғалардың немесе қарапайым азаматтардың абыройын түсіретін материалдар дайындалуы мүмкін", – деп түсіндірді сала маманы.
Лаура Тлепина алғашында мұндай технология энтузиаст бағдарламашылар мен интернет қолданушылардың ермегі болғанын айтады.
"Яғни, кейбірі танымал фильм кейіпкерлерінің үстіне басқа адамның бет-бейнесін салу сияқты әзіл видеолар жасаумен шектелді. Алайда технология қолжетімді болған сайын оны қолданушылар қатары да артты. Қазір дипфейк жасауға қажетті құралдар интернетте ашық тұр. Биыл Қазақстанда белгісіз біреулер бірнеше танымал журналист пен шенеуніктің бейнесін қолданып, жалған видеолар таратты, кейін ол бейнежазбалардың жасанды екені анықталды. Өкінішке қарай, мұндай арандатушыларды табу қиын, ал зиянды ақпарат желіде жылдам тарайды", – деді Target Information Security директоры.
Елімізде дипфейктердің таралу деңгейі қандай?
"Қазақстанда дипфейк әзірге кең таралған құбылыс емес деуге болады. Қазіргі кезде жалған жаңалықтардың басым бөлігі дәстүрлі фотомонтаж, жалған мәтін, фейк аккаунт арқылы таратылатын ақпарат түрінде көрінеді. Ал толыққанды AI генерациялаған бейнежазбалар сирек кездеседі. Бірақ әлемдік трендтерге қарасақ, таяу болашақта дипфейк жасау жеңілдеп, көпшілікке қолжетімді бола түсуі ықтимал. Яғни, қазірден бастап қауіпті технологиядан қорғану шараларын қолға алмасақ, ертең кеш болуы мүмкін. Десек те, бүгінгі таңда Қазақстанда бұл мәселеге назар аударыла бастады", – деп атап өтті Лаура Тлепина.
Сарапшы дипфейктерден қорғану үшін ақпараттық сауаттылықты арттыру маңызды екенін айтады. Айтуынша, ол үшін мектеп оқушыларынан бастап мемлекеттік қызметкерлерге дейін ақпараттық қауіпсіздік бойынша білім беру қажет.
Жаңа заң
17 қараша күні Мемлекет басшысы Қасым-Жомарт Тоқаев "Жасанды интеллект туралы" заңға қол қойды. Құжат арқылы ЖИ жүйелері қызметінің негізгі қағидаттары енгізілді. Заңда дипфейк тақырыбы да шет қалмаған.
"Жеке және заңды тұлғалардың құқықтарын қорғау, сондай-ақ құқықтық тәртіпті қамтамасыз ету мақсатында Қазақстан Республикасының аумағында бірқатар мүмкіндіктерге ие жасанды интеллект жүйелерін құруға және пайдалануға тыйым салынды (түпсаналық, манипуляциялық немесе жеке деректер туралы заңнаманы бұзу арқылы жеке деректерді жинау және өңдеу әдістерін қолдану; басқа да мүмкіндіктер)", – делінген Ақорда таратқан хабарламада.
Бұған дейін Сенат төрағасы дипфейк жасайтындарды жауапкершілікке тартуға шақырғанын жазғанбыз.
"Осындай жалған ақпарат пен алаяқтық әрекеттердің артында адамдар тұр. Сондықтан оларды алаяқтық, бопсалау немесе заңсыз ақша жинау баптары бойынша жауапқа тарту керек. Әрине, бұл оңай мәселе емес. Бірақ егер болашақта қоғамда тәртіп орнағанын, бәрі заңға сай болғанын қаласақ, онда осындай әрекеттер үшін нақты жауапкершілікті де қарастыруымыз қажет", – деді Мәулен Әшімбаев.