YouTube дипфейктер бар видеоларды бұғаттай бастайды
Фото: piter-pro.com
Видеохостинг Creative Artists Agency агенттігімен бірлесіп, "ұқсастықты басқару" технологиясын (likeness management technology) әзірледі. Жасанды интеллект негізінде жұмыс істейтін технология видеодағы дипфейктерді автоматты түрде анықтай алады. Бұл туралы Stan.kz ақпарат агенттігі Hi-tech сайтына сілтеме жасап хабарлайды.
Аталған құрал танымал адамдардың бет-бейнесіне ұқсас жалған бейнелердің бар-жоғын анықтайды. Егер дипфейк анықталса, құрал YouTube модерациясына видеоны жою туралы сұрау жібереді.
Дипфейктер тек көңіл көтеру үшін емес, зиян мақсатта да қолданылады. Мысалы, жалған ақпарат тарату, саяси шабуылдар ұйымдастыру немесе жұлдыздардың келісімінсіз жарнама жасау үшін пайдаланылады. Бұған байланысты YouTube "ұқсастықты басқару" технологиясын 2025 жылдың басында тестілеуді бастайды.
Айта кетейік, Дипфейк (ағылшынша deepfake) – жасанды интеллект пен терең машиналық оқыту технологияларын пайдаланып, адамның бейнесі мен даусын өзгерту арқылы жасалған жалған контент. Бұл технология шынайы видеолар мен аудиоларға ұқсас, бірақ толығымен жалған мазмұн жасайды.
Сонымен қатар видеохостинг мазмұнына сәйкес келмейтін сипаттамалары бар видеоларды бұғаттауға кіріседі. Мысалы, кликбейтке шулы атаулар, видеолардың сипаттамалары немесе мұқабалар кіреді.
Еске салайық, бұған дейін кибершабуылдарды талдау орталығы Талғардағы оқиғаға қатысты желіде боттардың белсенділігі артқанын мәлімдеді. Талғардағы, бүкіл Қазақстан көлемінде талқыға түскен оқиғаны белгісіз біреу өзінің жеке мүддесі үшін пайдаланбақ болған. Желіде Алматыда және басқа қалаларда өткен митингілер туралы қаңтар оқиғасының ескі видеоларынан жинақталған фейктер пайда болды. Мұндай ақпараттар TikTok пен Instagram әлеуметтік желілерінде көп байқалады. Мысалы: TikTok-тағы бұл бейне жаңа аккаунт ашылғаннан кейін жарияланған. Видео 3 күнде шамамен 850 мың рет қаралған. Онда болмаған митингілердің видеосын таратқан.