Обяснено: Защо става все по-трудно да се откриват дълбоки фалшиви видеоклипове и какви са последствията?
Потенциалната опасност от дълбоките фалшификати се крие във факта, че нивото на манипулация е толкова перфектно, че понякога може да е невъзможно да се разграничат от истинските видеоклипове. И колкото по-трудно става да се открие фалшивата, толкова по-голяма е заплахата, която притежава, за да предаде за реална и да причини хаос, който възнамерява.

Докторираните видеоклипове или дълбоките фалшификати са едно от ключовите оръжия, използвани в пропагандните битки от доста време насам. Доналд Тръмп подиграва Белгия за това, че остава в Парижкото споразумение за климата, Дейвид Бекъм, който говори свободно на девет езика, Мао Цзедун, пеещ „I will survive“ или Джеф Безос и Илон Мъск в пилотен епизод на Star Trek… всички тези видеоклипове станаха вирусни, въпреки че бяха фалшиви, или защото са били дълбоки фалшификати.
Този обезпокоително реалистичен дипфейк поставя Джеф Безос и Илон Мъск в епизод на Star Trek https://t.co/5KxmHpo1WM pic.twitter.com/CpWe91Qil0
— The Verge (@verge) 23 февруари 2020 г
Миналата година Марко Рубио, републиканският сенатор от Флорида, каза, че дълбоките фалшификати са толкова мощни, колкото ядрените оръжия при воденето на войни в една демокрация. В старите времена, ако искахте да заплашите Съединените щати, ви трябваха 10 самолетоносача, ядрени оръжия и ракети с голям обсег. Днес просто се нуждаете от достъп до нашата интернет система, до нашата банкова система, до нашата електрическа мрежа и инфраструктура и все повече, всичко, от което се нуждаете, е способността да създадете много реалистично фалшиво видео, което може да подкопае нашите избори, което може да хвърли страната ни в огромна вътрешна криза и ни отслабва дълбоко, Forbes цитира го думите му.
Потенциалната опасност от дълбоките фалшификати се крие във факта, че нивото на манипулация е толкова перфектно, че понякога може да е невъзможно да се разграничат от истинските видеоклипове. И колкото по-трудно става да се открие фалшивата, толкова по-голяма е заплахата, която притежава, за да предаде за реална и да причини хаос, който възнамерява. Но с по-сложните инструменти, задвижвани от изкуствен интелект, налични сега за създаване на тези видеоклипове, става ли по-трудно да се открият дълбоки фалшификати?
Какво представляват deepfakes и как се създават?
Deepfakes представлява фалшиво съдържание - често под формата на видеоклипове, но също и други медийни формати като снимки или аудио - създадено с помощта на мощни инструменти за изкуствен интелект. Те се наричат deepfakes, защото използват технология за дълбоко обучение, клон на машинното обучение, който прилага симулация на невронна мрежа към масивни набори от данни, за да създават фалшиво съдържание.
Той използва клон на изкуствения интелект, където ако компютърът получи достатъчно данни, той може да генерира фалшификати, които се държат много като истински човек. Например, AI може да научи как изглежда изходното лице и след това да го транспонира върху друга цел, за да извърши размяна на лице.
Прилагането на технология, наречена Generative Adversarial Networks (GAN), която използва два AI алгоритма – при които единият генерира фалшиво съдържание, а другият оценява усилията си, като учи системата да бъде по-добра – помогна за създаването на по-точни дълбоки фалшификати.
GAN може също да измисли компютърно генерирани изображения на фалшиви човешки същества, които са били използвани от уебсайт, наречен „Този човек не съществува“. Това прави практически невъзможно да се установи дали видеоклиповете или изображенията, които виждаме в интернет, са истински или фалшиви.
Deepfakes може да бъде наистина трудно за откриване. Например, много хора се влюбиха в Tiktok видеоклипове на Том Круз да играе голф, за които по-късно беше разкрито, че са дълбоки фалшификати.
Става ли по-трудно да се откриват дълбоки фалшификати?
Документ, представен на Зимната конференция за приложения на компютърното зрение 2021, описва нова техника, която прави дълбоките фалшификати по-сигурни, което затруднява откриването им от традиционните инструменти.
Проучването, водено от Паарт Некхара и Шехзийн Самара Хюсеин, и двамата докторанти в Калифорнийския университет в Сан Диего, установи, че инструментите за откриване могат да бъдат измамени чрез вмъкване на леко манипулирани входове, наречени състезателни примери, във всеки видеокадър.

Настоящите най-съвременни методи за откриване на дълбоки фалшификати могат лесно да бъдат заобиколени, ако противникът има пълно или дори частично познаване на детектора, се посочва в документа, озаглавен „Adversarial Deepfakes: Оценка на уязвимостта на Deepfake детекторите към състезателни примери“.
Говорейки пред indianexpress.com, Neekhara и Hussain казаха, че стандартните методи за откриване могат да бъдат далеч от надеждни, тъй като не е гарантирано, че ще открият по-нови дълбоки фалшиви видеоклипове, синтезирани с помощта на нови техники, които не са в набора от данни и са уязвими за съпернически входове.
ПРИСЪЕДИНИ СЕ СЕГА :Телеграмният канал Express ExplainedСъстезателните входове са леко модифицирани входове, така че да карат дълбоките невронни мрежи да направят грешка. Доказано е, че дълбоките невронни мрежи са уязвими към такива входове, които могат да доведат до промяна на изхода на класификатора. В нашата работа ние показваме, че нападателят може леко да модифицира всеки кадър от дълбоко фалшиво видео, така че да може да заобиколи детектор за дълбоко фалшифициране и да бъде класифициран като истински, казаха те.

Те добавиха: Нападателят може да създаде малко незабележимо противопоставяне за всеки кадър от дълбоко фалшиво видео, да го добави към кадъра и след това да комбинира всички видео кадри заедно, за да направи съперническото видео. В нашите експерименти, използващи тези техники, успяхме да постигнем успеваемост (на заблуждаване на детектора) над 90%.
Какви са заплахите от фалшивите видеоклипове?
С разпространението на дълбоко фалшиви видеоклипове, нараства опасенията, че те ще бъдат въоръжени за провеждане на политически кампании и могат да бъдат експлоатирани от авторитарни режими.
През 2019 г. изследователска организация, наречена Future Advocacy и UK Artist Bill Posters, създадоха видео на премиера на Обединеното кралство Борис Джонсън и лидера на Лейбъристката партия Джеръми Корбин, които се подкрепят взаимно за поста на министър-председателя. Групата заяви, че видеото е създадено, за да покаже потенциала на дълбоките фалшификати за подкопаване на демокрацията.
Освен това миналата година, преди изборите на асамблеята в Делхи, видеоклипове на президента на Делхи BJP Манодж Тивари, който говори на английски и Харианви, станаха вирусни. В тези видеоклипове Тивари беше видян да критикува Арвинд Кейривал и да моли хората да гласуват за BJP. По-късно беше разкрито, че видеоклиповете, които бяха споделени в над 5000 групи WhatsApp, са фалшиви, съобщи компанията за дигитални медии Vice.
Дълбоките фалшификати също са причина за безпокойство в момент, когато СЗО заяви, че кризата с Covid-19 е предизвикала инфодемия и е имало умишлени опити за разпространение на погрешна информация, за да се подкопае отговорът на общественото здраве и да се издигат алтернативни програми на групи или индивиди.
Освен това подправените видеоклипове – което включва манипулиране на съдържанието чрез използване на неправилен печат за дата или местоположение, изрязване на съдържание за промяна на контекста, пропускане, снаждане и измисляне – се използват все по-често в социалните медии за умишлено погрешно представяне на факти за политически цели. Повечето от тези видеоклипове не са примери за дълбоки фалшификати, но показват колко лесно може да бъде замъгляването на факти и разпространението на лъжи въз основа на манипулирано съдържание, маскирано като твърди доказателства.
Wombo AI е див pic.twitter.com/YIaFcRreGG
- Джак Пособиец (@JackPosobiec) 10 март 2021 г
Другото голямо безпокойство относно дълбоките фалшиви видеоклипове е генерирането на порнографско съдържание без съгласие. През 2017 г. потребител внедри алгоритъм за смяна на лица, за да създаде дълбоко фалшиви порнографски видеоклипове на знаменитости като Скарлет Йохансон, Гал Гадот, Кристен Бел и Мишел Обама и ги сподели в заплаха в Reddit, наречена r/deepfake. Акаунтът имаше близо 90 000 абонати до момента, в който беше свален през февруари следващата година.
От хилядите фалшиви видеоклипове в интернет, повече от 90% са порнография без съгласие. Един от най-ужасяващите експерименти с изкуствен интелект миналата година беше приложение, наречено DeepNude, което събличаше снимки на жени – можеше да прави снимки и след това да сменя женските дрехи с много реалистични голи тела. Приложението беше свалено след силна реакция.
Освен това, както се разпространява широко, фалшивите видеоклипове се използват все по-често за генериране на порно за отмъщение от отхвърлени любовници, за да тормозят жените.
Заплахата от видеоклиповете на Deepfake вече е очевидна, казаха за indianexpress.com Neekhara и Hussain. Има злонамерени потребители, които използват такива видеоклипове, за да клеветят известни личности, да разпространяват дезинформация, да влияят на избори и да поляризират хората. С по-убедителни и достъпни техники за синтез на дълбоко фалшиво видео тази заплаха стана още по-голяма по размер, добавиха те.
Предстои ли репресия?
Повечето компании за социални медии като Facebook и Twitter са забранили дълбоките фалшиви видеоклипове. Те казаха, че веднага щом открият някое видео като дълбоко фалшиво, то ще бъде свалено.
Facebook нае изследователи от Бъркли, Оксфорд и други институции, за да изградят детектор за дълбоки фалшификати. През 2019 г. той проведе Deepfake Detection Challenge в партньорство с лидери в индустрията и академични експерти, по време на което беше създаден и споделен уникален набор от данни, състоящ се от повече от 100 000 видеоклипа.
Въпреки това, не всички дълбоки фалшификати могат да бъдат открити точно и може да отнеме значително време, за да бъдат намерени и премахнати. Освен това много порнографски сайтове не прилагат същото ниво на ограничения.
Neekhara и Hussain казаха: За да откриваме по-точно фалшиви видеоклипове, се нуждаем от стабилни модели, като включим нападател, докато обучаваме такива модели за откриване на дълбоко фалшифициране. Дългосрочно решение е воден знак или цифрово подписване на изображенията и видеоклиповете от устройството, на което са заснети. Водният знак или цифровият подпис трябва да бъдат нарушени, ако се прилагат техниките за дълбоко фалшифициране като размяна на лица. След това детекторът за дълбоки фалшификати може просто да провери подписа или водния знак. Това обаче ще изисква установяване на стандарт за воден знак за всички камери и мобилни телефони. Следователно може да мине известно време, докато това стане реалност.
Споделете С Приятелите Си: