Дипфејк содржините дополнително ја поттикнуваат спиралата на насилство во војната меѓу Израел и Хамас

Виртуелниот свет на информирањето е полн со лаги, дезинформации и спротивности, не само за Газа

Дефинирајќи го интернетот како „неверојатен фонд на ресурси“ во однос на визуелните слики и видеа што ги содржи овој простор, истовремено не може а да не мине незабележано во очите на светската јавност и злоупотребата на овие ресурси особено кога станува збор за последните случувања во војната меѓу Израел и Хамас.

Слика на крвав труп. Фотографија од бебе кое плаче, монтирана да изгледа како да лежи во урнатини. Снимки од она што на прв поглед се чини дека е цела населба израмнета до земја во Газа. Ова се само дел од т.н. дипфејк видеа и фотографии кои кружат на интернет и на социјалните мрежи за кои нема сомнеж дека биле и сè уште употребувани од двете страни во конфликтот се со цел манипулирано да се прикаже „вистината“ за случувањата на една или другата страна во конфликтот.

За оваа проблематика впрочем пишува и магазинот „Блумберг“ во своја анализа кој наведува дека поголемиот дел од лажните фотографии што се појавија на платформите, вклучувајќи ги мрежите Икс и Фејсбук, откако Хамас го нападна Израел пред неколку недели имаат за цел емотивно да го растревожи гледачот или публиката.

Според Хенри Ајдер експерт за „дипфејк“ содржина и материјали генерирани со вештачка интелигенција (ВИ), креаторите на овие содржини имаат намера тие да бидат многу емотивни и многу сензационални и да предизвикаат моментални емоционални реакции, како што се сликите од повредено бебе или уништени згради кои изминатиов период кружат на интернет вели тој.

Од друга страна познавачот на проблематиката Ајдер дополнително објаснува дека лажните дигитално креирани видеа и содржини прикажуваат слики кои „веднаш се препознаваат дека се лажни а при тоа не мора да слушате или да сте експерт за оваа проблематика.

На пример, една слика на X – идентификувана како лажна со алатка за откривање на дипфејк, создадена од професор на Универзитетот во Калифорнија во Беркли – наводно прикажува две деца како се гушкаат меѓу урнатините, додека млада девојка стои зад нив завиткана во палестинско знаме.

Тие типови на лажни фотографии го изненадија Ајдер и другите експерти, кои беа навикнати да гледаат вакви содржини како се употребуваат во пропагандите од страна на високи функционери кои изговараат изјави кои никогаш не ги дале, како што беше случајот со американската политика и војната во Украина.

Како правењето „дипфејк“ видеа стана толку лесно и зошто тоа е безбедносен предизвик

Штом се груби и лесни за откривање, „дипфејк“ станаа значително пореални и полесни за правење со доаѓањето на генеративните алатки за вештачка интелигенција. Но, во време кога лажните тврдења на социјалните мрежи станаа норма во политичките кампањи, војните и другите големи настани, зголемувањето на бројот доаѓа до проблемот за тешко нивно откривање со што им се заканува да им отежне на публиката да формираат мислења засновани на вистински факти.

Интерактивен аватар на самит за вештачка интелигенција во Њујорк – Фотографија ЕПА, Џастин Лејн

Во еден неодамнешен пример, стартапот наречен Optic ја означи сликата споделена од израелската влада како лажна на која се прикажани запалени останки на бебе, што доведе до широко распространет скептицизам на интернет околу автентичноста на фотографијата. Меѓутоа, Хани Фарид, професорка на американскиот универзитет Беркли, тврди дека сликата е реална.

„Влијанието на генеративната вештачка интелигенција оди подалеку од само создавање на лажна содржина, исто така фрла мрачна сенка врз содржината што е вистина а што не е“, вели Фарид.

Енди Карвин, виш соработник во дигиталната форензичка истражувачка лабораторија на Атлантскиот совет, тврди дека не е невообичаено да се оди на коментарите на Фејсбук и Х и, под реални слики, да се видат луѓе кои ја предизвикуваат нивната автентичност или контекст.

„Другите само ќе речат „дипфејк!“ и тоа е тоа. Крај на разговорот“, рече тој.

Технологијата создадена од Фарид од Беркли откри длабоки фалсификати на мрежата X на бројни слики на деца среде оштетените згради. Тој вели дека е тешко да се квантифицира колку циркулираат вакви фотографии и видеа, но секојдневно добива барања да идентификува дали сликата е вистинска или не.

„Имаше многу“, рече тој. „Го гледам ова прашање помалку како проблем со обемот, а повеќе како проблем со лаги во информациите“.

Социјалните мрежи дозволија лагата да процвета

Во меѓувреме светските медиуми го посочуваат последниот најкарактеристичен пример за експлозијата во болницата „Ал ахли“ во градот Газа на 17 октомври како повод за војна за вистината и одговор на прашањето што точно се случи?

Имено, масите на социјалните мрежи, како и многумина во мејнстрим-медиумите, вклучувајќи го и „Њујорк тајмс“, веднаш се зазедоа со тврдењето на Хамас дека виновникот е израелски проектил. До крајот на следниот ден, тие се повлекоа. Анализата од минатата недела од „Д пост“ идентификува низа ракети лансирани од борците во Газа кон болницата 44 секунди пред експлозијата. И додека анализата на „Њујорк тајмс“ го проблематизира клучниот доказ за овој став, ниту истрагата не ја лоцира вината во израелскиот напад.

Може да кажете дека ова е уште еден момент кога онлајн платформите дозволија да процвета лагата – и ќе бидете во право. Сепак, лесно е да се разбере зошто оние на теренот го обвинија израелскиот напад за почеток.

На пример, овој месец Израел лансира повеќе од 7.000 проектили во Газа. Три дена пред мистериозната експлозија, израелска артилериска граната навистина ја погоди болницата – но тоа беше граната за осветлување што направи само мала штета. Исто така, 22 болници што лекуваат повеќе од 2.000 пациенти беа предупредени да се евакуираат токму од причина што можеби се наоѓаат на линијата на огнот. Оние што живеат под опсада гледаат како нивните домови се израмнети со проектили или нивните најблиски се убиени од проектили. Не е ни чудо што кога ќе слушнат за повеќе масакр, мислат дека еден од тие проектили е одговорен.

Вирална приказна од другата страна на нештата нуди соодветна лекција: апокрифните обезглавени бебиња во кибуцот Кфар Аза. Претседателот Бајден беше само најистакнатиот од многуте политички и општествени лидери што го повторија рикошетното тврдење дека терористите на Хамас обезглавиле бебиња – само за неговите помошници да се откажат откако поблиското испитување откри дека, барем колку што секој може да докаже, терористите не обезглавиле доенчиња, на крајот на краиштата.
Сепак, тие обезглавија мажи и жени. И убиваа бебиња. Избезумената дискусија за тоа дали Хамас бил клеветен од оние што го обвинуваат за обезглавување бебиња кога само ги застрелал тие бебиња, се чита речиси како надреализам. Да, тврдењето беше, технички, лажно. Но дали беше емотивно лажно? Што е со моралот, прашува „Вашингтон пост“.

„Дипфејк“ (Deepfake) е новата верзија на „фејк њуз“ (FakeNews) или лажните вести. Речникот на Макмилан терминот „дипфејк“ го дефинира како аудио и видео на една личност, манипулирано за да изгледа и звучи како вистинска личност, велејќи нешто што таа личност не го кажала никогаш. Изразот „дипфејк“ е изведен од комбинацијата на два збора, deep (длабок, длабока) и fake (лажен/а, лага, измислица, измама).

Ако во последните години се зборуваше многу за лажните вести, за опасноста што произлегува од нив и како да се заштитиме од нив, во последните неколку месеци, фокусот се повеќе се префрла на „дипфејк“ – длабока лага, длабока измислица, длабока измама. „Дипфејк“ како лажна содржина не е само текстуална, туку преминува и на лажна визуелна содржина.

„Фејк њуз“ 2.0 или „дипфејк“ е технологија базирана на вештачка интелигенција што се користи за производство или изменување на видео содржини со цел да се претстави нешто што всушност не се случило. Со помош на различени софтвер, можат да се комбинираат или преклопуваат лажни слики и видеа над слики или видеа кои веќе постојат.

Технологијата на создавање лажно видео покажува дека во денешно време, повеќе од кога и да било, мораме да бидеме исклучително внимателни во што веруваме, па дури и кога ќе видиме нешто, не смееме да веруваме априори.

Истражувачите за етика во медиумите, Филип Патерсон и Ли Вилкинс, повикувајќи се на традиционалните медиуми, велат дека „да се види не значи дека е вистинско“. Но, од 2009 година, кога ја објавија книгата „Етика во медиумите: проблеми и случаи“, проблематиката во општеството е веќе зголемено повеќекратно, затоа што освен традиционалните медиуми, од кои треба и денес треба да внимаваме, сега главната опасност од измама постои во светот на интернетот.

Креаторите на „дипфејк“ користат различни техники, вклучувајќи менување на лицето, поставување израз на лицето врз лице на друга личност, или синхронизирање на движењето на усните.

Во САД, мејнстримот медиумите веќе започнаа со обука на новинари за тоа како да препознаат „дипфејк“. Еден од начините да се открие дека видеото е „дипфејк“ е да се контролираат овие видеа користејќи софтвер за видео уредување. Со проверка на визуелните слики за секоја рамка, може да се забележи неприродно осветлување или движење, разлики во бојата на кожата или какви било знаци близу устата.

Обуката на новинарите е многу важна, но мисијата не се исполнува доколку за овој феномен не се едуцира и публиката. Ваквите трендови ја прават медиумската писменост поважна од кога и да било, и потребата таа да биде задолжителен дел од наставните програми во целиот регион.

Почитуван читателу,

Нашиот пристап до веб содржините е бесплатен, затоа што веруваме во еднаквост при информирањето, без оглед дали некој може да плати или не. Затоа, за да продолжиме со нашата работа, бараме поддршка од нашата заедница на читатели со финансиско поддржување на Слободен печат. Станете член на Слободен печат за да ги помогнете капацитетите кои ќе ни овозможат долгорочна и квалитетна испорака на информации и ЗАЕДНО да обезбедиме слободен и независен глас кој ќе биде СЕКОГАШ НА СТРАНАТА НА НАРОДОТ.

ПОДДРЖЕТЕ ГО СЛОБОДЕН ПЕЧАТ.
СО ПОЧЕТНА СУМА ОД 60 ДЕНАРИ

Видео на денот