Вештачка интелигенција – нова алатка за ширење дезинформации

Вештачка интелигенција/ Фото: GORODENKOFF PRODUCTIONS / Sciencephoto / Profimedia

Оваа година започна нова ера во дезинформираањето во која технолошкиот напредок воведе поинаква динамика во производството и ширењето на лажни, намерно и ненамерно погрешни содржини, преку употреба на вештачка интелигенција. Моќната технологија е способна да произведува содржина во различни формати – текстуални, аудио или визуелни.

Па така периодов во многу наврати медиумиите пишуваа за примери за дезинформирање и лажни вести кои се произведени со помош на вештачка интелигенција – меѓу нив беа и неодамна објавените лажни фотографии од папата во бела монтка од Баленсијага и поранешниот американски претседател Доналд Трамп кој наводно бил уапсен и одведен во затвор. Во тој контекст во продолжение важно е да се посочи дека текстуалното изразување како производ на генеративните алатки за вештачка интелигенција не сомнено ќе влијае на ширењето дезинформаци, и тоа во насока како ќе влијае визуелното изразување.

Генеративните алатки за вештачка интелигенција со првенствено текстуални излези, како што се Open AI Chat GPT или слични програми и алатки познати како „големи јазични модели“ или Large Language Models (LLM), имаат многу потенцијални ризици за производство и ширење лажни вести и дезинформации. Тука дури и настрана ги оставаме проблемите кои не се строго поврзани со квалитетот на информациите, како што се, на пример, загриженоста за приватноста, поради што италијанската агенција за заштита на податоци на 31 март годинава ја забрани употребата на ChatGPT во земјата.

Значи, пред сè, алатките за вештачка интелигенција со текстуални изрази се склони кон она што е познато како „халуцинации“, односно фактички грешки во информациите кои му се даваат на корисникот. Јавните презентации на големиот јазичен модел од страна на технолошките гиганти како што се Мајкрософт и Гугл беа опфатени со грешки, вклучувајќи и промотивни видеа. Експертите предупредуваат дека таквите грешки не се обични грешки во системот, туку неизбежни исходи на технологијата во нејзината сегашна состојба. Имено, технологијата е одлична во предвидувањето на следниот збор во реченицата, но нема поим што всушност значи реченицата. Накратко, начинот на кој тие се дизајнирани и нивната моментална состојба на развој ги прават големите јазични модели добри во некои работи, како што е пишување код, но и лоши во многу други, вклучувајќи ги игрите со сложување или обезбедувањето точни информации.

Исто така, тука е и прашањето на скалата. Направени се да произведуваат и текстови за теории на заговор или урбани митови, а многу аналитичари го истакнаа ризикот од поттикнување на „лудило за лажни вести“.

Важно е да се истакне дека OpenAI препозна можна злоупотреба на својата технологија во кампањи за дезинформација и се обиде да го предвиди идниот развој во анализа развиена со независни истражувачи, која се занимава со „потенцијалните закани и решенија“.

Сепак, најзагрижувачкиот аспект на чет-ботовите кои користат големи јазични модели произлегува од директниот пристап кој им дава на корисниците персонализиран, човечки, разговорен начин на презентирање на содржината. Во споредба со традиционалните пребарувачи, алатките како ChatGPT нудат единствен одговор кој лесно може да се толкува како најдобар или најточен резултат од нивното пребарување на информации на интернет.

Корисниците – особено кога не се соодветно информирани за технологијата, нејзините предности и слабости, како и за она што моментално може да го прави – би можеле да бидат измамени повеќе да се потпрат на резултатите што ги обезбедува разговорниот четбот отколку на други, поотворени алатки за пребарување информации, што им го отежнува правилното проценување на веродостојноста на резултатите и на крајот да го применат своето критичко размислување. За да бидат работите уште полоши, корисниците пристапуваат до големите јазични модели без посредство – додека преку традиционалните пребарувачи пристапуваат до список на резултати произведени и објавени на друго место, во извесна смисла скенирајќи го она што веќе е таму. Преку чет-ботови можат директно да пристапат до „новите“ информации, произведени од големите јазични модели како одговор на нивното конкретно барање.

Овој непосреден пристап ја прави таа информација практично невозможна за проверка на фактите. Имено, големиот јазичен модел произведува лажни или погрешно-наведувачки резултати и ги доставува директно до корисниците, додека досега дезинформациите мораше да бидат објавени некаде (било да е тоа веб-страница, профил на социјалните мрежи, подкаст) за да бидат достапни за другите корисници. Затоа се потребни информативни кампањи за јавноста, за да се разјаснат границите на алатката, како и ризиците од неа.

Кога станува збор за потенцијалната употреба на генеративна вештачка интелигенција за проверка на фактите, истражувачите од Универзитетот во Цирих откриле дека ChatGPT во 72% од случаите бил во состојба прецизно да ги категоризира проверените изјави како точни илин лажни.

Визуелен израз

Проблемот со визуелните дезинформации генерирани од вештачката интелигенција е многу поразличен. Во сегашната фаза, корисникот е тој што секогаш мора да достави барање до системот за да добие слика. Во овој случај, за разлика од текстуалните излези, не е возможно корисникот да ја праша машината, а да не знае дека резултатот е поразличен од реалноста. Сепак дезинформациите овде може да се произведат само намерно.

Ова во извесна смисла е едноставна еволуција: досега, дезинформациите се произведуваа со едноставно прикажување на стари слики и видеа, кои беа погрешно претставени и деконтекстуализирани за да се прикажат актуелните настани. Груби манипулации, но најчесто само фотографии без контекст, сепак би можеле да имаат значително влијание врз јавноста.

Меѓутоа, количината содржини што генеративната вештачка интелигенција може да му ја обезбеди на оној што произведува ваков тип на дезинформации е потенцијално бесконечна. Покрај проблемот со квантитетот, постои и проблем со квалитетот. Како што технологијата станува се понапредна, можно е да се предвиди дека во иднина резултатите од фотографиите направени со помош на вештачка интелигенција, необучен, но дури и стручен корисник нема да може да ги разликува од реалните слики.

Затоа е клучно проверувачите на факти, како и обичните корисници, да добијат технолошки алатки кои можат да откријат слики и видеа генерирани со вештачка интелигенција. Може да се истражат и други решенија, како што е задолжителен воден жиг на визуелните содржини генерирани со вештачка интелигенција или други технички обележувања.

Технологијата постојано се развива и со неа ќе дојдат нови предизвици, како и можности

Од перспектива на дезинформации, алатките слични на четбот базирани на генеративна вештачка интелигенција на корисниците им даваат непосреден пристап до резултати кои не се нужно сигурни или точни; визуелните резултати од генеративните алатки на вештаката интелигенција на злонамерните актери им даваат невидена способност да произведуваат реалистични слики и видеа.

Потребни се повеќе истражувања за подобро да се разбере како правилно да се проценат ризиците што ги носи вештачката интелигенција и како да се справиме со нив.
Во почетокот на новата ера во деизнформирањето, од клучно значење е медиумските професионалци, проверувачите на факти, програмерите и обичните корисници да ги здружат силите за да се осигураат дека оваа технологија, со нејзините многубројни возбудливи аспекти и нејзиниот иновативен потенцијал, ќе се користи за збогатување, на етички и одговорен начин.

Извор : Demostat     Автор : Тамара Бајчиќ

Почитуван читателу,

Нашиот пристап до веб содржините е бесплатен, затоа што веруваме во еднаквост при информирањето, без оглед дали некој може да плати или не. Затоа, за да продолжиме со нашата работа, бараме поддршка од нашата заедница на читатели со финансиско поддржување на Слободен печат. Станете член на Слободен печат за да ги помогнете капацитетите кои ќе ни овозможат долгорочна и квалитетна испорака на информации и ЗАЕДНО да обезбедиме слободен и независен глас кој ќе биде СЕКОГАШ НА СТРАНАТА НА НАРОДОТ.

ПОДДРЖЕТЕ ГО СЛОБОДЕН ПЕЧАТ.
СО ПОЧЕТНА СУМА ОД 60 ДЕНАРИ

Видео на денот