Маршира новата генерација виртуелни сезнајковци

Роботи вештачка интелегенција/ Фото: JIRAROJ PRADITCHAROENKUL / Alamy / Alamy / Profimedia

За помалку од пет дена по промовирањето, повеќе од 1 милион корисници се приклучиле на Чат-ГПТ, новиот виртуелен соговорник со вештачка интелигенција што има одговор на секое прашање и го наоѓа решението за секој проблем. За таков, барем, го претставуваат неговите автори. За таков го сметаат и повеќето корисници вклучени во проектот на „Опен АИ“.

Првите реакции главно се восхитување од вештината со која новиот „сезнајко“ ги процесира прашањата, итно бара и експресно брзо наоѓа одговори и ги сервира на разбирлив начин. Тоа е една од главните причини за „турканиците“ за учество во развојот на проектот на „Опен АИ“ компанијата што ја опишува самото име – отворена вештачка интелигенција надградувана од луѓето.

За степенот на заразата говорат бројките – Чат-ГПТ стигна до 1 милион корисници за пет дена. До толку корисници Инстаграм стигна за 2,5 месеци, Фејсбук за десет месеци, а Нетфликс за 3 години и пет месеци.

Популарноста е сведоштво за универзалната применливост на „џебниот помошник“. Пребарувачот Гугл ќе ви најде статии, фотографии или снимки што го содржат поимот што сте го внесле. Чат-ГПТ не ви прикажува список, туку ви дава одговори во стокмени реченици, со објаснувања на содржина и на концепти на разбирлив начин за луѓето. Наместо да ви сервира факти за да изберете, ви ги „преџвакува“ за полесно да ги сварите.

– Пред себе имате компјутер што може да ви одговори на секое прашање исто како што би ви одговорил друг човек. Машината има вештина да собира факти, да ги соочува и да ги анализира, да црпи идеи од различни концепти и да ги комбинира – објаснува Ерон Леви, главен директор на „Бокс“, една од низата технолошки компании во Силициумската долина.

Универзален помошник

Првата верзија на виртуелниот помошник е толку напредна што корисниците остануваат стаписани од потенцијалот на системот. Веќе во првиот чекор од развојот Чат-ГПТ им помага на програмерите да го напишат бараниот код, од празен екран до завршната верзија. Може да го користат дури и неписмените, оние што не владеат ниту еден од програмските јазици. Може да ги пронајде, да ги отстрани и да ги замени сите грешки во кодот, како веќе познатата алатка што автоматски ги поправа печатните и граматичките грешки додека пишувате на текстуален уредувач.

Може да го ангажирате Чат-ГПТ да ви биде личен секретар, да одговара на формални комуникации преку електронски писма и на социјални мрежи, да ви помогне во здодевните активности што се повторуваат и ви одземаат време.

Може да ви биде личен тренер и инструктор, да ги мери секоја потрошена и внесена калорија, да се грижи за вашата физичка кондиција, да ви организира диета и да ве мотивира да одржувате здрав живот. Може да биде извонреден асистент во лекарска ординација и во хируршка сала.

И не само тоа. Иако е во рана верзија, новиот придружник може да ви подготви извештаи, рецензии, да ви генерира творба на одредена тема. На некои корисници веќе им направил ефикасен план за маркетиншка стратегија. Може да се користи како сметководител. Дури и уметниците може да го користат за да им напише есеј, да компонира песна, да напише сценарио за сцена од телевизиско шоу. Единаесетгодишно момче со помош од Чат-ГПТ создало компјутерска игра што веќе ја играат илјадници корисници. Помошниците од смартфоните „Сири“ или „Алекса“ ќе ви кажат шеги, рецепти за торта или ќе ви пуштат песна што соодветствува на вашето расположение. Чат-ГПТ самиот ќе ги создаде. Сѐ што треба да направите е прецизно да му опишете што сакате.

Зона на иднината во Музејот на технологија во Сеул – Фотографија ЕПА, Јеон Хеон Кјун

Дигитални халуцинации

Многумина, во исто време, ги критикуваат соговорниците со вештачка интелигенција дека се неефикасни, ја оспоруваат полезноста на целиот концепт, а некои верски лидери ги прогласуваат за „дело на ѓаволот“. Социолозите укажуваат дека ако пребарувачите го намалиле капацитетот на луѓето да паметат, ботовите со вештачка интелигенција ќе го намалат капацитетот на луѓето да мислат и да творат.

Чат-ГПТ има понапредни синапси од претходниците како „Сири“ или „Алекса“ и може воопшто да не се посомневате дека разговарате со машина, а не со човек, но токму тука е и големата стапица – ботот може да претера во препакување информации, процес што кај луѓето се опишува како халуцинирање.

Развојното одделение на „Мета“, компанијата што го поседува и Фејсбук, неодамна ја повлече апликацијата Галактика, која уште во првите часови од комуницирањето со корисниците почнала да генерира неточни информации.

Се развиваат и низа други системи со вештачка интелигенција. Далл-е визуализира слики врз основа на опис што точно корисникот сака да види на екранот. Системите за генерирање слики се особено чувствителни поради големиот ризик од злоупотребување. Системот ГПТ-3 се создава како перфектен јазичар, способен да твори есеи и статии, да генерира расправи и да создава цели кодови.

Од Чат-ГПТ и од конкурентниот систем Ламда (Јазичен модел за дијалошки апликации) на „Гугл“ било побарано да разговараат „во стилот на Марк Твен“. По некое време Ламда „забегала со приказната“ и опишувала средба на славниот американски писател со „кралот на фармерките“ Ливај Штраус. Причината веројатно била што Твен и Штраус биле најславните жители на Сан Франциско кон средината на 19 век, но нема записи дека тие се среќавале или комуницирале. Машината едноставно ги комбинирала податоците што се најчести и се поклопуваат, за да создаде сосема нова приказна што се чини реална и интересна.

Скриени ризици

Ламда е градена со копирање на врските помеѓу невроните во мозокот. Експертите од „Опен АИ“ тврдат дека имале друг пристап со Чат-ГПТ и не настојувале да создадат „идеален соговорник“, туку систем што ќе учи од сопствените грешки за да ги препознава, да ги признае и да внимава да не му се повторат“.

– Стигнавме до точка во која моделот може да признае грешки. Тој може да одбие да одговори на несоодветни и на апсурдни прашања – вели Мира Мурати, шефица за технологија во „Опен АИ“.

Корисниците на Чат-ГПТ се предупредени дека машината „понекогаш може да даде неточни одговори“ или „да генерира штетни или наклонети инструкции“.

Крајната цел е машината самата да научи кога греши. Главниот проблем остануваат соговорниците од крв и месо. Ако тие упорно настојуваат да ја испровоцираат машината да одговара на бизарни и провокативни прашања, по некое време сигурно ќе ја научат да дава неточни одговори. Тоа го создава ризикот од „дресирање“ армија ботови да се однесуваат како вистински корисници, и тоа токму како оние што шират омраза и пропаганда.

– Можете да програмирате милиони ботови да се претставуваат како луѓе и да ве убедуваат да прифатите одреден став или да купите одреден производ. Го предупредував ова со години. Сега е јасно дека тоа е хаварија што го чека своето време – предупредува професорот Џереми Хауард, кој развива вештачка интелигенција.

Почитуван читателу,

Нашиот пристап до веб содржините е бесплатен, затоа што веруваме во еднаквост при информирањето, без оглед дали некој може да плати или не. Затоа, за да продолжиме со нашата работа, бараме поддршка од нашата заедница на читатели со финансиско поддржување на Слободен печат. Станете член на Слободен печат за да ги помогнете капацитетите кои ќе ни овозможат долгорочна и квалитетна испорака на информации и ЗАЕДНО да обезбедиме слободен и независен глас кој ќе биде СЕКОГАШ НА СТРАНАТА НА НАРОДОТ.

ПОДДРЖЕТЕ ГО СЛОБОДЕН ПЕЧАТ.
СО ПОЧЕТНА СУМА ОД 60 ДЕНАРИ

Видео на денот