
Колку е сигурен Чет ГПТ? Истражување покажа загрижувачко ниво на неточни информации
Чет ГПТ и слични модели на вештачка интелигенција често се перцепираат како исклучително интелигентни, но во исто време и несигурни извори на информации.
Препорачано
Неодамнешна студија на „OpenAI“, објавена од Њујорк Тајмс, фрла светлина врз оваа контрадикција. Имено, „OpenAI“ откри дека нивните најнови модели, вклучувајќи ги GPT-o3 и o4-mini, имаат зголемена тенденција да генерираат „халуцинации“ – неточни или целосно измислени информации.
Најновите водечки модели на OpenAI, GPT o3 и o4‑mini, се дизајнирани да ја имитираат човечката логика. За разлика од неговите претходници, кои главно се фокусираа на генерирање течен текст, GPT o3 и o4-mini треба да „размислуваат чекор по чекор“.
OpenAI се фалеше дека o3 може да ги достигне или надмине резултатите на докторатите по хемија, биологија и математика. Но, извештајот на OpenAI открива застрашувачки податоци за секој што ги зема одговорите на Чет ГПТ здраво за готово, пишува Index.hr.
OpenAI откри дека GPT o3 „халуцинирал“ во една третина од задачите во тестот за јавни личности – двојно повеќе од минатогодишниот модел o1. Покомпактниот o4-mini беше уште полош, со халуцинации кај 48% од сличните задачи.
-Додека не се решат овие проблеми, гледајте на секој одговор на моделот на вештачка интелигенција со огромна доза на скептицизам. Понекогаш Чет ГПТ изгледа како самоуверена личност која зборува глупости – заклучува извештајот.