Не вярвайте на всичко, което AI ви казва: Дава 60% грешни отговори 07.11 | 15:50
Новият бенчмарк на OpenAI разкрива сериозни проблеми с точността на изкуствения интелект

Изкуственият интелект породи много спорове сред специалистите за това доколко достоверни са неговите отговори. OpenAI, разработчикът на ChatGPT, въведе нов бенчмарк SimpleQA, за да оцени точността на изхода на AI моделите. Резултатите от теста разкриха сериозни проблеми с надеждността на информацията, генерирана от големите езикови модели (LLM) – средно в 60% от случаите отговорите са грешни.
Целта на новия бенчмарк е да предостави обективна оценка на точността и надеждността на LLM, които се използват все повече в различни области на живота – от образованието и разработването на софтуер до здравеопазването и правоприлагането. Тестовете показват, че дори най-напредналите модели, като o1 на OpenAI и Claude-3.5-sonnet на Anthropic, имат изключително ниска успеваемост – съответно 42,7% и 28,9% верни отговори.
Усложнявайки проблема, моделите са склонни да "надценяват своите възможности” и да генерират отговори, които са пълни глупости, известни като "халюцинации”. Тази тенденция е добре документирана и може да има сериозни последствия, особено в чувствителни области като здравеопазването и правоприлагането.
Например, AI модел, използван в болниците и изграден върху технологията на OpenAI, показва чести халюцинации и неточности при транскрибиране на взаимодействия с пациенти. Полицията в САЩ също започва да използва AI, което може да доведе до фалшиви обвинения на невинни или до субективни разследвания.
Според експерти, резултатите от тестването на бенчмарка SimpleQA са сигнал за събуждане, че настоящите LLM са крайно неспособни да предоставят надеждна информация, която отговаря на истината. "Това трябва да послужи като напомняне, че всеки резултат от LLM трябва да се приема с недоверие и да сте готови да разгледате внимателно генерирания текст”, каза говорител на OpenAI, цитиран от Futurism.
Остава отворен въпросът дали проблемът с валидността на отговорите на LLM може да бъде решен с още по-големи комплекти за обучение, както твърдят разработчиците на AI. Според някои експерти, е необходимо да се търсят нови подходи за разработване на AI модели, които да осигурят по-висока точност и надеждност на генерираната информация.
"Трябва да се съсредоточим върху разработването на модели, които могат не само да генерират правдоподобни отговори, но и да ги оценят и да отхвърлят отговор, когато не са сигурни в истината”, каза изследовател на изкуствения интелект от OpenAI.
Резултатите от тестването на бенчмарка SimpleQA подчертават необходимостта от по-нататъшни изследвания и разработки в областта на изкуствения интелект, за да се гарантира надеждността и валидността на генерираната информация. И не само това – наложително е да се предотвратят потенциалните негативни последици от използването на LLM в различни области на живота, пише technews.bg.
Водещи
-
Медицинските сестри излизат на национален протест навръх професионалния си празник
Настояват и за 7-часов работен ден в интензивните звена, както и за национална политика за...
12.05 | 09:30
-
Румен Радев внася в НС предложението си за референдум за еврото
Партиите в парламента са на различни позиции
12.05 | 09:15
Най-четени
-
Честваме Светите равноапостоли и просветители Кирил и Методий
Вижте кой има Имен ден днес
11.05 | 08:37
-
Божидар Божанов: Още следващата седмица можем да отхвърлим референдума в пленарна зала
Според съпредседателя на ДБ това е "една от многото заблуди, които е направил президентът",...
11.05 | 14:00
-
Георги Харизанов: Референдум сега е като да питаме "за" или "против" Аспарух да пресече Дунава
"Голямата цел и идея е в един момент Румен Радев да се позиционира като човека на народа",...
11.05 | 13:20