Не вярвайте на всичко, което AI ви казва: Дава 60% грешни отговори 07.11 | 15:50
Новият бенчмарк на OpenAI разкрива сериозни проблеми с точността на изкуствения интелект
Изкуственият интелект породи много спорове сред специалистите за това доколко достоверни са неговите отговори. OpenAI, разработчикът на ChatGPT, въведе нов бенчмарк SimpleQA, за да оцени точността на изхода на AI моделите. Резултатите от теста разкриха сериозни проблеми с надеждността на информацията, генерирана от големите езикови модели (LLM) – средно в 60% от случаите отговорите са грешни.
Целта на новия бенчмарк е да предостави обективна оценка на точността и надеждността на LLM, които се използват все повече в различни области на живота – от образованието и разработването на софтуер до здравеопазването и правоприлагането. Тестовете показват, че дори най-напредналите модели, като o1 на OpenAI и Claude-3.5-sonnet на Anthropic, имат изключително ниска успеваемост – съответно 42,7% и 28,9% верни отговори.
Усложнявайки проблема, моделите са склонни да "надценяват своите възможности” и да генерират отговори, които са пълни глупости, известни като "халюцинации”. Тази тенденция е добре документирана и може да има сериозни последствия, особено в чувствителни области като здравеопазването и правоприлагането.
Например, AI модел, използван в болниците и изграден върху технологията на OpenAI, показва чести халюцинации и неточности при транскрибиране на взаимодействия с пациенти. Полицията в САЩ също започва да използва AI, което може да доведе до фалшиви обвинения на невинни или до субективни разследвания.
Според експерти, резултатите от тестването на бенчмарка SimpleQA са сигнал за събуждане, че настоящите LLM са крайно неспособни да предоставят надеждна информация, която отговаря на истината. "Това трябва да послужи като напомняне, че всеки резултат от LLM трябва да се приема с недоверие и да сте готови да разгледате внимателно генерирания текст”, каза говорител на OpenAI, цитиран от Futurism.
Остава отворен въпросът дали проблемът с валидността на отговорите на LLM може да бъде решен с още по-големи комплекти за обучение, както твърдят разработчиците на AI. Според някои експерти, е необходимо да се търсят нови подходи за разработване на AI модели, които да осигурят по-висока точност и надеждност на генерираната информация.
"Трябва да се съсредоточим върху разработването на модели, които могат не само да генерират правдоподобни отговори, но и да ги оценят и да отхвърлят отговор, когато не са сигурни в истината”, каза изследовател на изкуствения интелект от OpenAI.
Резултатите от тестването на бенчмарка SimpleQA подчертават необходимостта от по-нататъшни изследвания и разработки в областта на изкуствения интелект, за да се гарантира надеждността и валидността на генерираната информация. И не само това – наложително е да се предотвратят потенциалните негативни последици от използването на LLM в различни области на живота, пише technews.bg.
Водещи
-
Шефът на НСИ: Възможно е инфлацията да расте заради цената на тока и хляба
Четири ще са новите стоки и услуги в потребителската кошница на инфлацията, чиито цени ще...
12.01 | 15:00
-
Бивш енергиен министър: Цените на тока са резултат от много бездействия
Според Александър Николов българската енергетика се е върнала 10 години назад със същите...
12.01 | 14:02
-
МВФ прогнозира ръст на глобалната икономика
Новите разчети на Фонда ще бъдат публикувани на 17 януари
12.01 | 13:40
Най-четени
-
Пеевски: Ако цяла държава не може да спаси едно предприятие, с какво може да се справи?
„Правителството да се заеме с план за подкрепа на производствата, пострадали от високите цени...
12.01 | 10:00
-
Интензивни снеговалежи в Южна България
Зимата отстъпва през втората половина на януари
12.01 | 09:02
-
Честваме Св. Татяна
Вярва се, че името носи на притежателките си духовна сила и покоряваща красота
12.01 | 09:30
-
Настимир Ананиев: ПП-ДБ трябва да се разделят
Той коментира и видеото между Кирил Петков и сенсей Явор Дянков
12.01 | 11:00