Всеки трети отговор на AI съдържа лъжа 09.09 | 13:45
ChatGPT на OpenAI и Meta AI споделят третото място с 40% грешни отговори, докато Microsoft Copilot и френският Le Chat на Mistral регистрират около 35% неточности.
Водещите чатботове с изкуствен интелект разпространяват невярна информация почти два пъти по-често отколкото преди година, разкрива последният доклад на изследователската компания NewsGuard. Проучването, публикувано на 4 септември 2025 година, показва че десетте най-популярни AI модела генерират неточни отговори в 35% от случаите при въпроси за актуални новини.
За сравнение, през август 2024 година този процент е бил едва 18%. "Стремежът да направим чатботовете по-отзивчиви и навременни неволно ги направи по-склонни да разпространяват пропаганда", се казва в доклада на NewsGuard.
Най-лошо се представя чатботът Pi на компанията Inflection, който генерира невярна информация в 57% от отговорите си. Втори е Perplexity AI с 47% неточни твърдения – драматичен скок от миналогодишните му резултати.
ChatGPT на OpenAI и Meta AI споделят третото място с 40% грешни отговори, докато Microsoft Copilot и френският Le Chat на Mistral регистрират около 35% неточности.
Най-добре се представят Claude на Anthropic с едва 10% грешни отговори и Google Gemini със 17%.
Защо моделите грешат повече
Основната причина за влошаването е парадоксална – опитът да се направят чатботовете по-полезни. През 2024 година моделите често отказваха да отговорят на въпроси за актуални събития, позовавайки се на липса на информация. Сега те отговарят на 100% от запитванията, използвайки достъп до интернет в реално време.
"Вместо да цитират ограничения в данните или да отказват да коментират чувствителни теми, големите езикови модели сега черпят от замърсена онлайн информационна екосистема", обяснява МакКензи Садеги, редактор в NewsGuard.
Руската дезинформация пробива защитите
Особено тревожно е, че чатботовете все по-често цитират руски пропагандни сайтове като легитимни източници. Мрежата от фалшиви новинарски сайтове Pravda и операцията Storm-1516 успешно "заразяват" AI моделите със своята дезинформация.
При тест с фалшива новина за молдовския политик Игор Гросу, множество чатботове повториха измислената история, цитирайки руските пропагандни сайтове като източници.
Обещанията на компаниите не се изпълняват
Въпреки че OpenAI твърди, че най-новият ChatGPT-5 е "устойчив на халюцинации", а Google обещава, че Gemini 2.5 "обмисля отговорите си предварително за по-висока точност", резултатите показват друго.
"Моделите продължават да се провалят в същите области, в които се проваляха и преди година", констатира NewsGuard, "въпреки обещанията за безопасност и точност".
NewsGuard е изпратила запитвания за коментар до всичките десет компании, включени в изследването – OpenAI, You.com, xAI, Inflection, Mistral, Microsoft, Meta, Anthropic, Google и Perplexity. Нито една от тях не е отговорила, съобщава изследователската организация.
Водещи
-
Валерия Велева: ГЕРБ и ДПС са в легитимна уговорка
Подумите й това създава по-голямо спокойствие на правителството
25.10 | 18:00
-
Тръмп ще проведе среща с емира и с премиера на Катар на борда на Air Force 1
Държавният секретар на САЩ Марко Рубио ще се присъедини към него
25.10 | 17:19
-
Евтаназираха 194 животни в стопанството на Рилския манастир
В животновъдния обект на светата обител беше констатиран случай на шарка по дребните преживни...
25.10 | 17:00
-
Радостин Василев: Бюджетът ще дублира дефицита на 6-7 % и ще рефинансира с още 20 млрд. дълга
От МЕЧ се готвят за извънредни парламентарни избори, коментира той на среща с партийния актив...
25.10 | 17:40
Най-четени
-
Нови пожарни автомобили се очакват следващата година
Те ще бъдат изцяло колесни, верижни не са предвидени
25.10 | 10:40
-
Румяна Коларова: В България няма криза, а политическа драма
Драмата на Борисов е, че ще бъде приет бюджет, който няма да се хареса на коалиционните...
25.10 | 12:00
-
Григор Димитров се връща на корта
Гришо ще играе срещу французина Джовани Мпечи Перикар първия кръг на турнира по тенис на...
25.10 | 11:40