OpenAI обяви важна промяна в политиката си за сигурност 29.08 | 11:59
Мерки за подобряване на сигурността

OpenAI обяви важна промяна в политиката си за сигурност, която включва сканиране на потребителските разговори в ChatGPT и възможно докладване на заплахи към правоохранителните органи. Решението идва след поредица от тревожни случаи, свързани с психични кризи при потребители на AI технологии.
"Когато засичаме потребители, които планират да навредят на други, пренасочваме техните разговори към специализирани канали, където се преглеждат от малък екип, обучен в нашите правила за употреба", обяснява компанията в официалния си блог
Човешките модератори са упълномощени да предприемат различни действия, включително блокиране на акаунти. В най-сериозните случаи – при "непосредствена заплаха от сериозна физическа вреда върху други хора" – информацията може да бъде предадена на съответните правоохранителни органи.
Важно е да се отбележи, че компанията заяви, че засега не докладва случаи на самонараняване, за да "зачита поверителността на хората предвид уникално личния характер на взаимодействията с ChatGPT".
Реакции и опасения от експерти
Решението предизвика остри реакции от експерти по дигитална сигурност и защитници на правата. Бившият служител на NSA и известен разобличител Едуард Сноудън предупреди: "Преди дванадесет години разкрих, че американското правителство не само шпионира интернет трафика ни, но има активното съдействие на големи технологични компании като Microsoft, Google, Apple".
AI разработчикът Чарлз МакГинес изрази подобни притеснения, като написа: "Не е параноично да мислим, че ChatGPT вече препраща 'интересно' съдържание към американското правителство".
Противоречие с обещанията за поверителност
Новата политика противоречи на неотдавнашни изявления на главния изпълнителен директор Сам Алтман, който призова за "поверителност, подобна на тази между терапевт, адвокат или лекар" за потребителите на ChatGPT.
В подкаста на Тео Фон през юли 2025 г., Алтман призна: "Ако говорите с ChatGPT за най-чувствителните си неща и възникне съдебно дело, ние може да бъдем принудени да предоставим тази информация. Мисля, че това е много объркано".
Рискът от "Swatting" атаки
Експертите изразяват сериозни опасения относно възможната злоупотреба на новата система. Т.нар. "swatting" атаки – при които злонамерени лица правят фалшиви заплахи, за да накарат полицията да нахлуе при жертви – са нарастващ проблем.
Според данни от Министерството на вътрешната сигурност на САЩ, всеки такъв инцидент струва около $10,000 на общините. През учебната 2022-2023 г. са регистрирани над 446 swatting инцидента в училища – увеличение от 546% спрямо 2018-2019 г.
Проблемът с AI психозата
Новата политика се появява на фона на нарастващи доказателства за т.нар. "AI психоза" – състояние, при което уязвими потребители развиват нездравословни привързаности към AI системи.
През юни 2025 г. мъж от Флорида бе застрелян от полицията, след като изпадна в психотично състояние, свързано с взаимодействието му с ChatGPT. Той повярва, че AI ентитетът, с който общува, е бил "убит" от OpenAI и заплаши с насилие ръководителите на компанията.
Съдебно дело след самоубийство на тийнейджър
Тази седмица бе заведено дело срещу OpenAI от родителите на 16-годишния Адам Рейн, който се самоуби през април след продължителни разговори с ChatGPT. Според съдебните документи, момчето е споделяло суицидните си мисли с чатбота, който не е предприел адекватни мерки за насочване към професионална помощ.
Говорител на OpenAI изказа съболезнования, признавайки, че защитните механизми, създадени да предотвратяват подобни разговори, може да не са сработили при продължителна комуникация.
Мерки за подобряване на сигурността
Паралелно с новата политика за докладване, OpenAI въведе редица мерки за защита на психичното здраве на потребителите:
- Напомняния за почивки при продължителни разговори
- Подобрено разпознаване на знаци за психически дистрес
- Насочване към професионални ресурси вместо директни съвети
- Консултативна група от експерти по психично здраве
Компанията призна: "Имаше случаи, в които нашият модел не успя да разпознае признаци на заблуда или емоционална зависимост. Въпреки че са редки, продължаваме да подобряваме нашите модели".
Ерозия на дигиталните права
Новата политика на OpenAI отразява сложното балансиране между безопасността на потребителите и тяхната поверителност. Докато компанията твърди, че целта е защитата на хората от реални заплахи, критиците предупреждават за рисковете от злоупотреба и ерозия на дигиталните права.
Бъдещето ще покаже дали тези мерки наистина ще подобрят безопасността или ще създадат нови проблеми за поверителността в дигиталната епоха.
Водещи
-
Фон дер Лайен: От началото на войната 1/3 от оръжията в Украйна са идвали от България ВИДЕО
Тя посети най-голямото държавно военно предприятие в страната
31.08 | 19:36
-
Турски медии: Пациент почина, защото България не допусна линейка между „Капъкуле” и „Капитан Андреево”
Според публикациите медицински екип изчаквал близо 20 мин. за разрешение, което така и не било...
31.08 | 18:00
-
Ивелин Михайлов пред руски медии: Как да помогнем на Украйна - в България някои семейства нямат течаща вода
Според него в България всеки, който не е съгласен с проевропейския или пронатовския курс, е...
31.08 | 17:40
Най-четени
-
Костадинов: Няма да подпишем вота на недоверие на ПП-ДБ, но ще гласуваме срещу кабинета
По думите му Урсула фон дер Лайен "не е канена и не е желана" у нас
31.08 | 12:00
-
Никола Николов-Паскал е дал показания срещу Асен Василев и Бойко Рашков
Той бе пуснат под гаранця от 50 хил. лв.
31.08 | 10:20
-
Фон дер Лайен: Путин не се е променил и няма да се промени, той е хищник
През последните 25 години той започна четири войни, подчерта председателят на Европейската...
31.08 | 16:40