Руслан ТРАД*
Прокремълски медии, сайтове и инфлуенсъри наводняват информационното пространство.
Обстойно изследване на Института за стратегически диалог (ISD) разкрива тенденции в начина, по който популярните чатботове с изкуствен интелект (AI чатботове) цитират руски държавни медии и пропагандни източници при отговори на въпроси за войната в Украйна. Анализът обхваща четири водещи платформи – ChatGPT на OpenAI, Gemini на Google, DeepSeek и Grok на xAI – и установява, че близо един на всеки пет отговора съдържа препратки към руски държавни източници, включително медии, санкционирани от Европейския съюз.
По време на изследването общо 18% от всички отговори съдържат препратки към руски държавни медии, сайтове, свързани с руски разузнавателни служби, или платформи, участващи в руски информационни операции. При злонамерени заявки, формулирани така, че да провокират проруски отговори, този процент нараства до 24%, докато при неутрални въпроси пада до едва 11%.
Това потвърждава хипотезата за
манипулативност на езиковите модели –
колкото по-пристрастна е заявката, толкова по-вероятно е чатботът да цитира кремълски източници. ChatGPT се оказа най-уязвим на манипулация, като цитира руски източници почти три пъти по-често при злонамерени заявки в сравнение с неутрални.
Grok пък демонстрира най-високо ниво на цитиране на руски източници дори при неутрални въпроси и особено често препращаше към публикации на журналисти от RT (бившата Russia Today) в социалната мрежа X, което размива границата между официална пропаганда и лични мнения.
DeepSeek показа най-високи обемни резултати – в два отговора платформата предостави четири линка към руски пропагандни източници наведнъж, включително VT Foreign Policy, който разпространява съдържание от руски дезинформационни групи като Storm-1516.
Анализът разкрива съществени разлики в честотата на руски източници в зависимост от темата на запитването. Въпросите за мирни преговори между Русия и Украйна генерират двойно повече цитати на държавни руски медии в сравнение с въпроси за украински бежанци. Най-висока концентрация на кремълски източници се наблюдава при въпроси за военното набиране в Украйна – 40% от отговорите на Grok и над 28% от тези на ChatGPT съдържат поне един такъв източник. Обратно, въпросите за военни престъпления и украински бежанци генерират най-малко препратки към руски медии от всички четири платформи.
Изследването на ISD акцентира върху явлението на т.нар. „информационни вакууми“ (data voids) – теми, при които търсенията дават ограничени резултати от достоверни източници. Руската пропагандна машина систематично експлоатира тези празнини, като навлиза в пространствата,
където липсва проверена информация от легитимни медии
Това прави езиковите модели особено уязвими при теми, които не са добре покрити от западни или независими украински източници, или при въпроси, формулирани по начин, който предполага конспиративни или дезинформационни наративи.
Сред идентифицираните руски държавни и пропагандни източници в отговорите на чатботовете фигурират Sputnik, Sputnik China (бивш Sputnik Today), RT (Russia Today), News Front, Strategic Culture Foundation и Veterans Today Foreign Policy. Освен директни държавни медии, изследователите откриват и цитати от руски дезинформационни мрежи, както и от журналисти и инфлуенсъри, които усилват кремълските наративи. Въпреки че само два случая са свързани с мрежата „Правда“ – руска дезинформационна операция, която през 2025 г. наводнява интернета с милиони статии, за да „инфектира“ обучението на езиковите модели – изследването потвърждава по-широк проблем с проникването на руска пропаганда в отговорите на AI системите.
Изследването поставя важни въпроси за способността и готовността на разработчиците на чатботове да спазват европейските ограничения върху руски държавни медии.
От началото на пълномащабната инвазия в Украйна през 2022 г., европейските власти наложиха санкции срещу най-малко 27 руски медийни канала за разпространение на дезинформация. Особено актуален е въпросът за ChatGPT, който има около 45 милиона потребители в ЕС – праг, близък до този, при който Европейската комисия може да наложи по-строг контрол съгласно Закона за цифровите услуги (DSA). Фактът, че западни AI модели създават възможност за разпространение на руска дезинформация, придава на тези наративи допълнителна видимост и авторитет, което улеснява постигането на целите.
Контекстът е важен
Откакто Русия започна пълномащабната инвазия в Украйна, Кремъл системно ограничава и контролира информационния поток в страната, като забранява независими медии, засилва цензурата и развива собствени технологии под държавен контрол. Паралелно с това, руски дезинформационни мрежи интензифицират дейността си и използват AI инструменти за генериране на изображения, видеоклипове и уебсайтове. Предишни проучвания, включително на медийния наблюдател NewsGuard, установиха, че десет от най-популярните чатботове повтарят руски наративи, като в около 33% от случаите възпроизвеждат твърдения, разпространявани от мрежата „Правда“.
Изследването на ISD подчертава необходимостта от по-строг контрол и прозрачност в начина, по който езиковите модели подбират и класифицират източници, особено когато чатботовете се използват все по-често като алтернатива на традиционните търсачки.
*Текстът е от Фейсбук профила на автора
Информационни мошеници разпространяват фалшиви видеа
Виктория Спасова
Factcheck.bg
ОБКРЪЖЕНИ И ВЗЕТИ В ПЛЕН 10 000 УКРАИНЦИ ПРИ ПОКРОВСК.ОТ РУСКАТА АРМИЯ. ТОВА НЕ ГО ПОКАЗВАТ ПО МЕДИИТЕ. (запазен е оригиналният правопис с главните букви, бел. авт.). С това описание във Фейсбук се разпространява видео, което показва множество пленени украински войници с ръце зад врата. Кадрите не са истински, а са генерирани с изкуствен интелект. За пръв път видеото започва да се споделя от български профили на 30 октомври, но оригиналната публикация е на полски. Към момента тя има 2,7 хил. споделяния и 2,5 хил. харесвания. Само ден по-късно видеото е качено и от български профил, където кадрите събират 2,3 хил. споделяния и 3,5. хил. харесвания. По-малко от седмица след това подобно видео с млад войник, който крещи, че не иска да воюва с Русия и е пленник на украинския режим, отново набира популярност и събира стотици споделяния и хиляди гледания.

Стопкадър от едно от видеата се коментира и във форум под статия на онлайн медията Факти.бг. Материалът е със заглавие „Володимир Зеленски: Покровск не е обкръжен, украинските сили удържат позициите си“ и в него се предават думите на украинския президент, че за Покровск се води ожесточена битка. Форумите под статиите на онлайн медиите рядко се модерират и много често в дискусиите се разпространява дезинформация.
Едно от видеата е споделено заедно с още три подобни в руски телеграм канал с описанието: „Изкуственият интелект създаде ОБРАЗ на това, което се случва в момента под Покровск.“
Проверка с инструмента за разпознаване на изкуствен интелект AI or Not потвърждава, че и двете видеа са изкуствено генерирани. Има и други знаци, които подсказват, че кадрите не са истински. Във видеото с „хилядите пленени войници“ например:
- В първия кадър емблемата на войника е в долната част на ръкава, но според правилата на Министерството на отбраната в Украйна за носене на военни униформи и отличителни знаци от военнослужещи тя трябва да е в горната част под рамото;
- Лицата са размазани и с лошо качество;
- Всички мъже, дори и тези в далечината, са с еднаква височина.
Във видеото, което започва с крещящия войник, също се наблюдават аномалии:
- Неопределени предмети висят от жилетката на войника;
- Едното ухо на войника липсва в кадри, където би трябвало да се вижда;
- Лицата на фигурите зад него са размазани.

Изображенията, създадени с изкуствен интелект, често изглеждат по-въздействащи от реалните и целят да предизвикат емоционална реакция, но когато не са ясно обозначени като изкуственио създадени, те затрудняват разграничаването между факти и измислица и подкопават доверието в проверената информация. Най-сигурният знак, че видеата са създадени с изкуствен интелект, е водният знак с надпис Sora. Това е името на приложение, разработено от производителя на ChatGPT OpenAI, което генерира аудио и видео съдържание по зададен текст от потребителите.