Аналитики подготовили прогноз дезинформированных сценариев на 2026 год, передает inbusiness.kz cо ссылкой на Центр по борьбе с дезинформацией.
По данным экспертов, в 2026 году дезинформация окончательно утвердится как постоянный и системный элемент медиареальности. Речь будет идти уже не о разрозненных фейках или разовых информационных атаках, а о непрерывном фоне влияния, формирующем восприятие, эмоции и модели поведения аудитории. Искажения все чаще станут частью повседневного контента и будут восприниматься как нормальная составляющая информационной среды.
Поведение под прицелом
Одним из ключевых изменений станет смещение акцента с борьбы за внимание на целенаправленное воздействие на поведение через эмоции. Если раньше дезинформация стремилась к максимальным охватам, то в 2026 году основой станет "поведенческий подход": контент сначала привлекает внимание, затем вызывает сильную эмоциональную реакцию - тревогу, страх, возмущение или ощущение несправедливости - и после этого мягко подталкивает человека к определённым действиям. Манипуляция все чаще будет выглядеть не как внешний призыв, а как самостоятельный "осознанный" выбор пользователя.
Иллюзия перманентного кризиса
Информационное пространство будет насыщено сигналами, формирующими ощущение непрерывного кризиса и скрытых угроз. Даже нейтральные события будут интерпретироваться как признаки системных проблем, а позитивные изменения - как временные и ненадёжные. На фоне такого эмоционального напряжения дезинформация распространяется быстрее и воспринимается как более убедительная.
GEO вместо SEO
Серьёзным вызовом станет усиление географически адаптированных ответов поисковых систем, ИИ-сервисов и рекомендательных алгоритмов. В 2026 году одно и то же событие может трактоваться по-разному в зависимости от страны, региона или даже конкретного города. Пользователь будет получать "локализованную версию реальности", согласованную с местным медиаконтекстом и доминирующими нарративами. Это создаёт иллюзию достоверности: разные интерпретации подтверждаются источниками внутри своей географии и начинают восприниматься как "местная истина".
ИИ – двигатель контента
Генеративные технологии будут все активнее применяться в редакциях СМИ и среди независимых авторов - для написания текстов, создания заголовков, анализа данных и визуализации информации. Это приведёт к росту непреднамеренных ошибок, упрощений и неточностей. Даже без намеренной манипуляции такие материалы могут искажать факты, усиливать эмоциональные рамки и транслировать скрытые нарративы, заложенные в обучающих данных моделей.
Бесшовность границ
Граница между спланированными информационными кампаниями и стихийным распространением контента будет все более размываться. Воздействие будет запускаться таким образом, чтобы дальше оно развивалось само - через комментарии, репосты и эмоциональные реакции обычных пользователей. Поляризация аудитории при этом станет не побочным эффектом, а самостоятельной задачей: разделённое общество легче поддаётся эмоциональному влиянию и хуже воспринимает рациональный диалог.
"В этих условиях в 2026 году дезинформация все чаще будет действовать не через откровенные фейки, а через работу с эмоциями, алгоритмами и поведенческими моделями, незаметно влияя на восприятие и решения людей. Поэтому особое значение приобретает понимание принципов работы генеративных моделей и нейросетей, их ограничений и рисков искажения контекста, а также привычка опираться на верифицированные источники информации", - отметили в центре.
Ранее в Казахстане опровергли фейк, что власти создадут базу лиц, снимающих наличные. Между тем МВД РК предупреждает, что за фейки и провокации в сети можно получить внушительный срок.
Читайте по теме:
Какие фейки возродили казахстанцы в 2024 году