Первая публикация этого цикла была написана по материалам публикации Radiohead. Следующие явились результатом поисков и исследований автора. С помощью нейросетей, конечно, но под строгим контролем и проверкой. Так что автор отвечает за каждое слово.

Елена Бреслав, автор этого сайта

Сегодня уже очевидно, что социальные сети и мессенджеры перестали быть просто инструментами для связи и развлечений. Они превратились в мощнейшие механизмы разведки и, что еще важнее, в средства массового манипулирования сознанием. Чтобы понять, почему государства по всему миру (включая Россию) борются за контроль над этим цифровым пространством, нужно заглянуть «под капот» и разобраться, как именно устроены эти технологии.

Ключевая идея заключается в следующем: западные цифровые гиганты, будучи инструментами влияния своих государств, обладают уникальной возможностью видеть нас насквозь. Создавая отечественные аналоги и ограничивая доступ к зарубежным сервисам, Россия пытается решить две задачи: ограничить возможности чужого сбора данных (и чужого манипулирования) и выстроить собственную систему цифрового суверенитета.

Как же это работает? Рассмотрим на трех уровнях: психологическом, социальном и техническом.

1. Психологический уровень: охота за «темными профилями» и крах объективности

Квинтэссенцией манипулятивных возможностей стал скандал 2018 года с компанией Cambridge Analytica (СА). Используя данные 87 миллионов пользователей Facebook, эта фирма показала миру, что такое настоящая цифровая власть.

В основе метода лежала психологическая модель OCEAN (Big Five), оценивающая человека по пяти параметрам:

  • открытость новому,
  • добросовестность,
  • экстраверсия,
  • доброжелательность и
  • нейротизм (эмоциональная нестабильность).

Алгоритмы СА анализировали лайки и репосты, чтобы выявить страхи, комплексы, политические взгляды и психологические триггеры каждого пользователя.

  • Микротаргетинг и «Темные посты» (Dark Posts). Имея такой портрет, СА создавала тысячи вариантов одного и того же рекламного сообщения. Пугливому консерватору показывали мигрантов как угрозу его дому. Спокойному либералу — ту же тему, но через нарушение прав человека. Главный секрет: эти посты были «темными» — их видел только один конкретный человек, что делало невозможной публичную дискуссию или опровержение. Это была смерть традиционной политики, где лидер обращается ко всем с единым посланием.
  • Управление через биологию. Технология СА ознаменовала переход от убеждения к программированию поведения. Реклама перестала апеллировать к логике. Она нажимала на «биологические кнопки»: если алгоритм знал о вашей склонности к паранойе, он показывал контент, вызывающий выброс кортизола (гормона стресса). Решение (голосование или покупка) принималось не разумом, а как попытка избавиться от дискомфорта.
  • Смерть единой реальности. В этой системе каждый живет в своем информационном пузыре. Вы и ваш сосед видите диаметрально противоположные новости. Это явление, известное как «эхо-камера», делает невозможным общественный диалог: у людей просто нет общих фактов для разговора.
  • Predictive Modeling (предсказание поведения). Самый пугающий вывод из кейса Cambridge Analytica, подтвержденный наукой: на основе 300 лайков алгоритм знает вас лучше, чем супруг или родители, а порой лучше, чем вы сами. Свобода выбора становится иллюзией, так как человека просто мягко подталкивают к решению, которое система предсказала задолго до него.

С 2018 года технологии ушли далеко вперед. Сегодня для составления точного психологического портрета достаточно 30–40 осмысленных фраз, написанных вами в чатах или письмах.

2. Социальный уровень: «социальный граф» как карта местности

Психология работает в связке с математикой. Главный актив любой соцсети или мессенджера — это социальный граф.

Сбор этих данных идет не только из очевидных источников:

  • Прямые связи: друзья, подписки, контакты.
  • Скрытые связи: геолокация (совпадение в спортзале), общий Wi-Fi, метаданные фото (один и тот же фон на снимках).
  • Теневые профили (Shadow Profiles): данные о тех, у кого нет аккаунта, но чьи номера есть в адресной книге у других. Система строит граф даже на «невидимок».

Зная социальный граф, спецслужбы и алгоритмы могут делать пугающие выводы:

  • Прогнозирование дохода и статуса по окружению.
  • Поиск «инфлюенсеров»: не блогеров-миллионников, а людей, через которых проходит больше всего связей в локальном чате дома или заводском цехе. Убедив одного такого, можно изменить мнение всей группы.
  • Деанонимизация: если группа людей скрывает имена, но их телефоны регулярно «видят» друг друга в одном здании (например, в штаб-квартире), их иерархия становится прозрачной для разведки.

3. Технический уровень: смартфон как «жучок» в кармане

Современный смартфон — это не просто телефон, а набор высокоточных датчиков, непрерывно транслирующих данные. Даже в зашифрованных мессенджерах типа Telegram спецслужбы используют анализ трафика (Traffic Analysis). Они не читают текст, но видят, кто с кем общается, в какое время и какого размера файлы пересылают. Этого часто достаточно для построения полной картины.

Методы сбора данных стали изощренными до невозможности:

  • Уровень заряда батареи. Уникальная комбинация процента заряда и времени его разряда может служить идентификатором устройства, обходящим VPN и режим инкогнито.
  • Акселерометр и гироскоп. Анализ походки позволяет идентифицировать человека и сопоставлять людей, идущих рядом.
  • Акустический скрапинг. Ультразвуковые маяки (неслышимые человеком) от телевизоров или рекламных щитов считываются микрофоном смартфона, сообщая рекламным сетям, какую передачу вы смотрели.
  • Keystroke Dynamics (динамика набора текста). Ритм и манера печати уникальны, как отпечаток пальца. По тому, как вы печатаете, система узнает вас даже на чужом устройстве.
  • Wi-Fi и Bluetooth сканирование. Даже при выключенном GPS телефон видит названия Wi-Fi сетей вокруг. По глобальным картам Wi-Fi сетей местоположение определяется с точностью до комнаты.
  • «Битые пиксели» камеры. Каждая матрица имеет микроскопические дефекты. Уникальный «шумовой паттерн» фото позволяет связать анонимный снимок в сети с конкретным физическим устройством.

Как это применяется на практике

От Арабской весны до Украины

«Арабская весна» стала первым полигоном для обкатки этих технологий.

  • Вирусный охват: алгоритмы соцсетей мгновенно распространяли шокирующий контент, мобилизуя массы.
  • Обучение: через закрытые группы распространялись инструкции по уличной борьбе.
  • Картирование протеста: разведка в реальном времени видела, в каких районах города растет цифровая активность, и перебрасывала туда силы.

Сегодня это оружие работает еще точнее. Разведки используют:

  1. Психологический рентген для вербовки: алгоритмы ищут людей в стрессе, обиженных на начальство или переживающих кризис.
  2. Микро-вербовку: через ботов и таргетированную рекламу «вербуемого» начинают мягко подводить к нужным мыслям.
  3. Искусственное большинство (астротурфинг): создаются сети ботов, имитирующие реальных людей, чтобы создать иллюзию массовой поддержки или неприятия чего-либо. Срабатывает эффект конформизма: человек меняет мнение, подчиняясь виртуальному «большинству».
  4. Превентивное подавление: точечная блокировка лидеров мнений (ключевых узлов графа) может парализовать назревающий протест быстрее, чем силовые методы.

Выводы: власть принадлежит тому, у кого есть карта реальности

Самое тревожное в этой истории — добровольность участия. Мы сами отдаем свои данные, подписывая пользовательские соглашения. Бесплатные сервисы работают по принципу: «если вы не платите за товар, значит, товаром являетесь вы сами».

Сегодня власть принадлежит не тому, у кого больше танков, а тому, у кого есть точная картина мира в головах граждан и точная карта связей между ними. Именно поэтому США так яростно боролись с TikTok: впервые неамериканская платформа (китайская) получила доступ к психологическим профилям американских подростков.

Понимая это, Россия (как и Китай) идет по пути создания суверенной цифровой экосистемы. Вой, который поднялся вокруг мессенджера «Макс» при его появлении, — это классическая скоординированная атака по описанным выше лекалам. Цель этой атаки — сохранить монополию на управление нашим восприятием реальности. Ведь дело не в том, какой мессенджер удобнее, а в том, в какую сторону и кому именно утекают наши данные, и кто будет нажимать на наши психологические «кнопки» завтра.

Пойдем дальше.

Представьте, что кто-то знает о вас больше, чем вы сами. Не просто знает, где вы живёте или что покупаете, а понимает, чего вы боитесь, на что злитесь, от чего у вас сжимается челюсть. Знает, в какой момент вы готовы поверить в конспирологию, а когда отмахнетесь от достоверных фактов.

А теперь представьте, что этот кто-то имеет возможность показывать вам персональную реальность. Подсовывать именно те новости, которые заставят вас кивать, злиться или бояться. Подталкивать к решениям, которые вы будете считать своими, хотя на самом деле вас просто аккуратно провели по психологическим коридорам.

Звучит как сценарий «Черного зеркала»? Нет. Это история компании Cambridge Analytica, которая в 2016 году провернула это с десятками миллионов американцев и британцев.

Но самое страшное здесь не политика. Самое страшное, что та же технология работает с вами каждый день, когда вы листаете ленту, выбираете, что купить, или просто смотрите рекламу. Бизнес давно подхватил эти методы, потому что они работают исключительно эффективно. Мечта маркетолога.

Как 300 лайков в соцсети могут предсказать ваше поведение точнее, чем супруг? Как психологический тест за пять минут становится пропуском в вашу голову? И почему после этого скандала никто ничего не изменил, а просто спрятал технологию поглубже, чтобы продолжить использование?

Спойлер: после текста ниже вы уже не сможете смотреть на таргетированную рекламу так же, как раньше.

Cambridge Analytica (CA) — британская частная компания, созданная в 2013 году как «дочка» более крупной структуры SCL Group, специализировавшейся на психологических операциях и стратегических коммуникациях. Компания возникла не на пустом месте: она стала коммерческим воплощением научных исследований, которые велись задолго до её основания.

Ключевая фигура в этой истории — Михал Косински, психолог из Кембриджского университета. Ещё в 2008 году он с однокурсниками создал приложение MyPersonality для Facebook, где пользователи проходили психологические тесты и получали свой «психологический портрет», а создатели — доступ к их личным данным.

Когда учёный опубликовал свои результаты, он получил два звонка: жалобу и предложение о работе. Оба поступили от Facebook.

За спиной Cambridge Analytica стояли люди с большими деньгами и радикальными взглядами. Компанию финансировал американский миллиардер Роберт Мерсер — один из главных доноров будущей кампании Дональда Трампа. А вице-президентом CA числился Стивен Бэннон — бывший глава ультраправого сайта Breitbart и будущий стратег Белого дома. Генеральным директором стал Александр Никс.

Бэннон, кстати, придерживался чёткой идеологии: «политика — это то, что идёт ниже по течению от культуры». Сначала нужно изменить культуру, а политика подтянется. Для этого он ещё в 2012 году открыл лондонский офис Breitbart, чтобы поддерживать евроскептиков вроде Найджела Фараджа. Cambridge Analytica должна была стать инструментом для «смены культуры» через данные и алгоритмы.

Метод сбора данных: как получили доступ к 87 миллионам профилей

Техническая сторона операции выглядит пугающе просто. Кембриджский психолог с русскими корнями Александр Коган (не путать с Косински) создал приложение под названием ʺthisisyourdigitallifeʺ — психологический тест с примитивной механиkoй.

Схема работала так:

  • Пользователям платили небольшие деньги за прохождение теста.
  • Приложение запрашивало доступ не только к данным самого пользователя, но и к профилям его друзей.
  • В те времена Facebook позволял сторонним приложениям такой сбор данных — это считалось «базовой функцией» платформы.

Итог: тест прошли всего 270 тысяч человек, но в распоряжение Когана попали данные 87 миллионов пользователей Facebook. Коган потратил на сбор около 800 тысяч долларов, которые ему компенсировала Cambridge Analytica.

Коган утверждал, что собирает данные в академических целях. На самом деле он их продавал. Позже, давая показания британскому парламенту, он заявил, что «в Кремниевой долине тогда все считали, что публика в курсе, что их данные продают и используют для рекламы». И добавил, что за полтора года существования его приложения Facebook ни разу не предъявил ему претензий: «Facebook никогда не было до этого дела».

Технология OCEAN: как лайки превращаются в психологический портрет

В основе подхода лежала психологическая модель «Большой пятерки» — OCEAN (по первым буквам пяти измерений на английском):

  • Openness — открытость новому (насколько человек готов к экспериментам)
  • Conscientiousness — добросовестность (перфекционизм, организованность)
  • Extraversion — экстраверсия (потребность в социуме)
  • Agreeableness — доброжелательность (доверие, готовность к сотрудничеству)
  • Neuroticism — нейротизм (тревожность, эмоциональная нестабильность)

Метод Косински позволял конвертировать цифровой след в эти пять параметров. Оказалось, что по лайкам можно предсказывать не только демографию, но и психологию. Например, люди, которые ставят лайки Nike и KitKat, статистически склонны негативно относиться к Израилю. Звучит как магия, но это чистая корреляция, выловленная алгоритмами из Big Data.

Исследования Косински показали пугающую точность: на основе 70 лайков алгоритм мог предсказать ответы человека на психологический тест точнее, чем его коллега по работе. 150 лайков — точнее, чем родители. 300 лайков — точнее, чем супруг.

Кристофер Уайли, главный разоблачитель Cambridge Analytica (тот самый «розоволосый парень» из Канады), понял коммерческий потенциал этой технологии ещё в 2013 году.

Он изучал прогнозирование трендов в моде, но быстро смекнул: если методы работают для предсказания моды, они сработают и для политики. Либерал-демократы в Британии его идею не оценили, зато бизнесмен Александр Никс заинтересовался. Вместе они создали Cambridge Analytica, а затем подтянули Бэннона и Мерсеров, вложивших в проект 15 миллионов долларов.

Практика: кампания Трампа (Project Alamo) и Brexit

Президентские выборы в США, 2016 год

Cambridge Analytica работала на предвыборный штаб Дональда Трампа не с нуля — сначала компания помогала Теду Крузу, но после его выбывания из гонки маховик перенастроили на Трампа.

Метод получил название Project Alamo.

Штаб Трампа потратил десятки миллионов долларов на цифровую рекламу, адаптированную под конкретных людей.

Суть подхода: избирателей больше не надо убеждать лозунгами с трибуны. Достаточно разделить их на психотипы и каждому отправить персональное сообщение, бьющее в его личные страхи или желания.

Brexit, 2016 год

Связка «Бэннон — Фарадж — Cambridge Analytica» сработала и в Британии. В день запуска статьи 50 (формального начала выхода из ЕС) Фарадж с пинтой пива в руке публично благодарил Breitbart и Стива Бэннона: «Вы были огромным влиянием».

Как это работало на практике: люди с высоким нейротизмом (тревожные) получали сообщения, построенные на страхе («мигранты отнимут ваш дом»). Люди с низкой добросовестностью — более импульсивные и хаотичные — получали призывы, построенные на гневе и бунте против «брюссельской бюрократии».

Исследователи из Online Privacy Foundation позже проверили этот метод: оказалось, что «если правильно подобрать сообщения, они работают очень мощно. Это мягко подталкивает людей в ту или иную сторону».

Почему это сработало: эффект «темных постов» и микротаргетинга

Ключевое ноу-хау Cambridge Analytica — «темные посты» (dark posts). Это посты в Facebook, которые видит только одна конкретная мишень. Их не видят друзья, их нельзя заскринить и вынести на публичное обсуждение. Человек получает сообщение, созданное лично для его психотипа, и у него нет возможности сопоставить его с тем, что получили соседи.

Дэвид Кэрролл, профессор, позже подавший на CA в суд, рассказал жуткую вещь: он работал волонтёром на Обаму, но на Клинтон не пошёл. Он не исключает, что именно персонализированная реклама с фейками о Клинтон «отключила» его от кампании: «Я допускаю, что получил рекламу с ложной информацией о Клинтон, которая отбила у меня желание волонтёрить».

Психологические профили позволяли не просто «попадать» в аудиторию, но и давить на эмоциональные триггеры:

  • Невротикам — страх и тревогу.
  • Экстравертам — чувство принадлежности к движению.
  • Людям с низкой доброжелательностью — агрессию против «чужих».

Крис Самнер из Online Privacy Foundation объясняет: «Сила эмоциональной рекламы известна давно. Но сегодня регулирование онлайн-политических кампаний слабее, чем регулирование рекламы зубной пасты».

Послесловие: скандал и крах

В марте 2018 года журналисты The Guardian и The New York Times при помощи Кристофера Уайли опубликовали расследования, взорвавшие инфополе. Почти сразу телеканал Channel 4 показал запись, где руководители CA хвастаются перед фейковым клиентом (журналистом под прикрытием), что могут устраивать провокации, подставлять кандидатов и использовать проституток для сбора компромата в «более чем 200 выборах по всему миру».

Facebook заплатил $5 млрд штрафа из-за утечки данных через Cambridge Analytica и запретил компании работать на платформе.

Компания заявила, что данные удалены, и в мае 2018 года объявила о банкротстве и закрытии.

Сам Александр Коган позже заявлял парламентскому комитету, что эффективность методов CA «раздута» и что с практической точки зрения это была «пустая трата денег». Но, как заметили журналисты, если методы были такими бесполезными, почему за ними выстроилась очередь из политиков, готовых платить миллионы?

Ответ, видимо, в том, что сама технология оказалась не столько «машиной для промывки мозгов», сколько «машиной для усиления существующих предубеждений». Она не создавала мнения с нуля — она ловила человека на его страхах и обидах и прокручивала их до тех пор, пока он не начинал действовать «правильно».

Сегодня методы OCEAN-таргетинга стали рутиной: Mail.Ru Group (ныне VK) ещё в 2018 году запустила таргетинг по психотипам для рекламодателей. Разница лишь в том, что коммерческие компании продают вам зубную пасту, а политические технари — реальность, в которой вы живёте.

Превращение «лайков» в психологические портреты — это вершина айсберга. Давайте на следующем шаге заглянем глубже — туда, куда не достают настройки приватности и где даже шифрование бессильно.

Есть расхожая фраза: «Нам не нужно читать ваши письма, нам достаточно знать, кому вы пишете». Это и есть суть Traffic Analysis (анализа трафика) — метода, при котором спецслужбы и алгоритмы не расшифровывают содержимое сообщений, а изучают их «конверты».

Даже если ваш мессенджер использует сквозное шифрование (как WhatsApp или Telegram в секретных чатах), в открытом виде остаются метаданные:
📞 Кто с кем общается (IP-адреса, номера)
🕰 Когда (точное время отправки и получения)
Как долго (длительность сессии)
🔢 Какого размера файлы пересылаются

Часто этого достаточно. Исследовательский инструмент PARROT, например, позволяет собирать и анализировать трафик Android-приложений, выявляя паттерны поведения даже в зашифрованных потоках данных.

Как это работает на практике?

Если два человека одновременно отправляют и получают пакеты одинакового размера, система с вероятностью под 99% понимает, что они общаются друг с другом прямо сейчас. По размеру зашифрованного файла иногда можно угадать, что это за файл (например, конкретный вирусный ролик или служебный документ). А по регулярности сеансов связи — восстановить иерархию в организации: с кем начальник общается чаще, кому пишет по ночам, кто получает самые длинные сообщения.

Агентство национальной безопасности США использует это давно и системно. Программа CO-TRAVELER, о которой рассказал Эдвард Сноуден, ежедневно собирает около 5 миллиардов записей о местоположении и передвижениях владельцев телефонов по всему миру. Но главный фокус программы — вычисление «попутчиков» (co-travelers): людей, которые регулярно оказываются рядом с объектом слежки, даже если они никогда не звонят друг другу и не переписываются. Алгоритм замечает: если два телефона одновременно появляются в одних и тех же местах (кафе, работа, спортзал), между их владельцами есть связь. Если потом один телефон выключается, а второй включается в той же точке — это тоже маркер для базы данных .

Самый страшный нюанс: анализ трафика работает даже тогда, когда вы вообще не пользуетесь телефоном. Ваше устройство само стучится на серверы Google, Apple, Samsung, передавая телеметрию. Исследователи, анализировавшие трафик «чистого» Android-смартфона без единой синхронизированной учетки, обнаружили, что телефон в фоновом режиме исправно общается с googleapis.com, crashlytics, firebase, передавая модель устройства, версию прошивки, рекламный идентификатор и даже информацию о запущенных приложениях. Телефон просто лежал на столе — но при этом «стучал» без остановки.

Теперь переходим к самому интересному. В вашем смартфоне есть десятки датчиков, доступ к которым не требует никаких разрешений. Любое приложение (и даже сайт в браузере) может читать их показания. Самые опасные — акселерометр (измеряет ускорение) и гироскоп (отслеживает вращение). И вот что с их помощью можно сделать.

Случай 1. Прослушка без микрофона

В 2022 году команда американских ученых опубликовала работу, от которой у сотрудников спецслужб, наверное, зачесались руки. Они доказали: акселерометр можно использовать как микрофон.

Как это работает? Когда вы разговариваете по телефону, динамик вибрирует. Эти вибрации передаются на корпус, а чувствительный акселерометр их фиксирует. Раньше качество было так себе, но современные смартфоны оснащаются мощными динамиками (чтобы радовать вас громким звуком в TikTok), и вибрации стали достаточно сильными.

Частота опроса акселерометра — до 500 раз в секунду. Этого хватает, чтобы уловить низкочастотные компоненты речи. Сами понимаете, распознать слова напрямую нельзя — получается «дребезжание». Но алгоритмы машинного обучения творят чудеса: в экспериментах по датчикам удалось с 92% точностью отличить одного абонента от другого, в 99% случаев определить пол собеседника. А отдельные слова распознавались с точностью 56%. Это, конечно, не прослушка в классическом смысле, но достаточно, чтобы понять, о чем примерно говорят: ругаются, обсуждают цифры, называют имена. И всё это — без доступа к микрофону, без красной лампочки, без разрешений.

Случай 2. Угадай пароль по вибрации стола

Это старая, но показательная история. Ещё в 2011 году исследователи из MIT и университета Джорджии показали: если ваш смартфон лежит рядом с клавиатурой (на расстоянии до 8 см), он может «подслушать», что вы печатаете.

Когда вы нажимаете клавиши, возникают микровибрации. Акселерометр их ловит. Конечно, определить конкретную букву сложно. Но алгоритм работает с парами символов: он понимает, в какой части клавиатуры были нажаты клавиши (слева или справа) и как далеко они друг от друга. Потом эти «паттерны пар» прогоняются через словарь. В 80% случаев удается полностью восстановить слово. Пароль типа «canoe» превращается в последовательность «слева-слева-рядом, слева-справа-далеко, справа-справа-далеко, справа-слева-далеко». Словарь английского легко дает «canoe».

Пароли из случайных символов такая атака не берет. Но большинство людей используют слова, имена, даты. И телефон, лежащий рядом с ноутбуком в кафе, может тихонько считывать всё, что вы вводите. Приложение для этого не нужно спрашивать доступ к чему-либо — акселерометр открыт для всех.

Случай 3. SensorID: отпечаток пальца, который не смыть

В 2019 году Кембриджский университет (да, те же ребята) обнаружил еще более хитрую уязвимость, названную SensorID.

Каждый смартфон проходит заводскую калибровку датчиков. Из-за микроскопических погрешностей производства акселерометры, гироскопы и магнитометры имеют уникальные «шумовые паттерны». Эти калибровочные данные вшиты в прошивку и доступны любому приложению или сайту без разрешения.

Что это значит? Это значит, что у вашего телефона есть уникальный «сенсорный отпечаток», который невозможно сбросить (в отличие от рекламного идентификатора). Даже если вы снесете Android и поставите чистую прошивку, даже если смените SIM-карту и будете сидеть через VPN — сайт, читающий показания гироскопа, поймет: «А, это снова тот же телефон, я его помню по прошлому визиту».

Apple закрыла эту дыру в iOS 12.2, добавив случайный шум в выходные данные датчиков. Google долго думала. Но главное здесь — сам принцип: ваше устройство пахнет заводским браком, и по этому запаху его можно вычислить.

В 2024 году вышло исследование MIT, от которого у меня лично дернулся глаз. Оказывается, датчик освещенности (тот самый, что регулирует яркость экрана) тоже можно использовать для слежки. И ему тоже не нужны разрешения.

Когда вы листаете ленту или печатаете, ваша рука частично перекрывает свет. Датчик фиксирует изменения освещенности. С помощью алгоритмов машинного обучения эти изменения можно превратить в двумерную картинку — то есть восстановить, какие именно жесты вы делали на экране. Пока скорость получения кадров низкая (один кадр за 3,3 минуты), но датчики становятся быстрее. Вопрос времени, когда можно будет «увидеть», какой пост вы лайкнули или какой пароль ввели, просто анализируя, как менялся свет вокруг телефона.

После всего, что мы разобрали про сбор данных и социальные графы, вопрос цифрового суверенитета перестает быть абстрактной идеей «посадить всё своё». Это вопрос выживания государства в XXI веке. Но подходы у разных стран разные, причем расхождения имеют порой принципиальный характер.

Две модели одного суверенитета

Исследование российских и китайских медиа за 2011-2021 годы показывает удивительную вещь: при внешней похожести (обе страны строят свои цифровые экосистемы) смыслы, которые они вкладывают в «цифровой суверенитет», кардинально расходятся.

В России доминируют нарративы национальной безопасности, государственного контроля и протекционизма. То есть: «Нас могут прослушивать, наши данные утекают — надо строить защитный периметр, свое железо, свои соцсети, чтобы враг не залез».

В Китае акцент сделан на технологическом развитии, экономическом лидерстве и глобальной конкурентоспособности. То есть: «Мы строим своих гигантов (Tencent, Alibaba, ByteDance), чтобы они завоевывали мир, а заодно и дома у нас будет всё свое».

В академической литературе это описывают как разные институциональные модели:

Китай: великий файрвол и глобальная экспансия

Китай пошел по самому жесткому пути: запретил Facebook, Twitter, YouTube, Google, Instagram. Вместо них — свои экосистемы: WeChat (там и мессенджер, и соцсеть, и платежи, и госуслуги), Weibo, Douyin (внутренняя версия TikTok).

Но Китай не просто отгородился. Он строит «Цифровой Шелковый путь» в рамках инициативы «Один пояс — один путь». Китайские технологии идут в страны Глобального Юга, сокращая «цифровой разрыв» и одновременно усиливая влияние КНР. Китайские компании (Huawei, ZTE) тянут оптоволокно в Африку, ставят базовые станции в Латинской Америке, продают софт для распознавания лиц в Азию.

То есть стратегия Китая — это закрыть свой рынок для чужих и открыть чужие рынки для себя.

Россия: импортозамещение под огнем

Россия начала движение в ту же сторону, но с другой стартовой позиции. У нас не было своих цифровых гигантов мирового уровня, которые можно было бы экспортировать. Поэтому пришлось догонять.

Путь, который выбрала Россия, — создание автономной экосистемы сервисов:

  • Свои соцсети (VK, Одноклассники).
  • Свои мессенджеры (Макс, ранее — Telegram, который «свой» по духу, но не свой технически и по расположению серверов).
  • Свои ОС (Аврора).
  • Свои магазины приложений (RuStore, NashStore).
  • Национальная DNS и маршрутизация трафика.

Главная проблема этого пути — время и инерция общества. Как справедливо заметил автор исходного текста, «вы помните, какой дикий вой поднялся, когда Макс только начали продвигать? Очень похоже на скоординированную атаку». И это правда: люди не любят, когда у них отнимают привычные инструменты, даже если эти инструменты их прослушивают.

Почему США бесятся из-за ТикТока, но плевать хотели на Макс

Ответ прост: у США нет доступа к данным внутри Макса, но Макс и не претендует на глобальное лидерство. А TikTok претендует. И когда американские спецслужбы поняли, что китайский алгоритм рекомендаций знает о психике американских подростков больше, чем их родители, началась паника.

На первый взгляд, история с запретом TikTok в США выглядит абсурдно: взрослые дяди в пиджаках всерьез обсуждают угрозу национальной безопасности от приложения, где дети танцуют под музыку. Но если вы прочитали предыдущие посты, то уже понимаете, в чем дело.

Секретный соус: алгоритм

У TikTok есть то, чего нет у западных конкурентов, — уникальный алгоритм рекомендаций. Бывший руководитель соцсетей объяснял Би-би-си: другие компании пытались воссоздать этот алгоритм (Reels в Instagram, Shorts на YouTube), но у них получается хуже. «Как правило, тот, кто первым создает технологию, просто лучше знает, как с ней работать».

Этот алгоритм не просто показывает видео. Он учится на каждом вашем движении: сколько секунд вы смотрели ролик, пересматривали ли повторно, ставили ли лайк, комментировали, сохраняли. Он понимает не только ваши интересы, но и ваши эмоциональные триггеры. Это та же технология психопрофилирования, которую мы разбирали в разделе про Cambridge Analytica, только на стероидах и в реальном времени.

Чего испугались американцы

Американские законодатели выражали опасения, что Пекин может заставить компанию передать данные пользователей из США или использовать алгоритм для распространения пропаганды. И TikTok, и ByteDance последовательно отрицали эти обвинения, но доверия к китайской компании у Вашингтона не было.

В апреле 2024 года Байден подписал закон, требующий от ByteDance продать TikTok или столкнуться с запретом. Началась судебная тяжба, и в январе 2025 года приложение стало недоступно для пользователей в США в течение 12–14 часов.

Развязка: американский TikTok

В январе 2026 года сделка была закрыта. По ее условиям:

Создана новая компания TikTok USDS Joint Venture LLC.

Совет директоров из семи человек, большинство — американцы.

Три управляющих инвестора (Oracle, Silver Lake, MGX) получили по 15%.

ByteDance сохранила 19,9%.

Оставшиеся 35,1% — у группы инвесторов, включая союзников Трампа.

Данные американских пользователей переехали на серверы Oracle в США. Алгоритм переобучили с нуля только на американских данных. ByteDance потеряла доступ и к данным, и к алгоритму.

Эксперты говорят, что после переобучения алгоритма приложение будет работать иначе — медленнее, «легче» и, возможно, хуже рекомендовать контент.

Цифровой концлагерь для Газы

Самый яркий маркер того, во что превратился TikTok после смены владельца, — история палестинской журналистки Бисан Овды. Она вела дневник из Газы, начиная каждое видео фразой: «Это Бисан из Газы — и я все еще жива». У нее было 1,4 млн подписчиков.

После сделки ее аккаунт заблокировали. Потом восстановили — но под шумок международного возмущения. Большинство видео объявили «неподходящими для рекомендаций», поиск аккаунта искусственно осложнили.

Впервые цензура перестает быть событием. Алгоритмическое ограничение не оставляет следов: нет уведомления, нет апелляции, нет формального запрета. Человек не заблокирован — его просто перестают видеть.

С октября 2023 года в секторе Газа были убиты не менее 260 палестинских журналистов. В этих условиях блокировки, «теневые баны» и лишение рекомендаций перестают быть техническими мерами — они становятся элементом цифрового концлагеря, где молчание достигается не запретами, а алгоритмами.

Ирония судьбы

Парадокс в том, что именно в тот период, когда TikTok находился под полным контролем китайской компании, он оставался одним из немногих пространств, где не существовало жесткой идеологической цензуры. Алгоритмы были грубыми, но они не были выстроены в единую линию политического контроля.

США годами кричали о «китайской угрозе» и «цензуре со стороны Пекина». В итоге они добились своего: TikTok перешел под контроль американских инвесторов. И тут же выяснилось, что настоящая цензура начинается именно сейчас — и она куда эффективнее китайской. Потому что китайская цензура хотя бы видна. Американская же растворяется в алгоритмах.