Казус Дурова. Как это работает.
1️⃣ Данных в мире очень много. За 15 лет физическое количество данных (data) выросло в 66 раз. Ежегодный прирост – больше, чем производилось этих самых данных 10 лет назад. И немалую часть этих данных генерируют сами пользователи, размещая контент в соцсетях или реагируя на него.
2️⃣Значительная часть пользовательского контента – это разного рода вещи, которые не нравятся начальству. Люди то вакцины критикуют, то политическую нелояльность демонстрируют, то распространяют свидетельства о фактах, обоснованно пробуждающих эту нелояльность. Причем поток такого контента растет, по крайней мере, пропорционально росту количества данных.
3️⃣Традиционные способы работы с враждебным начальству контентом – это долго и дорого: расследование по факту, выявление источников и распространителей, суды, “выпиливание” контента по решению суда. Грубо говоря, люди размещали в своих блогах видео пустых больниц в Испании и Британии, а потом – через время и процедуру – заезжали не только в баны, но и в тюрьмы. Удовлетворение системе это приносит, примером потенциальным нарушителям служит, но задачи главной не решает. “Враждебные данные” неизбежно появляются снова и снова.
4️⃣Тогда был предложен инновационный механизм – “ответственность платформ за контент, на них размещенный”. То есть оценивать “юридические риски” должны не специальные институты государств, а сами владельцы платформ. А если они оценивают их неправильно, то значит они “подельники правонарушителей”. (Пресс-релиз французов о том, что Дуров и наркотиками торговал, и педофильским контентом, и одновременно активно практиковал терроризм – это вот буквально про это).
5️⃣Премодерация контента “руками” или даже с помощью ИИ – это также дорого. Экономически обоснованное поведение платформ – тотальный запрет на распространение информации на темы, где возможны “разночтения” с официальной линией партии. По принципу “ничего, кроме “официоза”. Как это работало на “дозаконодательном этапе” например в ковид? В соцсетях вымарывались (вместе с аккаунтами) статьи из рецензируемых мировых научных журналов.
6️⃣Затем наступил “законодательный этап”. Идея реализована в новом цифровом законодательстве большинства стран от Бразилии до ЕС. В ЕС т.н. DSA – Digital Service Act – вступил в силу в этом году. После чего размахивая им как знаменем комиссар Бретон (бывший французский госолигарх – глава Франстелекома) начал кошмарить недостаточно лояльных владельцев платформ: Маск (Твиттер), Дуров (ТГ) и китайцы без яркого лица (Тик-Ток). Объяснять, почему Дуров значительно более удобная цель, чем непроясненные китайцы или гражданин США, не надо.
7️⃣Мы находимся здесь. Телеграм, к слову, достаточно охотно удовлетворял требования национальных юрисдикций по постмодерации контента по решению судов. Также телеграм был очевидно прозрачен для спецслужб. Это видно по большому количеству новостей в мировых СМИ в последнее время в духе: “не знаем кто, когда и каким образом, но вот злодеи из этой злодейской группы собирались совершить злодейство из вот такого типа злодейств”, возникших явно из поверхностного машинного чтения разного рода переписок в “закрытых группах” и между собой.
8️⃣Единственно, что не делал ТГ – это не создавал систему премодерации и автоматической роботизированной фильтрации предлагаемого пользователями контента. Что в настоящее время признается невозможным и нетерпимым во всех крупных юрисдикциях мира.
9️⃣Почему именно сейчас? Пока “недопустимый” контент создается шаловливыми ручками отдельных пользователей – это одно. И совсем другое дело – “контент по цене электричества и со скоростью электричества”, создаваемый ИИ. Перед угрозой этого девятого вала начальство не готово даже обсуждать старые представления о т.н. “свободе слова”.
🔟В глазах мировых элит принуждение к выполнению требований о полной ответственности платформ за размещаемый контент (европейский DSA и его аналоги) – ключевой вопрос, помеченный буквально как вопрос физической выживаемости.