Крайне любопытное сообщение пришло из Тульской области. В одной из школ прокуратура проверяла компьютеры, установленные в рамках реализации приоритетного национального проекта «Образование», оборудованные контент-фильтрами для защиты детей от зловредной информации.
Проверка была необычной. Прокурорские работники набрали в «Яндексе» словосочетание «книга Гитлера», и «Яндекс» выдал им ссылки, по которым оказались «открыты для свободного доступа и скачивания» «Mein kampf» и другие ресурсы с нацистским контентом.
«Mein kampf», как известно, в судебном порядке признана экстремистской. То есть контент-фильтр на тех школьных компьютерах не сработал. В результате проверки в адрес директора школы «прокурором района внесено представление с требованием незамедлительного устранения выявленных нарушений и недопущению подобного впредь».
Прокурор абсолютно прав: в школьном компьютере должны быть контент-фильтры и эти фильтры должны работать. Проверка обоснована и результат справедлив. Это именно тот случай, когда ограничительные меры должны защищать детей от экстремизма и прочей порнографии.
В тульской истории любопытно совсем другое: технический инструментарий подошел к тому уровню, который позволяет государству проявлять интерес не только к тому, что в компьютере ЕСТЬ, но и к тому, что в компьютере МОЖЕТ БЫТЬ.
При всем гуманитарном ужасе такого открытия, прежде всего, следует признать его железную техническую логику. Да, надзорный интерес к вероятной информации, которая может оказаться в компьютере, обоснован техническими свойствами самого компьютера. Ведь компьютер – это не хранилище, а портал.
Эли Паризер в своей нашумевшей книге The Filter Bubble (недавно, кстати, переведенной на русский язык) рассказывает, как поисковики учитывают историю предпочтений пользователя. Паризер проводил эксперимент: он попросил двух своих друзей в разных штатах набрать в Гугле слово «Египет» и прислать ему скриншоты выдачи. Скриншоты по поиску на одно и то же слово оказались абсолютно разными. Одному – сплошной туризм, другому – новости о революции. Так поисковый алгоритм оценил интересы этих двух пользователей, исходя из истории их прошлых блужданий по интернету.
Иными словами, алгоритм поисковой машины может судить о завтрашних предпочтениях пользователя, исходя из его вчерашних интересов. Самая простая иллюстрация всем, наверное, знакома: стоит набрать в поисковике что-нибудь вроде «отдых в Краснодарском крае», и различные сайты будут тебе потом неделю показывать туристические объявления и прочие отпускные ссылки. Примерно так же работает лента выдачи Facebook – она показывает сообщения только тех друзей, которые, по мнению алгоритма Edge Rank, интересны конкретному пользователю. Тоже исходя из его прежних контактов и интересов.
Алгоритм «фильтробабла» становится отпечатком предпочтений. Причем реальным, умным отпечатком. По истории интересов он определяет, что человек выберет в таких-то обстоятельствах – туризм или революцию. И чем дальше, тем лучше будет алгоритм. Тем точнее он будет интерпретировать и предсказывать поведение пользователя. Если в помощь не только рекламе, но и полиции, то такой алгоритм уже очень близко подводит к оруэлловской идее мыслепреступления.
Если бы Джордж Оруэлл в 1949 году знал, как в реальности будет устроен его мифический «телекран» (то есть компьютер с интернетом), он описал бы как полиция мысли приходит к Уинстону, включает компьютер, набирает там в поиске, например, «выборы в думу» и – все. Какие еще нужны доказательства? Выдача расскажет о хозяине все. (А спустя время и приходить никуда не надо будет.)
Разумеется, эти способности Filter Bubble разрабатываются монстрами интернета не для полицейского надзора, а для маркетинговых целей. Но я уже писал о том, что настоящий, идеальный Большой брат вырастет как раз из маркетинговых функций. Гонясь за лучшей таргетизацией ради более эффективного рекламного обращения, интернет создает инструменты, позволяющие оценивать тайные интересы пользователя. И, самое главное, распознавать его невысказанные предпочтения. Неоценимая услуга не только маркетингу, но и политике.
Грядущий высокотехнологичный надзор за несостоявшимся действием смущает умы и на родине Оруэлла. Недавно на «Хабре» развернулась горячая дискуссия вокруг переводной заметки одного из британских лидеров пиратства Рика Фальквинге. Он возмущен законом, согласно которому репрессии могут быть применены к человеку, если полиция заподозрит, что в его файлах содержится зашифрованный контент (а вдруг экстремистский?), а человек не предоставляет ключ шифра. Этого мало – автор даже уверяет, что «тебя отправят за решетку за неспособность расшифровать что-то, что полиция посчитает зашифрованным».
Человек может оказаться виновным не только в том, каков он есть, но и в том, каким он мог бы быть. В том, что могло бы содержаться в его компьютере и в его голове (голова ведь тоже портал). Идеальное государство.
Если будущее свернет в этот закоулок, то юристам придется как следует поработать над фундаментальными положениями права. Вина за содеянное, презумпция невиновности – все это не очень согласуется с новыми техническими возможностями. Понятию «мыслепреступление» потребуется современное юридическое наполнение. Технологии обгоняют не только общественный уклад, но и юриспруденцию.