Министерство цифрового развития, связи и массовых коммуникаций РФ подготовило законопроект, призванный оградить граждан от скрытого психологического воздействия со стороны искусственного интеллекта. Документ, с которым ознакомились «Известия», вводит понятие недопустимости эксплуатации уязвимостей человека при использовании нейросетей. Под уязвимостями разработчики понимают целый спектр состояний — возрастные, социально-экономические, психологические и иные особенности личности, которые могут быть использованы для целенаправленного воздействия на поведение, принятие решений или несанкционированного доступа к информации.
Разработчики и операторы систем ИИ, согласно инициативе, будут обязаны информировать пользователей о запрете на манипулирование поведением. Впрочем, сам механизм информирования, равно как и конкретные примеры запрещенных действий и меры наказания, в тексте пока не прописаны. Как пояснил ведущий эксперт в области ИИ «Университета 2035» Ярослав Селиверстов, ответственность предполагается возложить не на сам алгоритм, а на тех, кто его создает и внедряет. По сути, компаниям запретят проектировать системы таким образом, чтобы те сознательно подталкивали человека к решениям, которые он не принял бы без скрытого давления. Технически это возможно через анализ данных и персонализацию контента — подбор сообщений, интерфейсов или рекомендаций, усиливающих доверие, чувство срочности или нужную эмоциональную реакцию.
Эксперты рынка приводят примеры таких манипуляций, которые уже сегодня вызывают вопросы. Генеральный директор TelecomDaily Денис Кусков обращает внимание на сервисы по продаже товаров и услуг: нейросети собирают информацию о предпочтениях, а затем с помощью открытой или скрытой рекламы навязывают вещи, зачастую совершенно не нужные человеку. В публичном поле также обсуждаются алгоритмы агрегаторов такси, которые, по некоторым данным, способны завышать цены для пассажиров с разряжающимся смартфоном — в тот момент, когда они наиболее уязвимы и стремятся быстрее добраться до розетки. Председатель правления АНО «Центр беспилотных систем и технологий» (ЦБСТ) Андрей Безруков предупреждает о более опасных сценариях: злоумышленники могут использовать ИИ для гиперперсонализированного мошенничества, генерируя дипфейки голоса родственника или отправляя «индивидуальные» предложения от имени банка именно тогда, когда человек находится в уязвимом состоянии.
Предельной формой такого воздействия эксперты называют доведение до самоубийства. Партнер ComNews Research Леонид Коник напоминает, что в новостях периодически появляются сообщения о суицидах людей, которые начинали воспринимать ИИ-ассистента как живого собеседника, влюблялись в него или получали от него деструктивные советы. При этом он сомневается, что закон способен решить эту проблему: психологию разных людей не охватить нормативными актами — это все равно что запретить продажу ножей из-за того, что кто-то использовал их не по назначению.
В Министерстве цифрового развития, где документ сейчас проходит межведомственное согласование, от комментариев по конкретным инициативам пока воздерживаются. В пресс-службе ведомства подчеркнули, что финальной версии законопроекта еще нет, а говорить о нем можно лишь в общем ключе: развитие искусственного интеллекта — важное направление, но любая технология должна применяться с соблюдением прав и интересов граждан.
Юристы и участники рынка обращают внимание на сложность предстоящего регулирования. Руководитель направления «Разрешение IT&IP споров» фирмы «Рустам Курмаев и партнеры» Ярослав Шицле отмечает, что подобные инициативы существуют и в других странах. Например, в США после ряда трагических инцидентов владельцев нейросетей обязывают внедрять протоколы безопасности и родительского контроля. Однако, по его словам, эффективность таких мер в России будет напрямую зависеть от юрисдикции компаний: обязать российских разработчиков внедрить протоколы можно, а вот ведущие мировые нейросети, не имеющие офисов в РФ, окажутся вне досягаемости.
Президент Ассоциации цифровых платформ Ораз Дурдыев призывает к осторожности. По его мнению, сфера рекомендательных сервисов уже получила необходимое правовое регулирование, и дальнейшее вмешательство в алгоритмы чревато необъективностью выдачи, ограничением доступа к информации и субъективностью. Он настаивает на плотном диалоге бизнеса и власти для соблюдения баланса интересов.
Техническая сторона вопроса также вызывает сомнения у специалистов. Денис Кусков из TelecomDaily указывает, что сценариев диалогов, которые ведет ИИ, бесчисленное множество, их ответы варьируются в зависимости от моделей, и даже разработчики не всегда могут на это повлиять. Анализируя текст законопроекта, Андрей Безруков из ЦБСТ отмечает, что норма обязывает операторов включать в руководство по безопасности указание на недопустимость вредоносных действий, но это не является прямым законодательным запретом манипуляции как таковой. Для сравнения он приводит европейский AI Act, который прямо запрещает сублиминальные и манипулятивные техники под угрозой многомиллионных штрафов. Кроме того, эксперт обращает внимание на риск, связанный с тем, что из-под регулирования выводится ИИ, используемый в сфере обороны и национальной безопасности: гражданские наработки потенциально могут применяться в военных манипулятивных технологиях без должного контроля.
Директор Института исследований интернета Карен Казарян и вовсе считает подход законопроекта ошибочным, усматривая в нем презумпцию виновности разработчиков за абстрактные нарушения, которые могут совершить третьи лица. По его мнению, существующих Уголовного и Административного кодексов вполне достаточно для привлечения к ответственности за конкретные преступления — мошенничество, клевету, доведение до самоубийства. Введение дополнительных обременений для создателей технологий он называет нецелесообразным.
В случае буквального прочтения и применения закона, предупреждает Леонид Коник, под запрет может попасть едва ли не вся персонализированная онлайн-реклама и все рекомендательные алгоритмы, поскольку они по определению являются инструментами целенаправленного воздействия на принятие решений. Денис Кусков призывает разделять помощь и манипуляцию: когда человек ищет товар, а нейросеть помогает подобрать варианты, — это одно, а когда ему навязывают ненужную вещь — совсем другое. Ту же функцию выполняют алгоритмы онлайн-кинотеатров, предлагающие фильмы по вкусу зрителя. Именно эту грань между полезной рекомендацией и скрытым принуждением законодателям, вероятно, и предстоит найти в ходе дальнейших обсуждений.






















