Российские компании уверенно входят в число мировых лидеров по внедрению искусственного интеллекта (ИИ). Согласно исследованию НИУ ВШЭ, опубликованному в октябре 2025 года, почти треть (29%) российских предприятий уже используют эту технологию. Это выше, чем в Европе (22%), но ниже, чем в США (33%), Сингапуре (53%) и Индии (59%). Однако, несмотря на очевидные преимущества, ИИ несет в себе и серьезные риски, о которых рассказал МК председатель комиссии по безопасности финансовых рынков Совета Торгово-промышленной палаты РФ Тимур Аитов.
«Искусственный интеллект — это хорошо, но и он имеет набор непредсказуемых угроз и для граждан, и для человечества в целом», — подчеркивает Аитов. Он отмечает, что с помощью ИИ можно заниматься «переформатированием сознания любого индивидуума», особенно если у него «в голове было достаточно пусто». Это может привести к серьезным последствиям, включая манипуляции общественным мнением и формирование предвзятых взглядов.
Аитов указывает на то, что в проекты типа ChatGPT изначально заложены оценки и модели ненависти к определенным личностям или явлениям. Например, нейросеть может отказывать в создании анекдотов на определенные темы, такие как «зеленый энергетический переход» или политические вопросы. Это свидетельствует о том, что ИИ можно настроить на предвзятое отношение к определенным группам людей или идеям.
«Нейросети действительно можно сделать предвзятыми в отношении расы, пола, политических пристрастий или же, к примеру, создать модель ИИ, которая поддерживает ценности нетрадиционной ориентации, да ещё и предоставить к этой модели бесплатный доступ в молодёжной среде», — говорит Аитов.
Аитов отмечает, что китайский проект DeepSeek является максимально нейтральным, но он также является открытым проектом, и любой желающий может скачать его исходники и настроить под свои задачи. Это создает риск использования ИИ для враждебных целей.
«Пока вся технология ИИ, как говорят в молодежной среде, хайповая — деньги текут туда рекой и никто из создателей систем искусственного интеллекта даже не представил внятные дорожные карты его развития», — подчеркивает Аитов.
Аитов также обращает внимание на уязвимости ИИ, такие как атаки класса prompt injection («промт-инъекции»). Эти атаки позволяют злоумышленникам изменять вывод модели непредусмотренным образом, что может привести к нарушению правил, созданию вредоносного контента и несанкционированному доступу к ресурсам.
«В целом, технология ИИ пока развивается достаточно хаотично. Регулирования особого нет, стандартов тоже, зато есть рекомендации от нашего Центробанка использовать так называемую «этику искусственного интеллекта», что уже хорошо», — говорит Аитов.
Аитов предупреждает, что в будущем ИИ может стать «всеобщим, практически «первичным» мозгом человечества», а наши мозги будут «форматироваться» под мнение этого ИИ. Это звучит фантастически, но, по его мнению, это вполне возможно.
Искусственный интеллект — это мощный инструмент, который может принести как пользу, так и вред. Важно осознавать риски и принимать меры для их минимизации. Регулирование и этические стандарты должны стать приоритетом для обеспечения безопасного и ответственного использования ИИ.






















