В России могут закрепить законодательно правило, согласно которому окончательное решение в критически значимых областях — медицине, правосудии, образовании и охране правопорядка — всегда должно оставаться за человеком, даже при использовании систем искусственного интеллекта. Такие предложения содержатся в подготовленных правительством материалах по регулированию ИИ. Минцифры планирует направить этот документ на согласование в правительство к концу февраля, сообщил «Известиям» источник.
Член комитета Госдумы по информполитике Антон Немкин подчеркнул, что отсутствие требования о сохранении решающей роли человека может привести к системным рискам. Среди них — проявление дискриминации и алгоритмических предубеждений, заложенных в данные для обучения ИИ; размывание ответственности при возникновении сбоев, когда сложно установить вину разработчика, пользователя системы или государства; а также подрыв доверия общества к автоматизированным решениям, особенно когда они касаются судьбоносных вопросов.
Актуальность проблемы наглядно демонстрируют недавние инциденты. В начале февраля стали известны данные о случаях причинения вреда пациентам из-за ошибок искусственного интеллекта, встроенного в медицинскую аппаратуру. В частности, с конца 2021 года по ноябрь 2025 года было зарегистрировано не менее десяти повреждений, связанных со сбоями навигационной системы TruDi. Эта система предоставляла хирургам некорректные ориентиры во время операций на головном мозге, что создавало прямую угрозу для здоровья пациентов.
Проблемы надёжности ИИ возникают и в сфере образования. Директор Института исследований интернета Карен Казарян указывает, что даже при проверке учебных работ нейросети часто демонстрируют ошибки, что ставит под сомнение возможность их безусловного доверия в данной области. Таким образом, предлагаемые законодательные инициативы направлены на создание правовых барьеров, которые обеспечат контроль человека над автоматизированными системами в самых чувствительных для общества сферах.






















