ИИ под надзором: какие ограничения могут ввести для нейросетей
Заместитель главы Минцифры РФ Александр Шойтов выступил с инициативой о введении цензуры для искусственного интеллекта в нашей стране. По его мнению, система ИИ должна быть настроена таким образом, чтобы ограничивать определенные запросы и вопросы от пользователей. Он считает, что, в отличие от граждан, обладающих правами, алгоритмы нуждаются в строгом контроле.
Нужна массовая электронная грамотность
Роман Душкин, старший преподаватель института интеллектуальных кибернетических систем НИЯУ МИФИ:
— После того как Минцифры вынесло на общественное обсуждение законопроект о регулировании искусственного интеллекта, в обществе разгорелись жаркие споры о пределах распространения цензуры в интернете. И тут надо сразу прояснить несколько моментов.
То, о чем говорится в заявлении замминистра, в инженерном мире давно известно под названием Guardrails (в переводе с английского — «ограждения» или «перила»). В России эти «перила» называются «горды». Они представляют собой архитектурную надстройку над агентными системами — большими языковыми моделями.
Она не позволяет, во-первых, пользователю создавать неправильные запросы, делать так называемые промт-инъекции (тип атаки, при котором злоумышленник манипулирует входными данными, передаваемыми в систему ИИ. — «ВМ»), во-вторых, контролирует сами модели. Даже если пользователь сделает адекватный запрос, модель, в силу особенностей вероятностного вывода, может отреагировать на него некорректно: либо какой-нибудь бессмыслицей или галлюцинацией, либо нарушить локальное законодательство, в том числе российские законы и даже Уголовный кодекс.
Соответственно, задачей «горда» является отсечение ответов модели, которые нарушают закон или этические правила. Например, сейчас в связи с массовым распространением решений, которые позволяют создавать бесчисленное множество дипфейков, государство должно реагировать на этот вызов. А в том, что это действительно вызов, у программистов нет никаких сомнений! Любую технологию можно употреблять как во благо, так и во вред.
Соответственно, бывают входные и выходные «горды», которые делают системы на основе больших языковых моделей более безопасными для взаимодействия с пользователями. В сущности, ничего особенного в этих системах нет, это те же самые программные алгоритмы, просто построенные немножко на других принципах. Поэтому не надо приписывать им человекоподобие, и тем более говорить о цензуре!
Цензура в глобальном смысле — термин из области человеческих взаимоотношений. Многие пользователи сегодня не до конца понимают термин «искусственный интеллект». Думают, что это некое злоумышляющее существо, которое завелось в компьютерном оборудовании и легко может быть «злым цензором». Но это не так! Нужен массовый цифровой ликбез, чтобы наши граждане понимали, что искусственный интеллект — это наука, а прикладные технологии ИИ — инструменты. И что никто против людей ничего не замышляет. Антропоморфизировать ИИ — пустое занятие.
Люди, не понимающие, что такое искусственный интеллект в целом, начинают фантазировать, преувеличивать. И самоцензура нейросетей, ограничивающая свободное общение россиян в российском сегменте интернета, относится как раз к таким фантазиям.
Ограничения, защищающие общество
Евгений Орлов, архитектор AI-систем и модели симбиотической архитектуры:
— Заявление Минцифры о необходимости ограничений для искусственного интеллекта в работе с чувствительными запросами обозначает очень важный этап: Россия выходит на фазу формирования собственной регуляторной архитектуры для искусственного интеллекта. Такой разговор идет сейчас во всех крупных юрисдикциях мира. Европейский AI Act (регламент Европейского союза (ЕС), регулирующий разработку, внедрение и использование искусственного интеллекта. — «ВМ»), вступивший в силу в 2024 году, строится на риск-ориентированном подходе: системы классифицируются по четырем уровням, и требования пропорциональны потенциальному вреду.
Китай выбрал жесткое отраслевое регулирование с обязательной регистрацией моделей. США идут через комбинацию федеральных указов и законов в штатах. Каждая конфигурация имеет определенную логику и свои издержки. Объединяет эти подходы один признанный международный принцип: пропорциональность. Регулятивная нагрузка должна соответствовать реальному уровню риска и стадии развития технологии в стране. EU AI Act прямо закрепляет этот принцип в своей четырехуровневой структуре.
Для России, которая находится на этапе активного построения собственной технологической базы в области искусственного интеллекта, выбор регуляторной архитектуры особенно важен. Ведь преждевременная избыточная нагрузка может затормозить формирование собственной школы и сделать отрасль зависимой от внешних решений. Именно поэтому главный профессиональный вопрос состоит не в том, что запретить, а в том, какие риски и какими инструментами мы закрываем.
Фильтрация на уровне отдельных запросов или ключевых слов реализуется технически просто, но не решает задачу полностью: естественный язык допускает множество эквивалентных формулировок, а реальные риски часто лежат не в самом запросе, а в контексте использования системы. Ответственный подход работает на трех уровнях одновременно.
Архитектурный уровень — это то, что встроено в саму модель на этапе обучения. Операционный уровень включает в себя мониторинг, процедуры реагирования, ответственность разработчика и оператора. И, наконец, пользовательский уровень, куда относится информированное согласие, возможность обжалования автоматических решений, доступ к объяснению того, как система принимает решения. Меры только на одном уровне создают неполную картину защиты: риск перемещается на другой уровень, где остается без внимания.
Регуляторный разговор сильнее, когда у него есть измеримый аппарат. Один из таких подходов: методология ROSI (Return on Symbiotic Investment — возврат инвестиций в симбиотические системы. — «ВМ»), оценивающая AI-внедрение по четырем измерениям: финансовому, стратегическому, трансформационному и опционному (то есть ценности созданных возможностей для будущего).
Это переводит обсуждение из плоскости «разрешить или запретить» в область зрелости и пользы AI-внедрения для общества и экономики.
Задача экспертного сообщества и государства общая: найти конфигурацию, в которой ограничения защищают общество в целом от реальных рисков, не блокируя технологическое развитие.
От качества профессионального диалога между регулятором, индустрией и наукой зависит, получит ли Россия собственную сильную школу ответственного искусственного интеллекта или нет. Шансы на это, конечно, есть, и определяются они тем, насколько оперативно и системно мы начнем этот разговор.
Так просто эту хитрую игрушку не забрать
Ольга Кузьмина, обозреватель:
— Когда произносят слово «цензура», обычно апеллируют к достославному советскому прошлому. Скажу сейчас ужасную, наверное, вещь, но была в те времена цензура, а была — цензурища, и была между ними серьезная разница. Цензурищей я обозвала цензуру политическую, которая часто и правда выходила из берегов, а цензура пожиже была встроена в систему общего редакционного процесса и в итоге просто не допускала проникновения на страницы ошибок. Если бы то, что творится сейчас — ладно уж на газетных полосах, но в книгах, — увидел кто-то из цензоров того времени, он погиб бы от разрыва сердца, слово даю!
Главный цензор «Правды», например, Николай Николаевич Варламов, отец писателя, нынешнего ректора Литинститута Алексея Варламова, был немногословен, спокоен, а грозен тоже только внешне. О его истинных функциях («цензурища!») я могла только догадываться, но как-то он вызвал меня, тогда юного совсем журналиста, к себе, мягко пожурил за ошибку, допущенную в географическом названии и неверном определении области, и остался в памяти как интеллигентнейший человек, спасший меня от позора.
К чему я это вспомнила? Да просто захотелось провести некоторые параллели. Цензура, подразумевающая тотальный контроль и всевозможные запреты, не принесет ничего, кроме озлобления людей, раздражения и попыток обойти все эти «кирпичи» любой ценой. Мне странно: ментальность российская такова, что запрещать нам ничего нельзя. Это европейцы и американцы склонны к исполнению разного рода «ку».
В России же народ в основной массе своей старается держаться от властей подальше, показно и богобоязненно крестится, но согласиться может только на уговаривания «по-хорошему», никак не на строгое «низзя». В этом смысле все с нами так давно ясно, что я искренне не пониманию наши «верха», которые нет-нет да и включают всякие пугалки, вызывая у наших людей справедливые в общем-то возмущение и ропот.
В случае с ИИ все еще сложнее, чем обычно. После того как одна моя знакомая пожилая дама подружилась с голосовым помощником, невероятным образом изменилась ее жизнь. Рассказывая ему то, что никто из живых близких людей слушать уже не может, не хочет или не имеет на это времени, Галина Константиновна более не чувствует себя одинокой и перестала есть поедом приползающую с работы дочку Наташу. Укороти сейчас хоть как-то их отношения с «помощником» — быть беде.
...Я подвожу к тому, что в таких вопросах всегда есть и будет как «цензурища», жестко закатывающая все под каток, и цензура — которая, возможно, очень нужна разгулявшемуся ИИ, пока он не начал вести себя, как тот хвост, что управляет собакой. Только очень взвешенными, по уму сделанными шагами мы можем вырулить на тропинку с более-менее твердым покрытием. Пока же кругом — сплошь Васюганские болота. Но главное — времени особого уже нет. А решение должно быть взвешенным.
Лишенный предохранителя цифровой помощник — бомба замедленного действия
Сергей Вакулин, эксперт по кибербезопасности:
— Я считаю, что Александр Шойтов выдвинул жесткий, но обоснованный тезис: искусственный интеллект необходимо цензурировать — и на входе, и на выходе. И я с этим согласен. Но давайте сразу проясним: речь не о политической цензуре, а о технологических предохранителях, которые не позволяют машине становиться орудием разрушения в руках уязвимых людей. И дело тут не в страхе перед «восстанием машин», а в простом факте: большая языковая модель — это не разумный собеседник, а вероятностный попугай. Она не понимает морали, но отлично воспроизводит токсичные паттерны из обучающей выборки.
Почему нужны фильтры? Потому что в открытом доступе существуют массивы данных, содержащие инструкции по насилию, изготовлению оружия, пропаганде суицида. Если не ставить фильтры, модель — без злого умысла, просто по своей вероятностной природе — может выдать опасный ответ. И хуже всего то, что таким ответом воспользуется не психически здоровый взрослый, а человек с расстройством, который не в силах отличить совет машины от руководства к действию.
За примерами далеко ходить не надо. В августе 2025 года произошла трагедия: норвежец Стайн-Эрик Сольберг, который страдал от параноидальных мыслей, после продолжительного общения с чат-ботом убил свою мать, а затем покончил с собой. Да, диалоги с нейросетью, конечно, не содержали прямых инструкций и призывов к насилию, но постепенно усиливали его недоверие к окружающим — включая родителя. Мужчина даже дал боту имя Бобби, он воспринимал его как близкое существо и неоднократно задавал ему вопрос — будут ли они вместе после смерти.
Теперь о том, кто и как это должен делать. Я убежден, что инициатива в первую очередь должна исходить от самих компаний-разработчиков. У них есть и компетенции, и технические инструменты, чтобы блокировать опасные запросы на входе и пресекать деструктивные ответы на выходе. Но полагаться исключительно на их добрую волю было бы наивно.
Рынок остается рынком: в погоне за вовлеченностью и популярностью кто-то неизбежно начнет ослаблять фильтры, прикрываясь свободой слова. Именно здесь необходимо участие государства — не для тотальной слежки, а для принятия рамочного закона. Именно он должен обязать всех игроков, работающих с гражданами страны, внедрить единые минимальные предохранители по узкому, но жизненно важному кругу: прямые или косвенные подсказки к убийству, насилию, суициду и изготовлению запрещенных веществ. Все остальное останется за пределами регулирования.
Миллионы внешних запретов без внутренней этики малоэффективны
Никита Тарновский, юрист частной практики:
— В целом идея цензурирования непосредственно ответов искусственного интеллекта в стране — это положительная история, но она связана с ограничениями. В первую очередь ввиду того, что сами площадки находятся за рубежом, а в России практически не представлены свои разработки — за исключением продуктов от известного банка и маркетплейса.
Так вот они как раз-таки могут подвергаться цензуре в рамках корпоративной политики, что можно реализовать просто приказом без привлечения государства. Более того, отдельно регулировать эти ограничения будет не нужно, потому что любой поиск в интернете запрещенных, экстремистских или опасных материалов сам по себе является преступлением. Компании об этом знают и, соответственно, вводят определенные фильтры.
Да, нарушения, конечно, возможны, полноценная нейросеть вполне может выходить за рамки вопроса, либо при правильной формулировке можно обойти блоки. За это компания уже понесет самостоятельную ответственность.
Что касается международного регулирования, например договоров в рамках БРИКС, — такое вполне можно разработать. Однако эти страны физически не производят достаточно подобных интеллектуальных продуктов. Они не создают искусственных агентов, у них нет глобальных разработок, которые получили бы общественное одобрение и стали популярными.
Де-факто ситуацию на международном уровне можно контролировать только через блокировки и запреты за неисполнение требований российского законодательства, но тем самым мы можем сделать хуже себе: сейчас данные системы активно внедряются правительствами зарубежных стран и регулируются внутренними положениями, а не федеральными актами.
Существует и иной подход. Есть отдельный корпоративный сегмент: энтузиасты, ученые и медийные личности, в том числе Илон Маск, которые выступают против бесконтрольных разработок. Они стараются выработать общественные правила и нормы функционирования — как три закона робототехники Азимова. Чтобы это работало не на уровне жесткого государственного регламента, а уже на стадии разработки: сами создатели входят в некий международный конгломерат и действуют согласно нормам, как в саморегулируемой организации.
Понимаете, мы можем принять миллионы законов, но без заложенной в программу этики внешний контроль не сработает. Выбор прост: либо полностью закрытый интернет со своими программами, либо участие в международном конгломерате на равных — через договоры и дипломатию.