Комитет Госдумы по молодёжной политике опроверг использование ChatGPT при подготовке текста одного из законопроектов. В пресс-службе комитета подчёркивают: формулировки документа, включая ключевые положения и юридические конструкции, разрабатывались исключительно депутатами совместно с юристами аппарата, без привлечения нейросетей или других генеративных ИИ-сервисов.
Поводом для дискуссии стала пояснительная записка к законопроекту, в которой обнаружили ссылку на исследование с UTM-меткой, характерной для материалов, сгенерированных ChatGPT и аналогичными ассистентами. Это вызвало предположение, что при подготовке документа использовался ИИ. В комитете факт наличия такой ссылки признали, но настаивают: речь идёт не о написании законопроекта нейросетью, а об использовании внешних материалов при аналитической работе.
Представители комитета пояснили, что речь идёт об обычной исследовательской практике: при подготовке инициативы изучались различные источники, в том числе аналитические материалы и научные работы. Одна из таких ссылок оказалась оформлена с параметрами, которые обычно проставляют ИИ-ассистенты, что и стало формальным поводом для подозрений. По словам пресс-службы, это след технического оформления, а не доказательство участия нейросети в создании текста проекта закона.
В Госдуме подчёркивают, что работа над документом велась около двух лет. За это время депутаты и юристы, сопровождающие комитет, проводили экспертизу, согласование формулировок, юридическую выверку и оценку последствий. Вся нормативная часть, по утверждению комитета, является результатом человеческого коллективного труда, соответствующего установленным регламентам законотворческой деятельности.
Отдельно в комитете акцентируют внимание на том, что при подготовке любого законопроекта используется «весь спектр накопленных знаний и исследований». Это включает в себя профильные научные публикации, статистику, экспертные заключения, международный опыт и обзоры действующей практики. Такой подход, по их словам, позволяет делать инициативы более актуальными и востребованными, а также учитывать реальные запросы целевой аудитории — в данном случае молодёжи.
История с «следами ChatGPT» высветила более широкий вопрос: допустимо ли применение ИИ-инструментов в законодательной деятельности и где проходит грань между вспомогательной аналитикой и фактическим соавторством искусственного интеллекта. Формально российские регламенты пока не содержат чётких правил, отдельно регулирующих использование нейросетей в процессе подготовки законопроектов, однако ситуация показывает, что запрос на прозрачность уже сформировался.
На практике ИИ‑ассистенты всё чаще используются юристами, аналитиками и специалистами по общественной политике для черновой подготовки обзоров, поиска источников, систематизации данных. Однако в случае с законами к таким инструментам предъявляются повышенные требования: от них ожидают не только точности фактов, но и юридической корректности, отсутствия плагиата, а также понятного указания происхождения текста и ссылок. Любой намёк на «скрытое» участие нейросети в формулировке норм вызывает вопросы об ответственности и легитимности.
Ситуация вокруг законопроекта комитета по молодёжной политике показывает, как будет выстраиваться практика в ближайшие годы. Вероятнее всего, законодательные органы будут вынуждены закрепить несколько принципов: обязательное раскрытие факта использования ИИ-инструментов, запрет на полную генерацию нормативного текста нейросетями без дальнейшей глубокой переработки, а также персональную ответственность конкретных депутатов и юристов, подписывающих документы, вне зависимости от применённых инструментов.
Отдельный вызов — качество ИИ-ссылок и корректность оформления источников. Если нейросеть автоматически подставляет UTM-метки или иные технические параметры, это может вводить в заблуждение относительно происхождения материала. Для официальных документов важно, чтобы каждая ссылка была прозрачна: было ясно, откуда взят документ, проведена ли его проверка, соответствует ли он действующим научным и правовым стандартам.
На этом фоне встаёт и репутационный риск. Любой намёк на использование ChatGPT или аналогичного сервиса при написании законопроекта мгновенно становится информационным поводом. Общество ожидает от законодателей повышенной ответственности и тщательной проверки каждого слова. Поэтому даже техническая деталь — вроде UTM-метки — превращается в аргумент в дискуссии о том, насколько «человеческим» остаётся процесс законотворчества.
Однако полностью игнорировать ИИ в современной правотворческой деятельности уже практически невозможно. Объёмы информации, которую приходится анализировать при подготовке даже одного законопроекта, огромны: это сотни страниц исследований, сравнительное право других стран, статистические массивы, отчёты ведомств. Логично, что часть рутинной аналитики в перспективе будет перекладываться на интеллектуальные системы. Ключевой вопрос — кто и как контролирует результат.
Для России тема использования искусственного интеллекта в законотворчестве тесно связана с доверием к государственным институтам. Если граждане будут убеждены, что важные решения принимаются «по подсказке алгоритмов», без достаточной экспертной проработки, это усилит скепсис. Если же ИИ будет восприниматься как инструмент для ускорения исследования и анализа, а не как автор законов, — это, напротив, может повысить качество инициатив, уменьшить количество технических ошибок и коллизий.
В дальнейшем можно ожидать появления внутренних регламентов, где будет чётко прописано: на каких этапах допускается использование ИИ, что именно ему можно поручать (например, поиск прецедентов или структурирование статистики), а какие части работы — формулировка норм, юридическая техника, оценка рисков — должны оставаться исключительно в зоне ответственности людей. Публичная фиксация таких правил поможет снизить градус подозрений и споров вокруг каждого намёка на следы нейросетей в документах.
История с пояснительной запиской и подозрениями в использовании ChatGPT показала, что технологические и этические вопросы в законотворчестве больше нельзя откладывать «на потом». Даже если в конкретном случае комитет по молодёжной политике действительно обошёлся без генеративного ИИ при написании норм, обсуждение уже вышло за рамки одного проекта и стало частью более широкой повестки: как именно искусственный интеллект будет встроен в систему принятия государственных решений и какие гарантии сохранения человеческой ответственности при этом необходимы.


