Опубликован для общественного обсуждения законопроект о регулировании искусственного интеллекта — документ, который закладывает основу для системного и безопасного развития ИИ-технологий. Речь идет о переходе от фрагментарных решений к полноценной нормативной базе, учитывающей как интересы отрасли, так и защиту прав граждан.
Как отметил член комитета Государственной Думы по информационной политике, информационным технологиям и связи, федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин: «Публикация законопроекта — это важный и своевременный шаг. Мы фактически формируем базовые правила для одной из ключевых технологий будущего».
В основе документа — риск-ориентированный подход: регулирование будет напрямую зависеть от степени влияния конкретной системы ИИ на человека и общество. Это позволит избежать избыточных ограничений для технологий с низким уровнем риска, одновременно усилив контроль за критически важными решениями.
По словам Немкина, такой подход соответствует международной практике: «Он позволяет не тормозить развитие инноваций, но при этом выстраивать понятные и справедливые правила. Чем выше потенциальное влияние ИИ — тем выше требования к его надежности и безопасности».
Законопроект вводит и новые категории — суверенные, национальные и доверенные модели искусственного интеллекта. Это важный шаг в сторону технологического суверенитета и формирования собственной ИИ-экосистемы.
Отдельный блок инициатив направлен на защиту прав граждан. Впервые закрепляется возможность досудебного обжалования решений государственных органов и госкомпаний, принятых с использованием ИИ. Кроме того, в случае причинения вреда гражданин сможет рассчитывать на компенсацию по нормам гражданского законодательства.
Как подчеркнул депутат, вопрос ответственности и защиты прав граждан — ключевой. Возможность оспаривания решений и получения компенсации делает применение ИИ более прозрачным и подконтрольным обществу.
Документ также устанавливает четкие требования к участникам рынка. Разработчики обязаны исключать дискриминационные алгоритмы и предотвращать создание противоправного контента, операторы — тестировать системы на безопасность и информировать пользователей об их ограничениях, а владельцы сервисов — оперативно реагировать на случаи неправомерного использования.
При этом ответственность за возможный вред будет распределяться между всеми участниками — от разработчика до пользователя — пропорционально степени их вины.
«Это принципиально важная норма. Мы говорим о формировании зрелой экосистемы, где каждый участник понимает свою ответственность за конечный результат работы технологии», — отметил Немкин.
Отдельное внимание уделено проблеме синтетического контента. Законопроект обязывает маркировать все аудиовизуальные материалы, созданные с помощью ИИ. Крупные цифровые платформы, в свою очередь, должны будут контролировать наличие такой маркировки и при необходимости самостоятельно ее добавлять или удалять контент.
По словам парламентария, «в условиях стремительного роста дипфейков маркировка становится не просто технической мерой, а инструментом защиты общества от манипуляций и дезинформации».
Впереди — этап общественного обсуждения, в рамках которого к доработке инициативы смогут подключиться представители отрасли, эксперты и граждане.
«Наша задача — найти баланс между развитием технологий и защитой человека. Именно поэтому мы рассчитываем на широкий диалог с профессиональным сообществом и обществом в целом», — заключил Антон Немкин.
Источник: пресс-служба депутата Государственной Думы РФ Антона Немкина






