Маркировка и водяные знаки: как в России собираются регулировать искусственный интеллект

Маркировка и водяные знаки: как в России собираются регулировать искусственный интеллект

Отсутствие маркировки у контента, созданного при помощи искусственного интеллекта, должно насторожить пользователя. Такой материал можно будет отправить на проверку, а при выявлении нарушений — удалить или заблокировать. Эти меры обсуждают российские парламентарии, готовясь к комплексному регулированию технологий ИИ и борьбе с дипфейками.

Первый зампред комитета Совета Федерации по конституционному законодательству Артем Шейкин в интервью «Парламентской газете» объяснил, почему важно закрепить в законе определения «искусственный интеллект» и «дипфейк», а также как будет выстраиваться баланс между развитием технологий и безопасностью.

Почему нужно юридически определить искусственный интеллект:

Сегодня ИИ уже активно применяется в самых разных сферах — от медицины до транспорта. Но с точки зрения права его, по сути, не существует.

«Регулировать то, чего нет, — это как ловить руками дым», — говорит Артем Шейкин.

Сенатор предлагает закрепить определение, которое описывает ИИ как автономную технологию, способную решать когнитивные задачи и достигать результатов, сопоставимых с человеческими или превосходящих их. При этом важно подчеркнуть: искусственный интеллект не имитирует деятельность человека, а решает задачи принципиально иным способом.

Ответственность: разработчик или пользователь?

Пожалуй, один из самых сложных вопросов. По словам Шейкина, ответственность должна быть комплексной — и на стороне создателей технологий, и на стороне их пользователей. Но пока чёткого механизма распределения ответственности нет ни в России, ни в других странах.

Четыре принципа регулирования:

Чтобы не «задушить» развитие ИИ чрезмерным контролем, парламентарии предлагают гибкий риск-ориентированный подход. Шейкин выделяет четыре ключевых принципа:

  1. Дифференциация рисков — от низких (например, мобильные фоторедакторы) до высоких (образование, медицина, транспорт).

  2. Технологическая нейтральность — важнее сама безопасность решения, чем конкретный инструмент.

  3. Экспериментальные правовые режимы — временное снятие ограничений для тестирования технологий.

  4. Одна проверка — признание везде — сертификат, выданный единым органом, должен быть действителен во всех структурах.

Дипфейки - угроза и борьба:

Фейки с применением нейросетей — от поддельных видео до «голосов» известных людей — уже стали инструментом мошенничества.

«Дипфейк — зло, которое только набирает обороты», — подчёркивает Шейкин.

Чтобы минимизировать риски, предлагается:

  • ввести в законодательство определение дипфейка,

  • обязать маркировать контент, созданный с помощью ИИ,

  • стимулировать внедрение цифровых водяных знаков и систем автоматического распознавания подделок,

  • усиливать просвещение пользователей.

Отдельный акцент делается на молодёжи, которая особенно уязвима перед новыми схемами интернет-мошенников.

Как будут защищать пользователей:

Новый механизм предполагает создание единой базы телефонных номеров, замеченных в мошеннических атаках. Банки смогут автоматически блокировать операции, если звонок или перевод связан с таким номером.

Кроме того, предлагается закрепить обязанность финансовых организаций и операторов связи возмещать украденные средства, если они не смогли предотвратить мошенничество. По мнению сенатора, это станет стимулом для совершенствования систем защиты.

Что дальше:

Законодатели намерены продолжать работу над понятиями и механизмами регулирования ИИ. Главная цель — найти баланс между безопасностью и развитием технологий.

Дорогие читатели, если вы увидели ошибку или опечатку, помогите нам ее исправить! Выделите ошибку и нажмите одновременно клавиши «Ctrl» и «Enter». Мы узнаем о неточности и как можно скорее исправим.