Отсутствие маркировки у контента, созданного при помощи искусственного интеллекта, должно насторожить пользователя. Такой материал можно будет отправить на проверку, а при выявлении нарушений — удалить или заблокировать. Эти меры обсуждают российские парламентарии, готовясь к комплексному регулированию технологий ИИ и борьбе с дипфейками.
Первый зампред комитета Совета Федерации по конституционному законодательству Артем Шейкин в интервью «Парламентской газете» объяснил, почему важно закрепить в законе определения «искусственный интеллект» и «дипфейк», а также как будет выстраиваться баланс между развитием технологий и безопасностью.
Почему нужно юридически определить искусственный интеллект:
Сегодня ИИ уже активно применяется в самых разных сферах — от медицины до транспорта. Но с точки зрения права его, по сути, не существует.
«Регулировать то, чего нет, — это как ловить руками дым», — говорит Артем Шейкин.
Сенатор предлагает закрепить определение, которое описывает ИИ как автономную технологию, способную решать когнитивные задачи и достигать результатов, сопоставимых с человеческими или превосходящих их. При этом важно подчеркнуть: искусственный интеллект не имитирует деятельность человека, а решает задачи принципиально иным способом.
Ответственность: разработчик или пользователь?
Пожалуй, один из самых сложных вопросов. По словам Шейкина, ответственность должна быть комплексной — и на стороне создателей технологий, и на стороне их пользователей. Но пока чёткого механизма распределения ответственности нет ни в России, ни в других странах.
Четыре принципа регулирования:
Чтобы не «задушить» развитие ИИ чрезмерным контролем, парламентарии предлагают гибкий риск-ориентированный подход. Шейкин выделяет четыре ключевых принципа:
Дифференциация рисков — от низких (например, мобильные фоторедакторы) до высоких (образование, медицина, транспорт).
Технологическая нейтральность — важнее сама безопасность решения, чем конкретный инструмент.
Экспериментальные правовые режимы — временное снятие ограничений для тестирования технологий.
Одна проверка — признание везде — сертификат, выданный единым органом, должен быть действителен во всех структурах.
Дипфейки - угроза и борьба:
Фейки с применением нейросетей — от поддельных видео до «голосов» известных людей — уже стали инструментом мошенничества.
«Дипфейк — зло, которое только набирает обороты», — подчёркивает Шейкин.
Чтобы минимизировать риски, предлагается:
ввести в законодательство определение дипфейка,
обязать маркировать контент, созданный с помощью ИИ,
стимулировать внедрение цифровых водяных знаков и систем автоматического распознавания подделок,
усиливать просвещение пользователей.
Отдельный акцент делается на молодёжи, которая особенно уязвима перед новыми схемами интернет-мошенников.
Как будут защищать пользователей:
Новый механизм предполагает создание единой базы телефонных номеров, замеченных в мошеннических атаках. Банки смогут автоматически блокировать операции, если звонок или перевод связан с таким номером.
Кроме того, предлагается закрепить обязанность финансовых организаций и операторов связи возмещать украденные средства, если они не смогли предотвратить мошенничество. По мнению сенатора, это станет стимулом для совершенствования систем защиты.
Что дальше:
Законодатели намерены продолжать работу над понятиями и механизмами регулирования ИИ. Главная цель — найти баланс между безопасностью и развитием технологий.