В России готовят запрет опасного ИИ

Дата публикации: 11 апреля 2025, 12:30
Просмотры: 2 494
В России готовят запрет опасного ИИ

Речь идет об угрожающем человеку уровне развития и действий искусственного интеллекта

ФОТО: https://grozny.tv/news/society/61386

Вопрос государственного регулирования ИИ  с высоким уровнем опасности назрел, его обсуждают эксперты, участники рынка, депутаты. Готовится запрет систем с «неприемлемым уровнем риска». Скорее всего, будет введена и маркировка контента  вместе с ответственностью разработчиков за вред, нанесенный нейросетями.

 Похоже, в скором времени в ГД РФ может поступить уже готовый проект законодательного регулирования искусственного интеллекта в России. Он называется «О регулировании систем искусственного интеллекта (ИИ) в России». Стоит отметить, что именно по поручению Председателя  ГД РФ Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ».

Интересно, что в ближайшие месяцы должны появиться еще несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы».

 В любом случае, законодательного оформления требует ряд моментов. В частности, надо:

 — ввести понятие искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека).

 — ввести понятие технологий ИИ (к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.).

 — ввести понятие систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии), разработчика, оператора и пользователя подобных систем и др.

 — ввести требования к маркировке систем ИИ, то есть обязательному информационному обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой».

 — ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска.

А еще в обязательном порядке стоит запретить в России разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска.

Нельзя, чтобы ИИ создавал угрозу безопасности личности, общества и государства, нарушал основополагающие права и свободы человека и гражданина.

СПРАВКА

Для определения, кому принадлежат права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека. Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку, если не было, то оператору системы ИИ (действует в течение 50 лет).

Комментарии:

0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest
0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
смотреть все

Сейчас читают

Самые популярные новости и события на нашем сайте.

Подпишитесь на нашу рассылку

наверх