новости
технологии

В России обсуждают запрет «угрожающего» искусственного интеллекта

Законопроект предлагает классификацию рисков ИИ, маркировку контента и ответственность разработчиков

В России ведется обсуждение проекта закона о регулировании искусственного интеллекта (ИИ), разработанного рабочей группой с участием экспертов и представителей IT-рынка. Законопроект «О регулировании систем искусственного интеллекта (ИИ) в России» предлагает ввести классификацию систем ИИ по уровню риска, запретить системы с «неприемлемым уровнем риска», а также ввести обязательную маркировку ИИ-контента и ответственность разработчиков за вред, причиненный нейросетями, сообщает РБК.

Согласно проекту, системы ИИ будут классифицироваться на четыре уровня риска: неприемлемый, высокий, ограниченный и минимальный. Разработка и использование систем с «неприемлемым уровнем риска», создающих угрозу безопасности и нарушающих права граждан, предлагается запретить. Для систем высокого риска, применяемых в чувствительных сферах, таких как здравоохранение и финансы, предусмотрена обязательная государственная регистрация и сертификация. Законопроект также вводит понятие маркировки контента, созданного с помощью нейросетей и устанавливает ответственность разработчиков и операторов систем ИИ за причиненный вред.

Несмотря на активное обсуждение, в Госдуме пока не ожидают скорого принятия закона, регулирующего всю сферу ИИ. Законодатели планируют сконцентрироваться на точечных отраслевых решениях, в частности в сфере маркировки такого контента. Участники рынка выражают опасения, что избыточное регулирование может замедлить развитие отечественной индустрии искусственного интеллекта, ссылаясь на негативный опыт ЕС, где жесткое регулирование, по их мнению, сдерживает инновации и конкурентоспособность европейских компаний.