принятые с помощью нейросетей решения госорганов будет можно оспорить

Чтобы защитить пользователей интернета от сгенерированного противоправного контента, Минцифры будет предъявлять к разработчикам искусственного интеллекта особые требования. Например, придется маркировать сгенерированные материалы, а также нести ответственность за вред, который принесли нейросети.

Минцифры разработало базовый законопроект о госрегулировании технологий искусственного интеллекта. Документ предусматривает риск-ориентированный подход к регулированию ИИ. Требования к системам будут различаться в зависимости от степени их влияния на жизнь человека.

Россияне смогут в досудебном порядке оспаривать решения госорганов и госкомпаний, принятые с применением ИИ. Если использование нейросетей причинило вред, человек получит компенсацию по общим правилам ГК РФ.

Разработчиков моделей нейросетей обяжут исключить дискриминационные алгоритмы и блокировать создание противоправного контента.

«Операторы систем ИИ должны тестировать их на безопасность и информировать пользователей об ограничениях. Владельцы сервисов будут оперативно принимать меры по недопущению его неправомерного использования», — сказано на сайте Минцифры.

Ответственность за противоправные действия будет распределяться между разработчиком, оператором системы, владельцем сервиса и пользователем.

Все созданные ИИ материалы будут со специальной маркировкой, а если ее нет, то крупные соцсети должны поставить такую маркировку или удалить контент.

Ожидается, что закон вступит в силу с 1 сентября 2027 года.

Узнайте, как ИИ помогает бухгалтеру выйти на аутсорс и зарабатывать больше: смотрите запись вебинара!

Читать далее https://www.klerk.ru/buh/news/684104/

Точка