Министерство цифрового развития России представило проект федерального закона, который призван установить четкие правила регулирования искусственного интеллекта (ИИ). В соответствии с опубликованным предложением, на законодательном уровне вводится риск-ориентированный подход, который определяет уровень требований к ИИ-системам в зависимости от их влияния на людей и общество.
Основные положения законопроекта
Проект закона включает в себя определения таких понятий, как суверенная, национальная и доверенная модели ИИ. Важно отметить, что каждый гражданин получит право обжаловать решения государственных органов или компаний с госучастием, принятые на основе ИИ, без необходимости обращаться в суд. Кроме того, случаи причинения вреда от работы ИИ-систем будут подлежать компенсации согласно гражданскому праву.
Безопасность и ответственность
Введенные нормы призваны повысить защиту граждан при автоматизированном принятии решений. Разработчики ИИ теперь обязаны избегать дискриминационных сценариев и исключать возможность создания незаконного контента. Операторы таких систем должны проводить тестирования на безопасность и информировать пользователей о возможных рисках. Владельцы платформ, в свою очередь, должны оперативно блокировать неправомерные действия с технологиями.
Маркировка контента и контроль
Минцифры также сообщило, что все аудиовизуальные материалы, созданные с использованием ИИ, будут обязаны иметь маркировку в виде предупреждения. Крупные социальные сети будут контролировать наличие маркировки, добавляя её самостоятельно или удаляя контент в случае ее отсутствия.
По плану, законопроект вступит в силу 1 сентября 2027 года, устанавливая ясные рамки для деятельности разработчиков, бизнеса и государственных структур. Это может значительно снизить риск манипуляций и предвзятости алгоритмов, уверены в Минцифры.































