
Беспрецедентные меры контроля над искусственным интеллектом (ИИ) вводят власти Китая 25 декабря сообщает The Wall Street Journal.
Новые меры вызваны опасениями Компартии Китая утратить власть из-за развития нейросетей, которые могут генерировать ответы на запросы о запрещенных темах, «подрывающих государственную власть».
В связи с этим вводятся новые правила, включающие обязательную цензуру данных, на которых обучается ИИ. А также вводятся «идеологические тесты» перед релизом моделей нейросетей.
Согласно новым правилам, ИИ-компании обязаны вручную проверять обучающий материал. 96% контента дожно быть признано «безопасным», чтобы нейросети могли учиться на нем.
Список «небезопасного» состоит из 31 риска. Главный — любые намеки на «подрыв государственной власти и свержение социалистической системы». Следующими названы: пропаганда насилия, фейки, дискриминация, использование чьей-то внешности без разрешения.
Несмотря на заявление Си Цзиньпина о «беспрецедентных рисках», которые несет ИИ, власти понимают, что чрезмерное ужесточение контроля затормозит страну в глобальной ИИ-гонке. Поэтому необходим баланс между инновациями и ограничениями, чтобы усидеть на двух стульях. Пока Китаю это удается и конкурентоспособность китайских аналогов DeepSeek сохраняется.
В ноябре 2025 года власти Китая ввели новые правила для разработчиков ИИ. WSJ сравнивает многоуровневую систему контроля с кухней ресторана: на входе «ингредиенты», то есть данные для обучения, а на выходе — «блюда», то есть ответы нейросети. Новые правила определяют, какие «ингредиенты» можно добавлять, а затем «пробуют блюдо перед подачей».
Кроме того, была введена обязательная регистрация пользователей нейросетей по паспорту или номеру телефона. ИИ-компании обязали сохранять запросы пользователей, касающиеся запрещенных тем и докладывать представителям власти.
glavno.smi.today
Все новости:
glavno.smi.today
16206
Загрузка...