Разделы
Вернуться назад
Компартия Китая ужесточает меры контроля над ИИ, опасаясь утратить власть
Компартия Китая ужесточает меры контроля над ИИ, опасаясь утратить власть
Беспрецедентные меры контроля над искусственным интеллектом (ИИ) вводят власти Китая 25 декабря сообщает The Wall Street Journal.

Новые меры вызваны опасениями Компартии Китая утратить власть из-за развития нейросетей, которые могут генерировать ответы на запросы о запрещенных темах, «подрывающих государственную власть».

В связи с этим вводятся новые правила, включающие обязательную цензуру данных, на которых обучается ИИ. А также вводятся «идеологические тесты» перед релизом моделей нейросетей.

Согласно новым правилам, ИИ-компании обязаны вручную проверять обучающий материал. 96% контента дожно быть признано «безопасным», чтобы нейросети могли учиться на нем.

Список «небезопасного» состоит из 31 риска. Главный — любые намеки на «подрыв государственной власти и свержение социалистической системы». Следующими названы: пропаганда насилия, фейки, дискриминация, использование чьей-то внешности без разрешения.

Несмотря на заявление Си Цзиньпина о «беспрецедентных рисках», которые несет ИИ, власти понимают, что чрезмерное ужесточение контроля затормозит страну в глобальной ИИ-гонке. Поэтому необходим баланс между инновациями и ограничениями, чтобы усидеть на двух стульях. Пока Китаю это удается и конкурентоспособность китайских аналогов DeepSeek сохраняется.

В ноябре 2025 года власти Китая ввели новые правила для разработчиков ИИ. WSJ сравнивает многоуровневую систему контроля с кухней ресторана: на входе «ингредиенты», то есть данные для обучения, а на выходе — «блюда», то есть ответы нейросети. Новые правила определяют, какие «ингредиенты» можно добавлять, а затем «пробуют блюдо перед подачей».

Кроме того, была введена обязательная регистрация пользователей нейросетей по паспорту или номеру телефона. ИИ-компании обязали сохранять запросы пользователей, касающиеся запрещенных тем и докладывать представителям власти.




Новости часа:


Вам также может быть интересно
  Загрузка...