Разделы
Вернуться назад
Пользователи верят предвзятой информации от ИИ несмотря на предупреждения
Пользователи верят предвзятой информации от ИИ несмотря на предупреждения
Чат-боты с искусственным интеллектом, такие как ChatGPT, Claude и Gemini, способны оказывать огромное влияние на общественное мнение. Ученые доказали, что люди в значительной степени принимают предвзятую информацию, предоставленную искусственным интеллектом, даже если их об этом предупреждают.

Команда исследователей из Корнеллского и Вашингтонского университета в США, а также из немецкого Университета Баухауса и израильского Тель-Авивского университета выяснила, что влияние искусственного интеллекта перевешивает «аналогичные предложения, представленные в виде статического текста», сообщает 24 марта агентство dpa.

После того как 2500 участников попросили обратиться к искусственному интеллекту при написании текстов на такие важные для общества темы, как смертная казнь и гидроразрыв пласта, выяснилось, что их ответы в значительной степени «соответствовали позиции платформы», как пишут исследователи в статье, опубликованной в журнале Science Advances.

Они также отметили, что информирование участников о предвзятости ИИ до или после выполнения заданий «не снижает эффект изменения отношения».

Тесты показали, что люди даже «тяготеют» к искусственному интеллекту, независимо от того, настроен ли бот на левую или правую, либеральную или консервативную, точку зрения.

Исследователи обнаружили, что подход к текущим событиям, основанный на искусственном интеллекте, «способен менять отношение к различным темам и политическим взглядам». Они запрограммировали ботов так, чтобы они придерживались левых взглядов в вопросах, связанных со смертной казнью и генетически модифицированными организмами, и правых — в вопросах, касающихся гидроразрыва пласта и права на голосование для лиц, совершивших уголовные преступления.

Исследователи обнаружили, что участники эксперимента неизменно меняли свою точку зрения в соответствии с позицией ИИ.

«Мы предупреждали людей и до, и после, что искусственный интеллект будет (или уже стал) предвзятым, но это не помогало», — сказал Мор Нааман из Корнеллского университета.

Эти выводы перекликаются с результатами исследования Университета Южной Калифорнии, согласно которому искусственный интеллект может настолько стандартизировать речь и мышление, что у пользователей может атрофироваться способность к рассуждению.

В исследовании, проведенном в 2024 году лондонским Центром политических исследований, утверждается, что в ответах 23 из 24 ИИ-платформ на вопросы о государственной политике «почти во всех категориях» прослеживается «политическая предвзятость в пользу левых сил», напоминает dpa.




Новости часа:


  Загрузка...