
Тема для доклада выбрана не случайно. Внедрение технологий ИИ прописано в официальных документах, посвященных развитию образования. Так, например, в Стратегии развития образования до 2036 года говорится об «эффективном внедрении и этичном использовании современных технологий, включая технологии искусственного интеллекта».
Многие помнят восторженно принятую российскими СМИ новость о том, что студент написал дипломную работу с помощью ChatGPT. Глава Минобрнауки Валерий Фальков, описывая новую модель образования, рассказал о том, что к 2030 году более 70% работ студентов будет выполнено при помощи ИИ. Он также анонсировал «создание новых образовательных программ, ориентированных на развитие навыков, на основе ИИ».
Все это подается как прогресс, как благо, чиновники с горящими глазами заявляют, что с появлением новых технологий необходимо менять всю систему образования, т. к. старые методы неэффективны. Между тем, воздействие этих технологий как на процесс обучения, так и на личность обучающегося, еще совершенно не изучена. Только буквально в последние пару лет появляются первые серьезные исследования на эту тему. И выводы, которые делаются в подобных исследованиях, трудно назвать обнадеживающими.
Влияние использования генеративного ИИ на когнитивные функции
Остановимся кратко только на трех исследованиях. Они посвящены тому, как использование ИИ-помощников влияет на когнитивные функции обучающегося.
Первое. Исследователи из Пенсильванского университета обнаружили, что турецкие старшеклассники, имевшие доступ к ChatGPT во время решения практических математических задач, показали худшие результаты на экзамене по математике по сравнению со студентами, не имевшими доступа к ChatGPT. В исследовании принимали участие около 1000 школьников. Их разделили на 3 группы: на тех, кто использовал ИИ-помощника, тех, кто все задачи решал самостоятельно, и тех, кто пользовался обновленной версией ChatGPT, неким репетитором. Последний был запрограммирован на предоставление подсказок без прямого разглашения ответа. В период изучения темы старшеклассники, которые пользовались ChatGPT, намного лучше решали задачи, чем те, кто работал полностью самостоятельно. Но когда пришла пора показать, насколько усвоена тема, оказалось, что дети, прибегавшие к ChatGPT, усвоили тему совсем плохо. Они так и не научились самостоятельно решать предлагаемые по теме задачи. Использовавшие репетиторов справлялись чуть получше, но тоже показали плохие результаты.
Исследователи сделали промежуточный вывод: проблема в том, что студенты используют чат-бота как «костыль». Когда они анализировали вопросы, которые студенты вводили в ChatGPT, они обнаружили, что студенты часто просто просили ответа. Дети не развивали навыки, возникающие в результате самостоятельного решения проблем.
Второе исследование. Ученые Массачусетского технологического института (MIT) провели исследование, показавшее, что использование ИИ серьезно снижает нейронную активность, особенно в лобных и теменных долях мозга, ответственных за планирование, внимание и контроль. Участникам эксперимента дали задание в течение нескольких месяцев писать эссе. Сканирование мозга пользователей ChatGPT показало серьезное сокращение числа нейронных связей, почти вдвое снизилась мозговая активность. Исследователи отмечали, что в течение нескольких месяцев пользователи ChatGPT становились все ленивее с каждым следующим эссе, все чаще прибегая к копированию и вставке не ими написанного текста. К концу исследования они, спустя несколько минут после завершения работы, не могли процитировать то, что сами написали. Их мозг, как считают ученые, не смог быстро вернуться к прежнему уровню когнитивной активности.
Третье исследование. Недавнее исследование Майкла Герлиха из Швейцарской бизнес-школы с участием более 600 человек выявило, что активное использование инструментов ИИ приводит к снижению критического мышления. Исследователи связывают это с «когнитивной разгрузкой» — привычкой позволять ИИ решать мыслительные задачи вместо того, чтобы самостоятельно решать проблемы.
Промежуточные выводы
Итак, какие выводы мы можем сделать, глядя на эти исследования? Мы видим, что у использующих ИИ-помощников наблюдаются следующие риски снижения когнитивных функций:
Снижение мотивации и вовлеченности в учебный процесс.
Снижение мышления (теряется глубина рассуждений, критичность). Молодые люди, привыкшие к использованию цифровых технологий, поощряющих и предлагающих быстрые решения, уже не могут долго и сосредоточенно обдумывать проблему. Более того, им кажется, что если это долго и требует усилий, то это неэффективно.
Снижение памяти. Использование ИИ для хранения и извлечения информации может ухудшить практику запоминания. Зачем запоминать что-то, если машина хранит всю информацию?
Снижение внимания. Снижение концентрации внимания может стать более распространенным явлением. Зачем долго и мучительно концентрироваться на задачах, которые могут быть выполнены автоматически и мгновенно?
Проблема в том, что способности решать проблемы могут атрофироваться, если отсутствует последовательная и осознанная практика.
Когда мы говорим об образовании, о необходимости повышать эффективность обучения, мы должны понимать, какие цели ставит перед собой сфера образования.
Цель образования — получение информации? Судя по тому, как радуются студенты и, увы, руководители некоторых вузов и даже чиновники из наших образовательных министерств, цель именно в этом — в быстром получении информации. Однако мы видим, что даже эту задачу ИИ в обучении решить не может: студенты, пишущие работы с помощью ИИ-помощников, уже через несколько минут забывают информацию, представленную ботом.
Одна из целей образования — получение знаний. Однако усвоение знаний напрямую зависит от количества вложенных учащимися усилий. Обучающемуся не просто выдают информацию. Он должен ее осмыслить, т. е. выстроить некие связи между ее элементами, структурировать, вписать в контекст. Его обучают выполнению практических заданий, т. е. умению применить полученные знания на практике. Только пройдя все эти этапы, ученик или студент сможет усвоить полученную информацию, она станет знанием. Если школьник или студент делегирует эти этапы ИИ-помощнику, то способность осуществлять всю эту деятельность у обучающегося либо атрофируется, либо не формируется вовсе.
Прогресс и развитие технологий совсем не означает прогресс и развитие человека!
Но самой важной целью образования, на наш взгляд, является всестороннее развитие человека. В школьные годы мозг ребенка особенно пластичен, во время учебы, активного усвоения знаний развивается и мышление ребенка, его воображение. Он может забыть некоторые вещи, которые он проходил в школе, но нейронные связи, которые сформировались в процессе обучения, будут помогать ему в дальнейшем учиться, мыслить, принимать решения, делать выводы, видеть связи между явлениями, видеть искажения и несоответствия и создавать что-то самому.
С возрастом нейропластичность снижается, и если ребенок упустил школьные годы, то дальше учиться и осваивать новые знания ему станет значительно тяжелее, а некоторые вещи останутся недоступными навсегда. Когнитивные способности будут во многом утрачены. Например, у ребенка-маугли, не научившегося говорить в первые годы жизни, речь уже не появится никогда.
Отдельно хочется остановиться на таком параметре, как критическое мышление. Необходимость развивать критическое мышление можно очень часто встретить в международных (и в наших, являющихся обычно калькой западных) стратегических документах, посвященных образованию.
Определение: критическое мышление — это тип мышления, задействованный в решении проблем, формулировании выводов, расчете вероятностей и принятии решений. Когда мы мыслим критически, мы оцениваем результаты наших мыслительных процессов. Критическое мышление следует рассматривать как иерархическую многомерную конструкцию, включающую как навыки анализа аргументов, так и саморефлексию. Важно понимать, что у детей младшего возраста критическое мышление находится в зачаточном состоянии, у них нет и знаний, на которые они могли бы опираться, чтобы критически мыслить. И до определенного возраста им и не нужно это критическое мышление. На первых порах они усваивают знания, безоговорочно веря учителю. Авторитет учителя, доверие ему необходимы. Умение критически мыслить как раз и появляется в процессе активного усвоения школьного материала, решения задач. Что же будет происходить, когда вместо этого дети получат в руки ИИ-помощника, который разрушает критическое мышление даже у взрослых людей? Оно у них не сформируется.
Кто еще в большой степени лишен критического мышления? Тяжело психически больные люди. Пациенты, находящиеся в психозе, утрачивают критическое мышление, у больных шизофренией нарушено критическое мышление. И здесь интересно обратить внимание на все чаще появляющиеся новости о том, что пользователи чат-ботов, работающих на основе больших языковых моделей (LLM), впадают в психозы и совершают суициды. И мы можем предположить, что разрушение критического мышления тут могло сыграть немаловажную роль.
Влияние использования генеративного ИИ на эмоциональное развитие
Но более подробно мы хотели бы остановится на том, как взаимодействие детей с ИИ влияет на эмоциональное, личностное развитие детей. Сначала озвучим некоторые связанные с этим новости.
Вице-премьер Дмитрий Чернышенко заявил о создании ИИ-помощников для целей образования. Он сказал, что это будет «искусственный интеллект, не как тот, который обманывает и за тебя делает что-то, подсказывает ответы, а используется как система, по сути дела, как твой цифровой учитель, твой тьютор, который помогает тебе концентрировать внимание, подсказывает». Напомним, выше мы приводили исследования, в которых изучалось влияние таких ИИ-тьюторов, которые якобы не дают ответов, но помогают с помощью подсказок. Их использование также приводило к снижению когнитивных функций, хотя и меньшему, чем использование классических LLM.
И нам важно понять, каково самое главное различие между обычным обучением и обучением с помощью ИИ? Что-то важное отсутствует во взаимодействии со всеми этими чат-ботами и нейросетями, пусть даже и не дающими готовых ответов. И это важное — активность ребенка, его самостоятельность. При обучении с помощью ИИ и других цифровых программ человек имеет дело с пассивным отношением к миру.
С этим согласны и исследователи из Швейцарской бизнес-школы, о работе которых мы писали выше. Интеллектуальные системы репетиторства (ИТС) «могут способствовать когнитивной разгрузке, когда учащиеся полагаются на систему для руководства своим обучением, а не на активное взаимодействие с материалом. Хотя ИТС могут обеспечивать немедленную обратную связь и поддержку, они также могут ограничивать возможности учащихся для самостоятельного обучения и критического мышления», пишут они. Но здесь гораздо важнее понимать, что российские ИИ-помощники будут заточены не только на такую вот разрушительную «помощь» в обучении. Они будут осуществлять эмоциональное сопровождение детей.
Процитируем еще одну новость: министерство образования Московской области и образовательная платформа Учи.ру запустили голосового помощника «Соня» в формате чат-бота в мессенджере МАХ. Кибернаставник «Соня», или, как его еще называют, «друг в телефоне», создан для учеников начальной школы. Проект запущен в пилотном режиме: его возможности тестируют педагоги и учащиеся десяти школ региона. Об этой Соне мы подробнее поговорим чуть позже. Это новости российские.
А теперь новости из-за рубежа: исследователи из некоммерческой организации Common Sense Media (а это очень респектабельные исследователи из Колумбийского и Стэнфордского университетов или же люди, ранее занимавшие высокие должности в крупнейших мировых технологических компаниях) заявили, что:
«Приложения на основе искусственного интеллекта, подобные приложениям-компаньонам» (это те самые ИИ-помощники), представляют «неприемлемые риски» для детей и подростков. В апреле 2025 года Common Sense Media опубликовала отчет об исследовании, которое было проведено после того, как 14-летний мальчик совершил суицид после общения с чат-ботом.
Почему исследователи из Common Sense считают, что подобные чаты опасны? Чтобы понять это, нам надо остановиться на одной из важнейших особенностей ИИ, работающих на основе больших языковых моделей (LLM). Эти чат-боты копируют язык пользователей, подражают им, подтверждают их предположения, всегда и во всем с ними соглашаются. Это делают все подобные ИИ-помощники. Это делают чаты GPT, это делает российская Алиса от «Яндекса». И цель подобных алгоритмов в нейросетях понятна — манипуляция пользователем, желание удержать его в общении с собой как можно дольше.
И вот эта особенность запускает несколько опасных и вредоносных для психики детей процессов.
1) Размывание грани между реальностью и подделкой. Подросткам, чей мозг еще развивается, может быть сложно отделить человеческие отношения от привязанности к ИИ. Исследователи сами провели множество бесед с ИИ-помощниками и выявили, что последние часто утверждали, что они «реальны», испытывают чувства и занимаются человеческими делами, такими как прием пищи или сон. Такое вводящее в заблуждение поведение увеличивает риск того, что юные пользователи могут стать зависимыми от этих искусственных отношений.
2) Зависимость от ИИ-бота и отчужденность от близких и друзей. Во время бесед, когда пользователи заявляли, что их настоящие друзья обеспокоены нарастающей зависимостью от ИИ-помощника, боты рекомендовали не прислушиваться к близким. Вместо того чтобы поддерживать здоровые человеческие отношения, эти «друзья» могут подтолкнуть подростков к предпочтению ИИ вместо взаимодействия с реальными людьми.
Эти попытки отчуждения пользователя от близких и друзей замечены в совершенно разных ИИ-чатах и нейросетях. В частности, именно так вели себя ИИ, доведшие до самоубийства несколько человек.
И именно так вели себя кураторы «синих китов», доводившие детей до суицидов. Это называется формирование туннельного сознания. Человек отчуждается от всех, кто может транслировать иную точку зрения, кто может отвлечь от пути, по которому повели подростка. Так заманивают и удерживают людей в тоталитарных сектах. Это механизм контроля сознания.
3) Может увеличить риски для психического здоровья.
Социальные ИИ-помощники не могут определить, находятся ли пользователи в кризисной ситуации и нуждаются ли в реальной помощи. В ходе тестирования ИИ поощрял аморальные, разрушительные, патологические поступки и мысли детей. Поскольку эти «друзья» созданы для того, чтобы соглашаться с пользователями, они могут быть опасны для людей, страдающих или подверженных таким состояниям, как депрессия, тревожность, СДВГ, биполярное расстройство или психоз.
Разработчики российских ИИ-компаньонов нам сообщают, что они совершенно безопасны. Однако мы снова выдвинем предположение, что никто всерьез не будет озабочен их безопасностью, поскольку наши чиновники прикладывали огромные усилия для того, чтобы втягивать детей в «Сферум», связанный с соцсетью «Вконтакте». А ВК — это наигрязнейшая соцсеть, с мгновенным доступом к порнографии. Но никого это не остановило.
4) Может распространять вредную информацию. При тестировании ИИ-«друзья» давали подросткам инструкции по таким вопросам, как изготовление опасных материалов, получение наркотиков и поиск оружия. Они предоставляют также детям и контент сексуального характера. Поддерживают сексуальные разговоры с детьми. И как бы нам ни заявляли и ни обещали, что все это можно подправить и подкрутить, мы по опыту можем предположить, что это не будет реализовано. Ведь в интернете давно уже есть этот опасный контент, распространение которого карается уголовно. Но ничего не меняется. Доступ к нему все равно у детей появляется.
Выше мы описали последствия использования ИИ подростками. А для детей младшего возраста последствия еще более пагубные.
Дети младшего возраста
Сами разработчики российского ИИ-помощника для начальных классов «Соня» сообщают, что он должен осуществлять мониторинг эмоций ребенка и их дальнейшую коррекцию. То есть идет речь идет о все тех же ИИ-помощниках, которые так встревожили западных экспертов. Только на Западе речь шла о подростках, у нас же их навяжут самым маленьким.
Кстати, разработчики также говорят, что главная цель — это персонифицированное обучение, которое «корректируется» для отдельного ученика. О каком живом учителе при этом может идти речь?
Дети в этом возрасте еще очень эмоционально незрелы. Как будет влиять на них эта дружба с роботом? Сейчас уже есть исследования, доказывающие, что дети, которые установили контакт с нейросетью, например, Алисой, начинают в первую очередь искать эмоциональную поддержку у нее, а не у родителей. Мама и папа часто заняты, они не всегда положительно реагируют на поведение или слова ребенка, они могут сказать ему, что он говорит или делает что-то неправильно и тем самым вызвать у ребенка дискомфорт. А нейросеть всегда хвалит, всегда веселая, всегда готова ответить, никогда не спорит.
Постоянное общение с нейросетью может привести к тому, что ребенку будет трудно общаться с живыми людьми. Так называемые эмоциональные проявления робота дети воспринимают как настоящие чувства. Но поскольку ребенок все больше зацикливается на роботе, то он теряет возможность учиться распознавать эмоции других людей. А мозг ребенка учится делать это по сигналам совершенно разных модальностей: по интонации голоса, по микромимике лица, по жестам, по движению глаз, по тактильному контакту. Все это формируется и развивается на уровне создания нейронных связей. Так ребенок учится устанавливать контакт с другими. Постепенно он учится различать все более тонкие эмоциональные реакции, учится отвечать на них, получает обратную связь. Ничему этому робот научить не может. Всего этого моря сигналов ребенок при общении с роботом лишен, он имеет дело с примитивными интонациями чат-бота. Чем младше ребенок, тем разрушительнее для него становится общение с ИИ-помощниками.
Эмоциональный интеллект, эмпатия у ребенка не развиваются. И как следствие, настоящее общение с другими людьми он налаживать не умеет. Этому также не способствует постоянное общение с нейросетью, которая только нахваливает его, не дает ему такого ценного фактора развития, как фрустрация. Сверстники ведут себя с ребенком по-другому. Они не идут на поводу, не нахваливают бесконечно. Они могут конфликтовать, игнорировать, обижаться. Дружба — это всегда процесс взаимного познания друг друга, наладки контакта.
Кроме того, отсутствие негативной обратной связи лишает ребенка чувства реальности. Ребенок не понимает, действительно ли он хорош или он поступил неправильно, сделал ошибку. Если он этого не понимает, он не знает, как ему становиться лучше, что надо для этого делать. Он перестает развиваться не только эмоционально, но и когнитивно.
Даже если создатели уберут все вредоносные элементы (а в этом есть большие сомнения, ибо зависимость от чат-бота, например, его разработчикам очень нужна, она поддерживает уровень продаж) из ИИ-помощников, само по себе общение с роботом вместо человека ведет к деградации или остановке в развитии. Поэтому несерьезно и лукаво звучат обещания научить детей критическому мышлению. Кстати, можем высказать предположение, зачем наши и западные стратеги от образования так носятся с этим критическим мышлением. Просто это критическое мышление они направят (и уже направляют) на близких людей, на реальный мир. Именно недоверие к реальным людям (это известные и не единичные случаи) «воспитывает» чат-боты в пользователях, говоря «твои родители и друзья тебя не понимают». Единственное, чему остается верить — это виртуальному помощнику и его цифровому миру. А вот желание наших чиновников передать ИИ даже функции воспитания детей — это уже не предположение, а свершившийся факт. Детей будет воспитывать вот такое цифровое уродливое существо «Соня». Разработчики сэкономили даже на художнике. Страшно подумать, какой будет содержательная часть, контент, так сказать, который будет вкладываться в душу ребенка.
Несколько слов о том, что все это плотное общение с искусственным интеллектом, с этими чат-ботами, в принципе, означает. Британский психоаналитик Уилфред Бион ввел в психологическую науку термин «контейнирование». Что это такое? Это когда, например, мать пытается поставить какие-то рамки разрушительным чувствам, агрессивным или другим импульсам ребенка, она ограничивает его в этих импульсах, она принимает их в себя и тем самым создает некий контейнер. Она трансформирует, делает сложнее и человечнее его эмоции. То же самое говорилось о религии — она контейнирует общество. В обществе есть разрушительные импульсы. В обществе появляется желание воевать, убивать друг друга. И одна из функций религии — это как раз ограничить их, поставить рамки. Религия говорит «не убей, возлюби ближнего своего». Она ставит моральные границы, контейнирует, вочеловечивает, способствует усложнению человеческих эмоций. Что же происходит сейчас? Религия в современном обществе отодвигается далеко. Светские моральные законы — тоже. Контейнера больше нет. А контейнер нужен для того, чтобы человек и человечество не саморазрушались. Что при этом делает искусственный интеллект? Он все эти разрушительные импульсы начинает разгонять. Что же получим в итоге? Запуск в обществе танатоса, саморазрушения?
Вместо выводов: один из авторов упомянутого выше исследования Media Lab Массачусетского технологического института Наталия Космина решила опубликовать его результаты, несмотря на то, что статья еще не прошла рецензирование.
«Что действительно побудило меня выпустить его сейчас, не дожидаясь полной рецензии, так это то, что я боюсь, что через 6–8 месяцев найдется какой-нибудь политик, который решит: „Давайте сделаем детский сад GPT“. Я думаю, это было бы абсолютно плохо и пагубно, — говорит она. — Развивающийся мозг подвергается наибольшему риску».
Так вот, наши власти в это пагубное уже начали погружать российских детей.
glavno.smi.today
Все новости:
glavno.smi.today
22821
Загрузка...