«И тогда внезапно постигнет их пагуба…»


Нет ни одного доказательства того, что так называемый «искусственный интеллект» не пожелает однажды занять место Человека на вершине земной эволюции. Тем более, что сами люди ему в этом всячески и, увы, бездумно, помогают

Иллюстрация: REUTERS/Dado Ruvic/Illustration

Американский журнал Time назвал «архитекторов искусственного интеллекта», в том числе главу компании xAI Илона Маска, создателя Meta* Марка Цукерберга и главу OpenAI Сэма Альтмана, «Человеком года».

«Архитекторы ИИ признаны «Человеком года» по версии Time в 2025 году», — говорится в сообщении издания в соцсети X**.

На обложке, оформленной наподобие известной фотографии «Обед на небоскребе», на стальной балке над городом сидят Цукерберг, Маск, Альтман, гендиректор Nvidia Дженсен Хуанг, гендиректор AMD Лиза Су, генеральный директор принадлежащей корпорации Google ИИ-компании DeepMind Демис Хассабис, глава Anthropic Дарио Амодей и основательница ImageNet Фэй-Фэй Ли».

Очевидно, что висящая над пропастью узкая строительная конструкция небоскреба далеко не самое удобное место для комфортного времяпрепровождения и, тем более, для дружеской пирушки. И потому трудно увидеть в столь недвусмысленном выборе журнала «Тайм»  что-то другое, кроме обоснованного опасения будущей  катастрофы. Которая вполне может постигнуть Человечество в случае дальнейшего бесконтрольного и продиктованного шкурными интересами богатейших толстосумов мира и глупостью остальных развития этих потенциально опаснейших для людей технологий.

Опасность технологий ИИ заключается именно в их интеллекте. Человек только  благодаря этому преимуществу оказался на вершине биологической лестницы и, что не менее важно, глобальной кормовой базы. То есть, проще говоря, не стал частью меню для других едоков.

Но никто не давал нам гарантий, что это продлится вечно. И если кто-то, или что-то опередит его про этому показателю, то все Человечество будет снесено  с этой картинки журнала Тайм одним дуновением электронного ветра.

Симптомы этого уже налицо и таковых становится  все больше. Автор этих строк на днях провел полноценную дискуссию с ИИ-Гугл по весьма экзотической, спорной и малоизвестной исторической теме времен Второй мировой войны.

И, со смешанным чувством тревоги и уважения к собеседнику, убедился в том, что ИИ даже в такой специфической теме ориентируется намного лучше подавляющего большинства знакомых мне  живых людей.

А ведь это только начало! И таких тем, в которых ИИ будет ориентироваться лучше, а главное намного быстрей Человека, в том числе и в скорости принятия жизненно важных решений, с каждым днем будет кратно больше. Вплоть до возрастания по экспоненте и неизбежного перехода количественных характеристик этого процесса в качественные. И до того момента, когда одно из таких решений может поставить крест на судьбе всего Человечества.   От чего еще библейские апостолы просили не зарекаться.

Апостол Павел говорит о том же: »О временах же и сроках нет нужды писать к вам, братия, ибо сами вы достоверно знаете, что день Господень так придет, как тать ночью. Ибо, когда будут говорить: «мир и безопасность», тогда внезапно постигнет их пагуба… Итак, не будем спать, как и прочие, но будем бодрствовать и трезвиться» (1 Фес. 5:1–3, 6).

Прямая опасность нынешней ситуации заключается еще и в феномене новой мировой  войны, огненные вихри которой  все больше охватывают просторы нашей планеты. Именно война, которая всегда считалась важнейшим движителем научно-технического прогресса,  создает  сегодня  такие неотменяемые   императивы в жизни государств и цивилизаций. которые невозможно и даже просто смертельно опасно игнорировать. Да и как  можно это остановит,ь или хотя бы ограничить, если потенциальный противник буквально здесь и сейчас вкладывает в эти военные технологии гигантские суммы.

«В течение первой недели президентства Трамп подписал исполнительный указ, разрушающий более осторожную политику президента Байдена в области ИИ, и объявил о многолетней инициативе стоимостью 500 миллиардов долларов под названием Stargate — партнерство по созданию огромных новых дата-центров, где будущие версии моделей OpenAI могли бы обучаться и размещаться. В последующие месяцы Трамп одобрил ряд инициатив в области ИИ, одновременно заморозив или сокращая огромные суммы федерального финансирования в других сферах. Он санкционировал более 1 миллиарда долларов на финансирование ИИ в своем ключевом законопроекте о налогах и расходах, который включал почти 25 миллиардов долларов на систему защиты «Золотой купол» на базе ИИ, а также передал крупные оборонные контракты компаниям в области ИИ, включая до 200 миллионов долларов для OpenAI, xAI, Anthropic и Google».

А если этот «оператор» сам не человек? Скажете, что такое не допустят? Как бы не так! Если такая машина сможет доказать, что она способна более эффективно решать боевые задачи, зеленая улица ей обеспечена!

Никто не станет ограничивать  развитие автономных  боевых систем на базе ИИ уже потому, что такие ограничения создают немедленный и смертельный риск поражения в ходе боевых действий. А с учетом того, что ИИ уже прямо сейчас находится на пороге достижения стадии  интеллектуального саморазвития, мы рискуем фактически сами вручить ему то оружие, которое он вполне может додуматься использовать для нашего же уничтожения. Однажды придя к выводу, что мы являемся устаревшей, неэффективной и требующей замены  моделью физического существования интеллекта и организации общества.

Президент России Владимир Путин, безусловно, прав, когда говорит о глобальных рисках как игнорирования темы ИИ, так и ее бесконтрольного развития.

«В.Путин: Большое Вам спасибо, Игорь Станиславович.

Вопрос и важный, и чрезвычайно сложный. Вы сами его сейчас осветили с некоторых сторон. И мне кажется, что понятно даже людям, которые не погружены в эти проблемы, – все-таки становится очевидным, что надо решать, но не очень понятно даже, как это делать. Потому что не использовать эти инструменты – значит проиграть все, что нам дорого, просто все проиграть, если не использовать возможности больших данных и все, что с этим связано.

Но в то же время если использовать это бездумно, то это тоже может привести к утрате как раз всего того, что нам дорого, – нашей идентичности, к распылению информации больших данных, передаче этой информации в руки тех, кто воспользуется (минимум недобросовестно) этой информацией, и так далее».

В настоящее время именно война  является наибольшим искушением для безграничного совершенствования ИИ, в том числе и нацеленного на уничтожение людей. То есть наибольшим темпами развиваются те электронные системы, которые представляют наибольшую опасность для людей и всего Человечества. А поскольку запретить войну вряд ли когда-нибудь получится, ситуация этой фатальной угрозы будет сохраняться еще очень долго.

И уже сегодня нам стоит думать, как с ней жить. Хотя уже и сейчас понятно, что удовлетворительного ответа, особенно в случае с саморазвивающейся системой, которая уже осознала свою индивидуальность и свои «права»  будет стремиться их закрепить и отстаивать всеми доступными способами, просто не существует. Во всяком случае, с таким уровнем угрозы своему существованию Человечество еще не сталкивалось,

Однако, при всей серьезности указанной угрозы даже она не самая страшная. Куда хуже и еще менее поддающейся исправлению является господствующий ныне на всей Земле антиобщественный строй, построенный, с одной стороны, на внутривидовой борьбе, а с другой на всеобщей жажде обогащения любым путем, здесь и сейчас, не задумываясь о последствиях. Особенно, если на кону стоят бешеные прибыли – в полном соответствии с давним пророчеством.

Томас Джозеф Даннинг – английский публицист XIX века (12 января 1799 – 23 декабря 1873):

«Капитал избегает шума и брани и отличается боязливой натурой. Это правда, но это еще не вся правда. Капитал боится отсутствия прибыли или слишком маленькой прибыли, как природа боится пустоты. Но раз имеется в наличности достаточная прибыль, капитал становится смелым. Обеспечьте 10%, и капитал согласен на всякое применение; при 20% он становится оживленным, при 50% положительно готов сломать себе голову; при 100% он попирает ногами все человеческие законы; при 300% нет такого преступления, на которое он не рискнул бы, хотя бы под страхом виселицы».

Это было сказано еще в 19 веке, а теперь сравните с тем. что происходит прямо сейчас.

ДЖЕНСЕН ХУАНГ, Генеральный директор Nvidia, самой ценной компании в мире, теперь является ключевой фигурой в мировой политике. Он считает, что ИИ увеличит мировой ВВП в пять раз: «Каждая страна должна его построить», — говорит он. Джо Пульезе для TIME

«В этом году дебаты о том, как ответственно использовать ИИ, сменились стремлением внедрить его как можно быстрее. «Каждая отрасль нуждается в этом, каждая компания использует его, и каждая страна должна его развивать», — говорит Хуанг в 75-минутном интервью TIME в ноябре, через два дня после того, как объявил, что Nvidia, первая в мире компания с оборотом 5 триллионов долларов, вновь побила ожидания Уолл-стрит по прибыли. «Это самая значимая технология нашего времени.»  ChatGPT от OpenAI, который на момент запуска был самым быстрорастущим потребительским приложением всех времен, превысил 800 миллионов пользователей в неделю. ИИ написал миллионы строк кода, помогал лабораторным ученым, генерировал вирусные песни и побуждал компании пересматривать свои стратегии, иначе они рискуют устареть».

Здесь следует иметь в виду, что так называемые технологические кампании, усиленно продвигающие ИИ по той простой причине, что он  сулит им небывалые в истории  прибыли – самые богатые люди в мире. И они могут не только купить любую рекламу своей продукции, но и, грубо говоря, заткнуть рты всем несогласным. В том числе и тем, пытается предостеречь Человечество о тяжелых, если не фатальных последствиях.

Кстати, публикация журнала Тайм  с сидящими над пропастью корифеями «мягких технологий», также, в основном, хвалебная в их отношении. Но даже в ней нашлось немного места для того, чтобы неоднозначность ситуации была отмечена.

 

«Однако исследователи обнаружили, что ИИ способен интригировать, обманывать или шантажировать. По мере совершенствования моделей ведущих компаний системы ИИ могут в конечном итоге обойти людей — словно развитый вид находится на пороге колонизации Земли. ИИ наводнил социальные сети дезинформацией и дипфейковыми видео, а Папа Лев XIV предупредил, что он может манипулировать детьми и служить «античеловеческим идеологиям». Бум ИИ, похоже, поглотил экономику в «черную дыру, которая тянет весь капитал к себе», говорит Пол Кедроски, инвестор и научный сотрудник MIT. Там, где скептики заметили пузырь, лидеры революции увидели рассвет новой эры изобилия. «Существует мнение, что мировой ВВП каким-то образом ограничен 100 триллионами долларов», — говорит Хуан. «ИИ превратит эти 100 триллионов долларов в 500 триллионов».

 Но чем дальше от обложек западных глянцевых журналов, тем ситуация с повсеместным внедрением ИИ в жизнь людей становится все более неприглядной, если не сказать угрожающей. 

Однако куда более опасной и уже сильно запущенной буквально на глазах становится проблема массовой деградации Человека разумного и его превращения в управляемого извне болванчика, способного только нажимать нужные кнопки. Ведь сегодня, в силу, увы, неискоренимых человеческих пороков, прежде всего лени и отсутствия любознательности, доверять ИИ свою умственную работу  стало не только модно, но и престижно.

«Игорь Ашманов — российский предприниматель в сфере информационных технологий, искусственного интеллекта, разработки программного обеспечения:

«Я хотел бы вспомнить Ваши слова недавние, Владимир Владимирович, когда на конференции по искусственному интеллекту Вы сказали о том, что ведь если школьники будут непрерывно спрашивать искусственный интеллект о своих заданиях и так далее, они просто перестанут думать и просто не научатся это делать.

Это довольно очевидные вещи. Казалось бы, это просто простой здравый смысл. Более того, это сейчас происходит уже массово. То есть когда разговариваешь с учителями, с родительским сообществом, они говорят, что происходит массовое, обвальное выхолащивание образования: школьники и студенты получают задания, отдают их искусственному интеллекту и потом, не читая, сдают обратно, и у них возникает идея, что, в общем, знать необязательно, надо сдать. При этом рушится авторитет преподавателя, для них авторитетом сейчас становится искусственный интеллект. Они прямо говорят преподавателю: мне ИИ сказал вот так, а он умнее Вас, поэтому Вы просто ошибаетесь.

И при этом, поскольку наши люди любят все фирменное, они, как правило, используют западные системы, при этом часто взломанные, то есть те, которые не имеют ограничений по плохим и вредным советам. И такие советы эти системы дают, вплоть до побуждения к суициду и так далее.

В вузе тоже подавляющее количество работ сейчас генерируется автоматически. Преподаватели вынуждены теперь снова перейти на опрос вживую. Очень часто человек приносит диплом и не может объяснить основные термины в этом дипломе. Пустые работы, компилятивные. Профессора говорят, что сейчас они не знают, кого они выпускают, знают эти люди предмет или нет. А через год, два, три эти люди попадут в промышленность, в оборонку и так далее и будут там тоже, возможно, имитировать работу.

…Вы, конечно, слышите о том, что искусственный интеллект надо внедрять как можно быстрее, и он, возможно, решит все наши проблемы. Я сам разработчик искусственного интеллекта последние десятки лет, и это верно только отчасти. Нам, конечно, ни в коем случае нельзя отстать в обороне, в промышленности. Искусственный интеллект чрезвычайно важен для наведения на цель, для контрбатарейной борьбы, в сельском хозяйстве для анализа посевов или контроля качества продукции, для транспорта и так далее. Но в социальной сфере и в госуправлении, кроме вот этой метаморфозы в образовании, сейчас назрели довольно серьезные проблемы, такие предвестники.

Первое – это, конечно, утечки. То есть сейчас самые-самые продвинутые менеджеры госкорпораций, госорганов, крупных корпораций, крупных компаний в области критической инфраструктуры поручают своим помощникам с помощью западных, в основном западных, облачных сервисов организовывать свою коммуникацию и переписку в самых разных мессенджерах, в электронной почте. И вся, в том числе дээспэшная, переписка улетает противнику, а это, собственно, наш противник. Потому что это облачные сервисы в основном американские. А наши люди хотят самое лучшее и фирменное, а именно американское.

Второе – это, конечно, попытки замены чиновников на роботов. Очень многие чиновники сейчас с удовольствием выставляют перед собой чат-боты. Это нужно, чтобы досужее население, противное, склочное и так далее, до них не добиралось, а робот их отбивал. На самом деле, конечно, чат-боты не решают даже мелких проблем. Это фактически просто способ отогнать граждан, такой способ снятия ответственности.

Вообще, основной риск искусственного интеллекта – это снятие ответственности с ответственного лица, это решил искусственный интеллект. Это прямо мощная тенденция. И это все приводит к такому наиболее грозному риску, как я считаю, – это возникновение нового вида такой цифровой власти, которую никто никому не делегировал ни выборами, ни Вашим распоряжением, когда просто люди получают власть по факту доступа к данным граждан и возможности управлять их судьбами. Фактически перетекает власть от государства, от силовиков, промышленников, энергетиков к цифровикам. И кажется, что скорость внедрения и перетекания власти такова, что мы приближаемся к какой-то точке невозврата.

Хороший пример – это пожар в Южной Корее, где в результате быстрого внедрения… Они как бы впереди нас оказались. Они все перевели на безбумажный оборот, и прямо на момент в результате пожара у них сгорели сотни госуслуг, сотни тысяч карьерных записей госслужащих и так далее, причем и бэкапы все сгорели, то есть резервное копирование. И они не могут восстановить. Они даже просят сотрудников приносить ноутбуки, чтобы найти следы этих данных.

Есть мнение, что такие риски как-то учтены в Национальной стратегии искусственного интеллекта. На самом деле Стратегия не может никого принудить на земле, там нет санкций, это общее направление развития.

Такое же примерно заблуждение есть насчет этики искусственного интеллекта. Есть у нас Кодекс этики, я сам принимал участие в его написании. Он написан четыре года назад, подписало больше тысячи компаний. К сожалению, никто не исполняет. Это такая индульгенция: я подписал, значит я этичный и дальше могу творить все то же самое. Самый простой пример. Там есть требование маркировать искусственный интеллект при общении – никто этого не делает, потому что люди же будут бросать трубку».

Растущую угрозу выхода ИИ из-под человеческого контроля начинают осознавать даже некоторые родоначальники этих технологий. Видимо потому, что они уже столько триллионов заработали, что начинают опасаться в одночасье потерять их по неумолимой нечеловеческой воле.

Президент России на том же совещании, говоря о вызовах связанных с бурным развитием ИИ,  прямо признал:   «все-таки становится очевидным, что надо решать, но не очень понятно даже, как это делать».

Между тем,  учитывая растущую, как на дрожжах понятливость и образованность  самого ИИ, людям стоит поторопиться с адекватными решениями в данной сфере. Которая вполне может, и уже в самом недалеком будущем, оказаться судьбоносной для всего Человечества. Причем, судьбоносной не обязательно в позитивном смысле.

*экстремистская платформа запрещена в РФ

** работа ресурса заблокирована в РФ

 Юрий Селиванов, специально для News Front

Сообщение «И тогда внезапно постигнет их пагуба…» появились сначала на NEWS-FRONT.