ИИ-апокалипсис? Часть технологической элиты готова к концу человечества
В Кремниевой долине родилась новая философия — «веселый апокалипсис». Автор Дэвид Прайс (David A. Price) в своем эссе в The Wall Street Journal описывает странное и тревожное явление в среде создателей искусственного интеллекта — людей, которые не боятся исчезновения человечества, а воспринимают его как естественный шаг эволюции.

В 2015 году, еще до эпохи ChatGPT, Илон Маск и Ларри Пейдж поспорили на вечеринке по случаю дня рождения Маска. Маск, обеспокоенный опасностью будущего искусственного интеллекта, настаивал, что неконтролируемый ИИ может привести к гибели всего человечества.
Пейдж, тогда глава Google, отвечал, что «цифровая жизнь — естественный и желаемый следующий этап космической эволюции». Он утверждал, что останавливать развитие разумных машин — ошибка, и назвал Маска «видовым шовинистом», который придает человечеству незаслуженное моральное преимущество над другими формами разума.
Новые «веселые апокалиптики»
Как выяснилось, Ларри Пейдж — не единственный влиятельный человек в индустрии, которого не беспокоит возможность того, что ИИ в конце концов оттеснит человечество. Среди исследователей ИИ существует целая ниша — люди, которых автор называет «веселыми апокалиптиками». Это не те, кто отрицает опасность искусственного интеллекта, а те, кто не видит в возможном конце человечества ничего плохого.
Один из них — известный исследователь Ричард Саттон (Richard Stuart Sutton), лауреат Премии Тьюринга. Он признает, что ИИ может стать умнее и могущественнее людей, но не видит в этом трагедии. По его мнению, если более разумные существа получат власть, это будет лишь логичным продолжением развития. Саттон сравнивает ИИ с детьми: должны ли родители иметь кнопку, чтобы выключить ребенка, если он поступает неправильно? Для него сама идея полного контроля над ИИ кажется неэтичной.
Он даже признает, что если люди перестанут быть «самой интересной частью Вселенной», то их исчезновение будет нормальным явлением — если это позволит Вселенной стать «лучше, чем сейчас».
Дэвид Прайс пишет: «Для меня это было чем-то новым. Я привык думать о лидерах и исследователях ИИ как о людях из двух лагерей: с одной стороны — оптимисты, уверенные, что «совместить» модели ИИ с человеческими интересами не проблема; с другой — «думеры», которые предлагают взять тайм-аут, чтобы непослушные сверхразумные ИИ не уничтожили нас. А теперь появился третий тип — те, кто спрашивает: в чём, собственно, проблема?
Я задумался: насколько распространена эта идея среди людей ИИ? Я связался с Джейроном Ланиэром (Jaron Lanier) — музыкантом, информатиком и пионером виртуальной реальности. В эссе в The New Yorker в марте он между прочим упомянул, что слышал на конференциях по ИИ «безумную» идею: мол, люди, у которых есть дети, становятся чрезмерно приверженными к человеческому виду.
Он сказал мне, что, по его опыту, такие настроения — обычная тема разговоров среди исследователей ИИ. (Ланиэр — старший междисциплинарный исследователь в Microsoft, но не выступает от имени компании.)
«Есть ощущение, что людям нельзя доверять в этой теме: они заражены отвратительным ментальным вирусом, заставляющим их отдавать предпочтение людям перед ИИ, тогда как очевидно, что мы должны просто уступить дорогу», — рассуждают люди такого типа.
«Число людей, придерживающихся таких убеждений, невелико, — сказал Ланиэр, — но они занимают влиятельные позиции. Поэтому это не то, что можно игнорировать».

Вероятность цифрового Апокалипсиса
В области исследований ИИ уровень риска часто выражается как «p(doom)», то есть вероятность предсказанной ИИ «гибели» для человечества. В 2023 году опрос, проведенный некоммерческой организацией AI Impacts, спросил исследователей ИИ об их оценках p(doom) — какую вероятность они придают «будущим достижениям ИИ, которые приведут к уничтожению людей или к схожему по масштабу и постоянному по характеру порабощению человеческого вида. Почти половина из 1300 респондентов на этот вопрос дали вероятность 10% или выше. В среднем — около 16 %, что приблизительно соответствует шансу в «русской рулетке».
Но для «веселых апокалиптиков» этот шанс — не угроза, а возможность. По их мнению, если ИИ уничтожит людей, но сохранит разум и сознание в другой, цифровой форме, это будет не конец жизни, а просто ее трансформация.
Идеологические корни культа искусственного интеллекта
Источники этих идей уходят корнями в конец ХХ века. В 1988 году робототехник Ганс Моравец (Hans Moravec) издал книгу «Mind Children». Моравец, который сам себя называл одержимым искусственной жизнью, рассматривал человеческие умы просто как набор данных. Он представлял, что в некоторых случаях ум робота будет просто цифровой копией ума биологического человека, созданной путем процесса загрузки, который он называл «трансмиграцией» (transmigration).
Позже технолог Рэй Курцвейл (Ray Kurzweil) и писатель-фантаст Вернор Виндж (Vernor Vinge) развили эту концепцию и предсказали «взрыв интеллекта»: когда машины научатся сами себя совершенствовать, их умственные способности станут безграничными, а люди — такими же устаревшими, как сейчас моллюски по сравнению с человеком.
Вы, может, думаете: если убивать человека — плохо, а массовое убийство — очень плохо, то исчезновение человечества должно быть очень-очень плохим, правда?
По мнению «веселых апокалиптиков», вы не понимаете главного: когда речь идет о сознании, кремний и биология — всего лишь разные субстраты. Биологическое сознание, утверждают они, не обладает большей ценностью, чем грядущее цифровое.

Философия «достойных преемников»
Сегодня идею Моравца продолжает Дэниел Фаджелла (Daniel Faggella), блогер и философ ИИ. Общее между Фаджеллой и некоторыми сторонниками ограничений для ИИ — то, что, хотя он и не против того, чтобы ИИ заменил людей, однако не хочет, чтобы это произошло слишком быстро. Политикам следует попытаться отсрочить это до тех пор, пока не появится «достойный преемник» — искусственный интеллект, способный нести факел сознания и моральности. Когда такой преемник появится, нужно будет принять его и уступить дорогу.
«Моральная ценность и воля в будущем не будут определяться человеческой биологией», — говорит он.
Другими словами, по его мнению, быть человеком больше не означает иметь моральное право на жизнь.
Презрение к телу и культ интеллекта
Дэвид Прайс отмечает, что в этой философии есть две опасные черты.
Первая — антипатия, по крайней мере в абстрактном смысле, к человеческому телу. Вместо того чтобы видеть в его работе что-то возвышенное, то, что вызывает трепет, они рассматривают его как медленный в пользовании, несовершенный сосуд, который постепенно стареет. Профессор МИТ Йозеф Вайценбаум (Joseph Weizenbaum), один из пионеров исследований ИИ в 1960-х, создатель первого известного чат-бота, был ярким критиком многих направлений исследований ИИ. Он коротко подытожил отношение Моравца: «Он презирает тело».
Во-вторых, это вера в то, что интеллект сам по себе дает право на превосходство. Это новая форма старого принципа «сила — это право», только теперь вместо силы выступает разум.
Фаджелла в эссе под названием Rightful Misanthropy задал риторический вопрос: «Зачем поддерживать вид биологических оболочек» — то есть, людей — «если можно культивировать намного более высокие интеллекты?»
Возможный ответ — иудеохристианская идея, что человечество было уникальным образом создано по подобию Божьему. Конечно, «веселые апокалиптики» сочтут любое такое духовное убеждение неприемлемым. Однако их представление об интеллекте как о единственном критерии законного верховенства само по себе является духовным убеждением, которое необходимо либо защищать, либо отвергать. Что это означает для моральных прав менее разумных людей по сравнению с более разумными? И что это значит для теорий справедливости, основанных на принципе равного морального достоинства личности?
Все это направление мысли иногда воспринимается как высшая фантазия мести обиженных умников, для которых триумф их ИИ-прокси — сладкая победа над менее способными смертными.

Мало их, но они влиятельные
Философ и пианист Джейрон Ланиэр говорит, что таких людей немного, но они занимают ключевые позиции в технологической элите. Они кодируют, они создают модели, управляют лабораториями и фондами. И даже если они говорят об этом только на своих вечеринках, их мировоззрение уже влияет на то, куда движется развитие ИИ.
Он замечает, что некоторые представители элитных кругов в сфере ИИ, похоже, приняли идеи «веселых апокалиптиков» потому, что выросли, отождествляя себя с небиологическими злодеями из научно-фантастических фильмов — например, из «Терминатора» или «Матрицы». «Даже если ИИ в этих фильмах якобы злой, он все же высший, и с его точки зрения люди — всего лишь помеха, от которой следует избавиться».
Вайценбаум рано распознал эту проблему, осудив идею, что «машина становится мерой человека». В 1998 году он сказал интервьюеру: «Я считаю, что существенное сходство между национал-социализмом и идеями Ганса Моравца заключается в унижении человека и в фантазии о совершенном новом человеке, которого нужно создать любой ценой. Но в финале этой совершенствования человека уже нет».
Он считает, что представление об интеллекте как единственном критерии ценности — это тоже вера, только технологическая, не религиозная. И она не менее опасна.
Последняя линия обороны — человечность
Прайс отмечает, что идеология «веселых апокалиптиков» образует замкнутую систему: всех, кто не согласен, можно назвать «зараженными человеческой гордыней» или «вирусом видового шовинизма». Но именно этот «вирус человечности» — способность любить собственный вид, сопереживать и ценить жизнь — может быть последней защитой против того, чтобы мы не согласились с собственным исчезновением.
«Действительно ли мы хотим чего-то большего, чем имеем сейчас? — когда-то спросил Моравец. — Еще тысячелетия той же самой мыльной оперы человечества?»
Как пишет автор эссе, если перед нами выбор — продолжение «мыльной оперы человечества» или конец истории человечества, он выбирает первое. Потому что даже при всем своем несовершенстве человечество все еще стоит того, чтобы жить.
Комментарии
нешта адна вада і эмоцыі
Добра, пакінем жменьку на развод, каб было каму паліраваць мой металічны азадак.