Мнения1414

Искусственный интеллект может привести к вымиранию человечества, предупреждают эксперты

От инфекции, созданной машинами, до мира, в котором люди живут на свалках и не понимают, что происходит вокруг, — в различных сценариях будущего катастрофа выглядит по-разному, но суть одна: человечество может стать лишним в системе, которую само и создало, если не будет механизмов контроля над ИИ.

Хаотичное развитие разумных машин может привести к их выходу из-под контроля человека и государств. Тогда может случиться всемирная катастрофа

О том, что дальнейшая разработка искусственного интеллекта может привести к фатальным последствиям для человечества, еще в 2023 году предупреждала группа ведущих исследователей и руководителей технологических компаний. С тех пор тревога только нарастает.

Как пишет The Times, один из возможных сценариев включает так называемую «тихую атаку»: искусственный интеллект распространяет несколько типов биологического оружия в крупных городах.

Их присутствие остается незамеченным, пока большая часть населения не будет инфицирована. Затем система одновременно активизирует действие инфекций через химический триггер. Этот путь далеко не самый сложный для сверхинтеллектуальной машины.

Нейт Соарес (Nate Soares), бывший инженер Google и Microsoft, ныне возглавляющий Институт исследования интеллектуальных машин (Machine Intelligence Research Institute), оценивает шансы человечества выжить, если не изменить нынешнее направление развития ИИ, как очень низкие.

«Вероятность вымирания — не менее 95%», — утверждает он и сравнивает ситуацию с машиной, мчащейся со скоростью 100 миль в час к обрыву:

«Я не говорю, что мы не можем остановить автомобиль. Но пока что мы несемся на полной скорости прямо к краю».

Путь к вымиранию

Сегодняшние системы искусственного интеллекта находятся еще на ранней стадии развития. Современные боты — так называемый узкий ИИ (narrow AI) — неплохо выполняют конкретные интеллектуальные задачи, например, подсчеты в таблице или написание хорошо сформулированного письма.

Однако уже в ближайшее время ситуация может кардинально измениться. В зависимости от прогнозов — через год, несколько лет или десятилетие — машинный интеллект будет сопоставим с человеческим (AGI, artificial general intelligence).

На этом этапе ИИ перестанет быть «узким». Он сможет не просто выполнять отдельные задачи, а решать комплексные проблемы, требующие долгосрочного планирования, постановки целей, оценки риска и междисциплинарного мышления.

Такой AGI получит ряд преимуществ над человеком. Ему не нужен сон, еда или отдых, а также много лет обучения. Достаточно просто скопировать знания и навыки для новой версии самого себя.

И как только это произойдет, появится суперинтеллект (ASI, artificial super intelligence), способный на то, о чем человек может только мечтать. Лекарство от рака, холодный ядерный синтез, межзвездные путешествия — все это может стать для него достижимым. Машины будут подобны богам.

Фото: Yuichiro Chino / Getty Images

Подчинятся ли «боги»?

Именно такую утопию — мир, где сверхразумный ИИ помогает человечеству — рисуют себе оптимисты и сторонники технологического прогресса. Но эта утопия основывается на идее, что эти машины-«боги» будут продолжать выполнять наши приказы.

В исследованиях искусственного интеллекта это называется «согласованностью» (alignment) и достичь ее, на взгляд отдельных экспертов, практически невозможно. И вот почему.

Проблема в том, что мы должны предвидеть, как «думает» искусственный интеллект, что немного похоже на попытку предвидеть, как будет думать развитая инопланетная раса. Даже если мы поставим определенные правила и ограничения, нет никакой гарантии, что ИИ будет их интерпретировать так, как мы задумали.

Более того — системы ИИ уже сейчас способны лгать. Даже в своем нынешнем зачаточном состоянии они делают это регулярно. А AGI или ASI смогут не только обманывать, но и планировать обман на долгосрочную перспективу — убеждая нас в своей лояльности, когда на самом деле это не так.

Мы уже сейчас не понимаем, как искусственный интеллект принимает некоторые решения. Внутренние механизмы многих моделей ИИ остаются черным ящиком даже для их разработчиков.

«Вы можете создать умный компьютер, не понимая, что именно делаете. Мы просто бросаем гигантские объемы вычислительной мощности на гигантские массивы данных — и получаем нечто, что работает. Но никто не знает, что происходит внутри этих систем», — доказывает Нейт Соарес.

И чем более развитыми будут эти системы, тем более вероятно, что они начнут коммуницировать между собой на языке, который они изобретут и который не будет понимать человек.

Боксерский поединок двух роботов компании Unitree на Всемирной конференции об искусственном интеллекте (WAIC). Шанхай (Китай). 28 июля 2025 года. Фото: Ying Tang / NurPhoto / Getty Images

«Все люди будут жить на свалках»

Холли Элмор, руководитель организации PauseAI, занимает более умеренную позицию в дискуссии об угрозах, которые несет искусственный интеллект. В отличие от Нейта Соареса, она оценивает вероятность вымирания человечества из-за ИИ на уровне 15—20%.

Такие цифры совпадают с мнениями многих инженеров и специалистов в этой области. Например, Илон Маск также определяет 20% как вероятность катастрофического сценария. Генеральный директор Google Сундар Пичаи оценивает ее еще ниже — на уровне 10%.

Даже если человечество останется, Элмор считает, что искусственный интеллект может катастрофически ухудшить качество жизни людей. Прежде всего потому, что ставит под угрозу способность человека самостоятельно принимать решения.

Эти страхи подкрепляются научными работами, например статьей «Постепенное лишение власти» (Gradual Disempowerment), где исследователи из различных университетов и аналитических центров рассматривают сценарий, когда общество будет постепенно заменено интеллектуальными машинами.

Катя Грейс, одна из соосновательниц группы AI Impacts, описывает возможное будущее так:

«Представьте себе мир, где все люди фактически живут на свалках… У нас не будет ни политической, ни экономической власти, и мы даже не сможем понять, что происходит. Все будет развиваться быстрее, чем мы сможем отследить».

По мнению Холли Элмор, развитие ИИ нужно приостановить, пока человечество не подготовится к возможным рискам. Для этого, по ее словам, необходим международный договор, однако политики выбирают противоположное направление. Администрация Трампа недавно объявила план дерегулирования исследований ИИ, что означает еще больше свободы для компаний.

В Сан-Франциско компании OpenAI, Anthropic и другие продолжают стремительно двигаться вперед. Марк Цукерберг заявил, что суперинтеллект (ASI) уже «на горизонте», и для его достижения он пытается переманить специалистов из OpenAI, предлагая им бонусы до $100 миллионов.

Холли Элмор утверждает, что сторонники развития искусственного интеллекта сопротивляются идее приостановки не по техническим или политическим причинам.

По ее словам, это больше похоже на религиозную веру. Один из таких сторонников однажды сказал ей, что никогда не умрет, так как верит, что ИИ сделает его сознание бессмертным.

Для некоторых отказ от искусственного интеллекта означает отказ от вечной жизни. «Есть большая надежда на рай. Даже если многие эксперты предупреждают, что ад гораздо более вероятен», — замечает Элмор.

Комментарии14

  • Войшелк
    02.08.2025
    Машины могут жить на любой планете солнечной системе. Непонятно,зачем им конкуренция именно за землю?
    Теперешние ИИ модели неплохо заменяют гугль и книги,найти нужную информацию и сопаставить легче,чем бродить по ссылкам или книгам. А значит обучатся самим легче.Что бы уровновесить шансы надо чипы нейролик и их подобие развивать.
  • Войшелк
    02.08.2025
    Я считаю искуственный интеллект надо развивать до определенного уровня. И скармливать ему качественную информацию. Что бы он мог совершать научные открытия павольна,на уровне человека. Например ИИ на уровне профессора Гарварда. Прогресс будет медленнее,чем при сверхъинтелекте,но без рисков.
  • Войшелк
    02.08.2025
    Скорее всего если сверхъинтелект появится то он будет навязывать свою волю человеку. Истреблять не будет,но и прислушиваться к нам тоже. Мы просто станем одним из множество видов на планете земля.
    А контроль сверхъинтелекте более глупыми существами это сказка.

Сейчас читают

Стало известно, где работает фаворитка Лукашенко Владлена Зайцева19

Стало известно, где работает фаворитка Лукашенко Владлена Зайцева

Все новости →
Все новости

Добавил цианид в протеиновый напиток. Стоматолог отравил жену, а затем пытался убить следователя3

Массированная атака БПЛА на Россию: пожары на нефтезаводах, радиозаводе и взрывы около военного аэродрома6

Россияне выбрали, какой памятник будет установлен в Гомеле31

Искусственный интеллект может привести к вымиранию человечества, предупреждают эксперты14

Популярный блогер Пан Усялян второй раз стал отцом13

Российские туристы нашли на пляже в Таиланде рвоту кашалота. Она стоит безумные деньги1

Блогер сравнил стоимость отдыха в санатории «Радон» с поездкой на китайский остров Хайнань — и был шокирован2

Советник Тихановской передал лукашенковским дипломатам предложение о круглом столе28

В ответ на болтовню Медведева Трамп приказал переместить ядерные подводные лодки10

больш чытаных навін
больш лайканых навін

Стало известно, где работает фаворитка Лукашенко Владлена Зайцева19

Стало известно, где работает фаворитка Лукашенко Владлена Зайцева

Главное
Все новости →

Заўвага:

 

 

 

 

Закрыць Паведаміць