Что более вероятно приведет к концу человечества: война, климатическая катастрофа или искусственный интеллект?
www.rbc.ua
Sun, 02 Mar 2025 21:20:26 +0200
Искусственный интеллект все чаще рассматривается как угроза существованию человечества.
Некоторые эксперты утверждают, что неконтролируемый рост возможностей ИИ может иметь худшие последствия, чем изменение климата или даже ядерная война.
Но насколько реальна эта опасность Какие шансы на то, что человечество может уничтожить война, климатическая катастрофа или искусственный интеллект, рассказывает РБКУкраина проект Styler.
Действительно ли изменение климата угрожает человечеству Изменение климата делает мир менее пригодным для жизни, вызывает экстремальные погодные явления и может привести к гибели миллионов людей.
Однако, согласно прогнозам Межправительственной группы экспертов по изменению климата IPCC, это не является фактором, который уничтожит человеческую цивилизацию полностью.
Исследования подтверждают, что даже в худших сценариях человечество выживет, хотя условия жизни станут значительно тяжелее.
Но тогда возникает вопрос если климатический кризис не является концом света, то что им может стать Почему искусственный интеллект может быть опаснее Тема экзистенциального риска ИИ вышла на передний план благодаря заявлениям ведущих экспертов, в частности Джеффри Хинтона и Элиэзера Юдковского.
Последний прямо утверждает, что создание сверхчеловеческого интеллекта может закончиться смертью всего человечества.
Юдковский даже призвал к международному запрету на развитие мощных ИИсистем, предполагая, что несоблюдение этих норм может оправдывать военное вмешательство.
Хотя эта позиция кажется радикальной, она базируется на предположении, что суперинтеллект, действуя по собственной логике, может не учитывать интересы людей.
Доктор Джеффри Хинтон, профессор информатики Монреальского университета Йошуа Бенгио и профессор НьюЙоркского университета Янн Лекун, которых часто называют крестными отцами искусственного интеллекта за их новаторскую работу в этой области, с самого начала также предупреждали о рисках, связанных со сверхразумным ИИ.
Они даже поддержали заявление Центра безопасности ИИ Смягчение риска вымирания от искусственного интеллекта должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война.
Сайт Center for AI Safety предлагает несколько возможных сценариев катастрофы ИИ можно использовать как оружие например, инструменты поиска наркотиков можно использовать для создания химического оружия Дезинформация, созданная ИИ, может дестабилизировать общество и подорвать коллективное принятие решений Сила искусственного интеллекта может все больше концентрироваться во все меньшем количестве рук, позволяя режимам навязывать узкие ценности с помощью повсеместного наблюдения и жесткой цензуры.
Ослабление, когда люди становятся зависимыми от искусственного интеллекта, подобно сценарию, изображенному в фильме WallE Существует много экспертов, которые считают, что опасения, что ИИ уничтожит человечество, являются нереалистичными и отвлекают внимание от других, очень важных проблем.
Текущий искусственный интеллект далеко не настолько способен, чтобы реализовать такие риски.
Как следствие, он отвлекает внимание от краткосрочного вреда ИИ, сказал компьютерный ученый из Принстонского университета Арвинд Нараянан.
Ядерная война менее опасна Ядерный конфликт одна из самых больших угроз человечеству.
Он может привести к гибели миллионов, а также вызвать глобальное похолодание изза ядерной зимы.
Однако до сих пор продолжаются дискуссии, будет ли эта зима настолько разрушительной, чтобы поставить под угрозу само существование человечества.
В отличие от ядерной войны, искусственный интеллект может быть непредсказуемым.
Он способен развиваться в неконтролируемом направлении, а его решения могут противоречить интересам человечества.
Например, суперинтеллект может оптимизировать процессы так, что человечество станет ему просто ненужным или даже помехой.
Что нам нужно знать Главная проблема заключается в том, что сегодня нет единого научного консенсуса относительно опасности искусственного интеллекта.
Если в вопросе климатических изменений и ядерной угрозы наука имеет болееменее устоявшиеся позиции, то в сфере ИИ существуют как сторонники, так и критики катастрофических прогнозов.
Чтобы избежать непоправимых ошибок, человечество должно детально изучить потенциальные риски.
Понимание того, как работает искусственный интеллект, почему мы его развиваем и что может пойти не так, это ключ к выживанию и дальнейшему процветанию цивилизации.
Философ Института будущего человечества Оксфордского университета и консультант ВОЗ, Всемирного банка и Всемирного экономического форума Тоби Орд раз в несколько лет делает масштабные анализы относительно того, от чего население Земли может пострадать больше всего.
В его последней работе Пропасть природные риски, включая астероиды и кометы, извержения супервулканов и взрывы звезд, по оценкам, имеют относительно низкие риски, которые, вместе взятые, вызывают один шанс на миллион вымирания в столетие.
Обращаясь к антропогенным рискам, наиболее очевидным риском для выживания человечества, казалось бы, является риск ядерной войны, и мы несколько раз приближались к нему, в основном случайно.
Однако Орд сомневается, что даже ядерная зима приведет к полному вымиранию человечества или глобальному безвозвратному краху цивилизации.
Подобным образом Орд считает, что хотя изменение климата может стать глобальным бедствием беспрецедентного масштаба, оно не обязательно приведет к вымиранию человечества.
Он также считает, что вред окружающей среде не демонстрирует прямого механизма существования риска.
Однако, он приходит к выводу, что каждый из этих антропогенных рисков имеет более высокую вероятность, чем все природные риски вместе один на миллион в столетие.
Будущие риски, которые Орд считает, включают пандемии, несвязный искусственный интеллект суперинтеллектуальные системы искусственного интеллекта с целями, которые не согласовывались с человеческой этикой, антиутопические сценарии мир с нетронутой цивилизацией, но запертый в ужасной форме, нанотехнологии и внеземную жизнь.
Риск, который представляют пандемии более антропогенный, а не естественный и оценивается как один на 30 в столетие, а это второй самый высокий риск.
А наибольший риск, по словам Орда, исходит именно от несвязного искусственного интеллекта.
Климатические изменения и ядерная война серьезные вызовы для человечества, но они не обязательно уничтожат цивилизацию.
Однако неконтролируемый искусственный интеллект может стать угрозой гораздо более масштабной, чем любая из этих проблем.
Пока научный мир не имеет однозначного ответа, но исследования и международное регулирование ИИ становятся все более важными.
Вас может заинтересовать Какой вид будет доминировать на планете, если человечество исчезнет Ученые спрогнозировали, у кого есть шанс выжить во время массового вымирания Какие предсказания сделала провидица Ванга для человечества на 2025 год При написании материала были использованы источники Vox, BBC, Risk Frontieres, выступления Джеффри Хинтона, Элиэзера Юдковского, Тоби Орда.
Последние новости
