Що більш ймовірно призведе до кінця людства: війна, кліматична катастрофа чи штучний інтелект?
www.rbc.ua
Sun, 02 Mar 2025 21:20:26 +0200
Штучний інтелект дедалі частіше розглядається як загроза існуванню людства.
Деякі експерти стверджують, що неконтрольоване зростання можливостей ШІ може мати гірші наслідки, ніж зміна клімату чи навіть ядерна війна.
Але наскільки реальна ця небезпека Які шанси на те, що людство може знищити війна, кліматична катастрофа чи штучний інтелект, розповідає РБКУкраїна проєкт Styler.
Чи зміна клімату справді загрожує людству Зміна клімату робить світ менш придатним для життя, спричиняє екстремальні погодні явища та може призвести до загибелі мільйонів людей.
Проте, згідно з прогнозами Міжурядової групи експертів зі зміни клімату IPCC, це не є фактором, що знищить людську цивілізацію повністю.
Дослідження підтверджують, що навіть у найгірших сценаріях людство виживе, хоча умови життя стануть значно важчими.
Але тоді виникає питання якщо кліматична криза не є кінцем світу, то що ним може стати Чому штучний інтелект може бути небезпечнішим Тема екзистенційного ризику ШІ вийшла на передній план завдяки заявам провідних експертів, зокрема Джеффрі Гінтона та Еліезера Юдковського.
Останній прямо стверджує, що створення надлюдського інтелекту може закінчитися смертю всього людства.
Юдковський навіть закликав до міжнародної заборони на розвиток потужних ШІсистем, припускаючи, що недотримання цих норм може виправдовувати військове втручання.
Хоча ця позиція здається радикальною, вона базується на припущенні, що суперінтелект, діючи за власною логікою, може не враховувати інтереси людей.
Доктор Джеффрі Хінтон, професор інформатики Монреальського університету Йошуа Бенгіо та професор НьюЙоркського університету Янн Лекун, яких часто називають хрещеними батьками штучного інтелекту за їх новаторську роботу в цій галузі, від самого початку також попереджали про ризики, повязані з надрозумним ШІ.
Вони навіть підтримали заяву Центру безпеки ШІ Помякшення ризику вимирання від штучного інтелекту має бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна.
Вебсайт Center for AI Safety пропонує кілька можливих сценаріїв катастрофи ШІ можна використовувати як зброю наприклад, інструменти пошуку наркотиків можна використовувати для створення хімічної зброї Дезінформація, створена ШІ, може дестабілізувати суспільство та підірвати колективне прийняття рішень Сила штучного інтелекту може дедалі більше концентруватися у все меншій кількості рук, дозволяючи режимам навязувати вузькі цінності за допомогою повсюдного спостереження та жорсткої цензури.
Ослаблення, коли люди стають залежними від штучного інтелекту, подібно до сценарію, зображеного у фільмі WallE Існує багато експертів, які вважають, що побоювання, що ШІ знищить людство, є нереалістичним і відволікають увагу від інших, дуже важливих проблем.
Поточний штучний інтелект далеко не такий спроможний, щоб реалізувати такі ризики.
Як наслідок, він відвертає увагу від короткострокової шкоди ШІ, сказав компютерний науковець з Принстонського університету Арвінд Нараянан.
Чи ядерна війна менш небезпечна Ядерний конфлікт одна з найбільших загроз людству.
Він може призвести до загибелі мільйонів, а також викликати глобальне похолодання через ядерну зиму.
Проте досі тривають дискусії, чи буде ця зима настільки руйнівною, щоб поставити під загрозу саме існування людства.
На відміну від ядерної війни, штучний інтелект може бути непередбачуваним.
Він здатний розвиватися в неконтрольованому напрямку, а його рішення можуть суперечити інтересам людства.
Наприклад, суперінтелект може оптимізувати процеси так, що людство стане йому просто непотрібним або навіть перешкодою.
Що нам потрібно знати Головна проблема полягає в тому, що сьогодні немає єдиного наукового консенсусу щодо небезпеки штучного інтелекту.
Якщо в питанні кліматичних змін та ядерної загрози наука має більшменш усталені позиції, то у сфері ШІ існують як прихильники, так і критики катастрофічних прогнозів.
Щоб уникнути непоправних помилок, людство має детально вивчити потенційні ризики.
Розуміння того, як працює штучний інтелект, чому ми його розвиваємо і що може піти не так, це ключ до виживання та подальшого процвітання цивілізації.
Філософ Інституту майбутнього людства Оксфордського університету та консультант ВООЗ, Світового банку та Всесвітнього економічного форуму Тобі Орд раз на декілька років робить масштабні аналізи щодо того, від чого населення Землі може постраждати найбільше.
В його останній роботі Пропасть природні ризики, включаючи астероїди та комети, виверження супервулканів і вибухи зірок, за оцінками, мають відносно низькі ризики, які, разом узяті, спричиняють один шанс на мільйон вимирання на століття.
Звертаючись до антропогенних ризиків, найбільш очевидним ризиком для виживання людства, здавалося б, є ризик ядерної війни, і ми кілька разів наближалися до нього, переважно випадково.
Однак Орд сумнівається, що навіть ядерна зима призведе до повного вимирання людства або глобального безповоротного краху цивілізації.
Подібним чином Орд вважає, що хоча зміна клімату може стати глобальним лихом безпрецедентного масштабу, вона не обовязково призведе до вимирання людства.
Він також вважає, що шкода навколишньому середовищу не демонструє прямого механізму існування ризику.
Однак, він приходить до висновку, що кожен із цих антропогенних ризиків має вищу ймовірність, ніж усі природні ризики разом один на мільйон на століття.
Майбутні ризики, які Орд вважає, включають пандемії, незвязний штучний інтелект суперінтелектуальні системи штучного інтелекту з цілями, які не узгоджувалися з людською етикою, антиутопічні сценарії світ з недоторканою цивілізацією, але замкнений у жахливій формі, нанотехнології та позаземне життя.
Ризик, який представляють пандемії більш антропогенний, а не природній і оцінюється як один на 30 на століття, а це другий найвищий ризик.
А найбільший ризик, за словами Орда, походить саме від незвязного штучного інтелекту.
Кліматичні зміни та ядерна війна серйозні виклики для людства, але вони не обовязково знищать цивілізацію.
Однак неконтрольований штучний інтелект може стати загрозою набагато масштабнішою, ніж будьяка з цих проблем.
Поки що науковий світ не має однозначної відповіді, але дослідження та міжнародне регулювання ШІ стають дедалі важливішими.
Вас може зацікавити Який вид буде домінувати на планеті, якщо людство зникне Вчені спрогнозували, у кого є шанс вижити під час масового вимирання Які передбачення зробила провидиця Ванга для людства на 2025 рік Під час написання матеріалу були використані джерела Vox, BBC, Risk Frontieres, виступи Джеффрі Гінтона, Еліезера Юдковського, Тобі Орда.
Останні новини
