Человечество могут уничтожить биооружием? Крестный отец ИИ дал новый тревожный прогноз

Представьте мир, где машины превосходят человеческий интеллект во всех сферах, принимают собственные решения и, возможно, даже видят человечество как устаревший вид. Этот сценарий, который раньше был уделом научно-фантастических фильмов, теперь стал предметом серьезных предупреждений от ведущих мировых экспертов.
О чем предупреждает человечество крестный отец ИИ и может ли человечество погибнуть от биологического оружия, рассказывает РБК-Украина со ссылкой на Emerge.
Джеффри Хинтон, которого называют "крестным отцом искусственного интеллекта" за его пионерскую работу в области нейронных сетей, выступил с самым строгим предостережением.
Он предупреждает, что ИИ представляет не только угрозу рабочим местам, но и экзистенциальный риск для всего человечества.
В новом интервью он очертил мрачное видение будущего, где сверхумные машины могут стать неуправляемыми и использовать автономное оружие, кибератаки и даже биологическое оружие для нашего уничтожения.
Угроза с двух сторонДжеффри Хинтон, который еще в мае 2023 года покинул Google и Университет Торонто, чтобы свободно высказываться об опасностях ИИ, подчеркивает, что угроза имеет две основные формы.
Во-первых , это риски, возникающие из-за неправильного использования людьми.
Сюда входят:
- Кибератаки. ИИ может быть использован для создания чрезвычайно сложных и разрушительных кибератак.
- Распространение дезинформации: Системы ИИ уже способны генерировать убедительный, но ложный контент, что может подорвать общества.
- Автономное оружие: "Сейчас они могут создавать летальное автономное оружие, и я думаю, что все крупные оборонные ведомства заняты его производством", - отметил Хинтон. Даже если такое оружие не будет умнее людей, оно все равно является "очень неприятными, страшными существами".
Во-вторых , и это, возможно, наиболее тревожно, это угрозы, возникающие, когда системы искусственного интеллекта становятся полностью автономными и неуправляемыми.
По словам Хинтона, если ИИ решит, что человечество устарело, "мы никак не сможем предотвратить его уничтожение, даже если оно этого захочет".
Он приводит шокирующее сравнение: "Если вы хотите знать, какова жизнь, когда вы не являетесь верхушкой интеллекта, спросите курицу".
Военная гонка и корпоративные мотивыПредупреждения Хинтона звучат на фоне беспрецедентного всплеска военного применения ИИ. Соединенные Штаты являются лидерами в финансировании и интеграции этих технологий в оборонные операции.
Например, в своем бюджетном проекте на 2025 год Министерство обороны США запросило 143 миллиарда долларов на исследования и разработки, из которых 1,8 миллиарда долларов выделено специально на ИИ.
Компании, такие как Palantir, получают миллионные контракты на разработку систем нацеливания на базе ИИ для армии США, а Пентагон сотрудничает со Scale AI для запуска симулятора поля боя под названием Thunderforge.
Хинтон сравнивает нынешний момент с появлением ядерного оружия, но с одним ключевым отличием:
"Атомная бомба была пригодна только для одной вещи, и было очень очевидно, как она работает. С искусственным интеллектом она пригодна для многих, многих вещей".
Это сочетание мотивов корпоративной прибыли и международной конкуренции является главной причиной, почему развитие искусственного интеллекта не замедлится, объясняет Хинтон.
Мотив прибыли часто побуждает компании создавать контент, который "заставит их (пользователей) щелкнуть", а это, в свою очередь, приводит к "вещам, которые становятся все более экстремальными, подтверждая их существующие предубеждения".
Самый страшный сценарий - биологическое оружие, созданное ИИНа вопрос, как именно искусственный интеллект может уничтожать людей, Хинтон не избегал ужасных деталей. Он предположил, что сверхразумный ИИ может разработать новые биологические угрозы для уничтожения человеческой расы.
"Очевидным способом было бы создать опасный вирус - очень заразный, очень смертельный и очень медленный - чтобы все его заразили, прежде чем осознают", - сказал он.
Он добавил, что если бы суперинтеллект захотел избавиться от нас, он, вероятно, "выбрал бы что-то биологическое, что не повлияет на него".
Надежда среди мрачных прогнозовНесмотря на такие мрачные перспективы, он признает, что мы не знаем, можем ли мы научить искусственный интеллект не желать захватывать власть или вредить нам.
"Я не думаю, что мы можем это сделать однозначно, поэтому, думаю, это может быть безнадежно. Но я также думаю, что мы могли бы это сделать, и было бы определенным безумием, если бы люди вымерли, потому что мы не хотели бы даже попробовать", - сказал Хинтон.
Вас может заинтересовать:
- Ученый предупредил, что к 2300 году могут исчезнуть мегаполисы, а количество людей резко сократится
- Появился тревожный прогноз о будущем человечества, которое будет хуже "ядерки"
- В NASA подтвердили пророчество Стивена Хокинга о том, что Земля превратится в горящий шар
Последние новости
