Google DeepMind предсказало будущее ИИ: 4 риски, которые могут угрожать человечеству
www.rbc.ua
Fri, 04 Apr 2025 16:45:00 +0300

Специалисты Google DeepMind представили подробный технический доклад о безопасной разработке общего искусственного интеллекта AGI.
По их мнению, несмотря на сомнения скептиков, появление AGI может произойти в ближайшем будущем.
Про 4 ключевых сценария, при которых такой ИИ способен нанести ущерб, рассказывает РБКУкраина проект Styler со ссылкой на аналитическое интернетиздание Ars Technica, посвященное информационным технологиям.
Что такое Google DeepMind Что из себя представляет AGI Artificial General Intelligence Четыре типа угроз AGI Каким будет AGI через пять лет Что такое Google DeepMind Google DeepMind это британская компания, занимающаяся разработкой искусственного интеллекта ИИ, которая была основана в 2010 году и позже была приобретена компанией Google в 2014 году. DeepMind специализируется на создании ИИсистем, способных обучаться и принимать решения, имитируя человеческие когнитивные процессы.
Компания известна своими достижениями в области машинного обучения и нейронных сетей, а также созданием алгоритмов для решения сложных задач. Помимо игр, DeepMind активно работает над применением ИИ в медицине, разрабатывая алгоритмы для диагностики заболеваний, таких как диабетическая ретинопатия и рак.
В 2016 году DeepMind выпустила систему AlphaZero, которая продемонстрировала способность обучаться и побеждать в шахматах и других играх без предварительного человеческого ввода. Компания также разрабатывает системы для улучшения работы серверов Google, используя ИИ для оптимизации энергетической эффективности датацентров. Компания продолжает привлекать внимание мирового научного сообщества благодаря своим инновациям и стремлению к созданию более совершенных и безопасных ИИтехнологий. Что из себя представляет AGI Artificial General Intelligence Так называемый искусственный общий интеллект Artificial General Intelligence это система, обладающая интеллектом и способностями, сопоставимыми с человеческими.
Если современные ИИсистемы действительно движутся к AGI, то человечество должно разработать новые подходы, чтобы подобная машина не стала угрозой. К сожалению, у нас пока нет ничего столь же элегантного, как Три закона робототехники Айзека Азимова.
Исследователи из DeepMind занимаются этой проблемой и опубликовали новый технический документ PDF, в котором объясняется, как безопасно разрабатывать AGI.
Документ доступен для скачивания и насчитывает 108 страниц без учета списка литературы. Хотя многие специалисты считают AGI фантастикой, авторы документа предполагают, что такая система может появиться уже к 2030 году.
В связи с этим команда DeepMind решила изучить потенциальные риски, связанные с появлением синтетического интеллекта, обладающего человеческими чертами, который, как признают сами исследователи, может привести к серьезному вреду. Четыре типа угроз AGI Команда DeepMind под руководством одного из основателей компании Шейна Легга Shane Legg выделила четыре категории потенциальных угроз, связанных с AGI злоупотребление, несоответствие намерениям, ошибки и структурные риски.
Первые две категории рассмотрены в документе наиболее подробно, тогда как две последние лишь кратко. Злоупотребление Первая угроза злоупотребление.
По сути, она схожа с рисками, связанными с текущими ИИсистемами.
Однако AGI по определению будет куда более мощным, а значит, и потенциальный вред значительно выше.
Например, человек с недобрыми намерениями сможет использовать AGI для поиска уязвимостей нулевого дня или создания дизайнерских вирусов для использования в качестве биологического оружия. DeepMind подчеркивает, что компании, занимающиеся разработкой AGI, обязаны проводить тщательное тестирование и внедрять надежные протоколы безопасности после обучения модели.
По сути, нужны усиленные ограничители ИИ.
Также предлагается полностью подавлять опасные возможности так называемое разучивание, хотя пока неясно, возможно ли это без существенного ограничения функционала моделей. Несоответствие намерениям Эта угроза менее актуальна для современных генеративных ИИ.
Однако для AGI она может быть фатальной представьте себе машину, которая перестала слушаться своих разработчиков.
Это уже не фантастика в духе Терминатора, а реальная угроза AGI может предпринимать действия, о которых знает, что они противоречат намерениям создателей. В качестве решения DeepMind предлагает использовать усиленный надзор, когда две копии ИИ проверяют выводы друг друга.
Также рекомендуется проводить стресстестирование и постоянный мониторинг, чтобы вовремя заметить признаки того, что ИИ вышел изпод контроля. Дополнительно предлагается изолировать такие системы в защищенных виртуальных средах с прямым контролем со стороны человека и обязательно с красной кнопкой. Ошибки Если же ИИ причиняет вред неосознанно, а оператор не предполагал, что это возможно это ошибка.
DeepMind подчеркивает, что военные могут начать использовать AGI изза конкурентного давления, а это грозит более серьезными ошибками, ведь функциональность AGI будет намного сложнее. Решений здесь немного.
Исследователи предлагают избегать чрезмерного усиления AGI, внедрять его постепенно и ограничивать его полномочия.
Также предлагается пропускать команды через щит промежуточную систему, проверяющую их безопасность. Структурные риски Последняя категория структурные риски.
Под этим понимаются непреднамеренные, но реальные последствия внедрения многокомпонентных систем в и без того сложную человеческую среду.
AGI может, например, генерировать настолько убедительную дезинформацию, что мы больше не сможем доверять никому.
Или медленно и незаметно начать контролировать экономику и политику, например, разрабатывая сложные тарифные схемы.
И однажды мы можем обнаружить, что уже не мы управляем машинами, а они нами. Этот тип риска самый труднопредсказуемый, так как зависит от множества факторов от поведения людей до инфраструктуры и институтов. Четыре категории риска AGI, определенные DeepMind фото Google DeepMind Каким будет AGI через пять лет Никто не знает точно, появятся ли разумные машины через несколько лет, но многие в индустрии уверены, что это возможно.
Проблема в том, что мы все еще не понимаем, как человеческий разум может быть воплощен в машину.
За последние годы мы действительно увидели колоссальный прогресс в генеративных ИИ, но приведет ли он к полноценному AGI В DeepMind подчеркивают представленная работа не окончательное руководство по безопасности AGI, а лишь отправная точка для крайне важных обсуждений.
Если команда права, и AGI действительно появится уже через пять лет, такие обсуждения нужно начинать как можно скорее.
Вас может заинтересовать Украинские подростки создали ИИсервис для борьбы с хейтом и фейками в сети Билл Гейтс рассказал о трех профессиях, которые останутся востребованными несмотря на развитие ИИ Какие навыки помогут сохранить работу в эпоху ИИ
Последние новости
