Google DeepMind передбачило майбутнє ШІ: 4 ризики, які можуть загрожувати людству
www.rbc.ua
Fri, 04 Apr 2025 16:45:00 +0300

Фахівці Google DeepMind представили детальну технічну доповідь про безпечну розробку загального штучного інтелекту AGI.
На їхню думку, незважаючи на сумніви скептиків, поява AGI може відбутися в найближчому майбутньому.
Про 4 ключові сценарії, за яких такий ШІ здатний завдати шкоди, розповідає РБКУкраїна проект Styler з посиланням на аналітичне інтернетвидання Ars Technica, присвячене інформаційним технологіям.
Що таке Google DeepMind Що з себе представляє AGI Artificial General Intelligence Чотири типи загроз AGI Яким буде AGI через пять років Що таке Google DeepMind Google DeepMind це британська компанія, що займається розробкою штучного інтелекту ШІ, яка була заснована 2010 року і пізніше була придбана компанією Google 2014 року.
DeepMind спеціалізується на створенні ШІсистем, здатних навчатися і приймати рішення, імітуючи людські когнітивні процеси.
Компанія відома своїми досягненнями в галузі машинного навчання і нейронних мереж, а також створенням алгоритмів для розвязання складних завдань.
Крім ігор, DeepMind активно працює над застосуванням ШІ в медицині, розробляючи алгоритми для діагностики захворювань, таких як діабетична ретинопатія і рак.
У 2016 році DeepMind випустила систему AlphaZero, яка продемонструвала здатність навчатися і перемагати в шахах та інших іграх без попереднього людського введення.
Компанія також розробляє системи для поліпшення роботи серверів Google, використовуючи ШІ для оптимізації енергетичної ефективності датацентрів.
Компанія продовжує привертати увагу світової наукової спільноти завдяки своїм інноваціям і прагненню до створення більш досконалих і безпечних ШІтехнологій.
Що з себе представляє AGI Artificial General Intelligence Так званий штучний загальний інтелект Artificial General Intelligence це система, що володіє інтелектом і здібностями, порівнянними з людськими.
Якщо сучасні ШІсистеми справді рухаються до AGI, то людство має розробити нові підходи, щоб подібна машина не стала загрозою.
На жаль, у нас поки що немає нічого настільки ж елегантного, як Три закони робототехніки Айзека Азімова.
Дослідники з DeepMind опікуються цією проблемою і опублікували новий технічний документ PDF, у якому пояснюється, як безпечно розробляти AGI.
Документ доступний для скачування і налічує 108 сторінок без урахування списку літератури.
Хоча багато фахівців вважають AGI фантастикою, автори документа припускають, що така система може зявитися вже до 2030 року.
У звязку з цим команда DeepMind вирішила вивчити потенційні ризики, повязані з появою синтетичного інтелекту, що має людські риси, який, як визнають самі дослідники, може призвести до серйозної шкоди.
Чотири типи загроз AGI Команда DeepMind під керівництвом одного із засновників компанії Шейна Легга Shane Legg виділила чотири категорії потенційних загроз, повязаних з AGI зловживання, невідповідність намірам, помилки і структурні ризики.
Перші дві категорії розглянуті в документі найбільш докладно, тоді як дві останні лише коротко.
Зловживання Перша загроза зловживання.
По суті, вона схожа з ризиками, повязаними з поточними ШІсистемами.
Однак AGI за визначенням буде значно потужнішим, а отже, і потенційна шкода значно вищою.
Наприклад, людина з недобрими намірами зможе використовувати AGI для пошуку вразливостей нульового дня або створення дизайнерських вірусів для використання як біологічної зброї.
DeepMind підкреслює, що компанії, які займаються розробкою AGI, зобовязані проводити ретельне тестування і впроваджувати надійні протоколи безпеки після навчання моделі.
По суті, потрібні посилені обмежувачі ШІ.
Також пропонується повністю пригнічувати небезпечні можливості так зване розучування, хоча поки незрозуміло, чи можливо це без істотного обмеження функціоналу моделей.
Невідповідність намірам Ця загроза менш актуальна для сучасних генеративних ШІ.
Однак для AGI вона може бути фатальною уявіть собі машину, яка перестала слухатися своїх розробників.
Це вже не фантастика в дусі Термінатора, а реальна загроза AGI може вчиняти дії, про які знає, що вони суперечать намірам творців.
Як рішення DeepMind пропонує використовувати посилений нагляд, коли дві копії ШІ перевіряють висновки одна одної.
Також рекомендується проводити стрестестування і постійний моніторинг, щоб вчасно помітити ознаки того, що ШІ вийшов зпід контролю.
Додатково пропонується ізолювати такі системи в захищених віртуальних середовищах із прямим контролем з боку людини і обовязково з червоною кнопкою.
Помилки Якщо ж ШІ завдає шкоди неусвідомлено, а оператор не припускав, що це можливо це помилка.
DeepMind підкреслює, що військові можуть почати використовувати AGI через конкурентний тиск, а це загрожує більш серйозними помилками, адже функціональність AGI буде набагато складнішою.
Рішень тут небагато.
Дослідники пропонують уникати надмірного посилення AGI, впроваджувати його поступово та обмежувати його повноваження.
Також пропонується пропускати команди через щит проміжну систему, що перевіряє їхню безпеку.
Структурні ризики Остання категорія структурні ризики.
Під цим розуміють ненавмисні, але реальні наслідки впровадження багатокомпонентних систем в і без того складне людське середовище.
AGI може, наприклад, генерувати настільки переконливу дезінформацію, що ми більше не зможемо довіряти нікому.
Або повільно і непомітно почати контролювати економіку і політику, наприклад, розробляючи складні тарифні схеми.
І одного разу ми можемо виявити, що вже не ми керуємо машинами, а вони нами.
Цей тип ризику є найбільш важкопередбачуваним, оскільки залежить від безлічі факторів від поведінки людей до інфраструктури та інститутів.
Чотири категорії ризику AGI, визначені DeepMind фото Google DeepMind Яким буде AGI через пять років Ніхто не знає точно, чи зявляться розумні машини через кілька років, але багато хто в індустрії впевнений, що це можливо.
Проблема в тому, що ми все ще не розуміємо, як людський розум може бути втілений у машину.
За останні роки ми дійсно побачили колосальний прогрес у генеративних ШІ, але чи призведе він до повноцінного AGI У DeepMind підкреслюють представлена робота не остаточний посібник із безпеки AGI, а лише відправна точка для вкрай важливих обговорень.
Якщо команда має рацію, і AGI дійсно зявиться вже через пять років, такі обговорення потрібно починати якомога швидше.
Вас може зацікавити Українські підлітки створили АІсервіс для боротьби з хейтом і фейками в мережі Білл Гейтс розповів про три професії, які залишаться затребуваними попри розвиток ШІ Які навички допоможуть зберегти роботу в епоху ШІ
Останні новини
