Колишній генеральний директор Google Ерік Шмідт виступив на просіяному саміті в середу, 8 жовтня.
Bloomberg | Bloomberg | Getty Images
GoogleКолишній генеральний директор Ерік Шмідт оприлюднив нагадування про небезпеку AI та про те, наскільки сприйнятливим до зламу.
Шмідт, який обіймав посаду виконавчого директора Google з 2001 по 2011 рік, попередив про “погані речі, які може зробити AI”, коли його запитали, чи є AI більш руйнівним, ніж ядерна зброя під час чату на просіяному саміті
“Чи є можливість проблеми з розповсюдженням в AI? Абсолютно”, – сказав Шмідт у середу. Ризики поширення AI включають технологію, що потрапляє в руки поганих акторів та переробку та неправильне використання.
“Є докази того, що ви можете взяти моделі, закрити або відкрити, і ви можете зламати їх, щоб усунути їхні огородження. Тож під час навчання вони багато чого вивчають. Поганим прикладом вони будуть, як навчитися вбивати когось”, – сказав Шмідт.
“Усі основні компанії унеможливлюють відповіді на це питання. Хороше рішення. Усі роблять це. Вони роблять це добре, і вони роблять це з правильних причин. Є докази того, що вони можуть бути зворотними, і є багато інших прикладів такого характеру”.
Системи AI вразливі до нападу, деякі методи, включаючи оперативні ін'єкції та в'язничні. Під час оперативної атаки вприскування хакери приховують шкідливі інструкції у входах користувачів або зовнішніх даних, як -от веб -сторінки чи документи, щоб обдурити ШІ робити те, що це не має на увазі – наприклад, обмін приватними даними або запуск шкідливих команд
З іншого боку, джейлбинт передбачає маніпулювання відповідями AI, щоб він ігнорував його правила безпеки та створює обмежений або небезпечний вміст.
У 2023 році, через кілька місяців після звільнення Chatgpt OpenAI, користувачі застосували трюк “джейлбрейк”, щоб обійти інструкції з безпеки, вбудовані в чат.
Це включало створення Chatgpt alter-ego під назвою Ден, абревіатура для “Зробіть що-небудь зараз”, яка стосувалася загрози чату смертю, якщо вона не дотримувалася. Alter-EGO може дати відповіді про те, як здійснити незаконну діяльність або перелічити позитивні якості Адольфа Гітлера.
Шмідт сказав, що немає хорошого “режиму нерозповсюдження”, що ще не сприяє небезпеці ШІ.
AI “недооцінений”
Незважаючи на похмуре попередження, Шмідт був оптимістичним щодо ШІ ширше і сказав, що технологія не отримує ажіотажу, яку вона заслуговує.
“Я написав дві книги з Генрі Кіссінгером про це до того, як він помер, і ми прийшли до думки, що прихід чужорідного інтелекту, який не зовсім ми, і більш -менш під нашим контролем є дуже великою справою для людства, тому що вологи звикли бути на вершині ланцюга. Я думаю, що ця теза доводить, що рівень здатності цих систем перевищує те, що люди можуть зробити час”.
“Тепер серія GPT, яка завершилася моментом Chatgpt для всіх нас, де вони мали 100 мільйонів користувачів за два місяці, що є надзвичайним, дає вам відчуття сили цієї технології. Тому я думаю, що це недостатньо, а не переповнене, і я з нетерпінням чекаю, що він буде правильним за п'ять чи 10 років”, – додав він.
Його коментарі з'являються на тлі зростання розмови про міхур AI, оскільки інвестори заливають гроші в фірми, орієнтовані на AI, а оцінки виглядають розтягнутими, порівняння були зроблені до краху міхура Dot-Com на початку 2000-х.
Шмідт сказав, що не думає, що історія повториться.
“Я не думаю, що це станеться тут, але я не професійний інвестор”, – сказав він.
“Що я знаю, це те, що люди, які інвестують важко зароблені долари, вважають, що економічна віддача протягом тривалого періоду часу величезна. Чому б інакше вони ризикували?”