...
Соціальні Мережи

Проектування AI, що дає на увазі людей, які приймають рішення

Проектування AI, що дає на увазі людей, які приймають рішення

Коли штучний інтелект знімається, як ми ефективно інтегруємо його в своє життя та свою роботу? Зв'язок розриву між обіцянкою та практикою, Джанн Шпієс, доцент кафедри операцій, інформації та технологій в аспірантурі бізнесу Стенфорда, вивчає, як алгоритми можуть бути розроблені для найбільш ефективної підтримки-а не заміни-людей, які приймають рішення.

Це дослідження особливо актуальне, оскільки машини прогнозування інтегруються в реальні програми. Монтаж емпіричних доказів свідчать про те, що рішення з високими ставками, прийнятими за допомоги AI, часто не кращі, ніж ті, що приймаються без цього. З кредитних звітів, де надмірна діяльність щодо ШІ може призвести до неправильного тлумачення показників ризику, до соціальних медіа, де моделі можуть залежати від певних слів, щоб прапор з токсичності, що призводить до неправильних класифікацій – успішної реалізації відстає від чудових можливостей технології.

“У нас не так багато роботи-все ж-це дуже серйозно сприймає дизайн інтерфейсу людини-AI”,-говорить Шпієс. “Наші дискусії щодо ШІ та можливостей ШІ справді неправильно розміщені, тому що це все про”, чи є ШІ кращий за людину? “, – продовжує він. “Я думаю, натомість ми повинні запитати:” Яке додаткове використання AI? “

Сьогодні AI має тенденцію до визначення пріоритетів, а не зручності використання, що створює набір проблем, які призводять до користувачів до прийняття поганих рішень. Якщо користувачі занадто сильно покладаються на алгоритм, наприклад, вони можуть нехтувати відповідним контекстом або інформацією, яку алгоритм може не знати. З іншого боку, якщо користувачі сприймають рекомендації як жорсткі, надмірно складні або неактуальні, вони можуть повністю відкинути їх, дефолт на власне судження та відмова від будь -яких переваг, які можуть надати алгоритмічні рекомендації. Також є неправильне тлумачення, яке може статися, якщо користувач неправильно розуміє, як алгоритм досягає своїх результатів або не вдається реалізувати обмеження алгоритму, але все одно діє за його рекомендацією.

Більш продуманий дизайн взаємодії людини-AI, Spiess ставить, визнає, як органи, які приймають рішення, реагують на рекомендації, що надають алгоритми рекомендацій. “Найкращий алгоритм – це той, який враховує, як людина буде взаємодіяти з інформацією, яку він надає”, – говорить він.

У недавній роботі Spiess та Bryce McLaughlin, доктор наук '24, з лабораторії аналітики Wharton Healthcare в університеті Пенсільванії, окреслює концептуальну рамку дизайну, моделюючи те, як люди реагують на алгоритмічні рекомендації – і представляють інший підхід до створення інструментів AI. Такий підхід, відомий як взаємодоповнюваність, має на меті вдосконалити співпрацю людини-AI, а не обходити вклад людини взагалі.

Кращі рішення, кращі результати

Для визначення його ефективності дослідники перевіряли різні стратегії рекомендації в модельованому експерименті з найму, де суб'єкти прийняли 25 рішень щодо найму з різним рівнем алгоритмічної допомоги. Люди, які використовують додатковий алгоритм – який пропонував селективні рекомендації у випадках, коли людина, ймовірно, буде невизначеною або неправильною – прийняла найточніші рішення, що перевершують ті, що використовують суто прогнозний алгоритм, а також ті, хто не використовує жодної алгоритмічної підтримки.

Цитата

“Найкращий алгоритм – це той, який враховує, як людина буде взаємодіяти з інформацією, яку він надає”.

Це обнадійливий результат, який Spiess та його співробітники оцінюють у кількох дослідницьких проектах. “Є багато обіцянок [around] AI вдосконалення рішень і завдяки вдосконаленням результатів, – каже Шпієс. Якщо ми зможемо навчитися вдосконалити політику, використовуючи дані – і використовуючи їх у масштабі в процесах, які є прозорими та справедливими – ми можемо створити алгоритми, які виконують обіцянку цієї нової технології ».

SPIESS особливо зацікавлений у програмах, які впливають на те, як розподіляються послуги в середовищі, що обмежуються ресурсами, таких як розміщення репетиторів у недооцінених шкільних округах з обмеженими бюджетами.

SPIESS припускає, що підхід підприємств-прибутку-максимізацію прибутку-може бути застосований до соціального впливу. “Оголошення націлені, але чи можемо ми краще націлити на соціальні втручання? Це рішення з високими ставками, і якщо ви можете використовувати алгоритми для поліпшення розподілу ресурсів у масштабі, існує ряд випадків використання високої цінності, де ми не маємо готових або чітких рішень”.

Це тип питання, на який Стенфорд GSB особливо добре підходить для відповіді, каже Шпієс, посилаючись на колег, таких як професор економіки Сьюзен Аті, директор лабораторії соціального впливу Golub Capital.

“Доставка цих рішень вимагає складання технічної спроможності з контекстом та вмінням моделювати людський компонент. Ми унікально розміщені думати про алгоритми в контексті та маємо багату історію цього”, – говорить він. “Плюс, ми в Силіконовій долині. Ми занурюємось із інструментами для фактичного впровадження проектів у цьому просторі”.

Alex

About Author

Recommend – дізнавайтеся більше про події, що формують наше сьогодення. Найцікавіші новини України та світу, аналітика, тренди та ексклюзивні матеріали – все це на recommend.com.ua!

Отримуйте останні оновлення та великі пропозиції