OpenAI фінансує дослідження моральності штучного інтелекту
OpenAI фінансує дослідження алгоритмів, які можуть прогнозувати моральні судження людей. Грант на 1 мільйон доларів отримали дослідники Дюкського університету в рамках трирічного проєкту під назвою «Дослідження моральності штучного інтелекту».
Проєкт очолює професор практичної етики Волтер Сіннот-Армстронг. Робота дослідників передбачає створення алгоритмів, які можуть аналізувати складні моральні конфлікти у сферах медицини, права та бізнесу. Утім, сам Сіннот-Армстронг утримується від коментарів щодо деталей дослідження.
Сіннот-Армстронг разом із колегою Яною Борг раніше працювали над алгоритмами, які виступають як «моральний GPS». Наприклад, вони створили модель для визначення, хто має отримати донорський орган на основі етичних критеріїв, а також досліджували, у яких ситуаціях люди довіряють штучному інтелекту приймати моральні рішення.
Сучасні системи машинного навчання демонструють обмежену здатність до розв’язання етичних питань. Раніше розроблений інструмент Ask Delphi від Інституту штучного інтелекту Аллена показав, що навіть незначні зміни у формулюванні запитань можуть впливати на моральні оцінки, які надає ШІ.
Причина цього — алгоритми, які навчаються на великих наборах даних із вебресурсів, відображають переважно західні цінності, не враховуючи різноманіття культурних та соціальних контекстів. Це призводить до упереджень у висновках.
Джерело: TechCrunch