Чому штучний інтелект може проявляти дискримінацію щодо людей – пояснення науковців.
Історія нерівності потрапляє в програмний код (фото: Unsplash)
Штучний інтелект, який зазвичай вважається неупередженим, насправді має схильність повторювати і навіть посилювати людські помилки. Аналізуючи функціонування алгоритмів у сферах найму, фінансів та судочинства, дослідники дійшли висновку: машина не створює нові упередження, а лише “успадковує” їх з суспільної історії.
Чому ШІ помиляється?
Науковці пояснюють: основна проблема полягає в даних, на яких навчаються нейромережі. Наприклад, якщо компанія в минулому рідше підвищувала жінок, ШІ вивчить цю закономірність і почне автоматично надавати перевагу чоловікам у майбутньому, навіть якщо йому прямо не вказували на стать кандидатів.
Успадкованість: ШІ не вигадує дискримінацію – він її переймає з досвіду попередніх людських рішень.
Ефект “об’єктивності”: оскільки рішення приймає комп’ютер, люди схильні сприймати їх як беззаперечну істину, не помічаючи закладених у програму помилок.
Проблема “невидимих” меншин і “скляних стель”
Стандартні перевірки алгоритмів зазвичай зосереджуються лише на одному показнику, наприклад, тільки на статі або расі. Проте науковці зазначають, що в реальному житті ці характеристики перетинаються, створюючи складні форми дискримінації.
Приховані помилки: система може здаватися справедливою, якщо порівнювати чоловіків і жінок окремо, але при цьому систематично відхиляти заявки старших жінок з національних меншин.
Брак релевантних випадків: оскільки такі підгрупи зазвичай невеликі, алгоритм не бачить достатньо прикладів для навчання. В результаті він просто застосовує до них загальні шаблони, які можуть бути абсолютно некоректними.
Гроші та кредити: ціна помилки алгоритму
У банківській сфері ШІ часто трактує низький дохід або коротку кредитну історію як ознаку ненадійності. Проте це часто є наслідком того, що певні громади історично мали менший доступ до фінансових послуг. В результаті людина, яка насправді здатна погасити кредит, отримує відмову лише тому, що машина вважає її соціальну групу “ризикованою”.
Чи можливо навчити ШІ справедливості?
Фахівці зазначають, що справедливість – це не математичне рівняння, яке можна вирішити один раз. Це безперервний процес, який має включати:
Залучення громад: впливати на розробку алгоритмів повинні не лише технічні спеціалісти, а й люди, чиї інтереси ці системи зачіпають.
Постійний моніторинг: суспільство змінюється, і те, що було прийнятним сьогодні, може стати джерелом шкоди вже завтра.
Відповідальність: компанії повинні мати механізми виправлення або навіть повного відключення упереджених ШІ-систем.
“Питання тепер не в тому, чи може ШІ бути абсолютно чесним, а в тому, хто контролюватиме ці алгоритми і як змусити їх працювати на благо всього суспільства, а не лише більшості”, – підсумовують науковці.