Чому штучний інтелект може проявляти дискримінацію щодо людей – пояснення науковців.

Історія нерівності потрапляє в програмний код (фото: Unsplash)

Штучний інтелект, який зазвичай вважається неупередженим, насправді має схильність повторювати і навіть посилювати людські помилки. Аналізуючи функціонування алгоритмів у сферах найму, фінансів та судочинства, дослідники дійшли висновку: машина не створює нові упередження, а лише “успадковує” їх з суспільної історії.

Чому ШІ помиляється?

Науковці пояснюють: основна проблема полягає в даних, на яких навчаються нейромережі. Наприклад, якщо компанія в минулому рідше підвищувала жінок, ШІ вивчить цю закономірність і почне автоматично надавати перевагу чоловікам у майбутньому, навіть якщо йому прямо не вказували на стать кандидатів.

Успадкованість: ШІ не вигадує дискримінацію – він її переймає з досвіду попередніх людських рішень.

Ефект “об’єктивності”: оскільки рішення приймає комп’ютер, люди схильні сприймати їх як беззаперечну істину, не помічаючи закладених у програму помилок.

Проблема “невидимих” меншин і “скляних стель”

Стандартні перевірки алгоритмів зазвичай зосереджуються лише на одному показнику, наприклад, тільки на статі або расі. Проте науковці зазначають, що в реальному житті ці характеристики перетинаються, створюючи складні форми дискримінації.

Приховані помилки: система може здаватися справедливою, якщо порівнювати чоловіків і жінок окремо, але при цьому систематично відхиляти заявки старших жінок з національних меншин.

Брак релевантних випадків: оскільки такі підгрупи зазвичай невеликі, алгоритм не бачить достатньо прикладів для навчання. В результаті він просто застосовує до них загальні шаблони, які можуть бути абсолютно некоректними.

Гроші та кредити: ціна помилки алгоритму

У банківській сфері ШІ часто трактує низький дохід або коротку кредитну історію як ознаку ненадійності. Проте це часто є наслідком того, що певні громади історично мали менший доступ до фінансових послуг. В результаті людина, яка насправді здатна погасити кредит, отримує відмову лише тому, що машина вважає її соціальну групу “ризикованою”.

Чи можливо навчити ШІ справедливості?

Фахівці зазначають, що справедливість – це не математичне рівняння, яке можна вирішити один раз. Це безперервний процес, який має включати:

Залучення громад: впливати на розробку алгоритмів повинні не лише технічні спеціалісти, а й люди, чиї інтереси ці системи зачіпають.

Постійний моніторинг: суспільство змінюється, і те, що було прийнятним сьогодні, може стати джерелом шкоди вже завтра.

Відповідальність: компанії повинні мати механізми виправлення або навіть повного відключення упереджених ШІ-систем.

“Питання тепер не в тому, чи може ШІ бути абсолютно чесним, а в тому, хто контролюватиме ці алгоритми і як змусити їх працювати на благо всього суспільства, а не лише більшості”, – підсумовують науковці.