Штучний інтелект здатен прогнозувати ймовірність домашнього насильства, аналізуючи медичні дані пацієнтів.
Алгоритм аналізує медичні записи пацієнтів і визначає ризик насильства з точністю 88%.
Вчені створили систему штучного інтелекту, яка здатна допомогти лікарям виявляти загрозу насильства з боку інтимного партнера ще до того, як жертви звернуться за допомогою. Алгоритм досліджує медичні дані пацієнтів і виявляє закономірності травм, що свідчать про випадки домашнього насильства, повідомляє EuroNews.
Дослідники з США розробили інструмент штучного інтелекту, який допомагає лікарям ідентифікувати пацієнтів із підвищеним ризиком фізичного або психологічного насильства з боку колишнього чи теперішнього партнера. Технологія використовує дані, зібрані під час звичайних візитів до лікаря, для виявлення прихованих закономірностей травм.
Насильство з боку інтимного партнера може призводити до серйозних травм, хронічного болю та психічних розладів. У лікарнях зазвичай ставлять прямі запитання пацієнтам про їхню безпеку вдома, проте багато жертв не розкривають фактів насильства через страх, стереотипи або міркування безпеки.
Для перевірки ефективності технології науковці використали медичні записи майже 850 жінок, які пережили насильство з боку партнера, а також понад 5200 пацієнток аналогічного віку з контрольної групи. На основі цих даних вони створили три різні системи штучного інтелекту. Результати дослідження опублікували в журналі Nature.
Перша модель аналізувала структуровані медичні дані, такі як вік і історія хвороби. Друга працювала з текстовими медичними нотатками лікарів і радіологічними звітами, а третя поєднувала обидва типи інформації. Найкращий результат продемонструвала комбінована система, яка правильно визначила ризик насильства у 88% випадків.
Алгоритм також зміг виявляти потенційні випадки насильства більш ніж за три роки до того, як пацієнтки пізніше потрапляли до лікарняних програм допомоги постраждалим від домашнього насильства. Система аналізує великі обсяги медичних даних і виявляє характерні комбінації травм, які можуть свідчити про ризик.
Дослідники підкреслюють, що система не замінює лікарів і не ставить діагнозів. Вона лише сигналізує про можливий ризик, щоб медики могли обережно підняти цю тему та запропонувати підтримку.
У майбутньому науковці планують інтегрувати технологію в електронні системи медичних записів. Це дозволить лікарням отримувати автоматичні оцінки ризику під час звичайних медичних оглядів.
Водночас дослідження Центру протидії цифровій ненависті (CCDH) виявило, що популярні ШІ-моделі у 75% випадків підтримували сценарії насильницьких нападів, надаючи детальні поради щодо зброї та тактики атак. Незважаючи на те, що Claude та My AI послідовно відмовляли у допомозі, системи ChatGPT та Gemini іноді генерували небезпечний контент, що змусило розробників терміново посилювати протоколи безпеки.