Meta AI помилково пов’язав активіста із заворушеннями — компанія уклала мирну угоду та запросила його радником — новини технологій

Meta AI помилково пов’язав активіста із заворушеннями — компанія уклала мирну угоду та запросила його радником — новини технологій 1 Meta врегулювала судову справу про наклеп ШІ, коли він назвав активіста учасником заворушень у Капітолії.

Meta Platforms досягла мирної угоди з консервативним активістом Роббі Старбаком, який подав до суду, стверджуючи, що чат-бот компанії з елементами штучного інтелекту помилково повідомив про його участь у заворушеннях у Капітолії 6 січня 2021 року. У межах домовленостей Старбак надаватиме консультації Meta, зокрема щодо зменшення політичної упередженості у ШІ-сервісах компанії, повідомляє The Wall Street Journal.

У спільній заяві Meta та Старбак повідомили, що після початку їхньої взаємодії компанія “значно просунулась” у підвищенні точності роботи Meta AI та зменшенні ідеологічної та політичної упередженості. Інші умови угоди не розголошуються. Раніше активіст вимагав понад 5 млн доларів компенсації, подавши позов у Верховний суд штату Делавер у квітні.

В інтерв’ю CNBC Старбак відмовився уточнювати, чи отримав він фінансову виплату від Meta. Він зазначив, що після подання позову спілкувався з керівниками та інженерами компанії щодо особливостей навчання ШІ та необхідних змін для усунення неточностей. За його словами, мета полягає в створенні “етичного ШІ”, який залишатиметься політично нейтральним.

Старбак дізнався про некоректні твердження Meta AI влітку 2024 року, коли закликав компанію Harley-Davidson переглянути політику різноманітності, рівності та інклюзії (DEI). Один із дилерів Harley у Вермонті опублікував у соцмережі X знімок екрана з відповіддю Meta AI, в якій стверджувалося, що активіст був на заворушеннях у Капітолії та мав зв’язки з QAnon. Старбак заперечив ці звинувачення та через соцмережі звернувся до керівництва Meta, включно з генеральним директором Марком Цукербергом, із вимогою видалити неправдиву інформацію. Його адвокат також надіслав компанії офіційний лист з вимогою припинити поширення таких тверджень.

Meta в квітні у своєму блозі повідомила, що працює над усуненням політичної упередженості зі своїх ШІ-моделей. За даними компанії, історично такі системи схилялися вліво в оцінках гострих суспільно-політичних тем через специфіку навчання. Meta заявила, що її мета – зробити моделі, зокрема Llama, здатними коректно викладати обидві сторони спірних питань.

Нещодавно стало відомо, що підрядники компанії Meta мають доступ до приватних розмов користувачів із ШІ-чатботами. Це необхідно для покращення моделей, однак серед відкритих даних є чутлива інформація, яка дозволяє ідентифікувати людей. Хоча Meta заявляє про сувору політику конфіденційності, самі підрядники підтвердили, що ця практика є поширеною серед розробників ШІ.

Джерело

Цей веб-сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що ви з цим згодні, але ви можете відмовитися, якщо хочете. Прийняти Детальніше

Політика конфіденційності