Приватні чати з ChatGPT можуть потрапити в Google — розслідування

Приватні чати з ChatGPT можуть потрапити в Google — розслідування 1 Чати стають доступними всім, якщо поділитися ними із друзями.

Приватний обміни чатами GPT через функцію “Поділитися” робить їх доступними для мільйонів користувачів інтернету. індексує такі розмови, навіть якщо ви поширили їх у невеликому колі близьких, повідомляє Fast Company.  

Теханалітики видання з’ясували це, просто ввівши у рядок пошуку частину посилання, яке генерується сервісом для поширення. Користувачі ChatGPT обмінюються із ботом великою кількістю чутливої інформації. Обговорюють медичні діагнози, просять поради з побутових питань, діляться переживаннями, як з психотерапевтом

Приватні чати з ChatGPT можуть потрапити в Google — розслідування 2 Дослідники дали тривожний сигнал: стеження за людьми стало нормою та ставить під загрозу приватність

Хоча сервіс приховує власника чату, але по деталях переписки частина з них може бути деанонімізована. Проводячи своє розслідування, журналісти Fast Company змогли “нагуглити” близько 4500 особистих розмов.  

Google індексує не всі ваші розмови і навіть у відкритих не завжди є приватна інформація. Але фахівці із кібербезпеки наполегливо радять враховувати цей момент перед тим, як ділитися своїми чатами з мовними моделями GPT. 

В OpenAI так прокоментували виявлені проблеми з безпекою чутливих даних:

“Розмови в ChatGPT є приватними, якщо ви не вирішите поділитися ними. Створення посилання для поширення вашого чату передбачає опцію зробити його видимим у вебпошуку. Спільні чати видно в Google лише тоді, коли користувачі явно виберуть цю опцію”. 

Приватні чати з ChatGPT можуть потрапити в Google — розслідування 3 Зі світу мистецтва в кібербезпеку: історія сміливого вибору дівчини, що змінила пензлі на пентести

Журналісти Fast Company констатують, що ймовірно ця функція є недостатньо наголошеною та інтуїтивно зрозумілою, якщо така велика кількість особистих переписок опинилася в публічному доступі. Серед таких є чати з детальним описом сімейного життя, консультації щодо психічних розладів та їх симптомів у дітей, тощо. 

Видання попросило прокоментувати цей кейс аналітикиню з кібербезпеки та гендиректорку SocialProof Security Рейчел Тобак:

“Люди очікують, що зможуть використовувати такі інструменти, як ChatGPT, абсолютно конфіденційно, — зазначила вона. —  Але реальність така, що багато користувачів не до кінця розуміють, що ці платформи мають функції, які можуть ненавмисно розкривати їхні найінтимніші запитання, історії та страхи”.

Раніше журналісти The Wall Street Journal з’ясували, що архітектура безпеки у популярних моделей штучного інтелекту є дуже слабкою. Спочатку ШІ навчають, а потім кількома сторінками коду встановлюють безпекові обмеження. Зняти ці обмеження дуже просто, якщо за справу візьметься фахівець. 

Моделі, що не обмежені системою захисту, можуть планувати апокаліптичні сценарії, геноциди та ідеї для скидання урядів. А ті, які не зазнали зовнішніх втручань, потурають людям із психозними маяченнями, чим погіршують їх ментальний стан.

Джерело

Цей веб-сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що ви з цим згодні, але ви можете відмовитися, якщо хочете. Прийняти Детальніше

Політика конфіденційності