Штучний інтелект у науці – як правильно декларувати використання нейромереж


Сьогодні дедалі більше користувачів — від студентів до дослідників — звертаються до мовних моделей на кшталт ChatGPT для створення, редагування або перекладу текстів. Та разом із новими можливостями з’являється й нова етика: як саме ми користуємося цими інструментами й наскільки відкрито готові про це говорити.
Люди та ШІ за одним столом
Швидке поширення мовних моделей, таких як ChatGPT, не лише змінило звичні підходи до написання чи редагування текстів, а й породило нову невизначеність: де межа між людським авторством і машинною допомогою?
Іще одне ускладнення — упереджене ставлення до самого факту використання генеративного штучного інтелекту (ШІ). Ті, хто чесно визнає, що скористався мовною моделлю для перекладу чи редагування, ризикують почути звинувачення в нечесності. У науковому середовищі це перетворюється на справжнє табу: краще промовчати, ніж бути запідозреним у використанні «робота-помічника».
Такий страх породжує невизначеність в етичних підходах. Одні користуються ШІ, але не зізнаються в цьому. Інші критикують його вголос, хоча самі теж вряди-годи звертаються до таких інструментів. Це підриває довіру до науки загалом. Ми маємо справу не лише з новою технологією, а й з етичною дилемою: інструмент, що мав би спрощувати роботу, стає джерелом підозр і звинувачень.
В освіті ситуація схожа. Викладачі активно користуються ШІ для підготовки курсів, програм чи звітів, але водночас витрачають багато часу на пошук слідів ChatGPT у студентських роботах.
Іноді це й справді помітно: деякі тексти мають типові ознаки машинної генерації — занадто правильну структуру, зайву впевненість у формулюваннях або універсальні фрази, які ніби пасують до всього й ні до чого конкретно. Однак постійна гонитва за «викриттям» не розв’язує проблеми — вона лише посилює атмосферу недовіри в академічному середовищі. Замість того, щоб навчати відповідального використання нових технологій, ми ризикуємо відтворити застарілу модель покарань і заборон, де страх переважає над здоровим глуздом.
Як колись ми вчилися працювати з калькулятором чи пошуковою системою, так сьогодні маємо опанувати генеративний ШІ. Адже головне — не сам інструмент, а те, як саме ми його застосовуємо й чи готові говорити про це відкрито.
Як реагують регулятори
Комітет з етики публікацій (Committee on Publication Ethics, COPE) майже два роки тому чітко заявив: ШІ не може бути автором, не несе відповідальності за зміст і не має права погоджувати остаточну версію рукопису. Водночас якщо дослідник використовував ШІ для перекладу, редагування чи пошуку літератури, це слід прозоро зазначити.
Міжнародний комітет редакторів медичних журналів (International Committee of Medical Journal Editors, ICMJE) оновив рекомендації, зобов’язавши авторів описувати, як саме було використано ШІ. Редакції також закликають рецензентів дотримуватись етичних норм: не завантажувати чужих рукописів у ШІ-сервіси й не передавати їх машині без згоди авторів.
Найбільші наукові видавництва також реагують на нові виклики. Наприклад, Elsevier вимагає окремого розділу Declaration of Generative AI, де буде зазначено, який інструмент було використано і з якою метою. Springer Nature забороняє згенеровані зображення й наголошує, що автором може бути лише людина. Wiley наполягає на детальному документуванні всіх випадків використання ШІ — від розроблення ідеї до фінального оформлення.
Свої підходи формують і університети: одні дозволяють використання генеративного ШІ під наглядом викладача, інші — лише для технічних завдань, як-от переклад чи редагування.
Утім, спільного стандарту досі немає. Невизначеність залишається: де саме й у якій формі вказувати залучення ШІ — у тексті, в примітці, окремому файлі чи метаданих? Автори не завжди розуміють, що саме потрібно зазначити, а редактори й рецензенти — як це оцінювати. Читачі ж не впевнені, наскільки можна довіряти таким матеріалам.
У цій ситуації особливо важливо виробити чіткі та зрозумілі етичні правила, яких зможуть дотримуватись усі учасники наукового процесу.
Запропоновані рішення
Одним із рішень спершу вважали так звані детектори ШІ — інструменти, які мали визначати, чи текст згенеровано машиною. Проте практика показала їхню обмежену надійність. Вони часто помиляються: можуть «покарати» користувачів за звичайне редагування або переклад, водночас не розпізнаючи справді згенерованих фрагментів. Дослідження також вказують на ймовірну упередженість щодо текстів авторів, для яких англійська не є рідною мовою. Жоден із таких детекторів не забезпечує гарантій, адже мовні моделі постійно змінюються, а людська мова є занадто складною й гнучкою.
Інша ідея — маркувати тексти, створені ШІ, за допомогою водяних знаків. Проте це може призвести до зворотного ефекту: посилити стигматизацію й розділити тексти на «допустимі» та «підозрілі». Замість формування культури відповідального використання така практика може закріпити атмосферу недовіри.
Насправді проблема не в самому генеративному ШІ, а в тому, що ми ще не навчилися відкрито й чесно пояснювати, як саме ним користуємося. Без такої прозорості межа між людською роботою й машинною допомогою стає дедалі менш помітною.
Ще одна з обговорюваних ідей — вимагати від авторів надавати «промпти» (запити до чат-ботів), аби краще розуміти, як саме було використано ШІ. На перший погляд це виглядає логічно, але на практиці така вимога спричиняє низку труднощів.
По-перше, робота з мовними моделями зазвичай є ітеративною: користувачі змінюють формулювання, додають уточнення, звертаються до сторонніх інструментів. У підсумку створюється довгий ланцюжок запитів, який складно або й неможливо відтворити з точністю.
По-друге, запити нерідко містять неопубліковані дані, фрагменти досліджень або іншу конфіденційну інформацію. Зберігання або публікація таких журналів може порушити етичні, договірні чи правові норми.
Тому промпти радше фіксують хід роботи, ніж гарантують її відтворюваність. Вони не замінюють стандартів наукової доброчесності й не забезпечують прозорості автоматично.
На цьому тлі дедалі очевидніше: простих рішень немає. Маркування робить використання ШІ помітним, але не обов’язково відповідальним. Детектори та водяні знаки технічно нестабільні й не завжди справедливі. Вимога розкривати запити до чат-ботів створює ризики для конфіденційності й може суперечити етичним нормам. А загальні формулювання на кшталт «я використовував ChatGPT» є занадто розмитими, аби забезпечити реальну прозорість.
Повна заборона, своєю чергою, — теж не вихід. Вона не розв’язує проблеми, а лише гальмує адаптацію наукових практик до нової реальності. І саме тому варто зосередитися не на покаранні, а на створенні зрозумілих і чесних правил гри.
Як говорити про ШІ чесно й без страху: рішення GAIDeT
Щоби зробити використання ШІ в науці прозорим, потрібна проста й зрозуміла система, що дасть змогу чітко зафіксувати, які саме завдання виконувалися за допомогою штучного інтелекту, — без стигми, зайвої бюрократії чи страху виглядати нечесним. Одне з таких рішень — GAIDeT (Generative AI Delegation Taxonomy), таксономія делегування генеративного ШІ.
Вона побудована за аналогією з CRediT (Contributor Role Taxonomy), яка описує внесок людських авторів у публікації — наприклад, «написання», «аналіз даних» чи «візуалізація». GAIDeT натомість дозволяє зазначити, які саме функції було делеговано ШІ: редагування, переклад, пошук літератури, підготовку таблиць тощо.
Для зручності створено Генератор декларацій GAIDeT — інструмент, який дає змогу обрати зі списку відповідні завдання та сформувати готовий текст, який можна вставити в статтю чи дипломну роботу.
У центрі такого підходу залишається людина: саме вона вирішує, як і коли застосовувати ШІ, і саме вона несе відповідальність за результат. GAIDeT лише робить цю взаємодію прозорою, зрозумілою та відтворюваною.
Хто вже підтримав: від журналів до університетів
У науковому середовищі дедалі більше визнають: прозоре використання генеративного ШІ — не факультативна опція, а необхідна умова довіри. Чимало журналів уже закликають авторів відкрито зазначати, якою була роль ШІ в підготовці матеріалів.
Наприклад, кілька медичних журналів Харківського національного університету імені В.Каразіна вже інтегрували GAIDeT у свої редакційні політики. Відтепер поруч з інформацією про авторів, фінансування та конфлікт інтересів з’являється окремий розділ — «Розкриття внеску ШІ». Це допомагає зробити процес рецензування прозорішим: редактори, рецензенти й читачі бачать повну картину, без припущень і підозр.
GAIDeT також обговорюють на низці міжнародних платформ, зокрема в Research Professional News (Clarivate), Future Campus, Leiden Madtrics, Scholarly Kitchen і Times Higher Education — виданнях, які активно формують наукову політику й стандарти у сфері вищої освіти.
В Україні GAIDeT також поступово входить у професійний обіг. Його обговорюють на спеціалізованих майданчиках — від Літньої школи «ШІ + освіта + наука 2.0» під егідою Інноваційного університету до Українського форуму якості освіти (UQAF-2025), організованого НАЗЯВО. Деякі заклади вже почали впроваджувати GAIDeT у свої політики щодо використання ШІ в освіті й науці. Серед них — Бердянський державний педагогічний університет і Київський столичний університет імені Бориса Грінченка.
Один із наступних кроків розвитку GAIDeT — упровадження інформації про використання генеративного ШІ безпосередньо в метадані наукових публікацій. Це дасть змогу зробити такі внески машиночитними: не лише помітними для читача, а й доступними для бібліометричних систем, репозитаріїв і пошукових сервісів. Для цього вже створено відповідну онтологію, й наразі тривають перші етапи її тестування.
Чому це важливо для всіх нас
На перший погляд, тема використання генеративного ШІ в науці може здаватися суто професійною — справою дослідників, рецензентів і редакторів. Але насправді вона стосується кожного. Від прозорості наукових практик залежать і довіра до підручників, і безпечність ліків, і надійність технологій, що входять у наше повсякденне життя.
GAIDeT пропонує інструмент, який допомагає не контролювати, а розуміти. Йдеться не про покарання за використання генеративного ШІ, а про створення умов, у яких прозорість є частиною нормальної наукової практики.
Для України це питання набуває ще більшого значення. Ми будуємо відкриту та сучасну науку, що прагне інтегруватись у світовий простір. І важливо, щоб вона асоціювалася не з обмеженнями чи недовірою, а з відповідальністю, гідністю та відкритістю.
Людина й машина вже працюють разом. Але ключова роль залишається за людиною — вона ухвалює рішення, відповідає за зміст і пояснює, як саме використовувала ШІ. GAIDeT дає для цього мову. І саме така відверта мова — перед колегами, читачами й суспільством — формує довіру до науки.