Штучний інтелект та інтелектуальна власність: хто володіє результатом, якщо “автор” — машина?
Зміст статті
Генеративний штучний інтелект більше не є технологічною екзотикою — він став повсякденним інструментом юристів, дизайнерів, програмістів і бізнесу. Проте українське та міжнародне право ще не встигли дати вичерпні відповіді на фундаментальне запитання: якщо твір, код або зображення створила машина, хто є їхнім власником? Ця стаття систематизує наявне правове регулювання, аналізує ключові судові прецеденти та надає практичні рекомендації для бізнесу.
Проблема суб’єктності: ШІ як інструмент, а не автор
Що каже поточне законодавство
Правові системи України, Європейського Союзу та США у питанні авторства дотримуються спільного базового принципу: автором може бути лише фізична особа. Це не технічна норма, а концептуальна основа всього авторського права.
В Україні стаття 1 Закону «Про авторське право і суміжні права» визначає автора як фізичну особу, творчою працею якої створено твір. Юридичні особи та будь-які технічні засоби не можуть бути визнані авторами — вони можуть набувати лише майнових прав на твір.
У праві ЄС Директива 2019/790 про авторське право на єдиному цифровому ринку (DSM Copyright Directive) та Регламент про штучний інтелект (AI Act, 2024) не наділяють ШІ-системи правосуб’єктністю. AI Act класифікує моделі та системи штучного інтелекту як продукти або послуги — без будь-яких ознак суб’єкта права.
У США Бюро з авторських прав (U.S. Copyright Office) у своїх роз’ясненнях 2023–2024 років чітко зазначило: твори, створені виключно ШІ без «достатнього людського творчого контролю», не підлягають охороні авторським правом. Рішення у справі Thaler v. Perlmutter (2023) підтвердило: суди відмовляють у реєстрації авторських прав на твори, де єдиним “автором” зазначено AI-систему.
ШІ як інструмент: аналогія з фотоапаратом
Зручна аналогія для розуміння правового статусу ШІ — фотоапарат. Камера фіксує зображення, але авторське право належить фотографу, який зробив творче рішення щодо ракурсу, композиції та моменту зйомки. Так само і з ШІ: система генерує контент, але правовий суб’єкт — людина, яка формулює задачу, визначає параметри та приймає творчі рішення.
Критично важливим є ступінь людського творчого внеску. Що детальніший та специфічніший промпт, що більше людина коригує, редагує та спрямовує результат ШІ, то вищі шанси на визнання авторського права за цією людиною. І навпаки: якщо особа просто натиснула кнопку «згенерувати» без жодного творчого вкладу, правова охорона результату стає вкрай проблематичною
Об’єкти «неочевидного» авторства: кому належить згенерований контент
2.1 Три можливі претенденти на права
Коли ШІ-система генерує код, дизайн, текст або зображення, виникає питання розподілу прав між трьома категоріями суб’єктів:
- Розробник AI-моделі (наприклад, OpenAI, Google, Anthropic, Stability AI)
- Оператор — компанія або підприємець, що інтегрує ШІ у свій продукт чи сервіс
- Кінцевий користувач, який формулює промпти та використовує результати
Відповідь на питання розподілу прав переважно криється у Умовах надання послуг (Terms of Service / ToS) конкретної AI-платформи, а не у загальному авторському праві.
2.2. Що зазвичай визначають Terms of Service
Аналіз ToS провідних AI-платформ демонструє загальну тенденцію: більшість компаній відступають від претензій на авторство результатів генерації та передають їх користувачу. Наприклад:
- OpenAI (ChatGPT, DALL-E): відповідно до поточних умов, вихідний контент (output) передається користувачу в тій мірі, в якій OpenAI має на нього права.
- Midjourney: за безкоштовним планом — Creative Commons NC 4.0; за платними планами — комерційні права передаються користувачу.
- GitHub Copilot: Microsoft прямо зазначає, що не претендує на авторство згенерованого коду; відповідальність за комплаєнс покладається на користувача.
Важливе застереження: передача прав від платформи до користувача — це лише договірна домовленість, яка не вирішує питання правової охороноздатності контенту. Якщо матеріал не відповідає критерію «достатнього людського творчого внеску», він може взагалі не охоронятися авторським правом — незалежно від того, що написано в ToS.
2.3. Практичні сценарії та рекомендації
Сценарій А. AI-згенерований код
Розробник використовує GitHub Copilot або ChatGPT для написання коду. Якщо розробник активно вносить творчий внесок — задає архітектуру, визначає алгоритми, редагує та інтегрує результат — авторське право виникає у нього. Якщо ж код скопійовано «as is» без суттєвої адаптації, правова охорона залишається під питанням. Додаткова складність: Copilot міг навчитися на чужому ліцензованому коді (детальніше — в Розділі 3).
Сценарій Б. AI-згенерований дизайн та зображення
Маркетолог створює логотип за допомогою Midjourney. Ступінь правового захисту результату залежатиме від складності та специфічності промпту, кількості ітерацій та ступеня людського редагування фінального зображення. Реєстрація торговельної марки на суто AI-згенерований логотип без достатнього людського творчого елемента буде вразливою.
Сценарій В. AI-згенеровані юридичні документи
Компанія використовує ШІ для підготовки шаблонів договорів. Автором кінцевого документа вважатиметься юрист або компанія, якщо вони суттєво редагували, структурували та адаптували результат. Проте якщо документ — просто «перерахований» промпт, питання авторства залишається відкритим. У будь-якому разі, юридична відповідальність за зміст документа лежить на людині.
Ризики використання Open Source даних: як ШІ може порушити ваші авторські права
3.1. Як навчаються AI-моделі та де виникає проблема
Сучасні великі мовні моделі та дифузійні системи генерації зображень навчаються на масивах даних з інтернету, які включають мільярди текстів, зображень, фрагментів коду та інших матеріалів. Значна частина цих матеріалів охороняється авторським правом або ліцензована на умовах, що обмежують комерційне використання.
Проблема виникає на двох рівнях:
- Рівень розробника моделі: чи мав він право використовувати захищені матеріали для навчання?
- Рівень кінцевого користувача: чи не містить згенерований результат охоронюваних елементів з тренувальних даних?
3.2. Знакові судові справи
GitHub Copilot — справа Doe v. GitHub (2022–2024)
Клас позивачів — розробники програмного забезпечення — подали колективний позов проти GitHub, Microsoft та OpenAI, стверджуючи, що Copilot навчався на їхньому коді, розміщеному на GitHub під відкритими ліцензіями (MIT, GPL тощо), без дотримання умов цих ліцензій. Зокрема, Copilot відтворював фрагменти коду без збереження attribution (зазначення авторства) та без дотримання умов copyleft-ліцензій.
Ключовий правовий аргумент: відкрита ліцензія не означає відсутності авторських прав. MIT або Apache 2.0 — це не «публічне надбання», а ліцензія з конкретними умовами використання. Порушення умов ліцензії означає порушення авторського права.
Stability AI, Midjourney, DeviantArt — позови художників (2023)
Групи художників у США та Великобританії подали позови проти компаній, що розробляють генератори зображень, стверджуючи пряме порушення авторських прав: навчання на мільярдах зображень без дозволу та компенсації авторам. Паралельно видавнича компанія Getty Images подала позов проти Stability AI за несанкціоноване використання 12 мільйонів фотографій з бази даних.
The New York Times v. OpenAI та Microsoft (2023)
The New York Times подала позов, стверджуючи, що ChatGPT та Copilot навчалися на мільйонах статей видання без дозволу та здатні відтворювати їх зміст майже дослівно. Справа порушила питання конкурентного витіснення: ШІ-системи можуть надавати відповіді на основі контенту, за який видання отримувало підписну плату.
3.3. Концепція «меморизації» та ризики для бізнесу
Дослідження показують, що великі мовні моделі здатні відтворювати — повністю або частково — фрагменти з тренувальних даних. Це явище відоме як memorization. Практичний ризик: компанія може мимоволі опублікувати в своєму продукті фрагмент охоронюваного тексту або коду, навіть не підозрюючи про це.
Особливу небезпеку становить використання AI-згенерованого коду у комерційних продуктах без перевірки його походження. Якщо Copilot відтворив фрагмент GPL-ліцензованого коду у вашому proprietary-продукті, юридичні наслідки можуть включати зобов’язання відкрити весь вихідний код продукту (вірусний ефект GPL).
Рекомендації для бізнесу
4.1. Правова гігієна при використанні AI-інструментів
- Ретельно вивчайте Terms of Service AI-платформ перед комерційним використанням. Умови регулярно змінюються — призначте відповідальну особу для їх моніторингу.
- Документуйте творчий процес. Зберігайте промпти, ітерації, версії та записи про людські редакції — це ваш доказ «достатнього творчого внеску» у разі правового спору.
- Розмежовуйте AI-контент та людський контент у внутрішніх системах. Для критично важливих матеріалів (логотипи, патентні заявки, ключові договори) не покладайтеся лише на AI.
- Не реєструйте авторське право на суто AI-згенеровані матеріали — така реєстрація буде вразливою та може бути скасована.
4.2. Безпечне використання AI у розробці програмного забезпечення
- Запровадьте внутрішню політику AI Code Review: весь AI-згенерований код повинен проходити перевірку на предмет подібності до відомих ліцензованих джерел.
- Використовуйте спеціалізовані інструменти для сканування коду на предмет ліцензійних зобов’язань (наприклад, FOSSA, Black Duck, ScanCode).
- Для розробки закритих комерційних продуктів обирайте AI-інструменти, що пропонують комерційні гарантії та індемніфікацію (наприклад, GitHub Copilot Business, Amazon CodeWhisperer for Business).
- Ведіть реєстр AI-інструментів: які системи використовуються, для яких цілей, на яких умовах.
4.3. Захист власних прав на AI-контент
- Розробіть внутрішню AI-політику компанії, що регулює: дозволені інструменти, порядок документування, права на результати, обмеження для конфіденційних даних.
- У договорах з підрядниками та фрілансерами, що використовують AI у роботі для вас, прямо врегулюйте питання передачі прав на AI-згенерований контент.
- Для максимального захисту бренду — поєднуйте AI-генерацію з суттєвим людським творчим внеском та документуйте цей процес.
- Уважно поставтеся до конфіденційності: не вносьте в публічні AI-платформи комерційну таємницю, персональні дані клієнтів або інформацію під NDA.
4.4. Договірне врегулювання
Рекомендуємо включати до корпоративних договорів, зокрема договорів з постачальниками IT-послуг, ліцензійних угод та договорів про розробку ПЗ, наступні положення:
- Декларація щодо AI: чи використовувався ШІ при створенні deliverables, і якщо так — яким чином.
- Гарантія оригінальності: підрядник гарантує, що AI-згенерований контент не порушує права третіх осіб.
- Індемніфікація: розподіл відповідальності на випадок претензій третіх осіб щодо авторських прав.
- Ліцензійний аудит: право замовника перевірити відповідність використаних AI-інструментів ліцензійним вимогам.
Підсумки
Питання авторства у сфері штучного інтелекту — це не абстрактна академічна дискусія, а реальна правова зона ризику для бізнесу. Підсумуємо ключові висновки:
- ШІ не є і не може бути автором за чинним законодавством України, ЄС та США. Усі права виникають або не виникають у людини.
- Правовий захист AI-згенерованого контенту залежить від ступеня людського творчого внеску. Що він вищий — то міцніший захист.
- Умови використання AI-платформ (ToS) є основним договірним механізмом розподілу прав між платформою, оператором та користувачем.
- Навчання AI на ліцензованих даних та «меморизація» відкритих джерел є реальним правовим ризиком, підтвердженим судовою практикою США та ЄС.
- Компанії можуть мимоволі порушити авторські права третіх осіб, використовуючи AI-інструменти без належного комплаєнсу.
- Профілактика краща за судовий захист: внутрішня AI-політика, документування процесів та договірне врегулювання — основа правової безпеки бізнесу.
Регуляторне середовище у сфері AI та інтелектуальної власності стрімко змінюється. Очікується, що найближчі 2–3 роки принесуть суттєві законодавчі та судові уточнення — як на рівні ЄС (у рамках AI Act та оновлення авторського права), так і в Україні в контексті євроінтеграції. Бізнес, який сьогодні закладає правову гігієну у роботі з AI, матиме суттєву перевагу в умовах прийдешнього регуляторного посилення.
Часті запитання про ШІ та інтелектуальну власність. Нижче зібрані відповіді на найпоширеніші запитання, які надходять до нашої практики від клієнтів, що працюють з інструментами штучного інтелекту.
Чи може ШІ бути офіційно зареєстрований як автор або винахідник?
Якщо я заплатив за підписку ChatGPT або Midjourney — чи належить мені згенерований контент?
Чи можна зареєструвати торговельну марку на логотип, створений AI?
Чи несу я юридичну відповідальність, якщо AI-інструмент порушив чиєсь авторське право?
Чи законно навчати власну AI-модель на чужих текстах, зображеннях або коді?
Що таке «текстовий та даних майнінг» (TDM) і як він регулюється в ЄС?
Як захистити свою базу знань або датасет від використання для навчання чужих AI-моделей?
Що таке «вірусний ефект GPL» і чому він небезпечний при використанні AI-коду?
Як регулює ці питання AI Act Європейського Союзу?
Чи потрібно вказувати, що контент створений за допомогою ШІ?
Чи може ШІ бути офіційно зареєстрований як автор або винахідник?
Ні. Станом на 2026 рік жодна правова система світу не визнає ШІ суб’єктом авторського чи патентного права. У справі Thaler v. Vidal (США, 2022) та паралельних справах в ЄС і Великобританії суди одностайно відмовили у реєстрації патентів, де винахідником зазначено AI-систему DABUS. Аналогічно, U.S. Copyright Office відмовляє у реєстрації авторських прав на твори, де єдиним автором вказано ШІ. Автором або винахідником може бути лише фізична особа.
Якщо я заплатив за підписку ChatGPT або Midjourney — чи належить мені згенерований контент?
Умовно — так, але з важливими застереженнями. Більшість комерційних AI-платформ передають майнові права на output користувачеві (відповідно до своїх ToS). Однак це договірна передача прав від платформи, а не виникнення авторського права у класичному розумінні. Якщо у вашому контенті недостатньо людського творчого внеску, він може взагалі не охоронятися авторським правом — і тоді будь-хто може його вільно копіювати. Для комерційно критичних матеріалів (логотипи, рекламні кампанії, продуктовий дизайн) рекомендуємо поєднувати AI-генерацію зі значним людським редагуванням і документувати цей процес.
Чи можна зареєструвати торговельну марку на логотип, створений AI?
Реєстрація торговельної марки та авторське право — різні правові інститути. Торговельну марку реєструють не за ознакою творчості, а за ознакою здатності відрізняти товари/послуги одного виробника від іншого. Тому суто AI-згенерований логотип технічно може бути зареєстрований як торговельна марка (якщо він відповідає критеріям відмінності та не збігається з чужими марками). Проте паралельний захист авторським правом такого логотипу буде слабким або відсутнім. Рекомендуємо: для надійного захисту бренду — поєднувати реєстрацію торговельної марки з суттєвим людським доопрацюванням дизайну.
Чи несу я юридичну відповідальність, якщо AI-інструмент порушив чиєсь авторське право?
Це одне з ключових невирішених питань, яке зараз є предметом судових спорів у США та ЄС. Поточна тенденція судової практики: відповідальність розподіляється між розробником AI-моделі (за дії системи при навчанні) та кінцевим користувачем (за публічне використання згенерованого контенту). Якщо ви свідомо використали AI-контент, що містив охоронювані матеріали, і опублікували його комерційно — ризик притягнення до відповідальності реальний. Деякі платформи (GitHub Copilot Business, Google Workspace) пропонують комерційні гарантії та беруть на себе частину ризиків через індемніфікацію. Уважно читайте ці умови.
Чи законно навчати власну AI-модель на чужих текстах, зображеннях або коді?
Це питання без однозначної відповіді навіть у провідних юрисдикціях. У США суди розглядають, чи підпадає навчання моделей під доктрину fair use — і поки що рішення неоднорідні. В ЄС Директива DSM містить виняток для text and data mining (TDM), але лише для некомерційних досліджень або якщо власник прав прямо не заборонив таке використання (opt-out). Якщо ви плануєте навчати власну модель на зовнішніх даних — необхідний детальний юридичний аналіз джерел, ліцензій та юрисдикції ще до початку проєкту.
Що таке «текстовий та даних майнінг» (TDM) і як він регулюється в ЄС?
Text and Data Mining (TDM) — автоматизований аналіз великих масивів цифрових матеріалів для виявлення закономірностей, що є фундаментом навчання AI. Директива ЄС 2019/790 (DSM) встановлює два рівні дозволеного TDM: перший — для наукових досліджень некомерційними організаціями (широкий виняток); другий — загальний виняток для будь-яких суб’єктів, але власники прав можуть заблокувати його через machine-readable opt-out (наприклад, у robots.txt або метаданих). Комерційний TDM без opt-out власника — правомірний лише за наявності ліцензії або якщо контент вже у відкритому доступі без застережень.
Як захистити свою базу знань або датасет від використання для навчання чужих AI-моделей?
Є кілька рівнів захисту. По-перше, правовий: розміщуйте чіткі заборони на TDM у Terms of Use вашого сайту або бази даних; використовуйте machine-readable opt-out (X-Robots-Tag, robots.txt, метадані). По-друге, договірний: в угодах з партнерами та клієнтами явно забороняйте використання ваших матеріалів для навчання AI. По-третє, технічний: обмежуйте доступ до ресурсів через авторизацію, API-ліміти, CAPTCHA та моніторинг аномального трафіку. По-четверте, майнові права на бази даних: в ЄС (і потенційно в Україні в рамках євроінтеграції) оригінальні бази даних охороняються окремим sui generis правом — незалежно від авторського права на окремі елементи.
Що таке «вірусний ефект GPL» і чому він небезпечний при використанні AI-коду?
GPL (GNU General Public License) — одна з найпоширеніших ліцензій відкритого програмного забезпечення — містить умову copyleft: якщо ви включаєте GPL-код у свій продукт, весь продукт (включно з вашим оригінальним кодом) автоматично підпадає під GPL і повинен бути відкритий. Це і є «вірусний ефект». Ризик при використанні AI: якщо GitHub Copilot або інший AI-інструмент відтворив у вашому закритому комерційному продукті фрагмент GPL-коду, ви технічно зобов’язані відкрити весь вихідний код. Захист: сканування AI-згенерованого коду спеціалізованими інструментами перед включенням у продукт, використання enterprise-версій AI-інструментів з ліцензійними гарантіями.
Як регулює ці питання AI Act Європейського Союзу?
AI Act (Регламент ЄС 2024/1689) — перший у світі комплексний закон про регулювання штучного інтелекту — не вирішує питання авторства безпосередньо, але встановлює важливі суміжні вимоги. Зокрема, провайдери GPAI-моделей (моделей загального призначення, таких як GPT-4, Claude, Gemini) зобов’язані: публікувати зведену інформацію про тренувальні дані з урахуванням авторського права; дотримуватися EU copyright law при навчанні; для моделей з «системними ризиками» — проводити додаткові оцінки. AI Act набирає чинності поетапно у 2024–2027 роках і напряму стосується компаній, що надають або використовують AI-сервіси на ринку ЄС — включно з українськими компаніями, що працюють з європейськими клієнтами.
Чи потрібно вказувати, що контент створений за допомогою ШІ?
Обов’язкового загального вимогу розкривати використання AI у контенті поки що немає ні в Україні, ні в більшості юрисдикцій. Проте є важливі винятки: AI Act ЄС вимагає маркування deepfake-контенту та AI-генерованих матеріалів у контексті виборів. Платформи (Facebook, YouTube, Google) запроваджують власні вимоги до розкриття AI-контенту. У сфері реклами — вимоги прозорості можуть застосовуватися через загальне законодавство про захист прав споживачів. У B2B-відносинах — розкриття використання AI може бути обов’язковим за умовами договору або галузевими стандартами. Наша рекомендація: навіть де це не обов’язково, прозорість щодо використання AI є ознакою відповідального бізнесу та знижує репутаційні ризики.
Ми використовуємо файли cookies для вдосконалення роботи сайту та покращення Вашого користувацького досвіду.
Більше інформації ви можете знайти в нашій Політиці конфіденційності







