Прийнято Кодекс поведінки щодо штучного інтелекту в ЄС

Barbashyn Law Team Команда Barbashyn Law Team
17 Липня, 2025 5 хвилин для читання
17 Липня, 2025 5 хвилин для читання

У липні 2025 року Європейська Комісія завершила розробку Кодексу поведінки щодо загального штучного інтелекту (General-Purpose AI Code of Practice) –  першого у своєму роді добровільного документа, який встановлює стандарти відповідального використання систем ШІ загального призначення, таких як ChatGPT, Gemini чи Claude. Цей Кодекс став логічним кроком на шляху до практичного застосування положень Закону ЄС про штучний інтелект (AI Act). Документ містить конкретні рекомендації щодо прозорості, дотримання авторських прав та безпеки при роботі з високоризиковими ШІ-моделями, і має на меті допомогти компаніям краще орієнтуватися в нових регуляторних вимогах.

 

Кодекс був підготовлений за участю понад 1400 експертів – від техгігантів до представників академічної спільноти та громадянського суспільства. До процесу аналізу й експертного обговорення долучився й керуючий партнер Barbashyn Law Firm, Сергій Барбашин, який поділився своїм досвідом на перетині права, етики та регулювання новітніх технологій. Його участь стала частиною зусиль українських фахівців у формуванні відповідального міжнародного порядку денного в сфері штучного інтелекту.

 

У статті розглядаємо ключові положення Кодексу, особливостей його розробки, а також аналізує його значення для європейського та глобального правового ландшафту у сфері ШІ.

Кодекс поведінки щодо штучного інтелекту в ЄС: огляд та значення

Кодекс поведінки щодо загального штучного інтелекту (General-Purpose AI Code of Practice) – це добровільний документ, розроблений Європейською Комісією для підтримки компаній у дотриманні вимог Закону про штучний інтелект ЄС (AI Act), який набув чинності у 2024 році та впроваджується поетапно. Зокрема, з 2 серпня 2025 року набирають чинності вимоги до систем загального призначення (GPAI).

Його основна мета – сприяти відповідальному розвитку та використанню систем загального штучного інтелекту (GPAI), таких як великі мовні моделі, наприклад, ChatGPT, Gemini, Claude. Кодекс пропонує чіткі рекомендації щодо прозорості, безпеки та дотримання авторських прав, щоб забезпечити етичне використання ШІ. Він не є юридично обов’язковим, але компанії, які його приймають, отримують переваги у вигляді правової визначеності та спрощеного підходу до виконання вимог AI Act. Кодекс також встановлює стандарти, які можуть слугувати орієнтиром для глобального регулювання ШІ.

Процес створення Кодексу

Розробка Кодексу тривала з рік і завершилася в 10 липня 2025 року публікацією документа. Процес координувався Європейським офісом зі штучного інтелекту (EU AI Office) і включав широке залучення зацікавлених сторін – близько 1400 учасників, серед яких представники технологічної індустрії, академічної спільноти, громадянського суспільства та малих підприємств. Робота велася у чотирьох робочих групах, які очолювали провідні експерти  у галузі ШІ.

Незважаючи на процедурні аспекти розробки та  прийняття Кодексу, необхідності врахування різних позицій , Кодекс вважається значним досягненням, яке демонструє прагнення ЄС до інклюзивного підходу в управлінні ШІ.

Основні положення Кодексу

Кодекс поведінки щодо загального штучного інтелекту зосереджується на трьох ключових аспектах, щоб забезпечити етичний і безпечний розвиток технологій ШІ:

  • Прозорість даних

Компанії, які розробляють моделі ШІ, зобов’язані надавати вичерпну інформацію про дані, що використані для їхнього навчання. Це включає детальний опис джерел даних, методів їх збору та обробки. Особлива увага приділяється зменшенню ризиків упередженості (bias) у моделях, що може призводити до дискримінаційних результатів. Кодекс вимагає впровадження механізмів для виявлення та фільтрації неприйнятного контенту, такого як матеріали, що містять дані, отримані з порушенням законодавства про захист персональних даних (наприклад, GDPR). Для цього компанії повинні використовувати інструменти автоматичної модерації, аналізу даних і документувати свої підходи, щоб забезпечити відтворюваність і перевірку.

  • Дотримання авторського права

Кодекс встановлює чіткі вимоги до поваги інтелектуальної власності. Розробники ШІ повинні впроваджувати політики, які запобігають відтворенню матеріалів, захищених авторським правом, без відповідного дозволу. Це передбачає використання технічних засобів, таких як алгоритми фільтрації контенту, системи перевірки походження даних і механізми ідентифікації захищених матеріалів. Наприклад, якщо модель генерує текст, зображення чи музику, вона не повинна відтворювати захищений контент без ліцензії. Кодекс також закликає до співпраці з правовласниками, щоб забезпечити прозорість у використанні їхніх матеріалів для навчання моделей.

  • Безпека та захист (для високоризикових моделей)

Цей розділ стосується найпотужніших моделей ШІ, які класифікуються як такі, що мають системні ризики, тобто можуть створювати загрози для суспільної безпеки чи економічної стабільності. Кодекс вимагає від компаній проводити регулярні оцінки ризиків, включаючи тестування моделей перед їх випуском на ринок і після значних оновлень. Наприклад, моделі повинні перевірятися на здатність генерувати небезпечний контент, такий як інструкції для створення біологічної зброї чи дезінформація, що може вплинути на демократичні процеси. У разі виявлення серйозних інцидентів компанії зобов’язані повідомляти про них Європейський офіс зі штучного інтелекту протягом 2–15 днів, залежно від тяжкості проблеми. Кодекс також наголошує на важливості співпраці з постачальниками систем, які інтегрують ці моделі, для забезпечення безпеки на всіх етапах використання.

Участь Сергія Барбашина була по прямим компетенціям експерта та нашої компанії у сферах авторського права, GDPR, захист даних в IP та AI сферах. Кодекс також передбачає створення стандартизованих методологій оцінки ризиків, які можуть бути застосовані до різних моделей ШІ. Це включає розробку критеріїв для визначення системних ризиків і рекомендації щодо їх мінімізації. Наприклад, компанії повинні впроваджувати системи моніторингу, які дозволяють виявляти аномалії в поведінці моделей у реальному часі.

Висновки

Кодекс поведінки щодо загального штучного інтелекту є важливим кроком у створенні етичних і безпечних рамок для розвитку ШІ в Європі. Він не лише допомагає компаніям відповідати вимогам Закону про штучний інтелект, але й сприяє зміцненню довіри до технологій ШІ серед громадян. 

Процеси, подібні до розробки цього Кодексу, є критично важливими для забезпечення балансу між інноваціями та захистом суспільних цінностей, таких як безпека, прозорість і повага до прав людини. Вони також демонструють важливість міжнародної співпраці та залучення різних зацікавлених сторін для створення глобальних стандартів управління ШІ. 

Наразі, критично важливим є розробка, адаптація та впровадження АІ-процесів відповідно до чинних норм та принципів. Це повинно відбуватися як на технічному рівні, так і на юридичному. Для прикладу – підготовка профільних політик, інструкцій, угод з користувачами тощо.  

Поділитися

Ми використовуємо файли cookies для вдосконалення роботи сайту та покращення Вашого користувацького досвіду.

Більше інформації ви можете знайти в нашій Політиці конфіденційності