Використання чат-бота на основі штучного інтелекту ChatGPT в медіа вже спричинило кілька скандалів, як-от неправдиві звинувачення в сексуальних домаганнях і фальшиве інтерв’ю з Міхаелем Шумахером. Пропонуємо розглянути те, які правові претензії може спричинити використання текстів, згенерованих штучним інтелектом.
Передусім зазначимо, що сам чат не є суб’єктом права й до комп’ютерної програми не може бути подано судового позову чи щось подібне. Відповідати може той, хто поширює згенерований штучним інтелектом текст (і теоретично – той, хто створив і зробив загальнодоступним сам чат). Почасти поширювач інформації – це той суб’єкт, який скористався ChatGPT, а тепер поширює текст, створений чатом за його командою. Якщо якимось чином вийшло, що такий згенерований текст поширює інша особа, то в неї теж виникає ризик відповісти за зміст такого тексту, адже, наприклад, за Цивільним кодексом України, “фізична особа, яка поширює інформацію, зобов’язана переконатися в її достовірності” (ч. 2 ст. 302).
Можливість, вид і обсяг відповідальності за поширення певної інформації дуже залежить від юрисдикції, тобто від того, резидентами якої країни є поширювач інформації та той, чиї інтереси вона зачіпає.
Оскільки результати роботи ChatGPT не обмежуються приписуванням творів одних письменників іншим (які їх не писали), а є вже прецеденти неправдивого звинувачення в правопорушеннях, то дифамаційний аспект у спорах щодо роботи чату потенційно видається значним. Загалом, щоб виграти справу про визнання певної інформації недостовірною, необхідно довести, що така інформація стосується позивача, ганьбить його й не відповідає дійсності. Якщо позивач виграє справу, то поширювач інформації може бути зобов’язаний прибрати цю інформацію, компенсувати моральну шкоду.
Стратегії захисту відповідача в справі можуть охоплювати доведення того, що інформація достовірна, що поширював інформацію не він або вона не стосується позивача (це було типово для дифамаційних справ і раніше, тому на цьому не будемо зупинятися). А також може охоплювати доведення того, що інформація позивача не ганьбить (хоч і недостовірна) або вона не може сприйматися як варта довіри за визначенням (ми ж не вважаємо достовірними фантазії п’ятирічної дитини чи людини з порушеннями розумового розвитку. То чому до недосконалого ШІ повинні бути інші підходи?). Але на противагу цим двом стратегіям можна висунути інші юридичні претензії – щодо втручання в приватне життя.
Якщо в тексті згадується певна особа, буквально чи опосередковано, то це зачіпає її інтереси. Навіть якщо таке згадування не ганьбить її (випадок із Шумахером). Право на приватність у широкому сенсі часто формулюють як право бути залишеним у спокої. Це стосується, зокрема, і текстів, які не претендують на достовірність. Тому, наприклад, Цивільний кодекс України визначає: “використання імені фізичної особи в літературних та інших творах, крім творів документального характеру, як персонажа (дійової особи) допускається лише за її згодою…” (ч. 2 ст. 296). Тобто використовувати ім’я особи в недокументальних творах без її згоди не можна. Дуже ймовірно, що це може бути застосоване й до тексту, згенерованого штучним інтелектом. Чому “ймовірно”? В контексті українського законодавства говоримо так тому, що тут доведеться застосовувати аналогію закону (опосередковане регулювання правовідносин нормами для подібних випадків, якщо конкретно на цей випадок законодавство не прописане, ч. 1 ст. 8 ЦКУ). Адже в буквальному значенні згенерований ШІ текст не є твором (про це – нижче). Тобто, як і в дифамаційній справі, в разі поширення тексту з ChatGPT, де згадується особа без її згоди і без фактологічного підґрунтя для згадування в такому контексті, можна програти судову справу й бути змушеним компенсувати моральну шкоду, прибрати поширену інформацію.
На завершення розглянемо поняттєвий аспект авторського права в контексті згенерованих ШІ текстів. Закон України “Про авторське право й суміжні права” визначає поняття твору, зокрема, через фразу “оригінальне інтелектуальне творіння автора”. До текстуального ж продукту ШІ є питання й щодо оригінальності, й щодо інтелектуальності (нехай назва ШІ не вводить в оману), й щодо наявності в нього автора. Адже автором українське законодавство називає завжди фізичну особу (людину), до яких ШІ не належить (особа, яка скористалася ШІ для створення тексту, також не є автором, бо цей текст, поміж іншим, не є результатом саме її інтелектуальних зусиль і не є твором). З огляду на це ми утримуємося від того, щоб називати згенеровані ШІ тексти “творами”, хоча щодо них можуть бути за аналогією застосовані норми законодавства стосовно творів, як було зазначено вище.
Зараз також існує багато побоювань, що згенеровані ШІ тексти спричинять вибух “плагіату”, але й тут ми беремо цей термін зі сфери авторського права в лапки. Йдеться не про те, що ШІ крастиме чужу інтелектуальну власність, а про використання згенерованих ШІ текстів у рефератах, наукових роботах тощо, коли автори цих робіт видають їх за власний текст. Проблема дійсно є, на наш погляд, але називати такі зловживання варто не “плагіатом”, а радше виявами академічної недоброчесності чи щось подібне.
Отже, поширюючи згенеровані штучним інтелектом тексти, варто переконатися, що їхній зміст є достовірним (або відразу робити чітку помітку, що це вигадка). Навіть якщо ви дотрималися цього правила, але в тексті згадується певна особа, необхідно переконатися, що подана в тексті інформація про неї достовірна й базується на документах. Якщо ні – запитати в неї дозволу на поширення такого тексту й без нього її не поширювати (або видаляти з тексту ідентифікувальні ознаки).
Джерело: Роман Головенко, Інститут масової інформації
Залишити відповідь