Czy teksty z ChatGPT mogą zniesławiać? Ekspert wyjaśnia
Czy czatboty oparte na sztucznej inteligencji jak ChatGPT mogą być autorami utworów, które dzięki nim powstały? Czy ich teksty mogą zniesławiać? A jeśli tak, kto jest za to odpowiedzialny? W rozmowie z Wirtualnemedia.pl wątpliwości wyjaśnia mec. Maciej Ślusarek.
ChatGPT stał się jednym z najpopularniejszych narzędzi bazujących na sztucznej inteligencji. Chatbot pozwala tworzyć artykuły, czym wspomaga badaczy czy media. Jednak za jego wykorzystaniem idą też wątpliwości. Kto jest autorem danego tekstu? Czy prawa własności ma użytkownik, który „zlecił” AI napisanie tekstu czy sam czatbot?
Na razie w polskim prawie nie było chyba jeszcze sprawy dotyczącej własności intelektualnej i sztucznej inteligencji. Nie kojarzy takiej Maciej Ślusarek, adwokat, partner zarządzający w kancelarii SKP Ślusarek, Kubiak & Pieczyk, specjalizujący się m.in. w prawie własności intelektualnej, nowych technologiach i ochronie wizerunku. - Generalnie przyjmuje się, że prawa do twórczości realizowanej przez sztuczną inteligencję nie podlegają ochronie prawno-autorskiej, bo jej wymogiem jest działalność twórcza. A więc z założenia działalność człowieka, wymagająca pewnej niezależności intelektualnej, procesów intelektualnych, których maszynom przypisać nie można - zaznacza w rozmowie z Wirtualnemedia.pl.
Podobnie twierdzi prof. Ryszard Markiewicz z Uniwersytetu Jagiellońskiego. „AI nie odpowiada za naruszenie prawa autorskiego, bo nie ma podmiotowości prawnej. Na razie, bo czy kiedyś tak nie będzie, nie możemy przewidzieć - w końcu osoba prawna też jest sztucznym konstruktem, a taką podmiotowość ma. Zresztą pojawiały się już dyskusję, czy nie należałoby dać podmiotowości prawnej autonomicznym samochodom, więc ta dyskusja czeka nas raczej w bliższej niż w dalszej przyszłości. Póki co, za twórczość AI odpowiada ten, kto ją udostępnia i jest jej dysponentem” - mówi.
- Poszukiwania pewnej ochrony quasiautorskiej mogą polegać na tym, że jeżeli wyprodukowałem maszynę, włożyłem duże pieniądze, żeby ona tworzyła ładne obrazki, to efekt mojego działania nie powinien być przez nikogo innego komercjalizowany. Przynajmniej w zakresie działalności gospodarczej – dodaje Ślusarek. - Pewnej ochrony quasiautorskiej można poszukiwać w relacjach między przedsiębiorcami. Po to ktoś wykłada pieniądze, żeby jego czat pisał ładne wiersze albo hasła reklamowe, żeby czerpać z tego korzyści. I efekty tej pracy stara się chronić. Ale samej ochrony prawno-autorskiej, monopolu autorskiego, który jest w przypadku twórczości wychodzącej z głowy człowieka, na pewno nie ma - podkreśla prawnik.
ChatGPT posiłkuje się danymi z internetu. Jak sam przyznaje, korzysta z bazy danych, w której znajdują się artykuły „Gazety Wyborczej”, „Rzeczpospolitej”, „Dziennika Gazety Prawnej”, Onet.pl, Tvn24.pl, PAP, Polskiego Radia, Interia.pl i Wirtualnej Polski.
Ach ciekawe co na to polscy wydawcy, że ChatGPT (zresztą jak sam przyznaje) trenuje się na ich treściach, za których stworzeniem stoją konkretni ludzie, czas i wydatki.
— Sylwia Czubkowska (@sylvcz) March 8, 2023
I ciekawe jak to będzie z prawami autorskimi do treści wygenerowanych na takiej bazie. pic.twitter.com/Ex2VF5aeDJ
Czy wydawcom z tego tytułu przysługiwać powinna jakaś rekompensata? - Fakt, że czat zasysa internet i na jego podstawie trawi i wymyśla nowe wiersze czy przyśpiewki, które nie cytują, a bazują na pewnego rodzaju sformułowaniach, nie wymaga żadnej zgody. Tak samo jak w przypadku działalności człowieka – uważa mec. Ślusarek.
Czytaj też: ChatGPT "prawie" mógłby zostać lekarzem
AI nie zniesławia
Czy ChatGPT może kogoś zniesławić? Np. w odpowiedzi na pytanie o konkretną osobę podając zniesławiające ją informacje? - Za ChatGPT odpowiedzialność ponosi spółka, która jest jego producentem i go udostępnia. Co do tego nie mam cienia wątpliwości. Porównałbym to z Wikipedią: ktoś ją nadzoruje, ale różni ludzie są autorami wpisów. A Wikipedia ponosi odpowiedzialność za to, co publikowane jest na jej stronach – zaznacza Ślusarek.
Prawnik jako przykład podaje też wyszukiwarkę Google'a. I w tej sprawie prowadził już sprawy. - Google ma w wyszukiwarce podpowiedzi. Gdyby przy pana nazwisku pojawiało się tam słowo „przestępca”, bo algorytm zasysałby, że przy nazwisku w sieci pojawiały się takie sformułowania, więc podpowiadałby je użytkownikowi, byłoby to zniesławienie. Jeżeli łączenie pana nazwiskiem z tego rodzaju sformułowaniem jest nieuzasadnione, byłoby to zniesławienie. I Google z tego tytułu ponosiłby odpowiedzialność – przekonuje.
Oczywiście, co innego, gdyby do zniesławienia doszło w środkach masowego przekazu. - Odpowiedzialność każdorazowo ponosić będzie ten, kto rozpowszechnia. Kto dopuszcza do tego, że maszyna zniesławia. Nieważne wtedy, że twórcą tekstu jest człowiek czy maszyna, ważny jest efekt finalny, czyli publikacja – mówi Ślusarek.
Dołącz do dyskusji: Czy teksty z ChatGPT mogą zniesławiać? Ekspert wyjaśnia