Wykorzystanie sztucznej inteligencji uniemożliwia uzyskanie ochrony własności intelektualnej. UE chce wprowadzić odpowiednie regulacje
O ile samo korzystanie ze sztucznej inteligencji na przykład do tworzenia tekstów nie jest nielegalne, o tyle wątpliwości budzi już przypisywanie sobie ich autorstwa przez osobę, która napisała prompt.
Dotychczasowe postanowienia urzędów do spraw praw autorskich wskazują, że komputerowi czy algorytmowi nie można przypisać praw autorskich, nie przysługują też one osobie, która otrzymała dzieło dzięki takiej technologii. Zdaniem naukowców konieczne jest stworzenie regulacji. Pierwszą taką próbę podejmuje Unia Europejska. Powstaje akt, który ma zdefiniować pojęcie sztucznej inteligencji i wprowadzić regulacje zależne od poziomu niebezpieczeństwa związanego z korzystaniem z danego rozwiązania.
– Mamy w tym momencie poważny problem z możliwością oceny, kto jest autorem publikacji tworzonych z wykorzystaniem sztucznej inteligencji. Prawo autorskie zakłada, że żebyśmy mieli do czynienia z autorem, to musimy mieć do czynienia raczej z człowiekiem. Sytuacja, w której korzystamy z pomocy narzędzi wykorzystujących sztuczną inteligencję, może polegać na bardzo różnych układach. Może być tak, że nasz sposób, w który wygenerujemy prompt, czyli opis tego, co sztuczna inteligencja ma zrobić, stanowić będzie nasz twórczy wkład w to, jaki ostatecznie utwór zostanie wygenerowany – mówi w wywiadzie dla agencji Newseria Innowacje dr Joanna Mazur, adiunktka na Wydziale Zarządzania Uniwersytetu Warszawskiego.
Problemem jest także określenie, na ile teksty dostarczane przez algorytm można uznać za dzieło uzyskane w legalny sposób. Samo korzystanie ze sztucznej inteligencji nie jest zakazane, ale bardziej skomplikowana jest już kwestia przypisywania sobie autorstwa takiego dzieła. Bardzo ubogie jest chociażby orzecznictwo w takich sprawach, jednak w 2018 roku amerykański Urząd ds. Praw Autorskich (USCO) odmówił rejestracji praw autorskich do utworów graficznych opisanych jako wygenerowane przez algorytm działający na komputerze. W opinii urzędników nie było kreatywnego udziału człowieka w stworzeniu grafik. W lutym bieżącego roku USCO rozpatrywał natomiast sprawę komiksu stworzonego przez człowieka, ale połączonego z elementami wygenerowanymi przez sztuczną inteligencję. Komiks został uznany za utwór chroniony prawem, ale pojedyncze obrazy wygenerowane przez algorytm – już nie.
– Wiemy na pewno, że sam program komputerowy nie może być potraktowany jako autor, tak jak np. jako autor nie mogą być potraktowane zwierzęta. Mieliśmy do czynienia z taką sytuacją, kiedy małpa kliknęła przycisk aparatu fotograficznego, wykonując zdjęcie, i z tej sprawy wiemy, że istota pozaludzka nie może być uznana za autora w rozumieniu praw autorskich i tak samo raczej nie możemy uznawać programów komputerowych jako autorów tego typu utworów – wskazuje dr Joanna Mazur.
Problematyczną kwestią pozostaje jednak nie tylko samo autorstwo generowanych dzieł, ale również to, że już istniejące utwory są wykorzystywane do trenowania algorytmów. Wątpliwości budzi też to, czy dostawcy algorytmów nie będą wysuwać roszczeń co do praw autorskich do dzieł stworzonych z wykorzystaniem ich technologii, mimo że autorem prompta, na podstawie którego były one wykonywane, jest użytkownik usługi. Obszar sztucznej inteligencji niewątpliwie więc wymaga regulacji.
– Z jednej strony mamy do czynienia ze wszystkimi problemami dotyczącymi kwestii autorstwa i ochrony własności intelektualnej, które budzą wątpliwości. Z drugiej strony mamy do czynienia z zastosowaniami, które wykraczają stanowczo poza same kwestie związane z własnością intelektualną, czyli np. używaniem sztucznej inteligencji do decydowania o tym, czy ktoś powinien wylądować w więzieniu albo jaki powinien być wynik sprawy sądowej – zauważa naukowczyni.
W odpowiedzi na te kwestie Unia Europejska przygotowuje akt w sprawie sztucznej inteligencji. Jego celem będzie dopilnowanie, aby systemy sztucznej inteligencji stosowane w UE były bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska. Zgodnie z podstawowymi założeniami systemy sztucznej inteligencji powinny być nadzorowane przez ludzi, aby zapobiegać szkodliwym skutkom. Potrzebna jest też jednolita definicja sztucznej inteligencji, którą można będzie zastosować również do systemów, które powstaną w przyszłości. Nowe przepisy mają określić obowiązki dostawców i użytkowników, w zależności od poziomu ryzyka związanego z korzystaniem z rozwiązania.
– Jest propozycja podzielenia zastosowań sztucznej inteligencji na kilka różnych kategorii. Przede wszystkim będą to te zastosowania sztucznej inteligencji, które byłyby po prostu zabronione. Następne to kategorie zastosowań sztucznej inteligencji wysokiego ryzyka, które byłyby obostrzone pewnymi wymaganiami dotyczącymi na przykład tego, jaka ma być jakość danych używanych do tego typu analiz oraz tych zastosowań sztucznej inteligencji, które nie generowałyby poważniejszych problemów. W związku z tym wymogi dotyczące tego, jak ona ma być rozwijana, jaki ma być dostęp do tego, jak ona rzeczywiście działa, byłyby niższe niż w stosunku do tych zastosowań, które generują wysokie ryzyko. Jakie ostatecznie będą te regulacje, dowiemy się w następnych miesiącach lub może w ciągu roku – przewiduje dr Joanna Mazur.
Wielkość globalnego rynku sztucznej inteligencji została wyceniona przez Grand View Research na ponad 136 mld dol. w 2022 roku. Średnioroczne tempo wzrostu utrzyma się do końca tej dekady na poziomie 37,3 proc. W 2030 roku rynek wygeneruje więc ponad 1,7 bln dol. przychodów.