Federalny sąd w USA uznał, że firma Anthropic miała prawo wykorzystywać książki chronione prawem autorskim do trenowania sztucznej inteligencji bez zgody ich twórców. To może być przełomowe orzeczenie dla branży generatywnej AI.
Sprawa Anthropic: fair use w świecie generatywnej AI
Wyrok sędziego Williama Alsupa z San Francisco był jednoznaczny. Zgodnie z nim uznano, że wykorzystanie książek do trenowania dużych modeli językowych (LLM) jest działaniem mieszczącym się w granicach tzw. fair use – czyli dozwolonego użytku w amerykańskim prawie autorskim. Jego zdaniem celem nie było kopiowanie czy zastępowanie oryginałów, lecz ich przetworzenie w coś zupełnie nowego.
– Cel i charakter wykorzystania chronionych prawem autorskim utworów do trenowania dużych modeli językowych w celu generowania nowego tekstu był w swej istocie transformacyjny. Tak jak w przypadku każdego czytelnika, który pragnie zostać pisarzem – napisał Alsup w uzasadnieniu wyroku.
Model Claude stworzony przez Anthropic uczy się na podstawie dużych zbiorów tekstów, by tworzyć statystyczne powiązania między słowami i pojęciami. Sędzia uznał, że sam fakt wykorzystania chronionych treści w procesie uczenia nie stanowi naruszenia prawa, o ile nie prowadzi do ich kopiowania lub odtwarzania.
Przeczytaj także: Darth Vader kontra Midjourney. Hollywood otwiera nowy front wojny o prawa autorskie
Pirackie e-booki to nadal problem
Równocześnie jednak sąd uznał, że wstępne działania Anthropic były nielegalne. Firma – zanim zaczęła kupować książki na masową skalę – gromadziła pirackie e-booki z baz takich jak Library Genesis i Books3. Ich przechowywanie w tzw. centralnej bibliotece zostało uznane za naruszenie praw autorskich, nawet jeśli ostatecznie nie wykorzystano tych plików do treningu.
Alsup podkreślił, że nabycie legalnego egzemplarza po czasie nie zmazuje wcześniejszego naruszenia, choć może wpłynąć na wysokość zasądzonych odszkodowań. W osobnym postępowaniu sądowym, zaplanowanym na grudzień 2025, rozstrzygnie się, ile Anthropic zapłaci. Maksymalna kara może wynosić nawet 150 tysięcy dolarów za każdy tytuł.
Skanowanie zniszczonych książek – legalne, ale kontrowersyjne
W międzyczasie Anthropic przyjęło nową strategię. Firma zaczęła skupować używane książki w hurtowych ilościach, rozcinać je, skanować i niszczyć oryginały. Wszystko po to, by uzyskać dostęp do wysokiej jakości danych tekstowych bez naruszania licencji.
Sędzia uznał tę praktykę za legalną, pod warunkiem że książki były legalnie zakupione i nie udostępniano cyfrowych kopii. Porównał to do działania osoby, która digitalizuje książkę, by „oszczędzić miejsce na półce”. Innymi słowy, uznał to za działanie transformacyjne i mieszczące się w granicach fair use.
Precedens dla całej branży
To pierwsze tak klarowne orzeczenie w trwającej fali pozwów przeciw firmom AI, m.in. OpenAI, Meta czy Stability AI. Zdecydowana linia sądu federalnego może posłużyć jako precedens dla kolejnych procesów i ukształtować praktyki dotyczące pozyskiwania danych do trenowania LLM-ów.
John Strand, ekspert prawa autorskiego z kancelarii Wolf Greenfield, że wyrok ma „ogromne znaczenie praktyczne i symboliczne”, a inne sądy będą musiały się z nim liczyć.
– W Stanach Zjednoczonych toczy się kilkadziesiąt innych spraw dotyczących podobnych kwestii naruszenia praw autorskich i dozwolonego użytku, a decyzja sędziego Alsupa będzie musiała zostać wzięta pod uwagę przez inne sądy rozpatrujące te przypadki – komentuje.
Przeczytaj także: Badanie MIT ostrzega: nadmierne korzystanie z ChatGPT zmienia nasz mózg
Europa nie pójdzie tą samą drogą?
Warto jednak zaznaczyć, że podobne orzeczenie w Europie byłoby mało prawdopodobne. W Wielkiej Brytanii czy Unii Europejskiej doktryna fair use ma znacznie węższy zakres i nie chroni w takim stopniu firm technologicznych. W Europie obowiązują zasady dozwolonego użytku na potrzeby badań naukowych, ale nie dla zastosowań komercyjnych bez zgody właścicieli praw.
Tymczasem firmy AI intensywnie szukają obejść: kupują fizyczne książki, wykorzystują dane z domeny publicznej lub próbują negocjować licencje. Co więcej, OpenAI i Microsoft niedawno ogłosiły współpracę z bibliotekami Harvardu w celu digitalizacji niemal miliona książek – bez ich niszczenia.
LLM-y na granicy prawa
Wyrok w sprawie Anthropic to ważny krok w tworzeniu ram prawnych dla generatywnej sztucznej inteligencji. Z jednej strony daje firmom technologicznym większą swobodę działania, z drugiej jasno wyznacza granice – dane muszą być pozyskane legalnie.
To, jak potoczą się kolejne procesy, zadecyduje o tym, czy twórcy treści i firmy technologiczne znajdą wspólny język. A może spotkają się w Sądzie Najwyższym USA, który ostatecznie przesądzi o losach całej branży.
Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?