Ο George RR Martin διεξάγει μια από τις πιο υψηλού κινδύνου μάχες πνευματικών δικαιωμάτων εδώ και δεκαετίες. Τον Οκτώβριο του 2025, ένας ομοσπονδιακός δικαστής της Νέας Υόρκης απέρριψε το αίτημα του OpenAI να απορρίψει τις κατηγορίες του Martin ότι το ChatGPT είχε παραβιάσει τα πνευματικά δικαιώματα των βιβλίων και των τηλεοπτικών του προγραμμάτων όταν παρήγαγε περιγράμματα συνέχειων του Game of Thrones χωρίς τη συγκατάθεσή του. Η αγωγή παγιώνει παρόμοιες αξιώσεις από άλλους σημαντικούς συγγραφείς, όπως ο ακτιβιστής Ta-Nehisi Coates, η κωμική Sarah Silverman και οι γίγαντες της φαντασίας Jonathan Franzen, David Baldacci, Jodi Picoult και John Grisham. Η απόφαση έρχεται λίγες εβδομάδες αφότου οι ενάγοντες εξασφάλισαν εσωτερικά μηνύματα Slack στα οποία το OpenAI συζητούσε τη διαγραφή συνόλων δεδομένων πειρατικών βιβλίων. Η αποκάλυψη θα μπορούσε να βοηθήσει στον προσδιορισμό του εσκεμμένου των ενεργειών παραβίασης του OpenAI, αυξάνοντας πιθανώς τις κυρώσεις από 750 $ σε 150.000 $ ανά εργασία. Για το πλαίσιο, οι διάφορες δικαστικές υποθέσεις του OpenAI αφορούν δεκάδες εκατομμύρια καλλιτεχνικά και δημοσιογραφικά έργα.
Η υπόθεση είναι μια από τις πολλές μάχες πνευματικών δικαιωμάτων που αντιμετωπίζουν φέτος οι εταιρείες τεχνητής νοημοσύνης. Σε υποθέσεις κατά των Meta, Anthropic και OpenAI, οι ενάγοντες ισχυρίστηκαν ότι οι γίγαντες της τεχνητής νοημοσύνης ξέσπασαν πειρατικά αποθετήρια βιβλίων, όπως το LibGen και το Bibliotik, για να συμπληρώσουν τους αλγόριθμους εκπαίδευσής τους. Τον Σεπτέμβριο, η Anthropic πλήρωσε έναν διακανονισμό 1,5 δισεκατομμυρίων δολαρίων σε μια ομάδα συγγραφέων σχετικά με τη χρήση αυτών των αποθετηρίων που είχαν παραβιαστεί για να εκπαιδεύσει το chatbot της, τον Claude. Τον Μάρτιο, ένας δικαστής αποφάσισε ότι το OpenAI και η Microsoft δεν μπορούσαν να μπλοκάρουν μια αγωγή από μια ομάδα ειδησεογραφικών οργανισμών, με τον ισχυρισμό ότι οι New York Times και άλλοι ειδησεογραφικοί οργανισμοί χρησιμοποιήθηκαν για την εκπαίδευση των συστημάτων δεδομένων της εταιρείας. Οι εφαρμογές κοινωνικής δικτύωσης βίντεο τεχνητής νοημοσύνης, όπως το Meta’s Vibes, το OpenAI’s Sora και το Character.AI’s Feed, έχουν επίσης αντιμετωπίσει αντιδράσεις σχετικά με την αναπαραγωγή προστατευμένων χαρακτήρων. Μαζικά, τα αποτελέσματα αυτών των υποθέσεων θα έχουν σημαντικές επιπτώσεις για την ταχύτερα αναπτυσσόμενη βιομηχανία στον κόσμο.
Δίκαιη χρήση;
Στο επίκεντρο της αγωγής του Μάρτιν βρίσκεται η συζήτηση για ένα νομικό πλαίσιο του 19ου αιώνα, γνωστό ως «δίκαιη χρήση», το οποίο επιτρέπει την περιορισμένη εφαρμογή υλικού που προστατεύεται από πνευματικά δικαιώματα για δραστηριότητες όπως κριτική, ρεπορτάζ ειδήσεων ή εκπαίδευση. Τα δικαστήρια χρησιμοποιούν διάφορα κριτήρια για να κρίνουν τέτοιες υποθέσεις, συμπεριλαμβανομένου του σκοπού της χρήσης (όπως εμπορική ή μη κερδοσκοπική), τη φύση του έργου, το ποσό που αντιγράφηκε και την οικονομική επίδραση στον κάτοχο των πνευματικών δικαιωμάτων. Ουσιαστικά, το βάρος της απόδειξης για ορθή χρήση βαρύνει τον παραβάτη και όχι τον κάτοχο των πνευματικών δικαιωμάτων, πράγμα που σημαίνει ότι οι εταιρείες τεχνητής νοημοσύνης πρέπει να αποδείξουν ότι οι αλγόριθμοί τους πληρούν τις προϋποθέσεις. Από την άλλη πλευρά, οι ενάγοντες ισχυρίζονται ότι εταιρείες τεχνητής νοημοσύνης αντέγραψαν τη δουλειά τους για να παράγουν ουσιαστικά παρόμοια προϊόντα.
Παρά το γεγονός ότι κωδικοποιήθηκε στην Ενότητα 107 του νόμου περί πνευματικών δικαιωμάτων του 1976, η εφαρμογή του νόμου είναι ιστορικά μικτή, τόσο περιορίζοντας όσο και επιτρέποντας την επαναχρησιμοποίηση υλικού που προστατεύεται από πνευματικά δικαιώματα. Τον Ιούνιο του 2025, για παράδειγμα, ένας ομοσπονδιακός δικαστής έδωσε μια διχοτόμηση απόφαση δηλώνοντας ότι η χρήση βιβλίων από την Anthropic για την εκπαίδευση του chatbot τεχνητής νοημοσύνης της, Claude, ήταν αρκετά μεταμορφωτική για να θεωρηθεί δίκαιη χρήση. Ωστόσο, ο δικαστής έκρινε επίσης ότι οι ενάγοντες θα μπορούσαν να παραπέμψουν σε δίκη την Anthropic για την πειρατική εκπαιδευτική βιβλιοθήκη της εταιρείας, με αποτέλεσμα τον διακανονισμό 1,5 δισεκατομμυρίων δολαρίων της Anthropic. Αντίθετα, α Δικαστήριο των ΗΠΑ 2025 στην οποία η Thomas-Reuters ισχυρίστηκε ότι η ερευνητική εταιρεία Ross Intelligence χρησιμοποίησε πληροφορίες από τη νομική μηχανή αναζήτησής της για να εκπαιδεύσει έναν ανταγωνιστικό αλγόριθμο τεχνητής νοημοσύνης, απέρριψε τους ισχυρισμούς ότι η χρήση υλικού που προστατεύεται από πνευματικά δικαιώματα από την AI ήταν επαρκώς μεταμορφωτική, ενώ σημείωσε ότι η παραβίαση ανταγωνιζόταν οικονομικά την Thomas-Reuters. Μαζί, οι δύο περιπτώσεις υποδεικνύουν ένα θολό ρυθμιστικό περιβάλλον τόσο για τις εταιρείες τεχνητής νοημοσύνης όσο και για τους συγγραφείς, καθώς αγωνίζονται για τον ρόλο των δημοσιευμένων έργων στην εκπαίδευση μοντέλων τεχνητής νοημοσύνης.
Η υπόθεση
Στην καταγγελία τους, ο Martin και οι σύγχρονοί του ισχυρίζονται ότι το OpenAI παραβίασε τα πνευματικά δικαιώματα χρησιμοποιώντας το έργο τους για να εκπαιδεύσει τα μεγάλα γλωσσικά του μοντέλα, δημιουργώντας αποτελέσματα που παραβίαζαν τα πνευματικά δικαιώματα των εναγόντων και torrenting βιβλία από παράνομες σκιώδεις βιβλιοθήκες. Ουσιαστικά, οι συγγραφείς χρειάζεται μόνο να αποδείξουν έναν από αυτούς τους ισχυρισμούς για να λάβουν πλήρη αποζημίωση.
Το OpenAI έχει υποστηρίξει ότι τα αποτελέσματα του ChatGPT ήταν αρκετά μεταμορφωτικά ώστε να μην παραβιάζουν την προστασία πνευματικών δικαιωμάτων. Ωστόσο, στο δικό του 27 Οκτωβρίου 2025, απόφασηο δικαστής του Περιφερειακού Δικαστηρίου των ΗΠΑ, Sidney Stein, αρνήθηκε αυτόν τον ισχυρισμό, σημειώνοντας ότι τα αποτελέσματα ήταν “ουσιαστικά παρόμοια με τα έργα των ενάγων”. Για να επεξηγήσει αυτή τη λογική, ο Stein υπογραμμίζει δύο παραδείγματα που σχετίζονται με τη διάσημη σειρά του Martin, δηλώνοντας ότι μια λογική κριτική επιτροπή θα μπορούσε να διαπιστώσει ότι οι περιλήψεις και οι ιδέες της συνέχειας παραβιάζουν τους νόμους περί πνευματικών δικαιωμάτων «παπαγαλίζοντας την πλοκή, τους χαρακτήρες και τα θέματα του πρωτότυπου». Ο Stein απέρριψε επίσης τον ισχυρισμό του OpenAI ότι οι ενάγοντες δεν μπορούσαν να προσθέσουν καταγγελίες πειρατείας στο φάκελο, επιτρέποντας την κατηγορία κατά της κατοχής πειρατικών έργων από το OpenAI, ανεξάρτητα από τη χρήση τους. Είναι σημαντικό ότι η απόφαση δεν ασχολήθηκε με το ζήτημα της ορθής χρήσης.
Οι συνέπειες αυτών των δικαστικών υποθέσεων εκτείνονται πολύ πέρα από τις πιθανές οικονομικές αποζημιώσεις τους, καθώς προσπαθούν να δημιουργήσουν ένα νομικό προηγούμενο που να καθορίζει τη φύση των αποτελεσμάτων τεχνητής νοημοσύνης και τις βιβλιοθήκες που τις επιτρέπουν. Με αυτόν τον τρόπο, χτυπούν επίσης μια νοοτροπία “ζητήστε συγχώρεση, όχι άδεια” κοινή σε έναν κλάδο που δίνει προτεραιότητα στην ανάπτυξη πάνω από όλα, καθώς ακόμη και εταιρείες που κάποτε ισχυρίζονταν ότι δεν χρησιμοποιούσαν υλικό χωρίς άδεια για να εκπαιδεύσουν τα μοντέλα τεχνητής νοημοσύνης τους έρχονται τώρα υπό νομική κριτική για την πρακτική αυτή. Τι επιπτώσεις έχουν τέτοιες αγωγές στην ποιότητα, την κλίμακα και τις εφαρμογές των μοντέλων τεχνητής νοημοσύνης, πόσο μάλλον εκείνων των οποίων η εργασία χρησιμοποιήθηκε για την εκπαίδευσή τους, μένει να φανεί. Αλλά ένα πράγμα είναι σίγουρο: το ChatGPT θα πρέπει να το σκεφτεί δύο φορές πριν γράψει το επόμενο spin-off του Game of Thrones.
Via: bgr.com










