Τα ακαδημαϊκά ιδρύματα έχουν καταγράψει έναν πολλαπλασιασμό αναφορών που δημιουργούνται από την τεχνητή νοημοσύνη σε ανύπαρκτα άρθρα σε επιστημονικές δημοσιεύσεις, υπονομεύοντας τη νομιμότητα της έρευνας, σύμφωνα με τον Andrew Heiss, επίκουρο καθηγητή στο Andrew Young School of Policy Studies του Georgia State University.
Ο Heiss ανακάλυψε ότι τα μεγάλα γλωσσικά μοντέλα (LLM) δημιουργούν κατασκευασμένες αναφορές, οι οποίες στη συνέχεια εμφανίζονται σε επαγγελματικές υποτροφίες. Κατά την παρακολούθηση ψευδών πηγών στο Google Scholar, ο Heiss παρατήρησε δεκάδες δημοσιευμένα άρθρα που αναφέρουν παραλλαγές αυτών των ανύπαρκτων μελετών και περιοδικών.
Σε αντίθεση με τα άρθρα που δημιουργούνται από την τεχνητή νοημοσύνη, τα οποία συχνά ανακαλούνται γρήγορα, αυτά τα παραισθησιακά τεύχη περιοδικών αναφέρονται σε άλλα χαρτιάνομιμοποιώντας αποτελεσματικά τις εσφαλμένες πληροφορίες. Αυτή η διαδικασία οδηγεί τους μαθητές και τους ακαδημαϊκούς να αποδεχτούν αυτές τις «πηγές» ως αξιόπιστες χωρίς να επαληθεύουν την αυθεντικότητά τους, ενισχύοντας την ψευδαίσθηση της αξιοπιστίας μέσω επαναλαμβανόμενων παραπομπών.
Οι βιβλιοθηκονόμοι ερευνητές αναφέρουν ότι ξοδεύουν έως και το 15% των ωρών εργασίας τους ανταποκρινόμενοι σε αιτήματα για ανύπαρκτα αρχεία που δημιουργούνται από LLMs όπως το ChatGPT ή το Google Gemini.
Heiss διάσημος ότι οι αναφορές που δημιουργούνται από την τεχνητή νοημοσύνη συχνά φαίνονται πειστικές, με ονόματα εν ζωή ακαδημαϊκών και τίτλους που μοιάζουν με την υπάρχουσα βιβλιογραφία. Σε ορισμένες περιπτώσεις, οι αναφορές συνδέονταν με πραγματικούς συγγραφείς, αλλά περιλάμβαναν κατασκευασμένες επικεφαλίδες άρθρων και τίτλους περιοδικών που μιμούνταν το προηγούμενο έργο των συγγραφέων ή τα πραγματικά περιοδικά.
Οι ακαδημαϊκοί, συμπεριλαμβανομένης της ψυχολόγου Iris van Rooij, έχουν προειδοποιήσει ότι η εμφάνιση της τεχνητής νοημοσύνης σε επιστημονικούς πόρους απειλεί αυτό που ονόμασε «την καταστροφή της γνώσης». Τον Ιούλιο, ο van Rooij και άλλοι υπέγραψαν ανοιχτή επιστολή υποστηρίζοντας τα πανεπιστήμια να προστατεύουν την τριτοβάθμια εκπαίδευση, την κριτική σκέψη, την τεχνογνωσία, την ακαδημαϊκή ελευθερία και την επιστημονική ακεραιότητα, προτρέποντας μια αυστηρή ανάλυση του ρόλου της τεχνητής νοημοσύνης στην εκπαίδευση.
Ο μηχανικός λογισμικού Anthony Moser προέβλεψε το 2023 ότι τα chatbots θα μπορούσαν να οδηγήσουν σε εκπαιδευτές να δημιουργήσουν αναλυτικά προγράμματα με ανύπαρκτες αναγνώσεις και μαθητές να βασίζονται στην τεχνητή νοημοσύνη για να συνοψίσουν ή να γράψουν δοκίμια, ένα σενάριο που τώρα δηλώνει ότι έχει υλοποιηθεί.
Ο Moser υποστηρίζει ότι η περιγραφή των εξόδων LLM ως «ψευδαισθήσεις» παρερμηνεύει τη λειτουργία τους, δηλώνοντας ότι τα προγνωστικά μοντέλα είναι «πάντα παραισθησιογόνα» και «δομικά αδιάφορα για την αλήθεια». Είπε ότι τα LLM μολύνουν το οικοσύστημα πληροφοριών ανάντη, με ανύπαρκτες αναφορές να διεισδύουν στην έρευνα και να κυκλοφορούν μέσω επακόλουθων εγγράφων, παρομοιάζοντάς τα με χημικές ουσίες μακράς διάρκειας που είναι δύσκολο να εντοπιστούν ή να φιλτραριστούν.
Ο Μόζερ αποδίδει το πρόβλημα σε «σκόπιμες επιλογές», υποστηρίζοντας ότι οι αντιρρήσεις «αγνοήθηκαν ή ακυρώθηκαν». Αναγνωρίζει ότι «η κακή έρευνα δεν είναι καινούργια», αλλά δηλώνει ότι τα LLM έχουν ενισχύσει την προϋπάρχουσα πίεση για δημοσίευση και παραγωγή, η οποία οδήγησε σε εργασίες με αμφίβολα δεδομένα.
Ο Craig Callender, καθηγητής φιλοσοφίας στο Πανεπιστήμιο της Καλιφόρνια του Σαν Ντιέγκο και πρόεδρος του Philosophy of Science Association, συμφωνεί, παρατηρώντας ότι «η εμφάνιση νομιμότητας σε ανύπαρκτα περιοδικά μοιάζει με το λογικό τελικό προϊόν των υπαρχουσών τάσεων». Ο Callender σημειώνει την ύπαρξη περιοδικών που δέχονται ψευδή άρθρα για κέρδος ή μεροληπτική έρευνα, δημιουργώντας έναν αυξανόμενο «βάλτο» στις επιστημονικές εκδόσεις. Προτείνει ότι η τεχνητή νοημοσύνη επιδεινώνει αυτό το ζήτημα, με τις αναζητήσεις Google που υποστηρίζονται από την τεχνητή νοημοσύνη να ενισχύουν ενδεχομένως την ύπαρξη αυτών των κατασκευασμένων περιοδικών και να διαδίδουν παραπληροφόρηση.
Οι ερευνητές αναφέρουν εκτεταμένη αποθάρρυνση καθώς το ψεύτικο περιεχόμενο κατοχυρώνεται σε δημόσιες βάσεις δεδομένων έρευνας, γεγονός που καθιστά δύσκολο τον εντοπισμό της προέλευσης των ισχυρισμών.
VIA: DataConomy.com




