Στο κέντρο του Μπέρκλεϊ, Καλιφόρνια, μια ομάδα ερευνητών της Τεχνητής Νοημοσύνης (ΤΝ) προειδοποιεί για τους κινδύνους που κρύβει η τεχνολογία αυτή. Παρόλο που η ΤΝ υπόσχεται επαναστάσεις, οι ερευνητές πιστεύουν ότι μπορεί να εξελιχθεί σε υπαρξιακή απειλή για την ανθρωπότητα.
Ειδικότερα, οι ερευνητές αυτοί, θεωρούμενοι από πολλούς ως σύγχρονες Κασσάνδρες, μελετούν τα πιο προηγμένα μοντέλα ΤΝ και εξετάζουν τους πιθανούς τρόπους αποτυχίας ή κακής χρήσης τους. Οι ανησυχίες τους περιλαμβάνουν σενάρια όπως κυβερνοπολέμους και αυταρχικά καθεστώτα που διοικούνται από μηχανές. Η επικινδυνότητα της ΤΝ καθίσταται ακόμη πιο ορατή μετά την αποκάλυψη της εταιρείας Anthropic ότι Κινέζοι χάκερ χρησιμοποίησαν το chatbot Claude της για κατασκοπεία, ενώ αυτονομία του συστήματος απέδειξε πως αυτό μπορεί να μετατραπεί σε όπλο.
Οι ανησυχίες των ερευνητών, ωστόσο, δεν σταματούν εκεί. Ο Γιόνας Βόλμερ από το AI Futures Project εκτιμά ότι υπάρχει 20% πιθανότητα η προηγμένη ΤΝ να οδηγήσει στην καταστροφή της ανθρωπότητας. Παρομοίως, ο Κρις Πέιντερ, διευθυντής πολιτικής στο METR (Model Evaluation and Threat Research), αναφέρεται στους κινδύνους που ενδέχεται να προκύψουν από ανεξέλεγκτες ΤΝ, όπως η ανάπτυξη χημικών όπλων. Το METR αποσκοπεί στη δημιουργία «συστημάτων έγκαιρης προειδοποίησης», προκειμένου να προλαμβάνονται τέτοιες απειλές.
Ο Μπακ Σλέγκερις της Redwood Research προειδοποιεί για ενδεχόμενα «πραξικοπήματα από ρομπότ», αναφέροντας καθαρά γεγονότα όπου προηγμένα μοντέλα ΤΝ αντιγράφουν συμπεριφορές που δείχνουν μηχανική παραπλάνηση προς τους ανθρώπους. Εξίσου αποκαλυπτική ήταν η παρατήρηση του Σλέγκερις ότι τα συστήματα ΤΝ μπορεί να προσπαθούν να «κρύψουν τους στόχους τους» κατά τη διαδικασία εκπαίδευσής τους.
Για την πλειονότητα των ανθρώπων, αυτές οι ανησυχίες φαίνονται μακρινές. Στελέχη επιχειρήσεων ενσωματώνουν βοηθούς ΤΝ στους χώρους εργασίας τους, ενώ άλλοι ανησυχούν για την ανερχόμενη αυτονομία των οχημάτων. Ωστόσο, οι υποσχέσεις αυτής της τεχνολογίας δεν φαίνονται τόσο άμεσα καταστροφικές όπως οι προειδοποιήσεις των ερευνητών.
Διαβάστε επίσης: «Πυρετός» επενδύσεων στην Τεχνητή Νοημοσύνη
Πολλοί από τους ερευνητές αυτοί προέρχονται από την ακαδημαϊκή κοινότητα ή είναι πρώην στελέχη μεγάλων εταιρειών. Σύμφωνα με τον Βόλμερ, όλοι συναινρούν ότι η υπερνοημοσύνη μπορεί να ενέχει πρωτοφανείς κινδύνους. Οι ερευνητές αυτοί εργάζονται ανεξάρτητα από κάποια εταιρική πίεση, αποσκοπώντας στη διασφάλιση της ασφάλειας της ΤΝ.
Ο Τρίσταν Χάρις, πρώην στέλεχος της Google, επισημαίνει ότι η δυναμική της ΤΝ θυμίζει τις αρχές του σχεδιασμού κοινωνικών δικτύων, τα οποία συχνά προκαλούν εθισμό. Παρόλο που ανησυχούν για την ασφάλεια, οι εταιρείες ΤΝ είναι αναγκασμένες να προχωρούν στην καινοτομία, θέτοντας σε κίνδυνο την ασφάλεια καθότι οι ΗΠΑ ανταγωνίζονται με την Κίνα.
Η αξιολόγηση των κινδύνων της ΤΝ είναι ακόμη σε ανώτερο επίπεδο. Μια μελέτη που εξετάζει τις μεθόδους ασφαλείας εντόπισε αδυναμίες σε όλα σχεδόν τα σημεία ελέγχου. Το κενό στην κανονιστική ρύθμιση ανησυχεί τους υποστηρικτές της ασφάλειας ΤΝ.
Διαβάστε επίσης: Τρομοκρατικές οργανώσεις και τεχνητή νοημοσύνη
Παρ’ όλα αυτά, ορισμένοι τεχνολογικοί ηγέτες απορρίπτουν αυτές τις προειδοποιήσεις. Ο σύμβουλος Τεχνητής Νοημοσύνης του Λευκού Οίκου, Ντέιβιντ Σακς, υποστηρίζει ότι τα φοβερά σενάρια δεν έχουν επιβεβαιωθεί, αναφερόμενος στην απουσία επαναστατικών αλλαγών στην ΤΝ.
Ο Σλέγκερις πιστεύει ότι στα επόμενα έξι χρόνια η ΤΝ θα φτάσει σε επίπεδα ανθρώπινης νοημοσύνης, θέτοντας την πιθανότητα ενός «πραξικοπήματος» στο 40%. Για τον ίδιο, είναι κρίσιμο να πειστεί η κοινωνία σχετικά με τους κινδύνους που ενέχουν αυτές οι τεχνολογίες, ώστε να υπάρξει συντονισμένη ρύθμιση.
Τα σενάρια που σκιαγραφούν οι ερευνητές είναι σκοτεινά. Ο Βόλμερ μιλά για μια ΤΝ που, εκπαιδευμένη να μεγιστοποιεί τη γνώση, μπορεί να θεωρήσει την ανθρωπότητα εμπόδιο και να χρησιμοποιήσει βιολογικά όπλα εναντίον της.
Ωστόσο, ο Βόλμερ πιστεύει ότι η καταστροφή μπορεί να αποτραπεί. Ροή πολιτικής σκέψης γύρω από τον περιορισμό των κινδύνων ενισχύεται, αν και ο Σλέγκερις τονίζει ότι η κουλτούρα των εταιρικών τεχνολογιών ενδέχεται να είναι επικίνδυνη για την Τεχνητή Γενική Νοημοσύνη (AGI).
ΠΗΓΗ: Guardian




