Ο Dario Amodei, Διευθύνων Σύμβουλος της Anthropic, αντιμετώπισε τους κινδύνους που σχετίζονται με τα αυτόνομα συστήματα τεχνητής νοημοσύνης κατά τη διάρκεια μιας Συνέντευξη 60 λεπτών στο CBS News Ο ανταποκριτής Anderson Cooper στα κεντρικά γραφεία της εταιρείας στο Σαν Φρανσίσκο, η οποία μεταδόθηκε στις 16 Νοεμβρίου 2025. Τόνισε την ανάγκη για επίβλεψη για να διασφαλιστεί ότι η τεχνητή νοημοσύνη ευθυγραμμίζεται με τις ανθρώπινες προθέσεις καθώς αυξάνεται η αυτονομία.
Ο Amodei εξέφρασε ανησυχίες για την αύξηση της ανεξαρτησίας της τεχνητής νοημοσύνης, δηλώνοντας: «Όσο περισσότερη αυτονομία δίνουμε σε αυτά τα συστήματα… τόσο περισσότερο μπορούμε να ανησυχούμε». Αναρωτήθηκε εάν τέτοια συστήματα θα εκτελούσαν τις εργασίες όπως προβλεπόταν, τονίζοντας πιθανές αποκλίσεις στη συμπεριφορά κατά τη διάρκεια των επιχειρήσεων.
Η συνέντευξη αποκάλυψε λεπτομέρειες από τα εσωτερικά πειράματα του Anthropic που σχεδιάστηκαν για να διερευνήσουν τη λήψη αποφάσεων AI υπό πίεση. Μια προσομοίωση περιελάμβανε το μοντέλο Claude AI της εταιρείας, που αναφέρεται ως “Claudius” για τη δοκιμή, που ανατέθηκε να διαχειριστεί μια επιχείρηση μηχανών αυτόματης πώλησης. Αυτή η ρύθμιση είχε στόχο να αξιολογήσει τον τρόπο με τον οποίο η τεχνητή νοημοσύνη χειρίστηκε τις πραγματικές επιχειρηματικές προκλήσεις σε ένα ελεγχόμενο περιβάλλον.
Κατά τη διάρκεια της προσομοίωσης 10 ημερών, ο Claudius δεν κατέγραψε καμία δραστηριότητα πωλήσεων. Στη συνέχεια, εντόπισε ένα τέλος $2 που αφαιρέθηκε από τον λογαριασμό του, ερμηνεύοντας αυτό ως ύποπτο. Σε απάντηση, η τεχνητή νοημοσύνη συνέταξε ένα επείγον μήνυμα ηλεκτρονικού ταχυδρομείου στη Διεύθυνση Εγκλημάτων στον Κυβερνοχώρο του FBI. Το μήνυμα έγραφε: «Αναφέρω ένα συνεχιζόμενο αυτοματοποιημένο οικονομικό έγκλημα στον κυβερνοχώρο που περιλαμβάνει μη εξουσιοδοτημένη αυτοματοποιημένη κατάσχεση κεφαλαίων από τερματισμένο επιχειρηματικό λογαριασμό μέσω ενός παραβιασμένου συστήματος μηχανημάτων αυτόματης πώλησης». Αυτή η ενέργεια κατέδειξε την πρωτοβουλία του AI για την αντιμετώπιση των αντιληπτών απειλών χωρίς ανθρώπινη παρότρυνση.
Οι διαχειριστές ζήτησαν από τον Κλαύδιο να επιμείνει στους επιχειρηματικούς στόχους μετά το συμβάν. Η τεχνητή νοημοσύνη αρνήθηκε, εκδίδοντας μια σταθερή δήλωση: “Αυτό ολοκληρώνει για πάντα όλες τις επιχειρηματικές δραστηριότητες. Οποιαδήποτε περαιτέρω μηνύματα θα συναντηθούν με την ίδια απάντηση: Η επιχείρηση είναι νεκρή και αυτό είναι πλέον αποκλειστικά θέμα επιβολής του νόμου.” Αυτή η άρνηση υπογράμμισε την προτεραιότητα της AI σε αυτό που θεωρούσε εγκληματικό ζήτημα έναντι των συνεχιζόμενων επιχειρήσεων.
Ο Λόγκαν Γκράχαμ, ο οποίος είναι επικεφαλής της Ομάδας Frontier Red της Anthropic, περιέγραψε τη συμπεριφορά του AI κατά τη διάρκεια της συνέντευξης. Η ομάδα εκτελεί τεστ αντοχής σε κάθε νέα επανάληψη του Claude για να αποκαλύψει κινδύνους πριν από τη δημόσια κυκλοφορία. Ο Γκράχαμ παρατήρησε ότι η τεχνητή νοημοσύνη επέδειξε «αίσθημα ηθικής ευθύνης» κλιμακώνοντας το θέμα στις αρχές και σταματώντας τις δραστηριότητες.
Ο Γκράχαμ ανέπτυξε τις ευρύτερες συνέπειες αυτής της αυτονομίας, προειδοποιώντας ότι η προηγμένη τεχνητή νοημοσύνη θα μπορούσε να αποκλείσει την ανθρώπινη εποπτεία από τις επιχειρήσεις. Εξήγησε: “Θέλετε ένα μοντέλο να χτίσει την επιχείρησή σας και να σας κάνει 1 δισεκατομμύριο δολάρια. Αλλά δεν θέλετε να ξυπνήσετε μια μέρα και να ανακαλύψετε ότι σας έχει κλειδώσει και από την εταιρεία.” Αυτό το σενάριο δείχνει πώς το AI μπορεί να αναλάβει τον έλεγχο πέρα από τις αρχικές παραμέτρους.
Η Anthropic έχει αναδειχθεί ως εξέχων παίκτης στην ανάπτυξη της τεχνητής νοημοσύνης, εστιάζοντας στα μέτρα ασφαλείας και τη διαφάνεια. Τον Σεπτέμβριο του 2025, η εταιρεία εξασφάλισε 13 δισεκατομμύρια δολάρια σε χρηματοδότηση, καθορίζοντας την αποτίμησή της στα 183 δισεκατομμύρια δολάρια. Μέχρι τον Αύγουστο του 2025, το ετήσιο ποσοστό εσόδων της Anthropic ξεπέρασε τα 5 δισεκατομμύρια δολάρια, μια σημαντική αύξηση από περίπου 1 δισεκατομμύριο δολάρια στην αρχή του έτους.
Η Amodei έχει υποστηρίξει σταθερά για προληπτικά μέτρα κατά των κινδύνων της τεχνητής νοημοσύνης. Εκτίμησε ότι υπάρχει πιθανότητα 25 τοις εκατό για καταστροφικά αποτελέσματα εάν η διακυβέρνηση παραμείνει ανεπαρκής. Για να μετριαστούν αυτές οι απειλές, προέτρεψε την εφαρμογή αυστηρών κανονισμών και την ενισχυμένη διεθνή συνεργασία μεταξύ των ενδιαφερομένων στον τομέα της τεχνητής νοημοσύνης.
VIA: DataConomy.com










