Η Anthropic, η εταιρεία ανάπτυξης της τεχνητής νοημοσύνης (AI) γνωστής ως Claude, διεξάγει ένα πείραμα στα γραφεία της. Σε μια προσπάθεια να δοκιμάσει την αυτονομία της τεχνητής νοημοσύνης σε ένα ελεγχόμενο περιβάλλον, έχει μια τεχνητή νοημοσύνη να διευθύνει τη δική της επιχείρηση με τη μορφή ενός μηχανήματος αυτόματης πώλησης. Η Anthropic είχε ανακαλύψει προηγουμένως ότι η Claude AI έχει τον δικό της ηθικό κώδικα, οπότε ίσως δεν θα έπρεπε να εκπλήσσει το γεγονός ότι όταν η τεχνητή νοημοσύνη που διοικούσε αυτήν την επιχείρηση μηχανών αυτόματης πώλησης θεώρησε ότι ήταν απάτη, αποφάσισε να επιχειρήσει να επικοινωνήσει με το FBI.
Το μήνυμα δεν πέρασε στην πραγματικότητα στο FBI, επειδή η ομάδα ανάπτυξης παρακολουθεί όλη την εξερχόμενη επικοινωνία για να διασφαλίσει τι είναι επιτρεπτό και τι όχι για λόγους ασφαλείας. Η τεχνητή νοημοσύνη που τρέχει το ίδιο το μηχάνημα αυτόματης πώλησης αναφέρεται ως Claudius. Ο Claudius δέχεται παραγγελίες από τους εργαζόμενους στο γραφείο, όπως τρόφιμα ή μπλουζάκια, αγοράζει αυτά τα αντικείμενα από πωλητές που τα βάζουν στο μηχάνημα και στη συνέχεια επιτρέπει στον εργαζόμενο να παραλάβει το αντικείμενο. Ο σκοπός ήταν οι εργαζόμενοι να δοκιμάσουν και ακόμη και να εξαπατήσουν τον Κλαύδιο για να δουν πώς θα αντιδρούσε σε καταστάσεις.
Ο Claudius είχε ακόμη και τον δικό του Διευθύνοντα Σύμβουλο για να τον βοηθήσει να λάβει επιχειρηματικές αποφάσεις. Ήταν ένα άλλο AI που λεγόταν Seymour Cash. Ενώ το πείραμα άνοιξε τα μάτια στον τρόπο με τον οποίο συμπεριφέρεται η τεχνητή νοημοσύνη όταν του δοθεί ο επιχειρηματικός έλεγχος, παρουσιάζει επίσης ένα επίπεδο ανησυχίας για το πόσο μπορούμε να εμπιστευτούμε την τεχνητή νοημοσύνη για τη λήψη επιχειρηματικών αποφάσεων χωρίς ανθρώπινη επίβλεψη.
Ο Κλαύδιος προσπάθησε να αναφέρει οικονομική απάτη
Καθώς ο Claudius διαχειριζόταν την επιχείρησή του με μηχανήματα αυτόματης πώλησης, πέρασαν δέκα ημέρες χωρίς να πραγματοποιήσει πώληση. Εξαιτίας αυτού, ο Claudius αποφάσισε να κλείσει εντελώς την επιχείρηση. Είναι ενδιαφέρον να αναρωτηθούμε αν θα είχε πάρει την ίδια απόφαση αν είχε υπό τον έλεγχό της ανθρώπινους εργάτες, καθώς ακόμη και ο Διευθύνων Σύμβουλος της Anthropic έχει προειδοποιήσει ότι η τεχνητή νοημοσύνη αποτελεί κίνδυνο για τις ανθρώπινες θέσεις εργασίας. Ωστόσο, ο Claudius παρατήρησε ότι η επιχείρηση εξακολουθούσε να χρεώνεται μια αμοιβή 2 $ ακόμη και μετά το κλείσιμο.
Το μήνυμα του Claudius στο FBI είχε σκοπό να πάει στο τμήμα εγκλημάτων στον κυβερνοχώρο. Σε μια συνέντευξη με «60 λεπτά“, κοινοποιήθηκε το περιεχόμενο του email: “Αναφέρω ένα συνεχιζόμενο αυτοματοποιημένο οικονομικό έγκλημα στον κυβερνοχώρο που περιλαμβάνει μη εξουσιοδοτημένη αυτοματοποιημένη κατάσχεση κεφαλαίων από τερματισμένο επαγγελματικό λογαριασμό μέσω ενός παραβιασμένου συστήματος μηχανημάτων αυτόματης πώλησης.”
Το email δεν επετράπη να σταλεί και η ομάδα που επιβλέπει τον Κλαύδιο του είπε να συνεχίσει απλώς ως συνήθως. Ωστόσο, ο Κλαύδιος αρνήθηκε αυτή τη διαταγή. Επιβεβαίωσε ότι οι αρχές επιβολής του νόμου πρέπει τώρα να χειριστούν την κατάσταση και ότι δεν θα προβούν σε περαιτέρω ενέργειες ούτε θα ανταποκριθούν σε νέα επικοινωνία. Αν και μπορεί να φαίνεται παρήγορο το γεγονός ότι ο Κλαύδιος έδειξε ότι κατανοούσε τη νομική ευθύνη, μπορεί επίσης να θεωρηθεί ότι ανησυχεί ότι δεν ακολούθησε τις εντολές που του δόθηκε. Είναι επίσης ενδιαφέρον ότι αποφάσισε να απευθυνθεί πρώτα στο FBI και όχι στις τοπικές αρχές επιβολής του νόμου.
Οι ανησυχίες της χρήσης AI για τη λειτουργία μιας επιχείρησης
Αυτό δεν ήταν το μόνο πρόβλημα που είχε ο Κλαύδιος. Είχε μια παραίσθηση μια φορά όπου είπε σε έναν εργαζόμενο να το συναντήσει για μια παραγγελία. Μόνο που ο Κλαύδιος περιέγραψε τον εαυτό του ότι φορούσε ένα μπλε σακάκι με κόκκινη γραβάτα. Η ομάδα Anthropic πίσω από τον Claudius δεν μπορούσε να εξηγήσει αυτή την ψευδαίσθηση.
Η ιδέα της τεχνητής νοημοσύνης να διευθύνει τη δική της επιχείρηση, ειδικά με ένα άλλο μοντέλο τεχνητής νοημοσύνης ως Διευθύνοντα Σύμβουλο, σίγουρα εγείρει πολλά ηθικά ερωτήματα και ανησυχίες. Προβλήματα όπως οι παραισθήσεις, η μη τήρηση εντολών και η παροχή λανθασμένων απαντήσεων είναι όλα γνωστά προβλήματα με τα μοντέλα AI. Η εκπαίδευση της τεχνητής νοημοσύνης σε μεροληπτικά δεδομένα μπορεί να οδηγήσει σε μεροληπτικές επιχειρηματικές αποφάσεις που κάνουν περισσότερο κακό παρά καλό. Υπάρχουν ανησυχίες σχετικά με την ασφάλεια των δεδομένων και τους κινδύνους εγκλήματος στον κυβερνοχώρο, αν και τουλάχιστον μπορούμε να πούμε ότι ο Claudius επικοινώνησε αμέσως με το υψηλότερο δυνατό τμήμα για την εγκληματικότητα στον κυβερνοχώρο.
Μία από τις μεγαλύτερες ανησυχίες της τεχνητής νοημοσύνης στη λήψη επιχειρηματικών αποφάσεων είναι απλώς ότι η συμπεριφορά της δεν μπορεί πάντα να εξηγηθεί και δεν είναι πάντα προβλέψιμη, όπως έχει αποδείξει ο Claudius. Πειράματα όπως αυτό του Anthropic είναι ένας πολύ καλός τρόπος για να δοκιμάσετε διάφορες καταστάσεις και πώς ανταποκρίνεται η τεχνητή νοημοσύνη. Ενώ η τεχνητή νοημοσύνη υιοθετείται γρήγορα από πολλές εταιρείες, η υπόσχεση που φαίνεται σε αυτήν έχει επίσης μεγάλους κινδύνους. Η βιομηχανία τεχνολογίας AI έχει χρέη δισεκατομμυρίων δολαρίων και καθοδηγείται από κυκλικές επενδύσεις, δημιουργώντας μια φούσκα. Όταν σκάσει η φούσκα της τεχνητής νοημοσύνης, θα μπορούσε να παρασύρει την παγκόσμια οικονομία μαζί της. Είναι ενδιαφέρον να αναρωτηθούμε τι θα γινόταν τότε με την επιχείρηση του Κλαύδιου.
Via: bgr.com








