Το OpenAI ξεκίνησε μια αναζήτηση για έναν νέο «επικεφαλής ετοιμότητας» για τη διαχείριση κινδύνων τεχνητής νοημοσύνης, μια θέση που προσφέρει ετήσιο μισθό 555.000 $ συν ίδια κεφάλαια, Business Insider εκθέσεις.
Ο Διευθύνων Σύμβουλος Sam Altman περιέγραψε τον ρόλο ως «αγχωτικό» σε μια ανάρτηση X το Σάββατο, τονίζοντας τον κρίσιμο χαρακτήρα του δεδομένων των γρήγορων βελτιώσεων και των αναδυόμενων προκλήσεων που παρουσιάζουν τα μοντέλα AI.
Η εταιρεία επιδιώκει να μετριάσει τα πιθανά μειονεκτήματα της τεχνητής νοημοσύνης, τα οποία περιλαμβάνουν την εκτόπιση θέσεων εργασίας, την παραπληροφόρηση, την κακόβουλη χρήση, τις περιβαλλοντικές επιπτώσεις και τη διάβρωση της ανθρώπινης δράσης. Ο Altman σημείωσε ότι ενώ τα μοντέλα είναι ικανά για ευεργετικές εφαρμογές, αρχίζουν επίσης να θέτουν προκλήσεις, όπως επιπτώσεις στην ψυχική υγεία και την ικανότητα εντοπισμού κρίσιμων τρωτών σημείων στον κυβερνοχώρο, αναφέροντας ζητήματα προεπισκόπησης από το 2025 και τρέχουσες δυνατότητες.
Το ChatGPT, το chatbot AI του OpenAI, έχει κερδίσει δημοτικότητα μεταξύ των καταναλωτών για γενικές εργασίες όπως η έρευνα και η σύνταξη email. Ωστόσο, ορισμένοι χρήστες έχουν ασχοληθεί με τα ρομπότ ως εναλλακτική θεραπεία, η οποία, σε ορισμένες περιπτώσεις, έχει επιδεινώσει προβλήματα ψυχικής υγείας, συμβάλλοντας σε αυταπάτες και άλλες συμπεριφορές που αφορούν. Η OpenAI δήλωσε τον Οκτώβριο ότι συνεργάζεται με επαγγελματίες ψυχικής υγείας για να βελτιώσει τις αλληλεπιδράσεις του ChatGPT με χρήστες που παρουσιάζουν συμπεριφορά, συμπεριλαμβανομένης της ψύχωσης ή του αυτοτραυματισμού.
Η ιδρυτική αποστολή του OpenAI επικεντρώνεται στην ανάπτυξη της τεχνητής νοημοσύνης προς όφελος της ανθρωπότητας, με πρωτόκολλα ασφαλείας που καθιερώθηκαν νωρίς στις δραστηριότητές του. Πρώην στελέχη του προσωπικού ανέφεραν ότι η εστίαση της εταιρείας μετατοπίστηκε προς την κερδοφορία και την ασφάλεια καθώς κυκλοφόρησαν τα προϊόντα.
Ο Jan Leiki, πρώην αρχηγός της διαλυμένης ομάδας ασφαλείας του OpenAI, παραιτήθηκε τον Μάιο του 2024, δηλώνοντας στο X ότι η εταιρεία «έχασε τα μάτια της την αποστολή της να διασφαλίσει ότι η τεχνολογία θα αναπτυχθεί με ασφάλεια». Ο Leiki άρθρωσε ότι η κατασκευή «εξυπνότερων από τον άνθρωπο μηχανών είναι μια εγγενώς επικίνδυνη προσπάθεια» και εξέφρασε ανησυχίες ότι «η κουλτούρα και οι διαδικασίες ασφάλειας έχουν πάρει πίσω μέρος στα λαμπερά προϊόντα». Ένας άλλος υπάλληλος παραιτήθηκε λιγότερο από μία εβδομάδα αργότερα, επικαλούμενος παρόμοιες ανησυχίες για την ασφάλεια.
Ο Daniel Kokotajlo, άλλος ένας πρώην υπάλληλος του προσωπικού, παραιτήθηκε τον Μάιο του 2024, επικαλούμενος την «απώλεια εμπιστοσύνης» στην υπεύθυνη συμπεριφορά του OpenAI σχετικά με την Τεχνητή Γενική Νοημοσύνη (AGI). Ο Kokotajlo αργότερα είπε στο Fortune ότι ο αριθμός του προσωπικού που ερευνούσε θέματα ασφάλειας που σχετίζονται με το AGI είχε σχεδόν μειωθεί στο μισό από την αρχική καταμέτρηση περίπου 30.
Ο Aleksander Madry, ο προηγούμενος επικεφαλής ετοιμότητας, μετατράπηκε σε νέο ρόλο τον Ιούλιο του 2024. Ο επικεφαλής της θέσης ετοιμότητας, μέλος της ομάδας Safety Systems του OpenAI, εστιάζει στην ανάπτυξη διασφαλίσεων, πλαισίων και αξιολογήσεων για τα μοντέλα της εταιρείας. Η λίστα θέσεων εργασίας καθορίζει ευθύνες, συμπεριλαμβανομένων των «οικοδόμησης και συντονισμού αξιολογήσεων ικανοτήτων, μοντέλων απειλών και μετριασμούς που αποτελούν έναν συνεκτικό, αυστηρό και λειτουργικά επεκτάσιμο αγωγό ασφάλειας».
VIA: DataConomy.com




