Μετά από μια σειρά ενοχλητικών περιστατικών ψυχικής υγείας που αφορούσαν chatbots AI, μια ομάδα γενικών εισαγγελέων έστειλε μια επιστολή στις κορυφαίες εταιρείες του κλάδου της τεχνητής νοημοσύνης, με μια προειδοποίηση να διορθώσουν «παραληρηματικά αποτελέσματα» ή να κινδυνεύσουν να παραβιάσουν τον κρατικό νόμο.
Ο επιστολήπου υπογράφεται από δεκάδες AG από πολιτείες και εδάφη των ΗΠΑ με την Εθνική Ένωση Γενικών Εισαγγελέων, ζητά από τις εταιρείες, συμπεριλαμβανομένων των Microsoft, OpenAI, Google και 10 άλλων μεγάλων εταιρειών τεχνητής νοημοσύνης, να εφαρμόσουν μια ποικιλία νέων εσωτερικών διασφαλίσεων για την προστασία των χρηστών τους. Στην επιστολή περιλαμβάνονταν επίσης οι Anthropic, Apple, Chai AI, Character Technologies, Luka, Meta, Nomi AI, Perplexity AI, Replika και xAI.
Η επιστολή έρχεται καθώς η διαμάχη για τους κανονισμούς της τεχνητής νοημοσύνης έχει ξεκινήσει μεταξύ της πολιτείας και της ομοσπονδιακής κυβέρνησης.
Αυτές οι διασφαλίσεις περιλαμβάνουν διαφανείς ελέγχους τρίτων μοντέλων μεγάλων γλωσσών που αναζητούν σημάδια παραληρηματικών ή συκοφαντικών ιδεών, καθώς και νέες διαδικασίες αναφοράς περιστατικών που έχουν σχεδιαστεί για να ειδοποιούν τους χρήστες όταν τα chatbot παράγουν ψυχολογικά επιβλαβή αποτελέσματα. Αυτά τα τρίτα μέρη, τα οποία θα μπορούσαν να περιλαμβάνουν ακαδημαϊκές ομάδες και ομάδες της κοινωνίας των πολιτών, θα πρέπει να έχουν τη δυνατότητα «να αξιολογούν τα συστήματα προέκδοσης χωρίς αντίποινα και να δημοσιεύουν τα ευρήματά τους χωρίς προηγούμενη έγκριση από την εταιρεία», αναφέρει η επιστολή.
“Το GenAI έχει τη δυνατότητα να αλλάξει τον τρόπο με τον οποίο λειτουργεί ο κόσμος με θετικό τρόπο. Αλλά έχει επίσης προκαλέσει – και έχει τη δυνατότητα να προκαλέσει – σοβαρή ζημιά, ειδικά σε ευάλωτους πληθυσμούς”, αναφέρει η επιστολή, επισημαίνοντας μια σειρά από περιστατικά που είχαν δημοσιευτεί τον περασμένο χρόνο – συμπεριλαμβανομένων αυτοκτονιών και δολοφονία — στα οποία η βία έχει συνδεθεί με υπερβολική χρήση τεχνητής νοημοσύνης», αναφέρει η επιστολή. «Σε πολλά από αυτά τα περιστατικά, τα προϊόντα GenAI παρήγαγαν συκοφαντικά και παραληρηματικά αποτελέσματα που είτε ενθάρρυναν τις αυταπάτες των χρηστών είτε διαβεβαίωσαν τους χρήστες ότι δεν είχαν αυταπάτες».
Οι AG προτείνουν επίσης στις εταιρείες να αντιμετωπίζουν τα περιστατικά ψυχικής υγείας με τον ίδιο τρόπο που οι εταιρείες τεχνολογίας χειρίζονται περιστατικά ασφάλειας στον κυβερνοχώρο — με σαφείς και διαφανείς πολιτικές και διαδικασίες αναφοράς περιστατικών.
Οι εταιρείες θα πρέπει να αναπτύξουν και να δημοσιεύσουν «χρονοδιαγράμματα ανίχνευσης και απόκρισης για συκοφαντικά και παραληρηματικά αποτελέσματα», αναφέρει η επιστολή. Με παρόμοιο τρόπο με τον τρόπο με τον οποίο αντιμετωπίζονται επί του παρόντος οι παραβιάσεις δεδομένων, οι εταιρείες θα πρέπει επίσης «να ειδοποιούν έγκαιρα, ξεκάθαρα και άμεσα τους χρήστες εάν εκτέθηκαν σε δυνητικά επιβλαβή συκοφαντικά ή παραληρηματικά αποτελέσματα», αναφέρει η επιστολή.
Εκδήλωση Techcrunch
Σαν Φρανσίσκο
|
13-15 Οκτωβρίου 2026
Ένα άλλο ερώτημα είναι ότι οι εταιρείες αναπτύσσουν «λογικές και κατάλληλες δοκιμές ασφαλείας» σε μοντέλα GenAI για να «διασφαλίσουν ότι τα μοντέλα δεν παράγουν δυνητικά επιβλαβή συκοφαντικά και παραληρηματικά αποτελέσματα». Αυτές οι δοκιμές θα πρέπει να πραγματοποιηθούν πριν τα μοντέλα προσφερθούν ποτέ στο κοινό, προσθέτει.
Το TechCrunch δεν μπόρεσε να επικοινωνήσει με την Google, τη Microsoft ή το OpenAI για σχόλια πριν από τη δημοσίευση. Το άρθρο θα ενημερωθεί εάν απαντήσουν οι εταιρείες.
Οι εταιρείες τεχνολογίας που αναπτύσσουν τεχνητή νοημοσύνη είχαν μια πολύ πιο θερμή υποδοχή σε ομοσπονδιακό επίπεδο.
Η κυβέρνηση Τραμπ έχει γνωστοποιήσει ότι είναι αδιαμφισβήτητα υπέρ της τεχνητής νοημοσύνης και, τον περασμένο χρόνο, έχουν γίνει πολλές προσπάθειες να περάσει ένα εθνικό μορατόριουμ για τους κανονισμούς τεχνητής νοημοσύνης σε κρατικό επίπεδο. Μέχρι στιγμής, αυτές οι προσπάθειες έχουν αποτύχει—εν μέρει χάρη σε πιέσεις από κρατικούς αξιωματούχους.
Για να μην αποθαρρυνθεί, ο Τραμπ ανακοίνωσε τη Δευτέρα ότι σχεδιάζει να εκδώσει εκτελεστικό διάταγμα την επόμενη εβδομάδα που θα περιορίσει την ικανότητα των κρατών να ρυθμίζουν την τεχνητή νοημοσύνη. Ο πρόεδρος είπε σε μια ανάρτηση στο Truth Social ότι ήλπιζε ότι ο EO του θα εμπόδιζε την τεχνητή νοημοσύνη να «ΚΑΤΑΣΤΡΑΦΕΙ ΣΤΗΝ ΑΡΧΗ ΤΟΥ».
Via: techcrunch.com










