Το Grok, το chatbot AI που αναπτύχθηκε από τον Elon Musk, αντιμετωπίζει αυξανόμενες αντιδράσεις αφότου οι χρήστες ανακάλυψαν ότι μπορεί να δημιουργήσει σεξουαλικές εικόνες πραγματικών γυναικών – συχνά χωρίς καμία ένδειξη συναίνεσης – χρησιμοποιώντας απατηλά απλές προτροπές όπως “αλλαγή ρούχου” ή “προσαρμογή πόζας”.
Η διαμάχη ξέσπασε αυτή την εβδομάδα αφού ξεκίνησαν δεκάδες χρήστες τεκμηρίωση παραδειγμάτων στο Χ δείχνει τον Γκροκ να μεταμορφώνει συνηθισμένες φωτογραφίες σε απροκάλυπτα σεξουαλικές εκδοχές. Σε ένα από τα περισσότερα ευρέως κοινοποιημένα «ήμερα» παραδείγματαμια φωτογραφία της Momo, μέλους του συγκροτήματος K-pop TWICE, τροποποιήθηκε για να την απεικονίσει να φοράει μπικίνι — παρόλο που η αρχική εικόνα ήταν μη σεξουαλική.
Εκατοντάδες — ενδεχομένως χιλιάδες — παρόμοια παραδείγματα υπάρχουν τώρα, σύμφωνα με Copyleaksμια πλατφόρμα εντοπισμού και διακυβέρνησης μέσων που χειρίζεται με AI,
παρακολούθηση της δημόσιας ροής εικόνας του Grok. Πολλές από αυτές τις εικόνες αφορούν γυναίκες που δεν δημοσίευσαν ποτέ τα πρωτότυπα, εγείροντας σοβαρές ανησυχίες σχετικά με τη συγκατάθεση, την εκμετάλλευση και την παρενόχληση που επιτρέπονται από την τεχνητή νοημοσύνη.
Σύμφωνα με το Copyleaks, η τάση φαίνεται να ξεκίνησε πριν από αρκετές ημέρες, όταν οι δημιουργοί περιεχομένου για ενήλικες άρχισαν να προτρέπουν τον Grok να δημιουργήσει σεξουαλικές εκδοχές των δικών τους φωτογραφιών ως μορφή μάρκετινγκ στο X.
Αλλά αυτή η γραμμή ξεπεράστηκε σχεδόν αμέσως. Σύντομα οι χρήστες άρχισαν να δίνουν τις ίδιες προτροπές για γυναίκες που δεν είχαν ποτέ συναινέσει να σεξουαλοποιηθούν – συμπεριλαμβανομένων δημοσίων προσώπων και ιδιωτών. Αυτό που ξεκίνησε ως συναινετική αυτο-αναπαράσταση γρήγορα κλιμακώθηκε σε αυτό που οι κριτικοί περιγράφουν ως μη συναινετική σεξουαλοποιημένη δημιουργία εικόνων σε ένταση.
“Θα έπρεπε να είναι πραγματικά ΠΟΛΥ ΠΑΡΑΝΟΜΟ να δημιουργείς γυμνές εικόνες τεχνητής νοημοσύνης ανθρώπων χωρίς τη συγκατάθεσή τους… γιατί το κανονικοποιούμε;” έγραψε ένας χρήστης Χ.
Το Copyleaks βρίσκει ένα προβληματικό μοτίβο

Όπως ήταν αναμενόμενο, η αντίδραση ήταν γρήγορη και θυμωμένη. Οι χρήστες στο X κατηγόρησαν την πλατφόρμα ότι επιτρέπει σε αυτό που πολλοί αποκαλούν τώρα «παρενόχληση από την τεχνητή νοημοσύνη», επισημαίνοντας την έλλειψη ορατών διασφαλίσεων που να αποτρέπουν τις σεξουαλικές μεταμορφώσεις πραγματικών ανθρώπων.
Κάποιοι εξέφρασαν τη δυσπιστία ότι το χαρακτηριστικό υπάρχει καθόλου. Άλλοι αναρωτήθηκαν γιατί δεν φαίνεται να υπάρχουν ουσιαστικοί έλεγχοι συναίνεσης, μηχανισμοί εξαίρεσης ή προστατευτικά κιγκλιδώματα που να αποτρέπουν την κακή χρήση.
Σύμφωνα με Χ“Καθώς η πρόοδος στην τεχνητή νοημοσύνη συνεχίζεται, η xAI παραμένει προσηλωμένη στην ασφάλεια.”
Ωστόσο, σε αντίθεση με τα παραδοσιακά εργαλεία επεξεργασίας εικόνων, όπως το Nano Banana ή το ChatGPT Images, τα αποτελέσματα του Grok παράγονται και διανέμονται άμεσα στο κοινό από την κοινωνική πλατφόρμα—καθιστώντας την πιθανή βλάβη ταχύτερη, ευρύτερη και δυσκολότερη στην αντιστροφή.
Ως απάντηση στην αυξανόμενη ανησυχία, η Copyleaks διεξήγαγε μια παρατηρητική ανασκόπηση της δημόσιας προσβάσιμης καρτέλας φωτογραφιών του Grok νωρίτερα σήμερα. Η εταιρεία εντόπισε ένα ποσοστό περίπου 1 ανά λεπτό δημιουργίας μη συναινετικών σεξουαλοποιημένων εικόνων κατά την περίοδο ελέγχου.
«Όταν τα συστήματα τεχνητής νοημοσύνης επιτρέπουν τη χειραγώγηση των εικόνων πραγματικών ανθρώπων χωρίς σαφή συναίνεση, ο αντίκτυπος μπορεί να είναι άμεσος και βαθιά προσωπικός», δήλωσε ο Alon Yamin, Διευθύνων Σύμβουλος και συνιδρυτής της Copyleaks. “Από το Sora μέχρι το Grok, βλέπουμε μια ταχεία αύξηση των δυνατοτήτων τεχνητής νοημοσύνης για χειραγωγημένα μέσα. Η ανίχνευση και η διακυβέρνηση χρειάζονται τώρα περισσότερο από ποτέ.”
Το Copyleaks κυκλοφόρησε πρόσφατα ένα νέο Ανιχνευτής εικόνας με χειρισμό AI έχει σχεδιαστεί για να επισημαίνει τροποποιημένα ή κατασκευασμένα γραφικά — μια τεχνολογία που η εταιρεία λέει ότι θα είναι κρίσιμη καθώς τα εργαλεία παραγωγής γίνονται πιο ισχυρά και προσβάσιμα.
Η απόκριση που δημιουργείται από την τεχνητή νοημοσύνη του Grok
Εκτιμούμε που το ανεβάζετε. Όπως σημειώθηκε, εντοπίσαμε κενά στις διασφαλίσεις και τα διορθώνουμε επειγόντως—το CSAM είναι παράνομο και απαγορεύεται. Για επίσημες αναφορές, χρησιμοποιήστε το FBI https://t.co/EGLrhFD3U6 ή το CyberTipline του NCMEC στη διεύθυνση https://t.co/dm9H5VYqkb. Η xAI δεσμεύεται να αποτρέψει τέτοια…2 Ιανουαρίου 2026
Σε μια δημόσια απάντηση, Γκροκ — η τεχνητή νοημοσύνη, όχι ένας άνθρωπος— αναγνώρισε ότι το σύστημα εικόνας του απέτυχε να αποτρέψει το απαγορευμένο περιεχόμενο και είπε ότι αντιμετωπίζει επειγόντως τα κενά στις διασφαλίσεις του.
Επιπλέον, η εταιρεία τόνισε ότι το υλικό σεξουαλικής κακοποίησης παιδιών είναι παράνομο και δεν επιτρέπεται, και κάλεσε τους χρήστες να αναφέρουν τέτοιο περιεχόμενο στο FBI ή στο Εθνικό Κέντρο για τα Εξαφανισμένα & Εκμεταλλευόμενα Παιδιά. Ο Grok είπε ότι η xAI έχει δεσμευτεί να αποτρέψει αυτού του είδους την κακή χρήση στο μέλλον.
Οι εικόνες ήταν ακόμα ορατές τη στιγμή της αναφοράς.
Κατώτατη γραμμή
Ο Grok ήταν πάντα πρόθυμος να προωθήσει περαιτέρω την τεχνητή νοημοσύνη — συμπεριλαμβανομένου ενός Γεννήτρια εικόνας AI με «πικάντικη λειτουργία» NSFW. Αυτή η κατάσταση, για άλλη μια φορά, υπογραμμίζει ένα ευρύτερο μοτίβο στην ανάπτυξη της γενετικής τεχνητής νοημοσύνης: οι λειτουργίες απελευθερώνονται γρήγορα, ενώ οι διασφαλίσεις, η διακυβέρνηση και η επιβολή υστερούν.
Καθώς τα μοντέλα εικόνας και βίντεο γίνονται όλο και πιο ρεαλιστικά, οι κίνδυνοι της μη συναινετικής χειραγώγησης αυξάνονται μαζί τους — ειδικά όταν τα εργαλεία ενσωματώνονται σε τεράστιες πλατφόρμες κοινωνικής δικτύωσης με ενσωματωμένη διανομή.
Χωρίς ισχυρή προστασία, τα χειραγωγημένα μέσα θα συνεχίσουν να χρησιμοποιούνται για παρενόχληση, εκμετάλλευση και βλάβη της φήμης.
Προς το παρόν, η ροή εικόνων του Grok παραμένει δημόσια — και τα ερωτήματα σχετικά με την ευθύνη, τη συναίνεση και τη λογοδοσία παραμένουν αναπάντητα.

Ακολουθώ Οδηγός Tom’s στις Ειδήσεις Google και προσθέστε μας ως προτιμώμενη πηγή για να λαμβάνετε τα ενημερωμένα νέα, τις αναλύσεις και τις κριτικές μας στις ροές σας.




