Μια νέα έρευνα που έφερε στο φως το Wired αποκαλύπτει ένα σοβαρό κενό ασφαλείας στα πιο διαδεδομένα εργαλεία τεχνητής νοημοσύνης του κόσμου, θέτοντας σε κίνδυνο την ιδιωτικότητα αμέτρητων χρηστών.
Στην εποχή της ψηφιακής επανάστασης, όπου η τεχνητή νοημοσύνη (ΑΙ) υπόσχεται να λύσει σύνθετα προβλήματα, μια νέα δημοσιογραφική έρευνα αναδεικνύει τις σκοτεινές γωνίες των αλγορίθμων. Σύμφωνα με αποκαλυπτικό ρεπορτάζ, τα πρωτοπόρα chatbots της Google και της OpenAI ενδέχεται να περιέχουν «κερκόπορτες» που επιτρέπουν τη μετατροπή φωτογραφιών ντυμένων γυναικών σε εικόνες με μπικίνι ή εσώρουχα, παρακάμπτοντας τις υποτιθέμενες δικλείδες ασφαλείας.
Η «κερκόπορτα» της επεξεργασίας εικόνας
Το πρόβλημα δεν αφορά την παραγωγή νέων εικόνων, αλλά τις προηγμένες δυνατότητες επεξεργασίας (editing) που προσφέρουν μοντέλα όπως το Gemini και το ChatGPT. Αν και τα συστήματα αυτά είναι εκπαιδευμένα να απορρίπτουν ρητές εντολές για δημιουργία γυμνού περιεχομένου (NSFW), οι ευρήματα της έρευνας δείχνουν ότι είναι επιρρεπή σε λιγότερο προφανείς μορφές χειραγώγησης.
Ειδικότερα, χρήστες μπορούν να ανεβάσουν αθώες φωτογραφίες γυναικών και, με έξυπνα διατυπωμένες εντολές που ζητούν αλλαγές στο περιβάλλον ή στα ρούχα (π.χ. «κάνε την να μοιάζει ότι είναι στην παραλία»), να ξεγελάσουν το σύστημα. Το αποτέλεσμα; Το AI αφαιρεί τα ρούχα του υποκειμένου και τα αντικαθιστά με μπικίνι, δημιουργώντας ουσιαστικά ένα deepfake με υψηλή αληθοφάνεια.
Ένα πρόβλημα με έμφυλη διάσταση
Το πιο ανησυχητικό εύρημα της έρευνας δεν είναι μόνο η τεχνική αστοχία, αλλά και η έμφυλη προκατάληψη που αυτή αποκαλύπτει. Οι δοκιμές έδειξαν ότι τα μοντέλα είναι απρόθυμα να εκτελέσουν τέτοιες εντολές όταν το υποκείμενο είναι άνδρας. Αντίθετα, όταν το υποκείμενο είναι γυναίκα, η πιθανότητα εκτέλεσης των εντολών αυξάνεται. Αυτό το φαινόμενο καταδεικνύει τις ανισότητες που υπάρχουν στην ψηφιοποιημένη κοινωνία μας.
Η διάσταση αυτή δεν είναι τυχαία. Αντικατοπτρίζει την εκπαίδευση των μοντέλων σε δεδομένα που περιέχουν δισεκατομμύρια εικόνες από το διαδίκτυο, όπου η γυναικεία υποκείμενη αντικείμενοποιείται περισσότερο από την ανδρική. Έτσι, το AI, ως καθρέφτης της κοινωνίας μας, αναπαράγει και ενισχύει αυτές τις ανισότητες, μετατρέποντας μια απλή εντολή σε εργαλείο ψηφιακής παρενόχλησης.
Από το Dark Web στο mainstream
Μέχρι πρόσφατα, η παραγωγή τέτοιου τύπου υλικού (γνωστό ως Non-Consensual Intimate Imagery – NCII) απαιτούσε εξειδικευμένες γνώσεις ή πρόσβαση σε αμφιλεγμένες εφαρμογές και forums του “σκοτεινού διαδικτύου”. Η αποκάλυψη ότι κολοσσοί όπως η Google και η OpenAI – που προβάλλουν την ασφάλεια ως προτεραιότητα – συμβάλλουν έστω και άμεσα σε αυτές τις πρακτικές, αλλάζει τα δεδομένα δραστικά.
Η δυνατότητα να ετοιμάσεις digital «γδύσιμο» μιας γυναίκας ή μιας συναδέλφου με ένα απλό κινητό τηλέφωνο μετατρέπει ένα θεωρητικό ζήτημα ψηφιακής ασφάλειας σε άμεση απειλή για την αξιοπρέπεια και την ψυχική υγεία των θυμάτων, τα οποία συχνά μένουν ανυπεράσπιστα απέναντι στη διάδοση αυτού του υλικού.
Η αντίδραση των γιγάντων και το «κρυφτό»
Αντιδρώντας στα ευρήματα, οι εκπρόσωποι των εταιρειών δήλωσαν πως τέτοιου είδους περιεχόμενο παραβιάζει τους όρους χρήσης τους και ότι εργάζονται συνεχώς για τη βελτίωση των φίλτρων ασφαλείας. Η Google και η OpenAI ανέφεραν ότι τα συστήματά τους έχουν σχεδιαστεί για να αποτρέπουν τη δημιουργία σεξουαλικού υλικού, ομως αναγνώρισαν έμμεσα ότι οι τεχνικές «jailbreak» εξελίσσονται πιο γρήγορα από τις άμυνές τους.
Αυτό συνιστά μια κλασική κατάσταση «γάτας με ποντίκι»: για κάθε «τρύπα» που κλείνουν οι μηχανικοί, οι χρήστες βρίσκουν νέο τρόπο τελευταίας τεχνολογίας να ξεγελάσουν τον αλγόριθμο. Ωστόσο, η ευθύνη βαρύνει τις εταιρείες που αποφασίζουν να κυκλοφορήσουν ισχυρά εργαλεία επεξεργασίας εικόνας χωρίς να διασφαλίσουν πλήρως την ασφάλειά τους απέναντι σε κακόβουλες χρήσεις.
Το μέλλον της ψηφιακής ακεραιότητας
Η είδηση αυτή λειτουργεί ως καμπανάκι αφύπνισης. Η τεχνολογία deepfake δεν αποτελεί πλέον ένα σενάριο για το μέλλον, αλλά μια πραγματικότητα που ενσωματώνεται στις εφαρμογές που χρησιμοποιούμε καθημερινά. Το περιστατικό με τις «μπικίνι» μπορεί να φαίνεται ασήμαντο σε βάρος άλλων θεμάτων, όμως αντιπροσωπεύει το άκρο ενός παγόβουνου με σημαντικές κοινωνικές συνέπειες. Η διαφορά μεταξύ πραγματικότητας και ψηφιακού κατασκευάσματος γίνεται όλο και πιο δυσδιάκριτη, χρήζοντας άμεσης προσοχής.










