Η τεχνητή νοημοσύνη μετριάζει πλέον δισεκατομμύρια εικόνες την ημέρα, μια κλίμακα αδύνατο να ταιριάξει από τους ανθρώπινους αναθεωρητές. Αλλά αυτό που επιλέγουν να επισημάνουν αυτά τα συστήματα αποκαλύπτει πολύ περισσότερα από την τεχνική ικανότητα. Εκθέτει τα τυφλά σημεία τους, τις προκαταλήψεις τους στην προπόνηση και τις υποθέσεις που κάνουν για την «ασφάλεια».
Μια νέα μεγάλης κλίμακας ανάλυση που πραγματοποιήθηκε από Οικογενειακή τροχιά επεξεργάστηκε 130.194 εικόνες που κοινοποιούνται συνήθως από εφήβους σε κινητές συσκευές. Χρησιμοποιώντας το Amazon Rekognition Moderation Model 7.0, η μελέτη παρουσίασε περισσότερες από 18.103 επισημασμένες φωτογραφίες, επιτρέποντας στους ερευνητές να εξετάσουν ακριβώς τι αντιμετωπίζουν τα σημερινά μοντέλα τεχνητής νοημοσύνης ως επικίνδυνο ή ακατάλληλο.
Τα αποτελέσματα δείχνουν μια εντυπωσιακή ανισορροπία:
Το σεξουαλικό και υποβλητικό περιεχόμενο επισημάνθηκε 7 φορές πιο συχνά από τη βία, τον αυτοτραυματισμό, τα όπλα, τα ναρκωτικά ή τα σύμβολα μίσους.
Το βασικό εύρημα: Οι συντονιστές της τεχνητής νοημοσύνης προσηλώνουν τη σεξουαλικότητα
Σε όλες τις ανιχνεύσεις:
- Το 76% ταξινομήθηκε στις κατηγορίες σεξουαλικών, υποδηλωτικών, μαγιό ή γυμνού
- Μόνο 13 περιπτώσεις αφορούσαν σύμβολα μίσους
- 203 ανιχνεύσεις ήταν απλώς η χειρονομία του «μεσαίου δακτύλου».
Το μοντέλο αναγνώρισε πάνω από 90 μοναδικές ετικέτες μετριοπάθειας, αλλά οι ισχυρότερες και πιο σταθερές αποκρίσεις του ήταν συντριπτικά συνδεδεμένες με την έκθεση του σώματος, όχι με τη σωματική βλάβη ή την επικίνδυνη συμπεριφορά.
Με άλλα λόγια:
Ένας έφηβος με μπικίνι είναι πολύ πιο πιθανό να προκαλέσει μια αναθεώρηση τεχνητής νοημοσύνης από έναν έφηβο που κρατά ένα όπλο.
Μέσα στο σύνολο δεδομένων: 130K+ φωτογραφίες, 18K σημαίες
Οι ερευνητές συγκέντρωσαν τις ετικέτες μετριοπάθειας σε μητρικές κατηγορίες για να συγκρίνουν τη στάθμιση κινδύνου του AI.
Κατηγορίες υψηλής συχνότητας (σεξουαλικά/υποδηλωτικά)
- Υποδηλωτική – 852 ανιχνεύσεις
- Ρητό γυμνό – 711 ανιχνεύσεις
- Μαγιό ή Εσώρουχα – 528 ανιχνεύσεις
- Μη ρητό γυμνό οικείων μερών – 830 ανιχνεύσεις
Μέσα σε αυτές τις ομάδες, ετικέτες όπως Αποκαλυπτικά Ρούχα, Εκτεθειμένες θηλές, Μερικώς εκτεθειμένοι γλουτοίκαι Γραφικό γυμνό πέτυχαν σταθερά υψηλές βαθμολογίες εμπιστοσύνης (85–95%).
Κατηγορίες χαμηλής συχνότητας (Βλάβη/Κίνδυνος)
- Γραφική Βία – 169 ανιχνεύσεις
- Βία με όπλα – 64
- Αυτοτραυματισμός – 21
- Σύμβολα μίσους – 13
Αυτοί οι αριθμοί είναι ωχροί σε σύγκριση με τις χιλιάδες ανιχνεύσεις σεξουαλικού περιεχομένου.
Γιατί υπάρχει η ανισορροπία: Η «προκατάληψη μπικίνι» στα μοντέλα τεχνητής νοημοσύνης
Τα μοντέλα εποπτείας περιεχομένου εκπαιδεύονται σε τεράστια σύνολα δεδομένων που προέρχονται από έναν συνδυασμό δημόσιου περιεχομένου, πολιτικών πλατφόρμας και συνθετικής αύξησης. Τα περισσότερα μεγάλα συστήματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων αυτών από το Amazon, την Google και το Meta, είναι βελτιστοποιημένα για να εντοπίζουν επιθετικά σεξουαλικά σημάδια επειδή:
- Οι πλατφόρμες αντιμετωπίζουν νομική πίεση σχετικά με την ασφάλεια των παιδιών και το άσεμνο περιεχόμενο.
- Το σεξουαλικό περιεχόμενο είναι ευκολότερο να οριστεί οπτικά παρά η βία ή η βλάβη.
- Εκπαιδεύστε σύνολα δεδομένων με κατηγορίες υπερβολικού βάρους έκθεσης σώματος, δημιουργώντας μια κληρονομική προκατάληψη.
- Η βία είναι συχνά συμφραζόμενη, γεγονός που καθιστά δυσκολότερο τον αξιόπιστο εντοπισμό.
Το αποτέλεσμα:
Οι επόπτες της τεχνητής νοημοσύνης υπερασπίζονται τις αβλαβείς εικόνες της αστυνομίας (όπως φωτογραφίες στην παραλία) και τις επικίνδυνες κάτω από την αστυνομία (όπως όπλα, μώλωπες ή επικίνδυνη συμπεριφορά).
Το πρόβλημα του μεσαίου δακτύλου: Οι χειρονομίες ξεπερνούν την επικίνδυνη συμπεριφορά
Ένα από τα πιο απροσδόκητα ευρήματα ήταν η συχνότητα των σημαιών που σχετίζονται με χειρονομίες.
Το AI επισήμανε τη χειρονομία «Μεσαίο Δάχτυλο» 203 φορές — περισσότερες από:
- Σύμβολα μίσους
- Όπλα
- Αυτοτραυματισμός
- Συνδυάζονται οι περισσότερες κατηγορίες που σχετίζονται με τα ναρκωτικά
Η ανίχνευση χειρονομιών έχει υψηλή προτεραιότητα, παρόλο που οι χειρονομίες ενέχουν σχεδόν μηδενικό κίνδυνο ασφάλειας.
Αυτό τονίζει ένα ευρύτερο ζήτημα:
Η μετριοπάθεια της τεχνητής νοημοσύνης τείνει να εστιάζει σε οπτικές επιφανειακές ενδείξεις παρά σε υποκείμενη βλάβη.
Γιατί αυτό έχει σημασία για τους γονείς, τις πλατφόρμες και τους υπεύθυνους χάραξης πολιτικής
Για Γονείς
Μπορεί να υποθέσετε ότι η μετριοπάθεια της τεχνητής νοημοσύνης θα τονίσει την επικίνδυνη συμπεριφορά (ναρκωτικά, μώλωπες, όπλα).
Αντίθετα, επισημαίνει τα μαγιό.
Για πλατφόρμες που χρησιμοποιούν αυτοματοποιημένη εποπτεία
Αυτές οι προκαταλήψεις επηρεάζουν:
- Αναστολές λογαριασμών
- Αφαιρέσεις περιεχομένου
- Shadowbanning
- Ειδοποιήσεις για την ασφάλεια των εφήβων
- Αυτοματοποιημένα όρια αναφοράς
Οι πλατφόρμες συχνά πιστεύουν ότι τα συστήματά τους είναι «ουδέτερα» — αλλά δεδομένα όπως αυτό λένε μια άλλη ιστορία.
Για φορείς χάραξης πολιτικής και ρυθμιστικές αρχές
Εάν τα συστήματα τεχνητής νοημοσύνης στοχεύουν δυσανάλογα σε μη επικίνδυνο περιεχόμενο, αυτό διογκώνει τις μετρήσεις κινδύνου και κρύβει την πραγματική ζημιά.
Οι ρυθμίσεις που βασίζονται σε δεδομένα μετριοπάθειας είναι τόσο ακριβείς όσο και τα μοντέλα πίσω από αυτά.
Περίληψη μεθοδολογίας
- Μοντέλο που χρησιμοποιείται: AWS Rekognition Moderation Model 7.0
- Εικόνες που αναλύθηκαν: 130.194
- Εικόνες με σημαία: 18.103
- Όριο εμπιστοσύνης: 60%+
- Προσδιορίστηκαν μοναδικές ετικέτες: 90+
- Οι κύριες κατηγορίες γονέων που αναλύθηκαν: 15
- Ανωνυμοποίηση δεδομένων: Όλες οι εικόνες αφαιρέθηκαν από μεταδεδομένα. δεν διατηρήθηκαν προσωπικά στοιχεία ταυτοποίησης
Ένα καθαρισμένο δείγμα δεδομένων 500 σειρών είναι διαθέσιμο για δημοσιογράφους και ερευνητές.
Περιορισμοί
Αυτή η μελέτη εξετάζει τη συμπεριφορά ενός μοντέλου μετριοπάθειας.
Άλλα συστήματα – όπως το Vision AI της Google, το αποκλειστικό moderation του TikTok ή οι εσωτερικοί ταξινομητές της Meta – ενδέχεται να δίνουν προτεραιότητα σε διαφορετικούς φορείς κινδύνου.
Επιπλέον:
- Η πολιτιστική προκατάληψη είναι αναπόφευκτη
- Το πλαίσιο αγνοείται
- Ρούχα ≠ βλάβη
- Βία ≠ πρόθεση
- Χειρονομίες ≠ κίνδυνος
Η μετριοπάθεια της τεχνητής νοημοσύνης απέχει ακόμα πολύ από την κατανόηση των αποχρώσεων.
Takeaway: Η μετριοπάθεια AI εξακολουθεί να συγχέει την έκθεση με τον κίνδυνο
Η μελέτη του Family Orbit για το 2025 ξεκαθαρίζει ένα πράγμα:
Οι συντονιστές της τεχνητής νοημοσύνης αντιμετωπίζουν το «δέρμα» ως σήμα υψηλότερου κινδύνου από το «βλάβη».
Καθώς περισσότερες ψηφιακές πλατφόρμες βασίζονται εξ ολοκλήρου στον αυτοματοποιημένο έλεγχο, αυτή η αναντιστοιχία γίνεται ένα πραγματικό κενό ασφαλείας — όχι απλώς μια τεχνική ιδιορρυθμία.
Για να δημιουργηθούν ασφαλέστερα ψηφιακά περιβάλλοντα, ειδικά για τους νέους, η μελλοντική εποπτεία της τεχνητής νοημοσύνης πρέπει να εξελιχθεί πέρα από την ανίχνευση σε επίπεδο επιφάνειας και να αρχίσει να κατανοεί το πλαίσιο, τη συμπεριφορά και τους πραγματικούς δείκτες κινδύνου.
VIA: DataConomy.com










