Αν πραγματοποιήσετε μια αναζήτηση στο Google με τους όρους «facebook ai moderation», το πρώτο αποτέλεσμα είναι ένα άρθρο από την ίδια την Meta, το οποίο εξηγεί τη χρήση της τεχνητής νοημοσύνης για τη διαχείριση του περιεχομένου. Ο τίτλος του άρθρου είναι «How Facebook uses artificial intelligence to moderate content». Ωστόσο, η αλήθεια είναι ότι η εφαρμογή της τεχνητής νοημοσύνης από το Facebook είναι προβληματική. Ας δούμε γιατί.
Στο εν λόγω άρθρο, αναλύεται η στρατηγική της Meta σχετικά με την έγκριση περιεχομένου, επισημαίνοντας τη σημασία των «Προτύπων Κοινότητας». Η διαδικασία αυτή, όπως αναφέρεται, είναι μια σύνθεση AI και ανθρώπινης αξιολόγησης, όπου το σύστημα αυτόματα εντοπίζει και αφαιρεί παραβατικά περιεχόμενα προτού αυτά αναφερθούν από χρήστες. Σε περιπτώσεις αμφισβητούμενου περιεχομένου, το σύστημα αυτό παραπέμπει τη διαχείριση σε ειδικευμένες ομάδες, προκειμένου να εκπαιδεύσει και να εξελίξει τη μηχανική μάθηση με την πάροδο του χρόνου.
Επιπλέον, επισημαίνεται ότι περιεχόμενο που δεν παραβιάζει απολύτως τους κανόνες, αλλά κρίνεται προσβλητικό, μπορεί να περιοριστεί στη διάδοσή του ή να χαρακτηριστεί ως ευαίσθητο. Σύμφωνα με την εταιρεία, «καθώς οι κοινωνικές νόρμες και η γλώσσα αλλάζουν, οι πολιτικές της πλατφόρμας αναπροσαρμόζονται συνεχώς για να εγγυηθούν ένα ασφαλές περιβάλλον έκφρασης». Υπογραμμίζεται επίσης το δικαίωμα των χρηστών να ζητούν επανεξέταση αν θεωρούν ότι το περιεχόμενό τους αφαιρέθηκε χωρίς λόγο. Αυτά τα στοιχεία φαίνονται ωστόσο επιφανειακά ιδανικά.
Προ ημερών, μέσω του Facebook Messenger, έστειλα σε συνεργάτη μου το μήνυμα: «αύριο στείλε στον (όνομα λογιστή) το τιμολόγιο». Ο συνεργάτης περίμενε τη συγκεκριμένη ενημέρωση. Λίγα λεπτά αργότερα, το Facebook αποφάσισε να μου μπλοκάρει τη δυνατότητα αποστολής μηνυμάτων για επτά ημέρες, τόσο από το προσωπικό μου προφίλ όσο και από τις σελίδες που διαχειρίζομαι.
Γιατί συνέβη αυτό; Η πλατφόρμα με ενημέρωσε ότι «κάτι που έστειλα ήταν εναντίον των κανόνων». Η ακριβής αναφορά αφορούσε την αυστηρή απαγόρευση απόπειρας συλλογής ευαίσθητων πληροφοριών από τρίτους, χωρίς να ξεκαθαρίζεται η κατάσταση του μηνύματός μου. Η προσπάθεια απόκτησης πρόσβασης σε προσωπικές πληροφορίες, ανεξαρτήτως συγκατάθεσης, καθώς και η παρότρυνση για αποκάλυψη προσωπικών στοιχείων επικοινωνίας, θεωρούνται παραβάσεις. Προγραμματισμένες τακτικές «phishing» αποτελούν επίσης αντικείμενο αυστηρής απαγόρευσης, για την προστασία όσων χρησιμοποιούν την πλατφόρμα.
Με απλά λόγια, μετά από πάνω από 15 χρόνια στη χρήση της πλατφόρμας χωρίς κανένα προειδοποιητικό μήνυμα, το Facebook θεώρησε ότι προσπάθησα να αποσπάσω προσωπική πληροφορία μέσω του Messenger, αποκλείοντας με με αυστηρά μέτρα. Επιπλέον, δεδομένου ότι ζω στην Ευρωπαϊκή Ένωση, μπορώ βέβαια να ζητήσω επανεξέταση — παρόλο που δεν υπάρχει για μένα αυτή η δυνατότητα — ή να ανατρέξω σε πιστοποιημένο όργανο διευθέτησης διαφορών, διαδικασία που φαίνεται σχεδόν ανέφικτη.
Πού θέλω να καταλήξω; Σύμφωνα με αναφορές, τα έσοδα της Meta για το 2025 αναμένεται να ξεπεράσουν τα 200 δισ. δολάρια, με τα καθαρά κέρδη να κυμαίνονται γύρω από τα 56-58 δισ. δολάρια. Την ίδια στιγμή, η Meta σχεδιάζει στρατηγικές επενδύσεων ύψους 600 δισ. δολαρίων στις ΗΠΑ για τη δημιουργία υποδομών και θέσεων εργασίας στο τομέα της τεχνητής νοημοσύνης. Ο Mark Zuckerberg φιλοδοξεί να επιτύχει την «υπερνοημοσύνη» και να κατασκευάσει γιγαντιαία data centers. Είναι λοιπόν πεντακάθαρο ότι πρόκειται για μια εταιρεία πολλών δισεκατομμυρίων που επενδύει σημαντικά στο AI.
Ωστόσο, είναι προβληματικό ότι η Meta φαίνεται να έχει παραδώσει κρίσιμες αποφάσεις —όπως η αναγνώριση ανεπίτρεπτου περιεχομένου ή ο αποκλεισμός χρηστών— σε εξαιρετικά περιορισμένα συστήματα AI, τα οποία ελάχιστα ελέγχονται από ανθρώπους. Αξιοσημείωτο είναι ότι, παρά τις τεχνολογικές εξελίξεις των τελευταίων ετών, η εμπειρία χρήστη συνεχίζει να είναι προβληματική, γεγονός που φέρνει στο προσκήνιο την αναγκαιότητα αναθεώρησης της στρατηγικής της Meta. Ίσως ήρθε η ώρα να επενδύσει σε κοινή λογική, προτού σκέφτεται την υπερνοημοσύνη.










