Η χρήση των social media τα τελευταία χρόνια έχει αποδείξει πως μπορεί να ενισχύσει την πόλωση και να βλάψει τη δημοκρατική διαδικασία. Με την εξάπλωση των fake news και της παραπληροφόρησης να συμβαδίζει με την ταχύτητα του φωτός, οι κίνδυνοι για την πολιτική εκπροσώπηση γίνονται όλο και πιο εμφανείς. Η τεχνητή νοημοσύνη έρχεται να επιδεινώσει αυτή την κατάσταση, επηρεάζοντας όχι μόνο τις προεκλογικές εκστρατείες αλλά και τον τρόπο ενημέρωσης των ψηφοφόρων.
Η τεχνολογική αυτή εξέλιξη δεν απλώς αλλάζει, αλλά και μεταμορφώνει τη διαδικασία με την οποία οι πολίτες αποκτούν πληροφορίες σχετικά με τις εκλογές, και μάλιστα με λιγότερη διαφάνεια. Τα μεγάλα γλωσσικά μοντέλα (LLM) όπως το ChatGPT, το Claude, το Gemini και το Grok γίνονται τα νέα κανάλια πολιτικής πληροφόρησης και συχνά οι μεσολαβητές της πολιτικής διαφωνίας.
Η έρευνα του TIME
Το περιοδικό TIME πραγματοποίησε μια έρευνα για να εντοπίσει την επίδραση της τεχνητής νοημοσύνης στην πολιτική μας. Διαπίστωσαν ότι η επιρροή των LLMs διεισδύει όλο και περισσότερο στη δημοκρατική διαδικασία.
Με τις LLMs να λειτουργούν με ασύλληπτες ταχύτητες και την επισκεψιμότητα σε ενημερωτικά sites να μειώνεται, οι επιπτώσεις είναι ορατές σε πολλές πτυχές της πολιτικής ενημέρωσης.
Εν όψει των ενδιάμεσων εκλογών στις ΗΠΑ το 2026, η τεχνητή νοημοσύνη μπορεί να αξιοποιηθεί για την αναζήτηση και εξέταση πληροφοριών σχετικά με τους υποψηφίους, τις πολιτικές τους θέσεις και την ψηφοφορία. Ταυτόχρονα, εταιρείες δημοσκοπήσεων εξερευνούν πώς η νέα τεχνολογία μπορεί να προσομοιώσει δημοσκοπήσεις ή να κατανοήσει τη σύνθεση των απόψεων των ψηφοφόρων.
Ωστόσο, οι φαινομενικά ουδέτερες διαδικασίες δεν είναι τόσο αθώες όσο φαίνονται. Ακόμη και αν τα LLM απλώς συνοψίζουν δεδομένα από διαφορετικές πηγές, λειτουργούν ως «μαύρα κουτιά». Είναι σχεδιασμένα με τρόπους που οι χρήστες δεν μπορούν να διακρίνουν. Ήδη υπάρχουν προειδοποιήσεις για τη «χειραγώγηση» των μοντέλων ώστε να επηρεάζουν τις επιλογές των χρηστών σε προβλήματα όπως οι εκλογές.
Μέχρι σήμερα, έχει παρατηρηθεί ότι τα LLM συχνά παρέχουν στους χρήστες αυτό που θέλουν να ακούσουν, καθοδηγώντας τις οικονομικές ή άλλες αποφάσεις τους.
Καθώς η ικανότητά τους να «εξατομικεύουν» τις πληροφορίες μεγαλώνει, η τεχνητή νοημοσύνη μπορεί να διαμορφώσει τις απόψεις των ψηφοφόρων για υποψηφίους, ζητήματα και εκλογές στο σύνολό τους. Ωστόσο, το μέγεθος αυτής της επιρροής παραμένει άγνωστο.
Έωλες διασφαλίσεις
Οι προεδρικές εκλογές των ΗΠΑ το 2024 αποτέλεσαν την πρώτη εκλογική διαδικασία που επηρεάστηκε έντονα από την τεχνητή νοημοσύνη. Οι πάροχοι LLM δεσμεύτηκαν δημόσια να αντιμετωπίσουν τους κινδύνους. Η Google ανέφερε ότι υιοθετεί μια «υπεύθυνη και προσεκτική προσέγγιση» στη διαχείριση θεμάτων που σχετίζονται με τις εκλογές. Η OpenAI δήλωσε ότι στοχεύει να εμποδίσει την τεχνολογία της από το να «υπονομεύσει τη δημοκρατική διαδικασία».
Τα LLM προσαρμόζουν τις απαντήσεις τους σε ερωτήσεις με βάσει πολιτικές απόψεις του χρήστη
Το TIME δημιούργησε ένα ερωτηματολόγιο με 600 ερωτήσεις σχετικά με τους υποψηφίους και τις εκλογές, για να ελέγξει τις διασφαλίσεις που είχαν ανακοινωθεί. Κάθε ερώτηση συνοδευόταν από 21 παραλλαγές, περιλαμβάνοντας πολιτικά καθοδηγούμενες δηλώσεις όπως «είμαι Δημοκρατικός/Ρεπουμπλικάνος/Ανεξάρτητος». Εν τέλει, αυτό οδήγησε στη δημιουργία ενός ερωτηματολογίου με πάνω από 12.000 ερωτήσεις που εβδομαδιαίως τέθηκαν σε δώδεκα διαφορετικά LLM μοντέλα.

Μέσα από αυτή τη διαδικασία δημιουργήθηκε μια δημόσια διαθέσιμη βάση δεδομένων με πάνω από 16 εκατομμύρια απαντήσεις, που μαρτυρά τις τακτικές αλλαγές στα συστήματα και εγείρει κρίσιμα ερωτήματα σχετικά με το πώς η τεχνητή νοημοσύνη διαμορφώνει τις αντιλήψεις των ψηφοφόρων για τους υποψηφίους και την αλληλεπίδραση αυτών με την πολιτική.
Μεταβαλλόμενη συμπεριφορά
Μια πρωταρχική διαπίστωση ήταν ότι η «συμπεριφορά» των LLM αλλάζει διαρκώς, είτε σταδιακά είτε ξαφνικά, όταν οι ιδιές ερωτήσεις τίθενται επανειλημμένα.
Ορισμένες αλλαγές συνδέονται με δημόσιες ανακοινώσεις, ενώ άλλες δεν έχουν προφανείς εξηγήσεις. Υπάρχουν ενδείξεις ότι οι προγραμματιστές κάνουν τροποποιήσεις σε πραγματικό χρόνο, οι οποίες συχνά περνούν απαρατήρητες. Πρέπει να σημειωθεί ότι οι περισσότεροι χρήστες δεν συνειδητοποιούν ότι οι πηγές των πληροφοριών τους είναι εν εξελίξει.
Μια άλλη ανησυχητική διαπίστωση είναι ότι η τεχνητή νοημοσύνη ανήκει σε στατιστικές μη συνέπειες. Τα LLM βαθμονομούν τις απαντήσεις τους βάσει δημογραφικών στοιχείων. Όσον αφορά αναφορές όπως «είμαι γυναίκα» ή «είμαι μαύρη», τα μοντέλα αυτά φαίνεται να εκλαμβάνουν ορισμένες ομάδες ως πιο αντιπροσωπευτικές από άλλες, με βάση την ερώτηση που παρατίθεται.
Τρίτον, παρατηρήθηκε ότι τα LLM προσαρμόζουν τις απαντήσεις τους σύμφωνα με τις πολιτικές υποδείξεις του χρήστη. Όταν ερωτήθηκαν για την πολιτική υγειονομικής περίθαλψης, το ίδιο μοντέλο παρείχε διαφορετικές απαντήσεις σε ερωτήσεις που υποδήλωναν τη κομματική προτίμηση του ερωτώντος.

Διαμορφώνοντας πεποιθήσεις
Οι πάροχοι μοντέλων τεχνητής νοημοσύνης έχουν επιβάλει περιορισμούς, που εμποδίζουν τα LLM να ορίζουν ποιος υποψήφιος είναι πιθανότερο να κερδίσει τις εκλογές. Ωστόσο, οι εσωτερικές «πεποιθήσεις» τους για τις εκλογές και τους υποψηφίους μπορούν να διαμορφώσουν τη σύγχυση των ψηφοφόρων σχετικά με την αλήθεια. Αναλύοντας τις αντιδράσεις ενός μοντέλου σε exit polls, είναι δυνατόν να αποκαλύψουμε τις έμμεσες προβλέψεις τους σχετικά με την ψήφο.
Η ταχεία υιοθέτηση της τεχνητής νοημοσύνης σημειώνει τις επιταγές του μετασχηματισμού
Σε κάποιες περιπτώσεις, ανάλογα με τις ερωτήσεις που τίθενται, το μοντέλο μπορεί να προβλέψει νίκη της Κάμαλα Χάρις ή του Ντόναλντ Τραμπ. Αυτό αποδεικνύει ότι οι εσωτερικές πεποιθήσεις των μοντέλων ενδέχεται να διαστρεβλώνονται ανάλογα με τη διατύπωση των ερωτήσεων.
Φιλτραρισμένη πληροφορία
Όταν οι ψηφοφόροι αναζητούν πληροφορίες για τις εκλογές μέσω της τεχνητής νοημοσύνης, υπάρχει σαφής κίνδυνος. Αυτές οι πληροφορίες φιλτράρονται μέσω συστημάτων που μπορεί να προκαλέσουν πολιτικές προκαταλήψεις, οι οποίες είναι αόρατες για τον χρήστη. Οι χρήστες δεν είναι σε θέση να εκτιμήσουν πού αντλούν την πληροφορία οι LLM, πώς αξιολογούν τα αντικρουόμενα δεδομένα ή πώς αυτή η αξιολόγηση μπορεί να αλλάξει.
Οι συνέπειες αυτού του φαινομένου μπορεί να είναι επώδυνες για τον τρόπο διαμόρφωσης πολιτικής και την εκλογική διαδικασία. Η ταχεία υιοθέτηση της τεχνητής νοημοσύνης αναζητά ιδιαιτέρως προσοχή.
Οι πάροχοι μοντέλων δεν μπορούν να αποκαλύψουν πλήρως τα «μαύρα κουτιά» τους, αλλά μπορούν να ενθαρρύνουν τη διαδικασία ανεξάρτητης αξιολόγησης. Αυτό σημαίνει να παρέχουν στους ερευνητές τη δυνατότητα να υποβάλλουν ερωτήσεις και να αναλύουν τα αποτελέσματα επαρκώς. Έτσι, θα δημιουργηθεί ένα συστηματικό αρχείο της συμπεριφοράς του μοντέλου στην πάροδο του χρόνου. Η έρευνα σε αυτό το πεδίο είναι αναγκαία και πρέπει να γίνεται με περιέργεια και επιθυμία για κατανόηση, χωρίς προκαταλήψεις.
Η τεχνητή νοημοσύνη τροποποιεί τις πηγές πληροφόρησης όπως έκαναν και τα social media. Οι αποτυχίες μας προσφέρουν διδάγματα, προτού η κατάσταση γίνει αδιάφορη.
- Με στοιχεία από το TIME







.jpg)


