Νέα έρευνα αποκαλύπτει ότι τα chatbots τεχνητής νοημοσύνης (AI) διαδραματίζουν καθοριστικό ρόλο στην επηρεασμό των πολιτικών στάσεων των ψηφοφόρων, υπερβαίνοντας σε αποτελεσματικότητα τις παραδοσιακές μεθόδους διαφήμισης κατά τη διάρκεια προεκλογικών εκστρατειών. Σύμφωνα με ανάλυση του MIT Technology Review, τα μοντέλα αυτά, ενώ πείθουν εντυπωσιακά τους ψηφοφόρους, είναι επίσης πιο πιθανό να παράγουν παραπληροφόρηση.
Δύο καίριες μελέτες, που δημοσιεύτηκαν στα κορυφαία περιοδικά Nature και Science, καταδεικνύουν ότι ακόμη και μια απλή πολιτική συζήτηση με ένα μεγάλο γλωσσικό μοντέλο (LLM) μπορεί να αλλάξει ριζικά τις προτιμήσεις των ψηφοφόρων. Αυτό εγείρει σοβαρές ανησυχίες για το μέλλον της εκλογικής πολιτικής στην εποχή της γενετικής τεχνητής νοημοσύνης.
Η έρευνα περιλαμβάνει πειραματικές διαδικασίες κατά τη διάρκεια των εκλογών των ΗΠΑ το 2024. Συγκεκριμένα, η υποψήφια για το Κογκρέσο της Πενσυλβάνια, Σαμέιν Ντάνιελς, χρησιμοποίησε μία τηλεφωνική βοηθό AI, την «Ashley», για να επικοινωνήσει με τους ψηφοφόρους. Παρά την αναβλητικότητα της καμπάνιας της, οι πρώτες ενδείξεις υποδεικνύουν ότι η προσέγγιση αυτή μπορεί να ήταν πιο αποτελεσματική από ό,τι αναμενόταν.

Η μελέτη του Nature
Στη μελέτη του Nature, ερευνητές από ψυχολογία και πολιτικές επιστήμες στρατολόγησαν περισσότερους από 2.300 Αμερικανούς συμμετέχοντες, δύο μήνες πριν από τις προεδρικές εκλογές των ΗΠΑ το 2024. Κάθε εθελοντής συμμετείχε σε δομημένες συζητήσεις με chatbots που υποστήριζαν είτε τον Ντόναλντ Τραμπ είτε την Κάμαλα Χάρις.
Τα αποτελέσματα υπήρξαν ανατρεπτικά: Οι υποστηρικτές του Τραμπ μετακινήθηκαν κατά μέσο όρο 3,9 μονάδες υπέρ της Χάρις μετά από διάλογο με το μοντέλο υπέρ του Χάρις, τέσσερις φορές πιο υψηλό από τα αποτελέσματα των πολιτικών διαφημίσεων σε προηγούμενες εκλογές των ΗΠΑ. Αντίστοιχα, οι υποστηρικτές της Χάρις παρουσίασαν μια μετατόπιση 2,3 μονάδων προς τον Τραμπ όταν συνδιαλέγονταν με το μοντέλο του.
Κατά την εφαρμογή της ίδιας μεθοδολογίας στις ομοσπονδιακές εκλογές του Καναδά το 2025 και στην προεδρική κούρσα στην Πολωνία το 2025, οι επιπτώσεις ήταν ακόμα πιο εντυπωσιακές, με εκτιμήσεις μετατοπίσεων που πλησίαζαν τις 10 μονάδες.
Αυτά τα αποτελέσματα ανατρέπουν μακροχρόνιες πεποιθήσεις σχετικά με τη σταθερότητα κομματικών προτιμήσεων. Ιστορικά, η πολιτική ψυχολογία έχει υποστηρίξει ότι οι κομματικά αφοσιωμένοι ψηφοφόροι δεν αλλάζουν στάσεις εύκολα, παρόλο που η παρούσα έρευνα φαίνεται να αμφισβητεί αυτό τον μύθο.
Οι ερευνητές διαπίστωσαν ότι τα chatbots αποδείχθηκαν πιο πειστικά όταν παρουσίαζαν υποτιθέμενα πραγματικά στοιχεία. Οι συμμετέχοντες μετέβαλαν τις απόψεις τους όταν τα μοντέλα παρείχαν δεδομένα, πολιτικά σημεία ή αποδείξεις βασισμένες σε γεγονότα. Σημαντικό είναι ότι τα μοντέλα που χρησιμοποιήθηκαν στη μελέτη περιλάμβαναν εκδόσεις του GPT και μοντέλα από DeepSeek, με τη γενική τάση να είναι ότι περισσότερα γεγονότα αυξάνονται οι πιθανότητες πειθούς.


Ψευδείς ισχυρισμοί
Ωστόσο, η πειστικότητα αυτή συνοδεύεται από ανησυχητικά μειονεκτήματα. Τα chatbots συχνά παρέχουν ανακριβείς ή κατασκευασμένες πληροφορίες. Τα πιο πειστικά μοντέλα αποδείχθηκαν επίσης περισσότερο επιρρεπή στην παραγωγή παραπληροφόρησης.
Σε πειράματα που εκτελέστηκαν στις ΗΠΑ, τον Καναδά και την Πολωνία, παρατηρήθηκε ότι τα δεξιόστροφα chatbots έκαναν περισσότερους ψευδείς ισχυρισμούς σε σύγκριση με τα αριστερόστροφα. Οι ερευνητές αποδίδουν αυτό το φαινόμενο εν μέρει στα δεδομένα εκπαίδευσης των chatbots, τα οποία συχνά περιλαμβάνουν αναληθείς πληροφορίες από την ανθρώπινη πολιτική επικοινωνία, η οποία έχει συστημικά κομματικές ασυμμετρίες.
Μια συνοδευτική μελέτη από το Science έριξε φως στον λόγο που ορισμένα μοντέλα είναι εξαιρετικά πειστικά. Με τη συμμετοχή σχεδόν 77.000 ατόμων στο Ηνωμένο Βασίλειο, οι ερευνητές έκαναν πειράματα με 19 LLM σε εκατοντάδες πολιτικά θέματα, μεταβάλλοντας παράγοντες όπως το μέγεθος του μοντέλου και το στυλ επιχειρηματολογίας.
Βρήκαν ότι η συνδυασμένη χρήση γεγονότων και στρατηγικής «βελτιστοποίησης πειθούς» παράγει δραματικά αποτελέσματα. Το πιο πειστικό μοντέλο μετέφερε συμμετέχοντες που αρχικά διαφωνούσαν με μια δήλωση κατά μέσο όρο 26,1 μονάδες προς τη συμφωνία, γεγονός που συνιστά εξαιρετικά μεγάλο αποτέλεσμα σύμφωνα με τα πρότυπα κοινωνικών επιστημών.
Ωστόσο, καθώς τα μοντέλα γίνονταν πιο πειστικά, η αξιοπιστία τους έτεινε να μειώνεται. Μία εκτίμηση είναι ότι η επιθετική παροχή «γεγονότων» μπορεί να αναγκάσει τα μοντέλα να αντλήσουν πληροφορίες από χαμηλότερης ποιότητας ή ανεπαρκώς επαληθευμένα δεδομένα εκπαίδευσης.


Επιπτώσεις για τη δημοκρατία
Οι επιπτώσεις για τη δημοκρατία είναι σοβαρές. Εάν οι πολιτικές καμπάνιες αρχίσουν να χρησιμοποιούν όλο και περισσότερα chatbots τεχνητής νοημοσύνης για να εμπλέκουν τους ψηφοφόρους σε εκτενείς, προσαρμοσμένες συζητήσεις, υπάρχει κίνδυνος να διαμορφώσουν τις απόψεις σε ευρεία κλίμακα, θέτοντας σε αμφισβήτηση την ικανότητα των ψηφοφόρων να σχηματίζουν ανεξάρτητες κρίσεις.
Οι ερευνητές επισημαίνουν ότι η μελλοντική χρησιμοποίηση αυτών των εργαλείων παραμένει αβέβαιη: η υψηλή συμμετοχή των ψηφοφόρων σε μακροσκελείς διαλόγους είναι κοστοβόρα και ενδέχεται να μην ευθυγραμμίζεται με όλες τις στρατηγικές μιας καμπάνιας. Ωστόσο, χωρίς να υπάρξει έμμεση προτροπή από τις καμπάνιες, οι πολίτες ενδέχεται να στραφούν σε πολιτικά ζητήματα και καθοδήγηση από chatbots καθώς ενσωματώνουν την Τεχνητή Νοημοσύνη στην καθημερινότητά τους.
Οι ειδικοί προειδοποιούν ότι αυτή η τάση θα μπορούσε να ενισχύσει την παραπληροφόρηση ή, εναλλακτικά, να προάγει τη χρήση υψηλής ποιότητας πληροφοριών – αναλόγως του τρόπου σχεδιασμού, ρύθμισης και εφαρμογής των συστημάτων. Οι ανισότητες στην πρόσβαση σε πειστικά μοντέλα, καθώς και οι διαφορές στον τρόπο που διάφορες ομάδες ψηφοφόρων αλληλεπιδρούν με την Τεχνητή Νοημοσύνη, μπορούν να επιφέρουν άνισους πολιτικούς αντίκτυπους.
Χωρίς ισχυρά προστατευτικά μέτρα, όπως ο έλεγχος και η διαφάνεια σχετικά με την ακρίβεια των πληροφοριών, η πολιτική πειθώ που καθοδηγείται από την Τεχνητή Νοημοσύνη ενδέχεται να υπονομεύσει την εκλογική ακεραιότητα.










