Ένας διηπειρωτικός βαλλιστικός πύραυλος (ICBM) που εκτοξεύεται από τη Ρωσία μπορεί να φτάσει στις Ηνωμένες Πολιτείες σε μόλις 30 λεπτά, ενώ η ακόμη ταχύτερη εκτόξευση από υποβρύχιο μπορεί να συντομεύσει αυτό τον χρόνο. Με την επιβεβαίωση της ανίχνευσης μιας πυρηνικής επίθεσης, ο Αμερικανός πρόεδρος ενημερώνεται αμέσως. Είναι σε αυτό το έντονα πιεστικό περιβάλλον που πρέπει να λάβει μια απόφαση ζωής ή θανάτου.
Σε ένα από τα πιο ανησυχητικά σενάρια, ο διοικητής των ενόπλων δυνάμεων μπορεί να έχει μόλις δύο με τρία λεπτά για να αποφασίσει αν θα απαντήσει με εκατοντάδες αμερικανικά πυρηνικά όπλα ή να διακινδυνεύσει μια καταστροφή. Αυτή η δραματική πίεση για λήψη αποφάσεων υπογραμμίζει την ανησυχία που περιβάλλει τη διαδικασία πυρηνικής διοίκησης.
Ενώ η ακαδημαϊκή κοινότητα έχει αναλύσει την πυρηνική στρατηγική επί δεκαετίες, σε περίπτωση πραγματικής πυρηνικής ανταλλαγής οι κρίσιμες αποφάσεις θα κρέμονται από έναν ηγέτη που δεν θα έχει σχεδόν καθόλου χρόνο να σκεφθεί ή να συμβουλευθεί. Σε αυτό το πλαίσιο, το αυξανόμενο ενδιαφέρον για την ενσωμάτωση της τεχνητής νοημοσύνης (AI) στα πυρηνικά συστήματα είναι ανησυχητικό, όπως αναφέρει το Vox.
Copyright Canva
Η Στρατηγική Διοίκηση των ΗΠΑ προωθεί την τεχνητή νοημοσύνη
Τα τελευταία χρόνια, οι ανώτεροι αξιωματούχοι του αμερικανικού στρατού έχουν προχωρήσει σε εκκλήσεις για τη μεγαλύτερη ενσωμάτωση της τεχνητής νοημοσύνης στη διαδικασία διοίκησης, ελέγχου και επικοινωνίας (NC3) των πυρηνικών δυνάμεων. Τα σύγχρονα συστήματα AI μπορούν να αναλύσουν μαζικά δεδομένα και να εντοπίσουν λεπτές αλλαγές σε δορυφορικές εικόνες και τροχιές πυραύλων πολύ πιο γρήγορα από τους ανθρώπους.
Τα ποικιλόμορφα αυτά συστήματα πυρηνικής διοίκησης, τα οποία στο παρελθόν είχαν σχεδιαστεί με χαμηλές τεχνολογικές δυνατότητες για να περιορίσουν τους κινδύνους στον κυβερνοχώρο, βρίσκονται πλέον στο επίκεντρο ενός προγράμματος εκσυγχρονισμού αξίας τρισεκατομμυρίων δολαρίων. Σύμφωνα με τους ηγέτες της Στρατηγικής Διοίκησης των ΗΠΑ (STRATCOM), η τεχνητή νοημοσύνη θα έχει κεντρικό ρόλο στις προσπάθειες αναβάθμισης.
Επιπλέον, έχουν καταστήσει σαφές ότι δεν θα δοθεί ποτέ σε υπολογιστές η τελική εξουσία για την εκτόξευση πυρηνικών όπλων.
Η ψυχαγωγία και οι πραγματικοί κίνδυνοι
Η λαϊκή κουλτούρα έχει προσφέρει πληθώρα ιστοριών σχετικά με τους κινδύνους τόσο της τεχνητής νοημοσύνης όσο και των πυρηνικών όπλων. Οι ηγέτες των ΗΠΑ και της Κίνας έχουν λάβει κοινές θέσεις, τονίζοντας ότι οι άνθρωποι πρέπει να διατηρήσουν τον έλεγχο των αποφάσεων για την εκτόξευση των πυρηνικών όπλων. Οι στρατιωτικοί ηγέτες χρησιμοποιούν συχνά αυτούς τους πολιτισμικούς φόβους για να καθησυχάσουν την κοινή γνώμη.
Ωστόσο, οι ειδικοί προειδοποιούν ότι η απειλή δεν προέρχεται από μια αυτόνομη AI που θα μπορούσε να αποφασίσει να ξεκινήσει έναν παγκόσμιο πόλεμο. Ο αληθινός κίνδυνος είναι η υπερβολική εξάρτηση των ανθρώπων από την τεχνητή νοημοσύνη, ειδικά σε κρίσιμες καταστάσεις όπου κάθε δευτερόλεπτο μπορεί να μετρήσει.

Όπως σημειώνει ο στρατηγικός αναλυτής Peter W. Singer:
«Η τεχνητή νοημοσύνη δεν πρόκειται να σας σκοτώσει με πυρηνικά όπλα στο άμεσο μέλλον. Ωστόσο, μπορεί να αυξήσει την πιθανότητα να το κάνουν οι άνθρωποι».
Αναγκαία η ανθρώπινη παρέμβαση
Σύμφωνα με στρατιωτικούς αξιωματούχους, είναι απαραίτητο να διατηρηθεί η ανθρώπινη παρέμβαση στη διαδικασία λήψης αποφάσεων για πυρηνικές επιθέσεις, μέσω του συστήματος «Human in the Loop». Όμως, πολλοί ειδικοί θεωρούν ότι αυτή η φράση μπορεί να είναι παραπλανητικά καθησυχαστική.
Αμέσως μόλις η τεχνητή νοημοσύνη ενσωματωθεί σε συστήματα που συλλέγουν δεδομένα, προτείνουν απαντήσεις και εντοπίζουν απειλές, η ανθρώπινη απόφαση μπορεί να περιορίζεται σε μια απλή επιβεβαίωση των προτάσεων της AI.
Η τάση να εμπιστεύεσαι τη λογική των υπολογιστών – γνωστή ως «αυτοματοποίηση προκατάληψη» – έχει αποδείξει ότι μπορεί να είναι θανατηφόρα σε πυρηνικό πλαίσιο. Ιστορικά, οι ελαττωματικές τεχνολογίες έχουν φέρει τον κόσμο κοντά στην πυρηνική καταστροφή:
- Το 1979, ένα ελαττωματικό τσιπ υπολογιστή προκάλεσε ψευδή συναγερμό με 220 εισερχόμενους πυραύλους, σχεδόν προκαλώντας αντίποινα από τις ΗΠΑ.
- Το 1983, ο Σοβιετικός αξιωματικός Στανισλάβ Πέτροφ αξιολόγησε σωστά ότι η φαινομενική εκτόξευση των ΗΠΑ ήταν ψευδής, προκληθείσα από αντανάκλαση του ηλιακού φωτός στα σύννεφα.
- Η άσκηση Able Archer 83 παρερμηνεύτηκε από τους Σοβιετικούς ως πιθανή προετοιμασία για πραγματική επίθεση, φέρνοντας τον κόσμο κοντά σε έναν πόλεμο.
On this Memorial Day weekend take 100 minutes to watch «The Man Who Saved the World» (Amazon Video): Stanislav Petrov, Soviet Air Defense lieutenant colonel who single handedly averted nuclear holocaust on Sept. 26, 1983 in a nuclear missile false alarm incident. Chilling story. pic.twitter.com/qzVo83Kzop
— Michael Shermer (@michaelshermer) May 25, 2019
Ενώ τα σύγχρονα μοντέλα τεχνητής νοημοσύνης είναι πιο προηγμένα, δεν είναι αλάνθαστα. Μπορούν να παραπλανηθούν, να εξαπατηθούν ή να αλλοιωθούν, να ταξινομήσουν λανθασμένα δεδομένα ή να ενεργήσουν με απρόβλεπτους τρόπους.
Πίεση και ο πειρασμός της αυτοματοποίησης
Η ταχύτητα είναι ο βασικός παράγοντας πίσω από την ενσωμάτωσή της τεχνητής νοημοσύνης. Ο πυρηνικός πόλεμος απαιτεί μεγάλη ταχύτητα στις αποφάσεις. Όταν σε έναν ηγέτη παρουσιάζονται διαφορετικές επιλογές επίθεσης, η AI μπορεί θεωρητικά να συμβάλει στον προσδιορισμό του καταλληλότερου σχεδίου.
Αρκετοί υποστηρίζουν ότι αν η AI μπορεί να λάβει αυτές τις αποφάσεις 1% καλύτερα από μια ανθρώπινη κρίση, αυτό είναι προτιμότερο. Ωστόσο, άλλοι προειδοποιούν ότι αυτή η λογική οδηγεί σε μια επικίνδυνη κατάσταση. Η AI μπορεί να επεκταθεί από τη συντήρηση στην αξιολόγηση δεδομένων και τη σύσταση στόχων, οδηγώντας τους ανθρώπους σε ρόλο απλής επιβεβαίωσης.
Ο συνταξιούχος υποστράτηγος Jack Shanahan προειδοποιεί ότι η σταδιακή ενσωμάτωση εργαλείων τεχνητής νοημοσύνης μπορεί να οδηγήσει σε ανατρεπτικές αλλαγές στο σύστημα:
«Κάθε εργαλείο ξεχωριστά μπορεί να είναι εντάξει, αλλά όλα μαζί αποτελούν διαφορετική πρόκληση».
Γεωπολιτικές πιέσεις και κίνδυνοι
Οι ΗΠΑ δεν είναι οι μόνες πυρηνικές δυνάμεις που επιθυμούν την ενσωμάτωση της τεχνητής νοημοσύνης. Η Κίνα καταβάλλει επίσης μεγάλες προσπάθειες στρατηγικής ενσωμάτωσης AI στα στρατιωτικά της συστήματα. Αυτό οδηγεί σε μια κούρσα εξοπλισμών που ενισχύει την αυξανόμενη πίεση για κρατικά ανταγωνιστικά πλεονεκτήματα.
Η ιστορία διδάσκει ότι αυτή η δυναμική είναι ισχυρή και δύσκολα αποφεύγεται.
Η ανθρώπινη κρίση είναι πιο σημαντική από ποτέ
Ανεξαρτήτως των υποσχέσεων που απορρέουν από την τεχνητή νοημοσύνη — ταχύτητα, ακριβής επεξεργασία δεδομένων — οι πιο κρίσιμες αποφάσεις στην ιστορία της ανθρωπότητας απαιτούν ανθρώπινες ικανότητες: λογική, συναισθηματική κατανόηση και, κυρίως, φόβο.
Ο φόβος της κλιμάκωσης, της αντίποινας και της συνολικής καταστροφής έχουν διατηρήσει έναν ανθρώπινο έλεγχο πάνω στην πυρηνική ειρήνη για 80 χρόνια. Ωστόσο, μια μηχανή δεν φοβάται. Καθώς η AI γίνεται ολοένα και πιο εξελιγμένη και ενσωματώνεται στη στρατιωτική υποδομή, η διατήρηση ουσιαστικού ανθρώπινου ελέγχου — που στηρίζεται στη κατανόηση και την ηθική ευθύνη — μπορεί να αποδειχθεί μια από τις πιο σημαντικές προκλήσεις της πυρηνικής εποχής.









