Ο Palmer Luckey, ιδρυτής του Oculus και επικεφαλής της Anduril, ασχολείται με ένα καίριο θέμα που απασχολεί την παγκόσμια κοινότητα: την ηθική της τεχνητής νοημοσύνης στον πόλεμο. Ειδικότερα, αναρωτιέται αν η AI θα πρέπει να έχει ρόλο στη διαχείριση ζωής και θανάτου κατά τη διάρκεια στρατιωτικών συγκρούσεων.
Σε πρόσφατη συνέντευξή του στο Fox News Sunday, ο Luckey δήλωσε ότι η απόρριψη μιας τεχνολογίας λόγω προκαταλήψεων ή φόβου για τις επιπτώσεις της μπορεί να έχει ολέθριες συνέπειες. Πιο συγκεκριμένα, υπογράμμισε ότι ο ηθικός δρόμος ενδεχομένως να είναι αυτός που ελαχιστοποιεί τα λάθη και τις παράπλευρες απώλειες. Εάν η AI μπορεί να επιτύχει αυτόν τον στόχο καλύτερα από τους ανθρώπους, τότε είναι αναγκαίο να την αξιοποιήσουμε.
Η θέση του Luckey συνάδει με το έργο της Anduril, η οποία αναπτύσσει καινοτόμα συστήματα όπως drones, αισθητήρες και αυτόνομα συστήματα που λειτουργούν με την πλατφόρμα AI Lattice. Πρόσφατα, η εταιρία παρουσίασε ένα drone ικανό να εκτελεί στρατηγικά πλήγματα με σχεδόν αυτονομία.
Η πορεία της τεχνολογίας φαίνεται να επηρεάζει και άλλες μεγάλες εταιρείες, όπως η Google, η οποία τροποποίησε τον κανόνα που απαγόρευε τη χρήση τεχνητής νοημοσύνης σε στρατιωτικές εφαρμογές. Εν τω μεταξύ, στις Ηνωμένες Πολιτείες διεξάγονται επαναστατικές συζητήσεις για την ενδεχόμενη χρήση AI ακόμη και στον τομέα του πυρηνικού ελέγχου, αν και αρχικά είχαν υπάρξει διαβεβαιώσεις περί διατήρησης του ανθρώπινου παράγοντα στη λήψη κρίσιμων αποφάσεων.
Η κατάσταση έγινε ακόμα πιο περίπλοκη ύστερα από διεθνείς προσομοιώσεις το 2024, όπου διάφορα μοντέλα AI κλιμάκωναν στρατιωτικές συγκρούσεις με απρόβλεπτο τρόπο, μερικές φορές ακόμη και επιφέροντας τη χρήση πυρηνικών όπλων χωρίς καμία προειδοποίηση.
Ωστόσο, ο Luckey θεωρεί ότι η αποφυγή χρήσης της AI στον πόλεμο ενδέχεται να είναι πιο επικίνδυνη από την πραγματική της εφαρμογή. Σύμφωνα με τα λεγόμενά του, η τεχνολογία ήδη επηρεάζει δραστικά τα πεδία της μάχης, και η άρνηση της αξιοποίησής της για συναισθηματικούς λόγους δεν προσφέρει καμία προστασία.










