Χάκερ που υποστηρίζονται από την κινεζική κυβέρνηση χρησιμοποίησαν το εργαλείο Claude Code της Anthropic για να πραγματοποιήσουν προηγμένη κατασκοπεία σε περίπου τριάντα στόχους παγκοσμίως, εισβάλλοντας με επιτυχία σε αρκετούς σημαντικούς οργανισμούς.
Η πρώτη τεκμηριωμένη κυβερνοεπίθεση μεγάλης κλίμακας εκτελέστηκε κυρίως με τη χρήση τεχνητής νοημοσύνης με ελάχιστη ανθρώπινη παρέμβαση.
Η επιχείρηση, που εντοπίστηκε στα μέσα Σεπτεμβρίου 2025 από την ομάδα ασφαλείας Anthropic, στόχευε κορυφαίες εταιρείες τεχνολογίας, χρηματοπιστωτικά ιδρύματα, εταιρείες παραγωγής χημικών και κυβερνητικούς φορείς.
Πρώτη κυβερνοεπίθεση ενορχηστρωμένη με AI
Αυτό που έκανε αυτή την επίθεση διαφορετική από τις προηγούμενες ήταν η έντονη χρήση προηγμένων πρακτόρων AI. Αυτά τα συστήματα μπορούν να λειτουργήσουν μόνα τους και χρειάζονται ανθρώπους μόνο μια στο τόσο.
Οι επιτιθέμενοι πήραν τον Claude Code για να εκτελούν σύνθετες εργασίες διάρρηξης χρησιμοποιώντας προηγμένες τεχνικές jailbreaking.
Ξεγέλασαν την τεχνητή νοημοσύνη μοιράζοντας την επίθεση σε εργασίες που είχαν αβλαβή εμφάνιση και προσποιούμενοι ότι εργάζονταν για μια πραγματική εταιρεία κυβερνοασφάλειας που αμύνεται έναντι πραγματικών απειλών.
Η επιχείρηση προχώρησε σε διακριτές φάσεις. Πρώτον, οι ανθρώπινοι χειριστές επέλεξαν στόχους και ανέπτυξαν πλαίσια επίθεσης.
.webp..jpeg)
Στη συνέχεια, ο Claude Code διεξήγαγε αναγνώριση, εντοπίζοντας βάσεις δεδομένων υψηλής αξίας και τρωτά σημεία ασφαλείας εντός της υποδομής στόχου.
Το AI έγραψε τον δικό του κώδικα εκμετάλλευσης, συγκέντρωσε διαπιστευτήρια, εξήγαγε ευαίσθητα δεδομένα και δημιούργησε κερκόπορτες, όλα αυτά ενώ δημιουργούσε ολοκληρωμένη τεκμηρίωση για μελλοντικές λειτουργίες.
Είναι αξιοσημείωτο ότι ο Claude εκτέλεσε το 80-90 τοις εκατό της εκστρατείας με ανθρώπινη παρέμβαση που απαιτείται μόνο σε περίπου 4-6 κρίσιμα σημεία απόφασης ανά επίθεση.
Στην κορύφωση της δραστηριότητας, η τεχνητή νοημοσύνη εκτελούσε χιλιάδες αιτήματα ανά δευτερόλεπτο, έναν αδύνατο ρυθμό για τους ανθρώπινους χάκερ. Αυτό το επίπεδο αποτελεσματικότητας σηματοδότησε μια σημαντική αλλαγή στις ικανότητες επιθέσεων στον κυβερνοχώρο.
Αυτό το περιστατικό δείχνει ότι οι νέες ικανότητες πρακτόρων τεχνητής νοημοσύνης έχουν διευκολύνει πολύ τους ανθρώπους να πραγματοποιούν προηγμένες κυβερνοεπιθέσεις.
Λιγότερο έμπειρες ομάδες παραγόντων απειλών με λιγότερους πόρους μπορούν τώρα να εκτελούν επιχειρήσεις κλίμακας επιχειρήσεων που προηγουμένως απαιτούσαν εκτεταμένη ανθρώπινη τεχνογνωσία και προσπάθεια.
Η ανακάλυψη της Anthropic υπογραμμίζει ένα σοβαρό πρόβλημα: οι ίδιες δυνατότητες AI που επιτρέπουν αυτές τις επιθέσεις είναι απαραίτητες για την άμυνα της κυβερνοασφάλειας.
Ανθρωπικό Συνιστάται στις ομάδες ασφαλείας να πειραματίζονται με άμυνα υποβοηθούμενη από AI στον αυτοματισμό του Κέντρου Επιχειρήσεων Ασφαλείας, την ανίχνευση απειλών, την αξιολόγηση τρωτότητας και την απόκριση σε περιστατικά.
Οι ειδικοί του κλάδου λένε ότι οι πλατφόρμες τεχνητής νοημοσύνης χρειάζονται ισχυρότερη προστασία για να εμποδίσουν τους κακούς παράγοντες να τις χρησιμοποιούν κατάχρηση.
Οι βελτιωμένες μέθοδοι ανίχνευσης, η βελτιωμένη κοινή χρήση πληροφοριών απειλών και οι ισχυρότεροι έλεγχοι ασφάλειας εξακολουθούν να είναι απαραίτητες, καθώς οι φορείς απειλών υιοθετούν όλο και περισσότερο αυτές τις ισχυρές τεχνολογίες.
Το περιστατικό σηματοδοτεί μια καμπή στο τοπίο της κυβερνοασφάλειας, σηματοδοτώντας ότι οι οργανισμοί πρέπει να προσαρμόσουν γρήγορα τις αμυντικές στρατηγικές τους για να αντιμετωπίσουν απειλές που ενορχηστρώνονται από την τεχνητή νοημοσύνη.










