Η διαχείριση του συμπεριφορικού κινδύνου στον κυβερνοχώρο καθίσταται ολοένα και πιο περίπλοκη για τους υπεύθυνους της ασφάλειας, καθώς η ενσωμάτωσή της τεχνητής νοημοσύνης (AI) στο εργασιακό περιβάλλον φέρνει νέες προκλήσεις. Σύμφωνα με μια πρόσφατη μελέτη της KnowBe4, η οποία στηρίχτηκε σε 700 επικεφαλής κυβερνοασφάλειας και 3.500 εργαζομένους, παρατηρείται δραματική αύξηση 90% στα περιστατικά που σχετίζονται με τον ανθρώπινο παράγοντα μέσα στον τελευταίο χρόνο. Αυτά περιλαμβάνουν επιθέσεις κοινωνικής μηχανικής όπως phishing και business email compromise, επισφαλή ή κακόβουλη συμπεριφορά, καθώς και ανθρώπινα λάθη.
Σύμφωνα με την μελέτη, το 93% των στελεχών κατήγγειλε περιστατικά που προήλθαν από την εκμετάλλευση των εργαζομένων από κυβερνοεγκληματίες. Ανησυχητικά, τα περιστατικά που σχετίζονται με email αυξήθηκαν κατά 57%, με το 64% των οργανισμών να αναφέρει ότι οι εξωτερικές επιθέσεις αξιοποίησαν το email ως κύριο μέσο εισόδου. Αξιοσημείωτο είναι ότι το 90% των οργανισμών κατέγραψε περιστατικά λόγω ανθρώπινου λάθους, ενώ οι κακόβουλοι εσωτερικοί χρήστες ευθύνονται για το 36% των περιστατικών. Επιπλέον, το 97% των επικεφαλής κυβερνοασφάλειας τονίζει την ανάγκη για αυξημένες προϋπολογιστικές προβλέψεις ώστε να ενισχυθεί η ασφάλεια του ανθρώπινου παράγοντα.
Η συγκεκριμένη μελέτη φωτίζει επίσης τις νέες προκλήσεις που συνοδεύουν την υιοθέτηση της AI. Οι εφαρμογές που στηρίζονται στην AI σημείωσαν αύξηση 43% στα περιστατικά ασφαλείας τους τελευταίους 12 μήνες, κατατάσσοντας αυτή την κατηγορία στη δεύτερη μεγαλύτερη άνοδο μεταξύ όλων των καναλιών. Παρά το γεγονός ότι το 98% των οργανισμών έχει λάβει μέτρα για την αντιμετώπιση των κινδύνων που σχετίζονται με την AI, οι επικεφαλής κυβερνοασφάλειας την θεωρούν κορυφαία απειλή. Το 45% από αυτούς πιστεύει ότι η συνεχής εξέλιξη των AI-τροφοδοτουμένων απειλών αποτελεί τη μεγαλύτερη πρόκληση στη διαχείριση του συμπεριφορικού κινδύνου.
Ακόμα πιο ανησυχητικό είναι ότι το 56% των εργαζομένων εκφράζει δυσαρέσκεια για την εταιρική προσέγγιση στη χρήση εργαλείων AI, γεγονός που τους μπορεί να τους αναγκάσει να στρέφονται σε ανεπίσημες πλατφόρμες, ενισχύοντας τους κινδύνους του λεγόμενου «shadow AI». Ο Javvad Malik, lead CISO advisor της KnowBe4, δηλώνει ότι η αξιοποίηση της τεχνητής νοημοσύνης «είναι πολύ μεγάλη για να αγνοηθεί» και ότι η μελλοντική εργασία απαιτεί συνεργασία ανθρώπων και AI, βασισμένη σε προγράμματα ασφάλειας που προλαμβάνουν κινδύνους από και τις δύο πλευρές προτού οι κρίσιμες λειτουργίες μετακινηθούν σε μη εποπτευόμενα περιβάλλοντα υψηλού κινδύνου.










