Το 2025 θα καταγραφεί ως το έτος όπου οι AI agents πέρασαν από τη θεωρητική ανάλυση στην ευρεία, πραγματική εφαρμογή σε επιχειρησιακά περιβάλλοντα. Σύμφωνα με πρόσφατα στοιχεία από τη Lakera, μια θυγατρική του ομίλου Check Point Software Technologies, οι κυβερνοεπιτιθέμενοι αναγνώρισαν άμεσα αυτή τη μετάβαση και προσαρμόστηκαν με ανησυχητική ταχύτητα.
Μια νέα ανάλυση της Lakera, η οποία στηρίζεται σε πραγματική επιθετική δραστηριότητα κατά το τέταρτο τρίμηνο του 2025, αποκαλύπτει ότι μόλις τα συστήματα τεχνητής νοημοσύνης άρχισαν να διαπραγματεύονται με το Διαδίκτυο, να αναλύουν δεδομένα και να αλληλεπιδρούν με εξωτερικά εργαλεία, οι επιτιθέμενοι τροποποίησαν τις στρατηγικές τους για να εκμεταλλευτούν αυτές τις νέες δυνατότητες.
Τα ευρήματα υποδεικνύουν ότι οι επιθέσεις δεν επικεντρώνονται πλέον σε απλές μορφές prompt injection. Αντίθετα, οι επιτιθέμενοι στρέφονται σε έμμεσες επιθέσεις, οι οποίες ενσωματώνονται διακριτικά μέσα σε έγγραφα και ιστοσελίδες. Αυτές οι μέθοδοι απαιτούν λιγότερες προσπάθειες και έχουν σημαντικά υψηλότερα ποσοστά επιτυχίας.
Η έρευνα της Lakera εντοπίζει τρεις κρίσιμες τάσεις που αναμένεται να διαμορφώσουν την ασφάλεια των AI συστημάτων το 2026:
- Η διαρροή system prompts αναδεικνύεται ως βασικός στόχος των επιτιθέμενων. Υποθετικά σενάρια και συγκεκαλυμμένα prompts αποδεικνύονται ιδιαίτερα αποτελεσματικά.
- Η παρακάμπτει μηχανισμών content safety γίνεται ολοένα και πιο περίπλοκη, συχνά εμφανιζόμενη ως ανάλυση, αξιολόγηση ή role-play, αντί για προφανώς κακόβουλα αιτήματα.
- Εξειδικευμένες επιθέσεις σε AI agents έχουν ήδη καταγραφεί, περιλαμβάνοντας προσπάθειες εξαγωγής εμπιστευτικών δεδομένων και χειραγώγησης agents μέσω μη αξιόπιστων εξωτερικών πηγών.
Σύμφωνα με τη Lakera, τα ευρήματα προσφέρουν μία από τις πρώτες και πιο ξεκάθαρες εικόνες για το πώς οι πραγματικοί επιτιθέμενοι ανταγωνίζονται την υιοθέτηση agentic AI σε περιβάλλοντα παραγωγής. Οι AI agents εισέρχονται στους χώρους εργασίας ταχύτερα απ’ ό,τι μπορούν να προσαρμοστούν τα παραδοσιακά μοντέλα ασφάλειας. Η ίδια η αυτοματοποίηση που υπόσχεται αυξημένη παραγωγικότητα διευρύνει, ταυτόχρονα, και τη δυνατότητα επίθεσης.
Αυτό εγείρει σοβαρά ερωτήματα σχετικά με το πώς οι οργανισμοί θα διαχειριστούν με ασφάλεια εξωτερικό περιεχόμενο, πηγές δεδομένων και έγγραφα από AI agents, ιδιαίτερα σε ρυθμιζόμενα και ευαίσθητα περιβάλλοντα. Όπως καταδεικνύουν τα δεδομένα του Q4 2025, οι έμμεσες επιθέσεις (indirect prompt injections) δεν είναι πλέον θεωρητικός κίνδυνος, αλλά μια ήδη επιτυχής και αποτελεσματική μορφή επίθεσης σε σύγκριση με άμεσες τεχνικές.
Η Lakera υπογραμμίζει ότι οι οργανισμοί που σκοπεύουν να αναπτύξουν ή να επεκτείνουν τη χρήση AI agents το 2026 πρέπει άμεσα να επανεξετάσουν τα όρια εμπιστοσύνης, τις διαδικασίες εισαγωγής εξωτερικών δεδομένων και τα προστατευτικά πλαίσια (guardrails), προκειμένου να εξασφαλίσουν την ασφαλή υιοθέτηση της τεχνολογίας.
Η πλήρης έκθεση με τίτλο «The Year of the Agent – What Recent Attacks Revealed in Q4 2025 (and What It Means for 2026)» είναι διαθέσιμη, και περισσότερες πληροφορίες μπορούν να βρεθούν στο σχετικό blog της Lakera.











