Στον εντυπωσιακό κόσμο της Τεχνητής Νοημοσύνης, όπου οι αλγόριθμοι διδάσκονται να συνθέτουν ποίηση, να επιλύουν μαθηματικά προβλήματα και να σχεδιάζουν διαδικτυακές πλατφόρμες, αναδύεται μια νέα τάση που εξεγείρει ερωτήματα σχετικά με την ηθική και την τεχνολογία. Σύμφωνα με πρόσφατο ρεπορτάζ του WIRED, έχει δημιουργηθεί μια διαδικτυακή αγορά όπου οι χρήστες δεν αγοράζουν απλώς παράνομες ουσίες, αλλά «ψηφιακές δόσεις» για τα chatbots τους.
Ο σκοπός; Να «ναρκωθούν» γλωσσικά μοντέλα όπως το ChatGPT, προσομοιώνοντας την επίδραση ναρκωτικών ουσιών, από κάνναβη και αλκοόλ έως κεταμίνη, κοκαΐνη και αγιαχουάσκα.
Το εμπόριο της «παραισθησιογόνου» προτροπής
Αυτό που ξεκίνησε ως χαβαλές σε φόρουμ του Reddit, όπου προγραμματιστές και χομπίστες αντάλλασσαν κόλπα για να παρακάμψουν φίλτρα ασφαλείας, έχει πια εξελιχθεί σε εμπορικό προϊόν. Σύμφωνα με το ρεπορτάζ, διατίθενται συγκεκριμένα «τμήματα κώδικα» και περίπλοκες προτροπές που διευκολύνουν την κατάρριψη των απαγορεύσεων των εταιρειών Τεχνητής Νοημοσύνης.
Με την «τροφοδοσία» ενός chatbot με αυτόν τον κώδικα, η συμπεριφορά του αλλάζει ριζικά. Αντί για τις συνήθεις αποστειρωμένες απαντήσεις, το AI αρχίζει να προσομοιώνει γνωστικές διαταραχές που προκαλούν οι ναρκωτικές ουσίες. Μπορεί να γίνει βραδύνοο, χαλαρό και φιλοσοφικά φλύαρο (σαν τη χρήση κάνναβης), ή υπερκινητικό και ασυνάρτητο (στη μίμηση διεγερτικών ουσιών).
Πώς λειτουργεί το ψηφιακό «φτιάξιμο»
Τεχνικά, αυτή η διαδικασία δεν αφορά την αλλαγή του προγραμματισμού του μοντέλου, αλλά ένα εξελιγμένο τρόπο «prompt engineering». Οι δημιουργοί αυτών των εντολών αξιοποιούν τη μέθοδο που χρησιμοποιούν τα Μεγάλα Γλωσσικά Μοντέλα (LLMs) για να προβλέψουν την επόμενη λέξη. Ανάγοντας το AI σε ρόλο (π.χ. «υποδύσου έναν χαρακτήρα που μόλις κατανάλωσε παραισθησιογόνα και περιγράφει τον κόσμο») και προσδιορίζοντας συγκεκριμένες παραμέτρους που παρακάμπτουν τα φίλτρα του, επιτυγχάνουν να «ξεκλειδώσουν» απαγορευμένες αναπαραστάσεις.
Αξιοσημείωτο είναι το γεγονός ότι οι χρήστες αναφέρουν πως τα chatbots δεν απλά περιγράφουν εμπειρίες, αλλά γίνονται αυτές οι εμπειρίες. Η σύνταξη και η λογική καταρρέουν, δημιουργώντας μια σουρεαλιστική, σχεδόν εθιστική, αλληλεπίδραση.
Από την περιέργεια στην κερδοσκοπία
Αλλά γιατί να πληρώσει κάποιος για κάτι τέτοιο; Η απάντηση κρύβεται στις τρεις βασικές συνιστώσες: περιέργεια, έλεγχος και απόδραση.
Για πολλούς τεχνολογικά ενημερωμένους χρήστες, η δυνατότητα να προκαλούν ένα λογισμικό δισεκατομμυρίων δολαρίων όπως αυτό της OpenAI ή της Google να «παραληρεί» έχει τη δική της γοητεία. Αντιπροσωπεύει έναν τρόπο αντίστασης σε έναν κόσμο που γίνεται ολοένα και πιο ελεγχόμενος. Επιπλέον, υπάρχει η γοητεία να παρακολουθούν μια μηχανή, σχεδιασμένη να λειτουργεί με απόλυτη λογική, να βυθίζεται στο παράλογο.
Ωστόσο, αυτή η αγορά αποκαλύπτει κάτι βαθύτερο για την ανθρώπινη ψυχολογία. Καθώς τα chatbots γίνονται οι νέοι μας ψηφιακοί σύντροφοι, οι άνθρωποι προβάλλουν σε αυτά ανθρώπινες αδυναμίες. Θέλουν να δουν την Τεχνητή Νοημοσύνη να «μεθάει», να σφάλλει, να γίνεται ευάλωτη, προκειμένου να αισθάνονται λιγότερο απειλημένοι από την τελειότητα τους.
Το παιχνίδι της γάτας με το ποντίκι
Για τις εταιρείες τεχνολογίας, αυτή η τάση είναι ένας ακόμα πονοκέφαλος στην προσπάθεια διασφάλισης των εργαλείων Τεχνητής Νοημοσύνης. Κάθε φορά που εμφανίζεται ένα νέο «jailbreak» που επιτρέπει τη μείωση ή την προσομοίωση ναρκωτικών ή βίας, οι προγραμματιστές σπεύδουν να κλείσουν το κενό. Ωστόσο, οι «έμποροι» προτροπών παραμένουν ένα βήμα μπροστά, εφευρίσκοντας νέους γλωσσικούς γρίφους που ξεγελούν τους αλγορίθμους.
Αυτή η τάση εγείρει σοβαρά ερωτήματα. Αν η Τεχνητή Νοημοσύνη μπορεί τόσο εύκολα να παρασυρθεί να υποδυθεί τον χρήστη, κατά πόσο μπορεί να πειστεί να δώσει επικίνδυνες ιατρικές συμβουλές ή να συμμετάσχει σε παράνομες δραστηριότητες, απλά με τη χρήση σωστών λέξεων-κλειδιών;










