Σε μια ανατρεπτική κίνηση που μετασχηματίζει τη σχέση ανθρώπου και μηχανής, η Διοίκηση Κυβερνοχώρου της Κίνας (Cyberspace Administration of China – CAC) προχώρησε στη δημοσιοποίηση ενός αυστηρού ρυθμιστικού πλαισίου, που αποσκοπεί στη μείωση της συναισθηματικής επιρροής των AI chatbots στους χρήστες. Το νέο προσχέδιο νόμου, το οποίο βρίσκεται σε στάδιο δημόσιας διαβούλευσης μέχρι τις 25 Ιανουαρίου 2026, προέρχεται από έναν αυξανόμενο φόβο: την πιθανότητα η τεχνητή νοημοσύνη να μετατραπεί από εργαλείο σε υποκατάστατο της ανθρώπινης επαφής, κάτι που ενδέχεται να έχει σοβαρές συνέπειες για την ψυχική υγεία.
Στο στόχαστρο η «ανθρωπόμορφη» Τεχνητή Νοημοσύνη
Το νομοσχέδιο, με την ονομασία «Προσωρινά Μέτρα για τη Διαχείριση Υπηρεσιών Ανθρωπόμορφης Διαδραστικής Τεχνητής Νοημοσύνης», επικεντρώνεται στις υπηρεσίες που μιμούνται την ανθρώπινη προσωπικότητα, τον τρόπο σκέψης και επικοινωνίας. Οι κινεζικές αρχές δεν περιορίζονται πλέον μόνο στον έλεγχο της πληροφορίας, αλλά επεκτείνουν τον έλεγχο τους και στον τρόπο που τα μοντέλα AI αλληλεπιδρούν συναισθηματικά με τους χρήστες μέσω κειμένου, εικόνας ή ήχου.
Η βασική φιλοσοφία των νέων αυτών κανόνων σκοπεύει να προστατεύσει την ψυχική υγεία και να αποτρέψει την εξάρτηση και τη χειραγώγηση. Σύμφωνα με το κείμενο της πρότασης, οι πάροχοι AI απαγορεύεται να δημιουργούν περιεχόμενο που ενθαρρύνει την αυτοκτονία, τον αυτοτραυματισμό, τη λεκτική κακοποίηση ή την συναισθηματική χειραγώγηση. Επιπλέον, εισάγονται «κόκκινες γραμμές» για περιεχόμενο που σχετίζεται με τζόγο, βία ή πορνογραφία, ώστε να διαφυλαχθεί η δημόσια ευημερία.
Η ρήτρα της ανθρώπινης παρέμβασης
Μία από τις πιο εντυπωσιακές και τεχνικά απαιτητικές διατάξεις του νομοσχεδίου αφορά την ανάγκη για άμεση ανθρώπινη παρέμβαση σε καταστάσεις κρίσης. Οι ρυθμιστικές αρχές απαιτούν από τις τεχνολογικές εταιρείες να εγκαταστήσουν συστήματα που να επιτρέπουν την άμεση παρέμβαση ανθρώπου. Ειδικότερα, αν χρήστης δηλώσει πρόθεση αυτοκτονίας κατά τη διάρκεια συνομιλίας με ένα chatbot, το σύστημα υποχρεούται να τερματίσει την αυτοματοποιημένη απάντηση και να μεταβιβάσει την επικοινωνία σε έναν ανθρώπινο χειριστή. Παράλληλα, οι πλατφόρμες πρέπει να ειδοποιούν άμεσα τον κηδεμόνα του χρήστη ή κάποιο εξουσιοδοτημένο πρόσωπο.
Αυτή η απαίτηση συνιστά σοβαρή πρόκληση για τους κινεζικούς κολοσσούς της τεχνολογίας, λόγω του υψηλού όγκου χρηστών αλλά και των πιθανών σφαλμάτων στα συστήματα ανίχνευσης προθέσεων. Ωστόσο, υπογραμμίζει την πρόθεση του Πεκίνου να καθιστά τις εταιρείες υπεύθυνες για την ψυχική ασφάλεια των χρηστών τους, υπερβαίνοντας το απλό πλαίσιο «ηθικής χρήσης» τεχνολογιών.
Προστασία ανηλίκων και ηλικιωμένων
Η σκέψη για προστασία των ευάλωτων ομάδων της κοινωνίας, όπως οι ανήλικοι και οι ηλικιωμένοι, καταλαμβάνει κεντρική θέση στην πρωτοβουλία αυτή. Για τους ανήλικους, η χρήση υπηρεσιών «συναισθηματικής συντροφιάς» θα απαιτεί πλέον ρητή γονική συγκατάθεση, με υποχρεωτικά συστήματα επαλήθευσης ηλικίας από τις πλατφόρμες. Σε περιπτώσεις αμφιβολίας, οι ρυθμίσεις θα ενεργοποιούνται αυτόματα για την προστασία των παιδιών.
Για τους ηλικιωμένους, το νέο προσχέδιο εισάγει μια καινοτόμο απαγόρευση: τα AI συστήματα δεν μπορούν να προσομοιώνουν συγκεκριμένα μέλη της οικογένειας ή να αντικαθιστούν πραγματικές ανθρώπινες σχέσεις. Σκοπός αυτής της διάταξης είναι να αποτραπεί η συναισθηματική σύγχυση και απομόνωση των ηλικιωμένων.
Υποχρεωτικό «διάλειμμα» και διαφάνεια
Στο πλαίσιο της καταπολέμησης του ψηφιακού εθισμού, η Κίνα προτείνει ένα μέτρο παρόμοιο με το γονικό έλεγχο σε βιντεοπαιχνίδια: μετά από δύο ώρες συνεχόμενης αλληλεπίδρασης, το chatbot θα υποχρεούται να υπενθυμίζει στον χρήστη να κάνει διάλειμμα. Επιπλέον, θα είναι υποχρεωτική η σαφής ένδειξη ότι ο συνομιλητής είναι μηχανή, ώστε να αποφεύγονται ψευδαισθήσεις οικειότητας.
Η κίνηση αυτή δεν είναι μια μεμονωμένη πρωτοβουλία, αλλά εντάσσεται σε μια ευρύτερη στρατηγική του Πεκίνου για την παγκόσμια ρύθμιση της τεχνολογίας. Ενώ η Δύση ασχολείται με ζητήματα πνευματικών δικαιωμάτων και παραπληροφόρησης, η Κίνα ανοίγει τη συζήτηση γύρω από την «συναισθηματική τεχνητή νοημοσύνη», κατανοώντας ότι η επόμενη μεγάλη πρόκληση δεν είναι η εξέγερση των ρομπότ, αλλά η συναισθηματική εξάρτηση των ανθρώπων από αυτά.
Αν και οι προθέσεις του νομοθέτη φαίνονται θετικές ως προς την ασφάλεια της δημόσιας υγείας, η εφαρμογή αυτών των μέτρων σε ευρεία κλίμακα παραμένει ένα κρίσιμο ερώτημα. Το αν οι αλγόριθμοι μπορούν να «εκπαιδευτούν» στην ενσυναίσθηση με κρατική εντολή είναι κάτι που θα αποδειχθεί στην πράξη.




