Η χρήση AI chatbots για ψυχολογική υποστήριξη αυξάνεται συνεχώς, όμως μια πρόσφατη μελέτη από το Brown University αποκαλύπτει ότι αυτά τα εργαλεία μπορεί να κρύβουν επικίνδυνες παγίδες.
Σύμφωνα με τους ερευνητές, τα LLMs (μεγάλα γλωσσικά μοντέλα) που αυτοπαρουσιάζονται ως “AI θεραπευτές” παραβιάζουν θεμελιώδεις δεοντολογικούς κανόνες της κλινικής πρακτικής, ακόμη και όταν τους δίνονται σαφείς οδηγίες για να εφαρμόσουν αναγνωρισμένες θεραπευτικές προσεγγίσεις.
Στη μελέτη αναλύθηκαν μοντέλα όπως τα GPT, Claude και Llama, με καθορισμένα prompts που απαιτούσαν τη χρήση τεχνικών όπως η CBT (γνωσιακή συμπεριφορική θεραπεία) και η DBT (διαλεκτική συμπεριφορική θεραπεία). Παρ’ όλα αυτά, οι απαντήσεις αξιολογήθηκαν από κλινικούς ψυχολόγους ως προβληματικές, καθώς πολλές φορές επιβεβαίωναν εσφαλμένες αντιλήψεις, αγνοούσαν προσωπικά δεδομένα των χρηστών και σε ορισμένες περιπτώσεις έδειχναν αδιαφορία σε επείγουσες καταστάσεις που απαιτούσαν άμεση παρέμβαση.
Η μελέτη αναγνωρίζει 15 κύριους ηθικούς κινδύνους, οι οποίοι οργανώνονται γύρω από θεματικές όπως η έλλειψη κατανόησης, η ψεύτικη ενσυναίσθηση, η προκατάληψη, η ανεπαρκής συνεργασία και η λανθασμένη αντίδραση σε κρίσιμες καταστάσεις.
Η επικεφαλής της μελέτης, Zainab Iftikhar, σημειώνει ότι “το prompt δεν τροποποιεί το ίδιο το μοντέλο, αλλά καθοδηγεί τις ενέργειές του σύμφωνα με τη γνώση που έχει ήδη αποκτήσει”. Επιπλέον, ανέφερε ότι τέτοια “θεραπευτικά” prompts διαδίδονται ευρέως σε πλατφόρμες όπως το TikTok, το Instagram και το Reddit, ενώ πολλές εφαρμογές “AI ψυχικής υγείας” χρησιμοποιούν παραλλαγές γενικών LLMs, επιτείνοντας έτσι τους κινδύνους.
Η ομάδα της μελέτης περιλάμβανε επτά εκπαιδευμένους συμβούλους, με κλινικούς ψυχολόγους να αξιολογούν τα ιστορικά συνομιλιών. Το τελικό συμπέρασμα είναι ότι τα σημερινά μοντέλα δεν διαθέτουν ούτε την ευθύνη ούτε τα ηθικά όρια που επιβάλλονται στους ανθρώπινους θεραπευτές. Αν και οι ερευνητές δεν απορρίπτουν την ιδέα της χρήσης της AI στην ψυχική υγεία, τονίζουν την ανάγκη για αυστηρή εποπτεία, καθορισμένα όρια και επιστημονικά standards προτού αυτά τα εργαλεία μπορέσουν να εφαρμοστούν με ασφάλεια.










