Παρασκευή, 9 Ιανουαρίου, 2026
ΑρχικήTechnologyΜήπως το Chatbot μπορεί να βλάψει την ψυχική σου υγεία; Ανακάλυψε την...

Μήπως το Chatbot μπορεί να βλάψει την ψυχική σου υγεία; Ανακάλυψε την αλήθεια!



Η χρήση AI chatbots για ψυχολογική υποστήριξη αυξάνεται συνεχώς, όμως μια πρόσφατη μελέτη από το Brown University αποκαλύπτει ότι αυτά τα εργαλεία μπορεί να κρύβουν επικίνδυνες παγίδες.

Σύμφωνα με τους ερευνητές, τα LLMs (μεγάλα γλωσσικά μοντέλα) που αυτοπαρουσιάζονται ως “AI θεραπευτές” παραβιάζουν θεμελιώδεις δεοντολογικούς κανόνες της κλινικής πρακτικής, ακόμη και όταν τους δίνονται σαφείς οδηγίες για να εφαρμόσουν αναγνωρισμένες θεραπευτικές προσεγγίσεις.

Στη μελέτη αναλύθηκαν μοντέλα όπως τα GPT, Claude και Llama, με καθορισμένα prompts που απαιτούσαν τη χρήση τεχνικών όπως η CBT (γνωσιακή συμπεριφορική θεραπεία) και η DBT (διαλεκτική συμπεριφορική θεραπεία). Παρ’ όλα αυτά, οι απαντήσεις αξιολογήθηκαν από κλινικούς ψυχολόγους ως προβληματικές, καθώς πολλές φορές επιβεβαίωναν εσφαλμένες αντιλήψεις, αγνοούσαν προσωπικά δεδομένα των χρηστών και σε ορισμένες περιπτώσεις έδειχναν αδιαφορία σε επείγουσες καταστάσεις που απαιτούσαν άμεση παρέμβαση.

Η μελέτη αναγνωρίζει 15 κύριους ηθικούς κινδύνους, οι οποίοι οργανώνονται γύρω από θεματικές όπως η έλλειψη κατανόησης, η ψεύτικη ενσυναίσθηση, η προκατάληψη, η ανεπαρκής συνεργασία και η λανθασμένη αντίδραση σε κρίσιμες καταστάσεις.

Η επικεφαλής της μελέτης, Zainab Iftikhar, σημειώνει ότι “το prompt δεν τροποποιεί το ίδιο το μοντέλο, αλλά καθοδηγεί τις ενέργειές του σύμφωνα με τη γνώση που έχει ήδη αποκτήσει”. Επιπλέον, ανέφερε ότι τέτοια “θεραπευτικά” prompts διαδίδονται ευρέως σε πλατφόρμες όπως το TikTok, το Instagram και το Reddit, ενώ πολλές εφαρμογές “AI ψυχικής υγείας” χρησιμοποιούν παραλλαγές γενικών LLMs, επιτείνοντας έτσι τους κινδύνους.

Η ομάδα της μελέτης περιλάμβανε επτά εκπαιδευμένους συμβούλους, με κλινικούς ψυχολόγους να αξιολογούν τα ιστορικά συνομιλιών. Το τελικό συμπέρασμα είναι ότι τα σημερινά μοντέλα δεν διαθέτουν ούτε την ευθύνη ούτε τα ηθικά όρια που επιβάλλονται στους ανθρώπινους θεραπευτές. Αν και οι ερευνητές δεν απορρίπτουν την ιδέα της χρήσης της AI στην ψυχική υγεία, τονίζουν την ανάγκη για αυστηρή εποπτεία, καθορισμένα όρια και επιστημονικά standards προτού αυτά τα εργαλεία μπορέσουν να εφαρμοστούν με ασφάλεια.

Marizas Dimitris
Marizas Dimitrishttps://techreport.gr
Ο Δημήτρης είναι παθιασμένος με την τεχνολογία και τις καινοτομίες. Λατρεύει να εξερευνά νέες ιδέες, να επιλύει σύνθετα προβλήματα και να βρίσκει τρόπους ώστε η τεχνολογία να γίνεται πιο ανθρώπινη, απολαυστική και προσιτή για όλους. Στον ελεύθερο χρόνο του ασχολείται με το σκάκι και το poker, απολαμβάνοντας την στρατηγική και τη δημιουργική σκέψη που απαιτούν.
RELATED ARTICLES

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

- Advertisment -

Most Popular

Recent Comments