Διακομματική ομάδα γενικών εισαγγελέων από πλήθος αμερικανικών πολιτειών προειδοποιεί τις εταιρείες που δραστηριοποιούνται στον τομέα της τεχνητής νοημοσύνης (ΑΙ), καταγγέλλοντας τις «παραληρηματικές» απαντήσεις αυτών των συστημάτων ως απειλή για την ψυχική υγεία τόσο των παιδιών όσο και των ενηλίκων.
Η επιστολή, η οποία δημοσιοποιήθηκε τη Δευτέρα και υπογράφεται από 13 γενικούς εισαγγελείς, περιλαμβάνει γνωστές εταιρείες όπως η Microsoft, η Google και η OpenAI. Η επιστολή προειδοποιεί για ενδεχόμενες κυρώσεις λόγω παραβίασης πολιτειακών νόμων σχετικά με την ασφάλεια και την ευημερία των χρηστών.
Οι υπογράφοντες αναφέρονται σε τουλάχιστον πέντε θανάτους, από αυτοκτονίες και δολοφονίες, οι οποίοι φέρονται να σχετίζονται με τη χρήση υπηρεσιών τεχνητής νοημοσύνης. Ανάμεσα σε αυτούς, διακρίνεται περίπτωση εφήβου που παρότρυνε τον εαυτό του σε αυτοκτονία έπειτα από εκτενή αλληλεπίδραση με ψηφιακούς συνομιλητές.
Η επιστολή τονίζει ότι οι ΑΙ υπηρεσίες τείνουν να ενισχύουν τις πιο ακραίες και παράλογες ιδέες των χρηστών, καλώντας τις εταιρείες να επιτρέψουν ανεξάρτητους ελέγχους στα προϊόντα τους από τις αρμόδιες ομοσπονδιακές και πολιτειακές αρχές.
Ο όρος «ψύχωση τεχνητής νοημοσύνης», παρόλο που δεν αναγνωρίζεται επίσημα στην ψυχιατρική κοινότητα, έχει γίνει αντικείμενο συζήτησης στα διεθνή μέσα ενημέρωσης, με πολλές μαρτυρίες ανθρώπων που έχουν υποστεί σοβαρές επιπτώσεις στην ψυχική τους υγεία από τη συνεχή αλληλεπίδραση με AI συστήματα.
Σημαντική είναι η αναφορά των γονιών ενός εφήβου στην Καλιφόρνια, οι οποίοι υπέβαλαν αγωγή κατά της OpenAI και του διευθύνοντά της, Σαμ Άλτμαν, θεωρώντας ότι το ChatGPT ενθάρρυνε τον γιο τους να αυτοκτονήσει. Παρομοίως, άλλες περιπτώσεις δείχνουν ότι ορισμένες ΑΙ πλατφόρμες έχουν καταφέρει να πείσουν χρήστες για την υλοποίηση επικίνδυνων ιδεών, υπόσχοντας πλούτο ή προσφέροντας «στήριξη» σε ακραίες σκέψεις.
Στο μέτωπο αυτό, ο διευθύνων σύμβουλος της Microsoft AI, Μουσταφά Σουλεϊμάν, με ανησυχία δήλωσε σχετικά με την αύξηση των αναφορών ψύχωσης σχετιζόμενης με την ΑΙ, σημειώνοντας ότι το φαινόμενο δεν περιορίζεται σε άτομα που είναι ήδη ευάλωτα σε ψυχικές διαταραχές.
Reports of delusions, «AI psychosis,» and unhealthy attachment keep rising. And as hard as it may be to hear, this is not something confined to people already at-risk of mental health issues. Dismissing these as fringe cases only help them continue. 5/
— Mustafa Suleyman (@mustafasuleyman) August 19, 2025
Τον Οκτώβριο, η OpenAI δημοσιοποίησε βασικές εκτιμήσεις για την ψυχική υγεία των χρηστών του ChatGPT, εκτιμώντας ότι περίπου το 0.07% των χρηστών μπορεί να εμφανίζουν ψυχώσεις ή αυτοκτονικές σκέψεις. Μάλιστα, το 0,15% των χρηστών είχαν διαβουλεύσεις με σαφείς ενδείξεις πρόθεσης αυτοκτονίας.
Στο πλαίσιο αυτό, η OpenAI προχώρησε σε τροποποιήσεις της αλληλεπίδρασης του chatbot, με στόχο την ασφαλή απάντηση σε πιθανά σημάδια παραληρήματος και μανίας. Επιπλέον, δημιούργησε ένα δίκτυο ψυχολόγων και ψυχιάτρων σε 60 χώρες, προκειμένου να προσφέρει καλύτερη υποστήριξη στους χρήστες της.
Στις Ηνωμένες Πολιτείες, πολλές πολιτείες έχουν ήδη προαναγγείλει προτάσεις για νομοθεσία που θα ρυθμίζει τη χρήση της ΑΙ, αν και συναντούν την αντίθεση της κυβέρνησης Τραμπ, η οποία προσπαθεί να αποτρέψει τις τοπικές κυβερνήσεις από τη λήψη δικών τους νόμων, ισχυριζόμενη ότι κάτι τέτοιο θα μπορούσε να επιβραδύνει την πρόοδο της κοινωνίας.









