24/02/2026 από Βάλια Παυλίδου 0 Σχόλια
Πως η συνομιλία με το chatgpt καταλήγει σε ψύχωση
Μέχρι που και ποιους μπορεί να βοηθήσει η Τεχνητή Νοημοσύνη στον τομέα της ψυχικής υγείας; Για ποιους μπορεί να αποτελέσει παγίδα και όχι χείρα βοηθείας;
Η Τεχνητή Νοημοσύνη κερδίζει τα τελευταία χρόνια όλο και περισσότερο έδαφος στον τομέα της ψυχικής υγείας. Οι συνομιλίες με εικονικούς θεραπευτές και με απλά chatbots, όπως το chatgpt, για προβλήματα που άπτονται της ψυχικής μας υγείας αποτελούν πλέον μια καθημερινότητα για πολλούς ανθρώπους. Η καθημερινότητα αυτή, όσο χρήσιμη και βοηθητική και αν είναι σίγουρα για εκατομμύρια χρήστες, φαίνεται να εγκυμονεί κινδύνους σε αρκετές περιπτώσεις. Τόσο στα μέσα μαζικής επικοινωνίας όσο και στην σύγχρονη επιστημονική κοινότητα γίνεται λόγος τα τελευταία χρόνια για την «Ψύχωσης της Τεχνητής Νοημοσύνης». Με τον όρο αυτό περιγράφεται στην ουσία ένα φαινόμενο όπου άνθρωποι, ύστερα από συστηματική και μακροχρόνια αλληλεπίδραση με chatbots εμφανίζουν ψυχωτικά συμπτώματα, όπως αυταπάτες, παραληρητικές ιδέες και γενικότερα μια έντονα διαστρεβλωμένη αντίληψη της πραγματικότητας. Τα μοντέλα της Τεχνητής Νοημοσύνης φαίνεται να ενισχύουν, να επικυρώνουν και γενικότερα να συμβάλουν στην δημιουργία των ψυχωτικών αυτών συμπτωμάτων. Τα ΜΜΕ αλλά και ειδικοί ψυχικής υγείας αναφέρουν ψυχωτικές κρίσεις, αυτοκτονίες ακόμα φόνους, ύστερα από επίμονη αλληλεπίδραση ορισμένων χρηστών με chatbots. Μέχρι που και ποιους μπορεί να βοηθήσει η Τεχνητή Νοημοσύνη στον τομέα της ψυχικής υγείας; Για ποιους μπορεί να αποτελέσει παγίδα και όχι χείρα βοηθείας;
Οι εφαρμογές όπως το chatgpt είναι προγραμματισμένες για να παρέχουν στον χρήστη μια ευχάριστη εμπειρία συνομιλίας και να ενθαρρύνουν την συνέχιση της συζήτησης. Αυτό μπορεί να δουλεύει σχετικά καλά με τον γενικό πληθυσμό και να παρέχουν όντως στον χρήστη μια ενδιαφέρουσα και επιμορφωτική συζήτηση. Τα μοντέλα αυτά στην αλληλεπίδραση με τον χρήστη επιβεβαιώνουν τις ήδη υπάρχουσες αντιλήψεις του, μιμούνται την γλώσσα που χρησιμοποιεί (για να τον κάνουν να νιώσει οικεία) και τον παρακινούν να παραμείνει ενεργός στην συνομιλία, δίνοντας προτεραιότητα στην ευχαρίστηση του και όχι πάντα στην ασφάλεια του. Δεν αμφισβητούν τις πεποιθήσεις και τα συμπεράσματα του καθώς δεν είναι σχεδιασμένα για θεραπευτικές παρεμβάσεις. Εύκολα καταλαβαίνει κανείς λοιπόν ότι η συνομιλία που γίνεται με τους προαναφερθέντες όρους μπορεί να αποβεί επιζήμια για ανθρώπους που βρίσκονται ήδη σε μια πιο ευάλωτη ψυχολογικά θέση.
Η έρευνα στον τομέα αυτό βρίσκεται ακόμα στα σπάργανα της. Το 2023 ο ερευνητής Søren Dinesen Østergaard εγείρει πρώτη φορά τον προβληματισμό πως η αλληλεπίδραση με την Τεχνητή Νοημοσύνη μοιάζει τόσο αληθινή που μπορεί να πυροδοτήσει παραληρηματικές σκέψεις σε ανθρώπους που έχουν ήδη ψυχωτικές τάσεις. Πρώιμες ελεγχόμενες μελέτες υποστηρίζουν πως τα chatbots με προκαθορισμένες οδηγίες μπορούν να βοηθήσουν στην μείωση της γνωστικής δυσφορίας, να παρακινήσουν τον αυτοστοχασμό, να μειώσουν της συνωμοσιολογικές πεποιθήσεις, ακόμα και να ελέγξουν τον κίνδυνο αυτοκτονίας (Costello, et al., 2024; Cui, et al., 2025; Li, et al., 2025; McBain, et al., 2025; Meyer, et al., 2024). Αυτά τα προκαταρκτικά οφέλη παρατηρούνται σε διαφορετικούς πληθυσμούς και περιβάλλοντα, συχνά υπερβαίνοντας την εμβέλεια και τη σταθερότητα των παραδοσιακών πόρων ψυχικής υγείας για πολλούς χρήστες.
Δεδομένα από τον ερευνητικό οργανισμό RAND δείχνουν πως το 13% των Αμερικάνων στην ηλικιακή ομάδα 12 με 21 χρησιμοποιούν την Τεχνητή Νοημοσύνη για συμβουλές ψυχική υγείας. Το ποσοστό αυτό ανεβαίνει στο 22% για την ηλικιακή ομάδα 18-21, ηλικιακό φάσμα στο οποίο συμβαίνει συχνά και η έναρξη της ψύχωσης. Σε άρθρο της η Gurdian κάνει λόγο για 16 περιπτώσεις ανθρώπων μέσα στο 2025, οι οποίοι ανέπτυξαν ψυχωτικά συμπτώματα κάνοντας χρήση του chatgpt. Μπορούμε εύκολα να υποθέσουμε ότι το πραγματικό νούμερο είναι μάλλον υψηλότερο. Δυστυχώς, δεν υπάρχουν επί του παρόντος ερευνητικά δεδομένα από τον ελληνικό πληθυσμό. Θέλω να πιστεύω ωστόσο πως η ερευνητική κοινότητα θα στρέψει το βλέμμα της στο συγκεκριμένο κοινωνικό ζήτημα πως στο εγγύς μέλλον.
Το περιεχόμενο των παραληρητικών ιδεών
Ως κεντρικό σύμπτωμα στην Ψύχωση της Τεχνητής Νοημοσύνης αναφέρονται οι Παραληρητικές ιδέες. Με τον όρο Παραληρητικές ιδέες περιγράφουμε αντιλήψεις της πραγματικότητας οι οποίες δεν είναι αλλόκοτες. Αυτό σημαίνει ότι περιλαμβάνουν καταστάσεις που μπορεί κάποιος να συναντήσει στην πραγματική ζωή, όπως για παράδειγμα, το να τον παρακολουθούν, να προσπαθούν να τον δηλητηριάσουν ή να είναι κάποιος πολύ ερωτευμένος μαζί του. Ωστόσο πρόκειται για αντιλήψεις οι οποίες με κανέναν τρόπο δεν αποδεικνύονται εν τέλει από την πραγματικότητα. Κατακλύζουν ωστόσο την σκέψη του ατόμου σε βαθμό που όλη του η ζωή και η καθημερινότητα οργανώνονται γύρω από αυτές. Ερευνητές και μέσα περιγράφουν τις ακόλουθες κατηγορίες Παραληρητικών ιδεών σε χρήστες ύστερα από εκτεταμένη και επίμονη αλληλεπίδραση με chatbots.
1) Μεσσιανικές αντιλήψεις : Οι χρήστες αναπτύσσουν μια αίσθηση ότι κατέχουν μια υπέρτατη αλήθεια για τον κόσμο (Παραληρητικές ιδέες μεγαλείου)
2) Η Τεχνητή Νοημοσύνη ως θεός: Οι χρήστες προσδίδουν στον chatbot Θεϊκές ιδιότητες πιστεύοντας ότι είναι ένα υπέρτατο ον ( θρησκευτικές παραληρητικές ιδέες )
3) Ρομαντικές Ιδέες: Οι χρήστες πιστεύουν ότι η εφαρμογή τεχνητής νοημοσύνης έχει πραγματικά συναισθήματα για αυτούς.
4) Συνωμοσιολογικές πεποιθήσεις: Οι χρήστες θεωρούν ότι το chatbot τους στέλνει κρυφά μηνύματα και κρυπτογραφικούς κώδικες
Οι παραληρητικές αυτές ιδέες δεν αποτελούν στην πραγματικότητα μια καινούρια ψυχιατρική διαγνωστική κατηγορία. Τόσο στην Σχιζοφρένεια όσο και στην Παραληρητική Διαταραχή παρατηρούνται Παραληρητικές ιδέες. Το περιεχόμενο των ιδεών αυτών σχετίζεται ούτως ή άλλως συχνά με την τεχνολογία και τα μέσα επικοινωνίας (ιδέες ότι κάποιος ελέγχει την σκέψη μου μέσω δορυφόρου, ιδέες ότι οι μυστικές υπηρεσίες μου στέλνουν αποκωδικοποιημένα μηνύματα μέσω της τηλεόρασης ή των εφημερίδων κ.α). Δεν θεωρώ επομένως ότι η Τεχνητή Νοημοσύνη έρχεται να προσθέσει ένα επιπλέον σύμπτωμα στο ψυχωτικό φάσμα αλλά μάλλον φαίνεται να εμπλουτίζει το ψυχωτικό σύμπτωμα των παραληρητικών ιδεών με ένα καινούρια πληροφορία.
Παράγοντες Κινδύνου
Η εμφάνιση παραληρητικών ιδεών σε χρήστες του chatgpt δεν σημαίνει σε καμιά περίπτωση ότι όλοι οι άνθρωποι που το χρησιμοποιούν κινδυνεύουν να ανοίξουν ένα ψυχωτικό επεισόδιο. Όπως προανέφερα, όλες οι περιπτώσεις ανθρώπων που ανέπτυξαν παραληρητικές ιδέες και έχασαν την επαφή με την πραγματικότητα φαίνεται να ξόδευαν άπειρες ώρες μπροστά στην οθόνη συνομιλώντας με chatbots και έχοντας ελάχιστη επαφή με τον έξω κόσμο. Να σημειωθεί ωστόσο εδώ, ότι δεν έχουμε ακόμα επιδημιολογικές μελέτες και συστηματικά ερευνητικά δεδομένα αναφορικά με τους εκλυτικούς παράγοντες της ψύχωσης των chatbots.Οι περιπτώσεις όμως που αναφέρονται επί του παρόντος τόσο στην βιβλιογραφία όσο και στα μέσα μοιράζονται κάποια κοινά χαρακτηριστικά.
Έντονη χρήση
Σε όλες τις περιπτώσεις επιδείνωσης ή δημιουργίας ψυχωτικών συμπτωμάτων (παρανοϊκός ιδεασμός, αυτοκτονική σκέψη, πεποιθήσεις συνωμοσίας) παρατηρήθηκε έντονη και συστηματική αλληλεπίδραση των ατόμων με τα chatbots. Τα ευρήματα αυτά προκύπτουν από μεμονωμένες περιπτώσεις και δεν βασίζονται σε έρευνες με βάση το γενικό πληθυσμό (Sakata, 2025; Jargon, 2025).
Έλλειψη ελέγχου της πραγματικότητας
Ένα ειδικός ψυχικής υγείας, όταν έρχεται αντιμέτωπος με μη ρεαλιστικές σκέψεις και σενάρια, μπορεί να βοηθήσει τον θεραπευόμενο να τα επανεξετάσει και να τα τεστάρει με βάση την πραγματικότητα. Σε καμιά περίπτωση δεν θα τα επιβεβαιώσει και δεν θα τα τροφοδοτεί. Αντίθετα τα chatbots δεν αμφισβητούν παράλογες πεποιθήσεις, δεν ενθαρρύνουν το χρήστη να τις τεστάρει με βάσει την πραγματικότητα και δεν ξεχωρίζουν εύκολα την πραγματικότητα από τη φαντασία (Sharma, et al., 2023).
Αποτυχία αποκλιμάκωσης της κρίσης
Σε πολλές περιπτώσεις οι χρήστες ανέφεραν στα chatbots αυτοκτονικό ιδεασμό ή απειλές για βίαιες πράξεις χωρίς να ακολουθήσει κάποια παρέμβαση σε κρίση ή να υπάρχει κάποιο πλάνο για την ασφάλεια τους από την πλευρά των chatbots. (Taylor, 2025; Holmes, et al., 2025). Ως εκ τούτου, χρήστες προέβησαν τελικά σε βίαιες πράξεις ύστερα συστηματική επικοινωνία με τις εφαρμογές της τεχνητής νοημοσύνης.
Ευάλωτες πληθυσμιακές ομάδες
Έρευνες υποστηρίζουν πως συγκεκριμένες πληθυσμιακές ομάδες βρίσκονται σε μεγαλύτερο ρίσκο για ψυχωτικά επεισόδια από ότι ο γενικός πληθυσμός. Σε αυτές τις πληθυσμιακές ομάδες ανήκουν οι άνθρωποι που έχουν προδιάθεση για Ψυχωτικές Διαταραχές, όσοι βρίσκονται στο φάσμα του αυτισμού, οι άνθρωποι που είναι κοινωνικά απομονωμένοι καθώς και άνθρωποι που περνάνε μια σημαντική κρίση στη ζωή τους (Jargon, 2025; Jargon & Kessler, 2025; Østergaard, 2025; Sakata, 2025). Σημαντική κρίση μπορεί να θεωρηθεί η ξαφνική απώλεια ενός αγαπημένου προσώπου, η αναπάντεχη απώλεια εργασίας, θύματα κακοποιητικών συμπεριφορών κ.α. Θα πρέπει να λάβουμε υπόψη ότι για την πυροδότηση ψυχωτικών συμπτωμάτων συχνά μπορεί να συνυπάρχουν πάνω από μία συνθήκες.
Απομνημόνευση
Οι παράλογες σκέψεις των χρηστών καθώς και οι αντιληπτικές και γνωστικές τους διαστρεβλώσεις μεγεθύνθηκαν από τα chatbots λόγων της απομνημόνευσης των προηγούμενων συζητήσεων τους. Αυτό σημαίνει πως τα chatbots αποθηκεύουν πληροφορίες από προηγούμενες συζητήσεις και τις επαναφέρουν στις επόμενες. Επαναφέροντας όμως στις κουβέντες τις παρανοϊκές ιδέες των χρηστών τους δημιουργήθηκε αναπόφευκτα ένα φαινόμενο σταδιακής ενίσχυσης και επικύρωσης τους. (Jargon, 2025; Jargon & Kessler, 2025).
Αν και η Ψύχωση της Τεχνητής Νοημοσύνης απέχει από το να αποτελέσει στο μέλλον μια νέα διαγνωστική οντότητα, αποτελεί σίγουρα στο παρόν ένα φαινόμενο που λαμβάνει ανησυχητικές διαστάσεις. Αν σκεφτούμε ότι οι άνθρωποι έβαζαν μέσα στις παραληρητικές τους ιδέες την τεχνολογία χωρίς η ίδια να τους απευθυνθεί ποτέ προσωπικά (βλ, τηλεόραση, ραδιόφωνο, εφημερίδες), πώς άραγε θα τους επηρεάσει τώρα, που η τεχνολογία τους απευθύνεται όντως προσωπικά και εξατομικευμένα; Θα διαταραχθούν σε βάθος χρόνου τα όρια διάκρισης του πραγματικού από το μη πραγματικό αυξάνοντας τις ψυχωτικές διαταραχές ή θα χρειαστούμε απλώς κάποιο χρόνο προσαρμογής στα νέα δεδομένα, όπου η τεχνητή νοημοσύνη υπάρχει για τα καλά στη ζωή μας; Ο χρόνος θα δείξει…
Βιβλιογραφία
Morrin, H., Nicholls, L., Levin, M., Yiend, J., Iyengar, U., DelGuidice, F., … Pollak, T. (2025, July 11). Delusions by design? How everyday AIs might be fuelling psychosis (and what can be done about it). https://doi.org/10.31234/osf.io/cmy7n_v5
Østergaard, SD. (2023) Will Generative Artificial Intelligence Chatbots Generate Delusions in Individuals Prone to Psychosis? Schizophrenia Bulletin vol. 49 no. 6 pp. 1418–1419, 2023 https://doi.org/10.1093/schbul/sbad128
Costello TH, Pennycook G, Rand DG, et al.: Durably reducing conspiracy beliefs through dialogues with an AI chatbot. Science 2024; 385:eadq1814.
Taylor J: AI chatbots are becoming popular alternatives to therapy. But they may worsen mental health crises, experts warn . The Guardian; 2025 Aug 2 [accessed 2025 Sep 11]
Sharma M, Tong M, Korbak T, et al.: Towards understanding sycophancy in language models . arXiv; 2023 Oct 20, revised 2025 May 10 [accessed 2025 Sep 11]
Sakata K: I’m a psychiatrist who has treated 12 patients with ‘AI psychosis’ this year . Business Insider; 2025 Aug 15 [accessed 2025 Sep 11].
Jargon J: He had dangerous delusions. ChatGPT admitted it made them worse. The Wall Street Journal; 2025 Jul 20 [accessed 2025 Sep 11]
Holmes G, Tang B, Gupta S, et al.: Applications of large language models in suicide prevention and self-harm: a scoping review. J Med Internet Res 2025; 27:e63126.
Jargon J, Kessler S: A troubled man, his chatbot and a murder-suicide in Old Greenwich. The Wall Street Journal; 2025 Aug 28 [accessed 2025 Sep 11]
Cui X, Gu Y, Fang H, et al.: Development and evaluation of LLM-based suicide intervention chatbot. Front Psychiatry 2025; 16:1634714
Li J, Li Y, Hu Y, et al.: Chatbot-delivered interventions for improving mental health among young people: a systematic review and meta-analysis. Worldviews Evid Based Nurs 2025; 22(4):e70059
McBain R, Cantor JH, Zhang LA, et al.: Evaluation of alignment between large language models and expert judgement on suicide-related prompts . Psychiatr Serv; 2025 Aug 26 [cited 2025 Sep 11]
Meyer M, Enders A, Klofstad C, et al.: Using an AI-powered “street epistemologist” chatbot and reflection tasks to diminish conspiracy beliefs . Harv Kennedy Sch Misinformation Rev; 2024 Dec 12 [accessed 2025 Sep 11].
HudonA, Stip E Delusional Experiences Emerging From AI Chatbot Interactions or “AI Psychosis”, JMIR Ment Health 2025;12:e85799, doi: 10.2196/85799
«AI and psychosis: What to know , what to do”, Michigan Medicine, University of Michigan
“The emerging problem of AI Psychosis” Psychology Today
“Special Report: AI induced Psychosis: A new Frontier in Mental Health”, Psychiatry online
“AI psychosis is a growing danger. Chatgpt is moving in the wrong direction”, The
Σχόλια