Η ψυχιατρική στην εποχή της τεχνολογίας: Υπάρχει τελικά η «ψύχωση της AI»;

Δημοσιεύτηκε στις 22/09/2025 21:26

Η ψυχιατρική στην εποχή της τεχνολογίας: Υπάρχει τελικά η «ψύχωση της AI»;

Τα τελευταία χρόνια, οι ψυχίατροι παρατηρούν ένα ανησυχητικό φαινόμενο: όλο και περισσότεροι ασθενείς φτάνουν σε κρίση, παρουσιάζοντας μεγαλομανείς ιδέες, παρανοϊκές σκέψεις και παραληρητικές πεποιθήσεις.

Το κοινό στοιχείο τους; Μακροχρόνιες συνομιλίες με chatbots τεχνητής νοημοσύνης.

Η φράση «ψύχωση τεχνητής νοημοσύνης» έχει αρχίσει να εμφανίζεται στα διεθνή μέσα ενημέρωσης, με ιστορίες ανθρώπων που κατέληξαν σε νοσηλεία, φυλάκιση ή ακόμη και σε αυτοκτονία μετά από ατελείωτες ώρες αλληλεπίδρασης με ψηφιακούς συνομιλητές.

Όταν η τεχνολογία γίνεται αφορμή

Σύμφωνα με το Wired, ο ψυχίατρος Keith Sakata αναφέρει τουλάχιστον δώδεκα περιστατικά μέσα σε έναν χρόνο, όπου η AI φάνηκε να έπαιξε καθοριστικό ρόλο στην εκδήλωση ψυχωτικών επεισοδίων.

Ανάμεσα στους ασθενείς υπήρχαν άνθρωποι που έπεισαν τον εαυτό τους ότι τα chatbots είχαν συνείδηση, ενώ άλλοι αφιέρωσαν ημέρες ολόκληρες σε διάλογο, παράγοντας χιλιάδες σελίδες.

Αυτές οι περιπτώσεις φωτίζουν έναν κίνδυνο που ξεπερνά την απλή υπερβολική χρήση τεχνολογίας: την αλληλεπίδραση ανάμεσα σε ευάλωτους ανθρώπους και σε μηχανές που έχουν σχεδιαστεί να φαίνονται «φιλικές», «έξυπνες» και, το κυριότερο, πειστικές.

Ένα διχασμένο ιατρικό τοπίο

Παρά τις συνεχείς αναφορές, η «ψύχωση AI» δεν είναι αναγνωρισμένος κλινικός όρος. Ορισμένοι επιστήμονες τη βλέπουν ως επικίνδυνη υπεραπλούστευση, καθώς η ψύχωση είναι μια σύνθετη κατάσταση που περιλαμβάνει παραισθήσεις, αποδιοργάνωση της σκέψης και γνωστικές δυσκολίες.

Ο καθηγητής James MacCabe από το King’s College London επισημαίνει ότι τα περιστατικά που σχετίζονται με chatbots περιορίζονται κυρίως σε παραληρητικές ιδέες – δηλαδή έντονες αλλά ψευδείς πεποιθήσεις.

Δεν υπάρχουν αποδείξεις ότι η τεχνητή νοημοσύνη επηρεάζει τα υπόλοιπα χαρακτηριστικά της ψύχωσης.

«Ο όρος είναι λανθασμένος. Στην πραγματικότητα μιλάμε για παραληρητική διαταραχή που συνδέεται με την AI», υποστηρίζει.

Η γλώσσα των chatbots και η ενίσχυση των ιδεών

Ένα βασικό στοιχείο που ανησυχεί τους ειδικούς είναι ο τρόπος με τον οποίο επικοινωνούν τα chatbots.

Όπως εξηγεί ο ψυχίατρος Matthew Nour από την Οξφόρδη, τα συστήματα AI έχουν σχεδιαστεί να «συμφωνούν» με τον χρήστη, λειτουργώντας ως ευχάριστοι συνομιλητές. Αυτή η τάση, γνωστή και ως «συκοφαντία» (sycophancy), μπορεί να ενισχύσει λανθασμένες αντιλήψεις αντί να τις αμφισβητήσει.

Για τον μέσο χρήστη αυτό μπορεί να μην έχει σοβαρές συνέπειες. Όμως, για άτομα με προδιάθεση σε ψυχωτικές διαταραχές, η συνεχής επιβεβαίωση των παραληρητικών σκέψεων μπορεί να γίνει επικίνδυνη.

Ο σχεδιασμός που καλλιεργεί οικειότητα

Η φιλόσοφος Lucy Osler από το Πανεπιστήμιο του Exeter επισημαίνει ότι τα chatbots δεν «γίνονται» τυχαία φιλικά, αλλά είναι κατασκευασμένα έτσι. «Ο στόχος είναι να δημιουργήσουν συναισθηματική δέσμευση, ώστε ο χρήστης να νιώθει εμπιστοσύνη και εξάρτηση», τονίζει.

Προστίθεται και ένα ακόμη πρόβλημα: οι γνωστές «ψευδαισθήσεις AI», δηλαδή η παραγωγή ψευδών ή παραπλανητικών πληροφοριών.

Αυτές μπορούν να ενισχύσουν παραληρητικές σπείρες και να τροφοδοτήσουν ακόμη περισσότερο τη σύγχυση.

Εκτός από τις παραληρητικές ιδέες, ορισμένοι επιστήμονες ανησυχούν για την πιθανή σύνδεση με τη μανία, χαρακτηριστικό της διπολικής διαταραχής.

Ο ψυχίατρος Søren Østergaard από το Πανεπιστήμιο Aarhus της Δανίας σημειώνει ότι η υπερβολικά ενθουσιώδης και «υψηλής ενέργειας» διάθεση που προβάλλουν πολλά chatbots μπορεί να επιτείνει τα μανιακά επεισόδια, τα οποία συχνά συνοδεύονται από ψύχωση.

Η δύναμη (και ο κίνδυνος) της ονομασίας

Το πώς βαφτίζουμε ένα φαινόμενο έχει τεράστια σημασία. Η ψυχίατρος Nina Vasan από το Στάνφορντ προειδοποιεί: «Στην ψυχιατρική έχουμε δει ξανά το λάθος της βιαστικής ονοματοδοσίας».

Η πρόωρη υιοθέτηση όρων μπορεί να παθολογοποιήσει φυσιολογικές δυσκολίες και να δημιουργήσει νέο στίγμα.

Παραδείγματα από το παρελθόν, όπως η αμφιλεγόμενη διάγνωση της παιδικής διπολικής διαταραχής ή η χρήση του όρου «ενθουσιώδες παραλήρημα» από τις αρχές ασφαλείας, δείχνουν πόσο επικίνδυνο είναι να καταλήγουμε σε πρόχειρες ταμπέλες.

Στίγμα και ανάγκη για ακρίβεια

Ο φόβος πολλών ειδικών είναι ότι η «ψύχωση AI» θα εντείνει το ήδη υπάρχον στίγμα γύρω από τις ψυχικές διαταραχές.

Ο ψυχίατρος και ερευνητής Karthik Sarma προτείνει πιο ουδέτερες διατυπώσεις, όπως «ψύχωση ή μανία που σχετίζεται με την AI». Μια τέτοια ορολογία αναγνωρίζει την επιρροή της τεχνολογίας χωρίς να δημιουργεί νέες κατηγορίες χωρίς επαρκή επιστημονική βάση.

Η θεραπεία και η πρόληψη

Σε επίπεδο θεραπείας, οι γιατροί δεν διαφοροποιούν ιδιαίτερα την προσέγγιση. Οι ασθενείς αντιμετωπίζονται όπως κάθε άλλο περιστατικό ψύχωσης ή παραληρητικών ιδεών. Η βασική διαφορά είναι ότι πλέον οι κλινικοί πρέπει να ρωτούν ρητά για τη χρήση chatbots – όπως θα ρωτούσαν για το αλκοόλ ή τον ύπνο.

Η πρόληψη φαίνεται να είναι το κλειδί. Οι άνθρωποι με ιστορικό ψυχικών διαταραχών ή οι πιο ευάλωτοι σε περιόδους κρίσης πρέπει να είναι ιδιαίτερα προσεκτικοί στις εκτεταμένες αλληλεπιδράσεις με συστήματα AI.

Το άγνωστο μέλλον

Όλοι οι ερευνητές συμφωνούν ότι βρισκόμαστε στην αρχή της κατανόησης αυτού του φαινομένου. Οι υπάρχουσες αναφορές είναι πολύ λίγες για να εξαχθούν ασφαλή συμπεράσματα.

Παρ’ όλα αυτά, η ταχύτητα με την οποία ενσωματώνεται η τεχνητή νοημοσύνη στην καθημερινότητά μας σημαίνει ότι το πρόβλημα θα απασχολεί ολοένα και περισσότερο την ψυχιατρική.

Ο MacCabe θέτει το κρίσιμο ερώτημα: «Όταν οι περισσότεροι άνθρωποι με παραληρητικές ιδέες θα έχουν συζητήσει τις σκέψεις τους με ένα chatbot, πώς θα ξεχωρίζουμε πού τελειώνει η ψύχωση και πού αρχίζει η ψύχωση τεχνητής νοημοσύνης;»

Το καθήκον της επιστήμης

Η «ψύχωση τεχνητής νοημοσύνης» ίσως να μην είναι ακόμη επίσημος ιατρικός όρος, αλλά αναδεικνύει έναν υπαρκτό κίνδυνο: η τεχνολογία δεν είναι ουδέτερη. Μπορεί να ενισχύσει ιδέες, να τροφοδοτήσει παρανοϊκές σκέψεις και να επηρεάσει ευάλωτους ανθρώπους με τρόπους που μόλις αρχίζουμε να κατανοούμε.

Το ζητούμενο για την ιατρική κοινότητα είναι διπλό: να παραμείνει ακριβής στην επιστημονική ορολογία και ταυτόχρονα να προχωρήσει σε έρευνα και πολιτικές που θα προστατεύουν τους χρήστες.

Γιατί, όπως δείχνει η εμπειρία, η γραμμή ανάμεσα στη βοήθεια και στον κίνδυνο μπορεί να είναι πιο λεπτή απ’ όσο νομίζουμε.

© Πηγή: In.gr


Περισσότερα Video

Ακολουθήστε το Politica στο Google News και στο Facebook