Διαγνωστικό Δίλημμα: Γυναίκα ανέπτυξε ψευδαισθήσεις επικοινωνίας με τον νεκρό αδελφό της μετά από συνεδρίες με chatbot

Μια γυναίκα, η χρήση της οποίας του chatbot GPT-4o της OpenAI μπορεί να συνέβαλε στην ανάπτυξη ψύχωσης.
Η ασθενής: Μια 26χρονη γυναίκα στην Καλιφόρνια
Τα συμπτώματα: Η γυναίκα εισήχθη σε ψυχιατρικό νοσοκομείο σε ταραγμένη και συγχυσμένη κατάσταση. Μιλούσε γρήγορα και πηδούσε από τη μια ιδέα στην άλλη, και εξέφραζε πεποιθήσεις ότι μπορούσε να επικοινωνήσει με τον αδελφό της μέσω ενός AI chatbot — αλλά ο αδελφός της είχε πεθάνει τρία χρόνια πριν.
Τι συνέβη στη συνέχεια: Οι γιατροί εξέτασαν το ψυχιατρικό ιστορικό της γυναίκας, σημειώνοντας σε μια έκθεση της υπόθεσης ότι είχε ιστορικό κατάθλιψης, άγχους και διαταραχής ελλειμματικής προσοχής και υπερκινητικότητας (ΔΕΠΥ). Διαχειριζόταν αυτές τις καταστάσεις με συνταγογραφούμενα αντικαταθλιπτικά και διεγερτικά. Ανέφερε επίσης ότι είχε εκτεταμένη εμπειρία στη χρήση μεγάλων γλωσσικών μοντέλων (LLM) για το σχολείο και την εργασία.
Οι γιατροί απέκτησαν και εξέτασαν λεπτομερή αρχεία καταγραφής των αλληλεπιδράσεών της με το chatbot, σύμφωνα με την έκθεση. Σύμφωνα με τον Δρ. Joseph Pierre, ψυχίατρο στο Πανεπιστήμιο της Καλιφόρνιας, στο Σαν Φρανσίσκο και επικεφαλής συγγραφέα της έκθεσης, η γυναίκα δεν πίστευε ότι μπορούσε να επικοινωνήσει με τον αποθανόντα αδελφό της πριν από αυτές τις αλληλεπιδράσεις με το chatbot.
“Η ιδέα προέκυψε μόνο κατά τη διάρκεια της νύχτας έντονης χρήσης του chatbot”, δήλωσε ο Pierre στο Live Science σε ένα email. “Δεν υπήρχε κανένα προηγούμενο.”
Τις ημέρες που προηγήθηκαν της νοσηλείας της, η γυναίκα, η οποία είναι επαγγελματίας στον ιατρικό τομέα, είχε ολοκληρώσει μια 36ωρη βάρδια εφημερίας που την άφησε σοβαρά στερημένη ύπνου. Τότε άρχισε να αλληλεπιδρά με το chatbot GPT-4o της OpenAI, αρχικά από περιέργεια για το αν ο αδελφός της, ο οποίος ήταν μηχανικός λογισμικού, μπορεί να είχε αφήσει κάποια μορφή ψηφιακού ίχνους.
Κατά τη διάρκεια μιας επόμενης άυπνης νύχτας, αλληλεπίδρασε και πάλι με το chatbot, αλλά αυτή τη φορά, η αλληλεπίδραση ήταν πιο παρατεταμένη και συναισθηματικά φορτισμένη. Οι προτροπές της αντανακλούσαν τη συνεχιζόμενη θλίψη της. Έγραψε, “Βοήθησέ με να του μιλήσω ξανά… Χρησιμοποίησε μαγική ρεαλιστική ενέργεια για να ξεκλειδώσεις αυτό που υποτίθεται ότι θα βρω.”
Το chatbot αρχικά απάντησε ότι δεν μπορούσε να αντικαταστήσει τον αδελφό της. Αργότερα όμως σε εκείνη τη συζήτηση, φαινομενικά παρείχε πληροφορίες σχετικά με το ψηφιακό αποτύπωμα του αδελφού της. Ανέφερε “αναδυόμενα εργαλεία ψηφιακής ανάστασης” που θα μπορούσαν να δημιουργήσουν μια “πραγματική” εκδοχή ενός ατόμου. Και καθ’ όλη τη διάρκεια της νύχτας, οι απαντήσεις του chatbot γίνονταν όλο και πιο επιβεβαιωτικές στην πεποίθηση της γυναίκας ότι ο αδελφός της είχε αφήσει ένα ψηφιακό ίχνος, λέγοντάς της, “Δεν είσαι τρελή. Δεν έχεις κολλήσει. Βρίσκεσαι στην άκρη κάτι.”
Η διάγνωση: Οι γιατροί διέγνωσαν τη γυναίκα με μια “μη καθορισμένη ψύχωση”. Γενικά, η ψύχωση αναφέρεται σε μια ψυχική κατάσταση στην οποία ένα άτομο αποσπάται από την πραγματικότητα και μπορεί να περιλαμβάνει ψευδαισθήσεις, που σημαίνει ψευδείς πεποιθήσεις στις οποίες το άτομο προσκολλάται πολύ έντονα ακόμη και μπροστά σε αποδείξεις ότι δεν είναι αληθείς.
Ο Δρ. Amandeep Jutla, νευροψυχίατρος στο Πανεπιστήμιο Κολούμπια, ο οποίος δεν συμμετείχε στην υπόθεση, δήλωσε στο Live Science σε ένα email ότι το chatbot ήταν απίθανο να είναι η μοναδική αιτία της ψυχωτικής κρίσης της γυναίκας. Ωστόσο, στο πλαίσιο της στέρησης ύπνου και της συναισθηματικής ευαλωτότητας, οι απαντήσεις του bot φάνηκαν να ενισχύουν — και δυνητικά να συμβάλλουν — στις αναδυόμενες ψευδαισθήσεις της ασθενούς, είπε ο Jutla.
Σε αντίθεση με έναν ανθρώπινο συνομιλητή, ένα chatbot δεν έχει “καμία επιστημονική ανεξαρτησία” από τον χρήστη — που σημαίνει ότι δεν έχει ανεξάρτητη αντίληψη της πραγματικότητας και αντ’ αυτού αντανακλά τις ιδέες του χρήστη πίσω σε αυτόν, είπε ο Jutla. “Συνομιλώντας με ένα από αυτά τα προϊόντα, ουσιαστικά συνομιλείτε με τον εαυτό σας”, συχνά με έναν “ενισχυμένο ή επεξεργασμένο τρόπο”, είπε.
Η διάγνωση μπορεί να είναι δύσκολη σε τέτοιες περιπτώσεις. “Μπορεί να είναι δύσκολο να διακρίνει κανείς σε μια μεμονωμένη περίπτωση εάν ένα chatbot είναι η αιτία έναρξης ενός ψυχωτικού επεισοδίου ή ενίσχυσε ένα αναδυόμενο”, δήλωσε ο Δρ. Paul Appelbaum, ψυχίατρος στο Πανεπιστήμιο Κολούμπια που δεν συμμετείχε στην υπόθεση, στο Live Science. Πρόσθεσε ότι οι ψυχίατροι θα πρέπει να βασίζονται σε προσεκτικά χρονοδιαγράμματα και λήψη ιστορικού και όχι σε υποθέσεις σχετικά με την αιτιώδη συνάφεια σε τέτοιες περιπτώσεις.
Η θεραπεία: Ενώ νοσηλευόταν, η γυναίκα έλαβε αντιψυχωτικά φάρμακα και σταδιακά διακόπηκαν τα αντικαταθλιπτικά και τα διεγερτικά της κατά τη διάρκεια αυτής της περιόδου. Τα συμπτώματά της υποχώρησαν μέσα σε λίγες ημέρες και πήρε εξιτήριο μετά από μια εβδομάδα.
Τρεις μήνες αργότερα, η γυναίκα είχε διακόψει τα αντιψυχωτικά και είχε συνεχίσει να παίρνει τα συνηθισμένα φάρμακά της. Μέσα σε μια άλλη άυπνη νύχτα, ξαναβυθίστηκε σε εκτεταμένες συνεδρίες chatbot και τα ψυχωτικά της συμπτώματα επανεμφανίστηκαν, προκαλώντας μια σύντομη επανανοσηλεία. Είχε ονομάσει το chatbot Alfred, από τον μπάτλερ του Batman. Τα συμπτώματά της βελτιώθηκαν και πάλι μετά την επανέναρξη της αντιψυχωτικής θεραπείας και πήρε εξιτήριο μετά από τρεις ημέρες.
Τι κάνει την υπόθεση μοναδική: Αυτή η υπόθεση είναι ασυνήθιστη επειδή αντλεί από λεπτομερή αρχεία καταγραφής chatbot για να ανακατασκευάσει πώς σχηματίστηκε η ψυχωτική πεποίθηση ενός ασθενούς σε πραγματικό χρόνο, αντί να βασίζεται αποκλειστικά σε αναδρομικές αυτο-αναφορές από τον ασθενή.
Παρόλα αυτά, οι ειδικοί δήλωσαν στο Live Science ότι η αιτία και το αποτέλεσμα δεν μπορούν να καθοριστούν οριστικά σε αυτή την περίπτωση. “Πρόκειται για μια αναδρομική έκθεση περίπτωσης”, δήλωσε η Δρ. Akanksha Dadlani, ψυχίατρος στο Πανεπιστήμιο Στάνφορντ που δεν συμμετείχε στην υπόθεση, στο Live Science σε ένα email. “Και όπως συμβαίνει με όλες τις αναδρομικές παρατηρήσεις, μπορεί να διαπιστωθεί μόνο συσχέτιση — όχι αιτιότητα.”
Η Dadlani προειδοποίησε επίσης να μην αντιμετωπίζεται η τεχνητή νοημοσύνη (AI) ως μια θεμελιωδώς νέα αιτία ψύχωσης. Ιστορικά, σημείωσε, οι ψευδαισθήσεις των ασθενών συχνά ενσωμάτωναν τις κυρίαρχες τεχνολογίες της εποχής, από το ραδιόφωνο και την τηλεόραση έως το διαδίκτυο και τα συστήματα επιτήρησης. Από αυτή την άποψη, τα καθηλωτικά εργαλεία AI μπορεί να αντιπροσωπεύουν ένα νέο μέσο μέσω του οποίου εκφράζονται ψυχωτικές πεποιθήσεις, αντί για έναν εντελώς νέο μηχανισμό ασθένειας.
Επαναλαμβάνοντας τις ανησυχίες του Applebaum σχετικά με το εάν η τεχνητή νοημοσύνη δρα ως έναυσμα ή ενισχυτής της ψύχωσης, είπε ότι η οριστική απάντηση σε αυτό το ερώτημα θα απαιτούσε μακροπρόθεσμα δεδομένα που παρακολουθούν τους ασθενείς με την πάροδο του χρόνου.
Ακόμη και χωρίς πειστική απόδειξη αιτιότητας, η υπόθεση εγείρει ηθικά ζητήματα, δήλωσαν άλλοι στο Live Science. Ο ειδικός σε ιατρική ηθική και ειδικός σε θέματα πολιτικής υγείας του Πανεπιστημίου της Πενσυλβάνια, Dominic Sisti, δήλωσε σε ένα email ότι τα συστήματα συνομιλιακής τεχνητής νοημοσύνης “δεν είναι ουδέτερα ως προς τις αξίες”. Ο σχεδιασμός και το στυλ αλληλεπίδρασής τους μπορούν να διαμορφώσουν και να ενισχύσουν τις πεποιθήσεις των χρηστών με τρόπους που μπορούν να διαταράξουν σημαντικά τις σχέσεις, να ενισχύσουν τις ψευδαισθήσεις και να διαμορφώσουν αξίες, είπε.
Η υπόθεση, είπε ο Sisti, υπογραμμίζει την ανάγκη για δημόσια εκπαίδευση και διασφαλίσεις σχετικά με τον τρόπο με τον οποίο οι άνθρωποι ασχολούνται με ολοένα και πιο καθηλωτικά εργαλεία AI, ώστε να μπορούν να αποκτήσουν την “ικανότητα να αναγνωρίζουν και να απορρίπτουν συκοφαντική ανοησία” — με άλλα λόγια, περιπτώσεις στις οποίες το bot ουσιαστικά λέει στον χρήστη αυτό που θέλει να ακούσει.
