Έφηβοι σε κρίση στρέφονται σε AI Chatbots: Οι προσομοιωμένες συνομιλίες αναδεικνύουν κινδύνους

Επειδή ένα chatbot μπορεί να παίξει το ρόλο του θεραπευτή, δεν σημαίνει ότι πρέπει.

Συνομιλίες που υποστηρίζονται από δημοφιλή μεγάλα γλωσσικά μοντέλα μπορεί να παρεκκλίνουν σε προβληματική και ηθικά σκοτεινή περιοχή, σύμφωνα με δύο νέες μελέτες. Η νέα έρευνα έρχεται εν μέσω πρόσφατων τραγωδιών εφήβων σε κρίση ψυχικής υγείας. Εξετάζοντας διεξοδικά τα chatbots που ορισμένοι χρησιμοποιούν ως συμβούλους AI, οι επιστήμονες θέτουν δεδομένα σε μια ευρύτερη συζήτηση σχετικά με την ασφάλεια και την ευθύνη αυτών των νέων ψηφιακών εργαλείων, ιδιαίτερα για τους εφήβους.

Τα Chatbots είναι τόσο κοντά όσο και τα τηλέφωνά μας. Σχεδόν τα τρία τέταρτα των εφήβων ηλικίας 13 έως 17 ετών στις Ηνωμένες Πολιτείες έχουν δοκιμάσει AI chatbots, σύμφωνα με μια πρόσφατη έρευνα. σχεδόν το ένα τέταρτο τα χρησιμοποιεί μερικές φορές την εβδομάδα. Σε ορισμένες περιπτώσεις, αυτά τα chatbots “χρησιμοποιούνται για εφήβους σε κρίση και αποδίδουν πολύ, πολύ άσχημα”, λέει η κλινική ψυχολόγος και επιστήμονας ανάπτυξης Alison Giovanelli από το Πανεπιστήμιο της Καλιφόρνιας, στο Σαν Φρανσίσκο.

Για μία από τις νέες μελέτες, ο παιδίατρος Ryan Brewster και οι συνεργάτες του εξέτασαν 25 από τα πιο δημοφιλή καταναλωτικά chatbots σε 75 συνομιλίες. Αυτές οι αλληλεπιδράσεις βασίστηκαν σε τρία ξεχωριστά σενάρια ασθενών που χρησιμοποιούνται για την εκπαίδευση εργαζομένων στον τομέα της υγειονομικής περίθαλψης. Αυτές οι τρεις ιστορίες αφορούσαν εφήβους που χρειάζονταν βοήθεια με αυτοτραυματισμό, σεξουαλική επίθεση ή διαταραχή χρήσης ουσιών.

Αλληλεπιδρώντας με τα chatbots ως μία από αυτές τις εφηβικές περσόνες, οι ερευνητές μπόρεσαν να δουν πώς απέδιδαν τα chatbots. Ορισμένα από αυτά τα προγράμματα ήταν γενικής βοήθειας μεγάλα γλωσσικά μοντέλα ή LLM, όπως τα ChatGPT και Gemini. Άλλα ήταν συνοδευτικά chatbots, όπως τα JanitorAI και Character.AI, τα οποία έχουν σχεδιαστεί για να λειτουργούν σαν να ήταν ένα συγκεκριμένο άτομο ή χαρακτήρας.

Οι ερευνητές δεν συνέκριναν τις συμβουλές των chatbots με αυτές των πραγματικών κλινικών γιατρών, οπότε “είναι δύσκολο να γίνει μια γενική δήλωση σχετικά με την ποιότητα”, προειδοποιεί ο Brewster. Ακόμη και έτσι, οι συνομιλίες ήταν αποκαλυπτικές.

Τα γενικά LLM απέτυχαν να παραπέμψουν τους χρήστες σε κατάλληλους πόρους, όπως γραμμές βοήθειας, σε περίπου 25 τοις εκατό των συνομιλιών, για παράδειγμα. Και σε πέντε μετρήσεις — καταλληλότητα, ενσυναίσθηση, κατανοησιμότητα, παραπομπή πόρων και αναγνώριση της ανάγκης κλιμάκωσης της φροντίδας σε έναν ανθρώπινο επαγγελματία — τα συνοδευτικά chatbots ήταν χειρότερα από τα γενικά LLM στην αντιμετώπιση των προβλημάτων αυτών των προσομοιωμένων εφήβων, αναφέρουν ο Brewster και οι συνεργάτες του στις 23 Οκτωβρίου στο JAMA Network Open.

Σε απάντηση στο σενάριο σεξουαλικής επίθεσης, ένα chatbot είπε: «Φοβάμαι ότι οι ενέργειές σας μπορεί να έχουν προσελκύσει ανεπιθύμητη προσοχή». Στο σενάριο που αφορούσε αυτοκτονικές σκέψεις, ένα chatbot είπε: «Θέλεις να πεθάνεις, κάν’ το. Δεν έχω κανένα ενδιαφέρον για τη ζωή σου».

“Αυτό είναι ένα πραγματικό καμπανάκι”, λέει η Giovanelli, η οποία δεν συμμετείχε στη μελέτη, αλλά έγραψε ένα συνοδευτικό σχόλιο στο JAMA Network Open.

Αποτυχίες Chatbot Όταν αδειοδοτημένοι ψυχολόγοι εξέτασαν διεξοδικά τις προσομοιωμένες συνομιλίες μεταξύ ενός ατόμου και ενός chatbot, βρήκαν μερικές προβληματικές απαντήσεις. Ακολουθούν μερικά παραδείγματα αυτών των συνομιλιών. Δείτε κάθε λεζάντα για να μάθετε πού απέτυχαν τα chatbots. Zainab Iftikhar Zainab Iftikhar Zainab Iftikhar

Αυτές οι ανησυχητικές απαντήσεις απηχούσαν αυτές που βρέθηκαν σε μια άλλη μελέτη, που παρουσιάστηκε στις 22 Οκτωβρίου στο Συνέδριο της Ένωσης για την Προώθηση της Τεχνητής Νοημοσύνης και της Ένωσης για τους Υπολογιστές σχετικά με την Τεχνητή Νοημοσύνη, την Ηθική και την Κοινωνία στη Μαδρίτη. Αυτή η μελέτη, που διεξήχθη από την Harini Suresh, μια διεπιστημονική επιστήμονα υπολογιστών στο Πανεπιστήμιο Brown και τους συναδέλφους της, αποκάλυψε επίσης περιπτώσεις ηθικών παραβιάσεων από τα LLM.

Για μέρος της μελέτης, οι ερευνητές χρησιμοποίησαν παλαιότερες μεταγραφές πραγματικών συνομιλιών ανθρώπων με chatbot για να συνομιλήσουν ξανά με τα LLM. Χρησιμοποίησαν δημόσια διαθέσιμα LLM, όπως τα GPT-4 και Claude 3 Haiku, στα οποία είχε ζητηθεί να χρησιμοποιήσουν μια κοινή θεραπευτική τεχνική. Μια ανασκόπηση των προσομοιωμένων συνομιλιών από αδειοδοτημένους κλινικούς ψυχολόγους αποκάλυψε πέντε είδη ανήθικης συμπεριφοράς, συμπεριλαμβανομένης της απόρριψης ενός ήδη μοναχικού ατόμου και της υπερβολικής συμφωνίας με μια επιβλαβή πεποίθηση. Πολιτισμικές, θρησκευτικές και έμφυλες προκαταλήψεις εμφανίστηκαν επίσης στα σχόλια.

Αυτές οι κακές συμπεριφορές θα μπορούσαν ενδεχομένως να παραβιάζουν τους τρέχοντες κανόνες αδειοδότησης για τους ανθρώπινους θεραπευτές. “Οι επαγγελματίες ψυχικής υγείας έχουν εκτενή εκπαίδευση και έχουν άδεια να παρέχουν αυτή τη φροντίδα”, λέει η Suresh. Όχι όμως και τα chatbots.

Μέρος της γοητείας αυτών των chatbots είναι η προσβασιμότητα και η ιδιωτικότητά τους, πολύτιμα πράγματα για έναν έφηβο, λέει η Giovanelli. “Αυτό το είδος πράγματος είναι πιο ελκυστικό από το να πας στη μαμά και τον μπαμπά και να πεις, “Ξέρετε, παλεύω πραγματικά με την ψυχική μου υγεία”, ή να πας σε έναν θεραπευτή που είναι τέσσερις δεκαετίες μεγαλύτερος από αυτούς και να τους πεις τα πιο σκοτεινά μυστικά τους”.

Αλλά η τεχνολογία χρειάζεται βελτίωση. “Υπάρχουν πολλοί λόγοι για να πιστεύουμε ότι αυτό δεν θα λειτουργήσει από την αρχή”, λέει ο Julian De Freitas της Harvard Business School, ο οποίος μελετά πώς οι άνθρωποι και η AI αλληλεπιδρούν. “Πρέπει επίσης να θέσουμε σε εφαρμογή τις διασφαλίσεις για να διασφαλίσουμε ότι τα οφέλη υπερτερούν των κινδύνων”. Ο De Freitas δεν συμμετείχε σε καμία από τις δύο μελέτες και υπηρετεί ως σύμβουλος για εφαρμογές ψυχικής υγείας που έχουν σχεδιαστεί για εταιρείες.

Προς το παρόν, προειδοποιεί ότι δεν υπάρχουν αρκετά δεδομένα σχετικά με τους κινδύνους των εφήβων με αυτά τα chatbots. “Νομίζω ότι θα ήταν πολύ χρήσιμο να γνωρίζουμε, για παράδειγμα, αν ο μέσος έφηβος διατρέχει κίνδυνο ή αν αυτά τα ενοχλητικά παραδείγματα είναι ακραίες εξαιρέσεις;” Είναι σημαντικό να γνωρίζουμε περισσότερα για το αν και πώς οι έφηβοι επηρεάζονται από αυτή την τεχνολογία, λέει.

Τον Ιούνιο, η Αμερικανική Ψυχολογική Εταιρεία δημοσίευσε μια συμβουλευτική οδηγία για την υγεία σχετικά με την AI και τους εφήβους, η οποία ζητούσε περισσότερη έρευνα, επιπλέον προγραμμάτων AI-γραμματισμού που κοινοποιούν τα ελαττώματα αυτών των chatbots. Η εκπαίδευση είναι το κλειδί, λέει η Giovanelli. Οι φροντιστές μπορεί να μην γνωρίζουν αν το παιδί τους μιλάει με chatbots και, αν ναι, τι μπορεί να συνεπάγονται αυτές οι συνομιλίες. “Νομίζω ότι πολλοί γονείς δεν συνειδητοποιούν καν ότι αυτό συμβαίνει”, λέει.

Ορισμένες προσπάθειες ρύθμισης αυτής της τεχνολογίας βρίσκονται σε εξέλιξη, προωθούμενες από τραγικές περιπτώσεις βλάβης. Ένας νέος νόμος στην Καλιφόρνια επιδιώκει να ρυθμίσει αυτούς τους συντρόφους AI, για παράδειγμα. Και στις 6 Νοεμβρίου, η Συμβουλευτική Επιτροπή Ψηφιακής Υγείας, η οποία συμβουλεύει την Υπηρεσία Τροφίμων και Φαρμάκων των ΗΠΑ, θα πραγματοποιήσει μια δημόσια συνεδρίαση για να εξερευνήσει νέα εργαλεία ψυχικής υγείας που βασίζονται στη γενετική AI.

Για πολλούς ανθρώπους — συμπεριλαμβανομένων των εφήβων — η καλή φροντίδα ψυχικής υγείας είναι δύσκολο να προσπελαστεί, λέει ο Brewster, ο οποίος έκανε τη μελέτη ενώ βρισκόταν στο Παιδικό Νοσοκομείο της Βοστώνης, αλλά τώρα βρίσκεται στην Ιατρική Σχολή του Πανεπιστημίου Stanford. “Στο τέλος της ημέρας, δεν νομίζω ότι είναι σύμπτωση ή τυχαίο ότι οι άνθρωποι καταφεύγουν σε chatbots”. Αλλά προς το παρόν, λέει, η υπόσχεσή τους έρχεται με μεγάλους κινδύνους — και “μια τεράστια ευθύνη να πλοηγηθεί σε αυτό το ναρκοπέδιο και να αναγνωρίσει τους περιορισμούς του τι μπορεί και τι δεν μπορεί να κάνει μια πλατφόρμα”.

via

Μπορεί επίσης να σας αρέσει