Πρέπει να ζητήσετε ιατρική συμβουλή από το ChatGPT;

Οι γιατροί παρατήρησαν κάτι ασυνήθιστο στα τέλη της δεκαετίας του 2000: οι ασθενείς έρχονταν στα ραντεβού οπλισμένοι μερικές φορές με αμφίβολες ιατρικές πληροφορίες που είχαν αντλήσει online από τον “”Δρ. Google””, σύμφωνα με τον Adam Rodman, εσωτερικό ιατρό και ερευνητή Τεχνητής Νοημοσύνης (ΤΝ).

Σήμερα, περίπου το 68% των ενηλίκων έχουν στραφεί σε μια μηχανή αναζήτησης για ιατρικές συμβουλές στο παρελθόν. Όμως ο Δρ. Google έχει έναν ανταγωνιστή. Περίπου το 32% των ενηλίκων, περίπου οι μισοί από αυτούς που αναζήτησαν συμβουλές online, στράφηκαν σε chatbots ΤΝ για βοήθεια.

Ο Rodman πιστεύει ότι τέτοιες πηγές, όταν χρησιμοποιούνται κατάλληλα, είναι συνολικά ένα καθαρό καλό. Σε άρθρα γνώμης και διαδικτυακά μαθήματα, ο Rodman, βοηθός καθηγητής ιατρικής στην Ιατρική Σχολή του Χάρβαρντ στο Beth Israel Deaconess Medical Center, έχει μοιραστεί συμβουλές για το πώς να αξιοποιήσετε καλύτερα τον Δρ. Chat.

Σε αυτή τη συνέντευξη, η οποία έχει επεξεργαστεί για συντομία και σαφήνεια, ο Rodman προσφέρει ένα σύστημα φαναριού για να καταλάβετε πότε είναι ασφαλές να ρωτήσετε ένα chatbot και πότε θα πρέπει απλώς να ρωτήσετε τον γιατρό σας.

Πώς σκεφτόντουσαν οι γιατροί τις διαδικτυακές ιατρικές πληροφορίες πριν από την εποχή της ΤΝ;

Η πρώιμη βιβλιογραφία αναφέρεται σε αυτό ως “ο ασθενής που ενημερώνεται από το διαδίκτυο”. Στις αρχές της δεκαετίας του 2000, οι γιατροί παρατήρησαν ότι οι άνθρωποι έρχονταν στα ραντεβού τους με άρθρα που έβρισκαν online, αλλά αυτό συνέβαινε ακόμα μόνο σε πολύ εξοικειωμένους με την τεχνολογία ανθρώπους. Σίγουρα δεν ήταν μια κανονική αλληλεπίδραση.

Στη συνέχεια, στα τέλη της δεκαετίας του 2000, οι μηχανές αναζήτησης άρχισαν να εκμεταλλεύονται την τεχνολογία νευρωνικών δικτύων και μπόρεσαν να παρέχουν πιο σχετικές ιατρικές πληροφορίες. Καταλαβαίνουν τι θέλετε να διαβάσετε στη συνέχεια και σας το δίνουν.

Τότε αποκτήσαμε την φράση “Δρ. Google”, συχνά χρησιμοποιούμενη ως υποτιμητικός χαρακτηρισμός, από γιατρούς που έβλεπαν ασθενείς να έρχονται με ένα επίπεδο εμπιστοσύνης που μπορεί να είχε αποκτηθεί ή όχι.

Φυσικά, υπάρχουν ασθενείς που γνωρίζουν πολλά για την υγεία τους και είναι πολύ καλά ενημερωμένοι, αλλά είδαμε επίσης πολλούς ασθενείς που ήταν παραπληροφορημένοι.

Από εκεί προέρχεται η έννοια της “κυβερνοχονοδρίας”. Σχετίζεται με την υποχονδρία: την ιδέα ότι οι μηχανές αναζήτησης μπορούν να οδηγήσουν τους ανθρώπους σε όλο και πιο ακραία μέρη μέχρι να περάσετε από το να κάνετε google τον πονοκέφαλό σας στο να διαβάζετε για γλοιοβλάστωμα πολύμορφο – και η έρευνα έχει δείξει ότι είναι ένα πραγματικό φαινόμενο.

Όλοι έχουμε κατανοητές και λογικές ανησυχίες για την υγεία μας. Η αναζήτηση πληροφοριών είναι κάτι θεμελιώδες για την ανθρωπότητα.

Το πρόβλημα είναι όταν αυτό αρχίζει να αλληλεπιδρά με αυτούς τους αλγορίθμους προτάσεων που είναι βελτιστοποιημένοι για την εμπλοκή και για να σας δείχνουν αυτό που θέλετε να βλέπετε, ακόμη κι αν είναι λανθασμένο.

Τώρα ας φέρουμε την ΤΝ στο παιχνίδι. Είναι διαφορετικό να ρωτήσετε ένα chatbot για συμπτώματα σε σχέση με το να κάνετε google αυτά τα συμπτώματα;

Είναι περίπλοκο. Από τη μία πλευρά, τα LLM κάνουν ακριβώς ό,τι κάνει η Google: σας παρέχουν τα πράγματα που ασυνείδητα θέλετε να ακούσετε, ακόμη κι αν αυτά σας προκαλούν άγχος.

Από την άλλη πλευρά, σε αντίθεση με μια αναζήτηση Google, ορισμένοι άνθρωποι αισθάνονται ότι έχουν μια σχέση με ένα LLM. Τα LLM μιλούν με ακραία εξουσία και αυτοπεποίθηση, ανεξάρτητα από το τι λένε. Ο βαθμός στον οποίο αυτό θα μπορούσε να επιδεινώσει την κυβερνοχονδρία είναι ανεπαρκής εξερευνημένος.

Τόσο η Google όσο και οι εταιρείες ΤΝ γνωρίζουν πλέον πολύ καλά ότι οι άνθρωποι χρησιμοποιούν τα εργαλεία τους για ιατρικές πληροφορίες και προσπαθούν να ενσωματώσουν μηχανισμούς ασφαλείας. Τα bots θα σας πουν να πάτε στα επείγοντα ή να καλέσετε τον γιατρό σας, τέτοια πράγματα.

Αλλά τουλάχιστον θεωρητικά, τα γλωσσικά μοντέλα είναι πολύ, πολύ καλύτερα από την Google, ειδικά τα πιο σύγχρονα μοντέλα συλλογισμού, όταν πρόκειται για την αναγνώριση ιατρικών καταστάσεων.

Τι εννοείτε “θεωρητικά”;

Υπήρξε μια πολύ καλή εργασία νωρίτερα φέτος από έναν ερευνητή ονόματι Andrew Bean που δοκίμασε διάφορα LLM και διαπίστωσε ότι είχαν πολύ καλή απόδοση στην αναγνώριση ιατρικών καταστάσεων από μόνα τους, αλλά είχαν πολύ χειρότερη απόδοση σε συνομιλία με πραγματικούς ανθρώπους.

Αυτό δείχνει ότι η αλληλεπίδραση του χρήστη έχει μεγάλη σημασία. Ο τρόπος που οι άνθρωποι αλληλεπιδρούν με το μοντέλο, η σαφήνεια των ερωτήσεών τους, έχει σημασία. Αυτά τα ψυχολογικά φαινόμενα για τα οποία μιλήσαμε είναι παρόντα με τρόπους που είναι πραγματικά δύσκολο να μετριαστούν.

Τι είδους ερωτήσεις υγείας είναι ασφαλές να ρωτήσετε ένα LLM και τι είδους όχι;

Θα το χώριζα σε ένα σύστημα φαναριού. Κόκκινο: ποτέ ασφαλές. Κίτρινο: μερικές φορές ασφαλές. Πράσινο: σχεδόν πάντα ασφαλές.

Στο πράσινο φως είναι γενικές ερωτήσεις σχετικά με την υγεία, όπου η ποιότητα των πληροφοριών δεν εξαρτάται ιδιαίτερα από το πλαίσιο.

Για παράδειγμα, “Έχω διαβήτη και ο γιατρός μου είπε ότι πρέπει να ακολουθώ μια διαβητική δίαιτα. Ορίστε μερικά πράγματα που μου αρέσει να τρώω. Μπορείτε να με βοηθήσετε να φτιάξω ένα διαβητικό πλάνο γευμάτων;” Ή “Προσπαθώ να ξεκινήσω ένα νέο πρόγραμμα άσκησης, μπορείτε να βοηθήσετε;” Ή “Ο γιατρός μου μόλις μου συνταγογράφησε αμλοδιπίνη. Ποιες είναι οι κοινές παρενέργειες;”

Στο κίτρινο φως είναι ερωτήσεις όπου θέλετε να εμπλέξετε έναν γιατρό. Για παράδειγμα, προετοιμασία για τις επισκέψεις σας, κατανόηση μιας επίσκεψης αφού έχει συμβεί, ή κατανόηση ενός αποτελέσματος εξετάσεων που δεν βγάζει απόλυτο νόημα για εσάς.

Ας πούμε ότι μόλις φύγατε από την επίσκεψη στον γιατρό σας και είστε λίγο μπερδεμένοι για το τι συμβαίνει. Συνδεθείτε στην πύλη ασθενών σας, αντιγράψτε αυτή τη σημείωση, αφαιρέστε τα αναγνωριστικά σας στοιχεία, επικολλήστε τα σε ένα LLM και, στη συνέχεια, κάντε μια συζήτηση.

Με αυτούς τους τύπους ερωτήσεων, πρέπει πραγματικά να βεβαιωθείτε ότι παρέχετε αρκετό ιατρικό πλαίσιο για να βοηθήσετε το LLM να σας δώσει μια καλή απάντηση. Άρα, πρέπει να έχετε κάποια κατανόηση της μηχανικής προτροπών (prompt engineering) για να λάβετε πληροφορίες που σας είναι χρήσιμες.

Στο κόκκινο φως – και πρέπει να τονίσω ότι αυτό μπορεί να αλλάξει στο μέλλον καθώς η τεχνολογία αναπτύσσεται – είναι πράγματα όπως η ερώτηση σε ένα LLM πώς να διαχειριστείτε μια κατάσταση, αν ο γιατρός σας συνταγογραφεί τη σωστή αγωγή, ή γιατί σας συνταγογραφήθηκε το φάρμακο Χ αντί του φαρμάκου Υ. Αυτές είναι εξαιρετικά εξαρτώμενες από το πλαίσιο ερωτήσεις για τις οποίες τα μοντέλα δεν έχουν εκπαιδευτεί.

Με λίγα λόγια, ο καλύτερος τρόπος που οι άνθρωποι μπορούν να το χρησιμοποιήσουν αυτή τη στιγμή δεν είναι ως υποκατάστατο ιατρικής συμβουλής, αλλά ως ένας τρόπος προετοιμασίας ή αύξησης της κατανόησής σας πριν ή μετά τις επισκέψεις.

Υπάρχουν ανησυχίες για το απόρρητο όταν πρόκειται για την κοινή χρήση ιατρικών πληροφοριών με την ΤΝ;

Δεν είναι εγγενώς πιο επικίνδυνο να μοιράζεστε δεδομένα με μια εταιρεία ΤΝ παρά με μια μηχανή αναζήτησης. Ωστόσο, οι μεγάλες εταιρείες – OpenAI, Anthropic, Microsoft – αναπτύσσουν τώρα λειτουργίες υγείας ειδικά για να μπορούν οι άνθρωποι να εισάγουν απευθείας τις ιατρικές τους πληροφορίες, και αυτό είναι αρκετά νέο.

Επιπλέον, μελέτες έχουν δείξει ότι οι άνθρωποι μοιράζονται περισσότερες πληροφορίες με ένα LLM από ό,τι θα μοιράζονταν με μια μηχανή αναζήτησης. Έτσι, από τεχνολογική άποψη, δεν διαφέρει, αλλά στην πράξη αποτελεί πολύ μεγαλύτερη ανησυχία ασφαλείας.

Μπορεί επίσης να σας αρέσει