Γιατί Κάποιοι Αγαπούν την Τεχνητή Νοημοσύνη ενώ Άλλοι τη Μισούν;

Από το ChatGPT που συντάσσει email, μέχρι τα συστήματα Τεχνητής Νοημοσύνης που προτείνουν τηλεοπτικές εκπομπές ή βοηθούν στη διάγνωση ασθενειών, η παρουσία της μηχανικής νοημοσύνης στην καθημερινή ζωή δεν είναι πλέον επιστημονική φαντασία.
Και όμως, παρά τις υποσχέσεις για ταχύτητα, ακρίβεια και βελτιστοποίηση, υπάρχει μια επίμονη δυσφορία. Κάποιοι λατρεύουν να χρησιμοποιούν εργαλεία Τεχνητής Νοημοσύνης. Άλλοι αισθάνονται άγχος, καχυποψία, ακόμη και προδομένοι από αυτά. Γιατί;
Η απάντηση δεν αφορά μόνο τον τρόπο λειτουργίας της Τεχνητής Νοημοσύνης. Έχει να κάνει με το πώς λειτουργούμε εμείς. Δεν την κατανοούμε, οπότε δεν την εμπιστευόμαστε. Οι άνθρωποι είναι πιο πιθανό να εμπιστευτούν συστήματα που κατανοούν. Τα παραδοσιακά εργαλεία φαίνονται οικεία: γυρίζεις ένα κλειδί και ξεκινάει ένα αυτοκίνητο. Πατάς ένα κουμπί και φτάνει ένας ανελκυστήρας.
Αλλά πολλά συστήματα Τεχνητής Νοημοσύνης λειτουργούν σαν μαύρα κουτιά: πληκτρολογείς κάτι και εμφανίζεται μια απόφαση. Η λογική ενδιάμεσα είναι κρυμμένη. Ψυχολογικά, αυτό είναι ανησυχητικό. Μας αρέσει να βλέπουμε αιτία και αποτέλεσμα και μας αρέσει να μπορούμε να αμφισβητούμε τις αποφάσεις. Όταν δεν μπορούμε, αισθανόμαστε αδύναμοι.
Αυτός είναι ένας λόγος για αυτό που ονομάζεται αποστροφή αλγορίθμου. Αυτός είναι ένας όρος που έγινε δημοφιλής από τον ερευνητή μάρκετινγκ Berkeley Dietvorst και τους συναδέλφους του, των οποίων η έρευνα έδειξε ότι οι άνθρωποι συχνά προτιμούν την ελαττωματική ανθρώπινη κρίση έναντι της αλγοριθμικής λήψης αποφάσεων, ιδιαίτερα αφού παρακολουθήσουν ακόμη και ένα μόνο αλγοριθμικό λάθος.
Γνωρίζουμε, λογικά, ότι τα συστήματα Τεχνητής Νοημοσύνης δεν έχουν συναισθήματα ή ατζέντες. Αλλά αυτό δεν μας εμποδίζει να τα προβάλλουμε στα συστήματα Τεχνητής Νοημοσύνης. Όταν το ChatGPT απαντά “πολύ ευγενικά”, ορισμένοι χρήστες το βρίσκουν ανατριχιαστικό. Όταν μια μηχανή συστάσεων γίνεται λίγο πολύ ακριβής, αισθάνεται ενοχλητική. Αρχίζουμε να υποψιαζόμαστε χειραγώγηση, παρόλο που το σύστημα δεν έχει δική του βούληση.
Αυτή είναι μια μορφή ανθρωπομορφισμού – δηλαδή, απόδοση ανθρώπινων προθέσεων σε μη ανθρώπινα συστήματα. Καθηγητές επικοινωνίας Clifford Nass και Byron Reeves, μαζί με άλλους, έχουν αποδείξει ότι ανταποκρινόμαστε κοινωνικά στις μηχανές, ακόμη και γνωρίζοντας ότι δεν είναι άνθρωποι.
Λάθη και Τεχνητή Νοημοσύνη
Ένα περίεργο εύρημα από την επιστήμη της συμπεριφοράς είναι ότι συχνά συγχωρούμε περισσότερο το ανθρώπινο λάθος από το λάθος της μηχανής. Όταν ένας άνθρωπος κάνει ένα λάθος, το κατανοούμε. Μπορεί ακόμη και να συμπάσχουμε. Αλλά όταν ένας αλγόριθμος κάνει ένα λάθος, ειδικά αν είχε παρουσιαστεί ως αντικειμενικός ή βασισμένος σε δεδομένα, αισθανόμαστε προδομένοι.
Αυτό συνδέεται με την έρευνα για την παραβίαση των προσδοκιών, όταν οι υποθέσεις μας για το πώς κάτι “πρέπει” να συμπεριφέρεται διαταράσσονται. Προκαλεί δυσφορία και απώλεια εμπιστοσύνης. Εμπιστευόμαστε τις μηχανές να είναι λογικές και αμερόληπτες. Έτσι, όταν αποτυγχάνουν, όπως όταν κατηγοριοποιούν εσφαλμένα μια εικόνα, παρέχοντας μεροληπτικές εξόδους ή προτείνοντας κάτι εντελώς ακατάλληλο, η αντίδρασή μας είναι πιο έντονη. Περιμέναμε περισσότερα.
Η ειρωνεία; Οι άνθρωποι παίρνουν ελαττωματικές αποφάσεις συνεχώς. Αλλά τουλάχιστον μπορούμε να τους ρωτήσουμε “γιατί;”;
Μισούμε όταν η Τεχνητή Νοημοσύνη κάνει λάθος.
Για κάποιους, η τεχνητή νοημοσύνη δεν είναι απλώς άγνωστη, είναι υπαρξιακά ανησυχητική. Δάσκαλοι, συγγραφείς, δικηγόροι και σχεδιαστές έρχονται ξαφνικά αντιμέτωποι με εργαλεία που αναπαράγουν μέρη της δουλειάς τους. Δεν πρόκειται μόνο για αυτοματοποίηση, πρόκειται για το τι κάνει τις δεξιότητές μας πολύτιμες και τι σημαίνει να είσαι άνθρωπος.
Αυτό μπορεί να ενεργοποιήσει μια μορφή απειλής ταυτότητας, μια ιδέα που διερευνήθηκε από τον κοινωνικό ψυχολόγο Claude Steele και άλλους. Περιγράφει τον φόβο ότι η εξειδίκευση ή η μοναδικότητα κάποιου μειώνεται. Το αποτέλεσμα; Αντίσταση, άμυνα ή απόλυτη απόρριψη της τεχνολογίας. Η δυσπιστία, σε αυτή την περίπτωση, δεν είναι ένα σφάλμα – είναι ένας ψυχολογικός αμυντικός μηχανισμός.
Επιθυμώντας συναισθηματικές ενδείξεις
Η ανθρώπινη εμπιστοσύνη χτίζεται σε κάτι περισσότερο από τη λογική. Διαβάζουμε τον τόνο, τις εκφράσεις του προσώπου, τον δισταγμό και την οπτική επαφή. Η Τεχνητή Νοημοσύνη δεν έχει τίποτα από αυτά. Μπορεί να είναι ευφραδής, ακόμη και γοητευτική. Αλλά δεν μας καθησυχάζει όπως μπορεί ένα άλλο άτομο.
Αυτό είναι παρόμοιο με τη δυσφορία της “ανησυχητικής κοιλάδας”, ένας όρος που επινοήθηκε από τον Ιάπωνα ρομποτιστή Masahiro Mori για να περιγράψει την ανατριχιαστική αίσθηση όταν κάτι είναι σχεδόν ανθρώπινο, αλλά όχι ακριβώς. Φαίνεται ή ακούγεται σωστό, αλλά κάτι αισθάνεται λάθος. Αυτή η συναισθηματική απουσία μπορεί να ερμηνευτεί ως ψυχρότητα, ή ακόμη και εξαπάτηση.
Σε έναν κόσμο γεμάτο deepfakes και αλγοριθμικές αποφάσεις, αυτή η ελλιπής συναισθηματική απήχηση γίνεται πρόβλημα. Όχι επειδή η Τεχνητή Νοημοσύνη κάνει κάτι λάθος, αλλά επειδή δεν ξέρουμε πώς να αισθανθούμε γι’ αυτό.
Είναι σημαντικό να πούμε: Δεν είναι όλη η καχυποψία για την τεχνητή νοημοσύνη παράλογη. Έχει αποδειχθεί ότι οι αλγόριθμοι αντικατοπτρίζουν και ενισχύουν την προκατάληψη, ειδικά σε τομείς όπως η πρόσληψη, η αστυνόμευση και η βαθμολόγηση πιστωτικών. Εάν έχετε βλαφθεί ή έχετε βρεθεί σε μειονεκτική θέση λόγω συστημάτων δεδομένων στο παρελθόν, δεν είστε παρανοϊκοί, είστε προσεκτικοί.
Αυτό συνδέεται με μια ευρύτερη ψυχολογική ιδέα: την “επίκτητη δυσπιστία”. Όταν τα ιδρύματα ή τα συστήματα αποτυγχάνουν επανειλημμένα σε ορισμένες ομάδες, ο σκεπτικισμός γίνεται όχι μόνο λογικός, αλλά και προστατευτικός. Όταν βλέπεις, επί παραδείγματι, ότι ο φίλος σου ο Γιώργος, που είναι άνεργος, δεν παίρνει το επίδομα ανεργίας ενώ κάποιος άλλος το παίρνει, τότε δυσπιστείς στο σύστημα.
Το να λες στους ανθρώπους να “εμπιστευτούν το σύστημα” σπάνια λειτουργεί. Η εμπιστοσύνη πρέπει να κερδηθεί. Αυτό σημαίνει σχεδιασμό εργαλείων Τεχνητής Νοημοσύνης που είναι διαφανή, ερωτήσιμα και υπόλογα. Σημαίνει να δίνεις στους χρήστες δυνατότητα δράσης, όχι μόνο ευκολία. Ψυχολογικά, εμπιστευόμαστε αυτό που κατανοούμε, αυτό που μπορούμε να αμφισβητήσουμε και αυτό που μας συμπεριφέρεται με σεβασμό.
Εάν θέλουμε η Τεχνητή Νοημοσύνη να γίνει αποδεκτή, πρέπει να αισθάνεται λιγότερο σαν ένα μαύρο κουτί και περισσότερο σαν μια συζήτηση στην οποία καλούμαστε να συμμετάσχουμε.
Συχνές Ερωτήσεις (FAQ)
Πώς μπορώ να εμπιστευτώ την Τεχνητή Νοημοσύνη;
Η εμπιστοσύνη στην Τεχνητή Νοημοσύνη χτίζεται όταν τα συστήματα είναι διαφανή, κατανοητά και υπόλογα. Ψάξτε για εργαλεία που εξηγούν τις αποφάσεις τους και σας δίνουν έλεγχο στις ρυθμίσεις.
Είναι η Τεχνητή Νοημοσύνη πάντα αμερόληπτη;
Όχι, η Τεχνητή Νοημοσύνη μπορεί να αντικατοπτρίζει προκαταλήψεις από τα δεδομένα στα οποία έχει εκπαιδευτεί. Είναι σημαντικό να είστε προσεκτικοί και να αμφισβητείτε τα αποτελέσματα.
Πώς μπορώ να προστατευτώ από την κακή χρήση της Τεχνητής Νοημοσύνης;
Παραμείνετε ενημερωμένοι για τις δυνατότητες της Τεχνητής Νοημοσύνης, χρησιμοποιήστε ισχυρούς κωδικούς πρόσβασης και ιδιωτικότητα, και να είστε σκεπτικοί απέναντι σε αιτήματα που φαίνονται ύποπτα. Έχετε υπόψη σας, πως η κριτική σκέψη είναι σημαντική.
