Γιατί άλλαξα γνώμη για την Τεχνητή Νοημοσύνη – Και γιατί θα έπρεπε κι εσείς

Γιατί άλλαξα γνώμη για την Τεχνητή Νοημοσύνη – Και γιατί θα έπρεπε κι εσείς

Είναι αδιαμφισβήτητο ότι η κυκλοφορία του ChatGPT ήταν ένα ιστορικά σημαντικό γεγονός, αλλά αυτό οφείλεται στο ότι ήταν το πρώτο λαμπρό βήμα προς ένα υπερ-ευφυές μέλλον ή στην αρχή ενός κόσμου γεμάτου πωλητές αέρα (snake-oil salespeople) τεχνητής νοημοσύνης; Για πολύ καιρό πίστευα ότι τα μεγάλα γλωσσικά μοντέλα (Large Language Models – LLMs), η τεχνολογία πίσω από τα chatbots τεχνητής νοημοσύνης, είναι συναρπαστικά αλλά ελαττωματικά, τοποθετώντας με σταθερά στην κατηγορία του “πωλητή αέρα”. Όμως, μια εβδομάδα “vibe coding” αποκάλυψε κάτι εκπληκτικό: τόσο οι υπέρμαχοι όσο και οι σκεπτικιστές κάνουν λάθος.

Πρώτα, πρέπει να εξηγήσω. Το “vibe coding”, αν δεν είστε εξοικειωμένοι, είναι ένας όρος που επινοήθηκε πριν από περίπου ένα χρόνο από τον Andrej Karpathy, ερευνητή ΤΝ που συν-ίδρυσε και παλαιότερα εργαζόταν στην OpenAI. Αναφέρεται στη διαδικασία ανάπτυξης λογισμικού “συνομιλώντας” με ένα μοντέλο ΤΝ, δίνοντάς του οδηγίες σε απλή γλώσσα, ενώ αφήνετε αυτό να παράγει τον πραγματικό κώδικα. Πρόσφατα, είδα ανθρώπους να λένε ότι τα τελευταία εργαλεία –Claude Code και ChatGPT Codex– έχουν γίνει εκπληκτικά καλά στον προγραμματισμό, όπως σε ένα άρθρο στους New York Times με τίτλο “Η αναταραχή της ΤΝ που περιμέναμε έχει φτάσει”.

Αποφάσισα να πειραματιστώ με αυτά τα εργαλεία, και έμεινα έκπληκτος από τα αποτελέσματα. Σε λίγες μόνο ημέρες, με περιορισμένη εμπειρία προγραμματισμού, δημιούργησα προσωπικά χρήσιμες εφαρμογές, όπως ένα πρόγραμμα επιλογής audiobook που ελέγχει τη διαθεσιμότητα στην τοπική μου βιβλιοθήκη, και μια συνδυαστική εφαρμογή κάμερας και teleprompter που τρέχει στο τηλέφωνό μου.

Αυτό μπορεί να σας ακούγεται βαρετό, και αυτό είναι απόλυτα εντάξει, για λόγους που θα εξηγήσω αργότερα. Αυτό που έχει σημασία εδώ είναι ότι αυτή η διαδικασία με έκανε να ασχοληθώ πιο βαθιά με προϊόντα όπως το ChatGPT από ό,τι προηγουμένως. Στο παρελθόν, είχα κάνει μικρά πειράματα, είχα αποστραφεί την γενικόλογη γραφή, την κολακεία ή τα ανακριβή αποτελέσματα αναζήτησης, και απομακρυνόμουν. Για αυτά τα νέα έργα προγραμματισμού, η εκτεταμένη χρήση μου με έκανε να συνειδητοποιήσω κάτι που δεν είχα παρατηρήσει πριν – ο τρόπος που τα LLMs έχουν “προϊονοποιηθεί” παράγει μια μηχανή που είμαι γραφτό να μισήσω.

Πολύ λίγοι από εμάς έχουμε έρθει σε επαφή με ένα “ωμό” LLM, εννοώντας ένα στατιστικό μοντέλο που έχει εκπαιδευτεί σε μια μεγάλη συλλογή δεδομένων για να παράγει εύλογα αντιπροσωπευτικό κείμενο. Αντίθετα, η πλειοψηφία μας χρησιμοποιεί τεχνολογία που έχει διαμεσολαβηθεί μέσω μιας διαδικασίας που ονομάζεται ενισχυτική μάθηση από ανθρώπινη ανατροφοδότηση (Reinforcement Learning from Human Feedback – RLHF). Οι εταιρείες ΤΝ χρησιμοποιούν ανθρώπους για να βαθμολογούν το κείμενο που παράγεται από ένα ωμό LLM, επιβραβεύοντας απαντήσεις που θεωρούνται σίγουρες, χρήσιμες και ελκυστικές, ενώ τιμωρούν επιβλαβές περιεχόμενο ή απαντήσεις που είναι πιθανό να αποτρέψουν την πλειοψηφία των χρηστών από την ενασχόληση με τα προϊόντα τους.

Αυτή η διαδικασία RLHF παράγει την γενικόλογη “φωνή chatbot” με την οποία πιθανότατα είστε εξοικειωμένοι. Είναι μια διαδικασία που ενσωματώνει τις έμμεσες αξίες του παραγωγού, από μια γενική στάση της Silicon Valley “κινήσου γρήγορα και σπάσε πράγματα” μέχρι την πιο συγκεκριμένη ιδεολογία εμπνευσμένη από τον Elon Musk του Grok, του αμφιλεγόμενου chatbot του X.

Επί του παρόντος, είναι πολύ δύσκολο να κάνεις ένα chatbot να εκφράσει αβεβαιότητα, να αντικρούει τον χρήστη ή να προκαλεί εμπρός κίνηση. Αυτό έγινε πιο εμφανές σε μένα όταν αντιμετώπισα ένα άλυτο πρόβλημα με το teleprompter μου. Προσπαθούσα να δημιουργήσω μια εφαρμογή που θα επέβαλλε κείμενο πάνω στην υπάρχουσα εφαρμογή κάμεράς μου, υποθέτοντας ότι αυτό θα ήταν ευκολότερο από το να δημιουργήσω μια κάμερα από την αρχή, αλλά ο κώδικας που παρήγαγε το ChatGPT συνέχιζε να αποτυγχάνει. Επαναλαμβανόμενα πρότεινε διορθώσεις, ωθώντας με μπροστά στο έργο. Μόνο όταν συνειδητοποίησα ότι οι περιπλοκές του λειτουργικού συστήματος Android, τις οποίες δεν θα σας κουράσω, σήμαιναν ότι η δημιουργία μιας εφαρμογής “όλα σε ένα” θα ήταν πολύ ευκολότερη. Μόλις ζήτησα από το ChatGPT να το παράγει, λειτούργησε αμέσως.

Μαθαίνοντας από αυτό, άρχισα να δίνω οδηγίες στο ChatGPT να αμφισβητεί συνεχώς τόσο τον εαυτό του όσο και εμένα. Απαιτούσα επαγρυπνηση του σκεπτικισμού. “Ο Jacob θέλει ο βοηθός να υπερισχύει η ανάλυση που βασίζεται σε αποδείξεις: αποφυγή περισπασμού, σαφής διαχωρισμός συμπεράσματος έναντι αποδείξεων, και προτίμηση δήλωσης αβεβαιότητας ή διακοπής όταν οι αποδείξεις είναι αδύναμες, εκτός αν ο χρήστης ζητήσει εικασία,” είναι ένα από τα πλαίσια (που παρήγαγε το ίδιο) που έχω επιβάλει στη μνήμη του. Με άλλα λόγια, δημιούργησα ένα μοντέλο μοναδικά σχεδιασμένο να λειτουργεί με το ψυχολογικό μου προφίλ, ξετυλίγοντας προσεκτικά τις αξίες της OpenAI και αντικαθιστώντας τες με τις δικές μου.

Δεν είναι τέλειο. Είναι πολύ δύσκολο για ένα LLM να αντισταθεί στην εκπαίδευση RLHF του, και η προεπιλογή συνεχίζει να διαρρέει. Αλλά αυτό που σημαίνει είναι ότι τώρα έχω ένα εργαλείο που λειτουργεί ως ένας κάπως χρήσιμος γνωστικός καθρέφτης. Δεν το χρησιμοποίησα για να γράψω αυτό το άρθρο, τόσο επειδή το στυλ γραφής του είναι ακόμα φρικτά κουραστικό όσο και επειδή η New Scientist, ορθά, έχει αυστηρούς κανόνες ενάντια σε αντίγραφα που δημιουργήθηκαν από ΤΝ, αλλά το χρησιμοποίησα για να σκεφτώ αυτό το άρθρο. Ζήτησα από τον γνωστικό μου καθρέφτη να εξετάσει επιχειρήματα και αντεπιχειρήματα, απορρίπτοντας πολλά από τα συμπεράσματά του ως ψευδή ή αβάσιμα. Εξήγαγα αξία, αλλά απαιτούσε προσοχή και δουλειά, χωρίς να αφήνω την ΤΝ να κάνει τη βαριά δουλειά. Κρίσιμα, ο εγκέφαλός μου παρέμεινε πλήρως ενεργός σε όλη τη διάρκεια.

Αυτό με οδηγεί στην ενίσχυση ενός συμπεράσματος που είχα ήδη καταλήξει: η ενασχόληση με την παραγωγή ΤΝ κάποιου άλλου είναι, σχεδόν σε όλες τις περιπτώσεις, λειτουργικά άχρηστη. Δεν μπορείτε να κερδίσετε τίποτα από κείμενο που δημιουργήθηκε από ΤΝ που δεν θα λαμβανόταν καλύτερα με το να θέσετε εσείς οι ίδιοι ένα ερώτημα σε μια ΤΝ. Συνεχίζω επίσης να αντικρούω την ιδέα ότι η ΤΝ είναι πραγματικά ευφυής με οποιονδήποτε τρόπο – αντίθετα, θεωρώ τα LLMs ως γνωστικό βοήθημα, όπως μια αριθμομηχανή ή μια επεξεργαστή κειμένου. Με αυτό το πλαίσιο, ως ιδιωτικό εργαλείο, όχι ως μηχανή που κατακτά τον κόσμο, τώρα βλέπω το όφελος. Για αυτόν τον λόγο, είναι σωστό να μην σας ενδιαφέρει η εφαρμογή teleprompter μου. Αυτό που θα έπρεπε να σας ενθουσιάζει είναι η δυνατότητα επίλυσης των δικών σας μοναδικών προβλημάτων με τον δικό σας μοναδικό τρόπο.

Εδώ παρουσιάζεται ένα ακόμα πρόβλημα από το τρέχον παράδειγμά μας για την ΤΝ. Κατά την άποψή μου, το καλύτερο LLM θα ήταν ένα που θα έτρεχε στον δικό σας υπολογιστή, χωρίς σύνδεση με ιδιωτική εταιρεία. Θα έπρεπε να αντιμετωπίζεται ως ένα επικίνδυνο, πειραματικό εργαλείο που έχετε πλήρη έλεγχο. Μου θυμίζει το meme ότι οι μηχανικοί λογισμικού κρατούν ένα φορτωμένο όπλο δίπλα στον εκτυπωτή τους, σε περίπτωση που κάνει έναν θόρυβο που δεν αναγνωρίζουν. Δυστυχώς, η εκτέλεση των δικών σας προηγμένων LLM δεν είναι επί του παρόντος δυνατή για διάφορους λόγους, όχι τουλάχιστον επειδή η έκρηξη της ΤΝ αυξάνει τις τιμές του ίδιου του υλικού που χρειάζεστε.

Πρέπει επίσης να αντιμετωπίσω το αρχικό αμάρτημα των LLMs: την πιθανή παραβίαση πνευματικών δικαιωμάτων. Εξ ορισμού, αυτή η τεχνολογία μπορεί να χτιστεί μόνο σε δεδομένα που έχουν εισαχθεί σε μεγάλη κλίμακα, ουσιαστικά ολόκληρο το κειμενικό αρχείο της ανθρωπότητας. Είναι αδιαμφισβήτητο ότι εταιρείες όπως η OpenAI έφτιαξαν τα μοντέλα τους χρησιμοποιώντας κείμενα που προστατεύονται από πνευματικά δικαιώματα χωρίς άδεια, αν και το αν αυτό ήταν πραγματικά παράνομο αποτελεί αντικείμενο συνεχιζόμενων δικαστικών υποθέσεων. Ένα ιδιωτικό LLM θα είχε τα ίδια προβλήματα, αλλά μπορώ να δω λύσεις, όπως μοντέλα του δημόσιου τομέα, αποτελεσματικά αμνηστευμένα από κυβερνήσεις και διανεμημένα δωρεάν για το όφελος όλων, όχι ιδιωτικών εταιρειών. Επίσης, παραμένω ανήσυχος για τις περιβαλλοντικές επιπτώσεις των κέντρων δεδομένων, αλλά και πάλι αυτό θα μπορούσε να μετριαστεί εν μέρει από μια ευρύτερη διανομή LLMs που τρέχουν στις δικές μας μηχανές.

Δέχομαι ότι κάποιοι άνθρωποι που διαβάζουν αυτό θα με κατηγορήσουν ότι πούλησα στην ομάδα των tech bros. Το μόνο που μπορώ να πω σε αυτό είναι ότι δεν έχω αναθεωρήσει τη μακροχρόνια θέση μου για τα LLMs ως μια τεχνολογία που είναι συναρπαστική, επικίνδυνη και περιστασιακά εξαιρετική.

Αυτό που έχω συνειδητοποιήσει είναι ότι ο κύριος τρόπος που αλληλοεπιδρούμε με την τεχνολογία, μέσω slick chatbots όπως το ChatGPT, είναι από όπου προέρχεται τόση βλάβη και επιτρέπεται να βγει στον κόσμο. Τα LLMs δεν θα έπρεπε να είναι σταθερά και “προϊονοποιημένα”, εξαναγκασμένα σε κάθε μέρος της ζωής μας με ένα λαμπερό emoji που θέλει να είναι ο φίλος σας. Θα ήταν πολύ καλύτερο αν χρησιμοποιούσαμε αυτά τα εργαλεία συνειδητά, με αυξημένη τριβή και πλήρη επίγνωση και προσοχή απέναντι στην πιθανή βλάβη που μπορούν να προκαλέσουν. Εδώ, αναδύεται μια χρήσιμη μεταφορά από το δικό της φτερωτό κεφάλι. Δεν θέλω το “φίλτρο” της OpenAI. Θέλω φίδια.

via

Μπορεί επίσης να σας αρέσει