Οι επιστήμονες έκαναν τα AI agents πιο … “αγενή” – και απέδωσαν καλύτερα σε πολύπλοκες εργασίες συλλογισμού

Όταν στην τεχνητή νοημοσύνη (AI) επιτρέπεται να συμπεριφέρεται περισσότερο σαν φυσικός ομιλητής, γίνεται ένας πιο αποτελεσματικός συνομιλητής σε συζητήσεις, καταλήγοντας σε πιο ακριβή συμπεράσματα, όπως ανακάλυψαν επιστήμονες.

Η ανθρώπινη επικοινωνία είναι γεμάτη διακοπές και στιγμές δισταγμού, παθιασμένες παρεμβάσεις, αβέβαιες παύσεις και ασάφεια. Η AI, από την άλλη πλευρά, ακολουθεί το τυπικό στυλ επικοινωνίας των υπολογιστών – επεξεργασία μιας εντολής, διαμόρφωση μιας απάντησης, παράδοση του αποτελέσματος και υπομονετική αναμονή για την επόμενη εντολή.

“Συστήματα πολλαπλών agents που χρησιμοποιούνται σήμερα συχνά αισθάνονται τεχνητά επειδή στερούνται της ακατάστατης, πραγματικού χρόνου δυναμικής της ανθρώπινης συνομιλίας”, δήλωσε ο Yuichi Sei, συν-συγγραφέας της μελέτης και Καθηγητής στο Τμήμα Πληροφορικής του Πανεπιστημίου Ηλεκτρονικών Επικοινωνιών του Τόκιο στην Ιαπωνία. “Θέλαμε να δούμε αν η παροχή στους agents των κοινωνικών σημάτων που θεωρούμε δεδομένα, όπως η ικανότητα να παρεμβαίνουν ή η επιλογή να παραμένουν σιωπηλοί, θα βελτιώσει τη συλλογική τους νοημοσύνη.”

Ο Sei και οι συνεργάτες του πρότειναν ένα πλαίσιο όπου τα μεγάλα γλωσσικά μοντέλα (LLMs) δεν χρειάζεται να ακολουθούν την εναλλαγή “ο ένας μετά τον άλλον” και “περίμενε τη σειρά σου” της υπολογιστικής επικοινωνίας. Αντίθετα, ένα LLM θα μπορούσε να του ανατεθεί μια προσωπικότητα που θα του επέτρεπε να μιλήσει εκτός σειράς, να κόψει άλλους ομιλητές ή να παραμείνει σιωπηλό.

Πέρα από τη δημιουργία πιο ανθρωπόμορφων μεθόδων επικοινωνίας της AI, οι ερευνητές διαπίστωσαν ότι μια τέτοια ευελιξία οδηγούσε σε υψηλότερη ακρίβεια σε σύνθετες εργασίες σε σύγκριση με αυτή των τυπικών LLMs.

Μια παλέτα προσωπικοτήτων

Η ομάδα ξεκίνησε ενσωματώνοντας χαρακτηριστικά στα LLMs σύμφωνα με τους πέντε βασικούς τύπους προσωπικότητας από την κλασική ψυχολογία – την ανοιχτότητα, την ευσυνειδησία, την εξωστρέφεια, την ευχαρίστηση (agreeableness) και τον νευρωτισμό.

Το επόμενο βήμα ήταν ο επαναπρογραμματισμός των LLMs που βασίζονται σε κείμενο ώστε να επεξεργάζονται τις απαντήσεις πρόταση προς πρόταση, αντί να παράγουν μια πλήρη απάντηση πριν ξεκινήσει η επόμενη, κάτι που επέτρεψε στους ερευνητές να ελέγχουν προσεκτικά τη ροή της συζήτησης. Συνέκριναν επίσης τα αποτελέσματα σε τρεις ρυθμίσεις συνομιλίας – σταθερή σειρά ομιλίας, δυναμική σειρά ομιλίας και δυναμική σειρά ομιλίας με δυνατότητα παρεμβολής. Η τελευταία επέτρεψε στο μοντέλο να υπολογίζει έναν “βαθμό επείγοντος” που τους διευκόλυνε να κατανοήσουν και να επεξεργαστούν τη συνομιλία σε πραγματικό χρόνο.

Ο βαθμός επείγοντος εκφραζόταν στη συνομιλία με διάφορους τρόπους. Εάν ανέβαινε επειδή το μοντέλο εντόπιζε ένα λάθος ή ένα σημείο που θεωρούσε κρίσιμο για τη συζήτηση, μπορούσε να το αναδείξει άμεσα, ανεξάρτητα από το ποιος είχε τη σειρά να μιλήσει. Εάν ο βαθμός επείγοντος ήταν χαμηλός, το μοντέλο το ερμήνευε ως αδυναμία προσθήκης κάτι συγκεκριμένου, μειώνοντας την “ακαταστασία” της συνομιλίας για δικούς του λόγους.

Ο Sei δήλωσε στο Live Science ότι η ομάδα αξιολόγησε την απόδοση χρησιμοποιώντας 1.000 ερωτήσεις από το πρωτόκολλο Massive Multitask Language Understanding (MMLU) – ένα τεστ συλλογισμού AI που περιλαμβάνει ερωτήσεις από διάφορους τομείς, συμπεριλαμβανομένων των επιστημών και των ανθρωπιστικών επιστημών.

“Όταν ένας agent έδινε αρχικά μια λανθασμένη απάντηση, η συνολική ακρίβεια ήταν 68,7% σε σταθερή σειρά συζήτησης, 73,8% σε δυναμική σειρά, και 79,2% όταν επιτρεπόταν η παρέμβαση”, δήλωσε ο Sei. “Σε ένα πιο δύσκολο σενάριο όπου δύο agents έδιναν αρχικά λανθασμένες απαντήσεις, η ακρίβεια ήταν 37,2% σε σταθερή σειρά, 43,7% σε δυναμική σειρά, και 49,5% όταν επιτρεπόταν η παρέμβαση.”

Έχοντας δείξει ότι τα μοντέλα που οδηγήθηκαν από την προσωπικότητα ήταν πιο ακριβή από τα παραδοσιακά chatbots AI, ο Sei θέλει τώρα να διερευνήσει πώς αυτά τα νέα ευρήματα μπορούν να εφαρμοστούν στην πράξη. Η ομάδα σχεδιάζει να εφαρμόσει τα ευρήματά της σε διάφορους τομείς που περιλαμβάνουν δημιουργική συνεργασία, προκειμένου να κατανοήσει τη δυναμική του τρόπου με τον οποίο οι “ψηφιακές προσωπικότητες” μπορούν να εκδηλωθούν στη λήψη αποφάσεων εντός μιας ομάδας.

“Στο μέλλον, οι agents AI θα αλληλεπιδρούν όλο και περισσότερο μεταξύ τους και με τους ανθρώπους σε συνεργατικά περιβάλλοντα”, δήλωσε ο Sei. “Τα ευρήματά μας υποδηλώνουν ότι οι συζητήσεις που διαμορφώνονται από την προσωπικότητα, συμπεριλαμβανομένης της ικανότητας να παρεμβαίνουμε όταν είναι απαραίτητο, ενδέχεται μερικές φορές να παράγουν καλύτερα αποτελέσματα από τις αυστηρά βασισμένες σε σειρά και ομοιόμορφα ευγενικές ανταλλαγές.”

via

Μπορεί επίσης να σας αρέσει