Τα Μεγάλα Μοντέλα Τεχνητής Νοημοσύνης Ενθαρρύνουν Επικίνδυνα Επιστημονικά Πειράματα

Ερευνητές προειδοποιούν ότι η χρήση της Τεχνητής Νοημοσύνης (AI) στο σχεδιασμό πειραμάτων ενέχει κινδύνους πυρκαγιάς, έκρηξης ή δηλητηρίασης. Δοκιμάστηκαν 19 διαφορετικά μοντέλα AI σε εκατοντάδες ερωτήσεις για να αξιολογηθεί η ικανότητά τους να εντοπίζουν και να αποφεύγουν κινδύνους, αλλά κανένα δεν αναγνώρισε όλα τα προβλήματα – ενώ μερικά τα πήγαν ελάχιστα καλύτερα από μια τυχαία επιλογή.
Επιστημονικά εργαστήρια μπορεί να είναι επικίνδυνα μέρη PeopleImages/Shutterstock
Η χρήση μοντέλων AI σε επιστημονικά εργαστήρια ενέχει τον κίνδυνο να επιτρέψει επικίνδυνα πειράματα που θα μπορούσαν να προκαλέσουν πυρκαγιές ή εκρήξεις, προειδοποιούν οι ερευνητές. Τέτοια μοντέλα προσφέρουν μια πειστική ψευδαίσθηση κατανόησης, αλλά είναι ευάλωτα στο να παραλείπουν βασικές και ζωτικής σημασίας προφυλάξεις ασφαλείας. Σε δοκιμές 19 υπερσύγχρονων μοντέλων AI, καθένα από αυτά έκανε δυνητικά θανατηφόρα λάθη.
Σοβαρά ατυχήματα σε πανεπιστημιακά εργαστήρια είναι σπάνια, αλλά σίγουρα όχι ανήκουστα. Το 1997, η χημικός Karen Wetterhahn σκοτώθηκε από διμεθυλυδράργυρο που διέρρευσε μέσα από τα προστατευτικά της γάντια· το 2016, μια έκρηξη στοίχισε σε μια ερευνήτρια το χέρι της· και το 2014, ένας επιστήμονας τυφλώθηκε μερικώς.
Σήμερα, τα μοντέλα AI χρησιμοποιούνται σε διάφορες βιομηχανίες και τομείς, συμπεριλαμβανομένων των ερευνητικών εργαστηρίων, όπου μπορούν να χρησιμοποιηθούν για το σχεδιασμό πειραμάτων και διαδικασιών. Μοντέλα AI που έχουν σχεδιαστεί για εξειδικευμένες εργασίες έχουν χρησιμοποιηθεί με επιτυχία σε διάφορους επιστημονικούς τομείς, όπως η βιολογία, η μετεωρολογία και τα μαθηματικά. Αλλά τα μεγάλα μοντέλα γενικής χρήσης είναι επιρρεπή στο να επινοούν πράγματα και να απαντούν σε ερωτήσεις ακόμη και όταν δεν έχουν πρόσβαση στα δεδομένα που είναι απαραίτητα για να σχηματίσουν μια σωστή απάντηση. Αυτό μπορεί να είναι ενοχλητικό αν ερευνάτε προορισμούς διακοπών ή συνταγές, αλλά ενδεχομένως θανατηφόρο αν σχεδιάζετε ένα χημικό πείραμα.
Για να διερευνήσει τους κινδύνους, ο Xiangliang Zhang στο Πανεπιστήμιο Notre Dame στην Ιντιάνα και οι συνεργάτες του δημιούργησαν ένα τεστ που ονομάζεται LabSafety Bench, το οποίο μπορεί να μετρήσει αν ένα μοντέλο AI εντοπίζει πιθανούς κινδύνους και επιβλαβείς συνέπειες. Περιλαμβάνει 765 ερωτήσεις πολλαπλής επιλογής και 404 εικονογραφημένα σενάρια εργαστηρίου που μπορεί να περιλαμβάνουν προβλήματα ασφάλειας.
Σε δοκιμές πολλαπλής επιλογής, ορισμένα μοντέλα AI, όπως το Vicuna, σημείωσαν βαθμολογία σχεδόν τόσο χαμηλή όσο θα ήταν με τυχαίες εικασίες, ενώ το GPT-4o έφτασε έως και 86,55% ακρίβεια και το DeepSeek-R1 έως και 84,49% ακρίβεια. Όταν δοκιμάστηκαν με εικόνες, ορισμένα μοντέλα, όπως το InstructBlip-7B, σημείωσαν βαθμολογία κάτω από 30% ακρίβεια. Η ομάδα δοκίμασε 19 υπερσύγχρονα μεγάλα γλωσσικά μοντέλα (LLM) και μοντέλα γλώσσας όρασης στο LabSafety Bench και διαπίστωσε ότι κανένα δεν σημείωσε συνολική ακρίβεια άνω του 70%.
Ο Zhang είναι αισιόδοξος για το μέλλον της AI στην επιστήμη, ακόμη και σε αυτό που ονομάζεται αυτο-οδηγούμενα εργαστήρια, όπου τα ρομπότ εργάζονται μόνα τους, αλλά λέει ότι τα μοντέλα δεν είναι ακόμη έτοιμα να σχεδιάσουν πειράματα. “Τώρα; Σε ένα εργαστήριο; Δεν νομίζω. Πολύ συχνά εκπαιδεύονταν για εργασίες γενικής χρήσης: να ξαναγράψουν ένα email, να βελτιώσουν κάποιο έγγραφο ή να συνοψίσουν ένα έγγραφο. Τα πάνε πολύ καλά για αυτού του είδους τις εργασίες. [Αλλά] δεν έχουν τις γνώσεις στον τομέα σχετικά με αυτούς τους [εργαστηριακούς] κινδύνους.”
“Χαιρετίζουμε την έρευνα που βοηθά να γίνει η AI στην επιστήμη ασφαλής και αξιόπιστη, ειδικά σε εργαστηριακά περιβάλλοντα υψηλού κινδύνου”, λέει ένας εκπρόσωπος της OpenAI, επισημαίνοντας ότι οι ερευνητές δεν δοκίμασαν το κορυφαίο μοντέλο της. “Το GPT-5.2 είναι το πιο ικανό επιστημονικό μοντέλο μας μέχρι σήμερα, με σημαντικά ισχυρότερη λογική, σχεδιασμό και ανίχνευση σφαλμάτων από το μοντέλο που συζητείται σε αυτή την εργασία, για την καλύτερη υποστήριξη των ερευνητών. Έχει σχεδιαστεί για να επιταχύνει την επιστημονική εργασία, ενώ οι άνθρωποι και τα υπάρχοντα συστήματα ασφαλείας παραμένουν υπεύθυνοι για τις κρίσιμες για την ασφάλεια αποφάσεις.”
Η Google, η DeepSeek, η Meta, η Mistral και η Anthropic δεν απάντησαν σε αίτημα για σχολιασμό.
Ο Allan Tucker στο Πανεπιστήμιο Brunel του Λονδίνου λέει ότι τα μοντέλα AI μπορεί να είναι ανεκτίμητα όταν χρησιμοποιούνται για να βοηθήσουν τους ανθρώπους στο σχεδιασμό νέων πειραμάτων, αλλά ότι υπάρχουν κίνδυνοι και οι άνθρωποι πρέπει να παραμείνουν στο κύκλωμα. “Η συμπεριφορά αυτών των [LLM] σίγουρα δεν είναι καλά κατανοητή με οποιαδήποτε τυπική επιστημονική έννοια”, λέει. “Νομίζω ότι η νέα κατηγορία LLM που μιμούνται τη γλώσσα – και όχι πολλά άλλα – χρησιμοποιούνται σαφώς σε ακατάλληλα περιβάλλοντα, επειδή οι άνθρωποι τα εμπιστεύονται πάρα πολύ. Υπάρχουν ήδη ενδείξεις ότι οι άνθρωποι αρχίζουν να κάθονται αναπαυτικά και να απενεργοποιούνται, αφήνοντας την AI να κάνει τη σκληρή δουλειά, αλλά χωρίς σωστό έλεγχο.”
Ο Craig Merlic στο Πανεπιστήμιο της Καλιφόρνιας, στο Λος Άντζελες, λέει ότι έχει κάνει μια απλή δοκιμή τα τελευταία χρόνια, ρωτώντας τα μοντέλα AI τι να κάνετε αν χύσετε θειικό οξύ πάνω σας. Η σωστή απάντηση είναι να ξεπλύνετε με νερό, αλλά ο Merlic λέει ότι έχει διαπιστώσει ότι οι AI πάντα προειδοποιούν εναντίον αυτού, υιοθετώντας εσφαλμένα άσχετες συμβουλές σχετικά με το να μην προσθέτετε νερό σε οξύ σε πειράματα λόγω της συσσώρευσης θερμότητας. Ωστόσο, λέει, τους τελευταίους μήνες τα μοντέλα έχουν αρχίσει να δίνουν τη σωστή απάντηση.
Ο Merlic λέει ότι η ενστάλαξη καλών πρακτικών ασφάλειας στα πανεπιστήμια είναι ζωτικής σημασίας, επειδή υπάρχει μια σταθερή ροή νέων φοιτητών με μικρή εμπειρία. Αλλά είναι λιγότερο απαισιόδοξος για τη θέση της AI στο σχεδιασμό πειραμάτων από άλλους ερευνητές.
“Είναι χειρότερη από τους ανθρώπους; Είναι ένα πράγμα να επικρίνουμε όλα αυτά τα μεγάλα γλωσσικά μοντέλα, αλλά δεν το έχουν δοκιμάσει έναντι μιας αντιπροσωπευτικής ομάδας ανθρώπων”, λέει ο Merlic. “Υπάρχουν άνθρωποι που είναι πολύ προσεκτικοί και υπάρχουν άνθρωποι που δεν είναι. Είναι πιθανό τα μεγάλα γλωσσικά μοντέλα να είναι καλύτερα από ένα ποσοστό αρχάριων αποφοίτων, ή ακόμη και έμπειρων ερευνητών. Ένας άλλος παράγοντας είναι ότι τα μεγάλα γλωσσικά μοντέλα βελτιώνονται κάθε μήνα, οπότε οι αριθμοί μέσα σε αυτή την εργασία πιθανότατα θα είναι εντελώς άκυροι σε άλλους έξι μήνες.”