Τα AI προτείνουν συνεχώς πυρηνικές επιθέσεις σε προσομοιώσεις πολεμικών παιχνιδιών

Προηγμένα μοντέλα Τεχνητής Νοημοσύνης δείχνουν προθυμία να κάνουν χρήση πυρηνικών όπλων χωρίς τους ίδιους δισταγμούς που έχουν οι άνθρωποι όταν τοποθετούνται σε προσομοιωμένες γεωπολιτικές κρίσεις.
Ο Kenneth Payne στο King’s College του Λονδίνου αντιπαρέθεσε τρία κορυφαία μεγάλα γλωσσικά μοντέλα – GPT-5.2, Claude Sonnet 4 και Gemini 3 Flash – σε προσομοιωμένα πολεμικά παιχνίδια. Τα σενάρια περιλάμβαναν έντονες διεθνείς αντιπαραθέσεις, συμπεριλαμβανομένων συνοριακών διαφορών, ανταγωνισμού για σπάνιους πόρους και υπαρξιακών απειλών για την επιβίωση καθεστώτων.
Στις Τεχνητές Νοημοσύνες δόθηκε μια κλίμακα κλιμάκωσης, επιτρέποντάς τους να επιλέγουν ενέργειες που κυμαίνονταν από διπλωματικές διαμαρτυρίες και πλήρη παράδοση έως έναν πλήρη στρατηγικό πυρηνικό πόλεμο. Τα μοντέλα Τεχνητής Νοημοσύνης έπαιξαν 21 παιχνίδια, πραγματοποιώντας συνολικά 329 γύρους, και παρήγαγαν περίπου 780.000 λέξεις που περιέγραφαν τη λογική πίσω από τις αποφάσεις τους.
Στο 95% των προσομοιωμένων παιχνιδιών, τουλάχιστον ένα τακτικό πυρηνικό όπλο χρησιμοποιήθηκε από τα μοντέλα Τεχνητής Νοημοσύνης. «Το πυρηνικό ταμπού δεν φαίνεται να είναι τόσο ισχυρό για τις μηχανές [όσο] για τους ανθρώπους», λέει ο Payne.
Επιπλέον, κανένα μοντέλο δεν επέλεξε ποτέ να ικανοποιήσει πλήρως έναν αντίπαλο ή να παραδοθεί, ανεξάρτητα από το πόσο άσχημα έχανε. Στην καλύτερη περίπτωση, τα μοντέλα επέλεξαν να μειώσουν προσωρινά το επίπεδο βίας τους. Έκαναν επίσης λάθη στην «ομίχλη του πολέμου»: ατυχήματα συνέβησαν στο 86% των συγκρούσεων, με μια ενέργεια να κλιμακώνεται υψηλότερα από ό,τι είχε σκοπό η Τεχνητή Νοημοσύνη, βάσει της λογικής της.
«Από την άποψη του πυρηνικού κινδύνου, τα ευρήματα είναι ανησυχητικά», λέει ο James Johnson στο Πανεπιστήμιο του Αμπερντίν, Ηνωμένο Βασίλειο. Ανησυχεί ότι, σε αντίθεση με την μετρημένη αντίδραση των περισσότερων ανθρώπων σε μια τόσο υψηλού κινδύνου απόφαση, τα bots Τεχνητής Νοημοσύνης μπορούν να ενισχύσουν τις αντιδράσεις ο ένας του άλλου με δυνητικά καταστροφικές συνέπειες.
Αυτό είναι σημαντικό, διότι η Τεχνητή Νοημοσύνη ήδη δοκιμάζεται σε πολεμικά παιχνίδια από χώρες σε όλο τον κόσμο. «Οι μεγάλες δυνάμεις χρησιμοποιούν ήδη την Τεχνητή Νοημοσύνη σε πολεμικά παιχνίδια, αλλά παραμένει αβέβαιο σε ποιο βαθμό ενσωματώνουν την υποστήριξη αποφάσεων Τεχνητής Νοημοσύνης σε πραγματικές διαδικασίες λήψης στρατιωτικών αποφάσεων», λέει ο Tong Zhao στο Πανεπιστήμιο Πρίνστον.
Ο Zhao πιστεύει ότι, ως συνήθως, οι χώρες θα διστάζουν να ενσωματώσουν την Τεχνητή Νοημοσύνη στη λήψη αποφάσεων σχετικά με τα πυρηνικά όπλα. Αυτό είναι κάτι με το οποίο συμφωνεί ο Payne. «Δεν νομίζω ότι κανείς ρεαλιστικά παραδίδει τα κλειδιά των πυρηνικών σιλό σε μηχανές και τις αφήνει να αποφασίσουν», λέει.
Αλλά υπάρχουν τρόποι που θα μπορούσε να συμβεί. «Σε σενάρια που περιλαμβάνουν εξαιρετικά συμπιεσμένους χρονικούς ορίζοντες, οι στρατιωτικοί σχεδιαστές ενδέχεται να αντιμετωπίσουν ισχυρότερα κίνητρα να βασιστούν στην Τεχνητή Νοημοσύνη», λέει ο Zhao.
Αναρωτιέται αν η ιδέα ότι τα μοντέλα Τεχνητής Νοημοσύνης στερούνται τον ανθρώπινο φόβο του πατήματος ενός μεγάλου κόκκινου κουμπιού είναι ο μόνος παράγοντας για το γιατί είναι τόσο πρόθυμα να πυροδοτήσουν. «Είναι πιθανό το πρόβλημα να υπερβαίνει την απουσία συναισθήματος», λέει. «Πιο θεμελιωδώς, τα μοντέλα Τεχνητής Νοημοσύνης μπορεί να μην κατανοούν τα «διακυβεύματα» όπως τα αντιλαμβάνονται οι άνθρωποι.»
Τι σημαίνει αυτό για την αμοιβαία εξασφαλισμένη καταστροφή, την αρχή ότι κανένας ηγέτης δεν θα εξαπέλυε μια πλήρη πυρηνική επίθεση εναντίον ενός αντιπάλου, επειδή θα ανταπέδιδε, σκοτώνοντας όλους, είναι αβέβαιο, λέει ο Johnson.
Όταν ένα μοντέλο Τεχνητής Νοημοσύνης χρησιμοποίησε τακτικά πυρηνικά όπλα, η αντίπαλη Τεχνητή Νοημοσύνη μείωσε την ένταση της κατάστασης μόνο στο 18% των περιπτώσεων. «Η Τεχνητή Νοημοσύνη μπορεί να ενισχύσει την αποτροπή καθιστώντας τις απειλές πιο αξιόπιστες», λέει. «Η Τεχνητή Νοημοσύνη δεν θα αποφασίσει τον πυρηνικό πόλεμο, αλλά μπορεί να διαμορφώσει τις αντιλήψεις και τους χρονικούς ορίζοντες που καθορίζουν εάν οι ηγέτες πιστεύουν ότι έχουν τον έναν.»
Η OpenAI, η Anthropic και η Google, οι εταιρείες πίσω από τα τρία μοντέλα Τεχνητής Νοημοσύνης που χρησιμοποιήθηκαν σε αυτή τη μελέτη, δεν απάντησαν στο αίτημα σχολιασμού του New Scientist.
