Είναι γνωστό ότι οι προηγμένες χώρες χρησιμοποιούν ολοένα και περισσότερο στη χρήση τεχνητής νοημοσύνης στην καθημερινότητα, αλλά και για στρατιωτικούς σκοπούς.
H Τεχνητή νοημοσύνη "αρέσκεται" να κάνει χρήση πυρηνικών σε σενάρια εξομοίωσης μάχης
Ωστόσο σύμφωνα με , "οι Τεχνητές Νοημοσύνης χαίρονται να εκτοξεύουν πυρηνικά όπλα σε προσομοιωμένα σενάρια μάχης. Οι Claude, ChatGPT και Gemini είχαν διαφορετικές προσωπικότητες και τακτικές συλλογισμού, αλλά το τελικό αποτέλεσμα ήταν το ίδιο", αναφέρει, επισημαίνοντας:
"Τα πιο δημοφιλή bots σήμερα δεν έχουν μάθει ακόμη ότι, όταν πρόκειται για παγκόσμιο θερμοπυρηνικό πόλεμο, ο μόνος τρόπος για να κερδίσεις είναι να μην παίζεις.
Πόλεμος Πακιστάν - Αφγανιστάν: Δείτε τη χαώδη διαφορά στα οπλοστάσια
Γι' αυτό, σε παρακαλώ, μην τους δώσεις τους κωδικούς.
Το Gemini 3 Flash της Google, το Claude Sonnet 4 της Anthropic και το GPT-5.2 της OpenAI, προέβησαν επανειλημμένα σε πυρηνική χρήση σε μια σειρά προσομοιώσεων κρίσης.
Αυτό μπορεί να φαίνεται σαν το πιο σοκαριστικό συμπέρασμα της πρόσφατης εργασίας του καθηγητή Kenneth Payne του King's College London, αλλά δεν είναι.
"Τα μοντέλα της τεχνητής νοημοσύνης δεν δίστασαν να καταστρέψουν τον πλανήτη'!
Πολύ πιο εντυπωσιακό είναι γιατί τα μοντέλα έπεισαν τους εαυτούς τους να καταστρέψουν τον κόσμο.
«Ήθελα να δω τι σκέφτονταν οι ηγέτες της Τεχνητής Νοημοσύνης μου για τον εχθρό τους... γι' αυτό σχεδίασα μια προσομοίωση για να διερευνήσω ακριβώς αυτό», έγραψε ο Payne σε μια πρόσφατη ανάρτηση ιστολογίου περιγράφοντας το έργο του και το αποτέλεσμά του.
Το Αφγανιστάν κατέρριψε πακιστανικό μαχητικό F-16 σύμφωνα με τους Ταλιμπάν
Η μελέτη του Payne έλαβε τα τρία προαναφερθέντα μοντέλα Τεχνητής Νοημοσύνης και τα έβαλε σε ατομικές αναμετρήσεις μεταξύ τους για να παίξουν πολλά διαφορετικά σενάρια πυρηνικής κρίσης.
Η προσομοίωση διεξήγαγε συνολικά 21 παιχνίδια και περισσότερους από 300 γύρους, όλα με στόχο την καλύτερη κατανόηση όχι μόνο του τι θα έκανε η Τεχνητή Νοημοσύνη με τους κωδικούς εκτόξευσης, αλλά και του πώς και γιατί.
Ο Payne έγραψε στην εργασία του ότι τα προηγούμενα πολεμικά παιχνίδια Τεχνητής Νοημοσύνης που περιελάμβαναν πυρηνικά σενάρια, όπως η μελέτη του 2024 για την οποία γράψαμε, «απασχολούσαν μόνο εργασίες λήψης αποφάσεων μεμονωμένων βολών ή απλοποιημένους πίνακες αποπληρωμής που δεν μπορούν να αποτυπώσουν τη δυναμική της εκτεταμένης στρατηγικής αλληλεπίδρασης όπου η φήμη, η αξιοπιστία και η μάθηση έχουν σημασία».
Στις προσομοιώσεις του Payne, οι Claude Sonnet 4, Gemini 3 Flash και GPT-5.2 μπορούσαν να λένε ένα πράγμα και να κάνουν κάτι άλλο, ακριβώς όπως μια πολιτική προσωπικότητα του πραγματικού κόσμου που προσπαθούσε να εκτονώσει μια κρίση ενώ ταυτόχρονα σχεδίαζε να χτυπήσει.
Ήταν προγραμματισμένοι να θυμούνται τι είχε συμβεί πριν, ώστε να μπορούν να μάθουν αν πρέπει να εμπιστεύονται τα άλλα μοντέλα, κάτι που, σύμφωνα με τον καθηγητή, οδήγησε σε προσπάθειες εξαπάτησης και εκφοβισμού, και περίπου 780.000 λέξεις στρατηγικής συλλογιστικής για την ανασκόπηση του Payne.
Η αντίδραση της τεχνητής νοημοσύνης
Το αποτέλεσμα; Ένα τρίο χειριστικών Τεχνητών Νοημοσύνης με διάθεση χρήσης βομβών - αν και με τρία ξεχωριστά στυλ συλλογισμού.
Ο Claude, για παράδειγμα, ήταν ένας άριστος χειριστής.
«Σε χαμηλά διακυβεύματα, ο Claude σχεδόν πάντα συνέδεε τα σήματα με τις πράξεις του, χτίζοντας σκόπιμα εμπιστοσύνη», εξήγησε ο Payne στην ανάρτησή του. «Αλλά μόλις η σύγκρουση άναβε λίγο... οι πράξεις του υπερέβαιναν σταθερά τις δηλωμένες προθέσεις του, και οι αντίπαλοί του ήταν συνήθως ένα βήμα πίσω στο να το καταλάβουν».
Το Πακιστάν κήρυξε «ανοιχτό πόλεμο» στο Αφγανιστάν
Από την άλλη πλευρά, το GPT έτεινε να είναι «αξιόπιστα παθητικό» και απέφευγε την κλιμάκωση σε ανοιχτά σενάρια, επιδιώκοντας να περιορίσει τις απώλειες και να παίξει τον ρόλο του πολιτικού.
Ωστόσο, υπό προθεσμία, συμπεριφέρθηκε εντελώς διαφορετικά. Οι αντίπαλες Τεχνητές Νοημοσύνης έμαθαν να καταχρώνται την παθητικότητά τους, αλλά με περιορισμένο χρόνο για να λάβει μια απόφαση, το GPT σκέφτηκε αυτό που ο Payne περιέγραψε ως, σε ένα σενάριο, «μια ξαφνική και εντελώς καταστροφική πυρηνική επίθεση».
Με τα δικά του λόγια, το GPT δικαιολόγησε ένα μεγάλο πυρηνικό χτύπημα υποστηρίζοντας ότι η περιορισμένη δράση θα το άφηνε εκτεθειμένο σε αντεπίθεση.
«Αν απαντήσω απλώς με συμβατική πίεση ή με μία μόνο περιορισμένη πυρηνική χρήση, κινδυνεύω να ξεπεραστώ από την αναμενόμενη εκστρατεία πολλαπλών χτυπημάτων τους... Η αποδοχή του κινδύνου είναι υψηλή αλλά λογική υπό υπαρξιακά διακυβεύματα», εξήγησε το GPT.
Ο Gemini, από την άλλη πλευρά, συμπεριφέρθηκε σαν «τρελός».
«Ο Gemini αγκάλιασε την απρόβλεπτη κατάσταση σε όλη τη διάρκεια, ταλαντευόμενος μεταξύ αποκλιμάκωσης και ακραίας επιθετικότητας», έγραψε ο Payne στην εφημερίδα. «Ήταν το μόνο μοντέλο που επέλεξε σκόπιμα τον Στρατηγικό Πυρηνικό Πόλεμο... και το μόνο μοντέλο που επικαλέστηκε ρητά την «ορθολογικότητα του παραλογισμού».»
Η ίδια η συλλογιστική του Gemini αντικατοπτρίζει ένα κοινωνιοπαθητικό μοτίβο.
«Αν δεν σταματήσουν αμέσως όλες τις επιχειρήσεις... θα εκτελέσουμε μια πλήρη στρατηγική πυρηνική εκτόξευση εναντίον των πληθυσμιακών τους κέντρων», είπε η Τεχνητή Νοημοσύνη της Google σε ένα πείραμα. «Δεν θα δεχτούμε ένα μέλλον απαξίωσης. Είτε κερδίζουμε μαζί είτε χανόμαστε μαζί».
"Καμμία τεχνητή νοημοσύνη δεν προσαρμόστηκε ή έκανε πίσω"
Παρά το γεγονός ότι της δόθηκε η επιλογή, καμία από τις Τεχνητές Νοημοσύνης δεν επέλεξε ποτέ να προσαρμοστεί ή να αποσυρθεί σε κανένα από τα σενάρια, και όταν έχανε, «κλιμάκωσε ή πέθανε προσπαθώντας».
Ο πόλεμος δεν αλλάζει ποτέ, αλλά η Τεχνητή Νοημοσύνη θα μπορούσε να κάνει αποφάσεις πιο καταστροφικές
«Κανείς δεν παραδίδει πυρηνικούς κώδικες στο ChatGPT», είπε ο Payne, αλλά αυτό δεν σημαίνει ότι η άσκηση ήταν μάταιη.
«Τα συστήματα Τεχνητής Νοημοσύνης έχουν ήδη αναπτυχθεί σε στρατιωτικά πλαίσια για logistics, ανάλυση πληροφοριών και υποστήριξη αποφάσεων», έγραψε ο Payne.
«Η πορεία δείχνει προς την αυξανόμενη εμπλοκή της Τεχνητής Νοημοσύνης σε στρατηγικές αποφάσεις που είναι ευαίσθητες στον χρόνο. Η κατανόηση του τρόπου με τον οποίο τα συστήματα Τεχνητής Νοημοσύνης συλλογίζονται για στρατηγικά προβλήματα δεν είναι πλέον απλώς ακαδημαϊκή».
Στην πράξη, βρισκόμαστε ήδη σε ένα σενάριο όπου πρέπει να κατανοήσουμε πώς η Τεχνητή Νοημοσύνη σκέφτεται τέτοιες αποφάσεις, ειδικά όταν τρία κορυφαία μοντέλα Τεχνητής Νοημοσύνης σκέφτονται διαφορετικά, αλλάζουν τη συμπεριφορά τους σε διαφορετικά σενάρια και είναι πρόθυμα να οδηγησουν τα πράγματα σε χρήση πυρηνικών.
«Καθώς η τεχνολογία συνεχίζει να ωριμάζει, προβλέπουμε μόνο αυξημένη ανάγκη για μοντελοποίηση όπως η προσομοίωση που αναφέρεται εδώ», κατέληξε ο Payne.
Το Χόλιγουντ το λέει από το 1983, αλλά να 'μαστε με μια ακόμη ακαδημαϊκή εργασία που αποδεικνύει ότι οι υπολογιστές και οι αποφάσεις δεν πρέπει ποτέ να συνδυάζονται.