«AI πάτα το κουμπί» – Όταν παντρεύονται πυρηνικά όπλα και τεχνητή νοημοσύνη τα πράγματα γίνονται επικίνδυνα

Δημοσιεύτηκε στις 22/11/2025 14:59

«AI πάτα το κουμπί» – Όταν παντρεύονται πυρηνικά όπλα και τεχνητή νοημοσύνη τα πράγματα γίνονται επικίνδυνα

Ένας διηπειρωτικός βαλλιστικός πύραυλος (ICBM) με πυρηνική κεφαλή που εκτοξεύεται από τη Ρωσία θα φτάσει στις Ηνωμένες Πολιτείες σε περίπου μισή ώρα.

Ένας πύραυλος που εκτοξεύεται από υποβρύχιο θα φτάσει ακόμα πιο γρήγορα.

Μόλις οι αισθητήρες των ΗΠΑ ανιχνεύσουν και επιβεβαιώσουν μια επερχόμενη επίθεση, ο πρόεδρος ενημερώνεται αμέσως – και τότε αρχίζει η πραγματική πίεση.

Στο χειρότερο σενάριο, ο αρχηγός των ενόπλων δυνάμεων μπορεί να έχει μόλις δύο έως τρία λεπτά για να αποφασίσει αν θα ανταποδώσει με εκατοντάδες αμερικανικά πυρηνικά όπλα ή αν θα διακινδυνεύσει να χάσει εντελώς αυτή την ικανότητα.

Αυτό το απίστευτα σύντομο χρονικό περιθώριο για τη λήψη αποφάσεων υπογραμμίζει μεγάλο μέρος της ανησυχίας που περιβάλλει την πυρηνική διοίκηση.

Ενώ οι ακαδημαϊκοί έχουν περάσει δεκαετίες αναλύοντας την πυρηνική στρατηγική, μια πραγματική πυρηνική ανταλλαγή θα έθετε την πιο σημαντική απόφαση στην ιστορία της ανθρωπότητας στα χέρια ενός ηγέτη που δεν θα είχε σχεδόν καθόλου χρόνο να σκεφτεί, να συμβουλευτεί ή να επαληθεύσει τα δεδομένα.

Σε αυτό το πλαίσιο, το αυξανόμενο ενδιαφέρον για την ενσωμάτωση της τεχνητής νοημοσύνης (AI) στα πυρηνικά συστήματα είναι τόσο κατανοητό όσο και βαθιά ανησυχητικό, σύμφωνα με το Vox.

Copyright Canva

Γιατί ο στρατός θέλει την AI στα πυρηνικά συστήματα διοίκησης

Τα τελευταία χρόνια, οι ηγέτες του αμερικανικού στρατού έχουν πιέσει για μεγαλύτερη χρήση της AI στην πυρηνική διοίκηση, τον έλεγχο και τις επικοινωνίες (NC3).

Τα σύγχρονα συστήματα AI μπορούν να επεξεργάζονται τεράστιες ποσότητες δεδομένων, να ανιχνεύουν λεπτές μορφές σε δορυφορικές εικόνες και να αναλύουν τις τροχιές των πυραύλων πολύ πιο γρήγορα από τους ανθρώπους.

Το σύστημα πυρηνικής διοίκησης, το οποίο επί μακρόν ήταν σκόπιμα «χαμηλής τεχνολογίας» για να αποφευχθούν οι ευπάθειες στον κυβερνοχώρο, υποβάλλεται τώρα σε ένα πρόγραμμα εκσυγχρονισμού αξίας τρισεκατομμυρίων δολαρίων.

Οι ηγέτες της Στρατηγικής Διοίκησης των ΗΠΑ (STRATCOM) έχουν δηλώσει ρητά ότι η τεχνητή νοημοσύνη θα είναι κεντρική στις μελλοντικές προσπάθειες εκσυγχρονισμού.

Αυτό που έχουν δηλώσει εξίσου ρητά είναι το εξής: σε κανέναν υπολογιστή δεν θα δοθεί ποτέ η τελική εξουσία να εκτοξεύσει πυρηνικό όπλο.

Οι φόβοι του Χόλιγουντ έναντι των πραγματικών κινδύνων

Η λαϊκή κουλτούρα έχει προσφέρει άφθονες ιστορίες σχετικά με τους κινδύνους τόσο της τεχνητής νοημοσύνη, όσο και των πυρηνικών.

Οι ηγέτες των ΗΠΑ και της Κίνας έχουν ακόμη εκδώσει κοινές δηλώσεις επιβεβαιώνοντας ότι οι άνθρωποι πρέπει να διατηρήσουν τον έλεγχο των αποφάσεων για την εκτόξευση πυρηνικών όπλων.

Και οι στρατιωτικοί ηγέτες συχνά επικαλούνται αυτούς τους πολιτισμικούς φόβους για να καθησυχάσουν το κοινό.

Ωστόσο, οι ειδικοί προειδοποιούν ότι ο πραγματικός κίνδυνος δεν είναι μια αυτόνομη τεχνητή νοημοσύνη που αποφασίζει να ξεκινήσει τον Τρίτο Παγκόσμιο Πόλεμο.

Ο κίνδυνος είναι οι άνθρωποι να βασίζονται υπερβολικά στην τεχνητή νοημοσύνη, ειδικά σε καταστάσεις κρίσης όπου κάθε δευτερόλεπτο μετράει.

YouTube thumbnail

Όπως το θέτει ο στρατηγικός αναλυτής Peter W. Singer:

«Η τεχνητή νοημοσύνη δεν πρόκειται να σας σκοτώσει με πυρηνικά όπλα στο άμεσο μέλλον. Αλλά μπορεί να αυξήσει την πιθανότητα να το κάνουν οι άνθρωποι».

Οι κρυμμένοι κίνδυνοι του «Human in the Loop»

Οι στρατιωτικοί αξιωματούχοι συχνά επιμένουν να διατηρούν ένα «Human in the Loop» (Άνθρωπος στο παιχνίδι), που σημαίνει ότι ένας άνθρωπος πρέπει να εγκρίνει κάθε πυρηνική επίθεση.

Ωστόσο, πολλοί ειδικοί υποστηρίζουν ότι αυτή η φράση είναι παραπλανητικά καθησυχαστική.

Μόλις η τεχνητή νοημοσύνη ενσωματωθεί σε συστήματα που συλλέγουν δεδομένα, εντοπίζουν απειλές και προτείνουν απαντήσεις, η ανθρώπινη λήψη αποφάσεων μπορεί να μην είναι τίποτα πέρα από απλή επιβεβαίωση όσων παραθέτει η AI.

Η προκατάληψη της αυτοματοποίησης —η καλά τεκμηριωμένη ανθρώπινη τάση να εμπιστεύεται τα συμπεράσματα που παράγονται από υπολογιστές, ακόμη και όταν είναι λανθασμένα— θα μπορούσε να αποβεί θανατηφόρα σε πυρηνικό πλαίσιο.

Μάλιστα, η ιστορία έχει ήδη δείξει πώς η ελαττωματική τεχνολογία, και όχι οι επιθετικοί ηγέτες, μας έφερε πιο κοντά στην πυρηνική καταστροφή:

  • 1979: Ένα ελαττωματικό τσιπ υπολογιστή προκάλεσε ψευδή συναγερμό για 220 εισερχόμενα πυραύλους και σχεδόν προκάλεσε μια αντίποινα από τις ΗΠΑ.
  • 1983: Ο Σοβιετικός αξιωματικός Στανισλάβ Πέτροφ έκρινε σωστά ότι η φαινομενική εκτόξευση των ΗΠΑ ήταν ψευδής συναγερμός που προκλήθηκε από την αντανάκλαση του ηλιακού φωτός στα σύννεφα.
  • Able Archer 83: Μια άσκηση του ΝΑΤΟ παρερμηνεύτηκε από τους Σοβιετικούς υπολογιστές και αναλυτές ως πιθανή προετοιμασία για πραγματική επίθεση, φέρνοντας τον κόσμο κοντά στον πόλεμο.

Τα σύγχρονα μοντέλα τεχνητής νοημοσύνης, αν και πιο εξελιγμένα, απέχουν πολύ από το να είναι αλάνθαστα.

Μπορούν να χειραγωγηθούν, να εξαπατηθούν ή να αλλοιωθούν.

Μπορούν να έχουν παραισθήσεις, να ταξινομήσουν λανθασμένα δεδομένα ή να ενεργήσουν με τρόπους που οι δημιουργοί τους δεν προβλέπουν.

Πίεση, ταχύτητα και ο πειρασμός της αυτοματοποίησης

Ο βασικός παράγοντας πίσω από την ενσωμάτωση της τεχνητής νοημοσύνης είναι η ταχύτητα.

Ο πυρηνικός πόλεμος συμπιέζει τη λήψη αποφάσεων σε δευτερόλεπτα.

Όταν σε έναν αρχηγό κράτους παρουσιάζεται μια σειρά από επιλογές επίθεσης η τεχνητή νοημοσύνη θα μπορούσε θεωρητικά να βοηθήσει στον προσδιορισμό του προ-εγκριμένου σχεδίου που ισχύει για το σενάριο.

Ορισμένοι υποστηρίζουν ότι αν η τεχνητή νοημοσύνη μπορεί να λάβει αυτές τις αποφάσεις ακόμη και 1% καλύτερα υπό ακραίες συνθήκες πίεσης, αυτό είναι προτιμότερο από την ανθρώπινη κρίση μόνη της.

Θεωρούν την αυτοματοποίηση ως έναν τρόπο ενίσχυσης της πρόληψηυς, αποτρέποντας την αμφιταλάντευση ή τη σύγχυση.

Άλλοι όμως προειδοποιούν ότι αυτή η λογική δημιουργεί μια επικίνδυνη κατάσταση.

Η τεχνητή νοημοσύνη μπορεί να αρχίσει βοηθώντας στη συντήρηση, στη συνέχεια στην αξιολόγηση πληροφοριών, μετά στην ταξινόμηση απειλών, στη συνέχεια σε συστάσεις στόχευσης… μέχρι που ο «άνθρωπος στο παιχνίδι» θα είναι απλά χειριστής που πατάει «αποδοχή». »

Ο συνταξιούχος υποστράτηγος Jack Shanahan προειδοποιεί ότι η σταδιακή συσσώρευση εργαλείων τεχνητής νοημοσύνης μπορεί να μεταμορφώσει το σύστημα με τρόπους που κανένας μηχανικός ή διοικητής δεν προτίθεται πλήρως:

«Μεμονωμένα, όλα είναι εντάξει. Αλλά όταν τα βάζεις όλα μαζί, είναι ένα διαφορετικό ζήτημα».

Ο παγκόσμιος ανταγωνισμός αυξάνει την πίεση

Οι ΗΠΑ δεν είναι η μόνη πυρηνική δύναμη που αγωνίζεται να ενσωματώσει την τεχνητή νοημοσύνη.

Η Κίνα έχει επιδιώξει επιθετικά στρατιωτικά συστήματα που βασίζονται στην τεχνητή νοημοσύνη.

Αυτή η δυναμική τροφοδοτεί έναν ψυχροπολεμικού τύπου αγώνα εξοπλισμών: αν η μία πλευρά πιστεύει ότι η τεχνητή νοημοσύνη προσφέρει στρατηγικό πλεονέκτημα, οι άλλες μπορεί να αισθάνονται υποχρεωμένες να υιοθετήσουν παρόμοια συστήματα για να μην μείνουν πίσω.

Η ιστορία δείχνει ότι η λογική του αγώνα εξοπλισμών είναι ισχυρή και δύσκολο να ξεφύγει κανείς από αυτήν.

Η ανθρώπινη κρίση εξακολουθεί να έχει τη μεγαλύτερη σημασία

Παρά όλες τις υποσχέσεις της τεχνητής νοημοσύνης —ταχύτητα, επεξεργασία δεδομένων, συνέπεια— οι πιο σοβαρές αποφάσεις στην ιστορία της ανθρωπότητας μπορεί να εξακολουθούν να απαιτούν πραγματικά ανθρώπινες ιδιότητες: λογική, ενσυναίσθηση και, πάνω απ’ όλα, φόβο.

Ο φόβος της κλιμάκωσης, ο φόβος της αντίποινας, ο φόβος της καταστροφής έχουν διατηρήσει την πυρηνική ειρήνη για 80 χρόνια.

Μια μηχανή δεν φοβάται.

Καθώς τα συστήματα τεχνητής νοημοσύνης γίνονται όλο και πιο εξελιγμένα και ενσωματώνονται όλο και πιο βαθιά στη στρατιωτική υποδομή, η διατήρηση ενός ουσιαστικού ανθρώπινου ελέγχου — ενός ελέγχου που βασίζεται στην κατανόηση, την κρίση και την ηθική ευθύνη — μπορεί να αποδειχθεί μία από τις καθοριστικές προκλήσεις της πυρηνικής εποχής.

© Πηγή: In.gr


Περισσότερα Video

Ακολουθήστε το Politica στο Google News και στο Facebook