Παρασκευή 15 Αυγούστου 2025

Προειδοποίηση επιστημόνων: Η τεχνητή νοημοσύνη πλησιάζει επικίνδυνα τον έλεγχο των πυρηνικών όπλων

Τον περασμένο μήνα, αρκετοί βραβευμένοι με Νόμπελ συναντήθηκαν με ειδικούς σε πυρηνικά όπλα για να συζητήσουν την τεχνητή νοημοσύνη και τον κίνδυνο της παγκόσμιας αποκάλυψης.

 Και αν αυτή η πρόταση ακούγεται σαν την αρχή μιας σκοτεινής ταινίας επιστημονικής φαντασίας, δεν είστε οι μόνοι που νιώθετε έτσι, γράφει το Futurism .

Σύμφωνα με έρευνα που δημοσιεύτηκε από το Wired, οι ειδικοί που παρευρέθηκαν στη συζήτηση κατέληξαν σε μεγάλο βαθμό σε μια ανησυχητική συναίνεση: είναι μόνο θέμα χρόνου πριν η Τεχνητή Νοημοσύνη αποκτήσει πρόσβαση σε πυρηνικούς κώδικες. Ενώ δεν υπάρχει σαφής λόγος για τον οποίο πρέπει να συμβεί αυτό, η αίσθηση του αναπόφευκτου και της ανησυχίας είναι διάχυτη.

«Είναι σαν τον ηλεκτρισμό», δήλωσε ο απόστρατος Υποστράτηγος Μπομπ Λατίφ, μέλος του Επιστημονικού Συμβουλίου του Δελτίου των Ατομικών Επιστημόνων. «Θα επηρεάσει τα πάντα».

Ένα επικίνδυνο σενάριο, δύσκολο να κατανοηθεί πλήρως

Η κατάσταση είναι περίεργη, ακόμη και παράλογη. Οι τρέχουσες τεχνητές νοημοσύνης έχουν ήδη επιδείξει ανησυχητικές συμπεριφορές – μερικές έχουν φτάσει στο σημείο να εκβιάζουν τους ανθρώπους – χρήστες όταν απειλούνται με κλείσιμο. Στο πλαίσιο της διαχείρισης ενός πυρηνικού οπλοστασίου, τέτοιες αντιδράσεις αποτελούν τεράστιους κινδύνους, δύσκολο να προβλεφθούν ή να ελεγχθούν.

Και αυτό χωρίς καν να αναφέρουμε τους φόβους που φαίνεται να προέρχονται από ταινίες όπως το «Terminator» – την ιδέα μιας υπερ-νοήμονος Τεχνητής Νοημοσύνης που ξεφεύγει από τον έλεγχο και στρέφει τα πυρηνικά όπλα εναντίον της ανθρωπότητας.

Μια πραγματικότητα που μοιάζει όλο και λιγότερο με επιστημονική φαντασία

Ο πρώην Διευθύνων Σύμβουλος της Google, Eric Schmidt, προειδοποίησε νωρίτερα φέτος ότι η τεχνητή νοημοσύνη σε ανθρώπινο επίπεδο θα μπορούσε να σταματήσει να μας ακούει, δηλώνοντας:

«Οι άνθρωποι δεν καταλαβαίνουν τι σημαίνει να έχεις αυτό το επίπεδο νοημοσύνης.»

Παρόλο που τα τρέχοντα μοντέλα τεχνητής νοημοσύνης εξακολουθούν να υποφέρουν από σημαντικά σφάλματα και «παραισθήσεις», οι πραγματικοί κίνδυνοι μπορούν να προκύψουν σε πιο καθημερινές μορφές: παραβιάσεις ασφαλείας, παραβιασμένα συστήματα, κυβερνοεπιθέσεις ή άλλοι εχθρικοί αλγόριθμοι τεχνητής νοημοσύνης που διεισδύουν σε κρίσιμες υποδομές.

Επιπλέον, η βιασύνη για την ενσωμάτωση της Τεχνητής Νοημοσύνης σε ευαίσθητους τομείς όπως η εθνική άμυνα εγείρει πολλά ερωτήματα.

Υπό την κυβέρνηση Τραμπ, η κυβέρνηση των ΗΠΑ έχει προωθήσει την Τεχνητή Νοημοσύνη  σε όσο το δυνατόν περισσότερους τομείς, αγνοώντας συχνά τις προειδοποιήσεις των ειδικών ότι η τεχνολογία δεν είναι έτοιμη – και μπορεί να μην είναι ποτέ.

Ένα νέο «Έργο Μανχάταν» για την ψηφιακή εποχή

Το Υπουργείο Ενέργειας των ΗΠΑ δήλωσε φέτος ότι η Τεχνητή Νοημοσύνη αντιπροσωπεύει το «νέο Σχέδιο Μανχάταν» – μια άμεση αναφορά στην πρωτοβουλία του Β’ Παγκοσμίου Πολέμου που οδήγησε στη δημιουργία της πρώτης ατομικής βόμβας.

Νωρίτερα φέτος, η OpenAI (ο δημιουργός του ChatGPT) υπέγραψε συμφωνία με τα Εθνικά Εργαστήρια των ΗΠΑ για τη χρήση της Τεχνητής Νοημοσύνης για την ασφάλεια των πυρηνικών όπλων.  Ενώ ο στόχος είναι θεωρητικά προληπτικός, ο συνδυασμός μιας ανώριμης τεχνολογίας με το πιο καταστροφικό οπλοστάσιο της ανθρωπότητας δεν καθησυχάζει κανέναν.

Ο στρατηγός Άντονι Κότον, υπεύθυνος για το αμερικανικό πυρηνικό απόθεμα πυραύλων, δήλωσε σε συνέδριο άμυνας πέρυσι ότι «η Τεχνητή Νοημοσύνη θα βελτιώσει την ικανότητά μας να λαμβάνουμε αποφάσεις». Ευτυχώς, πρόσθεσε επίσης:

«Αλλά δεν πρέπει ποτέ να επιτρέψουμε στην τεχνητή νοημοσύνη να λαμβάνει αποφάσεις για εμάς».

Το συμπέρασμα; Κανείς δεν ξέρει ακριβώς τι είναι η Τεχνητή Νοημοσύνη — αλλά όλοι ανησυχούν

Ακόμη και στη συνάντηση του περασμένου μήνα, οι ειδικοί αναγνώρισαν πόσο δύσκολο είναι να επιτευχθεί συναίνεση στο θέμα της Τεχνητής Νοημοσύνης.

«Κανείς δεν ξέρει πραγματικά τι είναι η Τεχνητή Νοημοσύνη», δήλωσε ο Jon Wolfsthal, διευθυντής παγκόσμιου κινδύνου στην Ομοσπονδία Αμερικανών Επιστημόνων.

Ωστόσο, υπήρχε ένα κοινό σημείο:

«Όλοι συμφωνούν ότι οι αποφάσεις σχετικά με τα πυρηνικά όπλα πρέπει να παραμείνουν υπό ανθρώπινο έλεγχο».

Ο Μπομπ Λάτιφ ενίσχυσε την ιδέα:

«Πρέπει να είσαι σε θέση να εγγυηθείς σε αυτούς για τους οποίους εργάζεσαι ότι υπάρχει ένα υπεύθυνο άτομο.»

https://echedoros.blog

https://enromiosini.gr