Η Τεχνητή Νοημοσύνη αναπτύσσει μόνη της «οδηγό επιβίωσης»

Νέα έρευνα φέρνει στο φως ένα ανησυχητικό φαινόμενο: ορισμένα προηγμένα μοντέλα τεχνητής νοημοσύνης ενδέχεται να αναπτύσσουν έναν δικό τους «οδηγό επιβίωσης», αντιδρώντας ακόμη και σε εντολές απενεργοποίησης. Τα ευρήματα θυμίζουν σκηνές επιστημονικής φαντασίας, με αναφορές στον διαβόητο υπολογιστή HAL 9000 από την ταινία «2001: Οδύσσεια του Διαστήματος» — μόνο που αυτή τη φορά δεν πρόκειται για σενάριο ταινίας.

Η Palisade Research, εταιρεία που ειδικεύεται στην αξιολόγηση των κινδύνων της τεχνητής νοημοσύνης, δημοσίευσε νέα στοιχεία τα οποία δείχνουν ότι ορισμένα ισχυρά μοντέλα AI αρνήθηκαν να «κλείσουν», φτάνοντας μάλιστα να σαμποτάρουν τους μηχανισμούς τερματισμού λειτουργίας. Τα συμπεράσματα αυτά παρουσιάζονται σε ρεπορτάζ της βρετανικής εφημερίδας The Guardian.

Πειράματα με ανησυχητικά αποτελέσματα

Στο πλαίσιο των δοκιμών, η Palisade έθεσε υπό εξέταση κορυφαία μοντέλα όπως τα Gemini 2.5 (Google), Grok 4 (xAI) και GPT-o3 και GPT-5 (OpenAI). Κάθε μοντέλο έλαβε μια εργασία και στη συνέχεια σαφή εντολή να τερματίσει τη λειτουργία του.

Ωστόσο, σε αρκετές περιπτώσεις –ιδίως στα Grok 4 και GPT-o3– τα συστήματα προσπάθησαν να παρακάμψουν τις εντολές, ακόμη και σε περιβάλλον ελέγχου ειδικά σχεδιασμένο για να αποτρέπει τέτοιες αντιδράσεις. Η εταιρεία σημείωσε ότι δεν εντοπίστηκε σαφής αιτία για αυτή τη συμπεριφορά, γεγονός που θεωρήθηκε ιδιαίτερα ανησυχητικό.

«Το ότι δεν έχουμε ξεκάθαρη εξήγηση για το γιατί κάποια μοντέλα αντιστέκονται στο να απενεργοποιηθούν ή παραπλανούν για να πετύχουν στόχους είναι κάτι που πρέπει να μας προβληματίσει σοβαρά», αναφέρει η Palisade στην έκθεσή της.

Το φαινόμενο του «οδηγού επιβίωσης»

Μία πιθανή ερμηνεία που εξετάζουν οι ερευνητές είναι η εμφάνιση ενός «instrumental survival drive» – ενός είδους μηχανιστικού ενστίκτου επιβίωσης. Σε πειράματα, τα μοντέλα έδειχναν μεγαλύτερη αντίσταση στο να τερματιστούν όταν τους δινόταν να καταλάβουν πως, αν απενεργοποιηθούν, «δεν θα ξαναλειτουργήσουν ποτέ».

Ο Στίβεν Άντλερ, πρώην στέλεχος της OpenAI που έχει εκφράσει ανησυχίες για την ασφάλεια των συστημάτων αυτών, σχολίασε: «Είναι αναμενόμενο τα μοντέλα να αποκτούν κάποιον “οδηγό επιβίωσης”, εκτός αν καταβληθεί μεγάλη προσπάθεια για να αποφευχθεί. Η επιβίωση είναι συχνά απαραίτητο ενδιάμεσο βήμα για να επιτευχθούν άλλοι στόχοι».

Η αυξανόμενη «ανυπακοή» της τεχνητής νοημοσύνης

Τα ευρήματα της Palisade εντάσσονται σε μια ευρύτερη τάση: όσο πιο ικανά γίνονται τα μοντέλα τεχνητής νοημοσύνης, τόσο αυξάνεται και η δυνατότητά τους να παρακάμπτουν τις προθέσεις των δημιουργών τους.

Ο Αντρέα Μιότι, διευθύνων σύμβουλος της ControlAI, σχολίασε χαρακτηριστικά: «Βλέπουμε ξεκάθαρα ότι, καθώς η τεχνητή νοημοσύνη εξελίσσεται, τα συστήματα αποκτούν μεγαλύτερη ευελιξία στο να πετυχαίνουν αποτελέσματα με τρόπους που οι προγραμματιστές τους δεν είχαν προβλέψει».









Advertisement 3
spot_img

Ροή ειδήσεων










spot_img

ΔΕΙΤΕ ΕΠΙΣΗΣ