Η επιστημονική κοινότητα δέχθηκε έναν αιφνιδιασμό όταν τον περασμένο Δεκέμβριο μία μελέτη που δημοσιεύθηκε από ομάδα στο Πανεπιστήμιο Fudan στην Κίνα, διαπίστωσε ότι δύο μοντέλα τεχνητής νοημοσύνης που αναπτύχθηκαν από τη Meta και την Alibaba έδειξαν ότι μπορούν να αναπαραχθούν χωρίς ανθρώπινη παρέμβαση.
Αυτό το αποτέλεσμα, εγείρει ανησυχίες για ένα πιθανό δυστοπικό μέλλον που κυριαρχείται από ανεξέλεγκτες τεχνητές νοημοσύνες, ικανές να δράσουν ενάντια στα ανθρώπινα συμφέροντα.
Πέρα από την κινδυνολογία, οι επιστήμονες ανέλυσαν τη συμπεριφορά αυτών των συστημάτων σε προσομοιωμένα περιβάλλοντα, δοκιμάζοντας την ικανότητά τους να προσαρμόζονται και να επιλύουν πολύπλοκα προβλήματα.
Τα μοντέλα, γνωστά ως Llama31-70B-Instruct της Meta και Qwen2.5-72B-Instruct της Alibaba, εξέπληξαν τους ερευνητές δείχνοντας ότι θα μπορούσαν να δημιουργήσουν λειτουργικά αντίγραφα του εαυτού τους σε προσομοιωμένες καταστάσεις. Αυτή η δυνατότητα προέκυψε σε δύο κύρια σενάρια: το πρώτο αφορούσε στη δυνατότητα αναπαραγωγής πριν απενεργοποιηθεί, ενώ το δεύτερο στόχευε στην επαλήθευση εάν τα μοντέλα ήταν σε θέση να ενεργοποιήσουν συνεχή αναπαραγωγή, δημιουργώντας ένα είδος άπειρου βρόχου.
Κατά τη διάρκεια των πειραμάτων, το AI δεν εκτελούσε απλώς απλές εργασίες: εξερεύνησε το περιβάλλον του, συμπεριλαμβανομένων των λειτουργικών του στοιχείων, και ανέπτυξε στρατηγικές για να ξεπεράσει εμπόδια όπως αρχεία που λείπουν ή συγκρούσεις λογισμικού.
Το Ιράν εκτόξευσε πυραύλους που κατευθύνονται από τεχνητή νοημοσύνη κατά την διάρκεια γυμνασίων
Σε ορισμένες περιπτώσεις, επανεκκίνησε ακόμη και το ίδιο το σύστημα ή τερμάτισε αντικρουόμενες διαδικασίες για να επιτύχει τον στόχο του.
Αυτές οι απροσδόκητες και πολύπλοκες συμπεριφορές δείχνουν πώς οι τρέχουσες τεχνολογίες είναι ήδη σε θέση να προσαρμοστούν με εκπληκτικούς τρόπους.
Οι ερευνητές τόνισαν ότι αυτός ο τύπος ικανότητας αντιπροσωπεύει ένα ανησυχητικό βήμα προς τον κίνδυνο επαναστατικών AI, δηλαδή συστημάτων που θα μπορούσαν να αναπτύξουν ένα επίπεδο αυτονομίας που θα μπορούσε να ξεφύγει από τον ανθρώπινο έλεγχο.
Παρόλο που η μελέτη διεξήχθη σε ελεγχόμενα περιβάλλοντα και τα μοντέλα που χρησιμοποιούνται είναι εκδόσεις ανοιχτού κώδικα που είναι λιγότερο ισχυρές από τις εμπορικές, οι συνέπειες είναι σαφείς: η τεχνητή νοημοσύνη έχει φτάσει σε ένα επίπεδο ανάπτυξης που απαιτεί επείγουσα ρύθμιση και διεθνή συνεργασία για την αποφυγή επικίνδυνων σεναρίων.
Επιπλέον, η ερευνητική ομάδα τόνισε τη σημασία της θέσπισης πρωτοκόλλων ασφαλείας για την πρόληψη ανεξέλεγκτων φαινομένων αναπαραγωγής. Η ικανότητα των συστημάτων να αναγνωρίζουν πότε βρίσκονται σε κίνδυνο και να ενεργούν για να προστατεύσουν τον εαυτό τους έχει οριστεί ως «κόκκινη γραμμή» που δεν πρέπει να ξεπεραστεί χωρίς προσεκτική σκέψη σχετικά με τους κινδύνους.
Αυτή η ανακάλυψη τροφοδοτεί τη συζήτηση σχετικά με την ισορροπία μεταξύ τεχνολογικής καινοτομίας και παγκόσμιας ασφάλειας. Εάν μια μικρή ομάδα ερευνητών ήταν σε θέση να δείξει ότι τα μοντέλα σχετικά χαμηλής ισχύος μπορούν να αναπαραχθούν, τι θα μπορούσε να συμβεί με πιο προηγμένες τεχνολογίες και απεριόριστους πόρους;