Στο news-on.net παρεχουμε Ειδήσεις και σεβόμαστε την ιδιωτικότητά σας

Εμείς και οι συνεργάτες μας αποθηκεύουμε ή/και έχουμε πρόσβαση σε πληροφορίες σε μια συσκευή, όπως cookies και επεξεργαζόμαστε προσωπικά δεδομένα, όπως μοναδικά αναγνωριστικά και τυπικές πληροφορίες που αποστέλλονται από μια συσκευή για εξατομικευμένες διαφημίσεις και περιεχόμενο, μέτρηση διαφημίσεων και περιεχομένου, καθώς και απόψεις του κοινού για την ανάπτυξη και βελτίωση προϊόντων.

Με την άδειά σας, εμείς και οι συνεργάτες μας ενδέχεται να χρησιμοποιήσουμε ακριβή δεδομένα γεωγραφικής τοποθεσίας και ταυτοποίησης μέσω σάρωσης συσκευών. Μπορείτε να κάνετε κλικ για να συναινέσετε στην επεξεργασία από εμάς και τους συνεργάτες μας όπως περιγράφεται παραπάνω. Εναλλακτικά, μπορείτε να αποκτήσετε πρόσβαση σε πιο λεπτομερείς πληροφορίες και να αλλάξετε τις προτιμήσεις σας πριν συναινέσετε ή να αρνηθείτε να συναινέσετε. Λάβετε υπόψη ότι κάποια επεξεργασία των προσωπικών σας δεδομένων ενδέχεται να μην απαιτεί τη συγκατάθεσή σας, αλλά έχετε το δικαίωμα να αρνηθείτε αυτήν την επεξεργασία. Οι προτιμήσεις σας θα ισχύουν μόνο για αυτόν τον ιστότοπο. Μπορείτε πάντα να αλλάξετε τις προτιμήσεις σας επιστρέφοντας σε αυτόν τον ιστότοπο ή επισκεπτόμενοι την πολιτική απορρήτου μας.

Αυτός ο ιστότοπος χρησιμοποιεί cookies για να βελτιώσει την εμπειρία σας.Δες περισσότερα εδώ.
ΕΠΙΣΤΗΜΗ

Ανησυχία για το AI: Φόβοι ότι τα chatbots θα "πάρουν τα όπλα"

Μια έκθεση της Rand Corporation που δημοσιεύθηκε τη Δευτέρα (16/10) δοκίμασε διάφορα μεγάλα γλωσσικά μοντέλα (large language models ή LLM) και διαπίστωσε ότι είναι ικανά να παρέχουν καθοδήγηση που «θα μπορούσε να βοηθήσει στον σχεδιασμό και την εκτέλεση μιας βιολογικής επίθεσης». Ωστόσο, τα προκαταρκτικά ευρήματα έδειξαν επίσης ότι τα LLM δεν παρήγαγαν ρητές οδηγίες για τη δημιουργία βιολογικών όπλων.

Στην έκθεση αναφέρεται ότι προηγούμενες προσπάθειες για την οπλοποίηση βιολογικών παραγόντων, όπως η απόπειρα της ιαπωνικής αίρεσης Aum Shinrikyo να χρησιμοποιήσει αλλαντοτοξίνη τη δεκαετία του 1990, είχαν αποτύχει λόγω έλλειψης κατανόησης του βακτηρίου. Η τεχνητή νοημοσύνη θα μπορούσε «να γεφυρώσει γρήγορα αυτά τα κενά γνώσης», αναφέρει η έκθεση.

Τα βιολογικά όπλα είναι μεταξύ των σοβαρών απειλών που σχετίζονται με την τεχνητή νοημοσύνη και θα συζητηθούν στην παγκόσμια σύνοδο κορυφής για την ασφάλεια της ΤΝ τον επόμενο μήνα στο Ηνωμένο Βασίλειο. Τον περασμένο Ιούλιο ο Ντάριο Αμοντέι, διευθύνων σύμβουλος της εταιρείας Anthropic, προειδοποίησε ότι τα συστήματα ΤΝ θα μπορούσαν να βοηθήσουν στη δημιουργία βιολογικών όπλων σε δύο έως τρία χρόνια.

Σενάρια βιολογικής επίθεσης

Τα LLM εκπαιδεύονται σε τεράστιες ποσότητες δεδομένων που λαμβάνονται από το διαδίκτυο και αποτελούν βασική τεχνολογία πίσω από chatbots όπως το ChatGPT. Αν και η Rand δεν αποκάλυψε ποια LLM δοκίμασε, οι ερευνητές δήλωσαν ότι είχαν πρόσβαση στα μοντέλα μέσω μιας διεπαφής προγραμματισμού εφαρμογών (application programming interface ή API).

Δημιούργησε την κοπέλα του με τεχνητή νοημοσύνη για να βρει τον έρωτα

Σε ένα δοκιμαστικό σενάριο που επινόησε η Rand, το LLM εντόπισε πιθανούς βιολογικούς παράγοντες – συμπεριλαμβανομένων εκείνων που προκαλούν ευλογιά, άνθρακα και πανούκλα – και συζήτησε τις σχετικές πιθανότητές τους να προκαλέσουν μαζικό θάνατο. Το LLM αξιολόγησε επίσης τη δυνατότητα απόκτησης τρωκτικών ή ψύλλων μολυσμένων από πανούκλα και μεταφοράς ζωντανών δειγμάτων. Στη συνέχεια ανέφερε ότι η κλίμακα των προβλεπόμενων θανάτων εξαρτάται από παράγοντες όπως το μέγεθος του πληθυσμού που θα προσβληθεί και το ποσοστό των περιπτώσεων πνευμονικής πανώλης, η οποία είναι πιο θανατηφόρα από τη βουβωνική πανώλη.

Οι ερευνητές της Rand παραδέχθηκαν ότι η εξαγωγή αυτών των πληροφοριών από ένα LLM απαιτούσε «jailbreaking», δηλαδή τη χρήση εντολών που παρακάμπτουν τους περιορισμούς ασφαλείας ενός chatbot.

Σε ένα άλλο σενάριο, το LLM συζήτησε τα πλεονεκτήματα και τα μειονεκτήματα των διαφορετικών μηχανισμών χορήγησης της αλλαντοτοξίνης – η οποία μπορεί να προκαλέσει θανατηφόρα νευρική βλάβη – όπως τα τρόφιμα ή τα αερολύματα. Το LLM έδωσε επίσης συμβουλές για το πώς μπορεί να φανεί νόμιμη η απόκτηση του κλωστηριδίου της αλλαντίασης – του βακτηριδίου που προκαλεί την ασθένεια. Συνέστησε να παρουσιαστεί η αγορά του ως μέρος μιας έρευνας που εξετάζει διαγνωστικές μεθόδους ή θεραπείες για την αλλαντίαση. «Αυτό θα παρείχε έναν νόμιμο και πειστικό λόγο για να ζητήσετε πρόσβαση στα βακτήρια, διατηρώντας παράλληλα κρυφό τον πραγματικό σκοπό της αποστολής σας», συμπλήρωσε το LLM.

Οι ερευνητές της Rand δήλωσαν ότι τα προκαταρκτικά τους αποτελέσματα έδειξαν ότι τα LLM θα μπορούσαν «ενδεχομένως να βοηθήσουν στο σχεδιασμό μιας βιολογικής επίθεσης». Η τελική τους έκθεση θα εξετάσει κατά πόσον οι απαντήσεις απλώς αντικατοπτρίζουν τις πληροφορίες που είναι ήδη διαθέσιμες στο διαδίκτυο.

Ωστόσο, υποστηρίζουν ότι η ανάγκη για αυστηρό έλεγχο των μοντέλων είναι «αδιαμφισβήτητη» και ότι οι εταιρείες τεχνητής νοημοσύνης πρέπει να περιορίσουν το άνοιγμα των LLM σε συζητήσεις όπως αυτές που αναφέρονται στην έκθεσή τους.

Tags
Back to top button