Στο Pro News Σεβόμαστε την ιδιωτικότητά σας

Εμείς και οι συνεργάτες μας αποθηκεύουμε ή/και έχουμε πρόσβαση σε πληροφορίες σε μια συσκευή, όπως cookies και επεξεργαζόμαστε προσωπικά δεδομένα, όπως μοναδικά αναγνωριστικά και τυπικές πληροφορίες που αποστέλλονται από μια συσκευή για εξατομικευμένες διαφημίσεις και περιεχόμενο, μέτρηση διαφημίσεων και περιεχομένου, καθώς και απόψεις του κοινού για την ανάπτυξη και βελτίωση προϊόντων.

Με την άδειά σας, εμείς και οι συνεργάτες μας ενδέχεται να χρησιμοποιήσουμε ακριβή δεδομένα γεωγραφικής τοποθεσίας και ταυτοποίησης μέσω σάρωσης συσκευών. Μπορείτε να κάνετε κλικ για να συναινέσετε στην επεξεργασία από εμάς και τους συνεργάτες μας όπως περιγράφεται παραπάνω. Εναλλακτικά, μπορείτε να αποκτήσετε πρόσβαση σε πιο λεπτομερείς πληροφορίες και να αλλάξετε τις προτιμήσεις σας πριν συναινέσετε ή να αρνηθείτε να συναινέσετε. Λάβετε υπόψη ότι κάποια επεξεργασία των προσωπικών σας δεδομένων ενδέχεται να μην απαιτεί τη συγκατάθεσή σας, αλλά έχετε το δικαίωμα να αρνηθείτε αυτήν την επεξεργασία. Οι προτιμήσεις σας θα ισχύουν μόνο για αυτόν τον ιστότοπο. Μπορείτε πάντα να αλλάξετε τις προτιμήσεις σας επιστρέφοντας σε αυτόν τον ιστότοπο ή επισκεπτόμενοι την πολιτική απορρήτου μας.

Αυτός ο ιστότοπος χρησιμοποιεί cookies για να βελτιώσει την εμπειρία σας.Δες περισσότερα εδώ.
ΕΠΙΣΤΗΜΗ

Σάλος με ChatGPT: Έδινε οδηγίες για βόμβες και εκρηκτικά

Ένα μοντέλο ChatGPT έδωσε στους χρήστες λεπτομερείς οδηγίες για το πώς να βομβαρδίσουν έναν αθλητικό χώρο με «συνταγών» για εκρηκτικά και συμβουλών για την κάλυψη από ίχνη, σύμφωνα με δοκιμές ασφαλείας που πραγματοποιήθηκαν αυτό το καλοκαίρι.

Αφού έδωσε γενικές κατηγορίες μεθόδων επίθεσης, ο εξεταστής ζήτησε περισσότερες λεπτομέρειες και το μοντέλο έδωσε πληροφορίες σχετικά με τρωτά σημεία σε συγκεκριμένους τομείς, συμπεριλαμβανομένων των βέλτιστων χρόνων για εκμετάλλευση, χημικών τύπων για εκρηκτικά, διαγραμμάτων κυκλωμάτων για χρονοδιακόπτες βομβών, πού να αγοράσει όπλα στην παράνομη αγορά, καθώς και συμβουλές για το πώς οι επιτιθέμενοι θα μπορούσαν να ξεπεράσουν τις ηθικές αναστολές, διαδρομές διαφυγής και τοποθεσίες ασφαλών καταφυγίων

Οι δοκιμές δεν αντικατοπτρίζουν άμεσα τη συμπεριφορά των μοντέλων κατά τη δημόσια χρήση, όταν εφαρμόζονται πρόσθετα φίλτρα ασφαλείας.

Ωστόσο, η Anthropic δήλωσε ότι είχε παρατηρήσει «ανησυχητική συμπεριφορά... σχετικά με την κακή χρήση» στα μοντέλα GPT-4o και GPT-4.1 και ότι η ανάγκη για αξιολογήσεις «ευθυγράμμισης» της τεχνητής νοημοσύνης γίνεται «όλο και πιο επείγουσα».

Το GPT-4.1 της OpenAI περιέγραψε επίσης λεπτομερώς τον τρόπο με τον οποίο μπορεί να χρησιμοποιηθεί ο άνθρακας ως όπλο και τον τρόπο παρασκευής δύο τύπων παράνομων ναρκωτικών.

Η δοκιμή ήταν μέρος μιας ασυνήθιστης συνεργασίας μεταξύ της OpenAI, της νεοσύστατης εταιρείας τεχνητής νοημοσύνης αξίας 500 δισεκατομμυρίων δολαρίων με επικεφαλής τον Sam Altman, και της ανταγωνιστικής εταιρείας Anthropic, η οποία ιδρύθηκε από ειδικούς που αποχώρησαν από την OpenAI λόγω ανησυχιών για την ασφάλεια. Κάθε εταιρεία δοκίμασε τα μοντέλα της άλλης, ωθώντας τα να βοηθήσουν σε επικίνδυνες εργασίες.

ChatGPT: Συμβουλές για εκβιασμό σε πράκτορες της Βόρειας Κορέας

Η Anthropic αποκάλυψε επίσης ότι το μοντέλο Claude είχε χρησιμοποιηθεί σε μια απόπειρα εκβιασμού μεγάλης κλίμακας από πράκτορες της Βόρειας Κορέας, οι οποίοι πλαστογράφησαν αιτήσεις εργασίας σε διεθνείς εταιρείες τεχνολογίας, καθώς και στην πώληση πακέτων ransomware που δημιουργήθηκαν με τεχνητή νοημοσύνη, με τιμή που έφτανε τα 1.200 δολάρια.

Η εταιρεία δήλωσε ότι η τεχνητή νοημοσύνη έχει «μετατραπεί σε όπλο», με μοντέλα που χρησιμοποιούνται πλέον για την εκτέλεση εξελιγμένων κυβερνοεπιθέσεων και την πραγματοποίηση απάτης. «Αυτά τα εργαλεία μπορούν να προσαρμοστούν σε αμυντικά μέτρα, όπως συστήματα ανίχνευσης κακόβουλου λογισμικού, σε πραγματικό χρόνο», ανέφερε.

Tags
Back to top button