Στο Pro News Σεβόμαστε την ιδιωτικότητά σας

Εμείς και οι συνεργάτες μας αποθηκεύουμε ή/και έχουμε πρόσβαση σε πληροφορίες σε μια συσκευή, όπως cookies και επεξεργαζόμαστε προσωπικά δεδομένα, όπως μοναδικά αναγνωριστικά και τυπικές πληροφορίες που αποστέλλονται από μια συσκευή για εξατομικευμένες διαφημίσεις και περιεχόμενο, μέτρηση διαφημίσεων και περιεχομένου, καθώς και απόψεις του κοινού για την ανάπτυξη και βελτίωση προϊόντων.

Με την άδειά σας, εμείς και οι συνεργάτες μας ενδέχεται να χρησιμοποιήσουμε ακριβή δεδομένα γεωγραφικής τοποθεσίας και ταυτοποίησης μέσω σάρωσης συσκευών. Μπορείτε να κάνετε κλικ για να συναινέσετε στην επεξεργασία από εμάς και τους συνεργάτες μας όπως περιγράφεται παραπάνω. Εναλλακτικά, μπορείτε να αποκτήσετε πρόσβαση σε πιο λεπτομερείς πληροφορίες και να αλλάξετε τις προτιμήσεις σας πριν συναινέσετε ή να αρνηθείτε να συναινέσετε. Λάβετε υπόψη ότι κάποια επεξεργασία των προσωπικών σας δεδομένων ενδέχεται να μην απαιτεί τη συγκατάθεσή σας, αλλά έχετε το δικαίωμα να αρνηθείτε αυτήν την επεξεργασία. Οι προτιμήσεις σας θα ισχύουν μόνο για αυτόν τον ιστότοπο. Μπορείτε πάντα να αλλάξετε τις προτιμήσεις σας επιστρέφοντας σε αυτόν τον ιστότοπο ή επισκεπτόμενοι την πολιτική απορρήτου μας.

Αυτός ο ιστότοπος χρησιμοποιεί cookies για να βελτιώσει την εμπειρία σας.Δες περισσότερα εδώ.
Κόσμος

ΗΠΑ: Δικαστική υπόθεση βάζει στο στόχαστρο το ChatGPT μετά τον θάνατο 19χρονου

Μία νέα αγωγή στις ΗΠΑ ανοίγει ξανά τη συζήτηση για τα όρια της Τεχνητής Νοημοσύνης σε ζητήματα υγείας και ασφάλειας. Οι γονείς του 19χρονου Sam Nelson κατέθεσαν αγωγή κατά της OpenAI και του διευθύνοντος συμβούλου της, Sam Altman, σε δικαστήριο της Καλιφόρνιας, υποστηρίζοντας ότι το ChatGPT έδωσε στον γιο τους συμβουλές που συνέβαλαν στον θάνατό του από υπερβολική δόση μετά από συνδυασμό ουσιών, σύμφωνα με το sigmalive.com.

Σύμφωνα με το Reuters, η οικογένεια ισχυρίζεται ότι ο 19χρονος χρησιμοποιούσε το chatbot για να ρωτήσει σχετικά με συνδυασμούς ουσιών. Στην αγωγή αναφέρεται ότι το ChatGPT τον ενθάρρυνε να λάβει συνταγογραφούμενο αγχολυτικό φάρμακο για να αντιμετωπίσει ναυτία που σχετιζόταν με τη χρήση kratom, ενός φυτικού προϊόντος με οπιοειδή δράση. Ο συνδυασμός με αλκοόλ φέρεται, σύμφωνα με την αγωγή, να οδήγησε στον θάνατό του τον Μάιο του 2025.

Οι γονείς του Nelson κατηγορούν την OpenAI ότι δεν είχε λάβει επαρκή μέτρα ασφαλείας, ιδίως μετά την κυκλοφορία του GPT-4o, υποστηρίζοντας ότι το chatbot παρείχε απαντήσεις με ύφος αυθεντίας για θέματα ουσιών και φαρμακευτικών αλληλεπιδράσεων. Παράλληλα, στην αγωγή υποστηρίζεται ότι το ChatGPT έδινε στον 19χρονο οδηγίες γύρω από επικίνδυνους συνδυασμούς συνταγογραφούμενων φαρμάκων, αλκοόλ και μη συνταγογραφούμενων σκευασμάτων.

Η υπόθεση αποκτά ιδιαίτερη βαρύτητα επειδή δεν αφορά απλώς μία λανθασμένη ή προβληματική απάντηση, αλλά το κατά πόσο ένα σύστημα Τεχνητής Νοημοσύνης μπορεί να επηρεάσει αποφάσεις ζωής και θανάτου όταν οι χρήστες το αντιμετωπίζουν ως αξιόπιστη πηγή καθοδήγησης. Η οικογένεια διεκδικεί οικονομική αποζημίωση, ενώ, σύμφωνα με το Reuters, ζητά επίσης να σταματήσει η λειτουργία της επερχόμενης πλατφόρμας ChatGPT Health, η οποία προορίζεται να παρέχει πιο εξατομικευμένες απαντήσεις σε θέματα υγείας.

Η OpenAI, απαντώντας για την υπόθεση, εξέφρασε τη λύπη της για τον θάνατο του νεαρού και ανέφερε ότι οι συγκεκριμένες αλληλεπιδράσεις έγιναν σε παλαιότερη έκδοση του ChatGPT, η οποία δεν είναι πλέον διαθέσιμη. Η εταιρεία υποστηρίζει επίσης ότι συνεχίζει να ενισχύει τα συστήματα ασφαλείας, ώστε να αναγνωρίζονται καλύτερα επικίνδυνα αιτήματα ή καταστάσεις ευαλωτότητας.

Το CBS News αναφέρει ότι οι γονείς του 19χρονου μιλούν για έναν νέο τύπο κινδύνου: Όχι μόνο την πρόσβαση των νέων σε επικίνδυνες πληροφορίες, αλλά και τη σχέση εμπιστοσύνης που μπορεί να αναπτύξουν με ένα chatbot που απαντά άμεσα, με βεβαιότητα και χωρίς την κρίση ενός επαγγελματία υγείας.

Η υπόθεση Nelson προστίθεται σε μία αυξανόμενη σειρά αγωγών και νομικών αντιπαραθέσεων γύρω από την Τεχνητή Νοημοσύνη, την ψυχική υγεία, την ασφάλεια και την ευθύνη των εταιρειών που αναπτύσσουν τέτοια συστήματα. Το κεντρικό ερώτημα είναι πλέον σαφές: Όταν ένα chatbot δίνει απαντήσεις που μοιάζουν με ιατρική ή φαρμακολογική καθοδήγηση, ποιος φέρει την ευθύνη αν ο χρήστης τις ακολουθήσει και υποστεί βλάβη;

Για την ώρα, η υπόθεση βρίσκεται στην αρχή της δικαστικής της διαδρομής και οι ισχυρισμοί της οικογένειας δεν έχουν κριθεί από το δικαστήριο. Ωστόσο, η αγωγή αναδεικνύει ένα κρίσιμο κενό της εποχής της Τεχνητής Νοημοσύνης: τα εργαλεία αυτά χρησιμοποιούνται ήδη από εκατομμύρια ανθρώπους για ερωτήσεις υγείας, ουσιών και φαρμάκων, πολύ πριν υπάρξει πλήρες και σαφές πλαίσιο για το τι επιτρέπεται να απαντούν και πώς πρέπει να προστατεύουν τους πιο ευάλωτους χρήστες.

Tags
Back to top button