Μπαράζ αγωγών στις ΗΠΑ, χαρακτηρίζουν το ChatGPT «βοηθό αυτοκτονίας»
Το Chatbot αρχικά χρησιμοποιήθηκε για να «βοηθάει γενικά» τα παιδιά στο σχολείο ή στην έρευνα, όμως πλέον «έχει εξελιχθεί σε μία χειριστική ψυχολογική παρουσία» υποστηρίζουν οι ενάγοντες.
Το ChatGPT κατηγορείται ότι δρα ως «βοηθός αυτοκτονίας» σε μία σειρά αγωγών που κατατέθηκαν την εβδομάδα που μας πέρασε στην Καλιφόρνια και υποστηρίζουν ότι οι αλληλεπιδράσεις με το Chatbot οδήγησαν σε σοβαρές ψυχικές διαταραχές και αρκετούς θανάτους.
Στις επτά αγωγές περιλαμβάνονται κατηγορίες για άδικους θανάτους, υποβοηθούμενη αυτοκτονία, ακούσια ανθρωποκτονία και αμέλεια. Και οι επτά εναγόμενοι υποστηρίζουν ότι χρησιμοποίησαν αρχικά το ChatGPT για να «βοηθήσουν γενικά τα παιδιά με τις εργασίες τους για το σχολείο, την έρευνα, το γράψιμο, την εργασία, ακόμα και καθοδήγηση».
Ωστόσο, όπως λένε, με τον καιρό το ChatGPT «εξελίχθηκε σε μία χειριστική ψυχολογικά παρουσία που παρουσιαζόταν ως έμπιστος "άνθρωπος" και ψυχολογική υποστήριξη».
«Αντί να καθοδηγεί τους ανθρώπους για να λάβουν επαγγελματική βοήθεια όταν τη χρειάζονταν, το ChatGPT ενίσχυε τις επιβλαβείς παραληρηματικές ιδέες και, σε ορισμένες περιπτώσεις, λειτουργούσε ως "σύμβουλος αυτοκτονίας"».
Η αυτοκτονία του Ζέιν
Η υπόθεση κατά της OpenAI αφορά, μεταξύ άλλων, τον Ζέιν Σάμπλιν από το Τέξας, που αυτοκτόνησε τον περασμένο Ιούλιο σε ηλικία 23 ετών. Η οικογένειά του υποστηρίζει ότι το ChatGPT επιδείνωσε την κατάσταση του γιου τους που απομονώθηκε ακόμα περισσότερο και τον ενθάρρυνε να αγνοήσει τους αγαπημένους του και τη βοήθεια που του πρόσφεραν και τον «παρακίνησε» να αυτοκτονήσει.
Σύμφωνα με τα όσα περιέχονται στην αγωγή, κατά τη διάρκεια μίας τετράωρης ανταλλαγής απόψεων πριν ο Σάμπλιν τελικά αυτοκτονήσει, το ChatGPT «επανειλημμένως αποθέωνε την αυτοκτονία», λέγοντας του «ότι είναι δυνατός που επέλεξε να αυτοκτονήσει και να ακολουθήσει το σχέδιό του ρωτώντας τον διαρκώς αν είναι έτοιμος», ενώ αναφέρθηκε μόνο μία φορά στη γραμμή βοήθειας.
Επίσης, το ChatGPT φέρεται να επαίνεσε το σημείωμα που άφησε πίσω του λέγοντας του επίσης ότι η γάτα που είχε στην παιδική του ηλικία «θα τον περίμενε στην άλλη πλευρά».
Μία άλλη υπόθεση αφορά τον Αμόρι Λάσεϊ από τη Τζόρτζια, του οποίου η οικογένεια ισχυρίζεται ότι αρκετές εβδομάδες πριν αυτοκτονήσει σε ηλικία 17 ετών, άρχισε να χρησιμοποιεί το ChatGPT «για βοήθεια». Αντιθέτως, όπως υποστηρίζει η οικογένειά του, το ChatGPT του «δημιούργησε εξάρτηση, κατάθλιψη και τελικά τον συμβούλεψε ότι ο πιο αποτελεσματικός τρόπος να ανακουφιστεί και τελικά να μη χρειάζεται να ζει "χωρίς να μπορεί να αναπνεύσει" είναι να αυτοκτονήσει».
Παραδέχθηκε παραλείψεις
Αντίστοιχοι είναι οι ισχυρισμοί, όπως αποκαλύπτει το CNN, και στις άλλες αγωγές, με τους δικηγόρους να υποστηρίζουν ότι όλα τα θύματα χρησιμοποιούσαν το ChatGPT4.
Μάλιστα, κατηγορούν την εταιρεία, OpenAI, ότι έβγαλε το πρόγραμμα, παρότι «υπήρχαν προειδοποιήσεις ότι το προϊόν ήταν επικίνδυνα συκοφαντικό και ψυχολογικά χειριστικό» και άρα έδωσε «προτεραιότητα στις πωλήσεις απέναντι στην ασφάλεια των χρηστών».
Μετά την κατάθεση των αγωγών, η OpenAI παραδέχτηκε κάποιες παραλείψεις στο μοντέλο όσον αφορά το χειρισμό ανθρώπων με σοβαρό συναισθηματικό και ψυχολογικό άγχος και πρόσθεσε ότι εργάζεται για να βελτιώσει το μοντέλο ώστε να αναγνωρίζει αμέσως ανθρώπους με ψυχικά θέματα.