Εσείς γνωρίζατε ότι οι συνομιλίες στο ChatGPT σαρώνονται και το περιεχόμενο αναφέρεται στις αρχές;
Σε ρόλο «Μεγάλου αδελφού» η τεχνητή νοημοσύνη, καταγράφοντας τις συνομιλίες δίνοντας δεδομένα στις αρχές.

«Η OpenAI λέει ότι σαρώνει τις συνομιλίες των χρηστών στο ChatGPT και αναφέρει το περιεχόμενο στην αστυνομία – Μας παρακολουθούν».
Αυτή η είδηση που έφερε στο φως της δημοσιότητας το Futurism.com έχει ανάψει φωτιές. Για μια ακόμη φορά, η Τεχνητή Νοημοσύνη μπαίνει στο στόχαστρο και μαζί της και οι εταιρείες που προωθούν αυτά τα μοντέλα. Μια πραγματικότητα που παραδέχθηκε και η ίδια η Open AI, ως πολιτική χρήσης, αναφέροντας χαρακτηριστικά πως το «σκανάρισμα» και η γνωστοποίηση του περιεχομένου των συζητήσεων στις αρμόδιες διωκτικές ή δικαστικές αρχές, αφορά σε περιπτώσεις που μπορεί να οδηγήσουν σε απειλή σοβαρής σωματικής βλάβης σε τρίτους…
«Όταν εντοπίζουμε χρήστες που σχεδιάζουν να βλάψουν άλλους, δρομολογούμε τις συνομιλίες τους σε εξειδικευμένους αγωγούς όπου ελέγχονται από μια μικρή ομάδα που έχει εκπαιδευτεί στις πολιτικές χρήσης μας και η οποία είναι εξουσιοδοτημένη να αναλάβει δράση, συμπεριλαμβανομένης της απαγόρευσης λογαριασμών. Εάν οι ανθρώπινοι κριτές διαπιστώσουν ότι μια υπόθεση περιλαμβάνει άμεση απειλή σοβαρής σωματικής βλάβης σε άλλους, ενδέχεται να την παραπέμψουμε στις αρχές επιβολής του νόμου».
Αντιθέτως, εκδηλώσεις αυτοκαταστροφικής συμπεριφοράς ή αυτοκτονικού ιδεασμού δεν παραπέμπονται στις αρχές, με το σκεπτικό ότι η διαχείρισή τους άπτεται ζητημάτων ιδιωτικότητας και ηθικής ευθύνης, τα οποία δεν μπορούν να υποκατασταθούν από ποινική αντιμετώπιση. Η εν λόγω πρακτική έχει πυροδοτήσει έντονη κοινωνική και επιστημονική αντιπαράθεση, καθώς εγείρει κρίσιμα ερωτήματα για την ισορροπία μεταξύ προστασίας της δημόσιας ασφάλειας και διασφάλισης του δικαιώματος στην ιδιωτικότητα, δηλώνει στο Flash.gr ο κύριος Βασίλης Ζωγράφος, Υποψήφιος Διδάκτωρ Πληροφορικής κι Επιστήμης των Δεδομένων…

«Πολλοί χρήστες θεωρούν ότι η πολιτική αυτή συνιστά μορφή επιτήρησης και προληπτικής αστυνόμευσης, η οποία ενδέχεται να οδηγήσει σε καταχρηστικές ή εσφαλμένες εφαρμογές. Παράλληλα, καταγράφεται μια εμφανής αντίφαση ανάμεσα στην παρούσα στάση της OpenAI και στις προηγούμενες δηλώσεις της σχετικά με την υπεράσπιση της εμπιστευτικότητας των δεδομένων των χρηστών σε δικαστικές διενέξεις. Η απόφαση εντάσσεται σε ένα πλαίσιο πραγματικών περιστατικών, όπου αναφέρθηκαν τραγικά συμβάντα ψυχωτικού αποπροσανατολισμού ή βίαιων ενεργειών που φέρονται να συνδέθηκαν με εκτεταμένη χρήση συστημάτων τεχνητής νοημοσύνης.
Η νέα πολιτική της OpenAI καθιστά εμφανές το διαρκές δίλημμα μεταξύ τεχνολογικής καινοτομίας, ηθικής υπευθυνότητας και κοινωνικής προστασίας. Ενώ το μέτρο αποσκοπεί στην πρόληψη εγκληματικών πράξεων, ταυτόχρονα ενισχύει τους φόβους για μια επιτήρηση άνευ σαφών ορίων και για την απώλεια της εμπιστοσύνης των πολιτών απέναντι στις πλατφόρμες τεχνητής νοημοσύνης.»
«Οι Όροι Χρήσης και η Usage Policy δεν περιγράφουν ρητά αυτήν την πρακτική σάρωσης και αναφοράς στις αρχές»
Από τη «Νομική Πολιτική προς Αρχές» (Law Enforcement Policy), η OpenAI αποκαλύπτει ότι συμμορφώνεται με νόμιμα αιτήματα όπως υπομνήματα, ένταλμα ή δικαστικές διαταγές και μόνο σε αυτές τις περιπτώσεις αποκαλύπτει δεδομένα χρηστών, συμπληρώνει ο κύριος Ζωγράφος. Επίσης, αν υπάρχει επείγουσα περίπτωση κινδύνου σοβαρής σωματικής βλάβης ή θανάτου, μπορεί να παραθέσει δεδομένα χωρίς τυπική νομική διαδικασία, ώστε να αποτραπεί ο κίνδυνος. Κατά πόσο όμως, ενημερώνονται οι χρήστες για όλ’ αυτά, από τους Όρους χρήσης;
«Η ΟpenAI έχει ενημερώσει ότι εποπτεύει σε πραγματικό χρόνο τις συνομιλίες για απειλές εναντίον τρίτων. Αν εντοπιστεί κάτι τέτοιο, η συνομιλία προωθείται σε ανθρώπινη και εξειδικευμένη ομάδα για αξιολόγηση. Σε περίπτωση άμεσου κινδύνου σοβαρής σωματικής βλάβης, ενδέχεται να αναφερθεί στις αρχές. Ωστόσο, οι Όροι Χρήσης και η Usage Policy δεν περιγράφουν ρητά αυτή την πρακτική σάρωσης και αναφοράς. Η πολιτική αναφοράς δεν αναφέρει αυτόματη ειδοποίηση των αρχών χωρίς νομικό αίτημα εκτός του εξαιρετικού πλαισίου της επείγουσας περίστασης".
Πρόκειται για «νέα πρακτική», που δεν αυτονομιμοποιείται πλήρως βάσει των υφιστάμενων Όρων Χρήσης. Βασίζεται καθαρά σε εσωτερικές πολιτικές ασφαλείας της OpenAI, χωρίς εμφανή ενημέρωση των χρηστών μέσω των Όρων. Η πρακτική σάρωσης συνομιλιών και ενδεχόμενης αναφοράς στις αρχές συνιστά αυθαίρετη επέκταση της πολιτικής ασφαλείας πέρα από το νομικά προσδιορισμένο και συμβατικό πλαίσιο των Όρων Χρήσης. Καθώς η λειτουργία αυτή δεν τεκμηριώνεται ρητά στους ισχύοντες όρους, εγείρονται ερωτήματα περί διαφάνειας, ενημέρωσης και ενημερωμένης συγκατάθεσης (informed consent).»

«Η πρακτική αυτή παραβιάζει ακόμα και το Ευρωπαϊκό Πλαίσιο Νόμου»
Ο κύριος Βασίλης Ζωγράφος, μας βοηθά να ρίξουμε φως στις λεπτομέρειες που κρύβονται πίσω από τις γραμμές που πολλές φορές δεν διαβάζει κανένας χρήστης. Τι ισχύει στην Ευρώπη; Η πρακτική αυτή που παραδέχεται ότι έχει υιοθετήσει η εταιρεία τεχνητής νοημοσύνης, δεν παραβιάζει το Ευρωπαϊκό Πλαίσιο Νόμου σε ότι αφορά στα ευαίσθητα προσωπικά δεδομένα και τον Γενικό Κανονισμό Προστασίας τους (GDPR); Η απάντηση είναι, ναι αφού η ενδεχόμενη αναφορά των συζητήσεων στις αρχές, δεν περιγράφεται, όπως προαναφέρθηκε, ρητά στους Όρους Χρήσης, γεγονός που σημαίνει ότι μπορεί να θεωρηθεί πως ο χρήστης δεν έχει δώσει ενήμερη συγκατάθεση…
«Ο Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR) Ορίζει ότι η επεξεργασία προσωπικών δεδομένων επιτρέπεται μόνο εφόσον υπάρχει σαφής νομική βάση (άρθρο 6). Η συλλογή και χρήση δεδομένων για σκοπούς ασφάλειας ή πρόληψης εγκλημάτων επιτρέπεται μόνο εφόσον προβλέπεται από νόμο και είναι αναλογική με τον σκοπό. Απαιτείται διαφάνεια και ο χρήστης πρέπει να ενημερώνεται με σαφήνεια για τον τρόπο και τον σκοπό της επεξεργασίας.
Αρχές GDPR
Ελαχιστοποίηση δεδομένων: επεξεργασία μόνο των απολύτως αναγκαίων.
- Συγκατάθεση ή άλλη νόμιμη βάση: οι χρήστες πρέπει να γνωρίζουν και να συναινούν.
- Περιορισμός σκοπού: χρήση των δεδομένων αποκλειστικά για τον δηλωμένο σκοπό.
- Αναλογικότητα: οποιαδήποτε παρέμβαση πρέπει να είναι η ελάχιστη δυνατή για την επίτευξη του σκοπού.
Η πρακτική της OpenAI και η αυτόματη σάρωση συνομιλιών για εντοπισμό απειλών και η ενδεχόμενη αναφορά σε αρχές δεν περιγράφεται ρητά στους Όρους Χρήσης. Αυτό σημαίνει ότι μπορεί να θεωρηθεί πως ο χρήστης δεν έχει δώσει ενήμερη συγκατάθεση. Η αποστολή δεδομένων σε αρχές χωρίς τυπική νομική διαδικασία (π.χ. εισαγγελική εντολή) επιτρέπεται μόνο σε εξαιρετικά επείγουσες περιπτώσεις βάσει GDPR, διαφορετικά, συνιστά παραβίαση. Εφόσον η OpenAI εδρεύει στις ΗΠΑ αλλά δραστηριοποιείται στην ΕΕ, υπόκειται στον GDPR. Αυτό σημαίνει ότι κάθε τέτοια πρακτική πρέπει να τεκμηριώνεται, να αιτιολογείται και να κοινοποιείται στους χρήστες.»

Μήπως μας παρακολουθούν ακόμα και οι κυβερνήσεις; Τι ρόλο έχει διαδραματίσει η επίθεση στους Δίδυμους Πύργους
Επειδή δεν είναι λίγες οι φορές που έχουμε ακούσει για τον «Μεγάλο Αδελφό», υπάρχει μια κομβική ημερομηνία που έχει παίξει δραματικό ρόλο δίνοντας διευρυμένη πρόσβαση στις αρχές, τονίζει ο κύριος Ζωγράφος. Δίδυμοι πύργοι. Μετά τις επιθέσεις της 11ης Σεπτεμβρίου, το Κογκρέσο ψήφισε τον Patriot Act (USA PATRIOT Act, 2001) με σκοπό την ενίσχυση της εθνικής ασφάλειας.
Πώς σχετίζεται όμως αυτός ο Γενικός Κανονισμός με την πρόσβαση στο περιεχόμενο της ΤΝ; Υπάρχουν κοινά σημεία, μας λέει ο Υποψήφιος Διδάκτωρ Πληροφορικής κι Επιστήμης των Δεδομένων. Βασικές του προβλέψεις, μεταξύ άλλων, είναι οι ακόλουθες:
- Διευρυμένες εξουσίες παρακολούθησης: οι αρχές μπορούσαν να συλλέγουν τηλεπικοινωνιακά και διαδικτυακά δεδομένα με χαμηλότερα όρια δικαστικής έγκρισης.
- Section 215 ("library records provision"): έδινε δυνατότητα στην κυβέρνηση να αποκτά πρόσβαση σε «οποιαδήποτε αρχεία» σχετιζόμενα με έρευνα τρομοκρατίας, χωρίς οι χρήστες να ενημερώνονται.
- Ενισχυμένη συνεργασία εταιρειών και αρχών: οι πάροχοι τηλεπικοινωνιών και οι ιδιωτικές εταιρείες όφειλαν να παραδίδουν δεδομένα όταν το ζητούσαν οι αρχές ασφαλείας.
Προβλέψεις που σήμερα έρχονται να θυμίσουν την πολιτική της OpenAI, συμπληρώνει…
«Η σημερινή πολιτική της OpenAI – δηλαδή η προληπτική σάρωση συνομιλιών και η ενδεχόμενη αναφορά στις αρχές θυμίζει τον μηχανισμό που καθιέρωσε ο Patriot Act:
- Προληπτική παρακολούθηση. Όπως ο Patriot Act μετέτρεψε την παρακολούθηση σε μέτρο «πρόληψης» και όχι μόνο «αντίδρασης», έτσι και η OpenAI ερμηνεύει την ευθύνη της με όρους προληπτικής αποτροπής βλάβης.
- Διεύρυνση συνεργασίας με αρχές. Οι αμερικανικές εταιρείες τεχνολογίας υπόκεινται ήδη σε νομικά πλαίσια που επιτρέπουν συνεργασία με την αστυνομία ή την NSA. Η πρακτική της OpenAI μπορεί να θεωρηθεί ως εθελοντική ευθυγράμμιση με αυτό το πνεύμα.
- Σύγκρουση με την Ευρώπη. Το Patriot Act βασίζεται σε λογική «ασφάλεια πάνω απ’ όλα», ενώ ο GDPR στην ΕΕ βασίζεται στην «ιδιωτικότητα πάνω απ’ όλα». Έτσι, η OpenAI κινείται ανάμεσα σε δύο αντίρροπες νομοθετικές κουλτούρες.
Κι ερχόμαστε στο σημείο τριβής. Οι ευρωπαϊκές αρχές και τα δικαστήρια έχουν ήδη ακυρώσει δύο φορές τις συμφωνίες Safe Harbor και Privacy Shield με τις ΗΠΑ, ακριβώς επειδή το Patriot Act και οι μεταγενέστεροι νόμοι επιτρέπουν υπερβολικά ευρεία πρόσβαση των αρχών στα δεδομένα Ευρωπαίων πολιτών.
Η πρακτική της OpenAI ενδέχεται να εκληφθεί ως έμμεση εφαρμογή της φιλοσοφίας του Patriot Act, ακόμα κι αν δεν το επικαλείται ρητά, εφόσον προβαίνει σε προληπτική αναφορά χωρίς δικαστική εντολή. Η νέα πολιτική της OpenAI μπορεί να ιδωθεί ως συνέχιση της λογικής του Patriot Act στη σφαίρα της τεχνητής νοημοσύνης. Επέκταση προληπτικής παρακολούθησης, και ευθυγράμμιση με αμερικανικά πρότυπα εθνικής ασφάλειας, αλλά ταυτόχρονα αντίθεση με το νομικό πλαίσιο της ΕΕ, που δίνει προτεραιότητα στην ιδιωτικότητα και στα δικαιώματα των πολιτών.»

Σύμφωνα με τις Πολιτικές της OpenAI
- Η εταιρεία αναφέρει ότι μπορεί να χρησιμοποιεί δεδομένα χρηστών (π.χ. συνομιλίες) για τη βελτίωση των μοντέλων, εκτός αν ο χρήστης έχει κάνει opt-out.
- Έχει δημιουργηθεί επιλογή «ChatGPT data controls», όπου μπορείς να απενεργοποιήσεις τη χρήση των συνομιλιών σου για εκπαίδευση.
- Σε κάθε περίπτωση, η OpenAI υποστηρίζει ότι εφαρμόζει ανωνυμοποίηση και ελαχιστοποίηση.
Σύμφωνα με το Διεθνές πλαίσιο στις ΗΠΑ, η χρήση δεδομένων συχνά στηρίζεται σε ευρύτερες εξαιρέσεις (fair use, εμπορικοί όροι), με λιγότερη προστασία σε σχέση με την ΕΕ. Γι’ αυτό και πολλές ευρωπαϊκές αρχές (π.χ. στην Ιταλία, στη Γαλλία και στη Γερμανία) έχουν ερευνήσει την OpenAI για πιθανές παραβιάσεις GDPR.