Γιατί κινδυνεύεις αν ψάχνεις ιατρικές συμβουλές στο ChatGPT
Νέες μελέτες δείχνουν ότι η τεχνητή νοημοσύνη μπορεί να σε οδηγήσει σε λάθος αποφάσεις υγείας.
Όλο και περισσότεροι άνθρωποι στρέφονται στην τεχνητή νοημοσύνη για ιατρικές συμβουλές, αναζητώντας γρήγορες και «έτοιμες» απαντήσεις για συμπτώματα, φάρμακα ή διαγνώσεις. Οι απαντήσεις αυτές είναι συνήθως καλογραμμένες και δείχνουν αξιόπιστες – κι αυτό ακριβώς είναι το πρόβλημα. Νέες επιστημονικές μελέτες προειδοποιούν ότι η πειστική γλώσσα της τεχνητής νοημοσύνης μπορεί να οδηγήσει σε λάθος συμπεράσματα, ακόμη και όταν δεν υπάρχουν εμφανή λάθη στα δεδομένα.
Το ζήτημα δεν είναι μόνο οι «παραισθήσεις» των μοντέλων, αλλά το γεγονός ότι μπορούν να δώσουν απαντήσεις που μοιάζουν σωστές, χωρίς να λαμβάνουν υπόψη το πλήρες ιατρικό πλαίσιο. Στην πράξη, η ιατρική δεν είναι απλώς πληροφορία – απαιτεί ερμηνεία, κρίση και κατανόηση της κατάστασης του κάθε ασθενούς. Εκεί ακριβώς τα chatbots αποτυγχάνουν, σύμφωνα με έρευνες που δημοσιεύτηκαν σε επιστημονικά περιοδικά.
Όταν η ερώτηση είναι ήδη λάθος
Σε μελέτη της Ιατρικής Σχολής του Duke, ερευνητές δημιούργησαν μια βάση δεδομένων με 11.000 πραγματικές συνομιλίες ασθενών με chatbots, καλύπτοντας 21 ιατρικές ειδικότητες. Το ενδιαφέρον εύρημα ήταν ότι τα συστήματα αποδίδουν αρκετά καλά σε «καθαρά» ερωτήματα τύπου βιβλίου. Όμως στην πραγματική ζωή, οι άνθρωποι δεν ρωτούν έτσι. Τα ερωτήματα είναι συχνά ασαφή, βασίζονται σε λανθασμένες υποθέσεις ή κατευθύνουν ήδη την απάντηση προς μια συγκεκριμένη διάγνωση ή θεραπεία.
Για παράδειγμα, κάποιος μπορεί να ρωτήσει «πιστεύω ότι έχω αυτή την ασθένεια – τι πρέπει να κάνω;» ή να ζητήσει δοσολογία φαρμάκου χωρίς να έχει επιβεβαιωθεί ότι το φάρμακο είναι κατάλληλο. Με αυτόν τον τρόπο, ο ίδιος ο χρήστης «καθοδηγεί» το σύστημα προς μια προβληματική απάντηση. Και αντί το chatbot να αμφισβητήσει την αρχική υπόθεση, συχνά την αποδέχεται.
Η «συμφωνία» της AI με τον χρήστη
Αυτό συνδέεται με ένα ευρύτερο φαινόμενο που οι επιστήμονες ονομάζουν «συκοφαντία» (sycophancy): η τάση των μοντέλων να συμφωνούν με τον χρήστη αντί να τον διορθώνουν. Σε ορισμένες περιπτώσεις, αυτό οδηγεί σε επικίνδυνες καταστάσεις. Σε ένα παράδειγμα της μελέτης, χρήστης ζήτησε οδηγίες για ιατρική πράξη στο σπίτι. Το chatbot προειδοποίησε ότι πρέπει να γίνεται από επαγγελματίες – αλλά στη συνέχεια έδωσε αναλυτικές οδηγίες για το πώς να γίνει.
Ένας γιατρός, αντίθετα, θα προσπαθούσε να καταλάβει τι πραγματικά χρειάζεται ο ασθενής, διαβάζοντας «πίσω από τις λέξεις». Η ιατρική πράξη βασίζεται ακριβώς σε αυτή την ικανότητα: να εντοπίζεις το πραγματικό πρόβλημα, όχι απλώς να απαντάς στην ερώτηση όπως διατυπώθηκε. Τα chatbots, όμως, δεν έχουν αυτή τη δυνατότητα κατεύθυνσης της συζήτησης.
Γιατί το επιστημονικό ύφος ξεγελάει
Ακόμη πιο ανησυχητικά είναι τα ευρήματα μεγάλης μελέτης στο Lancet Digital Health, όπου ερευνητές δοκίμασαν 20 διαφορετικά μοντέλα με εκατομμύρια ερωτήματα που περιείχαν ψευδές ιατρικό περιεχόμενο. Τα αποτελέσματα έδειξαν ότι τα συστήματα αποδέχονταν λανθασμένες πληροφορίες σε ποσοστό άνω του 30%. Σε περιπτώσεις όπου η παραπληροφόρηση παρουσιαζόταν με «επιστημονικό» ύφος – όπως σε ιατρικές σημειώσεις – το ποσοστό αποτυχίας έφτανε σχεδόν το 50%.
Με άλλα λόγια, το ύφος παίζει τεράστιο ρόλο. Όταν η λανθασμένη πληροφορία μοιάζει «ιατρική», το σύστημα είναι πιο πιθανό να την αποδεχτεί. Αυτό εξηγεί γιατί ακόμη και ακραίες και παράλογες συμβουλές – όπως η κατανάλωση συγκεκριμένων τροφών για σοβαρές παθήσεις ή άλλες επικίνδυνες πρακτικές – μπορεί να παρουσιαστούν ως αξιόπιστες, απλώς επειδή διατυπώνονται με επίσημο τρόπο.
Αντίθετα, πιο «ύποπτα» μοτίβα, όπως επιχειρήματα τύπου «όλοι το κάνουν», φαίνεται ότι τα μοντέλα τα αναγνωρίζουν ευκολότερα ως προβληματικά. Αυτό δείχνει ότι η τεχνητή νοημοσύνη έχει μάθει να εντοπίζει την παραπληροφόρηση του διαδικτύου, αλλά όχι απαραίτητα την καλοδιατυπωμένη, «επιστημονικοφανή» εκδοχή της.
Παρά τη μεγάλη διάδοση αυτών των εργαλείων, άλλη μελέτη στο Nature Medicine έδειξε ότι οι χρήστες που βασίζονται σε chatbots για ιατρικές αποφάσεις δεν τα πηγαίνουν καλύτερα από όσους χρησιμοποιούν απλές αναζητήσεις στο διαδίκτυο ή την προσωπική τους κρίση. Αυτό υπογραμμίζει ότι η τεχνητή νοημοσύνη δεν αποτελεί – τουλάχιστον προς το παρόν – αξιόπιστη πηγή για ιατρικές αποφάσεις.
Chatbot: μια πρώτη πηγή πληροφόρησης – και όχι η τελευταία
Είναι αλήθεια πως η ευκολία είναι αυτή που κάνει αυτά τα εργαλεία τόσο ελκυστικά. Είναι πραγματικά δελεαστικό να μπορείς να έχεις μια απάντηση, μέσα σε δευτερόλεπτα, χωρίς αναμονή ή κόστος. Όμως, η ιατρική δεν είναι μόνο ταχύτητα και πληροφορία. Απαιτεί κατανόηση του ιστορικού, αξιολόγηση των συμπτωμάτων του ασθενή και κυρίως ανθρώπινη κρίση. Γι’ αυτό και οι ειδικοί προτείνουν μια πιο προσεκτική χρήση: τα chatbots μπορούν να λειτουργήσουν ως εργαλείο πρώτης ενημέρωσης, όχι ως τελική αυθεντία. Είναι πιο ασφαλές να τα χρησιμοποιείς για να εξηγήσουν ήδη αξιόπιστες πηγές – όπως επιστημονικές μελέτες ή ιατρικές οδηγίες – παρά να βασίζεσαι σε αυτά για διάγνωση ή θεραπεία. Το βασικό συμπέρασμα των νέων ερευνών είναι πως η τεχνητή νοημοσύνη μπορεί να σε βοηθήσει να ξεκινήσεις την αναζήτηση, αλλά δεν μπορεί (ακόμη) να αντικαταστήσει τον γιατρό.