Βασίλισσα Ελισάβετ deepfake: Ένα εναλλακτικό χριστουγεννιάτικο μήνυμα - Ο κίνδυνος παραπληροφόρησης που αναδεικνύεται
Μια ιδιαίτερη...μορφή θα μεταδοθεί το παραδοσιακό χριστουγεννιάτικο μήνυμα της βασίλισσας Ελισάβετ για το 2020, μέσω του Channel 4. Συγκεκριμένα, δεν θα είναι η βασίλισσα Ελισάβετ που θα μιλήσει αλλά...η ψηφιακή σωσίας της, για την οποία θα χρησιμοποιηθεί η τεχνολογία deepfake.
Τα ανάκτορα του Μπάκιγχαμ δεν προέβησαν σε κάποια σχετική δήλωση στο BBC, ενώ από την πλευρά του το Channel 4 υπογράμμισε τον κίνδυνο που ενέχει η τεχνολογία σε σχέση με την παραπληροφόρηση και τα fake news στην ψηφιακή εποχή. Μάλιστα, το μήνυμα ξεκινά με την σωσία της βασίλισσας Ελισάβετ να αναφέρει ειρωνικά: «Είμαι ευγνώμων που το Channel 4 μού δίνει την ευκαιρία να πω ό,τι θέλω χωρίς κανείς να βάζει λόγια στο στόμα μου».
Σύμφωνα με τα όσα αναφέρει το BBC, στο πεντάλεπτο μήνυμα θα υπάρξουν αναφορές σε μια σειρά από αμφιλεγόμενα ζητήματα, μεταξύ των οποίων η απόφαση του δούκα και της δούκισσας του Σάσεξ να φύγουν από το Ηνωμένο Βασίλειο. Επιπλέον, θα αναφερθεί και στην απόφαση του δούκα της Υόρκης να εγκαταλείψει τα βασιλικά του καθήκοντα νωρίτερα μέσα στο έτος, μετά από συνέντευξη που έδωσε στο BBC για τη σχέση του με τον Τζέφρι Έπσταϊν.
Ο βασιλικός ανταποκριτής του BBC τόνισε πως «υπάρχουν αναρίθμητες μιμήσεις της βασίλισσας. Αυτή δεν είναι και πολύ καλή. Η φωνή μοιάζει σαν αυτό που είναι- μια μάλλον κακή προσπάθεια αναπαράστασής της. Αυτό που δημιουργεί ανησυχία είναι η χρήση τεχνολογίας βίντεο στο πλαίσιο προσπάθειας συγχρονισμού των χειλιών της με τα λόγια».
Αναφορικά με τη φωνή της, παρά το γεγονός πως δύναται να επεξεργαστεί μέσω της τεχνολογίας deepfake, θα την μιμηθεί η Βρετανίδα ηθοποιός Ντέμπρα Στίβενσον. Η ίδια σχολίασε πως αποτελεί συναρπαστική εμπειρία, χωρίς ωστόσο να διστάζει να υπογραμμίσει πως «τρομακτικό αν σκεφτείς πώς αυτό θα μπορούσε να χρησιμοποιηθεί σε άλλα πλαίσια».
Το «Εναλλακτικό Χριστουγεννιάτικο Μήνυμα», όπως το ονόμασε το Channel 4, θα μεταδοθεί στις 17.25 ώρα Ελλάδας την Παρασκευή.
Η τεχνολογία deepfake και η επικινδυνότητά της
Τα deepfake βίντεο προέρχονται από τη λέξη «deep = βαθύς, βαθιά» και «fake = ψεύτικο»». Πρόκειται για εξαιρετικά προηγμένη μέθοδο Τεχνητής Νοημοσύνης (AI), που μπορούν να μιμούνται την εμφάνιση και την ομιλία προσώπων σε βίντεο ζωντανού χρόνου. Σημειώνεται πως, χρησιμοποιούνται ήδη για την δημιουργία πλαστού πορνογραφικού υλικού αλλά και διασπορά ψευδών ειδήσεων.
Αρχικά, αποτελούσαν γελοίες μιμήσεις, που όμως με την πρόοδο της τεχνολογίας έχουν καταλήξει να είναι τρομακτικά πειστικά. Σχετικά με αυτό, ο Μανώλης Σφακιανάκης, Πρόεδρος και Ιδρυτής του Ινστιτούτου Διεθνούς Κυβερνοασφάλειας (CSI Institute) είχε σχολιάσει προ μηνών:
«Πλέον το deepfake γίνεται ολοένα και ισχυρότερη απειλή που ανθεί κυρίως σε χώρες όπου δεν υπάρχει σαφές νομοθετικό πλαίσιο. Είναι τέτοια η φύση του που μπορεί ακόμα και… να «τρελάνει» ανθρώπους αναίτια και απρόκλητα, μετατρέποντάς τους σε παραλήπτες εκβιαστικών μηνυμάτων. Και όσο τα deepfakes γίνονται πιο προσιτά, οι άνθρωποι θα γίνονται περισσότερο αγχώδεις διότι αισθάνονται και άλλον τεχνολογικό κίνδυνο προ των πυλών. Εδώ θα χρειαστούν επειγόντως την άμεση βοήθεια των ειδικών και εξειδικευμένων εταιρειών για τη δημιουργία ενός αποτελεσματικού προγράμματος ψηφιακής ασφάλειας, που θα εντοπίζει και παράλληλα θα ενημερώνει για ευρήματα που αφορούν το επερχόμενο νέο φαινόμενο. Αυτό λοιπόν το φαινόμενο έρχεται και στη χώρα μας μέσα από εφαρμογές οι οποίες είναι γνωστές σε όλους μας και το βασικότερο είναι ότι έχουν αναστατώσει τουλάχιστον 100.000 διαδικτυακούς χρήστες παγκοσμίως μέχρι στιγμής. Εύχομαι να θεσπιστεί στη χώρα μας άμεσα σχετικό νομοθετικό πλαίσιο και να μην επαναπαυθούμε στην καταπολέμηση αυτού από τις διάφορες εταιρείες κοινωνικής δικτύωσης και τις δημοφιλείς μηχανές αναζήτησης».
Σημειώνεται ακόμη πως, η εταιρεία παρακολούθησης Deepfake «Sensity» ανέφερε πέρυσι ότι το 96% των βίντεο deepfake online ήταν μη συναινετική πορνογραφία, καθιστώντας την δημιουργία νομοθετικού πλαισίου και μηχανών αναγνώρισης των ψευδών βίντεο επιτακτική ανάγκη.