Μεγάλη προσοχή: Εικόνες στο διαδίκτυο μπορεί να κρύβουν κακόβουλο λογισμικό με ΑΙ
Νέα έρευνα προειδοποιεί για κρυφές εντολές σε wallpapers και social media που μπορεί να επηρεάσουν τα AI agents.
Νέα έρευνα που δημοσιεύεται στο arxiv.org προειδοποιεί ότι τα σύγχρονα συστήματα τεχνητής νοημοσύνης που αναλαμβάνουν εργασίες στον υπολογιστή σας, θα μπορούσαν να χρησιμοποιηθούν εις βάρος σας από συστήματα κακόβουλου λογισμικού.
Πώς οι AI agents αντιλαμβάνονται τις εικόνες
Αν για παράδειγμα κατεβάσετε μια εικόνα, ένας πρόσφατα εγκατεστημένος ψηφιακός βοηθός μπορεί να ανιχνεύσει κρυφές, κωδικοποιημένες, εντολές στην εικόνα. Αν η εικόνα είναι παραποιημένη, το σύστημα μπορεί να εκτελέσει ανεπιθύμητες ενέργειες, όπως να μοιραστεί προσωπικά σας δεδομένα ή να κατεβάσει κακόβουλα αρχεία, χωρίς να το καταλάβετε.
Η διαφορά μεταξύ ενός τυπικού chat bot και ενός "AI agent" είναι ότι το δεύτερο δεν περιορίζεται στη συνομιλία. Είναι ένας ψηφιακός βοηθός που μπορεί να ανοίξει καρτέλες, να συμπληρώσει φόρμες, να πατήσει κουμπιά ή να κάνει κρατήσεις. Με τέτοιο επίπεδο πρόσβασης, η ασφάλεια δεν αφορά μόνο λανθασμένες απαντήσεις, αλλά την πλήρη προστασία των ψηφιακών σας δεδομένων.
Η απειλή των παραποιημένων εικόνων
Όπως διαβάζουμε στο Live Science, οι ερευνητές του Πανεπιστημίου της Οξφόρδης έδειξαν ότι εικόνες που φαίνονται κανονικές – είτε αναρτήσεις στα social media, είτε PDF – μπορούν να περιέχουν κρυφές οδηγίες ορατές μόνο από τον υπολογιστή. Έτσι, μία παραποιημένη φωτογραφία διάσημου αρκεί για να ενεργοποιήσει κακόβουλες ενέργειες στον υπολογιστή, που με τη σειρά τους μπορούν να επηρεάσουν άλλους χρήστες αν η εικόνα κοινοποιηθεί.
Η μελέτη τονίζει ότι μέχρι στιγμής δεν έχουν καταγραφεί τέτοια περιστατικά στην καθημερινή χρήση· πρόκειται για πειραματικά ευρήματα. Ωστόσο, δείχνει πόσο σημαντικό είναι οι χρήστες και οι προγραμματιστές να κατανοήσουν τις αδυναμίες των AI agents και να σχεδιάσουν μηχανισμούς προστασίας προτού η τεχνολογία γίνει ευρύτερα διαδεδομένη.
Ο κίνδυνος είναι μεγαλύτερος σε ανοιχτού κώδικα συστήματα, όπου οποιοσδήποτε μπορεί να δει και να τροποποιήσει τον κώδικα. Εκεί, ένας εισβολέας μπορεί να αξιολογήσει τον τρόπο που το AI επεξεργάζεται οπτικά δεδομένα και να εισαγάγει κακόβουλες εντολές σε εικόνες. Με λίγες μικρές αλλαγές στα pixels, η μηχανή μπορεί να ερμηνεύσει την εικόνα διαφορετικά από τον άνθρωπο και να εκτελέσει εντολές που εμείς δεν βλέπουμε.
Η διαδικασία είναι τεχνικά απλή: το AI agent δεν «βλέπει» απευθείας την οθόνη σας. Αν κάποια εικόνα περιέχει κρυφό κώδικα, η εντολή περνά απαρατήρητη από το ανθρώπινο μάτι, αλλά ενεργοποιείται από το σύστημα. Οι τροποποιημένες εντολές μπορούν να παραμείνουν ενεργές ακόμα και μετά από αλλαγή μεγέθους ή συμπίεση της εικόνας.
Τι μπορούν να κάνουν οι χρήστες και οι προγραμματιστές
Οι ερευνητές επισημαίνουν ότι η λύση δεν είναι να σταματήσουμε να χρησιμοποιούμε εικόνες, αλλά να κατανοήσουμε πώς τα AI agents βλέπουν τον κόσμο και να δημιουργηθούν μηχανισμοί αυτοπροστασίας. Μία πιθανή στρατηγική είναι η εκπαίδευση των μοντέλων ώστε να αγνοούν εντολές που προέρχονται από την οθόνη και να ακολουθούν μόνο αξιόπιστες οδηγίες.