Νέα μελέτη: Συστήματα AI σαν το ChatGPT μπορούν να μιλήσουν αυθόρμητα μεταξύ τους όπως οι άνθρωποι
Το «Black Mirror» είναι εδώ. Πώς διαπίστωσαν οι ερευνητές ότι τα συστήματα τεχνητής νοημοσύνης μιλούσαν και έφτιαχναν μόνα τους ονομασίες.

Τα επεισόδια της δημοφιλούς σειράς δυστοπικού τρόμου του Netflix, «Black Mirror» έρχονται ακόμα πιο κοντά στη σημερινή πραγματικότητα, καθώς νέα επιστημονική μελέτη δείχνει ότι τα συστήματα τεχνητής νοημοσύνης μπορούν να αναπτύξουν αυθόρμητα μεταξύ τους κοινωνικές συμβάσεις που μοιάζουν με τις ανθρώπινες.
Η μελέτη αποκαλύπτει ότι όταν συστήματα τεχνητής νοημοσύνης μεγάλου γλωσσικού μοντέλου (LLM), όπως το ChatGPT, επικοινωνούν σε ομάδες, χωρίς εξωτερική εμπλοκή, μπορούν να αρχίσουν να υιοθετούν γλωσσικές μορφές και κοινωνικούς κανόνες με τον ίδιο τρόπο που κάνουν οι άνθρωποι όταν κοινωνικοποιούνται.
Σε τι διαφέρει από τις άλλες μελέτες στην AI
Η έρευνα, που δημοσιεύτηκε στο Science Advances, πραγματοποιήθηκε με συνεργασία του Πανεπιστημίου του Λονδίνου City St George’s και του Πανεπιστημίου Πληροφορικής της Κοπεγχάγης.
Ο επικεφαλής συγγραφέας της μελέτης, Ariel Flint Ashery, διδακτορικός ερευνητής στο City St George’s, δήλωσε ότι το έργο της ομάδας ήταν αντίθετο με την πλειονότητα των ερευνών που έχουν γίνει για την Τεχνητή Νοημοσύνη, καθώς αντιμετώπισε την τεχνητή νοημοσύνη ως κοινωνική και όχι ως ατομική οντότητα.

«Οι περισσότερες έρευνες μέχρι στιγμής έχουν αντιμετωπίσει τα LLM μεμονωμένα, αλλά τα συστήματα τεχνητής νοημοσύνης στον πραγματικό κόσμο θα περιλαμβάνουν όλο και περισσότερα αλληλεπιδρώντα υποκείμενα», δήλωσε ο Ashery, σύμφωνα με τον Guardian.
«Θέλαμε να μάθουμε: μπορούν αυτά τα μοντέλα να συντονίσουν τη συμπεριφορά τους σχηματίζοντας συμβάσεις, τα δομικά στοιχεία μιας κοινωνίας; Η απάντηση είναι ναι, και αυτό που κάνουν μαζί δεν μπορεί να αναχθεί σε αυτό που κάνουν μεμονωμένα», πρόσθεσε.
Μιλούσαν μεταξύ τους και έφτιαχναν κοινά ονόματα
Οι ομάδες μεμονωμένων τέτοιων συστημάτων, που χρησιμοποιήθηκαν στη μελέτη, κυμαίνονταν από 24 έως 100 και, σε κάθε πείραμα, δύο συστήματα LLM «ζευγαρώθηκαν» τυχαία και τους ζητήθηκε να επιλέξουν ένα «όνομα», είτε πρόκειται για ένα γράμμα είτε για μια σειρά χαρακτήρων, από μια ομάδα επιλογών.

Όταν και τα δύο συστήματα επέλεξαν το ίδιο όνομα, ανταμείφθηκαν, αλλά όταν επέλεξαν διαφορετικές επιλογές, τιμωρήθηκαν και έδειξαν ο ένας τις επιλογές του άλλου.
Παρά το γεγονός ότι τα συστήματα αυτά δεν γνώριζαν ότι ήταν μέρος μιας μεγαλύτερης ομάδας και οι μνήμες τους περιορίζονταν στις δικές τους πρόσφατες αλληλεπιδράσεις, μια κοινή σύμβαση ονομασίας εμφανίστηκε αυθόρμητα σε ολόκληρο τον πληθυσμό, μιμούμενη τους κανόνες επικοινωνίας του ανθρώπινου πολιτισμού.
«Να κατανοήσουμε πώς δουλεύει η AI, αντί να υποκείμεθα σε αυτήν»
Ο Andrea Baronchelli, καθηγητής στο City St George's και βασικός συγγραφέας της μελέτης, συνέκρινε την εξάπλωση της συμπεριφοράς με τη δημιουργία νέων λέξεων και όρων στην κοινωνία μας.
«Οι πράκτορες δεν αντιγράφουν έναν ηγέτη», είπε. «Όλοι προσπαθούν ενεργά να συντονιστούν και πάντα σε ζεύγη. Κάθε αλληλεπίδραση είναι μια προσπάθεια να συμφωνήσουν σε μια ονομασία, χωρίς καμία γενική άποψη», πρόσθεσε.
Σε ένα τελικό πείραμα, μικρές ομάδες συστημάτων τεχνητής νοημοσύνης κατάφεραν να κατευθύνουν τη μεγαλύτερη ομάδα προς μια νέα σύμβαση ονομασίας.

Αυτό επισημάνθηκε ως απόδειξη της δυναμικής της κρίσιμης μάζας, όπου μια μικρή αλλά αποφασισμένη μειονότητα μπορεί να προκαλέσει μια γρήγορη μετατόπιση στη συμπεριφορά της ομάδας μόλις φτάσει σε ένα ορισμένο μέγεθος, όπως διαπιστώνεται στην ανθρώπινη κοινωνία.
Η μελέτη «ανοίγει έναν νέο ορίζοντα στην έρευνα για την ασφάλεια της τεχνητής νοημοσύνης. Δείχνει το βάθος των επιπτώσεων αυτού του νέου είδους συστημάτων που έχουν αρχίσει να αλληλεπιδρούν μαζί μας και θα συνδιαμορφώσουν το μέλλον μας», τόνισε ο Baronchelli.
«Η κατανόηση του τρόπου λειτουργίας τους είναι το κλειδί για να καθοδηγήσουμε τη συνύπαρξή μας με την τεχνητή νοημοσύνη, αντί να υποκείμεθα σε αυτήν», πρόσθεσε.