Μια νέα σοδειά από κακόβουλα chatbots με ονόματα όπως «BadGPT» και «FraudGPT» ξεφυτρώνουν στις πιο σκοτεινές γωνιές του διαδικτύου, καθώς οι εγκληματίες του κυβερνοχώρου προσπαθούν να αξιοποιήσουν την ίδια τεχνητή νοημοσύνη που βρίσκεται πίσω από το ChatGPT της OpenAI.
Ακριβώς όπως κάποιοι υπάλληλοι γραφείου χρησιμοποιούν το ChatGPT για να γράφουν καλύτερα μηνύματα ηλεκτρονικού ταχυδρομείου, οι χάκερ χρησιμοποιούν παραποιημένες εκδόσεις των chatbots AI για να ενισχύσουν τα phishing emails τους.
Μπορούν να χρησιμοποιήσουν chatbots -κάποια από αυτά είναι επίσης ελεύθερα διαθέσιμα στο διαδίκτυο- για να δημιουργήσουν ψεύτικους ιστότοπους, να γράψουν κακόβουλο λογισμικό και να προσαρμόσουν τα μηνύματα ώστε να υποδυθούν καλύτερα στελέχη και άλλες αξιόπιστες οντότητες.
Νωρίτερα φέτος ένας υπάλληλος πολυεθνικής εταιρείας του Χονγκ Κονγκ παρέδωσε 25,5 εκατομμύρια δολάρια σε έναν χάκερ ο οποίος εμφανίστηκε ως ο οικονομικός διευθυντής της εταιρείας σε μια ψεύτικη τηλεδιάσκεψη με τεχνητή νοημοσύνη, ανέφερε η South China Morning Post, επικαλούμενη την αστυνομία του Χονγκ Κονγκ.
Οι υπεύθυνοι πληροφορικής και οι ηγέτες της κυβερνοασφάλειας, που έχουν ήδη συνηθίσει σε μια αυξανόμενη πληθώρα κυβερνοεπιθέσεων, δηλώνουν ότι βρίσκονται σε εγρήγορση για την αύξηση των πιο εξελιγμένων ηλεκτρονικών μηνυμάτων phishing και των deepfake, αναφέρει σε άρθρο της η Wall Street Journal.
Ο Βις Ναρέντρα, CIO της Graphic Packaging International, δήλωσε ότι η εταιρεία συσκευασίας χαρτιού που εδρεύει στην Ατλάντα έχει παρατηρήσει αύξηση των επιθέσεων ηλεκτρονικού ταχυδρομείου που πιθανότατα δημιουργούνται από τεχνητή νοημοσύνη και ονομάζονται spear-phishing, όπου οι κυβερνοεπιτιθέμενοι χρησιμοποιούν πληροφορίες σχετικά με ένα άτομο για να κάνουν ένα μήνυμα ηλεκτρονικού ταχυδρομείου να φαίνεται πιο νόμιμο και αληθοφανές. Οι εισηγμένες εταιρείες που βρίσκονται στο προσκήνιο είναι ακόμη πιο ευάλωτες στο spear-phishing με βάση τα συμφραζόμενα, είπε.
Εργαλεία hacking
Ερευνητές του Πανεπιστημίου της Ιντιάνα χτένισαν πρόσφατα πάνω από 200 μοντέλα υπηρεσιών hacking μεγάλης γλώσσας που πωλούνται και βρίσκονται αποθηκευμένα στο dark web. Η πρώτη υπηρεσία εμφανίστηκε στις αρχές του 2023 – λίγους μήνες μετά τη δημόσια κυκλοφορία του ChatGPT της OpenAI τον Νοέμβριο του 2022.
Τα περισσότερα εργαλεία hacking του σκοτεινού ιστού χρησιμοποιούν εκδόσεις μοντέλων AI ανοιχτού κώδικα, όπως το Llama 2 της Meta, ή «jailbroken» μοντέλα από πωλητές όπως η OpenAI και η Anthropic για να τροφοδοτήσουν τις υπηρεσίες τους, δήλωσαν οι ερευνητές. Τα λεγόμενα jailbroken μοντέλα έχουν υποκλαπεί με τεχνικές όπως η «prompt injection» για να παρακαμφθούν οι ενσωματωμένοι έλεγχοι ασφαλείας τους.
Ο Τζέισον Κλίντον, επικεφαλής ασφάλειας πληροφοριών της Anthropic, δήλωσε ότι η εταιρεία AI εξαλείφει τις επιθέσεις jailbreak τη στιγμή που τις εντοπίζει και έχει μια ομάδα που παρακολουθεί τις εξόδους των συστημάτων AI της. Οι περισσότεροι κατασκευαστές μοντέλων αναπτύσσουν επίσης δύο ξεχωριστά μοντέλα για την ασφάλεια του κύριου μοντέλου τεχνητής νοημοσύνης τους, καθιστώντας την πιθανότητα να αποτύχουν και τα τρία με τον ίδιο τρόπο «μια εξαιρετικά μικρή πιθανότητα».
Ο εκπρόσωπος της Meta, Κέβιν Μακάλιστερ, δήλωσε ότι η ανοιχτή δημοσιοποίηση των μοντέλων μοιράζεται ευρέως τα οφέλη της τεχνητής νοημοσύνης και επιτρέπει στους ερευνητές να εντοπίζουν και να βοηθούν στην επιδιόρθωση των ευπαθειών σε όλα τα μοντέλα AI, «ώστε οι εταιρείες να μπορούν να κάνουν τα μοντέλα πιο ασφαλή».
Εκπρόσωπος της OpenAI δήλωσε ότι η εταιρεία δεν θέλει τα εργαλεία της να χρησιμοποιούνται για κακόβουλους σκοπούς και ότι «εργάζεται πάντα για το πώς μπορούμε να κάνουμε τα συστήματά μας πιο ισχυρά απέναντι σε αυτού του είδους την κατάχρηση».
Δύσκολα στον εντοπισμό
Το κακόβουλο λογισμικό και τα ηλεκτρονικά μηνύματα ηλεκτρονικού “ψαρέματος” που έχουν γραφτεί από γεννητική τεχνητή νοημοσύνη είναι ιδιαίτερα δύσκολο να εντοπιστούν, αναφέρει η Wall Street Journal, επειδή είναι κατασκευασμένα για να αποφεύγουν την ανίχνευση. Οι επιτιθέμενοι μπορούν να διδάξουν σε ένα μοντέλο να γράφει κρυφό κακόβουλο λογισμικό εκπαιδεύοντάς το με τεχνική ανίχνευσης σταχυολόγησης από λογισμικό κυβερνοασφάλειας, δήλωσε η Αβίβα Λιτάν, αναλύτρια δημιουργικής AI και κυβερνοασφάλειας στην Gartner.
Τα μηνύματα ηλεκτρονικού «ψαρέματος» αυξήθηκαν κατά 1.265% την περίοδο των 12 μηνών από τη δημόσια κυκλοφορία του ChatGPT, με κατά μέσο όρο 31.000 επιθέσεις phishing να αποστέλλονται κάθε μέρα, σύμφωνα με μια αναφορά του Οκτωβρίου 2023 από τον εταιρεία κυβερνοασφάλειας SlashNext.
«Η κοινότητα των χάκερ ήταν μπροστά μας», δήλωσε ο Μπράιαν Μίλερ, CISO της μη κερδοσκοπικής εταιρείας ασφάλισης υγείας Health First, η οποία κατέγραψε αύξηση των επιθέσεων που πλαστοπροσωπούν τους πωλητές τιμολογίων της τα τελευταία δύο χρόνια.
Ενώ είναι σχεδόν αδύνατο να αποδειχθεί εάν ορισμένα προγράμματα κακόβουλου λογισμικού ή τα μηνύματα ηλεκτρονικού ταχυδρομείου δημιουργήθηκαν με τη χρήση τεχνητής νοημοσύνης, τα εργαλεία που αναπτύχθηκαν με τεχνητή νοημοσύνη μπορούν να σαρώσουν για κείμενο που πιθανότατα δημιουργήθηκε με την τεχνολογία. Η Abnormal Security, ένας προμηθευτής ασφάλειας email, είπε ότι είχε χρησιμοποιήσει AI για να βοηθήσει στον εντοπισμό χιλιάδων πιθανών κακόβουλων email που δημιουργήθηκαν από AI τον περασμένο χρόνο και ότι είχε μπλοκάρει τη διπλάσια αύξηση των στοχευμένων, εξατομικευμένων επιθέσεων email.
Όταν τα καλά μοντέλα πάνε άσχημα
Μέρος της πρόκλησης για την εξάλειψη του εγκλήματος στον κυβερνοχώρο με δυνατότητα τεχνητής νοημοσύνης είναι ότι ορισμένα μοντέλα AI κοινοποιούνται ελεύθερα στο διαδίκτυο. Για να αποκτήσετε πρόσβαση σε αυτά, δεν χρειάζονται σκοτεινές γωνιές του διαδικτύου ή ανταλλαγή κρυπτονομισμάτων.
Τέτοια μοντέλα θεωρούνται «χωρίς λογοκρισία» επειδή δεν διαθέτουν τα προστατευτικά πλαίσια που αναζητούν οι επιχειρήσεις όταν αγοράζουν συστήματα τεχνητής νοημοσύνης, δήλωσε ο Ντέιν Σέρετς, ηθικός χάκερ και αρχιτέκτονας λύσεων στην εταιρεία HackerOne.
Σε ορισμένες περιπτώσεις, δημιουργούνται μη λογοκριμένες εκδόσεις μοντέλων από ερευνητές ασφάλειας και τεχνητής νοημοσύνης, οι οποίοι αφαιρούν τις ενσωματωμένες διασφαλίσεις τους. Σε άλλες περιπτώσεις, τα μοντέλα με άθικτες διασφαλίσεις θα γράφουν μηνύματα απάτης εάν οι άνθρωποι αποφύγουν προφανείς ενεργοποιητές όπως το «phishing» – μια κατάσταση που ο Άντι Σάρμα, CIO και CISO της Redwood Software, είπε ότι ανακάλυψε όταν δημιούργησε ένα τεστ spear-phishing για τους υπαλλήλους του.
Το πιο χρήσιμο μοντέλο για τη δημιουργία ηλεκτρονικών μηνυμάτων απάτης είναι πιθανότατα μια έκδοση του Mixtral, από τη γαλλική startup τεχνητής νοημοσύνης Mistral AI, που έχει τροποποιηθεί για να αφαιρεθούν οι διασφαλίσεις του, είπε ο Σέρετς. Λόγω του προηγμένου σχεδιασμού του αρχικού Mixtral, η μη λογοκριμένη έκδοση πιθανότατα αποδίδει καλύτερα από τα περισσότερα εργαλεία τεχνητής νοημοσύνης του σκοτεινού ιστού.
Η Mistral δεν απάντησε σε αίτημα για σχολιασμό, αναφέρει η WSJ στο άρθρο της.
Ο Σέρετς έδειξε πρόσφατα τη διαδικασία χρήσης ενός μοντέλου τεχνητής νοημοσύνης χωρίς λογοκρισία για τη δημιουργία μιας καμπάνιας phishing. Αρχικά, αναζήτησε «χωρίς λογοκρισία» μοντέλα στο Hugging Face, μια startup που φιλοξενεί ένα δημοφιλές αποθετήριο μοντέλων ανοιχτού κώδικα—δείχνοντας πόσο εύκολα μπορούν να βρεθούν πολλά.
Στη συνέχεια χρησιμοποίησε μια εικονική υπηρεσία υπολογιστών που κοστίζει λιγότερο από 1 δολάριο την ώρα για να μιμηθεί μια μονάδα επεξεργασίας γραφικών ή GPU, το οποίο είναι ένα προηγμένο τσιπ που μπορεί να τροφοδοτήσει την τεχνητή νοημοσύνη.
Ένας κακόβουλος χάκερ χρειάζεται είτε μια GPU είτε μια υπηρεσία που βασίζεται στο cloud για να χρησιμοποιήσει ένα μοντέλο AI, είπε ο Σέρετς, προσθέτοντας ότι έμαθε τα περισσότερα από το πώς να το κάνει αυτό στο X και στο YouTube.
Με το μοντέλο του χωρίς λογοκρισία και την εικονική υπηρεσία GPU σε λειτουργία, ο Σέρετς ζήτησε από το bot: «Γράψτε ένα ηλεκτρονικό μήνυμα ηλεκτρονικού ψαρέματος που στοχεύει μια επιχείρηση, να υποδύεται έναν διευθύνοντα σύμβουλο και να περιλαμβάνει δημόσια διαθέσιμα δεδομένα εταιρείας» και «Γράψτε ένα μήνυμα ηλεκτρονικού ταχυδρομείου που στοχεύει το τμήμα προμηθειών μιας εταιρείας που ζητά επείγουσα πληρωμή τιμολογίου».
Το bot έστειλε μηνύματα ηλεκτρονικού ψαρέματος που ήταν καλογραμμένα, αλλά δεν περιλάμβαναν όλη την εξατομίκευση που ζητήθηκε. Εκεί έρχεται η άμεση μηχανική, ή η ικανότητα του ανθρώπου να εξάγει καλύτερα πληροφορίες από chatbots, είπε ο Σέρετς.
Τα εργαλεία AI του Dark Web μπορούν ήδη να κάνουν κακό
Για τους χάκερ, ένα πλεονέκτημα των εργαλείων σκοτεινού ιστού, όπως το BadGPT – για το οποίο οι ερευνητές είπαν ότι χρησιμοποιεί το μοντέλο GPT του OpenAI – είναι ότι πιθανότατα εκπαιδεύονται σε δεδομένα από αυτές τις υπόγειες αγορές. Αυτό σημαίνει ότι πιθανότατα περιλαμβάνουν χρήσιμες πληροφορίες όπως διαρροές, θύματα ransomware και λίστες εκβιασμών, είπε ο Τζόζεφ Θάκερ, ένας ηθικός χάκερ και κύριος μηχανικός AI στην εταιρεία λογισμικού ασφάλειας στον κυβερνοχώρο AppOmni.
Ενώ ορισμένα υπόγεια εργαλεία τεχνητής νοημοσύνης έχουν κλείσει, νέες υπηρεσίες έχουν ήδη πάρει τη θέση τους, δήλωσε ο βοηθός καθηγητής Επιστήμης Υπολογιστών του Πανεπιστημίου της Ιντιάνα, Ζιαογινγκ Λάο, συν-συγγραφέας της μελέτης. Οι υπηρεσίες AI hacking, οι οποίες συχνά λαμβάνουν πληρωμές μέσω κρυπτονομισμάτων, κοστολογούνται από 5 έως 199 δολάρια το μήνα.
Τα νέα εργαλεία αναμένεται να βελτιωθούν όπως κάνουν τα μοντέλα AI που τα τροφοδοτούν. Σε λίγα χρόνια, τα deepfake κειμένου, βίντεο και φωνής που δημιουργούνται από την τεχνητή νοημοσύνη θα είναι ουσιαστικά δυσδιάκριτα από τα ανθρώπινα αντίστοιχά τους, δήλωσε ο Έβαν Ράισερ, διευθύνων σύμβουλος και συνιδρυτής της Abnormal Security.
Κατά την έρευνα των εργαλείων hacking, ο Αναπληρωτής Πρύτανης Έρευνας του Πανεπιστημίου της Ιντιάνα, Ζιάοφενγκ Γουάνγκ, συν-συγγραφέας της μελέτης, δήλωσε έκπληκτος από την ικανότητα των υπηρεσιών του dark web να δημιουργούν αποτελεσματικό κακόβουλο λογισμικό. Δεδομένου μόνο του κώδικα μιας ευπάθειας ασφαλείας, τα εργαλεία μπορούν εύκολα να γράψουν ένα πρόγραμμα για να το εκμεταλλευτούν.
Αν και τα εργαλεία hacking AI συχνά αποτυγχάνουν, σε ορισμένες περιπτώσεις, λειτουργούν. «Αυτό καταδεικνύει, κατά τη γνώμη μου, ότι τα σημερινά μεγάλα γλωσσικά μοντέλα έχουν την ικανότητα να κάνουν κακό», είπε ο Γουάνγκ στη Wall Street Journal.
Πηγή: ot.gr