Η απάτη που βασίζεται στην τεχνητή νοημοσύνη αντιπροσωπεύει πλέον πάνω από το 43% όλων των προσπαθειών απάτης που καταγράφονται στον χρηματοπιστωτικό τομέα, ενώ σχεδόν το 29% αυτών των προσπαθειών αποδεικνύονται επιτυχείς. Τα παραπάνω προκύπτουν από εκτιμήσεις τις οποίες παρουσιάζει η εταιρεία ασφάλειας πληροφοριακών συστημάτων ESET.
H τεχνητή νοημοσύνη χρησιμοποιείται από κυβερνοεγκληματίες, ιδιαίτερα σε περιπτώσεις κλοπής ταυτότητας – του πιο διαδεδομένου τύπου απάτης σήμερα. Περισσότερο από το ένα τρίτο των τραπεζικών στελεχών στο Ηνωμένο Βασίλειο, την Ισπανία και τις Ηνωμένες Πολιτείες δηλώνουν ότι η μεγαλύτερη πρόκληση που αντιμετωπίζουν σήμερα είναι η άνοδος της απάτης που βασίζεται στην τεχνητή νοημοσύνη και στα deepfakes.
Η απάτη κλοπής ταυτότητας συμβαίνει όταν οι προσωπικές σας πληροφορίες (PII) χρησιμοποιούνται για παράνομες δραστηριότητες, όπως συναλλαγές με πιστωτικές κάρτες ή πρόσβαση σε τραπεζικούς και άλλους λογαριασμούς.
Οι τακτικές απάτης με χρήση τεχνητής νοημοσύνης
– Καταλήψεις λογαριασμών μέσω deepfake και δημιουργία νέων λογαριασμών: Οι απατεώνες αξιοποιούν ψεύτικα αρχεία ήχου και βίντεο για να παρακάμψουν τους ελέγχους που χρησιμοποιούν οι χρηματοπιστωτικές εταιρείες για την επαλήθευση της ταυτότητας των πελατών τους. Μια φωτογραφία ή ένα βίντεο που έχει αναρτηθεί στο διαδίκτυο μπορεί να εισαχθεί σε μια εφαρμογή δημιουργίας deepfake ή γενετικής τεχνητής νοημοσύνης. Στη συνέχεια, χρησιμοποιείται σε επιθέσεις τύπου “injection”, σχεδιασμένες να παραπλανήσουν τα συστήματα ταυτοποίησης των χρηματοπιστωτικών υπηρεσιών. Σύμφωνα με έκθεση, τα deepfakes ευθύνονται πλέον για το 24% των ψευδών προσπαθειών να ξεπεράσουν βιομετρικούς ελέγχους που βασίζονται στην κίνηση και το 5% των στατικών ελέγχων που βασίζονται σε φωτογραφίες selfie.
– Πλαστογράφηση εγγράφων: Πιο παλιά, οι απατεώνες χρησιμοποιούσαν πλαστά διαβατήρια για να ανοίγουν νέους λογαριασμούς στο όνομα ανυποψίαστων θυμάτων. Σήμερα, ωστόσο, αυτή η διαδικασία έχει γίνει πολύ πιο εύκολη με τη χρήση της τεχνολογίας. Σύμφωνα με έκθεση, η ψηφιακή πλαστογράφηση αντιπροσωπεύει πάνω από το 57% του συνόλου των απατών με έγγραφα, με μια ετήσια αύξηση της τάξης του 244%. Οι απατεώνες έχουν συνήθως πρόσβαση σε πρότυπα εγγράφων στο διαδίκτυο ή κατεβάζουν εικόνες εγγράφων που έχουν κλαπεί μέσω παραβιάσεων δεδομένων. Στη συνέχεια, τροποποιούν τις λεπτομέρειες χρησιμοποιώντας εργαλεία όπως το Photoshop. Τα εργαλεία δημιουργικής τεχνητής νοημοσύνης (GenAI) τους επιτρέπουν να το κάνουν αυτό με ταχύτητα και σε μεγάλη κλίμακα.
– Συνθετική απάτη: Οι απατεώνες είτε δημιουργούν νέες ταυτότητες συνδυάζοντας πραγματικά (κλεμμένα) και επινοημένα προσωπικά στοιχεία για να σχηματίσουν μια εντελώς νέα ταυτότητα, είτε χρησιμοποιούν αποκλειστικά κατασκευασμένα στοιχεία. Αυτές οι ταυτότητες χρησιμοποιούνται στη συνέχεια για το άνοιγμα νέων λογαριασμών σε τράπεζες και εταιρείες πιστωτικών καρτών. Οι πλαστογραφίες εγγράφων και τα deepfake μπορούν να συνδυαστούν με αυτές τις ταυτότητες, αυξάνοντας τις πιθανότητες επιτυχίας των απατεώνων. Σύμφωνα με μια έκθεση, το 76% των επαγγελματιών διαχείρισης κινδύνου και απάτης στις ΗΠΑ πιστεύει ότι η εταιρεία τους έχει συνθετικούς πελάτες. Εκτιμούν, επίσης, ότι αυτός ο τύπος απάτης έχει αυξηθεί κατά 17% ετησίως.
– Deepfakes που ξεγελούν φίλους και οικογένεια: Μερικές φορές, ψεύτικα βίντεο ή ήχοι μπορούν να χρησιμοποιηθούν σε απάτες που εξαπατούν ακόμα και κοντινά πρόσωπα. Μια συνηθισμένη τακτική είναι η εικονική απαγωγή, όπου συγγενείς λαμβάνουν ένα τηλεφώνημα από έναν δράστη που ισχυρίζεται ότι σας έχει απαγάγει. Παίζουν έναν deepfake ηχητικό αρχείο της φωνής σας ως «απόδειξη» και στη συνέχεια ζητούν λύτρα. Το GenAI, εκτός από τη δημιουργία των ψεύτικων αρχείων, μπορεί να χρησιμοποιηθεί και για να βοηθήσει τους απατεώνες να εντοπίσουν πιθανά θύματα.
– Συμπλήρωση διαπιστευτηρίων: Η συμπλήρωση διαπιστευτηρίων περιλαμβάνει τη χρήση κλεμμένων συνδυασμών ονόματος χρήστη και κωδικού πρόσβασης σε αυτοματοποιημένες προσπάθειες πρόσβασης σε άλλους λογαριασμούς, όπου ενδεχομένως έχουν χρησιμοποιηθεί τα ίδια διαπιστευτήρια. Εργαλεία τεχνητής νοημοσύνης μπορούν να δημιουργήσουν γρήγορα λίστες με τέτοια διαπιστευτήρια από πολλαπλές πηγές δεδομένων, συμβάλλοντας στην κλιμάκωση των επιθέσεων. Επιπλέον, μπορούν να χρησιμοποιηθούν για την ακριβή μίμηση της ανθρώπινης συμπεριφοράς κατά τη διαδικασία σύνδεσης, ώστε να παρακάμψουν τα συστήματα προστασίας.
Για να αντιμετωπίσουν τη χρήση της τεχνητής νοημοσύνης σε επιθέσεις εναντίον τους, οι εταιρείες στρέφονται όλο και περισσότερο σε αμυντικά εργαλεία τεχνητής νοημοσύνης. Αυτά τα εργαλεία βοηθούν στον εντοπισμό προειδοποιητικών σημείων απάτης, ενισχύοντας την ασφάλεια των δεδομένων τους.
Οι συμβουλές της ESET
– Περιορίστε τις πληροφορίες που μοιράζεστε στα μέσα κοινωνικής δικτύωσης και προσαρμόστε τις ρυθμίσεις απορρήτου για μεγαλύτερη ασφάλεια.
– Να είστε προσεκτικοί με το phishing: ελέγχετε πάντα τα στοιχεία των αποστολέων, αναζητάτε τυπογραφικά και γραμματικά λάθη και μην ανοίγετε συνδέσμους ή συνημμένα από ανεπιθύμητα μηνύματα ηλεκτρονικού ταχυδρομείου.
– Ενεργοποιήστε τον έλεγχο ταυτότητας πολλαπλών παραγόντων (MFA) σε όλους τους λογαριασμούς σας.
– Χρησιμοποιείτε ισχυρούς, μοναδικούς κωδικούς πρόσβασης και αποθηκεύστε τους με ασφάλεια σε έναν διαχειριστή κωδικών.
– Διατηρείτε ενημερωμένο το λογισμικό σε όλες τις συσκευές σας, συμπεριλαμβανομένων φορητών υπολογιστών και κινητών τηλεφώνων.
– Παρακολουθείτε στενά τους τραπεζικούς και πιστωτικούς λογαριασμούς σας, ελέγχοντας τακτικά για ύποπτες συναλλαγές και κλειδώστε άμεσα τον λογαριασμό σας εάν παρατηρήσετε κάτι ύποπτο.
– Εγκαταστήστε πολυεπίπεδο λογισμικό ασφαλείας από αξιόπιστο προμηθευτή σε όλες τις συσκευές σας.
– Είναι σημαντικό να ενημερώνεστε για τις τελευταίες τακτικές απάτης με τεχνητή νοημοσύνη και να εκπαιδεύετε τους φίλους και την οικογένειά σας σχετικά με τις απάτες deepfake και άλλες τεχνικές εξαπάτησης που αξιοποιούν την τεχνητή νοημοσύνη.
Τι είναι η deepfake τεχνολογία
Οι «Deepfake» τεχνολογίες αναφέρονται σε ένα σύνολο αλγορίθμων και μηχανικής μάθησης που μπορούν να δημιουργούν ή να τροποποιούν ηχητικό και οπτικό περιεχόμενο με τέτοιο τρόπο που να παράγονται αληθοφανείς, αλλά συνάμα συνθετικές, εικόνες και πραγματικότητες.
Η τεχνολογία αυτή έχει τη δυνατότητα να παράγει περιεχόμενο που δύσκολα διακρίνεται από το γνήσιο, προκαλώντας σημαντικές προκλήσεις και ηθικά διλήμματα. Παρά τις δυνατότητες και οφέλη που προσφέρει σε διάφορους τομείς όπως η ψυχαγωγία, η εκπαίδευση και η υγεία, απαιτεί μια προσεκτική και προληπτική προσέγγιση για τη διαχείριση των πιθανών κινδύνων και της εκμετάλλευσής της για αθέμιτες πρακτικές.
Για παράδειγμα, ενώ deepfakes μπορούν να αξιοποιηθούν για δημιουργία προσομοιώσεων για εκπαίδευση και προετοιμασία ενάντια σε φυσικές καταστροφές, να επιτρέψουν ρεαλιστικές ιστορικές αναπαραστάσεις ενισχύοντας τη διαδικασία μάθησης και να βοηθήσουν την επικοινωνία παρέχοντας σε πραγματικό χρόνο ερμηνεία νοηματικής γλώσσας, υπάρχουν εφαρμογές της που ελλοχεύουν σημαντικούς κινδύνους για την κοινωνία μας ευρύτερα. Ενώ λοιπόν τα deepfakes μπορούν να χρησιμοποιηθούν υπεύθυνα με κατάλληλα ηθικά κριτήρια και ρυθμιστική εποπτεία και να προσφέρουν καινοτόμες λύσεις και σημαντικά οφέλη σε διάφορους τομείς, μπορούν επίσης να αποτελέσουν μοχλό για τη διάδοση παραπληροφόρησης. Αυτό είναι ιδιαίτερα ανησυχητικό μιας και η ποιότητα της παραγόμενης εικόνας ή/και του ήχου καθιστούν οριακά ανέφικτο το διαχωρισμό του αυθεντικού από το αληθοφανές περιεχόμενο
ΠΗΓΗ: ΑΠΕ-ΜΠΕ
Αλέξης Κούγιας: Η αποκάλυψη για τα τελευταία του γενέθλια – «Ήταν καθήμενος, δε μπορούσε να σηκωθεί»
ΓΡΑΨΤΕ ΤΟ ΣΧΟΛΙΟ ΣΑΣ"