Citi Institute: Τα deepfakes της AI το νέο πρόσωπο της εξαπάτησης – Όταν δεν μπορείς να εμπιστευτείς αυτό που βλέπεις και ακούς

Deepfakes: Η τεχνητή νοημοσύνη «ξεγέλασε» τον κόσμο – Πώς μας εξαπατούν

Τεχνολογία
Δημοσιεύθηκε  · 3 λεπτά ανάγνωση

Τα deepfakes, δημιουργήματα της τεχνητής νοημοσύνης, μετατρέπονται στο απόλυτο εργαλείο εξαπάτησης. Φωνές, εικόνες, βίντεο και κείμενα, γεννημένα από την AI, μιμούνται την πραγματικότητα με ανησυχητική ακρίβεια.

Ερευνητές του Citi Institute προειδοποιούν ότι τα deepfakes έχουν ξεπεράσει τα όρια. Από τον χώρο της ψυχαγωγίας, μετατράπηκαν σε «όπλα» του διεθνούς ηλεκτρονικού εγκλήματος, εγκαινιάζοντας μια νέα εποχή απάτης.

Στο παρελθόν, τα deepfakes περιορίζονταν σε παραποιημένες φωνές και αυτοματοποιημένα μηνύματα. Σήμερα, μπορούν να δημιουργήσουν βίντεο σε πραγματικό χρόνο με ρεαλιστικές εκφράσεις προσώπου, καθιστώντας τα σχεδόν απαρατήρητα.

Το 2024, οι απόπειρες απάτης με deepfake αυξήθηκαν κατακόρυφα, φτάνοντας το 4,7% από 0,10% το 2022.

Οι απάτες αυτές καλύπτουν διάφορους τομείς: καταναλωτική πίστη (12%), ακίνητα (8%) και πληρωμές (5%). Στον αντίποδα, η εκπαίδευση, όπου τα κέρδη είναι χαμηλότερα, επηρεάζεται λιγότερο.

Έως το τέλος του 2025, εκτιμάται ότι θα κυκλοφορούν στο διαδίκτυο 8 εκατομμύρια deepfakes, από 500.000 το 2023, υποδεικνύοντας έναν διπλασιασμό κάθε έξι μήνες. H εύκολη πρόσβαση σε εργαλεία τεχνητής νοημοσύνης και ο μεγάλος όγκος δεδομένων συμβάλλουν στην εξάπλωση.

Η ανίχνευση των deepfakes είναι εξαιρετικά δύσκολη, ιδίως στον ήχο, όπου οι παλαιότερες εκδόσεις πρόδιδαν την απάτη με παύσεις. Οι σύγχρονες εκδόσεις έχουν εξαλείψει αυτά τα ελαττώματα, παράγοντας ομαλή και φυσική ομιλία.

Ο αριθμός των συστημάτων γενετικής τεχνητής νοημοσύνης (GenAI) που μπορούν να κλωνοποιήσουν φωνή και βίντεο έχει αυξηθεί εκθετικά, από 100-150 πέρυσι σε πάνω από 500 σήμερα. Εργαλεία ανοιχτού κώδικα διευκολύνουν τη δημιουργία πειστικών fake αρχείων, κάνοντας την απάτη πιο προσιτή.

Τα deepfake βίντεο παρουσιάζουν ακόμη αδυναμίες, αλλά η τεχνολογία εξελίσσεται ραγδαία.

Το κύμα εξαπάτησης διεισδύει πλέον και στους χώρους εργασίας, ακόμη και στις προσλήψεις. Έως το 2028, ένα στα τέσσερα προφίλ υποψηφίων παγκοσμίως θα μπορούσε να είναι ψεύτικο.

Deepfake υποψήφιοι υποβάλλουν αιτήσεις για θέσεις τηλεργασίας, κατασκευάζοντας ψεύτικες ταυτότητες, βιογραφικά, φωτογραφίες και βίντεο. Συμμετέχουν σε συνεντεύξεις μέσω τηλεδιάσκεψης χωρίς να γίνονται αντιληπτοί. Στόχος τους είναι η πρόσβαση σε εταιρικά δεδομένα και υποδομές.

Το ετήσιο κόστος του κυβερνοεγκλήματος σε παγκόσμιο επίπεδο αναμένεται να φτάσει τα 10,5 τρισεκατομμύρια δολάρια έως το 2025, από 3 τρισεκατομμύρια δολάρια το 2015.

Οι παραδοσιακές απάτες (OTP, phishing) εξακολουθούν να υπάρχουν, αλλά τα deepfakes αυξάνονται με ταχείς ρυθμούς.

Καθώς η απάτη εξελίσσεται, οι παραδοσιακοί έλεγχοι ταυτότητας δεν επαρκούν πλέον. Απαιτούνται πολυεπίπεδες ψηφιακές δομές που συνδυάζουν βιομετρικά στοιχεία, δεδομένα συμπεριφοράς και συσκευών.

Οι τρόποι επικοινωνίας, όπως οι τηλεφωνικές κλήσεις και τα email, παραμένουν επικίνδυνα ξεπερασμένοι, καθώς πολλά εταιρικά συστήματα εξακολουθούν να βασίζονται σε αυτά για την αυθεντικοποίηση.

Η ικανότητα των deepfakes να παρακάμπτουν τις παραδοσιακές άμυνες απάτης που βασίζεται στην τεχνητή νοημοσύνη προκαλεί ανησυχία.

Ωστόσο, η ίδια η τεχνολογία AI που επιτρέπει την απάτη μπορεί να χρησιμοποιηθεί εναντίον της. Προηγμένοι «πράκτορες» AI μπορούν να χαρτογραφήσουν δίκτυα απάτης και να επισημάνουν παραποιημένα αρχεία ήχου και βίντεο.