Deepfake αστυνομικίνες: Η γερμανική αστυνομία προειδοποιεί για απάτη στο διαδίκτυο!
Η γερμανική αστυνομία βρίσκεται σε συναγερμό για μια νέα διαδικτυακή απάτη, όπου αστυνομικίνες που έχουν δημιουργηθεί με τεχνητή νοημοσύνη χρησιμοποιούνται για να εξαπατήσουν ανυποψίαστους χρήστες.
Η αστυνομία του Αμβούργου έχει παρατηρήσει μια ανησυχητική αύξηση των ψεύτικων προφίλ στα μέσα κοινωνικής δικτύωσης. Αυτά τα προφίλ παρουσιάζουν deepfake εικόνες ελκυστικών γυναικών, οι οποίες εμφανίζονται να φορούν αστυνομικές στολές.
Σύμφωνα με τις αρχές, οι λογαριασμοί αυτοί έχουν ως στόχο να προσελκύσουν άνδρες χρήστες των μέσων κοινωνικής δικτύωσης. Τους δελεάζουν να κάνουν κλικ σε ιστοσελίδες επί πληρωμή, όπου υπόσχονται να δουν περισσότερες ρεαλιστικές εικόνες των γυναικών αστυνομικών, που όμως είναι δημιουργήματα της τεχνητής νοημοσύνης.
«Λαμβάνουμε όλο και περισσότερες αναφορές για προφίλ που πιθανόν δημιουργήθηκαν με AI στα μέσα κοινωνικής δικτύωσης και τα οποία υποτίθεται ότι απεικονίζουν γυναίκες συναδέλφους της αστυνομίας του Αμβούργου», ανακοίνωσε η αστυνομία.
Ο εκπρόσωπος της αστυνομίας, Florian Abbenseth, τόνισε τη σοβαρότητα του θέματος: «Τέτοιου είδους προφίλ πλήττουν τη φήμη της αστυνομίας, γι’ αυτό και προχωρούμε σε αποφασιστικές ενέργειες εναντίον τους».
Οι εικόνες που έχουν δημιουργηθεί με τεχνητή νοημοσύνη δείχνουν συχνά νεαρές και εμφανίσιμες γυναίκες να ποζάρουν φορώντας στενές και σέξι αστυνομικές στολές, δημιουργώντας μια ψευδή και παραπλανητική εικόνα.
Ένα παράδειγμα είναι μια φωτογραφία όπου μια ξανθιά γυναίκα φαίνεται να έχει κατεβάσει το φερμουάρ του μπουφάν της, αποκαλύπτοντας μέρος του στήθους της. Σε μια άλλη εικόνα, μια γυναίκα φορά μια πολύ στενή στολή, ενώ ένας άνδρας φαίνεται να φωτογραφίζει τα οπίσθιά της. Παραμένει ασαφές αν ο άνδρας είναι πραγματικός ή επίσης προϊόν τεχνητής νοημοσύνης.
Μια τρίτη εικόνα δείχνει μια αστυνομικό, επίσης δημιουργημένη με τεχνητή νοημοσύνη, γονατισμένη στο πάτωμα να ποζάρει για μια selfie μπροστά σε καθρέφτη.
Η αστυνομία του Αμβούργου έχει ξεκαθαρίσει ότι το Σώμα δεν διατηρεί ιδιωτικούς λογαριασμούς στο Instagram για τους αστυνομικούς του και έχει ανακοινώσει ότι εξετάζει ήδη τη λήψη νομικών μέτρων κατά του περιεχομένου που έχει παραχθεί με τεχνητή νοημοσύνη. Επιπλέον, καλούν τους χρήστες του Instagram να αναφέρουν τα ψεύτικα προφίλ στις πλατφόρμες κοινωνικής δικτύωσης.
Η χρήση deepfakes, δηλαδή εικόνων και βίντεο που δημιουργούνται με τεχνητή νοημοσύνη και μιμούνται πειστικά πραγματικά πρόσωπα, έχει γίνει ένας αυξανόμενος κίνδυνος για εταιρείες και οργανισμούς τα τελευταία χρόνια.
Νωρίτερα μέσα στη χρονιά, η Διεθνής Ένωση Τηλεπικοινωνιών (ITU) του ΟΗΕ κάλεσε τις εταιρείες να χρησιμοποιούν προηγμένα εργαλεία για τον εντοπισμό και την εξάλειψη της παραπληροφόρησης και του περιεχομένου deepfake, προκειμένου να αντιμετωπιστεί η οικονομική απάτη.
Η ITU έχει ζητήσει την υιοθέτηση αυστηρών προτύπων για την καταπολέμηση του αλλοιωμένου πολυμεσικού περιεχομένου και συνέστησε στους διανομείς περιεχομένου, συμπεριλαμβανομένων των πλατφορμών κοινωνικής δικτύωσης, να χρησιμοποιούν ψηφιακά εργαλεία επαλήθευσης για την πιστοποίηση εικόνων και βίντεο πριν από τη διάδοσή τους.
Ο Bilel Jamoussi, επικεφαλής του Τμήματος Ομάδων Μελέτης στο Γραφείο Τυποποίησης της ITU, δήλωσε: «Η εμπιστοσύνη στα μέσα κοινωνικής δικτύωσης έχει μειωθεί σημαντικά, επειδή οι άνθρωποι δεν γνωρίζουν τι είναι αληθινό και τι είναι ψεύτικο».
Τόνισε ότι η αντιμετώπιση των deepfakes αποτελεί μια από τις μεγαλύτερες προκλήσεις, λόγω της ικανότητας της Γενετικής Τεχνητής Νοημοσύνης να κατασκευάζει ρεαλιστικό πολυμεσικό περιεχόμενο.
Ο Leonard Rosenthol της Adobe, ηγέτιδας εταιρείας στον χώρο του ψηφιακού λογισμικού επεξεργασίας, που ασχολείται με την αντιμετώπιση των deepfakes ήδη από το 2019, υπογράμμισε τη σημασία της εξακρίβωσης της προέλευσης του ψηφιακού περιεχομένου, ώστε οι χρήστες να μπορούν να αξιολογούν την αξιοπιστία του.
«Χρειαζόμαστε περισσότερα σημεία όπου οι χρήστες καταναλώνουν το περιεχόμενό τους να προβάλλουν αυτές τις πληροφορίες… Όταν κάνεις scroll στις ροές σου, θέλεις να ξέρεις: "Μπορώ να εμπιστευτώ αυτή την εικόνα, αυτό το βίντεο;"», δήλωσε ο Rosenthol.