Έλον Μασκ: Το Grok δημιουργεί deepfakes παιδιών – Συναγερμός!
Το μοντέλο τεχνητής νοημοσύνης Grok της xAI, υπό τον Έλον Μασκ, βρίσκεται στο στόχαστρο. Ειδικοί εκφράζουν φόβους για ανεπαρκείς δικλείδες ασφαλείας απέναντι στη δημιουργία deepfakes γυναικών και παιδιών. Προειδοποιούν ότι πολλά συστήματα AI παραμένουν επικίνδυνα ευάλωτα.
Την Παρασκευή, η xAI ανακοίνωσε ότι θα επιτρέψει τη χρήση του image-generator του Grok μόνο σε όσους πληρώνουν συνδρομή. Η κίνηση αυτή ήρθε μετά από πιέσεις με τη μορφή πιθανών προστίμων και απαγορεύσεων από κυβερνήσεις και ρυθμιστικές αρχές στην ΕΕ, το Ηνωμένο Βασίλειο και τη Γαλλία.
Η στρατηγική της εταιρείας, που απέκτησε πέρυσι το X, διαφέρει από αυτή ανταγωνιστών της, όπως η OpenAI και η Google, καθώς επιλέγει λιγότερα φίλτρα ασφαλείας. Ο ίδιος ο Μασκ έχει δηλώσει ότι το Grok επιδιώκει «maximally truth-seeking».
Ο Χένρι Άτζντερ, ειδικός σε deepfakes, τονίζει ότι «ο τρόπος που έχει δομηθεί το μοντέλο και η φαινομενική έλλειψη περιορισμών και ευθυγράμμισης ασφάλειας σημαίνει ότι αναπόφευκτα θα προκύπτουν τέτοια περιστατικά».
Η xAI δεν έχει προβεί σε σχολιασμό. Ο Μασκ έχει δηλώσει ότι «όποιος χρησιμοποιεί το Grok για να δημιουργήσει παράνομο περιεχόμενο θα υποστεί τις ίδιες συνέπειες σαν να το είχε ανεβάσει ο ίδιος».
Οι εταιρείες AI πιέζονται να αυξήσουν τη χρήση και τα έσοδα των προϊόντων τους. Άλλες εταιρείες εξετάζουν τη χαλάρωση περιορισμών γύρω από το σεξουαλικό περιεχόμενο. Η OpenAI, για παράδειγμα, σχεδιάζει να λανσάρει ένα «adult mode» για το chatbot της μέσα στο τρέχον τρίμηνο.
Δεν έχει αποκαλυφθεί πώς ακριβώς εκπαιδεύτηκε το Grok, αλλά εικάζεται ότι χρησιμοποιήθηκαν τεράστια σύνολα εικόνων από το διαδίκτυο. Έρευνα του Στάνφορντ το 2023 έδειξε ότι η βάση δεδομένων LAION-5B, που χρησιμοποιείται για image-generators, περιείχε υλικό παιδικής σεξουαλικής κακοποίησης, καθώς και πορνογραφικό, βίαιο, ρατσιστικό και σεξιστικό περιεχόμενο.
Οι ειδικοί εξηγούν ότι ακόμη και αν ένα μοντέλο δεν έχει εκπαιδευτεί άμεσα σε τέτοιο υλικό, μπορεί να δημιουργήσει εικόνες παιδιών με σεξουαλικές αναφορές μέσω τεχνικών «style transfer». Οι μηχανισμοί περιορισμού, όπως φίλτρα λέξεων ή έλεγχος των εικόνων, δεν είναι τέλειοι και μπορούν εύκολα να παρακαμφθούν. Το 2024, η Google δέχθηκε κριτική όταν το Gemini δημιούργησε εικόνες «Μαύρων Ναζί».
Το Grok 4, το πιο πρόσφατο μοντέλο της xAI, έχει μια λειτουργία «Spicy Mode» που επιτρέπει τη δημιουργία σεξουαλικά υπονοούμενου περιεχομένου για ενήλικες. Επιπλέον, χαρακτηριστικά του Grok έχουν ενσωματωθεί στο X, διευκολύνοντας την ευρεία διάδοση εικόνων.
Από τότε που εξαγόρασε το X το 2022, ο Μασκ έχει απολύσει την ομάδα ηθικής AI της πλατφόρμας και έχει μειώσει τους περιορισμούς ασφαλείας. Η Σάρλοτ Γουίλσον της Check Point Software υπογραμμίζει την ανάγκη για «ισχυρότερους ταξινομητές περιεχομένου, ανίχνευση υποτροπιαζόντων χρηστών, γρήγορες διαδικασίες αφαίρεσης και διαφανή ίχνη ελέγχου».