Αυτές είναι λέξεις που δεν μπορείτε να λέτε στα social media – ή αλλιώς, πώς να ξεγελάσετε τον αλγόριθμο

Algospeak: Η μυστική γλώσσα των social media για να ξεγελάσεις τους αλγόριθμους!

Τεχνολογία
Δημοσιεύθηκε  · 6 λεπτά ανάγνωση

Γνωρίζατε ότι υπάρχει μια μυστική λίστα λέξεων που, σύμφωνα με πολλούς χρήστες, δεν μπορείτε να χρησιμοποιήσετε στα social media;

Ίσως το έχετε παρατηρήσει και εσείς: η λέξη "unalived" αντικαθιστά τη λέξη "killed", τα όπλα γίνονται "pew pews" και οι συναινούντες ενήλικες "κάνουν seggs". Οι χρήστες των μέσων κοινωνικής δικτύωσης παραδέχονται εύκολα ότι αυτές οι περιφράσεις ακούγονται γελοίες, αλλά πολλοί πιστεύουν ότι δεν έχουν άλλη επιλογή.

Αυτή η κωδικοποιημένη γλώσσα, που συχνά ονομάζεται algospeak, έχει αναδυθεί ως ένας τρόπος για να παρακάμψετε την αλγοριθμική λογοκρισία. Η ιδέα είναι ότι οι πλατφόρμες κοινωνικών μέσων καταστέλλουν περιεχόμενο που χρησιμοποιεί συγκεκριμένες λέξεις ή φράσεις, είτε για να βελτιώσουν τα feeds για τους διαφημιζόμενους είτε για να προωθήσουν διακριτικά πολιτικές ατζέντες.

Οι εταιρείες τεχνολογίας επιμένουν ότι αυτό είναι ανακριβές.

Ο εκπρόσωπος του YouTube, Boot Bullwinkle, εξήγησε στο BBC: "Το YouTube δεν έχει λίστα απαγορευμένων ή περιορισμένων λέξεων… Οι πολιτικές μας αντικατοπτρίζουν την αντίληψή μας ότι το πλαίσιο έχει σημασία και ότι οι λέξεις μπορούν να έχουν διαφορετικές έννοιες και προθέσεις".

Η Meta και το TikTok συμμερίστηκαν αυτή την άποψη, επιμένοντας ότι η ιδέα των απαγορευμένων λέξεων είναι μύθος.

Ωστόσο, η αλήθεια είναι πολύ πιο περίπλοκη.

Ιστορικά στοιχεία δείχνουν ότι οι πλατφόρμες έχουν χειραγωγήσει διακριτικά το περιεχόμενο που ανεβαίνει και κατεβαίνει, ακόμη και αν δεν συνδέεται με μεμονωμένες λέξεις.

Το πρόβλημα είναι ότι οι χρήστες σπάνια γνωρίζουν γιατί μια ανάρτηση έχει χαμηλή απόδοση — μήπως ο αλγόριθμος επισήμανε συγκεκριμένες λέξεις ή μήπως το περιεχόμενο ήταν απλά μη δημοφιλές;

Αυτή η αμφισημία έχει τροφοδοτήσει την ευρεία αυτολογοκρισία, οδηγώντας μερικές φορές παράξενες περιφράσεις ή, σε ακραίες περιπτώσεις, σε πλήρη αποφυγή ευαίσθητων θεμάτων.

Ο δημιουργός περιεχομένου Alex Pearlman, με εκατομμύρια ακόλουθους στο TikTok, το Instagram και το YouTube, έχει δει από πρώτο χέρι την αλγοριθμική λογοκρισία.

Ο Pearlman σημειώνει: "Αρχικά, μόνο στο TikTok, σπάνια λέω τη λέξη «YouTube». Αν πω τη φράση ‘πηγαίνετε στο κανάλι μου στο YouTube’, το βίντεο θα αποτύχει".

Η εμπειρία του υποδηλώνει ότι το TikTok μπορεί να τιμωρεί περιεχόμενο που κατευθύνει την επισκεψιμότητα προς ανταγωνιστές — κάτι που η πλατφόρμα αρνείται.

Οι εμπειρίες του Pearlman εκτείνονται πέρα από τον ανταγωνισμό.

Τον Αύγουστο του 2024, τα βίντεό του για τον Τζέφρι Έπσταϊν αφαιρέθηκαν απροσδόκητα από το TikTok, ενώ παρέμειναν αναλοίωτα στο Instagram και το YouTube.

Αδυνατώντας να προσδιορίσει τον κανόνα που παραβίασε, ο Pearlman είδε τις ενστάσεις του να απορρίπτονται και έλαβε "προειδοποιήσεις" στον λογαριασμό του.

Σε απάντηση, άρχισε να αναφέρεται στον Έπσταϊν ως "ο Άνθρωπος του Νησιού" — μια κωδικοποιημένη λύση για να συνεχίσει να συζητά ευαίσθητα θέματα χωρίς να προκαλεί έλεγχο.

Οι εταιρείες κοινωνικών μέσων ισχυρίζονται ότι οι αλγόριθμοί τους είναι ουδέτερα συστήματα που δίνουν προτεραιότητα στην αλληλεπίδραση των χρηστών.

Το TikTok, για παράδειγμα, προβλέπει με ποια βίντεο είναι πιθανό να αλληλεπιδράσει ένας χρήστης, ενώ η Meta και το YouTube δημοσιεύουν εκθέσεις διαφάνειας που εξηγούν τις αποφάσεις διαχειριστικής εποπτείας.

Ωστόσο, ανεξάρτητες έρευνες συχνά έρχονται σε αντίθεση με αυτή την αφήγηση.

Διαρρεύσαντα έγγραφα του TikTok από το 2019 αποκάλυψαν ότι οι διαχειριστές είχαν λάβει οδηγίες να καταστέλλουν περιεχόμενο από χρήστες που θεωρούνταν "άσχημοι, φτωχοί, ανάπηροι ή LGBTQ+" για να διατηρήσουν ένα "κομψό και ελκυστικό" περιβάλλον.

Ομοίως, έρευνα έδειξε ότι το Facebook και το Instagram έχουν περιορίσει συστηματικά το παλαιστινιακό περιεχόμενο καθ΄όλη την διάρκεια του γενοκτονικού πολέμου στη Γάζα.

Αν και οι εταιρείες παρουσιάζουν αυτές τις ενέργειες ως λάθη, τα μοτίβα υποδηλώνουν ότι οι πλατφόρμες, κατά καιρούς, παρεμβαίνουν επιλεκτικά στον δημόσιο διάλογο.

Η αδιαφάνεια των πολιτικών των κοινωνικών μέσων ενθαρρύνει τη δημιουργικότητα στη δημιουργία περιεχομένου.

Η Sarah T. Roberts, καθηγήτρια στο UCLA και διευθύντρια του Center for Critical Internet Inquiry, εξηγεί ότι "οι άνθρωποι σπάνια γνωρίζουν πού βρίσκονται τα όρια ή πότε οι πλατφόρμες προωθούν αθόρυβα ορισμένες αναρτήσεις και αποκρύπτουν άλλες".

Το αποτέλεσμα είναι μια κουλτούρα όπου οι χρήστες υιοθετούν "λαϊκές στρατηγικές" για να παρακάμψουν αόρατους κανόνες, οδηγώντας σε ένα γλωσσικό φαινόμενο γνωστό ως algospeak.

Ένα εντυπωσιακό παράδειγμα συνέβη τον Αύγουστο του 2025, όταν οι χρήστες Αμερικάνοι χρήστες συνειδητοποίησαν πώς τα βίντεο τους σχετικά με τις διαμαρτυρίες εναντίον της ICE δεν έφταναν στο ευρύ κοινό.

Έτσι, αντί να χρησιμοποιούν λέξεις και ταγκς όπως «διαμαρτυρία» ή «ICE», άρχισαν να χρησιμοποιούν τις λέξεις "μουσικό φεστιβάλ".

Δεν υπήρχε φεστιβάλ, μόνο κωδικές λέξεις που είχαν σχεδιαστεί για να αποφευχθεί η καταστολή από τους αλγόριθμους.

Κατά ειρωνικό τρόπο, αυτή η πρακτική αύξησε την εμπλοκή, καθώς οι θεατές ένιωθαν μέρος μιας ομάδας μελών, και ενίσχυσε το ίδιο το περιεχόμενο που οι χρήστες φοβόνταν ότι θα θαφτεί.

Οι ερευνητές αποκαλούν αυτό το φαινόμενο "αλγοριθμική φαντασία": η συμπεριφορά των χρηστών διαμορφώνεται από πεποιθήσεις σχετικά με την αλγοριθμική λογοκρισία, είτε αυτή είναι πραγματική είτε όχι.

Παρά την επικράτησή του, το algospeak λεξιλόγιο έχει όρια.

Η Ariana Jasmine Afshar, δημιουργός περιεχομένου με έμφαση στον ακτιβισμό, παραδέχεται: "Κανείς από εμάς δεν ξέρει τι λειτουργεί και τι όχι. Απλώς ρίχνουμε τα πάντα στον τοίχο και βλέπουμε τι θα κολλήσει".

Ενώ η υπόγεια γλώσσα μερικές φορές παρακάμπτει την καταστολή, σπάνια αποτελεί εγγύηση, και συχνά οι ίδιες οι πλατφόρμες είναι ασυνεπείς.

Είναι σαφές, ωστόσο, ότι οι εταιρείες κοινωνικών μέσων επηρεάζουν τα θέματα που ευδοκιμούν.

Η Sarah T. Roberts επισημαίνει ένα κρίσιμο σημείο: ο τελικός στόχος των πλατφορμών είναι το κέρδος.

Οι εταιρείες κοινωνικών μέσων κερδίζουν χρήματα από τους διαφημιζόμενους, πράγμα που σημαίνει ότι οι αλγόριθμοι και οι πολιτικές διαμεσολάβησης έχουν σχεδιαστεί για να διατηρούν το ενδιαφέρον των χρηστών, παρουσιάζοντας ταυτόχρονα ένα ασφαλές περιβάλλον για τις μάρκες.

Κάθε απόφαση — από την καταστολή περιεχομένου έως την ενίσχυση — τελικά ευθυγραμμίζεται με αυτόν τον στόχο.

"Η διαμεσολάβηση των πλατφορμών ευθυγραμμίζεται με τα συμφέροντα των περισσότερων χρηστών τις περισσότερες φορές", λέει η Roberts.

"Αλλά αν και όταν πρέπει να παρεκκλίνουν, το κάνουν".

Με άλλα λόγια η συμπεριφορά των χρηστών και η γλώσσα που δημιουργείται για να παρακάμψει τον αλγόριθμο υπάρχουν επειδή οι προτεραιότητες των πλατφορμών κοινωνικών μέσων δεν ευθυγραμμίζονται ποτέ πλήρως με τον ελεύθερο δημόσιο διάλογο.

Η νέα αυτή γλώσσα είναι ένα συναρπαστικό υποπροϊόν της κουλτούρας των κοινωνικών μέσων.

Το φαινόμενο αποκαλύπτει βαθύτερες αλήθειες για τα κοινωνικά μέσα: η επιρροή τους είναι τεράστια, αλλά αδιαφανής· οι αλγόριθμοί τους είναι ισχυροί, αλλά απρόβλεπτοι.

Σε έναν κόσμο όπου αυτές οι πλατφόρμες διαμορφώνουν όλο και περισσότερο τον δημόσιο διάλογο, η κατανόηση της ς γλώσσας δεν είναι απλώς μια γλωσσική περιέργεια — είναι ένα παράθυρο στον τρόπο με τον οποίο επικοινωνούμε, αυτολογοκρινόμαστε και πλοηγούμαστε σε ψηφιακούς χώρους που κυριαρχούνται από γίγαντες με κίνητρο το κέρδος.

Εν τέλει, η algospeak, δείχνει το πώς οι χρήστες μπορούν να παρακάμψουν την τεχνολογική επιτήρηση και να αξιοποιήσουν τα social media με τον τρόπο που επιθυμούν.

Και αυτό επιτυγχάνεται χρησιμοποιώντας μέσα που ο αλγόριθμος δεν έχει εξ ορισμού την ικανότητα να κατανοήσει: την φαντασία και την κοινότητα.