Οι λέξεις που δεν μπορείς να πεις στο διαδίκτυο – Πότε μας κόβει ο αλγόριθμος;
Υπάρχει μια μυστική λίστα με λέξεις που δεν επιτρέπεται να λες στα social media – τουλάχιστον, αυτό φαίνεται να πιστεύουν όλοι.
Υπάρχει μια μυστική λίστα με λέξεις που δεν επιτρέπεται να λες στα social media – τουλάχιστον, αυτό φαίνεται να πιστεύουν όλοι.
Ίσως έχεις παρατηρήσει ότι οι άνθρωποι αποφεύγουν συγκεκριμένες λέξεις στα social media ή στο διαδίκτυο. Λένε «unalived» (χωρίς ζωή) αντί για «killed» (δολοφονημένος). Τα όπλα γίνονται «pew pews». Ενήλικες με συναίνεση έχουν «seggs» μεταξύ τους. Οι χρήστες των social παραδέχονται πρώτοι πως αυτό τους κάνει να ακούγονται γελοίοι. Αλλά πολλοί πιστεύουν ότι δεν έχουν άλλη επιλογή. Το algospeak, όπως συχνά ονομάζεται, είναι ολόκληρη κωδικοποιημένη γλώσσα βασισμένη στην ιδέα ότι οι αλγόριθμοι θάβουν περιεχόμενο που περιλαμβάνει απαγορευμένες λέξεις ή φράσεις —είτε για να προωθήσουν τις πολιτικές ατζέντες των εταιρειών, είτε για να «καθαρίσουν» τις ροές μας για χάρη των διαφημιστών.
Η τεχνολογική βιομηχανία ορκίζεται πως όλα αυτά είναι ανοησίες. Ένας εκπρόσωπος του YouTube, ο Boot Bullwinkle, το εξηγεί ξεκάθαρα: «Το YouTube δεν έχει λίστα με απαγορευμένες ή περιορισμένες λέξεις», λέει στο BBC. «Οι πολιτικές μας αντικατοπτρίζουν την κατανόησή μας ότι το πλαίσιο έχει σημασία και οι λέξεις μπορούν να έχουν διαφορετικές χρήσεις και προθέσεις. Η αποτελεσματικότητα αυτής της πιο σύνθετης προσέγγισης φαίνεται από την ποικιλία θεμάτων, φωνών και οπτικών στο YouTube». H Meta και το TikTok είπαν το ίδιο: δεν το κάνουμε, είναι μύθος. Η αλήθεια, όμως, είναι πιο περίπλοκη.
Η ιστορία είναι γεμάτη παραδείγματα όπου εταιρείες social media χειραγωγούσαν σιωπηλά το περιεχόμενο που ανεβαίνει ή κατεβαίνει σε απήχηση, με τρόπους που συχνά αντιφάσκουν με τις δηλώσεις τους περί διαφάνειας και ουδετερότητας. Ακόμη κι αν δεν αφορά συγκεκριμένες λέξεις, οι ειδικοί λένε ότι οι τεχνολογικοί κολοσσοί όντως επεμβαίνουν ώστε να περιορίσουν διακριτικά κάποιο υλικό. Το πρόβλημα είναι ότι δεν ξέρεις ποτέ γιατί μια ανάρτηση αποτυγχάνει. Είπες κάτι που ενόχλησε τον αλγόριθμο ή απλώς έφτιαξες ένα κακό βίντεο; Η ασάφεια έχει οδηγήσει σε ένα καθεστώς εκτεταμένης αυτολογοκρισίας. Στη μία πλευρά του φάσματος, το αποτέλεσμα είναι ότι οι άνθρωποι μιλούν για σοβαρά θέματα με γελοίες λέξεις. Στην άλλη, κάποιοι χρήστες που απλώς θέλουν να γίνουν viral αποφεύγουν ολόκληρα θέματα. Σε έναν κόσμο όπου τα social media είναι η κύρια πηγή ενημέρωσης για ένα ολοένα και μεγαλύτερο κοινό, αυτό μπορεί να σημαίνει ότι υπάρχουν ιδέες που κάποιοι άνθρωποι δεν θα ακούσουν ποτέ.
Ο άνθρωπος του νησιού
Αρκεί να ρωτήσεις τον Alex Pearlman. Είναι δημιουργός περιεχομένου με εκατομμύρια ακόλουθους σε TikTok, Instagram και YouTube, γνωστός για την κωμωδία του και τα κοφτερά πολιτικά σχόλιά του. Ο Pearlman λέει ότι η αλγοριθμική λογοκρισία είναι μια σταθερή παρουσία στη δουλειά του. «Για να ξεκινήσω μόνο με το TikTok, σπάνια λέω τη λέξη “YouTube”. Από την εμπειρία μου και κοιτώντας τα analytics μου, αν πω κάτι όπως “πηγαίνετε στο κανάλι μου στο YouTube”, το βίντεο πάει άπατο», λέει. Δεν είναι ο μόνος. Η εμπειρία έχει οδηγήσει αυτόν και άλλους δημιουργούς να υποθέτουν ότι το TikTok δεν θέλει να στέλνεις κόσμο σε ανταγωνιστική πλατφόρμα και θα σε «χτυπήσει» γι’ αυτό. (Το TikTok, βέβαια, λέει ότι δεν κάνει κάτι τέτοιο.)
Ο Pearlman έχει φτιάξει πολλά βίντεο για τον Jeffrey Epstein, τον χρηματιστή και δράστη σεξουαλικών εγκλημάτων που βρίσκεται στο επίκεντρο σκανδάλων για ισχυρές προσωπικότητες. Αλλά τον Αύγουστο του περασμένου έτους παρατήρησε κάτι περίεργο. «Αυτό ήταν όταν το θέμα Epstein γινόταν χαμός παντού», λέει. «Ξαφνικά, μου κατέβασαν πολλά βίντεο για τον Epstein στο TikTok μέσα σε μία μέρα». Τα ίδια βίντεο έμειναν άθικτα στο Instagram και στο YouTube, αλλά στο TikTok παραβίαζαν κάποιον κανόνα που δεν μπορούσε να εντοπίσει. «Δεν έρχονται να σου επισημάνουν τη φράση που παραβίασε τον κανόνα. Απλώς προσπαθείς να μαντέψεις τι σου λέει το μαύρο κουτί». Οι ενστάσεις του απορρίφθηκαν και το TikTok άφησε «strikes» στον λογαριασμό του, που απειλούν τη δυνατότητά σου να κερδίζεις χρήματα από την εφαρμογή.
«Λίγο μετά, είδαμε λιγότερους μεγάλους creators να μιλούν ευθέως για τον Epstein», λέει. Κατά τον Pearlman, έμοιαζε σαν άλλοι δημιουργοί να είχαν το ίδιο πρόβλημα και να προσπαθούσαν να ικανοποιήσουν τον αλγόριθμο. Ο ίδιος δεν σταμάτησε τα βίντεο, αλλά δοκίμασε μια άλλη στρατηγική: «Άρχισα να μιλάω γι’ αυτόν με κώδικα, τον έλεγα “ο Άνθρωπος του Νησιού”», σε αναφορά στο ιδιωτικό του νησί. «Το πρόβλημα με την κωδικοποιημένη γλώσσα είναι ότι μεγάλο μέρος του κοινού δεν ξέρει για ποιον μιλάς», λέει ο Pearlman.
Μίλησα με έναν εκπρόσωπο του TikTok. Δεν σχολίασαν το θέμα Epstein και αρνήθηκαν να μιλήσουν επισήμως. Αλλά έστειλαν πληροφορίες υπόβαθρου: με λίγα λόγια, το TikTok λέει ότι πρόκειται για παρανόηση που δεν αντικατοπτρίζει τον τρόπο λειτουργίας της πλατφόρμας. Το 2019, έγγραφα που διέρρευσαν έδειξαν ότι το TikTok έδινε εντολή στους moderators να καταστέλλουν περιεχόμενο από χρήστες που ήταν «άσχημοι», φτωχοί, ανάπηροι ή LGBTQ+, επειδή αυτό δημιουργούσε ένα «λιγότερο φανταχτερό και ελκυστικό» περιβάλλον.
Η TikTok, η Meta και το YouTube λένε ότι οι αλγόριθμοι είναι περίπλοκα συστήματα που χρησιμοποιούν δισεκατομμύρια δεδομένα ώστε να σου εμφανίζουν σχετικό και ικανοποιητικό περιεχόμενο. Λένε ότι καταργούν ή περιορίζουν αναρτήσεις μόνο όταν παραβιάζονται οι ξεκάθαροι κανόνες κοινότητας. Και ότι πάντα ενημερώνουν τους χρήστες όταν αυτό συμβαίνει. Στην πράξη, όμως, οι πλατφόρμες έχουν επανειλημμένα παρέμβει στο ποιες φωνές ενισχύονται ή θάβονται, παρά τις διακηρύξεις περί διαφάνειας —σύμφωνα με έρευνες του BBC, οργανώσεων και δημοσιογράφων.
Ξεχωριστές έρευνες του BBC και του Human Rights Watch έδειξαν ότι Facebook και Instagram περιόρισαν συστηματικά Παλαιστίνιους χρήστες και περιεχόμενο υπέρ των δικαιωμάτων των Παλαιστινίων μετά τις επιθέσεις της 7ης Οκτωβρίου από τη Χαμάς στο Ισραήλ. Η Meta απάντησε ότι κάνει «λάθη», αλλά ότι οποιοσδήποτε υπαινιγμός περί σκόπιμης καταστολής συγκεκριμένων φωνών είναι «αδιαμφισβήτητα ψευδής». Το 2023, το TikTok παραδέχτηκε ότι είχε ένα μυστικό κουμπί «heating» που έκανε επιλεγμένα βίντεο viral, εργαλείο που χρησιμοποιήθηκε για επιχειρηματικές συμφωνίες και μερικές φορές καταχράστηκε από υπαλλήλους. «Αν έχουν κουμπί για να σε ζεσταίνει (heat), τότε έχουν και κουμπί για να σε κρυώνει», λέει ο Pearlman. «Απλή λογική». Το YouTube έχει αντιμετωπίσει παρόμοιες κατηγορίες: μια ομάδα LGBTQ+ creators μήνυσε το YouTube το 2019, υποστηρίζοντας ότι η πλατφόρμα δαιμονοποιούσε περιεχόμενο με λέξεις όπως «gay» και «trans». Η υπόθεση απορρίφθηκε.
Το μουσικό φεστιβάλ που δεν υπάρχει
Οι εταιρείες δεν διστάζουν πάντα να παραδεχτούν ότι επεμβαίνουν στο διαδίκτυο. Το TikTok, για παράδειγμα, εξηγεί λεπτομερώς το πώς λειτουργούν οι προτάσεις του και λέει ότι το σύστημα είναι «ουδέτερο». Αλλά σημειώνει ότι πρέπει επίσης να «σέβεται το τοπικό πλαίσιο και τις πολιτισμικές νόρμες» και να προστατεύει ιδιαίτερα τους εφήβους. Το πρόβλημα, όπως λέει η καθηγήτρια Sarah T. Roberts από το UCLA, είναι ότι οι κανόνες είναι αόρατοι και βαριοί. Οι χρήστες σπάνια ξέρουν τα όρια —ή πότε οι πλατφόρμες ενισχύουν ή θάβουν κάτι. «Ο κόσμος καταλήγει να φτιάχνει λαϊκές θεωρίες για το πώς λειτουργεί αυτό το αδιαφανές σύστημα». Αυτό οδηγεί σε παράξενες συμπεριφορές.
Τον Αύγουστο του 2025, χιλιάδες χρήστες άρχισαν να μιλούν για ένα φανταστικό μουσικό φεστιβάλ στο Λος Άντζελες. Ήταν κώδικας — algospeak — για τις μαζικές διαδηλώσεις κατά των επιδρομών της ICE. Άνθρωποι μιλούσαν για «συναυλίες» ενώ βρίσκονταν σε πορείες. Το πιο παράξενο; Δεν υπήρχε καμία απόδειξη ότι οι πλατφόρμες καταστέλλουν τέτοιο περιεχόμενο. Ήταν, όπως εξηγεί ο γλωσσολόγος Adam Aleksic, αποτέλεσμα υπερβολικής «διόρθωσης» από τους χρήστες, που δεν ήξεραν τι επιτρέπεται και τι όχι. Η ίδια η χρήση του κώδικα έκανε τα βίντεο πιο viral.
Οι ερευνητές αποκαλούν αυτό το φαινόμενο «αλγοριθμική φαντασιακή πραγματικότητα»: οι άνθρωποι αλλάζουν συμπεριφορά με βάση αυτό που νομίζουν ότι κάνει ο αλγόριθμος — και τελικά αυτές οι συμπεριφορές επηρεάζουν τον ίδιο τον αλγόριθμο.
Όλα είναι στο μυαλό μας;
Το algospeak δεν είναι νέο. Υπάρχουν άφθονα βίντεο για Epstein, Γάζα και άλλα ευαίσθητα θέματα. Και αν το TikTok ήθελε όντως να περιορίσει τη λέξη «murder», δεν θα είχε ήδη μπλοκάρει και το «unalive»; «Κανείς μας δεν ξέρει τι δουλεύει και τι όχι», λέει η Ariana Jasmine Afshar, δημοφιλής creator της αριστερής κοινότητας.
Αυτό δεν σημαίνει ότι οι εταιρείες δεν επηρεάζουν τη δημόσια συζήτηση. Από το 2023 έως το 2025, η Meta περιόρισε ανοιχτά το πολιτικό περιεχόμενο. Μετά το ανέτρεψε, μετά την ορκωμοσία του Τραμπ. Είναι πιθανό ότι σε αυτή τη διάρκεια το algospeak όντως βοηθούσε. Η Afshar λέει ότι έχει δει λογοκρισία firsthand. Παρ’ όλα αυτά, η ίδια έγινε τόσο επιτυχημένη ώστε πέρσι την κάλεσε εκπρόσωπος του Instagram για να τη συγχαρεί και να της δώσει συμβουλές για να τα πάει ακόμα καλύτερα. «Είναι πραγματικό», λέει. «Αλλά είναι πολύ δύσκολο να ξεχωρίσεις την αλήθεια από τη φαντασία. Με μπερδεύουν πάρα πολύ».
Για να καταλάβουμε τι συμβαίνει, λέει η Roberts, πρέπει να θυμηθούμε τι θέλουν πραγματικά οι εταιρείες: χρήματα. Ζουν από τη διαφήμιση. Θέλουν πλατφόρμες ασφαλείς, ελκυστικές και χωρίς ρυθμιστικές παρεμβάσεις. Κάθε αλλαγή στον αλγόριθμο, κάθε απόφαση moderation, προέρχεται από αυτό το κίνητρο. «Και είναι αλήθεια ότι τις περισσότερες φορές, οι ανάγκες του moderation ευθυγραμμίζονται με το συμφέρον των χρηστών. Αλλά όταν πρέπει να παρεκκλίνουν, το κάνουν».
ολες οι ειδησεις
- Οι… γεναιόδωρες παροχές, η άφιξη Κοβέσι και ο Παναγόπουλος – Δείτε το βίντεο
- Πρωτιά της Ελλάδας στους «27» στη μείωση του δημοσίου χρέους
- Ανακαλύφθηκε ακέφαλο άγαλμα της θεάς Αθηνάς στην Τουρκία (Βίντεο)
- Αύξηση μετοχικού κεφαλαίου της ΔΕΗ ύψους 4 δισ. ευρώ
Ακολουθήστε το Newpost.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο Newpost.gr