Μπορεί οι αλγόριθμοι των social media να προωθούν τη βία και τον μισογυνισμό; Πλατφόρμες κοινωνικής δικτύωσης όπως η Τik Tok και η Μeta (Ιnstagram), έχουν δεχθεί επανειλημμένα τα βέλη της κριτικής για την αρνητική επιρροή που μπορεί να έχουν στους εφήβους: Έκθεση σε τοξικό περιεχόμενο, ενθάρρυνση εξαρτητικών συμπεριφορών, διαταραχές στον ύπνο, ακόμα και επιδείνωση της ψυχικής υγείας.
Πολλές φορές τα βέλη έρχονται εξ οικείων, από πρώην εργαζόμενους στις πλατφόρμες, που καταγγέλλουν στα ΜΜΕ, ως whistblowers, αθέμιτες πρακτικές ή απλή αδιαφορία για την ασφάλεια και την προστασία των ανήλικων χρηστών στο διαδίκτυο.
Πλέον οι πλατφόρμες, καθώς αντιμετωπίζουν όλο και περισσότερη πίεση από τις ρυθμιστικές αρχές να ελέχξουν το περιεχόμενό τους, δεσμεύονται να εφαρμόζουν αυστηρούς κανόνες για να εντοπίζουν και να αφαιρούν βλαβερό περιεχόμενο, τόσο με τη χρήση εργαλείων τεχνητής νοημοσύνης αλλά και με χιλιάδες υπαλλήλους «συντονιστές».
Ωστόσο, όπως αποκαλύπτει πρώην εργαζόμενος του ΤikTok σε έρευνα του BBC, στην πραγματικότητα οι αλγόριθμοι είτε δεν κάνουν επαρκώς τη δουλειά τους, είτε η δουλειά που κάνουν είναι εντελώς διαφορετική: Να μεγιστοποιήσουν την εμπλοκή και την ενασχόληση των ανήλικων χρηστών με την πλατφόρμα, πάση θυσία.
Mετά τα σκυλάκια… βία και μισογυνισμόςΉταν 2022 και ο 16άχρονος τότε Κάι, «σκρόλαρε» στο τηλέφωνό του. Ένα από τα πρώτα βίντεο που είδε στα μέσα κοινωνικής δικτύωσης ήταν ένα χαριτωμένο σκυλί. Αλλά μετά από αυτό, όλα ήραν μια τροπή διαφορετική τροπή.
«Από το πουθενά», όπως λέει, του συνέστησαν βίντεο με κάποιον να χτυπιέται από αυτοκίνητο, έναν μονόλογο από έναν influencer που μοιραζόταν μισογυνιστικές απόψεις και σκηνές από βίαιους καβγάδες. Βρήκε τον εαυτό του να αναρωτιέται: γιατί εμένα;
Οι αλγόριθμοι όλων των μεγάλων εταιρειών κοινωνικής δικτύωσης συνιστούσαν επιβλαβές περιεχόμενο στα παιδιά, έστω και ακούσια
Την ίδια περίοδο στο Δουβλίνο, ο Άντριου Κάουνγκ εργαζόταν ως αναλυτής για την ασφάλεια των χρηστών στην TikTok. Μαζί με έναν συνάδελφό του αποφάσισαν να εξετάσουν τι συνιστούσαν οι αλγόριθμοι της εφαρμογής στους χρήστες στο Ηνωμένο Βασίλειο, ανάμεσά τους και στους 16χρονους. Λίγο καιρό πριν, είχε εργαστεί για την αντίπαλη εταιρεία Meta, στην οποία ανήκει το Instagram – ένας άλλος από τους ιστότοπους που χρησιμοποιεί ο Κάι.
Επιβλαβές περιεχόμενο
Όταν ο Άντριου εξέτασε το περιεχόμενο του TikTok, θορυβήθηκε όταν διαπίστωσε πώς σε ορισμένα έφηβα αγόρια εμφανίζονταν αναρτήσεις που περιείχαν βία και πορνογραφία και προωθούσαν μισογυνιστικές απόψεις, λέει στο BBC. Αντιθέτως, στα έφηβα κορίτσια προτείνονταν πολύ διαφορετικό περιεχόμενο, ανάλογα με τα ενδιαφέροντά τους.
Το TikTok και άλλες εταιρείες μέσων κοινωνικής δικτύωσης χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης για να αφαιρούν τη συντριπτική πλειονότητα του επιβλαβούς περιεχομένου. Επίσης τα εργαλεία ΑΙ επισημαίνουν προβληματικό περιεχόμενο, για να το επανεξετάσουν υπάλληλοι της εταιρείας, επιφορτισμένοι με το έργο του συντονισμού. Αλλά τα εργαλεία τεχνητής νοημοσύνης δεν μπορούν να εντοπίσουν τα πάντα.
Ο Κάουνγκ δηλώνει ότι κατά τη διάρκεια της περιόδου που εργαζόταν στο TikTok, όλα τα βίντεο που δεν είχαν αφαιρεθεί ή επισημανθεί από την ΑΙ, θα επανεξετάζονταν χειροκίνητα μόνο αν ξεπερνούσαν ένα συγκεκριμένο αριθμό προβολών – από 10.000 και πάνω.
Φοβόταν ότι αυτό σήμαινε ότι ορισμένοι νεότεροι χρήστες εκτίθεντο σε επιβλαβή βίντεο.
Αλγόριθμοι σε ρόλο ελεγκτήΤο TikTok λέει ότι το 99% του περιεχομένου που αφαιρεί για παραβίαση των κανόνων του κατεβαίνει από AI ή από υπαλλήλους της πριν φτάσει τις 10.000 προβολές. Λέει επίσης ότι διεξάγει προληπτικές έρευνες και σε βίντεο με πολύ λιγότερες προβολές.
Όταν εργάστηκε στη Meta μεταξύ 2019 και Δεκεμβρίου 2020, ο Κάουνγκ λέει ότι υπήρχε ένα διαφορετικό πρόβλημα. Ενώ η πλειονότητα των βίντεο αφαιρούνταν ή επισημαινόταν στους συντονιστές από εργαλεία τεχνητής νοημοσύνης, ο ιστότοπος βασιζόταν στους χρήστες να αναφέρουν άλλα βίντεο αφού τα είχαν ήδη δει.
«Οι εταιρείες έκαναν τα στραβά μάτια και αντιμετώπιζαν τα παιδιά όπως αντιμετωπίζουν τους ενήλικες»
Ο ίδιος εξέφρασε τις ανησυχίες του ενώ εργαζόταν και στις δύο εταιρείες, αλλά αντιμετωπίστηκε κυρίως με αδιαφορία, λόγω φόβων σχετικά με τον όγκο της εργασίας ή το κόστος.
Αρκετοί πρώην υπάλληλοι των εταιρειών κοινωνικής δικτύωσης δήλωσαν στο BBC ότι οι ανησυχίες του Άντριου Κάουνγκ συμφωνούσαν με τις δικές τους γνώσεις και εμπειρίες.
Οι αλγόριθμοι όλων των μεγάλων εταιρειών κοινωνικής δικτύωσης συνιστούσαν επιβλαβές περιεχόμενο στα παιδιά, έστω και ακούσια, λέει στο BBC η βρετανική ρυθμιστική αρχή Ofcom.
«Οι εταιρείες έκαναν τα στραβά μάτια και αντιμετώπιζαν τα παιδιά όπως αντιμετωπίζουν τους ενήλικες», λέει η Αλμουντένα Λάρα, διευθύντρια της Οfcom, για την ανάπτυξη πολιτικής ασφάλειας στο διαδίκτυο.
«Κολλάει στον εγκέφαλο»
Η TikTok δήλωσε στο BBC ότι διαθέτει «κορυφαίες» ρυθμίσεις ασφαλείας για εφήβους και απασχολεί περισσότερους από 40.000 ανθρώπους που εργάζονται για την ασφάλεια των χρηστών. Δήλωσε ότι μόνο φέτος αναμένει να επενδύσει «περισσότερα από 2 δισ. δολάρια (1,8 δισ. ευρώ) ) στην ασφάλεια» και ότι από το περιεχόμενο που αφαιρεί για παραβίαση των κανόνων του, βρίσκει το 98% προληπτικά.
Η Meta, στην οποία ανήκουν το Instagram και το Facebook, λέει ότι διαθέτει περισσότερα από 50 διαφορετικά εργαλεία, πόρους και λειτουργίες για να προσφέρει στους εφήβους «θετικές και κατάλληλες για την ηλικία τους εμπειρίες».
Ο Κάι δήλωσε στο BBC ότι προσπάθησε να χρησιμοποιήσει ένα από τα εργαλεία του Instagram και ένα παρόμοιο στο TikTok για να πει ότι δεν τον ενδιαφέρει βίαιο ή μισογυνιστικό περιεχόμενο – αλλά λέει ότι συνέχισε να του το συνιστούν.
Έπιασε τον εαυτό του να παρακολουθεί βίντεο από αμφιλεγόμενους influencers όταν του τα έστελναν, αλλά λέει ότι δεν ήθελε να του προτείνεται αυτό το πιο ακραίο περιεχόμενο.
«Έχεις την εικόνα στο κεφάλι σου και δεν μπορείς να την βγάλεις. [Αυτό] λερώνει τον εγκέφαλό σου. Και έτσι το σκέφτεσαι για το υπόλοιπο της ημέρας», λέει.
Πώς λειτουργούν λοιπόν οι αλγόριθμοι του TikTokΣύμφωνα με τον Άντριου Κάουνγκ, το καύσιμο των αλγορίθμων είναι η εμπλοκή, δηλαδή οι αντιδράσεις των χρηστών, ανεξάρτητα από το αν η εμπλοκή είναι θετική ή αρνητική. Αυτό θα μπορούσε να εξηγήσει εν μέρει γιατί οι προσπάθειες του Κάι να χειραγωγήσει τους αλγορίθμους δεν απέδωσαν.
Το πρώτο βήμα για τους χρήστες είναι να καθορίσουν τις προτιμήσεις και τα ενδιαφέροντάς τους, κατά την εγγραφή τους. Ο Άντριου μας λέει ότι ένα μέρος του περιεχομένου που αρχικά προτιμήσεις από τους αλγορίθμους, π.χ. σε έναν 16χρονο, βασίζεται στις προτιμήσεις που δίνουν και στις προτιμήσεις άλλων χρηστών παρόμοιας ηλικίας σε παρόμοια τοποθεσία.
Σύμφωνα με την TikTok, οι αλγόριθμοι δεν ενημερώνονται για το φύλο ενός χρήστη. Αλλά ο Άντριου λέει ότι τα ενδιαφέροντα που εκφράζουν οι έφηβοι κατά την εγγραφή τους έχουν συχνά ως αποτέλεσμα να τους χωρίζουν κατά φύλο.
Ο πρώην υπάλληλος του TikTok λέει ότι ορισμένα 16χρονα αγόρια θα μπορούσαν να εκτεθούν σε βίαιο περιεχόμενο «αμέσως», επειδή άλλοι έφηβοι χρήστες με παρόμοιες προτιμήσεις έχουν εκφράσει ενδιαφέρον για αυτό το είδος περιεχομένου – ακόμη και αν αυτό σημαίνει απλώς ότι ξοδεύουν περισσότερο χρόνο σε ένα βίντεο που τραβάει την προσοχή τους.
Όπως εξηγεί ο Κάουνγκ, οι αλγόριθμοι έχουν σχεδιαστεί για να μεγιστοποιήσουν τη δέσμευση, δείχνοντάς σας βίντεο που περιμένουν να παρακολουθήσετε περισσότερο χρόνο, να σχολιάσετε ή να κάνετε like – όλα αυτά για να σας κάνουν να παραμείνετε στην πλατφόρμα όσο δυνατόν περισσότερο χρόνο.
Δεν βλέπουν τι προτείνουνΟ αλγόριθμος που συνιστά περιεχόμενο στο For You Page του TikTok, τη ροή που είναι σχεδιασμένη για κάθε χρήστη προσωπικά, δεν κάνει πάντα διάκριση μεταξύ επιβλαβούς και μη επιβλαβούς περιεχομένου.
Σύμφωνα με τον Άντριου ένα από τα προβλήματα που εντόπισε όταν εργαζόταν στο TikTok ήταν ότι οι ομάδες που συμμετείχαν στην εκπαίδευση και τον προγραμματισμό αυτού του αλγορίθμου δεν γνώριζαν πάντα την ακριβή φύση των βίντεο που συνιστούσε.
«Ζητάμε από μια ιδιωτική εταιρεία, της οποίας το συμφέρον είναι να προωθήσει τα προϊόντα της, να αυτορυθμιστεί. Είναι σαν να ζητάς από μια τίγρη να μη σε φάει»
«Βλέπουν τον αριθμό των θεατών, την ηλικία, την τάση, αυτού του είδους τα πολύ αφηρημένα δεδομένα. Δεν θα ήταν απαραίτητα πραγματικά εκτεθειμένοι στο περιεχόμενο», μου λέει ο πρώην αναλυτής της TikTok.
Αυτός ήταν ο λόγος για τον οποίο, το 2022, ο ίδιος και ένας συνάδελφός του αποφάσισαν να ρίξουν μια ματιά στο τι είδους βίντεο συνιστώνται σε μια σειρά χρηστών, συμπεριλαμβανομένων και ορισμένων 16χρονων.
Λέει ότι ανησυχούσαν για το βίαιο και επιβλαβές περιεχόμενο που προβαλλόταν σε ορισμένους εφήβους και πρότειναν στο TikTok να επικαιροποιήσει το σύστημα ελέγχου.
Ήθελαν το TikTok να επισημαίνει σαφώς τα βίντεο, ώστε όλοι όσοι εργάζονται εκεί να μπορούν να δουν γιατί ήταν επιβλαβή – ακραία βία, κακοποίηση, πορνογραφία κ.ο.κ. – και να προσλάβει περισσότερους συντονιστές που να ειδικεύονται σε αυτούς τους διαφορετικούς τομείς. Ο Άντριου λέει ότι οι προτάσεις τους απορρίφθηκαν τότε.
«Ζητώντας από μια τίγρη να μη σε φάει»Ο Άντρου Κάουνγκ δηλώνει ότι όσο εργαζόταν στο TikTok και στη Meta αισθάνθηκε ότι ήταν εξαιρετικά δύσκολο να κάνει τις αλλαγές που θεωρούσε απαραίτητες.
«Ζητάμε από μια ιδιωτική εταιρεία, της οποίας το συμφέρον είναι να προωθήσει τα προϊόντα της, να αυτορυθμιστεί. Είναι σαν να ζητάς από μια τίγρη να μη σε φάει», λέει.
Ο ίδιος πιιστεύει πως η ζωή των παιδιών και των εφήβων θα ήταν καλύτερη αν σταματούσαν να χρησιμοποιούν τα smartphones τους.
Αλλά για τον Κάι, η απαγόρευση των τηλεφώνων ή των μέσων κοινωνικής δικτύωσης για τους εφήβους δεν είναι η λύση. Το τηλέφωνό του είναι αναπόσπαστο κομμάτι της ζωής του – ένας πραγματικά σημαντικός τρόπος για να συνομιλεί με τους φίλους του, να πλοηγείται όταν βρίσκεται έξω και να πληρώνει για πράγματα.
Αντ’ αυτού, θέλει οι εταιρείες μέσων κοινωνικής δικτύωσης να ακούσουν περισσότερο τι δεν θέλουν να βλέπουν οι έφηβοι. Θέλει οι εταιρείες να κάνουν πιο αποτελεσματικά τα εργαλεία που επιτρέπουν στους χρήστες να δηλώνουν τις προτιμήσεις τους.
«Αισθάνομαι ότι οι εταιρείες μέσων κοινωνικής δικτύωσης δεν σέβονται τη γνώμη σου, αρκεί να τους αποφέρει χρήματα», λέει ο Κάι.
Freegr network blog- News about pc, technology.
freegr