Schrift:
Ansicht Home:
Netzwelt

Hinter den Kulissen sozialer Netzwerke

Die Schatten-Arbeiter

Community-Moderatoren filtern Terror, Hass und Pornografie aus sozialen Netzwerken, teils zu prekären Bedingungen. Eine US-Wissenschaftlerin hat die Branche erforscht - und warnt vor gravierenden Folgen.

Cecilie Arcurs/ Getty Images

Von
Donnerstag, 08.08.2019   15:12 Uhr

Terroranschläge wie in Christchurch oder El Paso sind für soziale Netzwerke jedes Mal ein Stresstest: Videos und Bilder der Anschläge sowie Screenshots davon werden Hunderttausendfach online geteilt und immer wieder neu hochgeladen. Die Zunahme des Materials, aber auch Öffentlichkeit und Politik erhöhen den Druck auf Community-Moderatoren, Inhalte möglichst schnell aus dem Internet zu entfernen. Oder zu verhindern, dass sie überhaupt erst hochgeladen werden.

"In den letzten 15 Jahren sind die ganzen Tech-Konzerne ziemlich abgehoben. Der Fokus lag dabei stark auf Technologie und Innovation, sodass schädliche Nebeneffekte außer Acht und für später liegengelassen wurden - aber später ist jetzt", sagt die Wissenschaftlerin Sarah T. Roberts, Assistenzprofessorin für Informationswissenschaften an der University of California (UCLA), dem SPIEGEL. "Die Firmen kämpfen nun mit einem Defizit und die aus ihrer Sicht einfachste Lösung ist, billige menschliche Arbeit einzusetzen."

Roberts erforscht die Arbeitsbedingungen von Content-Moderatoren aus Ländern wie den USA und den Philippinen seit 2010. In ihrem kürzlich veröffentlichten Buch "Behind the Screen: Content-Moderation in the Shadows of Social Media" beschreibt sie die diverse Dienstleistungsbranche, die rund um Content-Moderation gewachsen ist. Und gibt einen Einblick in den oft belastenden Alltag der Arbeiter hinter den Kulissen, die Plattformen von Terror, Hass, Pornografie und anderen Inhalten zu befreien versuchen.

Preisabfragezeitpunkt:
09.12.2019, 08:02 Uhr
Ohne Gewähr

ANZEIGE

Roberts, Sarah T.
Behind the Screen: Content Moderation in the Shadows of Social Media

Verlag:
Yale University Press
Seiten:
280
Preis:
24,50 €
Englisch

Die Erforschung und Entwicklung automatisierter Filtersysteme können sich Roberts zufolge nur die größeren Firmen leisten, doch auch Tech-Giganten wie Facebook seien immer noch auf menschliche Content-Moderatoren angewiesen - vor allem für "komplizierte Entscheidungen, die über binäre Ja/Nein-Fragen hinausgehen, bei denen differenziert beurteilt werden muss, oder wo es um Geschmacksfragen geht".

Unter dem Radar

Die Content-Manager sind in der Regel nicht direkt bei den sozialen Netzwerken selbst angestellt. "Mich hat überrascht, dass die Leute, die dieselbe Arbeit machen, in ganz unterschiedlichen industriellen Sektoren arbeiten: manche als Dienstleister, die aber Tür an Tür mit Festangestellten am Unternehmenssitz arbeiten, andere als Freelancer für spezialisierte Firmen. Es gibt Callcenter, aber ebenso Arbeitsvermittlungsplattformen für Mikroaufgaben, wie Amazon Mechanical Turk", sagt Roberts über die Content-Management-Branche, "die Arbeit ist Patchwork-artig über all diese Sektoren hinweg, aber auch geografisch zerstreut."

Langsam konsolidiere sich der Markt aber, multinationale Dienstleister wie Accenture entdeckten das lukrative Geschäft für sich und kauften auch kleinere Firmen auf.

Stella Kalinina

Sarah T. Roberts: "In der Tech-Branche zu arbeiten, kann auch bedeuten, Müll für Tech-Konzerne zu entsorgen"

"Es gibt diese ganze Schattenbelegschaft, die häufig nicht offiziell bei den Tech-Unternehmen angestellt ist und die daher nicht erfasst wird", sagt Roberts. Allein bei Google übersteigt laut Forbes die Zahl ausgelagerter oder nur temporär beschäftigter Mitarbeiter, zu denen auch Content-Moderatoren zählen, die festangestellte Belegschaft von rund 100.000 Mitarbeitern - deren Konditionen schlechter sind als die von Festangestellten.

Die größeren, zentralen Content-Management-Dienstleister aus dem Silicon Valley offerieren Roberts zufolge Gehälter auf Mindestlohnniveau - stellen aber relativ hohe Forderungen und setzen etwa einen Universitätsabschluss voraus. "Es gab verschiedene Faktoren, die die Mitarbeiter verletzlich machen: Sie waren frische Studienabgänger, hatten Abschlüsse in Literatur, Wirtschaft oder Geschichte und massive Schulden durch die Studienkredite", sagt Roberts über ihre Forschung im Silicon Valley. "Sie hatten das Gefühl, einen Tech-Job ergattert zu haben - aber in der Tech-Branche zu arbeiten, kann auch bedeuten, Müll für Tech-Konzerne zu entsorgen. Und an diesem Ende befinden sich Content-Moderatoren."

An der Frontlinie - aber ohne Einfluss

Trotz ihrer oft guten Bildung hatten die von ihr interviewten Content-Moderatoren keine Einflussmöglichkeiten auf Arbeitsabläufe oder inhaltliche Entscheidungen, was viele frustriert. Die Community-Richtlinien legen fest, was als akzeptabel gilt. Ein Mitarbeiter beschwerte sich etwa mehrfach bei Vorgesetzten, dass Blackfacing zugelassen wurde, obwohl es rassistisch ist.

"Den Moderatoren sind oft die Hände gebunden. Die Richtlinien reflektieren nicht nur, was richtig oder falsch sein sollte oder ethische oder politische Positionen des Unternehmens, sondern auch wirtschaftliches Kalkül", sagt Roberts. Die Firmen kalkulieren laut ihrer Darstellung, was ein Blackfacing-Verbot für die Arbeitsbelastung von Content-Moderatoren oder verlorene Einnahmen bedeuten würde, wenn die Klicks für monetarisierte Blackfacing-Videos entfallen. "Diese Firmen sind quasi Werbeagenturen. Und es gibt wenige Firmen, die so empfänglich für öffentliche Meinung sind wie Werbeagenturen", so Roberts.

Die Community-Moderatoren könnten wenig dagegen ausrichten, dass sie Inhalte online lassen müssen, die sie für inakzeptabel halten - und manchmal auch wegfiltern müssen, was sie relevant finden. Die unsicheren Arbeitsverhältnisse und die Zerfaserung der Branche über verschiedene Arbeitsformen und Kontinente hinweg führen laut dem Buch dazu, dass die Mitarbeiter sich kaum organisieren und gemeinsam für bessere Bedingungen kämpfen können.

Für Teilbereiche wie den Umgang mit Kinderpornografie haben sich demnach große Tech-Konzerne in der Technology Coalition zusammengeschlossen und etwa den Leitfaden "Employee Resilience Guidebook for Handling Sexual Abuse Images" entwickelt. Doch Initiativen, die auch externe Dienstleister und vor allem betroffene Content-Moderatoren einschließen, fehlten bisher.

Eine Generation traumatisierter Content-Moderatoren

Mit den psychischen Folgen ihrer Arbeit werden die Moderatoren laut der Forscherin meist alleingelassen. "Eines der Facebook-Callcenter, die ich besucht habe, hatte ein Beratungsangebot vor Ort, aber das ist keine globale Norm", sagt Roberts. "Es gibt auch an vielen Orten kulturelle Barrieren, die Content-Moderatoren davon abhalten, Beratungsangebote wahrzunehmen, auch in den USA."

Content-Moderatoren schildern in "Behind the Screen", wie sie nicht einmal untereinander auf der Arbeit über die brutalen Bilder sprachen und auch ihren Partnern verheimlichten, was sie in ihrem Alltag bewältigen müssen, um sie nicht zu belasten. "Du verbringst acht Stunden in diesem Drecksloch, sodass du es wirklich nicht noch in den Rest deines Lebens tragen möchtest", so Content-Moderator Josh. "Du denkst, es geht nicht noch schlimmer, und am nächsten Tag siehst du etwas noch Schrecklicheres." Die meisten Content-Manager lässt das Gesehene nicht los, manche betäuben sich mit Alkohol, andere berichten von Depressionen.

Selbst wenn Beratung am Arbeitsplatz angeboten wird, bleiben die Moderatoren skeptisch, sich zu öffnen und Probleme anzusprechen - weil sie befürchten, ihre Arbeitgeber könnten in Frage stellen, ob sie für ihren Job geeignet sind. "Die Leute zögern, nach Hilfe zu suchen", beobachtet Roberts. "Es ist schwierig, man müsste sie dazu verpflichten."

Die Nachfrage der sozialen Netzwerke nach digitalen Recyclingtruppen produziert eine ganze Generation potenziell traumatisierter Content-Filterer. Die zukünftigen Folgen und die gesellschaftlichen Kosten seien Roberts zufolge noch völlig unabsehbar. Ihr ist zudem keine Firma bekannt, die eine Langzeitstudie zur den Folgen von Content-Management auf die Mitarbeiter durchführt, zumal das Personal schnell wechselt und die Biografien der ehemaligen Moderatoren nicht mehr weiterverfolgt werden.

insgesamt 5 Beiträge
Newspeak 08.08.2019
1. ...
Vielleicht sollte man das mit den "sozialen" Medien einfach noch mal ueberdenken? Es funktioniert nicht. Es richtet Schaden an. Den Firmen geht es dabei nur um Profit.
Vielleicht sollte man das mit den "sozialen" Medien einfach noch mal ueberdenken? Es funktioniert nicht. Es richtet Schaden an. Den Firmen geht es dabei nur um Profit.
LogoFan 08.08.2019
2. Hier ist der Gesetzgeber gefragt
Wie lange wollen sich die politisch Verantwortlichen eigentlich noch an Ihrer Verantwortung zur Regulation der "(a)sozialen Medien" noch vorbeidrücken, frage ich mich als ITler mit mehr als einer 40jährigen [...]
Wie lange wollen sich die politisch Verantwortlichen eigentlich noch an Ihrer Verantwortung zur Regulation der "(a)sozialen Medien" noch vorbeidrücken, frage ich mich als ITler mit mehr als einer 40jährigen Berufserfahrung. Dieser Wildwuchs der skruppellos Gewinnmaximierer (Facebook, Google & Co), der Menschen ausbeutet & ruiniert, sollte längst interantionale Gesetzesvorhaben auf den Weg gebracht haben, der ihre perfiden Geschäftsmodelle konterkariert. Stattdessen befördert unsere GroKo eine IT-Ignorante Dame an die Spitze des Europaparlaments, während die Piratenpartei sich mit internen Querelen selbst weiter zerlegt. Traurig & unverantwortlich !
LogoFan 08.08.2019
3. Lesehilfe
Wer gerne die Arbeit von Roberts lesen möchte, OHNE seinen Buchetat weiter zu belasten, sei auf ihre gleichnamige Dissertation verwiesen: https://www.ideals.illinois.edu/handle/2142/50401 P.S. Statt über "affiliate [...]
Wer gerne die Arbeit von Roberts lesen möchte, OHNE seinen Buchetat weiter zu belasten, sei auf ihre gleichnamige Dissertation verwiesen: https://www.ideals.illinois.edu/handle/2142/50401 P.S. Statt über "affiliate Links" Geld zu kassieren sollten SPIEGEL-Redakteure lieber nach solchen Hinweisen fahnden ...
geri&freki 09.08.2019
4. Viel Licht, viel Schatten
Manchem vielleicht prekären Arbeitsverhältnis steht dafür aber auch ein eigener, weithin unbegrenzter Herrschaftsraum zur Verfügung, ein Forum aus der Anonymität heraus nach eigenem Gutdünken und eigener Willkür per Zensur [...]
Manchem vielleicht prekären Arbeitsverhältnis steht dafür aber auch ein eigener, weithin unbegrenzter Herrschaftsraum zur Verfügung, ein Forum aus der Anonymität heraus nach eigenem Gutdünken und eigener Willkür per Zensur oder Durchwinken im eigenen Sinne zu beeinflussen - oder gar zu manipulieren. Auch dieser Aspekt wäre einmal einen Beitrag wert, was hinter den undurchsichtigen Kulissen einer vorgeblichen "Moderation" eigentlich wirklich geschieht.
MartinS. 09.08.2019
5. ...
Kann nicht ganz verstehen, wo sie diesbezüglich Schnittstellen zum Inhalt des Artikels finden können. Ganz grundsätzlich - ja, das kann durchaus vorkommen, und ist auch in der Form vollkommen abgesegnet. Der Betreiber [...]
Zitat von geri&frekiManchem vielleicht prekären Arbeitsverhältnis steht dafür aber auch ein eigener, weithin unbegrenzter Herrschaftsraum zur Verfügung, ein Forum aus der Anonymität heraus nach eigenem Gutdünken und eigener Willkür per Zensur oder Durchwinken im eigenen Sinne zu beeinflussen - oder gar zu manipulieren. Auch dieser Aspekt wäre einmal einen Beitrag wert, was hinter den undurchsichtigen Kulissen einer vorgeblichen "Moderation" eigentlich wirklich geschieht.
Kann nicht ganz verstehen, wo sie diesbezüglich Schnittstellen zum Inhalt des Artikels finden können. Ganz grundsätzlich - ja, das kann durchaus vorkommen, und ist auch in der Form vollkommen abgesegnet. Der Betreiber eines Forums kann nach Belieben über die Inhalte bestimmen, gegenteilige Meinungen löschen, und auch über die Zulassung von Mitgliedern ganz willkürlich entscheiden. Und jetzt kommt das überraschende - selbst unser Recht auf freie Meinungsäußerung segnet genau derartiges ab.

Artikel

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung
TOP