Internes Dokument von Facebook enthüllt die Codewörter, die es zur Zensur verwendet

Medien/Journalismus, WWW-Worlwideweb

Die aktuellen Leaks der „Facebook Papers“ enthalten eine Menge an internem Firmenjargon. Wir haben einige wichtige Beispiele zusammengetragen.

Einer der surrealsten Aspekte bei der Durchsicht der von der Whistleblowerin Frances Haugen erbeuteten Dokumente innerhalb der Facebook-Mauern ist der Blick auf die Worte, die Mitarbeiter verwenden, wenn sie über einige der sensibelsten Produkte und Systeme des Unternehmens sprechen. Viele dieser Namen (CORGI! Yoda!) klingen täuschend niedlich, während andere eher… unheimlich klingen.

Während die Begriffe selbst schon allein deshalb interessant sind, weil sie intern verwendet werden, bieten sie auch wichtige Einblicke in die internen Machenschaften von Facebook und in die Art und Weise, wie das Unternehmen über die Themen denkt, die wir alle kennen und verabscheuen. Diese Definitionen stammen größtenteils aus einem internen Glossar, das vom (inzwischen aufgelösten) Civic Integrity Team des Unternehmens verwendet wurde und Teil von Haugens Offenlegungen gegenüber dem Kongress und der Börsenaufsichtsbehörde war. Gizmodo hat zusammen mit Dutzenden anderer Nachrichtenorganisationen geschwärzte Versionen dieser Dokumente erhalten.

Es gibt auch noch andere Begriffe, die nicht im Glossar erscheinen, aber in einigen der anderen uns zur Verfügung gestellten Dokumente häufig vorkommen. Gizmodo konnte sie mit Hilfe eines ehemaligen Facebook-Mitarbeiters definieren, der unter der Bedingung, dass sein Name nicht genannt wird, mit uns gesprochen hat.

Nachdem das alles geklärt ist, kommen wir nun zu den Begriffen!

  1. CORGI

Dies bezieht sich auf ein komplexes mathematisches Modell, das die Facebook-Forscher intern entwickelt haben, um „Gruppen von Nutzern“ zu finden, die sich möglicherweise nicht authentisch verhalten – etwa Nutzer, die die Beiträge anderer zu häufig kommentieren. Anhand dieses Modells (das, ja, wie die Hunderasse geschrieben wird) konnten diese Forscher wahrscheinliche Bots und schlechte Akteure identifizieren.

  1. Bonjovi

Die Mitarbeiter nutzten dieses interne Untersuchungstool unter anderem, um Konten auf Instagram und Facebook aufzuspüren, die möglicherweise in Menschenhandel verwickelt sind. Laut den internen Dokumenten, die uns zur Verfügung gestellt wurden, konnte Bonjovi verwendet werden, um die Suchaktivitäten eines potenziellen Menschenhändlers auf der Plattform zu verfolgen und einen Verlauf der Profile zu erstellen, die der besagte Menschenhändler ansah, um herauszufinden, wer seine potenziellen Opfer sein könnten.

  1. H1/H2/H3

Da es sich bei Facebook um einen riesigen Betrieb mit unzähligen Codezeilen handelt, die zu jeder Zeit laufen, muss das Unternehmen alle Aktualisierungen in mehreren Phasen veröffentlichen. Die erste Stufe ist H1, in der der Code auf einer Reihe interner, Facebook-spezifischer Server bereitgestellt wird, auf die nur die Ingenieure des Unternehmens Zugriff haben. Wenn diese Bereitstellung problemlos verläuft, wird der Code an H2 weitergegeben, ein paar tausend Maschinen, die einen kleinen Teil der realen Nutzer bedienen“, heißt es in einem Forschungspapier von Facebook. Wenn der Code wie erwartet funktioniert, wird er auf H3 übertragen – für den vollständigen Einsatz auf allen Servern von Facebook.

  1. DCI

„Destruktiver Konflikt“ oder DCI ist eine unternehmensinterne Kennzeichnung, die dazu dient, „unhöfliche“ oder beleidigende Unterhaltungen zwischen Nutzern automatisch zu kennzeichnen.

  1. Iss dein Gemüse

Das Protokoll, das Facebook-Mitarbeiter bei „wichtigen [oder] sensiblen“ Aktualisierungen in den Neuigkeiten der Nutzer befolgen sollen.

  1. Schuldzuweisungs-Tool

Dies ist ein internes Tool, das Facebook-Forscher für einen bestimmten „schlechten Beitrag“ verwenden können, um herauszufinden, welche Auslöser auf der Plattform dazu geführt haben, dass er im Feed einer Person aufgetaucht ist.

  1. Schwarzes Loch

Ein weiteres internes Tool, das von Forschern verwendet wird, um URLs, Domänen oder IP-Adressen auf eine schwarze Liste zu setzen, die mit Spam oder anderweitig anstößigen Inhalten in Verbindung gebracht werden. Blackhole versieht jedes dieser Elemente mit verschiedenen Kennzeichnungen (wie „OK“, „BAD“ oder „IFFY“), und jede Kennzeichnung hat eine entsprechende Auswirkung darauf, wie diese URL/Domäne/IP in Facebook insgesamt gesehen und geteilt werden kann.

  1. FUSS

Dies steht für „Facebook Unified Signal Sharing/Feed Unified Scoring System“. Intern ordnete das Integrity-Team Beiträge in den Newsfeeds der Nutzer in verschiedene FUSS-Kategorien ein, je nach „Qualität“ der jeweiligen Entität. Beiträge von geringer Qualität wurden mit „FUSS Rot“ gekennzeichnet, „grenzwertige“ Inhalte mit „FUSS Gelb“ und reguläre, hochwertige Beiträge mit „FUSS Grün“. Das Forschungsteam führte auch ein Experiment mit der Bezeichnung „FUSS Schwarz“ durch, bei dem versucht wurde, so viele rote und gelbe Inhalte wie möglich aus einem bestimmten Feed herauszufiltern.

  1. Hex

Der interne Begriff des Teams für „menschliche Ausbeutung“ oder Menschenhandel.

  1. Bannhammer

Ein intern verwendetes Tool, um alle Likes oder Follows eines bestimmten Facebook-Nutzers oder einer Gruppe von Facebook-Nutzern zu entfernen. Ein interner Anwendungsfall für den Banhammer war das Entfernen aller Likes/Follows eines Nutzers, nachdem dieser von der Plattform verbannt wurde.

  1. Yoda

Ein firmeninternes Textverarbeitungstool, mit dem die Beiträge der Nutzer in großem Umfang gesichtet werden. Angeblich benannt nach dem lustig sprechenden grünen Außerirdischen gleichen Namens.

  1. VPV

Die Abkürzung steht für „Viewport Views“. Dies ist eine ziemlich grundlegende Kennzahl, die Facebook-Mitarbeiter verwenden, um zu berechnen, wie oft ein Inhalt – ein Beitrag, ein Video, die Story einer Person – tatsächlich von einer bestimmten Anzahl von Facebook-Nutzern angesehen wurde. „Ansichtsfenster“ bezieht sich in diesem Fall auf den Bildschirm deines Laptops oder Telefons. Eine Ansicht im Ansichtsfenster = eine vollständig geladene Einheit auf diesem Bildschirm und vor deinen Augen.

  1. USI

„Unerwünschte soziale Interaktionen“ oder USI können belästigende Nachrichten, unerwünschte Freundschaftsanfragen oder wirklich jede Art von Kontaktaufnahme eines anderen Facebook-Nutzers sein, die einem anderen Nutzer nicht gefällt.

  1. TRIPS

Steht für „Tracking Reach of Integrity Problems“ (Verfolgung der Reichweite von Integritätsproblemen). TRIPS war eine grundlegende interne Umfrage, mit der gemessen werden sollte, was die Nutzer über die Inhalte denken, die sie auf der Plattform sehen. TRIPS erfasst die Häufigkeit von Hassreden und Belästigungen, auf die die Nutzer gestoßen sind, aber auch die Inhalte, die nach Ansicht des Integrity-Teams von „bürgerlichem Wert“ sein könnten. Letztendlich soll diese Art der Verfolgung dazu dienen, die Qualität der bürgerlichen Konversationen auf der Plattform zu verbessern“.

  1. SUMA

„Single User Multiple Accounts“, oder SUMA, beziehen sich auf Sockenpuppen-Konten, die zur Manipulation von Unterhaltungen auf Facebook verwendet werden. Genug gesagt.

  1. Schutzschild

Dies ist ein internes Programm, das entweder alle Bemühungen, gegen einen bestimmten Inhalt vorzugehen, erschwert oder ganz verhindert, gegen diesen Inhalt vorzugehen. Shield wurde speziell für Facebook-Seiten von Prominenten oder Persönlichkeiten des öffentlichen Lebens eingeführt, um zu verhindern, dass einer ihrer Algorithmen automatisch einen ihrer Beiträge zurückzieht – ein Schritt, der zweifellos einen PR-Albtraum für Facebook bedeuten würde, wenn die Person des öffentlichen Lebens dies bemerken würde.

  1. SEV

SEV ist die Abkürzung für „Site Event“ und bezeichnet ein plattformweites Problem, das den gesamten Facebook-Service beeinträchtigt. Man denke nur an den jüngsten 6-stündigen Ausfall von Facebook, Instagram und WhatsApp.

  1. ROPS/RODS

Diese Akronyme stehen für „Repeat Offender Pages“ (Wiederholungstäter-Seiten) und „Repeat Offender Domains“ (Wiederholungstäter-Domänen), was bedeutet, dass die besagte Seite oder Domäne innerhalb eines Zeitraums von 90 Tagen mindestens drei Verstöße (oder Plattformverletzungen) begangen hat.

  1. (P)Bewertung

Ein weiteres kompliziertes mathematisches Modell! Dieses Modell wird verwendet, um vorherzusagen, wie das unternehmenseigene Team professioneller News-Feed-Bewerter die Inhalte in einem bestimmten Feed bewerten würde. Im internen Glossar von Facebook wird als Beispiel angegeben, wie gut“ eine bestimmte Meldung auf einer Bewertungsskala von 1-5 sein könnte.

  1. Orb

Ein internes Suchtool, das speziell auf das Aufspüren von Spam-Angriffen auf der Facebook-Plattform ausgerichtet ist.

  1. Bouncer

Ein internes Tool, das das Integrity-Team verwendet, um gegen „relativ kleine“ Listen von Seiten oder Personen vorzugehen. Da es sich um ein Unternehmen von der Größe von Facebook handelt, bedeutet „klein“ in diesem Fall „in der Größenordnung von Tausenden“, wie es in einem internen Dokument heißt.

  1. Blau

So bezeichnen Forscher die Hauptanwendung von Facebook, die… blau ist. Die „blaue Zeit“, ein Beispiel, das sie anführen, bezieht sich auf die Gesamtzeit, die jemand mit der blauen App verbringt. Ergibt Sinn!

  1. Magnet-Benutzer

Das ist der Begriff, den das Integrity-Team verwendet, wenn es über einen bestimmten Facebook-Nutzer spricht, der mit schlechten Inhalten „hyper-engagiert“ ist.

  1. ACDC

Der Algorithmus, der die Gruppencluster klassifiziert, die von den anderen Algorithmen des Unternehmens erstellt werden. Verwirrend, nicht wahr? In diesem Fall bedeutet es einfach, dass, wenn ein Algorithmus einen Haufen (potenziell spammiger) Konten entdeckt, die eine einzige URL teilen, ACDC der Algorithmus ist, der diese Gruppe von (spammigen) Konten als gemeinsam genutzte URL klassifiziert.

  1. Fake-Reifen

Wörtlich: gefälschte Satire. Das Glossar definiert den Begriff als „Material zur Fehlinformation/Propaganda“, das sich selbst aktiv als Satire ausgibt, um den Faktenkontrollsystemen des Unternehmens zu entgehen. Eine Vorstellung davon, wie diese Art von Inhalten aussieht, vermitteln die Anwälte von Alex Jones, der Infowars als ein auf „Humor, Bombast, Sarkasmus [und] Witz“ spezialisiertes Unternehmen bezeichnet hat.

  1. NFX

Das Akronym, das das Unternehmen intern verwendet, wenn es sich auf die Schritte bezieht, die Facebook-Nutzer unternehmen, um schlechte Dinge zu melden, die in ihrem Feed auftauchen. Steht für „Negative Feedback eXperience“ (ja, wirklich).

  1. NCII

Steht für „Non-Consensual Intimate Imagery“. Dies wird umgangssprachlich als Rache-Porno bezeichnet, aber dieser Begriff gilt als ungenau und schädlich für die Opfer.

  1. HERO

HERO bezieht sich auf ein internes „High-Risk Early Review Operations“-Programm, das vorhersagen soll, welche Beiträge an einem bestimmten Tag auf der Plattform viral gehen könnten. Es dient dazu, potenziell schädliche virale Beiträge abzufangen, bevor sie tatsächlich viral werden.

  1. NSFA

Je nach Kontext kann sich dies auf eines von zwei Akronymen beziehen, die eine von zwei Arten von Inhalten beschreiben: „Not Safe For All“ (was bedeutet, dass der Inhalt nicht familienfreundlich ist) oder „Not Safe For Ads“, was bedeutet, dass der Inhalt gegen die Facebook-Richtlinien für Werbetreibende verstößt.

  1. MSI

Kurz für „Bedeutungsvolle soziale Interaktionen“. Intern wird dies von den Mitarbeitern als „die Zielmetrik“ für die News Feeds der Nutzer bezeichnet. Die Unternehmensdefinition von „bedeutsam“ ist ein bewegliches Ziel – in anderen internen Dokumenten wird darauf hingewiesen, dass sich die verschiedenen Teile, aus denen MSI besteht, häufig ändern, so wie sich auch das Verständnis einer Person davon, was „bedeutsam“ bedeutet, mit der Zeit ändern kann.

Ab 2020 nutzte das Integrity-Team Metriken wie die Anzahl der Likes und Reshares, die ein Beitrag erhielt, sowie die Anzahl der Stickerkommentare (ja, Stickerkommentare), die Menschen unter einem bestimmten Beitrag hinterließen, um dessen Bedeutung zu beurteilen.

  1. MAD

Die Abkürzung MAD steht für „Mark As Disturbing“ (Als störend markieren) und bezieht sich auf Inhalte, die von Nutzern als „störend“ gemeldet (und von Facebooks Inhaltsmoderatoren markiert) werden könnten. Zu den häufigen Verstößen gehören laut anderen Facebook-Dokumenten, die wir überprüft haben, „grenzwertige Nacktheit“, „ekelhafte medizinische Videos oder Wunden“ und Inhalte, die versuchen, „den Holocaust zu verharmlosen oder zu leugnen“. (Es ist unklar, ob Mark Zuckerberg den letzten Punkt abgesegnet hat.)

  1. WAP

Ich weiß, was Sie jetzt denken. Aber in diesem Zusammenhang steht es für „Weekly Average People“, also die Anzahl der Facebook-Nutzer, die in einer bestimmten Woche irgendeine Aktion durchführen. Das bringt uns zu…

  1. NAWI

Auch bekannt als „Non-Abusive WAP Impact“. Ein interner Wert, den die Facebook-Forscher bei der Überwachung so genannter „nicht missbräuchlicher“ Konten verwenden, was bedeutet, dass sie aus irgendeinem Grund markiert wurden, sich aber nach der Überprüfung als „gutartig“ erwiesen haben.

  1. VICN

Dies steht für „Violence Inducing Conspiracy Network“. Die Definition, wie diese „Netzwerke“ aussehen, ist ein weiteres bewegliches Ziel. In einem der durchgesickerten Dokumente ist von VICN die Rede, und zwar im Zusammenhang mit zwei großen Facebook-Gruppen (die inzwischen entfernt wurden), die mit den Unruhen im Kapitol am 6. Januar in Verbindung standen:

Im Laufe der Zeit haben wir auch zunehmend festgestellt, dass nicht alle schädlichen Netzwerke so eindeutig sind. Bei den VICNs haben wir festgestellt, dass nicht jede schädliche Koordination von einer Organisation mit Befehl und Kontrolle gesteuert wird. Bei „Stop the Steal“ und der „Patriot Party“ waren wir in der Lage, Bewegungen für die Koordinierung von Schäden zu benennen, auch wenn unsere Interventionen nicht ausreichten, um beide als vollwertiges Netzwerk zu behandeln.

In diesem Fall dauerte es eine Weile, bis die Forscher des Unternehmens die Tatsache erkannten, dass sie es tatsächlich mit einem „vollständigen Netzwerk“ von Seiten und Personen zu tun hatten, die sich einer „gegnerischen schädlichen Bewegung“ widmeten. Zumindest zeigen die Dokumente, dass diese Teams etwas aus dem Vorfall gelernt haben.

  1. CAU

Die Abkürzung CAU steht für „Care About Us“ (Sorge um uns) und wird als Maß für die Verbundenheit der Facebook-Nutzer mit der Plattform verwendet (d. h., wie sehr sie das Gefühl haben, dass Facebook sich „um uns sorgt“). Facebook hat sogar eine interne Arbeitsgruppe, die sich der Steigerung der CAU der Nutzer widmet – das Protect and Care-Team. Zu den Produkten, an denen dieses Team gearbeitet hat, gehören die Facebook-Tools zur Selbstmord- und Selbstverletzungsprävention, die laut internen Dokumenten das Ergebnis einer engen Zusammenarbeit „mit einem Team von Experten für Selbstmordprävention und Politik“ waren. In demselben Dokument heißt es, dass diese Experten auch dazu beigetragen haben, die Mitarbeiter der CAU mit Menschen in Kontakt zu bringen, die Selbstmordgedanken oder Selbstmordversuche erlebt haben“, damit sie diese Erfahrungen bei der Entwicklung dieser Tools berücksichtigen konnten.

Unabhängig davon, was du von Facebook als Ganzes hältst (und ob sich das Unternehmen tatsächlich für irgendjemanden von uns interessiert), solltest du einfach wissen, dass dieses Team wichtige Arbeit leistet, für die wir alle dankbar sein sollten.

(Die Nationale Suizidpräventions-Hotline in den USA ist 24 Stunden am Tag unter 1-800-273-8255 erreichbar. Eine Liste der internationalen Suizid-Hotlines finden Sie hier.)

  1. BTG

Kurzform für „Break The Glass“. Dieser Begriff wird verwendet, wenn ein höllisches Ereignis (wie der oben erwähnte Aufstand im Kapitol) ein härteres Vorgehen als die üblichen Taktiken des Unternehmens erforderlich macht. Das Verbot von „Stop The Steal“-Gruppen zum Beispiel wurde intern als Teil von Facebooks „BTG Response“ bezeichnet.

  1. Kannibalismus

Ein grässlich klingender Begriff für etwas, das in der Geschäftswelt ziemlich häufig vorkommt: die Vergrößerung eines Produkts auf Kosten eines anderen. Ein ziemlich deutliches Beispiel ist Instagram, das in den letzten Jahren Nutzer von Facebooks großer blauer App kannibalisiert hat

Die obige Liste ist nur eine kurze Auswahl der Begriffe, die Facebook intern verwendet. Für ein umfassenderes Bild siehe das vollständige Glossar von Haugen weiter unten. (Dieses Dokument wurde geschwärzt, um die Namen von Mitarbeitern und externen Forschern, die nicht der Facebook-Führung angehören, auszuschließen).

Quelle: 35 Internal Code Words Facebook Uses to Talk About Its Users and Tools

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

%d Bloggern gefällt das: