Facebook pr zision warum und wie…

Posted by admin - April 6, 2015

CEO von Facebook, Mark Zuckerberg, bei einer konferenz in Delhi, dem 9. oktober

Die politische zensur von Facebook auf ihrer webseite wurde oft merken für seinen mangel an klarheit. In einigen fällen, das soziale netzwerk lässt, manchmal bewusst, inhalte gerichtet anstößige von vielen : man erinnert sich an die bilder und nachrichten, anstiftung zu gewalt gegen frauen, dass Facebook hatte sich zunächst geweigert, löschen, bevor sie schließlich eine überprüfung seiner charta.

In anderen fällen Facebook kann sich zeigen sehr (zu ?) streng. Ein bild, indem sie die farbe der entstehung Der welt, von Gustave Courbet, gleichgestellt, pornographie, hatte zum beispiel unveröffentlicht und führte zur schließung eines kontos.

« Es IST KOMPLIZIERT »

« Facebook hat regeln, die gelten sollen 1,3 milliarden menschen [verbindung, mindestens einmal pro monat] in der ganzen welt, leben in verschiedenen ländern und kulturen ausdruck vielfältig. Es ist sehr kompliziert », hat gerne zugestanden, Monika Bickert, die verantwortlich für die welt-moderation bei Facebook, bei einem treffen mit der presse in Paris am 8. oktober.

Das thema ist nicht weniger wichtig für eine plattform geschaffen hat strenge regeln, den rahmen für die freie meinungsäußerung, die miteinander unter anderem die « gewalt und bedrohungen », « einschüchterungen und schikanen », « hassreden », « inhalte explizite » (oder bilder zu gewalttätigen) oder die « nacktheit ».

Eine solche zeile, in erscheinung strenger als die anwendung auf andere soziale netzwerke wie Twitter), soll den nutzern von Facebook die site zu verwenden, mit ihrer wahren identität und ohne angst im zusammenhang mit fragwürdigen inhalten oder zu gewalt und werbetreibende können ihre botschaften in einer sicheren umgebung.

Lesen : Facebook überprüft die regeln zur beruhigung der inserenten

« Wir möchten, dass Facebook ein ort ist, wo menschen zu teilen, positiv und verantwortlich », so das fazit von Monika Bickert, eine alte jurist, der beschreibt, wie Facebook versucht, die regeln einhalten.

LÖSCHUNG erfolgt ERST NACH MELDUNG

Erste genauigkeit : Monika Bickert gewährleistet, dass Facebook « sucht nicht proaktiv » problematische inhalte. Nach ihr ist diese arbeit nicht möglich angesichts der masse an daten veröffentlicht, die jeden tag von profilen und seiten (Facebook spricht von 400 milliarden bilder auf das netzwerk seit oktober 2005).

Alle aktionen, die von der moderation sind so ausgeführt, nachdem ein inhalt (status -, kommentar -, foto -, video -, etc) in kraft trat berichtet von einem nutzer von Facebook – durch die ad-hoc-tasten.

Diese zurückhaltung hat, im nachhinein, und beruht nur auf die meldung, erklärt, warum viele nachrichten streitigen zugänglich bleiben für mehrere stunden oder tage, auch wenn sie gegen die charta von Facebook auf.

einmal berichtete, ist die nachricht in einer schaltung, die das aussehen ziemlich kompliziert, festlegung der prioritäten der behandlung je nach motiv. « Die ausschreibungen im zusammenhang mit belästigungen oder bedrohungen werden körperliche schwerpunkte und innerhalb weniger stunden bearbeitet », erläutert Monika Bickert.

Wenn die durchschnittliche anzahl der betreffenden inhalte vom tag bleibt ein geheimnis, Facebook verspricht, dass sie für die meisten der zeit, die verträge « in weniger als zweiundsiebzig stunden ». Einmal berichtete, jeder inhalt wird geprüft von einem « hunderte » moderatoren von Facebook, aufgeteilt in vier büros (zwei in den Usa, in Irland, Indien), und die darüber entscheiden, ob dépublier – oder nicht – der inhalt.

Diese entscheidungen sind alle « manuell aufgenommen, die von echten menschen », die die vorschriften community auf Facebook, abhängig von Monica Bickert. Die leiterin hat dementiert die existenz werkzeuge zum aufspüren und entfernen sie automatisch bestimmte inhalte wie pornografie.

Die software-assistenten, die moderatoren sind nicht nach ihr verwendet, dass in zwei konkreten fall : der kinderpornographie (mit dem programm PhotoDNA, entwickelt von Microsoft) und der kampf gegen den terrorismus (inhalte gemeldet verherrlichen des terrorismus sind in der tiefe analysiert, die durch ein spezielles werkzeug, um zu ermitteln, z. b. die kreise von freunden oder anderen daten in bezug auf das konto, die den beitrag geschrieben).

MODERATION THEMATISCHE UND GEOGRAFISCHE

mehr als eine anwendung, die die basis der charta Facebook, die wahl der moderation geschärft werden, abhängig von der region, wo ausgegeben wird, ist die ausschreibung. Die moderatoren sind « spezialisiert, land oder sprache. Wenn sie Facebook russisch, die nachricht, das es schafft, das team Russland ». Dies zu beurteilen, in welchem kontext wurde eine nachricht veröffentlicht, und die auswirkungen, die es haben kann, je nach referenzen, kulturellen, ethischen, moralischen oder religiösen. Facebook hat partnerschaften mit vielen lokalen vereinen (z. b. in Frankreich : die LICRA, der CRIF, SOS Racisme, die UEJF, SOS-Homophobie).

Eine andere art von moderation « geographischen » kann auf antrag der regierung oder von gerichten. « Wir respektieren die gesetze der einzelnen länder. Und wir machen nicht erreichbar inhalte, die für eine bestimmte region, in abhängigkeit der verschiedenen signale : die IP-adresse, die sprache, die von den profilen, etc. » nach Monika Bickert.

Die moderatoren sind auch aufgeteilt in teams, je nach art der inhalte seien (sicherheit der nutzer, belästigung, terrorismus, etc). Monika Bickert besagt, dass « alle erhielten eine eingehende schulung auf das jeweilige thema unserer charta », um insbesondere die übertragung von nachrichten zu den dienstleistungen, die unmittelbar betroffenen (« menschen berichten oft dinge, die nicht gegen unsere standards der gemeinschaft für die gründe, warum sie glauben »).

wenn sie zweifel über die aktion kommt es vor, dass « das problem geht zurück auf die vorgesetzten, die die entscheidungen treffen können und einsehen, andere personen ». Facebook zum beispiel arbeitet direkt mit den « regierungen » zu fragen im zusammenhang mit dem terrorismus, in einem kontext, in dem neue gruppen verwenden, die stark die sozialen netzwerke für ihre projekte zu werben.

POLITIK « anti-terror »

« Facebook kann nicht sein, ein ort, wo anonyme benutzer etwas tun, was nicht erfüllen, unsere regeln, betonte Monika Bickert. Wenn man es meldet, dass eine person die verherrlichung einer terroristischen vereinigung oder die präsenz auf Facebook eine gruppe von terroristen, wir löschen diese inhalte wir mit unseren automatisierten tools, die uns helfen, zu erkennen, andere konten. Die mitglieder des islamischen Staates können nicht auf unserer website, wir haben eine politik zur bekämpfung des terrorismus sehr fest », fuhr sie fort.

Am gleichen tag, aber Halt auf bilder, veröffentlichte eine untersuchung über die art und weise, wie die islamistischen terroristen und ihre sympathisanten verwenden Facebook, um ihre aktionen zu beschreiben oder waffen zu verkaufen.

« Unsere moderatoren löschen sowieso die bilder zu gewalttätigen », kommentierte ebenso Monika Bickert. In den tatsachen, die eine solche leitung auch nicht immer so offensichtlich. Facebook zum beispiel hat lange gezögert, bis die entscheidung über ein video von der enthauptung, bis hin zu mehreren tagen zu löschen, und dann die réautoriser, bevor sie die vollständig – und zog den zorn von David Cameron. Der Daily Dot hat auch berichtet, das bei einem video, das zeigt ein tier gerade geschlagen werden, für die Facebook geantwortet hatte zwei mal auf eine andere weise.

« Es kann passieren, dass unsere teams ziehen lassen oder von inhalten fehler. In diesen fällen sind wir ermöglichen es benutzern, einen rechtsbehelf gegen die entscheidung und wenn unsere teams haben sich geirrt, sie erholen sich die situation in kürzester zeit », verspricht Facebook in einem dokument befasst sich mit der frage.

In diesem zusammenhang, die moderation der inhalte öffentlichen bereich gepostet von seiten Facebook kann komplexer sein als für diejenigen anzusehen, das von der private profile. Uns selbst und der Welt, und wir wurden vor die vorübergehende deaktivierung von unserer seite, nachdem sie ausgestrahlt foto aktuell als zu stark (was hat die gelegenheit zu lernen, dass es « nicht-charta, den webseiten information » bei Facebook, bestätigt Monica Bickhert).

Die struktur der seiten nicht erlaubt, ferner die fälle zu melden, bei Facebook einen kommentar potenziell streitigen einem anderen benutzer. « Die seiten sind teil der bereiche, die wir verbessern müssen hinsichtlich der meldung von inhalten », gab Monika Bickert.

In:
No Comments yet, be the first to reply

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.