Quantcast
Channel: NRKbeta
Viewing all articles
Browse latest Browse all 1578

Slik jobber Facebook med innholdsmoderering

$
0
0

Bilder av amming og bryst i nyhetssaker bryter med Facebooks retningslinjer for diskriminering. Det gjør ikke drapstrusler. Hvordan er det egentlig Facebook jobber med innholdsmoderering?

Tidligere denne uka skrev NRK at Muniba Ahmad hadde motatt en drapstrussel på Facebook etter å ha skrevet debattinlegget Hvorfor jeg er mer norsk enn Hege Storhaug i Aftenposten. Politiet tok kontakt med Ahmad og ba henne anmelde trusselen til Facebook for å få den fjernet.

Trusselen, som fortsatt ligger ute på en åpen profil, lyder som følger:

DRA TIL HELVETE UT AV NORGE DE SATANS KORAN-VIRUSINFISERTE ALLAH-HEKSE……ELLER SÅ SKAL VI BRUKE SHARIA PÅ DEG OG HUGGE AV BANDASJEHUET DITT !! – KOM DEG UT AV NORGE !!!!

Til tross for at drapstrusselen nå har blitt rapportert av flere, nekter Facebook å fjerne den.

Så hva skal egentlig fjernes fra Facebook?

NRKbeta tar kontakt med Facebook for å finne ut hva som er kriteriene for å få noe fjernet.

– Vi har retningslinjer som sier at hatmeldinger som angriper folk basert på deres rase, etnisitet, nasjonalitet, religiøs tilhørighet, kjønn, seksuell legning, sykdom eller funksjonshemning skal tas vekk ved rapportering, sier Nicolina Jonsson, som jobber for Facebooks PR-byrå i Norden.

Hun understreker også at hatmeldinger ikke fjernes om konteksen er riktig.

– Noen ganger deler folk statusoppdateringer som inneholder hatmeldinger eller hatske budskap nettopp for å skape bevissthet rundt- eller belære andre om dette. Når det blir gjort, forventer vi at folk tydeliggjør budskapet og konteksten det diskriminerende budskapet står i, slik at det ikke fjernes.

Facebook oppfordrer alle brukere til å rapportere inn diskriminerende innhold, men garanterer ikke at det blir fjernet. Foto: Skjermdump fra Facebook.
Facebook oppfordrer alle brukere til å rapportere inn diskriminerende innhold, men garanterer ikke at det blir fjernet. Foto: Skjermdump fra Facebook.

Retningslinjene for hva som skal fjernes og ikke fra Facebook, har variert gjennom årene. Video og bilder av halshugging, for eksempel, har vært lov i noen perioder, og sensurert i andre perioder.

Hva som faktisk fjernes og ikke, har også variert. Det har NRK tidligere erfart: Nyhetene delte i fjor en sak om brystkreft på Facebook. Denne ble fjernet fordi featurebildet var av et bryst. NRK-Viten har tidligere også delt bilde av et nakent bryst, men det var i forbindelse med en sak om puberteten. Dette bildet ble ikke fjernet.

«Vi ser gjennom alt»

Facebook kan fortelle at de har et team ser gjennom alt som blir rapportert inn som spam eller diskriminering.

Til tross for at alt tilsynelatende blir vurdert, kan ikke Facebook gi noe garanti for at det som rapporteres inn blir tatt vekk.

– Vi jobber hardt for å fjerne diskriminerende innhold, men det finnes eksempler på smakløst innhold som ikke møter kvalifikasjonene vi har satt for hatmeldinger, og som derfor ikke kan fjernes, sier Jonsson.

For å teste ut prosessen i praksis, rapporterte jeg inn en samtale (som ikke inneholdt diskriminering) med kollega Christoffer. Dette er fire uker siden, men jeg har fortsatt ikke hørt fra Facebook om hvordan samtalen ble vurdert.

Skjermbilde 2015-02-06 kl. 15.59.51
Denne meldingen kommer opp når man rapporterer en samtale som spam. Foto: Skjermdump fra Facebook.

Hva er det som skjer når man rapporterer inn noe som spam til dere? 

– Da ser vi gjennom innholdet og vurderer det. Om det bryter med retningslinjene, fjernes det.

Hvorfor hørte jeg ikke noe om samtalen jeg rapporterte inn?

– Vi gir ikke tilbakemeldinger på innhold som har blitt sett på dersom det ikke fjernes.

Behersker ikke alle språk

Jonsson forteller at Facebook har modereringskontorer lokalisert i USA, India og Irland. Hun ønsker ikke å kommentere hvor mange som jobber med moderering tilsammen, eller hvilke språk disse snakker.

Aftenposten meldte i går at Facebook hadde opplyst til dem at medarbeiderne som jobber med innholdsmoderering behersker alle språk.  Til NRKbeta opplyser Facebook at de ansatte tilsammen snakker 24 ulike språk.

Hvilket morsmål har moderatorene som ser gjennom inrapporterte meldinger fra Norden? 

– Det kan jeg ikke si noe om.

NRKbeta spør videre om tjenester som Google translate blir brukt i modereringsarbeidet, men det ønsker heller ikke Facebook å svare på.

På spørsmål om hvorvidt det er mulig å intervjue noen som jobber med moderering for Facebook i Europa, er svaret at det ikke er mulig å få til et intervju akkurat nå.

Bruker tredjepartsfirmaer i Asia

Det har av flere medier vært antydet at Facebook også bruker tredjepartsfirmaer lokalisert i Asia til innholdsmoderering. Disse firmaene brukes visstnok primært til å fjerne pornografisk innhold, og bilder eller video som viser vold og halshugginger.

Det antydes at modereringsarbeidet i stor grad gjøres for å beskytte  «besteforeldregenerasjonen».

Now that grandparents routinely use services like Facebook to connect with their kids and grandkids, they are potentially exposed to the Internet’s panoply of jerks, racists, creeps, criminals, and bullies. They won’t continue to log on if they find their family photos sandwiched between a gruesome Russian highway accident and a hardcore porn video.Wired

Facebook opplyser at alt innhold som fjernes, har blitt rapportert inn, og at det ikke jobbes med proaktiv moderering.

Jobber etter uoffisielle retningslinjer

På spørsmål om hvilke retningslinjer moderatorene jobber etter, svarer Jonsson at disse ligger åpent for alle. Dette er en sannhet med visse modifikasjoner.

Gawker har tidligere lekket et dokument som angivelig inneholder retningslinjene moderatorene egentlig jobber etter.

Slik ser dokumentet ut:

oDeskStandards

Og her et «jukseark» som gir en rask oversikt over retningslinjene:

Foto: Skjermdump fra Gawker.
Foto: Skjermdump fra Gawker.

Dokumentet er laget av firmaet oDesk, som angivelig skal ha Facebook som kunder.

Det fremgår av dokumentet at moderatorene må følge relativt strenge retningslinjer for hva som skal fjernes og ikke. Bilder av nakne kroppsdeler, dop (untatt marijuana) og seksuell aktivitet (med unntak av forspill) er forbudt. Mannlige brystvorter er greit, men amming hvor brystet blottes er ikke greit. Bilder av menneskelige væsker (men ikke sæd) er lov, men ikke hvis et menneske også syns på bildet. Bilder som er redigert i Photoshop kan deles, men ikke om det setter noen i et negativt lys.

Her er et utdrag fra dokumentet som viser hva slags innhold som kan publiseres og ikke:

Her er et utdrag fra rapporten som viser hva slags innhold som kan publiseres og ikke. Foto: Skjermdump fra Gawker.
Facebook bruker visstnok tredjepartsfirmaer til innholdsmoderering. Disse skal angivelgi jobbe etter uoffisielle retningslinjer for hva som skal fjernes og ikke. Foto: Skjermdump fra Gawker.

Gawker skal ha fått dokumentet av Amine Derkaoui, en 21-år gammel marokkaner som tidligere har jobbet med innholdsmoderering for Facebook. Derkaouis lønn var angivelig 1 dollar i timen.

NRKbeta har spurt Facebook om tredjepartsfirmaer benyttes for innholdsmoderering. Til tross for at spørsmålet har blitt stilt på telefon og e-post gjentatte ganger, har vi ikke fått noe svar.

Noen ganger fjernes for mye

Facebook har tidligere innrømmet at fjerning av inrapportert materiale varierer, fordi arbeidet blir utført av mennesker, og ikke maskiner.

Facebook-moderatorene har enkelte ganger også fjernet innhold som faktisk ikke bryter med retningslinjene. Eksempler på dette er fjerning av bilde hvor to homofile kysser, og fjerning av enkelte ammebilder. Facebook har tidligere også beklaget fjerning av en post om legemiddelet misoprostol, som blant annet kan brukes til abort på et tidlig stadie i svangerskapet.

 Hvor mener du grensa bør gå for hva som fjernes fra Facebook og ikke?

 


Viewing all articles
Browse latest Browse all 1578


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>