Teknik Motor Samhälle Spel Popkultur Fritid Tjock Tester Dagens fråga Tipsa! Skaffa Feber+
Hetaste
Senaste
Mastodon uppges ha problem med barnporr Saknas bra verktyg för att moderera sociala medier i fediverse Mastodon uppges ha problem med barnporr Foto: Rolf van Root / Unsplash Enligt en ny rapport från amerikanska Stanford University har sociala medie-tjänsten Mastodon, en tjänst som primärt konkurrerar med Twitter, problem med barnporr, det som i USA går under beteckningen CSAM (Child sexual abuse material). Enligt rapporten "Child Safety on Federated Social Media" skriver man att decentraliseringen av tjänster i det så kallade "fediverse", en benämning för decentraliserade sociala medie-tjänster, gör det enklare att sprida CSAM-material då tjänsterna inte är så hårt modererade som centraliserade tjänster, till exempel Facebook, Twitter, TikTok och liknande. I rapporten skriver man bland annat:"...bad actors tend to go to the platform with the most lax moderation and enforcement policies. This means that decentralized networks, in which some instances have limited resources or choose not to act, may struggle with detecting or mitigating Child Sexual Abuse Material (CSAM). Federation currently results in redundancies and inefficiencies that make it difficult to stem CSAM, NonConsensual Intimate Imagery (NCII) and other noxious and illegal content and behavior." Även centraliserade sociala medie-tjänster har problem med CSAM-material men enligt rapporten har de bättre verktyg för att hantera dessa problem när de upptäcks. Forskaren David Thiel som lett arbetet med Stanfords rapport om CSAM-material i fediverse anser att det behövs nya typer av verktyg för att komma till rätta med barnporr som sprids via decentraliserade sociala medie-tjänster. Till Gizmodo säger han:"There are hardly any built-in Fediverse tools to help manage the problem, whereas large platforms can reject known CSAM in automated fashion very easily. Central platforms have ultimate authority for the content and have the capability to stop it as much as possible, but in the Fediverse you just cut off servers with bad actors and move on, which means the content is still distributed and still harming victims.

The problem, in my opinion, is not that decentralization is somehow worse, it’s that every technical tool available for fighting CSAM was designed with a small number of centralized platforms in mind. We need new tools for a new environment, which will take engineering resources and funding."
Ni kan läsa Stanford Universitys rapport i PDF-format på länken nedan.
stacks.stanford.edu/file/druid Internet, Tjänster, mastodon, barnporr, csam, sociala medier, fediverse, ActivityPub Via gizmodo.com
25.6° 0 Wille Wilhelmsson Wille Wilhelmsson
tis. 25 jul 2023, 12:00
+ Per månad 39 kr Betala löpande per månad. Ingen bindningstid. Starta prenumeration Per år 299 kr Enklast och billigast, bara 25 kronor i månaden. Betala löpande per år. Ingen bindningstid. Prova 14 dagar gratis innan du bestämmer dig. Starta gratis provperiod Engångsköp 349 kr Slipp återkommande betalningar, betala ett år i taget. Betala med kort eller Swish. Köp utan prenumeration