Et nyt digitalt værktøj viser, hvordan medier, civilsamfund og grupper på Facebook selv kan håndtere hadefulde ytringer uden at overlade kontrollen til tech-giganterne. Det kan fordre den demokratiske samtale online.
Grove personangreb, kønsbaserede fornærmelser og eksplicit truende sprog rettet mod minoriteter er desværre blevet hverdag i mange digitale fora. Normalt er det tech-platformene selv, der står for at fjerne indholdet. Men nu er der udviklet et digitalt værktøj, der giver administratorer, civilsamfund og medier mulighed for selv at bestemme, hvor grænsen skal gå.
Prototypen hedder ‘moderation.cloud’ og er udviklet af Justitias internationale kontor The Future of Free Speech i samarbejde med analysefirmaet Analyse & Tal. Projektet er støttet af Dreyers Fond.
Tidligere analyser fra Justitia har vist, at mange af de kommentarer, som platforme som Meta fjerner, ikke er ulovlige. Faktisk er det kun en meget lille del, der er strafbare. Alligevel bliver de automatisk fjernet ud fra platformenes egne retningslinjer og algoritmer. Med det nye værktøj bliver det i stedet op til brugerne og moderatorerne selv at vurdere, hvor grænsen skal gå. Nogle vil vælge at se mindre; andre vil vælge at se mere.
Det giver nye muligheder for at understøtte en mere konstruktiv offentlig samtale.
“Det er ikke mange år siden, at de sociale medier blev spået til at skulle understøtte en fornyet opblomstring af den demokratiske samtale. Det er muligt at tage skridt i den retning igen,” siger Justitia og The Future of Free Speechs administrerende direktør Jacob Mchangama.
Moderator sætter grænsen
Den nye prototype er skabt til at give administratorer mulighed for selv at vælge, hvilken type indhold de ønsker filtreret, f.eks. i Facebook-grupper, medier eller digitale fællesskaber. Brugerne kan justere, hvor groft sproget må være, via en enkel og brugervenlig menu.
Prototypen bygger på sprogmodeller trænet på dansk og norsk. Modellerne er baseret på åbne teknologier og tilpasset lokale normer og sprogbrug. Systemet registrerer både åbenlyst hadefuld tale og mere subtile former for nedgørende indhold og kan tilpasses forskellige behov og kontekster.
“Formålet med projektet har været at demonstrere, at der findes et reelt alternativ til de sociale mediers nuværende grønthøstermetode, hvor titusindvis af lovlige, men kontroversielle eller måske ubekvemme, ytringer fjernes dagligt,” siger Jacob Mchangama.
“Med den model, vi har udviklet, flyttes kontrollen længere væk fra platformen og mere i retning af slutbrugeren. Det er i langt højere grad op til den enkelte at styre præcis, hvor grovkornet filtreringen af ytringer skal være på deres egne konti eller grupper på eks. Facebook,” forklarer Jacob Mchangama.
Tech-giganter og civilsamfund inviteret med
Prototypen blev præsenteret i november 2025 på en kapacitetsopbygningssession med deltagere fra blandt andet Google, Meta, Electronic Frontier Foundation, Wikimedia og Center for Democracy and Technology. Her blev systemets funktionalitet og potentiale drøftet med henblik på videreudvikling.
“Vi har nu haft mulighed for at demonstrere en fungerende AI-baseret model for repræsentanter fra de største sociale medier i verden og vist dem, at der findes alternative måder at fordre en fri og åben debat på de sociale medier, der undgår faren ved centraliseret indholdsmoderering,” siger Jacob Mchangama.
Billede er genereret med ChatGPT.
Projektet og prototypen
Prototypen ‘moderation.cloud’ er udviklet af The Future of Free Speech (Vanderbilt University) i samarbejde med Analyse & Tal. Den gør det muligt for brugere og administratorer at justere, hvilke former for hadefulde ytringer de ønsker filtreret.
Systemet anvender dansk- og norsktrænede sprogmodeller til at identificere grove og krænkende ytringer og giver administratorer fuld kontrol over, hvor følsomt det skal filtrere.
