Problematisk indhold
På mange digitale platforme kan man støde på brugergenereret indhold, som spredes og vises, uden at brugeren nødvendigvis har opsøgt det, for eksempel via et algoritmestyret ’feed’. Brugergenereret indhold har ikke undergået en redaktionel proces, og indholdet modereres i varierende grad af platformene.
Brugergenereret indhold kan derfor være indhold, som er skadeligt eller ubehageligt at se – for eksempel indhold, som er diskriminerende, voldeligt, misvisende eller som forherliger usunde fællesskaber og idealer.
Indhold, som kan være skadeligt for børn, er for eksempel udpenslet vold, seksuelle skildringer, selvskade og selvmord. Barnets alder spiller en stor rolle for vurderingen af indholds skadelighed, da børn i forskellige aldre har forskellige forudsætninger for at afkode og håndtere indhold. Derfor er Medierådets gennemgående anbefaling, at de gældende aldersgrænser som minimum overholdes.
Du kan læse mere om betydningen af aldersgrænser i Den rette alder.
De fleste platforme har anbefalingssystemer (algoritmer), som udvælger og afspiller indhold automatisk, hvilket øger risikoen for, at brugeren bliver eksponeret for problematisk indhold.
Hertil kommer, at meget indhold er AI-genereret, som kan designes efter ønske og laves virkelighedstro. Det gør det svært at skelne mellem, hvad der er autentisk, og hvad der er manipuleret indhold. Det øger risikoen væsentligt for at støde på mis- og desinformation.
Indhold, der ikke er alderssvarende, kan være skadeligt for et barn, hvis indholdet for eksempel er skræmmende, grænseoverskridende eller voldsomt for barnet. På digitale platforme med brugergenereret indhold kan brugere støde på denne slags indhold, uden selv at have opsøgt det.







