I april 2021 havde DR en nyhed omkring, at flere unge piger var blevet udsat for digitale krænkelser i form af deling af falske nøgenbilleder. Billederne er lavet via kunstig intelligens og er efterfølgende delt på sociale fora – uden pigernes samtykke.
I dette indlæg gør vi dig klogere på emnet og bringer en række råd til, hvad du kan stille op, såfremt du selv eller dit barn udsættes for dette.
Hvad skal du gøre, hvis du udsættes for digitale krænkelser?
Der er flere paragraffer i den danske lovgivning som omfatter digitale krænkelser. Reglerne er dog forholdsvis enkle: Deling af informationer, billeder, film og video af andre er kun lovligt, såfremt du har personens samtykke. Hvis ikke er det per definition ulovligt.
Hertil kan der være nogle skel mellem, hvor grov en forseelse der er tale om, alt efter, hvilken type af indhold, som du deler. Og hvorvidt det er gjort med forsæt.
Du kan læse mere om lovgivningen på området her.
Deler man et falskt nøgenbillede, er det ifølge politiet ulovligt og en overtrædelse af straffeloven. Så enkelt er det. Alligevel er der på diverse netfora over de seneste par måneder kommet en række eksempler på deep fakes.
Arbejder du med (udsatte unge)?
Det er desværre ikke alle unge piger, der har lyst til at fortælle andre omkring, at de er blevet udsat for digitale krænkelser. I den forbindelse er det vigtigt, at du som voksen er opmærksom på, hvis den unges adfærd ændrer sig over en periode.
Det kunne eksempelvis komme til udtryk gennem selvskadende adfærd. På siden her er der 7 gode råd til dig der arbejder med børn / unge.
Influencere er hårdt ramt
Anna Briand, Nadja Hansen og Victoria Fuglsang er bare nogle af de kvinder, der har valgt at stå frem i DR-artiklen og fortælle om deres krænkelser.
Fælles for disse tre kvinder er, at de alle er influencere og derfor har en stor følgeskare. Dette udelukker desværre ikke, at også helt “almindelige” unge kvinder og piger kan blive udsat for falske nøgenbilleder.
Teknologien bag er nemlig så fremskreden, at eksempelvis et bikini-billede af personen kan være nok til at genere et falsk nøgenbillede. Jo flere billeder man har af personen, jo nemmere er det for algoritmen at udarbejde det falske billede. Og jo sværere er det typisk for dig som seer, at kunne se forskel på, hvad der er ægte og hvad som er falsk.
Udover de nævnte influencere i artiklen er der også især blandt micro-influencere en stigende tendens til, at disse udsættes for dette fænomen kaldet Fake Porn.
‘Deepfake’, ‘Deep learning’ og ‘Fake porn’
Disse tre begreber er ikke alle det samme – men de er alle tre en del af den samme teknologi. Deep
Deepfake: Deepfake er navnet på det begreb, som beskriver brugen af kunstig intelligens til at skabe realistiske billeder eller videoer af noget, som ellers aldrig er sket. Deepfake har især over de seneste år haft en stor indflydelse på, hvordan bestemte målgrupper har forstået og fået præenteret et budskab.
Deep Learning: Er en kunstig intelligens, der efterligner menneskehjernens visuelle cortex, som er de dele af vores hjerne, vi bruger til at se ting med. Via formler, computerkræft og algoritmer kan teknologien sammensætte falske billeder, der i videst muligt omfang matcher et så ‘realistisk udtryk’ som overhovedet muligt.
Fake Porn: Når almindelige billeder manipueleres via kunstig intelligens til at skabe falske nøgenbilleder
Læs også: Guide: Undgå at dit barn udsættes for digital mobning
Opsummering
Har du mistanke om eller er du blevet udsat for digitale krænkelser, så skal du melde det til politiet.
Du finder link til Politiet her.
Du skal have følgende oplysninger klar:
- NemID, hvis du har det
- (Eventuelle) oplysninger om den mistænkte fx navn, brugernavn, mailadresse mm.
- URL eller linkadresse på det eller de steder, hvor krænkelsen er sket