Flödena fylls av AI – fungerar källkritik fortfarande?
Tillvaron i sociala medier blir alltmer komplex när artificiell intelligens (AI) flödar över plattformarna, något som suddar ut vår förståelse för vad som…
Sammanfattning
- AI har numera förmågan att generera verklighetstroget material som sprids i sociala medier, vilket försvårar bedömningen av vad som är sant.
- Lågkvalitativt AI-material, kallat AI-slop, pumpas ut och når en miljonpublik som kan välja att dela materialet trots att det uppfattas som oautentiskt eller desinformativt.
- Ryssland använde desinformativt politiskt AI-innehåll, "slopaganda", under valrörelsen i Moldavien och det spreds även under borgmästarvalet i New York.
- Yngre generationer använder sociala medier som primär informationskälla men har svårare att särskilja journalistik från sociala medier, medan äldre är mindre benägna att undersöka faktafel.
- AI-genererat innehåll med starka känslor, som bilder på krigets fasor i Gaza och Sudan, kan utnyttjas för att slå split eller sprida misstro genom emotionell överdrift.
- Källkritik försvåras då källan blivit svårare att specificera, och omvända bildsök är inte tillräckligt effektiva för att upptäcka nytt AI-genererat material, vilket kräver ett fokus på motivet bakom materialet snarare än på bilden i sig.
Innehåll
Tillvaron i sociala medier blir alltmer komplex när artificiell intelligens (AI) flödar över plattformarna, något som suddar ut vår förståelse för vad som är sant, enligt Moa Eriksson Krutrök, docent i sociologi vid Umeå universitet. Med AI genereras verklighetstroget material som spreds i Moldavien under valrörelsen i september och i New York under borgmästarvalet. Användare delar sådant material även när de uppfattar det som oautentiskt, vilket banar väg för aktörer som vill forma vår syn på världen att sprida desinformation, även kallad "slopaganda". Enligt Krutrök måste vi utveckla ett kritiskt tänkande om "idén bakom bilderna", snarare än bilden i sig, för att kunna navigera i den nya verkligheten.