Professor: Går inte att lita på Chat GPT
Professor Olof Sundin, Lunds universitet, varnar för att inte lita på Chat GPT för faktafrågor eftersom det riskerar att urholka vår källkritiska förmåga.…
Sammanfattning
- Professor Olof Sundin avråder från att använda generativa AI-verktyg för faktafrågor då de kan urholka källkritiken.
- AI-verktyg som Chat GPT baserar svar på sannolikhet från träningsdata och kan hitta på svar vid otillräcklig information.
- Enligt Internetstiftelsens "Svenskarna och internet" använder var femte svensk AI-verktyg istället för sökmotorer, medan nästan hälften av 15-25-åringarna gör det.
- Richard Johansson, forskare vid Göteborgs universitet, förklarar att tekniken RAG försöker göra faktafrågor mer pålitliga genom att AI:n "googlar" svar.
- Johansson råder användare att alltid dubbelkolla information från AI och undersöka källor, eftersom AI kan hallucinerar och uppfinna referenser.
- Sundin anser att AI trots riskerna måste integreras i skolundervisningen för att utveckla en kritisk förståelse för digital infrastruktur.
Innehåll
Professor Olof Sundin, Lunds universitet, varnar för att inte lita på Chat GPT för faktafrågor eftersom det riskerar att urholka vår källkritiska förmåga. Systemen, som svarar baserat på sannolikhet, kan lätt misstas för allvetande experter och hitta på information vid svåra frågor, trots tekniker som "retrieval augmented generation". Richard Johansson, professor i data- och informationsteknik vid Göteborgs universitet, betonar att man bör dubbelkolla AI-genererad information, precis som vid en vanlig sökning. Var femte svensk söker information via AI i stället för sökmotorer, vilket lyfter problematiken med bristande källkritik.