AI på väg mot kollaps – tar våra hjärnor med sig
AI-tekniken står inför en potentiell kollaps då den tränas på "digitalt skräp" som AI självt genererar, vilket riskerar att minska kvaliteten och…
Sammanfattning
- AI riskerar att förlora sin tillförlitlighet och kvalitet när den tränas på eget genererat material, då "originalinnehållet" på internet är förbrukat.
- Forskning indikerar att AI-genererat innehåll ökar mängden 'skräp' i träningsdata, vilket leder till irreversibla fel och en försämring av AI-modeller.
- Beroendet av AI-tjänster kan leda till "kognitiv lathet" och en minskad förmåga att tänka självständigt, enligt professor Olof Sundin.
- Tekniken är i stort sett oreglerad, till skillnad från exempelvis läkemedel som genomgår omfattande tester och riskbedömningar.
- Ledande figurer som Internationella valutafonden och Googles vd Sundar Pichai varnar för en ekonomisk bubbla inom AI, likt dotcom-bubblan, som kan få allvarliga konsekvenser för företag globalt.
- Nya träningsmetoder är nödvändiga för att AI-tekniken ska kunna utvecklas och förbättras bortom den nuvarande databristen.
Innehåll
AI-tekniken står inför en potentiell kollaps då den tränas på "digitalt skräp" som AI självt genererar, vilket riskerar att minska kvaliteten och tillförlitligheten hos AI-svar. Fredrik Lindsten, professor vid Linköpings universitet, belyser hur "originalinnehållet" på nätet nu är förbrukat, och AI tvingas förlita sig på sitt eget skapade material. Virginia Dignum, professor i ansvarsfull AI, varnar att AI-modeller inte är skapade för att avgöra sanning, och Mattias Rost, docent vid Göteborgs universitet, menar att nya träningsmetoder behövs för att komma vidare. Olof Sundin, professor vid Lunds universitet, påpekar att ett överdrivet förlitande på AI kan leda till "kognitiv lathet" och därmed påverka vår förmåga till självständigt tänkande.