Dagens ord


Ansvar väger tyngre än frihet - Responsibility trumps liberty

13 okt. 2024

Reflektion över AI i utbildning och arbete

I artikeln “Conceptualizing AI literacy: An exploratory review” anges fyra aspekter av undervisning för AI-litteracitet: “know and understand, use and apply, evaluate and create, and ethical issues” (Ng et al., 2024). Angående den tredje aspekten sägs det att:

Students are not only the end users but [sic!] potentially be problem-solvers to use AI technologies in different scenarios, or even create possible AI-driven hardware and software solutions to make our society a better place to live in.

(Ng et al., 2024, s. 9)

Det här vill jag tro på, men artikeln är naiv och överoptimistisk, inte minst när det gäller det första området, att förstå grunderna i AI: Det kommer elever (såväl som lärare och människor i allmänhet) inte att göra. Frågor om olika sökmetoder, t.ex. anses svåra även inom specialiserade utbildningar inom datavetenskap.

Artikelns diskussion om den fjärde aspekten, etik, känns inskränkt och egocentriskt. Här hänvisar jag till min tidigare reflektion.

Holmes och Toumis (2022) diskussion uppvisar en typisk omotiverad skepsis till jämförelser mellan maskininlärning och mänsklig intelligens. Det är ironiskt att författarna själva, utan att märka det, ger en rimlig förklaring till varför den mänskliga hjärnan klarar sig på 20 Watt: Det mesta optimeringsarbetet är redan gjort, under miljontals år av evolution. Det är detta som återskapas under försvinnande korta tidsintervall i artificiella neuronnät.

Författarna gör en omotiverad åtskillnad mellan mänsklig intelligens (agentskap, intentionalitet) och artificiell sådan. Det är den här typen av inskränkthet och hybris som kommer att bli vår (mänsklighetens) undergång! Istället för att desperat stipulera och försöka hitta skäl till varför människor är och bör vara i överläge vore det bättre att utgå från motsatsen och hur vi ska hantera detta.

Holmes och Tuomi (2022) ger en mycket översiktlig, men korrekt, beskrivning av neurala nät respektive symbolisk AI. Är detta den nivå som vi lärare förväntas lägga oss på? Den rimmar illa med formuleringarna i exempelvis UNESCO:s ramverk och i Skolverkets ämnesplan, där man är extremt ambitiös. Den nivå som exemplifieras i artikeln är rimlig som allmänbildning, men utgör å andra sidan en nästan meningslös (?) språklig ritual som inte kommer att göra någon praktisk skillnad. Att sikta högre är å andra sidan, som sagt, orealistiskt.

Författarna presenterar en användbar taxonomi över så kallade AIED-system. Om AI-assisterade appar säger de bland annat att de riskerar att “undermine students’ learning in e.g. mathematics” (Holmes & Tuomi, s. 552). Författarna menar att detta kanske inte behöver vara ett problem om ”rätt” saker automatiseras (till exempel lång division) eftersom elever då kan koncentrera sig på ”högre” förmågor och problemlösning.

Men detta fungerar inte i praktiken: Att arbeta med ”grundläggande” begrepp och procedurer är det som utvecklar förmåga att lösa problem på högre nivå. Elever som inte får, vill eller kan lära sig behärska grundläggande matematik, grammatik etc. kommer inte att utveckla allmänna metakognitiva förmågor. Det ”högre” problemlösandet riskerar att bli utebli helt, eller bli meningslöst och i värsta fall ansvarslöst och farligt.

Sokratiska chat-bottar som exempelvis Thought Saver (eller en lämpligt “promptad” Claude, Gemini eller Chat GPT) fungerar väldigt bra - om de promptas väl, och om elever (studenter) utnyttjar dem med kunskap och genuint intresse.

Det kommer alltid att finnas en asymmetri som innebär att det krävs mer kunskaper för att instruera AI:n och att utvärdera dess bidrag än vad eleven (läraren, människan, experten) har om det aktuella innehållet.

En lärare kan prompta AI:n och ge eleverna exempel på frågor att diskutera, men hur kan läraren tillse att eleven är intresserad och får ut något (“rätt” saker) av diskussionen?

Geogebra Math Practice är ett fantastiskt nytt verktyg, och ett exempel på vad Holmes och Toumi (2022) kallar “Exploratory learning environments” (ELE). Men svaga elever vill inte använda det. Och duktiga elever behöver det inte (utifrån nuvarande ämnesplaner).

AI-assistenter byggs nu in i exempelvis Apple iOS och därmed i majoriteten av elevernas mobiltelefoner och surfplattor. Kommer eleverna därmed att bli ännu mer luttrade och skeptiska till skolan? 

Holmes och Tuomi (2022) diskuterar risker med automatisk rättning - men vilka risker finns när rättningen inte är automatiserad? Är det inte bättre att göra reglerna explicita och att om möjligt öka likvärdigheten?

Författarna resonerar också om individualiserat lärande. Till riskerna med en sådan utveckling hör ökad inskränkthet och egocentrism - det vi redan sett dramatiska utslag av under det senaste årtiondet inom sociala medier, samhällsliv och politik. Hur är det med skolans socialiserande uppdrag - kanske har detta alltid varit det viktigaste (jfr. Caplan, 2018) och kanske blir just detta det enda viktiga nu och i framtiden?

Slutligen gör Holmes och Tuomi (2022) en bra sammanställning av etiska aspekter (dock inte alla). Jag hänvisar återigen till min tidigare reflektion om naiviteten i dessa diskussioner.

Selwyns (2022) artikel “The future of AI and education: Some cautionary notes” uppfattar jag som extremt agenda-driven. I texten stipulerar författaren bort de viktigaste aspekterna av och riskerna med AI-utvecklingen och använder retoriska övertalningsdefinition av vanligt snitt.

Selwyn (2022) varnar bland annat för att förväxla smal AI med bred, allmän, generell AI. Men den distinktionen håller inte längre - och det är farligt att inte uppmärksamma detta! Selwyn skriver om ”…bounded mathematical systems” (s. 3). Vad säger detta om författarens inställning till mänsklig intelligens? Vad är det för övernaturliga egenskaper den senare besitter? Jag anser det vara oansvarigt och oprofessionellt att retoriskt implicera sådana skillnader utan konkreta belägg.

Jag håller med författaren om att autonomi inte är en personlig egenskap utan en funktion av sociala relationer (Selwyn, 2022, s. 4). Men när det gäller riskerna för algoritmisk diskriminering (s. 5) anser jag att det är bättre att ha explicita regler, öppna för kritik och förändring, än att förlita sig på mänskligt omdöme.

Selwyn framstår i mina ögon som ännu en av ett allt större antal aktivistiska akademiker vars främsta sysselsättning verkar vara att signalera sin dygd till gelikar genom dåligt underbyggda skambelägganden, i en tilltagande indignationskaskad. Det finns andra områden som är bättre lämpade för en kamp mot orättvisor. Den här och många andra texter är ego-projekt som inte leder någonstans. Engagemanget - i den mån det är genuint och välmotiverat - borde vändas mot att förändra ekonomiska och politiska strukturer nationellt och globalt. Och moraliserande duger inte som ursäkt för flummighet.

När jag lyssnar till Johan Lundins föreläsning om AI och skolan (Lundin, 2021) så tänker jag att tiden och utvecklingen verkar gå långsammare på universitetets samhällsinstitutioner än på de tekniska och naturvetenskapliga institutionerna. Lundin säger vid ett tillfälle: ”Det finns idéer om att maskiner ska  börja förbättra sig själva”, som om detta vore en närmast löjeväckande möjlighet eller en avlägsen och oviktig kuriositet. Men just denna utveckling pågår för fullt och den accelererar! Vilken dag som helst har den exponentiella förbättringen lämnat oss helt akterseglade.

En hoppfull tanke som Lundin presenterar är att AI inte kommer att förändra skolans organisation så snabbt, på grund av trögheter i systemet. I så fall hinner jag kanske pensionera mig innan konsekvenserna av dagens teknik har slagit igenom fullt ut.

Det finns en spännande spänning mellan individualisering och socialisering i skolan. Båda är eftersträvansvärda i viss mån, men de kan betyda många olika saker och de kan gå fel och för långt. De samverkar också på olika sätt. Hur kan en individualisering göras som faktiskt ger effektivare inlärning samtidigt som bidrar till bättre (minst lika god) socialisering?

Lundin nämner att det finns en risk för att elever automatiserar produktionen av det som ska testa deras lärande eller av det som ska vara resultatet av eget arbete, lärande, förmågor - men att de inte lär sig något. Detta är inte endast en risk - det är redan fallet. Sådana tendenser har nog alltid funnits - de är ett utslag av Goodharts lag - men de blir nu allt kraftigare, och så kraftiga att hela skolans organisation måste tänkas om.

Lundin talar om bristande beställarkompetens, till exempel att skolor inte vet vad de köper in, eller konsekvenserna av detta. Detsamma gällde datorer, Internet, iPads, lärplattformar m.m. Och varför har svenska skolor fortfarande inte infört förbud mot mobiltelefoner?

Det faktum att AI är okroppslig gör det svårare att identifiera den och dess aktiviteter och effekter, och att hålla den ansvarig. Den bara finns och påverkar i det (halvt) fördolda. Tekniken uppfattas inte som något man kan påverka, förändra, ifrågasätta eller hålla ansvarig.

En knapp halvtimme in i sin föreläsning säger Lundin: ”Men superintelligens? Jag är inte alls orolig. Robotar är jättedumma än så länge. Det finns inget som talar för att det explosionsartat skulle […] det vi ser kring neurala nätverk…har ganska svårt att få transfer till fysiska robotar. Fysiska robotar är dåliga på väldigt många saker…” (Lundin, 2021, minut 29).

Men även robotar blir snabbt bättre. Framförallt kan AI använda andra effektorer och inte minst människor genom att påverka, lura, locka och utpressa dem.

”Det man ska vara mer orolig för är den osynliga påverkan” fortsätter Lundin. Ja, den också. Och den är minst lika effektiv som via en fysisk kropp. Inte minst när den agerar genom andra kroppar.

Lundin talar också om system för att klassificera elever och deras prestationer, och för att prognostisera deras framtida utveckling. Det kan bli snabbt och precist när eleverna arbetar mycket digitalt, och kan användas för att organisera undervisningen bättre. Detta i kontrast till dagens 1800-talsstruktur med åldersnivåer och fasta ämnesplaner som bygger på varandra. Detta system har varit under stress sedan det infördes och de senaste årtiondena har det kraschat helt. Men detta är inte endast en fråga om AI i skolan, utan om stora samhällsförändringar på många områden - många pådrivna av ny teknik. Självklart finns också nya möjligheter till social stratifiering, på gott och ont.

Erik Winerö (2023) funderar över vad elever nu ägnar sig åt mest: fusk eller inlärning. Han inleder (2’30”) med att konstatera att det inte är lätt att avgöra vad som är fusk och inte, och gör analogi med stavhopp. Men det är inte resultatet som räknas - det är utvecklandet av tänkandet. Vår kognition och samlevnad är beroende av att vi utvecklas i en miljö som främjar och underhåller de system som den kulturella evolutionen har frambringat. (Detta är också ungefär vad Winerö själv kommer fram till.)

Winerö gör också en liknelse med datorspel (7’30”). Men problemet med “spelifiering” är värre än vad Winerö ger exempel på: Jag minns fortfarande tydligt min bestörtning när jag som småbarnsförälder gav mina pojkar den senaste versionen av Nintendos datorspel Mario Bros. Jag hoppades att de skulle få uppleva detsamma som jag en gång i tiden gjorde: En succession av nästan hopplöst svåra, och allt svårare, banor som bemästrades först efter timmar, dagar, veckor av enträgen träning, vilket gav mycket starka känslor av både motivation och stolthet. Men vad jag upptäckte var i stället att svårighetsgraden i de nya versionerna av spelet sänks dynamiskt när spelaren inte klarat en bana på ett visst antal försök. När jag frågade mina barn om de hade kört fast så sa det: “Nä! Det är ju lätt!” (De tröttnade också ganska snabbt på att spela.) Denna erfarenhet krossade effektivt mitt framtidshopp. Jag tror att denna anekdot uppvisar många likheter med utvecklingen i stort. Winerö avslutar sin egen liknelse med orden: ”Enhancements can create the illusion of learning” (7’55”).

Ungefär 10 minuter in i sin föreläsning ger Winerö (2021) ett exempel med Chat GPT 4 som programmerar en webbsajt utifrån en skiss. I det här fallet kan användaren koda och därför också utvärdera resultatet. Winerö varnar helt korrekt för att vi riskerar att kortsluta den processen. Det har vi redan gjort när det gäller exempelvis (kurserna) datorkunskap, programmering och på senare tid också matematik.

En stund senare (Winerö, 2021, 14’30”) sammanfattar Winerö: Vi ska inte använda AI för att undvika hinder och arbete, utan för att vägleda och stödja genom hinder. Ett trivialt exempel från min egen undervisning: Thought Savers sokratiska AI som inte direkt svarar på elevens fråga utan ställer motfrågor och tar fram, diskuterar, värderar, kritiserar, och tvingar eleven att utveckla sin egen förförståelse.

När jag lyssnar till Marie Utterberg Modéns föreläsning om digitala läromedel (Utterberg Modén, 2022) tänker jag att i min erfarenhet vill elever gå tillbaka till tryckta matteböcker. De vill inte ”stirra på en (liten) skärm”. De tycker att det är besvärligt att mata in svar och uttryck på ett (litet) tangentbord. De vill bläddra, läsa och skriva på papper - och jag tror att det är sunt.

Regeringen, SKR m.fl. presenterar sina digitaliseringsstrategier och deklarerar att Sverige ska vara ledande i utvecklingen. Det är typiskt, och bara löjligt: Drivet av okunnighet, upplevt konkurrenshot, mode, retorik och rädsla. Som kommunpolitikerna sa på min förra arbetsplats: ”Vi bygger planet medan vi flyger”. Denna inställning har lett till mycket kostsamma satsningar i både pengar, tid och experimenterande med ungdomars lärande - och det är vare sig första eller sista gången.

Angående lärplattformar: Min erfarenhet är att ju smidigare verktyg (exempelvis Google Apps for Education och Classroom) desto bekvämare blir eleverna. De använder inte (längre) kalender, flöde, resurser etc. En del agerar dessutom oförstående - troligen för att dra ner tempot och förväntningarna. (Jämför ackordsarbete.)

När det gäller automatisk insamling av underlag för formativ (och summativ) bedömning, exempelvis övningsläget i Kunskapsmatrisen, verkar det vara så att eleverna undviker detta delvis för att de inte vill bli övervakade. Av samma anledning ser jag elever som täcker över sitt papper när jag som lärare närmar mig. Eleverna vill inte konfrontera vare sig uppgiften eller sin egen bristande kunskap - och de vill sannerligen inte be om hjälp och tvingas arbeta. Det är ett mycket kortsiktig men ack så utbrett beteende.

Utterberg Modén säger (28 minuter) att lärare ser lärande som en process, medan elever fokuserar på yta, nuläge, resultat, och rätt svar. Detta ger i min erfarenhet upphov till typiska diskussioner med elever om betyg på diagnoser för formativ undervisning: “Kommer detta att påverka mitt betyg?” Samtidigt använder eleverna inte sina rättade diagnoser för att förbättra sina kunskaper inför det slutliga summativa och betygsgrundande provet, trots upprepade uppmaningar.

Utterberg Modén avslutar (53 minuter) med att påminna om att teknik kan användas både som stöd för elevers lärande och som stöd för lärares undervisning. Det är viktigt att inte tappa bort det senare - det är minst lika värdefullt.

I NRK:s Nyhetsmorgon den 27 februari 2024 säger Anders Mørch (2024) att svaga elever inte klarar att integrera AI-stöd i sina egna uppgifter utan att det blir för uppenbart. Samtidigt blir duktiga elever duktigare. Men blir de verkligen det? Eller är de bara bättre på att fuska (även inför sig själva)?

Jag tror på idén om sokratiskt AI-stöd: stöd för att lära, snarare än stöd för att producera resultat. Enligt Goodharts lag kommer varje mått för eller senare att bli ett självändamål och det upphör därmed att vara ett bra mått. När det gäller skolan så kan vi inte längre mäta lärande eller kunskaper utifrån produkter och resultat.

Boken AI i skolan (Nygren, 2023; kurslitteratur i Teknik-kursen) är den bästa bok om allmän pedagogik och didaktik som jag har läst. Den handlar ironiskt nog - men efterlängtat - om att hålla ungdomar borta från skärmar så mycket som möjligt. (Däremot är författaren i övrigt alltför teknik-optimistisk för min smak).

Min generation (jag är född 1969) var tvungen att läsa, söka, tänka, skriva för hand och kunde därför utnyttja Internet för att komplettera och utöka våra färdigheter när den tekniken väl dök upp (något vi knappt vågat drömma om). Nu försvagas människor, blir bortskämda och kan inte utnyttja tekniken, vare sig för att bygga upp eller för att utöka sitt eget tänkande, trots att den blir bättre och bättre. Detta är ett typiskt utslag av hedonisk anpassning.

Sellbergs föreläsning (Sellberg, u.å.) får mig att fundera: Hur ska vi utbilda nya experter? Vi kommer inte att kunna eller hinna det. Det är för svårt och det går för fort. Inte ens toppexperter hinner med. Vi behöver en folkbildningsinsats - inte om tekniken utan om dess konsekvenser - och ett demokratiskt samtal om hur vi kan samverka med experterna för att om möjligt kontrollera utvecklingen. På längre sikt handlar det om hur (om) vi ska (kunna) samleva (överleva) med den.

När jag ser de anvisade klippen om ett arbetsliv i förändring (The Wall Street Journal, 2018; 2023; Autor, 2017) påminns jag om boken “The Age of Em” (Hanson, 2018). Utvecklingen kan svårligen stoppas. Inte nog med att konkurrensen mellan människor hårdnar: De flesta (alla?) människor kommer troligen snart att utkonkurreras av maskiner och i bästa fall leva liv på marginalen. Detta är en närmast ofrånkomlig evolutionär (ekonomisk) process, och den ligger också djupt nedlagd i våra egna psyken och samhällen. Vi avskaffar oss själva - och vi kan inte låta bli att göra det!

Angående risker för bias och diskriminering: Formella (tekniska) ramverk har potentialen att vara mer transparenta, förståeliga, konsekventa och rättvisa än mänsklig intuition. Att tro att människor har en fördel gentemot teknik är naivt och konservativt. (Det betyder inte att vi inte måste vara noggranna med implementationen - tvärtom!)

När det gäller övervakning: Västvärldens ekonomiska frihet leder till samma konsekvenser som auktoritära staters önskan om kontroll. Vi övervakar oss själva och varandra - och vi kan och vill inte låta bli att göra det!

Autor (2017) levererar ett tidstypiskt och positivt budskap: Arbetsmarknaden krymper inte - den förändras och förfinas - och alla tjänar på det. Tillåt mig tvivla.

Vi kommer att utbyta tjänster med varandra så länge våra fysiska behov tillfredsställs av och med teknik - och så länge vi inte föredrar att underhållas av teknik snarare än andra människor. (Man kan bli nostalgisk när man emotser en framtid där vi frivilligt lämnar vår ”verklighet” för att koppla in oss i upplevelsemaskiner à la Nozick, men det kommer troligen att ske frivilligt, trots alla fina ord om ”genuint” meningsfulla och sociala liv.)

Det är inte arbetsmarknaden som är problemet. Det är skapandet och fördelningen av resurser för vår överlevnad. Det är länge sedan vi passerade den gräns där vi måste arbeta för vårt uppehälle. Men vi har skapat och tillåtit ekonomiska system som trots detta tvingar oss att arbeta och konkurrera med varandra. Marx förhoppning om fiske på förmiddagen och litteraturkritik på eftermiddagen är inte något neoklassiska ekonomer som Autor kan föreställa sig.

Frågan framöver är om AI (och det fåtal människor som eventuellt fortfarande har en viss kontroll över den) kommer att tillåta oss att tillfredsställa våra grundläggande behov.

Skolan är en arbetsmarknadsåtgärd. Dess verkningsgrad är mycket låg, i motsats till vad Autor insinuerar. Dess största nytta ligger i att den aktiverar (och indoktrinerar) människor och håller dem borta från mer destruktiva sysselsättningar. Detta är något vi gärna betalar dyrt för, men våra motiv för investeringen är missriktade.

De flesta 1800-talsmänniskor hade mycket väl funnit sig tillrätta på dagens arbetsmarknad efter en relativt blygsam (personlig) fortbildningsinsats, på samma sätt som en modern människa med motivation relativt snabbt kan skaffa sig nödvändiga kunskaper motsvarande många (extra) år i skola (jfr. Caplan, 2018).

Inslagen i Washington Street Journal (2018; 2023) är nästan rörande i sin iver att visa den politiska möjligheten att rädda ”medelklassens” jobb nu när även (måttligt) intellektuella arbeten automatiseras. Under flera årtionden har denna möjlighet förnekats och förträngts med hänvisning till den magiska och oefterhärmliga mänskliga intelligensen. När denna illusion nu blir alltmer desperat och långsökt transformeras det politiska projektet till att in i det sista försäkra (vissa) människor om att de kommer att behövas, och att de kommer att kunna behålla kontroll och värdighet.

I rapporten från Myndigheten för arbetsmiljökunskap (2022) läser jag att det är en persons upplevelse av den totala situationen som utgör arbetsmiljön. Det är en radikal skrivning.

Angående myndighetens diskussion om diskriminering, hänvisar jag till mina tidigare redovisade tankar om att detta är ett av få områden där vi bör vara optimistiska, snarare än pessimistiska. (En av flera anledningar till att just diskriminering får orimligt stor vikt vid diskussioner om AI är nog att det är relativt konkret och vardagligt.)

Myndighetens skrivningar om förebyggande arbete är skrattretande. Samhället och inte minst skolan har suttit i baksätet när det gäller datorer, programmering, internet, mobiltelefoner, sociala medier, barns, ungdomars och vuxnas (miss)bruk av digitala medier hemma, på fritiden och i klassrummet etc. Arbetsmiljöarbete verkar alltid ha suttit i baksätet, även långt före införandet av digital teknik.

Vi har skapat intellektuell förkrympning mot bättre vetande och låtit bekvämlighet, opportunism och ekonomiska intressen förneka detta genom att hävda att ”vetenskaplig grund saknas” för att hävda det uppenbara och idka ett modicum av försiktighet.

Detta påminner en hel del om den förnekelseindustri som skapats av bland andra tobaks- och oljebolag. I Sverige just nu arbetar Wallenbergstiftelsen, RISE, SKL, WASP och till och med KVA för att vitmåla AI-utvecklingen (de senare med sin aktuella och Orwellska skrift till medborgare och gymnasieungdomar: ”Vetenskapen säger – om AI”. Den populära onlinekursen Elements of AI från Helsingborgs universitet är även den en del av en mer eller mindre organiserad skönmålning, vilken försvårar (medvetet) det demokratiska samtalet om hur AI ska hanteras. 

Svenska och internationella standarder och överenskommelser präglas av undergivenhet mot ekonomiska intressen och av en kapplöpningsmekanism (Allmänningens dilemma). Nu i dagarna lade Kaliforniens guvernör in sitt veto mot en viss (otillräcklig) begränsning av Silicon Valley-jättarnas frihet att riskera mänsklighetens framtid (se exempelvis Häggström, 2024a-c). Då spelar det ingen roll vad Sverige eller EU gör eller inte gör. Samtidigt får Geoffrey Hinton Nobelpriset i fysik i vad som närmast liknar en kupp av (delar av) en expertis som är uppenbart livrädda för att mänsklighetens existens är akut hotad.

Definitionen av digital kompetens innefattar en klar uppfattning av riskerna samt motivation och möjlighet att agera utifrån denna. Men detta är något som samhället inte kan eller vill stödja.

Cajanders föreläsning (Cajander, 2023) är en uppvisning i begreppsförvirring gällande (mänsklig) intelligens, AI, olika typer av AI-tekniker, regelstyrning, mönstersökning etc. Var går gränserna? Det finns troligen inga gränser. Vid ett tillfälle säger Cajander att tekniken har ”potential att sudda ut skillnaden mellan erfarna och oerfarna yrkesutövare” (26 min). Vilken eufemism! Ingen kommer att ha insikt eller kontroll. Är det verkligen att betrakta som en jämlikhetsåtgärd att vi alla (i bästa fall) snart står vid det löpande bandet?

Jag har också sett fyra klipp om AI i vården (CBS News, 2024; MedTech4Life Sweden, 2020; Science Magazine, 2023; WION, 2021). Förvisso kommer AI att förbättra diagnosticering, administration, läkemedelsutveckling, hjälpmedel, operationer och forskning m.m. - men ganska snart även de mer ”mänskliga” aspekterna av läkaryrket. Redan idag är AI på många sätt bättre än människor på att uppfatta känslolägen och att agera effektivt på dem. Och redan idag föredrar många människor sällskap av datorer, medier och AI snarare än andra människor. Japansk (och kinesisk) kultur har länge välkomnat teknik även inom psykosociala områden och många barn och äldre omhändertas och vårdas i stor utsträckning av ”robotar”.

Det är ironiskt att det länge talats om att AI ska lösa klimatproblemen åt oss. Det är en barnslig form av förträngning. Det är ju vi och vår ovilja att förändra oss som är problemet. Det enda sättet AI kan avhjälpa det är att ta över kontrollen. Så länge det inte har hänt kan vi fortsätta att intala oss att lösningarna ligger i framtiden - trots att vi förvärrar problemen varje dag och gör lösningarna allt mer avlägsna och samtidigt allt mer radikala, vilket i sin tur gör vår framtida ovilja att anamma dem desto större. Att AI på något sätt ska ge oss allt vi önskar utan att det kostar oss något är en modern form av mångtusenåriga sagor - men även de flesta av dessa sagor slutar med att den som önskar sig en lätt lösning snart blir rejält besviken.

De lösningar som skissas i föredraget med Rolnick (2022) är av optimeringskaraktär. De kommer på sin höjd att att hjälpa på marginalen men kommer samtidigt att ge upphov till s.k. rekyleffekter, på samma sätt som katalysatorer, effektivare förbränningsmotorer, lågenergilampor m.m. Några lösningar handlar om att hjälpa oss hantera klimatförändringar något bättre, vilket är en klen tröst då förändringarna och dess konsekvenser hela tiden ökar och accelererar.

Ironin ökar då AI-lösningar i sig själva utgör ett stort miljöproblem (se ex. Henderson, 2022), och detta kommer att fortsätta att öka. Så länge vi inte hittar en ny, ren och tillräckligt kraftfull och flexibel energikälla och distribution så kommer vår ”drömtid” sedan den industriella revolutionen att karaktäriseras av ”en svag doft av petroleum” (sentens med oklart ursprung) och troligen snart vara till ända.

Slutligen har jag sett tre korta inslag om självkörande fordon (ATEA Sverige AB, 2019; Dassault Systèmes, 2021; Pernestål Brendén, 2017). De illustrerar för mig vår tvehågsna inställning till AI och mänsklig intelligens och omdöme. För mig är det uppenbart att automatiserad transport kan bli betydligt säkrare än mänskligt framförda fordon. Vi har också möjlighet att ta fram tydligare juridiska ramverk för olika typer av olyckshändelser m.m. Likväl är motståndet och misstänksamheten utbredd. Det rimmar illa med exempelvis förhoppningarna om att AI ska lösa klimatproblemen, vilka jag har diskuterat ovan.

Det största problemet med automatiserad kollektivtrafik är att den är just kollektiv. I vårt samhälle värderar vi frihet så högt - och vi tillåter oss själva att göra detta. Det innebär att kollektiva lösningar inte utnyttjas maximalt. Detta är ett psykologiskt, sociologiskt och politiskt faktum som tekniska lösningar och AI inte i sig själv förändrar.

Referenser

ATEA Sverige AB (2019 14 januari). Självkörande bil kör väsentligt säkrare än en människa [Video]. Youtube. https://youtu.be/ADx1VwmzfIE?feature=shared


Autor, D. H. (2017, 6 februari). Will automation take away all our jobs? [Video]. Youtube. https://youtu.be/th3nnEpITz0?feature=shared


Cajander, Å. (2023, 6 november). Artificiell intelligens, automatisering och arbetsmiljö [Video]. Youtube. https://youtu.be/VxYDjDHG4ms?feature=shared


CBS News (2024, 17 augusti). How AI might change medical care [Video]. Youtube. https://youtu.be/xzY8hNw7JmE?feature=shared


Caplan, B. (2018). The Case Against Education: Why the Education System Is a Waste of Time and Money. Princeton University Press.


Dassault Systèmes (2021, 16 juni). Självkörande bussar i Göteborg [Video]. Youtube. https://youtu.be/-QbZzo0ml4Q?feature=shared


Hanson, R. (2016). The Age of Em: Work, Love, and Life when Robots Rule the Earth. Oxford University Press.


Henderson, P. (2022, 19 september). Environmental Impact of AI (and What Developers Can Do) [Video]. Youtube. https://youtu.be/q78KYBps-zY?feature=shared


Holmes, W., & Toumi, I. (2022). State of the art and practice in AI in education. European Journal of Education, 57, 542-570. DOI: 10.1111/ejed.12533


Häggström, O (2024a,). Två debattartiklar om AI-risk idag [blogg]. Hämtad 2024-10-13 från: https://haggstrom.blogspot.com/2024/10/tva-debattartiklar-om-ai-risk-idag.html


Häggström, O (2024b). Open AI visar sitt rätta ansikte. Kvartal 10 oktober 2024. Hämtad 2024-10-13 från: https://kvartal.se/artiklar/open-ai-visar-sitt-ratta-ansikte/


Häggström, O (2024c). Nobelpristagaren vet att det han skapat är farligt. Expressen 10 oktober 2024. Hämtad 2024-10-13 från: https://www.expressen.se/debatt/nobelpristagaren-vet-att--det-han-skapat-ar-farligt/


Lundin, J. (2021, 15 januari). AI och skolan [Video]. Youtube. https://youtu.be/LXSU8LtGE4A?si=FYCfzGQjHOkTR5Hd


MedTech4Life Sweden (2020, 14 december). Praktisk användning av AI i vården – Var kan AI göra mest nytta? [Video]. Youtube. https://youtu.be/n3Sh68lKhgo?feature=shared


Myndigheten för arbetsmiljökunskap (2022). Artificiell intelligens, robotisering och arbetsmiljön. https://mynak.se/wp-content/uploads/2022/01/Artificiell-intelligens-robotisering-och-arbetsmiljon.pdf


Mørch, A. (2024, 27 februari). KI skaper skoleforskjeller [TV-program]. Nyhetsmorgen, NRK. https://tv.nrk.no/serie/nyhetsmorgen-tv/sesong/202402/episode/NNFA05022724#:~:text=GJEST%20KI%20skaper-,skoleforskjeller,-23.%20DKNO


Ng, D. T. K., Leung, J. K. L., Chu, S. K. W., & Qiao, M. S. (2021). Conceptualizing AI literacy: An exploratory review. Computers and Education: Artificial Intelligence, 2. https://doi.org/10.1016/j.caeai.2021.100041


Nygren, T. (2023). AI i skolan: Möjligheter och utmaningar i undervisningen. Natur & Kultur.


Pernestål Brendén, A. (2017, 18 augusti). AI – Självkörande bilar 2030 [Video]. Youtube. https://youtu.be/d2SHTOCKt9Q?feature=shared


Rolnick, D. (2022, 10 november). AI and Climate Change [Video]. Youtube. https://youtu.be/U4vfqsxo9tU?feature=shared


Science Magazine (2023, 26 juli). How AI is pushing medical robotics toward autonomy [Video]. Youtube. https://youtu.be/KY8-WjpvRdk?feature=shared


Sellberg, C. (u.å.). AI och det digitaliserade arbetslivet [Video]. Göteborgs universitet.


Selwyn, N. (2022). The future of AI and education: Some cautionary notes. European Journal of Education, 57, 620-631. DOI: 10.1111/ejed.12532


The Wall Street Journal. (2018, 20 september). Artificial Intelligence: The Robots Are Now Hiring | Moving Upstream [Video]. Youtube. https://youtu.be/8QEK7B9GUhM?feature=shared


The Wall Street Journal. (2023, 3 juli). How AI Is Already Reshaping White-Collar Work [Video]. Youtube. https://youtu.be/DVpTpx9Avf0?feature=shared


Utterberg Modén, M. (2022, 4 oktober). Marie Utterberg Modén - Digitala matematikläromedel och datadriven undervisning [Video]. Youtube. https://youtu.be/nFzH-vcrT-E?feature=shared


Winerö, E. (2023, 1 december). Cheating or Learning? Walking the AI tightrope in education | Erik Winerö | TEDxGöteborg [Video]. Youtube. https://youtu.be/mEtAfbFr6RE?feature=shared


WION (2021, 9 juni). Meet Grace, the healthcare robot COVID-19 created | Celebrity Humanoid Robot Sophia | Robot Nurse [Video]. Youtube. https://youtu.be/6lcyBTis17g?feature=shared


Inga kommentarer:

Skicka en kommentar