Dagens ord


Ansvar väger tyngre än frihet - Responsibility trumps liberty

2 juni 2020

GPT-3: Filtrering eller resonemang?





Kilchers beskrivning känns uppenbart riktig, snudd på trivial. Att artikelförfattarna överdriver hur mycket, och vilken typ av ’resonerande’ som försiggår är förvånande och närmast pinsamt.

Visst finns det mycket som är imponerande, eller åtminstone anmärkningsvärt kraftfullt. (Wow-faktorn minskar ju i proportion till hur mycket tid och plats modellen och träningen har fått.)

Och visst kan det få stora, och eventuellt negativa konsekvenser om det blir riktigt lätt att generera hyfsat kontextkänsliga och åtminstone hyfsat ’unika’ texter vars artificiella upphov inte alltid lätt går att upptäcka.

Och visst kan man tänka sig att detta blir särskilt pikant om och när det kombineras med mer avancerat resonerande.

Men att påstå att den här mekanismen utför något mer än just det Kilcher säger - det verkar bara dumt.

Sen kan man ju alltid fråga sig var gränsen går mellan plagiat och ’försteåelse’, ’kunskap’, ’kompetens’... Om en elev/student får i uppgift att, säg, skriva en resonerande uppsats och lämnar in en kopia av en befintlig text, så är det ett uppenbart plagiat och inget bevis på egen förståelse. Om eleven läser och klipper och klistrar från flera olika texter på ämnet så är risken fortfarande stor att inlämningen flaggas i Urkund.

Men, bortsett från det verkligt originella, är det inte detta alla gör - och uppmanas att göra! - både för att lära sig och för att uppvisa bevis på att lärande har skett? Åtminstone om vi låter mängden lästa och ’plagierade’ texter och textsnuttar växa tillräckligt mycket. Och hur många uppsatser, skrivna ’med egna ord’, ärligt uppsåt och vad vi skulle erkänna som genuin förståelse, kunskap och kompetens, skulle godkännas om vi uppgraderade Urkund till GPT3? (Beroende på hur vi ställer in och tolkar granularitet och känslighet.)

Detta gäller förstås - hittills - bara i specifika typer av uppgifter, som egentligen inte kräver mer flexibilitet än vad GPT3 uppvisar. Men de är ju faktiskt väldigt vanliga i verkligheten. (Om än inte tillräckliga.)

Det mest intressanta var väl det om ’explicability’. Det verkar ju faktiskt vara ganska straightforward i just denna typ av fall. Och det går säkert att generalisera. Men troligen kommer förklaringarna att kännas mer otillfredsställande, ju svårare uppgiften hade varit för en människa att, i princip, utföra. Förklaringen finns där, men (den oreducerbara) komplexiteten och/eller den upplevda irrelevansen (i förhållande till mänskliga kognitiva begränsningar eller tankekulturer) kommer troligtvis att motverka den nytta som man hoppas få.

Inga kommentarer:

Skicka en kommentar