Må Gud förlåta min hybris, men vissa saker i den här texten uppfattar jag faktiskt som uppenbara. (Se den ironiska uppmaningen i slutet av texten.)
Samtidigt passar jag mig för att titta för noga på detaljerna. Då skulle jag snart bli förvirrad. Och kanske ljuger jag för mig själv, men nog finns det en trade-off mellan (förmågan till) översikt och noggrannhet?
En sak jag retar mig på är utgångspunkten ”en neuron per begrepp”. Det kan väl aldrig ha varit en gångbar hypotes, vare sig inom neuropsykologi eller maskinlärande? Tre neuroner kan ju anta minst 2^3 olika konfigurationer.
Att utöka resonemanget till antalet olika aktivationstillstånd per neuron kan väl inte heller vara särskilt revolutionerande? Även det borde väl rimligen vara standard sedan länge, i studiet av både biologiska och teknologiska neuronnät. (Ofta hör man ju att mänsklig intelligens inte kan förklaras utan att dessutom tillgripa kvantfluktuationer m.m. inom och mellan neuroner.)
Så, det där med ”virtuella” topografier är väl så gott som självklart.
Men, om man nu låter en större AI katalogisera en mindre AI:s virtuella topografi - varför förvänta sig att *denna* skulle följa regeln ”en virtuell neuron per begrepp”?
För att förstå ett system krävs ett mycket större system som kan observera det första utifrån (alternativt innefatta det.) Det är ett problem som leder till en oändlig regress. Varför låter det i texten som om detta *inte* är ett oöverstigligt problem med ansatsen?
Och slutligen, vilken blir nyttan med ”monosemanticitet”? Skulle det få en (avgörande) betydelse för förmågan att förutsäga, bedöma och kontrollera en modell? Som jag förstår det så kan det leda till mycket större förståelse men samtidigt skjuts de ursprungliga problemen bara ett steg längre bort.
Inga kommentarer:
Skicka en kommentar