Dagens ord


Ansvar väger tyngre än frihet - Responsibility trumps liberty

22 apr. 2010

Turingmaskiner och neuronnät

Anhängare av stark AI, såväl som många skeptiker, vill undvika transcendenta förklaringar av intelligens, och – om möjligt – överbrygga ”kvalitativa språng”. *

Den springande punkten är möjligheten att specificera mänsklig intelligens (a) i princip) och (b) i praktiken.

Och även här är man ofta delvis överens: Ja, i princip går det (a). Detta ställningstagande är en konsekvens av en gemensam utgångspunkt: evolutionär, materialistisk och icke-transcendent.

Vad som ofta skiljer olika debattörer åt är graden av tilltro till möjligheten att i praktiken analysera och återskapa mänsklig intelligens (b).

En del verkar resonera att av (a) följer också (b).

Jag menar att (b) inte följer av (a), men jag vill ändå tro också på (b).

Vissa verkar mena att (b) är en så komplex uppgift att det inte är realistiskt att tro att vi skulle kunna lösa den.

Turingmaskinen är definitivt ingen lyckad modell för evolutionärt utvecklade kognitiva processer. Den är, däremot, en demonstration av att en s.k. von Neumann-arkitektur i princip är förmögen att lösa en ofantligt stor – men begränsad – mängd problem (utifrån en mycket begränsad repertoar av grundläggande operationer).

Huruvida denna mängd problem är stor nog att i princip rymma mänsklig intelligens är en öppen fråga.

Att likställa en dator med en Turing-maskin är missvisande, av två skäl. För det första (i) utvecklas datorer som inte bygger på von Neumann-arkitekturen. För det andra (ii) används datorer (av von Neumann-typ) för att simulera andra ”maskiner”, vilka i sin tur används för att ”simulera” intelligent beteende.

Huruvida (ii) innebär att de med Turingmaskiner implementerade ”maskinerna” med nödvändighet är begränsade till samma mängd problem som en Turing-maskin är en öppen fråga. (En maskin implementerad på en Turingmaskin är med nödvändighet logiskt reducerbar till en Turingmaskin, men beskrivningen av den maskin som implementeras kan eventuellt möjliggöra kraftfullare beskrivningar av de uppgifter som den sätts att lösa.)

En mer realistisk modell av den arkitektur som (troligen) ligger till grund för mänsklig intelligens är (artificiella) neuronnät, ANN. Påstående (a) ovan inrymmer delvis tron att sådana modeller kan utvecklas så att de fångar allt som är relevant för beskrivningen av den maskin som möjliggör mänsklig intelligens. (Men det kan förstås vara så att någon ”detalj” undgår upptäckt, som en konsekvens av observationens teoriberoende, eller av begränsningar i de instrument och sinnen som används för inspektionen av den mänskliga förlagan.)

Huruvida ANN i princip är förmögna att lösa en större mängd problem än en Turingmaskin är en öppen fråga. Jag är övertygad om att så är fallet.

Huruvida ANN som implementeras med hjälp av många sammankopplade von Neumann-datorer kan reduceras till en Turingmaskin är en öppen fråga (tror jag).

Som vanligt finns djävulen i detaljerna. De svårfångade fenomen i mänsklig kognition (för att inte tala om andra mentala processer) som vi finner så svåra att definiera kan mycket väl vara utslag av kvantitativa skillnader mellan de ANN som hittills skapats och den mänskliga hjärnan (antalet noder och kopplingar, t.ex.). Det kan också tänkas uppkomma som ett resultat av kvalitativa skillnader (avsaknad av någon, förbisedd, komponent).

Men mest troligt är att skillnaderna inte ligger i arkitektureras kapacitet, utan i hur de är ”inställda”. Även om ANN kan tävla med den mänskliga hjärnan med avseende på antalet noder, antalet kopplingar, signalhastighet o.s.v.; och även om ANN är en i allt väsentligt fullständig beskrivning av hjärnans arkitektur; återstår frågan om vilka kopplingar som görs; vilka signaler som skickas, och när. En icke obetydlig komplikation är att ett (mänskligt) neuronnät är extremt dynamiskt och självjusterande – både på kort sikt (inlärning m.m.) och lång (evolution). Att modellera detta (på ett adekvat sätt) är en central del av forskningen inom AI.

Det är alltså här problemen ligger: i ”monteringen” och i ”handhavandet”.

Den första förbränningsmotorn krävde säkerligen en hel del justeringar innan den äntligen fungerade. Innan en mängd inställningar hade gjorts fungerade den troligen inte alls, trots att konstruktionen i princip var ”korrekt”. Och även efter det att motorn för första gången faktiskt hade hostat igång, krävdes ett grannlaga arbete för att finna de optimala inställningarna. Kanske har våra artificiella intelligenser redan hostat?

För att motorn ska åstadkomma något som en utomstående betraktare skulle uppfatta som meningsfullt krävs också att den integreras i ett större system – ett fordon – och att detta system i sin tur integreras i ett ännu större system – framförandet av fordonet i från punkt A till punkt B i trafik. Kanske står vi framför en bil, men vet ännu inte hur man kör den?

---

* "Kvalitativa språng" är besläktade med emergenta beteenden och icke-reducerbara egenskaper (paradexemplen är myrsamhällen och vatten). De kräver inte med nödvändighet transcendenta förklaringsmodeller, men de kan defintivt försvåra (och eventuellt omöjliggöra) den "reverse engineering" av mänsklig intelligens som forskning inom AI utgör.

2 kommentarer:

  1. Hallå,
    Jag postade denna kommentar på Thomas blog, men den passar bättre här:

    Allt som implementeras på en von neumanndator kan reduceras till en Turingmaskin vad gäller ren funktionalitet. Det är samma sak med distribuerade artificiella neuronnät, de kan rent funktionellt reduceras till en enda sträng av ettor och nollor. Detta måste du förstås kolla upp, lita inte på mig tack.

    Så om det är så att vi kan reducera ANN till en Turingmaskin så kan alltså inte ANN lösa en större mängd problem än en Turingmaskin. De är rent funktionellt samma sak.

    Jag tror du är något på spåren när du talar om hur viktigt det är *när* en signal skickas. För det är väl ganska intuitivt, att allt är en del av en helhetsprocess, en signal står i relation till andra delar av processen och sådan information försvinner om man reducerar.

    För många av oss är det alltså intuitivt att det kan finnas en helhet som är större än delarna. Det är den helhetsprocessen jag tror på, men personligen tror jag lösningen finns i kvantfysiken. I kvantfysiken har vi superpositionen som är en underbart vacker *helhet*, som jag tolkar det.

    SvaraRadera
  2. Tjena Björn,

    Är lite nyfiken på vad du lägger in i begreppet ANN. Skall det bli ens lite intressant så bör det nog vara ett recurent-nätverk (RNN), dvs ett nätverk med återkopplingar och inte ett strikt feed-forward nätverk (FF-ANN). Ett RNN kan tillexempel fånga betydelsen av en sekvens av tillståndsärndringar på ett sätt som inte är möjligt med ett FF-ANN, där samma input alltid ger samma output. Problemet med ett RNN är att träning blir betydligt mer komplex än FF-ANN. Osäker på om den kan hanteras i det generella fallet.

    Exekveringen av ett RNN kan fortfarande realiseras med en Turing-maskin, alltså tillför det inget beräkningsmässigt.

    Som jag ser det är de stora problemen med Turingmaskiner och andra beräkningsmekanismer (typ RNN, FF-ANN) kontra "intelligenta biologiska system" att de är diskreta till sin natur, både vad gäller tillstånd och tid.

    SvaraRadera