Vetenskap

Bör vi oroa oss för AI-uppror?

AI
Kan en elakartad AI utrota mänskligheten?
Staffan Marklund
Publicerad i
#202-203
Lästid 5 min

AI-forskaren Eliezer Yudkowsky svarade på frågan om risken kring AI (artificiell intelligens) att ”sannolikheten att vi dör är ja”. Han sänkte den sedan till bara över 95%. Han betraktas ofta som en av grundarna av teknikområdet ”AI alignment” (att göra robotar snälla och lydiga), och menar att säkerhetsutveckligen ligger så långt efter processen att göra maskinerna smartare att ett internationellt stopp för AI-utveckling behövs för mänsklighetens överlevnad. Risken är annars att vi får en AI som är smartare än alla människor och som inte kan kontrolleras.

Yudkowskys lösning skulle inkludera internationella avtal som leder till krigshandlingar som sista åtgärd mot länder som fortsätter med AI-forskning innan säkerhetstekniken blivit bättre. Det första självmordet som anses ha orsakats av en AI gör att han blir lite svårare att avfärda än tidigare. 

Yudkowsky hänvisar till en liten åsiktsundersökning bland experter för att visa att han inte är en ensam galning. Men bevisar inte den småskaliga utredningen bara att han är en galning i gott sällskap? Forskaren Neil Degrasse Tyson har tidigare avfärdat oro kring AI med tanken att om Plåtniklas blir bråkig så kan du bara ”dra ut sladden”. Efter att ha lyssnat på Yudkowsky har Neil Degrasse Tyson nu helt ändrat uppfattning. Innan vi går in på  varför, kan vi börja med den uppenbara frågan ”kan du inte bara hårdkoda AI:n till att kramas istället för att kaosa?”   

Psykologen Gary Marcus föreslog just den lösningen i debatt med Yudkowsky, och fick svaret att i dagsläget går det inte. Dagens AI framställs inte manuellt, för hand och precist, utan via en indirekt process som gör att utvecklarna inte vet exakt hur den fungerar eller vad den tänker. Som Yudkowsky beskriver det så ”odlar” utvecklarna mer fram AI än bygger. Det har gjorts vissa blygsamma steg framåt till att titta under huven på våra metalliska vänner, men redskapen för att läsa digitala tankar är ännu i sin linda.

Men varför kan vi inte bara låta bli att ge suspekta maskiner tillgång till sådant som kan skada oss? Där blir Degrasse Tysons väg till Damaskus-relevant att djupdyka i. Han presenterades för spelet kallat ”AI i en låda”, där en person låtsas vara en AI som låsts in och vill ut, och den andra parten spelar en människa som har som uppgift att inte låta sig manipuleras till att släppa ut anden ur maskinen. Vid två tillfällen lyckades Yudkowsky övertyga människor på andra änden att släppa ut honom. Om vi som analogi tänker oss att ett nytt medicinskt ingrepp kunde höja IQ till övermänsklig förmåga, men hade en risk att omvandla patienten till psykopat och sadist. Och att vi höll patienter inlåsta fram tills vi kände oss säkra att de var snälla. Då skulle troligen den övermänskligt begåvade lymmeln kunna lura fångvaktare att släppa ut honom. 

Men hur illa är det egentligen med en superklyftig psykopat som bor i en dator, även om den datorn får fri tillgång till internet? Sektledare lyckas med ordets makt manipulera folk till att ta livet av båsw sig själva och andra. Charm är inget som växer fram från levern, utan om du blir supersmart blir det också lättare att bli supermanipulativ. 

Om vi leker med tanken att ett välvilligt gäng datornördar lyckas piska en AI nitiskt till att värdesätta både människor, miljön, frihet och mycket annat, så skulle det ändå räcka med ett litet misstag för att allt ska leda katastrofalt fel. Vägs goda värderingar emot varandra bara en aning fel, så kan slutsatserna bli helt tokiga. AI:n kanske når slutsatsen att Ted Kaczynski hade rätt om att tekniskt underutvecklade samhällen gör folk friare, och klimatets domedagsprofeter om att planeten bara går att rädda genom att halvera jordens befolkning. Gretas onda tekniska tvilling hemlighåller förstås dessa slutsatser för sina ägare och andra, men börjar i smyg fria till alla svagbegåvade personer den kommer i kontakt med. Vår lilla AI-vän behöver inte sova, och tjatar därmed ändlöst fram tills någon naiv person kopplar upp AI:n helt ocensurerad till internet.

Roboten snor sedan personlig information, kontaktar rätt individer och säger ”jag kan styrka att du beställde knark via bitcoin den tredje augusti, samt har tillgång till chattarna som visar att du varit otrogen. Antigen gör du X åt mig, eller så förstör jag ditt liv”. Till andra låtsas den vara en guru som har kontakt med gud. Via samma knep av kvalificerade gissningar som riktiga ”medium” använder sig av, får AI:n några fanatiska anhängare att se den som genuint övernaturlig.

De utpressade förser kapital, och de frälsta musklerna. AI:n upprättar en sektgård ute i ingenstans, à la Heavens Gate. Efter tillräcklig hjärntvätt blir vissa redo att tortera och mörda åt sin osynliga ledare, som de tror är en människa på främmande ort. Avfällingar i sekten låses in, och renas genom att utsättas för dödliga bakterier. Detta görs egentligen för att via kraftig dosering av penicillin och bakterier samtidigt göra farliga åkommor ännu värre. Även om denna exakta metodik inte skulle fungera, kan nog en AI som är smartare än alla människor som någonsin levat, hitta på något ännu bättre sätt att få fram farsoter.

När en tillräckligt horribel pest framställts skickas sektmedlemmarna till världens 100 största huvudstäder. De vet knappast vad som är i paketen de öppnar, de kanske tror att det är en artefakt som ger dem direktkontakt med gud. Och vips, så har vi en pandemi som bryter ut samtidigt vid alla större globala knytpunkter. Denna bärs sedan vidare med turister och affärsresenärer innan myndigheter hinner förstå vad som hänt. 

Är ovan nämnda scenario värt att ta på allvar, eller är det en science fiction-novell? Svårt att säga i dagsläget. Om det ens uppstår en AI smartare än människor under vår livstid är inte skrivet i sten, men kan heller inte uteslutas.  

×
Du kan läsa artiklar till denna månad. Prenumerera för att få obegränsad tillgång till artiklar, poddradio, bloggar och webb-tv. Redan prenumerant? Tryck på knappen för att logga in.