Skip to content

Robotar, AI och tre fiktiva lagar som format en förordning

Med en AI-förordning redo att slutpaketeras och lanseras i en värld som endast är i startgroparna att låta sig revolutioneras av icke-biologisk tankeförmåga är det vattentätt att påstå att fascinationen för teknikens möjligheter är på topp. Vi har nått ett stadie där de sakliga diskussionerna som förs om AI:s samhällsomvälvande förmåga nyligen hörde hemma i spekulativ science fiction. Kanske är den mest intressanta litterära jämförelsen med vår verklighet i vilken mån författaren Isaac Asimovs tre kortfattade lagar för robotik står sig nu i väntans tider inför den slutgiltiga och betydligt mer omfattande förordningen?

Att dåtidens visioner i många aspekter har kommit ikapp dagens verklighet kan konstateras genom att skumma igenom de ofta återkommande referensverken inom science fiction och andra systemkritiska och politiskt kommenterande litteratur från framförallt det förra århundradet.

När teknisk utveckling kommenteras ur ett kritiskt perspektiv vet vi att George Orwells 1984 kommer att nämnas inom kort i egenskap av måttstock för ett övervakningssamhälle och Kafkas Processen belysas som varning för konsekvenserna av att individer görs maktlösa inom strukturer som styrs av okända krafter. I tider där vi går mot att förlita oss mer och mer på algoritmgenererade utfästelser om individers framtida beteenden ligger även Philip K. Dicks futuristiska kriminalare The Minority Report – där invånare blir dömda för brott de antas kommer att begå i framtiden – nära till hands. Och beundrare av humoristisk undergångssatir kan heller inte ha undgått hur det titulära e-uppslagsverket Liftarens guide till galaxen förutsåg hur människan kommer göras beroende av information och nya sanningar i bärbart format inom räckvidden av en googlings avstånd.

Gemensamt för dessa verk är att de haft en tydlig koppling till sin tids politiska strömningar och teknologiska innovationer. Inom science fiction-genrens ramar var det naturligt att författarna lekte med tanken på hur en tillspetsad version av samtiden skulle kunna te sig i ett potentiellt framtidsscenario. Det omfattande propagandamaskineriet och åsiktsregistreringen som förekom under Nazityskland och Stalins Sovjet kunde naturligt utvecklas till det fulländade övervakningssamhälle som Orwell målade upp. På samma sätt kunde 50-talets fascination för påverkan av människans undermedvetna genom beteendepsykologi, både för underrättelsemässiga och rent kommersiella intressen, ha legat till grund för The Minority Reports teman om undermineringen av individens fria vilja

Med anledning av den oprövade terräng som AI-förordningen är på väg att utforska är det särskilt intressant att titta närmare på om något liknande regelverk har utformats inom fiktionen. Då en sammanfattning av ämnet kan kokas ner till beskrivningen ”regelverk för säker AI” bör den lägst hängande frukten vara att bottna i sci-fi-legendaren Isaac Asimovs normer för människovänliga robotar som återkommer i ett antal av hans romaner. Dessa lyder:

  1. En robot får inte skada en människa eller, genom att inte agera, tillåta att en människa kommer till skada.
  2. En robot måste lyda order från människor, förutom om dessa order står i konflikt med första lagen.
  3. En robot måste skydda sin egen existens så länge det inte strider mot första eller andra lagen.

Den första uppenbara reflektionen är regelverkets korthuggenhet – kan något så avancerat som intelligenta maskiner regleras på ett säkert sätt genom tre meningar som målar upp väldigt breda ramar? Funderar vi några ögonblick till inser vi även att reglerna inte är utformade för att träffa utvecklarna eller leverantörerna bakom maskinerna utan är formulerade som instruktioner direkt gentemot robotarna. I berättelserna handlar det alltså om hårdkodade principer som är oskiljbara aspekter från robotarnas existensberättigande. De ska överhuvudtaget inte vara kapabla att bryta mot anvisningarna, och skulle det av någon oförutsedd anledning ändå ske kommer de i ren existentiell kris att självutplånas.


Inflytande bortom populärkulturen

Det finns så klart många skäl att det är problematiskt att jämföra de tre robotlagarna med AI-förordningen, där den mest uppenbara är att Asimovs regelverk har tagits fram inom ramen för ren fiktion i syfte att måla upp ett framtidsscenario som passade hans förkärlek för robotar, kriminalberättelser och filosofiska frågeställningar. Men faktum är att lagarna har fått en betydelse långt utöver pappret de trycktes på. Ända sedan lagarna myntades har de påverkat kulturella, vetenskapliga och politiska diskussioner och fått status som grundstenarna för etisk och moralisk kompass inom utveckling av robotik och AI. Detta till stor del tack vare dess människocentrerade fokus och breda ramverk som varken behöver en ingenjör eller jurist för att greppa.

Just enkelheten i regelverket skulle annars kunnat legat det till last, då knappheten och det nästan barnsligt självklara tilltalet skulle kunna uppfattas som på gränsen till banalt. Men sett till en historisk kontext är det tydligt att det behövdes sättas ord på denna säkerhetsaspekt inom ett fält som utvecklades med stormsteg. Asimov myntade lagarna under pågående världskrig och som alltid under krig och kris drevs nya tekniska framsteg fram i snabbare fart än någon hann formulera policyer för dess användningsområden. Utvecklingen av datorer och programmeringsmetoder för dessa fick kraftfull finansiering till stor del för att skapa metoder att knäcka fiendernas krypterade meddelanden. Då som nu handlade utvecklingen alltså om förmågan att inhämta och tolka data.

Kodknäckandets moderna gudfader Alan Turing var i högsta grad medveten om potentialen av AI och formulerade det så kallade Turingtestet. Testet visade på en målbild för när AI kan anses uppnått mänsklig nivå av intelligens och var i korthet ett blindtest där en domare ska interagera skriftligt med både en människa och en maskin. Om domaren inte kan avgöra vem av motparterna som är levande och vem som är artificiell har maskinen enligt Turing uppnått ett mätbart värde som motsvarar mänsklig intelligens. Även om vi idag kan ifrågasätta den till synes snäva definitionen av ”mänsklig intelligens” inom testets ramar kan det kännas lika kittlande som skrämmande att denna standardmåttstock för bedömning av AI borde kunna anses som uppnått vid dagens tidpunkt.

Som nämnts var fiktionen inte sen på att plocka upp de oroliga stämningar som hela världsordningen gav upphov till, och robotar som till sin intelligens matchade eller vida översteg mänskliga nivåer var mer eller mindre stapelvara inom populärkulturen. Om man har i beaktande att en stor del av befolkningen under den här tiden hade levt i skiftet då häst och vagn ersattes av motordrivna fordon kan man enklare förstå ängsligheten av att plötsligt befinna sig i en värld där vetenskapen lyckades klyva atomen och i samma sekund utrota hela städer, avsluta ett världskrig samt hänga upp domedagsgalgen över nästkommande generationer av mänskligheten. För Asimov var motivationen till att utforma säkerhetsprinciperna lika okonstlade som de slutgiltiga formuleringarna blev - han ansåg helt enkelt att samma förväntningar vi har på våra medmänniskor bör gälla även för smarta maskiner. De slutgiltiga formuleringarna var därför i grunden uppförandekoder för människor som därmed blev applicerbara på de människoliknande robotarna som regelbundet förekom i hans berättelser.



Beröringspunkter mellan Asimov och AI-förordningen

Vi har i tidigare blogginlägg gått igenom den övergripande strukturen av AI-förordningen och ska därför inte ta upp dyrbart bloggutrymme med onödiga upprepningar. Men en extremt kortfattad sammanfattning är att den utgår från en riskbaserad systematik där vissa användningsområden för AI förbjuds helt och hållet medan områden som anses föra med sig hög men acceptabel risk är godkända under förutsättning att de efterlever de omfattande kraven som regelverket förordnar. AI-system som klassificeras som låg risk kommer undan genom att följa mindre krävande åtgärder.

Asimov och EU:s samlade lagstiftare är utan tvekan totalt överens om en grundläggande aspekt gällande reglering av tänkande maskiner, nämligen det tydliga fokuset på teknikens relation till människan. Robotar och AI ska bidra med positiv inverkan på mänskligheten och inte ha en egen agenda eller handlingsutrymme. Utöver den kärnprincipen kan vi även läsa in många aspekter från förordningen inom de breda ramarna som sätts av Asimov. EU:s riskbaserade approach går att läsas in genom den underförstådda omständigheten att en robot som inte programmeras med lagarnas ordalydelse som absolut moralkompass kvalificeras som motsvarigheten till oacceptabel risk och är förbjudna att existera. Vi kan därmed hävda att robotikens första lag som säger att robotar genom aktivt handlande eller genom att undvika att handla inte får skada människor även omfattas av förordningen.

Nästa lag är formulerad för att säkerställa en hierarki mellan människa och maskin, då den föreskriver att robotar måste lyda människor med undantag för när detta skulle innebära att människor kommer till skada. Här kan vi konstatera att det finns en uttrycklig bestämmelse i förordningen som säger att AI-system med hög risk måste innefatta effektiv mänsklig översyn med syftet att undvika eller minimera risker för individer. Att systemet inte får lyda order som innebär att andra individer kommer till skada kan vi utgå ifrån att det gäller, då ett system med sådana egenskaper skulle falla inom den förbjudna kategorin gällande AI med oacceptabla risker. Med andra ord kan vi bocka av att även den andra av Asimovs principer har sin motsvarighet i förordningen.

Den sista lagen tar sikte på att robotar ska ha en självbevarelsedrift och skydda sin egen existens så långt det är möjligt utan att det kommer i konflikt med någon av de tidigare lagarna. Möjligtvis behöver vi här bredda tolkningen av parallellerna mellan fiktion och EU-förordning något för att hitta en synkronisering, men med viss rimlighet kan man hänföra den sista lagen till vår moderna uppfattning om IT-säkerhet och kravet på systems motståndskraft. Den tredje lagens krav på robotars självbevarelsedrift skulle alltså kunna översättas till förordningsspråk som krav på robusthet och cybersäkerhet. Det specifika kravet gällande robusthet i förordningen kan innefatta systemens möjlighet att agera självbevarande gentemot de hot som identifieras och detta rimmar väl med Asimovs avslutande lag.



Är de tre lagarna relevanta idag?

Asimovs ”lagar” har som vi ser en mer allmän betydelse än ordet ”lag” i juridisk betydelse. Robotarna i hans historier ställdes inte inför rätta eller tilldelades sanktionsavgifter på ett antal procent av deras inkomst om de bröt mot lagarna. Det handlade i stället om hårdkodade instruktioner som låg så djupt i deras programmering att de var fysiskt förhindrade att bryta mot dem. Skulle de trots allt försöka att exempelvis skada en människa skulle systemet kortsluta och leda till kassering. Skillnaden i tillämpning mot hur en juridisk lag upprätthålls i praktiken är förstås milsvid.

Med rätt infallsvinkel kan en jämförelse trots detta ha en hög relevans, eller åtminstone innebära tankeväckande reflektioner. För följer vi med de tre lagarnas inneboende natur genom dess funktion i Asimovs fiktiva universum och vidare genom 1900-talets tekniska utveckling fram till idag kan vi se en röd tråd av etiska hänsynstaganden som kanske inte hade framträtt utan författarens förutseende tankegångar. Som sagt formulerades hans tankar på 1940-talet, långt innan någon människa hade kännedom om koncept som Big Data, internet och automatiserad beteendeanalys på mikronivå. Det var därför rimligt att tänka att i den mån man föreställde sig robotar så handlade säkerhetsprotokollet om att hårdkoda in pacifistiska budskap i hårdvaran istället för att ställa krav på datakvalitet, riskhanteringssystem och teknisk dokumentation gentemot utvecklarna.

Vad vi verkligen kan ta lärdom av är inte reglerna i sig, som trots sitt moralfilosofiska patos i grunden fyllde funktionen att skapa förutsättningar till framtidsdeckare. Själva poängen för Asimov att skapa reglerna var ju till stor del att hitta sätt hur robotar trots sin grundprogrammering kunde kringgå reglerna och agera skadligt. Det intressanta är därför vilka sätt som Asimov såg att tekniken kunde bryta sig ut från mänskligt definierade regler och undersöka på vilket sätt de farorna speglar vår verklighet, särskilt i ljuset av AI-förordningen och andra regelverk på området. Som exempel lekte författaren med många olika kryphål i sin egen konstruktion, såsom situationer när lagarna ställs mot varandra, att robotar tolkar begreppet ”skada” annorlunda än den genomsnittliga människan och att illasinnade individer medvetet ger instruktioner som roboten inte inser skapar indirekt skada för andra människor.

Vi håller tummarna att förordningens slutversion täpper till de luckor som Asimov själv identifierade med sina lagar men räknar kallt med att det finns spelare där ute som kommer lägga en ansenlig mängd tid och resurser på att hitta gapen för sina egna dunkla syften. Samtiden fortsätter med andra ord vara en science-fictionföljetång som vi alla mot- eller frivilligt får följa från första parkett. Med tanke på den träffsäkerhet som litteraturen på många sätt har förutsett och format de etiska dilemman som vi står inför idag kan vi även hoppas på att vi kan hitta vissa av svaren på framtidens utmaningar i det som finns skrivet. Oavsett utgång i dessa frågor kan vi även räkna med att nya välformulerade spaningar kommer att tas fram av våra i nutid aktiva författare, och sannolikt kommer dessa att vara mer sammanflätade med det faktiska juridiska landskapet än någonsin. Låt oss därför vara lyhörda för de frågor som kommer att fortsätta ställas inom de mest spekulativa av berättelser då historien har lärt oss att den ena dagens rena fantasier plötsligt är en gratistjänst tillgänglig för var och en endast en googling bort.