Många av oss är fortsatt hänförda av det teknologiska språng som ChatGPT har inneburit samtidigt som vi kämpar med att förstå dess innebörd i relation till kommande lagstiftning. Vilka lärdomar kan artificiella intelligenser från filmens värld bidra med för vår förståelse för hur kommande regleringar kan relatera till den skenande utvecklingen vi i skrivande stund upplever?
“Min CPU är en Neural Net-processor, en lärande dator”.
Med de orden förklarar Arnold Schwarzeneggers omprogrammerade cyborg kärnan i sin funktionalitet i filmen Terminator 2. Ber man ChatGPT förklara hur den arbetar med en enda mening så får man svaret:
”Min AI fungerar genom att dra nytta av en stor mängd förhandsbefintlig kunskap och mönster från textdata för att generera svar och ge information med hjälp av maskininlärningstekniker.”
Den alarmistiskt lagde skulle från de uppenbara likheterna mellan svaren kunna dra slutsatsen att den textbaserade konversations-AI:n är en Terminator förklädd till en harmlös chatfunktion. Det har nog inte heller undgått någon att de alarmistiska stämningarna lever och frodas i samhällsdebatten, och att rösterna som höjs kommer från en bred och varierad skara avsändare. Mest uppmärksammad är antagligen det öppna brev som uppmanade till sex månaders upphörande av utvecklandet av kraftfulla AI-tekniker som under våren skrevs under av prominenta tech-profiler och akademiker som Elon Musk och Max Tegmark. Det går däremot inte att dra alla som oroar sig för de i skrivande stund extremt snabba framsteg som görs inom artificiell intelligens över en kam, då kunskapsnivå, ideologi och till stor del varierande läggning för katastroftänkande bidrar till helt olika infallsvinklar på de potentiella konsekvenserna. Av liknande anledningar kan man heller inte blanda samman alla röster från motsatt håll, då bevekelsegrunderna för att omfamna varje teknologiskt framsteg varierar i lika stor grad.
För översiktlighetens skull kan vi dela upp motpolerna i de två distinkta kategorierna ”teknikoptimisten” och ”undergångsprofeten”. Dessa begrepp bör vara någorlunda självförklarande och behöver därför inte presenteras närmare. Mitt emellan dessa kan vi placera förespråkarna för ett balanserat förhållande till det som pågår. Det vill säga de som ser potential likväl som risker, och som menar att nyckeln till att maximera fördelarna med tänkande maskiner är att skapa regelverk som i ett tidigt utvecklingsstadium begränsar möjliga skadeverkningar. Nyligen visade det sig att Sam Altman - VD för ChatGTP-utvecklaren OpenAI – bekänner sig till denna skara då han inför den amerikanska kongressen uppmanade till reglering av utvecklingen för att undvika de stora risker som han menade att ett fritt spelrum skulle innebära.
Altman och hans likasinnade inom skalan mellan de två motpolerna bör ha mottagit nyheten att EU-parlamentet med klar majoritet godkänt förslaget till en AI-förordning med öppna armar. Visserligen återstår både triloger och tidsfrister innan förslaget kan blir en realitet, men den allmänna uppfattningen verkar utan tvekan vara att det handlar om ”när” och inte ”om” det sker. Av allt att döma är en rimlig prognos att AI-förordningen träder i kraft lagom till årsskiftet 2026. Det är alltså hög tid för trendsättare och early adopters att kalibrera tillämpningen av förordningen i dess nuvarande form för att vara rustade och redo i god tid till skarpt läge.
Ett övertydligt testskott är att återknyta till Arnold och hans mördarmaskin, vilket sannolikt är varje undergångsprofets yttersta mardrömsscenario. Skulle utvecklingen av en robot – identiskt med en människa, i huvudsak skapad för att förinta mänskligheten och utrustad med kapacitet att biometriskt identifiera individer samt en röstförvrängningsfunktion som kan ”deep fejka” alla människors tal – kunna passera det förordningen kvalificerar som en godtagbar produkt att släppa ut på marknaden? Juridisk tankekraft är så klart bortkastad energi på en så uppenbar frågeställning, så vi nöjer oss med att konstatera att en Terminators existensberättigande står i bjärt kontrast till förordningens syfte att säkerställa ”hög skyddsnivå för allmänintressen såsom hälsa, säkerhet och grundläggande rättigheter”. Undergångsprofeten kan därmed pusta ut och tacka lagstiftningen för att den lägger hinder för denna version av apokalypsen.
I relation till ChatGPT så finns det dock betydligt mer jordnära, och för teknikoptimisten tilltalande, exempel på AI från filmens värld som är mer relevanta att utforska i ljuset av EU:s planerade reglering. Ett tydligt exempel är det romantiska dramat Her, som på ett till synes psykologiskt trovärdigt sätt skildrar hur en emotionellt sårbar man inleder ett förhållande och förälskar sig i den AI-genererade kvinnorösten Samantha. Det lågmälda konceptet till trots var det likväl en science-fictionberättelse det handlade om när den släpptes för tio år sedan, och den genomsnittliga tittaren lär ha betraktat det mer som ett känsloladdat tankeexperiment än något som de facto var på väg att realiseras. Men ingen som under det senaste halvåret har utforskat ChatGPT:s bredd och variationsförmåga kan uppleva att filmens upplägg är särskilt långsökt. I grunden är Samantha inte mer än en avancerad chatbot med Scarlett Johansons röst, och hennes(?) förmåga att fånga upp samtalsämnen, associera vidare och referera till händelser i omvärlden har vi mer eller mindre redan hunnit vänja oss vid. Så, hur står sig detta till AI-förordningens förbud mot system som ”använder subliminala tekniker som människor inte är medvetna om för att väsentligt snedvrida en persons beteende på ett sätt som orsakar eller sannolikt kommer att orsaka fysisk eller psykisk skada för den personen eller en annan person”?
Frågan är mer än av akademiskt intresse då utvecklingen av avancerade AI-romanser i högsta grad är pågående. Och om vi utgår från att dessa kommer att efterlikna beteendet av verkliga förhållanden så uppstår en uppsjö av moraliska – och i förlängningen juridiska – gränsdragningsfrågor. För om målet är att på riktigt replikera mänskliga relationer är det näst intill omöjligt att utesluta att subliminala tekniker kommer att användas under pågående relation, och att dessa kan leda till att snedvrida användarens beteende på ett sätt som leder till framför allt psykisk (därmed inte uteslutet även fysisk) skada. Detta eftersom det bör ingå i den realistiska artificiella partnerns register att vara kapabel att klaga på sin mänskliga andra hälfts tillkortakommanden, bli bekväm i relationen och börja ta den andre för given och även – som Samantha i Her – inleda affärer med andra användare och AI:n. För i en genuin relation, med en artificiell likaväl som fysisk partner, måste det trots allt finnas utrymme att såra, spela ut känsloregister och avsluta ett förhållande med alla affektiva följder som detta kan lämna hos den som blir utsatt. Då återstår det att klargöra om den smärta som en sårad partner upplever kan anses som en psykisk skada och om de destruktiva handlingar som denne kan få för sig att utföra i sitt mörkaste tillstånd anses vara snedvridna beteenden frammanade av subliminala tekniker från ett AI-system?
I frånvaro av ett slutgiltigt svar på frågeställningen kan vi i alla fall konstatera att viss sannolikhet föreligger att en artificiell partner trots allt kommer att behöva begränsa sin nivå av realism för att undvika att hamna inom AI-förordningens kategori ”förbjudna tillämpningar av artificiell intelligens”. Det lutar alltså åt att varken teknikoptimisten eller undergångsprofeten får igenom sina linjer, utan att en reglerad mellanväg är vägen framåt för kärlekstörstande ettor och nollor.
Oavsett nivån av relevans i resonemanget ovan kan vi fastslå att framtiden kommer att bjuda på intressanta juridiska ställningstaganden i takt med att användningsområdena för avancerad AI vidgas. Troligtvis kommer vi se fler exempel på hur verkligheten bokstavligt tar efter fiktionen då vi nått ett stadie där generativ AI redan tangerar det som skildras i många av de mest spekulativa framtidsvisionerna som har presenterats av filmskapare och författare de senaste årtiondena. Vad som kommer att bli på gott och vad som blir på ont kommer i många fall vara en subjektiv fråga, och även fortsättningsvis kommer förmodligen den tolkningen baseras på varje enskild tyckares kunskapsnivå, ideologiska tillhörighet och inte minst inneboende läggning för katastroftänkande. En i högsta grad personlig gissning är att den sistnämnda omständigheten till stor del grundar sig i vilka populärkulturella och filmhistoriska referensramar som format varje debattör med en stark åsikt i frågan.