Blogg | Knowit

Ansvarsfördelning vid utomobligatoriska sakskador relaterade till AI

Skriven av Celia Kylesten | May 8, 2022 10:00:00 PM

I april 2021 kom Europeiska kommissionen med förslag till förordning om harmoniserade regler för artificiell intelligens (AI-förordningen).1 I det här inlägget presenteras en översiktlig granskning av förslaget och Europaparlamentets resolution om en skadeståndsordning för artificiell intelligens. Utgångspunkten i granskningen är frågan om ansvarsfördelning vid utomobligatoriska sakskador relaterade till AI och huruvida förslagen kan bidra till ett klart, tydligt och förutsebart rättsläge i fråga om ansvarsfördelning. Inlägget är baserat på min nyligen publicerade masteruppsats på ämnet.2

 

Den föreslagna AI-förordningen tar sikte på att förtydliga ansvaret vid framtagande av AI-system. I förslaget regleras såväl efterlevnadskrav för leverantörer och tillverkare, som regler för användare av AI-system.

Flera remissinstanser har tagit ställning till AI-förordningen och vid en analys av förslaget identifieras ett antal faktorer som upplevs kunna försvåra för företag som arbetar med AI-system. Bl.a. framgår:

  • att tränings-, validerings- och testningsdataset ska vara felfria och fullständiga,

  • krav på loggningsfunktioner, transparens och riskhanteringssystem,

  • krav på ramverk för ansvarsutkrävande i fråga om kvalitetsstyrningssystem,

  • en bred definition av AI och vad som således anses vara högrisksystem som träffas av förordningen.3

Det ansvar som avses kunna utkrävas med stöd av AI-förordningen utkrävs i form av sanktioner uppsatta av medlemsstaterna samt, i vissa fall, bestämda administrativa sanktionsavgifter.

AI-förordningen har delvis bakgrund i Europaparlamentets resolution om en skadeståndsordning för artificiell intelligens.4 Resolutionen tar sikte på ansvar för operatörer av AI-system. Av bakgrunden till resolutionen framgår att det ansetts vara av vikt att inte begränsa den innovativa utvecklingen. Behovet av ny reglering är sprunget ur svårigheten att tillämpa nu gällande produktansvars- och skadeståndsregleringar på något så komplext som AI-system medan skaderisken kvarstår. Mot bakgrund av detta har det i resolutionen bl.a. föreslagits ett strikt operatörsansvar för högrisksystem samt ett förtydligande kring begreppet AI-system. För AI-system som inte klassas som högrisksystem föreslås att en culpabedömning fortsatt tillämpas. Trots vad som föreslagits i resolutionen regleras inte skadestånd i förhållande till skadelidande parter alls i AI-förordningen.

Vad som huvudsakligen skiljer AI-förordningen från resolutionen i fråga om ansvarsfördelning är att en större del av ansvaret placeras i tidigare led, d.v.s. redan under utvecklingsstadiet, innan produkten når marknaden. I resolutionen belastas visserligen parter i utvecklingsstadiet men den reglerar förhållanden efter utsläppande på marknaden. I resolutionen och AI-förordningen är det även olika parter, operatör resp. leverantör/tillverkare som träffas av det huvudsakliga ansvaret. Den skilda fördelningen gör att en implementering av dem bägge, enligt min åsikt, inte skulle resultera i ett rimligt utfall. Olika parter skulle vid dubbel implementering riskera att ansvara för samma fel i olika situationer eller i förhållande till olika parter. Istället torde ett införande av AI-förordningen kunna fungera vägledande även i konkreta skadesituationer i brist på mer specifik reglering. En sådan tolkning tycks dock bli alltför långtgående framförallt m.h.t. kraven som uppställts på felfrihet och fullständighet.

På frågan huruvida AI-förordningen skulle medföra ett klart, tydligt och förutsebart rättsläge avseende ansvarsfördelning tycks svaret bli nej. Det saknas en struktur för ansvarsfördelning genom vilken den som lidit skada kan finna vägledning avseende vem skadeståndsanspråket kan riktas mot. Sådan reglering har lämnats till de nationella lagstiftarna. Det är framför allt avsaknaden av en sådan reglering och kravet på felfrihet och fullständighet som befaras fortsatt orsaka oklarheter gällande ansvar vid skada. Begreppsanvändningen riskerar medföra att en alltför bred skadekatalog ryms inom regleringen på ett sätt som gör det omöjligt för företag att efterleva kraven och samtidigt uppnå en förutsebarhet för vilket ansvar som kan aktualiseras.

Resolutionen är tydligare formulerad och uppsätter en miniminivå för ersättningsgill skada, vilket utesluter skadeståndsansvar för skador av mindre karaktär. Högrisksystem och AI definieras också på ett mer beskrivande sätt, om än fortsatt brett och med en reviderbar bilaga. För lågrisksystem framgår tydligt att annan lagstiftning ska tillämpas, vilket medför att rättsläget inte utvecklas i fråga om skador i relation till sådana system. Förutsättningarna för att bygga vidare på resolutionen och utveckla en reglering som är mer tillämpbar tycks dock vara goda men inte heller resolutionen tycks i dagsläget resultera i ett klart, tydligt och förutsebart rättsläge.

Hur en implementerad reglering på områden kan komma att appliceras får tiden utvisa!

 

Källor

1 Förslag till Europaparlamentets och rådets förordning om harmoniserade regler för artificiell intelligens (rättsakt om artificiell intelligens) och om ändring av vissa unionslagstiftningsakter (2021/0106 (COD)).

2 http://liu.diva-portal.org/smash/record.jsf?pid=diva2%3A1654859&dswid=-5135

3 Förslag till Europaparlamentets och rådets förordning om harmoniserade regler för artificiell intelligens (rättsakt om artificiell intelligens) och om ändring av vissa unionslagstiftningsakter (2021/0106 (COD)).

4 Europaparlamentets resolution av den 20 oktober 2020 om en skadeståndsordning för artificiell intelligens (2020/2014 (INL)).