suomi.fi
Gå direkt till innehållet.
God praxis för tjänsteutvecklare

Ansvarsfullt användande av artificiell intelligens

Beakta lagar och rekommendationer

System inom den offentliga förvaltningen ska vara reglerade

Datasystem och digitala tjänster inom den offentliga förvaltningen ska genomföras på samma sätt som all myndighetsverksamhet: med iakttagande av lagar och förordningar både på nationell nivå och EU-nivå.

Den offentliga sektorns huvudsakliga uppgift med tanke på den teknologiska omvälvningen är att skapa förutsättningar för att utnyttja teknologi i hela samhället på ett etiskt hållbart och säkert sätt.

– Ministeriernas framtidsöversikt, 2022
Uppdaterad: 23.2.2024

Lagstiftning för artificiell intelligens nu och i framtiden

Finlands och EU:s lagar innehåller redan bestämmelser om bland annat

  • godtagbar användning av artificiell intelligens
  • digitala tjänster
  • jämlikhet och likabehandling
  • integritet och dataskydd (GDPR)
  • användning av data.

I Finland trädde lagen om automatiserat beslutsfattande inom den offentliga förvaltningen i kraft i maj 2023, men den gäller inte lärande system, såsom artificiell intelligens. 

Europeiska unionens förordning om artificiell intelligens (AI Act) godkändes av Europaparlamentet i december 2023 och förordningen ska troligen träda i kraft i 2024. När förordningen träder i kraft kommer den att utgöra den viktigaste regleringen av kraven på och användningen av system för artificiell intelligens i EU:s medlemsstater.

Uppdaterad: 27.2.2024

Finlands nuvarande lagstiftning möjliggör inte beslutsfattande med maskininlärande system

På vilka grunder fattar en maskin ett beslut?

I fall som den automatiska beskattningen kan man påvisa processens orsakssamband. Personen har förtjänat ett visst eurobelopp för vissa objekt under en viss tid och skattebeslutet beräknas direkt utifrån Skatteförvaltningens regler.

Logiken för artificiell intelligens grundar sig på komplicerade statistiska sannolikheter, vilket gör det svårt att konstatera ett tydligt orsakssamband. Om det dessutom är fråga om ett lärande algoritmsystem som kan anpassa sin verksamhet efter input är utmaningen ganska omöjlig.

Därför berör Finlands gällande lagstiftning om automatiserat beslutsfattande inte alls lärande system, det vill säga i praktiken artificiell intelligens. Maskininlärningssystem kan användas för att stödja arbetet, även inom administration, men inte i beslutsfattande, åtminstone för nu.

Uppdaterad: 27.2.2024

Förordningen om artificiell intelligens ställer krav på system med hög risk

Det av Europaparlamentet godkända utkastet av förordningen, som ännu inte trätt i kraft, förbjuder inte helt, men bromsar, maskininlärningssystemen från att fatta beslut i EU-ländernas förvaltningar. I AI-system med hög risk klassificeras till exempel tillämpningar med anknytning till utbildning, hälsa och välbefinnande, arbetslivet, förmåner och trafik – det vill säga i praktiken nästan hela fältet för offentliga tjänster.

System med hög risk ska ha:

  • tillräckliga riskbedömnings- och riskreduceringssystem
  • hög kvalitet på datamängder som stöder systemet
  • registrering av verksamheten för att säkerställa resultatens spårbarhet
  • tydlig och tillräcklig information för användaren
  • ändamålsenliga åtgärder för övervakning av människor
  • hög hållbarhet, säkerhet och detaljerad dokumentation som innehåller all information om systemet för att myndigheterna ska kunna bedöma efterlevnaden av systemet.
Uppdaterad: 11.3.2024

Förordningen om artificiell intelligens begränsar poängsättningen och profileringen av EU-medborgare

Den högsta riskkategorin (unacceptable risk) i riskklassificeringen i EU:s förordning om artificiell intelligens förbjuder poängsättning och profilering med hjälp av artificiell intelligens som grundar sig på uppgifter om individens sociala beteende, hens socioekonomiska status eller hens egenskaper som person.

Förordningen förbjuder inte helt databaserad profilering. Profilering är tillåten om det är nödvändigt för att genomföra en viss lagenlig process eller om personen har gett sitt samtycke. Det kan till exempel vara tillåtet att göra en patientprofilering som grundar sig på en persons hälsodata eller en bedömning av betalningsförmågan före bankens lånebeslut. I sådana fall krävs dock personens samtycke.

Det lämnar rum för tolkning i vilken mån riskklassificeringsmodellen tillsammans med poängsättnings- och profileringsbegränsningarna förhindrar automatiskt beslutsfattande som grundar sig på maskininlärning i ett ärende som är beroende av medborgarens prövning. Kanske kan detta ske först efter en längre tid och efter att teknologin har mognat.

Uppdaterad: 11.3.2024

Tjänsteansvaret blir komplicerat i många aktörers system

Den offentliga förvaltningens system för artificiell intelligens utmanas också av det lagstadgade tjänsteansvaret. När problem uppstår är frågan om det yttersta ansvaret ofta svår eftersom ett system omfattar många aktörer och dimensioner, såsom

  • datamaterial, av vilka en del eller allt kan ha producerats av andra parter
  • tekniska leverantörer
  • programmerare
  • personer som ansvarar för algoritmer.
Uppkomsten av ansvar när det gäller algoritmiskt beslutsfattande förutsätter kontakt mellan tjänstemannen och beslutsprocessen. I den regelbaserade automatiseringen kan tjänstemannen vid behov bekanta sig med grunderna för systemets funktion och därmed även med grunderna för de beslut som fattats.

I system baserade på artificiell intelligens kan däremot inte ens nödvändigtvis den som utvecklar systemet alltid ta reda på vilka omständigheter systemets slutresultat grundar sig på.

Statsrådets utrednings- och forskningsverksamhet: Algoritm som beslutsfattare? (på finska)Öppnas i ett nytt fönster.
Uppdaterad: 9.11.2023

I beslut enligt prövning kan artificiell intelligens vara till hjälp

Eftersom lagen inte gäller lärande system begränsar den i praktiken beslut om ärenden som är beroende av prövning nästan helt och hållet utanför myndigheternas verksamhet. Om beslutet inte kan motiveras på den nivå som rättsskyddet förutsätter, ska det inte alls fattas.

Det kan ändå vara möjligt att använda artificiell intelligens som hjälp vid behandlingen av ett ärende som är beroende av prövning när den slutliga beslutanderätten förblir hos människan. Även då måste det vara transparent och klart vad och hur den artificiella intelligensen har behandlat i ärendet och hur dess resultat har beaktats när beslutet fattades.

Utanför beslutsfattande kan artificiell intelligens användas som stödverktyg i vissa fall, om organisationens policyer och instruktioner tillåter det.

Uppdaterad: 13.11.2023

Avvikelser från bestämmelserna kan göras endast vid simuleringar

I innovativa tjänster baserade på artificiell intelligens inom den offentliga sektorn i Finland måste man beakta de etiska aspekterna för att säkerställa att de är rättvisa, objektiva, tillförlitliga och ansvarsfulla. De ska även planeras i enlighet med relevanta kommunala, nationella och EU-baserade regelverk.

AI-forskarna Nitin Sawhney och Ana Paula Gonzales Torres i Aalto-universitetets publikation (på engelska)Öppnas i ett nytt fönster.

Den gällande lagstiftningen kan ibland bromsa eller helt förhindra att även nyttiga system och tjänster utvecklas.

Det finns inget annat spelrum än simuleringar av nya tjänster och handlingsmodeller i så kallade regulatoriska sandlådor, där deras konsekvenser för lagenligheten kan testas på ett säkert sätt. Försöksresultaten kan visserligen leda till lagreformer om man upptäcker att föråldrade bestämmelser utgör ett hinder för en i övrigt trygg och nyttig tjänst.

Uppdaterad: 27.2.2024

Stretcha inte lagen utan ändra den

I synnerhet ute i världen tänjer och prövar digitala jättar medvetet gränserna för nationella och internationella lagar. Den offentliga sektorn kan inte göra det.

Även i Finland kan digitala utvecklare uppleva frustration över begränsningar i regleringen eller svårbegriplighet. Om vi upplever att den befintliga regleringen begränsar eller hindrar den utveckling vi önskar, måste vi sträva efter att påverka regleringen på ett proaktivt sätt i enlighet med befintliga förfaranden.

Uppdaterad: 27.2.2024

Bekanta dig med tidigare anvisningar och rekommendationer

Sedan början av 2010-talet har många rekommendationer, deklarationer och minneslistor producerats som stöd för den etiska utvecklingen av AI- och robotiksystem. Dessa har producerats av såväl internationella organisationer och offentliga förvaltningar som läroanstalter och forskningsinstitut. Detta vittnar inte bara om ett observerat behov, utan också om att ett dokument med rekommendationer helt klart inte räcker till.

Med tiden har man upptäckt ett kritiskt problem i dokumenten: de ger rekommendationer på högre nivå och beskriver målen, men skapar inte en tillräcklig koppling till det konkreta arbetet.

Om artificiell intelligens komprimeras till abstrakta förteckningar över värdefulla saker är det lätt att förkunna att man förbinder sig till att planera och producera etiskt hållbara tillämpningar för artificiell intelligens. Mellan de allmänna principerna och verksamheten uppstår lätt en klyfta som är svår att överskrida.

– Forskare Jaana Hallamaa och Karoliina Snell, Helsingfors universitet

Uppdaterad: 13.11.2023

Är du nöjd med innehållet på denna sida?

Minneslista