suomi.fi
Gå direkt till innehållet.
God praxis för tjänsteutvecklare

Ansvarsfullt användande av artificiell intelligens

Ordna roller och handledning

Artificiell intelligens förstår inte organisationens verksamhet

System för artificiell intelligens är verkligen bara ett verktyg för databehandling. Dess funktion är helt beroende av de data som används i systemet samt ägarorganisationens mål, kompetens och ansvarsfulla verksamhet.

I diskussionen om ansvarsfull utveckling av artificiell intelligens upprepas ofta begreppet "human in the loop". I praktiken innebär det att endast människan i sista hand kan både övervaka systemets funktion och godkänna systemets resultat och användningen av dem.

Utmaningen med denna princip är att användningen av system för artificiell intelligens utvidgas till att omfatta behandlingen av individuella fall och med tiden kanske också det egentliga beslutsfattandet.

Uppdaterad: 10.11.2023

Se till att en människa hålls kvar på förarens plats

Europeiska unionens linjedokument om artificiell intelligens ställer upp fyra konkreta handlingsalternativ för principen "human in the loop":

  1. Resultat från ett system för artificiell intelligens får inte användas förrän det har granskats och bedömts med hjälp av mänskliga krafter.
  2. Resultatet från systemet för artificiell intelligens tas direkt i bruk, men dess effekter korrigeras vid behov av en människa.
  3. Systemets funktion följs upp i realtid och man har tillgång till ett "nödstopp"-förfarande som kan aktiveras snabbt.
  4. Systemet är planerat så att det innehåller gränsvärden som om de överskrids antingen begränsar dess verksamhet, stannar upp verksamheten helt och hållet eller överför kontrollen till människan.
Uppdaterad: 10.11.2023

Bedöm också konsekvenserna under produktionen

Typiskt för nya teknologier är att deras olika, i synnerhet oväntade, effekter kommer till uttryck först med tiden. Därför är uppföljningen av effekterna av det system som används lika viktig som en förutseende konsekvensbedömning.

Som exempel kan man använda sociala medier. När Facebook började samla användare hade ingen kunnat gissa att det och liknande tjänster redan efter några år skulle påverka presidentval, folkomröstningarna, självbilden, den mentala hälsan och konsumtion.

Dokumenteringen av konsekvensbedömningen under produktionen och den offentliga rapporteringen ökar också användarnas tillit. Samtidigt tvingar det den systemansvariga organisationen att se till en regelbunden bedömning.

Uppdaterad: 10.11.2023

När bör ett etiskt råd inrättas?

Europeiska kommissionen rekommenderade redan 2018 etiska råd för organisationer inom den offentliga sektorn, det vill säga enheter som följer upp och styr den etiska och ansvarsfulla verksamheten inom robotik och artificiell intelligens.

Det lönar sig att inrätta en etisk grupp om

  • de planerade systemen för artificiell intelligens och deras mål innehåller viktiga etiska frågor
  • ledningen genuint förbinder sig till saken
  • gruppen får ett tydligt mandat och uppdrag
  • organisationen också är beredd att ta emot kritiska bedömningar.

Om alla villkor inte uppfylls är det skäl att söka andra metoder för att bedöma och säkerställa etik och ansvarsfullhet.

I vissa organisationer kan det redan finnas etiska kommittéer med anknytning till verksamhetsområdet. Då kan man fundera på om de också skulle kunna bedöma utnyttjandet av artificiell intelligens.

Uppdaterad: 10.11.2023

Är du nöjd med innehållet på denna sida?

Minneslista