suomi.fi
Gå direkt till innehållet.
God praxis för tjänsteutvecklare

Ansvarsfullt användande av artificiell intelligens

Massiva data blir en svart låda

Slutledningsprocessen inom den offentliga förvaltningen kan inte vara omöjlig att förklara

Svarta lådor och brist på öppenhet är fortfarande ett stort problem. Om vi inte kan ta reda på varför någon skadlig konsekvens inträffade, kan vi inte heller korrigera den.

– Forskare i artificiell intelligens Wendell Wallach, Yale universitet

Särskilt utmaningen med mer komplicerade system för artificiell intelligens kallas "svarta lådor". När de datamaterial som används är massiva, eventuellt består av flera källor och innehåller tusentals datapunkter, är den slutledning som algoritmen gör av materialet inte transparent och begriplig. Man kan bara konstatera att "maskinen producerade vad den producerade".

Detta är ett stort problem med tanke på tillförlitligheten. I synnerhet system för artificiell intelligens inom den offentliga sektorn borde redan enligt principerna för god förvaltning vara sådant att resultatet kan motiveras och förklaras. Detta är viktigt redan med tanke på medborgarnas rätt att överklaga och yrka på rättelse.

Bekanta dig med standarden för beskrivning av algoritmernas transparens på webbplatsen GOV.UK (på engelska)Öppnas i ett nytt fönster..

Uppdaterad: 9.11.2023

Kan skador motiveras med nytta?

Svarta lådan-problemet har förbisetts till exempel genom att konstatera att man inte heller helt kan förklara hur en människas eller en hunds hjärna fungerar, men det hindrar oss inte från att agera. Biologiska varelser som fungerar självständigt ägs dock inte av någon och ingen programmerar målen för dem, till skillnad från databehandlingssystem. Människans medvetenhet och rätt till autonomi försvårar denna jämförelse ytterligare.

Det har också framförts att det är godtagbart att artificiell intelligens i anslutning till svart låda ibland ger felaktiga resultat, huruvida nackdelarna med de felaktiga resultaten är små jämfört med nyttan av de korrekta resultaten. Detta argument kan kritiseras till exempel i ljuset av medicinsk etik: skulle det vara acceptabelt att använda en metod som sannolikt skadar fem procent av patienterna?

Uppdaterad: 9.11.2023

Överväg allvarligt vad du använder resultaten från den svarta lådan till

Att öppna den svarta lådan är ett viktigt mål som man kontinuerligt arbetar med inom datavetenskapen. Detta måste man satsa på även i fortsättningen. Så länge den svarta lådan är en utmaning som den är för närvarande, måste organisationer som använder system för artificiell intelligens allvarligt överväga på vad de analyser, beslut eller prognoser som maskinen producerar kan tillämpas.

Uppdaterad: 9.11.2023

Är du nöjd med innehållet på denna sida?

Minneslista