suomi.fi
Gå direkt till innehållet.
God praxis för tjänsteutvecklare

Ansvarsfullt användande av artificiell intelligens

Väg riskerna

Risker med allt för självständig artificiell intelligens

Alla överraskande funktioner i lärande system kan inte analyseras eller upptäckas maskinellt. Kontinuerlig uppföljning, datahantering och konsekvensbedömning är kritiskt viktiga för att det lärande systemet inte ska "gå sin egen väg" och fjärma sig från det uppställda målet.

Systemet kan fungera klanderfritt tekniskt sett, samtidigt som dess resultat är felaktiga. Inte ens den mest utvecklade artificiella intelligensen vet att något är fel, även om den skulle producera förvrängd eller "information", eller ”information” som den själv hittat på. ChatGPT har till exempel konstaterats göra så i oroväckande hög grad.

Eftersom datorn varken har medvetande eller samvete behövs människor som kontrollerar både kvaliteten på och användbarheten av resultaten.

Uppdaterad: 9.11.2023

Datarelaterade risker

Träningsdata för artificiell intelligens är förknippad med en risk för manipulering. Även en mycket liten och obemärkt ändring i träningsdatan, men som gjorts medvetet och kompetent kan göra det planerade resultatet onödigt eller till och med skadligt. Därför är det nödvändigt att dokumentera träningsdata för senare granskning och för att minimera skador.

Även feedback loopen, det vill säga responscirkeln, är förknippad med osäkerhetsfaktorer och oförutsägbarhet i anslutning till data. För att förebygga risker behövs medveten kontroll utfört av en människa.

Uppdaterad: 9.11.2023

Risker vid sammanslagning av datamängder

Den ökade mängden data som finns tillgänglig på internet gör det möjligt att slå samman data i syfte att skada individen och samhället. De datamassor som organisationer publicerar på internet kan i framtiden orsaka överraskande risker när artificiell intelligens kan kombinera och analysera material samt dra slutsatser av dem som vi själva inte ännu ser. Hårfina förändringar i datauppsättningarnas användningskontext över tid kan också påverka riskerna.

Risken i anslutning till mängden datamängder har uppstått långsamt med tiden, vilket ofta sker inom teknologin. På 1980- och 90-talen upphandlades till exempel många adb-system inom förvaltningen, vars interoperabilitet blev ett problem först i den senare digitala världen.

Även om öppenhet i anslutning till data i många fall är bra, lönar det sig ändå alltid att på förhand bedöma om det material som ska öppnas kan utgöra särskilda risker när det förenas med något annat material.

Uppdaterad: 9.11.2023

Risker med prediktiv analys

Från stora, kvalitativt högklassiga datamassor kan man härleda framtidsstudier och prognoser i mycket olika frågor. Detta är en av superkrafterna inom artificiell intelligens.

I forskning om artificiell intelligens har man också identifierat begränsningar i prediktiv analys:

  1. Artificiell intelligens är dålig på att förutse sällsynta händelser som ofta är just de som har betydande konsekvenser.
  2. Om systemet har tränats med ofullständiga data med ”luckor” är de prognoser som systemet genererat sannolikt inexakta eller till och med vilseledande.
  3. Om systemet har tränats med snedvridna data är prognoserna snedvridna på samma sätt, eller till och med kraftigare.
  4. Om systemet har tränats med data som inte är relevanta i förhållande till målet, motsvarar inte heller resultaten målet.
Uppdaterad: 9.11.2023

Risker med passiverande automatisering

Digitaliseringen ger nya möjligheter till social interaktion och användning av tjänster, men baksidan är minskad fysisk aktivitet, ökad ensamhet och ojämlikare möjligheter att utnyttja olika tjänster

– Ministeriernas framtidsöversikt 2022

I animationsfilmen Wall-E (2008) av Disney-Pixar visas en framtid där mänskligheten, som har flyttats från en icke livsduglig planet till rymdfarkoster, lever betjänade och underhållna av sina intelligenta robotar. De gör egentligen inget meningsfullt, eftersom det inte finns något att göra. Livet är inte hemskt, men saknar ändå mening. Människan har blivit ett passivt objekt för välvilliga maskiner i stället för ett fungerande autonomt subjekt.

I den allt snabbare digitaliseringen som fördjupas i och med innovationerna inom artificiell intelligens kan man se drag som leder till förhållandena i Wall-E:s rymdkolonn. Vad borde organisationerna tänka om detta och hur bör man sträva efter att förhindra en sådan utveckling?

Uppdaterad: 9.11.2023

Risker med humanisering av maskiner

Det är motiverat att fråga hur människolika vi vill att våra tjänster och datorer ska bli.

De flesta av oss har förmågan att projicera humana egenskaper på objekt som saknar dessa. När det gäller sällskapsdjur är detta till exempel förståeligt. Men ibland talar människor emotionellt till och med till sina datorer, robotdammsugare och bilar. Vi vill gärna uppleva mänsklighet där den inte finns.

Detta skapar ett problem i den nya teknologin som redan nu kan imitera människans naturliga kommunikation. Vi reagerar särskilt starkt på verksamhet som påminner om människans, även om den utförs av en maskin. Risken ligger i situationer där en ondskefull aktör på ett trovärdigt sätt bedrar människor eller organisationer med artificiell intelligens som imiterar människans egenskaper.

Uppdaterad: 9.11.2023

Risker i anslutning till integritet och personuppgifter

Personens integritet skyddas i datamängder med två metoder:

  • Pseudonymisering är en process där identifikationsuppgifter ersätts med sporadiska koder, men de kan kopplas till den ursprungliga personen med tilläggsuppgifter.
  • Anonymisering är en oåterkallelig process där personuppgifterna ändras i sin helhet och permanent i materialet. Därför gäller till exempel EU:s allmänna dataskyddsförordning (GDPR) inte anonymiserade uppgifter.

I en värld av artificiell intelligens är inte heller dessa metoder helt problemfria. När data samlas in om en person i systemet skapas också en ständigt växande dataprofil över personen. Man kan dra slutsatser om denna profil även när personuppgifterna har anonymiserats. Detta kan ske via indirekta uppgifter, det vill säga proxy data.

Även om det inte finns någon direkt identifierande uppgift om personen, kan redan enbart postnumret ge tips om personen. Om det samlas tillräckligt md indirekta uppgifter kan personen slutligen identifieras genom att analysera kombinationen av uppgifterna. Till exempel har man i de algoritmiska systemen redan i olika länder genererat beslut och prognoser om en kombination som består av ålder, kön och hemadressens postnummer och som till sin karaktär är diskriminerande.

Uppdaterad: 10.11.2023

Risker med generativ artificiell intelligens

Det blir allt vanligare att använda generativa AI-applikationer i arbetsuppgifter inom både företag och den offentliga sektorn. Innan du tar i bruk sådana applikationer, bekanta dig med deras funktionsprinciper och de risker som är förknippade med användningen.

Uppdaterad: 3.5.2024

Är du nöjd med innehållet på denna sida?

Minneslista