suomi.fi
Gå direkt till innehållet.
God praxis för tjänsteutvecklare

Ansvarsfullt användande av artificiell intelligens

Förbered dig på rätt sätt

Identifiera säkerhetshot och -möjligheter

Artificiell intelligens medför nya utmaningar för säkerheten. Cyberbrottslingar och fientliga aktörer kan med hjälp av den effektivisera sin egen verksamhet, automatisera attacker och rikta dem noggrannare än tidigare för att upptäcka sårbarheter i målsystemen.

Å andra sidan ger analysförmågan inom artificiell intelligens möjligheter att utveckla säkerhetssystem som utforskar och bedömer trafiken till det system som ska skyddas noggrannare än vad som är möjligt med nuvarande förfaranden.

Varje AI-system som använder flera datakällor, är kopplat till andra system och påverkar organisationers eller människors agerande och rättigheter, är en ekosystemaktör. Som sådan ansvarar varje AI inte bara för sin egen utan för hela ekosystemets tillförlitlighet och säkerhet. Därför måste man vid planeringen av systemet beakta de så kallade security by design- och privacy by design-aspekterna.

Uppdaterad: 9.11.2023

Endast ett dokumenterat system kan bedömas

För att ett system för artificiell intelligens ska kunna auditeras måste det dokumenteras. Fel och felaktiga funktioner kan endast åtgärdas om dokumentationen är detaljerad och aktuell.

Europeiska unionens ställningstagande om artificiell intelligens bestämmer vad organisationen ska dokumentera i fråga om sitt system för artificiell intelligens:

  • systemets mål och syfte
  • systemets kända förmågor och begränsningar
  • under vilka förhållanden systemet är avsett att fungera
  • vilken är den förväntade exaktheten av resultaten, med vilken det uppställda målet för systemet kan uppnås
  • en beskrivning av träningsdata i anslutning till algoritmens programmering och dess förvaring
  • i fråga om riskbenägna system för artificiell intelligens själva träningsdata.

I praktiken kan dokumenteringen dock vara utmanande. Den svarta lådan för algoritmisk slutledning gör det också svårare att reagera på fel. Hur kan man korrigera något vars funktion man inte förstår?

Uppdaterad: 9.11.2023

Upphandling av artificiell intelligens kan vara förknippad med mörka produktionskedjor

Det är inte acceptabelt att samla in träningsdata till systemet för artificiell intelligens från vaga källor eller med oetiska metoder. Man borde förhålla sig lika kritiskt till produktionskedjan i det fysiska systemet.

Man måste kunna ställa följande frågor:

  • Varifrån kommer komponenterna?
  • Varifrån kommer de råvaror som används i dem?
  • Med hurdant arbete har de producerats och under vilka förhållanden?
  • På vilket sätt har den energi som använts i hela produktionskedjan producerats?
  • Varifrån kommer energin för att driva system, utbilda språkmodeller och för datautvinning?

I den komplexa helheten av system för artificiell intelligens kan det finnas "mörka" produktionskedjor som omfattar miljöförstöring och brott mot de mänskliga rättigheterna. Den offentliga makten har ett särskilt ansvar för att man vid upphandlingar iakttar en så stark värdegrund och transparens som möjligt.

Uppdaterad: 9.11.2023

Det är svårt att kontrollera ett lärande system

Till skillnad från hårdkodad, regelbaserad mjukvarurobotik, strävar system som baserar sig på maskin- och djupinlärning alltid efter att optimera den uppgift eller det mål som de blivit givna. Med tiden är meningen också att de på sätt och vis ska ge andra resultat senare än när de tas i bruk.

Borde artificiell intelligens kunna lära sig av sina misstag? Ett enkelt svar skulle vara "ja", men ett självlärande system innebär ett system som ändrar sin egen programmering och algoritm och kan hamna utanför planerarnas och ägarnas kontroll. Med andra ord, vill vi ha maskiner som fungerar oberäkneligt i nya situationer?

– Forskare i artificiell intelligens Wendell Wallach, Yale universitet

Det är mycket utmanande att förstå hur avancerade artificiella intelligenser fungerar även för dem som utvecklar dem. Därför är det svårt att prognostisera, och även hanterbarheten kan bli ett problem.

Uppdaterad: 9.11.2023

Är du nöjd med innehållet på denna sida?

Minneslista