Hoppa till huvudinnehåll

Ansvarsfull användning av AI

AI har potential att transformera hela branscher och samhället i stort. Det är av yttersta vikt att detta görs på ett säkert, lagligt och ansvarsfullt sätt för att säkerställa att människor inte skadas direkt eller indirekt genom tillämpade AI-lösningar, samtidigt som man frigör den potential som AI besitter.

Takten för AI-utvecklingen är extremt hög. Detta medför ett stort behov av att vara uppmärksam på konsekvenserna av att använda AI och samtidigt bygga förtroende på samhällsnivå över tid. Varje AI-användningsfall har unika utmaningar och risker som kräver specifika överväganden givet sammanhanget. Vi måste också stödja ett utforskande arbetsätt för att tidigt konkretisera och hantera potetiella risker.

På grund av den snabba utvecklingen kan vi ännu inte förutse alla möjliga risker och möjligheter med AI. Det är därför av största vikt att vi bygger ett starkt AI-ekosystem som kan tillämpa ansvarsfulla principer över tid. Ett robust AI-ekosystem kräver nationellt och internationellt samarbete, aktivt bidrag och deltagande av en mångfald av intressenter och domänexperter samt utbyte av information och bästa praxis.

Användningen av AI spänner över många områden, både tekniska så som datahantering och infrastruktur, och icke-tekniska områden som beteendevetenskap och förändringsledning. Med tanke på detta kommer ett tvärvetenskapligt tillvägagångssätt genom hela livscykeln för AI-utveckling och tillämpning att öka vår förståelse för vilka lösningar som kommer att vara mest användbara utan att ge oönskade resultat, liksom effekten på samhället som helhet.

För organisationer som utvecklar eller använder AI uppmuntrar vi att utgå från befintligt arbete som gjorts av organisationer som EU, NATO, OECD, och UNESCO vi vill också lägga ytterligare tonvikt på några specifika perspektiv.

Laglighet och transparens: Alla AI-lösningar bör utvecklas och användas inom lagens ramar och intressenter bör hållas ansvariga i enlighet med detta. Vi förespråkar starkt en rimlig och relevant transparens kring hur AI-system utvecklas och fungerar. Detta innebär att AI:s möjligheter och begränsningar ska kommuniceras på ett begripligt sätt till alla intressenter, inklusive slutanvändare och medborgare.

Etiskt och rättvist: AI-system måste utformas och drivas på ett sätt som respekterar mänskliga rättigheter, värderingar och kulturell mångfald. Detta inkluderar att minska riskerna med AI-algoritmer i förhållande till partiskhet och diskriminering. Det är viktigt att beakta etiska konsekvenser i varje skede av AI-utveckling och driftsättning.

Säkerhet och robusthet: AI-system måste vara tillförlitliga, kontrollerbara och säkra. De ska fungera som avsett under olika förhållanden och vara motståndskraftiga mot manipulation och fel. Detta inbegriper skydd mot skadlig användning av AI-teknik och att säkerställa att AI inte orsakar oavsiktlig skada på människor eller miljö.

Förutsatt att vi är överens om ovanstående principer ligger utmaningen nu i att omsätta dem i handling och översätta dem till verkliga scenarier och tillämpningar. Här har vi ett ansvar att också använda AI där det är lämpligt och att ta itu med vår tids mest angelägna globala utmaningar.

För mer information, kontakta

Johanna Bergman
Johanna Bergman
Director of Strategic Development
+46 (0)73-157 05 09