Vad kan forskning inom AI-säkerhet tillföra i kampen mot organiserad brottslighet? Johan Östman, Fazeleh Hoseini och Edvin Callisen driver AI-säkerhetsforskning på högsta internationella nivå. Deras arbete i projekt som LeakPro och Federated Machine Learning in Banking har plockats upp av OECD och fått stor spridning i Europa.
Inför årets upplaga av Annual Conference on Neural Information Processing Systems (NeurIPS), en av de mest betydande konferenserna inom artificiell intelligens och maskininlärning, har Johan och forskare knutna till säkerhetsprojekten på AI Sweden fått med inte mindre än två artiklar.
![]()
Att vi får artiklar accepterade till prestigefyllda konferenser som NeurIPS, som får 25 000 artiklar av högsta akademiska kvalitet inskickade och bara accepterar en femtedel, är ett kvitto på att Sverige och AI Sweden har en ledande position inom AI i relation till säkerhet och GDPR.
![]()
Johan Östman
Research Scientist
Ett av resultaten AI Sweden presenterar vid NeurIPS handlar om nya metoder för att träna AI-modeller på transaktions- och nätverksdata på sätt som inte kompromissar med känslig information (källa).
Tekniken, som fått namnet FedLap+, gör det möjligt för flera banker att gemensamt analysera den övergripande strukturen av transaktionsflöden för att hitta avvikelser, utan att någon enskild banks kunddata exponeras för de andra.
Banksekretess och andra regleringar gör det svårt för banker att hitta och identifiera mönster av kriminell aktivitet som rör sig mellan banker, en sårbarhet som kriminella aktörer systematiskt utnyttjar. Reglerna hindrar inte bara övervakning och analys över flera transaktionsnätverk, de hindrar även delandet av lärdomar i AI-modeller från en bank till en annan, så länge det inte går att säkerställa att de är skyddade från att sprida sekretesskyddade uppgifter.
Konsekvensen är att dagens metoder för att upptäcka penningtvätt är trubbiga, eftersom lärdomar inte kan delas eller tillämpas på de transaktioner som kriminella skickar mellan olika institut. Bankerna letar därför efter sätt att möjliggöra effektiva försvar utan att tumma på de lagar och regler som skyddar kundernas integritet.
Tillgång till relevant data är ett annat problem som forskare och utvecklare som jobbar med lösningar som kan bekämpa penningtvätt brottas med, eftersom banksekretessen även försvårar forskning på de faktiska transaktionerna. Forskargruppen på AI Sweden har just skickat in ett paper till International Conference on Learning Representations (ICLR), en konferens som väger lika tungt som NeurIPS. Artikeln handlar om att låsa upp forskarvärldens muskler för att förbättra arbetet mot penningtvätt, genom att skapa syntetisk data av hög kvalitet (källa).
Edvin Callisen, forskningsingenjör på AI Sweden, har varit med i det arbetet tillsammans med forskare från Handelsbanken och Swedbank.
![]()
I dag arbetar banker isolerat med att bekämpa penningtvätt eftersom data inte kan delas. Med syntetisk data kan vi bryta dessa silos, möjliggöra samarbete mellan banker, skapa gemensamma standarder för att utvärdera metoder och öppna dörren för forskarvärlden att tillsammans driva utvecklingen framåt.
![]()
Edvin Callisen
Research Engineer
AMLgentex är ett stort steg framåt och ger oss äntligen realistiska, lagenliga och öppna dataset för att testa och förbättra system för motverkande av penningtvätt (Anti Money Laundry – AML). För Swedbank är det en chans att använda AI-driven detektion av penningtvätt utan att riskera banksekretessen, att öka vår innovationshastighet, och att stärka försvaret mot komplexa penningtvättsupplägg.
Rikke Berner Nilsson
Head of Change Management, ECP, Swedbank
Att publicera metoder som möjliggör träning och delande av modeller är relevant även utanför banksektorn, ett exempel är för sjukhus att tillsammans utveckla kraftfullare AI för diagnoser, samtidigt som varje enskild patients data förblir helt skyddad.
Att tekniskt möjliggöra samarbetet är dock bara en del av lösningen. För att tränade AI-modeller ska få användas i skarpt läge, av både banker och myndigheter, måste de leva upp till en mängd säkerhetskrav, där skydd mot dataläckage är en viktig aspekt.
– I ett tidigare projekt där vi på AI Sweden jobbade med sjukhus och regioner som ville samarbeta kring AI-modeller konstaterade Integritetsskyddsmyndigheten (IMY) att eftersom forskningen lägger fram teorier för att manipulera sådana modeller till att dela träningsdata, behövde man ge ett vägledande negativt svar. Vi insåg att vi behöver metoder för att testa och värdera riskerna för varje enskild modell, berättar Johan Östman.
Lärdomarna från det projektet mynnade ut i det uppföljande projektet LeakPro, där RISE, AstraZeneca, Sahlgrenska Universitetssjukhus, Region Halland, Syndata, och Scaleout deltar. IMY är också med i projektets referensgrupp.
Metoderna som tagits fram i LeakPro fungerar som ett avancerat stresstest där man med extrem precision försöker avgöra om en vald individs data har använts i träningen av modellen. En av dem presenteras i den andra artikeln vid NeurIPS (källa).
– Genom att i förväg identifiera sårbarheter på detta sätt kan utvecklare bygga betydligt mer robusta och säkra AI-system. Det är avgörande för att bygga det förtroende som krävs för en ansvarsfull användning av AI i hela samhället, säger Johan Östman.
Framsteg inom ny teknik medför både stora fördelar och nya säkerhetsproblem. Tillsammans med partneruniversitet och organisationer utbildar AI Sweden experter för att hantera framtidens AI-relaterade säkerhetsutmaningar.
Fazeleh Hoseini, forskare inom maskininlärning på AI Sweden, handledde masterstudenterna Nicolas Johansson och Tobias Olsson från Chalmers Tekniska Högskola i deras arbete som nyss publicerats:
![]()
Det här är en av de första studierna som visar hur tidsserieprognosmodeller kan exponera känslig individdata. Det är en viktig grundsten för fortsatt forskning och arbete, Nicolas och Tobias har brutit ny mark på ett område där risken för läckage av känslig data tidigare underskattats.
![]()
Fazeleh Hoseini
Research Scientist
Nicolas och Tobias har arbetat med forskningsproblem som resulterat i en artikel om sårbarheten hos AI modeller för tidsserieprognoser (time series forecasting, källa). Modellerna används exempelvis för att prediktera energianvändning i elnätet, och till att förutse en stroke, baserat på hjärnsignaler (EEG) för att elektroniskt stimulera och rädda patienter.
Genom att utveckla nya typer av attacker kunde studenterna visa att den här typen av prognosmodeller kan läcka känslig information, särskilt om träningspopulationen är liten.
![]()
Framgångarna för våra forskare inom AI Security på NeurIPS och på ICLR i våras visar att miljön och medarbetarna här på AI Sweden ligger i världstoppen. Detta placerar Sverige och AI Sweden i förarsätet i den globala diskussionen om säkerhet och integritet. I en tid då EU:s AI Act ställer nya, strikta krav på transparens och säkerhet för högrisk-system, levererar denna forskning, som drivs tillsammans med våra partners, inte bara teorier, utan konkreta verktyg för att möta framtidens regulatoriska landskap och bygga AI-lösningar som samhället kan lita på.
![]()
Mats Nordlund
Head of AI Labs
The project aims to explore the potential of federated learning in enhancing collaboration between banks for detecting money laundering while preserving data privacy.
Project with primary objective to create LeakPro, a platform to evaluate the risk of information leakage in machine learning applications pertaining to the deployment of machine learning models, collaborative training, and synthetic data.
Paper by Marcus Lassila (Chalmers University of Technology), Johan Östman (AI Sweden) Khac-Hoang Ngo (Linköping University), Alexandre Graell i Amat (Chalmers University of Technology). Presented at NeurIPS 2025.
Summary: Proposing BASE, a new state-of-the-art membership inference attack against both correlated (graph data) and independent data.
Paper by Javad Aliakbari (Chalmer University of Technology), Johan Östman (AI Sweden), Alexandre Graell i Amat (Chalmer University of Technology). Presented at NeurIPS 2025.
Summary: We propose FedLap+, a means to federate over clients with interconnected data. FedLap+ is shown to significantly improve on the utility-communication-privacy trilemma.
Paper by Johan Östman & Edvin Callisen (AI Sweden), Anton Chen & Kristiina Ausmees & Emanuel Gårdh & Jovan Zamac (Handelsbanken), Jolanta Goldesteine & Hugo Weifer & Simon Whelan & Markus Reimegård (Swedbank), sent to ICLR 2026.
Mobilizing data-driven research to combat money laundering (pdf)
Paper by Nicolas Johansson & Tobias Olsson (Chalmers University of Technology), Johan Östman & Fazeleh Hoseini & Daniel Nilsson (AI Sweden), sent to SatML 2026.
Privacy Risks in Time Series Forecasting: User- and Record-Level Membership Inference (pdf)