Avancerade AI-lösningar ska hindra angripare att komma åt och läcka dina data
Privat och offentlig sektor använder och delar data. Men vad händer om systemen hackas och personliga uppgifter eller känslig information läcker ut? Vid Umeå universitet utvecklas nu ett helt nytt säkerhetstänk inom datadrivet beslutsfattande.
– Vi kommer att göra det riktigt svårt för angripare att identifiera personer, byggnader eller områden för ytterligare spridning, säger professor Vicenç Torra, Institutionen för datavetenskap, om det pågående forskningsprojektet.
Offentlig sektor samlar in stora mängder av information. Det kan handla om alltifrån var vattenledningar finns till barnomsorgsbehov, inkomstskillnader, kriminalitet, klimatförändringar eller bidrag – viktig information, för samhället. EU beräknar att värdet på öppna data ligger mellan 194 och 334 miljarder euro 2025.
Inom den privata sektorn används data och AI för att analysera köpbeteenden, eller ta informerade beslut och erbjuda personanpassade lösningar. Inom offentlig verksamhet är öppna data en förutsättning för att kunna ta fram lösningar som kan underlätta i vården, eller hjälpa dig med information om vattenkvaliteten i din kommuns badsjöar. Den offentliga sektorn ska också dela och nyttja varandras data för att skapa nya värden, kunskap och innovation.
– Men vi kan se att det fortfarande inte finns tillräckliga säkerhetsskydd och därmed en stor risk för att känslig eller personlig information kan röjas, säger Vicenç Torra, professor i datasekretess vid Umeå universitet.
Nya säkerhetsmöjligheter
Han är världsledande forskare inom området och verksam som WASP-professor i AI-säkerhet vid institutionen för datavetenskap, Umeå universitet. WASP, Wallenberg AI, Autonomous Distributed and Software Program, är Sveriges största forskningsprogram inom området, där Umeå är ett av fem partneruniversitet. Med generös finansiering även från Vetenskapsrådet, Sveriges största statliga forskningsfinansiär, håller han nu på att utveckla AI-lösningar som ger helt nya säkerhetsmöjligheter.
– Istället för att åtgärda och stoppa potentiellt mycket stora läckor utvecklar vi nu avancerade skyddsmekanismer som integreras i de datadrivna modellerna redan på prototypstadiet. Det gör det möjligt att träna direkt på enskilda modeller, vilket i slutändan försvårar attacker, säger Vicenç Torra.
Inte tillräckliga lösningar
Att uppgifter läcks kan ställa till med enorm skada och ofta innebära stora kostnader. Detta har inte minst setts under de senaste åren. Och trots att många myndigheter och företag arbetar hårt för hög säkerhet menar Torra att de lösningar som finns idag inte är tillräckliga. Konkret handlar det om problem med att skydda data som har komplicerade eller otydliga samband mellan olika objekt och information som är temporär, samt dynamiska grafer och mätdata, som helt saknar skyddsmekanismer idag.
– Det är till exempel svårare att skydda integriteten när det finns data som berör flera personer på samma adress eller data om behandlingar och hur de har påverkat en patientens hälsa över tid, till exempel om en patient har journaler från flera sjukhus. Det kan också handla om mätdata från ett kraftnät, där det går att identifiera vilka som använder sig av det, Vicenç Torra.
Direkt skadligt
Att uppgifter sprids kan leda till omfattande problem. En inkräktare kan använda informationen för att dra slutsatser om dig som individ, och sedan sprida, förvanska eller sälja den informationen.
– Det skadar inte bara kundernas förtroende och forskares trovärdighet, det kan också bli direkt skadligt för enskilda personer eller grupp. Till exempel genom att avslöja vilka personer som lider av en sjukdom i ett område, utpressning liksom hot och fara, säger professor Vicenç Torra.
Världsledande forskning
Detta är inte det enda projektet inom datasekretess som Vicenç Torra arbetar med. Han leder också forskargruppen Nausica, där doktorander och post-doktorer arbetar för att bygga transparenta och integritetsmedvetna AI-system, med fokus på dataintegritet för databehandling och integritetsmedveten maskininlärning, i syfte att bygga modeller och dataanalys samt beslutsmodeller för att fatta beslut.
– De nya och innovativa lösningarna kommer förhoppningsvis att minimera skador, inte minst när det gäller den ökade risken för hackerattacker. Vi kommer att göra det riktigt svårt att spåra och identifiera användare när en sådan attack inträffar, säger Vicenç Torra.
Fakta om projektet
Professor Vicenç Torra är forskare inom AI, datasekretess, approximate reasoning och beslutsfattande. Han leder forskargruppen Nausica: Privacy-Aware Transparent Decisions Group vid Institutionen för datavetenskap, Umeå universitet. Forskningsprojektet Datasekretess för komplexa data pågår fram till och med sommaren 2025 och finansieras av Vetenskapsrådet.
För mer information, kontakta gärna:
Vicenç Torra, Institutionen för datavetenskap, Umeå universitet
Telefon: 090-786 59 48
E-post: vicenc.torra@umu.se