Forskere vil forbedre kryptering og machine learning-algoritmer

I et nyt forskningsprojekt skal forskere med støtte fra Danmarks Frie Forskningsfond udvikle en større forståelse af de mest sikre og effektive krypterings- og machine learning-algoritmer.

Når du gemmer data, for eksempel billeder, i en cloud service, sørger en algoritme for, at dine data er beskyttet, så ingen andre kan tilgå dem uden den rigtige adgangskode.

En virksomhed, som gemmer data i en cloud, vil sandsynligvis bruge kryptering for i endnu højere grad at sikre, at ingen tredjepart kan komme ind og se på data.

I et nyt forskningsprojekt, som netop har fået støtte fra Danmarks Frie Forskningsfond, skal forskere fra Aarhus Universitet undersøge, hvordan man bedst gemmer krypteret data i cloud services, men hvor man samtidigt sikrer, at man kan regne på ens data hurtigt og effektivt.

Kryptering og machinelearning

Ved kryptering bruges en algoritme, som via en matematisk metode gør indhold ulæseligt for alle, som ikke har nøgle til at tilgå data.

Machine learning: Når en algoritme finder mønstre i store mængder data og ud fra de mønstre bliver i stand til at komme med mere eller mindre præcise forudsigelser – for eksempel om risikoen for konkurser.

”Hvis man har noget data, som er krypteret, men som man godt vil ind og bruge jævnligt, så vil tredjepart måske kunne bryde krypteringen ved at finde mønstre i måden, man læser og tilgår data på. Derfor findes der algoritmer, som også kan kryptere måden, man ser på data, så andre ikke kan se, hvad man har set på,” fortæller lektor på Institut for Datalog på Aarhus Universitet Kasper Green Larsen.

Problemet er, at denne dobbelte kryptering gør, at det tager længere tid at åbne den data, man har brug for.

“Kunsten er at komprimere så meget som muligt uden at miste vigtige nuancer”

I forskningsprojektet ‘Data Structure Techniques in Cryptography and Machine Learning’ skal Kasper Green Larsen og hans forskergruppe udvikle en større forståelse af denne krypteringsudfordring og bedre algoritmer til at lave krypteringen.

Hurtigere komprimering af big data
Forskerne skal også arbejde med machine learning, hvor de vil udvikle mere effektive metoder til at komprimere store mængder data, som skal bearbejdes af algoritmer.

”Hvis en algoritme skal bruge meget store mængder data, kan det give mening at komprimere data først. Det vil både spare arbejdshukommelse på computeren og gøre, at algoritmen kan tilgå en større mængde data. Kunsten er at komprimere så meget som muligt uden at miste vigtige nuancer,” siger Kasper Green Larsen.

Forskerne har allerede fundet frem til den bedste komprimeringsmetode i forhold til størrelsen af det komprimerede data, men nu vil de undersøge, om komprimeringen kan gøres hurtigere.

Forskerne vil også gerne udvikle bedre algoritmer, som kan håndtere mere data hurtigere og ud fra det komme med mere præcise forudsigelser.

De vil forsøge at forbedre såkaldte boosting algoritmer, hvor forudsigelser fra mange tusinde algoritmer kombineres for at nå frem til en mere præcis forudsigelse.

Sådanne boosting algoritmer anvendes i et væld af forskellige områder, lige fra billedgenkendelse, til forudsigelser af konkurser og til Netflixs filmanbefalinger.