Neuralt netværk lærer at ælde ansigter syntetisk og også få dem til at se yngre ud

Måden vi ældes på er dybt fascinerende. At vide, hvordan vores ansigter vil se ud om 20, 30 eller 40 år er faktisk et trick, som mange ville finde fængslende.

Der findes en række teknikker, der kan gøre dette. Men de er tidskrævende og derfor dyre. Så en billig og hurtig måde at ælde ansigter på fotografier ville være et praktisk trick.

Indtast Grigory Antipov fra Orange Labs i Frankrig og et par venner, der har udviklet en dyb-læringsmaskine, der kan udføre arbejdet med lethed. Ikke alene kan deres system få unge ansigter til at se ældre ud, det kan få ældre ansigter til at se yngre ud.



Et par nyere udviklinger har gjort deres opgave lettere. I de senere år har dataloger bygget deep-learning-maskiner, der er i stand til at modificere ansigter på forskellige, men realistiske måder. Denne tilgang kan skabe realistiske syntetiske ansigter, der ser ældre ud.

Der er dog et problem. Ved at få ansigter til at se ældre ud, mister disse dyb-læringsmaskiner ofte personens identitet i processen. Så individet ser ældre ud, men kan ikke længere identificeres.

Antipov og co har fundet på en måde at løse det problem på. Deres tilgang involverer to dyb-læringsmaskiner, der arbejder sammen - en ansigtsgenerator og en ansigtsdiskriminator. Begge maskiner lærer, hvordan ansigter ser ud, når de bliver ældre, ved at analysere fotografier af personer i aldersgrupperne 0-18, 19-29, 30-39, 40-49, 50-59 og 60+ år.

I alt blev maskinerne trænet på 5.000 ansigter i hver gruppe taget fra Internet Movie Database og fra Wikipedia og derefter mærket med personens alder. På denne måde lærer maskinen den karakteristiske signatur af ansigter i hver aldersgruppe. Det er denne abstrakte signatur, som ansigtsgeneratoren så kan anvende på andre ansigter for at få dem til at se samme alder ud.

Anvendelse af denne signatur kan dog nogle gange medføre, at en persons identitet går tabt. Så den anden dybe læringsmaskine – ansigtsdiskriminatoren – kigger på det syntetisk ældede ansigt for at se, om den oprindelige identitet stadig kan udvælges. Hvis det ikke kan, afvises billedet.

Antipov og co kalder deres proces Age Conditional Generative Adversarial Network – modstridende, fordi de dybtlærende maskiner arbejder i opposition.

Resultaterne giver en imponerende læsning. Holdet anvendte teknikken på 10.000 ansigter fra IMDB-Wikipedia-databasen, som de ikke havde brugt til træning. De testede derefter før og efter billederne ved hjælp af software kaldet OpenFace, som kan fortælle, om to billeder viser den samme person eller ej. Dette opdagede det samme ansigt mere end 80 procent af tiden, sammenlignet med omkring 50 procent af tiden for andre ansigtsældningsteknikker.

Og selvfølgelig ælder teknikken ikke kun unge ansigter, men skaber også yngre versioner af ældre ansigter.

Der er en åbenlys test, som holdet ikke har lavet. Formentlig er det muligt at sammenligne ansigter, der syntetisk er blevet yngre, med billeder af det samme ansigt taget, da personen faktisk var yngre. Det ville være en god test af, hvor præcis teknikken er og måske en opgave for fremtiden.

Antipov og co siger, at deres teknik kan bruges i applikationer som at hjælpe med at identificere personer, der har været savnet i mange år. Det kan også være meget sjovt at lege med, hvis de vælger at offentliggøre deres algoritme.

Ref: arxiv.org/abs/1702.01983 : Ansigtsældning med betingede generative modstridende netværk

skjule