- Hvad er Minibatch -diskrimination?
- Hvordan forhindrer du, at tilstands -GAN'er kollapser?
- Hvordan kan jeg forbedre min GAN -træning?
- Hvorfor er GAN ustabil?
Hvad er Minibatch -diskrimination?
Minibatch -diskrimination er en diskriminerende teknik til generative kontradiktoriske netværk, hvor vi diskriminerer mellem hele minibatches af prøver frem for mellem individuelle prøver. Dette er beregnet til at undgå sammenbrud af generatoren.
Hvordan forhindrer du, at tilstands -GAN'er kollapser?
En omhyggeligt tunnlet indlæringshastighed kan afbøde nogle alvorlige GAN's problemer som modekollaps. Særligt, sænk læringshastigheden og gentag træningen, når tilstandskollaps sker. Vi kan også eksperimentere med forskellige læringshastigheder for generatoren og diskriminatoren.
Hvordan kan jeg forbedre min GAN -træning?
Yderligere tips og tricks
- Funktionstilpasning. Udvikl et GAN ved hjælp af semi-supervised learning.
- Minibatch -diskrimination. Udvikl funktioner på tværs af flere prøver i en minibatch.
- Historisk gennemsnit. Opdater tabsfunktionen for at indarbejde historie.
- Ensidig etiketudjævning. ...
- Virtual batch normalisering.
Hvorfor er GAN ustabil?
Den omstændighed, at GAN'er er sammensat af to netværk, og hver af dem har sin tabsfunktion, resulterer i, at GAN'er iboende er ustabile- dykker lidt dybere ned i problemet, Generator (G) -tabet kan føre til GAN-ustabilitet , som kan være årsagen til gradient forsvindende problem, når ...