* Часть 1: [ Введение ][1]
* Часть 2: [ _Manifold learning_ и скрытые (_latent_) переменные ][2]
* Часть 3: [Вариационные автоэнкодеры (_VAE_) ][3]
* **Часть 4: Conditional VAE**
* Часть 5: _GAN_ (Generative Adversarial Networks) и tensorflow
* Часть 6: _VAE_ + _GAN_
В [ прошлой части ][4] мы познакомились с **вариационными автоэнкодерами (VAE)**, реализовали такой на _keras_, а также поняли, как с его помощью генерировать изображения. Получившаяся модель, однако, обладала некоторыми недостатками:
1. Не все цифры получилось хорошо закодировать в скрытом пространстве: некоторые цифры либо вообще отсутствовали, либо были очень смазанными. В промежутках между областями, в которых были сконцентрированы варианты одной и той же цифры, находились вообще какие-то бессмысленные иероглифы.
Что тут писать, вот так выглядели сгенерированные цифры:
**Картинка**
2. Сложно было генерировать картинку какой-то заданной цифры. Для этого надо было смотреть, в какую область латентного пространства попадали изображения конкретной цифры, и сэмплить уже откуда-то оттуда, а тем более было сложно генерировать цифру в каком-то заданном стиле.
В этой части мы посмотрим, как можно лишь совсем немного усложнив модель преодолеть обе эти проблемы, и заодно получим возможность генерировать картинки новых цифр в стиле другой цифры – это, наверное, самая интересная фича будущей модели.
[Читать дальше →][5]
[1]:
https://habrahabr.ru/post/331382/
[2]:
https://habrahabr.ru/post/331500/
[3]:
https://habrahabr.ru/post/331552/
[4]:
https://habrahabr.ru/post/331552/
[5]:
https://habrahabr.ru/post/331664/?utm_source=habrahabr&utm_medium=rss&utm_campaign=feed_posts#habracut