* Часть 1: [ Введение ][1] 
* Часть 2: [ _Manifold learning_ и скрытые (_latent_) переменные ][2] 
* Часть 3: [Вариационные автоэнкодеры (_VAE_) ][3] 
* **Часть 4: Conditional VAE** 
* Часть 5: _GAN_ (Generative Adversarial Networks) и tensorflow 
* Часть 6: _VAE_ + _GAN_ 
 
 В [ прошлой части ][4] мы познакомились с **вариационными автоэнкодерами (VAE)**, реализовали такой на _keras_, а также поняли, как с его помощью генерировать изображения. Получившаяся модель, однако, обладала некоторыми недостатками: 
 
1. Не все цифры получилось хорошо закодировать в скрытом пространстве: некоторые цифры либо вообще отсутствовали, либо были очень смазанными. В промежутках между областями, в которых были сконцентрированы варианты одной и той же цифры, находились вообще какие-то бессмысленные иероглифы. 
 Что тут писать, вот так выглядели сгенерированные цифры: 
**Картинка**
 
 
2. Сложно было генерировать картинку какой-то заданной цифры. Для этого надо было смотреть, в какую область латентного пространства попадали изображения конкретной цифры, и сэмплить уже откуда-то оттуда, а тем более было сложно генерировать цифру в каком-то заданном стиле. 
 
 В этой части мы посмотрим, как можно лишь совсем немного усложнив модель преодолеть обе эти проблемы, и заодно получим возможность генерировать картинки новых цифр в стиле другой цифры – это, наверное, самая интересная фича будущей модели. 
 
 
[Читать дальше →][5]
  [1]: 
https://habrahabr.ru/post/331382/
  [2]: 
https://habrahabr.ru/post/331500/
  [3]: 
https://habrahabr.ru/post/331552/
  [4]: 
https://habrahabr.ru/post/331552/
  [5]: 
https://habrahabr.ru/post/331664/?utm_source=habrahabr&utm_medium=rss&utm_campaign=feed_posts#habracut