* **Часть 1: Введение**
* [Часть 2: _Manifold learning_ и скрытые (_latent_) переменные][1]
* Часть 3: Вариационные автоэнкодеры (_VAE_)
* Часть 4: _Conditional VAE_
* Часть 5: _GAN_ (Generative Adversarial Networks) и tensorflow
* Часть 6: _VAE_ + _GAN_
Во время погружения в _Deep Learning_ зацепила меня тема автоэнкодеров, особенно с точки зрения генерации новых объектов. Стремясь улучшить качество генерации, читал различные блоги и литературу на тему генеративных подходов. В результате набравшийся опыт решил облечь в небольшую серию статей, в которой постарался кратко и с примерами описать все те проблемные места с которыми сталкивался сам, заодно вводя в синтаксис _Keras_.
**_Автоэнкодеры_** — это нейронные сети прямого распространения, которые восстанавливают входной сигнал на выходе. Внутри у них имеется скрытый слой, который представляет собой _код_, описывающий модель. _Автоэнкодеры_ конструируются таким образом, чтобы не иметь возможность точно скопировать вход на выходе. Обычно их ограничивают в размерности _кода_ (он меньше, чем размерность сигнала) или штрафуют за активации в _коде_. Входной сигнал восстанавливается с ошибками из-за потерь при кодировании, но, чтобы их минимизировать, сеть вынуждена учиться отбирать наиболее важные признаки.
![][2]
Кому интересно, добро пожаловать под кат
[Читать дальше →][3]
[1]:
https://habrahabr.ru/post/331500/
[2]:
https://habrastorage.org/web/cf6/228/613/cf6228613fdc4f8fb819cbd41bb677eb.png
[3]:
https://habrahabr.ru/post/331382/?utm_source=habrahabr&utm_medium=rss&utm_campaign=feed_posts#habracut