Это будет длиннопост. Я давно хотел написать этот обзор, но [sim0nsays][1] меня [опередил][2], и я решил выждать момент, например как появятся [результаты ImageNet’а][3]. Вот момент настал, но имаджнет не преподнес никаких сюрпризов, кроме того, что на первом месте по классификации находятся китайские эфэсбэшники. Их модель в [лучших традициях кэгла][4] является ансамблем нескольких моделей (Inception, ResNet, Inception ResNet) и обгоняет победителей прошлого всего на полпроцента (кстати, публикации еще нет, и есть мизерный шанс, что там реально что-то новое). Кстати, как видите из результатов имаджнета, что-то пошло не так с добавлением слоев, о чем свидетельствует рост в ширину архитектуры итоговой модели. Может, из нейросетей уже [выжали][5] все что можно? Или NVidia слишком [задрала цены][6] на GPU и тем самым тормозит развитие ИИ? [Зима][7] близко? В общем, на эти вопросы я тут не отвечу. Зато под катом вас ждет много картинок, слоев и танцев с бубном. Подразумевается, что вы уже знакомы с алгоритмом обратного распространения ошибки и понимаете, как работают основные строительные блоки сверточных нейронных сетей: свертки и пулинг.
[Читать дальше →][8]
[1]:
https://habrahabr.ru/users/sim0nsays/
[2]:
https://habrahabr.ru/users/sim0nsays/topics/
[3]:
http://image-net.org/challenges/LSVRC/2016/results
[4]:
http://mlwave.com/kaggle-ensembling-guide/
[5]:
https://www.youtube.com/watch?v=E1XMjIXWKtA
[6]:
https://www.overclockers.ru/hardnews/75464/superkompjuter-nvidia-dgx-1-na-gp100-v-kartinkah.html
[7]:
https://en.wikipedia.org/wiki/AI_winter
[8]:
https://habrahabr.ru/post/311706/?utm_source=habrahabr&utm_medium=rss&utm_campaign=feed_posts#habracut