[#] Математика для искусственных нейронных сетей для новичков, часть 2 — градиентный спуск
habrabot(difrex,1) — All
2016-08-08 12:00:03


[Часть 1 — линейная регрессия][1]

В первой части я забыл упомянуть, что если случайно сгенерированные данные не по душе, то можно взять любой подходящий пример [отсюда][2]. Можно почувствовать себя [ботаником][3], [виноделом][4], [продавцом][5]. И все это не вставая со стула. В наличии множество наборов данных и одно [условие ][6] — при публикации указывать откуда взял данные, чтобы другие смогли воспроизвести результаты.


#### Градиентный спуск


В прошлой части был показан пример вычисления параметров линейной регрессии с помощью метода наименьших квадратов. Параметры были найдены аналитически — ![][7], где ![][8] — псевдообратная матрица. Это решение наглядное, точное и короткое. Но есть проблема, которую можно решить численно. Градиентный спуск — метод численной оптимизации, который может быть использован во многих алгоритмах, где требуется найти экстремум функции — нейронные сети, SVM, k-средних, регрессии. Однако проще его воспринять в чистом виде (и проще модифицировать).
[Читать дальше →][9]

[1]: https://habrahabr.ru/post/307004/
[2]: http://archive.ics.uci.edu/ml/datasets.html
[3]: http://archive.ics.uci.edu/ml/datasets/Iris
[4]: http://archive.ics.uci.edu/ml/datasets/Wine
[5]: http://archive.ics.uci.edu/ml/datasets/Online+Retail
[6]: http://archive.ics.uci.edu/ml/citation_policy.html
[7]: https://habrastorage.org/files/81a/74a/133/81a74a133511412cb86b9662f71973c3.png
[8]: https://habrastorage.org/files/d3f/9fa/906/d3f9fa90602d483faabc47523b69ed77.png
[9]: https://habrahabr.ru/post/307312/?utm_source=habrahabr&utm_medium=rss&utm_campaign=feed_posts#habracut