[Часть 1 — линейная регрессия][1]
В первой части я забыл упомянуть, что если случайно сгенерированные данные не по душе, то можно взять любой подходящий пример [отсюда][2]. Можно почувствовать себя [ботаником][3], [виноделом][4], [продавцом][5]. И все это не вставая со стула. В наличии множество наборов данных и одно [условие ][6] — при публикации указывать откуда взял данные, чтобы другие смогли воспроизвести результаты.
#### Градиентный спуск
В прошлой части был показан пример вычисления параметров линейной регрессии с помощью метода наименьших квадратов. Параметры были найдены аналитически — ![][7], где ![][8] — псевдообратная матрица. Это решение наглядное, точное и короткое. Но есть проблема, которую можно решить численно. Градиентный спуск — метод численной оптимизации, который может быть использован во многих алгоритмах, где требуется найти экстремум функции — нейронные сети, SVM, k-средних, регрессии. Однако проще его воспринять в чистом виде (и проще модифицировать).
[Читать дальше →][9]
[1]:
https://habrahabr.ru/post/307004/
[2]:
http://archive.ics.uci.edu/ml/datasets.html
[3]:
http://archive.ics.uci.edu/ml/datasets/Iris
[4]:
http://archive.ics.uci.edu/ml/datasets/Wine
[5]:
http://archive.ics.uci.edu/ml/datasets/Online+Retail
[6]:
http://archive.ics.uci.edu/ml/citation_policy.html
[7]:
https://habrastorage.org/files/81a/74a/133/81a74a133511412cb86b9662f71973c3.png
[8]:
https://habrastorage.org/files/d3f/9fa/906/d3f9fa90602d483faabc47523b69ed77.png
[9]:
https://habrahabr.ru/post/307312/?utm_source=habrahabr&utm_medium=rss&utm_campaign=feed_posts#habracut