![image][1]
Я размышлял, в основном с точки зрения преподавателя, о том, как научить отлаживать модели машинного обучения. Лично мне кажется полезным рассмотреть модель с точки зрения ошибок разного рода: байесовская ошибка (насколько ошибочен лучший из возможных классификаторов), ошибка аппроксимации (что мы потеряем из-за ограничения класса гипотезы), ошибка оценки (связанная с ограниченной длиной выборки), ошибка оптимизации (что случится, если не найти глобальный оптимум для задачи оптимизации). Я понял, что полезно попытаться отнести ошибку к определенной области, а потом устранять недостатки в этой конкретной области. [Читать дальше →][2]
[1]:
https://habrastorage.org/getpro/habr/post_images/dea/2d3/c36/dea2d3c36b7130ad7a3666d7c1a3ffa6.jpg
[2]:
https://habrahabr.ru/post/320482/?utm_source=habrahabr&utm_medium=rss&utm_campaign=feed_posts#habracut