Слайд 2
![](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-1.jpg)
Слайд 3
![](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-2.jpg)
Слайд 4
![](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-3.jpg)
Слайд 5
![](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-4.jpg)
Слайд 6
![](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-5.jpg)
Слайд 7
![](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-6.jpg)
Слайд 8
![](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-7.jpg)
Слайд 9
![](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-8.jpg)
Слайд 10
![Градиентный спуск Нормализация признаков](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-9.jpg)
Градиентный спуск
Нормализация признаков
Слайд 11
![Выбор α](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-10.jpg)
Слайд 12
![Локальный минимум Возможное решение: запускать несколько раз стартуя с разных значений](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-11.jpg)
Локальный минимум
Возможное решение: запускать несколько раз стартуя с разных значений
Слайд 13
![Итого градиентный спуск. -подбор многих параметров -learning rate -максимальное число](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-12.jpg)
Итого градиентный спуск.
-подбор многих параметров
-learning rate
-максимальное число итераций
-условие сходимости
-стартовые параметры (сетка)
-легко
реализуем
-хорошо работает на больших выборках
-нет уверенности в том что выдал minimum функции
Подходит для большинства моделей.
Используется (с некоторыми усовершенствованиями) в том числе нейронных сетях.
Слайд 14
![](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/52795/slide-13.jpg)