Слайд 2
![Обучение с учителем Логистическая регрессия Обучение но основе решающих деревьев Random Forest К –ближайших соседей](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-1.jpg)
Обучение с учителем
Логистическая регрессия
Обучение но основе решающих деревьев
Random Forest
К –ближайших соседей
Слайд 3
![Логистическая регрессия Логистическая регрессия –это линейная модель бинарной классификации.](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-2.jpg)
Логистическая регрессия
Логистическая регрессия –это линейная модель бинарной классификации.
Слайд 4
![Логистическая функция (сигмоида)](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-3.jpg)
Логистическая функция (сигмоида)
Слайд 5
![Логистическая регрессия](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-4.jpg)
Слайд 6
![Логистическая регрессия функции стоимости](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-5.jpg)
Логистическая регрессия
функции стоимости
Слайд 7
![Переобучение](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-6.jpg)
Слайд 8
![Переобучение](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-7.jpg)
Слайд 9
![Смещение (bias) и разброс (variance) Разброс (variance) - дисперсия ответов](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-8.jpg)
Смещение (bias) и разброс (variance)
Разброс (variance) - дисперсия ответов алгоритмов Da
Cмещение (bias)
– матожидание разности между истинным ответом и выданным алгоритмом: E(f – a).
Слайд 10
![Смещение (bias) и разброс (variance)](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-9.jpg)
Смещение (bias) и разброс (variance)
Слайд 11
![Переобучение](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-10.jpg)
Слайд 12
![Регуляризация Регуляризация - метод для обработки коллинеарности (высокой корреляции среди](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-11.jpg)
Регуляризация
Регуляризация - метод для обработки коллинеарности (высокой корреляции среди признаков), фильтрации
шума из данных и в конечном счете предотвращения переобучения
Слайд 13
![Регуляризация L2 L1](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-12.jpg)
Слайд 14
![Решающие деревья](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-13.jpg)
Слайд 15
![Максимизация прироста информации](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-14.jpg)
Максимизация прироста информации
Слайд 16
![Меры неоднородности Энтропия Мера неоднородности Джини Ошибка классификации](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-15.jpg)
Меры неоднородности
Энтропия
Мера неоднородности Джини
Ошибка классификации
Слайд 17
![Random Forest (Случайный лес) 1 шаг. Случайным образом выбрать n](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-16.jpg)
Random Forest (Случайный лес)
1 шаг. Случайным образом выбрать n образцов с
возвратом. ( извлечь бутсрап-выборку)
2 шаг. Построить дерево на основе данных образцов по d признаков без возврата.
Агрегировать прогноз на основе большинства голосов
Слайд 18
![K –ближайших соседей](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/302331/slide-17.jpg)