Машинное обучение. Нейронные сети презентация

Содержание

Слайд 6

Нейронные сети

Модель ЦНС
Линейная функция с нелинейным «принятием решения»
Удобное метод «подбора» коэффициентов линейной функции
Удобный

инструмент обучения

Слайд 7

НС. Применение

Гибкая модель для аппроксимации многомерных функций.
Средство прогнозирования во времени процессов, зависящих от

большого количества переменных.
Средство распознавания образов
Инструмент для поиска по ассоциациям
Модель для поиска закономерностей в массивах данных

Слайд 8

НС. Базисы

1) ЦНС высших млекопитающих состоит из клеток — нейрон связанных друг с

другом из всевозможными клетками рецепторами (зрительные, слуховые, тд). Общее количество таких клеток порядка 10^10.
Связь между нейронами осуществляется с помощью контактов — сИнапсы.
Сила связи между двумя нейронами пропорциональна концентрации вещества — нейромедиатор.
Деятельность головного мозга высших млекопитающих представляет собой пребывание в возбуждённом состоянии.
Нейрон становиться активным, тогда. когда количество активных нейронов связанных синапсами превышает определенный порог.

Слайд 9

НС. Базисы

2) Концепция обучения.
В процессе обучения с помощью резких внешних стимулов существенно корректируется

картина мира записанная в голове.
Таким образом для осуществления обучения мы должны иметь набор векторов характеризующих картину мира и все возможные реакции на нашу действительность.
Такой набор векторов получил название — обучающая выборка.
Чем более адекватная картина мира записанная в нейронах головного мозга, тем меньше истинная реакция окружающей среды будет отличаться от реакции предсказания.
С нейрофизиологической точки зрение обучение может происходить двояко, это отмирание связей и изменение силы связи.

Слайд 10

Биомодель нейрона

Слайд 15

Функции активации

Жесткая ступенька

Слайд 16

Функции активации

Сигмоида (функция Ферми)

Слайд 17

Функции активации

Гиперболический тангенс

Слайд 18

Функции активации

SOFTMAX

Слайд 19

Функции активации

Слайд 20

НС. Ограничения

Вычисления нейрона происходят мгновенно, не внося задержку.
Нет четких алгоритмов для выбора функции

активации.
Нет механизмов регулирующих работу сети в целом, на подобии гормональной регуляции активности в нервных клетках.
Модель формального нейрона не является биоподобной и это скорее математическая абстракция.

Слайд 21

Персептрон Розенблата

Слайд 22

Персептрон. Обучение

при синхронном возбуждении двух связанных нервных клеток синаптическая связь между ними усиливается.


Чем чаще синапс угадывает правильный ответ, тем сильнее становится связь.
Если же синапс начинает часто ошибаться или вообще перестаёт использоваться, связь ослабевает, информация начинается забываться.

Слайд 23

Персептрон. Обучение

Перед началом обучения вектор весов некоторым способом инициализируется, например, заполняется нулевыми или

случайными значениями. Затем обучающие объекты xi по очереди подаются на вход модели МакКаллока–Питтса, и выданные ответы сравниваются с правильными.
Если ответ a(xi) совпадает с yi, то вектор весов не изменяется.
Если a(xi) = 0 и yi = 1, то вектор весов w увеличивается..
Поэтому можно положить w := w + ηxi, где η некоторая положительная константа, называемая темпом обучения (learning rate).
Если a(xi) = 1 и yi = 0, то вектор весов уменьшается: w := w − ηxi.

Слайд 24

Персептрон. Обучение

Слайд 25

Персептрон. Обучение

Пусть классы помечены числами −1 и 1, а нейрон выдаёт знак скалярного

произведения:
a(x) = sign().
Правило Хэбба
yi < 0, то w := w + ηxiyi (меняем шаг 4)

Слайд 26

Персептрон. Обучение

Слайд 27

Персептрон. Логическое ИЛИ

Слайд 28

Персептрон. Искл. ИЛИ

Слайд 29

Многослойный персептрон

Имя файла: Машинное-обучение.-Нейронные-сети.pptx
Количество просмотров: 67
Количество скачиваний: 0