Обратное распространение ошибки. Практика презентация

Содержание

Слайд 2

Нейронная сеть Число слоев/число нейронов по слоям Обратные связи Активационные

Нейронная сеть

Число слоев/число нейронов по слоям
Обратные связи
Активационные функции
Число входов
Число выходов
Алгоритм настройки

весов(обучения)
Тип задачи, решаемой сетью
Слайд 3

Режимы функционирования нейросетей Обучение Работа

Режимы функционирования нейросетей

Обучение
Работа

Слайд 4

Виды обучения С учителем T={(Xi,di)}, i=1,N Xi- входной вектор di

Виды обучения

С учителем
T={(Xi,di)}, i=1,N
Xi- входной вектор
di – выходной вектор
Без учителя
T={Xi}, i=1,N
Xi-

входной вектор
Слайд 5

Однослойная сеть y1 y2 yp Слой 1

Однослойная сеть

y1

y2

yp

Слой 1

Слайд 6

Многослойная сеть (2 слоя) yk Слой 1 Слой 2 Слой

Многослойная сеть (2 слоя)

yk

Слой 1

Слой 2

Слой 0

W1

W2

1

2

m

1

2

k

x1

x2

xn

Слайд 7

Слой нейросети Группа нейронов сети: Общие функции (задачи) Общие внешние связи Общие входы Зачем выделять слой?

Слой нейросети

Группа нейронов сети:
Общие функции (задачи)
Общие внешние связи
Общие входы
Зачем выделять слой?

Слайд 8

Сеть прямого распространения 1 2 i m x1 x2 x3 y1 ym Слой 0 Слой 1

Сеть прямого распространения

1

2

i

m

x1 x2 x3

y1 ym

Слой 0
Слой 1

Слайд 9

Многослойная сеть прямого распространения (к слоев)

Многослойная сеть прямого распространения (к слоев)

Слайд 10

Обратное распространение ошибки

Обратное распространение ошибки

Слайд 11

Фрагмент сети ej E(n) Yi(n) Yj(n) Si(n) скрытый скрытый слой p-2 слой p-1 Слой p

Фрагмент сети

ej

E(n)

Yi(n)

Yj(n)

Si(n)

скрытый скрытый
слой p-2 слой p-1

Слой p

Слайд 12

Обучение по ошибке Глобальная задача – сложная. E(n)=Σej(n)2 ej(n)=Dj-Yj(n) Зависит от всех настраиваемых параметров.

Обучение по ошибке
Глобальная задача – сложная.
E(n)=Σej(n)2
ej(n)=Dj-Yj(n)
Зависит от всех настраиваемых параметров.

Слайд 13

Функции пакета Neural NetWork ToolBox MatLab net = newff([0 8],[2

Функции пакета Neural NetWork ToolBox MatLab

net = newff([0 8],[2 1],{'tansig' ‘purelin'},'trainlm');
net=train(net,p,t);
y2

= sim(net,p)
lab3_prim.m
Слайд 14

Алгоритмы TRAINCGB TRAINBFG TRAINOSS TRAINGD TRAINRP TRAINLM

Алгоритмы
TRAINCGB
TRAINBFG
TRAINOSS
TRAINGD
TRAINRP
TRAINLM

Слайд 15

Neural Network object architecture numInputs: 1 numLayers: 2 biasConnect: [1;

Neural Network object architecture

numInputs: 1
numLayers: 2
biasConnect: [1; 1]

inputConnect: [1; 0]
layerConnect: [0 0; 1 0]
outputConnect: [0 1]
targetConnect: [0 1]
Слайд 16

numOutputs: 1 (read-only) numTargets: 1 (read-only) numInputDelays: 0 (read-only) numLayerDelays: 0 (read-only)

numOutputs: 1 (read-only)
numTargets: 1 (read-only)
numInputDelays: 0 (read-only)
numLayerDelays: 0 (read-only)

Слайд 17

subobject structures: inputs: {1x1 cell} of inputs layers: {2x1 cell}

subobject structures:

inputs: {1x1 cell} of inputs
layers: {2x1 cell} of

layers
outputs: {1x2 cell} containing 1 output
targets: {1x2 cell} containing 1 target
biases: {2x1 cell} containing 2 biases
inputWeights: {2x1 cell} containing 1 input weight
layerWeights: {2x2 cell} containing 1 layer weight
Слайд 18

functions: adaptFcn: 'trains' initFcn: 'initlay' performFcn: 'mse' trainFcn: 'trainlm'

functions:
adaptFcn: 'trains'
initFcn: 'initlay'
performFcn: 'mse'
trainFcn: 'trainlm'

Слайд 19

trainParam: .epochs, .goal, .show, .time

trainParam:

.epochs,
.goal,
.show,
.time

Слайд 20

weight and bias values: IW: {2x1 cell} containing 1 input

weight and bias values:
IW: {2x1 cell} containing 1 input weight matrix
LW:

{2x2 cell} containing 1 layer weight matrix
b: {2x1 cell} containing 2 bias vectors
Слайд 21

Ошибка обучения (Р, Т) – обучающая выборка Р – входные

Ошибка обучения

(Р, Т) – обучающая выборка
Р – входные вектора
Т – выходные

вектора
net – нейронная сеть
Y=sim(net, P) – выходы сети
Средняя Абсолютная ошибка обучения
Е_обучения =mean(abs(Y-T))
Слайд 22

Ошибка обучения (Р, Т) – обучающая выборка Р – входные

Ошибка обучения

(Р, Т) – обучающая выборка
Р – входные вектора
Т – выходные

вектора {-1, 1}
N – число обучающих пар
net – нейронная сеть
Y=sim(net, P) – выходы сети
Ошибка классификации обучения
Е_обучения_cls =sum((sign(Y)=~T))/N
Слайд 23

Ошибка обобщения (теста) (Р_тест, Т_тест) – тест выборка Р_тест –

Ошибка обобщения (теста)

(Р_тест, Т_тест) – тест выборка
Р_тест – входные вектора
Т_тест –

выходные вектора
net – нейронная сеть
Y_тест=sim(net, P_тест) – выходы сети
Средняя Абсолютная ошибка обучения
Е_тест =mean(abs(Y_тест-T_тест))
Слайд 24

Ошибка обобщения (Р_тест, Т_тест) – тест выборка Р_тест – входные

Ошибка обобщения

(Р_тест, Т_тест) – тест выборка
Р_тест – входные вектора
Т_тест – выходные

вектора {-1, 1}
N – число тестовых пар
net – нейронная сеть
Y_тест=sim(net, P_тест) – выходы сети
Ошибка классификации обучения
Е_тест_cls =sum(abs(sign(Y_тест)-T_тест))/N
Слайд 25

Обучение сети. lab3_prim_2.m 3 – нелинейных нейрона, градиентный алгоритм Целевое состояние Обучение Без Обучения

Обучение сети. lab3_prim_2.m

3 – нелинейных нейрона, градиентный алгоритм

Целевое состояние

Обучение


Без Обучения

Слайд 26

Обучение сети 8 – нелинейных нейронов, градиентный алгоритм Целевое состояние Обучение Без Обучения

Обучение сети

8 – нелинейных нейронов, градиентный алгоритм

Целевое состояние

Обучение


Без Обучения

Слайд 27

Обучение сети 8 – нелинейных нейронов, градиентный алгоритм Целевое состояние Обучение Без Обучения

Обучение сети

8 – нелинейных нейронов, градиентный алгоритм

Целевое состояние

Обучение


Без Обучения

Слайд 28

Добавим обучения net_train2.m

Добавим обучения net_train2.m

Слайд 29

Слайд 30

Слайд 31

Слайд 32

Обучение сети 8 – нелинейных нейронов, сопряженно-градиентный алгоритм, 100 эпох Целевое состояние Обучение Без Обучения

Обучение сети

8 – нелинейных нейронов, сопряженно-градиентный алгоритм, 100 эпох

Целевое

состояние

Обучение

Без Обучения

Слайд 33

Обучение сети 8 – нелинейных нейронов, сопряженно-градиентный алгоритм, 600 эпох Целевое состояние Обучение Без Обучения

Обучение сети

8 – нелинейных нейронов, сопряженно-градиентный алгоритм, 600 эпох

Целевое

состояние

Обучение

Без Обучения

Слайд 34

Классификатор. newffLm.m

Классификатор. newffLm.m

Слайд 35

Траектория весов

Траектория весов

Слайд 36

результаты ошибка Y_net, T

результаты

ошибка

Y_net, T

Слайд 37

Проблемы Локальные минимумы Переобучение Паралич сети Устойчивость/пластичность

Проблемы

Локальные минимумы
Переобучение
Паралич сети
Устойчивость/пластичность

Имя файла: Обратное-распространение-ошибки.-Практика.pptx
Количество просмотров: 59
Количество скачиваний: 0