Введение в нейронные сети

реклама
Введение в нейронные сети
Лекция 15
Информатика
Гаврилов А.В.
НГТУ, кафедра АППМ
1
Искусственные нейронные сети
• Состоят из слоев искусственных нейронов, взаимосвязанных
между собой
• Имеются входы и выходы сети – входной и выходной векторы
• Сеть учится правильно реагировать на сигналы, поступающие
на входы
• Реализуются аппаратно или программно (чаще)
• Существуют много разных моделей, отличающихся
структурой, особенностями реализации нейронов, методами и
алгоритмами обучения
• Используются для задач распознавания, классификации,
предсказания в системах диагностики, финансового анализа,
мониторинга, интеллектуальных роботах и т.д.
Гаврилов А.В.
НГТУ, кафедра АППМ
2
Искусственный нейрон
x1
x2
xi
xn
w2
w1
S=
wi
∑wx
i i
f(S)
y
wn
f(S) – нелинейная функция, например, пороговая
В этом случае имеем формальный нейрон
МакКаллока-Питтса (предложен в 1948)
Гаврилов А.В.
НГТУ, кафедра АППМ
3
Различные виды активационной
функции нейрона
Пороговая
Линейная
Сигмоидная
Гауссовская
• Рациональная сигмоида
• Экспоненциальная сигмоида
• Гиперболический тангенс
Гаврилов А.В.
НГТУ, кафедра АППМ
4
Виды обучения нейронных сетей
• Обучение с учителем
– Пример при обучении – входной вектор и соответствующий
ему выходной вектор
• Обучение без учителя
– Нейронная сеть занимается кластеризацией (разбиением на
классы) входных векторов с учетом их похожести в
пространстве признаков
• Обучение с учителем-внешней средой
– Нейронная сеть, взаимодействуя с внешней средой,
получает от нее поощрения и наказания, и стремится
уменьшить вероятность поучения наказаний и увеличить поощрений
Гаврилов А.В.
НГТУ, кафедра АППМ
5
Многослойный персептрон
или нейронная сеть прямого распространения
„
Классификация (дискретный набор выходных значений)
„
Регрессия (непрерывные выходные значения)
Гаврилов А.В.
НГТУ, кафедра АППМ
6
Классификация
x2
m
К ласс C1
1
m
2
y1 = y 2
К ласс C2
x1
Гаврилов А.В.
НГТУ, кафедра АППМ
7
Классификация
„
Сеть с одним скрытым слоем, содержащим H нейронов со ступенчатой
функцией активации, способна осуществить произвольную классификацию
Hd точек d-мерного пространства (т.е. классифицировать Hd примеров).
„
Одного скрытого слоя нейронов с сигмоидной функцией активации
достаточно для аппроксимации любой границы между классами со сколь
угодно высокой точностью.
Гаврилов А.В.
НГТУ, кафедра АППМ
8
Регрессия (Аппроксимация)
•
Одного скрытого слоя нейронов с сигмоидной функцией активации достаточно для
аппроксимации любой функции со сколь угодно высокой точностью. (Более того,
такая сеть может одновременно аппроксимировать и саму функцию и ее
производные.)
Точность аппроксимации возрастает с числом нейронов скрытого слоя.
При H нейронах ошибка оценивается как
O(1 H ) .
Гаврилов А.В.
НГТУ, кафедра АППМ
9
Алгоритм обучения нейрона Маккалока-Питтса в
перцептроне Розенблатта (бинарного)
• Случайно выбираются веса wij
• На входы подается обучающий вектор x и
рассчитывается выходной сигнал yi с использованием
пороговой функции
• Если ожидаемое значение di совпадает с yi, то веса не
изменяются
• Если yi=0 и di=1, то wij(t+1)=wij(t)+xj
• Если yi=1 и di=0, то wij(t+1)=wij(t)-xj
• Повторяются шаги, начиная со второго, для новых
примеров
Гаврилов А.В.
НГТУ, кафедра АППМ
10
Правило обучения Видроу-Хоффа
wij(t+1)=wij(t)+xj(di-yi),
где di – желаемый выход,
yi – фактический выход
Задача минимизации целевой функции
(функции ошибки)
p
E = ∑( y
(k )
i
−d
(k )
i
)
2
k =1
P – количество примеров
Гаврилов А.В.
НГТУ, кафедра АППМ
11
Обучение методом обратного
распространения ошибки
wi, j (t +1) = wi, j (t) +rgj xi '
g j = y j (1 − y j )(d j − y j )
g j = x (1 − x ) ∑ g k w jk
'
j
'
j
Для выходного слоя
Для скрытого слоя
k
Гаврилов А.В.
НГТУ, кафедра АППМ
12
Скачать