Шарапов Р.

реклама
18
ЭВОЛЮЦИОННЫЕ АЛГОРИТМЫ: ОЦЕНКА МАТЕМАТИЧЕСКОГО
ОЖИДАНИЯ И ДИСПЕРСИИ1
Р.Р. Шарапов2
2
Уральский государственный университет им А.М. Горького,
620083, г. Екатеринбург, ул. Ленина, 51.
sharp.ra@gmail.com
Рассматривается эволюционный алгоритм с элитарной стратегией отбора,
произвольной рекомбинацией и мутацией, работающий в конечном пространстве
поиска. Для алгоритмов такого типа получена оценка математического ожидания
и дисперсии результата работы алгоритма. Для ряда генетических операторов
оценка конкретизирована.
Введение
Эволюционные
методы
оптимизации
получили довольно широкую популярность
в последнее время как эффективный и
гибкий
инструмент
глобальной
оптимизации. Часто эволюционные методы
используют в сочетании с нейронными
сетями и нечеткими системами. Данные
методы
демонстрируют
неплохую
эффективность
и
довольно
часто
используются в задачах распознавания
образов и обработки изображений.
Эволюционные методы, как это следует из
названия, основываются на идее эволюции:
пул (популяция) потенциальных решений
эволюционирует посредством мутации,
скрещивания и отбора лучших особей. При
этом особь с большим значение целевой
функции (называемой также функцией
приспособленности) имеет большие шансы
на выживание.
Мы рассмотрим подкласс работающих в
конечном
пространстве
поиска
X
алгоритмов следующей структуры
0. инициализация
1. селекция
2. кроссинговер (скрещивание)
3. мутация
4. формирование нового поколения
Шаги
1–4,
называемые
также
генетическими операторами, повторяются
до
выполнения
условий
останова.
Операторы 1, 2 и 3 (реже 4) носят
стохастический характер, как и сам
алгоритм. Таким образом, гарантий того,
что алгоритм найдет решение, нет.
Свойства алгоритмов такого типа хорошо
изучены и показано, что при определенных
условиях данный алгоритм сходится по
вероятности и среднему [1,2].
Здесь мы рассмотрим алгоритм как
последовательность случайных величин и
оценим их математическое ожидание и
дисперсию.
Оценка математического ожидания
Рассмотрим эволюционный алгоритм в
конечном
пространстве
поиска
с
изложенной
выше
структурой.
Для
получения оценки нам нужно, чтобы
оператор мутации обладал следующим
свойством:
x, y : P(mut ( x)  y )    0 .
Т.е. посредством мутации из любого
элемента пространства поиска мы можем
достичь любого другого элемента с
ненулевой вероятностью.
Предложим также, что имеет место
элитарная стратегия отбора, т.е. лучший
элемент из объединения родительской
популяции (перед шагом 1) и дочерней
(после шага 3) всегда попадает в
_____________________________________________________________________________
Работа выполнена при поддержке гранта Президента РФ поддержки ведущих научных
школ НШ-5595.2006.1
1
(1)
19
следующее поколение. Это гарантирует
нам, что от итерации к итерации результат
может только улучшиться.
Прежде чем рассмотреть собственно
математическое
ожидание,
докажем
следующее простое утверждение:
Лемма
Для
произвольного
элемента
y
и
произвольной популяции B, не содержащей
y, выполняется:
P( y  cross ( B))  1  (1  p c ) n ,
(2)
где 2n – число элементов в популяции B,
pc – вероятность скрещивания в паре,
cross(B) – популяция после кроссинговера.
Доказательство
Т.к. пары скрещиваются независимо друг
от
друга
вероятность
того,
что
скрещиваний в парах не будет, равна (1–
pc)n. Т.к. y может появиться только в
результате скрещивания, то вероятность
появления y в популяции, очевидно, не
может
превышать
вероятности
скрещивания в популяции (т.е. вероятности
того, что в популяции произойдет хотя бы
одно скрещивание), которая равна 1–(1–
pc)n.
Данная лемма легко очевидным образом
формулируется и для нечетного числа
элементов в популяции, однако, для
простоты, здесь и далее мы везде
предполагаем, что оно четно и равно 2n, а
число пар, соответственно, n.
Теорема
Если для эволюционного алгоритма с
элитарной стратегией отбора справедливо
(1), f ≥ 0 на X, то
f *  Ef k  f * (1  S k )
S  (1   ) 2 n (1  (1  pc ) n ),
(3)
где f* – искомый максимум функции f на X,
2n – число особей в популяции,
Efk – математическое ожидание результата
работы алгоритма на k-ой итерации.
Доказательство
fk – результат работы алгоритма после k-ой
итерации. Очевидно это дискретная
случайная величина. Тогда
f *  Ef k   p ki f i  f * p k* .
i
(4)
Здесь { fi } = f(X) – множество возможных
исходов работы алгоритма, pik вероятность
того, что fi результат алгоритма после k-ой
итерации. p*k – вероятность нахождения
решения на k-ой итерации.
Далее пусть Ak – событие, состоящее в том,
что на k-ой итерации решение не будет
найдено. Очевидно p*k = 1 – P(Ak). Так как
имеет место элитарная стратегия отбора, то
решение, однажды появившись, исчезнуть
уже не может, следовательно
P ( Ak )  P ( Ak Ak 1 ) P ( Ak 1 ).
(5)
Оценим сверху P(Ak | Ak-1).
Пусть M – событие, состоящее в том, что
после мутации решение не появится, а C –
в том, что решение появится после
кроссинговера, при условии, что его не
было до него. По формуле полной
вероятности
P( Ak Ak 1 )  P( M C ) P(C )
 P( M C ) P(C ) 
(6)
P( M C ) P(C )  P( B C ).
По лемме P(C) ≤ 1 – (1 – pc)n.
По условию (1) P(mut(x)=y) ≥ δ > 0 для
любого y.
Соответственно P(mut(x)≠y) ≤ 1 – δ.
Т.к. в популяции особи мутируют
независимо друг от друга, то для
произвольной популяции B выполняется
P( y  mut( B))  (1   ) 2 n .
(7)
Если в качестве y положить решение x*, а в
качестве B взять популяцию перед
мутацией, то получим
20
P( M C )  (1   ) 2 n
P( M C )  (1   ) .
2n
(8)
Подставляя в (6), получаем
P( A k A k 1 )  (1   ) 2 n (2  (1  p c ) n ) .
(9)
Если теперь обозначить правую часть
неравенства (6) за S, то из (5) по индукции
получаем
P( Ak )  S k P( A0 )  S k
pk*  1  P( Ak )  1  S k .

Оценка дисперсии
Для оценки дисперсии заметим, что при S <
1 справедливо
(11)
Учитывая то, что Efk2 ≤ f*2, получаем
оценку сверху для дисперсии:
2
Df k  Ef k2  ( Ef k ) 2  f * S k (2  S k ) .
(12)
Очевидно, Dfk → 0 при k→ ∞.
Примеры оценок
Рассмотрим случай побитовой и случайной
мутации для эволюционного алгоритма
работающего в пространстве бинарных
строк фиксированной длины X = {0,1}m.
В случае побитовой мутации каждый бит
хромосомы мутирует независимо от других
с вероятностью pmut. Тогда вероятность
мутации равна
k
P(mut ( x)  y )  p mut
(1  p mut ) m  k ,
p mut
 0.
M
(15)
Заключение
Заметим, что из S < 1 следует сходимость
по среднему.
2
(14)
Таким образом, для побитовой мутации δ =
(pmut)m > 0.
Случай
классического
генетического алгоритма с побитовой
мутацией и одноточечным кроссинговером
подробно разобран в [3].
Случайная мутация предполагает, что с
вероятностью pmut исходная особь будет
заменена некоторой случайно выбранной
особью. Очевидно, что если мощность
пространства поиска |X| = M, то
(10)
Отсюда из (4) получаем (3).
( Ef k ) 2  (1  S k ) 2 f * .
k
mk
m
.
P(mut ( x)  y )  p mut
p mut
 p mut
(13)
где k – количество несовпадающих бит у x
и y (0 ≤ k ≤ m).
В предположении, что 0 < pmut ≤ 0.5,
получаем
Заметим, что рассуждения, примененные
для
кроссинговера,
верны
для
произвольного генетического оператора,
выполняемого с некоторой вероятностью
pc. Более того, данный результат легко
обобщить на случай последовательности
генетических операторов.
Другое
следствие,
непосредственно
вытекающее из (3), состоит в том, что
наиболее эффективным будет алгоритм
вообще без кроссинговера, т.к. min{S | 0 ≤
pc ≤ 1} достигается при pc = 0. В этом
случае S = (1 – δ)2n < 1.
Несомненный
интерес
представляет
получение подобного рода оценок для
эволюционных
алгоритмов
с
континуальным пространством поиска.
Список литературы
1. T.E. Davis. Toward an extrapolation of the
simulated annealing convergence theory onto the
simple genetic algorithm // PhD Thesis, University
of Florida, Gainesville, 1991.
2. G. Rudolph. Finite Markov Chain Results in
Evolutionary Computation: A Tour d’Horizon //
Fundamenta Informaticae. – 1998. – Vol.22, No.1.
3. R.R. Sharapov, A.V. Lapshin. Convergence of
genetic algorithms // Pattern Recognition and Image
Analysis: Advances in Mathematical Theory and
Applications. - 2006. - Vol. 16, No.3. - P. 392-397.
Скачать