Введение в байесовские сети

реклама
Алгоритмы для Интернета, ИТМО & СПбГУ
С.-Петербург, 26 октября 2006
Рук. семинара Ю.М. Лифшиц
ВВЕДЕНИЕ В БАЙЕСОВСКИЕ СЕТИ
Логико-вероятностная модель баз фрагментов знаний
с неопределенностью
Александр Львович Тулупьев
ведущий научный сотрудник
лаборатория прикладной информатики
Санкт-Петербургский институт информатики и автоматизации РАН
вице-президент Российской ассоциации нечетких систем и мягких
вычислений
ALT@iias.spb.su
Александр Владимирович Сироткин
аспирант
лаборатория прикладной информатики
Санкт-Петербургский институт информатики и автоматизации РАН
1
avs@iias.spb.su
ПЛАН








БС — что это
БС — праксис и генезис
Вероятностная логика
Фрагменты знаний (ФЗ)
Алгебраические байесовские сети
Байесовские сети доверия
БС — дидактическое применение
БС — монография
2
ПЛАН








БС — что это
БС — праксис и генезис
Вероятностная логика
Фрагменты знаний (ФЗ)
Алгебраические байесовские сети
Байесовские сети доверия
БС — дидактическое применение
БС — монография
3
Идеологическое определение

Байесовские сети --- это
графические структуры для
представления вероятностных
отношений между большим
количеством переменных и для
осуществления вероятностного
вывода на основе этих
переменных.
Learning Bayesian Networks
Neapolitan R.E., 2004
4
Уточнение-1

Предположение, лежащее в
основе любой вероятностной сети,
заключается в том, что, в то время
как общая проблема чересчур
сложна для применения наивных
методов вычисления и обновления
вероятностей…, отдельные клики…
имеют приемлемый, разумный
размер…
Probabilistic Networks and Expert Systems
Cowell R.G. et al., 2004
5
Уточнение-2

…В частности, мы предполагаем,
что можем производить
(пользуясь, например, «грубой
силой», т.е. подходом по
определению) любые желаемые
операции, такие, как
маргинализацию или нормировку,
внутри любой клики, но
необязательно непосредственно
для всей сети сразу…
Probabilistic Networks and Expert Systems
Cowell R.G. et al., 2004
6
Уточнение-3

Наша цель --- использовать
структуру сети для того, чтобы
распространить такие вычисления
на полный набор переменных.
Probabilistic Networks and Expert Systems
Cowell R.G. et al., 2004
7
Цель --
представить распределение
вероятностей (или их семейство) над
(большим числом) переменных, в
общем виде выглядящее как
~
~
~
p( x1  x2   xn )
~
~
~
P  p( x1  x2   xn ) | 
8
И допускающее декомпозицию
~
~
~
p( x1x2  xn )
~
p( xi )
~
~
p( x i x j )
~
~
~
p( x i x j x k )
~
p( xi )
~
~
p( x i | x j )
~
~
~
p( x i | x j x k )
9
Байесовские сети доверия
p(t )  0.01
1
p(u | t )  0.16
t
Компьютер упал
со стола
u
На жестком
диске появились
дефектные
секторы
p(w | uv )  0.95
p(w | uv )  0.25
p(w | u v )  0.9
p(w | u v )  0.02
3
p(v | t )  0.1
p(v | t )  0.001
p(u | t )  0.05
2
v
Нарушен один
из контактов
блока питания
2
1
1
3
3
2
w
Компьютер
не загружается
p( x | u )  0.2
p( x | u )  0.025
x
При диагностике
логический диск
недоступен
p( y | w )  0.4
p( y | w )  0.001
y
На экране
монитора нет
изображения
p( z | v )  0.99
p( z | v )  0.001
z
Индикатор
питания
не горит
10
Алгебраические байесовские сети
tuv
uvw
x1x2x3
tv
tu
uv
wv
tv
wy
x1 x 2
u
t
v
x2x3x4
x2x3
x1x3
x2x4
x3x4
y
w
vz
ux
x
z
t
x1
x4
x3
x2
x1x2x3
tu
u
x
tv
w
z
v
x1 x 2
ux
uv
wu
wuv
y
x1x3
x2x3
x3x4
vz
wv
wy
x1
x2
x3
11 x4
АБС (графы и деревья смежности)
<x1, x2>
<x1, x2>
<x1, x2, x3>
<x2>
<x1>
<x2, x3>
<x2, x3>
<x1, x3>
<x1, x2, x3>
<x1>
<x2, x3, x4>
<x2, x3, x4>
<x1, x4>
<x3, x4>
<x2>
<x1, x2>
<x2, x3>
<x1>
<x3, x4, x5>
<x4, x5>
<x4, x5, x6>
<x2, x3>
<x3>
<x1, x3>
12
ПЛАН








БС — что это
БС — праксис и генезис
Вероятностная логика
Фрагменты знаний (ФЗ)
Алгебраические байесовские сети
Байесовские сети доверия
БС — дидактическое применение
БС — монография
13
Почему БС востребованы



ИИ (МВ): знания с неопределенностью,
фрагменты знаний, базы фрагментов
знаний
Статистика: много переменных, связи
всех со всеми неописуемые и
неоцениваемые, зато отдельные
скопления можно неплохо
охарактеризовать
Техника: декомпозируемость систем,
знание свойств элементов и связей
между ними
14
Что предшествовало


Анализ родословных для поиска
источника и путей передачи
генетических аномалий.
Представление результатов
статистических наблюдений, когда
наблюдаемых переменных очень
много, но их удается разбить на
условно независимые наборы.
15
БС применяются в медицине


Для быстрой постановки диагноза,
чтобы выбрать правильное
учреждение для госпитализации
Для дифференциальной
диагностики заболеваний,
симптоматические проявления
которых сходны [но не совпадают
полностью]
16
БС применяются в технологических
процессах





Для диагностики отказов и
дефектов
В драйверах принтеров
Для анализа результатов
тестирования ПО
Для оптимизации запросов в БД
Для представления результатов
data mining
17
БС применяются в научных
исследованиях



Диагностика концентрации уровня
кислорода в озере (PhD Thesis!)
Геномика и биоинформатика
Все то же представление
результатов статистической
обработки
18
Потенциальная применимость БС

Теория надежности структурно сложных систем
(ЛВМ --- адм. И.А. Рябинин)
x1
x1
b
x2
x3
x4
x2
x3
x1
x3
b
e
b
e
x5
s3
x4
x1
x2
x3
s2
x2
e
x3
x1
x1x3
x4
s1
x2
x1x2
x2x3
x1x2x3
19
БС в учебном процессе


Подробнее --- немного позже.
Основное



Комбинирование и актуализация
знаний из нескольких дисциплин;
Все объекты и предметы
исследования «под рукой»;
Полигон для применения
программных технологий.
20
Немного об истории




Логика (от Аристотеля и раньше);
Вероятностная логика (от Дж. Буля
и позже); в ИИ удачно ввел Н.
Нильссон в 1986; различные
формализации, мы пользуемся
Хальперном, Фагином и Меггиддо;
Байесовские сети (БСД – Дж. Пиэрл,
АБС – В.И. Городецкий), еще и
марковские сети (???);
история этим не исчерпывается;
смежные дисциплины...
21
Немного об особенностях



Очень большой упор на графическое
представление отношений независимости и
условной независимости.
Стремление избежать обсуждения тех проблем,
решения которых они не знают (подмена
циклов последовательностью фрагментов
знаний, …)
А нам бы о представлении данных хотелось бы
поговорить побольше, непротиворечивость
посмотреть, алгоритмы вывода выписать и
сделать понятными, на доступные программные
технологии опереться.
22
БСД: литература


Статьи
Pearl J. (1985). How to Do with Probabilities what People Say You Can't. Artificial Intelligence
Applications. Ed. Weisbin C.R., IEEE, North Holland, pp. 6--12.

Pearl J. (1986). Fusion, Propagation, and Structuring in Belief Networks. Artificial Intelligence,
vol. 29. Elsevier Science Publishers B.V., North Holland, pp. 241--288.

Pearl J. (1986a). Constraint-Propagation Approach to Probabilistic Reasoning. Machine
Intelligence & Pattern Recognition (Uncertainty in Artificial Intelligence). Eds. Kanal L.N.,
Lemmer J.F. Vol. 4, Elsevier Science Publishers B.V., North Holland, pp. 357--369.

Pearl J. (1986b). On Evidentional Reasoning in Hierarchy of Hypotheses. Artificial Intelligence,
vol. 28. Elsevier Science Publishers B.V., North Holland, pp. 9--15.

Pearl J. (1986c). Distributed Revision of Composite Beliefs. Artificial Intelligence, vol. 33.
Elsevier Science Publishers B.V., North Holland, pp. 173--215.


Монографии
Pearl J. (1988). Probabilistic Reasoning in Intelligent Systems. Morgan Kaufmann Publishers,
552 pp.


Pearl J. (2000). Causality: Models, Reasoning, and Inference. Cambridge University Press, 386
pp.
Jensen F.V.(2001). Bayesian Networks and Decision Graphs. Springer-Verlag, NY. 268 pp.

Korb K.B., Nicholson A.E. (2004). Bayesian Artificial Intelligence. Chapman and Hall/CRC, 364
pp.

Kyburg H.E. Jr. (2001). Uncertain Inference. Cambridge University Press, 298 pp.


Lauritzen, S. L. (1996). Graphical Models, Oxford University Press, Oxford, 1996.
Neapolitan R.E. (2004). Learning Bayesian Networks. Pearson Prentice Hall, 674 pp.

Nilsson N.J. (1998). Artificial Intelligence: A New Synthesis. Morgan Kaufmann Publishers, 514
pp.
23
АБС: литература







Gorodetsky V.I., Drozdgin V.V., Jusupov R.M. Application of Attributed Grammar
and Algorithmic Sensitivity Model for Knowledge Representation and Estimation
// Artificial Intelligence and Information, Control Systems of ROBOTSA. North
Holland, Elsevier Science Publ., 1984. pp. 232--237.
Городецкий В.И. Байесовский вывод. АН СССР, ЛИИАН, Препринт № 149. Л.,
1991.
Городецкий В.И. Алгебраические байесовские сети --- новая парадигма
экспертных систем // Юбилейный сборник трудов институтов Отделения
информатики, вычислительной техники и автоматизации Российской
Академии наук, т. 2. М., РАН, 1993. с. 120--141.
Городецкий В.И., Тулупьев А.Л. Формирование непротиворечивых баз
знаний с неопределенностью // Известия РАН. Серия "Теория и системы
управления». 1997. №5.
Тулупьев А.Л. Алгебраические байесовские сети. Теоретические основы и
непротиворечивость. СПб.: СПИИРАН, 1995. 76 с.
Тулупьев А.Л. Алгебраические байесовские сети. Логико-вероятностный
подход к моделированию баз знаний с неопределенностью. СПб.: СПИИРАН,
2000. 292 с.
Тулупьев А.Л., Николенко С.И., Сироткин А.В. Байесовские сети: логиковероятностный подход. СПб.: Наука, 2006. 607 с.
24
Веб-сайты


БСД: стоит начинать с
www.auai.org
АБС: сайт в разработке, можно
периодически проверять
www.spiiras.nw.ru
(а пока пользоваться Зеленой
книгой)
25
ПЛАН








БС — что это
БС — праксис и генезис
Вероятностная логика
Фрагменты знаний (ФЗ)
Алгебраические байесовские сети
Байесовские сети доверия
БС — дидактическое применение
БС — монография
26
БА пропозициональных формул
A  t1 , t2 ,, tn 
F  A

Универсум, множество атомов,
множество булевских переменных,
Множество атомарных
пропозиций…
Алгебра пропозициональных формул, построенных над
заданным универсумом.
F  A  F  A / 

Фактор-алгебра классов тождественных
пропозициональных формул. Как
правило, далее эквивалентные формулы
не различаются. В частности,
вероятности истинности эквивалентных
формул будут совпадать.
true или 1 --- тождественная истина, константа
false или 0 --- тождественная ложь, константа,
(f) --- истинностное означивание пропозициональной формулы f.
27
Аргументное место (литерал)
~
x  x, x
Аргументное место или литерал.
Используется как обозначение означивания
атомарной формулы x или как скользящий
индекс.
~x  ~x   x1  x2 , x1  x2 ,


1
2
 x1  x2 , x1  x2 
~
~

h
x

 1 x2   hx1  x2   hx1  x2   hx1  x2   hx1  x2 
~
x1  ~
x2
Внутри одной и той же формулы означивания одного и того же
аргументного места совпадают. Возможные несовпадения оговариваются
отдельно.
28
Логические операции
отрицан
ие
конъюнк
ция
дизъюнкция
эквивале
нтность
импликация
исключающ
ее или
x y x
xy
xy
xy
xy
xy
0 0 1
0
0
1
1
0
0 1 1
1 0 0
0
0
1
1
0
0
1
0
1
1
1 1 0
1
1
1
1
0
Знак конъюнкции, как правило, опускают:
вместо xy пишут xy.
29
Кванты
Пусть нам задан набор атомов
S  x1, x2 ,, xm  .
Квантом называется конъюнкция, в которую входят все атомы из набора.
Каждый атом входит с одним из означиваний: либо положительным либо
отрицательным.
~ ~~ ~
X  x1x2 ...xm
Пример записи кванта, краткой и полной.
Обозначение множества квантов:
~
~
~
~
QS   x1x2 ...xm : xi  xi , xi , i  1(1)m
Пример:
Qx, z  xz , xz , x z, x z .
30
Конъюнкты
Пусть нам задан набор атомов
S  x1, x2 ,, xm  .
Конъюнктом называется конъюнкция положительно означенных
атомов из набора. В эту конъюнкцию атом либо входит, либо вообще
не входит.
Один положительно означенный атом тоже является конъюнктом.
Пустая конъюнкция (пустой конъюнкт) эквивалентен тождественной
истине.
x, y, xy , x1 x2 x3 ,...
X  x1x2 ...xm
--- примеры конъюнктов.
--- краткая запись конъюнкта.
31
Теорема о СДНФ
( f  F ) !(S f  Q) : f 

q
qS f
S:F 2
S( f )  S f
Q
32
Идеал конъюнктов


C  C ( A)  ~
xi1 ~
xi2  ~
xik : (i1 , i2 ,, ik )  2{1(1) m} , k  1(1)m .
x1x2x3
x1
x1x2
x1x2
x1
x1x3
x2x3
x2
x1
x2
x3
Также можно рассматривать идеал с пустым конъюнктом.
33
Особенности идеала



Множество всех непустых
конъюнктов над заданным
набором атомов --- идеал;
Множество всех (все непустые и
один пустой) конъюнктов над
заданным набором атомов --идеал;
Непустое пересечение идеалов --идеал.
34
Идеал конъюнктов 4-го порядка
x1x2x3x4
x1x2x3
x1 x 2
x1x2x4
x1x3
x1x4
x1
x2
x1x3x4
x2x3
x2x3x4
x2x4
x3
x3x4
x4
35
ПРИМЕР (1)
A  x1 , x2 
.
Q  ~
x1 ~
x2   x1 x2 , x1 x2 , x1 x2 , x1 x2 
,
C  x1 , x2 , x1 x2 
~ ~~
X  x1x2
X  x1 x2
,
,
.
36
ПРИМЕР (2)
A  x1 , x2 , x3 
Q  ~
x1~
x2 ~
x3 
 x1x2 x3 , x1x2 x3 , x1x2 x3 , x1x2 x3 , x1x2 x3 , x1x2 x3 , x1x2 x3 , x1x2 x3
.
,
C  x1 , x2 , x3 , x1 x2 , x1 x3 , x2 x3, , x1 x2 x3 
X ~
x1 ~
x2 ~
x3
,
X  x1 x2 x3
37
Вероятность истинности





Подход по Н. Нильссону (1986 г.)
Более глубокая формализация
дана в работах коллектива
Фагина, Хальперна, Миггидо
(пригодна для рассуждений об
оценках сложности)
Другие глубокие формализации
Спор о приоритетах (de Finetti…)
Дж. Буль --- тоже писал о
вероятности пропозиции
38
НАБОР ПРОПОЗИЦИЙ
x, y, xy
39
Возможные миры
Формула
Логическое означивание
x
true
true
true
true
false
false
false
false
y
xy
true
true
false
false
true
true
false
false
true
false
true
false
true
false
true
false
40
Допустимые миры
Формула
Допустимое логическое
означивание
(допустимый мир)
Вероятност
ь
истинности
формулы
x
true
true
false
false
0,5
y
xy
true
false
true
false
0,6
true
false
false
false
0,2
0,2
0,3
0,4
0,1
Вероятност
ь
допустимог
о мира
41
Вероятность пропозиции
В
рамках подхода Н.
Нильссона мы рассуждаем о
вероятности истинности
пропозиции;
 Для краткости говорят
вероятность пропозиции
42
Теорема о СДНФ
( f  F ) !(S f  Q) : f 
q
qS f
S : F  2Q
S( f )  S f
43
КВАНТЫ:
Множество элементарных событий
p : Q  [0;1]

(q  Q) p (q)  0;

 p (q)  1.

qQ
44
ВЕРОЯТНОСТЬ ПРОПОЗИЦИИ
Q
p :2
 [0;1]
(S  Q ) p(S ) :
 p (q )

qS
Q
Q,2 , p
(f  F ) p(f ) : p(S(f ))
Q, F, p
45
Индексация конъюнктов
(дизъюнктов) и квантов
Нумерация
A = {x1}
A = {x1, x2}
A = {x1, x2, x3}
№10
№2
[№]1
Q
A
[№]2
Q
A
[№]3
Q
A
0
02
02
x1
e
002
x 2 x1
e
0002
x3 x2 x1
e
1
12
12
x1
x1
012
x2x1
x1
0012
x3x2x1
x1
2
102
102
x 2 x1
x2
0102
x3 x2 x1
x2
3
112
112
x 2 x1
x2 x1
0112
x3 x2 x1
x2 x1
4
1002
1002
x3 x2 x1
x3
5
1012
1012
x3 x2 x1
x3 x1
6
1102
1102
x3 x2 x1
x3 x2
7
1112
1112
x3 x2 x1
x3 x2 x1
46
Случайные бинарные
последовательности
~
x, x , xˆ.
~
~
x1x2 , x1 x2 , xˆ1 xˆ2 .
~
~
~
~
x1x2 ...xm1 xm , x1 x2 ...xm1xm , xˆ1 xˆ2 ...xˆm1 xˆm .
~ ˆ
X, X, X.
 


~
~
ˆ
p X : p X  X .
47
Базовые понятия ТВ на языке
СБП
~
~
p
(
x
y)
~
~
~
~
~
~
~
p( x | y ) 
;
p
(
x
|
y
)
p
(
y
)

p
(
x
y ).
~
p( y )
~~
p( XY )
~ ~
~ ~
~
~~
p( X | Y ) 
~ ; p( X | Y ) p(Y )  p( XY ).
p (Y )
~~
~
~
p ( XY )  p( X ) p(Y ).
Xˆ , Zˆ  Zˆ :
~ ~~ ~
~ ~ ~~
p XY Z p Y  p XY p Y Z ;
~~ ~
~ ~ ~ ~
~
p XZ | Y  p X | Y p Z | Y , p Y  0.


   
    
48
Кванты и вероятность
истинности
p( x  y )  p( xy )  p( xy )  p( x y ),
p( x  y )  p( xy )  p( x y ),
p( x  y )  p( xy )  p( x y ),
p( x  y )  p( xy )  p( x y )  p( x y ).
49
Конъюнкты и вероятность
истинности
p( x  y )  p( x)  p( y )  p( xy ),
p( x  y )  p( x)  p( y )  2 p( xy ),
p( x  y )  1  p( x)  p( y )  2 p( xy ),
p( x  y )  1  p( x)  p( xy ).
50
Вероятности квантов и
конъюнктов
p( xy )  p( xy ),
p( xy )  p( x)  p( xy ),
p( x y )  p( y )  p( xy ),
p( x y )  1  p( x)  p( y )  p( xy ).
Связи между наборами квантов и конъюнктов будет обсуждаться ещё
неоднократно, поскольку кванты формируют множество элементарных
событий, а конъюнкты --- идеал, образующий одну из моделей
фрагмента знаний.
51
Интервальная вероятность
конъюнкции
p( x), p( y )
p( xy )  ?
--- дано.
p( xy )  max0, p( x)  p( y )  1, min p( x), p( y );
max0, p( x)  p( y )  1  p( xy )  min p( x), p( y ).
Оценки вероятностей не могут быть произвольно назначены.
Вероятности истинности пропозициональных формул находятся в
определенных отношениях.
Вместе с тем, по точечным оценкам вероятностей одних формул даже
в простейших случаях не всегда удается восстановить точечные оценки
вероятностей других формул (без привлечения дополнительных
52
предположений).
Modus ponens
x, x  y
(modus ponens)
y
p ( x), p ( x  y )
(" probabilis tic " modus ponens)
p( y)  ?
И в этом случае даже из точечных оценок вероятностей в антецеденте
будут получаться, как правило, интервальные оценки вероятностей в
консеквенте. Кроме того, некоторые сочетания оценок в антецеденте
будут противоречить аксиоматике вероятностной логики.
53
ПЛАН








БС — что это
БС — праксис и генезис
Вероятностная логика
Фрагменты знаний (ФЗ)
Алгебраические байесовские сети
Байесовские сети доверия
БС — дидактическое применение
БС — монография
54
Фрагмент знаний (определение)
xy, p(xy)



Математическая
модель
Идеал
конъюнктов
Оценки
вероятностей
элементов идеала
(точечные и
интервальные)
<x, y>
x, p(x)
y, p(y)
xyz, p(xyz)
xy, p(xy)
yz, p(yz)
xz, p(xz)
<x, y, z>
x, p(x) y, p(y) z, p(z)
55
ФЗ: Brute Force Calculations







Поддержание непротиворечивости
Априорный вывод
Апостериорный вывод
Вывод оценок чувствительности
Объемлющая непротиворечивость
Линейные комбинации ФЗ
...
56
«Точечная» непротиворечивость




p(x)=0.4
p(x)=0.6
непротиворечиво
(согласовано,
совместно)




p(x)=0.7
p(x)=0.6
противоречиво
(несовместно)
57
«Интервальная» непротиворечивость


p(x)=[0.4;0.5]
p(x)=[0.5;0.6]





непротиворечиво
(согласовано,
совместно)





p(x)=[0.7;0.8]
p(x)=[0.5;0.6]
противоречиво
(несовместно)
p(x)=[0.3;0.5]
p(x)=[0.4;0.6]
непротиворечиво
(не согласовано,
совместно)
58
Непротиворечивость ФЗ (.)


Преобразовать вероятности на
конъюнктах в вероятности на квантах;
Проверить соответствие вероятностной
аксиоматике получившихся оценок на
квантах
1 
 p(e )  

 

p
(
x
)
p
(
x
)

1  
1 
P ( 2)  

p( x 2 )   p( x 2 ) 

 

 p( x x )   p( x x ) 
2 1  
1 2 

1  p( x1 )  p( x 2 )  p( x1x 2 )  0

p( x1 )  p( x1x 2 )  0

p( x 2 )  p( x1x 2 )  0
p( x1x 2 )  0
I n  P( n )  Q ( n )
 p( x 2 x1 )   p( x1x 2 ) 

 

p
(
x
x
)
p
(
x
x
)

2 1  
1 2 
Q ( 2)  

;



p( x 2 x1 )
p( x1x 2 )

 

 p( x x )   p( x x ) 
2 1  
1 2 

 1  1  1 1 1 



p
(
x
)
0
1
0

1



1
0


0 0

1  1 p( x 2 )



0 0 0


1 p( x1x 2 ) 

Q ( n )  0 n ,
Q ( n ) 1n   1.
59
Матрицы In и Jn
 1  1
I1  

0
1


 In 1  In 1
In  

0
I
n 1 

1 1
J1  

0
1


Jn 1 Jn 1
Jn  

0
J
n 1

I n  P( n )  Q ( n )
Jn  Q ( n )  P( n )

Матрицы преобразования
вектора вероятностей конъюнктов в
вектор вероятностей квантов
и наоборот строятся как
прямое произведение матриц Кронекера.
60
Матрицы I (2, 3, 4, 5)
61
Множество ограничений E(n)


Обозначим множество ограничений,
вытекающих из вероятностной
аксиоматики, как E(n).
В матрично-векторном виде они
записываются как
In  P
(n )

n
0
62
ФЗ с [,]-ми оценками

Задан набор интервальных
оценок, который мы обозначим
как D(n).
,( n )
P
P
(n )
,( n )
 P
63
Непротиворечивость ФЗ ([])


Пусть задан набор
интервальных оценок.
Этот набор
непротиворечив
(согласован), если для
произвольного
элемента при выборе
произвольной точки из
интервальной оценки в
остальных интервалах
можно выбрать точки
так, что получившийся
набор точечных оценок
непротиворечив.
64
Поддержание непротиворечивости
ФЗ в [,]-ом случае
R
(n )
D
(n )
E
(n )
p (f )  min p(f )
p  (f )  maxp(f )
P  maxP
P  minP

R (n )

R
R (n )

R
65
Априорный вывод
f  F ( A) ! L
(n )
: p(f )  L P
p (f )  min p(f )

R (n )
(n ) (n )
p (f )  maxp(f )

(
n
)
R
Можно как выводить оценку истинности пропозиции, не
вошедшей в ФЗ, так и учитывать эту оценку в процессе
поддержания непротиворечивости или априорного вывода
оценок вероятности истинности других формул.
66
Апостериорный вывод в ФЗ АБС
Мы что-то узнали: поступило свидетельство;
Как оно повлияет на наши оценки вероятностей
утверждений из нашей базы знаний;
[Как распространить влияние свидетельства]
Несколько вычислительно разных ситуаций...




<VX>
~
<V>
~~ ~
~~ ~
pa(VX|<V>)=p(VX|V)
~ ~
~ ~
pa(X|<V>)=p(X|V)
<VX>
~
<p[a](V)>
~~
~
~~ ~
~
pa(VX|<p[a](V)>)=p(VX|V)p[a](V)
~
~
pa(X|<p[a](V)>)=...
67
Детерминированное свидетельство

Атомарные <x> или <x> и кортежи
<x1x8>, <x1x2>, <x1x2x3>... Кратко
~
~
~
~
 X  x1x2 ...xm 
68
Недетерминированное свидетельство



Атомарные <p[a](x)> и < p[a]( x)>
Кортежи < p[a](x1x8), p[a](x1x8),
p[a](x1x8), p[a](x1x8)>
В краткой записи:
~
 p[a ] ( x ) 
~
~
~
~
 p[a ] ( X )  p[a ] ( x1x2 ...xm ) 
Апостериорное распределение вероятностей (задающее свидетельство)
подчиняется аксиомам вероятностной логики. В нашей теории кортеж
недетерминированных свидетельств также представляется в виде
фрагмента знаний.
69
Свидетельство с неопределенностью
~
~
 p[ a ] ( x )  Pr[ a ] ( x ) 
~
~
 p[ a ] ( X )  Pr[ a ] ( X ) 
 p[ a ] ( ~
x1~
x2 ...~
xm )  Pr[ a ] ( ~
x1~
x2 ...~
xm ) 
Кортеж недетерминированных свидетельств с неопределенностью
представляется в виде фрагмента знаний с интервальными оценками
истинности.
70
Апостериорный вывод: (.) и [,]



Вид оценок в ФЗ, куда поступает
свидетельство, также создают особый
вычислительный аспект:
точечные оценки --- «прямые»
вычисления по определению условной
вероятности;
интервальные оценки --- задачи
гиперболического программирования.
71
Апостериорный вывод
«по определению»
условной вероятности («+»)
p ( xZ )
pa ( Z | x ) : p( Z | x) 
;
p( x)
p ( x | C ) : p( x);
Z  x2 , x3 , x2 x3 ;
x1x2x3
x1x2
pa ( xZ | x )  pa ( Z | x ).
x2x3
x2x3
x1x3
x1
<x1>
x2
x3
x2
x3
72
Апостериорный вывод
«по определению»
условной вероятности («-»)
p ( x Z ) p ( Z )  p ( xZ )
pa ( Z | x ) : p( Z | x ) 

;
p( x )
1  p( x)
p ( x | C ) : p ( x )  1  p( x);
Z  x2 , x3 , x2 x3 ;
x1x2x3 pa ( x Z | x )  pa ( Z | x ).
x1x2
x2x3
x2x3
x1x3
x1
<x1>
x2
x3
x2
x3
За счет процедуры
переозначивания
атомов и пересчета
вероятностей,
можно считать, что
поступают лишь
свидетельства,
означенные
положительно
73
Апостериорный вывод, ФЗ с [,]

Сведение:
p( x x )  0,

1 2


p( x1)  p( x1x 2 )  0,

p( x )  p( x x )  0,

1 2
 2

1  p( x1)  p( x 2 )  p( x1x 2 )  0,
 


p

p
(
x
)

p
,
1
1
1




p2  p( x 2 )  p2 ,

 


p12  p( x1x 2 )  p12

 px1x 2 
p  ( x 2 | x1 )  min


R,2
 px1  
 px1x 2 
p  ( x 2 | x1 )  max


R,2
 px1  
74
Апостериорный вывод, ФЗ с [,]

Сведение:
p( x x )  0,

1 2


p( x1)  p( x1x 2 )  0,

p( x )  p( x x )  0,

1 2
 2

1  p( x1)  p( x 2 )  p( x1x 2 )  0,
 


p

p
(
x
)

p
,
1
1
1




p2  p( x 2 )  p2 ,

 


p12  p( x1x 2 )  p12


1
p( x 1 )
 px1x 2 
p  ( x 2 | x1 )  min


R,2
 px1  
 px1x 2 
p  ( x 2 | x1 )  max


R,2
 px1  
75
Апостериорный вывод, ФЗ с [,]

Сведение:
p( x x )  0,

1 2


p( x1)  p( x1x 2 )  0,

p( x )  p( x x )  0,

1 2
 2

1  p( x1)  p( x 2 )  p( x1x 2 )  0,
 


p

p
(
x
)

p
,
1
1
1




p2  p( x 2 )  p2 ,

 


p12  p( x1x 2 )  p12

 px1x 2 
p ( x 2 | x1 )  min


R,2
 px1  
 px1x 2 
p  ( x 2 | x1 )  max


R,2
 px1  


1
p( x 1 )
  p( x x )  0,

1 2


  p( x1)    p( x1x 2 )  0,

  p( x )    p( x x )  0,

2
1 2


  1    p( x1)    p( x 2 )    p( x1x 2 )  0,






p



p
(
x
)



p
,
1
1
1




  p2    p( x 2 )    p2 ,





  p12    p( x1x 2 )    p12

  p(x1x 2 )
p  ( x 2 | x1 )  min
,2
Rd
  p(x1x 2 )
p  ( x 2 | x1 )  max
,2
Rd
76
Апостериорный вывод, ФЗ с [,]

Сведение:
  p( x x )  0,

1 2




p
(
x
)



p
(
x
x
)

0
,


1
1 2
  p( x )    p( x x )  0,

2
1
2


  1    p( x1)    p( x 2 )    p( x1x 2 )  0,






p



p
(
x
)



p
,
1
1
1


  p2    p( x 2 )    p2 ,





  p12

   p( x1x 2 )    p12
  p(x1x 2 )
p  ( x 2 | x1 )  min
,2
Rd
  p(x1x 2 )
p  ( x 2 | x1 )  max
,2
Rd
77
Апостериорный вывод, ФЗ с [,]

Сведение:
  p( x x )  0,

1 2




p
(
x
)



p
(
x
x
)

0
,


1
1 2
  p( x )    p( x x )  0,

2
1
2

 d(f )    p(f )
  1    p( x1)    p( x 2 )    p( x1x 2 )  0,






p



p
(
x
)



p
,
1
1
1


  p2    p( x 2 )    p2 ,





  p12

   p( x1x 2 )    p12
  p(x1x 2 )
p  ( x 2 | x1 )  min
,2
Rd
  p(x1x 2 )
p  ( x 2 | x1 )  max
,2
Rd
  1,

d( x x )  0,

1
2


1 d( x1x 2 )  0,



d
(
x
)

d
(
x
x
)

0
,
1 2
 2

  1 d( x 2 )  d( x1x 2 )  0,





  p1  1, 1    p1 ,







p

d
(
x
),
d
(
x
)



p
,


2
2
2
2


 
  p12  d( x1x 2 ), d( x1x 2 )    p12 
d( x1x 2 )
p  ( x 2 | x1 )  min
,2
Rd
d( x1x 2 )
p  ( x 2 | x1 )  max
,2
Rd
78
Несовместимость со свидетельством
p000
p001
p010
p011
p100
p101
p110
p111
~
x1
~
x2
~
x3
<x1>
~
x1
~
x2
~
x3
p001
p011
p101
p001+p011+p101+p111
p111
79
Апостериорный вывод при недетермом свидетельстве
<p[a](x1x2)>
<x1x2>
C
<x1x2>
C
p(Z|<x1x2>)
p(Z|<x1x2>)
×p[a](x1x2)
×p[a](x1x2)
S
<x1x2>
C
<x1x2>
C
p(Z|<x1x2>)
p(Z|<x1x2>)
p(Z|<p[a](x1x2)>)
×p[a](x1x2)
×p[a](x1x2)
80
Примеры формул для рассчетов

 

p p[a] x~ | C    p x~ | C p[a] x~ ;
x~
pa ZY |
pa ZY |
p p[a] x~ | C  Epˆ p[a] x~ | C ;
 
  a Y
~
p[a] x~  Epˆ a ZY | p[a] x~
p x~ 
p Z | x~ p
[a ]
;
 [a] x~ .
x




p p[a] x~ | C  Epˆ p[a] x~ | C ;


 ~
 ~
~
~
~
p p[a] x  | C   p x | C p[a] x ;
p x | C p[a] x  ;
 x~

x~

  


 




p a ZY | p[a] x~  Epˆ a ZY | p[a] x~ ;




~
~
~
~
~
p a ZY | p[a] x    pa ZY | x p[a] x ;
pa ZY | x p[a] x  .
 x~

x~

 

81
ПЛАН








БС — что это
БС — праксис и генезис
Вероятностная логика
Фрагменты знаний (ФЗ)
Алгебраические байесовские сети
Байесовские сети доверия
БС — дидактическое применение
БС — монография
82
Алгебраическая байесовская сеть

Это множество фрагментов знаний,
как правило, связанных между собой
(имеющих общие конъюнкты),
которые рассматриваются как единое
целое.
83
Граф и дерево смежности - веса

Узлу графа смежности ставится в
соответствие фрагмент знаний;
весом же узла является идеал
конъюнктов, лежащий в основе
этого ФЗ.
84
Граф смежности --- определение

Графом смежности называется
ненаправленный граф, в котором



между каждой парой узлов, веса
которых содержат общие элементы,
существует путь;
в веса каждого из узлов любого пути
(в графе) входят все элементы,
общие для начального и конечного
узлов этого пути;
вес одного узла не входит полностью
в вес никакого другого узла.
85
Сепараторы



Каждому ребру в графе смежности
также удобно приписать вес –
пересечение весов, приписанных тем
двум узлам, которые соединяются
рассматриваемым ребром.
Вес на ребре --- сепаратор (или
разделитель).
Непустое пересечение идеалов
конъюнктов --- идеал конъюнктов.
86
Дерево смежности

Деревом смежности называется
ациклический граф смежности --–
такой граф, что в нем нет ни
одного цикла, то есть пути (без
повторяющихся узлов), начало и
конец которого бы совпали.
87
АБС --- определение



Алгебраическая байесовская сеть (АБС)
определяется как граф смежности с
фрагментами знаний в узлах.
АБС, представимая в виде дерева
смежности, называется ациклической
(ААБС).
АБС является одной из логиковероятностных моделей БФЗ с
неопределенностью.
88
АБС --- графическое представление
<x1, x2>
<x2>
<x2, x3>
<x2>
<x1, x2>
<x2, x3>
а
<x1>
<x1>
<x1, x2>
<x1, x3>
<x1>
<x3>
<x1, x3>
б
<x1>
<x1, x2>
<x1, x4>
<x1, x3>
<x1>
<x1>
<x1>
в
<x1>
<x1, x2>
<x1>
<x1, x3>
<x1>
<x1, x4>
<x1, x4>
г
д
<x1, x2, x3>
<x2, x3>
<x2, x3, x4>
<x3, x4>
е
<x3, x4, x5>
<x4, x5>
<x4, x5, x6>
89
Ациклические АБС
~
<p[a](V0)>
<V0X1V1>
~
<p[a](V1)>
<V1>
<V1X2V2>
~
<p[a](V2)>
<V2>
<V2X3V3>
<V3>
~
<p[a](V3)>
<Vi>
~
<p[a](Vi)>
<ViXi+1Vi+1>
<Vi+1>
~
<p[a](Vi+1)>
<Vn-1>
~
<p[a](Vn-1)>
<Vn-1XnVn>
~
<p[a](Vn)>
<Vn>
<VnXn+1Vn+1>
<p[a](...)>
а
б
90
Степени непротиворечивости АБС




Локальная,
Экстернальная,
Интернальная,
Глобальная
91
Степени непротиворечивости АБС

Локальная: непротиворечив
каждый фрагмент знаний по
отдельности.
Каждый фрагмент
знаний
непротиворечив
92
Степени непротиворечивости АБС

Экстернальная: совпадают
оценки пересекающихся
фрагментов.
Здесь оценки
совпадают
93
Степени непротиворечивости АБС

Интернальная: распределения
вероятностей совпадают на
конъюнктах, общих для двух или
более ФЗ.
Решаем общую ЗЛП, где
пересекающиеся переменные
совпадают
94
Степени непротиворечивости АБС

Глобальная: непротиворечив
объемлющий фрагмент знаний.
95
АБС: интернальная и глобальная
непротиворечивость
x1x2
x1x3
x2x3
<x2>
<x1, x2>
<x1>
x1
x2
x3
<x2, x3>
<x3>
<x1, x3>
p( x1 )  p( x2 )  p( x3 )  0.5;
p( x1x2 )  p( x2 x3 )  0.5;
p( x1x3 )  0.
p( x1x2 x3 )  0;
p( x1x2 x3 )  p( x2 )  p( x1x2 )  p( x2 x3 )  p( x1x2 x3 ) 
 0.5  0.5  0.5  0  0.5 (???)
96
ААБС: интернальная и глобальная
непротиворечивость

Ациклическая АБС, непротиворечивая
интернально, глобально
непротиворечива.
pW
 
~
W  pW

0,
~ ~~ 
~~
~~
XYZ   pV ( XY )pU (YZ )
~

p
(
Y
)
V



~
pV (Y )  0,
~
pV (Y )  0,
97
ААБС: интернальная и
экстернальная непротиворечивость


Экстернально непротиворечивая
ациклическая АБС может быть
интернально противоречивой.
Есть класс ациклических сетей, у
которых из экстернальной
непротиворечивости следует
интернальная.
98
Апостериорный вывод:
свидетельства



Детерминированное
свидетельство (и кортеж ДС);
Недетерминированное
свидетельство (и кортеж НДС);
Недетерминированное
свидетельство (и кортеж НДСН).
99
Апостериорный вывод: два ФЗ
~ ~
<XnVn>, p(XnVn)
~
<Vn>, p(Vn)
~ ~
<VnXn+1>, p(VnXn+1)
~ ~~
<XnVnXn+1>, p(XnVnXn+1)
~
<p[a](Vn-1)>
<p[a](...)>
100
Передача виртуального
свидетельства между ФЗ
<XnVn>
~
<p[a](Vn-1)>
<Vn>
~
~
~
<p[a](Vn) = pa(Vn|<p[a](Vn-1)>)>
<VnXn+1>
<p[a](...)>
101
Апостериорный вывод в ААБС
~
<p[a](V0)>
<V0X1V1>
~
<p[a](V1)>
<V1>
<V1X2V2>
~
<p[a](V2)>
<V2>
<V2X3V3>
<V3>
~
<p[a](V3)>
<Vi>
~
<p[a](Vi)>
<ViXi+1Vi+1>
<Vi+1>
~
<p[a](Vi+1)>
<Vn-1>
~
<p[a](Vn-1)>
<Vn-1XnVn>
~
<p[a](Vn)>
<Vn>
<VnXn+1Vn+1>
<p[a](...)>
а
б
102
ПЛАН








БС — что это
БС — праксис и генезис
Вероятностная логика
Фрагменты знаний (ФЗ)
Алгебраические байесовские сети
Байесовские сети доверия
БС — дидактическое применение
БС — монография
103
Байесовские сети доверия
Основная цель байесовских сетей доверия, как и
в случае АБС,— представление распределения
вероятностей над переменными (возможно
многозначными) в удобном для обработки и
компактном виде.
В качестве такого представления выбран
ациклический направленный граф с тензорами
условных вероятностей.
104
Простейшие БСД
x
z
p(x )
u
p(z )
p(y )
p( y | x )
p( y | x )
y
w
p(w | zu )
p(w | zu )
p(w | zu )
p(w | zu )
105
БСД односвязная
x
p(x)
p(z)
p(u | y )
p(u | y )
z
u
y
p( y | x )
p( y | x )
v
p( w | z u )
p( w | zu)
p( v | y )
p( v | y )
p( w | z u )
w
p( w | zu)
106
БСД с допустимыми циклами
x
p(x)
p(u | y )
p(u | y )
y
p( y | x )
p( y | x )
p( v | y )
p( v | y )
u
v
p( w | u v )
p( w | u v )
w
p( w | u v )
p( w | uv )
107
БСД с недопустимым циклом
x
p(x)
p( y | xv )
p( y | xv )
y
p(u | y )
p(u | y )
p( y | xv )
p( y | xv)
p( v | w )
p( v | w )
u
v
p( w | u )
p( w | u)
w
108
Пример БСД
p(t )  0.01
p(u | t )  0.16
t
Компьютер упал
со стола
p(v | t )  0.001
p(u | t )  0.05
u
На жестком
диске появились
дефектные
секторы
p(v | t )  0.1
p(w
p(w
p(w
p(w
| uv )  0.95
| uv )  0.25
| u v )  0. 9
| u v )  0.02
v
Нарушен один
из контактов
блока питания
w
Компьютер
не загружается
p( x | u )  0.2
p( x | u )  0.025
x
При диагностике
логический диск
недоступен
p( y | w )  0.4
p( y | w )  0.001
y
На экране
монитора нет
изображения
p( z | v )  0.99
p( z | v )  0.001
z
Индикатор
питания
не горит
109
Типы связей в БСД
1
1
2
б
2
а
3
3
1
2
3
в
а – последовательная связь;
б – расходящаяся связь; в – сходящаяся связь.
110
Понятие d-разделимости

Два узла называются
d-разделимыми, если любой путь
между ними содержит
последовательную или
сходящуюся связь, в центральный
узел которой поступило
свидетельство, или расходящуюся
связь, в центральный узел (и его
потомки) которой не поступило
свидетельство.
111
Основное предположение


d-разделенные узлы независимы.
Это предположение позволяет
однозначно восстановить
распределение вероятностей над
всеми переменными.
112
Несколько условий формально на
примере нашей сети




p(u|t) × p(v|t) = p(uv|t)
p(t|uv) × p(w|uv) = p(tw|uv)
…
В такой форме эти предположения
уже не кажутся столь очевидными
113
Что нам дают такие предположения


Независимость d-разделимых
[переменных в узлах] позволяет
выделить единственное распределение из
всех, для которых подходят заданные
условные вероятности.
Это единственное распределение -произведение всех вероятностей,
заданных в БСД (chain rule).
114
Chain rule для нашего примера
~
~
~
~
~
~
~
~
~
~
p( t u v wx y z )  p( t ) p(u | t ) 
~
~
~
~
~
~
~
 p (v | t ) p ( w | u v ) p ( x | u ) 
~
~
~
~
 p( y | w) p( z | v )
115
Но все же…

Несмотря на указанную выше
формализацию, методы работы с
БСД позволяют использовать chain
rule неявно.
116
Первичная пропагация

Вычисление вероятностей всех
переменных (по отдельности),
входящих в нашу сеть.
117
Простейший (в лоб) алгоритм
первичной пропагации

По определению условной
вероятности:
p(u )  p(u | t ) p(t )  p(u | t ) p(t )

Аналогично хочется поступить с
остальными вероятностями.
118
Алгоритм первичной пропагации для
ациклических направленных графов

Очевидно, что в описанном выше
примере нам в ходе вычисления p(w)
потребуются вероятности
p(uv), p(uv ), p(u v), p(u v ).
именно в такой ситуации и требуется
chain rule и понятие d-разделимости.
В частности получаем, что
p(uv|t) = p(u|t) × p(v|t),
аналогично для отрицания t и
суммируем.
119
Первичная пропагация, обобщенный
алгоритм «на пальцах»


Если мы хотим вычислить вероятность
какого либо узла, то мы должны
просуммировать совместное
распределение по означиванию всех
остальных переменных
(маргинализовать).
Но, так как все наше распределение
разбивается на произведение
достаточно простых, можно проводить
суммирование по очереди по одной
(иногда по нескольким) переменным за
раз, при этом большая часть
сомножителей не будет от них зависеть.
120
Первичная пропагация связь
простого и обобщенного алгоритмов



Простой алгоритм — это всего лишь
удачный порядок суммирования для
обобщенного алгоритма.
Обобщенный алгоритм понадобится при
появлении свидетельств.
Для обобщенного алгоритма удобно
определить на БСД структуру дерева
смежности.
121
Моральный граф

Моральным графом для БСД
называется ненаправленный
граф, в котором вершины те же, и
две вершины соединены ребром,
если они либо соседствуют, либо
имеют общего сына в исходной
БСД.
122
Пример морального графа
t
u
v
w
x
y
z
123
Если моральный граф триангулярен


То его можно разбить на клики,
которые затем можно объединить
в дерево смежностей (разными
вариантами).
Каждая максимальная клика
попадает в отдельный
[соответствующий ей] узел дерева
смежности.
124
Если не триангулярен


То придется его триангулировать.
Это требуется сделать, добавив,
по возможности, «минимум»
ребер.
125
Дерево сочленений
t, u, v
~~
p(u|t), p(v|t),
~
p(t)
~~
u
u, x
~ ~
p(x|u)
u, v
v
u, v, w
v, z
~ ~~
p(w|uv)
~~
p(z|v)
w
w, y
~ ~
p(y|w)
126
Пропагация свидетельств


Но главная задача БСД — это всетаки пропагация свидетельств
(апостериорный вывод).
Иными словами, мы знаем
апостериорные означивания
нескольких узлов и хотим
получить условную вероятность
остальных.
127
Переход к пропагации свидетельств




Мы умеем вычислять маргинальные
вероятности.
Давайте в процессе вычисления в
нужном месте «заменим» «настоящую»
вероятность единицей или нулем в
зависимости от свидетельства.
Это гарантирует, что мы получим
правильные вероятности в тех узлах,
что ниже.
Как же учесть влияние на
предшествующие узлы?
128
Алгоритм пропагации свидетельств,
«на пальцах»


Мы поступим как в обобщенном
алгоритме первичной пропагации
Для переменной, условную
вероятность которой мы хотим
получить, нам придется придумать
хороший порядок маргинализации
из совместного распределения.
129
Дерево сочленений обеспечивает
хороший порядок обхода
(суммирования)
u
v, z
v, z
v
v
t, u, v
t, u, v
u, v
~|u
~)
~ p( x
x
u, x
u
~|u
~)
~ p( x
x
u, v, w
w
u, x
u, v
~|u
~v
~)
~ p(w
w
u, v, w
w
~|w
~)
 y~ p( y
w, y
w, y
130
Для нашего примера
v, z
v, z
v
~
p(u v~ | tw )
v
~
p(u | t ), p(v~ | t )
t, u, v
t, u, v
u
u, v
u
1
1
1
u, v
~
p(u v~ | w )
u, x
u, v, w
u, x
u, v, w
w
w
1
1
w, y
w, y
131
Выгода считать все сразу


Двукратный проход по дереву
смежности дает нам все искомые
вероятности.
Для вычисления одной
вероятности можно пройти один
раз (искомая помещается в
вершину).
132
Проблема направленного цикла



Наличие направленного цикла в
байесовской сети доверия
приводит к тому, что chain rule не
работает.
Но часто можно построить
распределение, удовлетворяющее
заданным условным вероятностям.
Такое распределение может быть
не единственным: исходным
данным может отвечать семейство
распределений.
133
Изолированный цикл с бинарными
переременными


Условные
вероятности
задают
ограничения на
маргинальные
вероятности.
Эти ограничения
можно
представить в
виде системы
линейных
уравнений.
x2
_
p(x2|x1)
p(x2|x1)
_
p(x3|x2)
p(x3|x2)
x1
x3
_
p(x1|xn)
p(x1|xn)
_
p(xn|xn-1)
p(xn|xn-1)
x0=xn
xn-1
134
Линейные уравнения, задаваемые
изолированным циклом
,
 p ( x1 )  p ( x1 | xn ) p ( xn )  p ( x1 | xn )(1  p ( xn )),

 p ( x2 )  p ( x2 | x1 ) p ( x1 )  p ( x2 | x1 )(1  p ( x1 )),

 

 p ( xn )  p ( xn | xn 1 ) p ( xn 1 )  p ( xn | xn 1 )(1  p ( xn 1 )).
135
Линейные уравнения, задаваемые
изолированным циклом,
в матричном представлении
ij  p( xi | x j )  p( xi | x j )



A  



1
 21
0

0
0
1
 32

0
0
0
1

0





0
0
0

 n,n 1
1n
0
0

1








 p ( x1 ) 


 p( x2 ) 
p   p ( x3 ) 


  


p
(
x
)
n 

 p( x1 | xn ) 


 p( x2 | x1 ) 
B   p( x3 | x2 ) 







p
(
x
|
x
)
n
n 1 

det A  1  ( 1)n 1n  2132.   n,n 1
136
Погружение во фрагмент знаний
алгебраической байесовской сети
x1x2...xn-1xn
x1x3
x2x3
x3xn-2
x1x2
x2
x1
x1xn
x3
xn-2xn-1
xn-1xn
xn-2
x1xn-1
xn-2xn
xn
xn-1
137
Результат погружения


Мы можем получить оценки (возможно
интервальные) на всевозможные
конъюнкции положительно означенных
элементов.
Мы можем выяснить, что имеющиеся
оценки не соответствуют аксиоматике
вероятностной логики.
138
Направленный цикл с потомками




Потомок имеет одного родителя из
цикла;
Потомок является сыном двух соседних
узлов;
Потомок является сыном двух не
соседних узлов;
Потомок является сыном трех и более
узлов.
139
Потомок имеет одного родителя
из цикла


Мы уже получили точечные
значения маргинальных
вероятностей всех элементов
цикла.
Маргинальная вероятность
родителя, может быть
рассмотрена как заданная
изначально и
обрабатываться
традиционным для БСД
способом.
140
Потомок является сыном двух
соседних узлов


Для двух соседних
узлов нам полностью
известно совместное
распределение.
Данное распределение
можно использовать
для дальнейшей
пропагации
традиционным
образом.
141
Потомок является сыном двух
несоседних узлов


Распределение над
родительскими узлами
можно найти с
точностью до одного
параметра.
Если зафиксировать этот
параметр, то можно
проводить обычную
пропагацию.
142
Потомок является сыном трех и
более узлов




Сложности связаны с
большим количеством
параметров.
Параметры связаны друг
с другом и не все их
сочетания возможны.
Пропагация проводится с
учетом этих параметров.
Может требовать
решения ЗЛП.
143
Учет влияния предков


Главная проблема – нельзя
выписать систему линейных
уравнений.
Причина – нельзя зная условную
вероятность относительно двух
узлов, редуцировать ее до
условной вероятности одного из
них.
144
Путь решения



Можно зафиксировать все
возможные означивания
родителей.
Для каждого означивания мы
получаем изолированный цикл.
Проводим обработку цикла и
производим суммирование с
учетом вероятности каждого
конкретного означивания
родителей.
145
Проблема

Возможна ситуация, когда при
одних означиваниях цикл
непротиворечив, а при других
противоречив.
146
Возможное решение


Исключить «плохие» означивания
родителей.
Пересчитать байесовскую сеть
доверия с учетом «невозможных»
состояний.
147
Погружение БСД в АБС
3
{x,u}
{x}
t
Компьютер упал
со стола
{t,u}
t
2
4
u
v
{t,u,v}
5
{u,v,w}
w
u
На жестком
диске появились
дефектные
секторы
v
Нарушен один
из контактов
блока питания
1
6
x
7
y
tu
u
x
w
Компьютер
не загружается
ux
w
uv
wu
z
v
vz
wv
wy
tuv
y
tv
tu
y
На экране
монитора нет
изображения
z
Индикатор
питания
не горит
{v,z}
tv
wuv
x
При диагностике
логический диск
не доступен
{w,y}
z
t
u
t
uvw
uv
wv
tv
v
wy
y
w
vz
ux
x
z
148
ПЛАН








БС — что это
БС — праксис и генезис
Вероятностная логика
Фрагменты знаний (ФЗ)
Алгебраические байесовские сети
Байесовские сети доверия
БС — дидактическое применение
БС — монография
149
Базовые дисциплины

Математические




Информатика




Математическая логика
Теория вероятностей
Экстремальные задачи
Теория графов
Представление данных
Базы данных
Искусственный интеллект



Представление неопределенности
Логико-вероятностный вывод
Мягкие вычисления
150
Особенности материала




Части материала «масштабируются»
под нужды конкретного курса и
конкретной аудитории;
В возникающих экстремальных задачах
используются объекты, знакомые
математикам (а не насильно
заимствованные из экономики);
Много задач для программирования,
удобно для организации семинаров и
практикумов;
«Неисчерпаемая тематика» для
курсовых и дипломных работ
151
Полезные навыки



Для изучения математической
статистики (и способов ее
применения на практике);
Для дальнейшего овладения
теорией надежности (структурно
сложных систем в рамках ЛВМ и
родственных ему)
Для освоения аппаратов
небайесовских мер истинности
152
ПЛАН








БС — что это
БС — праксис и генезис
Вероятностная логика
Фрагменты знаний (ФЗ)
Алгебраические байесовские сети
Байесовские сети доверия
БС — дидактическое применение
БС — монография
153
Монография






Тулупьев А.Л., Николенко С.И.,
Сироткин А.В.
Байесовские сети: логиковероятностный подход
СПб.: Наука, 2006
607 стр.
ISBN 5-02-025107-0
Изд. грант РФФИ 06-01-14108
154
Обложка
155
Разворот обложки
156
Дополнительный материал
157
Мягкие вычисления (SC)

Консорциум вычислительных
методологий, которые
коллективно обеспечивают
основы для понимания,
конструирования и развития
интеллектуальных систем
Заде Л.А. Роль мягких вычислений в понимании, конструировании
и развитии информационных/интеллектуальных систем // Новости
искусственного интеллекта. 2001. 2—3 (44—45).
158
Мягкие вычисления: отрасли








Нечеткая логика (FL)
Нейровычисления (NC)
Генетические вычисления (GC)
Вероятностные вычисления (PC)
Рассуждения на базе свидетельств (ER)
[Байесовские сети] (BN)
Хаотические системы (ChS)
Машинное обучение (ML)
Заде Л.А. Роль мягких вычислений в понимании, конструировании
и развитии информационных/интеллектуальных систем // Новости
искусственного интеллекта. 2001. 2—3 (44—45).
159
Цель и задачи исследования
160
Декомпозируемость знаний


Эксперт не мыслит о закономерностях
предметной области как о «связи всего
со всеми»
Выделяются фрагменты знаний
(Knowledge patterns), которые содержат
достаточно подробные сведения о
небольшом числе объектов (или
утверждений) о предметной области, а
также о связях между ними
161
Модель утверждения


Атомарная пропозициональная
формула (булевская переменная,
пропозициональная переменная,
атомарная пропозиция) --- модель
«атомарного» утверждения о
предметной области
Пропозициональные формулы --модели утверждений, возможно
сложных, о предметной области
162
Неопределенность

Почему возникает








Пропущенные наблюдения
Неточность средств измерения
Экспертные высказывания
Неудачные регистрационные формы
Частично незаполненное поле (только год в
дате рождения)
…
Как проявляется
Нужно ли обрабатывать
163
Виды неопределенности

Существует много видов,
например






неоднозначность и многозначность
слов;
возможность двух или более
интерпретаций записи даже на
формальном языке;
недетерминированность;
нечёткость (в т.ч. лингвистическая);
неточность (интервальные оценки);
недоопределённость...
164
Неопределенность утверждения




Истинностное означивание и мера
истинности
Мера истинности как степень доверия к
утверждению
Мера истинности как степень тесноты
связи между частями составной
пропозициональной формулы
Возможные значения и оценки меры
истинности
165
Объект исследования



Высказывания, суждения, утверждения,
представимые пропозициональными
формулами над булевскими
переменными;
Мера истинности которых
характеризуется количественно с
помощью вероятностных и/или
небайесовских оценок;
Которые могут быть как точечные, так и
интервальные [а в перспективе –
твинные].
166
Предмет исследования



Базы фрагментов знаний с
неопределённостью;
Фрагмент знаний – некоторая
[математическая] структура, состоящая из
небольшого набора «тесно связанных»
пропозициональных формул;
Мера истинности которых и теснота связи
охарактеризована:



тензором условных вероятностей – БСД;
представлением тензора совместных вероятностей,
допускающим точечные и интервальные оценки --АБС;
[обобщение последнего на небайесовские меры
истинности: нечёткую, доверия-правдоподобия,
необходимости-возможности...]
167
Логико-вероятностный подход
(ЛВП)





Вероятностная мера как мера
истинности
Точечные оценки значений
вероятностной меры
Интервальные оценки значений
вероятностной меры (как следствие
неопределенности)
«Интервальная вероятность» и
интервальная оценка вероятности
Единственность распределения и
семейство распределений вероятности
168
ЛВП --- богатая история





G. Boole, “An Investigation of the Laws of
Thought, on Which Are Founded the
Mathematical Theories of Logic and
Probabilities” (1854)
N. Nilsson, Probabilistic Logic (AI, 1986)
N. Nilsson, Probabilistic Logic Revisited
(AI, 1993)
De Finetti, Whaley, Ramsay, …
Школа логико-вероятностных методов в
теории надежности (рук. адм. И. А.
Рябинин) --- важнейшие приложения
169
ЛВП.
Непротиворечивость
Согласованность, согласуемость,
программный код
170
Пример ограничений:
E
2
C(x1, x2 )  x1, x2, x1x2 
 1  1  1 1 1 



1 0  1 p( x1 ) 
0
0


0 0

1  1 p( x 2 )



0 0 0



p
(
x
x
)
1


1 2 
1  p( x1 )  p( x 2 )  p( x1x 2 )  0

p( x1 )  p( x1x 2 )  0

p( x 2 )  p( x1x 2 )  0
p( x1x 2 )  0
171
Программный код на C++
for (i = 0; i < pow2(N); i++)
{
c.add(IloRange(env, 0.0, IloInfinity ));
for(j = 0; j < pow2(N); j++)
if (i & j = i)
{
//Проверка на четность количества 1 в i xor
j.
if (parity(i ^ j)) {c[i].setCoef(x[j], 1)};
else {c[i].setCoef(x[j], -1)};
}
}
172
Непротиворечивое распределение
Мы будем говорить, что набор оценок
p : C  [0;1]
непротиворечив,
(является
. распределением вероятностей)
если он удовлетворяет условиям типаE
173
Фрагмент знаний
Идеал конъюнктов:


C( A ' )  x i1  x ik | 1  i1,, ik  n
Ограничения на вероятность истинности:
p ( X)  p( X)  p ( X)
n
D
Эти ограничения будем обозначать
.
174
Графическое представление ФЗ
x1x2x3
x1x2
x1 x2
x1
x2
x1
x1x3
x2x3
x3
x2
175
Непротиворечивость
(согласованность) ФЗ
Фрагмент знаний
C непротиворечив, если
X C t  [p ( X); p ( X)]
существует непротиворечивое распределение


Y  C \ { X}
p:
p ( Y )  p( Y )  p ( Y )
p( X)  t
176
Согласуемость ФЗ
ФЗ называется согласуемым, если существует
хотя бы одно непротиворечивое распределение
p
такое, что
Y  C
p ( Y)  p( Y)  p ( Y)
177
Поддержание непротиворечивости
Для того чтобы получить из согласуемого
ФЗ согласованный, требуется решить ряд задач
линейного программирования.
Для каждого
X C
по две:
p  ( X)  min(p( X))
DE
p ( X)  max(p( X))
DE
178
Байесовские сети доверия
Дополнительные сведения
179
Фрагменты знаний
первого порядка
x1
x1
x1
x1
180
Фрагменты знаний
второго порядка
x1x2
x1
x2
x1
x2
x2
x1
181
Фрагменты знаний
третьего порядка
x1x2x3
x1
x1x2
x1x3
x2
x2x3
x3
x1
x2
x3
182
Линейная цепь ФЗ (1)
x1x2
x2x3
x1
x2
x3
x1
x2
x3
x1
x2
x3
183
Линейная цепь ФЗ (2)
x3x4
x2x3
x1x2
x4
x3
x2
x1
x1
x2
x3
x4
x1
x2
x3
x4
184
Скачать