Синтез адаптивного помехоустойчивого фильтра границ

реклама
Синтез адаптивного помехоустойчивого
фильтра границ на основе нейронной сети
к.т.н. А.М. Астапкович
Ведущий инженер Ланит-Терком, СПбГУ
Начальник Студенческого Конструкторского Бюро
Университета Аэрокосмического Приборостроения
Cанкт-Петербург, Россия
2010
СОДЕРЖАНИЕ ДОКЛАДА
(всего 27 слайдов)
• Краткий обзор работ по исследованию нейроконтроллеров в
системах управления в ГУАП
• Постановка задачи и алгоритм одношагового обучения нейронной
сети
• Обучение через показ, как копирование эвристик
• Постановка задачи синтеза помехоустойчивого детектора краев
• Результаты численных экспериментов
• Эффект асимметрии обучения
• Детектор краев на основе двухслойной нейросети с
предварительной фильтрацией шума
Заключение
Публикации по теме
НЕЙРОКОНТРОЛЛЕР СИСТЕМЫ УПРАВЛЕНИЯ
Пульт
управления
Hub
IP-контроллеры сбора и
управления
IP-видеокамеры
СТРУКТУРА ИУС ВЕРТОЛЕТНОГО СТЕНДА
-ДЛЯ НЕЙРОКОНТРОЛЛЕРА
ОДНОКАНАЛЬНОЙ СИСТЕМЫ
УПРАВЛЕНИЯ ПО КУРСУ ДЛЯ
ВЕРТОЛЕТА ПОПЕРЕЧНОЙ СХЕМЫ
ИССЛЕДОВАЛАСЬ МЕТОДИКА
“ОБУЧЕНИЕ БЕЗ УЧИТЕЛЯ ” ;
-БЫЛ СДЕЛАН ВЫВОД О
ЦЕЛЕСООБРАЗНОСТИ
ИСПОЛЬЗОВАНИЯ МЕТОДИКИ
“ОБУЧЕНИЕ С УЧИТЕЛЕМ”;
СТУДЕНЧЕСКИЕ ИССЛЕДОВАТЕЛЬСКИЕ ПРОЕКТЫ
Студенческое Конструкторское Бюро ГУАП
- Дистантный
иммобилизатор;
- Видеосистема;
Роботы:
PHOENIX-X
Виртуальные
SOFA-2009
Мат.модель
2колесного
робота
роботы
2006 - 2007
2007 - 2008
2008 - 2009
Нейронный
Детектор
Границ
2010
Главная цель проектов “Phoenix-X” изучение и развитие
методологии использования нейронных сетей, обучаемых
по методике “Обучение через показ”;
-Детали на сайте guap.ru/english version/student design center или в
GOOGLE набрать Астапкович А.М. и далее страница СКБ
СИНТЕЗ НЕЙРОКОНТРОЛЛЕРА ДЛЯ РОБОТА ФЕНИКС-1
- ИССЛЕДОВАЛАСЬ ВОЗМОЖНОСТЬ ИСПОЛЬЗОВАНИЯ В КАЧЕСТВЕ
УЧИТЕЛЯ ЭВРЕСТИЧЕКОГО АЛГОРИТМА;
Контрастная
полоса
Центр экрана номер пиксела N0
Измерительная полоса
D
Детектор положения полосы
-В одной из серий проведенных экспериментов робот управлялся ПИД
регулятором по параметру D, рассчитанному для полосы D1. При этом
записывались данные по всем измерительным полосам D1-D5, которые в
дальнейшем использовались для расчета весов нейронной сети.
- Использовалась методика “Обучение через показ”, реализованная на
MathCad;
PHOENIX-3
Легенда проекта PHOENIX-3
Автономный робот Phoenix-3 должен патрулировать по заданному
маршруту с целью обнаружения очагов возгорания. Для ориентации на
маршруте должна использоваться бортовая камера с поворотным
механизмом и трансфлокатором. В случае обнаружения очагов возгорания
робот должен погасить огонь с помощью бортового огнетушителя.
•Система технического зрения необходимая составляющая системы
управления современных роботов ;
•Детектор краев – это важнейшая составляющая системы
технического зрения, используемая в различных приложениях;
ДЕТЕКТОР ГРАНИЦ НА ОСНОВЕ ФИЛЬТРА ЛАПЛАСА
- Фильтр Лапласа очень эффективен с точки реализации, но
неустойчив к шумам;
- ИСПОЛЬЗОВАЛОСЬ ИССКУСТВЕННО СГЕНЕРИРОВАННОЕ
ИЗОБРАЖЕНИЕ И МОДЕЛЬ ОДНОРОДНОГО ШУМА ;
ИСХОДНОЕ “DOG AND BALL”
TEST_FIG
NOISY_TEST
ОТФИЛЬТРОВАННОЕ
0
-1
0
-1
4
-1
0
-1
0
LF_FIG_1
LF_NTEST_FIG
КОНЦЕПЦИЯ ФИЛЬТРА ГРАНИЦ НА ОСНОВЕ НЕЙРОННОЙ СЕТИ
Кусочно- линейная
активационная
Фильтр 3*3
функция
S1
S1 S2 S3
F(x)
(S,W)
S2
S4 S5 S6
S7
S8
SNSEN
S9
Изображение
THmin
THmax
1
ТЕРМИНОЛОГИЯ
- “ ОБУЧЕНИЕ” процедура определения вектора W и порогов
активационной функции ;
“ОБУЧЕНИЕ ЧЕРЕЗ ПОКАЗ“ - “ОБУЧЕНИЕ” c помощью набора
“ПРИМЕРОВ” ;
- “ПРИМЕР” – пара изображений “ИСХОДНОЕ ИЗОБРАЖЕНИЕ” и
“РЕЗУЛЬТИРУЮЩЕЕ ИЗОБРАЖЕНИЕ”;
RESi,j
ОДНОШАГОВАЯ ПРОЦЕДУРА ОБУЧЕНИЯ
S1(0,0) S2(0,0)
w1
S1(0,1) S2(0,1) ................. 1
………………………………..
w2
S1(i,j) S2(i,j )
Snsen(i,j)
S
F-
=
F(0,1)
…..
………
F( i,j)
1
…………………………………
S*W = F -
*
F(0,0)
wnsen+1
………
некорректная по Адамару задача для определения W
- прямоугольная матрица, сформированная из исходного изображения;
вектор, сформированный из результирующего изображения;
Регуляризация по Тихонову обеспечивает устойчивое решение
min
w
F(w) = (SW - F, SW – F)
+  (W,W)
Процедура обучения без учета порогов
W = (ST S +  E) –1 ST F
ОБУЧЕНИЕ ПО НАБОРУ ПРИМЕРОВ
ПРОЦЕДУРА ОДНОШАГОВОГО ОБУЧЕНИЯ
W = (ST S +  E) –1 ST F
СЛУЧАЙ ДВУХ ПРИМЕРОВ
Пример_1 :
S1
Пример_2 : S2
F1
S1
S =
F2
F1
F =
S2
F2
Обучение по одному примеру
W1 = (S1T S1 +  E) –1 * S1
Обучение по двум примерам
W2 = (S1T S1 + S 2T S2 +  E) –1 * (S1T F1+S2T F2)
T
F1
ПРОЦЕДУРА ДООБУЧЕНИЯ
Введем :
Sek =
Fek =
∑ SkTSk - матрица предыдущего опыта с k примерами
∑ SkTFk – вектор опыта с k примерами
Wk+1 = (Sek + S k+1T Sk+1 +  E) –1 * (Fek+Sk+1T Fk+1)
КОПИРОВАНИЕ ЭВРИСТИК
РЕЗУЛЬТИРУЮЩЕЕ ИЗОБРАЖЕНИЕ:
ПРИМЕР_1: ИСХОДНОЕ ИЗОБРАЖЕНИЕ
50
50
50
50
50
ОТФИЛЬТРОВАНОЕ ПО ЛАПЛАСУ Исходное Изобр.
0
0
0
0
0
0 -200 -200
0 -200 400 200
0 -200 200
0
0 -200 200
0
0 -200 200
0
50 50 50 50 50
50 50 50 50 50
50 250 250 250 250
50 250 250 250 250
50 250 250 250 250
0
0
-200 -200
200 200
0
0
0
0
0
0
LF_CLEAN_REC1
CLEAN_REC1
ТЕСТ ПРОЦЕДУРЫ (КРАЖА ЭВРИСТИКИ)
ИСХОДНОЕ ИЗОБРАЖЕНИЕ : NOISY_REC1
РЕЗУЛЬТИРУЮЩЕЕ ИЗОБРАЖЕНИЕ : ОТФИЛЬТРОВАННАЯ
ПО ЛАПЛАСУ ЗАШУМЛЕННОЕ ИСХОДНОЕ ИЗОБРАЖЕНИЕ
 W1_L0 W1_L1 W1_L2   1.269  10 6 1 1.269  10 6 


LN_WEIGTHS   W1_L3 W1_L4 W1_L5   
1
4
1




 W1_L6 W1_L7 W1_L8   1.269  10 6 1 1.269  10 6 


NOISY_REC1
LF_NOISY_REC1
 13
LN_WEIGHTS_CONST  W1_L  2.392  10
9
- Использовалось сгенерированное 100*100 bmp изображение =104 примеров;
- Добавлен 10-й коэффициент (сенсор) для учета постоянной составляющей;
НЕЙРОНОПОДОБНАЯ ЛАПЛАС ФИЛЬТРАЦИЯ
ЧИСТОЕ И ЗАШУМЛЕННОЕ
BMP ИЗОБРАЖЕНИЕ “СОБАКА И МЯЧ”
- МОДЕЛЬ ОДНОРОДНОГО ШУМА С
АМПЛИТУДОЙ 60 (+/- 30) ;
- ТУЛОВИЩЕ СОБАКИ ИМЕЕТ
ИНТЕНСИВНОСТЬ 150 ;
TEST_FIG
NOISY_TEST
LF_FIG_1
LF_NTEST_FIG
LF_NFIG_1
LF_NFIG_1
THmin =
-20
THmin =
60
- НЕЙРОНОПОДОБНАЯ ЛАПЛАС-ФИЛЬТРАЦИЯ – НЕЙРОННЫЙ ФИЛЬТР ГРАНИЦ С
КОЭФФИЦИЕНТАМИ КЛАССИЧЕСКОГО ФИЛЬТРА ЛАПЛАСА, НО С УЧЕТОМ ПОРОГОВ;
КЛЮЧЕВЫЕ ВОПРОСЫ ПРИ СИНТЕЗЕ ФИЛЬТРА
КАКАЯ ДЛИНА ФИЛЬТРА ДОЛЖНА БЫТЬ ИСПОЛЬЗОВАНА ?
Условие симметрии ограничивает к-во
коэффициентов (весов):
- 3*3
- 5*5
- 7*7
=>
3+3 =>
6+4 =>
3
6
10
КАКОГО ТИПА ПРИМЕРЫ ДОЛЖНЫ БЫТЬ ИСПОЛЬЗОВАНЫ ?
- ГРАНИЦЫ ЗАДАВАЕМЫЕ ВРУЧНУЮ
С РЕГУЛИРУЕМОЙ ТОЛЩИНОЙ
(на изображении толщина 2) ?
- ЛАПЛАС, SOBEL, CANNY ?
CLEAN_REC1
BORDER_REC1
NOISY_REC1
КАК МНОГО ПРИМЕРОВ НАДО ?
- ПРЯМОУГОЛЬНИКИ, КРУГИ , ТИП ШУМА….? ;
- СМЕШАНЫЙ НАБОР …..?
CLEAN_BAL1
BORDER_BAL1
NOISY_BAL1
ЧИСЛЕННЫЕ ЭКСПЕРИМЕНТЫ
НАБОР ПРИМЕРОВ
ЗАШУМЛЕННЫЕ
ИЗОБРАЖЕНИЯ
ЛАПЛСАС
ГРАНИЦЫ
РИСОВАННЫЕ
ГРАНИЦЫ
-5*5 НЕЙРОФИЛЬТР
СИНТЕЗИРОВАЛСЯ (ОБУЧАЛСЯ)
С ПОМОЩЬЮ РАЗНЫХ
ПРИМЕРОВ REC и BALL;
ЧИСЛО ПРИМЕРОВ СОСТАВЛЯЛО
(1-2)*104;
NOISY_REC1
LF_CLEAN_REC1
BORDER_REC1
- НЕЙРОФИЛЬТР ТЕСТИРОВАЛСЯ
НА ЗАШУМЛЕННОМ
ИЗОБРАЖЕНИИ ”СОБАКА И МЯЧ”
;
- НИЖНИЙ ПОРОГ ПОДБИРАЛСЯ
“ВРУЧНУЮ” НА ЗАШУМЛЕННОМ
ИЗОБРАЖЕНИИ ”СОБАКА И МЯЧ”
NOISY_BAL1
LF_CLEAN_BAL1
BORDER_BAL1
ЧИСЛЕННЫЕ ЭКСПЕРИМЕНТЫ -
I
ИСПОЛЬЗОВАЛИСЬ РИСОВАННЫЕ ГРАНИЦЫ С ТОЛЩИНОЙ 2 ;
- ИСПОЛЬЗОВАЛИСЬ ПРИМЕРЫ REC и REC+BALL ;
- ВЕКТОР ВЕСОВ ПРЕОБРАЗОВАН ДЛЯ УДОБСТВА В МАТРИЦУ ФИЛЬТРА :
0.07
 0.155

 0.067 9.212  10 3
H51   0.07
0.169

 0.086
0.013

0.059
 0.136
0.084
0.075
0.139 
3
0.17 6.329  10
0.376
0.175
3
0.155 6.182  10
0.091
0.065

0.079 
0.083 

0.077 

0.152 
H51_CONST  4.991
 0.105
 0.086

H52   0.018
 0.084

 0.101
3
0.071 2.54  10
0.023
0.149
0.146
0.533
0.019
0.136
3
0.064 3.808  10


0.027
0.085

3
0.15 9.57  10

0.013
0.097


0.071
0.095
0.075
0.099
H52_CONST  2.265
ФИЛЬТРАЦИЯ ЧИСТОГО И ЗАШУМЛЕННОГО ТЕСТОВОГО ИЗОБРАЖЕНИЯ (TR min = 50)
NHL5_FIG_1C
CLEAN :
NHL5_FIG_2C
H51
NHL5_FIG_1N
H52
NOISY:
NHL5_FIG_2N
H51
ВЫВОД: ФИЛЬТР ОБУЧЕННЫЙ ПО ДВУМ ИЗОБРАЖЕНИЯМ ЛУЧШЕ ;
H52
ЧИСЛЕННЫЕ ЭКСПЕРИМЕНТЫ-
II
- ИСПОЛЬЗОВАЛИСЬ ПРИМЕРЫ С ФИЛЬТРОМ ЛАПЛАСА;
- ИСПОЛЬЗОВАЛСЯ НАБОР ПРИМЕРОВ REC and REC+BALL;
- ВЕСА ТРАНСФОРМИРОВАНЫ В МАТРИЦУ ФИЛЬТРА;
 4.399  10 3


0.151

L51 
0.245

0.153


3
 2.188  10
0.156 0.251 0.152 0.011 
0.293 0.16 0.314 0.152 


0.337 0.132 0.325 0.152 

0.142 0.287 0.148 0.017 
0.169 0.824 0.167
0.273
 8.123  10 3


0.084

L52 
0.077

0.07


3
 6.509  10
L51_CONST  0.091
0.073 0.097 0.086 0.016 
0.2
0.121 0.173 0.076 


0.218 0.116 0.206 0.091 

0.065 0.105 0.079 0.012 
0.081 1.504 0.103 0.103
L52_CONST  0.135
ФИЛЬТРАЦИЯ ЧИСТОГО И ЗАШУМЛЕННОГО ТЕСТОВОГО ИЗОБРАЖЕНИЯ (TR min = 65)
NLL5_FIG_1C
CLEAN :
NLL5_FIG_2C
L51
ВЫВОД :
NLL5_FIG_1N
L52
NOISY:
NLL5_FIG_2N
L51
L52
ДЛЯ ОБУЧЕНИЯ (СИНТЕЗА) ВОЗМОЖНО ИСПОЛЬЗОВАНИЕ
АЛГОРИТМОВ ДАЖЕ БЕЗ ИХ ОПИСАНИЯ (“КОПИРОВАНИЕ ЭВРИСТИК”;
ЧИСЛЕННЫЕ ЭКСПЕРИМЕНТЫ -
III
- ИСПОЛЬЗОВАЛИСЬ РИСОВАННЫЕ ГРАНИЦЫ С ТОЛЩИНОЙ 1 ;
 1.431  10 3


0.069

H51 
0.137


0.083


3
 4.21  10
3
0.073 0.134 0.071 8.796  10
0.143 0.09 0.148
0.071
0.094 0.371 0.091
0.145
0.164 0.076 0.159
0.07
4
0.066 0.151 0.074 3.713  10







 6.134  10 3

 0.051
H52  
0.034


0.052


0.012

H51_CONST  4.991
3
0.036 0.051 0.041 4.03  10



0.044 0.541 0.04
0.038

0.128 0.036 0.13
0.047

3
0.037 0.054 0.041 9.927  10

0.117 0.034 0.107
0.043
H52_CONST  2.265
ФИЛЬТРАЦИЯ ЧИСТОГО И ЗАШУМЛЕННОГО ТЕСТОВОГО ИЗОБРАЖЕНИЯ С ПОРОГАМИ :
TRmin=30
NHL5_FIG_2C
CLEAN :
TRmin=40
NHL5_FIG_1N
H51
NOISY:
TRmin=40
NHL5_FIG_2N
H51
H52
ВЫВОД : ДЛЯ ВЫБОРА ПОРОГОВ СЛЕДУЕТ ВВЕСТИ НОРМУ КАЧЕСТВА ФИЛЬТРАЦИИ
ПРОВЕРКА КАЧЕСТВ ФИЛЬТРА
- ИСПОЛЬЗОВАЛСЯ СИНТЕЗИРОВАННЫЙ 5*5
ФИЛЬТР С ИСПОЛЬЗОВАНИЕМ:
- ДВУХ ИЗОБРАЖЕНИЙ REC и BALL
ОТФИЛЬТРОВАННЫХ ЛАПЛАС ФИЛЬТРОМ;
- ЭТИХ ЖЕ ИЗОБРАЖЕНИЙ С
ГРАНИЦАМИ,ЗАДАВАЕМЫМИ ВРУЧНУЮ
С ТОЛЩИНОЙ 2;
MASTER_PIC
- НИЖНИХ ПОРОГОВ
ГРАНИЦЫ (2) ЗАДАНЫ ВРУЧНУЮ
M_TEST_52H_30
M_TEST_52H_60
30 И 60 ;
ЛАПЛАС ГРАНИЦЫ
M_TEST_52L_30
M_TEST_52L_60
ЗАКЛЮЧЕНИЕ: ПРЕДЛАГАЕМАЯ МЕТОДИК СИНТЕЗА ФИЛЬТРА (ДЕТЕКТОРА) ГРАНИЦ ПРЕКРАСНО
РАБОТАЕТ ;
Эффект асимметрии обучения
- Эффект асимметрии обучения был обнаружен с помощью модели
SOFA-2009 при исследовании свойств нейроконтроллера
управления движением для задачи парковки;
- Применительно к детектору границ этот эффект подразумевает равенство
симметричных коэффициентов фильтра, записанного в матричной форме;
- На основе использования разности симметрично расположенных
коэффициентов может быть введена метрика для оценки качества
обучения;
ONE SAMPLE LEARNING
 1.431  10 3

 0.069
H51  
0.137

 0.083

3
 4.21  10
TWO SAMPLE LEARNING
3
0.073 0.134 0.071 8.796  10
0.143 0.09 0.148
0.071
0.094 0.371 0.091
0.145
0.164 0.076 0.159
0.07
4
0.066 0.151 0.074 3.713  10
H51_CONST  4.991







 6.134  10 3

 0.051
H52  
0.034

 0.052

 0.012
3
0.036 0.051 0.041 4.03  10
0.117 0.034 0.107
0.044 0.541
0.04
0.128 0.036 0.13
0.037 0.054 0.041
H52_CONST  2.265

0.043 

0.038

0.047 
3
9.927  10 
МОДИФИЦИРОВАННАЯ ОДНОШАГОВАЯ
ПРОЦЕДУРА ОБУЧЕНИЯ - I
•
Симметрия весов может быть обеспечена с
использованием явного описания свойств симметрии в
виде линейных соотношений для симметрично
расположенных весов фильтра;
•
Метод множителей Лагранжа идеально подходит для этих
целей;
•
Этот подход и алгоритм был проверен при численных
экспериментах с нейроконтроллером виртуального робота
SOFA-2009 для задачи обучения нейроконтроллера
парковке робота в заданной точке ;
СИМЕТРИЗАЦИЯ КОЭФФИЦИЕНТОВ ФИЛЬТРА
•
Соотношения симметрии для двух весов записываются в виде
набора равенств
W(k,i) = W(m,n)
•
В общем случае эти соотношения выражаются в матричном виде
LW=b
вектор b для симметризации нейрофильтра (b,b)=0;
•
Метод множителей Лагранжа для одношаговой процедуры
обучения формулируется как задача линейного программирования
для квадратичного функционала F(W)
min F(W) = (SW - F, SW – F)
W,Dμ
+  (W,W) + Dμ (LW-b)
СИММЕТРИЗОВАННОЕ РЕШЕНИЕ
• Пусть μ вектор множителей Лагранжа
μ = [μ1, μ2, ……. μ Nsym ]T
• Для модифицированного вектора весов, правых частей
и матриц
Wμ = [ W μ]T
Fμ = [ F b]T
L
LT
0
Eμ =
E
0
0
Sμ =
S
0
Решение выражается в виде
Wμ= (SμTSμ+ Eμ)-1 SμT Fμ
Вывод : учет симметрии не требует изменения, как таковой,
процедуры обучения, изменяется ее формулировка
ДВУХСЛОЙНАЯ НЕЙРОСЕТЬ
Зашумленное
изображение
•
НЕЙРОФИЛЬТР
НЕЙРО
КОНТУРЫ
ДЕТЕКТОР
изображения
ШУМА
КРАЕВ
НЕЙРОФИЛЬТР ШУМА СИНТЕЗИРУЕТСЯ ПО ПРИМЕРУ : ЗАШУМЛЕННОЕ ИЗОБРАЖЕНИЕ
ЧИСТОЕ ИЗОБРАЖЕНИЕ ;
•
НАБОР ПРИМЕРОВ : “RECT” И “RECT” + “BALL”;
 0.03
 0.024

A51   0.114
 0.028

 0.03
0.027 0.114 0.029 0.031 
0.011 0.149 0.019
0.151 0.354
0.15
0.025 0.141 0.022
0.024 0.124 0.024
A51_CONST  0.473

0.026

0.119 
0.029 

0.032 
 0.02


0.013

A52   0.059

 0.01

 0.018
3
9.717  10
5
8.651  10
0.114
0.063
0.013
0.106
6.94  10
3
0.485
3
2.689  10
3
8.067  10
0.11
3
0.106 4.459  10
0.064
0.012
A52_CONST  0.311
•ИСПОЛЬЗОВАЛАСЬ ТА ЖЕ ПРОЦЕДУРА СИНТЕЗА (ОБУЧЕНИЯ);


3
8.002  10

0.062


0.018


0.018

0.017
ЭКСПЕРИМЕНТЫ С ДВУХСЛОЙНОЙ НЕЙРОСЕТЬЮ
ЗАШУМЛЕННАЯ
NOISY_TEST
ЧИСТАЯ
TEST_FIG
ФИЛЬТР ШУМА (REC)
AN5_FIG_1
ФИЛЬТР ШУМА (REC+BALL)
AN5_FIG_2
НЕЙРО- ДЕТЕКТОР ГРАНИЦ ОБУЧЕНЫЙ ПО ЛАПЛАСУ
LF_NFIG_1
LF_FIG_1
ALF_FIG_1
ALF_FIG_2
ЗАКЛЮЧЕНИЕ (МЯГКОЕ)
•
ПРЕДЛАГАЕМЫЙ ПОДХОД “КОПИРОВАНИЯ ЭВРИСТИК” ПРЕДСТАВЛЯЕТСЯ ОЧЕНЬ
ПЕРСПЕКТИВНЫМ ИЗ-ЗА ПОТЕНЦИАЛЬНЫХ ВОЗМОЖНОСТЕЙ СУЩЕСТВЕННОГО
СОКРАЩЕНИЯ ВРЕМЕНИ НА РАЗРАБОТКУ СИСТЕМ УПРАВЛЕНИЯ ВСТРАИВАЕМОГО
КЛАССА ;
•
ДАЛЬНЕЙШИЕ ШАГИ ПО ТЕОРЕТИЧЕСКОМУ ИССЛЕДОВАНИЮ ПРЕДЛАГАЕМОЙ
МЕТОДОЛОГИИ СИНТЕЗА ;
- АВТОМАТИЧЕСКИЙ ВЫБОР НИЖНЕГО ПОРОГА НА ОСНОВЕ НОРМЫ: “СУММА
КОЛИЧЕСТВА ТОЧЕК С ЛОЖНЫМИ ГРАНИЦАМИ И КОЛИЧЕСТВА ТОЧЕК С
ПРОПУЩЕННЫМИ ИСТИННЫМИ ГРАНИЦАМИ”;
- ИССЛЕДОВАНИЕ ВОЗМОЖНОСТИ КОПИРОВАНИЯ ЭВРИСТИК НА ПРИМЕРЕ
ОБУЧЕНИЯ С ИСПОЛЬЗОВАНИЕМ ФИЛЬТРА CANNY, СЧИТАЮЩИМСЯ ЛУЧШИМ;
ЗАКЛЮЧЕНИЕ (ТВЕРДОЕ)
•
В ОБЩЕМ СЛУЧАЕ МНОГОКАНАЛЬНЫХ СИСТЕМ УПРАВЛЕНИЯ
РЕАЛЬНОГО ВРЕМЕНИ С ИСПОЛЬЗОВАНИЕМ ВИДЕО
ЗАДАЧА РЕАЛИЗАЦИИ МНОГОПИКСЕЛЬНОГО ФИЛЬТРА
ДОСТАТОЧНО РЕСУРСОЕМКА ;
•
ПРИМЕНИТЕЛЬНО К ВЫСОКОИНТЕСИВНЫМ ВИДЕОПОТОКАМ
ДЛЯ РЕАЛИЗАЦИИ ТАКОГО РОДА СИСТЕМ ПОТРЕБУЕТСЯ
ИСПОЛЬЗОВАНИЕ СОВРЕМЕННЫХ FPGA (Xilinx, Altera);
•
КОЛИЧЕСТВО БЛОКОВ DSP НА ОДНОМ ЧИПЕ СОСТАВЛЯЕТ
ВЕЛИЧИНУ МАСШТАБА 1000;
•
В НАСТОЯЩЕЕ ВРЕМЯ ЭТА РАБОТА НАЧАТА В РАМКАХ
СТУДЕНЧЕCКОГО ПРОЕКТА РЕАЛИЗУЕМОГО В ЛАБОРАТОРИИ MG
ДЕПАРТАМЕНТА РЭА;
ПУБЛИКАЦИИ ПО ТЕМЕ
1.
Astapkovitch A.M. Learning Asymmetry Effect for the Neuron Net Control Systems.
Proc. International forum “Modern information society formation – problems,
perspectives, innovation approaches ”, p.7-13,SUAI
Saint-Petersburg,June 6-11, 2009
2.
Astapkovitch A.M. Virtual mobile robot SOFA-2009
Proc. International forum “Information and communication technologies and higher
education - priorities of modern society development”, p.7-15,SUAI Saint-Petersburg,
2008
3.
Astapkovitch A.M. Оne step learning procedure for neural net control system.
Proc. International forum “Information systems. Problems, perspectives , innovation
approaches” , p.3-9,SUAI Saint-Petersburg, 2007
3.
http://guap.ru > english version > student design center > student projects >
SOFA-2009 and publications
Скачать