1 Информация и информационные процессы § 1. Количество информации § 2. Передача данных § 3. Сжатие данных § 4. Информация и управление § 5. Информационное общество К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru 2 Информация и информационные процессы § 1. Количество информации К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 3 Формула Хартли (1928) N 2 I N I I log 2 N – количество информации в битах – количество вариантов Ральф Хартли Пример: В аэропорту стоит 10 самолетов, из них один летит в Санкт-Петербург. Оценить количество информации в сообщении «В Санкт-Петербург летит второй самолет»? ln 10 lg 10 3,322 бита I log 2 10 ln 2 lg 2 К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 4 Алфавитный подход N – мощность алфавита Информационный объём символа: i log 2 N вверх до целого числа сообщения длиной L: I L log 2 N Пример: сообщение длиной 100 символов закодировано с помощью алфавита из 50 знаков. i log 2 50 5,644 бита I 100 log 2 50 564,4 6 битов бита 600 битов К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 5 Количество различных сообщений алфавит: А, Б, В, Г А, Б, В, Г А, Б, В, Г всего: 4 всего: 44 = 42 = 16 А, Б, В, Г для каждого варианта N – мощность алфавита L – длина сообщения Q – количество различных сообщений Q NL К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 6 Информация и вероятность Доля символов в русских текстах: из 1000 символов около 175 пробелов К.Ю. Поляков, Е.А. Ерёмин, 2013 О Е А И Т Н С р В Л К М Д П У 0,175 0,090 0,072 0,063 0,062 0,053 0,052 0,045 0,040 0,038 0,035 0,028 0,026 0,025 0,023 0,021 Я Ы З Ь Б Г Ч Й Х Ж Ю Ш Ц Щ Э Ф вероятность p появления символа 0,018 0,017 0,016 0,015 0,014 0,013 0,012 0,010 0,009 0,007 0,006 0,005 0,004 0,003 0,002 0,001 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 7 Вероятность Вероятность события – число от 0 до 1, показывающее, как часто случается это событие в большой серии одинаковых опытов. 0 p 1 x2 < 0 p0 событие никогда не происходит (нет неопределенности) p 0,5 событие происходит в половине случаев (есть неопределенность) событие происходит всегда (нет неопределенности) p 1 К.Ю. Поляков, Е.А. Ерёмин, 2013 x2 0 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 8 Вероятность N – количество испытаний m – сколько раз произошло событие m p N 1 p ровно 2: 6 3 1 чётное: p 6 2 2 1 меньше 3: p 6 3 К.Ю. Поляков, Е.А. Ерёмин, 2013 1 p 2 и 2: 36 33 1 2 чётных: p 36 4 4 1 оба меньше 3: p 36 9 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 9 Вероятность и информация Чем более неожиданно событие, тем больше получено информации. p 1 …АААААААААААААААААА получили букву «А»: p0 I 0 …BАААААААААААААААААА получили букву «В»: I В 10 опытах будет получено в 10 раз больше информации, чем в одном (аддитивность). ! Определили свойства количества информации! К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 10 Вероятность и информация f ( p) K log 2 p при K = 1 информация в битах Если событие имеет вероятность p, то количество информации в битах, полученное в сообщении об этом событии, равно 1 I log 2 p log 2 p p 1 I log 2 1 0 p 0 I log 2 К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 11 Вероятность и информация Аддитивность: по 8 шариков разного цвета всего 88 = 64 варианта 1 p 8 1 I1 I 2 log 2 log 2 8 3 бита p I I1 I 2 6 битов ! 1 p 64 I log 2 64 6 битов Аддитивность выполняется! К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 12 Связь с формулой Хартли 1 N равновероятных событий p N 1 I log 2 log 2 N совпадает с p формулой Хартли Если вероятности разные: «Васе достался зелёный шарик». 6 3 p 8 4 К.Ю. Поляков, Е.А. Ерёмин, 2013 4 I log 2 0,415 0,5 3 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 13 Формула Шеннона Количество полученной информации равно уменьшению неопределенности. I = H = Hнач – Hкон ? Как вычислить H? Неопределённость знаний об источнике данных (N событий, вероятности pi): Клод Шеннон N 1 1 1 H pi log 2 p1 log 2 ... pN log 2 pi p1 pN i 1 информационная энтропия К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 14 Формула Шеннона «Идёт ли сейчас снег?» (1 – да, 2 – нет) 1 зимой: p1 Как вычислить p2? ? 2 1 p2 1 p1 2 ! Сумма вероятностей всех событий, составляющих полную систему, равна 1! 1 1 H log 2 2 log 2 2 log 2 2 1 бит 2 2 летом: p1 0,0001, p2 0,9999 1 1 H 0,0001 log 2 0,9999 log 2 0,0015 бит 0,0001 0,9999 К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 15 Когда неопределённость наибольшая? Система двух событий: p2 1 p1 H 1 Неопределенность максимальна, когда все события равновероятны. 0,5 p1 0 0,5 1 1 p1 p2 p N N К.Ю. Поляков, Е.А. Ерёмин, 2013 совпадает с формулой Хартли! N 1 H log 2 N log 2 N i 1 N http://kpolyakov.spb.ru 16 Информация и информационные процессы § 2. Передача данных К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 17 Скорость передачи данных Скорость передачи данных – это количество битов (байтов, Кбайт и т.д.), которое передается по каналу связи за единицу времени (например, за 1 с). бит/с = 1 bps (bits per second) 1 кбит/с = 1000 бит/с 1 Мбит/с = 106 бит/с скорость передачи 1 Гбит/с = 109 бит/с Объём переданных данных: I v t время v = 512000 бит/с, t = 1 мин I = v t = 512000 бит/с 60 с = 30 720 000 битов = 3 840 000 байтов = 3075 Кбайт. К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 18 Обнаружение ошибок 10010 ? Верно ли переданы данные? Бит чётности: 00 01 10 11 000 011 101 110 теперь число единиц в каждом блоке чётное Если в принятом блоке нечётное число «1» – ошибка! принято: 010 110 000 111 000 ? Можно ли исправить? Для файлов – контрольные суммы (хэш): CRC = Cyclic Redundancy Code MD5, SHA-1 К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 19 Помехоустойчивые коды 10010 111 000 000 111 000 – утроение каждого бита принято: 010111000101000 исправлено: 000111000111000 ! Обнаруживает 1 или 2 ошибки, исправляет 1 ошибку! Помехоустойчивый код – это код, который позволяет исправлять ошибки, если их количество не превышает некоторого уровня. К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 20 Расстояние Хэмминга Расстояние Хэмминга – это количество позиций, в которых отличаются два закодированных сообщения одинаковой длины. d(001, 100) = 2 d(000, 111) = 3 ? ! Обнаруживает 1 или 2 ошибки, исправляет 1 ошибку! Исправление r ошибок: d 2r + 1 К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 21 Передача 3-битных блоков 000000 001111 010011 011100 100101 101010 110110 111001 d(000000, x) = ? 0011114 0100113 1001013 1101104 0111003 1010103 1110014 dmin= 3 r = 1 Исправление ошибки принято: 101110 ! Недопустимый код! ближайший допустимый код: 101010 К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 22 Помехоустойчивые коды Хэмминга 4 полезных бита, 3 контрольных избыточность 3/4 =75% 1 2 3 4 5 6 7 3=1+2 0 1 1 1 1 0 0 5=1 +4 6= 2+4 7=1+2+4 бит 1: (1 + 1 + 0) mod 2 = 0 бит 2: (1 + 0 + 0) mod 2 = 1 бит 4: (1 + 0 + 0) mod 2 = 1 dmin= 3 r = 1 К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 23 Код Хэмминга: исправление ошибки 1 2 3 4 5 6 7 0 1 1 1 1 1 0 Контрольные биты: бит 1: (1 + 1 + 0) mod 2 = 0 бит 2: (1 + 1 + 0) mod 2 = 0 бит 4: (1 + 1 + 0) mod 2 = 0 Номер ошибочного бита: 2 + 4 = 6 0 1 1 1 1 0 0 1 1 0 0 К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 24 Длинные коды Хэмминга Контрольные биты: 1, 2, 4, 8, 16, … , 2k Длина кодовых слов, бит Число контрольных битов Избыточность 4 3 75% 11 4 36% 27 5 19% 58 6 10% 248 8 3% 1014 10 1% ! Исправляется только 1 ошибка в блоке! К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru 25 Информация и информационные процессы § 3. Сжатие данных К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 26 Что такое сжатие? Алфавит: A, B, C, Сообщение: АBА CАBАBА A 00 C 10 B 01 11 ! 80 битов в 8-битной кодировке! АBА CАBАBА 00 01 00 11 10 00 01 00 01 00 ? 20 битов Как раскодировать? Словарь: 00 000001002 4 символа 01 10 010000012 010000102 010000112 A (код 65) К.Ю. Поляков, Е.А. Ерёмин, 2013 B (код 66) C (код 67) 11 001000002 пробел (код 32) http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 27 Коэффициент сжатия Сообщение: 10240 символов Алфавит: A, B, C, Словарь: 5 байтов Длина кода: 10240×2 = 20480 битов = 2560 байтов Длина сжатого сообщения: 5 + 2560 = 2565 байтов Коэффициент сжатия – это отношение размеров исходного и сжатого файлов. 10240 k 4 2565 К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 28 Сжатие без потерь Сжатие без потерь – это такое уменьшение объема закодированных данных, при котором можно восстановить их исходный вид из кода без искажений. ? За счёт чего сжимается сообщение? ! В данных должна быть избыточность! используются только 4 символа из 256 К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 29 Алгоритм RLE RLE (англ. Run Length Encoding, кодирование цепочек одинаковых символов) Файл qq.txt A … A A B 100 Файл qq.rle (сжатый) 100 ? A 100 B B … B 200 байтов 100 сжатие в 50 раз! 4 байта В чем состоит избыточность? ? Сжатие с потерями или без? ? К.Ю. Поляков, Е.А. Ерёмин, 2013 Что в худшем случае? http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 30 Алгоритм RLE управляющие байты 100011112 110000002 000000102 110000012 110000102 повтор 15 A (код 192) 2 Б (код 193) В (код 194) Распаковка: 15 2 АААААААААААААААБВ Применение: • сжатие рисунков *.bmp (с палитрой) • один из этапов сжатия рисунков *.jpg К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 31 Неравномерные коды Идея: кодировать часто встречающиеся символы более короткими кодовыми словами. Азбука Морзе: Е • Т – И А Н М корень •• • – –• –– • •• Т Е • И ! – – А • Н – М Проблема: разделить последовательность на кодовые слова! И ЕЕ ? Можно ли обойтись без разделителя? К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 32 Префиксные коды Префиксный код – это код, в котором ни одно кодовое слово не является началом другого кодового слова (условие Фано). Е • Т – И А Н М корень •• • – –• –– • – Т Е • И не все символы в листьях! – А • Н – М ! Это не префиксный код! ! Проблема: как построить префиксный код? К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 33 Код Шеннона-Фано Алфавит: О, Е, Н, Т, Количество символов в сообщении: 179 О 89 Е 72 Н 53 Т 50 На 2 группы с примерно равным числом символов: 179 Т 50 О 89 229 начинаются с 0 00 Т 01 К.Ю. Поляков, Е.А. Ерёмин, 2013 Е 72 Н 53 214 начинаются с 1 О 10 Е 72 Н 53 начинаются с 11 Е 110 Н 111 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 34 Код Шеннона-Фано корень 0 0 ! 1 1 1 0 Т Это префиксный код (все символы в листьях дерева)! О 0 Е 1 Н Декодирование: 01100110001101111001 Т O Т O К.Ю. Поляков, Е.А. Ерёмин, 2013 Е Н О Т http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 35 Код Шеннона-Фано учитывается частота символов не нужен символ-разделитель код префиксный – можно декодировать по мере поступления данных нужно заранее знать частоты символов код неоптимален при ошибке в передаче сложно восстановить «хвост» не учитывает повторяющиеся последовательности символов К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 36 Алгоритм Хаффмана По увеличению частоты: Т 50 Н 53 Е 72 О 89 Е 72 О 89 103 Т 103 Т 179 Е К.Ю. Поляков, Е.А. Ерёмин, 2013 Дэвид Хаффман Н 161 Н 179 179 О http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 37 Алгоритм Хаффмана 179 264 1 0 Т Н Е Код Хаффмана: Т 100 Е 110 К.Ю. Поляков, Е.А. Ерёмин, 2013 1 1 0 О 0 0 0 Т Н Е 1 О Н 101 О 111 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 38 Сравнение алгоритмов Количество символов в сообщении: 179 О 89 Е 72 Н 53 Т 50 Равномерное кодирование (8-битный код): (179 + 89 + 72 + 53 + 50) 8 = 3544 бита Равномерное кодирование (3-битный код): (179 + 89 + 72 + 53 + 50) 3 = 1329 битов + словарь! ? К.Ю. Поляков, Е.А. Ерёмин, 2013 В чём избыточность? http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 39 Сравнение алгоритмов Количество символов в сообщении: 179 О 89 Е 72 Н 53 Т 50 Код Шеннона-Фано: 00 Е 110 О 10 Т 01 Н 111 (179 + 89 + 50) 2 + (72 + 53) 3 = 1011 битов 1329 k 1,31 1011 Код Хаффмана: 0 Е 110 Т 100 О 111 Н 101 179 + (89 + 72 + 53 + 50) 3 = 971 бит 1329 k 1,37 971 К.Ю. Поляков, Е.А. Ерёмин, 2013 ! Оптимален! http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 40 Алгоритм Хаффмана код оптимальный среди алфавитных кодов нужно заранее знать частоты символов при ошибке в передаче сложно восстановить «хвост» не учитывает повторяющиеся последовательности символов К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 41 Алгоритм LZW 1977: А. Лемпел и Я. Зив, 1984: Т. Велч Идеи: • кодировать не отдельные символы, а блоки • последовательностям символов присваиваются числовые коды • новая цепочка занесение в словарь с новым кодом словарь строится по мере получения данных не нужны частоты символов за один проход! Применение: • сжатие рисунков *.gif, *.tif • сжатие документов *.pdf К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 42 Сжатие с потерями Сжатие с потерями – это такое уменьшение объема закодированных данных, при которых распакованный файл может отличаться от оригинала. Идея: «отбросить» часть данных, которые не влияют на восприятие информации человеком (доп. размытие фотографий, частоты выше 20 кГц, …) Применение: • сжатие рисунков *.jpg, *.jpeg • сжатие звука *.mp3, *.aac, *.ogg, … • сжатие видео *.mpg, *.wmv, *.mov, … К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 43 Снижение глубины цвета 8 битов на пиксель 4 бита на пиксель (256 цветов) (16 цветов) 2 бита на пиксель (4 цвета) размер качество К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 44 Сжатие JPEG яркость «синева» RGB Y Cb Cr «краснота» глаз чувствительнее к зелёному! Y = 0,299R + 0,587G + 0,114B Cb = 128 – 0,1687R – 0,3313G + 0,5B Cr = 128 + 0,5R – 0,4187G – 0,0813B ? Что для чёрно-белого (серого)? Cb = Cr = 128 К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 45 Сжатие JPEG Идея: глаз наиболее чувствителен к яркости 6 чисел Y1, Cb1, Cr1 Y2, Cb2, Cr2 Y1, Y2, Y3, Y4, Cb, Cr например: Cb1 + Cb2 +Cb3 + Cb4 Cb = 4 Y3, Cb3, Cr3 Y4, Cb4, Cr4 12 чисел К.Ю. Поляков, Е.А. Ерёмин, 2013 Cr = Cr1 + Cr2 +Cr3 + Cr4 4 потери! + дискретное косинусное преобразование, алгоритмы RLE и Хаффмана http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 46 Сжатие JPEG Артефакты – заметные искажения из-за сжатия с потерями качество 100 (8400 байтов) качество 50 (3165 байтов) качество 0 (1757 байтов) V, Кбайт ! 40 30 качество 0 (фрагмент) Плавные переходы! 20 10 0 BMP BMP(RLE) К.Ю. Поляков, Е.А. Ерёмин, 2013 GIF PNG JPEG(100) JPEG(50) JPEG(0) http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 47 Сжатие рисунков с потерями и без ? ! V, Кбайт 120 100 80 60 40 20 0 BMP BMP(RLE) Что особенного? Большие области одного цвета! Чёткие границы! GIF без потерь! К.Ю. Поляков, Е.А. Ерёмин, 2013 PNG JPEG(100) JPEG(50) JPEG(0) с потерями! http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 48 Сжатие звука (MP3) MP3 = MPEG-1 Layer 3, кодирование восприятия Битрейт – это число бит, используемых для кодирования 1 секунды звука. MP3: от 8 до 320 кбит/c Без сжатия на CD (1 сек, 44 кГц, 16 бит, стерео): 288000 = 176 000 байт = 1 408000 бит = 1408 кбит Cжатие MP3 (256 кбит/с): 1408 k 5,5 256 К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 49 Сжатие видео видео = изображения + звук Кодек (кодировщик/декодировщик) – это программа для сжатия данных и восстановления сжатых данных. MJPEG, MPEG-4, DivX, Xvid, H.264, … Артефакты – заметные искажения из-за сжатия с потерями К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 50 Сжатие: итоги ! Сжатие уменьшает избыточность данных! ? Хорошо сжимаются: Нужно ли стремиться к • тексты (*.txt) полному удалению • документы (*.doc) избыточности? • несжатые рисунки (*.bmp) • несжатый звук (*.wav) • несжатое видео (*.avi) Плохо сжимаются: • случайные данные • сжатые данные в архивах (*.zip, *.rar, *.7z) • сжатые рисунки (*.jpg, *.gif, *.png) • сжатый звук (*.mp3, *.aac) • сжатое видео (*.mpg, *.mp4, *.mov) К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru 51 Информация и информационные процессы § 4. Информация и управление К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 52 Кибернетика Кибернетика – это наука, изучающая общие закономерности процессов управления и передачи информации в машинах, живых организмах и обществе. Идеи: • управление в любых системах подчиняется одним и тем же законам • управление связано с обменом информацией К.Ю. Поляков, Е.А. Ерёмин, 2013 Норберт Винер http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 53 Что такое система? Система – это группа объектов и связей между ними, выделенных из среды и рассматриваемых как одно целое. среда А Б В Г Примеры: • общество • семья • экологическая система • компьютер • файловая система • операционная система Системный эффект: свойства системы нельзя свести к «сумме» свойств ее компонентов. самолёт летает! К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 54 Что такое система? Свойства системы: компоненты + связи (алмаз, графит) Подсистема: компонент-система. элемент Б Г А Ж Е S1 В подсистема S2 Д S Надсистема: система более высокого уровня. ! Цель работы системы определяется надсистемой! Системный анализ: изучение сложных систем на основе теории управления и теории информации. К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 55 Системы управления среда цель управление регулятор объект Разомкнутая система – регулятор не получает информации о состоянии объекта (программное управление). Примеры: • водитель с завязанными глазами • начальник, не проверяющий рабочих • информационное табло на вокзале • светофор простота – не нужно датчиков • нужна точная модель объекта • нельзя учесть влияние среды К.Ю. Поляков, Е.А. Ерёмин, 2013 ! Неизвестно, достигнута ли цель! http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 56 Системы с обратной связью Замкнутая система – регулятор получает информации о состоянии объекта по каналу обратной связи. среда цель сравнение регулятор с целью! управление объект датчики обратная связь (ОС) • модель объекта может быть неточной • можно учесть влияние среды усложнение системы (датчики) Отрицательная ОС – регулятор уменьшает разницу между целью и состоянием объекта. К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 57 Типы систем управления Автоматические – работают без участия человека. Автоматизированные – собирают и обрабатывают информацию, а решения принимает человек. Адаптивные – «подстраиваются» под изменение внешних условия или свойств объекта. К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru 58 Информация и информационные процессы § 5. Информационное общество К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 59 Что такое информационное общество? Прогресс в обработке информации: • письменность (около 3000 лет до н.э., Египет) • книгопечатание (X век – Китай, XV век – Европа) • средства связи (телеграф, телефон, радио, телевидение; конец XIX – начало XX века); • компьютеры (вторая половина XX века). Информационное общество – это такая ступень развития цивилизации, на которой главными продуктами производства становятся информация и знания. К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 60 Информатизация Информатизация – переход к информационному обществу: • внедрение информационных технологий во все сферы жизни • развитие компьютерных сетей, сотовой связи и т.п. • необходимость компьютерной грамотности для всех • свобода доступа к информации; • доступность образования, в том числе дистанционного (через Интернет) • изменение структуры экономики • изменение уклада жизни людей К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 61 Информатизация Негативные последствия: • усиление влияния СМИ • разрушается частная жизнь людей • сложно выбрать качественные и достоверные данные • личное общение людей заменяется общением в Интернете • людям старшего поколения очень сложно приспособиться К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 62 Информационные ресурсы Ресурсы – условия, позволяющие после некоторой «обработки» получить желаемый результат. Информационные ресурсы – документы товар! в библиотеках, архивах, банках данных, информационных системах. Информационные услуги: • поиск и подбор информации • подбор персонала (кадровые агентства) • обучение (учебные центры) • рекламные агентства • консультации, услуги по оптимизации бизнеса • разработка программ и веб-сайтов К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 63 Информационные технологии Технология – это способ сделать «продукт» из исходных материалов (с гарантированным результатом!). Новые информационные технологии – это технологии, связанные с использованием компьютеров для хранения, защиты, обработки и передачи информации. • подготовка документов в электронном виде • поиск информации • телекоммуникации (сети, Интернет, e-mail) • автоматизированные системы управления (АСУ) • системы автоматизированного проектирования (САПР) • геоинформационные системы • обучение (электронные учебники, компьютерные тренажеры, дистанционное обучение). К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 64 Автоматизированные системы управления сервер, база данных Ресторан+ администратор рабочие места официантов, барменов, кассиров К.Ю. Поляков, Е.А. Ерёмин, 2013 менеджер производство (кухня) http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 65 Автоматизированные системы управления … технологическими процессами (АСУ ТП) локальная сеть датчики блок сбора информации блок управления GSM модем рабочее место оператора датчики блок сбора информации блок управления К.Ю. Поляков, Е.А. Ерёмин, 2013 GSM модем http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 66 САПР САПР – системы автоматизированного проектирования К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 67 Геоинформационные системы (ГИС) Измерение расстояния Панорамы улиц Проложить маршрут К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 68 Дистанционное обучение видеолекции самостоятельная работа письменные задания работа с тьютором (наставником) консультации по Интернету Интернет тьютор К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 69 Дистанционное обучение www.intuit.ru www.edx.org Гарвардский университет Массачусетский технологический институт www.coursera.org 33 университета www.udacity.com Стэнфорский университет Университет Виргиния www.khanacademy.org Академия Хана К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 70 Компьютерные тренажёры К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 71 Информационная культура Для общества – способность общества • эффективно использовать информационные ресурсы и средства обмена информацией • применять передовые достижения в области информационных технологий Для человека – умение • формулировать потребность в информации • находить нужную информацию • отбирать и анализировать информацию • представлять информацию в разных видах; • обрабатывать информацию • использовать информацию для принятия решений ! Нормы права и морали действуют по-прежнему! К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 72 Конец фильма ПОЛЯКОВ Константин Юрьевич д.т.н., учитель информатики ГБОУ СОШ № 163, г. Санкт-Петербург kpolyakov@mail.ru ЕРЕМИН Евгений Александрович к.ф.-м.н., доцент кафедры мультимедийной дидактики и ИТО ПГГПУ, г. Пермь eremin@pspu.ac.ru К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru Информация и информационные процессы, 11 класс 73 Источники иллюстраций 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. www.newbeanbag.ru compression.ru maps.yandex.ru ixbt.com www.dinamika-avia.ru www.transas.ru crazypiter.ru www.fotosearch.com www.notebookcheck.net www.energy2.ru www.wlangdesign.com www.1himplast.ru www.applecad.com gprs-modem.ru en.wikipedia.org nivo.co.za иллюстрации художников издательства «Бином» авторские материалы К.Ю. Поляков, Е.А. Ерёмин, 2013 http://kpolyakov.spb.ru