Выбор способа представления информации в соответствии с

advertisement
Урок 2. Выбор способа представления информации в соответствии с поставленной
задачей
Как уже было сказано, информацию об окружающем нас реальном мире мы получаем в
виде набора символов или сигналов. Но если эти символы или сигналы никому не понятны, то
информация бесполезна. Необходим язык общения - знаковый способ представления
информации. Основа языка - алфавит - некоторый конечный упорядоченный набор символов
или сигналов.
Мощность алфавита - полное число его символов (N).
За свою историю человек придумал много языков и алфавитов. Примеры языков:
естественные - мимика и жесты, музыка, живопись, речь человека;
Формальные - чертежи, схемы, формулы, ноты и т.д.
Естественный язык можно формализовать. (Для формализации музыки придумали
нотную грамоту, для формализации речи создали национальные алфавиты и т.п.)
Примеры алфавитов: латинский (26 символов), русский (33 символа), арабские цифры,
азбука Морзе и т.д.
В зависимости от задачи, которую вы перед собой ставите, можно использовать разные
способы представления информации. Чтобы послушать музыку, не нужно переводить её в
нотную запись. А вот научиться её играть легче по нотам, чем подбирать на слух.
Формализованные языки используются для кодирования информации.
Некоторый набор символов алфавита образует слово, а число этих символов есть его
длина. От изменения длины слова, очевидно, будет меняться и информация, заключенная в нем.
Как? Чтобы разобраться в изменениях информации, необходима ее оценка (измерение).
Задача измерения информации не так проста, как кажется на первый взгляд. Различные
подходы к измерению информации обусловлены различными подходами к её определению и
кодированию.
1. Субъективное восприятие сообщения (содержало ли оно новую для вас информацию
или нет, насколько эта информация была полезной) делает невозможным его количественную
оценку при обыденном подходе к понятию "информация".
2. Подход к информации как мере уменьшения неопределённости знания позволяет
применять вероятностный подход к её измерению (будет изучаться в 10 классе).
3. Подход, основанный на подсчёте числа символов в сообщении (количества данных),
называется алфавитным.
Вообще говоря, количество данных и количество информации - два разных понятия.
Данные - это конкретная дискретная форма представления информации, которая
используется для её записи в памяти технического устройства или для её передачи по каналу
связи.
Количество данных для передачи одной и той же информации может быть различным в
зависимости от способа кодирования этой информации (от используемого алфавита).
В каком виде поступает информация в компьютер? Может ли машина хранить и
обрабатывать информацию в виде символов (букв, цифр, знаков), привычных для человека?
Увы, нет! Компьютер обрабатывает информацию только в закодированном виде.
Кодирование и его теория своими корнями связаны с древнейшим искусством
тайнописи или криптографии. Изобретение телефона и телеграфа в середине XIX века
поставило перед учеными и инженерами проблему создания теории связи, как новой теории
кодирования, где наибольший интерес стала представлять не проблема связи между людьми, а
между людьми и устройствами и только между устройствами. Первой ориентированной на
технику системой кодирования стала азбука Морзе. Это попытка двоичного кодирования, но
здесь кроме двух символов - точка и тире - есть еще и третий символ - пробел (пауза).
С той или иной степенью точности информацию можно разделить на небольшие
элементарные части. Например, текст в книге состоит из букв, пробелов и других символов,
рисунок из точек, музыка из отдельных звуков. Каждый символ - это элементарная часть
информации. Информация будет закодированной, если любая ее элементарная часть
представлена в виде числа или набора чисел. Поскольку компьютеры работают на
электричестве, естественно было бы для кодирования выбрать разные состояния
электрического тока (сильный - слабый, включено - выключено). Исторически принято эти два
состояния обозначать через 0 и 1.
В каких единицах измерять эту закодированную информацию?
Посмотрите на произвольное число (код): 10100111. Как бы Вы измерили количество
информации, закодированной в нем? Проще всего посчитать, сколько цифр потребовалось для
кодирования данной информации. Таким образом, единицей информации становится одна
двоичная цифра: 0 или 1. Эту минимальную единицу измерения Н. Винер назвал бит
(английское bit, сокращенное от binary digit - двоичная цифра). Бит - самое короткое слово
двоичного алфавита, причем цифры 0 и 1 при этом равноправны. Количество информации в
двоичном коде 10100111 равно 8 бит.
Но 1 бит - это очень маленькое количество информации. Для удобства введена более
крупная единица, принятая Международной системой СИ за основную - байт (byte). Один байт
- это информация, которая кодируется восьмиразрядным (8 цифр) двоичным кодом.
1 байт = 8 бит
При алфавитном подходе считается, что каждый символ текста имеет определённый
информационный вес (b), зависящий от мощности алфавита. 1 бит - это информационный вес
символа двоичного алфавита. С увеличением мощности алфавита увеличивается
информационный вес символов этого алфавита.
Почему? Тут придется вспомнить комбинаторику.
Сколько разных сообщений можно закодировать одной цифрой двоичного алфавита?
- Два (0 или 1)
Двумя цифрами?
- Четыре (00, 01, 10, 11)
И т.д.
Известна формула: число перестановок (возможных различных кодов) из n цифр равно
2n
Другими словами
Информационный вес символа, выраженный в битах (b), и мощность алфавита (N)
связаны формулой N=2b
Символов на нашей клавиатуре около 200 (русский и латинский алфавит, строчные и
прописные буквы, цифры, знаки препинания, спецсимволы). Попробуем подобрать число n,
достаточное для кодирования этих символов: 27 = 128 (мало), 28 = 256 (хватит). Поэтому в
кодировке ASCII 1 символ текста кодируется одним байтом (8 битами).
Байт - это не только единица информации, но и элементарная ячейка памяти
компьютера. Память компьютера состоит из последовательности таких ячеек. Каждая ячейка
имеет адрес - номер ячейки и содержимое - двоичный код, который хранится в ней.
Количество данных, обрабатываемых компьютером, измеряется в байтах, но чаще для
этого используются более крупные единицы:
1 Килобайт (Кб) = 210 байт = 1024 байт
1 Мегабайт (Мб) = 210 Кб = 1 048 576 байт
1 Гигабайт (Гб) = 210 Мб = 1 073 741 824 байт
Тест по теме «Информационные процессы»
1.Что изучает информатика?
А) конструкцию компьютера;
Б) способы представления, накопления обработки информации с помощью технических
средств;
В) компьютерные программы;
Г) общешкольные дисциплины;
2.Выберете события, которое можно отнести к информационным процессам:
А) упражнение на спортивном снаряде;
Б) перекличка присутствующих на уроке;
В) водопад;
Г) катание на карусели;
3. Что изучает из ниже перечисленного имеет свойства передавать информацию?
А) камень;
Б) вода;
В) папирус;
Г) световой луч;
4. Что изучает из ниже перечисленного вовлечено в информационный процесс?
А) песок;
Б) дом;
В) камень;
Г) человек;
5.Каким свойством обладают объекты: колокол, речь, костёр, радио, электронная
почта?
А) хранят информацию;
Б) обрабатывают информацию;
В) передают информацию;
Г) создают информацию;
6.Какой объект не могут служить носителем информации при её хранении?
А) ткань;
Б) бумага;
В) магнитные материалы;
Г) луч света;
7.Человек принимает информацию:
А) магнитным полем;
Б) органами чувств;
В) внутренними органами;
Г) инструментальными средствами;
8. Какой из перечисленных процессов НЕЛЬЗЯ назвать информационным процессом?
А) Взвешивании информации;
Б) Кодирование информации;
В) Хранение информации;
Г) Обработка информации
9. Примерами информационных процессов могут служить:
А) Процессы строительства зданий и сооружений;
Б) Процессы химической и механической очистки воды;
В) Процессы поиска нужной литературы с помощью библиотечного каталога;
Г) Процессы производства электроэнергии;
Д) Процессы извлечения полезных ископаемых из недр Земли.
Download