Образовательный портал

Электронный журнал Экстернат.РФ, cоциальная сеть для учителей, путеводитель по образовательным учреждениям, новости образования

  • Increase font size
  • Default font size
  • Decrease font size

Рейтинг: 5 / 5

Звезда активнаЗвезда активнаЗвезда активнаЗвезда активнаЗвезда активна
 

Измерение количества информации

(Measurement of Information)
Казарян Анаит Рафиковна,
учитель информатики ГБОУ СОШ № 156
с углублённым изучением информатики
Калининского района Санкт-Петербурга
Класс: 9
Образовательная технология: технология развития критического мышления.
Цель урока: ознакомление с основными методами измерения информации и формирование умений вычислить количество информации разными методами.
 Задачи урока:
Обучающие: 
  • краткое знакомство с понятием «количество информации» и с известными методами измерения информации,
  • формирование умений вычислить количество информации разными методами.
Воспитывающие: 
  • воспитание познавательной активности учащихся,
  • воспитание положительного отношения учащихся к знаниям,
  • воспитание коммуникативной культуры учащихся,
  • воспитание интереса к применению методов измерения количества информации в жизни и в профессиональной деятельности.
Развивающие: 
  • развитие исследовательских навыков учащихся,
  • развитие критического мышления при решении практических задач в процессе самостоятельной и групповой исследовательской деятельности учащихся.
 
Тип урока: урок-лекция с элементами практикума.
 
Продолжительность урока: 45 минут.
 
Методы обучения: объяснительно-иллюстративный, исследовательский.
 
Оборудование и программное обеспечение:
  • интерактивная  доска,
  • персональный компьютер, мультимедийный  проектор и экран для демонстрации учебного материала,
  • операционная система MS Windows,
  • презентация по данной теме.
 
План урока:
  1. Организационный момент. (3 мин)
  2. Создание проблемной ситуации при постановке темы, цели и задач урока.(7 мин)
  3. Частичное разрешение проблемной ситуации при реализации намеченного плана урока. (18 мин)
  4. Полное разрешение проблемной ситуации. (12 мин)
  5. Обобщение и систематизация изученного материала. (3 мин)
  6. Формирование домашнего задания постановкой вопросов для самопроверки. (2 мин)
 
Ход занятия
 
1. Организационный момент (проверка присутствующих, проверка готовности к работе). 

2. Создание проблемной ситуации при постановке темы, цели и задач урока. 

Teacher: Good morning, boys and girls! Glad to see you here. Sit down, please. Let`s start our lesson. Some preliminaries. Today we have in some sense different lesson: integrated lesson of Information Technologies and English. We have guests – representatives of famous mathematics and engineers Ralf Hartley and Claude Shannon. My student Maria will present Ralf Hartley, and Tigran will present Claude Shannon. During the  lesson I will speak English and Russian. My student Tanya will help me. She will explain some part of lesson in Russian.
The theme of our lesson is: “Measurement of information” (слайд 1).  We know that information is certain knowledge about something or someone. It can be anything. For example, outcome of an event, videos, emails and so on. It can be very important for different situations and as said a famous English philosopher Francis Bacon, “Who owns the information, owns the world”. The key question of our lesson is “How to measure and quantify information?” (слайд 2). 
Tanya: Информация –знания, получаемые из разных источников. Часто мы получаем сообщения, например, прочитали статью в любимом журнале. В этом сообщении содержится какое-то количество информации. Как оценить, сколько информации мы получили? Другими словами, как измерить информацию? Можно ли сказать, что чем больше статья, тем больше информации она содержит?
Teacher:  We know that length of objects is measured in meters, the weight of objects is measured in kilogram (слайд 3). One of the basic postulates of information theory is that information can be treated like a measurable physical quantity, such as density or mass. Therefore it should be introduced a unique unit for measurement of information.
Tanya: Для измерения информации как и любой другой величины должна быть введена своя эталонная единица. Давайте попытаемся измерить информацию на примерах.
Teacher:  First example is (слайд 4):
We consider two sentences:
  • In winter is cold.
  • In winter is cold and snowy.
From the semantic viewpoint, sentence 2 provides more useful information.
Second example is:
We consider two sentences:
  • In winter is cold and snowy.
  • In spring is warm and sunny.
It’s not clear whether sentence 1 or 2 would have more information.
Tanya: После рассмотрения данных примеров можно сделать вывод, что не всегда понятно, какое из предложенных сообщений даёт больше информации. Поэтому и трудно определить, как же всё-таки можно измерить информацию.  
 
3. Частичное разрешение проблемной ситуации при реализации намеченного плана урока. 

Teacher:  There are two approaches of measurement of information: semantic and alphabetical. (слайд 5) In alphabetical approach information is quantified by counting the number of letters in message. In semantic approach information depends on the meaning of message and it is defined by the probability of its symbols.
Tanya: То есть, в алфавитном подходе количество информации в тексте определяется независимо от его содержания, воспринимая текст как последовательность символов. Нужно только посчитать количество символов в тексте.  В содержательном подходе всё по-другому: количество информации в тексте связывается с содержанием текста, учитывая вероятности его символов.
Teacher:  First attempt to quantify information was made by American researcher Ralf  Hartley in 1928 (слайд 6). Now we will ask representative of  Ralf Hartley to explain us how he counts the information.
Maria (Hartley): Hello, children! Let us consider our Example 1(слайд 7). As you know, the problem was in measurement of information. How about counting the number of letters in both sentences:
  • In winter is cold. (18 letters)
  • In winter is cold and snowy. (28 letters)
Definitely something we can measure and compare!
Therefore we can conclude that sentence 2 has more information than sentence 1!
Now the problem is how to count the amount of information for sentences of Example 1? (слайд 8) I have the following ideas:
  • Every symbol of message has certain information weight.
  • Suppose all symbols of alphabet used to form the messages have the same weight.
Therefore, information I of the message is the product of the number K of the letters in the message and the information weight i of the symbol:
I = K *i
As about the considered example number 1, the teacher will explain its solution in Russian.
Teacher: Thank you, Maria. Now I in Russian will present to our children your ideas and suggested solution.
 
3. Полное разрешение проблемной ситуации 
Вторую часть урока я проведу на русском языке и попытаюсь вам дать пояснения. Первое, что предложил Ralf Hartley, ввести понятия информационного веса символа произвольного алфавита. Так как Mister Hartley предпологал, что все символы алфавита имеют один и тот же информационный вес, то мощность алфавита N и информационный вес i символа алфавита связаны соотношением: N=2i. В итоге, информационный объём I всего сообщения равен произведению количества K символов в сообщении на информационный вес i символа алфавита: I = Ki.  
Что же касается решения примера 1(слайд 9), то нам нужно сначала определить информационный вес символов английского алфавита. Мы знаем, что в английском алфавите 26 букв. Для записи текста нужны ещё как минимум шесть символов: пробел, точка, запятая, вопросительный знак, восклицательный знак, тире. В сумме  получается расширенный английский алфавит мощностью в 32 символа. Следовательно, наш пример 1 можно переформулировать в следующую задачу:
Сообщение, записанное буквами 32-символьного алфавита, содержит 18 символов. Какое количество информации оно несёт?
Решение: (слайд 9)
Давайте теперь вернёмся к примеру 2 и попытаемся решить его методом Hartley. Подсчитав количества символов в обоих предложениях, мы получим одно и то же число: 32 символа.  То есть, оба предложения примера 2 будут содержать одинаковое количество информации, а именно, 160 бит информации, если воспользоваться формулой Хартли. Но с другой стороны сообщение о том, что завтра будет тепло и солнечно, более вероятно летом, а сообщение о снеге и холоде – зимой. И учитывая этот факт, странно, что сообщения содержат одинаковое количество информации. Сейчас мы пригласим нашего представителя известного математика и инженера Клода Шеннона, который занимался задачами вычисления информации и попросим его объяснить нам, как можно вычислить количество информации в нашем примере.
Hello, Tigran! Please explain to our children how we can measure information for the sentences of example 2. We found out that Hartley’s formula gave some paradox. Please explain to our children what was wrong with our application of Hartley’s formula to Example 2.
Tigran (Shannon): Hello, children! Glad to see you! Let us consider Example 2. As you know, the problem was in measurement of information. Indeed, if we count the number of letters in both sentences of Example 2, we have the same number: 32 symbols. Applying Hartley’s formula we can say, that sentences contain equal information. And this is indeed paradox, as was noted by the teacher. Why you have such misunderstanding of the problem, I will now explain. At first, as you know, English letters have different occurrences. For example, letter ‘E’ is the most likely letter in the messages. Letters ‘Q’,’J’, ‘X’ and ‘Z’ occur in messages seldom. You can see the frequency of English letters in the following diagram:
Диаграмма 1
Therefore, it is not correct to say, that all symbols of English alphabet (and any other alphabet, like Russian alphabet) have the same information weight. The assumption that all symbols of alphabet used to form the messages have the same weight was made by Ralf Hartley. And this is what led to the paradox presented by the teacher. My solution of this problem is following: it turns out that less probable letters have more information weight. I suggest a new measure of information called “the entropy function”.  Now the teacher will explain my ideas and solution in Russian.
Teacher: Thank you, Tigran. Клод Шеннон проводил статистический анализ сообщений. О том, какой вклад сделал этот выдающийся учёный, я попозже скажу, а сейчас вернёмся к идеям, которые предложил Тигран. Во-первых, я думаю, все согласны с тем, что сказал Тигран: в реальном тексте разные символы встречаются с разной частотой.  Например, в русском языке чаще всего встречается буква “О”, реже всего встречается буква “Ф”. Частоты букв русского алфавита можно увидеть на диаграмме (слайд 12):
Диаграмма 2
Отсюда следует, что разные символы должны иметь различные информационные веса. Причём информационный вес редких букв должен быть больше, чем информационный вес часто встречающихся букв. Информационный вес символов вычисляется по следующей формуле:  i=log(1/f), где f- частота появления символа, а log – логарифм (функция, обратная к степени). Среднее количество информации в сообщении (информационная энтропия) равно                                                                             
где N - мощность (количество символов) алфавита. Так как вы ещё не проходили логарифмы, для решения примера 2 я вам дам готовую таблицу с уже вычисленными информационными весами символов английского алфавита:
буква частота, % вес, бит буква частота, % вес, бит буква частота, % вес, бит
A 0.081 3.62 K 0.004 7.97 U 0.024 5.38
B 0.014 6.16 L 0.034 4.88 V 0.009 6.80
C 0.027 5.21 M 0.025 5.32 W 0.015 6.06
D 0.039 4.68 N 0.072 3.80 X 0.002 8.97
E 0.13 2.94 O 0.079 3.66 Y 0.019 5.72
F 0.029 5.11 P 0.02 5.64 Z 0.001 9.97
G 0.02 5.64 Q 0.0015 9.38      
H 0.052 4.27 R 0.069 3.86      
I 0.065 3.94 S 0.061 4.04      
J 0.002 8.97 T 0.105 3.25      
 Возвращаясь к примеру 2, по формуле Шеннона можно вычислить, что количество информации в первом сообщении равно 3.7526004684 бит, а во втором сообщении - 3.8553377974 бит.
Tanya:  Я хочу коротко представить Клода Шеннона. Это американский инженер и математик, который в 1948 году в своей знаменитой статье «Математическая теория связи» предложил формулу для измерения количества информации в случае различных вероятностей событий.  Клод Шеннон является основателем теории информации. Он первым предложил использовать термин «бит» для обозначения наименьшей единицы измерения информации.
 Teacher: Why is the Information Theory Important?
Thanks in large measure to Shannon's insights, digital systems have come to dominate the world of communications and information processing.
  • Modems
  • satellite communications
  • Data storage
  • Deep space communications
  • Wireless technology
Давайте (для закрепления материала) решим следующую задачу:
Информационное сообщение объёмом 720 битов состоит из 180 символов. Какова мощность алфавита, с помощью которого записано это сообщение?
Решение: (слайд 19)
Давайте вспомним единицы измерения информации и их связь (слайд 20).

 
  1. Обобщение и систематизация изученного материала.
 
 В ходе урока мы рассмотрели два подхода измерения информации.
  1. При алфавитном подходе измерения информации предполагается, что все символы алфавита встречаются в сообщениях, записанных с помощью этого алфавита, одинаково часто. Однако в действительности символы алфавитов в сообщениях появляются с разной частотой.
  2. При вероятностном подходе измерения информации количество информации в сообщении о некотором событии зависит от вероятности этого события. Чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии. Среднее количество информации достигает максимального значения при равновероятных событиях.
 
4. Формирование домашнего задания  постановкой вопросов для самопроверки.

Ну что ж, время урока подходит к концу. Давайте вспомним, что такое:
  • Информация (Information)?
  • Частота (Frequency)?
  • Алфавитный подход (Alphabetical approach)?
  • Вероятностный подход (Probabilistic approach)?
Хорошо! Пожалуйста, повторите дома записи в тетради. Запишите домашнее задание:
 <Приложение 1>
До свидания!
 
Литература
  1. Информатика и ИКТ. Учебник. 9 класс / Под ред. Проф. Н.В. Макаровой. - СПб.: Питер, 2012.
  2. Работы по теории информации и кибернетике. / Шеннон К.М.: Изд-во иностранной литературы, 1963.
  3. http://festival.1september.ru/articles/572186/
  4. http://festival.1september.ru/articles/655708/
 
 

You have no rights to post comments

 

Экспресс-курс "ОСНОВЫ ХИМИИ"

chemistry8

Для обучающихся 8 классов, педагогов, репетиторов. Подробнее...

 

Авторизация

Перевод сайта


СВИДЕТЕЛЬСТВО
о регистрации СМИ

Федеральной службы
по надзору в сфере связи,
информационных технологий
и массовых коммуникаций
(Роскомнадзор)
Эл. № ФС 77-44758
от 25 апреля 2011 г.


 

Учредитель и издатель:
АНОО «Центр дополнительного
профессионального
образования «АНЭКС»

Адрес:
191119, Санкт-Петербург, ул. Звенигородская, д. 28 лит. А

Главный редактор:
Ольга Дмитриевна Владимирская, к.п.н.,
директор АНОО «Центр ДПО «АНЭКС»