Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Информатика: учебное пособие для поступающих в вузы

Покупка
Артикул: 739310.02.99
Доступ онлайн
1 000 ₽
В корзину
Рассмотрены основные темы школьного курса «Информатика», необходимые для успешной сдачи ЕГЭ (и ОГЭ) по данной дисциплине и поступления в ведущие технические вузы страны на соответствующие специальности. В каждой главе приведены теоретическая часть, примеры решения задач и задачи для самостоятельной работы с ответами для самоконтроля учащихся. Во многие темы включен дополнительный материал для более глубокого изучения дисциплины «Информатика». Для учащихся 9-11-х классов средних школ, гимназий, лицеев, слушателей подготовительных курсов, выпускников средних специальных учебных заведений, а также лиц, самостоятельно изучающих информатику и готовящихся к сдаче ЕГЭ и вступительным испытаниям в вузы.
Локтев, Д. А. Информатика: учебное пособие для поступающих в вузы / Д. А. Локтев, Д. А. Видьманов. - Москва : МГТУ им. Баумана, 2019. - 200 с. - ISBN 978-5-7038-5137-1. - Текст : электронный. - URL: https://znanium.com/catalog/product/2010610 (дата обращения: 27.04.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов. Для полноценной работы с документом, пожалуйста, перейдите в ридер.
Учебное пособие
для поступающих в вузы

Д.А. Локтев, Д.А. Видьманов

ИНФОРМАТИКА

ISBN 978-5-7038-5137-1

© Локтев Д.А., Видьманов Д.А, 2019
© Оформление. Издательство 
 
МГТУ им. Н.Э. Баумана, 2019

УДК 004(075) 
ББК 32.811, 32.97 
        Л73

Рецензент:
учитель информатики НОЧУ «Центр образования  
«Международная гимназия в Новых Вешках», 
финалист конкурса «Педагог года Москвы — 2016»
В.С. Попов

Локтев, Д. А.
Информатика : учебное пособие для поступающих в вузы / 
Д. А. Локтев, Д. А. Видьманов. — Москва : Издательство МГТУ 
им. Н. Э. Баумана, 2019. — 196, [4] с. : ил. 

ISBN 978-5-7038-5137-1

Рассмотрены основные темы школьного курса «Информатика», 
необходимые для успешной сдачи ЕГЭ (и ОГЭ) по данной 
дисциплине и поступления в ведущие технические вузы страны 
на соответствующие специальности. В каждой главе приведены 
теоретическая часть, примеры решения задач и задачи для самостоятельной 
работы с ответами для самоконтроля учащихся.  
Во многие темы включен дополнительный материал для более 
глубокого изучения дисциплины «Информатика».
Для учащихся 9–11-х классов средних школ, гимназий,  
лицеев, слушателей подготовительных курсов, выпускников 
средних специальных учебных заведений, а также лиц, самостоятельно 
изучающих информатику и готовящихся к сдаче ЕГЭ 
и вступительным испытаниям в вузы.

УДК 004(075) 
ББК 32.811, 32.97 

Л73

Предисловие

Издание предназначено для школьников 9–11-х классов и выпускников 
средних специальных учебных заведений, готовящихся 
к сдаче единого государственного экзамена (ЕГЭ) и основного 
государственного экзамена (ОГЭ) по информатике и поступлению 
в ведущие технические вузы страны. 
Учебное пособие разработано на основе материалов занятий 
подготовительных курсов по информатике Центра довузовской 
подготовки (ЦДП) МГТУ им. Н.Э. Баумана. 
Учебное пособие содержит пятнадцать глав, каждая из которых 
посвящена отдельной теме курса «Информатика». В каждой главе 
представлена необходимая для изучения данной темы теоретическая 
часть, примеры решения задач разного уровня сложности (как для 
учащихся 9-го класса, так и 10–11-х классов), а также задачи для 
самостоятельной работы, основанные на заданиях из ЕГЭ и ОГЭ; 
их количество варьируется в зависимости от рассматриваемой темы. 
Для контроля самостоятельного решения задач учащимся пред-
лагается проверить получившийся результат сравнением с ответами, 
приведенными после задач. Также многие темы включают дополнительный 
материал, который будет интересен учащимся при 
углубленном изучении курса «Информатика» и может быть полезным 
при учебе в технических вузах по соответствующим специальностям.

В начале каждой главы указаны номера задач по данной тематике 
из ЕГЭ и ОГЭ. 

ТЕМА 1. ОСНОВНЫЕ ПОНЯТИЯ ИНФОРМАТИКИ. 
ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ. 
КОДИРОВАНИЕ ИНФОРМАЦИИ
(к данной теме из ЕГЭ относятся задачи № 5, 9, 10, 13, 
из ОГЭ — № 1, 7, 15 )

1.1. Термины «информатика», «информация», «язык»  
и «алфавит»

Информатика — это техническая наука, изучающая методы  
и процессы сбора, хранения, воспроизведения, обработки, передачи, 
анализа и оценки информации с применением средств вычислительной 
техники, а также принципы функционирования этих 
средств и методы управления ими.
К науке информатике можно отнести множество различных 
областей, как абстрактных (в большей степени теоретических), так 
и конкретных (практических), в том числе:
1) математические основы;
2) теорию вычислений;
3) алгоритмы и структуры данных;
4) языки программирования и трансляторы;
5) базы данных;
6) параллельные и распределенные системы.
Главный термин, лежащий в основе науки информатики, — 
«информация» (от лат. informatio — сведение, разъяснение).
Понятие «информация» в разных науках и отраслях человеческой 
деятельности имеет свое определение. Так, в кибернетике понятие 
«информация» используется для описания процессов управления  
в сложных динамических системах (живых организмах или технических 
устройствах); в теории вероятностей — это вероятность выбора 
в рассматриваемой системе; в теории информации — это 
сведения об объектах и явлениях окружающей среды, их параметрах, 
свойствах и состоянии, которые уменьшают имеющуюся о них 
степень неопределенности (энтропию) и неполноты знаний; в технических 
отраслях — это сообщения, передаваемые в форме знаков 
и сигналов, и т. д.

1.1. Термины «информатика», «информация», «язык» и «алфавит»

В ГОСТ 7.0–99 приведено следующее определение.
Информация — это сведения, воспринимаемые человеком  
и (или) специальными устройствами как отражение фактов материального 
или духовного мира в процессе коммуникации.
Информацию можно классифицировать по различным характеристикам, 
например по способам восприятия — визуальная, 
аудиальная, тактильная, обонятельная, вкусовая; по формам представления — 
текстовая, числовая, графическая, музыкальная, 
комбинированная и т. д.
Информация обладает следующими свойствами:
– объективность;
– достоверность;
– полнота;
– актуальность;
– ценность (полезность, значимость);
– понятность (ясность);
– краткость.
Динамические свойства информации (зависят от времени):
– копирование — размножение информации;
– передача от источника к потребителю;
– перевод с одного языка на другой;
– перенос на другой носитель;
– старение: физическое — носитель информации устаревает, 
моральное — ценность информации уменьшается.
Практические свойства информации:
– информационный объем; 
– плотность.
Одна и та же информация может быть представлена в разной 
форме: 1) в письменной, состоящей из различных знаков, среди 
которых выделяют символьную в виде текста, чисел, специальных 
символов; в графической; в табличной и т. д.; 2) в виде жестов или 
сигналов; 3) в виде устной речи.
Необходимо понимать, какой объект, явление или процесс 
стоит за термином «информация», как и за любым другим термином, 
как и в каких единицах его можно измерить и в какой форме 
его можно представить.
Для представления информации используются определенные 
знаковые системы, которые строятся на основе выбранного алфавита 
и правил для выполнения операции над знаками, входящими 
в алфавит, — языки.

Тема 1. Основные понятия информатики. Единицы измерения...

Алфавит — набор символов/знаков; характеризуется общим 
числом символов, входящих в него, — мощностью алфавита (обычно 
обозначается буквой N).

Дополнительный материал

При рассмотрении информации с экономической точки зрения 
ценность информации будет уменьшаться в зависимости от времени, — 
такой процесс называется старением. 
Одним из вариантов вычисления старения является использование 
распределения Гомперца — Макегама:

 
f T
e
T
( ) =
−
λ
λ , 
(1.1)

где λ = 1/T0; T0 — средняя длительность жизни полезной информации.


1.2. Подходы к определению количества информации

Одной из важных задач при работе с информацией является 
задача ее количественной оценки. Существует несколько подходов 
для определения количества информации. Посчитать количествен-
ную меру информации можно без привязки к ее ценности, а толь-
ко с учетом входящих в сообщение, в котором передается инфор-
мация, символов/знаков — алфавитный (или комбинаторный)  
и вероятностный подходы, — либо с учетом смысловой нагрузки, 
которую несет в себе информация (с учетом полезности инфор-
мации), — прагматический (семантический) подход. 
Подход, основанный на измерении смыслового содержания 
информации и ее ценности, субъективен в отличие от алфавитно-
го и вероятностного подходов, поэтому последние более популяр-
ны и чаще используются при оценке количества информации. 
Рассмотрим их подробнее. 
Для начала необходимо ввести формулу Хартли (Ральф Харт- 
ли — американский инженер, предложил формулу в 1928 г.), кото-
рая позволяет связать количество возможных равновероятных со-
бытий N и количество информации одного символа сообщения i:

 
N
i
= 2 . 
(1.2)
Количество информации измеряется в битах, где 1 бит (от англ. 
binary digit (bit) — двоичная цифра) — это количество информации, 
содержащейся в сообщении, которое вдвое уменьшает неопреде-
ленность знаний о чем-либо.

1.2. Подходы к определению количества информации

При алфавитном подходе информацию рассматривают как по-
следовательность знаков определенной знаковой системы, причем 
появление символов в сообщении считается равновероятным. При 
этом алфавит языка представляет собой набор различных возмож-
ных событий. Тогда по формуле Хартли можно рассчитать, какое 
количество информации несет каждый символ:

 
i
N
= log
.
2
 
(1.3)

Для определения количества информации I всего сообщения, 
состоящего из K символов, нужно умножить количество символов 
K на информационный вес одного символа i, тогда

 
I
K i
K
N
=
⋅ =
⋅log
.
2
 
(1.4)

Примеры решения задач

1.1. Один символ алфавита «весит» 3 бита. Сколько символов 
в этом алфавите?
Решение
Информационный объем одного символа алфавита i = 3 бита, 
тогда найдем мощность алфавита по следующей формуле:

N = 2i = 23 = 8.

Ответ: 8.
1.2. Кириллица без буквы Ё состоит из 32 букв. Каков инфор-
мационный вес одной буквы такого сокращенного алфавита? 
Решение
По условию задачи известна мощность используемого алфави-
та N = 32. Тогда из формулы N = 2i находим информационный 
объем одного символа i: 

32 = 2i, или 25 = 2i, значит, i
N
= log2
 = 5 бит.

Ответ: 5.
Вероятностный подход к измерению количества информации 
применяют, когда возможные события имеют различные вероят-
ности реализации. Так, например, если из корзины, в которой 
находится одинаковое количество черных и белых шариков, вынуть 
один шар, то события выпадения белого или черного цвета будут 
равновероятными, и тогда для определения количества информа-
ции можно воспользоваться формулой Хартли; если же количество 

Тема 1. Основные понятия информатики. Единицы измерения...

черных и белых шариков в корзине различное, то вероятность того, 
что шар будет черным, отличается от вероятности того, что он 
будет белым. Тогда общее количество информации определяют по 
формуле Шеннона (Клод Шеннон — американский ученый, пред-
ложил эту формулу в 1948 г.):

 
I
p
p

i

N

i
i
= −

=∑
1

2
log
,  
(1.5)

где I — количество информации; N — количество возможных со-
бытий; pi — вероятности отдельных событий.
Если необходимо определить не общее количество информа-
ции, а одного не равновероятного по отношению к другим собы-
тия, то необходимо воспользоваться следующей формулой:

 
I
p
p
i
i
=
= −
log ( /
)
log
.
2
2
1
 
(1.6)

Получается, что чем больше вероятность совершения того или 
иного события, тем меньше информации в себе это событие несет. 
Максимального значения количество информации достигает при 
равновероятных событиях.
1.3. Какое количество информации будет содержать зрительное 
сообщение о цвете вынутого шарика, если в непрозрачном мешочке 
находится 40 белых, 50 красных, 10 синих шариков? Какое 
количество информации будет содержать сообщение о том, что 
вынули белый шарик?
Решение
1) Всего шаров 40 + 50 + 10 = 100.
2) Вероятности вынимания шаров: белого — 40/100 = 2/5; 
красного — 50/100 = 1/2; синего — 10/100 = 1/10.
3) общее количество информации, содержащееся в сообщении, 
что шарик вынут:

I = –(2/5 ⋅ log22/5 + 1/2 ⋅ log21/2 + 1/10 ⋅ log21/10) = 

= –[2/5 ⋅ (1 – log25) + 1/2 ⋅ (0 – 1) + 1/10 ⋅ (0 – log210)] =

= –0,4 ⋅ (1 – 2,322) + 0,5 + 0,1 ⋅ 3,322 = 4,351 бит.

4) Определение количества информации о белом цвете шарика:

I = –log2(2/5) = –(1 – 2,322) = 1,322 бит.

Ответ: 4,351; 1,322.

1.3. Единицы измерения информации

1.4. В корзине лежит 8 шаров разного цвета. Сколько информации 
несет сообщение, что достали белый шар?
Решение
Количество равновероятных событий N = 8 шаров, следовательно, 
количество информации о событии: I = log2N = log2 8 = 
= 3 бита.
Ответ: 3.

Дополнительный материал

При определении количества информации с помощью праг-
матического подхода одним из вариантов может служить ранжи-
рование информации в каком-либо ограниченном диапазоне 
значений по выбранному свойству (или набору свойств) инфор-
мации. Например, для описания информации возьмем свойство 
«ценность» (или «полезность»). Тогда можно сравнить получаемую 
информацию по ценности и сказать, что одна информация более 
(или менее) ценна, чем другая. Тогда можно проранжировать вхо-
дящий поток информации следующим образом: выбрать диапазон 
(например, от 0 до 1), граничные значения определяют максималь-
ную и минимальную ценность — 1 — ценная информация, 0 — 
неценная; информация со значением веса, находящимся между 0 
и 1, будет иметь различную ценность (чем ближе к 0, тем инфор-
мация менее ценна). 
Ценность можно измерить, например, с помощью меры  
А.А. Харкевича:

 
V
P p
= log
/ ,
2
 
(1.7)

где V — ценность информации; p — вероятность достижения цели 
до получения информации, а P — после ее получения.
Еще один вариант измерения ценности — мера В.И. Корого-
дина, значения которой лежат в пределах от 0 до 1: 

 
V
P
p
p
=
−
−
1
.  
(1.8)

1.3. Единицы измерения информации

Для измерения информации используются следующие единицы:
1 бит — наименьшая единица измерения информации, с по-
мощью которой могут быть закодированы один из двух возможных 

Тема 1. Основные понятия информатики. Единицы измерения...

символов, используемых при двоичном кодировании, — 0 или 1. 
(Подробнее двоичное кодирование рассмотрено в теме «Системы 
счисления».)
1 байт (от англ. byte — binary digit eight) — представляет собой 
8 бит. 
1 килобайт (Кбайт, или Кб) равен 210 байт, т. е. 1024 байт. 
1 мегабайт (Мбайт, или Мб) равен 210 килобайт, т. е.  
1024 Кбайт. 
Единицы измерения и их сокращенные обозначения представ-
лены в табл. 1.1.

Таблица 1.1

Единицы измерения объема информации

Название
Сокращенное обозначение
Степень

байт
б
20

килобайт
Кб, Кбайт
210

мегабайт
Мб, Мбайт
220

гигабайт
Гб, Гбайт
230

терабайт
Тб, Тбайт
240

петабайт
Пб, Пбайт
250

эксабайт
Эб, Эбайт
260

зеттабайт
Зб, Збайт
270

йоттабайт
Йб, Йбайт
280

При сравнении двух объемов информации для удобства не-
обходимо привести их к одной и той же единице измерения. 

Примеры решения задач

1.5. Сколько бит информации несет в себе сообщение объемом 
1/64 Кбайт? В ответе запишите только число.
Решение
1 Кбайт = 210 байт = 210 ⋅ 8 бит, следовательно, 1/64 Кбайт =  
= 1/64 ⋅ 210 ⋅ 8 = 24 ⋅ 8 = 27 = 128 бит.
Ответ: 128.
1.6. Во сколько раз 6 Гбайт больше, чем 128 Кбайт? В ответе 
запишите только число.

Доступ онлайн
1 000 ₽
В корзину