Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Информационные технологии в юридической деятельности WINDOWS

Покупка
Основная коллекция
Артикул: 747304.01.99
Учебное пособие содержит материалы первого раздела Рабочей программы по дисциплине «Информационные технологии в юридической деятельности». Пособие предназначено студентам бакалавриата РГУП. Его могут использовать и студенты специалитета РГУП при изучении дисциплины «Математика и информатика».
Королев, В. Т. Информационные технологии в юридической деятельности WINDOWS : учебно-методические материалы для выполнения студентами практический и самостоятельной работы / В. Т. Королев ; под. ред. Д. А. Ловцов. - Москва : РГУП, 2015. - 40 с. - Текст : электронный. - URL: https://znanium.com/catalog/product/1192128 (дата обращения: 09.05.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов. Для полноценной работы с документом, пожалуйста, перейдите в ридер.
 

 
ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ 
ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ОБРАЗОВАНИЯ 
 
РОССИЙСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ ПРАВОСУДИЯ 
 
 
 
 
 
 
 
 
 
 
 
 
В . Т .  К о р о л е в  
 
 
И Н Ф О Р М А Ц И О Н Н Ы Е  Т Е Х Н О Л О Г И И  
В  Ю Р И Д И Ч Е С К О Й  Д Е Я Т Е Л Ь Н О С Т И  
 
 

УЧЕБНО-МЕТОДИЧЕСКИЕ МАТЕРИАЛЫ 
ДЛЯ ВЫПОЛНЕНИЯ ПРАКТИЧЕСКИХ ЗАНЯТИЙ 
И САМОСТОТЕЛЬНОЙ РАБОТЫ 
СТУДЕНТАМИ БАКАЛАВРИАТА 
 
WINDOWS 
 
Под редакцией Д.А. Ловцова 
 
 
 
 
 
 
 
 
 
 
 
 
 
Москва 
 
2015 
 
 

 
 
А в т о р :  

В.Т. Королев, 
профессор, кандидат технических наук 
 
 
Р е ц е н з е н т :  

С.Г. Чубукова, 
доцент, кандидат юридических наук, 
доцент кафедры правовой информатики 
Московского государственного юридического университета 
им. О.Е. Кутафина 
 
 
 
 
Учебное пособие содержит материалы первого раздела Рабочей программы 
по дисциплине «Информационные технологии в юридической деятельности». Пособие предназначено студентам бакалавриата РГУП. Его могут использовать и студенты специалитета РГУП при изучении дисциплины «Математика и информатика». 
 
 
 

С О Д Е Р Ж А Н И Е  

1. ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ 
В СОВРЕМЕННОМ ИНФОРМАЦИОННОМ ОБЩЕСТВЕ .............................. 3 
1.1. Понятие информационных технологий и информации ....................... 3 
1.2. Основы государственной политики 
в области информатизации .................................................................... 11 
Вопросы и задачи для самоконтроля ......................................................... 16 

2. ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ, 
АППАРАТНОЕ И ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ .................................. 17 
2.1. Структура и принцип работы компьютера ........................................... 17 
2.2. Программное обеспечение компьютера ............................................... 20 
2.3. Основные элементы базовой конфигурации ПК ................................. 22 
Контрольные вопросы ................................................................................... 24 

3. ОСНОВЫ РАБОТЫ 
В СРЕДЕ ОПЕРАЦИОННОЙ СИСТЕМЫ WINDOWS .................................. 25 
3.1. Общая характеристика. Экранный интерфейс ..................................... 25 
3.2. Файлы и файловая система Windows ................................................... 28 
3.3. Работа в файловой системе класса ПК ................................................. 32 
Контрольные вопросы ................................................................................... 39 
 
 
 
 

1. ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ 
В СОВРЕМЕННОМ ИНФОРМАЦИОННОМ ОБЩЕСТВЕ 

1.1. Понятие информационных технологий и информации 

Во второй половине XX века человечество вступило в новую стадию своего цивилизационного развития, которая названа информационным обществом. В нашей 
стране разработана "Стратегия развития информационного общества в Российской 
Федерации" (утв. Президентом РФ 07.02.2008 N Пр-212). Основные черты информационного общества в стратегии определены так. 

Информационное общество характеризуется высоким уровнем развития ин
формационных и телекоммуникационных технологий и их интенсивным использованием гражданами, бизнесом и органами государственной власти. 

Увеличение добавленной стоимости в экономике происходит сегодня в зна
чительной мере за счет интеллектуальной деятельности, повышения технологического уровня производства и распространения современных информационных и телекоммуникационных технологий. 

Существующие хозяйственные системы интегрируются в экономику знаний. 

Переход от индустриального к постиндустриальному обществу существенно усиливает роль интеллектуальных факторов производства. 

Международный опыт показывает, что высокие технологии, в том числе ин
формационные и телекоммуникационные, уже стали локомотивом социальноэкономического развития многих стран мира, а обеспечение гарантированного свободного доступа граждан к информации – одной из важнейших задач государств. 

Информационные технологии представляют собой организованное научнометодическое обеспечение переработки информации. 
Переработка информации – это совокупность таких информационных 
процессов: 
производство информации: генерация, включая моделирование; рецепция, 
измерение, 
интерпретация информации: преобразование, логическая обработка, аккумуляция, 
коммуникация информации: передача, хранение, представление. 
Информация, как видим, является предметом и продуктом информационных технологий. 

Юридическая деятельность осуществляется в сфере социальных систем и 
явлений, то есть в сфере отношений между людьми. Поэтому в этой сфере естественно использовать тот смысл термина «информация», который определен ст. 2 
Федерального Закона "Об информации, информационных технологиях и о защите 
информации": 

информация – сведения (сообщения, данные) независимо от формы 
их представления. 

В сфере юриспруденции применяются две формы представления информации. 
Вербальная (словесная) форма, когда сведения задаются устной или письменной речью. Она используется для качественной характеристики объектов и процессов. Такая форма фиксации и передачи информации принята в большинстве 
правовых актов. 
Числовая форма (форма данных), когда сведения задаются количественными характеристиками объектов и процессов. А эти характеристики получены путем 
наблюдений, измерений, путем обработки их результатов с использованием математических методов. 
Современные информационные технологии реализуются на компьютерах. И 
вся информация в компьютерах представлена в числовой форме, а именно, двоич
ными кодами. Следовательно, числовая форма представления информации является универсальной. 

Отметим, что каждый из двух первых информационных процессов (производство и интерпретация информации) начинаются и завершаются третьим, а именно, коммуникацией информации. Коммуникация информации – это передача ее в 
пространстве по каналам связи или во времени посредством хранения на носителях. 
При передаче информации в пространстве стремятся минимизировать время передачи, а при передаче ее во времени минимизируют пространство (объем носителя). 

Главная задача системы коммуникации (рис. 8.12) состоит в том, чтобы в достаточной мере обеспечить взаимно-однозначное соответствие между информационными 
массивами ИМ на ее входе и на ее выходе. Нарушение этого соответствия обусловлено неизбежными помехами той или иной природы, которые воздействуют на систему 
коммутации. Этим определяется вероятностный характер процессов в системе коммутации. Вероятностный характер имеет и процесс формирования входного ИМ. Случайным событием здесь является получение того или иного элемента входного массива. 
Точно так, и получение выходного ИМ носит вероятностный характер, а случайное событие – появление того или иного элемента выходного ИМ. 

Рассмотрим 
некоторое 
конечное 
множество 
X 
случайных 
событий 
Ω={x1,x2,…,xN}. Наступление события xi, i=
 состоит в том, что появляется тот или 
иной элемент входного (выходного) ИМ. Получение информации в опыте связано с тем, 
что до его осуществления имеется известная неопределенность в его исходе. Известен 
полный набор возможных исходов испытания Ω, но какой именно исход наступит в результате опыта, сказать нельзя. По окончании испытания наступает одно из N событий. 
Тем самым неопределенность относительно результатов опыта уменьшается. Это 
уменьшение неопределенности относительно результатов испытания после его осуществления и понимают как получение информации. Обозначим количественную меру 
неопределенности до опыта как HДО, а количественную меру оставшейся после опыта 
неопределенности как HПО. Тогда количественной мерой информации I(X) в опытах с 
множеством X будет разность 

 
I(X)=HДО−HПО. 
(8.18) 

Обычно множество X задают рядом распределения (табл. 8.4). Здесь p(xi) – вероятность наступления события xi. Эти вероятности отвечают условию 

 
p(x1)+p(x2)+…+p(xN)=1. 
(8.19) 

Количественной мерой неопределенно-сти в опытах с конечным множеством случайных событий X является величина H(X), которая называется энтропией: 

 
H(X)=−(p(x1)×loga(p(x1))+p(x2)×loga(p(x2))+…+ p(xN)×loga(p(xN)))= 

 
= ∑
=
×
−
N

1
i
i
a
i
))
x
(
p
(
log
)
x
(
p
. 
(8.20) 

Формула (8.20) выведена К. Шенноном в 1948 г. Поясним ее смысл. Для этого перепишем ее так: 

N
,
1

Таблица 8.4

i 
1 
2 
…
n 

xi 
x1 
x2 
…
xn 

p(xi) p(x1) p(x2) … p(xn)

Рис. 8.12

СИСТЕМА 
КОММУНИКАЦИИ

ВХОДНОЙ 
ИМ 

ВЫХОДНОЙ

ИМ 

ПОМЕХИ 

H(X)=∑
=








×
N

1
i
i
a
i
)
x
(
p
1
log
)
x
(
p
. 

Величину Hi=








)
x
(
p
1
log
i
a
 можно назвать собственной неопределенностью 

случайного события xi. Тогда энтропия 

 
H(X)=∑
=








×
N

1
i
i
a
i
)
x
(
p
1
log
)
x
(
p
=∑
=
×
N

1
i
i
i
H
)
x
(
p
 

представляет собою математическое ожидание для Hi или среднюю неопределенность исходов опыта с множеством X случайных событий. 

В опытах с множеством случайных событий X имеем 

 
HДО=H(X). 

Результатом опыта является исход xi и только он. Такой исход является достоверным, действительно наступившим в опыте. Это значит, что при наступлении 
достоверного исхода неопределенность отсутствует, то есть 

 
HПО=0, 

и количество информации, полученное в таком испытании 

 
I(X)=H(X). 

Опыты описанной категории описывают процессы производства и интерпретации информации. 

Перечислим свойства энтропии. 
1. 
Энтропия равна нулю, если в любом опыте с множеством X исход известен 
заранее: всегда наступает событие xj и никогда не происходят события xi, то есть 
вероятность pj=1, а все вероятности pi, i≠j равны нулю. Неопределенность в таком 
опыте отсутствует. А отсутствие неопределенности означает, что энтропия равна 
нулю. 
2. 
Величина H(X) зависит от вероятностей p(xi) и достигает максимального значения тогда, когда события xi равновероятны: 

 
p(x1)=p(x2)=…=p(xN)=p. 

И эти вероятности отвечают условию (8.19): N×p=1. Поэтому 

 
p= N
1 . 

В этом случае 

 
H(X)= ∑
=






×
−
N

1
i
a N
1
log
N
1
=〈N одинаковых слагаемых 






×
N
1
log
N
1
a
〉= 

 
=−N×






×
N
1
log
N
1
a
=loga(N). 

Формулу 

 
H(X)=loga(N) 
(8.21) 

для энтропии множества равновероятных событий вывел в 1928 г. американский инженер Р. Хартли. Это была первая попытка количественной оценки энтропии. 

Основание a логарифма в формулах (8.20) и (8.21) определяет единицу измерения энтропии. Действительно, если a=N, то 

 
H(X)=loga(a)=1. 

В настоящее время общепринято использование в формулах (8.20) и (8.21) 
значения a=2, что хорошо согласуется с математической логикой и двоичным кодированием информации. Единицей измерения энтропии, а значит, и информации 
при a=2 является бит (англ. bit от сжатия слов binary digit). История науки знает 
случаи использования и таких единиц, как нит (a=e) и дит (a=10). Один бит равен 
1.44 нит (log2(e)) или 3.32 дит (log2(10)). 

 Пример. Пусть некто первый случайным образом загадывает целое число из диапазона X=[0,15]. При этом он не отдает предпочтения ни одному из этих 
чисел. Некто второй должен определить загаданное число. Вычислить количество 
информации, которое он получит, угадав задуманное число. 
В данном случае N=16, и все исходы загадывания равновероятны: p(xi)=p=

16
1  (табл. 8.5). Для вычисления энтропии HДО воспользуемся мерой Хартли (8.21): 

 
HДО=H(X)=log2(16)=4 бита. 

Вероятность угадать задуманное число с первой попытки равна p. Если это 
удалось, то HПО=0, и 

 
I(X)=HДО − HПО=H(X)= 4 бита. 

Если действовать наугад, то второму в общем случае понадобится от одной 
до шестнадцати попыток. 
Пусть загадано число 13. Покажем, что для определения загаданного числа, 
достаточно задать первому четыре вопроса (табл. 8.5). Как видим, после ответа на 
каждый вопрос диапазон чисел, среди которых и загаданное, уменьшается вдвое, и 
после четвертого вопроса остается одно загаданное число. 

Таблица 8.5

Вопрос
- 
>7? 
>11?
>13?
>12? 

Ответ
- 
Да. 
Да. 
Нет. 
Да. 

i 
xi 
p(xi) 
p(xi) 
p(xi) 
p(xi) 
p(xi) 

1
0 0.0625 0.0000 0.0000 0.0000 0.0000 

2
1 0.0625 0.0000 0.0000 0.0000 0.0000 

3
2 0.0625 0.0000 0.0000 0.0000 0.0000 

4
3 0.0625 0.0000 0.0000 0.0000 0.0000 

5
4 0.0625 0.0000 0.0000 0.0000 0.0000 

6
5 0.0625 0.0000 0.0000 0.0000 0.0000 

7
6 0.0625 0.0000 0.0000 0.0000 0.0000 

8
7 0.0625 0.0000 0.0000 0.0000 0.0000 

9
8 0.0625 0.1250 0.0000 0.0000 0.0000 

10
9 0.0625 0.1250 0.0000 0.0000 0.0000 

11 10 0.0625 0.1250 0.0000 0.0000 0.0000 
12 11 0.0625 0.1250 0.0000 0.0000 0.0000 
13 12 0.0625 0.1250 0.2500 0.5000 0.0000
14 13 0.0625 0.1250 0.2500 0.5000 1.0000
15 14 0.0625 0.1250 0.2500 0.0000 0.0000 
16 15 0.0625 0.1250 0.2500 0.0000 0.0000 

H(X)
4 
3 
2 
1 
0 

I(X)
0 
1 
2 
3 
4 

Вычислим, какое количество информации получено после ответа на первый 
вопрос. До ответа на первый вопрос имеем 

 
HДО=H(X)=4 бита. 

Ответ на первый вопрос показал, что задуманное число находится во второй 
половине диапазона [0,15]. Значит, вероятности для чисел из первой его половины 
равны нулю, а вероятности для чисел из второй половины удвоились и составляют 
0.1250 (сумма вероятностей для всех чисел отвечает условию (8.19)). Энтропию такого множества неравновероятных событий следует вычислять по формуле Шеннона (8.20). Учтем, что в сумме (8.20) первые восемь слагаемых равны нулю, потому 
что у них p(xi)=0 (см. табл. 8.6). Поэтому  

 
HПО=
3
2
8
1
1250
.
0
−
=
=
=
(
)
∑
=

−
×
−
16

9
i

3
2 2
log
8
1
=
(
)
∑
=
−
×
−
16

9
i
3
8
1
= 

 
=〈восемь одинаковых слагаемых〉=−8×
(
)
3
8
1
−
×
=3 бита. 

Значит, количество информации, полученное после ответа на первый вопрос, составит 

 
I1(X)=HДО−HПО=4−3=1 бит. 

Перед ответом на второй вопрос имеем HДО=3 бита. Ответ на второй вопрос 
показал, что задуманное число находится в диапазоне [12,15], и вероятности для 

каждого из чисел этого диапазона равны 0.2500=
=2−2. Тогда 

 
HПО=
(
)
∑
=

−
×
−
16

13
i

2
2 2
log
4
1
=2 бита. 

 
I2(X)=HДО−HПО+I1(X)=3−2+1=2 бита. 

Перед ответом на третий вопрос имеем HДО=2 бита. Ответ на третий вопрос 
показал, что задуманное число находится в диапазоне [13,14], и вероятности для 

каждого из чисел этого диапазона равны 0.5000=
=2−1. Тогда 

 
HПО=
(
)
∑
=

−
×
−
14

13
i

1
2 2
log
2
1
=1 бит. 

 
I3(X)=HДО−HПО+I2(X)=2−1+2=3 бита. 

Перед ответом на четвертый вопрос имеем HДО=1 бит. После 
ответа на четвертый вопрос остается только искомое число 13 с 
вероятностью, равной 1, то есть HПО=0. 

 
I4(X)=HДО−HПО+I3(X)=1−0+3=4 бита. 

Значит, полная информация, полученная в ответах на все 
четыре вопроса, составит 

 
I(X)=I4(X)=H(X)=4 бита. 

 Пример. Изменим условие задачи так. Некто первый 
случайным образом загадывает целое число из диапазона 
X=[0,15]. При этом он никогда не загадывает круглые числа, а 
предпочтение отдает простым числам (табл. 8.6). Вычислим энтропию такого множества случайных событий. 
В этом случае необходимо применить меру Шеннона 
(8.20) для N=16. Отметим, что слагаемые p(xi)×log2(p(xi)) в сумме 
(8.20) при p(xi)=0 вычисляются как
(
)
0
)
x
(
p
(
log
)
x
(
p
lim
i
2
i
0
)
x
(
p
i

=
×

→
. Так 

получаем 

4
1

2
1

Таблица 8.6

i 
xi 
p(xi) 

1
0 0.0000

2
1 0.1250

3
2 0.1250

4
3 0.1250

5
4 0.0179

6
5 0.1250

7
6 0.0179

8
7 0.1250

9
8 0.0179

10
9 0.0179

11 10 0.0000
12 11 0.1250
13 12 0.0179
14 13 0.1250
15 14 0.0179
16 15 0.0179

H(X)=3.351 бита. 

Как видим, энтропия множества неравновероятных событий меньше энтропии множества равновероятных событий. 

В системе коммуникации оперируют с входным ИМ (множество X) и с выходным ИМ (множество Y). То есть в опыте одновременно участвуют и множество X с 
энтропией H(X), и множество Y с энтропией H(Y). Результатом того или иного испытания может быть и исход xi из X, и исход yj из Y, то есть событие xi×yj (i= N
,1
, j= M
,1
). 
Говорят, что в таком опыте оперируют с множеством X×Y. 

Если события xi и yj независимы, то 

 
p(xi×yj)=p(xi)×p(yj), 

а энтропия H(X×Y) множества X×Y, когда xi и yj независимы, равна 

 
H(X×Y)=H(X)+H(Y). 
(8.22) 

Формула (8.22) справедлива для любого числа k участвующих в опыте множеств. А если все они еще и одинаковы, то есть оперируют с множеством Xk, то 

 
H(Xk)=k×H(X). 

 Пример. Из 32 символов множества X составляют сообщения из трех символов. Какое количество информации несет такое сообщение? 
Здесь множество случайных событий X мощностью N=32. Ни один из символов 
не имеет преимуществ перед другими, то есть все они равновероятны в одной выборке. 
Значит, энтропия множества X при выборе одного символа вычисляется по формуле 
Хартли: 

 
H(X)=log2(N)=log2(32)=5 битов. 

При выборе трех символов множество X используется k=3 раза, то есть в сообщениях из трех символов оперируют с множеством X3, а элементом этого множества является любое трехсимвольное сообщение. Тогда энтропия множества X3 равна 

 
H(X3)=3×H(X)=15 битов. 

До составления того или иного сообщения неопределенность в исходе этого 
опыта есть 

 
HДО=H(X3))=15 битов. 

После формирования конкретного сообщения неопределенность в исходе 
опыта отсутствует. А это означает, что 

 
HПО=0. 

Значит, 

 
I(X)=HДО−HПО=15 битов. 

Отметим, что общее количество k-символьных сообщений, которые можно 
составить из N символов равно Nk, потому что в каждую из k позиций для сообщения 
можно поместить любой из N символов. В нашем примере из 32 символов можно составить 323=215=32768 трехсимвольных сообщений. 

Положим теперь, что события xi и yj зависимы. Тогда 

 
p(xi×yj)=p(xi)×p(yjxi)=p(yj)×p(xiyj), 

где 
p(yjxi) – условная вероятность события yj, а именно, вероятность события yj, 
вычисленная при том условии что xi произошло, 

p(xiyj)– условная вероятность события xi, а именно, вероятность события xi, 
вычисленная при том условии что yj произошло. 
Энтропия H(X×Y) множества X×Y, когда xi и yj зависимы, равна 

 
H(X×Y)=H(Y)+H(XY)=H(X)+H(YX)). 
(8.23) 

Здесь 
H(XY) – условная энтропия множества X. Она характеризует среднюю неопределенность множества X, которая остается после наступления того или иного 
события из множества Y, 
H(YX) – условная энтропия множества Y. Она характеризует среднюю неопределенность множества Y, которая остается после наступления того или иного 
события из множества X. 

С условными энтропиями оперируют в системах коммутации. 
На вход системы поступает сообщение xi из входного ИМ X. На выходе системы коммутации появляется сообщение yj из выходного ИМ Y. Получив сообщение 
yj, нельзя утверждать, что оно точно совпадает с сообщением xi поскольку система 
коммутации подвержена воздействию помех. Таким образом, выходной ИМ Y отображает входной ИМ X со средней неопределенностью H(XY). До выполнения опыта 
со входным ИМ X неопределенность его исхода характеризуется энтропией 

 
HДО=H(X). 

После опыта о его результате судят по выходному ИМ Y с неопределенностью 

 
HПО=H(XY). 

Количество информации I(X,Y) о событиях входного ИМ X, которое получают в 
событиях выходного ИМ Y, вычисляют так: 

 
I(X,Y)=H(X)−H(XY). 
(8.24) 

Точно так, имея сообщение xi, нельзя утверждать, что оно совпадает с сообщением yj. То есть входной ИМ X отображает выходной ИМ Y со средней неопределенностью H(YX). До выполнения опыта со выходным ИМ Y неопределенность его 
исхода характеризуется энтропией 

 
HДО=H(Y). 

После опыта о его результате судят по входному ИМ X с неопределенностью 

 
HПО=H(YX). 

Количество информации I(X,Y) о событиях выходного ИМ Y, которое получают 
в событиях входного ИМ X, вычисляют так: 

 
I(X,Y)=H(Y)−H(YX). 
(8.25) 

Рис. 8.13, который называют диаграммой Венна, наглядно иллюстрирует соотношения между описанными энтропийно-информационными понятиями системы 
коммутации. Имеем энтропию входного ИМ H(X) и энтропию выходного ИМ H(Y). После наступления того или иного события из множества Y неопределенность входного 
ИМ уменьшается до величины H(XY). А после наступления того или иного события 
из множества X неопределенность выходного ИМ уменьшается до величины H(YX). 

Рис. 8.13

H(XY)
H(YX)
I(X,Y)
H(X)
H(Y)

Величина I(X,Y) получается либо путем вычитания H(XY) из H(X) (см. (8.24), либо путем вычитания H(YX) из H(Y) (см. 8.25)). 

 Пример. Рассмотрим простейшую систему коммуникации, в которой входной информационный массив X задан всего двумя символами x1=0, x2=1, а выходной 
информационный массив Y – тоже всего двумя символами y1=0, y2=1. Положим, что 
вероятность ошибки при приеме символа равна p, а вероятность безошибочного 
приема символа равна 1−p. 
На рис. 8.14 схематически показана такая система коммуникации. Стрелки 
показывают, в какие символы множества Y и с какой вероятностью переходит каждый из символов множества X. В теории информации такая система коммуникации 
называется двоичным симметричным каналом связи. 

Вычислять количество информации I(X,Y) будем по формуле (8.24), в которой энтропия H(Y) имеет максимально возможное значение H(Y)=1, а условная энтропия H(YX) определяется соотношением (дается без вывода) 

 
H(YX)=−(p×log2(p)+(1−p)×log2(1−p)). 
(8.26) 

Тогда 

 
I(X,Y)=1−H(YX)=1+(p×log2(p)+(1−p)×log2(1−p)). 
(8.27) 

На рис. 8.15 показаны графики H(YX) и I(X,Y), построенные по формулам 
(8.26) и (8.27). Как видим, с увеличением p от 0 до 0.5 условная энтропия H(YX) 
возрастает, а количество информации о массиве X в массиве Y падает. 

При p=0.5 оказывается, что H(YX)=1, а I(X,Y)=0. Объясняется это тем, что 
при p=0.5 теряется зависимость между символами массивов X и Y. Когда передается 
символ x1=0, на выходе с равной вероятностью принимается или символ y1=0, или 
символ y2=1. То же самое имеет место и при передаче символа x2=1. Значит, при 
p=0.5 неопределенность выходного массива Y при известном входном массиве X 
максимальна, и элементы массива Y не содержат никакой информации о символах 
массива X. 
С увеличением p от 0.5 до 1 условная энтропия H(YX) падает, а количество 
информации I(X,Y) растет. Дело в том, что при высокой вероятности ошибки p пере
Рис. 8.14

СИСТЕМА 
КОММУНИКАЦИИ

ВЫХОДНОЙ 
ИМ 

ВХОДНОЙ 
ИМ 

1−p

1−p

p

p

x1 0

x2 1
y2
1

y1
0

Рис. 8.15

p

0.25 0.50 0.75 1.00
0.00

0.75

0.25

1.00

0.50

0.00

I(X,Y)

H(YX)

дача символа x1=0 чаще всего вызывает появление на выходе символа y2=1, а при 
передаче x2=1 на выходе чаще всего будет y1=0. Если при p>0.5 выполнять инверсию символов на выходе (замену нуля на единицу, а единицы на нуль), то вероятность искажения результата такой инверсии будет равна 1−p<0.5. 

1.2. Основы государственной политики в области информатизации 

I. Общие положения 
Информационное общество характеризуется высоким уровнем развития информационных и телекоммуникационных технологий и их интенсивным использованием гражданами, бизнесом и органами государственной власти.  
Увеличение добавленной стоимости в экономике происходит сегодня в значительной мере за счет интеллектуальной деятельности, повышения технологического уровня производства и распространения современных информационных и телекоммуникационных технологий. 
Существующие хозяйственные системы интегрируются в экономику знаний. 
Переход от индустриального к постиндустриальному обществу существенно усиливает роль интеллектуальных факторов производства. 
Международный опыт показывает, что высокие технологии, в том числе информационные и телекоммуникационные, уже стали локомотивом социальноэкономического развития многих стран мира, а обеспечение гарантированного свободного доступа граждан к информации – одной из важнейших задач государств.  
Динамика показателей развития информационной и телекоммуникационной 
инфраструктуры и высоких технологий в России не позволяет рассчитывать на существенные изменения в ближайшем будущем без совместных целенаправленных усилий органов государственной власти, бизнеса и гражданского общества. Необходимо 
уже в среднесрочной перспективе реализовать имеющийся культурный, образовательный и научно-технологический потенциал страны и обеспечить Российской Федерации достойное место среди лидеров глобального информационного общества. 
В настоящей Стратегии закрепляются цель, задачи, принципы и основные 
направления государственной политики в области использования и развития информационных и телекоммуникационных технологий, науки, образования и культуры для 
продвижения страны по пути формирования и развития информационного общества. 
II. Назначение и политико-правовая основа настоящей Стратегии 
Настоящая Стратегия является основой для подготовки и уточнения доктринальных, концептуальных, программных и иных документов, определяющих цели и 
направления деятельности органов государственной власти, а также принципы и 
механизмы их взаимодействия с организациями и гражданами в области развития 
информационного общества в Российской Федерации. 
Настоящая Стратегия подготовлена с учетом международных обязательств 
Российской Федерации, Доктрины информационной безопасности Российской Федерации, федеральных законов, а также нормативных правовых актов Правительства 
Российской Федерации, определяющих направления социально-экономического развития, повышения эффективности государственного управления и взаимодействия 
органов государственной власти и гражданского общества в Российской Федерации.  
В настоящей Стратегии учтены основные положения Окинавской хартии глобального информационною общества, Декларации принципов построения информационного общества, Плана действий Тунисского обязательства и других международных документов, принятых на Всемирной встрече на высшем уровне по вопросам 
развития информационного общества.