Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Основы формирования, передачи и приема цифровой информации

Покупка
Основная коллекция
Артикул: 484608.02.99
В учебном пособии изложено кодирование источников информации; формирование различных канальных кодов; описаны разнообразные цифровые сигналы; рассмотрены коды и сигналы, используемые, в цифровых системах связи и телевидения. В приложении приводятся элементы теории конечных полей, применяемые при кодировании и декодировании информации. В каждом разделе даны контрольные вопросы и задачи. Учебное пособие предназначено для студентов и практикующих инженеров, специализирующихся по направлению 210300 — Радиотехника.
Лузин, В. И. Основы формирования, передачи и приема цифровой информации : учебное пособие / В. И. Лузин, Н. П. Никитин, В. И. Гадзиковский ; науч. ред. В. И. Гадзиковский. - Москва : ООО «СОЛОН-Пресс», 2020. - 316 с. - ISBN 978-5-321-01961-0. - Текст : электронный. - URL: https://znanium.com/catalog/product/1858788 (дата обращения: 27.04.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов. Для полноценной работы с документом, пожалуйста, перейдите в ридер.

В.И. Лузин, Н.П. Никитин, В.И. Гадзиковский





            ОСНОВЫ ФОРМИРОВАНИЯ, ПЕРЕДАЧИ И ПРИЁМА ЦИФРОВОЙ ИНФОРМАЦИИ


Под редакцией доктора технических наук В.И. Гадзиковского


Рекомендовано Региональным отделением УрФО учебно-методического объединения вузов Российской Федерации по образованию в области радиотехники, электроники, биомедицинской техники и автоматизации в качестве пособия для студентов высших учебных заведений, обучающихся по направлению подготовки 210400 — Радиотехника в УрФО.







Москва СОЛОН-Пресс 2020

УДК 621.396.62 (075.8)
ББК 32.849Я.73
    Н62

    Рецензенты:
    Зав. отделом алгебры и топологии института Математики и механики УРО РАН, член — корреспондент РАН, профессор, доктор физико-математических наук А.А. Махнев; главный научный сотрудник института Геофизики УРО РАН, член — корреспондент РАН, профессор, доктор технических наук В.И. Уткин.
    Кафедра информационны радиосистем Нижегородского государственного технического университета им. Р.Е. Алексеева (зав. кафедрой, доктор технических наук, профессор А.Г. Рындык).




    В.И. Лузин, Н.П. Никитин, В.И. Гадзиковский
Н62. Основы    формирования,   передачи и приема цифровой
     информации: учебное пособие / В.И. Лузин, Н.П. Никитин, В.И. Гадзиковский // Научный редактор В.И. Гадзиковский // М.: — ООО «СОЛОН-Пресс», 2020, — 316 стр.


     ISBN 978-5-321-01961-0



    В учебном пособии изложено кодирование источников информации; формирование различных канальных кодов; описаны разнообразные цифровые сигналы; рассмотрены коды и сигналы, используемые, в цифровых системах связи и телевидения. В приложении приводятся элементы теории конечных полей, применяемые при кодировании и декодировании информации. В каждом разделе даны контрольные вопросы и задачи.
    Учебное пособие предназначено для студентов и практикующих инженеров, специализирующихся по направлению 210300 — Радиотехника.



                     Библиография: 51 название. Таблиц 35 . Рисунков 156.
УДК 621.396.62 (075.8)
ББК 32.849Я73



ISBN 978-5-321-01961-0


                    © СОЛОН-Пресс, 2020
                    © В.И. Лузин, Н.П. Никитин, В.И. Гадзиковский, 2020

ПРЕДИСЛОВИЕ


     В предлагаемом читателю учебном пособии мы старались представить цифровые системы передачи информации в доступном виде для старшекурсников, аспирантов и практикующих инженеров. Основные задачи книги - дать понятие об организации и «общей картине» отрасли, которая быстро развивается и внедряется в нашу повседневную жизнь.
     Чем же обусловлена такая тенденция? Существует множество причин. Прежде всего хочется отметить сравнительную простоту восстановления цифровых сигналов на приёмном конце. В аналоговых системах передачи информации сигналы представляют собой бесконечное множество возможных значений, даже и ограниченное в определенном диапазоне. Небольшие помехи могут неузнаваемо привести к искажениям сигнала и передаваемого сообщения. При использовании цифровых технологий используемые сигналы представляют собой конечное множество, когда не требуется точного восстановления сигнала. На приёмном конце требуется лишь решить задачу -каким элементом конечного множества является принятый сигнал. Таким образом, основной задачей приемника аналоговых сигналов является измерение и оценка информационных параметров сигнала, а задачей приемника цифровых сигналов - задача различения сигналов.
     Цифровые сигналы менее подвержены искажению и интерференции, чем аналоговые. Например, двоичные цифровые сигналы могут принимать только два значения и помеховое возмущение должно быть достаточно большим, чтобы перевести систему из одного рабочего состояния в другое.
     Цифровое программное обеспечение допускает более гибкую структурную и элементную реализацию, чем аналоговое. Например, микропроцессоры, большие интегральные схемы, коммутаторы и т.д. Это позволяет реализовать различные рабочие состояния системы, обеспечить ее быструю перестройку.
     Использование цифровых сигналов и уплотнения с временным разделением каналов значительно проще применения аналоговых сигналов и уплотнения с частотным разделением.
     Для удобства коммутации и обработки цифровые сообщения могут группироваться в автономные блоки, называемые пакетами.
     Форма передаваемой информации (поток битов) одинакова и не зависит от вида передаваемых данных (телефон, телеграф, телевидение и т.п.).
     Оконечные устройства в большинстве своем представляют компьютерные и цифровые устройства, которые лучше обслуживаются цифровыми каналами связи. И, наконец, цифровые устройства могут производиться по более низким ценам.
     Чем же приходится платить за упомянутые преимущества? Для цифровых систем необходимо выделять значительную часть ресурсов для синхронизации на различных уровнях системы. Системы передачи информации представляют собой пороговые системы - качество передачи информации

3

скачком ухудшается при уменьшении соотношения сигнал/шум на входе приемника ниже порогового уровня.
       В предлагаемой читателю книге передаваемая информация и ее последовательные преобразования в процессе передачи просматривается начиная от источника информации до получателя. При этом обсуждаются такие вопросы как преобразование информации в цифровой вид; канальное кодирование; преобразование цифровой информации в сигналы; прием этих сигналов; их демодуляция и декодирование. Рассматриваются примеры по выбору и оценке кодов, и основных параметров системы связи, а также опии-сываются системы передачи изображения.
       Путеводителем читателя при чтении книги может быть обобщенная функциональная схема системы цифровой передачи информации рис.Пр-1.


       Рис.Пр-1. Обобщенная функциональная схема системы цифровой передачи информации: ИИ - источник информации; ПИ - преобразователь информации; КК - канальное кодирование; М - модулятор; К - канал передачи сообщения; ДМ - демодулятор; ДК - декодер; ПИ - получатель информации; СС - система синхронизации.
       Источники информации (ИИ) делят на два вида: дискретные и анна-логовые. От дискретного источника поступает информация в виде последовательности отсчетов какого-либо явления, следующих друг за другом через определенные интервалы времени. Аналоговая информация может быть представлена в виде непрерывной функции, передаваемой величины какого-либо явления. От ИИ информация поступает на преобразователь информации (ПИ), где она преобразуется в последовательность чисел, представляемых обычно в двоичной системе счисления. Процесс преобразования может происходить в виде простого соответствия исходной величины входного процесса тому или иному цифровому значению, либо при этом совершается ряд преобразований над полученными цифровыми значениями с учетом их статистических свойств. В первом случае процесс преобразования называют оцифрованием информации, во втором - кодированием источника информации. (Ряд авторов первый вид преобразования называют формированием). Кодирование информации позволяет уменьшить объем передаваемой информации за счет удаления избыточности в сообщении. В итоге можно либо увеличить скорость передачи информации, либо уменьшить полосу частот, занимаемую системой передачи. На выходе ПИ информация представляется в виде групп логических «0» и «1». Эти группы

4

 носят название символов сообщения. Каждый такой символ можно рассматривать как элемент конечного алфавита, содержащего М символов. При М = 2, когда символ состоит из двух бит, символ называется бинарным. Если число бит в символе больше двух, символ называется многоразмерным.
     С выхода ПИ символы сообщения в виде потока бит поступают в канальный кодер (КК). В КК они преобразуются в последовательность канальных символов. Канальное кодирование предназначено для повышения помехоустойчивости системы передачи информации по отношению ко внешним и внутренним помехам. Это достигается путем введения избыточности (дополнительных бит) в каждый символ сообщения или введением корреляционных связей между битами различных символов сообщения. В первом случае кодирование называют блочным, во втором - сверточным.
     В учебном пособии рассматриваются вопросы кодирования источников информации, блочные канальные коды, сверточное кодирование, решетчатое кодирование. Особое внимание уделено таким блочным канальным кодам, широко используемым на практике, как коды Боуза-Чоудхури-Хоквингема (БХЧ), коды Рида-Соломона (РС) и важным для понимания основ кодирования - кодам Хэмминга.
     При рассмотрении различных кодов задача, которую ставили перед собой авторы пособия - доступное изложение, одновременно раскрывающее все основные аспекты этих кодов. Поскольку построение этих кодов основано на ряде математических дисциплин (теории информации, теории групп, теории чисел, теории конечных полей), с которыми весьма поверхностно знакомы студенты технических специальностей, в учебном пособии (в приложении) изложены основные определения и теоремы, из упомянутых дисциплин математики, необходимые для понимания основ кодирования. При чтении приложения следуйте совету: если материал вызывает у Вас затруднение, не стесняйтесь пропустить доказательства, с которыми Вы успешно справитесь в дальнейшем. Мы сами часто так делаем.
     Большой популярностью в последнее время пользуются сверточные коды, которые по своей эффективности не уступают, а в ряде случаев превосходят блочные коды. Достоинство их основывается на том, что эти коды «обладают памятью», т.е. кодовое слово зависит от предыдущих, ранее использованных при передаче, кодовых слов.
     Не малый практический интерес представляют решетчатые коды. Это связано с тем, что блочное и сверточное кодирование осуществляется до модулятора и основывается на введении дополнительных (избыточных) бит в передаваемые символы (так называемое кодирование «на битовом уровне»). Эти дополнительные биты не несут информационной нагрузки, а приводят лишь к уменьшению скорости передачи информации, либо требуют расширения полосы частот, занимаемой каналом. Решетчатое кодирование осуществляется на сигнальном уровне, т.е. из всей совокупности сигналов, применяемых при передаче, выбираются те, которые в данный момент времени с учетом сигналов, использованных ранее и передаваемых символов сообще

5

ния, обеспечивают наибольшую эффективность передачи сообщения. Иными словами, модуляция и кодирование осуществляется одновременно.
     С выхода КК канальные символы поступают в модулятор (М). Модулятор - это устройство, посредством которого канальные символы преобразуются в сигналы. В зависимости от частотного диапазона, в котором располагается спектр выходного сигнала модулятора, системы делят на системы низкочастотного и радиочастотного диапазонов. В низкочастотных системах спектр сигнала начинается в области низких частот, примыкающих к нулевой частоте. В системах радиочастотного диапазона используются сигналы с несущей частотой, как правило, значительно превышающую ширину спектра модулирующего сообщения. В книге описаны различные виды бинарных и многоразмерных импульсных сигналов, используемых в низкочастотных системах. В системах радиочастотного диапазона анализируются сигналы с фазовой, частотной, квадратурной бинарной и квадратурной амплитудной манипуляцией. Оценивается и сопоставляется их помехоустойчивость по отношению к шумовым помехам.
     Сформированные сигналы поступают в канал передачи, в котором входной сигнал претерпевает частотные искажения, искажения вызванные многолучевостью тракта передачи, искажения от всякого рода помех, действующих в канале.
     В приемнике принятый сигнал демодулируется, декодируется и подается к пользователю. Операции демодуляции, декодирования обратны преобразованиям сигнала в передающем устройстве. Однако вследствие искажений сигнала и помех в канале передачи принятая информация отличается от переданной. Выбранные критерии качества позволяют оценить достоверность и надежность принятой информации.
     На рис.Пр-1 в виде отдельного квадрата изображена система синхронизации (СС) устройства передачи информации. СС обеспечивает синхронную работу функциональных узлов системы по времени, частоте и фазе. В пособии обсуждаются вопросы фазовой и частотной синхронизации принятого и опорных сигналов приемника, а также их временная и символьная синхронизация.
     Ряд структурных элементов системы не приведен на рис.Пр-1. Эти элементы обеспечивают специфические нужды системы. К ним можно отнести процедуры уплотнения и множественного доступа, расширение спектра сигнала, шифрование информации. Устройства уплотнения и множественного доступа объединяют сигналы с различными характеристиками или сигналы, поступающие от разных источников.
     Процедура расширения спектра сигнала позволяет получить сигнал слабо уязвимый к естественной или умышленной интерференции, и может использоваться для повышения конфиденциальности сеанса передачи. Эта операция является основной технологией, используемой для множественного доступа. Шифрование используется для обеспечения секретности пере

6

дачи и предотвращения понимания ее смыслового содержания несанкционированными пользователями путем вве-дения ложных сообщений.
     В пособии рассмотрены фазовые и частотные методы расширения спектра сигнала. Описаны устройства синхронизации приема широкополосных сигналов. Оценивается помехозащищенность таких систем по отношению к мешающим внешним сигналам.
     В отдельном разделе обсуждаются вопросы взаимосвязи основных параметров систем передачи информации и возможные компромиссы при выборе этих параметров. При этом рассматриваются теоретические ограничения, такие как критерии Найквиста и предел Шеннона. Приводятся примеры выбора параметров системы для случаев, когда не требуется использование канальных кодов и в случаях применения линейного кодирования. Оценивается эффективность кодирования.
     В качестве иллюстрации цифровых методов передачи информации описываются коды и сигналы в цифровом телевидении и системах связи.
     Во всех разделах в учебном пособии приводятся задачи и контрольные вопросы. При желании читателя более подробно и глубже разобраться предлагаемом для чтения материале в конце книги дается библиография.
     В настоящее время теория и практика цифровых систем охватывает столько вопросов, что изложить их в одной книге невозможно. Поэтому мы будем счастливы, если эта книга хотя бы в малой степени поможет читателю получить представление о методах и устройстве цифровых систем передачи информации.

7

Глава 1. КОДИРОВАНИЕ ИСТОЧНИКОВ ИНФОРМАЦИИ
1.1. Дискретные источники и их информационное описание
     Источники информации делятся на два вида: дискретные и аналоговые. Дискретные источники генерируют последовательность символов X(nT), выбранную из исходного алфавита в промежутки времени nT, где n = 0,1,2,...; T - интервал выборки. При этом под символом понимается один элемент или группа элементов, рассматриваемых как одно целое. Если алфавит содержит конечное число символов и каждому символу поставили в соответствие определенный знак, то говорят, что источник является знаковым. Примером таких символов является последовательность 8-битовых ASCII - символов от клавиатуры компьютера, код Морзе, код Бодо. Знаковый источник определяется символами алфавита, вероятностью, присвоенной этим знакам, и условными вероятностями перехода от одного знака к другому.
     Аналоговый источник генерирует случайный процесс, изменяющийся во времени. Примером таких процессов являются сигналы факсимильной связи, сигналы телевизионных передач, развернутые по строкам. Источники аналоговых сигналов описываются в терминах функций плотности вероятности. Многие источники демонстрируют значительную корреляцию во времени. Это означает, что уровни сигналов в текущем времени зависят друг от друга.
     На первом этапе цифрового преобразования аналоговый процесс преобразуется в дискретную форму. Каждой дискретной составляющей ставится в соответствие один из набора возможных символов {L (n)}. Таким образом, аналоговый источник также преобразуется в последовательность символов L (n). Как правило, эти символы состоят из нулей и единиц («0» и «1»), т.е. представляют собой двоичные символы.
     В предлагаемом читателю разделе излагаются вопросы кодирования источника сигнала. Под кодированием источника в дальнейшем будем понимать преобразование данных на выходе источника в последовательность двоичных символов. При этом в процессе этого преобразования может удаляться избыточная информация. Такая операция называется сжатием информации. Сжатие информации позволяет уменьшить число бит информации, поступающих от источника.
1.1.1. Информационное описание дискретного источника
     Кодирование сообщения источника прежде всего связано с задачей эффективного описания информации на выходе этих источников. Эффективное описание приводит к снижению требований к объему памяти, связанной с хранением и передачей исходных данных, или к уменьшению полосы частот, необходимой для их передачи. Такое описание требует количественных мер оценки информации, умения анализировать и преобразо-8

вывать информацию. Настоящий раздел посвящен рассмотрению этих вопросов.
      Любой дискретный источник характеризуется совокупностью символов. Совокупность символов образует алфавит. Каждый символ х, описывается вероятностью его появления Pi и статистическими связями с другими символами алфавита - условными вероятностями P(х,|х1,х₂,...,xN), где N -количество символов в алфавите источника. Информационное описание источника - это количество информации, содержащееся в каждом его символе . Интуитивно понятно, что количество информации должно быть пропорционально величине 1/P,, т.е. чем меньше величина Pi, тем реже появ

ляется этот символ, тем труднее предсказать его появление и тем самым выше количество информации, несомое этим символом. Однако в качестве количественной меры информации взята величина

I (X, ) = l0g2(1/P) = - l0g2 Pi.

(1.1)

     Такое представление информации позволяет измерить ее в битах.

      Величина средней информации на символ источника называется э нтр-опией источника Н(х) и вычисляется в виде
                                   N
H (х) = -£ I (х,) ■ P (X,),                  (1.2)
i=1
где N - количество символов в алфавите.
      При оценке энтропии источника по выражению (1.2) полагается, что все символы алфавита независимы друг от друга. Если же такая связь

существует, энтропия вычисляется иначе.
      Положим, что связь проявляется только между двумя последовательными символами сообщения. Это простейший вид связи. В более общем

виде устанавливается связь между символом Xj и предшествующими ему рядом, состоящим из «К» предшествующих символов. Такие модели называются Марковскими моделями К-го порядка.
     Для Марковской модели второго порядка под количеством информации в символе Xj понимается величина, I(ху-|х, )=-log₂ P(ху-|х,) где P(Xj | х,) - вероятность появления символа Xj при условии, что перед этим

символом появился символ х,. Средняя информация на символ источника при условии, что в предыдущий момент времени появился символ х,, составит
                   N                     N
         H ⁽х | хг )=^¹ ⁽х । х, )■ P⁽х । х, )= 2 l⁰g2 ⁽х I х, )^ P⁽х I х, ⁾, (1.3)
                   ,=1                   ,=1
где N - количество символов в алфавите источника. Величина H(х|х,) называется условной энтропией источника, полная энтропия источника при

этом равна

                                     N
H, =2 H ⁽х1х, ⁾^ P ⁽х, ),
                                     ,=1

(1.4)

9

                              где P(xi) - априорная вероятность появления символа x,. В случае независимых символов P(ху-| xi )=P(Xj) и выражение (1.4) переходит в (1.1). Такой источник называется источником без памяти.
      Источник без памяти интересен тем, что, во-первых, он обладает сравнительно высокой энтропией. Во-вторых, среднее количество информации, передаваемое в сообщении от источника без памяти, равно
I = HM, где H - энтропия источника; M - количество символов в сообщении.
      Максимальная энтропия, которой может обладать источник, определяется в случае, когда все символы источника взаимно независимы и обладают одинаковой вероятностью. При этом поскольку, P(xi) = 1/Nиз выражений (1.1) и (1.2) следует
                           H = H ... = - log2 N, где N - количество символов алфавита источника. Если символы источника имеют не равные вероятности, то энтропия источника всегда
H < Hmax.
      Учет статистической связи между символами источника также приводит к понижению его энтропии. Поясним сказанное на примерах.
      Пример 1. Пусть источник генерирует независимые равновероятные символы «а» и «b». Р (а) =Р (b) = 0,5. В этом случае энтропия источника равна
      Н = 2-(0,5-log₂2) = 1 бит/символ.
      Если сообщение, положим, состоит из ста символов, то среднее количество информации, передаваемое от источника, составляет сто бит.
      Пример 2. Пусть Р(а) = 0,1; Р(b) = 0,9. Энтропия источника в этом случае равна
      Н = - (Р (а) • log₂ Р (а) + Р (b) • log₂ Р (b)) = 0,47 бит/символ.
      Иными словами, при передаче ста символов среднее количество информации, передаваемое источником, равно 47 бит.
      Пример 3. Допустим имеем двоичный источник, в котором символы связаны между собой вероятностями перехода Р (а/b) = 0,05 и Р (b / а) = 0,45. Из выражений (1.3), (1.4) следует, что для данного примера
H (х) = P (a) ■ H (x/a) + P (b) ■ H (x/b),
           < H(x/a) = -P(a/a) ■ log₂ P(a/a) - P(b/a) ■ log₂ P(b/a), (1.5)
           ч H(x/b) = -P(a/b) ■ log₂ P(a/b) - P(b/b) ■ log₂ P(b/b), где x e a, b.
      Априорные вероятности P(a) и Р(b) находятся с помощью формул полной вероятности:
P (a) = P (a /a) P (a)+P (a / b) P (b),
P (b) = P (b / b) P (b)+P (b /a) P (a),

10