проектирование системы передачи аналоговых и цифровых сообщений
Заказать уникальную курсовую работу- 31 31 страница
- 0 + 0 источников
- Добавлена 27.10.2019
- Содержание
- Часть работы
- Список литературы
1 Структурная схема системы связи…………………………………………...…..……….................4
2 Выбор схемы приемника (демодулятора)……………………………………..................................6
3 Расчет вероятности ошибки на выходе приемника…………………………...……………………9
4 Сравнение выбранной схемы приемника с оптимальным приемником……...………..................10
5 Передача аналоговых сигналов методом ИКМ…………………………………..……………......21
6 Помехоустойчивый кодирование…………………………………………………...…………..….22
7 Статистическое кодирование………………………………………………………...……………..25
8 Пропускная способность двоичного канала связи…………………………………..……………27
Заключение………………………………………………………..…………………………………..29
Список использованных источников…………………………………..……………………………30
Сформулируем принципы выявления и исправления ошибок при декодировании. В декодере хранится «список» всех разрешенных кодовых комбинаций. При декодировании с обнаружением ошибок принята кодовая комбинация сравнивается с каждой из разрешенных и, если она не совпадает ни с одной разрешенной, то считается ошибочной, так как находится в области запрещенных - ошибка обнаруживается. Ошибка не проявляется, когда передана разрешенная кодовая комбинация на приеме переходит в другую разрешенную. Декодирование с исправлением ошибок основано на двух операциях: определении расстояний между принятой комбинацией и каждой из разрешенной и затем отыскания разрешенной комбинации, имеет минимальный расстояние от поступившей комбинации. При этом принятая кодовая комбинация отождествляется с той комбинацией, в которой расстояние минимально.Классификация помехоустойчивых кодовКоды можно классифицировать по различным признакам. Одним из них является основание кода m, или число различных используемых в нем символов. Наиболее простыми является бинарные коды, в которых m = 2. Если m> 2, то код является недвоичным. Линейные коды - это коды, в которых избыточные символы образуются в результате линейных операций над информационными символами, в них сумма по модулю 2 любых разрешенных кодовых комбинаций также принадлежит данному коду. Большинство используемых на практике помехоустойчивых кодов являются линейными (циклические, сверточные и другие).Нелинейные коды (с постоянным весом, инверсные и другие) по сравнению с линейными имеют малую длину кодовых слов и используются, в основном, в специальных приложениях, так как часто обеспечивают лучшие характеристики.Систематические коды - такие коды, в которых информационные символы кодируют и на выходе кодера имеют такой же вид, как и на его входе.Каскадные коды образуются параллельными или последовательным включением нескольких помехоустойчивых кодов.Кодовое расстояниеОбнаруживает и исправляет способность корректирующих кодов тесно связаны с расстояниями между разрешенными кодовыми комбинациями.Расстояние между парой кодовых комбинаций AiAj выражает различие между ними:Где xik, xjk - координаты кодовых комбинаций Ai иAj.Наименьшее расстояние между парой разрешенных комбинаций данного кода называется кодовым расстоянием dmin = d.Так как кратность ошибки t в геометрическом представлении является расстоянием между передаваемой комбинацией и искаженной, то для выявления ошибок кратности (1÷t) нужно кодовое расстояние:Для исправления ошибок кратности (1 ÷t) нужно кодовое расстояние:Это означает, что для исправления ошибки искаженная комбинация должна располагаться ближе всего к правильной комбинации.Код для выявления одноразовых ошибокСамым простым способом помехоустойчивого кодирования является добавление к информационным элементам кода одного проверочного кода В таблице 2 приведен такой код с параметрами (6,5).Таблица 2k = 5r = 1123456101101010010110110000011Код обнаруживает все ошибки нечетной кратности. Выявление ошибок осуществляется проверкой принятой комбинации на четность, потому что все разрешенные комбинации имеют четное число единиц, а неразрешенные - нечетное. Если в канале связи ошибки независимы и вероятность искажения кодового элемента равна P (в нашем случае P = 0,00083), то в соответствии с биноминальным законом распределения вероятность обнаружения ошибки составляет:Вероятность искаженной комбинации:Pn = 1 - (1 - P) n.Вероятность выявленной ошибки можно найти по формуле:Если число информационных элементов равна 5, то:Получаем P н = 10,347 * 10-6.Коэффициент избыточности:7 Статистическое кодированиеСущность статистического кодированияОсновой статистического (оптимального) кодирования сообщений является теорема К. Шеннона для каналов связи без помех:Если источник сообщений имеет энтропию Н (бит на символ), а канал связи - пропускная способность С (бит в секунду), то можно закодировать сообщения таким образом, чтобы передать информацию по каналу со средней скоростью, сколь угодно близкой к величине С, но не превзойти ее.Кодирование по методу Шеннона-Фано-Хаффмена называется оптимальным, так как при этом повышается производительность дискретного источника.Кодирования называется статистическим, так как для реализации оптимального кодирования необходимо учитывать вероятности появления на выходе источника каждого элемента сообщения (то есть учитывать статистику сообщений).Производительность дискретного источника:(7.1)Избыточность дискретного источника:(7.2)Из формул (7.1) и (7.2) получаем:(7.3)Из формулы (7.3) видно, что для увеличения производительности нужно уменьшать избыточность и среднюю продолжительность сообщений τ.Количество информации и энтропия источника дискретных сообщенийИнформация - это совокупность сведений об объекте или явлении, которые увеличивают знания потребителя об этом объекте или явлении.Рассмотрим дискретный источник, выдает последовательность сообщений. Пусть это источник посылает сообщение с некоторого ансамбля А. Тогда количество информации i (a), содержащийся в сообщении: (7.4)где P (а) - вероятность того, что источник посылает данное сообщение.Количество информации в сообщении тем больше, чем оно менее вероятно (более неожиданно). Для характеристики всего источника (или ансамбля) сообщений используется математическое ожидание количества информации, называемое энтропией и обозначается как H(A)(7.5)Если ансамбль источника содержит K различных сообщений и сообщения передаются статистически независимо друг от друга (то есть рассматривается источник без памяти), то:По условию рассмотрен алфавит источника состоит из двух символов: «0» и «1». Вероятность передачи «1»: p (1) = 0,15. Следовательно, вероятность передачи «0»: p (0) = 1 -p (1) = 0,85 (т.к. суммарная вероятность этих сообщений равна 1).Подставляя числовые данные в уравнение (7.6), получаем:H (A) = 0,15 ∙ log2 (6,67) 0,85 ∙ log2 (1,176) = 0,61 бит.Основаниями полученное значение в формулу (7.1) и взяв вместо средней продолжительности сообщений продолжительность элементарной посылки T = 8 мкс, найдем производительность данного источника:Кодирования источника по методу Шеннона-ФаноРезультаты кодирования тем лучше, чем длиннее кодовые комбинации первичного кода применяются для статистического кодирования. При этом избыточность источника уменьшается. Поэтому перед осуществлением статистического кодирования укрупним ансамбль источника, объединив три символа в одно слово. Далее разобьем все реализации на две, примерно равные, группы. Одной дадим первый символ «0», а другой «1». Если получилось группа состоит из двух и более элементов, то повторим разбиение снова.Вычислим вероятности этих трёхбуквенных комбинаций (по теореме умножения вероятностей):p (000) = p (0) ∙ p (0) ∙ p (0) = 0,85 ∙ 0,85 ∙ 0,85 = 0,614;p (001) = p (0) ∙ p (0) ∙ p (1) = 0,85 ∙ 0,85 ∙ 0,15 = 0,108;p (010) = p (0) ∙ p (1) ∙ p (0) = 0,85 ∙ 0,15 ∙ 0,85 = 0,108;p (011) = p (0) ∙ p (1) ∙ p (1) = 0,85 ∙ 0,15 ∙ 0,15 = 0,019;p (100) = p (1) ∙ p (0) ∙ p (0) = 0,15 ∙ 0,85 ∙ 0,85 = 0,108;p (101) = p (1) ∙ p (0) ∙ p (1) = 0,15 ∙ 0,85 ∙ 0,15 = 0,019;p (110) = p (1) ∙ p (1) ∙ p (0) = 0,15 ∙ 0,15 ∙ 0,85 = 0,019;p (111) = p (1) ∙ p (1) ∙ p (1) = 0,15 ∙ 0,15 ∙ 0,15 = 0,00375.Обозначим источник этих сообщений как «В» и найдем его энтропию по формуле (7.6): H (B) = 1,83.Вычислим производительность источника после кодирования:8 Пропускная способность двоичного канала связиПропускной способностью системы связи называется максимально возможная способность передачи информации.Скорость передачи сообщений (измеряется в «бод») вычисляется по формуле:При длительности элементарного сигнала Т = 4 мкс по формуле (8.1) получаем:V = 250∙103 Боде.Канал связи называется симметричным, если вероятности переходов (искажений пожизненного сигнала) уровне.Вычислим пропускную способность двоичного канала связи с учетом длительности посылок Т и вероятности искажения посылок, считая канал связи симметричным, по формуле:Вероятность искажения посылок была найдена ранее и равна: ВЕ = 0,00083.Производительность источника к кодированию равен 152,46 кбит / c, после кодирования – 457,38 кбит / с, а пропускная способность канала связи равна 247,57 кбит / с. Передача информации от источника по каналу связи невозможна, так как производительность источника выше пропускной способности канала связи.ЗАКЛЮЧЕНИЕВ работе разработана структурная схема системы связи, предназначенная для передачи данных и передачи аналоговых сигналов методом ИКМ с использованием дискретной относительной фазовой модуляции некогерентного способа приема сигналов. Система с фазовой модуляцией позволяет получить минимальную вероятность ошибки. Помехоустойчивое кодирования позволяет повысить верность приема, статистическое кодирование обеспечивает повышение производительности источника. Применение того или иного способа кодирования определяется видом передаваемых сигналов. Так как речевые сигналы имеют высокую избыточность, при их обработке имеет смысл применить статистическое кодирование.СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ1 Теория передачи сигналов: Учебник для вузов / Зюко А.Г., Кловский Д.Д., Назаров М.В., Финк Л.М. - второй вид. перераб. и доп. - М.: Радио и связь, 1986. - 304 с. , Ил.2 Теория передачи сигналов: Учебник для вузов / Зюко А.Г., Кловский Д.Д., Назаров М.В., Финк Л.М. - М.: Связь, 1980. - 288с., Ил.3 Основы теории помехоустойчивости дискретных сигналов: Учеб.пособие. / Макаров А.А., Чиненков Л.А. - Новосибирск, СибГАТИ, 1997. - 42с.4 Основы теории передачи информации: Учеб.пособие. / Макаров А.А., Чиненков Л.А. - Новосибирск, СибГУТИ, 1998. - 40 с.5 Теория электрической связи. Сборник задач и упражнений: Учеб.пособие для вузов. / Кловский Д.Д., Шилкин В.А. - М.: Радио и связь, 1990. -280с.6 Теория передачи сигналов в задачах: Учеб.пособие для вузов. / Кловский Д.Д., Шилкин В.А. - М.: Связь, 1978.- 352с.7 Теория электрической связи: Учебник для вузов связи / Зюко А.Г., Кловский Д.Д., Назаров М.В. Прохоров Ю.Н.: - М.: Радио и связь (в печати).
2 Теория передачи сигналов: Учебник для вузов / Зюко А.Г., Кловский Д.Д., Назаров М.В., Финк Л.М. - М.: Связь, 1980. - 288с., Ил.
3 Основы теории помехоустойчивости дискретных сигналов: Учеб.пособие. / Макаров А.А., Чиненков Л.А. - Новосибирск, СибГАТИ, 1997. - 42с.
4 Основы теории передачи информации: Учеб.пособие. / Макаров А.А., Чиненков Л.А. - Новосибирск, СибГУТИ, 1998. - 40 с.
5 Теория электрической связи. Сборник задач и упражнений: Учеб.пособие для вузов. / Кловский Д.Д., Шилкин В.А. - М.: Радио и связь, 1990. -280с.
6 Теория передачи сигналов в задачах: Учеб.пособие для вузов. / Кловский Д.Д., Шилкин В.А. - М.: Связь, 1978.- 352с.
7 Теория электрической связи: Учебник для вузов связи / Зюко А.Г., Кловский Д.Д., Назаров М.В. Прохоров Ю.Н.: - М.: Радио и связь (в печати).