Главная Об электрических измерениях. Достоинства и недостатки



посылают по обратному каналу связи сигнал переспроса и сообщение повторяется.

Среди корректирующих кодов существуют не только такие, которые позволяют обнаруживать ошибки, как это показано выше, но и такие, которые позволяют исправлять ошибки, т. е. восстанавливать исходную комбинацию при получении искаженной. Такие коды строятся так, что к каждой из Л используемых комбинашки примьжают свои L комбинаций-сателлитов из числа К неиспользуемых, причем искажение любых / элементов из используемой комбинации приводит к образованию одной из L комбинаций-сателлитов, если / < г. Здесь г - максимальное число искаженных элементов, исправляемых данным корректирующим кодом. Комбинации-сателлиты должны быть свои у каждой из N используемых комбинаций - это должны быть не-перекрьюающиедя множества. Необходимым (но не достаточным) условием является неравенство L < К/К

П0Л3ДШВ искаженную комбинацию,не принадлежащую ни к одной из Л используемых, приемник определяет, в какую из групп сателлитов она попадает. Этим однозначно идентифицируется исходная переданная комбинация.

Коды с исправлением оишбок сложнее кодов с их обнаружением. Кроме того, надо иметь в виду, что в случае, когда число искаженных элементов превышает г, образуется комбинация, принадлежащая чужой группе сателлитов. Тогда декодирующее устройство в приемнике вьщает ложную информацию.

Ценой еще большего усложнения получают коды, которые исправляют до г искажений и обнаруживают искажения большего числа элементов - от г + 1 до S. Э.Ш коды строятся так, что при искажении от / + 1 до S элементов образуются комбинации, которые не входят ни в одну из групп сателлитов, но в то же время принадлежат к К неиспользуемым комбинациям.

Описанные принципы кодирования применяются в ИИС, содержащих каналы связи большой протяженности. Как правило, выполнение операций кодирования и декодирования возлагается в них на специализированные блоки - кодеры и декодеры.

Сжатие данных. Сигналы, с помощью которых передаются разнообразные сообщения, обладают, как правило, очень большой избыточностью в информационном смысле. Поясним это примером. Согласно теореме Котельникова функцию x{t) с граничной частотой спектра f, можно однозначно восстановить по значениям дискретных ординат, взятых через интервал Т = 1/2/.

В этих ординатах содержится полная информация о функции х (t). Тем не менее, как было показано в § 5.2, трудности восстановления функции приводят к тому, что практически дискретизацию по времени ведут с интервалом в десятки раз меньшим, а каналы связи занимают избыточными сигналами, несущими чрезвычайно малое количество 296




Рис. 5.24

информации. Между тем каналы связи большой протяженности весьма дороги - велика стоимость их сооружения и эксплуатации. Любое уменьшение избыточности передаваемых сигналов ( сжатие данных) позволяет загрузить тот же канал сообщениями от дополнительного числа источников, что дает большой экономический эффект. Сжатие данных дает возможность разгрузить устройства хранения информации, что также весьма важно и дает существенную экономию.

Для сжатия данных требуется применять устройства обработки информации. Например, если на приемной стороне имеется устройство, способное умножать дискретные ординаты на функцию вида an2jr/p( - iT)l2-nf{t - iT) и суммировать получаемые функции, то можно на передающей стороне вьшолнять дискретизацию с периодом Т, соответствующим требованию теоремы Котельникова. Необходимо лишь иметь в виду, что при этом восстановление функции х (t) будет происходить с большим запаздыванием во времени.

Можно полздшть сжатие данных с помощью более тфостой обработки сигналов на приемной стороне. Например, вместо ступенчатой аппроксимации функции x{t) по типу диаграммы рис. 5.11 можно применить аппроксимацию прямолинейными отрезками, соединяющими вершины дискретных ординат (рис. 5,24,а). При той же допустимой погрешности можно выбрать большее значение интервала Т, чем гфи ступенчатой аппроксимации. Если же аппроксимировать функцию отрезками гирабол, соединяющими вершины дискретных ординат (рис. 5.24,6), то интервал Т можно еще увеличить. Разумеется, степень сжатия данных при этом далеко не та, что при обработке по теореме Котельникова, но зато и обработка много проще и задержка по времени меньше.

Весьма эффективен метод сжатия данных с неравномерным шагом, дискретизации по времени. Шаг увеличивается при медленных изменениях X (/) и уменьшается при быстрых. В простейшем случае это делается так: очередная ордината х- передается тогда, когда изменение х со времени предьщущей передачи достигает заданного значения 6 (рис. 5.25), которое определяется требуемой точностью измерения.




Рис. 5.25

Но больший эффект сжатия данных получается, если установить на передающей и приемной сторонах одинаковые устройства предсказа ния поведения функции х (t). Предсказание ведется на малый интервал времени б, и с этим же интервалом передающее устройство выполняет отбор ордашат x(t). Но передача их ведется существенно реже - только тогда, когда значение х в момент очередного отбора ординаты отличается от предсказанного значения больше чем на 8. Если же тфед-сказание оказывается достаточно точным и передачи по каналу связи не происходит, то приемник воспроизводит предсказанное значение X. Основой для предсказаний (прогнозирования) служат, с одной стороны, хранящиеся в оперативной памяти сведения о поведе-тш x(t) в предшествующий отрезок времени, равный нескольким шагам в, и с другой стороны - сведения о динамических характеристиках случайного процесса x(t), например о его автокорреляционной функции, хранящиеся в постоянной памяти устройства предсказания.

Известны и другие методы сжатия данных. Среди них полезно упо-мянутъ метод статистического кодирования, при котором используются кодовые комбинации неравной длины. Короткие комбинации приписываются значениям х, чаще повторяющимся при передаче, длинные - значениям, реже повторяющимся. Для этого используется код, предложенный Шенноном и Фэно. Обязательным условием его тфи-менения является наличие сведений о законе распределения измеряемой величины.

Централизованная и децентрализованная обработка информации. В крупных ИИС с разнообразной и сложной обработкой информации применяют для этой цели центральную ЭВМ универсального типа, обладающую достаточным быстродействием и необходимым объемом оперативной и постоянной памяти. Такая централизованная структура системы обеспечивает выполнение требуемых функций. Но она имеет существенный недостаток: любой отказ ЭВМ тфиводит к нарушению всех функций обработки информации. Для повышения надежности системы применяют резервирование ЭВМ. Но это весьма сложно и дорого.



0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 [97] 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114


0.0242