Главная  Теоретические основы радиотехнологии 

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [ 16 ] 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

сти вероятности - достаточно воспользоваться формулой (3.5), позволяющей произвести усреднение произвольной функции от случайной величины):

= \Acos((uQti + ф)Л cos(coo/2 + ф) -с?ф =

о 271

27tJ 271,

-cos(coo(/i + /2) + 2ф)с?ф + -cos(coo(/i -/2))Ф

Здесь в первом слагаемом интегрирование проводится по двум периодам функции cos, поэтому данный интеграл равен нулю. Во втором слагаемом подынтегральная функция не зависит от переменной интегрирования ф, так что результат интегрирования равен произведению подынтегрального выражения и длины промежутка интегрирования, равной 27i. Окончательно получаем

Лх(ь'2) = Л:х(ь^2) = cos(too(r, -/2))- (3.12)

Как видим, корреляционная функция данного случайного процесса гармонически зависит от расстояния между анализируемыми моментами времени. При совпадении моментов времени /[ и /2 получаем величину дисперсии случайного процесса:

Пример 2. Рассчитаем корреляционную функцию АИМ-сигнала (см. пример 2 в § 3.1). Характеристики такого случайного процесса определяются как формой несущего импульса so(t), так и статистическими связями между амплитудами а^. Часто эти амплитуды считаются статистически независимыми и имеющими идентичные вероятностные характеристики. Именно этот случай и будет рассмотрен в данном примере. Будем также считать, что эти амплитудные множители имеют нулевое математическое ожидание. При этом математическое ожидание самого случайного процесса также будет нулевым:

Шх (х) = М

j:cikSo(t-kT)

А;=-оо

= TM{ak}so(t-kT) = 0.

Л = -О0

Таким образом, в данном случае ковариационная и корреляционная функции процесса также совпадают. Рассчитаем их согласно определению:

= М

Преобразуем произведение сумм в двойную сумму и перенесем операцию статистического усреднения внутрь этой двойной суммы:

00 00

A:=-oom=-oo

Случайными здесь являются только амплитуды % и а^, поэтому и усреднение должно применяться только к ним:

7?(/ 2) = x(i.2)= i tM{akaJso(ii-kT)so{i2-mT).

A:=-oom=-oo

Однако согласно условиям примера эти амплитуды являются статистически независимыми и имеют нулевые средние значения. Поэтому

[о, к^ т,

где Cf, - дисперсия случайных величин о^. Таким образом,

Rx(h,h) = Jx(:h,h)-ol f:so(h-kT)so(t2-kT). (3.14)

л=-00

Как видим, корреляционная функция данного процесса определяется формой импульса 5о(0 и дисперсией амплитуд этих импульсов о„2. Рассчитаем дисперсию случайного процесса:

л=-00

(3.15)

Некоррелированность и статистическая независимость. Если совместно рассматривать две случайные величины Х\ и Х2, между ними может существовать либо не существовать статистическая связь. Отсутствие такой связи означает, что плотность вероятности одной случайной величины не зависит от того, какое значение принимает другая случайная величина. Двумерная плотность вероятности при этом представляет собой произведение одномерных плотностей:

P(Xl, Х2) = Pl(Xi) Р2(Х2).



Это условие называется условием статистической независимости.

При наличии статистической связи между случайными величинами статистические свойства каждой из них зависят от значения, принимаемого другой случайной величиной. Эта связь может быть сильной или слабой, линейной или нелинейной. Мерой линейной статистической связи между случайными величинами является коэффициент корреляции.

М{Х^Х2}-М{Х^}М{Х2}

(3.16)

Можно показать, что a-i2 < 1. Предельные значения ±1 достигаются, если реализации случайных величин жестко связаны линейным соотношением Х2 = 0Х| + й, где о и 6 - некоторые константы. Знак коэффициента корреляции при этом совпадает со знаком множителя а.

Равенство коэффициента корреляции нулю свидетельствует об отсутствии линейной статистической связи между случайными величинами (при этом говорят об их некоррелированности). Как видно из (3.16), при этом математическое ожидание произведения случайных величин равно произведению их математических ожиданий:

М{Х,Х2} = М{Х,} М{Х2}.

Легко показать, что из статистической независимости следует некоррелированность случайных величин. Обратное утверждение в общем случае неверно - некоррелированные случайные величины могут быть зависимыми.

Замечание 2

Классическим примером этого является пара случайных величин х\ = cos ф и Х2 = sin ф, где ф - случайная величина, равномерно распределенная на интервале 0...27I. Очевидно, что xi и Х2 зависят друг от друга; однако их коэффициент корреляции оказывается равным нулю.

3.4. СТАЦИОНАРНЫЕ И ЭРГОДИЧЕСКИЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ

Стационарные случайные процессы. Так принято называть случайные процессы, статистические характеристики которых одинаковы во всех временньк сечениях.

Говорят, что случайный процесс строго стационарен (или стационарен в узком смысле), если его многомерная плотность вероятности р{х\, Х2, х„, t\, t2, / ) произвольной размерности п не изменяется при одновременном сдвиге всех временньк сечений /1, -, и вдоль оси времени на одинаковую величину т:

р{Хи Х2, Х„, Ц, 12, / ) = ;?(Х|, Х2, Х„, /i+Т, /2+Т, / +т)

при любом т.

Если же ограничить требования тем, чтобы от временного сдвига не зависели лишь одномерная и двумерная плотности вероятности, то такой случайный процесс будет стационарен в широком смысле. Понятно, что из стационарности в узком смысле следует стационарность в широком смысле, но не наоборот.

Для стационарного случайного процесса математическое ожидание и дисперсия не зависят от времени, а корреляционная функция зависит не от самих моментов времени, а только от интервала между ними т = 2 -

Mh, t2) = RJ.t2 - h) =

По этой причине при записи статистических параметров стационарного случайного процесса можно опускать обозначения фиксированных моментов времени: /и^, Dx, Кх(х), R)x).

Легко убедиться, что корреляционная функция стационарного случайного процесса является четной:

ЛхИ) = Лх()-

Кроме того, абсолютные значения этой функции при любых т не превышают ее значения при т = О (напомним, что это значение равно дисперсии случайного процесса):

\ЯМ < RM = Dx.

Часто удобно использовать коэффициент корреляции (его также называют нормированной корреляционной функцией)

Ддя коэффициента корреляции выполняются соотношения х(0)= 1 и ,-;,(т) < 1.

Функции Rx(i) и ,-х(т) характеризуют связь (корреляцию) между значениями X(t), разделенными промежутком т. Чем медленнее убывают эти функции с ростом абсолютного значения т, тем боль-



ше промежуток, в течение которого наблюдается статистическая связь между мгновенными значениями случайного процесса, и тем медленнее, плавнее изменяются во времени его реализации.

Пример 1. Легко видеть, что гармонический случайный процесс со случайной начальной фазой (см. пример 1 в § 3.1 и вычисление характеристик этого процесса в примере 1 § 3.3) является стационарным в широком смысле. Действительно, зависящие от одномерной плотности вероятности математическое ожидание (3.11). и дисперсия (3.13) не зависят от времени, а корреляционная функция (3.12), зависящая от двумерной плотности вероятности, зависит лишь от интервала между рассматриваемыми моментами времени:

(т) = (т) = - cos(coot) .

(3.17)

Коэффициент корреляции такого случайного процесса равен

(t) = - = cos(coot).

Замечание 1

Здесь следует отметить, что стационарным будет любой случайный процесс, реализации которого являются периодическими функциями, идентичными по форме и различающимися лишь начальной фазой , т. е. положением начала отсчета времени в пределах периода. При этом принципиальной является равномерность распределения начальной фазы в пределах периода. Действительно, пусть у гармонического процесса начальная фаза равномерно распределена в пределах половины окружности - на интервале 0...7г. Математическое ожидание процесса в этом случае будет равно

т^ (jc) = j х{{)р (ф)с?ф = j А cos(coo/ + ф) - й?ф =--.

-со о л 7t

Результат вычислений показьшает, что математическое ожидание процесса зависит от времени, следовательно, он не является стационарным.

Пример!. АИМ-сигнал (см. пример 2 в § 3.1 и вычисление характеристик этого процесса в примере 2 § 3.3), очевидно, не является стационарным, поскольку его дисперсия (3 15) зависит от

времени, а корреляционная функция (3.14) зависит не от расстояния между моментами времени, а от двух моментов времени по отдельности.

Эргодические случайные процессы. Дальнейшее упрощение анализа случайных процессов достигается при использовании условия эргодичности процесса. Стационарный случайный процесс называется эргодическим, если при определении любых его статистических характеристик усреднение по множеству (ансамблю) реализаций эквивалентно усреднению по времени одной, теоретически бесконечно длинной, реализации.

Обозначив усреднение по времени угловыми скобками, можно записать следующие выражения, позволяющие вычислить важнейшие статистические характеристики эргодического случайного процесса по его единственной реализации x{t) (еще раз обращаем внимание на то, что эргодический случайный процесс обязательно является и стационарным, но не наоборот):

J т/2

гпх = {x{t)) = lim - \x{t)dt,

Dx = ([x(0 - mY) = Yim f x\t)dt - ml ,

-T/2

Rx(i) = ([x(0 - mx][xit -т)-тх]) = {x(t)x(t - т)) - m =

= lim - \x{t)x(t-x)dt-ml.

-T/2

Математическое ожидание эргодического случайного процесса равно постоянной составляющей любой его реализации, а дисперсия имеет наглядный физический смысл мощности флуктуацион-ного компонента.

Достаточным условием эргодичности случайного процесса, стационарного в широком смысле, является стремление к нулю его

функции корреляции с ростом временного сдвига т:

lim Лд.(т) = 0.

(3.18)

При экспериментальном исследовании случайных процессов доступно, как правило, наблюдение одной реализации сигнала, а не всего ансамбля. Если изучаемый процесс является эрго-



1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [ 16 ] 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51