Курсовая работа: Автокорреляционная функция Примеры расчётов. Автокорреляционная функция

Введение

Периодическая зависимость представляет собой общий тип компонент временного ряда. Можно легко видеть, что каждое наблюдение очень похоже на соседнее; дополнительно, имеется повторяющаяся периодическая составляющая, это означает, что каждое наблюдение также похоже на наблюдение, имевшееся в том же самое время период назад. В общем, периодическая зависимость может быть формально определена как корреляционная зависимость порядка k между каждым i-м элементом ряда и (i-k)-м элементом. Ее можно измерить с помощью автокорреляции (т.е. корреляции между самими членами ряда); k обычно называют лагом (иногда используют эквивалентные термины: сдвиг, запаздывание). Если ошибка измерения не слишком большая, то периодичность можно определить визуально, рассматривая поведение членов ряда через каждые k временных единиц .

Периодические составляющие временного ряда могут быть найдены с помощью коррелограммы. Коррелограмма (автокоррелограмма) показывает численно и графически автокорреляционную функцию (AКФ), иными словами коэффициенты автокорреляции для последовательности лагов из определенного диапазона. На коррелограмме обычно отмечается диапазон в размере двух стандартных ошибок на каждом лаге, однако обычно величина автокорреляции более интересна, чем ее надежность, потому что интерес в основном представляют очень сильные а, следовательно, высоко значимые автокорреляции .

При изучении коррелограмм следует помнить, что автокорреляции последовательных лагов формально зависимы между собой. Рассмотрим следующий пример. Если первый член ряда тесно связан со вторым, а второй с третьим, то первый элемент должен также каким-то образом зависеть от третьего и т.д. Это приводит к тому, что периодическая зависимость может существенно измениться после удаления автокорреляций первого порядка, (т.е. после взятия разности с лагом 1).

Цель работы:

1. Дать основные теоретические сведения

2. Дать примеры расчета АКФ

Автокорреляционная функция

Коэффициент автокорреляции и его оценка

Для полной характеристики случайного процесса недостаточно его математического ожидания и дисперсии. Еще в 1927 г. Е.Е.Слуцкий ввел для зависимых наблюдений понятие «связанного ряда»: вероятность возникновения на определенном месте тех или иных конкретных значений зависит от того, какие значения случайная величина уже получила раньше или будет получать позже. Иными словами, существует поле рассеяния пар значений x(t), x(t+k) временного ряда, где k - постоянный интервал или задержка, характеризующее взаимозависимость последующих реализаций процесса от предыдущих. Теснота этой взаимосвязи оценивается коэффициентами автоковариации -

g (k) = E[(x(t) - m)(x(t + k) - m)] -

и автокорреляции

r (k) = E[(x(t) - m)(x(t + k) - m)] / D ,

где m и D - математическое ожидание и дисперсия случайного процесса. Для расчета автоковариации и автокорреляции реальных процессов необходима информация о совместном распределении вероятностей уровней ряда p(x(t 1),x(t 2)). Однако для стационарных процессов, находящихся в определенном статистическом равновесии, это распределение вероятностей одинаково для всех времен t 1 , t 2 , разделенных одним и тем же интервалом. Поскольку дисперсия стационарного процесса в любой момент времени (как в t, так и в t + k) равна D = g (0), то автокорреляция с задержкой k может быть выражена как

r (k) = g (k) /g (0),

откуда вытекает, что r (0) = 1. В тех же условиях стационарности коэффициент корреляции r (k) между двумя значениями временного ряда зависит лишь от величины временного интервала k и не зависит от самих моментов наблюдений t. Коэффициент автокорреляции может быть оценен и для нестационарного ряда, но в этом случае его вероятностная интерпретация теряется.

В статистике имеется несколько выборочных оценок теоретических значений автокорреляции r (k) процесса по конечному временному ряду из n наблюдений. Наиболее популярной оценкой является нециклический коэффициент автокорреляции с задержкой k (Андерсон, 1976; Вайну, 1977):

Наиболее важным из различных коэффициентов автокорреляции является первый - r 1 , измеряющий тесноту связи между уровнями x(1), x(2) ,..., x(n -1) и x(2), x(3), ..., x(n).

Распределение коэффициентов автокорреляции неизвестно, позтому для оценки их достоверности иногда используют непараметрическую теорию Андерсона (1976), предложившего статистику

t = r 1 (n -1) 0.5 ,

которая при достаточно большой выборке распределена нормально, имеет нулевую среднюю и дисперсию, равную единице (Тинтнер, 1965).

Периодическая зависимость представляет собой общий тип компонент временного ряда. Можно легко видеть, что каждое наблюдение очень похоже на соседнее; дополнительно, имеется повторяющаяся периодическая составляющая, это означает, что каждое наблюдение также похоже на наблюдение, имевшееся в том же самое время период назад. В общем, периодическая зависимость может быть формально определена как корреляционная зависимость порядка k между каждым i-м элементом ряда и (i-k)-м элементом. Ее можно измерить с помощью автокорреляции (т.е. корреляции между самими членами ряда); k обычно называют лагом (иногда используют эквивалентные термины: сдвиг, запаздывание). Если ошибка измерения не слишком большая, то периодичность можно определить визуально, рассматривая поведение членов ряда через каждые k временных единиц .

Периодические составляющие временного ряда могут быть найдены с помощью коррелограммы. Коррелограмма (автокоррелограмма) показывает численно и графически автокорреляционную функцию (AКФ), иными словами коэффициенты автокорреляции для последовательности лагов из определенного диапазона. На коррелограмме обычно отмечается диапазон в размере двух стандартных ошибок на каждом лаге, однако обычно величина автокорреляции более интересна, чем ее надежность, потому что интерес в основном представляют очень сильные автокорреляции .

При изучении коррелограмм следует помнить, что автокорреляции последовательных лагов формально зависимы между собой. Рассмотрим следующий пример. Если первый член ряда тесно связан со вторым, а второй с третьим, то первый элемент должен также каким-то образом зависеть от третьего и т.д. Это приводит к тому, что периодическая зависимость может существенно измениться после удаления автокорреляций первого порядка, (т.е. после взятия разности с лагом 1).

Цель работы:

1. Дать основные теоретические сведения

2. Дать примеры расчета АКФ

Глава 1. Теоретические сведения

Коэффициент автокорреляции и его оценка

Для полной характеристики случайного процесса недостаточно его математического ожидания и дисперсии. Еще в 1927 г. Е.Е.Слуцкий ввел для зависимых наблюдений понятие «связанного ряда»: вероятность возникновения на определенном месте тех или иных конкретных значений зависит от того, какие значения случайная величина уже получила раньше или будет получать позже. Иными словами, существует поле рассеяния пар значений x(t), x(t+k) временного ряда, где k - постоянный интервал или задержка, характеризующее взаимозависимость последующих реализаций процесса от предыдущих. Теснота этой взаимосвязи оценивается коэффициентами автоковариации –

g (k) = E[(x(t) - m)(x(t + k) - m)] –

и автокорреляции

r (k) = E[(x(t) - m)(x(t + k) - m)] / D ,

где m и D - математическое ожидание и дисперсия случайного процесса. Для расчета автоковариации и автокорреляции реальных процессов необходима информация о совместном распределении вероятностей уровней ряда p(x(t 1),x(t 2)). Однако для стационарных процессов, находящихся в определенном статистическом равновесии, это распределение вероятностей одинаково для всех времен t 1 , t 2 , разделенных одним и тем же интервалом. Поскольку дисперсия стационарного процесса в любой момент времени (как в t, так и в t + k) равна D = g (0), то автокорреляция с задержкой k может быть выражена как

r (k) = g (k) /g (0),

откуда вытекает, что r (0) = 1. В тех же условиях стационарности коэффициент корреляции r (k) между двумя значениями временного ряда зависит лишь от величины временного интервала k и не зависит от самих моментов наблюдений t.

В статистике имеется несколько выборочных оценок теоретических значений автокорреляции r (k) процесса по конечному временному ряду из n наблюдений. Наиболее популярной оценкой является нециклический коэффициент автокорреляции с задержкой k (Андерсон, 1976; Вайну, 1977):

Наиболее важным из различных коэффициентов автокорреляции является первый - r 1 , измеряющий тесноту связи между уровнями x(1), x(2) ,..., x(n -1) и x(2), x(3), ..., x(n).

Распределение коэффициентов автокорреляции неизвестно, позтому для оценки их достоверности иногда используют непараметрическую теорию Андерсона (1976), предложившего статистику

t = r 1 (n -1) 0.5 ,

которая при достаточно большой выборке распределена нормально, имеет нулевую среднюю и дисперсию, равную единице (Тинтнер, 1965).

Автокорреляционные функции

Последовательность коэффициентов корреляции r k , где k = 1, 2, ..., n, как функция интервала k между наблюдениями называется автокорреляционной функцией (АКФ).

Вид выборочной автокорреляционной функции тесно связан со структурой ряда.

· Автокорреляционная функция r k для «белого шума», при k >0, также образует стационарный временной ряд со средним значением 0.

· Для стационарного ряда АКФ быстро убывает с ростом k. При наличии отчетливого тренда автокорреляционная функция приобретает характерный вид очень медленно спадающей кривой .

· В случае выраженной сезонности в графике АКФ также присутствуют выбросы для запаздываний, кратных периоду сезонности, но эти выбросы могут быть завуалированы присутствием тренда или большой дисперсией случайной компоненты.

Рассмотрим примеры автокорреляционной функции:

· на рис. 1 представлен график АКФ, характеризующегося умеренным трендом и неясно выраженной сезонностью;

· рис. 2 демонстрирует АКФ ряда, характеризующегося феноменальной сезонной детерминантой;

· практически незатухающий график АКФ ряда (рис. 3) свидетельствует о наличии отчетливого тренда.




В общем случае можно предполагать, что в рядах, состоящих из отклонений от тренда, автокорреляции нет. Например, на рис. 4 представлен график АКФ для остатков, полученных от сглаживания ряда, очень напоминающий процесс «белого шума». Однако нередки случаи, когда остатки (случайная компонента h) могут оказаться автокоррелированными, например, по следующим причинам :

· в детерминированных или стохастических моделях динамики не учтен существенный фактор

· в модели не учтено несколько несущественных факторов, взаимное влияние которых оказывается существенным вследствие совпадения фаз и направлений их изменения;

· выбран неправильный тип модели (нарушен принцип контринтуитивности);

· случайная компонента имеет специфическую структуру.


Критерий Дарбина-Уотсона

Критерий Дарбина-Уотсона (Durbin, 1969) представляет собой распространенную статистику, предназначенную для тестирования наличия автокорреляции остатков первого порядка после сглаживания ряда или в регрессионных моделях.

Численное значение коэффициента равно

d = [(e(2)-e(1)) 2 + ... + (e(n)-e(n -1)) 2 ]/,

где e(t) - остатки.

Возможные значения критерия находятся в интервале от 0 до 4, причем табулированы его табличные пороговые значения для разных уровней значимости (Лизер, 1971).

Значение d близко к величине 2*(1 - r 1), где r - выборочный коэффициент автокорреляции для остатков. Соответственно, идеальное значение статистики - 2 (автокорреляция отсутствует). Меньшие значения соответствуют положительной автокорреляции остатков, большие – отрицательной .

Например, после сглаживания ряда ряд остатков имеет критерий d = 1.912. Аналогичная статистика после сглаживания ряда - d = 1.638 - свидетельствует о некоторой автокоррелированности остатков.

Глава 2. Примеры практических расчетов с помощью макроса Excel «Автокорреляционная функция»

Все данные взяты с сайта http://e3.prime-tass.ru/macro/

Пример 1. ВВП РФ

Приведем данные о ВВП РФ

Год квартал ВВП первая разность
2001 I 1900,9
II 2105,0 204,1
III 2487,9 382,9
IV 2449,8 -38,1
2002 I 2259,5 -190,3
II 2525,7 266,2
III 3009,2 483,5
IV 3023,1 13,9
2003 I 2850,7 -172,4
II 3107,8 257,1
III 3629,8 522,0
IV 3655,0 25,2
2004 I 3516,8 -138,2
II 3969,8 453,0
III 4615,2 645,4
IV 4946,4 331,2
2005 I 4479,2 -467,2
II 5172,9 693,7
III 5871,7 698,8
IV 6096,2 224,5
2006 I 5661,8 -434,4
II 6325,8 664,0
III 7248,1 922,3
IV 7545,4 297,3
2007 I 6566,2 -979,2
II 7647,5 1081,3

Корреляционный анализ используется при необходимости оценить временные свойства сигнала без применения спектрального анализа, например, для оценки скорости изменения или длительности сигнала, временной связи (корреляции) одного сигнала с другим.

Взаимная корреляционная функция определяет временную связь двух сигналов во времени. Если сигналы не зависимы друг от друга, их корреляционная функция равна нулю. Чем шире корреляционная функция, тем большая степень связи двух сигналов друг с другом.

Взаимная корреляционная функция определяется соотношением

Пример получения взаимной корреляционной функции показан на рис.1. Значение корреляционной функции в любой момент x определяется площадью пересечения функцийи сдвинутой копии.

Взаимная корреляционная функция не обязательно симметрична и её максимум может оказаться не в точке x=0.

Автокорреляционной функцией (АКФ) ограниченного во времени сигнала называется выражение вида

где x – временной сдвиг исходного сигнала.

Геометрический смысл автокорреляционной функции заключается в определении площади пересечения функции и её копии, сдвинутой на времяx (Рис.2)

Изменяя время сдвига x до тех пор, пока сигнал и его копия перестанут пересекаться (в данном случае), получим АКФ. Очевидно, что при изменении знака сдвига при одинаковой его величине функция автокорреляции одинакова, т.е., что говорит о четном её характере. Ясно, что приx=0 автокорреляционная функция имеет максимум, при этом

а в свою очередь полная энергия сигнала равна

Таким образом, максимум автокорреляционной функции определяет полную энергию сигнала. При увеличении сдвига x АКФ убывает до нуля.

Примеры

    Прямоугольный импульс (рис. 3 ).

а) - амплитуда,- длительность,- начало,

б) Сдвинутый на импульс,

в) Площадь произведения равна

Для x >0 имеем

и интеграл для x <0

Максимум АКФ равен энергии сигнала:

2) Треугольный импульс. Построение АКФ показано на рис. 4 .

Произведение представляет собой нелинейную функцию от t . Полная энергия сигнала (максимум АКФ) равнаДлительность АКФ равна удвоенной длительности сигнала.

3. Сигнал представляет собой пачку из идентичных импульсов, расположенных на равных расстояниях друг относительно друга. АКФ также будет иметь вид пачки импульсов, удаленных друг от друга на те же расстояния, причем амплитуды импульсов в пачке будут убывать от центра к краям (см. рис. 5 )

14. Общая теория радиосигналов. Понятие узкополосного и широкополосного сигнала. Понятие частоты и фазы радиосигнала, их взаимосвязь. Понятие базы сигнала.

Общие определения

К радиосигналам относят высокочастотные почти гармонические (квазигармонические) колебания, в которых амплитуда или мгновенная частота или фаза медленно меняются по некоторому закону. Процесс изменения одного или нескольких параметров высокочастотного гармонического колебания называется модуляцией. В системе радиосвязи закон модуляции должен соответствовать закону изменения передаваемого низкочастотного сообщения.

Частота исходного высокочастотного гармонического колебания называется несущей частотой. Устройство, создающее это колебание, называется генератором несущей частоты или задающим генератором. К нему предъявляются высокие требования к стабильности амплитуды и частоты.

Несущее колебание имеет вид

где -амплитуда,-частота, 0 -начальная фаза.

Различают амплитудную (АМ),частотную (ЧМ) и фазовую (ФМ) модуляцию. При амплитудной модуляции по закону низкочастотного сигнала меняется мгновенная амплитуда, при частотной модуляции – частота, при фазовой модуляции – фаза. Бывают и смешанные виды модуляции. В отдельный класс можно выделить импульсные виды модуляции и манипуляции, при которых происходит дискретное изменение параметра высокочастотного колебания.

    Основные понятия о базе сигнала

В системах связи используется такое понятие как база сигнала, которое определяется теоремой Котельникова. То есть исходя из нее любой сигнал с финитным спектром можно разложить на несколько отсчетов, взятых через интервалы времени , где F – верхняя граничная частота спектра сигнала (рис. 1).

Рис. 1. Пояснение к тереме Котельникова

В данном случае, если сигнал существует только в течение времени - Т ‚ то количество отсчетов будет равно

Эта величина определяет размерность пространства, в котором представляется сигнал координатами (отсчетами мгновенных значений через временные интервалы ). В этой связи в теории связи эту величину называют базой сигнала:

. (2.2)

В иных случаях говорят, что величина определяет базис сигнала, т.е. количество осей координат, в котором раскладывается сигнал.

    Сравнительный анализ узкополосных и

широкополосных сигналов

В действующих системах связи, использующих дискретные сигналы значение базы для простых сигналов равно (рис. 2). Этот же сигнал можно представить в виде сложного сигнала, база которого будет равна -(см. рис. 2).

Рис. 2. Простой и сложный сигналы

База сигнала указывает на зависимость ширины спектра от длительности сигнала. В случае применения простых сигналов ширина его спектра мала:

в связи с чем такие сигналы называют узкополосными. Следует заметить, что спектр узкополосного сигнала после модуляции не намного отличается от спектра первичного сигнала.

Для сложных сигналов

В этом случае спектр сложного сигнала как до, так и после модуляции намного превышает спектр первичного сигнала, поэтому его принято называть широкополосным.

Для начала вспомним понятие полной фазы радиосигнала

Сигналы, у которых изменяется полная фаза в соответствии с модулирующим сигналом называются сигналами с угловой модуляцией.

Для начала рассмотрим сигналы с фазовой модуляцией (phase modulation PM). У сигналов с PM полная фаза изменяется в соответствии с модулирующим сигналом:

а сам радиосигнал может быть представлен следующим образом:

где называется индексом частотной модуляции или девиацией частоты, а модулирующий сигнал по модулю не превосходит единицыТогда полную фазу радиосигнала можно рассчитать как интеграл от мгновенной частоты:

где - произвольная постоянная интегрирования полной фазы (8). Обратите внимание, что абсолютно не верно подставлять выражение для мгновенной частоты вместо несущей частоты в выражение для полосового сигнала:

так как Правильным является выражение (9)!

16. Сигналы с внутриимпульсной модуляцией. Сигналы с линейной частотной модуляцией. Фазо-кодо-манипулированные сигналы. Математические модели, спектральные характеристики, особенности применения.

Фазо-кодо-манипулированные импульсы (ФКМ)

ФКМ радиоимпульсы характеризуются скачкообразным изменением фазы внутри импульса по определенному закону, например (рис. 1.66):

код трехэлементного сигнала

закон изменения фазы

трехэлементный сигнал

или семиэлементный сигнал (рис. 1.67)

Таким образом, можно сделать выводы:

· АЧС сигналов с ЛЧМ является сплошным.

· Огибающая АЧС определяется формой огибающей сигнала.

· Максимальное значение АЧС определяется энергией сигнала, которая в свою очередь, прямопропорциональна амплитуде и длительности сигнала.

· Ширина спектра равна гдедевиация частоты и не зависит от длительности сигнала.

· База сигнала (коэффициент широкополостности) может бытьn >>1.Поэтому ЛЧМ сигналы называют широкополосными.

ФКМ радиоимпульсы длительностью представляют собой совокупность следующих друг за другом без интерваловэлементарных радиоимпульсов,длительность каждого из них одинакова и равна.Амплитуды и частоты элементарных импульсов одинаковы, а начальные фазы могут отличаться на(или какое-либо другое значение). Закон (код) чередования начальных фаз определяется назначением сигнала. Для ФКМ радиоимпульсов, используемых в радиолокации разработаны соответствующие коды, например:

1, +1, -1 - трехэлементные коды

-два варианта четырехэлементного кода

1 +1 +1, -1, -1, +1, -2 - семиэлементный код

Спектральную плотность кодированных импульсов определяют,используя свойство аддитивности преобразований Фурье, в виде суммы спектральных плотностей элементарных радиоимпульсов.

Графики АЧС для трехэлементного и семиэлементного импульсов приведены на рисунке 1.68

Как видно из приведенных рисунков, ширина спектра ФКМ радиосигналов определяется длительностью элементарного радиоимпульса

Коэффициент широкополостности

Где N -количество элементарных радиоимпульсов.

ФКМ сигналы применяются в широкополосных системах связи, радиолокации, в устройствах идентификации обьектов.

6. Понятие нормированной функции. Понятие ортонормированной системы функций.

Нормирование метрических параметров . Норма функций в пространстве L 2 определяется выражением:

Нетрудно заключить, что чем больше интервал в этой формуле, тем больше (при прочих равных условиях) будет значение нормы. При анализе и сравнении сигналов (как аналоговых, так и многомерных дискретных) такое понятие не всегда удобно, и вместо него очень часто используют понятие нормы, нормированной относительно длины интервала. Для символьного обозначения нормирования будем применять знак  :

||s(t)|| =, ||s n || =.

Метрика сигналов (расстояние между сигналами) при аналогичном нормировании:

d (s(t), v(t)) =, d (s n , v n) =

Эти выражения применяются для вычисления среднеквадратического расхождения сигналов или среднеквадратической погрешности выполнения какой-либо операции при сравнении ее результата с теоретически ожидаемым или априорно известным.

Нормированное скалярное произведение сигналов:

б s(t), v(t)  =s(t)v(t) dt = ||s(t)|| ||v(t)|| cos .

б s n , v n   =(1/N)s n v n = ||s n || ||s n || cos .

Косинус угла (коэффициент корреляции) между сигналами – функциями не изменяет своих значений при вычислении как по нормированным, так и по ненормированным значениям скалярного произведения и нормы сигналов (значения нормировки в числителе и знаменателе выражения (2.1.8) сокращаются). Взаимная перпендикулярность функций определяется аналогично взаимной перпендикулярности векторов условием нулевого значения скалярного произведения.

Норма, метрика и скалярное произведение периодических функций обычно нормируются на длину главного периода Т.

Ортогональные сигналы. Два сигнала называются ортогональными (orthogonal), если имеют нулевое скалярное произведение

б u(t), v(t) =u(t)v(t) dt = 0.

Соответственно, два таких сигнала в своем функциональном пространстве являются взаимно перпендикулярными (угол между сигналами равен  = 90 о), полностью независимыми друг от друга (некоррелированными, r = cos , и имеют нулевую энергию взаимодействия (E uv = 0).

На рисунке 2.3.1 приведены примеры взаимно ортогональных сигналов. Нулевое скалярное произведение двух левых сигналов обеспечивается их формой (равна нулю сумма положительных и отрицательных значений произведения сигналов), а двух правых - взаимным расположением (ненулевые значения сигналов не имеют общих координат).

Рис. 2.3.1. Ортогональные сигналы.

Попутно заметим, что энергия и мощность суммы ортогональных сигналов обладают свойством аддитивности, т.к. имеют нулевое значение скалярного произведения и, соответственно, энергии взаимодействия.

Ортонормированный базис пространства. Множество сигналов – векторов {v k , k = 1, 2, …, N} в N-мерном декартовом пространстве при единичной норме и выполнении условий взаимной ортогональности:

б v m , v n  = (2.3.1)

могут быть приняты в качестве ортонормированного базиса данного пространства. Выражение (2.3.1) обычно записывается в следующей форме:

б v m , v n  =  mn , (2.3.1")

где  mn – импульс Кронекера, равный правой части выражения (2.3.1).

С использованием ортонормированного базиса любой произвольный сигнал можно представить в виде линейной комбинации взвешенных базисных векторов:

s = c 1 v 1 + c 2 v 2 + … + c N v N ,

где весовое значение с k определяется проекцией вектора s на соответствующее координатное направление:

c k =  s, v k  .

При распространении данных положений на функциональное пространство L 2 в качестве координатного базиса пространства мы должны использовать совокупность функций {u 0 (t), u 1 (t), u 2 (t), …}, в пределе - бесконечную, которая должна быть системой ортогональных функций {u k (t), k=0, 1, 2, …}, т.е. все функции на этом отрезке должны быть взаимно ортогональны:

б u m (t), u n (t) =u m (t) u n (t) dt = 0, m = 1, 2, ... ; n = 1, 2, ... ; m  n.

Система ортогональных функций на интервале будет ортонормированной (orthonormal functions), если все функции системы при m=n имеют единичную норму, т.е. выполняются условия:

б u m (t), u m (t) = ||u m (t)|| 2 =(u m (t)) 2 dt = 1, ||u m (t)|| = 1, m = 1, 2, ....

Эти условия можно записать в следующей обобщенной форме:

u m (t)·u n * (t) dt =  m,n .

Система ортогональных функций всегда может быть превращена в ортонормированную путем нормировки, т.е. деления всех функций на их норму.

Автокорреляционная функция (АКФ) характеризует степень корреляционной связи между отдельными значениями наблюдений, представленными в виде случайного процесса и расположенными на некотором удалении друг от друга.

Применительно к геофизическим данным АКФ представляет характеристику связи между значениями поля, отстоящими друг от друга на m - дискретов, т.е. дискретов по x или по t . АКФ является функцией аргумента или , где - шаг по профилю, - шаг по трассе сейсмограммы, т.е. .

АКФ рассчитывается по формуле:

(4.1)

где - значение поля в i -той точке профиля (трассы, скважины); n – число точек наблюдений; m – интервал, принимающий последовательно значения , которые выражают расстояния между значениями поля и ; - среднее значение поля по профилю, трассе и т.д.

Для m =1, сумма в выражении 4.1 представляет собой сумму произведений центрированных, значений поля соседних точек профиля:

здесь , то есть центрированное значение поля на i - ом пикете профиля;

Для m =2, сумма в выражении 4.1 представляет собой сумму произведений центрированных значений поля, удаленных друг от друга на один пикет:

Для любого m= k , (kимеем:

По построению АКФ является четной функцией, т.е. . Ввиду четности АКФ обычно рассчитывается лишь для .

При значение АКФ представляет собой оценку дисперсии изучаемого поля, при АКФ выражает связь значений поля для соседних пикетов (дискретов) и представляет собой оценку коэффициента корреляции для этих значений, при АКФ выражает связь между значениями поля, отстоящими друг от друга на два дискрета и т.д.

На практике часто используются нормированные значения автокорреляционных функций R н. (m) . При этом нормирование осуществляется на R(0) :

(4.5)

Можно показать, что оценка нормированных значений автокорреляционной функции, при достаточном объеме выборки (количестве точек на профиле) обладает следующими свойствами :

3. Автокорреляционная функция является четной, то есть R н. (m)= R н. (-m), поэтому при оценках автокорреляционных функций обычно ограничиваются ее значениями для неотрицательных значений аргумента m>=0.

4.Два случайных процесса F 1 ={f 1 , f 2 ,…..f n } и F 2 ={kf 1 , kf 2 ,…..kf n } отличающиеся только постоянным множителем k, имеют один и тот же вид нормированной автокорреляционной функции R н (m).

5.Два случайных процесса F 1 ={f 1 , f 2 ,…..f n } и F 2 ={f 1 +k, f 2 +k,…..f n +k} смещенные относительно друг друга на постоянную величину k, имеют один и тот же вид нормированной автокорреляционной функции R н (m).

Анализируя выражения 4.1 и 4.5 можно сделать вывод о том, что нормированные значения автокорреляционной функции R н. (m) есть не что иное, как коэффициент корреляции, рассчитанный для точек удаленных друг от друга на m пикетов. Таким образом, значения корреляционной функции, для конкретного аргумента m показывает насколько значения поля, удаленные друг от друга на m пикетов, коррелированны между собой. Так, если R(5)=0.85 , то это свидетельствует о том, что значения поля, удаленные друг от друга на 5 пикетов, в целом, достаточно коррелированны, если R(9)=0.05 , то значения поля удаленные на 9 пикетов практически независимы (некоррелированны). Наконец, если, например, R(13)=-0.9 , то между значениями поля, отстоящими друг от друга на 13 пикетов, существует сильная обратная корреляционная связь. Случайный процесс, для которого даже при единичном смещении R(1)<=0 , получил название абсолютно некоррелируемого процесса (“белый шум”) .



На рисунке 4.1 приведены примеры расчета нормированных автокорреляционных функций для различных случайных процессов, близких по форме к константе (1), синусоиде (2), абсолютно некоррелируемому процессу (3), квадратичной (4) и линейной (5) функциям. Из второго рисунка следует, что автокорреляционная функция периодического процесса является также периодической. При этом период автокорреляционной функции совпадает с периодом процесса. Для абсолютно некоррелируемого сигнала значения автокорреляционной функции близки к нулю при любых значениях аргумента, отличных от нуля.

Нормированные значения автокорреляционной функции постоянного процесса тождественно равны единице, так как при любых смещениях m значения случайного процесса полностью совпадают, то есть абсолютно коррелируемы.

По АКФ определяется такой важный атрибут, как интервал корреляции. Под интервалом или радиусом корреляции понимают такое расстояние между значениями поля r , начиная с которого значения поля и можно считать некоррелированными, а при нормальном законе распределения – независимыми между собой. Для оценки интервала корреляции используются разные эвристические приемы. Наиболее распространенным приемом является оценка величины r по заданному значению , где . При этом r принимается равным аргументу АКФ, m , начиная с которого выполняется соотношение .

Для оценки интервала корреляции используются также соотношения:

или .

На практике, радиус корреляции оценивают по минимальному значение аргумента m, при котором автокорреляционная функция первый раз пересекает ось абсцисс.

Форма АКФ и интервал корреляции используются при решении различных задач обработки геофизических данных, из них выделим следующие:

1) Оценка корреляционных свойств сигналов и помех. При отсутствии корреляции между сигналом помехой , что обычно постулируется, т.е. появление сигнала не зависит от помехи, АКФ представляется суммой АКФ сигнала и АКФ помехи, поскольку :

Из этого выражения следует, что при малой интенсивности помехи по сравнению с интенсивностью сигнала АКФ представляет оценку корреляционных свойств сигнала, и, наоборот, на интервале, где отсутствует сигнал, АКФ оценивает свойства помехи;

2) АКФ сигнала и помех является основой расчета всех оптимальных фильтров, рассматриваемых в главе VII;

3) При совпадении формы сигнала и формы АКФ помехи никакая дополнительная обработка по их разделению не внесет ничего нового, поскольку при этом частотные диапазоны сигнала и помехи полностью перекрываются между собой;

4) Разделение на однородные в статистическом отношении участки с целью геологического картирования. С этой целью используются обычно одновременно среднее значение, дисперсия и интервал корреляции, рассчитываемые в скользящих окнах;

5) Оценка разрешающей способности сейсмической записи по величине отношения , где Т - период записи. При Н , близком к единице, разрешающая способность велика, при Н £0,5 - низкая;

6) Использование интервала корреляции для оценки глубины залегания h объектов по потенциальным полям .

На этом простом соотношении между глубиной h и интервалом корреляции r , точно выполняемом для объектов в виде цилиндров бесконечного простирания, основаны приемы гравитационного, предложенного А.М.Петрищевским, и корреляционного, предложенного А.В.Петровым, зондирований потенциальных полей;

7) Оценка длительности реализации, например, длины профиля, для которой рассчитывается АКФ. В общем случае дисперсия АКФ определяется выражением , из которого следует возможность оценивания длительности самой реализации n .

Задача корреляционного анализа возникла из радиолокации, когда нужно было сравнить одинаковые сигналы, смещённые во времени.

Для количественного определения степени отличия сигнала и его смещённой во времени копии
принято вводить автокорреляционную функцию (АКФ) сигнала равную скалярному произведению сигнала и его сдвинутой копии.

(4.1)

Свойства АКФ

1) При
автокорреляционная функция становится равной энергии сигнала:

(4.2)

2) АКФ – функция чётная

(4.3)

3) Важное свойство автокорреляционной функции состоит в следующем: при любом значении временного сдвига модуль АКФ не превосходит энергии сигнала:

4) Обычно, АКФ представляется симметричной линей с центральным максимумом, который всегда положителен. При этом в зависимости от вида сигнала автокорреляционная функция может иметь как монотонно убывающей, так и колеблющийся характер.

Существует тесная связь между АКФ и энергетическим спектром сигнала.

В соответствии с формулой (4.1) АКФ есть скалярное произведение
. Здесь символомобозначена смещённая во времени копия сигнала
.

Обратившись к теореме Планшереля – можно записать равенство:

(4.4) Таким образом, приходим к результату

(4.5)

Квадрат модуля спектральной плотности представляет собой энергетический спектр сигнала. Итак энергетический спектр и автокорреляционная функция связаны парой преобразований Фурье.

Ясно, что имеется и обратное соотношение

(4.6)

Эти результаты принципиально важны по двум причинам: во-первых, оказывается возможным оценивать корреляционные свойства сигналов, исходя из распределения их энергии по спектру. Во-вторых, формулы (4.5), (4.6) указывают путь экспериментального определения энергетического спектра. Часто удобнее вначале получить АКФ, а затем, используя преобразование Фурье, найти энергетический спектр сигнала. Такой приём получил распространение при исследовании свойств сигналов с помощью быстродействующих ЭВМ в реальном масштабе времени.

Часто вводят удобный числовой параметр – интервал корреляции , представляющий собой оценку ширины основного лепестка АКФ.

9.. Взаимокорреляционная функция и ее свойства. Связь взаимокорреляционной функции и взаимного энергетического спектра.

Взаимокорреляционная функция двух сигналов

Взаимокорреляционной функцией (ВКФ) двух вещественных сигналов и называется скалярное произведение вида:

(4.8)

ВКФ служит мерой «устойчивости» ортогонального состояния при сдвигах сигналов во времени.

При прохождении этих сигналов через различные устройства возможно, что сигнал будет сдвинут относительно сигнала на некоторое время .

Свойства ВКФ.

1) В отличие от АКФ одиночного сигнала, ВКФ, описывающая свойства системы двух независимых сигналов, не является чётной функцией аргумента :

(4.9)

2) Если рассматриваемые сигналы имеют конечные энергии, то их ВКФ ограничена.

3) При
значения ВКФ вовсе не обязаны достигать максимума.

Примером ВКФ может служить взаимокорреляционная функция прямоугольного и треугольного видеоимпульсов.

На основании теоремы Планшереля

получаем

(4.11)

Таким образом, взаимокорреляционная функция и взаимный энергетический спектр связаны между собой парой преобразований Фурье.

Поделиться: