Наочне порівняння згортки, взаємної кореляції та автокореляції. Для операцій, що включають функцію f, і виходячи з припущення, що висота f становить 1,0, значення результату в 5 різних точках показано затіненою областю під кожною точкою. Також, вертикальна симетрія f є причиною того, що та в цьому прикладі ідентичні.
У теорії ймовірностей та статистиці термін взаємні кореляції стосується кореляцій між елементами двох випадкових векторів та , тоді як кореляції випадкового вектора є кореляціями між елементами самого , що утворюють кореляційну матрицю. Якщо як , так і є скалярними випадковими величинами, які багаторазово реалізуються в часовому ряді, то кореляції різних часових примірників відомі як автокореляції (англ.autocorrelations) , а взаємні кореляції із у часі є часовими взаємними кореляціями (англ.temporal cross-correlations). У теорії ймовірностей та статистиці визначення кореляції завжди включає такий стандартувальний коефіцієнт, щоби кореляції мали значення від −1 до +1.
Якщо та — дві незалежнівипадкові величини з функціями густини ймовірності та відповідно, то густина ймовірності різниці формально задається взаємною кореляцією (у сенсі обробки сигналів) , проте цю термінологію в теорії ймовірностей та статистиці не використовують. На противагу цьому, згортка (еквівалентна взаємній кореляції та ) дає функцію густини ймовірності суми .
Взаємна кореляція детермінованих сигналів
Для безперервних функцій та взаємну кореляцію визначають як[1][2][3]
Зокрема, може бути перетворенням циклічного перенесення, поворотним та масштабувальним перетворенням тощо. Ядрова взаємна кореляція узагальнює взаємну кореляцію з лінійного простору до ядрового. Взаємна кореляція рівнозначна перенесенню; ядрова взаємна кореляція рівнозначна будь-яким афінним перетворенням, включно з перенесенням, повертанням, масштабуванням тощо.
Пояснення
Як приклад розгляньмо дві дійснозначні функції та , що відрізняються лише невідомим зміщенням уздовж осі x. Взаємною кореляцією можливо скористатися, щоби знайти, наскільки мусить бути зміщено вздовж осі x, щоби зробити її ідентичною до . Ця формула по суті соває функцію уздовж осі x, обчислюючи інтеграл від їхнього добутку в кожному положенні. Коли функції збігаються, значення є максимальним. Це тому, що коли піки (додатні області) вирівняно, вони роблять великий внесок до інтегралу. Аналогічно, коли вирівнюються западини (від'ємні області), вони також роблять додатний внесок до інтегралу, оскільки добуток двох від'ємних чисел є додатним.
Анімація, яка наочно показує, як обчислюється взаємна кореляція
З комплекснозначними функціями та взяття спряження забезпечує, що вирівняні піки (або вирівняні западини) з уявними компонентами робитимуть до інтегралу додатний внесок.
В економетрії взаємну кореляцію з запізнюванням іноді називають взаємною автокореляцією (англ.cross-autocorrelation).[8]:с. 74
Властивості
Взаємна кореляція функцій та рівнозначна згортці (позначуваній через ) функцій та . Тобто,
Випадкові вектори та не зобов'язані мати однакові розміри, й будь-який з них може бути скалярним значенням.
Приклад
Наприклад, якщо та — випадкові вектори, то — матриця , чиїм -м елементом є .
Визначення для комплексних випадкових векторів
Якщо та — комплексні випадкові вектори[en], кожен з яких містить випадкові величини з відомими математичними сподіваннями та дисперсіями, то матрицю взаємної кореляції та визначають через
Припустімо, що цей процес у момент часу має середні значення та і дисперсії та , для будь-якого . Тоді визначенням взаємної кореляції між моментами часу та є[10]:с.392
де та — середнє значення та стандартне відхилення процесу , сталі в часі через стаціонарність; і так само для , відповідно. показує математичне сподівання. Те, що взаємні коваріація та кореляція не залежать від , — саме додаткова інформація (поза індивідуальною стаціонарністю в широкому сенсі), яку передає вимога, що спільно стаціонарні в широкому сенсі.
Взаємну кореляцію пари спільно стаціонарних у широкому сенсістохастичних процесів можливо оцінювати усереднюванням добутку зразків, виміряних за одним процесом, і зразків, виміряних за іншим (та за його зсувами в часі). Зразки, включені до цього усереднювання, можуть бути довільною підмножиною всіх зразків у сигналі (наприклад, зразки в межах скінченного часового вікна, або підвибірка[яка?] одного з сигналів). За великої кількості зразків це усереднення збігається до істинної взаємної кореляції.
Унормовування
Поширеною практикою в деяких дисциплінах (наприклад, у статистиці та аналізі часових рядів) є унормовувати взаємно кореляційну функцію, щоб отримувати залежний від часу коефіцієнт кореляції Пірсона. Проте в деяких інших дисциплінах (наприклад, в інженерії) унормовування зазвичай пропускають, а терміни «взаємна кореляція» та «взаємна коваріація» використовують як взаємозамінні.
Визначення нормованої взаємної кореляції стохастичного процесу:
.
Якщо функція однозначно визначена, її значення мусять лежати в діапазоні , причому 1 вказує на ідеальну кореляцію, а −1 — на ідеальну антикореляцію.
Для спільно стаціонарних у широкому сенсі стохастичних процесів визначення таке:
.
Унормовування важливе як тому, що інтерпретація автокореляції як кореляції забезпечує безмасштабну міру сили статистичної залежності, так і тому, що унормовування впливає на статистичні властивості оцінюваних автокореляцій.
Властивості
Властивість симетрії
Для спільно стаціонарних у широкому сенсі стохастичних процесів взаємно кореляційна функція має таку властивість симетрії:[11]:с.173
Відповідно, для спільно СШС стохастичних процесів:
Аналіз часової затримки
Взаємні кореляції корисні для визначання часової затримки між двома сигналами, наприклад, для визначання часових затримок поширення акустичних сигналів системою спрямованих мікрофонів.[12][13][прояснити: ком.] Після обчислення взаємної кореляції між двома сигналами максимум (або мінімум, якщо сигнали корельовані негативно) взаємно кореляційної функції вказує момент часу, коли сигнали узгоджені найкраще; тобто затримка часу між цими двома сигналами визначається аргументом максимуму, або arg max, взаємної кореляції, як у
Термінологія в обробці зображень
Центрована нормована взаємна кореляція (ЦНВК)
Для застосувань в обробці зображень, у яких яскравість зображення та шаблону може змінюватися залежно від умов освітлення та експозиції, зображення можуть спочатку унормовувати. Зазвичай це роблять на кожному кроці шляхом віднімання середнього значення та ділення на стандартне відхилення. Тобто, взаємна кореляція шаблону з підзображенням — це
Таким чином, якщо та є дійснозначними матрицями, то їх нормована взаємна кореляція дорівнює косинусу кута між одиничними векторами та , будучи відтак тоді й лише тоді, коли дорівнює , помноженому на додатний скаляр.
НВК (англ.normalized cross-correlation, NCC) подібна до ЦНВК, з тією лише відмінністю, що не віднімається локальне середнє значення освітленостей:
Нелінійні системи
При використанні взаємної кореляції для нелінійних систем необхідно бути обережними. За певних обставин, які залежать від властивостей вхідних даних, взаємна кореляція між входом і виходом системи з нелінійною динамікою може бути повністю сліпою до певних нелінійних ефектів.[14] Ця проблема виникає через те, що деякі квадрати моментів можуть дорівнювати нулеві, й це може помилково підказувати, що між двома сигналами існує невелика «кореляція» (у сенсі статистичної залежності), хоча насправді ці два сигнали сильно пов'язані нелінійною динамікою.
↑Bracewell, R. "Pentagram Notation for Cross Correlation." The Fourier Transform and Its Applications. New York: McGraw-Hill, pp. 46 and 243, 1965. (англ.)
↑Papoulis, A. The Fourier Integral and Its Applications. New York: McGraw-Hill, pp. 244–245 and 252—253, 1962. (англ.)
↑Wang, Chen; Zhang, Le; Yuan, Junsong; Xie, Lihua (2018). Kernel Cross-Correlator. The Thirty-second AAAI Conference On Artificial Intelligence. Association for the Advancement of Artificial Intelligence. с. 4179—4186. Архів оригіналу за 19 грудня 2021. Процитовано 12 січня 2022. (англ.)
↑Campbell; Lo; MacKinlay (1996). The Econometrics of Financial Markets. NJ: Princeton University Press. ISBN0691043019. (англ.)
↑Kapinchev, Konstantin; Bradu, Adrian; Barnes, Frederick; Podoleanu, Adrian (2015). GPU implementation of cross-correlation for image generation in real time. 2015 9th International Conference on Signal Processing and Communication Systems (ICSPCS). с. 1—6. doi:10.1109/ICSPCS.2015.7391783. ISBN978-1-4673-8118-5. (англ.)
↑ абвGubner, John A. (2006). Probability and Random Processes for Electrical and Computer Engineers. Cambridge University Press. ISBN978-0-521-86470-1. (англ.)
↑Kun Il Park, Fundamentals of Probability and Stochastic Processes with Applications to Communications, Springer, 2018, 978-3-319-68074-3 (англ.)
↑Rhudy, Matthew; Brian Bucci; Jeffrey Vipperman; Jeffrey Allanach; Bruce Abraham (November 2009). Microphone Array Analysis Methods Using Cross-Correlations. Proceedings of 2009 ASME International Mechanical Engineering Congress, Lake Buena Vista, FL. с. 281—288. doi:10.1115/IMECE2009-10798. ISBN978-0-7918-4388-8. (англ.)
↑Billings, S. A. (2013). Nonlinear System Identification: NARMAX Methods in the Time, Frequency, and Spatio-Temporal Domains. Wiley. ISBN978-1-118-53556-1. (англ.)
Література
Tahmasebi, Pejman; Hezarkhani, Ardeshir; Sahimi, Muhammad (2012). Multiple-point geostatistical modeling based on the cross-correlation functions. Computational Geosciences. 16 (3): 779—797. doi:10.1007/s10596-012-9287-1. (англ.)