Взаимная информация

Теория информации

Взаимная информация — количество информации, содержащееся в -ом значении одной случайной величины (-ой точке одного дискретного пространства) относительно -го значения другой случайной величины (-ой точке другого дискретного пространства)[1][2]. Это позволяет интерпретировать взаимную информацию как меру статистической связи между значениями двух случайных величин[2].

Средняя взаимная информация или взаимная энтропия[3]математическое ожидание взаимной информации[4][5]. Представляет собой статистическую функцию двух случайных величин, описывающая среднее количество информации одной случайной величины, содержащейся в другой случайной величине (среднее количество информации об одной случайной величине, получаемое при определении значения другой случайной величины)[6].

При передачи информации по каналу связи средняя взаимная информация представляет собой среднее количество информации, полученной о переданном сообщении после его получения[7].

Определение

Количество информации, содержащееся в -ом значении случайной величины (событии ) относительно -го значения случайной величины (события ) называется взаимной информацией между событиями и и определяется по формуле[1][8]:

где — вероятность события , — вероятность события , — вероятность события при условии выполнения события , — вероятность события при условии выполнения события .

Использование в выражении в качестве разделителя запятой означает, что эту величину следует отличать от собственной информации, содержащейся в произведении (паре) значений и [9].

Основание логарифма определяет величину единицы измерения информации. Наиболее часто используется основание 2 и единицей информации является бит. Также в качестве основания логарифма используются e, 3, 10[1].

Взаимная информация между событиями и может быть выражена в виде[9]:

где

— количество собственной информации, содержащейся в ,
— количество собственной информации, содержащейся в ,
— условная собственная информация, содержащаяся в , при условии выполнения события ,
— условная собственная информация, содержащаяся в , при условии выполнения события [10].

На основании такой записи взаимная информация может быть интерпретирована как разность между количеством информации, требуемой для идентификации до и после того как становится известным . Она же равна разности между количеством информации, требуемой для идентификации до и после того как становится известным [9].

Средняя взаимная информация определяется через энтропию и условную энтропию двух случайных величин как[5][11]:

где — энтропия случайной величины , то есть среднее значение собственной информации, — среднее значение условной собственной информации[12] или

где

Тогда средняя взаимная информация определяется по формуле[3][13][5]:

Свойства взаимной информации

Свойства взаимной информации[14]:

  • Взаимная информация является симметричной функцией случайных величин:
  • Для независимых значений и взаимная информация равна нулю:
  • Взаимная информация может принимать как положительные, так и отрицательные значения. Если условная вероятность больше безусловной, то взаимная информация положительна, если наоборот, то отрицательна[2].

Свойства средней взаимной информации[15]:

  • Взаимная информация является симметричной функцией случайных величин:
  • Взаимная информация неотрицательна и не превосходит энтропию аргументов:
  • Для независимых случайных величин взаимная информация равна нулю:
  • Когда одна случайная величина (например, ) является детерминированной функцией другой случайной величины (), взаимная информация равна энтропии[16]:

Условная взаимная информация

Условная взаимная информация — статистическая функция, описывающая количество информации, содержащееся в одном значении случайной величины относительно значения другой случайной величины, при условии заданного значения третьей случайной величины[2]:

Средняя условная взаимная информация — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданной третьей случайной величины[17]:

Среднюю условную взаимную информацию можно представить в виде[17]:

Передача информации

Пусть передаче подлежит сообщение , состоящее из последовательности символов . На приемном конце после демодуляции получается сообщение , состоящее из последовательности символов . На приёмном конце переданные символы заранее неизвестны, известны только вероятности их передачи.

Скоростью передачи информации по дискретному каналу связи (между входом модулятора передатчика и выходом демодулятора приёмника) называется величина[18]:

где

— среднее время, затрачиваемое на передачу одного символа,
— средняя взаимная информация,
— производительность источника сообщений, — энтропия источника сообщений, являющаяся степенью неопределенности передачи того или иного символа[18].

Величина

называется ненадежностью, отнесённой к единице времени, является условной энтропией и называется ненадежностью, то есть средним количеством информации, теряемой при передаче информации и являющейся мерой неопределённости принятого символа[18][19].

Отличие скорости от скорости при равномерном кодировании символов сообщения состоит в том, что является действительной скоростью передачи информации, а — скоростью создания информации (технической скоростью передачи информации (битов)), где — длительность бита[19].

В случае, когда в канале связи отсутствует шум, выходные символы являются детерминированной функцией входных символов . Поэтому после получения символов , неопределенность в знании значений символов полностью пропадёт (символы будут известны абсолютно точно). Поэтому ненадежность станет равной нулю. Следовательно, средняя взаимная информация между переданными и полученными символами станет равной энтропии источника сообщений и скорость передачи информации будет максимальна.

В случае, когда в канале связи присутствует шум, выходные символы канала не являются детерминированной функцией входных символов канала . Поэтому после получения символов , возникнет неопределенность в знании значений символов (символы не будут известны абсолютно точно). Поэтому ненадежность станет больше нуля. Следовательно, средняя взаимная информация между переданными и полученными символами уменьшится по сравнению со случаем отсутствия шума. При слишком большом шуме выходные символы станут статистически независимыми от входных символов , то есть неопределенность в знании значений символов будет совпадать с энтропией источника сообщений , то есть взаимная информация между переданными и принятыми символами станет равной нулю, и скорость передачи информации тоже станет равной нулю. В двоичном канале (входные символы канала являются битами), когда вероятность ошибочного приёма символов равна , скорость передачи информации равна нулю, так как примерно половина символов окажутся принятыми неправильно, то есть никакой действительной передачи информации не будет происходить, при этом скорость создания информации останется неизменной[19].

Примечания

  1. 1 2 3 Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 43.
  2. 1 2 3 4 Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 44.
  3. 1 2 Усенко О. А. Приложения теории информации и криптографии в радиотехнических системах, 2017. — С. 36.
  4. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 57.
  5. 1 2 3 Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 65.
  6. Гельфанд И. М., Яглом А. М. О вычислении количества информации о случайной функции, содержащейся в другой такой функции. Успехи математических наук, 1957, том 12, выпуск 1. — С. 5.
  7. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 66.
  8. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 50.
  9. 1 2 3 Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 53.
  10. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 51—52.
  11. Кудряшов В. Д. Теория информации, 2009. — С. 107.
  12. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 61.
  13. Фомичёв В. М. Элементы теории информации в защите информации, 2021. — С. 168.
  14. Кудряшов В. Д. Теория информации, 2009. — С. 106.
  15. Кудряшов В. Д. Теория информации, 2009. — С. 106—107.
  16. Ромащенко А. Е. Введение в теорию информации, 2013. — С. 3—4.
  17. 1 2 Галлагер Р. Теория информации и надежная связь, 1974. — С. 37.
  18. 1 2 3 Финк Л. М. Теория передачи дискретных сообщений, 1970. — С. 49.
  19. 1 2 3 Шеннон К. Работы по теории информации и кибернетике, 1963. — С. 277.

Литература

Prefix: a b c d e f g h i j k l m n o p q r s t u v w x y z 0 1 2 3 4 5 6 7 8 9

Portal di Ensiklopedia Dunia

Kembali kehalaman sebelumnya