Теорема Шеннона — Хартли

Теория информации

Теорема Шеннона — Хартли (формула Шеннона[1]) в теории информации — формула, связывающая пропускную способность канала c аддитивным белым гауссовым шумом с шириной полосы пропускания канала и отношением сигнал-шум[1][2][3]. Названа в честь Клода Шеннона и Ральфа Хартли. Была доказана Клодом Шенноном в 1948 году[4].

Утверждение теоремы

Теорема Шеннона — Хартли утверждает, что пропускная способность непрерывного канала c аддитивным белым гауссовым шумом связана с шириной полосы пропускания канала и отношением сигнал-шум по формуле:

где

 — пропускная способность канала, бит/с;
 — полоса пропускания канала, Гц;
 — средняя мощность сигнала в полосе в полосе , Вт;
 — мощность шума в полосе , Вт, спектральная плотность мощности шума;
 — отношение мощности сигнала к мощности шума.

Клод Шеннон утверждал, что эта формула означает, что с помощью достаточно сложных систем кодирования можно передавать двоичные знаки со скоростью при сколь угодно малой частоте ошибок. Невозможно передавать с большей скоростью при любой системе кодирования без того, чтобы частота ошибок не была бы положительна. Для достижения этой предельной скорости передаваемые сигналы должны быть близки по своим статистическим свойствам к белому шуму. При этом длительность сигнала должна быть достаточно большой[5].

При этом даже бесконечное увеличение полосы не приводит к бесконечному росту пропускной способности [1]:

бит/с.

Пропускная способность непрерывного канала с шумом, отличным от гауссова, или с шумом, энергетический спектр которого неравномерен в полосе пропускания канала, оказывается больше вычисленной по формуле Шеннона — Хартли[6].

Граница Шеннона

Граница Шеннона

Формулу Шеннона — Хартли можно переписать в виде, получив формулу, называемую границей Шеннона[7]:

,

где — удельные энергетические затраты, — энергия сигнала, затрачиваемая на передачу одного бита информации, — спектральная плотность мощности шума, — скорость создания информации (при равновероятных и независимых символах источника).

— удельные затраты полосы частот.

Так как по условию теоремы Шеннона для канала с шумом для безошибочного воспроизведения сообщений необходимо выполнение условия , то удельные энергетические затраты должны удовлетворять следующему неравенству:

то есть величина должна быть выше границы Шеннона[7].

При величине минимально возможное значение , называемое пределом Шеннона[6]. Таким образом, величина удельных энергетических затрат для канала с АБГШ, даже при , должна превосходить значение [8].

Примечания

  1. 1 2 3 Варгаузин В. А., Цикин И. А. Методы повышения энергетической и спектральной эффективности цифровой радиосвязи, 2013. — С. 32.
  2. Channel Capacity. Shannon-Hartley theorem.
  3. Dr. Aoife Moloney. Channel Capacity. Lecture № 11.
  4. Shannon — Hartley Theorem Definition.
  5. Шеннон К. Работы по теории информации и кибернетике, 1963. — С. 308—309.
  6. 1 2 Варгаузин В. А., Цикин И. А. Методы повышения энергетической и спектральной эффективности цифровой радиосвязи, 2013. — С. 33.
  7. 1 2 Макаров С. Б., Цикин И. А. Передача дискретным сообщений по радиоканалам с ограниченной полосой пропускания, 1988. — C. 10.
  8. Кудряшов Б. Д. Основы теории кодирования, 2016. — C. 11.
Prefix: a b c d e f g h i j k l m n o p q r s t u v w x y z 0 1 2 3 4 5 6 7 8 9

Portal di Ensiklopedia Dunia

Kembali kehalaman sebelumnya