Избыточность языкаИзбыточность языка — статистическая величина, обозначающая избыточность информации, содержащейся в тексте на определённом языке. Математическое определениеИзбыточность языка определяется по формуле[1][2][3]: где
По определению принимают[4]: Для :
где — безусловная вероятность появления буквы . Клод Шеннон предложил следующий способ для оценки . Он предлагал людям угадывать букву при условии, что им известны предыдущие букв текста. Далее подсчитывалась вероятность, с которой эта буква была угадана и с какой попытки. Избыточность естественных языковВеличина избыточности разных языков мира колеблется в пределах 70—80%[5]. Во всех языках на всех уровнях присутствуют избыточные элементы. Избыточность в языке неслучайна: её функция — облегчить коммуникацию при неблагоприятных условиях передачи информации. Избыточность представляет собой систему предупреждения возможных ошибок[6]. Для английского текста, состоящего из 26 букв, . Шенноном было уcтановлено, что энтропия английского текста при равна 0.6—1.3 бит/символ[7], что может быть принято за энтропию английского текста[8]. Таким образом, избыточность английского текста составляет 72—87%. Также с помощью экспериментальных оценок были определены энтропии других языков. В таблице представлены энтропии русского и французского языков, а также их избыточности для разных типов текста[3].
Также в лингвистике избыточность означает информацию, повторяющуюся более одного раза[9][10]. Примерами избыточности служат элементы множественного согласования в морфологии[9], множественные признаки отличающие фонемы в фонологии[10], или использование нескольких слов для выражения одной идеи в риторике[9]. ГрамматикаИзбыточность может возникать на любом уровне грамматики из-за согласования – необходимого условия во многих языках, позволяющего формам различных слов сочетаться друг с другом во фразе или предложении – одна и та же семантическая информация может быть передана несколько раз. Например, в испанском во фразе los árboles verdes («зелёные деревья») артикль los, существительное árboles и прилагательное verdes преобразованы и указывают на форму множественного числа[9]. В английском таким примером будет that man is a soldier по сравнению с those men are soldiers. («Этот человек солдат» по сравнению с «эти люди солдаты»). В фонологии, избыточность возникает в минимальных парах – пары слов или фраз, отличающихся друг от друга только одной фонемой, самой маленькой отличительной единицей звуковой системы. Тем не менее, фонемы могут отличаться по нескольким фонетическим признакам. Например, в английском фонемы /p/ и /b/ в словах pin и bin имеют различную звонкость, придыхание и произносятся с разным уровнем напряжения. Любого из этих признаков достаточно, чтобы отличить /p/ и /b/ в английском[10]. В генеративной грамматике избыточность используется для упрощения формы грамматического описания. Любой признак, который может быть предсказан (выведен) на основании другого признака (например как придыхание напрямую зависит от звонкости) не должен быть включён в грамматические правила. Следовательно, неизбыточные признаки, которые должны быть описаны в грамматических правилах называются дифференциальными признаками[10]. Наряду с согласованием в морфологии, фонологически обусловленное чередование, такое как коартикуляция и ассимиляция добавляют избыточность на фонологический уровень. Избыточность фонологических правил может объяснить некоторые неясности в устной коммуникации. Согласно психологу Стивену Пинкеру, «В понимании речи избыточность в фонологических правилах может компенсировать некоторые неточности звуковой волны. Например, говорящий знает, что thisrip должно быть this rip а не the srip,потому как сочетание согласных sr в английском не употребляется[11]. Избыточность и сжатие текстовИзбыточность можно уменьшить с помощью сжатия источника. В случае, когда источник не имеет избыточности (), то есть вероятности всех символов одинаковы, оптимальным кодированием является равномерное кодирование, при котором каждый символ кодируется одинаковым числом битов, равным . В случае, когда источник имеет избыточность, и равномерное кодирование не является оптимальным, так как требует битов для кодирования каждого символа. Однако избыточность может быть уменьшена полностью или частично, если при кодировании представлять наиболее вероятные символы короткими последовательностями битов, а менее вероятные — более длинными. В этом случае среднее количество битов, приходящихся на один символ, окажется меньшей, чем в случае равномерного кодирования[12]. В результате устранения избыточности источник (файл) будет занимать меньший размер, и его символы могут быть переданы по каналу связи более быстро. Основная теорема кодирования канала без шума гласит, что символы источника с основанием алфавита , имеющее энтропию , можно так закодировать посредством кодовых символов с основанием алфавита , что среднее число кодовых символов на один символ источника удовлетворяет неравенству[13]: где — сколь угодно мало. Это неравенство выполняется в случае, когда символы источника объединяются в группы по символов, и производится кодирование этих групп кодовыми символами, причём величина стремится к бесконечности[14][15]. Таким образом, среднее число кодовых символов на один символ источника не может быть сделан меньше, чем . В противном случае, символы источника нельзя достоверно восстановить. Если кодирование производится двоичными кодовыми символами , то это означает, что при кодировании без потерь среднее число битов, приходящихся на символ источника, может быть сделано очень близким к энтропии источника, которая и является средним количеством информации (битов), приходящееся на символ источника. Такое кодирование устраняет избыточность без потери информации. Сжатие без потерь может быть реализовано с помощью кодирования Хаффмана, кодирования Лемпеля — Зива — Велча или арифметического кодирования. Литература
Примечания
|
Portal di Ensiklopedia Dunia