Тэорыя інфармацыіТэо́рыя інфарма́цыі — раздзел кібернетыкі, які вывучае працэсы захоўвання, пераўтварэння і перадачы інфармацыі. У тэорыі інфармацыі выкарыстоўваюцца метады тэорый імавернасцей, лікаў, графаў, гульняў, матэматычнай статыстыкі, алгебры. Інтэнсіўнае развіццё абумоўлена патрэбамі сродкаў сувязі, электроннай вылічальнай і кіравальнай тэхнікі, радыёлакацыі і інш. ГісторыяУзнікла тэорыя інфармацыі ў канцы 1940-х гадоў на аснове прац амерыканскага матэматыка К. Шэнана; значны ўклад у яе абгрунтаванне зрабілі савецкія вучоныя А. М. Калмагораў, А. Я. Хінчын, А. А. Харкевіч. На Беларусі даследаванні па тэорыі інфармацыі праводзяцца з 1960-х гадоў у Інстытуце тэхнічнай кібернетыкі НАН Беларусі, БДУ, Беларускім дзяржаўным універсітэце інфарматыкі і радыёэлектронікі і іншых. АглядАсноўная частка тэорыі інфармацыі — агульная тэорыя сувязі, якая распрацоўвае эфектыўныя метады перадачы інфармацыі па лініях сувязі, вывучае праблемы аптымальнага кадзіравання і фільтрацыі інфармацыі, выяўлення і прадказання сігналаў. Тэорыя інфармацыі зыходзіць з таго, што сігналы (паведамленні) паступаюць ад крыніцы ў выпадковай паслядоўнасці, маюць пэўную імавернасць, а таксама імавернасць таго, што паведамленні могуць скажацца ў час перадачы. У якасці меры такой неазначальнасці прымаецца сярэдняя колькасць двайковых знакаў, неабходная для запісу адвольнага паведамлення дадзенай крыніцы самым эканомным спосабам кадзіравання. Гэтая мера не меншая за энтрапію мноства паведамленняў дзе n — колькасць паведамленняў, pi — імавернасць з'яўлення асобнага паведамлення. Колькасць інфармацыі ў паведамленні X адносна паведамлення Y вызначаецца суадносінамі дзе H(X,Y) — энтрапія пары (X,Y). Скорасць V перадачы інфармацыі па канале сувязі не перавышае велічыні, вызначанай з суадносін дзе H — энтрапія крыніцы на сімвал, C — прапускная здольнасць дадзенага канала. Літаратура
|
Portal di Ensiklopedia Dunia