если предел существует. Альтернативно связанной величиной является[2]:
.
Величины и соответствуют двум различным понятиям скорости энтропии. Первая — это энтропия на символ случайных величин, а вторая — условная энтропия последней случайной величины, учитывая прошлые. Для стационарных случайных процессов выполняется равенство [2]. Энтропийную скорость можно рассматривать как общее свойство случайных эргодических источников, то есть свойство асимптотической равнораспределенности[3].
Энтропийную скорость можно использовать для оценки сложности случайных процессов. Она используется в различных приложениях от описания сложности языков, слепого разделения сигналов до оптимизации преобразователей и алгоритмов сжатия данных. Например, критерий максимальной энтропийной скорость может быть использован для отбора признаков в машинном обучении[4].
Примеры
Рассмотрим последовательности из случайных величин, принимающих значений[1].
Если значения случайных величин равновероятны, то, так как количество различных последовательностей равно , получаем , и энтропийная скорость равна бит на символ.
Если цепь Маркова неприводима и непериодична, то она имеет единственное
стационарное распределение на состояниях, и любое начальное распределение стремится к стационарному распределению при . В этом случае, даже если начальное распределение не является стационарным распределением, скорость энтропии, которая
определяется в терминах долгосрочного поведения, равна [5].
Einicke G. A. Maximum-Entropy Rate Selection of Features for Classifying Changes in Knee and Ankle Dynamics During Running // IEEE Journal of Biomedical and Health Informatics. — 2018. — Т. 28, вып. 4. — doi:10.1109/JBHI.2017.2711487.