Энтропия двух и более взаимозависимых источников

Вероятность совместного наступления объединения двух взаимозависимых событий p(xi; yj) подсчитывается как произведение вероятности появления одного из них на условную вероятность появления второго при условии, что имеет место факт появления первого события, то есть

энтропия двух и более взаимозависимых источников

Учитывая это, энтропию объединения двух взаимозависимых источников следует считать по иному:

энтропия двух и более взаимозависимых источников

Где – условная энтропия источника Y относительно события xi;

H(YX) – условная энтропия источника Y относительно источника X, так как при расчете учитываются все состояния, которые может принимать источник X.

Для объединения из трех взаимозависимых источников X; Y; Z можно записать:

H(X; Y; Z) = H(X) + H(YX) + H(ZX;Y).

Для объединения двух взаимозависимых событий можно записать пределы, в которых может меняться его энтропия:

max[H(X); H(Y)] ≤ H(X; Y) ≤ H(X) + H(Y), то есть

энтропия объединения всегда больше энтропии одного из источников, но меньше суммы их энтропий. Первое утверждение верно, когда имеет место линейная зависимость одного из источников от другого. http://peredacha-informacii.ru/ А второе – когда источники независимы.

Рассмотрим пример расчета энтропии объединения двух источников. Пусть нам задана матрица ||p(xi; yj)|| следующего вида:

энтропия двух и более взаимозависимых источников

На матрицу наложены следующие ограничения:

энтропия двух и более взаимозависимых источников ; энтропия двух и более взаимозависимых источников ; энтропия двух и более взаимозависимых источников .

Требуется определить H(X; Y) тремя способами:

энтропия двух и более взаимозависимых источников

Надо определить источники X и Y взаимозависимы или нет.

Матрицу ||p(xi; yj)|| можно задать самим при условии, что m и n не более четырех, а можно запросить у ЭВМ, которая ее (матрицу) сгенерирует.

При расчетах следует учитывать, что

энтропия двух и более взаимозависимых источников энтропия двух и более взаимозависимых источников энтропия двух и более взаимозависимых источников; энтропия двух и более взаимозависимых источников.