Энтропия двух и более независимых источников
Для независимых случайных событий X и Y вероятность совместного наступления объединения двух событий xi и yj определяется как произведение вероятностей появления каждого из этих событий, то есть p(xi; yj) = p(xi) · p(yj). Учитывая это энтропию объединения можно подсчитать по следующей формуле:
то есть энтропия объединения двух независимых источников X и Y равна сумме энтропий этих источников. http://peredacha-informacii.ru/ То же можно утверждать об энтропии объединения многих независимых случайных источников, то есть
|