;
. (9)
;
, (10)
где
- условная частная энтропия источника A относительно события
;
- условная вероятность появления события
относительно события
в сложной системе;
- условная частная энтропия источника B относительно события
;
- условная вероятность появления события
относительно события
в сложной системе.
Зная формулу (9), вычислим частную условную энтропию H(A/bj):
H(A/b1) =-(0.64* log2 (0.64)+0.16* log2 (0.16)+0.2* log2 (0.2))=
=-(0.64* log(0.64)/log(2)+0.16* log(0.16)/log(2)+0.2* log(0.2)/log(2))=-(0.64* (-0.1938)/0.3010+0.16*(-0.7959)/0.3010+0.2* (-0.6990)/0.3010)=
=-(-0.4121-0.4230-0.4644)=1.2995(бит/символ);
H(A/b2) =-(0.037* log2 (0.037)+0.963* log2 (0.963)+0* log2 (0))=
=-(0.037* (-4.7563)+0.963* (-0.0544)+0* log2 (0))=0.1760+0.0524+0.0000= =0.2284 (бит/символ);
H(A/b3) =-(0.042* log2 (0.042)+0.188* log2 (0.188)+ 0.771* log2 (0.771))= -(0.042* (-4.5735)+0.188* (-2.4112)+ 0.771* (-0.3752))=-(-0.1921-0.4533-0.2893)= 0.9347 (бит/символ).
Зная формулу (10) и матрицу p(bj/ai), вычисленную по формуле (5), вычислим частную условную энтропию H(B/ai):
H(B/a1)= -(0.842* log2(0.842)+0.053* log2(0.053)+0.105* log2(0.105)) = -(0.842* (-0.2481)+0.053* (-4.2379)+0.105*(-3.2515)) =0.2089+0.2246+0.3414 =
0.7749 (бит/символ);
H(B/a2)=-(0.103*log2 (0.103)+0.667*log2(0.667)+0.231*log2(0.231)) =-(0.103*(-3.2793)+0.667*(-0.5842)+0.231*(-2.1140)) =0.3378+0.3897+0.4883= 1.2158 (бит/символ);
H(B/a3)= -(0.119* log2 (0.119)+0.000* log2 (0.000)+0.881* log2 (0.881))=
=-(0.119*log(0.119)/log(2)+0.000*log(0.000)/log(2)+0.881*log(0.881)/log(2))=-(0.119*(-0.9245)/0.301+0.000+0.881*(-0.055)/0.301)=-(-0.3654-0.1610)= 0.5264 (бит/символ).