Đầu tiên lưu ý rằng dấu phẩy trong xác suất là toán tử AND; $$ \Pr[X = x , Y = y] = \Pr[X = x \wedge Y = y]$$ Đây là ký hiệu phổ biến để đơn giản hóa văn bản.
Bây giờ, viết rõ ràng như
$$p_i = \sum_{j=1}^{n} r_{ij} = \Pr[X = x_i \wedge Y = y_0] + \Pr[X = x_i \wedge Y = y_1] + \cdots + \ Pr[X = x_i \wedge Y = y_m]$$
Vì các biến ngẫu nhiên $X$ và $Y$ độc lập thì đây chỉ là một phân vùng của sự kiện $x_i$ bởi biến ngẫu nhiên $Y$.
Như một trường hợp chắc chắn, hãy xem xét hai con xúc xắc; một người có $X$ và khác là $Y$ là biến ngẫu nhiên của chúng đại diện cho giá trị trên của xúc xắc. Tổng cộng có 36 giá trị bằng nhau có thể có của hai lần tung xúc xắc. Sửa cái đầu tiên, giả sử $3$ sau đó
\begin{align}\Pr(X=3) = & \Pr(X=3,Y=1)+\
& \Pr(X=3,Y=2)+\
& \Pr(X=3,Y=3)+\
& \Pr(X=3,Y=4)+\
& \Pr(X=3,Y=5)+\
& \Pr(X=3,Y=6)\
= &\frac{1}{36}+ \frac{1}{36}+ \frac{1}{36}+ \frac{1}{36}+ \frac{1}{36} +\frac{ 1}{36} = \frac{1}{6}
\end{align}
$H(X,Y)$ thực sự là Entropy chung và công thức được đưa ra bởi (một lần nữa AND);
$$H(X,Y) = -\sum_{x\in\mathcal X} \sum_{y\in\mathcal Y} P(x,y) \log_2[P(x,y)]$$
Trong bối cảnh của chúng tôi, đây là
$$H(X,Y) = -\sum_{x\in X} \sum_{y\in Y} P(X=x,Y=y) \log_2[P(X=x,Y=y)] $$
$H(X,Y)$ là đánh giá đồng thời của $X$ và $Y$ và điều đó bằng với đánh giá đầu tiên $X$ thì giá trị đã cho của $X$ đánh giá $Y$
$$H(X,Y)= H(X|Y)+H(Y)=H(Y|X)+H(X) $$
Chứng minh cái này hơi dài;
\begin{align}
H(X,Y) & = â \sum_{i=1}^n \sum_{j=1}^m \Pr(X=x_i,Y =y_j) \log \big( \Pr(X= x_i,Y =y_j) \big)\
& = â \sum_{i=1}^n \sum_{j=1}^m \Pr(X=x_i,Y =y_j) \log \big( \Pr(X=x_i) \Pr(Y |X = y_j|x_i) \big)\
& = â \sum_{i=1}^n \sum_{j=1}^m \Pr(X=x_i,Y =y_j) \big[ \log \big( \Pr(X=x_i) \ lớn) + \log \big( \Pr(Y|X = y_j|x_i) \big) \big] \
& = â \sum_{i=1}^n \left( \sum_{j=1}^m \Pr(X=x_i,Y =y_j) \right) \log \big( \Pr(X= x_i) \big) \
& - \sum_{i=1}^n \sum_{j=1}^m \Pr(X=x_i,Y =y_j) \log \left( \Pr(Y|X = y_j|x_i) \right) \
& = H(X) + H(Y|X)
\end{align}