سعة القناة: الفرق بين النسختين

[مراجعة غير مفحوصة][مراجعة غير مفحوصة]
تم حذف المحتوى تمت إضافة المحتوى
وسم: تعديل مصدر 2017
وسم: تعديل مصدر 2017
سطر 59:
حتى الآن نحتاج لأن نجد التوزيعة <math>p_{X_1,X_2}</math> مثل التالي <math>I(X_1,X_2 : Y_1,Y_2) \geq I(X_1 : Y_1) + I(X_2 : Y_2)</math>. In fact, <math>\pi_1</math> and <math>\pi_2</math>,توزيعتين احتماليين <math>X_1</math> و<math>X_2</math> لنحقق<math>C(p_1)</math> و<math>C(p_2)</math>, يفي بالغرض:
:<math>C(p_{1}\times p_{2}) \geq I(X_1, X_2 : Y_1, Y_2) = I(X_1:Y_1) + I(X_2:Y_2) = C(p_1) + C(p_2)</math>
ieأي. <math>C(p_{1}\times p_{2}) \geq C(p_1) + C(p_2)</math>
 
Nowالآن letدعنا usنبرهن show thatأن <math> C(p_{1}\times p_{2}) \leq C(p_{1}) + C(p_{2}) </math>.
 
Let لتكن<math>\pi_{12}</math>لتكن be some distribution for the channelتزيعات لقناة<math>p_{1}\times p_{2}</math> defining تعرّف<math>(X_1, X_2)</math> andو theالنتيجة corresponding outputالمقابلة <math>(Y_1, Y_2)</math>. Let لتكن<math>\mathcal{X}_1</math> beأبجدية the alphabet ofمن <math>X_1</math>,و <math>\mathcal{Y}_1</math> for لأجل<math>Y_1</math>, and analogouslyوبالمثل <math>\mathcal{X}_2</math> and و<math>\mathcal{Y}_2</math>.
 
من خلال تعريف المعلومات المتبادلة ، لدينا
By definition of mutual information, we have
 
<math>
سطر 74:
</math>
 
Letدعونا usنعيد rewriteكتابة theمصطلح last term of [[إنتروبي (نظرية المعلومات)|entropyإنتروبي ]]الأخير.
 
<math>H(Y_1,Y_2|X_1,X_2) = \sum_{(x_1, x_2) \in \mathcal{X}_1\times \mathcal{X}_2}\mathbb{P}(X_{1}, X_{2} = x_{1}, x_{2})H(Y_{1}, Y_{2} | X_{1}, X_{2} = x_{1}, x_{2})