إنتروبي مشترك

احد مفاهيم نظرية الترميز

الإنتروبي المشترك (بالإنجليزية: joint entropy)‏، يعتبر في نظرية المعلومات مقياسًا لعدم اليقين المرتبط بمجموعة من المتغيرات.[1]

تعريفعدل

 
رسم تخطيطي مضلل [2] لمخطط فن يوضح العلاقات الإضافية والطرحية بين مقاييس المعلومات المختلفة المرتبطة بالمتغيرات المرتبطة X و Y. المنطقة التي تحتوي عليها كلتا الدائرتين هي إنتروبيا مشتركة H (X، Y). الدائرة على اليسار (الأحمر والبنفسجي) هي الإنتروبيا الفردية H (X) ، مع إنتروبي ذات اللون الأحمر الإنتروبيا الشرطية H (X | Y). الدائرة على اليمين (الأزرق والبنفسجي) هي H (Y) ، والأزرق هو H (Y | X). البنفسج هو المعلومات المتبادلة I (X؛ Y).

إنتروبي شانون المشتركة (بوحدة البتات) من متغيرين عشوائيين منفصلين   و   مع الصور   و   يعرف بأنه [3] :16

 

 

 

 

 

(Eq.1)

حيث   و   هي قيم خاصة   و   ، على التوالي،   هو الاحتمال المشترك لحدوث هذه القيم معًا، و   يعرف بأنه 0 إذا   .

لأكثر من متغيرين عشوائيين   هذا يتوسع إلى

 

 

 

 

 

(Eq.2)

حيث   هي قيم خاصة   ، على التوالي ،   هو احتمال حدوث هذه القيم معًا، و   يعرف بأنه 0 إذا   .

الخصائصعدل

عدم السلبيةعدل

الإنتروبيا المشتركة لمجموعة من المتغيرات العشوائية هي عدد غير سالب.

 
 

أكبر من الانتروبيا الفرديةعدل

الإنتروبيا المشتركة لمجموعة من المتغيرات أكبر من أو تساوي الحد الأقصى لجميع الأنتروبيا الفردية للمتغيرات في المجموعة.

 
 

أقل من أو يساوي مجموع الانتروبيا الفرديةعدل

الإنتروبيا المشتركة لمجموعة من المتغيرات أقل من أو تساوي مجموع الأنتروبيا الفردية للمتغيرات في المجموعة. هذا مثال على الجمع الثانوي. هذا اللامساواة تعتبر مساواة إذا وفقط اذا كان   و   مستقلين إحصائيا. [3] :30

 
 

العلاقات مع قياسات الإنتروبي الأخرىعدل

يستخدم الانتروبي المشترك في تعريف الإنتروبي الشرطي [3] :22

  ،

و

 
كما أنها تستخدم في تعريف المعلومات المتبادلة [3] :21
 

في نظرية المعلومات الكمومية، يتم تعميم الإنتروبيا المشتركة في الإنتروبيا الكمومية المشتركة.

الانتروبيا التفاضلية المشتركةعدل

التعريف أعلاه هو للمتغيرات العشوائية المنفصلة ولم يعد صالحًا في حالة المتغيرات العشوائية المستمرة. تسمى النسخة المستمرة من إنتروبيا المفصل المنفصل إنتروبيا المفاصل (أو المستمر) . لتكن   و   متغيرات عشوائية مستمرة ذات دالة كثافة احتمالية مشتركة  . الانتروبيا المشتركة التفاضلية   يعرف بأنه [3] :249

 

لأكثر من متغيرين عشوائيين متواصلين   يعمم التعريف على:

 

يتم أخذ جزء لا يتجزأ من دعم   . من الممكن ألا يكون التكامل موجودًا وفي هذه الحالة نقول أن الإنتروبي التفاضلي غير محدد.

كما في الحالة المنفصلة، يكون الانتروبيا التفاضلية المشتركة لمجموعة من المتغيرات العشوائية أصغر أو تساوي من مجموع الأنتروبيا للمتغيرات العشوائية الفردية:

  [3] :253

تنطبق قاعدة السلسلة التالية على متغيرين عشوائيين:

 

في حالة وجود أكثر من متغيرين عشوائيين يتم تعميم هذا على: [3] :253

 

يستخدم الإنتروبي التفاضلي المشترك أيضًا في تعريف المعلومات المتبادلة بين المتغيرات العشوائية المستمرة:

 

المراجععدل

  1. ^ Theresa M. Korn; Korn, Granino Arthur. Mathematical Handbook for Scientists and Engineers: Definitions, Theorems, and Formulas for Reference and Review. New York: Dover Publications. ISBN 0-486-41147-8. الوسيط |CitationClass= تم تجاهله (مساعدة)
  2. ^ D.J.C. Mackay. Information theory, inferences, and learning algorithms. الوسيط |CitationClass= تم تجاهله (مساعدة)
  3. أ ب ت ث ج ح خ Thomas M. Cover; Joy A. Thomas. Elements of Information Theory. Hoboken, New Jersey: Wiley. ISBN 0-471-24195-4. الوسيط |CitationClass= تم تجاهله (مساعدة)