PTTC.PNG
Skip to main content.

количество взаимной информации в случайных величинах

Дата последнего изменения:2012.06.26
Сообщить об ошибке
  количество взаимной информации в случайных величинах
Мера уменьшения неопределенности случайной величины, возникающего вследствие того, что становится известным значение другой случайной величины, усредненного по знаниям последней; для дискретных случайных величин ее выражение имеет вид
4634
где суммирование ведется по всему множеству значений хn, уm случайных величин Xn, ym; для непрерывных случайных величин ее выражение имеет вид
4635
где интегрирование ведется по всему множеству значений xn, уm случайных величин Хn, Уm.
Примечания
1. Вместо термина «количество взаимной информации в случайных величинах» иногда употребляют выражение «количество информации о случайной величине, содержащееся в другой случайной величине».
2. Общая форма математической записи выражения количества взаимной информации, справедливая в произвольном случае, имеет вид
4636
где Р(хn, уm), Р(хn) и Р(уm) —вероятностные меры, заданные соответственно на множествах значений {хn, уm), хn и уm случайных величии (Xn, Уm), Хn и Уm.
[Сборник рекомендуемых терминов. Выпуск 94. Теория передачи информации. Академия наук СССР. Комитет технической терминологии. 1979 г.]
EN  
FR  

Тематики

  • теория передачи информации

EN

  • mutual information between two random variables

 

Внимание!

Закрыть