Вы здесь

Коммуникационная сложность (2017). Лекция 8

Лекция
Предмет:
Дата записи:
02.04.17
Дата публикации:
24.04.17
Код для блога:

Энтропия пары случайных величин и ее связь с энтропиями самих случайных величин. Условная энтропия. Общая информация. Независимость и информация. Информационные неравенства и их вывод с помощью релятивизации. Диаграмма двух и трех случайных величин. Цепное правило.

Пример, когда общая информация трех случайных величин отрицательна. Связь количества информации со статистическим расстоянием через неравенство Пинскера.

Страница лекции на CSClub