Информационная энтропия — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.
Количество информации – в теории информации это количество информации в одном случайном объекте относительно другого. Пусть и – случайные величины, заданные на соответствующих множествах и . Тогда количество информации относительно есть:
где
, — условная энтропия, в теории передачи информации она характеризует шум в канале.