Здесь показатель -
это «количество изделий, изготовленное
работников Ивановым И.И цеха15,-69штук».
На основе показателей
строятся документы. Документ
- объект, содержащий информацию, оформленную
в установленном порядке, и имеющий с действующим
законодательством правовое значение.
Совокупность документов,
объединенных по определённому признаку,
образует массив.
Пример массива - множество финансовых
отсчетов предприятий некоторой отрасли.
Документ
или же документарная информация
Документ или же документарная информация – это фиксированная
на каком-либо носителе информация с реквизитами,
позволяющими ее идентифицировать.
Одной
из более распространенных мер измерения
информации (не считая ее натурального
количественного измерения) является
статистическая мера. Она связанная с
возможностью появления информации, другими
словами с вероятностью явления, события,
факта, информация о которых должна быть
получена.
Энтропия
Возможность
появления каждого явления или же события
описывает степень его неопределенности.
При этом чем больше или же чем меньше
вероятность появления какого-нибудь
события, тем меньше информации об этом
событии можно получить. Неопределенность
каждого события в теории информации характеризуется
энтропией. Энтропия замкнутого пространства
событий имеет вид:
, где N – общее количество
событий, ni –
количество однородных событий.
,
,
.
В теории информации
принято величину I=lоg2рi именовать количеством
информации о каком-либо событии i. Тогда
энтропия имеет возможность рассматриваться
как среднее количество информации о проявлениях
данного события (т.к. - среднее значение).
Функция H(р), с точки зрения математики
владеет следующими свойствами:
Непрерывна на интервале 0≤р≤1;
H(р) симметрична относительно р, т.е. ее значение не меняется при любой перестановке мест аргументов;
Если некоторое событие состоит из двух событий с вероятностями р1 и р2 так, что р1+р2=рk, то общая энтропия такого события находится как сумма энтропий неразветвленной системы и разветвленной при условных вероятностях.
q2
q2
рk
H(р1,…,рk-1,
рk)=H(р1,…,рk-1)+рkH(
).
Энтропия характеризуется следующими
свойствами:
Энтропия равна 0 в крайнем случае, когда вероятность появления одного события 1, а другого – 0;
Энтропия нескольких
событий имеет наибольшее значение (когда вероятности появления этих событий равны между собой).
Список литературы:
- Экономическая информация
и её особенности. Показатели качества
информации (http://www.bseu.by/it/tohod/sdo.htm).
- Понятие информации,
виды, свойства. http://any-book.org/download/61672.html .
- Информатика. Под редакцией В. В.
Трофимова. Учебник СПбГУЭФ (Москва 2010).
- Экономическая информация и её особенности.
Показатели качества информации.
- Информатика: аппаратные
средства персонального компьютера. В. Н. Яшин.
- http://www.coolreferat.com/Лекции_по_Информатике_3_часть=3
06.11.2014 Экономическая информация,
виды и особенности.
1 Термин «информация» ( от
латинского infоrmаtiоn) - 1 из самых знаменитых
в нашем лексиконе. В него вкладывается
широкий значение и, в большинстве случаев,
его изъяснение дается на интуитивном
уровне.