В основе классической (статической) теории информации лежит понятие информационной энтропии, определяемое К. Шенноном выражением:
Количественная оценка неопределенности наступления множества событий, имеющих различную вероятность, которая обращается в ноль при действительном наступлении одного из событий, позволила, по мнению Шеннона, рассматривать H как «разумную» количественную меру возможностей выбора.
Понятие «энтропия» широко используется как мера неопределенности. Эта мера имеет функциональный характер, поскольку используется как общий показатель деятельности системы.
Понятие «запаздывание в системе» – это некоторое количество времени (t) с момента посыла информации от управляющей системы к управляемой – запаздывание в реализации целей и задач организации управляемой системой.
yt —> yt + 1
Это понятие создает механизм обратной связи.
Понятие «разнообразие состояния». С ним мы сталкиваемся довольно часто, например, когда мы приходим в магазин и нам предлагают более чем 2 вещи.
Разнообразие измеряется в логарифмической шкале, где N – число состояний:
Существует также понятие «необходимое разнообразие в системах». Автор – У. Эшби. Оно звучит так : «Для управляемой системы требуется, чтобы разнообразие управляющей системы было не меньше разнообразия управляемой системы», т.е. например набор наших стратегий поведения или реализация каких-либо задач не должен быть меньше, чем у человека, которым мы управляем, или который нами управляет.