Неопределенность, разнообразие и энтропийные характеристики системы. Принцип необходимого разнообразия У. Эшби

    В основе классической (статической) теории информации лежит понятие информационной энтропии, определяемое К. Шенноном выражением:

    Количественная оценка неопределенности наступления множества событий, имеющих различную вероятность, которая обращается в ноль при действительном наступлении одного из событий, позволила, по мнению Шеннона, рассматривать H как «разумную» количественную меру возможностей выбора.

    Понятие «энтропия» широко используется как мера неопределенности. Эта мера имеет функциональный характер, поскольку используется как общий показатель деятельности системы.

    Понятие «запаздывание в системе» – это некоторое количество времени (t) с момента посыла информации от управляющей системы к управляемой – запаздывание в реализации целей и задач организации управляемой системой.

    yt —> yt + 1

    Это понятие создает механизм обратной связи.

    Понятие «разнообразие состояния». С ним мы сталкиваемся довольно часто, например, когда мы приходим в магазин и нам предлагают более чем 2 вещи.

    Разнообразие измеряется в логарифмической шкале, где N – число состояний:

    Существует также понятие «необходимое разнообразие в системах». Автор – У. Эшби. Оно звучит так : «Для управляемой системы требуется, чтобы разнообразие управляющей системы было не меньше разнообразия управляемой системы», т.е. например набор наших стратегий поведения или реализация каких-либо задач не должен быть меньше, чем у человека, которым мы управляем, или который нами управляет.

    © StrategPlann 2009