INFORMATIONAND SIGNAL THEORYINTHE ECONOMIC-MATHEMATICAL MODELING
Abstract and keywords
Abstract (English):
The article deals with the application of information and signal theory in economic-mathematical modeling. An alternative supplies hypothesis testing procedure is described on the basis of an information criterion.

Keywords:
economic-mathematical modeling, entropy, signal theory, informationcriterion, hypothesis.
Text
  1. Введение

Теорию информации относят к дополнительным главам теории вероятностей, которая специально рассматривает сигнальную специфику случайных процессов. Если же рассматривать результат экономического или социального процесса, как модель сигнала, можно с принципиально новых позиций  получить ответы на вопросы о ценности информации, емкости информационного поля.Для экономики с её финансовыми кризиса­ми классическая экономическая теория и статистика, построенные на линейных равновесных моделях,оказываются малопродук­тивными или, более того, неадекватными. В течение последней трети XX в. исследователи, работающие над проблемами физики распознавания образов, передачи информации, управления информационными потоками, а также в ряде других областей на­правляли свои усилия на обнаружение общих черт в нелинейных процессах, протекающих в сложных системах. С математической точки зрения, хаотический характер поведения сложных систем  в большей степени обусловлен тем, что моделируемые преобразования, происходящие с системой, носят нелинейный характер.Системы с хаотическим поведением были обнаруже­ны в гидродинамике, физике лазеров, химической кинетике, астро­физике, биофизике, экологии, при обработке больших массивов данных сложной структуры в сейсмике [7,11]. Зарождение нелинейной парадигмы, включающей в себя энтропийную метрику, было предопределено уровнем развития науки и  для анализа экономических процессов. Вплоть до 90-х годов XX в. при использовании инструментария классической статистики в экономико-математическом моделировании домини­ровала линейная парадигма. Согласно этой парадигме каждое воз­действие на начальные условия вызывает пропорциональную реак­цию получаемого результата. Однако рынки редко бывают столь устойчивыми и на незначительные возмущения могут реагировать нелинейно. По отношению к динамике социально-экономических систем и процессов теория хао­са не только объясняет бифуркационные явления (большие паде­ния или большие выбросы), но прямо говорит нам, что их невоз­можно предсказать. По этой причине многие рыночные технические аналитики обоснованно предположили, что распознать в хаотичес­ком движении новые закономерности им поможет фрактальная теория. В экономике и финансах стали применяться фрактальные статистики, связанные с именем Херста. Так, при построении новых стохастических моделей ценообразования в стандартизованные методики расчета, например, по базовым формулам Ито или Блэка-Шоулса, вводят фрактальную статистику Херста, как дополнительный учет меры хаоса. Современные консалтинговые компании применяют фрактальную статистику Херста к оценке доходности акций при анализе инвестиционно-финансовой привлекательности компании. По существу, основная задача показателя Херста – отличить случайный числовой ряд от неслучайного, даже если этот случайный ряд не гауссовый, т.е. вероятностное распределение не является нормальным. В то же время адекватной количественной мерой неопределенности финансового состояния компании, охватывающей в своем анализе значимые финансовые факторы,  может быть выбрана  энтропийная метрика. В этой связи финансовая система компании может быть структурирована по подмножествам элементов, образованных ее финансовыми показателями. Тогда элементы системы и ее связи будут определять вероятностное пространство состояний системы предприятия. В работах [9,10,13] были выделены подмножества финансовых показателей и связаны со случайными величинами, образующими вероятностные пространства соответствующих показателей. При таком подходе отклонения  энтропии могут интерпретироваться как показатель риска, заменяющий дисперсию. Еще раз отметим, что при оценке рисков экономико-математические методы изучения и управления информационными процессами исследователи начинают использовать аппарат теории информации, а именно, энтропийный подход. Так, автором в [12] была решена задача минимизации рисков портфелей электроэнергетических проектов в Турции с использованием показателей энтропии в качестве меры риска вместо дисперсии. Следовательно, показатели энтропии могут быть использованы на  этапе оценки проектных рисков.

  1. Мера информации

 Первую логарифмическую меру информации предложил Хартли в 1928г. Шеннон и Винер, независимо друг от друга, опубликовали в 1948г. работы, в которых были описаны логарифмические меры информации в практически применяемой форме. Упрощенно мы можем определить информацию, содержащуюся в послании, как отрицательную энтропию или отрицательный логарифм вероятности. При этом, чем больше вероятность послания, тем меньше информации оно содержит.  Базисным понятием теории информации является понятие энтропии. Энтропия – мера неопределенности некоторой ситуации. Можно также назвать ее мерой рассеяния, и в этом смысле она подобна дисперсии. Но если дисперсия является адекватной мерой рассеяния лишь для специальных распределений вероятностей случайных величин (а именно – для двухмоментных распределений, в частности, для гауссова распределения), то энтропия не зависит от типа распределения. Кроме универсальности энтропия обладает свойством аддитивности. Именно такая удобная, с практической точки зрения, мера неопределенности была введена К. Шенноном:

,

здесь Х – дискретная случайная величина;

 – вероятность того, что случайная величина примет значение .

С некоторыми трудностями, энтропийный подход удалось обобщить на непрерывные случайные величины (введением дифференциальной энтропии). Использование формы дифференциальной энтропии известных распределений позволяет получать количественные закономерности в замкнутой аналитической форме [8,14].

 В основе всей теории информации лежит открытие, что информация допускает количественную оценку. Не останавливаясь на том, как развивалось и обобщалось понятие количества информации, дадим сразу ее современное толкование. Определим теперь количество информации как меру снятой неопределенности: числовое значение количества информации о некотором объекте равно разности априорной и апостериорной энтропии этого объекта, т.е.

Остановимся еще на одном важном моменте. До сих пор речь шла о среднем количестве информации, приходящемся на пару состояний объектов X и Y. Эта характеристика естественна для рассмотрения особенностей стационарно функционирующих систем, когда в процессе функционирования принимают участие всевозможные пары .Однако в ряде практических случаев оказывается необходимым рассмотреть информационное влияние конкретной пары состояний, оценить содержание информации в конкретной реализации сигнала, емкость «полезного» сигнала. Некоторые сигналы несут информации намного больше, чем другие, например, в контексте выбираемых управленческих инициатив. Допуская существование количественной меры информации, в конкретной паре естественно потребовать, чтобы индивидуальное и среднее количество информации удовлетворяли соотношению (в дискретном случае):


Тогда мерой индивидуальной информации может служить информационная плотность

в дискретном случае

.

В непрерывном случае информационная плотность имеет вид

.

Следующий пример показывает, как использовать информационный показатель для выбора статистической гипотезы о «полезности» сигнала информации.

 

  1. Пример использования информационного критерия для проверки гипотезы об альтернативных поставках – альтернативные информационные потоки

 

Известно, что проводимая либерализация энергетических рынков приводит к разделению компаний, расширению доступа к инфраструктурным объектам, появлению новых участников рынка и площадок биржевой торговли. В результате изменяются как содержание, так и направленность информационных потоков между участниками рынка. Эти потоки информации становятся более сложными и менее предсказуемыми. Возникает явление ассиметричности информации между участниками рынка. С одной стороны, информационная асимметрия создается специально государственными регулирующими органами между компаниями поставщиками и компаниями транзитерами с целью снижения их влияния на рынок.  В то же время ассиметричность информации является одним из следствий несовершенства рынка и может привести к неоптимальному распределению экономических ресурсов. Например, избыточному финансированию инвестиций в транспортную инфраструктуру, завышению транспортных тарифов, усилению ценовых колебаний. Так, в этих условиях компания транспортировщик не имеет полной информации по планируемым объемам поставок и должна полагаться на различные источники информации. Это приводит к неоптимальному использованию инфраструктуры и дополнительным вложениям в инфраструктуру. Для прогнозирования инвестиций в инфраструктуру компании необходимо учитывать не только информацию EXPOST, представляющую статистические данные о загруженности транспортных мощностей, но и новые информационные рыночные сигналы, моделируемые случайным вектором Y –управленческие решения в смежных областях, государственные директивы, возможности новых участников рынка, рынок товаров субститутов. В этой связи требуется разработка новых инструментов оценки ценности информации. Пусть на основании анализа выборки (т.е. совокупности наблюдений по изучаемым объемам поставок ) требуется отдать предпочтение одной из конкурирующих гипотез –ассиметричным условиям поставок, если построены гипотетические распределения наблюдений по каждой из гипотез. Возникает мысль о том, чтобы вычислить индивидуальное количество информации Y, представленное случайным векторомв выборке X по каждой из гипотез, и сравнить их. В теории информации используется информационное расстояние для оценки «полезного» сигнала Y. Сравнение информации по двум «полезным» сигналам может быть задано информационным расстоянием в качестве информационного критерия

.

Известно, что в теории информации задача обнаружения «полезного» сигнала может сводиться к принятию одной из альтернативных гипотез:

– в случайном векторе есть значимый сигнал; –  значимый сигнал отсутствует.

Эта задача сводится к оптимальному разбиению вероятностной  области  наличия сигналов на две подобласти. При этом если статистический вектор результатов опыта оказывается в области соответствующей большей вероятности, то принимается гипотеза о наличии сигнала. В математической статистике проверка гипотез о сравнении двух распределений осуществляется с помощью функции правдоподобия общего вида.

Пусть  – выборка, представляющая вектор одинаково распределенных, независимых случайных величин. Рассмотрим две альтернативные гипотезы:

; .

.

Введем в рассмотрение, например, параметр , тогда принимается вторая гипотеза, если вероятность расположения случайного вектора в , содержащего «полезный» сигнал, больше 50%. Такой критерий предусматривает сравнение следующего отношения(функция правдоподобия)

  – с параметром с, относя к критической области ту часть , где это отношение больше значения заданного параметра. Причем в этом случае получаем один не обязательно оптимальный критерий.  Если же требуется получить критерий с заданным или если необходимо варьировать размер критической области с учетом заданной мощности критерия, то рассматривают класс похожих критериев со свободными параметрами[5].  Например, если вторая  вероятность превосходит первую  в c раз, то выбираем вторую, а иначе – первую.

В теории информации рассматривают функцию правдоподобия вида отношения условных вероятностей, при учете условия о «полезном» сигнале – случайном векторе (например, моделируемом показатели, описывающие «полезные» управленческие инициативы). При двух заданиях «полезного» сигнала имеем две альтернативные гипотезы, описанные выше, с функцией правдоподобия вида

.

Оптимальный критерий соответственно имеет вид

.

Для статистического анализа рассматривается выборка в виде пара , где случайный вектор  X задает характеристики поставок(цены, транспортные издержки, амортизацию и другие), векторы  – количественная информация об этих характеристиках в соответствии с вводимыми альтернативными гипотезами.

В заключение отметим, что для системного экономического анализа и экономико-математического моделирования теория информации имеет прикладное значение. Во-первых, ее конкретные методы позволяют провести ряд количественных исследований информационных потоков в изучаемой среде. Важным методологическим аспектом является эвристическое значение основных понятий теории информации – неопределенности, энтропии, количество информации, избыточности, пропускной способности и ряда других.  Использование этих понятий актуально для понимания и прикладного моделирования системных процессов не только в технических, но и в гуманитарных областях, экономике. Системный анализ неизбежно выходит на количественное исследование ресурсов, которые потребуются для решения сложной  проблемы. В этом случае информационные ресурсы будут играть далеко не последнюю роль наряду с материальными, энергетическими и временными. Авторы надеются привлечь внимание коллег к энтропийному подходу в анализе данных, имеющих не стандартное распределение. Изучение понятий и методов теории информации, как дополнительной главы в теории вероятностей, может также быть интересным при организации проектных исследовательских работ в университете [14,15,16].

References

1. Kolmogorov A.N. Izbrannye trudy. Teoriya informacii i teoriya algoritmov.- M.: Nauka, 1987. – 303 s.

2. Yaglom A.M., Yaglom I.M. Veroyatnost' i informaciya. M.: Nauka, 1973. – 512s.

3. Martin N., Inglend Dzh. Matematicheskaya teoriya entropiy. M.: Mir. 1988. –251s.

4. A. Gjendemsjo (ed.).InformationandSignalTheory – Houston: Rice University, 2006. – 98p.

5. BorovkovA.A. Matematicheskayastatistika.M.: Mir. 1984. – 472s.

6. Feller V. Vvedenie v teoriyu veroyatnostey i ee prilozheniya.M. : Mir.1984. – 738s.

7. Zhuravlev V.I., Lukk A.A., Sidorin A.Ya., Ryzhkova T.V. Fraktal'nye harakteristiki mnozhestv seysmicheskih sobytiy pri uchete faktora vremeni // Fizika Zemli. – 2001. – № 3. – S. 34.

8. Ryzhkova T.V. Maksimizaciya entropii standartnyh raspredeleniy // Fundamental'nye fiziko-matematicheskie problemy i modelirovanie tehniko-tehnologicheskih sistem. – 2016. – № 17. – S. 238–249.

9. Ryzhkova T.V.Entropiynye pokazateli finansovoy sistemy predpriyatiya // Vestnik MGTU Stankin. – 2012. – № 2. – S. 124–127.

10. Ryzhkova T.V.Entropiynyy analiz investicionnoy privlekatel'nosti kompanii // Vestnik Rossiyskogo ekonomicheskogo universiteta im. G.V. Plehanova. – 2010. – № 6. – S. 89–100.

11. Zhuravlev V.I., Lukk A.A., SidorinA.Ya., Ryzhkova T.V. Time-dependent fractal characteristics of sets of seismic events // Izvestiya. Physics of the Solid Earth. 2001. T. 37. № 3. S. 223-233.

12. Bozhenko E.V.Entropiynyy podhod k ocenke elektroenergeticheskih proektov v Turcii// Fundamental'nye fiziko-matematicheskie problemy i modelirovanie tehniko-tehnologicheskih sistem. – 2016. – № 17. – S. 45–53.

13. Ryzhkova T.V.Entropiynaya ocenka konkurentosposobnosti kompanii // V mire nauchnyh otkrytiy. – 2010. – № 6-1. – S. 94–95.

14. Ryzhkova T.V. Model' differencial'noy entropii finansovyh pokazateley Mezhd.nauchno-prakt.konf.,posv.105-letiyu REU im.G.V. Plehanova «Metody kolichestvennyh issledovaniy processov modernizacii ekonomiki i social'noy sfery», Moskva, 2012, – C. 248–252.

15. Mahina T.Yu., Ryzhkova T.V., Tushkanov D.A., Chistyakova N.A. Ocenka tvorcheskogo potenciala studenta na primereolimpiady «Prakticheskaya stohastika - 2013» v REU im. G.V. Plehanova // Izvestiya Rossiyskogo ekonomicheskogo universiteta im. G.V. Plehanova. – 2014. – № 4 (18). – S. 161–178.

16. Ryzhkova T.V., Tushkanov D.A., Chistyakova N.A. K voprosu ob organizacii samostoyatel'noy raboty studentov (na primere kafedry vysshey matematiki REU im. G.V. Plehanova) // Izvestiya Rossiyskogo ekonomicheskogo universiteta im. G.V. Plehanova. – 2015. – № 4 (22). – S. 411–431.

Login or Create
* Forgot password?