Пидхомный О.М. Управление инвестиционными процессами на финансовых рынках (2003)

3.2. Информация как фактор управления

История возникновения, внедрение в научный обиход и дальнейшее развитие понятия информации являются, первоначально развивался количественный аспект, а качественный аспект ограничивался первоначально интуитивными представлениями об информации как о различных сообщения. Когда исследование количественного аспекта понятия информации продвинулось достаточно далеко, особенно благодаря работам Р. Хартли и, главным образом, К. Шеннона и его сотрудников, а также благодаря вкладу ученых, развивали смежные области математических и физических исследований, когда было сформулировано понятие количества информации и изобретены объективные методы ее ва, тогда возникла задача более глубокого толкования качественного аспекта информации. Характерно, что не только количественный, но и качественный аспект понятия и теории информации разрабатывались в тесной связи с развитием теории вероятностей и статистической физики. И это наложило свой отпечаток не только на количественное понимание информации, но и на понимание ее природы.

После того, как Р. Хартли связал информацию с исключением возможности (Информации тем больше, чем больше при ее получении исключается возможностей) и на основе этой идеи показал, что количество информации пропорционально к числу выборов и является мерой неопределенности выбора из конечного числа возможностей, началось более глубокое осмысление этого понятия.

Основой и исходным пунктом для более глубокого Содержательный понимания природы информации стало открытие К. Шенноном объективной меры количества информации. Преодолев присущ Р. Хартли психологический подход к решению проблемы устранения неопределенности выбора, К. Шеннон доказал, что эта проблема имеет строгое математическое решение в виде функции:



(Где К-постоянная, определяет единицу измерения), которая удовлетворяет все условия уменьшения неопределенности наступления событий. Поскольку вид этой функции совпадает с выражением для энтропии в статистической физике, величину Н часто также называют энтропией совокупности вероятностей p ..



Сопоставление понятий теории информации с понятиями и идея-ми термодинамики, статистической физики и теории вероятностей привело создателей кибернетики к понимание природы информации как некой объективной упорядоченности, организованности, структурности, а количества информации как меры или величины выражает уровень этой упорядоченности. Содержание положений Н. Винера об информации как мере организации сводится к тому, что содержание внешней среды входит в управляющую систему в виде организованной множества состояний сигнала, и эта организация является образом, отражением источника этой информации. именно благодаря тому, что информация, которая является выражением организованности, упорядоченности сигнала, вместе с тем является образом источники, становится возможным адекватная реакция управляющей системы на внешняя среда, то есть управление.

Наступление эры обчислювльних машин породило стремление решать новые практические задачи, исходя из все более и более сложных моделей, ускорило потребность в получении и обработке все более сложной и неточной информации. Значительная часть этой информации недоступна в форме точных, четко определенных чисел, и чисто символьная обработка данных может быть недостаточной. По разным причинам - из-за несовершенство методов наблюдения или вследствие того, что во многих случаях человек (эксперт) является единственным источником сведений, - информация является неточной, противоречивой, неполной. Поэтому с возникновением информатики, разработка теорий, средств и методов представления и анализа неточности и неопределенности (в том числе субъективной неопределенности) становится важной целью, частично обуславливает прогресс как самой информатики, так и дисциплин, которые ее используют.

наблюдениях получить точную информацию практически невозможно, а если и возможно, то она зачастую оказывается малополезной и трудно поддается интерпретации. Это именно тот самый случай, когда анализируется функционирование сложной или многомерной системы. Упрощенная модель обеспечивает время более понятный информацию, чем подробная и более точная модель. Этот принцип несовместимости связан со способом восприятия и размышления в его основе лежат обобщенные, схематизированные, следовательно, СООТВЕТСТВЕННО, неточные субъективные представления о реальности.