Реферат: Модель объективной закономерности извлечения информации из окружающей среды

«Законы науки являются отражением законов природы. Они открываются и формулируются учеными и, следовательно, представляют собой наши знания о законах природы.., иными словами, они являются идеальными (мысленными, понятийными) моделями законов природы» [1].

Раскрыть содержание того или иного объективного закона и сформулировать соответствующий ему научный закон вовсе не просто. История развития науки показывает, что открытие закона природы «обычно происходит не сразу, не до конца, а в форме неполного, приближенного, относительного знания. Лишь в дальнейшем, на каждой последующей ступени развития науки, смысл и содержание объективного закона раскрываются все глубже и полнее, а формулировка соответствующего научного закона постепенно уточняется и становится все более адекватной отражаемому им объективному закону. Это неполное соответствие между научным и объективным законами обусловлено прежде всего сложной структурой самой действительности» [1]. Так например, сначала был сформулирован закон сложения скоростей движущихся тел в рамках классической механики и лишь много лет спустя в релятивистской механике этот закон был существенно дополнен, хотя и классическая механика и релятивистская механика отображают наши знания об одном и том же объекте.

Стоит отметить, что информация является относительно новым объектом, свойства которого изучаются естествознанием, и нет ничего необычного в том, что не все ее свойства изучены достаточно полно.

Лемма Неймана – Пирсона, или как ее еще называют, фундаментальная лемма математической статистики [2] является одним из примеров научного закона, сформулированного на языке математической статистики, которому соответствует объективная закономерность изменения эффективности передачи информации на фоне помех. «... здесь справедливо говорить не о решении математической задачи, а о математическом решении задачи, объектом которой является физическая (материальная) система» [3]. В литературе этот научный закон рассматривается скорее только как лемма математической статистики, а не как модель, отражающая объективную закономерность передачи информации, которой подчиняется широкий класс объектов. Но именно эту объективную закономерность в области передачи информации открыли и описали Нейман и Пирсон в 1928 году, а в 1933 году привели и математическое доказательство своей правоты.

Если передачу информации по каналу связи можно рассматривать как процесс воспроизведения (отображения) на приемном конце (устройстве) букв некоторого алфавита, которые генерирует источник информации [4], то и обработку информации в системах управления различной природы (технических, биологических, социальных) можно рассматривать как процесс воспроизведения (отображения) на выходе устройства обработки некоторых состояний внешней (или внутренней) среды, которым однозначно соответствует та или иная целесообразная реакция системы управления, т.е., в конечном счете, и в этом случае дело сводится к выбору одного состояния из некоторого множества.

Возможно вы искали - Реферат: Микросерверы

Характерно, что и в том и другом случае выбор приходится производить на фоне помех. Таким образом, обнаружение сигналов и измерение их параметров в системах связи и информационно-измерительных комплексах, а также и обработка информации в системах управления могут рассматриваться с единых позиций – позиций решения задачи рационального (оптимального) выбора одного состояния из некоторого множества возможных состояний при наличии искажений (помех) в той информации, на основании которой должен быть произведен этот рациональный выбор.

Многие задачи из различных областей практической деятельности могут рассматриваться как задачи обработки информации или как задачи обнаружения сигналов и оценки их параметров (например, задача ранней диагностики какого-либо заболевания, навигационные задачи).

Фундаментальная лемма математической статистики является теоретическим обоснованием оптимальности многих алгоритмов обнаружения сигналов и оценки их параметров. При этом имеются в виду не только алгоритмы реализованные в технических системах, но и алгоритмы, изложенные в инструкциях и других руководящих документах, которые определяют порядок и логику действий тех или иных должностных лиц при решении практических задач, которые в информационном плане можно рассматривать как задачи обнаружения сигналов и оценки их параметров. Алгоритмы обнаружения сигналов и оценки их параметров, в основу которых положен критерий отношения правдоподобия (байесовский, максимума апостериорной вероятности, Неймана – Пирсона и др.), считаются оптимальными. Такая точка зрения и ее следствия в настоящее время являются общепринятыми и они нашли свое отражение в учебниках, монографиях, справочниках, энциклопедиях и отражены в литературе в виде описаний оптимальных алгоритмов обнаружения, измерения параметров и алгоритмов обработки разнообразной информации, которые воплощены в самых современных технических системах передачи, хранения и обработки информации. Можно предположить, что обработка информации в биологических системах, которые формировались под действием объективных факторов, а не под влиянием тех или иных научных теорий, в большей степени соответствует объективно существующей закономерности передачи информации на фоне помех, чем обработка информации в технических системах.

Формулировка научного закона, приведенная в [5] соответствует той же самой объективной закономерности о которой идет речь в лемме Неймана – Пирсона. Но модель этой объективной закономерности в [5 и 6] существенно отличается от модели той же закономерности, приведенной в лемме Неймана – Пирсона.

Что же общего в этих двух моделях, время появления которых разделяет интервал почти в 70 лет, и чем они отличаются друг от друга?

Похожий материал - Реферат: Высокоуровневые методы обработки информации и программирования

Для ответа на этот вопрос рассмотрим обе эти модели на примере элементарного акта передачи информации – процесса принятия решения о том, какой именно символ из двух возможных («0» или «1») был передан, на основании наблюдения текущих значений некоторой физической величины (переносчика сигнала) в течение некоторого временного интервала.

Принятие решения о каждом переданном символе производится по результатам нескольких независимых наблюдений (серии измерений) и наблюдателю известны моменты начала и окончания передачи каждого символа.

Результат каждого наблюдения зависит не только от переданного символа, но и от случайного значения помехи.

Наблюдателю известны условные плотности распределения значений наблюдаемой физической величины при передаче каждого символа.

Процедура принятия решения в обеих моделях состоит из трех этапов:

Очень интересно - Реферат: Схема СТР – технологии «компьютер – печатная машина»

этап 1 – каждому значению x наблюдаемой физической величины, зафиксированному при наблюдении, по определенному правилу ставится в соответствие значение y другой величины;

этап 2 – по результатам серии наблюдений одного временного интервала, в течение которого передается только один из двух возможных символов, вычисляется среднее значение (или сумма значений) y;

этап 3 – полученное среднее значение yср (или сумма значений) сравнивается с некоторым пороговым значением, которое устанавливается (принимается) до начала серии наблюдений, исходя из допустимых вероятностей ошибок первого и второго рода. Результат сравнения однозначно определяет решение («передан символ 0» или «передан символ 1»), которое должно быть принято по серии наблюдений.

По существу, во время первого этапа процедуры принятия решения, наблюдатель переходит от исходной наблюдаемой физической величины (x) к другой, вспомогательной (промежуточной, производной, вторичной) наблюдаемой величине (y), по совокупности значений которой во время заданного интервала времени он и принимает решение о том, какой из двух возможных символов был передан.

Сравниваемые модели различаются между собой лишь правилом, по которому каждому значению x исходной наблюдаемой физической величины ставится в соответствие значение y вспомогательной величины во время первого этапа процедуры принятия решения. То есть, сравниваемые модели различаются только правилом перехода от исходной наблюдаемой физической величины (x) к другой, вспомогательной наблюдаемой величине (y).

Вам будет интересно - Реферат: Версии и системные требования для работы с CorelDraw

В модели Неймана – Пирсона правило такого перехода описывается формулой [4]:

y=ln[W1 (x)/W0 (x)], (1)

где: y – вспомогательная наблюдаемая величина; W1 (x)/W0 (x) – отношение правдоподобия; W1 (x) – условная плотность распределения значений наблюдаемой физической величины при передаче символа «1»; W0 (x) – условная плотность распределения значений наблюдаемой физической величины при передаче символа «0».

В модели 1997 года, описанной в [5, 6], сформулированы требования, которым должна удовлетворять вспомогательная наблюдаемая величина (y) для достижения максимальной эффективности передачи информации на фоне помех. Эти требования состоят в том, чтобы условные распределения вспомогательной наблюдаемой величины (y) соответствовали минимуму выражения (2) [5, 6].

[(s0y zF + s1y zD )/(M1 – M0 )] → min, (2)

Похожий материал - Курсовая работа: Интернет-технологии в учебном процессе

где: (M1 – M0 )>0; s0y – среднеквадратичное отклонение значений y при приеме символа «0»; s1y – среднеквадратичное отклонение значений y при приеме символа «1»; zF – коэффициент, значение которого зависит от допустимых значений вероятности ошибок 1-го рода и вида функции распределения суммы накопленных значений y (на входе порогового устройства) при передаче символа «0» [7]; zD – коэффициент, значение которого зависит от допустимых значений вероятности ошибок 2-го рода и вида функции распределения суммы накопленных значений y при передаче символа «1» [7]; M0 – среднее значение (математическое ожидание) значений величины y при передаче символа «0»; M1 – среднее значение (математическое ожидание) значений величины y при передаче символа «1».

Как видно из (1), в модели Неймана – Пирсона значения вспомогательной наблюдаемой величины (y) зависят только от отношения W1 (x)/W0 (x) в точке x. В модели 1997 года значения вспомогательной наблюдаемой величины (y) зависят не только от текущего значения исходной наблюдаемой физической величины (x), но и от шести параметров, два из которых определяются допустимыми вероятностями ошибок 1-го и 2-го рода.

В 1913 году Н.Бор сформулировал важный методологический принцип, получивший название принципа соответствия. «Согласно этому принципу всякая более общая теория включает в себя старую теорию: старая теория получается из новой при предельном переходе к определенным значениям определяющих ее параметров. Так, законы квантовой механики переходят в законы классической физики при условии, что можно пренебречь значением кванта действия, а законы теории относительности переходят в законы классической механики при условии, что скорости движущихся тел или частиц малы по сравнению со скоростью света. Следовательно, новая теория не отменяет старую, а лишь уточняет границы, в которых эта старая теория продолжает действовать» [1].

Как показали результаты исследований [8], обобщенный критерий [9], учитывающий закономерность изменения эффективности накопления сигнала двоичного кода [5], при значении параметра сигнал/шум близком к 0 (менее 0,5) совпадает по своим результатам с критерием отношения правдоподобия, хотя значения этих критериев вычисляются по совершенно разным правилам. Зато при значении параметра сигнал/шум порядка 1 и более эти разные правила приводят и к разным результатам: с ростом отношения сигнал/шум эффективность алгоритмов, учитывающих установленную закономерность (т.е. модель 1997г.), существенно возрастает, по сравнению с эффективностью существующих оптимальных алгоритмов, основанных на использовании критерия отношения правдоподобия.