Предмет настоящей статьи – тенденции в соотношении порядка и хаоса, и точнее, форм упорядочения по степени их сложности – в материальном, вещественном бытии.
Данная проблематика рассматривается в онтологическом и аксиологическом ключе, при этом широко привлекаются данные частных наук. Сходные по терминам закономерности отражённого бытия, собственно гносеологический аспект выводится за рамки настоящего исследования как неуместный, инородный.
Динамика структурности обнимает чрезвычайно богатый спектр масштабных явлений и проблем – от неорганической и биологической эволюции, техногенеза, культурного процесса до проблем дефиниции общественного прогресса, аксиологических критериев, смысла истории и личностной экзистенции.
Аспект динамики структурности шире того, что принято выводить под термином самоорганизация, поскольку первый также охватывает всякие процессы разупорядочения, разрушения, в том числе не укладывающиеся в русло естественной эволюции, и стало быть, предполагает широкий анализ деструктивных проявлений homo sapiens – будь то в аспекте психопатогенеза личности, (суб)культуры или в плане прогрессирующего вытеснения человеком других животных видов, подрыва баланса фито-зоо- масс и прочей энвайронменталистской проблематики.
Итак, для характеристики состояний упорядоченности – разупорядоченности мы используем такие понятия как форма, структура, система, сложность, им обратные – бесформенность, бесструктурное, деформация..., также неделимость, суммативность и другие. Рассмотрим их кратко.
Возможно вы искали - Доклад: Алгоритм развития для науки
Форма (в русском языке встречается также греческий корень морфэ) и структура – весьма близкие термины. Форма – исходное в истории философии понятие, ведущее к анализу структуры объекта. С одной стороны, оно означает наружный вид вещи, внешние очертания, с другой – строение, внутренняя организация содержания, закон вещи.
Наиболее развитую концепцию формы построил в своё время Аристотель. Он заметил, что всю реальность можно свести к последовательным переходам от материи к форме и обратно, причём форма выступает «сутью бытия», его «первой сущностью». Именно она дарует определённость и действительность вещам в противоположность материи – неопределенной, бесформенной лишь возможности вещей.
И структура, и система используются для характеристики упорядоченного целого – как совокупности элементов и их связей. При этом понятие структура (по лат. строение) практически означает «совокупность устойчивых связей объекта», а в понятии система акцент делается на качестве образования быть целостным (само слово по-гречески означает целое, составленное из частей), это понятие более полно охватывает разнохарактерные связи и взаимодействия целого и включает элементы.
Структура выражает то, что остаётся устойчивым, (относительно) неизменным при всех преобразованиях системы. Другими словами, это инвариант (-ный аспект) системы. Структура выступает интегрирующим фактором системы и детерминирует её качество.
Термин система используется для именования практически любого образования, проявляющего признаки упорядочения, и включает «жёсткий», инвариантный и «флюидный», вариантный аспекты упорядочения. Возьмём, например, определение системы, данное одним из основоположников общей теории систем Л.Берталанфи, как «комплекса взаимодействующих элементов» (к исходным относится и такое: система есть отграниченное множество взаимодействующих элементов) [1]. Под эти определения подпадает как одноклеточный или многоклеточный высокоразвитый организм, так и, пожалуй, немного спрессованное содержимое мусорной корзины.
Похожий материал - Реферат: Использование приваренных термопар на токонесущих поверхностях
Итак, структура предполагает «жёсткий», высококогерентный тип упорядочения, структура – это всегда порядок. В дальнейшем такой тип упорядочения – устойчивый, интегрирующий, структуру будем обозначать через символ s. Очевидно, этот символ будет прилагаться и к форме как закону вещи.
Особый интерес представляет проблема сложности и определения её меры.
Один из пионеров исследования сложности систем, Г.Н.Поваров, полагал, что «рост сложности систем выражается, во-первых, в увеличении числа элементов системы и, во-вторых, в возникновении между элементами всё более разнообразных и протяжённых связей, всё более гибкого и тонкого взаимодействия» [2]. Используя в качестве критерия сложности число элементов и характер их взаимодействия, он разграничивал:
малые, или простые, системы – с числом элементов порядка 101 ...104 . Их взаимодействие имеет определённый, детерминированный характер, что позволяет проследить поведение систем во всех деталях. Таковы классические машины;
большие, или сложные, системы – с числом элементов порядка 104 ...106 и выше, и гораздо более сложным, массовым, стохастическим взаимодействием между элементами. Это, например, автоматические телефонные станции, заводы-автоматы, системы управления ракетами и космическими аппаратами;
Очень интересно - Доклад: Экономика знаний
наконец, превращающиеся, или ультрасложные системы – с числом элементов порядка 107 ...108 [2].
В целом этот подход к оценке сложности привлекает своей простотой и позитивностью. В ряде случаев, как нам кажется, здесь могут быть получены адекватные оценки (упорядоченной) сложности объекта. В то же время другие авторы замечают, что число элементов может быть определено лишь после того, как будет известно системообразующее свойство (концепт) и структура системы, поэтому для построения шкалы сложности систем целесообразно полностью отвлечься от числа элементов [3].
На наш взгляд, проблема здесь прежде всего в том, что к понятию сложность следует подходить дифференцировано: сложность упорядоченного и сложность неупорядоченного суть существенно разные сложности. Если сложность аддитивной совокупности связана с количеством и разнообразием подчас случайным образом пространственно смежных элементов и их положений, то сложность упорядоченного (далее будем говорить и упорядоченная сложность) предполагает определённое количество и качество внутренних связей, ограничивающих свободу движения и положения элементов.
В этой связи понятно, что сложность структуры (а это всегда упорядоченная сложность) – достаточно позитивная, грамотная, способная надёжно работать абстракция, тогда как сложность системы совмещает два разнородных типа сложности воедино, отсюда многоэлементные слабо интегрированные, делимые образования могут казаться высокосложными объектами. Сложность эта, однако, имеет мало отношения к упорядоченной сложности. В этой связи сложность системы следует признать весьма неудовлетворительной, неаккуратной, непозитивной абстракцией.
Итак, в качестве ключевого термина мы выбираем структурность, который трактуем как – сложность или меру сложности структур (структуры) = сложность (высококогерентного) упорядочения = упорядоченную сложность. Данный термин достаточно точен и лаконичен. Данной сущности для будущих кратких ссылок и математизации ставим в соответствие символ s'.
Вам будет интересно - Доклад: Пленочные абсорберы
Сложность неупорядоченного, хаотического выводится за рамки настоящего рассмотрения.
Теория информации дала дополнительные концептуальные средства оценки сложности.
Связь между энтропией и вероятностью была установлена Л.Больцманом и выражается его знаменитой формулой:
H=a·lnW,
где H – энтропия, W – термодинамическая вероятность состояния.
Похожий материал - Реферат: Использование процессов, присущих объемному взрыву в различных областях народного хозяйства
Позже, в работах Э.Шредингера, было предложено более широкое понимание энтропии – как меры дезорганизации систем любой природы, а К.Шеннон заметил, что математическое выражение количества информации совпадает с формулой Больцмана. Наконец, Н.Винер в 1948г. констатировал, что «количество информации, будучи отрицательным логарифмом величины, которую можно рассматривать как вероятность, по существу есть некоторая отрицательная энтропия» [4].
Взаимосвязь понятий энтропии и информации нашла отражение в формуле H + I = 1.
Таким образом, уровень упорядоченности ряд авторов предлагает считывать по энтропии – например: количество информации, необходимой для перехода от некоторого уровня организации n – 1 к более высокому уровню n, определяется как разность энтропий:
∆I (t – τ) = Hn–1 (t, τ) – Hn (t, τ),