Представленная таким образом модель эволюции предназначена для оценки на основе интенсивности генерации НЗ и с учетом фактора устойчивости идентифицировать признаки формирования перспективных (или неперспективных) направлений в различных наукоемких областях. Это направление является ведущим в деятельности ВЭБИС.
Исходя из предыдущих результатов следует, что значению энтропии Н0 = 0,38 (золотой пропорции) соответствует начальному моменту появления минимальной структуры ФИЛ с гауссовым распределением случайно величины истинности, состоящей всего из двух истинных фрагментов (I = 2). То есть всего лишь два истинных фрагмента МЭЗ обеспечивают долю 0,62 истинности всего НЗ (здесь доля 0,62 – в энтропийной мере). Это означает, что за счет «всего лишь» двух истинных фрагментов структурированный образ НЗ в левом полушарии на 62% симметричен целостному образу НЗ в правом полушарии.
Данную ситуацию можно пояснить следующей аналогией. Если у нас имеется некоторая кривая, то одна точка этой кривой ничего не говорит о поведении этой кривой. Если же мы возьмем вторую точку на кривой (например, с использованием метода наименьших квадратов), то мы получим хоть и самое грубое, но вполне «рабочее» представление о тенденции поведения этой кривой. Дальнейшее увеличение точек будут лишь улучшать количественно это представление, но качественный «скачок» появился при появлении второй точки.
Дальнейшие рассуждения относительно распространения полученных результатов на другие показатели можно построить, основываясь на очень важном для нас расширении понятия энтропия. В переводе с греческого термин энтропия entropia означает — поворот, превращение. С появлением теории информации и формулы Шеннона энтропией стали называть меру неопределенности (или беспорядка) распределения системы. Однако в последних серьезных исследованиях [4] на эту тему показано, что «трактовка энтропии реальной системы как меры беспорядка … никогда не была доказана» и далее: «тождественность энтропии с беспорядком и не может доказана в принципе». Беспорядок и энтропия совпадают лишь в ряде частных случаев, когда рассматриваются некоторые идеальные системы, но в широком смысле это не справедливо. Исходя из этих утверждений авторами [4, 6] показывается, хотя и не доказывается, а вводится в качестве определения, что энтропия характеризует прежде всего ширину распределения, или размах выборки, и это применимо для большинства реальных систем. Это простое по форме, но весьма конструктивное по сути обстоятельство позволяет нам перейти в оценках от энтропийной меры к мерам случайных разбросов непосредственно оцениваемых величин, т.е. к рублям, баррелям, метрам и т.д. При этом при увеличении ширины форма самого распределения становится более простой, а с уменьшением ширины – более сложной.
При увеличении I ширина распределения уменьшается, стремится к нулю, а энтропия Н также стремится к нулю, асимметрия между ФИЛ и ФИП при этом переходит в симметрию.
Так как золотая пропорция – это константа, появляющаяся при решении задачи гармоничного деления единичного отрезка, то применительно к некоторому количественному параметру, который входит в описание содержательной части НЗ, можно сказать, что при I = 2 его величина, например L, как величина целостная, представима в виде суммы двух составляющих:
случайной Lсл (несимметричная доля), имеющей гауссовый закон распределения f(x) с шириной Но = 0,38, и