Понятно, о чём идёт речь, но только терминология очень необычная. Натуральное хозяйство Вы называете "человеком". Это, конечно, очень странно. Отсюда - и моё непонимание предыдущих постов.
Функции (функциональные обязанности), которые выполняет человек, Вы называете связями. Здесь, пожалуй, можно согласиться. В кибернетическом смысле связь - это ограничение на возможные состояния объектов. Тогда смысл Ваших рассуждений можно представить так: в результате разделения труда уменьшается количество ограничений, накладываемых на поведение человека. Следовательно, повышается энтропия. Я бы уточнил: энтропия поведения человека. С таким выводом в какой-то мере можно согласиться, хотя есть, наверное, и исключения из общего правила.
Кроме указанного Вами вида энтропии, в экономике рассматривают также энтропию технических систем. Каждая вновь созданная технология создаётся на основе огромного числа ранее созданных технологий (например, телега содержит в себе в качестве технического достижения колесо, микросхема - транзистор, компьютер - микросхему и громадные число разных программных и технических решений). Создание каждой новой технической системы интерпретируется как установление дополнительных связей, то есть снижение энтропии (естестественно, совсем других систем, по сравнению с теми, которые рассматриваете Вы).
По поводу термодинамической (Больцмана) и информационной (Шеннона) энтропии. Между ними существует отношение "больше или равно". Пусть M - число возможных состояний системы. Энтропия Больцмана S=k logM (k - постоянная Больцмана, но это уже чистая физика, универсальный смысл имеет логарифм M). Обозначим logM как H0. Это и есть универсальная статистическая энтропия (определение, пригодное не только для физических, но и для любых других систем). Энтропия Шеннона H совпает с H0 только в ситуации, когда все состояния системы равновероятны, то есть когда вероятность каждого состояния P(X)=1/M. В других случаях H<H0.
|