WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!


Pages:     | 1 |   ...   | 10 | 11 || 13 | 14 |   ...   | 34 |

Модель 1. Рассмотрим многоэлементную детерминированную двухуровневую организационную систему (ОС), состоящую из центра и n агентов. Стратегией агента является выбор действий, стратегией центра – выбор функции стимулирования, то есть зависимости вознаграждения каждого агента от его действий и, быть может, действий других агентов или других агрегированных показателей их совместной деятельности.

Обозначим yi Ai – действие i-го агента, i N = {1, 2, …, n} – n Ai множеству агентов, y = (y1, y2,..., yn) A' = – вектор дейстi=вий агентов, y-i = (y1, y2, …, yi-1, yi+1, …, yn) A-i = Aj – обста ji новка игры для i-го агента.

Предположим, что i-ый агент характеризуется параметром ri i 1, называемым его типом и отражающим эффектив+ ность деятельности агента, i N. Вектор типов всех агентов обозначим r = (r1, r2, …, rn).

Пусть результат деятельности z A0 = Q(A’, ) организационной системы, состоящей из n агентов, является функцией (назы ваемой функцией агрегирования) их действий: z = Q(y, ), где – параметр, отражающий «технологию» деятельности и характеризующий центр. Интересы и предпочтения участников ОС – центра и агентов – выражены их целевыми функциями. Целевая функция центра является функционалом (, z) и представляет собой разность между его доходом z, где может интерпретироваться как рыночная цена, и суммарным вознаграждением (z, r), выплачиваемым агентам:

n (z, r) = (z, r), i i=где i(z, r) – стимулирование i-го агента, (z, r) = (1(z, r), 2(z, r), …, n(z, r)), то есть n (1) ((), z,, r) = z – (z,r).

i i=Целевая функция i-го агента является функционалом fi(i, yi, ri) и представляет собой разность между стимулированием, получаемым им от центра, и затратами ci(yi, ri), то есть:

(2) fi(i(), z, y, r) = i(z, r) – ci(y, ri), i N.

Отметим, что индивидуальное вознаграждение i-го агента в общем случае явным или неявным образом зависит от действий и типов всех агентов (случай сильно связанных агентов [171]).

Примем следующий порядок функционирования ОС. Центру и агентам на момент принятия решений о выбираемых стратегиях (соответственно – функциях стимулирования и действиях) известны целевые функции и допустимые множества всех участников ОС, а также функция агрегирования. Центр, обладая правом первого хода, выбирает функции стимулирования и сообщает их агентам, после чего агенты при известных функциях стимулирования выбирают действия, максимизирующие их целевые функции.

Рассмотрим случай, когда центр наблюдает только результат деятельности ОС, от которого зависит его доход, но не знает и не может восстановить индивидуальных действий агентов, то есть, имеет место агрегирование информации – центр имеет не всю информацию о действиях агентов, а ему известен лишь некоторый их агрегат.

Обозначим P() – множество реализуемых действий (выбираемых агентами при данной системе стимулирования). Минимальными затратами центра на стимулирование по реализации вектора действий агентов y A’ будем называть минимальное значение суммарных выплат элементам, при которых данный вектор действий является равновесием Нэша в игре агентов, то есть решение следующей задачи: (Q( y,), r) miny ), где i ()( iN (y) = {() | y P()}. Как и в одноэлементной ОС [169], гарантированной эффективностью (далее просто «эффективностью») стимулирования является минимальное значение целевой функции центра на соответствующем множестве решений игры:

(3) K((),,, r) = min ((), Q(y, ),, r).

yP( ()) Задача синтеза оптимальной функции стимулирования заключается в поиске допустимой системы стимулирования *, имеющей максимальную эффективность:

(4) *(,, r) = arg max K((),,, r).

() В [171] доказано, что в частном случае, когда действия агентов наблюдаются центром, и типы агентов также достоверно известны n центру, оптимальной (точнее – -оптимальной, где = ) i i=~ является квазикомпенсаторная система стимулирования, завиK сящая от наблюдаемых действий агентов:

ci ( y*,ri ) + i, yi = yi* ~ (5) i K =, i N, yi yi* 0, где i – сколь угодно малые строго положительные константы, i N, а оптимальное действие y*, реализуемое системой стимулирования (5) как единственное равновесие в доминантных стратегиях (РДС) [83], является решением следующей задачи оптимального согласованного планирования [44]:

~ y*(r) = arg max { H (y) – ( y, ri ) }, ci yA iI ~ где H () – функция дохода центра, зависящая от наблюдаемых действий агентов.

Определим множество векторов действий агентов, приводящих к заданному результату деятельности ОС:

Y(z, ) = {y A’ | Q(y, ) = z} A’, z A0.

В [163] доказано, что в случае наблюдаемых действий и типов агентов минимальные затраты центра на стимулирование по реализации вектора действий y A’ равны суммарным затратам агентов ( y,ri ). По аналогии вычислим: минимальные суммарные ci iN затраты агентов по достижению результата деятельности z An *(z,, r) = min ci(y, ri), а также множество действий yY ( z, ) i=n Y*(z,, r) = Arg min ci(y, ri), на котором достигается соот yY ( z, ) i=ветствующий минимум.

Введем относительно параметров ОС следующие предположения, которые, если не оговорено особо, будем считать выполненными в ходе всего последующего изложения материала настоящего раздела:

А.3.1. i N Ai – отрезок 1 с левым концом в нуле.

+ А.3.2. i N 1) функция ci() непрерывна по всем переменным;

2) yi Ai, ri i ci(yi, ri) неотрицательна и не убывает по yi и не возрастает по ri, i N;



3) ri i ci(0, ri) = 0, i N.

А.3.3. Функции стимулирования принимают неотрицательные значения.

А.3.4. Q: A’ 1 A0 m – однозначное непрерывное ото+ бражение, где 1 m n.

А.3.5. x A0, 0 y’ Y(x, ), i N, yi Proji Y(x, ) cj(yi, y’-i) не убывает по yi, j N.

Фиксируем произвольный результат деятельности x A0 и произвольный вектор y*(x,, r) Y*(x,, r).

Утверждение 3.1. При использовании центром следующей оптимальной системы стимулирования ci ( y*(x,, r), ri ) + i, z = x * (6) (z,, r) =, i N, ix z x 0, вектор действий агентов y*(x,, r) реализуется как единственное РДС с минимальными затратами центра на стимулирование равными *(x,, r).

Доказательство утверждения 3.1 практически повторяет доказательство теоремы 4.5.1 в [171] и опускается.

На втором шаге решения задачи стимулирования ищется наиболее выгодный для центра результат деятельности ОС x*(,, r) A0 как решение задачи оптимального согласованного планирования:

(7) x*(,, r) = arg max [ x – *(x,, r)].

xAВ [171] доказана «теорема об идеальном агрегировании в моделях стимулирования», которая утверждает, что в случае, когда функция дохода центра зависит только от результата деятельности ОС, эффективности стимулирования одинаковы как при использовании стимулирования агентов за наблюдаемые действия, так и при стимулировании за агрегированный результат деятельности.

Этот результат справедлив и в рассматриваемой модели при условии, что центру известны: цена, функции затрат агентов (то есть, параметры {ri}) и технология производства.

Подставляя (7) и *(x*(,, r),, r) в (1) получаем зависимость целевой функции центра (которую можно рассматривать как его прибыль) от параметров, и r:

(8) F(,, r) = x*(,, r) – *(x*(,, r),, r).

Если параметр интерпретируется как внешняя (экзогенно заданная) стоимость единицы результата деятельности ОС, то, варьируя два оставшихся параметра – и r, центр может оптимизировать свою «прибыль», то есть, максимизировать выражение (8).

Таким образом, мы осуществили переход от «микромодели» (задачи синтеза оптимальной функции стимулирования), в которой описывалось взаимодействие центра с подчиненными ему агентами, к «макромодели», отражающей эффективность технологии деятельности агентов – сотрудников заданной квалификации – в зависимости от внешних условий (см. выражение (8)). Другими словами, получена возможность рассматривать оптимизационные задачи, не акцентируя внимания на аспектах активности участника и задачах управления агентами (отражаемыми в теоретико-игровых моделях стимулирования с агрегированием информации).

Понятно, что, как изменение технологии, так и квалификации r (эффективности деятельности) сотрудников – агентов – требует определенных затрат, которые будем описывать функциями c(1, 2) и сr(r1, r2), отражающими затраты центра соответственно на изменение технологии с 1 0 на 2 0 и изменение вектора типов с r1 на r2.

Относительно функций затрат предположим следующее: если 2 1, то c(1, 2) 0, если 2 1, то c(1, 2) 0, если r2 r1, то cr(r1, r2) 0. Обозначим (0, r0) – начальное состояние (до реализации ОП) ОС.

Возникают следующие три (две частных и одна общая) задачи:

1. Задача развития персонала. При заданных, и r0 определить r, максимизирующее целевую функцию центра (8) с учетом затрат на изменение квалификации персонала:

(9) F(,, r) – cr(r0, r) max.

r 2. Задача развития центра (совершенствования технологии деятельности). При заданных, r и 0 определить 0, максимизирующее целевую функцию центра (8) с учетом затрат на изменение технологии:

(10) F(,, r) – c(0, ) max.

3. Задача комплексного развития. При заданном начальном состоянии (0, r0) определить конечное состояние ( 0, r ), максимизирующее целевую функцию центра (8) с учетом затрат на изменение технологии и квалификации персонала:

(11) F(,, r) – c(0, ) – cr(r0, r) max0.

r, При известных зависимостях F(), c(), cr() задачи (9)-(11) являются стандартными оптимизационными задачами. Приведем пример их решения.

Пример 3.1. Пусть агенты имеют квадратичные функции затрат типа Кобба-Дугласа: ci(yi, ri) = yi2 /2ri, i N, а оператор агрегирования: Q(y, ) = yi.

iN * Тогда yi (x,, r) = x ri / R, где R =, ri iN *(z,, r) = x2 / 2 2 R, x*(,, r) = 2 R, F(,, r) = 2 2 R / (отметим, что в рассматриваемом примере имеет место идеальное агрегирование).

Если c(0, ) = exp { – 0}, cr(r0, r) = exp {r – r0}, то R* = R0 + ln (2 2 / 2 ), а * определяется из решения следующего трансцендентного уравнения (если условие второго порядка не выполнено, то на максимальную величину необходимо накладывать ограничения): 2 [R0 + ln (2 2 / 2 )] = exp { – 0}. • До сих пор мы рассматривали, фактически, статический случай, в котором решалась задача выбора конечного состояния при известном начальном (см. задачу комплексного развития выше), то есть процесс перехода от начального состояния к конечному не детализировался. В ОП во многих случаях существенным оказывается процесс перехода, поэтому сформулируем динамическую задачу комплексного развития.

Пусть имеются T периодов времени: t = 1, T, для которых известна (точно или в виде прогноза) последовательность цен {t}, t = 1, T. Известно также начальное состояние ОС (0, r0).

Требуется определить допустимые траектории развития персонала {rt t}, t = 1, T и изменения технологии {t 0}, t = 1, T, которые максимизируют суммарную дисконтированную (с коэффициентом ) полезность центра:





T (12) {F( t, t, rt) – c( t-1, t) – cr(rt-1, rt)} max.

{rtt, t 0}, t=1,T t=Для решения задачи (12) может быть использован метод динамического программирования.

Модель 2. Рассмотрим ОС с распределенным контролем (РК), включающую одного агента, характеризуемого функцией затрат c(y, s), y A, s S; и k центрами, характеризуемыми функциями дохода Hi(y, ri), где ri i, i K = {1, 2, …, k} – множеству центров. Целевая функция i-го центра имеет вид (13) i(i(), y, ri) = Hi(y, ri) – i(y), i K, а целевая функция агента:

(14) f((), y, s) = ( y) – c(y, s), i iK где () = (1(),.., n()).

Порядок функционирования таков – сначала центры одновременно и независимо выбирают свои стратегии – функции стимулирования, а затем при известных функциях стимулирования агент выбирает действие, максимизирующее его целевую функцию (14).

В [172] доказано, что при использовании центрами компенсаторных систем стимулирования существуют два режима взаимодействия центров (два типа равновесий их игры) – режим сотрудничества и режим конкуренции, причем последний неэффективен для системы в целом. Поэтому одной из основных задач управления ОС РК является обеспечение режима сотрудничества центров.

Введем следующие величины:

(15) Wi(s, ri) = max {Hi(y, ri) – c(y, s)}, i K, yA (16) x*(s, r) = arg max { Hi(y, ri) – c(y, s)}, yA iK где r = (r1, r2, …, rn) =, i iK (17) W*(s, r) = max { ( y,ri ) – c(y, s)}.

Hi yA iK По аналогии с [54, 73, 172] запишем область компромисса:

(18) *(r, s) = {i 0 | Hi(x*(s, r), ri) – i Wi(s, ri), i K;

= c(x*(s, r), s)}.

i iK В соответствии с результатами, полученными в [172], режим сотрудничества имеет место тогда и только тогда, когда множество (18) не пусто. Обозначим (19) * S* = {(r, s) S | *(r, s) }.

Пусть s0 S и r0 – начальные параметры ОС и известны затраты cs,r(s0, r0, s, r) по их изменению до значений s S и r, соответственно. Тогда возможны две постановки задачи.

Первая задача, которую условно можно назвать задачей выбора направления развития, заключается в определении таких значений параметров участников ОС из множества (19), при которых затраты на изменения минимальны:

(20) cs,r(s0, r0, s, r) min.

(s, r ) *S* Второй задачей является задача оптимального развития, которая заключается в выборе таких значений параметров участников ОС, при которых выигрыш ОС в целом (с учетом затрат на изменения) максимален:

(21) W*(s, r) – cs,r(s0, r0, s, r) maxS.

( s, r ) Задачи (20) и (21) являются стандартными задачами условной оптимизации. Термины «саморазвитие» и «самоорганизация» применимы к ним, так как они должны решаться центрами или метацентром, то есть участниками рассматриваемой ОС.

В заключение рассмотрения настоящей модели отметим, что все полученные результаты по аналогии с тем, как это делалось в [54, 73], могут быть обобщены на случаи: нескольких агентов с векторными предпочтениями, векторных предпочтений центров, многоуровневых ОС.

Результаты исследования двух приведенных в настоящем разделе моделей саморазвития в управлении ОП (см. также модели матричных структур управления в разделе 3.6) позволяют говорить о существовании единого подхода к описанию эффектов саморазвития и самоорганизации (см. также модели обучения менеджеров проектов в [56] и в шестой главе настоящей работы). Подход этот заключается в следующем: сначала описывается зависимость равновесного (в теоретико-игровом смысле) состояния ОС от параметров центра и агентов, характеризующих их свойства, которые могут изменяться. Затем вводятся затраты на целенаправленное изменение этих параметров, и решается задача определения таких их значений (или траектории их изменения), которые максимизировали бы эффективность функционирования ОС в будущем (или в процессе перехода из заданного начального состояния в конечное) с учетом затрат на «переход». Применение данного подхода к максимально широкому классу задач управления динамическими ОС представляется перспективным направлением будущих исследований.

3.5. СИНТЕЗ КОМПЛЕКСА МЕХАНИЗМОВ УПРАВЛЕНИЯ Приведем постановку задачи синтеза оптимального комплекса механизмов управления ОС. Пусть состояние ОС описывается вектором y = (y1, y2, …, yl) A = Ai, где yi Ai, iL i L = {1, 2, …, l}, и существуют глобальные ограничения A*:

y A’ A*.

Под механизмом u() будем понимать отображение множества значений управляемых переменных Mu L во множество значений управляющих переменных Ku L, то есть u: AMu AKu, где AMu = Ai, AKu = Ai. Будем считать, что множество iMu iKu допустимых механизмов таково, что для любого механизма u(), выполнены глобальные ограничения, то есть (1) = {u() | (yMu, yKu): yKu = u(yMu) (yMu, yKu) ProjMuKu(A*)}, где yMu =(yj)j Mu, yKu =(yj)j Ku.

Введем – подмножество множества допустимых механизмов, 2 – множеству всех подмножеств множества. Обозначим Q – множество всевозможных последовательностей элементов множества, q – произвольный элемент множества Q.

Множество механизмов назовем непротиворечивым, если (2) ¬ q Q: (u, …, v) q: Mu Kv.

Свойство непротиворечивости означает, что для данного набора механизмов не существует их последовательности, для которой нашлась бы переменная, которая была бы одновременно управляемой для первого механизма в этой последовательности и управляющей – для последнего.

Pages:     | 1 |   ...   | 10 | 11 || 13 | 14 |   ...   | 34 |










© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.