WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!


Pages:     | 1 |   ...   | 28 | 29 || 31 | 32 |   ...   | 34 |

2(1+ (r)) Записывая условия возрастания этого выражения по r, получаем, что при ’(r) 0 оно влечет выполнение условия (17).

Const=0.Const=Const=Const=r Рис. 57. Примеры зависимости (r), удовлетворяющей (17) «Линейная» система мотивации. Пусть центр использует пропорциональную систему стимулирования (18) L(y, r) = (r) y со ставкой оплаты (r), зависящей от типа агента. Тогда, подставляя (18) в (5), получаем, что агент, имеющий функцию затрат типа Кобба-Дугласа, выберет действие (19) y*((), r) = r ((r))1 / (–1).

Выигрыш агента при этом равен (20) ((), r) = r ((r)) / (–1) (1 – 1/).

Задача мотивации, решаемая центром, заключается в том, чтобы найти зависимость (r), такую, что (20) не убывает с ростом типа агента r r0, а выигрыш центра при этом максимален.

Если функция дохода центра линейна (как и предполагалось выше), то для неотрицательности выигрыша центра достаточно, чтобы имело место:

(21) (r).

Содержательно, условие (21) означает, что центр не может, побуждая агента увеличивать его тип, устанавливать ставки оплаты, большие, чем предельный доход центра от деятельности агента (этот качественный вывод останется в силе и при вогнутой возрастающей функции дохода центра).

Из анализа (20) следует, что ставка оплаты может и снижаться с ростом типа агента, однако не слишком быстро. Ограничение снизу дается следующим утверждением.

Утверждение 6.8. Для побуждения агента к развитию зависимость ставки оплаты (r) от типа агента в линейной системе стимулирования должно удовлетворять следующему условию:

(r) -(22) -.

(r) r Например, при = 2 ставка оплаты может уменьшаться с ростом типа агента, но «не быстрее», чем.

r Отметим, что при постоянной ставке оплаты агенту выгодно увеличивать свой тип (см. (20)). Содержательно, этот вывод обусловлен тем, что при использовании центром линейной системы стимулирования вида (18) с постоянной ставкой оплаты выигрыш агента от выбора действия (19) положителен (при > 1 он строго больше нуля, в отличие от нулевого выигрыша при использовании центром компенсаторной системы стимулирования (3)) и пропорционален типу агента.

Кроме того, аналогичный утверждению 6.7 результат можно получить и для модели «линейного» стимулирования – если развитие агента выгодно центру, то оно выгодно и агенту.

Полученные в настоящем разделе результаты позволяют не только находить ограничения на системы стимулирования, обеспечивающие мотивационную роль последних, но и оценивать максимальные затраты агента на повышение своего типа, при которых оно еще выгодно. Так, если известна функция C(r0, r) затрат на повышение типа агента со значения r0 до значения r r0, то повышение типа будет выгодно агенту, если выполнено C(r0, r) (r ) – (r0), где () определяется используемой системой стимулирования (см.

выражения (15) и (20)).

Таким образом, в настоящем разделе показано, что традиционная компенсаторная система стимулирования не побуждает агента к развитию. Сформулирована задача управления саморазвитием (задача мотивации), которая заключается в нахождении класса систем стимулирования, побуждающих агента к саморазвитию (увеличению своего типа). Получены условия, при выполнении которых развитие агента, выгодное центру, оказывается выгодным и для агента. Для «компенсаторных» и «линейных» систем стимулирования найдены ограничения на их параметры (утверждения 6.и 6.8), обеспечивающие требуемый мотивационный эффект.

Завершив рассмотрение модели мотивации, отметим, что перспективными направлениями дальнейших исследований являются:

изучение задач мотивации нескольких взаимосвязанных агентов, а также исследование «траекторий» развития персонала под влиянием той или иной системы мотивации.

6.4. УПРАВЛЕНИЕ ОБУЧЕНИЕМ В предыдущем разделе было показано, как, решая задачу стимулирования, получить зависимость выигрышей участников организационной системы (центра и агента) от типа агента. Имея эту зависимость, можно ставить и решать задачи управления обучением, которое в рамках рассматриваемого класса моделей заключается в предоставлении возможности агенту повысить свой тип.

Выше мы рассматривали задачу мотивации, которая состояла в создании условий для того, чтобы агенту было выгодно повышать свой тип (чтобы у него оставались ресурсы, получаемые в результате стимулирования, которые он мог бы и хотел бы направить на свое развитие). Однако обучение требует и ресурсов, и времени, поэтому учтем эти факторы в рассматриваемых ниже моделях (начиная с простых – отражающих минимальное число факторов – и постепенно переходя к все более сложным).

6.4.1. «Статический» случай. Предположим, что известны зависимости выигрыша центра (r) и агента (r) от типа агента, где r– начальное значение типа. Эти зависимости могут быть получены в результате решения задач стимулирования так, как это делалось в предыдущем разделе. Если известна функция C(r0, r) затрат на повышение типа агента со значения r0 до значения r r0, то возможны следующие варианты:

- если затраты на повышение типа компенсируются самим агентом, то повышение типа будет ему выгодно, если выполнено (1) C(r0, r) (r ) – (r0);

- если затраты на повышение типа агента компенсируются центром, то ему это будет выгодно и агент согласится на повышение типа (обучение), если выполнено условие (8) предыдущего раздела (функция (r) монотонна по r) и (2) C(r0, r) (r ) – (r0);

- если затраты на повышение типа агента компенсируются совместно агентом и центром, то им это будет выгодно и агент согласится на повышение типа (обучение), если обе функции – (r) и (r) – монотонны по r и (3) C(r0, r) (r ) – (r0) + (r ) – (r0).



Условие (3) означает, что центр и агент смогут найти взаимовыгодную пропорцию, в которой им следует поделить затраты на обучение. Понятно, что, если они, действуя совместно, не смогут компенсировать затраты на обучение, то, тем более, они не смогут сделать это по одиночке.

Приведенные условия можно трактовать и в обратную сторону – выражения (1)-(3) позволяют оценить максимальные затраты Cmax(r0, r) на обучение, с которыми согласятся участники организационной системы при той или иной схеме распределения затрат между ними. Приведем пример оценки максимальных затрат на обучение.

Пример 6.5. Пусть функция дохода центра H(y) = 2 y, c(y, r) = y 2/2 r, и центр использует линейную систему стимулирования с постоянной ставкой, то есть: L(y) = y.

В зависимости от ставки оплаты и своего типа агент выберет действие (4) y*(, r) = r.

Оптимальное с точки зрения центра значение ставки оплаты равно:

(5) *(r) = ( / 4 r)1/3.

Вычисляем зависимости выигрышей центра и агента от типа агента:

(6) (r) = 3 2/3 r 1/3 2-2/3, (7) (r) = 2/3 r 1/3 2-7/3, Видно, что выигрыш центра превосходит выигрыш агента, поэтому, если в рассматриваемом примере ресурсов центра не хватит для компенсации затрат на обучение, то не хватит и ресурсов агента.

Функции (6) и (7) являются монотонными, то есть увеличение типа агента выгодно и агенту и центру (см. также утверждение 6.7). Сумма выигрышей центра и агента равна (r) + (r) = 2/3 r 1/3 (325/3 + 1) 2-7/3.

Значит условия (1)-(3) примут соответственно вид:

1/ Cmax(r0, r) 2/3 2-7/3 [r 1/3 – r0 3 ];

1/ Cmax(r0, r) 3 2/3 2-2/3 [r 1/3 – r0 3 ];

1/ Cmax(r0, r) 2/3 (325/3 + 1) 2-7/3 [r 1/3 – r0 3 ]. • 6.4.2. Потеря квалификации. В силу постоянно увеличивающейся скорости развития технологий, постоянство квалификации уже не означает владения сотрудником некоторым фиксированным объемом знаний, наличия определенных умений и навыков – оно требует овладения новыми технологиями, что может достигаться путем переподготовки и повышения квалификации, ведь конкурентоспособная, обучающаяся организация это, в первую очередь – обучающиеся и развивающиеся в профессиональном плане сотрудники.

Поэтому рассмотрим модель, в которой в отсутствии обучения тип агента монотонно уменьшается со временем. Задача центра (будем считать, что затраты на обучение персонала несет организация43) заключается в том, чтобы найти оптимальные моменты начала обучения (переподготовки, повышения квалификации и т.д.) сотрудников.

Предположим, что со временем тип агента изменяется по закону r(t), t 0, где r() – невозрастающая функция. В начальный момент времени агент обладает типом r0. Затраты на обучение – повышение типа от текущего значения до начального – составляют C(r), где C() – убывающая функция (содержательно, чем большее уменьшение типа произошло, тем выше затраты на его «восстановление»). Задача заключается в выборе такого промежутка времени Отдельной перспективной задачей, выходящей за рамки настоящего исследования, представляется определение оптимальных затрат организации на поиск информации о новых технологиях и их внедрение.

0 между очередными обучениями, которое максимизировало бы средний по времени44 выигрыш центра:

(8) [ (r(t))dt – C(r())] max.

Задачу (8) назовем задачей выбора периодичности обучения (или задачей о частоте обучения). При известных функциях (), r() и C() задача (8) является стандартной оптимизационной задачей.

Отметим определенное сходство рассматриваемой задачи и задачи управления запасами [197], которая в простейшем своем варианте заключается в следующем: требуется определить периодичность пополнения запаса на складе и объем партии, которые минимизировали бы потери, связанные с закупкой, хранением товара и возможным его отсутствием в продаже.

Кроме того, следует подчеркнуть, что задача (8) может интерпретироваться и как задача определения момента увольнения сотрудника – вместо обучения старого сотрудника, утратившего свою квалификацию и ставшего в силу этого неэффективным, организация может нанять в момент времени нового сотрудника, обладающего требуемой квалификацией r0. При этом величина C(r) будет отражать затраты организации на увольнение (выходное пособие и т.д.) старого сотрудника и привлечение (поиск, адаптация и т.д.) нового сотрудника.

Если функции затрат на обучение и увольнение/привлечение различаются, то можно ставить и решать задачу принятия решений о том, что выгоднее для организации (и в какой момент времени) – обучать старого сотрудника или уволить его и нанять нового с более высокой квалификацией.

На Рис. 58 представлены две различных «политики обучения» – зависимости от времени типа агента для двух случаев – когда обучение проводится относительно часто и относительно редко (2 > 1).

Будем считать, что дисконтирование отсутствует.

r 1 rt 2 1 51 Рис. 58. «Политики» обучения Приведем два примера решения задачи (8).

Пример 6.6. Пусть (r) = r, r(t) = r0 exp (- t), C(r) = C0. Тогда решение задачи (8) удовлетворяет следующему уравнению:

С(9) (1 + ) exp (- ) = 1 –.

rЛевая часть выражения (9) убывает по, поэтому из (9) следует, что чем выше затраты на обучение, тем реже следует его проводить, и чем выше начальный тип агента, тем чаще следует проводить обучение. • Пример 6.7. Пусть (r) = r, r(t) = r0 (1 – t), C(r) = C0. Тогда решение задачи (8) имеет вид:





2С(10) =.

rИз (10) следует, что чем выше затраты на обучение, тем реже следует его проводить, и чем выше начальный тип агента (а также чем выше скорость уменьшения типа и чувствительность выигрыша центра к типу агента), тем чаще следует проводить обучение. • 6.4.3. Упущенная выгода. До сих пор рассматривалась модель обучения «без отрыва от производства» – сравнивались выигрыши участников ОС от изменения типа агента при условии, что тип изменялся мгновенно. Это не всегда так – иногда обучение требует снижение занятости сотрудника в рамках его должностных обязанностей, вплоть до полного прекращения их выполнения.

Исследуем сначала крайний случай – когда на время обучения 0 сотрудник не участвует в «производственном» процессе.

Тогда необходимо рассматривать целесообразность обучения с точки зрения агента и с точки зрения центра, причем будем считать, что оба несут потери, равные упущенному выигрышу (упущенной выгоде) от выполнения агентом своих должностных обязанностей в период обучения.

Обозначим 0 – продолжительность обучения, T 0 – плановый горизонт (горизонт дальновидности центра и агента). Пусть известно значение типа r() в зависимости от продолжительности обучения. Пусть также задана зависимость затрат C() на обучение от его продолжительности. Будем пока считать, что в отсутствии обучения тип агента остается постоянным.

Условие выгодности обучения для агента заключается в том, что его выигрыш, полученный за время после обучения, превосходит выигрыш за весь плановый период в отсутствии обучения (при типе, равном начальному типу r0):

(11) (r()) (T – ) (r0) T.

Если центр несет затраты на обучение агента, то условие выгодности для первого обучения второго заключается в следующем:

выигрыш центра, полученный за время после обучения, за вычетом затрат на обучение, превосходит выигрыш за весь плановый период в отсутствии обучения:

(12) (r()) (T – ) – С() (r0) T.

Обозначим множество выгодных всем участникам системы продолжительностей обучения (13) S = { [0; T] | (11), (12)}.

Получаем задачу о продолжительности обучения, то есть, задачу нахождения оптимальных по Парето продолжительностей обучения *, являющихся решением задачи (14) ((r()) + (r())) (T – ) – С() max.

S Задача (14) является стандартной задачей условной оптимизации. Приведем пример ее решения.

Пример 6.8. Воспользуемся результатами примера 6.5: пусть функция дохода центра H(y) = 2 y, c(y, r) = y 2/2 r и центр использует линейную систему стимулирования с постоянной ставкой, то есть: L(y) = y. Тогда зависимости выигрышей центра и агента от типа агента имеют вид:

(r) = 3 2/3 r 1/3 2-2/3, (r) = 2/3 r 1/3 2-7/3, (r) + (r) = 2/3 r 1/3 (325/3 + 1) 2-7/3.

Пусть затраты на обучение пропорциональны его продолжительности (то есть существует ставка c0 оплаты за единицу времени обучения): C() = c0, а «эффективность» обучения описывается зависимостью r() = R – (R – r0) exp (- ), где R r0 – максимальный для данного агента при заданной технологии обучения тип.

Условие (11) примет вид:

r0 T (15) R – (R – r0) exp (- ).

(T - )Обозначим a – значение продолжительности обучения, при которой (15) обращается в равенство.

Условие (12) примет вид:

c((r0)1/ 3 T + )32 / 32-2 / 3.

(16) R – (R – r0) exp (- ) (T - )Обозначим p – значение продолжительности обучения, при которой (16) обращается в равенство.

Легко видеть, что p a, поэтому в рассматриваемом примере S = [0; p]. Целевую функцию (14) можно записать в виде 2/3 (R – (R – r0) exp (- ))1/3 (3 25/3 + 1) 2-7/3 – с0.

Эта функция вогнутая. Обозначим 0 – точку ее максимума.

Тогда решение задачи о продолжительности обучения имеет вид:

* = min {p,0}. • До сих пор мы считали, что во время обучения сотрудник не участвует в «производственном» процессе. Можно обобщить предложенную модель на случай, когда в период обучения часть [0; 1] своего времени сотрудник тратит на обучение, а оставшееся время (доля которого составляет 1 – ) – работает в организации.

Приведенная выше постановка задачи изменится следующим образом. Условие выгодности обучения для агента заключается в том, что его выигрыш, полученный за время обучения при «неполной занятости» и за период после обучения, превосходит выигрыш за весь плановый период в отсутствии обучения (при типе, равном начальному типу r0):

(17) (1 – ) (r(t))dt + (r( )) (T – ) (r0) T.

Если центр несет затраты C(, ) на обучение агента, то условие выгодности для первого обучения второго заключается в следующем: выигрыш центра, полученный за время обучения при «неполной занятости» агента и за время после обучения, за вычетом затрат на обучение, превосходит выигрыш за весь плановый период в отсутствии обучения:

(18) (1 – ) (r(t))dt + (r()) (T – ) – C(, ) (r0) T.

Обозначим множество выгодных всем участникам системы пар продолжительностей обучения и долей времени, выделяемого на обучение (19) S0 = {(; ) [0; T] [0; 1] | (17), (18)}.

Получаем задачу о выборе продолжительности обучения и доли времени, выделяемого на обучение:

(20) (1 – ) ((r(t)) + (r(t)))dt + + ((r()) + (r())) (T – ) – С(, ) max.

( ; )SЗадача (20) является стандартной задачей условной оптимизации.

Pages:     | 1 |   ...   | 28 | 29 || 31 | 32 |   ...   | 34 |










© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.