WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!


Pages:     | 1 |   ...   | 27 | 28 || 30 | 31 |   ...   | 34 |

Будем считать, что все показатели переведены в такую шкалу, что чем выше значение каждого из показателей, тем эффективнее в целом деятельность работника (это всегда можно сделать, взяв в случае необходимости соответствующую величину с обратным знаком, или вычислив обратные величины).

Пусть на множестве показателей деятельности сотрудника задана целевая функция организации – оценка организацией эффективности деятельности сотрудника F(x): n 1, которая моно+ тонно возрастает по всем переменным, является гладкой и имеет выпуклые множества уровня (последнее предположение содержательно означает, что любая линейная комбинация двух векторов показателей деятельности, имеющих одинаковую эффективность, характеризуется не большей эффективностью).

Пусть задано начальное значение x0 вектора показателей деятельности (например, в случае первичной адаптации это – те значения показателей, которыми работник характеризуется в момент поступления на работу) и фиксирован горизонт времени T. Количественно адаптации в данном случае будет соответствовать изменение с течением времени значений компонент вектора показателей деятельности сотрудника (их увеличение). Целью организации будем считать максимизацию средней эффективности деятельности сотрудника за период времени [0; T]:

T (1) K(x()) = F(x(t))dt max.

x() T Задачу (1) можно назвать задачей поиска политики адаптации, а последовательность значений показателей x(t), t [0; T] – траекторией адаптации.

Возможным принципом выбора траектории адаптации является следующий – траектория должна удовлетворять семейству (параметр – функция (t)) дифференциальных уравнений F(x) (2) x(t) = (t) || F(x) || с начальным условием x(0) = x0, где |||| обозначает норму в n.

Другими словами, с точки зрения организации в каждый момент времени изменение вектора показателей деятельности сотрудника должно совпадать с направлением максимально быстрого роста эффективности (направлением, определяемым нормалью к линии уровня целевой функции организации).

Такой принцип принятия решений является достаточно простым. Содержательно он отражает политику («близорукую») локальной оптимальности и нередко встречается на практике.

Тогда оптимальным с точки зрения критерия (1) будет максимально быстрое движение вдоль траектории, определяемой (2).

Такую траекторию назовем оптимальной «близорукой» политикой адаптации.

До сих пор, формулируя задачу (1), мы ничего не говорили об ограничениях. Учитывать их необходимо, хотя бы потому, что способность человека (как и любой системы) к изменениям ограничена. Точнее – существуют ограничения на максимальную скорость изменений. В самом общем виде эти ограничения могут быть записаны в следующем «покоординатном» виде:

(3) x(t) G(x,t), или в виде ограничения на «абсолютную величину» скорости изменений:

(4) || x(t) || G0(x,t).

Задача (1), (3) или (1), (4) является типовой задачей оптимального управления и может быть решена в каждом конкретном случае. Однако, для того, чтобы получить простые аналитические и содержательно интерпретируемые решения, вернемся к семейству решений (2).

Рассмотрим следующий вариант ограничений, являющийся частным случаем условия (4):

(5) || x(t) || G0, где G0 – неотрицательная константа.

Из (2) и (5) получаем ограничение (6) (t) G0.

Утверждение 6.6. Оптимальной «близорукой» политикой адаптации является решение уравнения (2) при (7) (t) = G0 t 0.

Приведем иллюстративный пример.

Пример 6.2. Пусть n = 2, F(x1, x2) = a (x1)2 + b (x2)2. Тогда из (2) и (7) получаем:

a G0 x1 b G0 xx1(t) =, x2(t) =.

(a x1)2 + (b x2)2 (a x1)2 + (b x2)Другими словами относительные скорости изменения показателей деятельности сотрудника должны быть пропорциональны важности этих видов деятельности с точки зрения организации:

x1(t) a x1(t) =.

x2(t) b x2(t) То есть, оптимальной «близорукой» политикой будет кривая вида x2 = (x1)b/a. На Рис. 56 приведены линии уровня целевой функции организации при a = 1, b = 2, x0 = 0. Оптимальной «близорукой» политикой адаптации является пунктирная кривая, проходящая через начальную точку x0. Движение по этой кривой происходит с постоянной скоростью G0. • Рис. 56. Оптимальная «близорукая» политика адаптации в примере 6.Приведем пример ситуации, в которой «близорукая» политика адаптации не является оптимальной.

Пример 6.3. Пусть функция F() симметрична относительно перестановки аргументов. Содержательно это означает, что все показатели деятельности сотрудника одинаково важны с точки зрения организации. Из (2) следует, что оптимальной является равномерная «близорукая» политика адаптации, то есть, удовлетворяющая (8) xi(t) = (t), i N.

Пусть на скорости изменений наложены ограничения:

(9) xi(t) Gi, i N.

Тогда оптимальной «близорукой» политикой адаптации будет траектория с одинаковыми скоростями прироста всех показателей, равными минимальному из ограничений:

(10) xi(t) = min {Gi}, i N.

iN Легко видеть, что оптимальная «близорукая» политика адаптации (10) не является оптимальным решением задачи (1) при данных ограничениях – например, большее значение функционала (1) может быть достигнуто, если скорости изменений каждого из показателей являются максимально возможными:

xi(t) = Gi, i N. • Таким образом, в настоящем разделе описана модель профессиональной адаптации персонала. Для ряда частных случаев решена задача синтеза оптимальной политики адаптации. Перспективным направлением дальнейших исследований в этой области представляется поиск аналитических решений для случаев, когда ограничения на скорость изменения показателей деятельности сотрудников зависят от времени и текущих значений этих показателей40.



На практике распространены ситуации, когда, например, для рабочих на период адаптации устанавливаются пониженные нормы, а с ростом стажа и опыта работы нормы и требования к результатам деятельности растут.

6.3. МОТИВАЦИЯ Проблемы мотивации и стимулирования являются предметом исследований специалистов по теории управления социальноэкономическими системами на протяжении нескольких десятилетий. Современное состояние этого направления отражено в монографиях [164, 209, 230, 233].

Основная идея заключается в следующем (см. пятую главу):

центр должен найти такую систему стимулирования, которая побуждала бы агента выбирать наиболее выгодные для центра (с учетом затрат на стимулирование) действия. Решение этой задачи состоит из двух этапов: на первом этапе – этапе согласования – центр ищет минимальную (требующую от него наименьших затрат) систему стимулирования, которая побуждала бы агента выбрать заданное действие (в силу гипотезы рационального поведения [83] агент выбирает те действия, которые доставляют максимум его целевой функции). На втором этапе – этапе согласованного планирования – центр решает, какое из действий агента следует реализовывать (побуждать агента выбрать).

Рассмотрим базовую (простейшую) задачу стимулирования.

Предположим, что целевая функция центра представляет собой разность между его доходом H(y), зависящим от действия агента y A – множеству допустимых действий, и неотрицательным стимулированием (y):

(1) ((), y) = H(y) – (y).

Целевая функция агента равна разности между стимулированием, получаемым от центра, и затратами агента c(y):

(2) f((), y) = (y) – c(y).

Определим действие агента, требующее от него минимальных затрат: yLCA = arg min c(y).

yA Известно [163], что в рамках рассматриваемой модели оптимальной является компенсаторная система стимулирования:

c(x) - c(yLCA), y = x (3) K(x, y) =, 0, y x где переменная x A является планом – желательным с точки зрения центра действием агента.

Далее для простоты будем считать, что A = 1, а функция за+ трат является неубывающей, положительнозначной и c(0) = 0.

Тогда yLCA = 0.

Оптимальным является план x*, который может быть получен в результате решения задачи оптимального согласованного планирования:

(4) x* = arg max [H(y) – c(y)].

yA Таким образом, решением задачи стимулирования является компенсаторная система стимулирования (3) с планом (4).

Завершив краткий обзор базовой задачи стимулирования, отметим, что она заключается в побуждении агента к совершению тех или иных действий (при этом под действием обычно понимается переменная, отражающая результаты выполнения сотрудником своих функциональных обязанностей). С точки зрения развития персонала цель стимулирования и мотивации заключается в побуждении агентов к развитию или саморазвитию. Поэтому рассмотрим модель мотивации, которая отражает «динамику» (точнее – возможность изменения) характеристик агента, влияющих на эффективность его деятельности, то есть на то, какие действия он выбирает, какие затраты при этом несет, и какой доход при этом получает центр.

Переменная, отражающая все существенные характеристики агента, называется его типом41. Обозначим r 1 – тип агента и предположим, что от него зависят затраты, то есть c = c(y, r).

Будем считать, что затраты уменьшаются с ростом типа. Условно развитием можно считать увеличение типа агента. Например, повышая квалификацию, он может выполнять те же действия с меньшими затратами, или за то же время достигать больших количественных результатов, или повысить качество производимой им продукции и т.д.

Предположим, что тип агента известен центру. Подставляя функцию затрат c(y, r) в (3), получаем, что минимальные затраты Следует признать данный термин неудачным, так как в психологии «тип» отражает качественную (а не количественную) классификацию объектов.

Однако, все же мы будем использовать данный термин, следуя сложившейся в экономико-математическом моделировании традиции.

центра на стимулирование по реализации действия x 0 равны c(x, r), то есть зависят как от плана, так и от типа агента.

При использовании компенсаторной системы стимулирования выполнять план агенту выгодно, однако в силу (2) и (3), даже при выполнении плана, агент, независимо от своего типа, получает нулевое значение полезности (значение его целевой функции равно нулю). Так как получаемая агентом полезность не зависит от его типа, то агент будет безразличен к его изменениям – у него не будет стимулов повышать свой тип, даже если такая возможность представится. Таким образом, компенсаторная система стимулирования не побуждает агента к развитию. Следовательно, необходима разработка и исследование системы стимулирования (мотивации), побуждающей агента к увеличению своего типа.

Существуют несколько возможных подходов к решению этой проблемы.

Первый подход используется в теории контрактов и заключается в следующем. Если центру неизвестен тип агента или агентов (примером ненаблюдаемого явно типа могут служить способности агента), но он хочет использовать унифицированную систему стимулирования, в которой вознаграждение явным образом зависит только от действий агентов, то ему необходимо разработать меню контрактов – наборов пар «сообщение агента о своем типе» и «соответствующее этому сообщению вознаграждение». При этом меню контрактов должно быть таким, чтобы всем агентам было выгодно сообщать достоверную информацию, и чтобы агенты с более высокими типами выбирали большие действия. Соответствующие модели подробно описаны в [105, 114, 290].





Второй подход (используемый и развиваемый ниже в настоящей главе) в общих чертах заключается в следующем. Пусть центру достоверно известны типы агентов (примером «наблюдаемого» типа может быть подтвержденная документально квалификация агента), и он использует персонифицированную (свою для каждого агента) систему стимулирования, в которой размер вознаграждения явным образом зависит от типа агента.

Тогда система стимулирования будет побуждать агента к саморазвитию (увеличению своего типа), если значение целевой функции агента возрастает с увеличением типа. Значит задача управления саморазвитием (задача мотивации) заключается в нахождении класса систем стимулирования, обладающих отмеченным свойством. Перейдем к описанию формальной модели для случая взаимодействия центра с одним агентом.

Пусть система стимулирования (y, r), как и функция затрат c(y, r), зависит от действия агента y 0 и от его типа r r0, где «начальный» тип агента r0 > 0 может интерпретироваться как начальная квалификация агента, эффективность его деятельности и т.д., которые в процессе развития могут только увеличиваться42.

Целевая функция агента имеет вид:

(5) f((), y, r) = (y, r) – c(y, r).

В силу гипотезы рационального поведения, агент с типом r выберет действие y*((), r) из множества (6) P((), r) = Arg max [(y, r) – c(y, r)].

yЕсли выполнена гипотеза благожелательности, то из множества (6) агент выберет действие, наиболее благоприятное для центра.

Тогда задача стимулирования будет заключаться в выборе центром системы стимулирования, максимизирующей его целевую функцию:

(7) max), r ) [H(y) – (y, r)] max.

yP( ( () Решение задачи (7) обозначим *(y, r). Задача мотивации будет заключаться в наложении дополнительного ограничения в задаче (7) – необходимо потребовать, чтобы выигрыш агента увеличивался с ростом его типа. Формально, должно выполняться следующее: функция выигрыша агента (в зависимости от его типа) (8) (r) = *(y*(*(), r), r) – с(y*(*(), r), r) не должна убывать по параметру r.

Проиллюстрируем, как сформулированная общая задача мотивации может решаться в случае использования центром таких подробно исследованных в теории и широко применяемых на практике систем стимулирования как «компенсаторная» и «линейная».

В следующем разделе мы рассмотрим случай, когда тип агента (например, его квалификация) может уменьшаться со временем.

«Компенсаторная» система мотивации. Предположим, что, в отличие от (3), центр использует следующую систему стимулирования:

(1+ (r)) c(x, r), y = x (9) K(x, y, r) =, 0, y x где функция (r) может интерпретироваться как гибкий «норматив рентабельности», зависящий от типа агента (см. модели с фиксированным нормативом рентабельности в [129, 157]).

Условие согласованности (выгодности для агента выполнения плана – см. (6)) примет вид: (r) 0, r r0. Для определенности положим:

(10) (r) 0, r r0, (r0) = 0, то есть агенту с минимальным («начальным») типом r0 устанавливается «надбавка» 0 (см. также обсуждение роли мотивационных надбавок для компенсаторных систем стимулирования в [163]).

Центр определяет план x* 0, решая задачу оптимального согласованного планирования:

(11) x*(()) = arg max [H(x) – (1+ (r)) c(x, r)].

xПодставляя (9) и (11) в (5), получаем выражение для выигрыша агента в случае выполнения плана:

(12) ((), r) = (r) c(x*(()), r).

Задача мотивации заключается в нахождении множества зависимостей (), удовлетворяющих (10). В дальнейшем центр может выбирать из найденного класса, например, ту из них, которая максимизирует его целевую функцию.

Приведем пример решения задачи мотивации для случая, когда доход центра линеен по действию агента, а затраты агента описываются обобщенной функцией Кобба-Дугласа:

H(y) = y, c(y, r) = (1/) (y/r), 1.

Получаем, что оптимальный для центра план должен удовлетворять (13) c’y(x, r) = /(1 + (r)), то есть -(14) x*(r) = r 1+ (r).

Находим -(15) ((), r) = r (r) 1+ (r) /.

Исследуем задачу поиска зависимости (), удовлетворяющей (10), при которой ((), r), определяемое выражением (15), не убывает по r r0.

Пример 6.4. Для того чтобы найти аналитическое решение, выберем квадратичную функцию затрат ( = 2), тогда получим следующее дифференциальное условие на зависимость (r):

(16) (r) (1 + (r)) + ’(r) ’(r) (r) r.

Пусть (16) выполняется как равенство. Найдем решение соответствующего дифференциального уравнения (частное решение (r) = 0 отбрасываем как тривиальное):

(17) r() = Const (1 + ) + 1 + (1 + ) ln [(1+ ) ], где Const – константа, определяемая из начального условия (r0) = 0.

Решение (17) может интерпретироваться как «минимальная» надбавка, при которой выигрыш агента не убывает при увеличении его типа (точнее – выигрыш постоянен, вне зависимости от типа).

Графические примеры зависимости (r), удовлетворяющей (17), приведены на Рис. 57. • Следующее утверждение дает условия согласования интересов центра и агента относительно развития агента.

Утверждение 6.7. Пусть (r) – неубывающая функция. Тогда, если развитие агента выгодно центру, то оно выгодно и агенту.

Доказательство утверждения 6.7. Подставляя (13) и (14) в (1), найдем зависимость выигрыша центра от типа агента:

2r (r) =.

Pages:     | 1 |   ...   | 27 | 28 || 30 | 31 |   ...   | 34 |










© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.