WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!


Pages:     | 1 |   ...   | 24 | 25 || 27 | 28 |   ...   | 34 |

Нормативные РСС (НРСС) характеризуются наличием процедур присвоения рангов агентам в зависимости от результатов их деятельности. Для описания, согласно [171], «скалярного» случая, введем следующие предположения. Во-первых, будем считать, что множества возможных действий агентов одинаковы и составляют множество неотрицательных действительных чисел. Во-вторых, предположим, что функции затрат агентов монотонны и затраты от выбора нулевого действия равны нулю.

Пусть N = {1, 2, …, n} – множество агентов, = {1, 2,..., w} – множество возможных рангов, где w – размерность НРСС, {qj}, j = 1, w – совокупность w неотрицательных чисел, соответствующих вознаграждениям за «попадание» в различные ранги;

i: Ai, i N – процедуры классификации. Тогда НРСС называется кортеж {w,, {i}, {qj}}. Рассмотрим случай, когда процедура классификации одинакова для всех агентов (i() = (), i N) – так называемая унифицированная НРСС (УНРСС).

При использовании УНРСС агенты, выбравшие одинаковые действия, получают одинаковые вознаграждения. Введем вектор Y = (Y1, Y2,..., Yw), такой, что 0 Y1 Y2... Yw < +, который определяет разбиение множества 1. Унифицированная НРСС + задается кортежем {w, {Yj}, {qj}}, причем вознаграждение i-го агента i определяется следующим образом (считаем Yw+1 = +):

w i(yi) = I( yi [Yj;Yj+1)), где I() – функция-индикатор, Y0 = 0, qj j=q0 = 0. Унифицированная НРСС называется прогрессивной, если вознаграждения возрастают с ростом действий: q0 q1 q2... qw [238]. Эскиз графика прогрессивной УНРСС приведен на Рис. 48.

qw qqy Y1 Y2 Y3 Yw Рис. 48. Пример прогрессивной УНРСС Так как УНРСС кусочно-постоянна, то в силу монотонности функций затрат очевидно, что агенты будут выбирать действия с минимальными затратами на соответствующих отрезках. Иначе говоря, условно можно считать, что при фиксированной системе стимулирования множество допустимых действий равно * Y = {Y1, Y2,..., Yw}, причем, так как ci(0) = 0, то q0 = 0. Действие yi, выбираемое i-ым агентом, определяется парой векторов (Y, q), то * есть имеет место yi (Y, q) = Yk, где i (1) ki = arg max {qk – ci(Yk)}, i N.

k =0,w * * * Обозначим y*(Y, q) = ( y1 (Y, q), y2 (Y, q),..., yn (Y, q)). Задача синтеза оптимальной УНРСС заключается в выборе размерности УНРСС w, вектора q = (q1, q2,..., qn) и множества Y, удовлетворяющих заданным ограничениям, которые максимизировали бы целевую функцию центра ():

(2) (y*(Y, q)) max.

w, Y, q Фиксируем вектор действий y* n, который мы хотели бы + реализовать с помощью УНРСС. Из того, что при использовании УНРСС агенты выбирают действия только из множества Y, следует, что минимальная размерность системы стимулирования должна быть равна числу попарно различных компонент вектора действий, который требуется реализовать. Следовательно, использование УНРСС размерности, большей, чем n, нецелесообразно. Без потери общности будем считать, что w = n (если в результате решения задачи синтеза оптимальной УНРСС окажется, что некоторые оптимальные нормативы попарно совпадают, то может оказаться, что w < n).

* Для фиксированного вектора действий y* положим Yi = yi, i N, и обозначим cij = ci(Yj), i N, j = 0, w. Из определения реализуемого действия (см. (1)) следует, что для того, чтобы УНРСС реализовывала вектор y* (то есть, побуждала агентов выбирать соответствующие действия) необходимо и достаточно выполнения следующей системы неравенств:

(3) qi – ci( yi* ) qj – ci( y* ), i N, j = 0, w.

j Обозначим суммарные затраты центра на стимулирование по реализации действия y* УНРСС (4) (y*) = ( y*), qi iN где q(y*) удовлетворяет (3).

Задача синтеза оптимальной (минимальной) УНРСС заключается в минимизации (4) при условии (3). При заданных размерах вознаграждений исследование УНРСС сводится к необходимости ответа на следующий вопрос, какие векторы действий агентов могут быть реализованы в этом классе систем стимулирования (иначе говоря, для каких действий система неравенств (3) имеет решение).

Обозначим ij(y*) = ci(Yj) – ci(Yi), i N, j = 0, w. Введем в рассмотрение n-вершинный граф G(y*), веса дуг в котором определяются ||ij(y*)||. В [171] доказано, что для того чтобы вектор y* был реализуем в классе УНРСС, необходимо и достаточно, чтобы граф G(y*) не имел контуров отрицательной длины. В упомянутой работе приведен также алгоритм поиска минимальных вознаграждений (за «попадание» в соответствующие диапазоны), реализующих заданный вектор действий агентов. Введем следующее предположение, в рамках которого задача может быть решена аналитически.

А.5.6. Агентов можно упорядочить в порядке убывания затрат ' ' ' и предельных затрат: y 0 c1 (y) c2 (y)... cn (y), Фиксируем некоторый вектор y* n, удовлетворяющий + следующему условию:

* * * (5) y1 y2... yn, то есть, чем выше затраты, тем меньшие действия агент выбирает.

Введенным предположениям удовлетворяют, например, такие распространенные в экономико-математическом моделировании функции затрат агентов, как: ci(yi) = i c(yi), ci(yi) = i c(yi/i), где c() – монотонная дифференцируемая функция, а коэффициенты (отражающие эффективность деятельности агентов) упорядочены:

1 2... n (частными случаями являются линейные функции затрат, функции затрат типа Кобба-Дугласа и др.).

В [171] доказано, что в рамках предположения А.5.6:

1) унифицированными нормативными ранговыми системами стимулирования реализуемы такие и только такие действия, которые удовлетворяют (5.5);

2) оптимальная УНРСС является прогрессивной;



3) минимальные индивидуальные вознаграждения в УНРСС, реализующей вектор y*, удовлетворяют:

i (6) q1 = c11, qi = (cj( y* ) – cj( y*-1)), i N \ {1}.

j j j =Выражение (6) позволяет исследовать свойства УНРСС – вычислять оптимальные размеры вознаграждений, строить оптимальные процедуры классификаций, сравнивать эффективность УНРСС с эффективностью компенсаторных систем стимулирования и т.д.

[170, 171].

Из (6) следует, что, если ФЗП R фиксирован, то в рамках предположения А.5.6 реализуемы такие и только такие векторы действий агентов, которые удовлетворяют одновременно условию (5) и * (7) (n – i + 1) [ci( yi ) – ci( yi*-1 )] R.

iN Перейдем теперь к рассмотрению многокритериальной системы стимулирования w (8) i(zi) = I(zi [Z ; Z )), i N, qj j j+j=основывающейся на рангах агрегированных результатов деятельности агентов.

Пусть выполнены предположения А.5.4 и А.5.5, а также следующее предположение.

А.5.7. Агентов можно упорядочить так, что b1 b2... bn и 1 2... n.

Тогда из выражения (14) раздела 5.3 получаем, что для рассматриваемого случая справедлив следующий аналог предположения А.5.6:

(9) z 0 C1(z) C2 (z)... Cn (z).

Утверждение 5.9. Если выполнены предположения А.5.4, А.5.и А.5.7, то:

1) унифицированными нормативными многокритериальными ранговыми системами стимулирования реализуемы такие и только такие векторы z* результатов деятельности агентов, которые удовлетворяют * * * (10) z1 z2... zn.

2) оптимальная УНРСС является прогрессивной;

3) минимальные индивидуальные вознаграждения в многокритериальной УНРСС, реализующей вектор z*, удовлетворяют:

i * (11) q1 = С1( z1 ), qi = (Сj( z* ) – Сj( z*-1 )), i N \ {1}.

j j j =Соревновательные системы стимулирования. Рассмотрим кратко свойства соревновательных ранговых систем стимулирования (СРСС), в которых центр задает число классов и число мест в каждом из классов, а также величины поощрений агентов, попавших в тот или иной класс. То есть в унифицированной СРСС индивидуальное поощрение i-го агента qi(z*) не зависит непосредственно от абсолютной величины выбранного им действия, а определяется тем местом, которое он занял в упорядочении показателей деятельности всех агентов.

По аналогии с тем как это делается выше для многокритериальных УНРСС (см. также результаты исследования однокритериальных СРСС в [171]), обосновывается справедливость следующего утверждения.

Утверждение 5.10. Если выполнены предположения А.5.4, А.5.5 и А.5.7, то:

1) многокритериальными соревновательными ранговыми системами стимулирования реализуемы такие и только такие векторы z* результатов деятельности агентов, которые удовлетворяют условию (10);

2) данный вектор реализуем следующей системой стимулирования, обеспечивающей минимальность затрат центра на стимулирование:

i (12) qi(z*) = {Сj-1( z* ) – Сj-1( z*-1 )}, i N.

j j j=Пример 5.4. Пусть i =, ij = j, j Ki, i N. Тогда для того, чтобы выполнялось условие (9), а также имело место предположение А.5.7, достаточно, чтобы «эффективности» агентов были упорядочены следующим образом: rij ri+1, j, j Ki, i N.

Подведем краткие итоги разделов 5.2-5.5: исследованы свойства оптимальных многокритериальных систем стимулирования различных типов – см. сводку результатов в Табл. 8.

Табл. Оптимальные многокритериальные системы стимулирования Системы стимулирования Утверждения Компенсаторная 5.1 – 5.Линейная 5.5, 5.«Бригадная» 5.7, 5.Ранговая 5.9, 5.5.6. РОЛЬ СИСТЕМЫ ОЦЕНКИ ДЕЯТЕЛЬНОСТИ Проведенный анализ многокритериальных систем стимулирования свидетельствует, что равновесие игры агентов, деятельность каждого из которых описывается вектором его действий, существенно зависит от оператора агрегирования (например, в рамках предположения А.5.5 – от тех весов, с которыми складываются компоненты вектора действий при вычислении соответствующего значения агрегированного результата деятельности). Оператор агрегирования является компонентой системы оценки деятельности [170], которая ставит в соответствие «детальным» действиям агентов менее подробные показатели, характеризующие эффективность деятельности с точки зрения организации.

Поэтому одной из задач управления, которая может и должна решаться совместно с синтезом оптимальных многокритериальных систем стимулирования, является выбор оптимальной системы оценки деятельности. Приведем соответствующие примеры решения задач управления.

На протяжении настоящего раздела будем считать, что выполнены предположения А.5.4 и А.5.5. Для простоты положим А.5.8. i = 2, i N (в случае различных значений показателей степеней, фигурирующих в функциях затрат агентов, все качественные выводы останутся в силе, лишь усложнятся выкладки). Рассмотрим последовательно задачи выбора операторов агрегирования для различных систем многокритериального стимулирования, описанных выше.

При этом будем считать, что выполнено следующее предположение:

А.5.9. Функция дохода центра представляет собой взвешенную сумму компонентов векторов действий агентов:

(1) H(y) = yij, ij iN jKi где веса = {ij} отражают приоритеты центра.

Предположим, что центр (в целях унификации стимулирования и снижения информационной нагрузки) по-прежнему стимулирует агентов за агрегированные результаты деятельности, то есть его целевая функция имеет вид:

(2) (y, ()) = H(y) – (z).

i iN Компенсаторная система многокритериального стимулирования в одноэлементной ОС. Пусть n = 1 и центр использует компенсаторную систему стимулирования (10) раздела 5.2.1. Обозначим = {ij}. Тогда из выражения (14) раздела 5.3, опуская при рассмотрении одноэлементной ОС индекс, обозначающий номер агента, получаем:





z(3) C(z, ) =.

2 rj j jK Из выражения (13) раздела 5.3 следует, что z rj j (4) y*(z, ) =, j K.

j r K Подставляя (3) и (4) в (2), с учетом выражения (10) раздела 5.2.1, находим оптимальное с точки зрения центра значение агрегированного результата деятельности агента:

(5) z*() = rj.

j j jK Действия, выбираемые агентом, и, следовательно, его результат деятельности, зависят от функции агрегирования (которая в рамках предположения А.5.5 задается набором «весов» ). Если выбор функции агрегирования (системы оценки деятельности) является прерогативой центра, то одним из «инструментов» управления является назначение таких весов, которые приводили бы к наиболее выгодному для центра (с точки зрения значения его целевой функции (2)) поведению агента.

Поэтому рассмотрим задачу выбора системы оценки деятельности (весов = {ij}):

(6) (y*(), K(z*())) max.

Для рассматриваемого случая получаем, что решение этой задачи дается следующим утверждением.

Утверждение 5.11. Если выполнены предположения А.5.4, А.5.5, А.5.8 и А.5.9, то в одноэлементной ОС оптимальная система оценки деятельности должна удовлетворять следующему условию:

j j (7) =, j, K.

Содержательно условие (7) означает, что относительный приоритет компонентов вектора деятельности агента, устанавливаемый системой оценки его деятельности, должен определяться приоритетами центра. Такой вывод вполне соответствует здравому смыслу. Интересно отметить, что при этом параметры системы оценки деятельности не зависят от индивидуальных характеристик агента, отражаемых в рассматриваемой модели вектором r = (r1, r2,..., rk) «эффективностей» его деятельности по каждой из оцениваемых компонент вектора действий.

Линейная система многокритериального стимулирования в многоэлементной ОС. Воспользуемся результатами раздела 5.3, а именно – утверждением 5.6.

Вычисляем в рамках предположений А.5.8 и А.5.9:

* (8) yij () = ij rij, j Ki, i N.

ijrij ij iN jKi (9) (y*(), L(z*())) =.

2 )2 rij (ij iN jKi Находя максимум (9) по параметрам системы оценки деятельности, получаем следующий аналог утверждения 5.11.

Утверждение 5.12. Если выполнены предположения А.5.4, А.5.5, А.5.8 и А.5.9, то в многоэлементной ОС при использовании линейной системы многокритериального стимулирования оптимальная система оценки деятельности должна удовлетворять следующему условию:

ij ij (10) =, j, Ki, i N.

i i Подводя итоги, отметим, что при решении задач синтеза оптимальных многокритериальных систем стимулирования выше использовался следующий типовой «прием»: для каждого агента вычислялся вектор действий, приводящий к заданному результату его деятельности (см. выражение (8) раздела 5.2.1 и выражение (3) раздела 5.2.2) с минимальными затратами (или этот поиск производился сразу для всех сильно взаимосвязанных агентов на множестве решений их игры) – см. выражения: (5) раздела 5.2.1, (4) раздела (5.2.3), (12) раздела 5.3, (11) и (12) раздела 5.5, после чего задача сводилась к той или иной модификации стандартной «скалярной» задачи стимулирования. Первый – наиболее трудоемкий – этап: вычисление минимальных затрат агентов на достижение заданного результата деятельности. Эти затраты, по большому счету, определяются функциями затрат агентов и оператором агрегирования. Вопросам анализа и идентификации функций затрат агентов посвящено множество работ – см. [22, 117] и обзоры в них. Основная идея заключается в том, что, если агент осуществляет несколько видов деятельности (выбирает вектор компонентов деятельности), то делает он это, стремясь максимизировать свою функцию полезности. Взаимосвязь между различными компонентами вектора действий устанавливается, в том числе, системой стимулирования, что позволяет, изменяя систему стимулирования, влиять на выбираемые агентом действия. Идентификация функции затрат может производиться на основании результатов наблюдения (или «моделирования» посредством проведения опросов, анкетирования и т.д. – см. [22]) выбираемых агентами действий.

ГЛАВА 6. МОДЕЛИ И МЕТОДЫ УПРАВЛЕНИЯ РАЗВИТИЕМ ПЕРСОНАЛА Эффективная инновационная политика фирмы требует квалифицированных сотрудников – одним из важнейших аспектов инновационного развития фирмы является развитие персонала. Поэтому настоящая глава посвящена рассмотрению теоретико-игровых и оптимизационных моделей управления развитием персонала организации. Приведем определения понятий, используемых ниже.

Определения «развития», «прогресса» и т.п. приведены в главе 3 выше. Как отмечалось выше, управлением называется воздействие на управляемую систему с целью обеспечения требуемого ее поведения [170, С. 571]. Если говорить об управлении организационной системой (ОС), то в теории управления организационными системами выделяют следующие типы управлений (основание их перечисления – компоненты модели ОС, на которые направлено управленческое воздействие) см. также главу 3 и [170]:

- управление составом участников, - управление структурой, - мотивационное управление (управление мотивами и предпочтениями), - институциональное управление (управление ограничениями и нормами деятельности), - информационное управление (управление информацией, используемой при принятии решений).

Pages:     | 1 |   ...   | 24 | 25 || 27 | 28 |   ...   | 34 |










© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.