WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!


Pages:     | 1 |   ...   | 14 | 15 || 17 | 18 |   ...   | 22 |

Квадратичная форма записи обеспечивает наличие «прогиба» – точки компромиссного проекта. Весовые коэффициенты определяются и уточняются в ходе решения задачи автоматически, путем последовательного сужения интервала варьирования искомых параметров около точки оптимума (прогиба), т.к. веса являются функцией ширины участка варьирования.

Пример. В результате исследований технической задачи установлена зависимость двух противоречивых частных критериев Ки К2, которые следует минимизировать, от одного варьируемого параметра С. Для интервала его изменения получены следующие значения:

С 1,5 2,0 2,5 3,К1 0,3661 0,4195 0,4650 0,К2 3,732 2,420 1,997 1,После приведения значений частных критериев к безразмерному (делением на максимум частного критерия) виду Ф имеет вид:

0,470 Ф=.

1 0, Так как Ф–1Ф = Е, f1 f2 0,470 1 1 =, f3 f4 1 0,691 0 следует решить совместно четыре алгебраических уравнения для определения неизвестных членов обратной матрицы Ф–1:

0,47f1 + f2 = 1;

f1 + 0,691f2 = 0;

0,47f3 + f4 = 0;

f3 + 0,691f4 = 1, откуда с учетом формул вычисления весов частных критериев следует: w1 = 0,459; w2 = 0,784.

Расчет интегрального критерия по зависимости 0,К= ( )2 i / i -( i min ) дает следующие результаты:

С 1,5 2,0 2,5 3,К1 0,3661 0,4195 0,4650 0,К2 3,732 2,420 1,997 1,К 0,243 0,167 0,193 0,Таким образом, в принятых условиях оптимальное значение варьируемого параметра, обеспечивающее компромисс между двумя противоречивыми требованиями, соответствует С = 2,0.

В заключение следует отметить два момента.

Во-первых, итерационность процесса моделирования требует применения на разных этапах своих критериев качества с учетом появления новой информации.

Во-вторых, для осуществления контроля хода решения и оценки конечного результата следует использовать графическое представление значений частных критериев.

11.3 Функции желательности В ряде случаев сведение многокритериальности к единому интегральному показателю качества осуществляется на основе функций желательности.

Под желательностью d понимается тот или иной желательный уровень параметра оптимизации. Разработана специальная шкала желательности. Величина d может меняться от 0 до 1. Шкала выглядит следующим образом:

d = 1,00 – максимально возможный уровень качества. Этот уровень часто неизвестен (как правило, это то, чего мы не знаем, например искомое значение критерия), иногда точно определен (как правило, это то, чего бы мы не хотели; по этому показателю желательность равна 1 и известна заранее). Максимального значения не всегда следует добиваться. В практических задачах исповедуется принцип:

«Лучшее – враг хорошего»;

d = 1,00...0,80 – допустимый и превосходный (очень высокий) уровень качества, которого также не всегда следует добиваться;

d = 0,80...0,60 – допустимый и хороший уровень качества (он все же выше того, которого реально добиваются);

d = 0,60...0,37 – допустимый и достаточный уровень качества;

d = 0,37 – заданный уровень качества (соответствует тому значению параметра оптимизации, которое необходимо получить);

d = 0,37...0 – недопустимый уровень качества;

d = 0 – максимально нежелательный уровень качества.

Значение d на шкале желательности можно смещать вверх или вниз в зависимости от конкретных ситуаций.

Идея использования функции желательности в качестве параметра оптимизации заключается в том, что значения каждого из параметров оптимизации (yi), которых в задаче может быть сколь угодно много, переводятся в соответствующие желательности (di), после чего формируется обобщенная функция желательности (D), представляющая собой среднее геометрическое желательностей отдельных параметров оптимизации:

D = (d1d2,..., dn)1/n, где n – число изучаемых параметров оптимизации.

Выбор одного из двух вариантов перевода параметра оптимизации в соответствующие желательности определяется видом накладываемых на него ограничений.

При односторонних ограничениях типа y ymax или y ymin функция желательности определяется уравнением di = e-(ai ), ai = e- yi, где yi – некоторая безразмерная величина, линейно (чаще всего) или нелинейно связанная с yi. Для изменения по этой зависимости функции желательности di в интервале 0...1 безразмерная величина yi должна изменяться от –4 до +4.

При наличии двусторонних ограничений ymin y ymax функцию желательности удобно задавать выражением di = e-(ai ), ai = yi, [ ] ( )q где q – положительное число, а yi определяется выражением yi = (2yi – (ymax + ymin)) / (ymax – ymin).

Показатель степени q можно вычислить, если задать некоторому свойству yi значение желательности в интервале 0,6...0,9, определить по последней формуле модуль безразмерной величины yi, а затем воспользоваться выражением q = (ln(ln(1/d))) / (ln[ y ]).

Выбирая разные значения q, можно задавать различную кривизну функции желательности. Это обстоятельство позволяет учесть особую важность отдельных свойств: для них этот показатель будет иметь большее значение, и малому изменению свойства вблизи ограничивающих пределов будет соответствовать резкое изменение желательности.

СПИСОК ЛИТЕРАТУРЫ 1. Лопатников, Л. И. Краткий экономико-математический словарь / Л. И. Лопатников. – М. : Наука, 1979. – 358 с.

2. Уайлд, Д. Оптимальное проектирование / Д. Уайлд. – М. : Мир, 1980. – 272 с.

3. Гоминтерн, В. И. Методы оптимального проектирования / В. И. Гоминтерн, Б. М. Каган. – М. : Энергия, 1980. – 160 с.

4. Новик, Ф. С. Оптимизация процессов технологии металлов методами планирования экспериментов / Ф. С. Новик, Я. Б. Арсов. – М. : Машиностроение ; София : Техника, 1980. – 304 с.

5. Петренко, А. И. Основы автоматизации проектирования / А. И. Петренко. – Киев : Техника, 1982. – 295 с.

6. Брахман, Т. Р. Многокритериальность и выбор альтернативы в технике / Т. Р. Брахман. – М. : Радио и связь, 1984. – 288 с.

7. Гарбарчук, В. И. Математическое проектирование сложных судовых систем / В. И. Гарбарчук. – Л. : Судостроение, 1982. – 108 с.

Тема МНОГОМЕРНАЯ КЛАССИФИКАЦИЯ ОБЪЕКТОВ Основные допущения. Мера близости по совокупности параметров. Число классов и представительные центры. Критерий качества классификации. Нормирование величин параметров. Алгоритм автоматической классификации. Оценка существенности признаков объектов классификации.

12.1 Общие положения С точки зрения математики задачи параметрической оптимизации являются неопределенными, предполагающими множество допустимых вариантов решений с различным набором варьируемых параметров. Определение целесообразного решения в этом случае можно проводить на основе статистического анализа вариантов на предмет существенности их различий. При этом используют всю совокупность параметров как существенных признаков исследуемого объекта.

Среди множества методов многомерного статистического анализа удобными с точки зрения их практической реализации являются методы автоматической классификации объектов.

Впервые метод автоматической классификации, известный как «вроцлавская таксономия», был использован группой польских статистиков в 1952 г. В 1963 г. вышла первая обобщающая работа, посвященная классификации живых организмов на примере ботаники и зоологии. По словам Г. Парницкого, «коварство (и очарование) проблемы распознавания образов заключается в ее простоте.

При первом знакомстве с ней исследователь прежде всего с легкостью привлекает для решения своей задачи знакомый ему аппарат и... иногда получает удовлетворительный результат, но чаще его преследуют неприятности. И лишь хорошо разобравшись в своей конкретной задаче, ему удается решить ее». Простота заключается в самой идее. Совокупность объектов какого-либо множества можно разбить на классы таким образом, чтобы в каждом из них находились наиболее близкие по совокупности характеристик объекты, а в разных классах – наиболее непохожие. Сложность такой классификации заключается в выборе математического аппарата, критерия оптимальности, адекватного решаемой задаче алгоритма, интерпретации результатов решения задачи.

Методы автоматической классификации (таксономия, кластерный анализ) основаны на следующих посылках (допущениях):

1. Каждый объект может быть описан набором параметров.

2. Параметры могут быть основными (например, ширина, длина и т.п.) и производными от основных (например, площадь, периметр и т.д.).

3. Параметры могут быть количественными и качественными.

4. Предполагается, что каждый объект обладает совокупностью параметров, выделяющих его на фоне остальных объектов.

5. Предполагается, что близкие по совокупности параметров объекты можно выделить в компактную группу, а все множество объектов разбить на компактные группы.

Последнее допущение основано на принципе ограниченного многообразия. Например, во всем множестве сказок мира насчитано всего 17 типовых фрагментов, число основных типов моделей равно 10, существует около 2700 типов внешности человека и т.д.

Непосредственно проверить справедливость сделанных посылок не представляется возможным, проверка может быть только косвенной, например проведением классификации несколькими принципиально отличными методами.

Каждый объект может быть представлен точкой в пространстве параметров, где координаты точки определяются численными значениями соответствующих параметров. Следовательно, в этом случае можно определить удаление одного объекта от другого.

Например, если объекты X1 и X2 характеризуются двумя параметрами: X1 = {x11, x12}; X2 = {x21, x22} (объект – точка на плоскости), то можно использовать меру расстояния между ними в виде d(X1, X2) = [X1 – X2] = [(x11 – x21)2 + (x12 – x22)2]0,5, где первая цифра обозначает номер объекта, вторая – номер признака объекта.

Данная зависимость используется и при большем числе параметров, например равном n:

d(X1, X2) = [X1 – X2] = [(x11 – x21)2 + (x12 – x22)2 +... +(x1n – x2n)2]0,5.

Мера d(X1, X2) в приведенной форме называется евклидовым расстоянием. В зависимости от рассматриваемой ситуации в литературе рекомендуется использовать различные меры.

Задавая разное количество групп классов, можно определить такое их число и состав, когда качество разделения будет наивысшим. Очевидно, что чем компактнее объекты расположены у центра группы и чем дальше разнесены центры групп, тем выше качество разделения.

Обозначим через К1 среднее по всем группам расстояние от объектов группы до своих центров, а через К2 – среднее расстояние между всеми парами центров групп. Тогда обобщенный критерий можно представить в следующем виде:

К = (К2 – К1) / (К2 + К1).

При увеличении К1 и К2 = const критерий К убывает (объекты в классах недостаточно компактны), а при увеличении К2 и К1 = = const К возрастает (классы хорошо дистанцированы).

Не менее полезным может быть критерий, построенный на принципе паритетности требований в форме:

– если i min, то 0,К= ( )2 i / i -1 ;

( i min ) – если i max, то 0,К= ( )2 i / i -1.

( i max ) В качестве частных критериев при этом могут быть использованы критерии К1 и К2, а также критерий Nmin. N – число классов, групп.

Следует отметить, что число групп классификации и их представительные центры заранее не являются известными. Поэтому при проведении классификации исходят из предположения о наличии объективной статистической целостности системы исходных данных, т.е. полагают, что исходные данные содержат информацию, обеспечивающую в конечном итоге стабильную конечную классификацию, результаты которой не зависят от числа первоначально заданных классов и их представительных центров. При отсутствии математической строгости такого предположения результаты применения методов автоматической классификации в различных прикладных задачах свидетельствуют о его практическом выполнении.

Такова суть идеи, заложенной в алгоритмы автоматической классификации объектов.

12.2 Алгоритм автоматической классификации Практическую реализацию можно осуществить на основе различных алгоритмов. Один из простейших предполагает выполнение следующих процедур:

1. Формируют базы независимых значимых свойств объектов классификации. Набор таких свойств заранее определить не всегда представляется возможным. Поэтому процесс классификации является итерационным. Добавление свойств проводят по ходу исследования. Если при этом происходит изменение результатов классификации, то добавляемые в анализ свойства можно считать значимыми.

2. При недостаточности исходного множества объектов его расширение проводят реализацией математической модели их функционирования. В этом случае попутно решается задача оптимизации параметров конструкции объекта.

3. В настоящее время не решен вопрос о влиянии на результаты классификации размерностей параметров объекта и используемых для их описания масштабов. Поэтому параметры приводят к безразмерному виду. Для этого величины либо нормируют, либо делят на максимальное значение однотипного параметра. В первом случае реальный i-й параметр j-го объекта заменяют нормированной величиной xij norm, получаемой делением отклонения параметра в объекте (xij) от величины его математического ожидания по всем объектам m (M(xij)) на среднеквадратическое отклонение этого параметра по всем исследуемым объектам G(xij):

xij norm = (M(xij) – xij) / G(xij).

При этом нормированные параметры могут быть как положительными, так и отрицательными величинами. Во втором случае вычисление проводят по формуле xij norm = xij / xi max.

Получаемые параметры будут положительными и меньшими или равными единице.

4. Назначают число классов и образцы, их представляющие (центры). Так как истинное число классов N заранее неизвестно, то задание осуществляется случайным образом по закону равномерного распределения в интервале Nmin < N < Nmax.

По определенному таким образом числу классов на основе датчика случайных чисел назначают N образцов в качестве центров будущих классов.

5. Определяют меру d(X, Z) между объектом X и центрами заданных классов Z1, Z2, …, ZN, разносят образцы по классам по следующему правилу: образец относят к тому классу, расстояние до центра которого является наименьшим. Например, если d(X, Z1) > > d(X, Z2), то объект Х следует отнести ко второму классу с центром Z2. Разнесение является формальным актом регистрации факта принадлежности объекта к тому или иному классу. При этом величины его параметров не изменяются.

6. Производят локализацию центров классов (определяют средние значения параметров образцов, вошедших в класс). Это приводит к появлению «среднего образца», представляющего собою центр класса. Отсутствуя как материальный объект, центр класса представлен параметрами только формально. Его введение позволяет определить предполагаемый недостающий образец, который действительно мог бы являться центром класса.

7. Производят коррекцию группирования по локализованным центрам классов: повторяют реализацию пунктов 5 и 6 (не менее 3–4 раз). Коррекция обусловлена необходимостью исключения ситуации, когда первоначально отнесенный к одному классу образец после локализации его центра по совокупности значений параметров становится ближе к центру иного класса.

8. Для каждого класса определяют среднее расстояние D между его центром и вошедшими в класс образцами:

DR = (d(X 1R, ZR) + d(X 2R, ZR) +... + d(X hR, ZR)) / h, где R – номер класса; h – число образцов, вошедших в R-й класс.

Затем усредняют данный показатель по всем сформированным таким образом классам – определяют критерий компактности образцов в классах:

К1 = (D1 + D2 +... +DR +... + DN) / N.

9. Находят среднее расстояние между всеми парами центров классов – определяют критерий отдаленности центров классов между собой:

Ф j, j + 1 = d(Z j, Z j+1), j = 1...N – 1;

К2 = 2 (Ф1,2 + Ф1,3 +... + Ф1, N + Ф2,3 + Ф2,4 + +... + Ф2, N +... + ФN–1, N) / N(N – 1), где 2 / N(N – 1) – число комбинаций из N по 2.

10. Рассчитывают критерий К, например в следующем виде:

К = (К2 – К1) / (К2 + К1).

11. Если расчет проводится первый раз, то значение критерия качества и соответствующие ему число классов и результаты разнесения образцов по классам запоминаются. Далее переходят к пункту 4.

Поиск продолжается до тех пор, пока не будет получено устойчивое разбиение при К = max (К). Соответствующее ему число классов можно считать устойчивым ограниченным многообразием первоначально исследуемого множества решений задачи параметрической оптимизации.

Pages:     | 1 |   ...   | 14 | 15 || 17 | 18 |   ...   | 22 |






















© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.