WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!


Pages:     | 1 || 3 |

Максимально Идентичны различны Объекты 1 и Испытуемый должен, как показано выше, перечеркнуть шкалу в точке, расстояние от которой до левого края равно различию между оценива емыми объектами.

Еще один метод получения категоральной оценки – категоральная сортировка. Для этого метода каждую пару объектов предоставляют на отдельной карточке. Испытуемый должен поместить каждую карточ ку в одну из нескольких упорядоченных категорий. Первая категория содержит наиболее схожие объекты, последняя – наиболее различные.

Чтобы в одной группе не оказалось слишком большого числа пар, экспе риментатор может установить, сколько категорий следует использовать испытуемому или максимальное количество пар, помещаемых в одну группу.

Определив тип задания, экспериментатор должен продумать, как предоставлять его испытуемым. Существует два фактора, влияющие на оценки испытуемых при оценке пар стимулов. Первый фактор – порядок предоставления объектов в паре. Влияние этого фактора на оценку различия называется пространственным эффектом. Простран ственные эффекты для объекта будут сбалансированы, если в одной половине пар он будет первым, а в другой – вторым.

Табл. 4. Порядок представления пар объектов Порядок № 1 Порядок № 2 Порядок № 1 – 2 1 – 2 1 – 1 – 3 1 – 3 3 – 1 – 4 4 – 1 5 – 1 – 5 5 – 1 2 – 2 – 3 2 – 3 4 – 2 – 4 2 – 4 1 – 2 – 5 5 – 2 2 – 3 – 4 3 – 4 3 – 3 – 5 3 – 5 4 – 4 – 5 4 – 5 5 – Второй фактор – порядок предоставления пар, включающий дан ный объект. Влияние этого фактора на оценку называется временным эффектом. Временные эффекты для данного объекта будут сбаланси рованы, если пары, включающие данный объект будут расположены в общем списке пар равномерно.

Рассмотрим пример сравнения 5 объектов. Различных пар из этих объектов можно составить 5 · 4/2 = 10, три различных порядка предо ставления пар представлены в таблице.

В порядке № 1 не соблюдены пространственный и временной эф фекты. Так, объект номер 1 в паре всегда стоит на первом месте и пары с ним расположены в начале списка. В порядке № 2 соблюден пространственный эффект, но не соблюден временной. В порядке № соблюдены оба эффекта, все объекты расположены в этом списке рав номерно.

§ 3. Поворот. Ортогональные матрицы.

3.1. Поворот в пространстве признаков. Рассмотрим при мер матрицы “объект–признак”, где в качестве объектов выступает группа из пяти человек, а в качестве признаков – их вес (в кг.) и рост (в см.). Исходная матрица (X0) и отцентрированная (X) имеют вид:

80 180 0 90 190 10 -30 -15.

X0 =, X = 50 110 30 70 185 -10 Матрица X графически представлена на левом рисунке. Оси xсоответствует признак “вес” (“легкий – тяжелый”), оси x2 – “рост” (“низ кий – высокий”).

Проведем новые оси x1 и x2 под углом 45. Эти оси будут соответ ствовать уже другим признакам. Так, ось x1 можно охарактеризовать “худой – толстый”, а ось x2 – как “маленький – крупный”. Данные в новых осях после поворота их на 45 представлены на правом рисун ке, этим данным будет соответствовать новая матрица X “объект–при знак”.

xx x x 1 xx 3.2. Матрица поворота в двумерном пространстве. Фор мула преобразования координат при повороте на угол имеет следую щий вид x1 = x1 cos + x2 sin, x2 = -x1 sin + x2 cos.

Эти соотношения можно записать в матричном виде X = XT, (3.1) где T – матрица поворота cos - sin T =. (3.2) sin cos Матрица X после поворота на угол = 45 будет иметь вид 0 14 -32 X =.

21 - -3 3.3. Поворот в трехмерном пространстве. Поворот в трех мерном пространстве можно описать с помощью трех поворотов на так называемые углы Эйлера, и.

z y z y x x N Первый поворот, называемый прецессией происходит вокруг оси z на угол так, что ось x переходит в ось N (линия узлов).

Второй поворот, называемый нутацией происходит вокруг линии узлов на угол так, что ось z переходит в ось z.

Третий поворот, называемый вращение происходит вокруг оси z на угол так, что линия узлов переходит в ось x.

Преобразование координат происходит по формуле (3.1), где мат рица поворота имеет вид cos cos cos sin sin - sin cos cos sin cos + sin sin T= cos sin sin sin + cos cos sin sin cos - cos sin (3.3) sin - sin cos sin cos cos 3.4. Понятие ортогональной матрицы. Квадратная матри ца A называется ортогональной, если в результате умножения ее на транспонированную получается единичная матрица.

AAT = AT A = E, или, что эквивалентно, обратная матрица к A совпадает с транспони рованной A-1 = AT.

Можно показать, что матрицы поворота (3.2) и (3.3) являются ортогональными матрицами.

3.5. Поворот в n-мерном пространстве. В случае, когда объекты пространства восприятия имеют n признаков, у матрицы “объект–признак” X будет n столбцов. Поворот этой матрицы осу ществляется по формуле (3.1). Матрица T поворота должна быть ортогональной. В результате поворота в пространстве восприятия по лучается новая матрица X, которая будет также являться матрицей “объект–признак”, строчки которой будут являться теми же объекта ми, что и у исходной матрицы, а столбцы характеризовать некоторые другие признаки.

§ 4. Собственные значения и собственные векторы 4.1. Определение собственных значений и векторов.

Пусть v – вектор в пространстве Rn, a A – квадратная матрица раз мерности n n. Произведение Av также будет являться вектором в пространстве Rn. Таким образом, матрица A выполняет преобразова ние векторов в пространстве Rn. С одним из примеров таких преобра зований – поворотом – мы познакомились в § 3.

Собственным вектором матрицы A называется такой ненулевой вектор v, что для некоторого числа Av = v. (4.1) Входящее в это равенство число называется собственным зна чением матрицы A. Упрощенно говоря, собственный вектор – любой ненулевой вектор v, который после преобразования умножением на матрицу A отображается в коллинеарный вектор v, а соответствую щее число называется собственным значением.

4.2. Нахождение собственных значений. Запишем (4.1) в другом виде:

(A - E)v = 0. (4.2) У этого уравнения есть ненулевое решение в случае, если det(A - E) = 0. (4.3) Это уравнение называется характеристическим и служит для нахожде ния собственных значений матрицы A. Левая часть этого уравнения представляет собой многочлен степени n относительно и имеет n решений (в общем случае возможны и комплексные корни).

Рассмотрим пример. Найдем собственные числа матрицы 2 A =. (4.4) 1 Запишем характеристическое уравнение 2 - = ( - )2 - 1 = 2 - 2 + 3 = 0.

1 2 - Это квадратное уравнение имеет корни 1 = 3, 2 = 1, которые и будут двумя собственными значениями матрицы A.

4.3. Нахождение собственных векторов. Собственные век торы находятся из уравнения (4.2). Заметим, что решение будет не единственно, собственные векторы находятся с точностью до множите ля. Обычно в качестве собственного вектора понимается вектор единич ной длины. Найдем собственные векторы матрицы (4.4). Для 1 = имеем систему 2 - 3 1 v = 0 v11 = v21 v1 =.

1 2 - 3 vДля 2 = 1 получим 2 - 1 1 v = 0 v12 = -v22 v2 =.

1 2 - 1 v22 4.4. Приведение симметричной матрицы к диагональ ному виду. В случае, когда матрица A является симметричной, все собственные числа будут вещественными. Также, в случае симметрич ной матрицы любые два собственных вектора v1 и v2, отвечающих различным собственным значениям 1 и 2 будут ортогональны. Если у симметричной матрицы все собственные числа 1,... n различны, для нее мы имеем n собственных попарно ортогональных единичных векторов v1,... vn. Составим матрицу V, столбцы которой являются собственными векторами v1,... vn. Из условия попарной ортогональ ности единичных векторов следует T T -V V = E V = V, следовательно матрица V будет ортогональной.

Из (4.1) следует, что матрицу A можно представить в виде T A = V V, (4.5) где – диагональная матрица, составленная из собственных значений матрицы A:

1 0 · · · 0 2 · · · =. (4.6)...

.

....

.

...

0 0 · · · n T Уравнение (4.5) можно записать также в виде = V AV, поэто му оно называется ортогональным преобразованием матрицы A или приведением матрицы A к диагональному виду.

4.5. Нахождение матрицы X по матрице. Опишем ал горитм нахождения матрицы X “объект–признак” по матрице ска лярных произведений. Заметим, что из формулы (2.2) следует связь этих матриц = XXT. (4.7) Так как – симметричная матрица, то для нее применимо раз T ложение (4.5): = V V. Пусть диагональная матрица 1 0 · · · 0 2 · · · S = (4.8)...

.

....

.

...

0 0 · · · n составлена из квадратных корней собственных чисел матрицы.

Обычно числа на главной диагонали располагают в порядке невозрас тания.

Заметим, что = SS = SST. Поэтому T = V (SST )V = (V S)(V S)T.

Поэтому решением уравнения (4.7), то есть искомой матрицей “объект–признак” может быть матрица X = V S, (4.9) где S имеет вид (4.8), а каждый столбец матрицы v11 v12 · · · v1n v21 v22 · · · v2n V =...

.

....

.

...

vn1 vn2 · · · vnn является собственным вектором матрицы.

Заметим, что решение этой задачи не единственно. Любая матри ца матрица X, полученная из X в результате ортогонального преобра зования, например поворота X = XT = V ST также будет решением уравнения (4.7). Действительно T T T XXT = (V ST )(V ST )T = V S(T T )ST V = V SST V = § 5. Метрический метод Торгерсона 5.1. Нахождение матрицы по матрице (основная теорема Торгерсона). Напомним, что элементы матрицы раз личия связаны с элементами матрицы X “объект–признак” форму лой (2.1). Элементы матрицы также находятся по матрице “объ ект–признак” (формула (2.2)). Рассмотрим случай, когда матрица X неизвестна и требуется найти связь между матрицами и.

Теорема Торгерсона: Элементы матрицы связаны с эле ментами матрицы формулой 2 ij = - (ij - i· - 2 + 2), (5.1) ·j ·· где m m m m 1 1 1 2 2 2 i· = ij, 2 = ij, 2 = 2 = i·.

·j ·· ·j m m m m j=1 i=1 j=1 i=5.2. Доказательство основной теоремы. Для удобства до казательства рассмотрим случай, когда данные матрицы X являются шкалированными, то есть m m xik = xjk = 0 для всех k (5.2) i=1 j=Использовав формулу (2.1), найдем n n n n ij = (xik - xjk)2 = x2 + x2 - 2 xikxjk (5.3) ik jk k=1 k=1 k=1 k=Просуммировав по индексу j, получим m m n m n m n 1 1 1 2 i· = ij = x2 + x2 - xikxjk = ik jk m m m m j=1 j=1 k=1 j=1 k=1 j=1 k= n n m n m 1 = x2 + x2 - xik xjk.

ik jk m m k=1 k=1 j=1 k=1 j=Последняя скобка равна нулю вследствие (5.2), поэтому n n m i· = x2 + x2, x2 = x2. (5.4) ik ·k ·k jk m k=1 k=1 j=Аналогично получим n n 2 = x2 + x2. (5.5) ·j jk ·k k=1 k=Просуммировав (5.4) по индексу i, получим n m n m n 1 2 = x2 + x2 1 = 2 x2. (5.6) ·· ik ·k ·k m m k=1 i=1 k=1 i=1 k=Подставив (5.3)–(5.6) в (5.1), получим равенство n ij = xikxjk, k=совпадающее с (2.2), следовательно, теорема верна.

5.3. Метрические метод многомерного шкалирования (метод Торгерсона). Задачей метода многомерного шкалирования является нахождение матрицы X “объект–признак” по матрице раз личий. Напомним, что саму матрицу находят способом, описанном в разделе 2.4. Основное предположение, сделанное Торгерсоном, заклю чается в том, что элементы ij связаны с элементами xik формулой (2.1) расстояния в метрическом пространстве.

После получения матрицы, дальнейший алгоритм действий та ков.

1. По матрице находят матрицу, используя теорему Торгер сона, приведенную в разделе 5.1.

2. По матрице находят матрицу X, используя формулу (4.9) из раздела 4.5.

3. По полученной матрице X пытаются интерпретировать при знаки, соответствующие столбцам этой матрицы. Если это сделать не удается, находят новую матрицу X путем поворота (3.1). Матри цу поворота выбирают из условия интерпретируемости характеристик, соответствующим столбцам полученной матрицы X.

5.4. Выбор размерности n пространства восприятия. В метрическом методе многомерного шкалирования остался невыяснен ным вопрос о размерности n пространства восприятияRn – количестве признаков, характеризующих каждый объект. Для нахождения этого числа обратимся к собственным значениям k. Они связаны элемента ми матрицы X соотношением m k = x2, ik i=то есть равны сумме квадратов значений по этому признаку.

Чем больше число k, тем более “весомым” является признак k.

Поэтому из всех m возможных собственных значений матрицы сле дует отобрать лишь n наибольших. Это основная идея метода главных компонент, рассмотреного в следующем параграфе.

k 1 2 3 4 5 6 7 k Одним из методов определения n состоит в следующем. Делает ся чертеж, где по оси x откладывается порядковый номер k, а по оси y – собственные значения k, отсортированные в порядке убывания (см.рисунок). Полученная линия должна сгладиться на k = n + координате (в этой точке должен наблюдаться излом). Для случая, приведенного на рисунке, излом происходит в точке k = 4, поэтому правильное число признаков n = k - 1 = 3.

§ 6. Метод главных компонент 6.1. Основная идея метода. Метод главных компонент за ключается в уменьшении количества исходных данных матрицы X “объект–признак”, потеряв при этом наименьшее количество инфор мации. Уменьшение данных происходит путем сокращения числа при знаков. Если первоначальная матрица X содержала n столбцов, то полученная в результате применения метода главных компонент мат рица Y будет содержать r < n столбцов.

Данные, содержащиеся в матрице X обычно содержат нужную нам информацию, но они могут быть избыточными. Кроме того, дан ные могут содержать в себе нежелательную составляющую, называе мую шумом. Природа этого шума может быть различной. Что считать шумом, а что – информацией, всегда решается с учетом поставленных целей и методов.

В результате применения метода главных компонент, мы перехо дим от исходного пространства восприятия с большим количеством признаков к новому представлению, размерность которого значитель но меньше. Часто удается упростить данные на порядки: от 1000 при знаков перейти всего к двум. При этом ничего не выбрасывается – все признаки учитываются. В то же время несущественная для сути де ла часть данных отделяется, превращается в шум. Найденные главные компоненты и дают искомые скрытые признаки, управляющие устрой ством данных.

6.2. Ортогональное проектирование на подпростран ство. Рассмотрим пример. Исходная матрица X имеет два столбца:

1 -3 - X =.

3 -1 - 1 Графически данные представлены на левом рисунке. Видно, что они расположены близко к прямой y1. Поэтому в данном случае можно уменьшить число данных, оставив вместо двух признаков, соответству ющих осям x1 и x2 один признак, соответствующий оси y1. Для этого все точки проектируются на эту прямую. Предполагается, что данные должны располагаться на этой прямой, но в результате небольших оши бок и погрешностей они переместились с правильного места. Все такие отклонения от новой оси можно считать шумом, т.е. ненужной нам ин формацией. Измененные данные графически можно расположить на прямой (правый рисунок).

xyxy1 2 4 1 5 В случае многомерного пространства процесс переноса данных из пространстваRn в пространствоRr называют проекцией на гиперплос кость.

Новая матрица Y связана с X соотношением Y = XP, (6.1) где P – матрица проектирования. Эта формула похожа на формулу (3.1) преобразования координат при повороте, отличие заключается лишь в том, что матрица T поворота является квадратной (n n), а матрица P проектирования имеет размерность n r.

T Эта матрица обладает свойством P P = E, но она не будет яв T ляться ортогональной, так как она не квадратная и P P = E.

Для случая проектирования из плоскости на прямую, матрица P имеет вид cos P =, sin то есть представляет собой первый столбец матрицы T поворота (фор мула (3.2)).

6.3. Сингулярное разложение. Пусть A – произвольная мат рица размерности m n. Она может быть представлена в виде произ ведения трех матриц (или так называемого сингулярного разложения матрицы A) T A = USV, где U и V – ортогональные матрицы размерностей m m и n n, составленные из столбцов собственных векторов матриц AAT и AT A соответственно. Матрица S размерности m n – прямоугольная диа гональная матрица, диагональ которой содержит числа k – квадрат ные корни из собственных значений матрицы AAT или AT A. Обычно числа на диагонали S располагают в порядке невозрастания. Матрицы AAT и AT A являются различными, но они обладают свойством, что их ненулевые собственные значения совпадают.

Рассмотрим пример. Пусть 1 2 0.

A = 0 Тогда матрица 1 2 2 4 AAT = 0 0 имеет собственные числа 9, 5 и 0. Соответствующие им собственные векторы образуют столбцы матрицы 1 5 0 - U =.

Pages:     | 1 || 3 |






© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.