https://www.dushevoi.ru/brands/Duravit/d-code/ 
А  Б  В  Г  Д  Е  Ж  З  И  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Э  Ю  Я  A-Z

 


STR.100
параметров, которым эмпирически корректно могут быть приписаны
некоторые пороговые (качественно специфичные) значения прогнозиру-
емого критериального показателя. Это задача построения <разделяю-
щего правила> (или <решающего правила>). Точность такого разде-
ления и предопределяет прогностическую валидность методики на дан-
ной совокупности испытуемых в данной диагностической ситуации.
Репрезентативность выборки при этом определяется степенью из-
менения точности разделения при увеличении совокупности обследо-
ванных. Влияние того или иного параметра на точность разделения
определяет <вес>, с которым входит данный параметр в задачу диаг-
ностики.
Построение формальной процедуры разделения может произво-
диться по-разному. В простейшем случае - это сравнение тестовог>
показателя с некоторым порогом. В более сложных случаях применя-
ются методы дискриминантного анализа, позволяющего описывать
<разделяющие правила> (границы диагностических областей в прост-
ранстве параметров) в виде сложных функций сразу от нескольких
параметров.
Применение определенного метода для решения задачи построения.
системы диагностических категорий определяется несколькими факто-
рами: во-первых, это соответствие допущений, положенных в основу
алгоритма, содержательным представлениям о психологической типо-
логии индивидов в рамках рассматриваемой системы психодиагности-
ческих параметров, во-вторых, это степень полноты имеющейся инфор-
мации для эффективной <остановки> алгоритма, обеспечивающей оп-
тимальное решение задачи за приемлемое время.
Под полнотой информации здесь, в частности, имеется в виду на-
личие достаточно многочисленных групп индивидов, четко и однозначно
классифицированных по заданной системе критериев. В этом случае
построение решающего правила сводится к применению какого-либо
алгоритма автоматической классификации, приспособленного к работе
с <учителем> с заданными классами. Если же критериальные классы
представлены неполно - всего несколькими представителями, для ко-
торых при этом не всегда известны все значения необходимых пара-
метров, то возникает ситуация, требующая применения так называе-
мых <эвристических алгоритмов> (более подробно о применяемых алго
ритмах классификации см. кн.: Типология и классификация в социоло
гических исследованиях. М., 1982).
Остановимся здесь на одном из методов распознавания, получив
шим опыт применения в психодиагностике - на семействе алгорит
мов вычисления оценок (АВО), предложенных и разрабатываемы:
Ю. И. Журавлевым и его учениками (1978).
Содержательно основную задачу распознавания образов можн
сформулировать как задачу отнесения объекта S к одному или не
скольким классам Ki, Кг,..., K.i на основе информации о класса
/(7(1), 1{К.2),...,1 (K.i), информации об объекте 1(S) и предположени
о близости объекта к классу. Другими словами, задачу распознав
ния. можно сформулировать как задачу определения того, обладает л
объект определенными свойствами.
В основе АВО (или алгоритмов голосования) лежит принцип ча(
тичной прецедентности: близость объекта к классу тем больше, че
больше частей в его описании <похожи> на соответствующие части
описаниях объектов, чья принадлежность классу известна. Наприме
в одном из вариантов АВО (Зеличенко А. И" 1982) функция близок
объекта S к классу К определяется как:
STR.101
r(S,K)=P,B(a,{S), a,(S), (3.5.3)
t=i /-i
B(a,(S) a,)) если1а)-а,)1<е,,
" <\> o-в противном случае,
где - t-тый объект, принадлежность которого к классу К уже
известна;
а,(5) - J-ТЫЙ элемент (параметр) в-описании объекта;
Р, - его вес;
е, - J-ТЫЙ порог.
После того как вычислены r(S\K\),...,r(S\, Ki) на основании
некоторого решающего правила (зависящего от вектора параметров
В), принимается решение о принадлежности объекта к одному или не-
скольким классам К\, ... , Ki. В задачах психодиагностики S .- это
испытуемый.
Таким образом, каждый вариант АВО определяется набором зна-
чений параметров. В нашем случае - это векторы p==(pi,...,pm),
е = (61,..., Ёт). Если информация об объекте S представлена в виде
1(S)= (fli,..., dm), то элемент вектора опорных множеств Wi(S)=d!,
а ; - /-тый порог.
В качестве примера решающего правила можно привести следую-
щее (линейное пороговое решающее правило):
объект S принадлежит классу Kt, если
lr(S,)>Ci, (3.5.4)
i=i
объект S не принадлежит классу Kt, если
l
ЕГЯ.Х, (3.5.5)
в остальных случаях -отказ от распознавания принадлежности объек-
та S классу Kt.
В работе алгоритмов распознавания вообще и АВО в частности
можно выделить два этапа: обучение и собственно распознавание. На
этапе обучения, как уже говорилось, происходит настройка алгоритма,
т. е. выбор таких его параметров, которые обеспечивают оптимальное
в некотором смысле распознавание объектов, обучающей выборки
(объектов, принадлежность которых классам Ki,..., Ki известна). На
этапе собственно распознавания происходит отнесение к классам
Я>,..., K.i тех объектов, принадлежность которых к классам априорно
неизвестна.
Точность распознавания на этапе обучения измеряется полнотой
и адекватностью распознавания эталонных объектов. Наряду с поня-
тием <точность> (абсолютная отделимость) иногда удобно использовать
понятие относительной отделимости объектов обучающей выборки, при-
надлежащих различным классам. В случае, когда распознавание ве-
дется для двух классов (например, в профориентации - для диффе-
ренциального прогноза успешности оптанта в одной из двух профес-
сиональных областей), относительную отделимость можно определить
как
STR.102
x - Хпип
100 - Xmin
(3.5.6)
где - точность при обучении (выраженная в процентах), a min-
минимальная возможная точность обучения (совпадает с долей объек-
тов в наибольшем классе от общего объема обучающей выборки). На
этапе собственно распознавания точность характеризует главным обра-
зом репрезентативность обучающей выборки (выборки валидизации).
Чем выше репрезентативность, тем больше совпадают показатели точ-
ности на этапах обучения и собственно распознавания.
Использование АВО кроме решения задачи распознавания позво-
ляет получить еще следующую информацию.
1. Информационные веса отдельных элементов (параметров) опи-
сания объектов. Эти веса измеряются через изменение точности рас-
познавания при исключении соответствующих параметров из описания
эталонных объектов:
е(а,)=(Х-Х (а/)) а, (3.5.7)
где 1 - точность распознавания при Р/=1; х(о/) - точность распоз-
навания при Р,==0, а а- нормирующий множитель. Информационные
веса интерпретируются как мера прогностической важности пара-
метров.
2. Оптимальные значения порогов g, т. е. значение е, обеспечива-
ющие наивысшую точность распознавания. Эти значения порогов в
нашем случае можно интерпретировать как чувствительность методики.
c.j - своего рода дифференциальный порог на шкале тестового пока-
зателя а), определяющий переход индивида из одной диагностической
категории в другую. Пусть на этапе разработки теста (тестовой бата-
реи) была обследована группа из К человек, про которых известно, что
Ki из них относится к одному классу, а Кч-к другому, K=K\+Ki.
Выбрав случайным образом из этой группы М(М<К) многомерных
описаний, проводим на них процедуру обучения алгоритма.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133
 аксессуары для ванной комнаты интернет магазин 

 Эмотион Керамикс Hampton