ПОДХОД К ПОСТРОЕНИЮ КЛАССИФИЦИРУЮЩЕГО ДЕРЕВА НА ВИРТУАЛЬНЫХ ДАННЫХ

Опубликовано в журнале: Научный журнал «Интернаука» № 30(206)
Рубрика журнала: 3. Информационные технологии
DOI статьи: 10.32743/26870142.2021.30.206.298600
Библиографическое описание
Герман О.В., Герман Ю.О., Наср С.Н. ПОДХОД К ПОСТРОЕНИЮ КЛАССИФИЦИРУЮЩЕГО ДЕРЕВА НА ВИРТУАЛЬНЫХ ДАННЫХ // Интернаука: электрон. научн. журн. 2021. № 30(206). URL: https://internauka.org/journal/science/internauka/206 (дата обращения: 26.04.2024). DOI:10.32743/26870142.2021.30.206.298600

ПОДХОД К ПОСТРОЕНИЮ КЛАССИФИЦИРУЮЩЕГО ДЕРЕВА НА ВИРТУАЛЬНЫХ ДАННЫХ

Герман Олег Витольдович

канд. техн. наук, доц., Белорусский государственный университет информатики и радиоэлектроники,

Республика Беларусь, г. Минск

Герман Юлия Олеговна

канд. техн. наук, доц., Белорусский государственный университет информатики и радиоэлектроники, 

Республика Беларусь, г. Минск

Наср Сара Набиб

аспирант, Белорусский государственный университет информатики и радиоэлектроники,

Республика Беларусь, г. Минск

 

A NEW APPROACH TO BUILD CLASSIFYING TREE ON VIRTUAL DATA

Oleg German

candidate of technical sciences, associate Professor, Belarussian state university of informatics and radioelectronics,

Belarus, Minsk

Julia German

candidate of technical sciences, associate Professor, Belarussian state university of informatics and radioelectronics,

Belarus, Minsk

Sara Nasr

PhD student, Belarussian state university of informatics and radioelectronics,

Belarus, Minsk

 

АННОТАЦИЯ

Представлен новый подход к построению иерархического классифицирующего дерева, отличающийся тем, что не требует для создания дерева обучающей таблицы с реальными экспериментальными данными. Вместо этого используется техника полного факторного эксперимента с некоторыми ухищрениями, позволяющими снизить вероятность ложного распознавания практически до нуля (о качестве распознавания). Подробно описаны и теоретически обоснованы все шаги предложенного технического решения, а также доказана теорема об обеспечиваемом качестве распознавания. Изложение иллюстрируется примером. Результат статьи могут использоваться научными работниками и инженерами при создании систем классификации, кластеризации, прогнозирования и пр.

ABSTRACT

A new approach to construction of a hierarchical classifying tree is presented, which differs in that it does not require a training table with real experimental data for training. Instead, the technique of a full factorial experiment is used with some tweaks to reduce the probability of false recognition to almost zero (the quality of recognition). All steps of the proposed technical solution are described in detail and theoretically substantiated, and a theorem on the quality of recognition provided is proved. The presentation is illustrated by an example. The result of the article can be used by scientists and engineers when creating systems for classification, clustering, forecasting, etc.

 

Ключевые слова: классифицирующее дерево, качество классификации, виртуальные данные.

Keywords: classifying tree, classification quality, virtual data.

 

Введение

Применение классифицирующих деревьев сопряжено с двумя интересными задачами: минимизацией числа признаков (характеристик) и минимизацией издержек, связанных со сбором данных для обучения. Что касается первой проблемы, то они так или иначе решаются в существующих подходах к построению иерархических классифицирующих деревьев (ИКД) [1-3], правда вычислительная эффективность различных подходов варьирует в зависимости от требуемой точности. В связи с этим в настоящей статье изложен теоретически оптимальный метод эффективный в среднестатистическом смысле [4]. Весьма интересна вторая проблема, связанная с заменой реальных данных для обучения модельными (как мы говорим – виртуальными). Этим обеспечивается снижение затрат на хранение и разработку базы данных и  сокращение сроков создания системы классификации. Этот пункт составляет основную идею настоящей статьи.

Формализация задачи

В задачах многоальтернативного выбора используют интегральную оценочную функцию вида

                                                                                                    (1)

где ai определяют веса (приоритеты) критериев Fi (характеристик, features – в англоязычной литературе), представляющих собой неотрицательные вещественные числа в диапазоне [0,1], сумма которых равна 1, и fi(Fi) обозначают функции полезности критериев. Для отыскания аналитической формы (1) используют, например, метод иерархий Саати [5], метод Relief [6] и его известные модификации и др. Здесь мы полагаем вид (1) известным и используем в качестве примера следующую запись

                                                  (2)

Таким образом имеется девять критериев с указанными в (2) весами.                      

Обычно в задачах классификации (кластеризации, прогнозирования, идентификации и подобных) в качестве исходных данных задается набор векторов (многомерных объектов) DS (Data Set) в форме таблицы со строками, представляющими индивидуальные объекты, и столбцами, соответствующими характеристикам (атрибутам) fi. С помощью формулы (1) DS можно разбить на кластеры, например, на два кластера, в первый из которых попадают объекты, для которых значение I ³ 0.5, а во второй – те объекты, для которых I < 0.5. И вообще, используя (1), проблема отнесения произвольного многомерного объекта в соответствующий кластер становится тривиальной.

Возможна ситуация, когда DS не задан изначально, известна лишь интегральная оценка (1) (построение которой, например, по методу Саати не требует знания DS). В этой ситуации все еще актуальна задача построения классифицирующего механизма либо в форме (1), либо в форме классифицирующего дерева [1-3] и др. При этом  в записи (1), особенно при большом числе критериев, часть критериев (иногда значительная) может быть избыточной, т.е. не влиять на результат классификации. Таким образом, мы изначально ориентируемся на решение следующих задач в общей связке при исходно заданном функционале I:

- найти замену отсутствующему изначально набору данных DS;

- минимизировать число критериев за счет отбрасывания максимального числа избыточных критериев Fi.

Решение этих задач дано ниже с использованием конкретного примера (2).

Минимизация числа критериев

Мы будем ориентироваться на получение в конечном итоге иерархического классифицирующего дерева (ИКД), с помощью которого любой входной многомерный объект можно отнести в некоторый результирующий класс.

Введем некоторые базовые идеи [4] и рассмотрим таблицу 1 как пример DS, заменяющий реальные данные модельными (объяснение дано далее по тексту).

Таблица 1.

Фрагмент модельного набора DS к примеру (2)

 

f1(F1)

f2(F2)

f3(F3)

f4(F4)

f5(F5)

f6(F6)

f7(F7)

f8(F8)

f9(F9)

I

d1

0.15

0.85

0.85

0.85

0.15

0.15

0.15

0.15

0.15

0.627

d2

0.85

0.85

0.15

0.85

0.15

0.15

0.15

0.15

0.15

0.424

d3

0.85

0.85

0.85

0.85

0.15

0.15

0.15

0.85

0.15

0.697

d4

0.85

0.15

0.85

0.15

0.85

0.85

0.15

0.85

0.15

0.62

 

При построении таблицы 1 мы используем формулу (2) для вычисления значений интегральной функции выбора I. Для получения данных в столбцах f1,..., f9, будем использовать технику полного факторного эксперимента [7]. Согласно этой технике каждая функция полезности для критериев Fi принимает только два возможных значения: одно – на расстоянии в 15% от минимального значения (т.е. от 0), а второе – на расстоянии в 85% от минимального значения (т.е. 15% от максимального значения, равного 1. Таким образом общее число объектов данных в модельном DS составит 29 = 512. В действительности, эту общую идею факторного эксперимента нам нужно скорректировать: вместо значений 0.15  и 0.85 следует сгенерировать два близких случайных числа, скажем 0.149081 и 0.850307. Цель этих действий мы объясним позднее. Пока в рассуждениях будем ориентироваться на 0.15 и 0.85.

Далее нас интересует классификация на основе двух кластеров (классов) A и B, причем в кластер A попадают объекты со значением I, большим 0.,5 а в B попадают объекты со значением I, не превосходящим 0.5. 

Определение 1. Характеристика Ft различает два объекта xÎA и yÎB, если и только если  ft(Fxt) ¹  ft(Fyt).

Обратим внимание, что данное определение не требует вовсе условие  ft(Fxt) ³ 0,  ft(Fyt) < 0,  что и является отличительной чертой ИКД.

Определение 2. Множество p характеристик Fi является различающим для данного набора DS, если для любых объектов di и dj из DS, принадлежащих разным классам, имеется характеристика  Fp Îp, различающая  di и dj.

Определение 3. Множество p является минимальным (по числу характеристик) различающим множеством для данного набора DS при условии, что не существует различающего множества с меньшим числом характеристик.

Лемма. По отношению к заданной функции выбора I из (1) и набору данных DS два  минимальных различающих множества p(F) с элементами F1, F2,..., FZ  и p(f) с элементами fk(Fk), представляющими функции полезности от Fk, k = 1, z имеют одинаковые размеры, то есть  z = Z, а также находятся во взаимно однозначном соответствии друг с другом.

Доказательство. Пусть для простоты будет только два различных класса A и B. Пусть Ft различает два объекта dr и ds, но ft  их не различает, то есть Ft(dr) ¹ Ft(ds),  но  ft(Ft(dr)) = ft(Ft(ds)). Ясно, что должна найтись другая характеристика Fp, различающая dr и ds и принадлежащая p(F). В самом деле, если нет ни одной такой характеристики, то I(dr) = I(ds) и  dr и ds должны принадлежать одному и тому же классу (кластеру), что невозможно. Поэтому найдется хотя бы одна характеристика  FqÎ p(F) с Fq(dr) ¹ Fq(ds)  и  fq(Fq(dr)) ¹ fq(Fq(ds)). Тогда можно включить fq в p(f) и исключить  ft. Эти рассуждения сохраняют силу в отношении любой пары объектов dr и ds из различных классов DS и показывают как поставить два множества p(F) и  p(f) во взаимно однозначное соответствие, что завершает доказательство.

Отыскание минимального различающего множества

Для отыскания минимального различающего множества характеристик мы используем задачу о минимальном покрытии 0,1-матрицы M (называемую далее различающей) множеством строк. Строим различающую матрицу по таблице 1 (исходному набору DS) с элементами mkij = 1, если и только если fk различает объекты i и j; в противном случае  mkij = 0 (рисунок 1). Строки матрицы соответствуют функциям полезности, столбцы представлены парами (i, j) где i и j задают две различные строки в таблице 1. Например, рассмотрим строку f2 и столбец (1, 2), на пересечении которых стоит «0». Это означает, что f2 не различает объекты d1 и d2. С другой стороны, f2  различает объекты  d2 и d4, поскольку f2 (d2)=0.85, но  f2 (d4)=0.15. Значения других элементов матрицы М получаются по указанному общему правилу.                   

 

(1,2)

(2,3)

(2,4)

f1

1

0

0

f2

0

0

1

f3

1

1

1

f4

0

0

1

f5

0

0

1

f6

0

0

1

f7

0

0

0

f8

0

1

1

f9

0

0

0

Рисунок 1. Различающая 0,1-матрица М для табл. 1

 

Ясно, что среди столбцов различающей матрицы нет тех, которые представляют пары объектов из одного класса. Кроме того, в матрице М не должно быть столбцов, содержащих только нулевые элементы. Кроме того, мы не рассматриваем случай, когда нет характеристик, различающих классы (этот вырожденный случай соответствует недостаточности используемых критериев для построения ИКД).  Наша задача, таким образом, свелась к отысканию минимального покрытия матрицы M множеством строк.

Определение 4.Строка k покрывает столбец (i, j) в матрице M, если и только если  mkij = 1.

Определение 5. Минимальное покрытие pmin(f) для M содержит минимально возможное число элементов  fi, таких, что каждый столбец матрицы M покрывается хотя бы одним элементом из pmin(f).

Задача отыскания минимального покрытия pmin(f) может быть решена, как описано в [4] на основе техники, основанной на применении принципа групповых резолюций (п.г.р.). Этот принцип, дающий эффективные в среднем решения, напоминает логический метод резолюций с той разницей, что в порождении резольвент участвует одновременно более двух родительских дизъюнктов (в общем случае). Детали можно найти в [8,9]. Вернемся к таблице 1. Теоретически она порождает различающую матрицу с 2562/2 = 32768  столбцами. Однако, только 512 столбцов остаются уникальными, в то время как остальные 32768 столбцов  повторяют какие-то из них. Поэтому размеры М ограничены 9 строками и 512 столбцами. Это количество столбцов теоретически может быть порождено 33 различными объектами данных di. Очевидно, матрица M может быть просто сгенерирована программно. Найдя pmin(f),  не представляет труда построить классифицирующее дерево, например с помощью аналитического языка Python.

Экспериментальные и другие теоретически результаты

Эксперименты показали, что для построения дерева классификации необходимо учитывать все 9 признаков. Однако некоторые комбинации функций могут быть исключены, поскольку некоторые альтернативы получают очень низкие итоговые I-оценки (например, 0,3 или ниже). Это позволило сократить набор характеристик до 7 элементов, формирующих минимальное различающее множество.

Основной результат, который мы намереваемся обосновать, связан с правомочностью использования таблицы полного факторного эксперимента вместо таблицы с реальными данными. Мы намереваемся доказать, что минимальное распознающее множество на основе функций полезности из таблицы 1 сохранит способность различать реальные объекты, для которых используется интегральная оценка (2). Допустим противное: найдется реальный объект  da, принадлежащий  классу А, который был отнесен к классу В. Пусть da представлен вектором функций полезности: fa= <fa1, fa2,..., fan>. Для этого вектора имеется оценка I(fa) = a1 fa1 +a2 fa2 +...+an fan. Добавим этот объект da в таблицу 1 факторного эксперимента в виде отдельной строки (строки da). В графе I у него будет стоять величина  I(fa)³ 0.5 (принятая для класса А). Определим по этой расширенной таблице минимальное различающее множество признаков. Можно сообразить, что оно совпадет с предыдущим минимальным различающим множеством признаков для исходной таблицы 1. В самом деле, для всех k  fakÎ{0.149081, 0.850307} – сгенерированные случайные числа, что позволяет допустить то добавленная строка не совпадет ни в одном столбце ни с одной из имеющихся в таблице 1 строк (вероятность такого совпадения близка к нулю). Поэтому в  различающей матрице М в каждой строке в  новых столбцах (1, da), (2, da),  ..., (N, da),   будут стоять одни единицы. Этого условия достаточно, чтобы различающее минимальное покрытие не изменилось. Таким образом, нами доказана следующая

Теорема. Вероятность ложной классификации на основе ИКД, построенного по таблице полного факторного эксперимента с двумя крайними значениями для факторов, представленными случайно сгенерированными числами, близкими к 0.15 и 0.85, стремится к 0.

Доказанная теорема позволяет в практических целях не собирать реальные данные при построении результирующего ИКД, а ограничиться модельными факторными значениями, что экономит время, затрачиваемое на разработку классифицирующей системы с очень низкой вероятностью ложных срабатываний.

Заключение

Основное преимущество описанной техники состоит в экономии затрат памяти, поскольку нет необходимости хранить базу данных со значениями признаков. ИКД обрабатывает вектор нормализованных значений признаков (в диапазоне [0..1]). Для построения ИКД используется факторный эксперимент, в результате которого строится матрица различий, которая используется для нахождения минимального различающего покрытия, содержащего оптимальную коллекцию признаков.

В качестве последнего шага применяется скрипт Python для построения дерева классификации. Варьируя граничный уровень I между наборами A и B, можно представить набор ИКД для максимально возможной фильтрации принятых альтернатив. Эксперты могут протестировать различные модели, представленные уравнением (1), чтобы найти веса характеристик, наиболее соответствующих их предпочтениям.

 

Список литературы:

  1. Khalid S., Khalil T., Nasreen S. A survey of feature selection and feature extraction techniques in machine learning // Science and information conference. London UK. 2014. pp. 372-378.
  2. Sudrajat R., Irianingsih I., Krisnawan D. Analysis of data mining classification by comparison of C4.5 and ID algorithms. IOP Conference Series: Materials and Engineering. 2017. vol. 166. pp.12-31.
  3. Vens C., Stryif J., Shietgat L. et al. Decision trees for hierarchical multi-label classification. Machine Learning. 2008. vol.73., №2. pp. 185-214.
  4. German, O.V., Nasr  S. New method for optimal feature set reduction. Informatics and automation. SPIRAS Proceedings (St. Petersburg, Russia). 2020. vol.19, №6. pp.1198-1221.
  5. Saaty T.L., Vargas L.G. Decision making with the analytic Network Process. Springer. 2013. - 370p.
  6. Urbanovicz R.J., Meeker M., Cava V.L. et al. Relief-based feature selection: introduction and review. Journal of biomedical informatics. 2018., vol. 85, pp.189-203.
  7. Окунь Я. Факторный анализ. М. Статистика, 1974. – 198с.
  8. German J. O. One version of the group resolution principle for discrete optimization. Proc. of Intern. conf. Information Technologies and Systems (ITS) 2020. Minsk, BSUIR, 2020,  pp.165-167.
  9. Capraro A., Fischetti M. A heuristic method for the set covering problem. Operations Research. 2000. vol.47., №5.