Extracting Class Description from Support Vector Machines
Keywords:
Support Vector Machines, knowledge extraction, model interpretabilityAbstract
Metoda wektorów nośnych (SVM) należy do grupy statystycznych metod uczących się. Jak większość metod z tej grupy, metoda SVM buduje modele o bardzo dobrych własnościach predykcyjnych, lecz niewielkiej interpretowalności. W celu uzyskania dodatkowej wiedzy –stosuje się dodatkowe procedury wspomagające interpretowanie wyników modelowania. W artykule przedstawiono procedurę wykorzystującą informacje zawarte w wektorach nośnych – obserwacjach istotnie wpływających na postać wyznaczonej funkcji dyskryminującej. Intepretowalność modelu końcowego uzyskano dzięki zastosowaniu modelu rekurencyjnego podziału do dyskryminacji wyznaczonych wektorów nośnych.Downloads
References
Abe S. (2005), Support Vector Machines for Pattern Classification, Springer
Boser B., Guyon I., and Vapnik V. (1992). A training algorithm for optimal margin classifiers. In Haussler D. (ed.), 5th Annual ACM Workshop on COLT, ACM Press, Pittsburgh, p. 144-152
Cristianini N., Shawe-Taylor J. (2000), An Introduction to Support Vector Machines (and other kernel-based learning methods), Cambridge University Press, Cambridge
Diederich J. (ed.) (2008), Rule Extraction from Support Vector Machines, Springer
Gatnar E. (2001), Nonparametric Method for Classification and Regression (in Polish), PWN, Warszawa
Guyon I., Gunn S., Nikravesh M., Zadeh L. (eds) (2006), Feature Extraction, Foundations and Applications. Springer
Trzęsiok M. (2009), Variable Selection in Support Vector Machines (in Polish), In: Jajuga K., Walesiak M. (eds), „Taksonomia 16”, Wrocław University of Economics Publishing House, Wrocław, p. 214-222
Vapnik V. (1998), Statistical Learning Theory, John Wiley & Sons, N.Y.




