Extracting Class Description from Support Vector Machines
Słowa kluczowe:
Support Vector Machines, knowledge extraction, model interpretabilityAbstrakt
Metoda wektorów nośnych (SVM) należy do grupy statystycznych metod uczących się. Jak większość metod z tej grupy, metoda SVM buduje modele o bardzo dobrych własnościach predykcyjnych, lecz niewielkiej interpretowalności. W celu uzyskania dodatkowej wiedzy –stosuje się dodatkowe procedury wspomagające interpretowanie wyników modelowania. W artykule przedstawiono procedurę wykorzystującą informacje zawarte w wektorach nośnych – obserwacjach istotnie wpływających na postać wyznaczonej funkcji dyskryminującej. Intepretowalność modelu końcowego uzyskano dzięki zastosowaniu modelu rekurencyjnego podziału do dyskryminacji wyznaczonych wektorów nośnych.Pobrania
Bibliografia
Abe S. (2005), Support Vector Machines for Pattern Classification, Springer
Google Scholar
Boser B., Guyon I., and Vapnik V. (1992). A training algorithm for optimal margin classifiers. In Haussler D. (ed.), 5th Annual ACM Workshop on COLT, ACM Press, Pittsburgh, p. 144-152
Google Scholar
Cristianini N., Shawe-Taylor J. (2000), An Introduction to Support Vector Machines (and other kernel-based learning methods), Cambridge University Press, Cambridge
Google Scholar
Diederich J. (ed.) (2008), Rule Extraction from Support Vector Machines, Springer
Google Scholar
Gatnar E. (2001), Nonparametric Method for Classification and Regression (in Polish), PWN, Warszawa
Google Scholar
Guyon I., Gunn S., Nikravesh M., Zadeh L. (eds) (2006), Feature Extraction, Foundations and Applications. Springer
Google Scholar
Trzęsiok M. (2009), Variable Selection in Support Vector Machines (in Polish), In: Jajuga K., Walesiak M. (eds), „Taksonomia 16”, Wrocław University of Economics Publishing House, Wrocław, p. 214-222
Google Scholar
Vapnik V. (1998), Statistical Learning Theory, John Wiley & Sons, N.Y.
Google Scholar




