Metoda podpornih vektorjev
Section outline
-
Metodo podpornih vektorjev (SVM, support vector machines) predstavimo kot tehniko, s katero želimo poiskati ravnino, ki bi kar najbolje postavila mejo med primeri različnih razredov. Tehniko izpeljemo ob predpostavki, da je problem klasifikacijski in dvorazreden ter da taka ravnina obstaja in pravilno razmeji vse primere iz učne množice. Iščemo razmejitev z največjo rezervo oziroma najširšim pasom med pozitivnimi in negativnimi primeri. Pri izpeljavi uporabimo tehniko Lagrangeovih multiplikatorjev, ki problem iskanja najširšega pasu prevede v dualni problem iskanja Largangeovih multiplikatorjev oziroma uteži primerov. Kriterijska funkcija za slednje pa vsebuje samo skalarne produkte parov učnih primerov. Za domene z bolj kompleksnimi ločitvenimi mejami lahko v splošnem razširimo opisni jezik primerov. Pri SVM-ju to pomeni, da skalarni produkt izvedemo v transformiranem prostoru. Ker nas tako pri učenju in klasifikaciji zanimajo samo skalarni produkti vektorjev, lahko te nadomestimo s t.im. jedrom, ki je funkcija nad parom vektorjev. Trik z jedrom pravi, da za SVM potrebujemo le jedro in da nas sama transformacijska funkcija, ki preslika primere iz osnovnega v novi, razširjeni prostor, sploh ne zanima. Med najbolj znanimi jedri omenimo polinomsko in jedro RBF. Za slednje je zanimivo, da vrača število, ki bi sicer bilo skalarni produkt med vektorjema v neskončnem atributnem prostoru. Literatura
Dodatni viri- Patrick H. Winston, Learning: Support Vector Machines