Résolution des problèmes de classification SVM par la méthode adaptée
Par :Formats :
- Paiement en ligne :
- Livraison à domicile ou en point Mondial Relay indisponible
- Retrait Click and Collect en magasin gratuit
- Nombre de pages104
- PrésentationBroché
- FormatGrand Format
- Poids0.166 kg
- Dimensions1,5 cm × 2,2 cm × 0,6 cm
- ISBN978-3-639-54650-7
- EAN9783639546507
- Date de parution01/03/2017
- ÉditeurOmniscriptum
Résumé
Dans ce livre, nous avons résolu le programme de minimisation quadratique convexe de SVMpar une approche primale-duale qui combine la méthode adaptée de Gabassov avec une méthode de points intérieurs. Pour initialiser l'algorithme, une procédure de mise à l'échelle est utilisée pour construire un support initial. Puis, une solution optimale est déterminée par la méthode adaptée. L'approche proposée fournit une implémentation ef cace d'un nouvel algorithme qui exploite les avantages de la méthode adaptée pour des problèmes d'apprentissage de SVM, tels que le principe de support et le concept d'estimation de suboptimalité.
Pour des problèmes de taille moyenne, les résultats expérimen- taux con rment l'ef cacité de notre approche par rapport aux algorithmes classiques d'apprentissage SVM connus tels que SMO, LIBSVM et SVMLight.
Pour des problèmes de taille moyenne, les résultats expérimen- taux con rment l'ef cacité de notre approche par rapport aux algorithmes classiques d'apprentissage SVM connus tels que SMO, LIBSVM et SVMLight.
Dans ce livre, nous avons résolu le programme de minimisation quadratique convexe de SVMpar une approche primale-duale qui combine la méthode adaptée de Gabassov avec une méthode de points intérieurs. Pour initialiser l'algorithme, une procédure de mise à l'échelle est utilisée pour construire un support initial. Puis, une solution optimale est déterminée par la méthode adaptée. L'approche proposée fournit une implémentation ef cace d'un nouvel algorithme qui exploite les avantages de la méthode adaptée pour des problèmes d'apprentissage de SVM, tels que le principe de support et le concept d'estimation de suboptimalité.
Pour des problèmes de taille moyenne, les résultats expérimen- taux con rment l'ef cacité de notre approche par rapport aux algorithmes classiques d'apprentissage SVM connus tels que SMO, LIBSVM et SVMLight.
Pour des problèmes de taille moyenne, les résultats expérimen- taux con rment l'ef cacité de notre approche par rapport aux algorithmes classiques d'apprentissage SVM connus tels que SMO, LIBSVM et SVMLight.