カテゴリ別特徴抽出による高速スパース最小自乗サポートベクトルマシン

書誌事項

タイトル別名
  • Fast Sparse Least Squares Support Vector Training by Feature Extraction for Each Category

この論文をさがす

抄録

本論文では,カテゴリ標本特徴空間を用いた高速スパース最小自乗サポートベクトルマシン(FSLS-SVM)を提案する.FSLS-SVMでは,カテゴリごとの教師ベクトルから一次独立な教師ベクトルを選択し,カテゴリごとにそれらの教師ベクトルを基底ベクトルとした標本特徴空間を生成する.これらの標本特徴空間上に全教師ベクトルを写像し,それぞれ識別基準を決定する.このとき,これらの識別基準は,各カテゴリの一次独立な教師ベクトルのみを用いて決定できるため,通常のLS-SVMとは異なり,解にスパース性を付与できる.また,カテゴリごとに独立して一次独立な教師ベクトルの選択を行えるため,選択における計算コストは小さく,全データから選択する従来手法に比べて高速な学習が可能となる.ベンチマークデータセットを用いた計算機実験により提案手法の有効性を示す.

In this paper, we propose fast sparse least squares support vector training in category empirical feature spaces. In the proposed method, the empirical feature space for each category is generated by the independent training data. The discriminant criteria are determined in these empirical feature spaces. Then, the solution is sparse because the discriminant criterion for each category is determined by the independent training data. And, because the independent training data are selected independently for each class, the computational cost of the selection is lower than that of the conventional method which selects from all the training data. Using benchmark data sets, we evaluate the effectiveness of the proposed method over the conventional methods.

収録刊行物

関連プロジェクト

もっと見る

詳細情報 詳細情報について

  • CRID
    1050001337905757568
  • NII論文ID
    110009886639
  • NII書誌ID
    AA11464803
  • ISSN
    18827780
  • Web Site
    http://id.nii.ac.jp/1001/00141545/
  • 本文言語コード
    ja
  • 資料種別
    article
  • データソース種別
    • IRDB
    • CiNii Articles
    • KAKEN

問題の指摘

ページトップへ