Boostingの過学習とその回避  [in Japanese] Overfitting of Boosting and Regularized Boosting Algorithms  [in Japanese]

Search this Article

Author(s)

    • 小野田 崇 ONODA Takashi
    • (財)電力中央研究所 Communication & Information Research Laboratory, Central Research Institute of Electric Power Industry

Abstract

AdaBoostの有する高い汎化能力は,Support Vector Machineで導入されたmarginの概念を適用することで解明されている.しかしながら,この汎化能力の高さは,学習データ中に誤分類や非常に大きい雑音を含んだデータがない場合に限られるものである.誤分類や大きい雑音を含む場合,AdaBoostは高い汎化能力を実現できないことが実験的に示されている.また,これらの結果はmarginの改善という視点から,Schapireらの研究によって理論的な裏付けが行われている.本論文では,Schapireらの議論に基づき,AdaBoostの起こす過学習を避けるため,AdaBoostが最小化する目的関数に正則化項を導外した新たなアルゴリズムAdaBoost_<Reg>,ν-Arc,ν-Boostを提案する.

Journal

  • The Transactions of the Institute of Electronics,Information and Communication Engineers.

    The Transactions of the Institute of Electronics,Information and Communication Engineers. 85(5), 776-784, 2002-05-01

    The Institute of Electronics, Information and Communication Engineers

References:  15

Cited by:  9

Codes

  • NII Article ID (NAID)
    110003184304
  • NII NACSIS-CAT ID (NCID)
    AA11340957
  • Text Lang
    JPN
  • Article Type
    Journal Article
  • ISSN
    09151923
  • NDL Article ID
    6152132
  • NDL Source Classification
    ZN33(科学技術--電気工学・電気機械工業--電子工学・電気通信)
  • NDL Call No.
    Z16-1853
  • Data Source
    CJP  CJPref  NDL  NII-ELS 
Page Top