分布変動に対する公平な機械学習アルゴリズムの頑健性

DOI
  • 福地 一斗
    筑波大学 理化学研究所 革新知能統合研究所

書誌事項

タイトル別名
  • Robustness of Fair Machine Learning Algorithm against Distribution Shift

抄録

<p>人種,性別などのセンシティブな個人の属性に対して機械学習で得られたモデルの出力が偏る問題が機械学習における公平性の問題として広く認知されてきており,それに伴い,偏りを解消する学習手法が盛んに研究されている.既存の公平な機械学習アルゴリズムは訓練とテスト時のサンプル分布が同一な状況に対し設計された手法であるが,現実世界では訓練とテスト時のサンプル分布が異なることがあり得る.例えば,履歴書のデータから雇用の採否を推定するタスクを公平な機械学習アルゴリズムを用いて学習を行なった時,訓練事例が5年前のサンプルであった場合,社会情勢や採用者の意識の変化などにより採否の基準が変わることは十分考えられる.この様に訓練とテスト時のサンプル分布が異なる場合,訓練時に公平に学習したとしてもテスト時には公平にならない可能性がある.本研究では分布変化が,たとえ変化が微小でも,不公平になる可能性を検証する.そのために,実際に学習したモデルが不公平になるテスト分布を作成するアルゴリズムを開発する.また,実験的な評価により既存の公平な学習アルゴリズムで得られたモデルを不公平にするテスト分布が作成できることを示す.</p>

収録刊行物

キーワード

詳細情報 詳細情報について

  • CRID
    1390848250119667200
  • NII論文ID
    130007857157
  • DOI
    10.11517/pjsai.jsai2020.0_3n5os11b05
  • 本文言語コード
    ja
  • データソース種別
    • JaLC
    • CiNii Articles
  • 抄録ライセンスフラグ
    使用不可

問題の指摘

ページトップへ