複数の損失関数を用いた深層生成モデルの訓練と制約付きブラックボックス最適化への適用

DOI

書誌事項

タイトル別名
  • Training of Deep Generative Models Using Several Loss Functions and its Application to Constrained Black-Box Optimization

抄録

<p>制約付きブラックボックス最適化において,制約を満たす実行可能領域が離散的で,かつ制約を満たす実行可能解の獲得すら困難な問題設定では,従来の制約対処法では目的関数の最適化は困難を極める.本稿では,パラメータ空間を殆ど制約の無い単純な空間へと変換する手法を提案する.詳述すれば,入力空間Zから実行可能領域Xへの写像であるDecoder G: Z -> Xを作成し,このGの入力空間Zをパラメータ空間とすることで前述の変換を実現する.空間Zの景観が複雑になることを防ぐために,Decoder Gの訓練に使用する損失関数は,各点の写像前後でそれぞれの位置関係が極力維持されるような設計になっている.多数の離散領域への複雑な写像を実現するために,Decoder GはShortcut Connectionを備えた小さなニューラルネットワークモデル (NN) を複数個繋げた設計になっており,各NNに対して損失関数が定義されている.これにより,深層生成モデルで問題となるモード崩壊が防がれている.実験では,パラメータ空間に対する実行可能領域の体積比が10-7未満であるテスト問題を用いて提案法の有用性を示す.</p>

収録刊行物

詳細情報 詳細情報について

  • CRID
    1390006895525059584
  • NII論文ID
    130008051523
  • DOI
    10.11517/pjsai.jsai2021.0_1g3gs2b05
  • 本文言語コード
    ja
  • データソース種別
    • JaLC
    • CiNii Articles
  • 抄録ライセンスフラグ
    使用不可

問題の指摘

ページトップへ