旋律の演奏表情を考慮した言語モデルに基づく自動伴奏生成

この論文にアクセスする

この論文をさがす

著者

    • 北村正
    • 名古屋工業大学 Nagoya Institute of Technology

抄録

旋律を入力とし,伴奏の自動生成を行う先行研究のほとんどは,入力が打ち込みや楽譜であり,曲のイメージやユーザーの意図までは考慮ができなかった.本研究では旋律を演奏による入力とすることで,演奏表情を考慮し最も相応しい伴奏の和音とリズムを決定する手法を提案する.曲は音楽的連続性と音楽的同時性が自然となるよう作成されることが望ましい.伴奏の和音は確立されている音楽理論を基に決定が可能である.しかし,伴奏のリズムの決定においては理論がほとんど確立されていない.そこで本研究では,可変長クラス N-gram モデルと N-gram 確率に重み付けをする調和関数により,楽曲からリズムの連続性と同時性を学習し,リズム決定を行う手法を提案する.評価実験から可変長クラス N-gram モデルの有効性が確認された.和音については実演奏の構成音と 63.1% の一致が確認された.

収録刊行物

  • 研究報告音楽情報科学(MUS)

    研究報告音楽情報科学(MUS) 2013-MUS-100(3), 1-6, 2013-08-24

    一般社団法人情報処理学会

キーワード

各種コード

  • NII論文ID(NAID)
    110009599032
  • NII書誌ID(NCID)
    AN10438388
  • 本文言語コード
    JPN
  • 資料種別
    Technical Report
  • データ提供元
    NII-ELS  IPSJ 
ページトップへ