旋律の演奏表情を考慮した言語モデルに基づく自動伴奏生成

この論文をさがす

抄録

旋律を入力とし,伴奏の自動生成を行う先行研究のほとんどは,入力が打ち込みや楽譜であり,曲のイメージやユーザーの意図までは考慮ができなかった.本研究では旋律を演奏による入力とすることで,演奏表情を考慮し最も相応しい伴奏の和音とリズムを決定する手法を提案する.曲は音楽的連続性と音楽的同時性が自然となるよう作成されることが望ましい.伴奏の和音は確立されている音楽理論を基に決定が可能である.しかし,伴奏のリズムの決定においては理論がほとんど確立されていない.そこで本研究では,可変長クラス N-gram モデルと N-gram 確率に重み付けをする調和関数により,楽曲からリズムの連続性と同時性を学習し,リズム決定を行う手法を提案する.評価実験から可変長クラス N-gram モデルの有効性が確認された.和音については実演奏の構成音と 63.1% の一致が確認された.

収録刊行物

キーワード

詳細情報

  • CRID
    1570854177926908416
  • NII論文ID
    110009599032
  • NII書誌ID
    AN10438388
  • 本文言語コード
    ja
  • データソース種別
    • CiNii Articles

問題の指摘

ページトップへ