小規模データセットでの楽曲生成におけるLSTMとTransformerの比較
この論文をさがす
抄録
自動楽曲生成モデルにおいて2019 年に Google が発表した、自身が開発した ディープニューラルネットワークモデル の「Transformer」を利用した自動楽曲生成プログラム「Music Transformer」により、以前にはできなかった「フレーズの繰り返し」、「フレーズの終わりの自然さ」などの表現が可能になった。本研究では限られた小規模のデータセットで学習を行い楽曲を生成すると、Transformerが表現できるようになった特徴が出現するのか、これまでメジャーだった自動楽曲生成モデルよりも好まれる楽曲が生成されるのかを、Transformer発表前に主に使われていた自動楽曲生成モデルである「LSTM」と比較する。
収録刊行物
-
- 第85回全国大会講演論文集
-
第85回全国大会講演論文集 2023 (1), 487-488, 2023-02-16
- Tweet
キーワード
詳細情報 詳細情報について
-
- CRID
- 1050861228447110912
-
- NII書誌ID
- AN00349328
-
- Web Site
- http://id.nii.ac.jp/1001/00229928/
-
- 本文言語コード
- ja
-
- 資料種別
- conference paper
-
- データソース種別
-
- IRDB