自己注意ニューラルネットワークによる文に含まれる複数のアスペクトのセンチメント分析
この論文をさがす
抄録
自然言語処理の分野では,事前学習言語モデルであるBERTが注目され,多くのタスクで高い性能を達成するのに用いられ,アスペクトベースセンチメント分析にも組み込まれ始めている.アスペクトベースセンチメント分析ではテキストに含まれるアスペクトカテゴリ毎のターゲットのセンチメントを同定する.本研究では,事前学習言語モデルBERTによるテキストのエンコーディングと複数のアスペクトカテゴリの同定,及びアスペクトカテゴリ毎のターゲットフレーズとそれらが肯定的か否定的かのセンチメントを同定する自己注意機構に基づくニューラルネットワークモデルを提案する.そして,経済分野の文書で作成されたchABSAデータセットを用いて本モデルの性能を評価する.
収録刊行物
-
- 第82回全国大会講演論文集
-
第82回全国大会講演論文集 2020 (1), 511-512, 2020-02-20
- Tweet
キーワード
詳細情報 詳細情報について
-
- CRID
- 1050574047122793600
-
- NII論文ID
- 170000182441
-
- NII書誌ID
- AN00349328
-
- Web Site
- http://id.nii.ac.jp/1001/00205276/
-
- 本文言語コード
- ja
-
- 資料種別
- conference paper
-
- データソース種別
-
- IRDB
- CiNii Articles