自己注意ニューラルネットワークによる文に含まれる複数のアスペクトのセンチメント分析

この論文をさがす

抄録

自然言語処理の分野では,事前学習言語モデルであるBERTが注目され,多くのタスクで高い性能を達成するのに用いられ,アスペクトベースセンチメント分析にも組み込まれ始めている.アスペクトベースセンチメント分析ではテキストに含まれるアスペクトカテゴリ毎のターゲットのセンチメントを同定する.本研究では,事前学習言語モデルBERTによるテキストのエンコーディングと複数のアスペクトカテゴリの同定,及びアスペクトカテゴリ毎のターゲットフレーズとそれらが肯定的か否定的かのセンチメントを同定する自己注意機構に基づくニューラルネットワークモデルを提案する.そして,経済分野の文書で作成されたchABSAデータセットを用いて本モデルの性能を評価する.

収録刊行物

キーワード

詳細情報 詳細情報について

問題の指摘

ページトップへ