対話に基づく観光地推薦のためのDPOを用いた情報抽出性能の改善

書誌事項

タイトル別名
  • Improving Information Extraction Performance Using DPO(Direct Preference Optimization) for Dialogue-Based Tourist Spot Recommendation

この論文をさがす

説明

<p>対話を行いながらユーザにアイテム推薦を行う推薦対話システムにおいて,対話とアイテムからどのように推薦に有用な情報を抽出し,結びつけるかは重要な課題である.先行研究ではLLMを用いて対話履歴から対話要約文を,アイテムの説明文からアイテム推薦文を生成することでそれぞれ情報を抽出し,スコア予測器に要約文と推薦文を入力してスコアを推定する手法を提案した.しかし先行研究では,対話要約文とアイテム推薦文が個別に生成されていたため,対話から得られるユーザの嗜好・経験とアイテムの関係を適切に結びつけることが難しく,適切な推薦を行うことが困難な場合があった.そこで本研究では,LLMをDPOによりファインチューニングすることで,対話履歴とアイテム説明文を相互に考慮した要約文と推薦文を生成する手法を提案する.</p>

収録刊行物

詳細情報 詳細情報について

  • CRID
    1390020697874996480
  • DOI
    10.11517/jsaislud.102.0_104
  • ISSN
    24364576
    09185682
  • 本文言語コード
    ja
  • データソース種別
    • JaLC
  • 抄録ライセンスフラグ
    使用可

問題の指摘

ページトップへ