顔表情からの関心度推定に基づく映像コンテンツへのタギング

書誌事項

タイトル別名
  • カオ ヒョウジョウ カラ ノ カンシンド スイテイ ニ モトズク エイゾウ コンテンツ エ ノ タギング
  • Tagging Video Contents Based on Interest Estimation from Facial Expression
  • 画像情報

この論文をさがす

抄録

近年,ユーザが視聴可能な映像コンテンツは莫大な量となってきているため,ユーザが自分の好きな映像コンテンツを探し出すことが困難になりつつある.そこで我々は,映像コンテンツを視聴するユーザを撮影し,その表情から関心度を推定することで映像コンテンツにタギングを行い,番組推薦に役立てるためのシステムを提案する.撮影された顔は,Elastic Bunch Graph Matchingによって,顔特徴点抽出と個人認識が行われ,特定された個人に対して,Support Vector Machinesによって関心のクラスが推定される.関心のクラスは,Neutral,Positive,Negative,Rejectiveの4種類であり,映像コンテンツと同期してフレームごとにタギングが行われる.評価実験の結果,関心クラス推定の平均再現率は86.73% ,平均適合率は86.67%となった.

Recently, there are so many videos available for people to choose to watch. To solve this problem, we propose a tagging system for video content based on facial expression that can be used for video content recommendations. Viewer's face captured by a camera is extracted by Elastic Bunch Graph Matching, and Interest class is estimated by Support Vector Machines. The interest classes are Neutral, Positive, Negative and Rejective. They are recorded as “interest tags” in synchronization with video content. Experimental results achieved an averaged recall rate of 86.73%, and averaged precision rate of 86.67%.

収録刊行物

被引用文献 (5)*注記

もっと見る

関連プロジェクト

もっと見る

キーワード

詳細情報 詳細情報について

問題の指摘

ページトップへ