マルチモーダルセンサを用いたリアルタイムADL認識・学習フレームワークの提案

説明

センサデータを活用した ADL (日常生活動作) 認識技術の活用に注目が集まっている.これまで,RFID または加速度センサなど単一のセンサを用いて人の状態を検出する方法は多く提案されてきた.そして近年,より複雑かつ高精度な状態認識を実現するために,複数のセンサから得られるモダリティ情報を統合して用いるマルチモーダルADL認識手法が主流となりつつある.しかしながら,種類やサンプリングレートの異なる複数のセンサデータをリアルタイムで適切に統合する方法や,学習していない未知クラスへの対応という点においてはまだ課題が残されている.本稿では,マルチモーダルセンサを用いた ADL 認識 ・ 行動認識モデルの更新をリアルタイムで実現するためのフレームワークを提案する.フレームワークの実装は,オープンソースのログ収集ソフトウェアである Fluentd を独自プラグインで拡張したものを用いる.本フレームワークの応用例として,フレームワークを用いて開発した知的見守りロボット 「見守りふくろう」 の開発事例を示し,同見守りロボットを用いたの提案フレームワーク評価を行った.結果より,その動作の記述方法には改善の余地が残されているが,リアルタイムでの複数センサ統合という点では柔軟な処理を実現可能であることが示された.

収録刊行物

詳細情報 詳細情報について

問題の指摘

ページトップへ