全方位画像の分類とセマンティックセグメンテーションによる大域自己位置推定

DOI

書誌事項

タイトル別名
  • Global Self-localization based on Classification and Semantic segmentation of Omni-directional Images

抄録

<p>ロボットが自律移動するためには周囲環境の認識のもとでの自己位置の推定が必要となる.本研究では,ロボットの自己位置推定に関して,全方位画像の分類とセマンティックセグメンテーションに基づき大域的自己位置推定を行う深層ニューラルネットワークモデルを提案する.本モデルは,全方位画像の分類による「空間カテゴリ推定モジュール」,セマンティックセグメンテーションによる「物体・領域空間分布推定モジュール」,空間カテゴリ推定と物体・領域空間分布推定の結果から大域自己位置推定を行う「大域自己位置分析モジュール」から構成される.THETA-Vを利用して撮影した全方位画像とそれらのアノテーションからなるデータセットを用いた実験により,空間カテゴリ推定とセマンティックセグメンテーションの精度を評価した.また,被検者に大域自己位置分析モジュールが出力する大域自己位置記述の場所と方位を地図上にプロットしてもらう実験により大域位置推定の評価を行った.それらにより,大域的な位置の記述のためには,さらに多くのセグメントカテゴリラベルが必要なこと,並びに大域自己位置記述の仕方に工夫が必要なことが確かめられた.</p>

収録刊行物

詳細情報 詳細情報について

  • CRID
    1390003825189593344
  • NII論文ID
    130007857224
  • DOI
    10.11517/pjsai.jsai2020.0_3rin462
  • 本文言語コード
    ja
  • データソース種別
    • JaLC
    • CiNii Articles
  • 抄録ライセンスフラグ
    使用不可

問題の指摘

ページトップへ