手術支援ロボットの自律レベル向上のための内視鏡画像処理

DOI
  • 西川 敦
    信州大学 繊維学部機械・ロボット学科バイオエンジニアリングコース 大阪大学 大学院基礎工学研究科機能創成専攻機能デザイン領域
  • 遠藤 航
    信州大学 大学院総合理工学研究科生命医工学専攻生体医工学分野
  • 勝又 進介
    信州大学 大学院総合理工学研究科生命医工学専攻生体医工学分野
  • 熊王 彰吾
    信州大学 大学院総合理工学研究科生命医工学専攻生体医工学分野
  • 田中 淳樹
    信州大学 大学院総合理工学研究科生命医工学専攻生体医工学分野
  • 佐藤 大徳
    信州大学 繊維学部機械・ロボット学系バイオエンジニアリング課程
  • 溝江 俊太郎
    信州大学 繊維学部機械・ロボット学系バイオエンジニアリング課程
  • 岩本 憲泰
    信州大学 繊維学部機械・ロボット学科バイオエンジニアリングコース
  • 河合 俊和
    大阪工業大学 ロボティクス&デザイン工学部ロボット工学科
  • 西澤 祐吏
    国立がん研究センター東病院 大腸外科
  • 宇都木 修一
    サレジオ工業高等専門学校
  • 鈴木 寿
    中央大学 理工学部情報工学科
  • 片井 均
    国立がん研究センター中央病院 胃外科

抄録

<p>近年のAI技術の進展により手術支援ロボットの自律化に向けた研究が着目されている.本研究では,特に,ステレオ内視鏡により得られるRGB画像およびデプス画像,ならびに,光学式3次元計測情報を適切に処理・融合することにより,手術支援ロボットの自律レベル向上に貢献できる様々な術中センシング技術の開発を,文部科学省科研費・新学術領域研究(多元計算解剖学)の一環で実施した。(1)内視鏡把持ロボットの自律制御のための有用な情報であると考えられる内視鏡画像中の手術器具の先端位置を実時間で視覚追跡する基本アルゴリズムを開発した.(2)さらに,デプス画像を併用することにより,互いに重なり合う手術器具の追跡手法ならびに手術器具と臓器の接触推定手法の開発を行った.(3)手術器具把持ロボットの自律制御を視野に入れ,臓器牽引(カウンタートラクション)時における手術器具先端荷重推定システムの開発を行った.(4)手術器具先端から臓器表面までの距離の推定手法,ならびに,手術器具の方向制御手法の開発を行った.(5)様々な内視鏡手術視野評価指標の設計を行い,内視鏡把持ロボットを用いた被験者実験により,その有用性の検討を行った.</p>

収録刊行物

  • 生体医工学

    生体医工学 Annual57 (Abstract), S3_2-S3_2, 2019

    公益社団法人 日本生体医工学会

詳細情報 詳細情報について

  • CRID
    1390846609789149440
  • NII論文ID
    130007776820
  • DOI
    10.11239/jsmbe.annual57.s3_2
  • ISSN
    18814379
    1347443X
  • 本文言語コード
    ja
  • データソース種別
    • JaLC
    • CiNii Articles
  • 抄録ライセンスフラグ
    使用不可

問題の指摘

ページトップへ