JP7105370B2 - トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 - Google Patents
トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 Download PDFInfo
- Publication number
- JP7105370B2 JP7105370B2 JP2021508600A JP2021508600A JP7105370B2 JP 7105370 B2 JP7105370 B2 JP 7105370B2 JP 2021508600 A JP2021508600 A JP 2021508600A JP 2021508600 A JP2021508600 A JP 2021508600A JP 7105370 B2 JP7105370 B2 JP 7105370B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- frame
- mask image
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
Description
従来、動画においてトラッキング対象のトラッキングを行う手法が広く利用されている。例えば、画像から物体認識を行う機械学習を実施するためには、大量のタグ付けされた画像が必要である。以下、タグ付けされた画像をタグ付け画像と表記する。タグ付け画像の生成は人手で行う必要があるため、非常に時間を要する作業である。図20を用いて後述する内視鏡下の外科手術を対象とした場合、タグ付けは当該外科手術に熟練した医師等が行う必要があり、大量の画像に対するタグ付けは容易でない。
2.1 順方向トラッキングと逆方向トラッキング
図1は、本実施形態のトラッキング装置200の構成例を示す図である。図1に示すように、トラッキング装置200は、フレーム設定部210と、順方向トラッキング部220と、逆方向トラッキング部230と、トラッキング結果合成部240と、表示処理部250を含む。ただし、トラッキング装置200は図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
I(t)=wf(t)×If(t)+wb(t)×Ib(t) …(1)
I(t,x)=wf(t,x)×If(t,x)+wb(t,x)×Ib(t,x)
…(2)
図5は、本実施形態の順方向トラッキング部220の構成例を示す図である。図5に示すように、順方向トラッキング部220は、代表点抽出部221と、トラッキング部222と、外れ値除去部223と、代表点更新部224と、を含む。
上述したトラッキング装置200の出力は、機械学習に利用されてもよい。例えば、内視鏡下の外科手術において、画像に明確な位置形状が表示されない対象物を作業者が識別しにくい場合がある。例えば、内視鏡下の外科手術において所定のランドマークを目印として手順を進めていくが、そのランドマークの位置形状が画像に明確に表示されない状態を想定できる。このとき、熟練してない医師が、不明瞭なランドマークを見分けにくい場合がある。なお、位置形状は位置及び形状のことである。
Claims (12)
- 複数のフレームを含む動画について、開始フレームと終了フレームを設定するフレーム設定部と、
前記開始フレームにおけるトラッキング対象の領域に基づいて、前記開始フレーム以降のフレームについて、順方向に前記トラッキング対象をトラッキングする順方向トラッキングを行う順方向トラッキング部と、
前記終了フレームにおける前記トラッキング対象の領域に基づいて、前記終了フレーム以前のフレームについて、逆方向に前記トラッキング対象をトラッキングする逆方向トラッキングを行う逆方向トラッキング部と、
前記順方向トラッキングと前記逆方向トラッキングがそれぞれ行われたフレームについて、前記順方向トラッキングに基づく順方向マスク画像と、前記逆方向トラッキングに基づく逆方向マスク画像とを合成することによって、前記トラッキング対象の領域を示す合成マスク画像を生成するトラッキング結果合成部と、
を含むことを特徴とするトラッキング装置。 - 請求項1において、
前記開始フレームにおける前記トラッキング対象の領域、及び、前記終了フレームにおける前記トラッキング対象の領域は、前記トラッキング対象について付されたタグ付けデータに基づいて設定されることを特徴とするトラッキング装置。 - 請求項1又は2において、
前記トラッキング結果合成部は、
前記開始フレームに近いフレームは、前記逆方向マスク画像に比べて、前記順方向マスク画像の重みが大きくなる重み情報を設定し、
前記終了フレームに近いフレームは、前記順方向マスク画像に比べて、前記逆方向マスク画像の重みが大きくなる前記重み情報を設定し、
前記重み情報に基づいて、前記順方向マスク画像と前記逆方向マスク画像を合成することによって、前記合成マスク画像を生成することを特徴とするトラッキング装置。 - 請求項1又は2において、
前記トラッキング結果合成部は、
前記開始フレーム以降の所定数のフレームは、前記順方向マスク画像を前記合成マスク画像として適用し、
前記終了フレーム以前の所定数のフレームは、前記逆方向マスク画像を前記合成マスク画像として適用することを特徴とするトラッキング装置。 - 請求項1乃至4のいずれか一項において、
前記合成マスク画像において、前記順方向マスク画像と前記逆方向マスク画像が重複しない部分が、前記順方向マスク画像と前記逆方向マスク画像が重複する部分よりも透過率が高くなるように、前記合成マスク画像を前記動画に重畳表示する表示処理部をさらに含むことを特徴とするトラッキング装置。 - 請求項1乃至5のいずれか一項において、
前記順方向トラッキング部は、
前記開始フレームにおける前記トラッキング対象の輪郭について、開始時トラッキング点を抽出し、抽出した前記開始時トラッキング点に基づいて前記順方向トラッキングを行い、
前記逆方向トラッキング部は、
前記終了フレームにおける前記トラッキング対象の輪郭について、終了時トラッキング点を抽出し、抽出した前記終了時トラッキング点に基づいて前記逆方向トラッキングを行うことを特徴とするトラッキング装置。 - 請求項6において、
前記順方向マスク画像は、前記開始時トラッキング点のトラッキング結果である複数の点を繋いだ閉曲線の内部の領域を特定する画像であり、
前記逆方向マスク画像は、前記終了時トラッキング点のトラッキング結果である複数の点を繋いだ閉曲線の内部の領域を特定する画像であることを特徴とするトラッキング装置。 - 請求項1乃至7のいずれか一項において、
前記トラッキング結果合成部は、
前記動画中のフレーム位置、及び画像上の画素位置に依存する重み付け係数に基づいて、前記順方向マスク画像と前記逆方向マスク画像を合成することを特徴とするトラッキング装置。 - 請求項8において、
前記画素位置をxとし、前記フレーム位置をtとし、前記合成マスク画像をIとし、前記順方向マスク画像をIfとし、前記逆方向マスク画像をIbとした場合に、
前記トラッキング結果合成部は、
順方向重み付け係数wfと、逆方向重み付け係数wbとを用いて、下式(1)に基づいて前記合成マスク画像を生成することを特徴とするトラッキング装置。
I(t,x)=wf(t,x)×If(t,x)+wb(t,x)×Ib(t,x)
…(1) - 学習済モデルを記憶する記憶部と、内視鏡スコープと、処理部と、を含む内視鏡システムに用いられる学習済モデルであって、
前記学習済モデルは、
複数のフレームを含む動画について、開始フレームと終了フレームを設定する工程と、
前記開始フレームにおけるトラッキング対象の領域に基づいて、前記開始フレーム以降のフレームについて、順方向に前記トラッキング対象をトラッキングする順方向トラッキングを行う工程と、
前記終了フレームにおける前記トラッキング対象の領域に基づいて、前記終了フレーム以前のフレームについて、逆方向に前記トラッキング対象をトラッキングする逆方向トラッキングを行う工程と、
前記順方向トラッキングと前記逆方向トラッキングがそれぞれ行われたフレームについて、前記順方向トラッキングに基づく順方向マスク画像と、前記逆方向トラッキングに基づく逆方向マスク画像とを合成することによって、前記トラッキング対象の領域を示す合成マスク画像を生成する工程と、
によって生成された前記合成マスク画像が、前記動画に含まれる複数の前記フレームの各フレームの画像に対応付けられた訓練データに基づいて、機械学習されており、
前記処理部の検出部が、前記内視鏡スコープにより撮像された検出用画像を、前記記憶部に記憶される前記学習済モデルに入力し、前記検出部が、前記学習済モデルによる検出処理を行うことで、前記検出用画像における対象物の位置形状を検出し、前記処理部の出力部が、前記検出部による前記対象物の前記位置形状の検出結果に基づいて、前記対象物を示す情報を画像に重畳して表示部に表示させることを特徴とする学習済モデル。 - 学習済モデルを記憶する記憶部と、
検出用画像を撮像する内視鏡スコープと、
前記学習済モデルに基づいて、前記検出用画像から所与の被写体の位置を検出する処理を行う処理部と、
を含み、
前記学習済モデルは、
前記検出用画像を入力として受け付け、前記検出用画像から前記所与の被写体の位置を検出する処理を行い、検出結果を出力するよう、コンピュータを機能させるための学習済みモデルであって、
前記学習済モデルは、
複数のフレームを含む動画について、開始フレームと終了フレームを設定する工程と、
前記開始フレームにおけるトラッキング対象の領域に基づいて、前記開始フレーム以降のフレームについて、順方向に前記トラッキング対象をトラッキングする順方向トラッキングを行う工程と、
前記終了フレームにおける前記トラッキング対象の領域に基づいて、前記終了フレーム以前のフレームについて、逆方向に前記トラッキング対象をトラッキングする逆方向トラッキングを行う工程と、
前記順方向トラッキングと前記逆方向トラッキングがそれぞれ行われたフレームについて、前記順方向トラッキングに基づく順方向マスク画像と、前記逆方向トラッキングに基づく逆方向マスク画像とを合成することによって、前記トラッキング対象の領域を示す合成マスク画像を生成する工程と、
によって生成された前記合成マスク画像が、前記動画に含まれる複数の前記フレームの各フレームの画像に対応付けられた訓練データに基づいて、機械学習されていることを特徴とする内視鏡システム。 - フレーム設定部と、順方向トラッキング部と、逆方向トラッキング部と、トラッキング結果合成部とを含むトラッキング装置におけるトラッキング方法であって、
前記フレーム設定部が、複数のフレームを含む動画について、開始フレームと終了フレームを設定する工程と、
前記順方向トラッキング部が、前記開始フレームにおけるトラッキング対象の領域に基づいて、前記開始フレーム以降のフレームについて、順方向に前記トラッキング対象をトラッキングする順方向トラッキングを行う工程と、
前記逆方向トラッキング部が、前記終了フレームにおける前記トラッキング対象の領域に基づいて、前記終了フレーム以前のフレームについて、逆方向に前記トラッキング対象をトラッキングする逆方向トラッキングを行う工程と、
前記トラッキング結果合成部が、前記順方向トラッキングと前記逆方向トラッキングがそれぞれ行われたフレームについて、前記順方向トラッキングに基づく順方向マスク画像と、前記逆方向トラッキングに基づく逆方向マスク画像とを合成することによって、前記トラッキング対象の領域を示す合成マスク画像を生成する工程と、
を含むことを特徴とするトラッキング方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/013607 WO2020194664A1 (ja) | 2019-03-28 | 2019-03-28 | トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020194664A1 JPWO2020194664A1 (ja) | 2021-10-14 |
JP7105370B2 true JP7105370B2 (ja) | 2022-07-22 |
Family
ID=72611183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021508600A Active JP7105370B2 (ja) | 2019-03-28 | 2019-03-28 | トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11790537B2 (ja) |
JP (1) | JP7105370B2 (ja) |
WO (1) | WO2020194664A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110787A (zh) * | 2019-05-06 | 2019-08-09 | 腾讯科技(深圳)有限公司 | 目标的位置获取方法、装置、计算机设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004081875A2 (en) | 2003-03-07 | 2004-09-23 | Siemens Corporate Research Inc. | System and method for tracking a global shape of an object in motion |
JP6055565B1 (ja) | 2016-03-15 | 2016-12-27 | 株式会社日立製作所 | 超音波診断装置 |
WO2017091833A1 (en) | 2015-11-29 | 2017-06-01 | Arterys Inc. | Automated cardiac volume segmentation |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6055565B2 (ja) * | 1982-03-31 | 1985-12-05 | 新日本製鐵株式会社 | 側部装入式ウオ−キング炉 |
US5764283A (en) | 1995-12-29 | 1998-06-09 | Lucent Technologies Inc. | Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths |
US5999651A (en) | 1997-06-06 | 1999-12-07 | Matsushita Electric Industrial Co., Ltd. | Apparatus and method for tracking deformable objects |
US6259802B1 (en) | 1997-06-30 | 2001-07-10 | Siemens Corporate Research, Inc. | Object tracking technique using polyline contours |
US6546117B1 (en) | 1999-06-10 | 2003-04-08 | University Of Washington | Video object segmentation using active contour modelling with global relaxation |
US6678416B1 (en) | 2000-02-08 | 2004-01-13 | University Of Washington | Detecting and segmenting local deformation in a tracked video object |
US6937760B2 (en) | 2000-12-28 | 2005-08-30 | University Of Washington | Interactive frame segmentation with dynamic programming |
JP2002230548A (ja) | 2001-01-30 | 2002-08-16 | Namco Ltd | パターン認識処理装置、方法およびパターン認識プログラム |
JP4060615B2 (ja) | 2002-03-05 | 2008-03-12 | 株式会社東芝 | 画像処理装置及び超音波診断装置 |
JP4492107B2 (ja) | 2003-12-02 | 2010-06-30 | 株式会社日立メディコ | 画像診断装置 |
US7894647B2 (en) | 2004-06-21 | 2011-02-22 | Siemens Medical Solutions Usa, Inc. | System and method for 3D contour tracking of anatomical structures |
FR2885719B1 (fr) | 2005-05-10 | 2007-12-07 | Thomson Licensing Sa | Procede et dispositif de suivi d'objets dans une sequence d'images |
JP4870449B2 (ja) | 2006-02-27 | 2012-02-08 | 日立アロカメディカル株式会社 | 超音波診断装置及び超音波画像処理方法 |
EP1916538A3 (en) * | 2006-10-27 | 2011-02-16 | Panasonic Electric Works Co., Ltd. | Target moving object tracking device |
JP4814172B2 (ja) | 2007-08-03 | 2011-11-16 | 日本電信電話株式会社 | 代表点追跡方法 |
CH699243A2 (de) | 2008-07-25 | 2010-01-29 | Ferag Ag | Optisches Kontrollverfahren zur Erkennung von Druckereierzeugnissen bei der Druckweiterverarbeitung. |
JP5520463B2 (ja) | 2008-09-04 | 2014-06-11 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、対象物追跡装置および画像処理方法 |
CN101477690B (zh) | 2008-12-30 | 2011-04-27 | 清华大学 | 一种视频帧序列中物体轮廓跟踪的方法和装置 |
JP5290915B2 (ja) * | 2009-09-03 | 2013-09-18 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US8781160B2 (en) | 2009-12-31 | 2014-07-15 | Indian Institute Of Technology Bombay | Image object tracking and segmentation using active contours |
US9478033B1 (en) * | 2010-08-02 | 2016-10-25 | Red Giant Software | Particle-based tracking of objects within images |
JP4784709B1 (ja) | 2011-03-10 | 2011-10-05 | オムロン株式会社 | 対象物追跡装置、対象物追跡方法、および制御プログラム |
AU2014216000A1 (en) | 2014-08-22 | 2016-03-10 | Canon Kabushiki Kaisha | A non-uniform curve sampling method for object tracking |
JP5918325B2 (ja) * | 2014-09-11 | 2016-05-18 | 日立アロカメディカル株式会社 | 超音波診断装置 |
CA2983458A1 (en) | 2015-07-16 | 2017-01-19 | Raymond CANFIELD | Cyber security system and method using intelligent agents |
US9838604B2 (en) | 2015-10-15 | 2017-12-05 | Ag International Gmbh | Method and system for stabilizing video frames |
CN105761277B (zh) | 2016-02-01 | 2018-09-14 | 西安理工大学 | 一种基于光流的运动目标跟踪方法 |
CN108090916B (zh) | 2017-12-21 | 2019-05-07 | 百度在线网络技术(北京)有限公司 | 用于跟踪视频中的目标图形的方法和装置 |
US10740925B2 (en) | 2018-08-29 | 2020-08-11 | Adobe Inc. | Object tracking verification in digital video |
JP7125499B2 (ja) * | 2018-09-21 | 2022-08-24 | 富士フイルム株式会社 | 画像処理装置及び画像処理方法 |
US10839531B2 (en) | 2018-11-15 | 2020-11-17 | Sony Corporation | Object tracking based on a user-specified initialization point |
CN109753940B (zh) | 2019-01-11 | 2022-02-22 | 京东方科技集团股份有限公司 | 图像处理方法及装置 |
US10957043B2 (en) | 2019-02-28 | 2021-03-23 | Endosoftllc | AI systems for detecting and sizing lesions |
-
2019
- 2019-03-28 WO PCT/JP2019/013607 patent/WO2020194664A1/ja active Application Filing
- 2019-03-28 JP JP2021508600A patent/JP7105370B2/ja active Active
-
2021
- 2021-02-19 US US17/179,919 patent/US11790537B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004081875A2 (en) | 2003-03-07 | 2004-09-23 | Siemens Corporate Research Inc. | System and method for tracking a global shape of an object in motion |
WO2017091833A1 (en) | 2015-11-29 | 2017-06-01 | Arterys Inc. | Automated cardiac volume segmentation |
JP6055565B1 (ja) | 2016-03-15 | 2016-12-27 | 株式会社日立製作所 | 超音波診断装置 |
Also Published As
Publication number | Publication date |
---|---|
US11790537B2 (en) | 2023-10-17 |
US20210174518A1 (en) | 2021-06-10 |
WO2020194664A1 (ja) | 2020-10-01 |
JPWO2020194664A1 (ja) | 2021-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7127785B2 (ja) | 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法 | |
Chen et al. | SLAM-based dense surface reconstruction in monocular minimally invasive surgery and its application to augmented reality | |
KR102013814B1 (ko) | 수술영상을 이용한 가상신체모델 생성 방법 및 장치 | |
Mahmoud et al. | ORBSLAM-based endoscope tracking and 3D reconstruction | |
Bodenstedt et al. | Comparative evaluation of instrument segmentation and tracking methods in minimally invasive surgery | |
Mourgues et al. | 3D reconstruction of the operating field for image overlay in 3D-endoscopic surgery | |
US20180174311A1 (en) | Method and system for simultaneous scene parsing and model fusion for endoscopic and laparoscopic navigation | |
US20180108138A1 (en) | Method and system for semantic segmentation in laparoscopic and endoscopic 2d/2.5d image data | |
Tanzi et al. | Real-time deep learning semantic segmentation during intra-operative surgery for 3D augmented reality assistance | |
da Costa Rocha et al. | Self-supervised surgical tool segmentation using kinematic information | |
Zhou et al. | Real-time dense reconstruction of tissue surface from stereo optical video | |
WO2020194662A1 (ja) | 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体、情報処理方法及び学習済みモデルの製造方法 | |
JP7335370B2 (ja) | 3次元姿勢推定データを生成するためのコンピュータ実装方法、データ処理装置およびコンピュータプログラム | |
Röhl et al. | Real-time surface reconstruction from stereo endoscopic images for intraoperative registration | |
JP7105370B2 (ja) | トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 | |
EP4337132A1 (en) | Method and system of depth determination with closed form solution in model fusion for laparscopic surgical guidance | |
Speidel et al. | Recognition of risk situations based on endoscopic instrument tracking and knowledge based situation modeling | |
Ali et al. | Towards robotic knee arthroscopy: multi-scale network for tissue-tool segmentation | |
JP7105369B2 (ja) | トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 | |
EP4309142A1 (en) | Adaptive visualization of contextual targets in surgical video | |
CN111161408B (zh) | 一种实现增强现实的方法及其应用、计算设备 | |
Liu et al. | SINet: A hybrid deep CNN model for real-time detection and segmentation of surgical instruments | |
Ali et al. | A comprehensive survey on recent deep learning-based methods applied to surgical data | |
Kim et al. | Performance improvement for two-lens panoramic endoscopic system during minimally invasive surgery | |
Wei et al. | An Automatic and Robust Visual SLAM Method for Intra-Abdominal Environment Reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220711 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7105370 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |