JP7105369B2 - トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 - Google Patents
トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 Download PDFInfo
- Publication number
- JP7105369B2 JP7105369B2 JP2021508599A JP2021508599A JP7105369B2 JP 7105369 B2 JP7105369 B2 JP 7105369B2 JP 2021508599 A JP2021508599 A JP 2021508599A JP 2021508599 A JP2021508599 A JP 2021508599A JP 7105369 B2 JP7105369 B2 JP 7105369B2
- Authority
- JP
- Japan
- Prior art keywords
- representative points
- representative
- tracking
- unit
- outlier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 79
- 238000012545 processing Methods 0.000 claims description 83
- 238000001514 detection method Methods 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 36
- 239000000284 extract Substances 0.000 claims description 27
- 238000000605 extraction Methods 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 description 16
- 238000010801 machine learning Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 230000010365 information processing Effects 0.000 description 13
- 230000004048 modification Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 210000001953 common bile duct Anatomy 0.000 description 6
- 210000001096 cystic duct Anatomy 0.000 description 5
- 210000004185 liver Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 238000001356 surgical procedure Methods 0.000 description 4
- 238000002192 cholecystectomy Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 210000000683 abdominal cavity Anatomy 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002674 endoscopic surgery Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000000232 gallbladder Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/0002—Operational features of endoscopes provided with data storages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Surgery (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Multimedia (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Fuzzy Systems (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Description
従来、動画においてトラッキング対象のトラッキングを行う手法が広く利用されている。例えば、画像から物体認識を行う機械学習を実施するためには、大量のタグ付けされた画像が必要である。以下、タグ付けされた画像をタグ付け画像と表記する。タグ付け画像の生成は人手で行う必要があるため、非常に時間を要する作業である。図16を用いて後述する内視鏡下の外科手術を対象とした場合、タグ付けは当該外科手術に熟練した医師等が行う必要があり、大量の画像に対するタグ付けは容易でない。
図1は、本実施形態のトラッキング装置200の構成例を示す図である。図1に示すように、トラッキング装置200は、フレーム設定部210と、代表点抽出部221と、トラッキング部222と、外れ値除去部223と、代表点更新部224と、アノテーションデータ作成部260を含む。ただし、トラッキング装置200は図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。例えば、アノテーションデータ作成部260が省略されてもよい。
上述したトラッキング装置200の出力は、機械学習に利用されてもよい。例えば、内視鏡下の外科手術において、画像に明確な位置形状が表示されない対象物を作業者が識別しにくい場合がある。例えば、内視鏡下の外科手術において所定のランドマークを目印として手順を進めていくが、そのランドマークの位置形状が画像に明確に表示されない状態を想定できる。このとき、熟練してない医師が、不明瞭なランドマークを見分けにくい場合がある。なお、位置形状は位置及び形状のことである。
Claims (13)
- 複数のフレームを含む動画について、トラッキング対象のトラッキングを開始する開始フレームを設定するフレーム設定部と、
前記開始フレームにおける前記トラッキング対象の輪郭について、複数の代表点を抽出する代表点抽出部と、
前記開始フレーム以降のフレームについて、抽出された複数の前記代表点のトラッキングを行うトラッキング部と、
前記トラッキング部によってトラッキングされた複数の前記代表点について、複数の前記代表点の相互の関係に基づいて外れ値判定を行い、外れ値と判定された前記代表点である外れ値代表点を除く処理を行う外れ値除去部と、
前記開始フレーム以降のフレームにおいて所与の条件が満たされた場合に、前記外れ値代表点を除く処理後の複数の前記代表点に基づいて、新たな代表点を抽出することによって前記代表点を更新する代表点更新部と、
を含むことを特徴とするトラッキング装置。 - 請求項1において、
前記代表点抽出部は、
前記開始フレームにタグ付けされたタグ領域を前記トラッキング対象として、前記タグ領域の輪郭について、複数の前記代表点を抽出することを特徴とするトラッキング装置。 - 請求項1又は2において、
前記代表点抽出部は、
前記トラッキング対象の輪郭上において、隣り合う前記代表点が所与の間隔となるように複数の前記代表点を抽出することを特徴とするトラッキング装置。 - 請求項1又は2において、
前記代表点抽出部は、
前記トラッキング対象の前記輪郭上のうち、前記輪郭の曲率が高い部分における前記代表点の密度が、前記輪郭の前記曲率の低い部分における前記代表点の密度に比べて高くなるように、複数の前記代表点を抽出することを特徴とするトラッキング装置。 - 請求項1乃至4のいずれか一項において、
前記外れ値除去部は、
複数の前記代表点のうちの第1代表点について、前記第1代表点と前記輪郭に沿った方向において隣り合う1又は複数の前記代表点との相対的な距離情報、又は、前記第1代表点と前記輪郭に沿った方向において隣り合う複数の前記代表点によって形成される曲線の曲率に基づいて、前記第1代表点の逸脱度合いを判定することによって、前記第1代表点が前記外れ値代表点であるか否かを判定することを特徴とするトラッキング装置。 - 請求項1乃至5のいずれか一項において、
前記代表点更新部は、
前記外れ値代表点を除く処理によって前記代表点の個数が所与の個数閾値以下になった場合に、前記外れ値代表点を除く処理後の複数の前記代表点に基づいて、前記新たな代表点を抽出することを特徴とするトラッキング装置。 - 請求項1乃至5のいずれか一項において、
前記代表点更新部は、
トラッキング結果の信頼度が所与の信頼度閾値以下になった場合に、前記外れ値代表点を除く処理後の複数の前記代表点に基づいて、前記新たな代表点を抽出することを特徴とするトラッキング装置。 - 請求項1乃至5のいずれか一項において、
前記代表点更新部は、
所与の時間間隔において、前記外れ値代表点を除く処理後の複数の前記代表点に基づいて、前記新たな代表点を抽出することを特徴とするトラッキング装置。 - 請求項6乃至8のいずれか一項において、
前記代表点更新部は、
前記外れ値代表点を除く処理後の複数の前記代表点に基づいて閉曲線を生成し、生成した前記閉曲線上において、前記新たな代表点を抽出することを特徴とするトラッキング装置。 - 請求項1乃至9のいずれか一項において、
前記開始フレーム以降の各フレームについて、トラッキングされた複数の前記代表点に基づいて生成された閉曲線の内部をアノテーション領域とするアノテーションデータを作成するアノテーションデータ作成部をさらに含むことを特徴とするトラッキング装置。 - 学習済モデルを記憶する記憶部と、内視鏡スコープと、処理部と、を含む内視鏡システムに用いられる学習済モデルであって、
前記学習済モデルは、
複数のフレームを含む動画を取得し、トラッキング対象のトラッキングを開始する開始フレームを設定する工程と、
前記開始フレームにおける前記トラッキング対象の輪郭について、複数の代表点を抽出する工程と、
前記開始フレーム以降のフレームについて、抽出された複数の前記代表点のトラッキングを行う工程と、
トラッキングされた複数の前記代表点について、複数の前記代表点の相互の関係に基づいて外れ値判定を行い、外れ値と判定された前記代表点である外れ値代表点を除く工程と、
前記開始フレーム以降のフレームにおいて所与の条件が満たされた場合に、前記外れ値代表点を除く処理後の複数の前記代表点に基づいて、新たな代表点を抽出することによって前記代表点を更新する工程と、
前記開始フレーム以降の各フレームについて、トラッキングされた複数の前記代表点に基づいて生成された閉曲線の内部をアノテーション領域とするアノテーションデータを作成する工程と、
によって生成された前記アノテーションデータが、前記動画に含まれる前記フレームの画像に対応付けられた訓練データに基づいて、機械学習されており、
前記処理部の検出部が、前記内視鏡スコープにより撮像された検出用画像を、前記記憶部に記憶される前記学習済モデルに入力し、前記検出部が、前記学習済モデルによる検出処理を行うことで、前記検出用画像における対象物の位置形状を検出し、前記処理部の出力部が、前記検出部による前記対象物の前記位置形状の検出結果に基づいて、前記対象物を示す情報を画像に重畳して表示部に表示させることを特徴とする学習済モデル。 - 学習済モデルを記憶する記憶部と、
検出用画像を撮像する内視鏡スコープと、
前記学習済モデルに基づいて、前記検出用画像から所与の被写体の位置を検出する処理を行う処理部と、
を含み、
前記学習済モデルは、
前記検出用画像を入力として受け付け、前記検出用画像から前記所与の被写体の位置を検出する処理を行い、検出結果を出力するよう、コンピュータを機能させるための学習済みモデルであって、
複数のフレームを含む動画を取得し、トラッキング対象のトラッキングを開始する開始フレームを設定する工程と、
前記開始フレームにおける前記トラッキング対象の輪郭について、複数の代表点を抽出する工程と、
前記開始フレーム以降のフレームについて、抽出された複数の前記代表点のトラッキングを行う工程と、
トラッキングされた複数の前記代表点について、複数の前記代表点の相互の関係に基づいて外れ値判定を行い、外れ値と判定された前記代表点である外れ値代表点を除く工程と、
前記開始フレーム以降のフレームにおいて所与の条件が満たされた場合に、前記外れ値代表点を除く処理後の複数の前記代表点に基づいて、新たな代表点を抽出することによって前記代表点を更新する工程と、
前記開始フレーム以降の各フレームについて、トラッキングされた複数の前記代表点に基づいて生成された閉曲線の内部をアノテーション領域とするアノテーションデータを作成する工程と、
によって生成された前記アノテーションデータが、前記動画に含まれる前記フレームの画像に対応付けられた訓練データに基づいて、機械学習されていることを特徴とする内視鏡システム。 - フレーム設定部と、代表点抽出部と、トラッキング部と、外れ値除去部と、代表点更新部とを含むトラッキング装置におけるトラッキング方法であって、
前記フレーム設定部が、複数のフレームを含む動画を取得し、トラッキング対象のトラッキングを開始する開始フレームを設定する工程と、
前記代表点抽出部が、前記開始フレームにおける前記トラッキング対象の輪郭について、複数の代表点を抽出する工程と、
前記トラッキング部が、前記開始フレーム以降のフレームについて、抽出された複数の前記代表点のトラッキングを行う工程と、
前記外れ値除去部が、トラッキングされた複数の前記代表点について、複数の前記代表点の相互の関係に基づいて外れ値判定を行い、外れ値と判定された前記代表点である外れ値代表点を除く工程と、
前記代表点更新部が、前記開始フレーム以降のフレームにおいて所与の条件が満たされた場合に、前記外れ値代表点を除く処理後の複数の前記代表点に基づいて、新たな代表点を抽出することによって前記代表点を更新する工程と、
を含むことを特徴とするトラッキング方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/013606 WO2020194663A1 (ja) | 2019-03-28 | 2019-03-28 | トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020194663A1 JPWO2020194663A1 (ja) | 2021-10-14 |
JP7105369B2 true JP7105369B2 (ja) | 2022-07-22 |
Family
ID=72610337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021508599A Active JP7105369B2 (ja) | 2019-03-28 | 2019-03-28 | トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11900615B2 (ja) |
JP (1) | JP7105369B2 (ja) |
WO (1) | WO2020194663A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102387978B1 (ko) * | 2020-05-18 | 2022-04-18 | 이미진 | Ec 통합형 메타미디어의 제작 방법, 전송 시스템 및 전송 방법 |
EP4316384A4 (en) * | 2021-03-22 | 2024-09-11 | Fujifilm Corp | MEDICAL IMAGE PROCESSING DEVICE, ENDOSCOPE SYSTEM, MEDICAL IMAGE PROCESSING METHOD, AND MEDICAL IMAGE PROCESSING PROGRAM |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003250804A (ja) | 2002-03-05 | 2003-09-09 | Toshiba Corp | 画像処理装置及び超音波診断装置 |
WO2004081875A3 (en) | 2003-03-07 | 2005-10-06 | Siemens Corp Res Inc | System and method for tracking a global shape of an object in motion |
JP6055565B1 (ja) | 2016-03-15 | 2016-12-27 | 株式会社日立製作所 | 超音波診断装置 |
WO2017091833A1 (en) | 2015-11-29 | 2017-06-01 | Arterys Inc. | Automated cardiac volume segmentation |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6055565B2 (ja) * | 1982-03-31 | 1985-12-05 | 新日本製鐵株式会社 | 側部装入式ウオ−キング炉 |
US5764283A (en) * | 1995-12-29 | 1998-06-09 | Lucent Technologies Inc. | Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths |
US5999651A (en) * | 1997-06-06 | 1999-12-07 | Matsushita Electric Industrial Co., Ltd. | Apparatus and method for tracking deformable objects |
US6259802B1 (en) * | 1997-06-30 | 2001-07-10 | Siemens Corporate Research, Inc. | Object tracking technique using polyline contours |
US6546117B1 (en) * | 1999-06-10 | 2003-04-08 | University Of Washington | Video object segmentation using active contour modelling with global relaxation |
US6678416B1 (en) * | 2000-02-08 | 2004-01-13 | University Of Washington | Detecting and segmenting local deformation in a tracked video object |
US6937760B2 (en) * | 2000-12-28 | 2005-08-30 | University Of Washington | Interactive frame segmentation with dynamic programming |
JP2002230548A (ja) * | 2001-01-30 | 2002-08-16 | Namco Ltd | パターン認識処理装置、方法およびパターン認識プログラム |
JP4492107B2 (ja) | 2003-12-02 | 2010-06-30 | 株式会社日立メディコ | 画像診断装置 |
US7894647B2 (en) * | 2004-06-21 | 2011-02-22 | Siemens Medical Solutions Usa, Inc. | System and method for 3D contour tracking of anatomical structures |
FR2885719B1 (fr) * | 2005-05-10 | 2007-12-07 | Thomson Licensing Sa | Procede et dispositif de suivi d'objets dans une sequence d'images |
JP4870449B2 (ja) | 2006-02-27 | 2012-02-08 | 日立アロカメディカル株式会社 | 超音波診断装置及び超音波画像処理方法 |
EP1916538A3 (en) * | 2006-10-27 | 2011-02-16 | Panasonic Electric Works Co., Ltd. | Target moving object tracking device |
JP4814172B2 (ja) * | 2007-08-03 | 2011-11-16 | 日本電信電話株式会社 | 代表点追跡方法 |
JP5520463B2 (ja) * | 2008-09-04 | 2014-06-11 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、対象物追跡装置および画像処理方法 |
CN101477690B (zh) * | 2008-12-30 | 2011-04-27 | 清华大学 | 一种视频帧序列中物体轮廓跟踪的方法和装置 |
JP5290915B2 (ja) * | 2009-09-03 | 2013-09-18 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US8781160B2 (en) * | 2009-12-31 | 2014-07-15 | Indian Institute Of Technology Bombay | Image object tracking and segmentation using active contours |
US9478033B1 (en) * | 2010-08-02 | 2016-10-25 | Red Giant Software | Particle-based tracking of objects within images |
JP4784709B1 (ja) * | 2011-03-10 | 2011-10-05 | オムロン株式会社 | 対象物追跡装置、対象物追跡方法、および制御プログラム |
AU2014216000A1 (en) * | 2014-08-22 | 2016-03-10 | Canon Kabushiki Kaisha | A non-uniform curve sampling method for object tracking |
JP5918325B2 (ja) | 2014-09-11 | 2016-05-18 | 日立アロカメディカル株式会社 | 超音波診断装置 |
EP3281114A4 (en) * | 2015-07-16 | 2018-03-14 | Canfield, Raymond | Cyber security system and method using intelligent agents |
US9838604B2 (en) * | 2015-10-15 | 2017-12-05 | Ag International Gmbh | Method and system for stabilizing video frames |
CN105761277B (zh) * | 2016-02-01 | 2018-09-14 | 西安理工大学 | 一种基于光流的运动目标跟踪方法 |
US10157462B2 (en) * | 2016-06-27 | 2018-12-18 | University Of Central Florida Research Foundation, Inc. | System and method for image-based quantification of white and brown adipose tissue at the whole-body, organ and body-region levels |
EP3659067B1 (en) * | 2017-07-28 | 2023-09-20 | National University of Singapore | Method of modifying a retina fundus image for a deep learning model |
CN108090916B (zh) * | 2017-12-21 | 2019-05-07 | 百度在线网络技术(北京)有限公司 | 用于跟踪视频中的目标图形的方法和装置 |
US10740925B2 (en) * | 2018-08-29 | 2020-08-11 | Adobe Inc. | Object tracking verification in digital video |
WO2020059445A1 (ja) | 2018-09-21 | 2020-03-26 | 富士フイルム株式会社 | 画像処理装置及び画像処理方法 |
US10839531B2 (en) * | 2018-11-15 | 2020-11-17 | Sony Corporation | Object tracking based on a user-specified initialization point |
CN109753940B (zh) * | 2019-01-11 | 2022-02-22 | 京东方科技集团股份有限公司 | 图像处理方法及装置 |
US10957043B2 (en) * | 2019-02-28 | 2021-03-23 | Endosoftllc | AI systems for detecting and sizing lesions |
-
2019
- 2019-03-28 WO PCT/JP2019/013606 patent/WO2020194663A1/ja active Application Filing
- 2019-03-28 JP JP2021508599A patent/JP7105369B2/ja active Active
-
2021
- 2021-02-19 US US17/179,903 patent/US11900615B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003250804A (ja) | 2002-03-05 | 2003-09-09 | Toshiba Corp | 画像処理装置及び超音波診断装置 |
WO2004081875A3 (en) | 2003-03-07 | 2005-10-06 | Siemens Corp Res Inc | System and method for tracking a global shape of an object in motion |
WO2017091833A1 (en) | 2015-11-29 | 2017-06-01 | Arterys Inc. | Automated cardiac volume segmentation |
JP6055565B1 (ja) | 2016-03-15 | 2016-12-27 | 株式会社日立製作所 | 超音波診断装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210183076A1 (en) | 2021-06-17 |
WO2020194663A1 (ja) | 2020-10-01 |
US11900615B2 (en) | 2024-02-13 |
JPWO2020194663A1 (ja) | 2021-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Allan et al. | 2017 robotic instrument segmentation challenge | |
JP7127785B2 (ja) | 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法 | |
KR102013866B1 (ko) | 실제수술영상을 이용한 카메라 위치 산출 방법 및 장치 | |
Puerto-Souza et al. | Toward long-term and accurate augmented-reality for monocular endoscopic videos | |
EP2320379A1 (en) | Image processing device, object tracking device, and image processing method | |
CN107249464B (zh) | 荧光成像中的鲁棒钙化跟踪 | |
JP5748636B2 (ja) | 画像処理装置および方法並びにプログラム | |
US10083278B2 (en) | Method and system for displaying a timing signal for surgical instrument insertion in surgical procedures | |
WO2020194662A1 (ja) | 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体、情報処理方法及び学習済みモデルの製造方法 | |
KR20160064562A (ko) | 3d cta영상으로부터 관상동맥의 구조를 모델링하는 방법 및 장치 | |
WO2020203552A1 (ja) | 線構造抽出装置及び方法、プログラム並びに学習済みモデル | |
US8712177B2 (en) | Motion compensated overlay | |
JP7105369B2 (ja) | トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 | |
WO2022241321A1 (en) | Method and system of depth determination with closed form solution in model fusion for laparscopic surgical guidance | |
US11790537B2 (en) | Tracking device, endoscope system, and tracking method | |
Speidel et al. | Recognition of risk situations based on endoscopic instrument tracking and knowledge based situation modeling | |
Nercessian et al. | Deep cortical vessel segmentation driven by data augmentation with neural image analogy | |
Speidel et al. | Intraoperative surface reconstruction and biomechanical modeling for soft tissue registration | |
WO2020031071A1 (en) | Internal organ localization of a subject for providing assistance during surgery | |
JP6820805B2 (ja) | 画像位置合わせ装置、その作動方法およびプログラム | |
US10307209B1 (en) | Boundary localization of an internal organ of a subject for providing assistance during surgery | |
Chandelon et al. | Kidney tracking for live augmented reality in stereoscopic mini-invasive partial nephrectomy | |
Speidel et al. | Robust feature tracking for endoscopic pose estimation and structure recovery | |
Wei et al. | An Automatic and Robust Visual SLAM Method for Intra-Abdominal Environment Reconstruction | |
Zhou et al. | Real-time surface deformation recovery from stereo videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220711 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7105369 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |