JP2016506260A - ロボット手術器具のマーカーレス追跡 - Google Patents
ロボット手術器具のマーカーレス追跡 Download PDFInfo
- Publication number
- JP2016506260A JP2016506260A JP2015547988A JP2015547988A JP2016506260A JP 2016506260 A JP2016506260 A JP 2016506260A JP 2015547988 A JP2015547988 A JP 2015547988A JP 2015547988 A JP2015547988 A JP 2015547988A JP 2016506260 A JP2016506260 A JP 2016506260A
- Authority
- JP
- Japan
- Prior art keywords
- descriptor
- classifier
- feature
- instrument
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000004422 calculation algorithm Methods 0.000 claims description 21
- 238000012706 support-vector machine Methods 0.000 claims description 20
- 238000003709 image segmentation Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 4
- 238000012549 training Methods 0.000 abstract description 44
- 238000001727 in vivo Methods 0.000 abstract description 10
- 238000000338 in vitro Methods 0.000 abstract description 6
- 230000000007 visual effect Effects 0.000 abstract description 6
- 239000011159 matrix material Substances 0.000 description 26
- 239000013598 vector Substances 0.000 description 24
- 238000013459 approach Methods 0.000 description 20
- 239000003550 marker Substances 0.000 description 19
- 238000001514 detection method Methods 0.000 description 18
- 238000012360 testing method Methods 0.000 description 16
- 230000004927 fusion Effects 0.000 description 15
- 238000002372 labelling Methods 0.000 description 15
- 239000002184 metal Substances 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000001356 surgical procedure Methods 0.000 description 6
- 230000004438 eyesight Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 4
- 241000282898 Sus scrofa Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 210000004115 mitral valve Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 235000015277 pork Nutrition 0.000 description 2
- 230000002269 spontaneous effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 101001128814 Pandinus imperator Pandinin-1 Proteins 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
- A61B1/00149—Holding or positioning arrangements using articulated arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2059—Mechanical position encoders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本出願は、2012年12月14日出願の米国特許仮出願第61/737,172号の利益を主張する。
シーンラベル付けモジュール101は、入力画像のすべての画素にラベル付けする。図2Aを参照すると、入力画像はシーン画像201であり、典型的には解剖学的シーン202、ならびに医療器具203および204を含む。このシーンは、3つのクラス、すなわち金属、軸または背景、のうちの1つでラベル付けされる。いくつかの色およびテクスチャの特徴のガウス混合モデル(GMM)が、これら3つのクラスごとにオフラインで学習される。その後、クラス条件付き確率がクラスごとにすべての画素に割り当てられ、またラベルが割り当てられる。
特徴分類モジュール102は、シーンラベル付けモジュール101で金属としてラベル付けされた画素(図2Bのマスク領域205および206)だけを解析する。これにより誤検出率ならびに計算時間の両方が減少して、対象の特徴の1つではない可能性がある画素を解析しないようにする助けになる(これらの画素が器具先端に位置することが事前に分かっているので)。多クラス分類子は、識別特徴記述子を使用して訓練される。クラスラベル付けされた特徴は次に、画像中で位置が特定される。次に、これらの特徴検出候補は、ステレオマッチングおよび三角測量されて3D座標として位置が特定される。これらの特徴検出候補は、さらに既知の幾何学的制約を使用して解析されてアウトライヤ(outlier)が取り除かれてから、アルゴリズムの融合・追跡段階に送り込まれる。
にマッピングしなければならないからである。
を有するベクトル空間になる。
を計算するために、二乗距離の合計が式(5)により最小化される。これは、勾配降下手順の式(6)の更新ルールを用いて計算することができる。
におけるYの対数マッピングが用いられて最終ベクトルが得られる。訓練共分散行列記述子はこのユークリッド空間にマッピングされ、以下で説明される多クラス分類子を訓練するために用いられる。
を考えると、それぞれの訓練サンプルが検証セットから
を通して、葉ノードに達するまで落とされる。訓練特徴Xjおよび特徴クラス1,...,bを考えると、葉ノードでの事後分布は、b個の条件付き確率
を含み、ここでy∈1,...,bである。Xjについて木
の良好度を評価するために、
が、ラベルyjの望ましい確率1と比較され、すべての訓練特徴Xjの二乗平均平方根(RMS)エラーをΩ内のすべての評価木にわたって累積する。(最少RMSエラーに応じた)トップのL個の木が最終分類子Λのために選択される。いくつかの実施形態では、初期バッグサイズはE=125,000の候補木分類子であり、最終分類子ではL=60の訓練木に削減される。
になるように計算され、ここでrmsiは、評価データについての木γiの累積RMSエラーである。最後に、i∈1,...,Lのすべての重みwiは、合計1になるように正規化され、最終分類子結果は、これらの重みを使用した重み付け平均になる。
を使用してベクトル空間にマッピングされて、ユークリッド特徴cjが生成される。それぞれのcjは、木γiを通して落とされ、その確率が、得られた葉ノードで平均されて、L個の特徴クラスのそれぞれに属するcjの確率を表す最終確率分布piが得られる。これはL個のクラス確率画像になる。その画素位置は、それぞれのクラス確率画像内で非最大抑制によって得られる。
図1に戻ると、3D点位置(カメラの座標系内)および関連付けられた特徴ラベルを導出した後で、患者側マニピュレータ(PSM)関連付けモジュール104が、それぞれの特徴がどの器具と関連づけられるかを決定する。シーン中に多数の器具があるので、クラスラベル付けされた3D特徴位置の決定後にどの特徴がどの器具と関連付けられているかが不明確である。通常、da Vinci(登録商標)は、3つの患者側マニピュレータ(PSM)を有し、そのうちの2つだけがカメラフレーム内でいつでも見える。これらのマニピュレータはPSM0、PSM1、およびPSM2と呼ばれる。限定ではなく例として、2つの器具(PSM0およびPSM1)が同時に現われる場合が以下で論じられる。この場合、患者側マニピュレータ(PSM)関連付けモジュール104が特徴検出をPSMと関連付ける。
および
を考えると、3D単位ベクトルが、各マーカー内の回転された点位置のそれぞれの間で計算される。これにより7×7の3D単位ベクトルが、回転されたマーカーパターンごとに7×7×3行列内に得られる。加えて、7×7距離行列Dmが、そのゼロ座標フレーム内のそれぞれのマーカー位置間で計算される。
図1に戻ると、軸モジュール103が入力画像中の軸の位置を決定する。上述のように、有効なシリンダ推定値を計算するために可視である十分な軸画素があることは保証されていなく、したがって、本開示の一実施形態では、カメラに対する器具先端の距離を推定するために立体視が使用される。軸が十分に可視であるように器具がカメラから十分遠くにあるとアルゴリズムが判定した場合、シーンラベル付けモジュール101で提供された軸尤度マスクが、2つの器具の軸の1つに(場合により)属する画像の画素を収集するために使用される。それぞれの器具軸が大きい長方形のブラブとして表されていると仮定すると、器具軸の1つである可能性がないこれらの画像領域は、連結された構成要素および2D統計的尺度(例えば、アスペクト比、総画素面積)を使用して除去される。
検出された特徴が任意の所与のフレーム内で常に可視であることが保証されていないので、最終の関節でつながった姿勢を時間を越えて与えるために、融合・追跡モジュール105においてロボット運動学が視覚推定値と組み合わされる。運動学関節角度は通常、非常に速い更新速度で得られるが、各関節でのエラー累積によりあまり正確ではない可能性がある。
は真の機器関節座標系ICSとKCSの間の単位四元数回転であり、
はKCS内の遠隔中心位置である。
y3=[x1,y1,z1,...,xn,yn,zn]T (11)
本開示のシステムは、da Vinci(登録商標)手術ロボットでどちらも前もって集められた2つのタイプのデータセット、すなわち(1)ブタデータ(生体内)、および(2)豚肉データ(生体外)によって、機能することが実証された。試験するために使用されたデータは、上述の訓練収集手順に特に含まれていなかった。上述の最良重み付けランダム化木手法で約20000の訓練サンプルを使用して7つの特徴クラスを収集および訓練した後に、上述のPSM関連付けおよび幾何学的制約が適用され、最後に融合・追跡段階が実施された。
102 特徴分類モジュール
103 軸抽出モジュール
104 患者側マニピュレータ関連付けモジュール
105 融合・追跡モジュール
201 シーン画像
202 解剖学的シーン
203 医療器具、ロボット器具
204 医療器具、ロボット器具
205 マスク領域
206 マスク領域
207 マスク領域
208 マスク領域
209 マスク領域
401 ピン
402 ピン
403 ピン
404 ISロゴ
405 ホイール
406 ホイールピン
407 iドット
501 原画像
502 長方形領域
503 ボックス
504 11×11対称行列、共分散行列、共分散行列記述子
505 固有リーマン空間、リーマンマニホルド
506 66次元ベクトル空間記述子
507 接空間
601 2D境界線
602 2D境界線
603 2D境界線
604 2D境界線
605 内側線
606 内側線
606 ドット
607 ドット
701 線
702 線
703 線
704 線
705 線
706 線
707 線
708 線
709 線
700 線
710 線
711 線
712 線
713 線
714 線
715 線
716 線
717 線
718 線
719 線
720 線
801 点線
802 点線
803 実践
804 不正確なトラック
901 線
902 線
903 線
904 線
1001 僧帽弁の周辺
1002 僧帽弁の領域
1003 第3の器具
1201 iドット
1202 ISロゴ
1203 ピン3
1204 ピン1
1205 ホイール
1206 ホイールピン
1207 ピン4
Claims (17)
- 入力画像の領域の記述子を生成するステップと、
訓練された分類子を前記記述子に適用して、手術器具の特徴が前記領域内に存在するかどうかを示す出力を生成するステップと、
前記訓練された分類子の前記出力に基づいて、前記手術器具の前記特徴の位置を決定するステップと
を含むロボット手術器具追跡方法。 - 前記記述子は、共分散記述子、スケール不変特徴変換記述子、勾配方向ヒストグラム記述子、および2値頑強独立要素特徴記述子からなる群から選択される、請求項1に記載の方法。
- 前記訓練された分類子は、ランダム化木分類子、サポートベクトルマシン分類子、およびAdaBoost分類子からなる群から選択される、請求項1に記載の方法。
- 前記領域は、前記入力画像の既定の領域内から選択される、請求項1に記載の方法。
- 前記領域は、前記手術器具の先端部分に対応する前記入力画像の部分を示すマスク領域内から選択される、請求項1に記載の方法。
- 前記入力画像は複数の手術器具を含み、
前記方法はさらに、前記複数の手術器具のうちのどれに前記特徴が対応するかを決定するステップを含む、請求項1に記載の方法。 - ガウス混合モデルを適用することによって前記マスク領域を生成するステップをさらに含む請求項5に記載の方法。
- 色クラスタ化による画像セグメント化によって前記マスク領域を生成するステップをさらに含む請求項5に記載の方法。
- 閾値処理による画像セグメント化によって前記マスク領域を生成するステップをさらに含む請求項5に記載の方法。
- グラフカットアルゴリズムの適用による画像セグメント化によって前記マスク領域を生成するステップをさらに含む請求項5に記載の方法。
- 前記記述子は共分散記述子である、請求項2に記載の方法。
- 前記共分散記述子は、x座標、y座標、色相、彩度、明度、一次画像勾配、二次画像勾配、勾配の大きさ、および勾配の向きを含む、請求項11に記載の方法。
- 前記分類子はランダム化木分類子である、請求項1に記載の方法。
- 前記ランダム化木分類子はさらに、それぞれの木と関連付けられた重みを含み、
前記分類子を適用するステップは、それぞれの木と関連付けられた前記重みをそれぞれの木の出力に適用するステップを含む、請求項13に記載の方法。 - ロボット手術器具追跡システムと共に使用するための非一時的コンピュータ可読媒体であって、
入力画像の領域の記述子を生成するための命令と、
手術器具の特徴が前記領域内に存在するかどうかを示す出力を生成するように、訓練された分類子を前記記述子に適用するための命令と、
前記訓練された分類子の前記出力に基づいて前記手術器具の前記特徴の位置を決定するための命令と
を含む前記非一時的コンピュータ可読媒体。 - 前記記述子は、共分散記述子、スケール不変特徴変換記述子、勾配方向ヒストグラム記述子、および2値頑強独立要素特徴記述子からなる群から選択される、請求項15に記載の非一時的コンピュータ可読媒体。
- 前記訓練された分類子は、ランダム化木分類子、サポートベクトルマシン分類子、およびAdaBoost分類子からなる群から選択される、請求項15に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261737172P | 2012-12-14 | 2012-12-14 | |
US61/737,172 | 2012-12-14 | ||
PCT/US2013/075014 WO2014093824A1 (en) | 2012-12-14 | 2013-12-13 | Markerless tracking of robotic surgical tools |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016506260A true JP2016506260A (ja) | 2016-03-03 |
Family
ID=50934990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015547988A Pending JP2016506260A (ja) | 2012-12-14 | 2013-12-13 | ロボット手術器具のマーカーレス追跡 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20150297313A1 (ja) |
EP (1) | EP2931161A4 (ja) |
JP (1) | JP2016506260A (ja) |
AU (1) | AU2013359057A1 (ja) |
CA (1) | CA2933684A1 (ja) |
WO (1) | WO2014093824A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019515719A (ja) * | 2016-03-31 | 2019-06-13 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 腫瘍吸引のための画像誘導ロボットシステム |
JP2019530506A (ja) * | 2016-09-30 | 2019-10-24 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 医療器具の位置計画及び器具誘導のための解剖学的モデル |
KR20200005930A (ko) * | 2018-07-09 | 2020-01-17 | 에스케이텔레콤 주식회사 | 객체 추적 서버, 객체 추적 시스템 및 객체 추적 방법을 수행하는 컴퓨터 판독 가능 기록매체에 저장된 프로그램 |
JP2022549418A (ja) * | 2020-03-27 | 2022-11-25 | 北京京▲東▼尚科信息技▲術▼有限公司 | 画像記述生成方法、装置、システム、媒体及び電子機器 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9940545B2 (en) * | 2013-09-20 | 2018-04-10 | Change Healthcare Llc | Method and apparatus for detecting anatomical elements |
DE102015100927A1 (de) * | 2015-01-22 | 2016-07-28 | MAQUET GmbH | Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes |
US9905000B2 (en) * | 2015-02-19 | 2018-02-27 | Sony Corporation | Method and system for surgical tool localization during anatomical surgery |
US20170035287A1 (en) * | 2015-08-04 | 2017-02-09 | Novartis Ag | Dynamic surgical data overlay |
CN105640503B (zh) * | 2015-12-30 | 2018-10-16 | 深圳先进技术研究院 | 一种去除心电信号中静电干扰的方法和装置 |
CN114019990A (zh) * | 2016-02-24 | 2022-02-08 | 深圳市大疆创新科技有限公司 | 用于控制可移动物体的系统和方法 |
CN106137395B (zh) * | 2016-07-22 | 2019-01-29 | 华南理工大学 | 应用于无标记点光学手术导航系统的全自动病人注册方法 |
US10646288B2 (en) | 2017-04-12 | 2020-05-12 | Bio-Medical Engineering (HK) Limited | Automated steering systems and methods for a robotic endoscope |
GB2562121B (en) * | 2017-05-05 | 2022-10-12 | Bamford Excavators Ltd | Working machine |
WO2018203089A1 (en) | 2017-05-05 | 2018-11-08 | J.C. Bamford Excavators Ltd | Training machine |
GB2562122B (en) * | 2017-05-05 | 2022-10-19 | Bamford Excavators Ltd | Training machine |
US11432877B2 (en) * | 2017-08-02 | 2022-09-06 | Medtech S.A. | Surgical field camera system that only uses images from cameras with an unobstructed sight line for tracking |
US10963698B2 (en) | 2018-06-14 | 2021-03-30 | Sony Corporation | Tool handedness determination for surgical videos |
US11007018B2 (en) | 2018-06-15 | 2021-05-18 | Mako Surgical Corp. | Systems and methods for tracking objects |
CN112672709A (zh) * | 2018-07-31 | 2021-04-16 | 直观外科手术操作公司 | 用于跟踪机器人操纵的手术器械的位置的系统和方法 |
EP3657393A1 (en) * | 2018-11-20 | 2020-05-27 | Koninklijke Philips N.V. | Determination of a further processing location in magnetic resonance imaging |
US20200205911A1 (en) * | 2019-01-01 | 2020-07-02 | Transenterix Surgical, Inc. | Determining Relative Robot Base Positions Using Computer Vision |
US11399896B2 (en) | 2019-06-20 | 2022-08-02 | Sony Group Corporation | Surgical tool tip and orientation determination |
US10758309B1 (en) * | 2019-07-15 | 2020-09-01 | Digital Surgery Limited | Methods and systems for using computer-vision to enhance surgical tool control during surgeries |
US11969218B2 (en) | 2020-07-05 | 2024-04-30 | Asensus Surgical Us, Inc. | Augmented reality surgery set-up for robotic surgical procedures |
WO2023039465A1 (en) * | 2021-09-08 | 2023-03-16 | New York University | System and method for stereoscopic image generation |
US20230177703A1 (en) * | 2021-12-08 | 2023-06-08 | Verb Surgical Inc. | Tracking multiple surgical tools in a surgical video |
US20230301648A1 (en) * | 2022-03-23 | 2023-09-28 | Verb Surgical Inc. | Video-based Analysis of Stapling Events During a Surgical Procedure Using Machine Learning |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5820545A (en) * | 1995-08-14 | 1998-10-13 | Deutsche Forschungsanstalt Fur Luft-Und Raumfahrt E.V. | Method of tracking a surgical instrument with a mono or stereo laparoscope |
US20090116709A1 (en) * | 2007-11-01 | 2009-05-07 | Siemens Medical Solutions Usa, Inc | Structure segmentation via MAR-cut |
US20100027863A1 (en) * | 2008-08-01 | 2010-02-04 | Sti Medical Systems Llc | Methods for detection and characterization of atypical vessels in cervical imagery |
WO2010100701A1 (ja) * | 2009-03-06 | 2010-09-10 | 株式会社 東芝 | 学習装置、識別装置及びその方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4942539A (en) * | 1988-12-21 | 1990-07-17 | Gmf Robotics Corporation | Method and system for automatically determining the position and orientation of an object in 3-D space |
US7136518B2 (en) * | 2003-04-18 | 2006-11-14 | Medispectra, Inc. | Methods and apparatus for displaying diagnostic data |
US8971597B2 (en) * | 2005-05-16 | 2015-03-03 | Intuitive Surgical Operations, Inc. | Efficient vision and kinematic data fusion for robotic surgical instruments and other applications |
US9526587B2 (en) * | 2008-12-31 | 2016-12-27 | Intuitive Surgical Operations, Inc. | Fiducial marker design and detection for locating surgical instrument in images |
US8073528B2 (en) * | 2007-09-30 | 2011-12-06 | Intuitive Surgical Operations, Inc. | Tool tracking systems, methods and computer products for image guided surgery |
WO2009045827A2 (en) * | 2007-09-30 | 2009-04-09 | Intuitive Surgical, Inc. | Methods and systems for tool locating and tool tracking robotic instruments in robotic surgical systems |
US8086026B2 (en) * | 2008-06-27 | 2011-12-27 | Waldean Schulz | Method and system for the determination of object positions in a volume |
US9364171B2 (en) * | 2010-12-22 | 2016-06-14 | Veebot Systems, Inc. | Systems and methods for autonomous intravenous needle insertion |
-
2013
- 2013-12-13 US US14/651,484 patent/US20150297313A1/en not_active Abandoned
- 2013-12-13 JP JP2015547988A patent/JP2016506260A/ja active Pending
- 2013-12-13 CA CA2933684A patent/CA2933684A1/en not_active Abandoned
- 2013-12-13 EP EP13862359.0A patent/EP2931161A4/en not_active Withdrawn
- 2013-12-13 AU AU2013359057A patent/AU2013359057A1/en not_active Abandoned
- 2013-12-13 WO PCT/US2013/075014 patent/WO2014093824A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5820545A (en) * | 1995-08-14 | 1998-10-13 | Deutsche Forschungsanstalt Fur Luft-Und Raumfahrt E.V. | Method of tracking a surgical instrument with a mono or stereo laparoscope |
US20090116709A1 (en) * | 2007-11-01 | 2009-05-07 | Siemens Medical Solutions Usa, Inc | Structure segmentation via MAR-cut |
US20100027863A1 (en) * | 2008-08-01 | 2010-02-04 | Sti Medical Systems Llc | Methods for detection and characterization of atypical vessels in cervical imagery |
WO2010100701A1 (ja) * | 2009-03-06 | 2010-09-10 | 株式会社 東芝 | 学習装置、識別装置及びその方法 |
Non-Patent Citations (1)
Title |
---|
"Feature Classificationfor Tracking Articulated Surgical Tools", MICCAI 2012, PART II, JPN7017002862, 5 October 2012 (2012-10-05), pages 592 - 600, ISSN: 0003808355 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019515719A (ja) * | 2016-03-31 | 2019-06-13 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 腫瘍吸引のための画像誘導ロボットシステム |
JP7232050B2 (ja) | 2016-03-31 | 2023-03-02 | コーニンクレッカ フィリップス エヌ ヴェ | 腫瘍吸引のための画像誘導ロボットシステム |
JP2019530506A (ja) * | 2016-09-30 | 2019-10-24 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 医療器具の位置計画及び器具誘導のための解剖学的モデル |
JP7221862B2 (ja) | 2016-09-30 | 2023-02-14 | コーニンクレッカ フィリップス エヌ ヴェ | 医療器具の位置計画及び器具誘導のための解剖学的モデル |
KR20200005930A (ko) * | 2018-07-09 | 2020-01-17 | 에스케이텔레콤 주식회사 | 객체 추적 서버, 객체 추적 시스템 및 객체 추적 방법을 수행하는 컴퓨터 판독 가능 기록매체에 저장된 프로그램 |
KR102085699B1 (ko) * | 2018-07-09 | 2020-03-06 | 에스케이텔레콤 주식회사 | 객체 추적 서버, 객체 추적 시스템 및 객체 추적 방법을 수행하는 컴퓨터 판독 가능 기록매체에 저장된 프로그램 |
JP2022549418A (ja) * | 2020-03-27 | 2022-11-25 | 北京京▲東▼尚科信息技▲術▼有限公司 | 画像記述生成方法、装置、システム、媒体及び電子機器 |
JP7383801B2 (ja) | 2020-03-27 | 2023-11-20 | 北京京▲東▼尚科信息技▲術▼有限公司 | 画像記述生成方法、装置、システム、媒体及び電子機器 |
Also Published As
Publication number | Publication date |
---|---|
WO2014093824A1 (en) | 2014-06-19 |
AU2013359057A1 (en) | 2015-07-02 |
EP2931161A1 (en) | 2015-10-21 |
EP2931161A4 (en) | 2016-11-30 |
US20150297313A1 (en) | 2015-10-22 |
CA2933684A1 (en) | 2014-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016506260A (ja) | ロボット手術器具のマーカーレス追跡 | |
Bouget et al. | Vision-based and marker-less surgical tool detection and tracking: a review of the literature | |
Hasan et al. | Detection, segmentation, and 3D pose estimation of surgical tools using convolutional neural networks and algebraic geometry | |
Reiter et al. | Feature classification for tracking articulated surgical tools | |
Du et al. | Articulated multi-instrument 2-D pose estimation using fully convolutional networks | |
Qin et al. | Surgical instrument segmentation for endoscopic vision with data fusion of cnn prediction and kinematic pose | |
Rieke et al. | Real-time localization of articulated surgical instruments in retinal microsurgery | |
Bouget et al. | Detecting surgical tools by modelling local appearance and global shape | |
Grasa et al. | Visual SLAM for handheld monocular endoscope | |
Sznitman et al. | Data-driven visual tracking in retinal microsurgery | |
Bodenstedt et al. | Comparative evaluation of instrument segmentation and tracking methods in minimally invasive surgery | |
US9164583B2 (en) | Method and apparatus for gaze point mapping | |
Reiter et al. | Appearance learning for 3D tracking of robotic surgical tools | |
US9189855B2 (en) | Three dimensional close interactions | |
Du et al. | Combined 2D and 3D tracking of surgical instruments for minimally invasive and robotic-assisted surgery | |
Sznitman et al. | Unified detection and tracking of instruments during retinal microsurgery | |
JP2018522622A (ja) | 内視鏡および腹腔鏡のナビゲーションのためにシーン解析とモデル融合とを同時に行う方法およびシステム | |
Richa et al. | Vision-based proximity detection in retinal surgery | |
Speidel et al. | Tracking of instruments in minimally invasive surgery for surgical skill analysis | |
CN103294883A (zh) | 用于针对经导管主动脉瓣植入进行介入规划的方法和系统 | |
US11633235B2 (en) | Hybrid hardware and computer vision-based tracking system and method | |
Su et al. | Comparison of 3d surgical tool segmentation procedures with robot kinematics prior | |
Wesierski et al. | Instrument detection and pose estimation with rigid part mixtures model in video-assisted surgeries | |
Reiter et al. | Marker-less articulated surgical tool detection | |
Speidel et al. | Automatic classification of minimally invasive instruments based on endoscopic image sequences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170905 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20171129 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180605 |