JP2016511049A - デュアルデータ同期を用いた解剖学的部位の位置の再特定 - Google Patents
デュアルデータ同期を用いた解剖学的部位の位置の再特定 Download PDFInfo
- Publication number
- JP2016511049A JP2016511049A JP2015562379A JP2015562379A JP2016511049A JP 2016511049 A JP2016511049 A JP 2016511049A JP 2015562379 A JP2015562379 A JP 2015562379A JP 2015562379 A JP2015562379 A JP 2015562379A JP 2016511049 A JP2016511049 A JP 2016511049A
- Authority
- JP
- Japan
- Prior art keywords
- exploration
- video
- subsequent
- endoscope
- flexible
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009977 dual effect Effects 0.000 title abstract description 4
- 238000000034 method Methods 0.000 claims abstract description 102
- 230000008569 process Effects 0.000 claims abstract description 33
- 238000001839 endoscopy Methods 0.000 claims abstract description 9
- 238000001574 biopsy Methods 0.000 claims description 30
- 210000003238 esophagus Anatomy 0.000 claims description 28
- 210000000056 organ Anatomy 0.000 claims description 20
- 239000000523 sample Substances 0.000 claims description 17
- 230000001360 synchronised effect Effects 0.000 claims description 17
- 210000001072 colon Anatomy 0.000 claims description 15
- 238000004458 analytical method Methods 0.000 claims description 14
- 238000010191 image analysis Methods 0.000 claims description 13
- 230000033001 locomotion Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 11
- 238000011282 treatment Methods 0.000 claims description 8
- 230000001575 pathological effect Effects 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 6
- 239000013307 optical fiber Substances 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 210000003815 abdominal wall Anatomy 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 230000002452 interceptive effect Effects 0.000 claims description 3
- 230000002441 reversible effect Effects 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 230000003993 interaction Effects 0.000 claims description 2
- 230000004927 fusion Effects 0.000 claims 1
- 230000002496 gastric effect Effects 0.000 description 11
- 239000003550 marker Substances 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 210000005070 sphincter Anatomy 0.000 description 6
- 210000001562 sternum Anatomy 0.000 description 6
- XAGAASDWSFGQEC-UHFFFAOYSA-N ethyl-(n-(4-methylphenyl)sulfonylanilino)mercury Chemical compound C=1C=C(C)C=CC=1S(=O)(=O)N([Hg]CC)C1=CC=CC=C1 XAGAASDWSFGQEC-UHFFFAOYSA-N 0.000 description 5
- 238000001356 surgical procedure Methods 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 208000023514 Barrett esophagus Diseases 0.000 description 3
- 208000023665 Barrett oesophagus Diseases 0.000 description 3
- 210000000038 chest Anatomy 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000036961 partial effect Effects 0.000 description 3
- 206010058314 Dysplasia Diseases 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 210000002784 stomach Anatomy 0.000 description 2
- 230000000153 supplemental effect Effects 0.000 description 2
- 238000002626 targeted therapy Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 208000036764 Adenocarcinoma of the esophagus Diseases 0.000 description 1
- 208000017667 Chronic Disease Diseases 0.000 description 1
- 206010030137 Oesophageal adenocarcinoma Diseases 0.000 description 1
- 206010030178 Oesophageal obstruction Diseases 0.000 description 1
- 241000282887 Suidae Species 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 208000009956 adenocarcinoma Diseases 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 239000005441 aurora Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 210000004534 cecum Anatomy 0.000 description 1
- 230000000112 colonic effect Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000005489 elastic deformation Effects 0.000 description 1
- 208000028653 esophageal adenocarcinoma Diseases 0.000 description 1
- 210000004211 gastric acid Anatomy 0.000 description 1
- 208000021302 gastroesophageal reflux disease Diseases 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 230000000968 intestinal effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000004877 mucosa Anatomy 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 239000002243 precursor Substances 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 229910052719 titanium Inorganic materials 0.000 description 1
- 239000010936 titanium Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
- A61B1/0016—Holding or positioning arrangements using motor drive units
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Endoscopes (AREA)
Abstract
Description
第1のステップ:磁気、光ファイバー、または同様な追跡デバイスなどの固定された外部基準フレームによる内視鏡の先端の位置および向きを提供する追跡システムと、管腔内または管腔外の第1または基準探査中に結合されている可撓性内視鏡ビデオとを用いて、可撓性内視鏡の先端の位置を記録するステップ、
第2のステップ:磁気、光ファイバー、または同様な追跡デバイスなどの固定された外部基準フレームによる内視鏡の先端の位置および向きを提供する追跡システムと、管腔内または管腔外のその後のまたは新しい探査中に結合されている可撓性内視鏡ビデオとを用いて、可撓性内視鏡の先端の位置を処理するステップ、特に位置合わせするステップ、
第3のステップ:リアルタイムのその後の探査と第1の探査との間の可撓性内視鏡の先端位置の位置合わせからまたはそれを用いて、その後のまたは新しい探査ビデオおよび第1または基準探査ビデオを同期させるステップ
から成ることができる。
1)同期の第3のステップは、第1の基準探査およびリアルタイムのその後の探査の両方において視認可能な類似の特徴(複数可)を抽出しかつマッチングする、リアルタイム可撓性内視鏡ビデオ解析によって改善される、リアルタイム探査と基準探査との間の可撓性内視鏡の先端位置の位置合わせからまたはそれを用いて、その後のまたは新しい探査ビデオおよび第1または基準探査ビデオを同期させるステップを含む。
第1のステップ;以前に説明されたような、
第2のステップ:探査される被験者の身体において特定の対象点を示す第1または基準探査可撓性内視鏡ビデオの1つまたは複数の画像の対話式の仮想タグ付けを付加するステップであり、この仮想タグ付けが、マウス、パッド、トラックボール、ジョイスティック、または光トラッキングなどの、ビデオの画素または画素のグループを正確に選択するようにしておく任意の相互作用またはヒューマンインターフェース装置を通してビデオの任意の選択された画像にタグを付加するようにしておく特定の第1または基準探査ビデオ読み出しによって実現される、ステップ、
第3のステップ:前に説明された第2のステップと等価なまたは同一のステップ、
第4のステップ:前に説明された第3のステップ(3つのステップ処理)を行うステップであり、位置合わせ処理が、第2のステップでタグ付けされる探査される被験者の身体の同じ特定の対象点をこのビデオで位置特定させるその後のまたは新しい探査ビデオの解析を付加し、かつこれらの仮想タグの重ね合わせによって、同期化されたその後のまたは新しい探査ビデオの同じ位置にこれを付加することによって改善される、ステップから成る。
第1のステップ:前に述べたのと同じ、
第2のステップ:探査される被験者の身体において特定の対象点を示す第1または基準探査可撓性内視鏡ビデオの1つまたは複数の画像に自動的な仮想タグ付けを付加するステップであり、この仮想タグ付けが、好ましくは、たとえば色、輝度、コントラスト、および特徴追跡、ならびに解剖学的、病理学的、または外科的な特定の特徴などの、特徴追跡、対象の視認可能な抽出点に基づく、特定のビデオ解析アルゴリズムを通して自動的に実現される、ステップ、
第3のステップ:前に述べた第2のステップ(3つのステップ処理)と等価なまたは同一のステップ、
第4のステップ:前に述べた第3のステップ(3つのステップ処理)を行うステップであり、位置合わせ処理が、第2のステップでタグ付けされる探査される被験者の身体の同じ特定の対象点をこのビデオで位置特定させるその後の新しい探査ビデオの解析を付加し、かつこれらの仮想タグの重ね合わせによって、同期化されたその後の新しい探査ビデオの同じ位置にこれを付加することによって改善され、第2のステップに使用される対象の点の検出の同じアルゴリズムが、前に説明された第3のステップ(3つのステップ処理)に規定される他の位置合わせアルゴリズムと場合によっては組み合わされる、ステップから成る。
前に説明されたように、予め行われた処置で決定される生検部位などの基準点または位置に近い可撓性内視鏡の先端の近似位置決めを行うことによる、全体の位置特定ステップ、
その後のまたは現在のインターベンション時にビデオ画像上への以前の処置中に得られる、標的部位または点のマッピングを参照することによる、精密位置決めステップ
を通して行われると考えることができる。
i)撮像装置3が少なくとも装備される可撓性内視鏡2、および場合によっては少なくとも1つのツールまたは器具と、
ii)表示手段3’、および前記内視鏡3と結合された移動制御手段3″と、
iii)電磁追跡デバイスまたは可撓性光学追跡デバイスなどの、内視鏡2の先端2’の位置および向きを提供する追跡デバイスまたはシステム4と、
iiii)コンピュータ手段(5)および結合された格納手段と
を主として備え、
内視鏡(2)の前端または先端(2’)には、電磁センサ4’または同様な追跡デバイスが設けられ、前記医療システム1は、以前に説明されたような方法を実施することができる手段、特にコンピュータ手段5内のソフトウェア手段をさらに備える。
内視鏡先端のカメラと6DOFセンサとの間の相対的な向きが以前の探査中とその後の探査中とで同じである(すなわち、以前の探査中に使用されている内視鏡がその後の探査中と同じであるか、または各製造された内視鏡が内視鏡先端のカメラと6DOFセンサとの間で同じ相対的な向きを有することを内視鏡製造業者が保証している)場合には、向き誤差は、ライブ内視鏡位置の6DOFセンサ向きとライブ内視鏡位置に一致されている以前の探査からの位置における記録された6DOFセンサ向きとの間のロール差によって与えられ得る。
取得段階:記録されたデータがタグ付けされ、さらなる処理のために格納される段階、
位置合わせ段階:ライブ処置のEMTS基準フレームの位置合わせ、および案内ビューを与えるために選択された以前に記録されたインターベンションを行うための段階、および
同期段階:ライブインターベンションの軌道と以前に位置合わせされた記録との間の空間的同期を行うための段階
である。
Claims (20)
- 1つまたは複数の連続する管腔内もしくは管腔外のその後のまたは「新しい探査」あるいは同様の処置中に、可撓性内視鏡を、第1または「基準探査」中に既に探査されている特定の位置に場合によっては数回再位置決めするための方法であって、再位置決めが、人間のユーザによって手動で、あるいは1つまたは複数のスクリーン上に2つの異なるウィンドウ上もしくは内に並行して表示される「新しい探査」可撓性内視鏡ビデオと「基準探査」可撓性内視鏡ビデオとの間の同期処理からまたはそれを使ったロボットシステムによって自動的に実現される、方法。
- 同期処理が、第1または基準探査と、電磁気、光ファイバー、または任意の他の同様なタイプの追跡デバイスなどの固定された外部基準フレームに従って内視鏡の前記先端の位置および向きを提供する追跡デバイスからのその後のまたは新しい探査との間に記録される可撓性内視鏡の先端の位置および向きの位置合わせのみに基づいている、請求項1に記載の方法。
- 同期処理が、第1または基準探査と、第1または基準探査とその後のまたは新しい探査の両方の間に視認可能な類似の特徴の抽出およびマッチングを行う、リアルタイム内視鏡ビデオ解析によって改善される追跡デバイスからのその後のまたは新しい探査との間に記録される可撓性内視鏡の先端の位置および向きの位置合わせに基づいている、請求項1または2に記載の方法。
- 2つの同期化された可撓性内視鏡ビデオが、特定の対象点を示す仮想タグによって向上され、これらの仮想タグが、ユーザによる対話形式での第1または基準探査可撓性内視鏡ビデオに基づいて、および2つの同期化されたビデオの比較に基づく画像解析により自動的にその後のまたは新しい探査可撓性内視鏡ビデオで定義される、請求項1から3のいずれか一項に記載の方法。
- 2つの同期化された可撓性内視鏡ビデオが、特定の対象点を示す仮想タグによって向上され、これらの仮想タグが、たとえば解剖学的、病理学的、または外科的な特定の特徴などの、対象の視認可能な点を抽出する自動ビデオ画像解析による自動的な第1または基準探査可撓性内視鏡ビデオに基づいて、およびその後のまたは新しい探査可撓性内視鏡ビデオにおいて対象の同じ視認可能な点を抽出する自動ビデオ画像解析と2つの同期化されたビデオの比較アルゴリズムを組み合わせる画像解析により自動的にその後のまたは新しい探査可撓性内視鏡ビデオで定義される、請求項1から3のいずれか一項に記載の方法。
- 特定の対象点を示す仮想タグによって向上されるかまたはされない、2つの同期化された可撓性内視鏡ビデオが、解剖学的および/または病理学的構造の3D身体モデルの仮想レンダリングを使った拡張現実技術を用いて融合され、この3Dモデルが、被験者の身体のその後のまたは新しい探査前に実現される術前医用画像から抽出される、請求項1から5のいずれか一項に記載の方法。
- 同期処理が、次の3つのステップ処理、すなわち、
第1のステップ:磁気、光ファイバー、または同様な追跡デバイスなどの固定された外部基準フレームによる内視鏡の先端の位置および向きを提供する追跡システムと、管腔内または管腔外の第1または基準探査中に結合された可撓性内視鏡ビデオとを用いて、可撓性内視鏡の先端の位置を記録するステップ、
第2のステップ:磁気、光ファイバー、または同様な追跡デバイスなどの固定された外部基準フレームによる内視鏡の先端の位置および向きを提供する追跡システムと、管腔内または管腔外のその後のまたは新しい探査中に結合された可撓性内視鏡ビデオとを用いて、可撓性内視鏡の先端の位置を処理するステップ、特に位置合わせするステップ、
第3のステップ:リアルタイムのその後の探査と第1の探査との間の可撓性内視鏡の先端位置の位置合わせからまたはそれを用いて、その後のまたは新しい探査ビデオおよび第1または基準探査ビデオを同期させるステップ
から成る、請求項2に記載の方法。 - 同期の第3のステップが、第1の基準探査およびリアルタイムのその後の探査の両方において視認可能な類似の特徴(複数可)を抽出しかつマッチングする、リアルタイム可撓性内視鏡ビデオ解析によって改善される、リアルタイム探査と基準探査との間の可撓性内視鏡の先端位置の位置合わせからまたはそれを用いて、その後のまたは新しい探査ビデオおよび第1または基準探査ビデオを同期させるステップを含む、請求項7に記載の方法。
- 同期処理が、より正確には、次の4つのステップ処理、すなわち、
第1のステップ:請求項7の場合と同様なステップ、
第2のステップ:探査される被験者の身体において特定の対象点を示す第1または基準探査可撓性内視鏡ビデオの1つまたは複数の画像の対話式の仮想タグ付けを付加するステップであり、この仮想タグ付けが、マウス、パッド、トラックボール、ジョイスティック、または光トラッキングなどの、ビデオの画素または一群の画素を正確に選択するようにしておく任意の相互作用またはヒューマンインターフェース装置を通してビデオの任意の選択された画像にタグを付加するようにしておく特定の第1または基準探査ビデオ読み出しによって実現される、ステップ、
第3のステップ:請求項7の第2のステップと等価なまたは同一のステップ、
第4のステップ:請求項7の第3のステップを行うステップであり、位置合わせ処理が、第2のステップでタグ付けされる探査される被験者の身体の同じ特定の対象点をこのビデオで位置特定させるその後のまたは新しい探査ビデオの解析を付加し、かつこれらの仮想タグの重ね合わせによって、同期化されたその後のまたは新しい探査ビデオの同じ位置にこれを付加することによって改善される、ステップ
から成る、請求項7または8に記載の方法。 - 同期処理が、より正確には、次の4つのステップ処理、すなわち、
第1のステップ:請求項7の場合と同じステップ、
第2のステップ:探査される被験者の身体において特定の対象点を示す第1または基準探査可撓性内視鏡ビデオの1つまたは複数の画像に自動的な仮想タグ付けを追加するステップであり、この仮想タグ付けが、好ましくは、たとえば色、輝度、コントラスト、および組織分析、ならびに特徴追跡に基づく、特定のビデオ解析アルゴリズムを通して自動的に実現され、解剖学的、病理学的、または外科的な特定の特徴などの視認可能な対象点を抽出する、ステップ、
第3のステップ:請求項7の第2のステップと等価なまたは同一のステップ、
第4のステップ:請求項7の第3のステップを行うステップであり、位置合わせ処理が、第2のステップでタグ付けされる探査される被験者の身体の同じ特定の対象点をこのビデオで位置特定させるその後の新しい探査ビデオの解析を付加し、かつこれらの仮想タグの重ね合わせによって、同期化されたその後の新しい探査ビデオの同じ位置にこれを付加することによって改善され、第2のステップに使用される対象点検出の同じアルゴリズムが、請求項7の第3のステップに規定される他の位置合わせアルゴリズムと場合によっては組み合わされる、ステップ
から成る、請求項7に記載の方法。 - 可撓性内視鏡を使った探査が、食道または結腸などの、ヒト被験体の管状器官に行われる、請求項1から10のいずれか一項に記載の方法。
- 使用される追跡システムまたは他の追跡システムによってその位置が記録され得る少なくとも2つのマーカーが、予め被験者の所与の解剖学的場所に配置され、探査される管状器官に依存しかつ好ましくは被験者が姿勢を変え得る場合に顕著な変形または変位を受けない前記場所が、好ましくは、少なくとも1つの他の内部の容易に認識可能な解剖学特徴点と共に以前のおよびその後の探査の基準点を与えるように使用される、請求項1から11のいずれか一項に記載の方法。
- 基準点が、フレームを定義し取り付けるように使用され、または第1のおよびその後の探査において被験者と関連のある、請求項12に記載の方法。
- 第1のまたは以前の探査中に、限られた数の画像が記録されまたは選択され、これは、好ましくはマーキングされまたはタグ付けされる関連情報を含み、その後の探査中に、現在のまたはライブ内視鏡位置が関連情報を含む画像と関連する位置に近い場合にのみ、ビデオ画像処理および同期ステップが行われ、ガイダンス情報が提供される、請求項1から13のいずれか一項に記載の方法。
- 管状器官が探査される場合に、画像処理が行われ、この画像処理は、その後の探査中に時刻tにおけるビデオ画像で管腔位置を解析し、同様の管腔位置によってその後のライブ位置に近い位置と関連する以前のまたは基準探査から画像を選択する、請求項1から14のいずれか一項に記載の方法。
- 探査される器官が結腸である場合は、腹壁に取り付けられる結腸の3つの点または部分が、固定の基準点または場所として使用され、その後の探査中に標的に達することが、逆方向動きを通じて行われることが好ましい、請求項1から15のいずれか一項に記載の方法。
- 可撓性内視鏡の先端の向きが、記録され、その3D位置に加えて追跡システムによって利用されて、基準探査とその後の探査との間の内視鏡の向きの回転差を評価する、請求項1から16のいずれか一項に記載の方法。
- 可撓性内視鏡の先端の正確な位置の再特定が、2つの連続する操作ステップ、すなわち、
請求項1から17のいずれか一項に記載の、予め行われた処置で決定される生検部位などの基準点または位置に近い可撓性内視鏡の先端の近似位置決めを行うことによる、全体の位置特定ステップ、
その後のまたは現在のインターベンション時にビデオ画像上への以前の処置中に得られる、標的部位または点のマッピングを参照することによる、精密位置決めステップ
を通して行われる、請求項1から17のいずれか一項に記載の方法。 - i)撮像装置(3)が少なくとも装備される可撓性内視鏡(2)、および場合によっては少なくとも1つのツールまたは器具と、
ii)表示手段(3’)、および前記内視鏡(3)と結合された移動制御手段(3″)と、
iii)電磁追跡デバイスまたは可撓性光学追跡デバイスなどの、内視鏡(2)の先端(2’)の位置および向きを提供する追跡デバイスまたはシステム(4)と、
iiii)コンピュータ手段(5)および結合された格納手段と
を主として備える医療システムであって、
内視鏡(2)の前端または先端(2’)には、電磁センサ(4’)または同様な追跡デバイスが設けられ、前記医療システム(1)が、請求項1から17のいずれか一項に記載の方法を実施することができる手段、特にコンピュータ手段(5)内のソフトウェア手段をさらに備える、医療システム。 - 可撓性内視鏡(2)の先端(2’)に固定されまたは取り付けられるセンサ(4’)および対応する追跡システム(4)が、少なくとも3D位置の追跡、好ましくはまた前記先端の向きの追跡を可能にする、請求項19に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361775930P | 2013-03-11 | 2013-03-11 | |
US61/775,930 | 2013-03-11 | ||
PCT/IB2014/000838 WO2014140813A1 (en) | 2013-03-11 | 2014-03-11 | Anatomical site relocalisation using dual data synchronisation |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016511049A true JP2016511049A (ja) | 2016-04-14 |
JP2016511049A5 JP2016511049A5 (ja) | 2017-04-06 |
JP6348130B2 JP6348130B2 (ja) | 2018-06-27 |
Family
ID=50943347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015562379A Active JP6348130B2 (ja) | 2013-03-11 | 2014-03-11 | デュアルデータ同期を用いた解剖学的部位の位置の再特定 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10736497B2 (ja) |
EP (1) | EP2996557B1 (ja) |
JP (1) | JP6348130B2 (ja) |
WO (1) | WO2014140813A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019524353A (ja) * | 2016-10-24 | 2019-09-05 | シーエスエー メディカル, インコーポレイテッド | 末梢肺病変の凍結療法を実施するための方法および装置 |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10736497B2 (en) * | 2013-03-11 | 2020-08-11 | Institut Hospitalo-Universitaire De Chirurgie Mini-Invasive Guidee Par L'image | Anatomical site relocalisation using dual data synchronisation |
CN105530852B (zh) * | 2013-09-27 | 2017-08-25 | 奥林巴斯株式会社 | 内窥镜系统 |
US20170220743A1 (en) * | 2014-02-19 | 2017-08-03 | Indiana University Research And Technology Corporation | Tracking real-time assessment of quality monitoring in endoscopy |
WO2015124159A1 (en) | 2014-02-21 | 2015-08-27 | 3Dintegrated Aps | A set comprising a surgical instrument |
US10013808B2 (en) | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
US9905000B2 (en) * | 2015-02-19 | 2018-02-27 | Sony Corporation | Method and system for surgical tool localization during anatomical surgery |
CN107624192B (zh) | 2015-05-11 | 2020-10-27 | 西门子公司 | 通过内窥镜组织分化的外科引导和术中病理的系统和方法 |
CN108024806B (zh) | 2015-07-21 | 2022-07-01 | 3D集成公司 | 套管组装套件、套管针组装套件、套筒组件、微创手术系统及其方法 |
US11020144B2 (en) | 2015-07-21 | 2021-06-01 | 3Dintegrated Aps | Minimally invasive surgery system |
DK178899B1 (en) | 2015-10-09 | 2017-05-08 | 3Dintegrated Aps | A depiction system |
EP3361979A4 (en) * | 2015-10-14 | 2019-06-26 | Surgical Theater LLC | SURGICAL NAVIGATION WITH EXTENDED REALITY |
WO2017145270A1 (ja) * | 2016-02-23 | 2017-08-31 | オリンパス株式会社 | 画像処理装置、画像処理方法および内視鏡 |
WO2018235255A1 (ja) * | 2017-06-23 | 2018-12-27 | オリンパス株式会社 | 医療システムとその作動方法 |
US20190254753A1 (en) | 2018-02-19 | 2019-08-22 | Globus Medical, Inc. | Augmented reality navigation systems for use with robotic surgical systems and methods of their use |
US11514591B2 (en) * | 2018-05-11 | 2022-11-29 | Intuitive Surgical Operations, Inc. | Systems and methods related to registration for image guided surgery |
US10902616B2 (en) * | 2018-08-13 | 2021-01-26 | Nvidia Corporation | Scene embedding for visual navigation |
EP3860426A4 (en) * | 2018-10-02 | 2022-12-07 | Convergascent LLC | ENDOSCOPE WITH INERTIAL MEASUREMENTS AND/OR HAPTIC INPUT CONTROLS |
US11514576B2 (en) * | 2018-12-14 | 2022-11-29 | Acclarent, Inc. | Surgical system with combination of sensor-based navigation and endoscopy |
WO2020193640A1 (en) * | 2019-03-26 | 2020-10-01 | Koninklijke Philips N.V. | Persistent guide wire identification |
US11992373B2 (en) | 2019-12-10 | 2024-05-28 | Globus Medical, Inc | Augmented reality headset with varied opacity for navigated robotic surgery |
US11464581B2 (en) | 2020-01-28 | 2022-10-11 | Globus Medical, Inc. | Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums |
US11382699B2 (en) | 2020-02-10 | 2022-07-12 | Globus Medical Inc. | Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery |
US11207150B2 (en) | 2020-02-19 | 2021-12-28 | Globus Medical, Inc. | Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment |
US11607277B2 (en) | 2020-04-29 | 2023-03-21 | Globus Medical, Inc. | Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery |
US11510750B2 (en) | 2020-05-08 | 2022-11-29 | Globus Medical, Inc. | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications |
US11153555B1 (en) | 2020-05-08 | 2021-10-19 | Globus Medical Inc. | Extended reality headset camera system for computer assisted navigation in surgery |
US11382700B2 (en) | 2020-05-08 | 2022-07-12 | Globus Medical Inc. | Extended reality headset tool tracking and control |
US11737831B2 (en) | 2020-09-02 | 2023-08-29 | Globus Medical Inc. | Surgical object tracking template generation for computer assisted navigation during surgical procedure |
USD1022197S1 (en) | 2020-11-19 | 2024-04-09 | Auris Health, Inc. | Endoscope |
US11642016B2 (en) * | 2021-08-10 | 2023-05-09 | Altek Biotechnology Corporation | Image capturing module, endoscope and method of manufacturing image capturing module |
US20230100698A1 (en) * | 2021-09-29 | 2023-03-30 | Cilag Gmbh International | Methods for Controlling Cooperative Surgical Instruments |
KR102637484B1 (ko) * | 2021-10-26 | 2024-02-16 | 주식회사 카이미 | 인공지능 기반의 내시경 진단 보조 시스템 및 이의 제어방법 |
CN114191078B (zh) * | 2021-12-29 | 2024-04-26 | 上海复旦数字医疗科技股份有限公司 | 一种基于混合现实的内窥镜手术导航机器人系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006513011A (ja) * | 2003-01-13 | 2006-04-20 | メディガイド リミテッド | 第1座標系に関係する医療情報をmpsシステムを使用する第2座標系において位置合わせする方法及びシステム |
US20080097156A1 (en) * | 2006-10-23 | 2008-04-24 | Pentax Corporation | Camera calibration for endoscope navigation system |
JP2009077765A (ja) * | 2007-09-25 | 2009-04-16 | Fujifilm Corp | 内視鏡システム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5829444A (en) * | 1994-09-15 | 1998-11-03 | Visualization Technology, Inc. | Position tracking and imaging system for use in medical applications |
JP2001197485A (ja) * | 2000-01-11 | 2001-07-19 | Asahi Optical Co Ltd | 電子内視鏡システムおよび電子内視鏡用信号切替装置 |
WO2003045223A2 (en) * | 2001-11-21 | 2003-06-05 | Viatronix Incorporated | Imaging system and method for cardiac analysis |
US20050085718A1 (en) | 2003-10-21 | 2005-04-21 | Ramin Shahidi | Systems and methods for intraoperative targetting |
US7397364B2 (en) * | 2003-11-11 | 2008-07-08 | Biosense Webster, Inc. | Digital wireless position sensor |
EP1691666B1 (en) * | 2003-12-12 | 2012-05-30 | University of Washington | Catheterscope 3d guidance and interface system |
WO2006005075A2 (en) * | 2004-06-30 | 2006-01-12 | Amir Belson | Apparatus and methods for capsule endoscopy of the esophagus |
WO2007025081A2 (en) | 2005-08-24 | 2007-03-01 | Traxtal Inc. | System, method and devices for navigated flexible endoscopy |
US8248414B2 (en) * | 2006-09-18 | 2012-08-21 | Stryker Corporation | Multi-dimensional navigation of endoscopic video |
US7945310B2 (en) * | 2006-09-18 | 2011-05-17 | Stryker Corporation | Surgical instrument path computation and display for endoluminal surgery |
US8672836B2 (en) * | 2007-01-31 | 2014-03-18 | The Penn State Research Foundation | Method and apparatus for continuous guidance of endoscopy |
WO2009128055A1 (en) * | 2008-04-15 | 2009-10-22 | Provost Fellows And Scholars Of The College Of The Holy And Undivided Trinity Of Queen Elizabeth Near Dublin | Endoscopy system with motion sensors |
JP2012505695A (ja) * | 2008-10-20 | 2012-03-08 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 画像に基づくローカライゼーション方法及びシステム |
WO2010065786A1 (en) | 2008-12-03 | 2010-06-10 | St. Jude Medical, Atrial Fibrillation Division, Inc. | System and method for determining the positioin of the tip of a medical catheter within the body of a patient |
WO2010128411A1 (en) * | 2009-05-08 | 2010-11-11 | Koninklijke Philips Electronics, N.V. | Real-time scope tracking and branch labeling without electro-magnetic tracking and pre-operative scan roadmaps |
EP2433262B1 (en) * | 2009-05-18 | 2016-07-27 | Koninklijke Philips N.V. | Marker-free tracking registration and calibration for em-tracked endoscopic system |
US10736497B2 (en) * | 2013-03-11 | 2020-08-11 | Institut Hospitalo-Universitaire De Chirurgie Mini-Invasive Guidee Par L'image | Anatomical site relocalisation using dual data synchronisation |
-
2014
- 2014-03-11 US US14/774,516 patent/US10736497B2/en active Active
- 2014-03-11 JP JP2015562379A patent/JP6348130B2/ja active Active
- 2014-03-11 EP EP14730578.3A patent/EP2996557B1/en active Active
- 2014-03-11 WO PCT/IB2014/000838 patent/WO2014140813A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006513011A (ja) * | 2003-01-13 | 2006-04-20 | メディガイド リミテッド | 第1座標系に関係する医療情報をmpsシステムを使用する第2座標系において位置合わせする方法及びシステム |
US20080097156A1 (en) * | 2006-10-23 | 2008-04-24 | Pentax Corporation | Camera calibration for endoscope navigation system |
JP2008104877A (ja) * | 2006-10-23 | 2008-05-08 | Pentax Corp | スコープナビゲーション装置、方法、およびコンピュータ可読な記憶媒体 |
JP2009077765A (ja) * | 2007-09-25 | 2009-04-16 | Fujifilm Corp | 内視鏡システム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019524353A (ja) * | 2016-10-24 | 2019-09-05 | シーエスエー メディカル, インコーポレイテッド | 末梢肺病変の凍結療法を実施するための方法および装置 |
US10792085B2 (en) | 2016-10-24 | 2020-10-06 | Csa Medical, Inc. | Method and apparatus for performing cryotherapy of distal lung lesions |
Also Published As
Publication number | Publication date |
---|---|
WO2014140813A1 (en) | 2014-09-18 |
US20160022125A1 (en) | 2016-01-28 |
EP2996557B1 (en) | 2019-05-01 |
EP2996557A1 (en) | 2016-03-23 |
US10736497B2 (en) | 2020-08-11 |
JP6348130B2 (ja) | 2018-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6348130B2 (ja) | デュアルデータ同期を用いた解剖学的部位の位置の再特定 | |
US11717376B2 (en) | System and method for dynamic validation, correction of registration misalignment for surgical navigation between the real and virtual images | |
JP6976266B2 (ja) | 多視点ポーズ推定を使用するための方法およびシステム | |
EP3463032B1 (en) | Image-based fusion of endoscopic image and ultrasound images | |
EP2811889B1 (en) | Invisible bifurcation detection within vessel tree images | |
WO2017211087A1 (zh) | 一种内窥镜手术导航方法和系统 | |
CN108140242A (zh) | 视频摄像机与医学成像的配准 | |
WO2017027638A1 (en) | 3d reconstruction and registration of endoscopic data | |
JP2020522827A (ja) | 外科ナビゲーションにおける拡張現実の使用 | |
WO2012154786A2 (en) | Fluoroscopy-based surgical device tracking method and system | |
WO2010128411A1 (en) | Real-time scope tracking and branch labeling without electro-magnetic tracking and pre-operative scan roadmaps | |
US20230263573A1 (en) | Probes, systems, and methods for computer-assisted landmark or fiducial placement in medical images | |
US20230009335A1 (en) | Guided anatomical manipulation for endoscopic procedures | |
US20240070883A1 (en) | Systems for image-based registration and associated methods | |
US20220079557A1 (en) | System and method for medical navigation | |
CN117100393A (zh) | 一种用于视频辅助外科手术靶标定位的方法、系统和装置 | |
Vemuri et al. | Interoperative biopsy site relocalization in endoluminal surgery | |
Vemuri et al. | Inter-operative trajectory registration for endoluminal video synchronization: Application to biopsy site re-localization | |
EP3788981B1 (en) | Systems for providing surgical guidance | |
US20230360212A1 (en) | Systems and methods for updating a graphical user interface based upon intraoperative imaging | |
US20240225746A9 (en) | Image-based seeding for registration and associated systems and methods | |
US20240130799A1 (en) | Image-based seeding for registration and associated systems and methods | |
Vemuri | Inter-operative biopsy site relocalization in gastroscopy: Application to oesophagus | |
WO2020181498A1 (zh) | 体内导航系统和方法 | |
WO2023146902A1 (en) | Two-phase instrument guidance for accurate endoscopic surgical procedures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170303 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180508 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180530 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6348130 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |