JP2021533906A - デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム - Google Patents
デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム Download PDFInfo
- Publication number
- JP2021533906A JP2021533906A JP2021507924A JP2021507924A JP2021533906A JP 2021533906 A JP2021533906 A JP 2021533906A JP 2021507924 A JP2021507924 A JP 2021507924A JP 2021507924 A JP2021507924 A JP 2021507924A JP 2021533906 A JP2021533906 A JP 2021533906A
- Authority
- JP
- Japan
- Prior art keywords
- image
- radiation opaque
- imaging modality
- opaque device
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 113
- 238000002591 computed tomography Methods 0.000 title description 28
- 238000003384 imaging method Methods 0.000 claims abstract description 191
- 230000005855 radiation Effects 0.000 claims abstract description 177
- 230000036544 posture Effects 0.000 claims abstract description 105
- 239000003550 marker Substances 0.000 claims description 59
- 238000000605 extraction Methods 0.000 claims description 17
- 210000004204 blood vessel Anatomy 0.000 claims description 11
- 206010034719 Personality change Diseases 0.000 claims description 4
- 239000007787 solid Substances 0.000 description 16
- 230000001144 postural effect Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 8
- 238000003325 tomography Methods 0.000 description 6
- 210000004072 lung Anatomy 0.000 description 5
- 210000003484 anatomy Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003902 lesion Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000011524 similarity measure Methods 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 210000000481 breast Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000037361 pathway Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 208000002193 Pain Diseases 0.000 description 1
- 208000038016 acute inflammation Diseases 0.000 description 1
- 208000005298 acute pain Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004054 inflammatory process Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/267—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
- A61B1/2676—Bronchoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/0037—Performing a preliminary scan, e.g. a prescan for identifying a region of interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/064—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00743—Type of operation; Specification of treatment sites
- A61B2017/00809—Lung operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/302—Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3966—Radiopaque markers visible in an X-ray image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Detecting, measuring or recording devices for evaluating the respiratory organs
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Pulmonology (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- Optics & Photonics (AREA)
- Otolaryngology (AREA)
- Physiology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Endoscopes (AREA)
Abstract
Description
第1の画像化モダリティから第1の画像を取得することと、
第1の画像化モダリティからの第1の画像から少なくとも1つの要素を抽出することであって、
少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、少なくとも(i)第1の姿勢である放射線不透過機器の第1の画像、及び(ii)第2の姿勢である放射線不透過機器の第2の画像を取得することであって、
放射線不透過機器は患者の体腔内にある、取得することと、
少なくとも2つの拡張された気管支造影図を生成することであって、
第1の拡張された気管支造影図は、第1の姿勢である放射線不透過機器の第1の画像に対応しており、
第2の拡張された気管支造影図は、第2の姿勢である放射線不透過機器の第2の画像に対応している、生成することと、
以下の間、すなわち、
(i)放射線不透過機器の第1の姿勢と、
(ii)放射線不透過機器の第2の姿勢と、の間の、相互の幾何学的制約を決定することと、
放射線不透過機器の第1の姿勢及び放射線不透過機器の第2の姿勢を第1の画像化モダリティの第1の画像と比較することによって、放射線不透過機器の第1の姿勢及び放射線不透過機器の第2の姿勢を推定することであって、
比較することは、
(i)第1の拡張された気管支造影図、
(ii)第2の拡張された気管支造影図、及び
(iii)少なくとも1つの要素、を使用して行われ、
放射線不透過機器の推定された第1の姿勢及び放射線不透過機器の推定された第2の姿勢は決定された相互の幾何学的制約を満たす、推定することと、
第3の画像を生成することであって、第3の画像は、第2の画像化モダリティから導出される、対象領域を強調表示した拡張された画像である、生成することと、を含み、
対象領域は第1の画像化モダリティからのデータから決定される、方法、を提供する。
a. 放射線不透過機器の第1の画像と放射線不透過機器の第2の画像を比較することによって、(i)第1の姿勢と(ii)第2の姿勢との間の違いを推定することであって、
推定することは、角度計、加速度計、ジャイロスコープ、若しくはこれらの任意の組合せを含むデバイスを使用して行われ、デバイスは第2の画像化モダリティに取り付けられている、推定すること、
b. 相対的な姿勢変化を推定するべく複数の画像特徴を抽出することであって、
複数の画像特徴は、解剖学的要素、非解剖学的要素、若しくはこれらの任意の組合せを含み、
画像特徴は、患者に取り付けられたパッチ、第2の画像化モダリティの視野内に配置された放射線不透過マーカ、若しくはこれらの任意の組合せを含み、
画像特徴は、放射線不透過機器の第1の画像及び放射線不透過機器の第2の画像上に見えている、抽出すること、
c. (i)第1の姿勢と(ii)第2の姿勢との間の違いを、少なくとも1つのカメラを使用することであって、
カメラには、ビデオカメラ、赤外線カメラ、深度カメラ、若しくはこれらの任意の組合せが含まれ、
カメラは固定された位置にあり、
カメラは少なくとも1つの特徴を追跡するように構成されており、
少なくとも1つの特徴には、患者に取り付けられたマーカ、第2の画像化モダリティに取り付けられたマーカ、若しくはこれらの任意の組合せが含まれる、使用することと、
少なくとも1つの特徴を追跡することと、によって、推定すること、
d. 又は、これらの任意の組合せ。
患者の少なくとも1つの体腔のマップを生成することであって、
マップは第1の画像化モダリティからの第1の画像を使用して生成される、生成することと、
第2の画像化モダリティから、少なくとも2つの取り付けられたマーカを備える放射線不透過機器の画像を取得することであって、
少なくとも2つの取り付けられたマーカは既知の距離だけ分離されている、取得することと、
患者の少なくとも1つの体腔のマップに対する、第2の画像化モダリティからの放射線不透過機器の姿勢を特定することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第1のマーカの第1の位置を特定することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第2のマーカの第2の位置を特定することと、
第1のマーカの第1の位置と第2のマーカの第2の位置との間の距離を測定することと、
第1のマーカと第2のマーカとの間の既知の距離を投影することと、
患者の少なくとも1つの体腔内での放射線不透過機器の明確な位置を特定するために、測定された距離を、第1のマーカと第2のマーカとの間の投影された既知の距離と比較すること。
第1の画像化モダリティから第1の画像を取得することと、
第1の画像化モダリティからの第1の画像から少なくとも1つの要素を抽出することであって、
少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、第2の画像化モダリティの2つの異なる姿勢において、少なくとも(i)放射線不透過機器の1つの画像及び(ii)放射線不透過機器のもう1つの画像を取得することであって、
放射線不透過機器の第1の画像は第2の画像化モダリティの第1の姿勢において撮影され、
放射線不透過機器の第2の画像は第2の画像化モダリティの第2の姿勢において撮影され、
放射線不透過機器は患者の体腔内にある、取得することと、
画像化デバイスの2つの姿勢の各々に対応している少なくとも2つの拡張された気管支造影図を生成することであって、第1の拡張された気管支造影図は放射線不透過機器の第1の画像から導出され、第2の拡張された気管支造影図は放射線不透過機器の第2の画像から導出される、生成することと、
以下の間、すなわち、
(i)第2の画像化モダリティの第1の姿勢と、
(ii)第2の画像化モダリティの第2の姿勢と、の間の、相互の幾何学的制約を決定することと、
対応している拡張された気管支造影図画像及び第1の画像化モダリティの第1の画像から抽出された少なくとも1つの要素を使用して、第1の画像化モダリティの第1の画像に対する第2の画像化モダリティの2つの姿勢を推定することであって、
2つの推定された姿勢は相互の幾何学的制約を満たす、推定することと、
第3の画像を生成することであって、第3の画像は、第1の画像化モダリティをソースとするデータに基づく、第2の画像化モダリティから導出される、対象領域を強調表示した拡張された画像である、生成すること。
a. 放射線不透過機器の第1の画像と放射線不透過機器の第2の画像を比較することによって、(i)第1の姿勢と(ii)第2の姿勢との間の違いを推定することであって、
推定することは、角度計、加速度計、ジャイロスコープ、若しくはこれらの任意の組合せを含むデバイスを使用して行われ、デバイスは第2の画像化モダリティに取り付けられている、推定すること、
b. 相対的な姿勢変化を推定するために複数の画像特徴を抽出することであって、
複数の画像特徴は、解剖学的要素、非解剖学的要素、若しくはこれらの任意の組合せを含み、
画像特徴は、患者に取り付けられたパッチ、第2の画像化モダリティの視野内に配置された放射線不透過マーカ、若しくはこれらの任意の組合せを含み、
画像特徴は、放射線不透過機器の第1の画像及び放射線不透過機器の第2の画像上に見えている、抽出すること、
c. (i)第1の姿勢と(ii)第2の姿勢との間の違いを、少なくとも1つのカメラを使用することであって、
カメラには、ビデオカメラ、赤外線カメラ、深度カメラ、若しくはこれらの任意の組合せが含まれ、
カメラは固定された位置にあり、
カメラは少なくとも1つの特徴を追跡するように構成されており、
少なくとも1つの特徴には、患者に取り付けられたマーカ、第2の画像化モダリティに取り付けられたマーカ、若しくはこれらの任意の組合せが含まれる、使用することと、
少なくとも1つの特徴を追跡することと、によって、推定すること、
d. 又は、これらの任意の組合せ。
第1の画像化モダリティの第1の画像から生成された患者の少なくとも1つの体腔のマップを使用することと、
第2の画像化モダリティから、ある距離が間に定められている少なくとも2つのマーカが取り付けられている、放射線不透過機器の画像を取得することであって、
マーカは、患者の体内の少なくとも2つの異なる体腔内に位置付けられる画像から認識できる、取得することと、
マップに対する第2の画像化モダリティの姿勢を取得することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第1のマーカの第1の位置を特定することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第2のマーカの第2の位置を特定することと、
第1のマーカの第1の位置と第2のマーカの第2の位置との間の距離を測定することと、
第2の画像化モダリティの姿勢を使用して、放射線不透過機器の認識された位置の各々上に、マーカ同士の間の既知の距離を投影することと、
体内での機器の真の位置を特定するために、測定された距離と2つのマーカ同士の間の投影された距離の各々とを比較すること。
」の意味は、複数の言及対象を含む。「〜において(in)」の意味には、「〜の中に(in)」及び「〜の表面に(on)」が含まれる。
第1の画像化モダリティから第1の画像を取得することと、
第1の画像化モダリティからの第1の画像から少なくとも1つの要素を抽出することであって、
少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、少なくとも(i)第1の姿勢である放射線不透過機器の第1の画像、及び(ii)第2の姿勢である放射線不透過機器の第2の画像を取得することであって、
放射線不透過機器は患者の体腔内にある、取得することと、
少なくとも2つの拡張された気管支造影図を生成することであって、
第1の拡張された気管支造影図は、第1の姿勢である放射線不透過機器の第1の画像に対応しており、
第2の拡張された気管支造影図は、第2の姿勢である放射線不透過機器の第2の画像に対応している、生成することと、
以下の間、すなわち、
(i)放射線不透過機器の第1の姿勢と、
(ii)放射線不透過機器の第2の姿勢と、の間の、相互の幾何学的制約を決定することと、
放射線不透過機器の第1の姿勢及び放射線不透過機器の第2の姿勢を第1の画像化モダリティの第1の画像と比較することによって、放射線不透過機器の第1の姿勢及び放射線不透過機器の第2の姿勢を推定することであって、
比較することは、
(i)第1の拡張された気管支造影図、
(ii)第2の拡張された気管支造影図、及び
(iii)少なくとも1つの要素、を使用して行われ、
放射線不透過機器の推定された第1の姿勢及び放射線不透過機器の推定された第2の姿勢は決定された相互の幾何学的制約を満たす、推定することと、
第3の画像を生成することであって、第3の画像は、第2の画像化モダリティから導出される、対象領域を強調表示した拡張された画像である、生成することと、を含み、
対象領域は第1の画像化モダリティからのデータから決定される、方法、を提供する。
a. 放射線不透過機器の第1の画像と放射線不透過機器の第2の画像を比較することによって、(i)第1の姿勢と(ii)第2の姿勢との間の違いを推定することであって、
推定することは、角度計、加速度計、ジャイロスコープ、若しくはこれらの任意の組合せを含むデバイスを使用して行われ、デバイスは第2の画像化モダリティに取り付けられている、推定すること、
b.相対的な姿勢変化を推定するために複数の画像特徴を抽出することであって、
複数の画像特徴は、解剖学的要素、非解剖学的要素、若しくはこれらの任意の組合せを含み、
画像特徴は、患者に取り付けられたパッチ、第2の画像化モダリティの視野内に配置された放射線不透過マーカ、若しくはこれらの任意の組合せを含み、
画像特徴は、放射線不透過機器の第1の画像及び放射線不透過機器の第2の画像上に見えている、抽出すること、
c. (i)第1の姿勢と(ii)第2の姿勢との間の違いを、少なくとも1つのカメラを使用することであって、
カメラには、ビデオカメラ、赤外線カメラ、深度カメラ、若しくはこれらの任意の組合せが含まれ、
カメラは固定された位置にあり、
カメラは少なくとも1つの特徴を追跡するように構成されており、
少なくとも1つの特徴には、患者に取り付けられたマーカ、第2の画像化モダリティに取り付けられたマーカ、若しくはこれらの任意の組合せが含まれる、使用することと、
少なくとも1つの特徴を追跡することと、によって、推定すること、
d. 又は、これらの任意の組合せ。
患者の少なくとも1つの体腔のマップを生成することであって、
マップは第1の画像化モダリティからの第1の画像を使用して生成される、生成することと、
第2の画像化モダリティから、少なくとも2つの取り付けられたマーカを備える放射線不透過機器の画像を取得することであって、
少なくとも2つの取り付けられたマーカは既知の距離だけ分離されている、取得することと、
患者の少なくとも1つの体腔のマップに対する、第2の画像化モダリティからの放射線不透過機器の姿勢を特定することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第1のマーカの第1の位置を特定することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第2のマーカの第2の位置を特定することと、
第1のマーカの第1の位置と第2のマーカの第2の位置との間の距離を測定することと、
第1のマーカと第2のマーカとの間の既知の距離を投影することと、
患者の少なくとも1つの体腔内での放射線不透過機器の明確な位置を特定するために、測定された距離を、第1のマーカと第2のマーカとの間の投影された既知の距離と比較すること。
単一のビューから推測された3D情報はまだ曖昧であり、器具を肺の中の複数の位置に当てはめることがある可能性がある。計画される3D経路を実際の手技の前に分析し、案内中の曖昧さの大部分を回避するのに最も最適なフルオロスコープの向きを計算することによって、そのような状況の発生を減らすことができる。いくつかの実施例では、フルオロスコープの配置は米国特許第9,743,896号に記載されている方法に従って行われ、同特許はその内容の全体が参照により本明細書に組み込まれている。
第1の画像化モダリティから第1の画像を取得することと、
第1の画像化モダリティからの第1の画像から少なくとも1つの要素を抽出することであって、
少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、第2の画像化モダリティの2つの異なる姿勢において、少なくとも(i)放射線不透過機器の1つの画像及び(ii)放射線不透過機器のもう1つの画像を取得することであって、
放射線不透過機器の第1の画像は第2の画像化モダリティの第1の姿勢において撮影され
放射線不透過機器の第2の画像は第2の画像化モダリティの第2の姿勢において撮影され、
放射線不透過機器は患者の体腔内にある、取得することと、
画像化デバイスの2つの姿勢の各々に対応している少なくとも2つの拡張された気管支造影図を生成することであって、第1の拡張された気管支造影図は放射線不透過機器の第1の画像から導出され、第2の拡張された気管支造影図は放射線不透過機器の第2の画像から導出される、生成することと、
以下の間、すなわち、
(i)第2の画像化モダリティの第1の姿勢と、
(ii)第2の画像化モダリティの第2の姿勢と、の間の、相互の幾何学的制約を決定することと、
対応している拡張された気管支造影図画像及び第1の画像化モダリティの第1の画像から抽出された少なくとも1つの要素を使用して、第1の画像化モダリティの第1の画像に対する第2の画像化モダリティの2つの姿勢を推定することとであって、
2つの推定された姿勢は相互の幾何学的制約を満たす、推定することと、
第3の画像を生成することであって、第3の画像は、第1の画像化モダリティをソースとするデータに基づく、第2の画像化モダリティから導出される、対象領域を強調表示した拡張された画像である、生成すること。
第1の画像化モダリティから第1の画像を取得することと、
第1の画像化モダリティからの第1の画像から少なくとも1つの要素を抽出することであって、
少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、同じ放射線不透過機器の場所の第2の画像化モダリティの2つの異なる姿勢における少なくとも2つの画像を、少なくとも1つ又は複数の異なる機器の場所について取得することであって、
放射線不透過機器は患者の体腔内にある、取得することと、
対応する画像の姿勢同士の間の相互の幾何学的制約を使用して、基準座標系における同じ機器の場所の対応する複数の画像から、各機器の3D軌道を再構築することと、
再構築された放射線不透過機器の位置の3D軌道を第1の画像化モダリティの画像から抽出された3D軌道と整合させる変換を推定することによって、基準座標系と第1の画像化モダリティの画像との間の変換を推定することと、
第3の画像を生成することであって、第3の画像は、基準座標系と第1の画像化モダリティの画像との間の変換を使用する第1の画像化モダリティをソースとするデータに基づく、基準座標系における既知の姿勢を用いて第2の画像化モダリティから導出される、対象領域を強調表示した拡張された画像である、生成すること。
第1の画像化モダリティから第1の画像を取得することと、
第1の画像化モダリティからの第1の画像から少なくとも1つの要素を抽出することであって、
少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、第2の画像化モダリティの2つの異なる姿勢において、少なくとも(i)放射線不透過基準点の1つの画像及び(ii)その放射線不透過基準点のもう1つの画像を取得することであって、
放射線不透過基準点の第1の画像は第2の画像化モダリティの第1の姿勢において撮影され、
放射線不透過基準点の第2の画像は第2の画像化モダリティの第2の姿勢において撮影される、取得することと、
放射線不透過基準点の3D場所を、画像化デバイスの2つの姿勢から、
(i)第2の画像化モダリティの第1の姿勢と、
(ii)第2の画像化モダリティの第2の姿勢と、の間の相互の幾何学的制約を使用して、再構築することと、
第1の画像化モダリティをソースとするデータに基づく、対象領域に対する基準点の3Dの相対的な場所を示す第3の画像を生成すること。
a. 放射線不透過機器の第1の画像と放射線不透過機器の第2の画像を比較することによって、(i)第1の姿勢と(ii)第2の姿勢との間の違いを推定することであって、
推定することは、角度計、加速度計、ジャイロスコープ、若しくはこれらの任意の組合せを含むデバイスを使用して行われ、デバイスは第2の画像化モダリティに取り付けられている、推定すること、
b. 相対的な姿勢変化を推定するために複数の画像特徴を抽出することであって、
複数の画像特徴は、解剖学的要素、非解剖学的要素、若しくはこれらの任意の組合せを含み、
画像特徴は、患者に取り付けられたパッチ、第2の画像化モダリティの視野内に配置された放射線不透過マーカ、若しくはこれらの任意の組合せを含み、
画像特徴は、放射線不透過機器の第1の画像及び放射線不透過機器の第2の画像上に見えている、抽出すること、
c. (i)第1の姿勢と(ii)第2の姿勢との間の違いを、少なくとも1つのカメラを使用することであって、
カメラには、ビデオカメラ、赤外線カメラ、深度カメラ、若しくはこれらの任意の組合せが含まれ、
カメラは固定された位置にあり、
カメラは少なくとも1つの特徴を追跡するように構成されており、
少なくとも1つの特徴には、患者に取り付けられたマーカ、第2の画像化モダリティに取り付けられたマーカ、若しくはこれらの任意の組合せが含まれる、使用することと、
少なくとも1つの特徴を追跡することと、によって、推定すること、
d. 又は、これらの任意の組合せ。
第1の画像化モダリティの第1の画像から生成された患者の少なくとも1つの体腔のマップを使用することと、
第2の画像化モダリティから、ある距離が間に定められている少なくとも2つのマーカが取り付けられている、放射線不透過機器の画像を取得することであって、
マーカは、患者の体内の少なくとも2つの異なる体腔内に位置付けられる画像から認識できる、取得することと、
マップに対する第2の画像化モダリティの姿勢を取得することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第1のマーカの第1の位置を特定することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第2のマーカの第2の位置を特定することと、
第1のマーカの第1の位置と第2のマーカの第2の位置との間の距離を測定することと、
第2の画像化モダリティの姿勢を使用して、放射線不透過機器の認識された位置の各々上に、マーカ同士の間の既知の距離を投影することと、
体内での機器の真の位置を特定するために、測定された距離と2つのマーカ同士の間の投影された距離の各々とを比較すること。
・患者術前画像から抽出された3D解剖学的要素。
・術中画像のセットから抽出された2D解剖学的要素。本明細書において述べるように、セット中の画像は、同じ又は異なる画像化デバイスの姿勢をソースとし得る。
・術中画像のセット中の画像の各サブセット間の相互の制約
・2Dの抽出された要素は、対応し投影される3D解剖学的要素にマッチングされる。
・相互の制約条件140は推定される姿勢に適用される。
本発明はとりわけ、軽度から中度の急性痛及び/又は炎症を治療するための、新規の方法及び組成物を提供する。主題の発明の具体的な実施例について検討してきたが、上記の明細書は例示的なものであって制限的なものではない。当業者には本明細書を精査することで本発明の多くの変形が明らかになるであろう。本発明の全範囲は、特許請求の範囲をそれらの等価物の全範囲と併せて、及び明細書をそのような変形と併せて参照して、決定されるべきである。
本明細書で言及する全ての刊行物、特許、及び配列データベースのエントリは、個々の各刊行物又は特許が参照により組み込まれるものと特定的且つ個別に示されているかのように、参照によりそれらの全体が本明細書に組み込まれる。
Claims (18)
- 第1の画像化モダリティから第1の画像を取得することと、
前記第1の画像化モダリティからの前記第1の画像から少なくとも1つの要素を抽出することであって、
前記少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、少なくとも(i)第1の姿勢である放射線不透過機器の第1の画像、及び(ii)第2の姿勢である前記放射線不透過機器の第2の画像を取得することであって、
前記放射線不透過機器は患者の体腔内にある、取得することと、
少なくとも2つの拡張された気管支造影図を生成することであって、
第1の拡張された気管支造影図は、前記第1の姿勢である前記放射線不透過機器の前記第1の画像に対応しており、
第2の拡張された気管支造影図は、前記第2の姿勢である前記放射線不透過機器の前記第2の画像に対応している、生成することと、
以下の間、すなわち、
(i)前記放射線不透過機器の前記第1の姿勢と、
(ii)前記放射線不透過機器の前記第2の姿勢と、の間の、相互の幾何学的制約を決定することと、
前記放射線不透過機器の前記第1の姿勢及び前記放射線不透過機器の前記第2の姿勢を前記第1の画像化モダリティの前記第1の画像と比較することによって、前記放射線不透過機器の前記第1の姿勢及び前記放射線不透過機器の前記第2の姿勢を推定することであって、
前記比較することは、
(i)前記第1の拡張された気管支造影図、
(ii)前記第2の拡張された気管支造影図、及び
(iii)前記少なくとも1つの要素、を使用して行われ、
前記放射線不透過機器の前記推定された第1の姿勢及び前記放射線不透過機器の前記推定された第2の姿勢は前記決定された相互の幾何学的制約を満たす、推定することと、
第3の画像を生成することであって、前記第3の画像は、前記第2の画像化モダリティから導出される、対象領域を強調表示した拡張された画像である、生成することと、を含み、
前記対象領域は前記第1の画像化モダリティからのデータから決定される、
方法。 - 前記第1の画像化モダリティからの前記第1の画像からの前記少なくとも1つの要素には、肋骨、脊椎、横隔膜、又はこれらの任意の組合せが更に含まれる、請求項1に記載の方法。
- 前記相互の幾何学的制約は、
a. 前記放射線不透過機器の前記第1の画像と前記放射線不透過機器の前記第2の画像を比較することによって、(i)前記第1の姿勢と(ii)前記第2の姿勢との間の違いを推定することであって、
前記推定することは、角度計、加速度計、ジャイロスコープ、若しくはこれらの任意の組合せを含むデバイスを使用して行われ、前記デバイスは前記第2の画像化モダリティに取り付けられている、推定すること、
b. 相対的な姿勢変化を推定するべく複数の画像特徴を抽出することであって、
前記複数の画像特徴は、解剖学的要素、非解剖学的要素、若しくはこれらの任意の組合せを含み、
前記画像特徴は、患者に取り付けられたパッチ、前記第2の画像化モダリティの視野内に配置された放射線不透過マーカ、若しくはこれらの任意の組合せを含み、
前記画像特徴は、前記放射線不透過機器の前記第1の画像及び前記放射線不透過機器の前記第2の画像上に見えている、抽出すること、
c. (i)前記第1の姿勢と(ii)前記第2の姿勢との間の違いを、少なくとも1つのカメラを使用することであって、
前記カメラには、ビデオカメラ、赤外線カメラ、深度カメラ、若しくはこれらの任意の組合せが含まれ、
前記カメラは固定された位置にあり、
前記カメラは少なくとも1つの特徴を追跡するように構成されており、
前記少なくとも1つの特徴には、前記患者に取り付けられたマーカ、前記第2の画像化モダリティに取り付けられたマーカ、若しくはこれらの任意の組合せが含まれる、使用することと、
前記少なくとも1つの特徴を追跡することと、によって、推定すること、
d. 又は、これらの任意の組合せによって生成される、請求項1に記載の方法。 - 前記方法は、軌道を特定するために前記放射線不透過機器を追跡することと、前記軌道を更なる幾何学的制約として使用することと、を更に含み、前記放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる、請求項1に記載の方法。
- 患者の少なくとも1つの体腔のマップを生成することであって、
前記マップは第1の画像化モダリティからの第1の画像を使用して生成される、生成することと、
第2の画像化モダリティから、少なくとも2つの取り付けられたマーカを備える放射線不透過機器の画像を取得することであって、
前記少なくとも2つの取り付けられたマーカは既知の距離だけ分離されている、取得することと、
患者の少なくとも1つの体腔のマップに対する、前記第2の画像化モダリティからの前記放射線不透過機器の姿勢を特定することと、
前記第2の画像化モダリティからの前記第2の画像上で、前記放射線不透過機器に取り付けられた前記第1のマーカの第1の位置を特定することと、
前記第2の画像化モダリティからの前記第2の画像上で、前記放射線不透過機器に取り付けられた前記第2のマーカの第2の位置を特定することと、
前記第1のマーカの前記第1の位置と前記第2のマーカの前記第2の位置との間の距離を測定することと、
前記第1のマーカと前記第2のマーカとの間の前記既知の距離を投影することと、
前記患者の前記少なくとも1つの体腔内での前記放射線不透過機器の明確な位置を特定するために、前記測定された距離を、前記第1のマーカと前記第2のマーカとの間の前記投影された既知の距離と比較することと、
を含む、方法。 - 前記放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる、請求項5に記載の方法。
- 前記放射線不透過機器の軌道を使用して前記放射線不透過機器の深度を特定することを更に含む、請求項5に記載の方法。
- 前記第1の画像化モダリティからの前記第1の画像は術前画像である、請求項5に記載の方法。
- 前記第2の画像化モダリティからの前記放射線不透過機器の前記少なくとも1つの画像は、術中画像である、請求項5に記載の方法。
- 第1の画像化モダリティから第1の画像を取得することと、
前記第1の画像化モダリティからの前記第1の画像から少なくとも1つの要素を抽出することであって、
前記少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、第2の画像化モダリティの2つの異なる姿勢において、少なくとも(i)放射線不透過機器の1つの画像及び(ii)前記放射線不透過機器のもう1つの画像を取得することであって、
前記放射線不透過機器の前記第1の画像は第2の画像化モダリティの第1の姿勢において撮影され、
前記放射線不透過機器の前記第2の画像は第2の画像化モダリティの第2の姿勢において撮影され、
前記放射線不透過機器は患者の体腔内にある、取得することと、
前記画像化デバイスの2つの姿勢の各々に対応している少なくとも2つの拡張された気管支造影図を生成することであって、第1の拡張された気管支造影図は前記放射線不透過機器の前記第1の画像から導出され、前記第2の拡張された気管支造影図は前記放射線不透過機器の前記第2の画像から導出される、生成することと、
以下の間、すなわち、
(i)前記第2の画像化モダリティの前記第1の姿勢と、
(ii)前記第2の画像化モダリティの前記第2の姿勢と、の間の、相互の幾何学的制約を決定することと、
前記対応している拡張された気管支造影図画像及び前記第1の画像化モダリティの前記第1の画像から抽出された少なくとも1つの要素を使用して、前記第1の画像化モダリティの前記第1の画像に対する前記第2の画像化モダリティの前記2つの姿勢を推定することであって、
前記2つの推定された姿勢は前記相互の幾何学的制約を満たす、推定することと、
第3の画像を生成することであって、前記第3の画像は、前記第1の画像化モダリティをソースとするデータに基づく、前記第2の画像化モダリティから導出される対象領域を強調表示した拡張された画像である、生成することと、
を含む、方法。 - 肋骨、脊椎、横隔膜、又はこれらの任意の組合せなどの解剖学的要素が、前記第1の画像化モダリティから及び前記第2の画像化モダリティから抽出される、請求項10に記載の方法。
- 前記相互の幾何学的制約は、
a. 前記放射線不透過機器の前記第1の画像と前記放射線不透過機器の前記第2の画像を比較することによって、(i)前記第1の姿勢と(ii)前記第2の姿勢との間の違いを推定することであって、
前記推定することは、角度計、加速度計、ジャイロスコープ、若しくはこれらの任意の組合せを含むデバイスを使用して行われ、前記デバイスは前記第2の画像化モダリティに取り付けられている、推定すること、
b. 相対的な姿勢変化を推定するべく複数の画像特徴を抽出することであって、
前記複数の画像特徴は、解剖学的要素、非解剖学的要素、若しくはこれらの任意の組合せを含み、
前記画像特徴は、患者に取り付けられたパッチ、前記第2の画像化モダリティの視野内に配置された放射線不透過マーカ、若しくはこれらの任意の組合せを含み、
前記画像特徴は、前記放射線不透過機器の前記第1の画像及び前記放射線不透過機器の前記第2の画像上に見えている、抽出すること、
c. (i)前記第1の姿勢と(ii)前記第2の姿勢との間の違いを、少なくとも1つのカメラを使用することであって、
前記カメラには、ビデオカメラ、赤外線カメラ、深度カメラ、若しくはこれらの任意の組合せが含まれ、
前記カメラは固定された位置にあり、
前記カメラは少なくとも1つの特徴を追跡するように構成されており、
前記少なくとも1つの特徴には、前記患者に取り付けられたマーカ、前記第2の画像化モダリティに取り付けられたマーカ、若しくはこれらの任意の組合せが含まれる、使用することと、
前記少なくとも1つの特徴を追跡することと、によって、推定すること、
d. 又は、これらの任意の組合せによって生成される、請求項10に記載の方法。 - 軌道を特定するために前記放射線不透過機器を追跡することと、前記軌道を追加の幾何学的制約として使用することと、を更に含み、前記放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる、請求項10に記載の方法。
- 患者の体内の機器の真の位置を特定するための方法であって、
第1の画像化モダリティの第1の画像から生成された患者の少なくとも1つの体腔のマップを使用することと、
第2の画像化モダリティから、ある距離が間に定められている少なくとも2つのマーカが取り付けられている、放射線不透過機器の画像を取得することであって、
前記マーカは、前記患者の体内の少なくとも2つの異なる体腔内に位置付けられる画像から認識できる、取得することと、
前記マップに対する前記第2の画像化モダリティの姿勢を取得することと、
前記第2の画像化モダリティからの第2の画像上で、前記放射線不透過機器に取り付けられた前記第1のマーカの第1の位置を特定することと、
前記第2の画像化モダリティからの前記第2の画像上で、前記放射線不透過機器に取り付けられた前記第2のマーカの第2の位置を特定することと、
前記第1のマーカの前記第1の位置と前記第2のマーカの前記第2の位置との間の距離を測定することと、
前記第2の画像化モダリティの前記姿勢を使用して、前記放射線不透過機器の認識された位置の各々上に、マーカ同士の間の前記既知の距離を投影することと、
体内での前記機器の真の位置を特定するために、前記測定された距離と前記2つのマーカ同士の間の投影された距離の各々とを比較することと、を含む、方法。 - 前記放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる、請求項14に記載の方法。
- 前記放射線不透過機器の軌道を使用して前記放射線不透過機器の深度を特定することを更に含む、請求項14に記載の方法。
- 前記第1の画像化モダリティからの前記第1の画像は術前画像である、請求項14に記載の方法。
- 前記第2の画像化モダリティからの前記放射線不透過機器の前記少なくとも1つの画像は、術中画像である、請求項14に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023179482A JP2023181259A (ja) | 2018-08-13 | 2023-10-18 | デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862718346P | 2018-08-13 | 2018-08-13 | |
US62/718,346 | 2018-08-13 | ||
PCT/IB2019/000908 WO2020035730A2 (en) | 2018-08-13 | 2019-08-13 | Methods and systems for multi view pose estimation using digital computational tomography |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023179482A Division JP2023181259A (ja) | 2018-08-13 | 2023-10-18 | デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021533906A true JP2021533906A (ja) | 2021-12-09 |
Family
ID=69405296
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021507924A Pending JP2021533906A (ja) | 2018-08-13 | 2019-08-13 | デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム |
JP2023179482A Pending JP2023181259A (ja) | 2018-08-13 | 2023-10-18 | デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023179482A Pending JP2023181259A (ja) | 2018-08-13 | 2023-10-18 | デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20200046436A1 (ja) |
EP (1) | EP3836839A4 (ja) |
JP (2) | JP2021533906A (ja) |
CN (1) | CN113164149A (ja) |
AU (1) | AU2019322080A1 (ja) |
CA (1) | CA3109584A1 (ja) |
WO (1) | WO2020035730A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023153144A1 (ja) * | 2022-02-08 | 2023-08-17 | 株式会社島津製作所 | X線撮影システム、および、デバイス表示方法 |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8218847B2 (en) | 2008-06-06 | 2012-07-10 | Superdimension, Ltd. | Hybrid registration method |
EP3495805A3 (en) * | 2014-01-06 | 2019-08-14 | Body Vision Medical Ltd. | Surgical devices and methods of use thereof |
US9603668B2 (en) | 2014-07-02 | 2017-03-28 | Covidien Lp | Dynamic 3D lung map view for tool navigation inside the lung |
US9633431B2 (en) | 2014-07-02 | 2017-04-25 | Covidien Lp | Fluoroscopic pose estimation |
US9986983B2 (en) | 2014-10-31 | 2018-06-05 | Covidien Lp | Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same |
US10716525B2 (en) | 2015-08-06 | 2020-07-21 | Covidien Lp | System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction |
US10702226B2 (en) | 2015-08-06 | 2020-07-07 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10674982B2 (en) | 2015-08-06 | 2020-06-09 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US11793579B2 (en) | 2017-02-22 | 2023-10-24 | Covidien Lp | Integration of multiple data sources for localization and navigation |
US10699448B2 (en) | 2017-06-29 | 2020-06-30 | Covidien Lp | System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data |
EP3694412A4 (en) | 2017-10-10 | 2021-08-18 | Covidien LP | SYSTEM AND METHOD FOR IDENTIFYING AND MARKING A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION |
US10905498B2 (en) | 2018-02-08 | 2021-02-02 | Covidien Lp | System and method for catheter detection in fluoroscopic images and updating displayed position of catheter |
US11364004B2 (en) | 2018-02-08 | 2022-06-21 | Covidien Lp | System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target |
US10930064B2 (en) | 2018-02-08 | 2021-02-23 | Covidien Lp | Imaging reconstruction system and method |
US11705238B2 (en) | 2018-07-26 | 2023-07-18 | Covidien Lp | Systems and methods for providing assistance during surgery |
US11071591B2 (en) | 2018-07-26 | 2021-07-27 | Covidien Lp | Modeling a collapsed lung using CT data |
US11944388B2 (en) | 2018-09-28 | 2024-04-02 | Covidien Lp | Systems and methods for magnetic interference correction |
EP3659514A1 (en) * | 2018-11-29 | 2020-06-03 | Koninklijke Philips N.V. | Image-based device identification and localization |
US11877806B2 (en) | 2018-12-06 | 2024-01-23 | Covidien Lp | Deformable registration of computer-generated airway models to airway trees |
US11045075B2 (en) | 2018-12-10 | 2021-06-29 | Covidien Lp | System and method for generating a three-dimensional model of a surgical site |
US11801113B2 (en) | 2018-12-13 | 2023-10-31 | Covidien Lp | Thoracic imaging, distance measuring, and notification system and method |
US11617493B2 (en) | 2018-12-13 | 2023-04-04 | Covidien Lp | Thoracic imaging, distance measuring, surgical awareness, and notification system and method |
US11357593B2 (en) | 2019-01-10 | 2022-06-14 | Covidien Lp | Endoscopic imaging with augmented parallax |
US11625825B2 (en) | 2019-01-30 | 2023-04-11 | Covidien Lp | Method for displaying tumor location within endoscopic images |
US11925333B2 (en) | 2019-02-01 | 2024-03-12 | Covidien Lp | System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network |
US11564751B2 (en) | 2019-02-01 | 2023-01-31 | Covidien Lp | Systems and methods for visualizing navigation of medical devices relative to targets |
US11744643B2 (en) | 2019-02-04 | 2023-09-05 | Covidien Lp | Systems and methods facilitating pre-operative prediction of post-operative tissue function |
US11819285B2 (en) | 2019-04-05 | 2023-11-21 | Covidien Lp | Magnetic interference detection systems and methods |
US12089902B2 (en) | 2019-07-30 | 2024-09-17 | Coviden Lp | Cone beam and 3D fluoroscope lung navigation |
US12059281B2 (en) | 2019-08-19 | 2024-08-13 | Covidien Lp | Systems and methods of fluoro-CT imaging for initial registration |
US11269173B2 (en) | 2019-08-19 | 2022-03-08 | Covidien Lp | Systems and methods for displaying medical video images and/or medical 3D models |
US11931111B2 (en) | 2019-09-09 | 2024-03-19 | Covidien Lp | Systems and methods for providing surgical guidance |
US11864935B2 (en) | 2019-09-09 | 2024-01-09 | Covidien Lp | Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures |
US11627924B2 (en) | 2019-09-24 | 2023-04-18 | Covidien Lp | Systems and methods for image-guided navigation of percutaneously-inserted devices |
US11380060B2 (en) | 2020-01-24 | 2022-07-05 | Covidien Lp | System and method for linking a segmentation graph to volumetric data |
US11847730B2 (en) | 2020-01-24 | 2023-12-19 | Covidien Lp | Orientation detection in fluoroscopic images |
US11717173B2 (en) | 2020-04-16 | 2023-08-08 | Warsaw Orthopedic, Inc. | Device for mapping a sensor's baseline coordinate reference frames to anatomical landmarks |
US12064191B2 (en) | 2020-06-03 | 2024-08-20 | Covidien Lp | Surgical tool navigation using sensor fusion |
US11950950B2 (en) | 2020-07-24 | 2024-04-09 | Covidien Lp | Zoom detection and fluoroscope movement detection for target overlay |
US12087007B2 (en) * | 2021-03-31 | 2024-09-10 | Auris Health, Inc. | Vision-based 6DOF camera pose estimation in bronchoscopy |
JP2024514832A (ja) | 2021-04-09 | 2024-04-03 | プルメラ, インコーポレイテッド | 医療撮像システムおよび関連付けられるデバイスおよび方法 |
US11816768B1 (en) | 2022-12-06 | 2023-11-14 | Body Vision Medical Ltd. | System and method for medical imaging |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017153839A1 (en) * | 2016-03-10 | 2017-09-14 | Body Vision Medical Ltd. | Methods and systems for using multi view pose estimation |
WO2018078445A2 (en) * | 2016-10-31 | 2018-05-03 | Dorian Averbuch | Jigs for use in medical imaging and methods for using thereof |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9526587B2 (en) * | 2008-12-31 | 2016-12-27 | Intuitive Surgical Operations, Inc. | Fiducial marker design and detection for locating surgical instrument in images |
JP5877797B2 (ja) * | 2010-02-18 | 2016-03-08 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 標的組織の運動を推定するシステム及びその作動方法 |
US9232924B2 (en) * | 2011-04-01 | 2016-01-12 | Koninklijke Philips N.V. | X-ray pose recovery |
EP3495805A3 (en) * | 2014-01-06 | 2019-08-14 | Body Vision Medical Ltd. | Surgical devices and methods of use thereof |
US9986983B2 (en) * | 2014-10-31 | 2018-06-05 | Covidien Lp | Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same |
-
2019
- 2019-08-13 CN CN201980056288.5A patent/CN113164149A/zh active Pending
- 2019-08-13 AU AU2019322080A patent/AU2019322080A1/en active Pending
- 2019-08-13 CA CA3109584A patent/CA3109584A1/en active Pending
- 2019-08-13 US US16/539,750 patent/US20200046436A1/en not_active Abandoned
- 2019-08-13 EP EP19849569.9A patent/EP3836839A4/en not_active Withdrawn
- 2019-08-13 JP JP2021507924A patent/JP2021533906A/ja active Pending
- 2019-08-13 WO PCT/IB2019/000908 patent/WO2020035730A2/en unknown
-
2023
- 2023-10-18 JP JP2023179482A patent/JP2023181259A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017153839A1 (en) * | 2016-03-10 | 2017-09-14 | Body Vision Medical Ltd. | Methods and systems for using multi view pose estimation |
WO2018078445A2 (en) * | 2016-10-31 | 2018-05-03 | Dorian Averbuch | Jigs for use in medical imaging and methods for using thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023153144A1 (ja) * | 2022-02-08 | 2023-08-17 | 株式会社島津製作所 | X線撮影システム、および、デバイス表示方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113164149A (zh) | 2021-07-23 |
EP3836839A4 (en) | 2022-08-17 |
JP2023181259A (ja) | 2023-12-21 |
CA3109584A1 (en) | 2020-02-20 |
EP3836839A2 (en) | 2021-06-23 |
WO2020035730A2 (en) | 2020-02-20 |
AU2019322080A1 (en) | 2021-03-11 |
WO2020035730A3 (en) | 2020-05-07 |
US20200046436A1 (en) | 2020-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021533906A (ja) | デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム | |
US11350893B2 (en) | Methods and systems for using multi view pose estimation | |
JP7195279B2 (ja) | 画像の三次元再構成及び改善された対象物定位のために、放射状気管支内超音波プローブを用いるための方法 | |
US11896414B2 (en) | System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target | |
CN110123449B (zh) | 使用标准荧光镜进行局部三维体积重建的系统和方法 | |
CN110381841B (zh) | 用于医疗成像的夹具及其使用方法 | |
US20230030343A1 (en) | Methods and systems for using multi view pose estimation | |
US20240138783A1 (en) | Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230718 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230919 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231206 |