JP7341660B2 - 医療手技におけるナビゲーションを補助するための拡張現実の使用 - Google Patents
医療手技におけるナビゲーションを補助するための拡張現実の使用 Download PDFInfo
- Publication number
- JP7341660B2 JP7341660B2 JP2018242313A JP2018242313A JP7341660B2 JP 7341660 B2 JP7341660 B2 JP 7341660B2 JP 2018242313 A JP2018242313 A JP 2018242313A JP 2018242313 A JP2018242313 A JP 2018242313A JP 7341660 B2 JP7341660 B2 JP 7341660B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- workstation
- image
- marker
- field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 73
- 230000003190 augmentative effect Effects 0.000 title claims description 12
- 239000003550 marker Substances 0.000 claims description 53
- 210000003484 anatomy Anatomy 0.000 claims description 34
- 239000002131 composite material Substances 0.000 claims description 24
- 238000009877 rendering Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 5
- 238000010191 image analysis Methods 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 description 25
- 238000001356 surgical procedure Methods 0.000 description 20
- 239000000523 sample Substances 0.000 description 18
- 230000004044 response Effects 0.000 description 15
- 210000003128 head Anatomy 0.000 description 13
- 210000003928 nasal cavity Anatomy 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000002591 computed tomography Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 210000004086 maxillary sinus Anatomy 0.000 description 5
- 208000000592 Nasal Polyps Diseases 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 210000004204 blood vessel Anatomy 0.000 description 4
- 208000016366 nasal cavity polyp Diseases 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000003718 sphenoid sinus Anatomy 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/233—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the nose, i.e. nasoscopes, e.g. testing of patency of Eustachian tubes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/24—Surgical instruments, devices or methods, e.g. tourniquets for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/064—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/065—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
- A61B5/066—Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/065—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
- A61B5/068—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe using impedance sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/743—Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/254—User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/256—User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/05—Surgical care
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Otolaryngology (AREA)
- General Engineering & Computer Science (AREA)
- Pulmonology (AREA)
- Dentistry (AREA)
- Gynecology & Obstetrics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Endoscopes (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Manipulator (AREA)
Description
(1) 対象の拡張現実表示を与えるための方法であって、
カメラから画像を取得することと、
前記カメラの位置を検出することと、
前記カメラの前記位置に基づいて前記カメラの視野を特定することと、
前記視野に対応する1つ以上のオーバーレイ要素を生成することと、
前記1つ以上のオーバーレイ要素を前記カメラからの前記画像と合成して合成画像を形成することと、
前記合成画像をディスプレイ上に表示することと、を含む、方法。
(2) 前記1つ以上のオーバーレイ要素が、前記対象の解剖学的構造に関連付けられているか、又は1つ以上の器具に関連付けられている、実施態様1に記載の方法。
(3) カメラの前記位置を検出することが、
術前位置合わせを行って位置パッドの相対位置及び方向を前記対象の位置及び方向と比較して相関させることと、
前記位置パッドのセンサによって、前記カメラと結合された1つ以上のフィールド発生器によって発生された1つ以上の信号を受信することと、
前記1つ以上の信号に基づいて前記カメラの前記位置を特定することと、を含む、実施態様1に記載の方法。
(4) 前記1つ以上のオーバーレイ要素を生成することが、
器具のグラフィック表現を生成することを含む、実施態様1に記載の方法。
(5) 前記器具の前記グラフィック表現を生成することが、
前記カメラの前記視野内の前記器具の位置を決定することと、
前記カメラの前記視野内の前記器具の前記位置に基づいて前記器具の前記グラフィック表現をレンダリングすることと、を含む、実施態様4に記載の方法。
解剖学的要素を示すオーバーレイ要素を生成することを含む、実施態様2に記載の方法。
(7) 前記解剖学的要素を示す前記オーバーレイ要素を生成することが、
前記カメラの前記視野内のマーカーの位置を、前記位置パッドの前記相対位置及び方向、並びに前記対象の前記位置及び方向に基づいて、更に前記マーカー及び前記対象のモデルの相対位置に基づいて、決定することと、
前記カメラの前記視野内の前記マーカーの前記位置に基づいて前記マーカーに対応するグラフィック表現をレンダリングすることと、を含む、実施態様6に記載の方法。
(8) 前記マーカーに対応する前記グラフィック表現が、前記マーカーによって示されるようなテキスト及び矢印を含む、実施態様7に記載の方法。
(9) 前記画像の暗い部分の検出に基づいて孔を識別することを更に含み、
前記マーカーに対応する前記グラフィック表現が、前記孔の解剖学的要素輪郭線を含む、実施態様7に記載の方法。
(10) 前記画像の画像分析に基づいて、前記マーカーに対応する前記グラフィック表現の位置、形態、及び/又はフォーマットが調整される、実施態様7に記載の方法。
ワークステーションと、
カメラと、を備え、
前記ワークステーションが、
前記カメラから画像を取得し、
前記カメラの位置を検出し、
前記カメラの前記位置に基づいて前記カメラの視野を特定し、
前記視野に対応する1つ以上のオーバーレイ要素を生成し、
前記1つ以上のオーバーレイ要素を前記カメラからの前記画像と合成して合成画像を形成し、
前記合成画像をディスプレイ上に表示するように構成されている、システム。
(12) 前記1つ以上のオーバーレイ要素が、前記対象の解剖学的構造に関連付けられているか、又は1つ以上の器具に関連付けられている、実施態様11に記載のシステム。
(13) 位置パッドを更に備え、
前記ワークステーションが、
術前位置合わせを行って前記位置パッドの相対位置及び方向を前記対象の位置及び方向と比較して相関させること、
前記位置パッドのセンサによって、前記カメラと結合された1つ以上のフィールド発生器によって発生された1つ以上の信号を受信すること、並びに
前記1つ以上の信号に基づいて前記カメラの前記位置を特定すること、により、前記カメラの前記位置を検出するように構成されている、実施態様11に記載のシステム。
(14) 前記ワークステーションが、
器具のグラフィック表現を生成することにより、前記1つ以上のオーバーレイ要素を生成するように構成されている、実施態様11に記載のシステム。
(15) 前記ワークステーションが、
前記カメラの前記視野内の前記器具の位置を決定すること、及び
前記カメラの前記視野内の前記器具の前記位置に基づいて前記器具の前記グラフィック表現をレンダリングすること、により、前記器具の前記グラフィック表現を生成するように構成されている、実施態様14に記載のシステム。
解剖学的要素を示すオーバーレイ要素を生成することにより、前記1つ以上のオーバーレイ要素を生成するように構成されている、実施態様12に記載のシステム。
(17) 前記ワークステーションが、
前記カメラの前記視野内のマーカーの位置を、前記位置パッドの前記相対位置及び方向、並びに前記対象の前記位置及び方向に基づいて、更に前記マーカー及び前記対象のモデルの相対位置に基づいて、決定すること、並びに
前記カメラの前記視野内の前記マーカーの前記位置に基づいて前記マーカーに対応するグラフィック表現をレンダリングすること、により、前記解剖学的要素を示す前記オーバーレイ要素を生成するように構成されている、実施態様16に記載のシステム。
(18) 前記マーカーに対応する前記グラフィック表現が、前記マーカーによって示されるようなテキスト及び矢印を含む、実施態様17に記載のシステム。
(19) 前記ワークステーションが、
前記画像の暗い部分の検出に基づいて孔を識別するように更に構成され、
前記マーカーに対応する前記グラフィック表現が、解剖学的要素輪郭線を含む、実施態様17に記載のシステム。
(20) 対象の拡張現実表示を与えるためのシステムであって、
ワークステーションと、
ディスプレイと、
1つ以上の器具と、
カメラと、
内視鏡と、
内視鏡カメラと、を備え、
前記ワークステーションが、
前記カメラから画像を取得し、
前記カメラの位置を検出し、
前記カメラの前記位置に基づいて前記カメラの視野を特定し、
前記対象の解剖学的構造に関連付けられているか又は前記1つ以上の器具に関連付けられている、前記カメラの前記視野に対応する1つ以上のオーバーレイ要素を生成し、
前記カメラの前記視野に対応する前記1つ以上のオーバーレイ要素を前記カメラからの前記画像と合成して合成画像を形成し、
前記合成画像を前記ディスプレイ上に表示するように構成されている、システム。
前記内視鏡カメラから画像を取得し、
前記内視鏡カメラの位置を検出し、
前記内視鏡カメラの前記位置に基づいて前記内視鏡カメラの視野を特定し、
前記対象の解剖学的構造に関連付けられているか又は前記1つ以上の器具に関連付けられている、前記内視鏡カメラの前記視野に対応する1つ以上のオーバーレイ要素を生成し、
前記内視鏡カメラの前記視野に対応する前記1つ以上のオーバーレイ要素を前記内視鏡カメラからの前記画像と合成して合成内視鏡画像を形成し、
前記合成画像を前記ディスプレイ上又は内視鏡ディスプレイ上に表示するように構成されている、実施態様20に記載のシステム。
Claims (13)
- 対象の拡張現実表示を与えるためのシステムの作動方法であって、
前記システムは、
ワークステーションと、
カメラと、を備え、
前記ワークステーションが、
前記カメラから画像を取得したときにおける、
前記カメラの位置を検出することと、
前記カメラの前記位置に基づいて前記カメラの視野を特定することと、
前記視野に対応する1つ以上のオーバーレイ要素を生成することと、
前記1つ以上のオーバーレイ要素を前記カメラからの前記画像と合成して合成画像を形成することと、
前記合成画像をディスプレイ上に表示することと、を行い、
前記1つ以上のオーバーレイ要素が、前記対象の解剖学的構造に関連付けられているか、又は1つ以上の器具に関連付けられ、
前記ワークステーションが、
解剖学的要素を示すオーバーレイ要素を生成することにより、前記1つ以上のオーバーレイ要素を生成するように構成され、
前記ワークステーションが、
前記カメラの前記視野内のマーカーの位置を、位置パッドの相対位置及び方向、並びに前記対象の前記位置及び方向に基づいて、更に前記マーカー及び前記対象のモデルの相対位置に基づいて、決定すること、並びに
前記カメラの前記視野内の前記マーカーの前記位置に基づいて前記マーカーに対応するグラフィック表現をレンダリングすること、により、前記解剖学的要素を示す前記オーバーレイ要素を生成するように構成されている、
方法。 - 前記カメラの前記位置を検出することが、
術前位置合わせを行って前記位置パッドの前記相対位置及び方向を前記対象の位置及び方向と比較して相関させることと、
前記位置パッドのセンサによって、前記カメラと結合された1つ以上のフィールド発生器によって発生された1つ以上の信号を受信することと、
前記1つ以上の信号に基づいて前記カメラの前記位置を特定することと、を含む、請求項1に記載のシステムの作動方法。 - 前記1つ以上のオーバーレイ要素を生成することが、
前記器具のグラフィック表現を生成することを含む、請求項1に記載のシステムの作動方法。 - 前記器具の前記グラフィック表現を生成することが、
前記カメラの前記視野内の前記器具の位置を決定することと、
前記カメラの前記視野内の前記器具の前記位置に基づいて前記器具の前記グラフィック表現をレンダリングすることと、を含む、請求項3に記載のシステムの作動方法。 - 前記マーカーに対応する前記グラフィック表現が、前記マーカーによって示されるようなテキスト及び矢印を含む、請求項1に記載のシステムの作動方法。
- 前記画像の暗い部分の検出に基づいて孔を識別することを更に含み、
前記マーカーに対応する前記グラフィック表現が、前記孔の解剖学的要素輪郭線を含む、請求項1に記載のシステムの作動方法。 - 前記画像の画像分析に基づいて、前記マーカーに対応する前記グラフィック表現の位置、形態、及び/又はフォーマットが調整される、請求項1に記載のシステムの作動方法。
- 対象の拡張現実表示を与えるためのシステムであって、
ワークステーションと、
カメラと、を備え、
前記ワークステーションが、
前記カメラから画像を取得し、
前記カメラの位置を検出し、
前記カメラの前記位置に基づいて前記カメラの視野を特定し、
前記視野に対応する1つ以上のオーバーレイ要素を生成し、
前記1つ以上のオーバーレイ要素を前記カメラからの前記画像と合成して合成画像を形成し、
前記合成画像をディスプレイ上に表示するように構成され、
前記1つ以上のオーバーレイ要素が、前記対象の解剖学的構造に関連付けられているか、又は1つ以上の器具に関連付けられ、
前記ワークステーションが、
解剖学的要素を示すオーバーレイ要素を生成することにより、前記1つ以上のオーバーレイ要素を生成するように構成され、
前記ワークステーションが、
前記カメラの前記視野内のマーカーの位置を、位置パッドの相対位置及び方向、並びに前記対象の前記位置及び方向に基づいて、更に前記マーカー及び前記対象のモデルの相対位置に基づいて、決定すること、並びに
前記カメラの前記視野内の前記マーカーの前記位置に基づいて前記マーカーに対応するグラフィック表現をレンダリングすること、により、前記解剖学的要素を示す前記オーバーレイ要素を生成するように構成されている、システム。 - 前記位置パッドを更に備え、
前記ワークステーションが、
術前位置合わせを行って前記位置パッドの前記相対位置及び方向を前記対象の前記位置及び方向と比較して相関させること、
前記位置パッドのセンサによって、前記カメラと結合された1つ以上のフィールド発生器によって発生された1つ以上の信号を受信すること、並びに
前記1つ以上の信号に基づいて前記カメラの前記位置を特定すること、により、前記カメラの前記位置を検出するように構成されている、請求項8に記載のシステム。 - 前記ワークステーションが、
前記器具のグラフィック表現を生成することにより、前記1つ以上のオーバーレイ要素を生成するように構成されている、請求項8に記載のシステム。 - 前記ワークステーションが、
前記カメラの前記視野内の前記器具の位置を決定すること、及び
前記カメラの前記視野内の前記器具の前記位置に基づいて前記器具の前記グラフィック表現をレンダリングすること、により、前記器具の前記グラフィック表現を生成するように構成されている、請求項10に記載のシステム。 - 前記マーカーに対応する前記グラフィック表現が、前記マーカーによって示されるようなテキスト及び矢印を含む、請求項8に記載のシステム。
- 前記ワークステーションが、
前記画像の暗い部分の検出に基づいて孔を識別するように更に構成され、
前記マーカーに対応する前記グラフィック表現が、解剖学的要素輪郭線を含む、請求項8に記載のシステム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762610449P | 2017-12-26 | 2017-12-26 | |
US62/610,449 | 2017-12-26 | ||
US16/229,629 | 2018-12-21 | ||
US16/229,629 US11058497B2 (en) | 2017-12-26 | 2018-12-21 | Use of augmented reality to assist navigation during medical procedures |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019115664A JP2019115664A (ja) | 2019-07-18 |
JP7341660B2 true JP7341660B2 (ja) | 2023-09-11 |
Family
ID=65030890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018242313A Active JP7341660B2 (ja) | 2017-12-26 | 2018-12-26 | 医療手技におけるナビゲーションを補助するための拡張現実の使用 |
Country Status (11)
Country | Link |
---|---|
US (1) | US11058497B2 (ja) |
EP (1) | EP3505133B1 (ja) |
JP (1) | JP7341660B2 (ja) |
KR (1) | KR20190078540A (ja) |
CN (1) | CN109998678A (ja) |
AU (1) | AU2018286598A1 (ja) |
BR (1) | BR102018077046A2 (ja) |
CA (1) | CA3028502A1 (ja) |
IL (1) | IL263948B (ja) |
MX (1) | MX2019000145A (ja) |
RU (1) | RU2018146115A (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10013808B2 (en) | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
US11071596B2 (en) | 2016-08-16 | 2021-07-27 | Insight Medical Systems, Inc. | Systems and methods for sensory augmentation in medical procedures |
US20190254753A1 (en) | 2018-02-19 | 2019-08-22 | Globus Medical, Inc. | Augmented reality navigation systems for use with robotic surgical systems and methods of their use |
US10058396B1 (en) * | 2018-04-24 | 2018-08-28 | Titan Medical Inc. | System and apparatus for insertion of an instrument into a body cavity for performing a surgical procedure |
EP3810015A1 (en) | 2018-06-19 | 2021-04-28 | Tornier, Inc. | Mixed-reality surgical system with physical markers for registration of virtual models |
US11094221B2 (en) * | 2018-06-21 | 2021-08-17 | University Of Utah Research Foundation | Visual guidance system and method for posing a physical object in three dimensional space |
US11270485B2 (en) * | 2019-07-22 | 2022-03-08 | Adobe Inc. | Automatic positioning of textual content within digital images |
US12096917B2 (en) * | 2019-09-27 | 2024-09-24 | Alcon Inc. | Tip camera systems and methods for vitreoretinal surgery |
US11295495B2 (en) | 2019-10-14 | 2022-04-05 | Adobe Inc. | Automatic positioning of textual content within digital images |
US20210121238A1 (en) * | 2019-10-24 | 2021-04-29 | Acclarent, Inc. | Visualization system and method for ent procedures |
US11992373B2 (en) | 2019-12-10 | 2024-05-28 | Globus Medical, Inc | Augmented reality headset with varied opacity for navigated robotic surgery |
EP4084719B1 (en) * | 2019-12-30 | 2024-01-31 | Intuitive Surgical Operations, Inc. | Systems for indicating approach to an anatomical boundary |
US11464581B2 (en) | 2020-01-28 | 2022-10-11 | Globus Medical, Inc. | Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums |
US11382699B2 (en) | 2020-02-10 | 2022-07-12 | Globus Medical Inc. | Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery |
US11207150B2 (en) | 2020-02-19 | 2021-12-28 | Globus Medical, Inc. | Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment |
WO2021211524A1 (en) * | 2020-04-13 | 2021-10-21 | Kaliber Labs Inc. | Systems and methods of computer-assisted landmark or fiducial placement in videos |
US11832883B2 (en) | 2020-04-23 | 2023-12-05 | Johnson & Johnson Surgical Vision, Inc. | Using real-time images for augmented-reality visualization of an ophthalmology surgical tool |
US20210330395A1 (en) * | 2020-04-23 | 2021-10-28 | Johnson & Johnson Surgical Vision, Inc. | Location pad surrounding at least part of patient eye for tracking position of a medical instrument |
US11607277B2 (en) | 2020-04-29 | 2023-03-21 | Globus Medical, Inc. | Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery |
US11510750B2 (en) | 2020-05-08 | 2022-11-29 | Globus Medical, Inc. | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications |
US11153555B1 (en) | 2020-05-08 | 2021-10-19 | Globus Medical Inc. | Extended reality headset camera system for computer assisted navigation in surgery |
US11382700B2 (en) | 2020-05-08 | 2022-07-12 | Globus Medical Inc. | Extended reality headset tool tracking and control |
US11737831B2 (en) | 2020-09-02 | 2023-08-29 | Globus Medical Inc. | Surgical object tracking template generation for computer assisted navigation during surgical procedure |
DE102021103411A1 (de) * | 2021-02-12 | 2022-08-18 | Aesculap Ag | Chirurgisches Assistenzsystem und Darstellungsverfahren |
CN118369037A (zh) * | 2021-12-10 | 2024-07-19 | 柯惠有限合伙公司 | 用于视频喉镜的图像引导的导航系统 |
WO2023199923A1 (ja) * | 2022-04-11 | 2023-10-19 | アナウト株式会社 | 手術画像処理プラットフォーム及びコンピュータプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060281971A1 (en) | 2005-06-14 | 2006-12-14 | Siemens Corporate Research Inc | Method and apparatus for minimally invasive surgery using endoscopes |
JP2009529951A (ja) | 2006-03-13 | 2009-08-27 | ブラッコ イメージング エス.ピー.エー. | 手術ナビゲーションプロセスを記録し精査するための方法および装置 |
JP2014131551A (ja) | 2013-01-07 | 2014-07-17 | Akira Takebayashi | 内視鏡向けナビゲーション装置 |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1996005768A1 (en) | 1994-08-19 | 1996-02-29 | Biosense, Inc. | Medical diagnosis, treatment and imaging systems |
US5391199A (en) | 1993-07-20 | 1995-02-21 | Biosense, Inc. | Apparatus and method for treating cardiac arrhythmias |
US6690963B2 (en) | 1995-01-24 | 2004-02-10 | Biosense, Inc. | System for determining the location and orientation of an invasive medical instrument |
JP4166277B2 (ja) | 1996-02-15 | 2008-10-15 | バイオセンス・ウェブスター・インコーポレイテッド | 体内プローブを用いた医療方法および装置 |
EP0891152B1 (en) | 1996-02-15 | 2003-11-26 | Biosense, Inc. | Independently positionable transducers for location system |
US6239724B1 (en) | 1997-12-30 | 2001-05-29 | Remon Medical Technologies, Ltd. | System and method for telemetrically providing intrabody spatial position |
US6484118B1 (en) | 2000-07-20 | 2002-11-19 | Biosense, Inc. | Electromagnetic position single axis system |
US20020082498A1 (en) | 2000-10-05 | 2002-06-27 | Siemens Corporate Research, Inc. | Intra-operative image-guided neurosurgery with augmented reality visualization |
US7729742B2 (en) | 2001-12-21 | 2010-06-01 | Biosense, Inc. | Wireless position sensor |
US20030179308A1 (en) | 2002-03-19 | 2003-09-25 | Lucia Zamorano | Augmented tracking using video, computed data and/or sensing technologies |
US20040068178A1 (en) | 2002-09-17 | 2004-04-08 | Assaf Govari | High-gradient recursive locating system |
US7774044B2 (en) | 2004-02-17 | 2010-08-10 | Siemens Medical Solutions Usa, Inc. | System and method for augmented reality navigation in a medical intervention procedure |
CA2556082A1 (en) | 2004-03-12 | 2005-09-29 | Bracco Imaging S.P.A. | Accuracy evaluation of video-based augmented reality enhanced surgical navigation systems |
US7344307B2 (en) * | 2004-11-12 | 2008-03-18 | General Electric Company | System and method for integration of a calibration target into a C-arm |
WO2008017051A2 (en) * | 2006-08-02 | 2008-02-07 | Inneroptic Technology Inc. | System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities |
US20110306986A1 (en) * | 2009-03-24 | 2011-12-15 | Min Kyu Lee | Surgical robot system using augmented reality, and method for controlling same |
JP5535725B2 (ja) * | 2010-03-31 | 2014-07-02 | 富士フイルム株式会社 | 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム |
US8724881B2 (en) * | 2011-11-09 | 2014-05-13 | Siemens Aktiengesellschaft | Method and system for precise segmentation of the left atrium in C-arm computed tomography volumes |
KR20140112207A (ko) | 2013-03-13 | 2014-09-23 | 삼성전자주식회사 | 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템 |
EP2981205A4 (en) * | 2013-04-04 | 2017-02-15 | Children's National Medical Center | Device and method for generating composite images for endoscopic surgery of moving and deformable anatomy |
CN111184577A (zh) * | 2014-03-28 | 2020-05-22 | 直观外科手术操作公司 | 器械在视野中的定量三维可视化 |
US10463242B2 (en) * | 2014-07-09 | 2019-11-05 | Acclarent, Inc. | Guidewire navigation for sinuplasty |
US9700213B2 (en) * | 2014-09-12 | 2017-07-11 | Mayo Foundation For Medical Education And Research | System and method for automatic polyp detection using global geometric constraints and local intensity variation patterns |
US10154239B2 (en) * | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
FR3032282B1 (fr) | 2015-02-03 | 2018-09-14 | Francois Duret | Dispositif de visualisation de l'interieur d'une bouche |
US20160278983A1 (en) * | 2015-03-23 | 2016-09-29 | Novartis Ag | Systems, apparatuses, and methods for the optimization of laser photocoagulation |
US10109092B1 (en) * | 2015-03-24 | 2018-10-23 | Imagical LLC | Automated text layout, color and other stylization on an image or video, and the tracking and application of user color preferences |
CA2976516C (en) | 2015-07-27 | 2022-11-22 | Synaptive Medical (Barbados) Inc. | Navigational feedback for intraoperative waypoint |
EP3361979A4 (en) | 2015-10-14 | 2019-06-26 | Surgical Theater LLC | SURGICAL NAVIGATION WITH EXTENDED REALITY |
US20170296292A1 (en) | 2016-04-16 | 2017-10-19 | Eitezaz MAHMOOD | Systems and Methods for Surgical Imaging |
US20170366773A1 (en) * | 2016-06-21 | 2017-12-21 | Siemens Aktiengesellschaft | Projection in endoscopic medical imaging |
CA3042091A1 (en) * | 2016-10-31 | 2018-05-03 | Synaptive Medical (Barbados) Inc. | 3d navigation system and methods |
US10441365B2 (en) * | 2017-01-11 | 2019-10-15 | Synaptive Medical (Barbados) Inc. | Patient reference device |
CN110383345B (zh) * | 2017-01-12 | 2023-08-15 | 纳维斯国际有限公司 | 用于内腔导航的扁平化视图 |
US11071593B2 (en) * | 2017-07-14 | 2021-07-27 | Synaptive Medical Inc. | Methods and systems for providing visuospatial information |
US20190175059A1 (en) * | 2017-12-07 | 2019-06-13 | Medtronic Xomed, Inc. | System and Method for Assisting Visualization During a Procedure |
-
2018
- 2018-12-21 US US16/229,629 patent/US11058497B2/en active Active
- 2018-12-24 CA CA3028502A patent/CA3028502A1/en not_active Abandoned
- 2018-12-24 EP EP18215886.5A patent/EP3505133B1/en active Active
- 2018-12-24 BR BR102018077046-2A patent/BR102018077046A2/pt not_active IP Right Cessation
- 2018-12-24 IL IL263948A patent/IL263948B/en unknown
- 2018-12-25 RU RU2018146115A patent/RU2018146115A/ru not_active Application Discontinuation
- 2018-12-26 JP JP2018242313A patent/JP7341660B2/ja active Active
- 2018-12-26 CN CN201811599640.3A patent/CN109998678A/zh active Pending
- 2018-12-26 KR KR1020180169367A patent/KR20190078540A/ko unknown
- 2018-12-27 AU AU2018286598A patent/AU2018286598A1/en not_active Abandoned
-
2019
- 2019-01-07 MX MX2019000145A patent/MX2019000145A/es unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060281971A1 (en) | 2005-06-14 | 2006-12-14 | Siemens Corporate Research Inc | Method and apparatus for minimally invasive surgery using endoscopes |
JP2009529951A (ja) | 2006-03-13 | 2009-08-27 | ブラッコ イメージング エス.ピー.エー. | 手術ナビゲーションプロセスを記録し精査するための方法および装置 |
JP2014131551A (ja) | 2013-01-07 | 2014-07-17 | Akira Takebayashi | 内視鏡向けナビゲーション装置 |
Also Published As
Publication number | Publication date |
---|---|
IL263948A (en) | 2019-03-31 |
US20190192232A1 (en) | 2019-06-27 |
AU2018286598A1 (en) | 2019-07-11 |
EP3505133B1 (en) | 2024-03-20 |
EP3505133A1 (en) | 2019-07-03 |
MX2019000145A (es) | 2019-09-26 |
BR102018077046A2 (pt) | 2019-07-16 |
KR20190078540A (ko) | 2019-07-04 |
US11058497B2 (en) | 2021-07-13 |
CN109998678A (zh) | 2019-07-12 |
IL263948B (en) | 2022-02-01 |
CA3028502A1 (en) | 2019-06-26 |
JP2019115664A (ja) | 2019-07-18 |
RU2018146115A (ru) | 2020-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7341660B2 (ja) | 医療手技におけるナビゲーションを補助するための拡張現実の使用 | |
US11883118B2 (en) | Using augmented reality in surgical navigation | |
JP7505081B2 (ja) | 狭い通路における侵襲的手順の内視鏡画像 | |
EP3720334B1 (en) | System and method for assisting visualization during a procedure | |
EP2769689B1 (en) | Computer-implemented technique for calculating a position of a surgical device | |
JP2007531553A (ja) | 術中ターゲティングのシステムおよび方法 | |
US20080123910A1 (en) | Method and system for providing accuracy evaluation of image guided surgery | |
EP1727471A1 (en) | System for guiding a medical instrument in a patient body | |
JP7460355B2 (ja) | 医療ユーザインターフェース | |
JP6952740B2 (ja) | ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム | |
US20230360212A1 (en) | Systems and methods for updating a graphical user interface based upon intraoperative imaging | |
CN115843232A (zh) | 用于目标覆盖的缩放检测和荧光镜移动检测 | |
CN111317562B (zh) | 身体部位的合成可视化 | |
US20240099776A1 (en) | Systems and methods for integrating intraoperative image data with minimally invasive medical techniques | |
WO2023129934A1 (en) | Systems and methods for integrating intra-operative image data with minimally invasive medical techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221213 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7341660 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |