JP7138802B2 - 手術部位のメディエイテッドリアリティビューに対するリアルタイム手術画像への術前スキャン画像のアライメント - Google Patents
手術部位のメディエイテッドリアリティビューに対するリアルタイム手術画像への術前スキャン画像のアライメント Download PDFInfo
- Publication number
- JP7138802B2 JP7138802B2 JP2021542469A JP2021542469A JP7138802B2 JP 7138802 B2 JP7138802 B2 JP 7138802B2 JP 2021542469 A JP2021542469 A JP 2021542469A JP 2021542469 A JP2021542469 A JP 2021542469A JP 7138802 B2 JP7138802 B2 JP 7138802B2
- Authority
- JP
- Japan
- Prior art keywords
- patch
- image
- real
- patient
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00216—Electrical control of surgical instruments with eye tracking or head position tracking control
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/363—Use of fiducial points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/368—Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3925—Markers, e.g. radio-opaque or breast lesions markers ultrasonic
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3966—Radiopaque markers visible in an X-ray image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3991—Markers, e.g. radio-opaque or breast lesions markers having specific anchoring means to fixate the marker to the tissue, e.g. hooks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Gynecology & Obstetrics (AREA)
- Radiology & Medical Imaging (AREA)
- Architecture (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
Description
Claims (24)
- 手術部位のメディエイテッドリアリティビューをプロセッサーによって生成するための方法であって、
第1の位置における患者の3次元アナトミーを表す術前画像を前記プロセッサーが受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を前記プロセッサーが特定することであって、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を前記プロセッサーが受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を前記プロセッサーが特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションを前記プロセッサーがアライメントすることとであって、前記変換を適用することは、
最適化アルゴリズムを行って、前記術前画像における前記基準マーカーのパターンの変換された座標の間の距離を、前記リアルタイム画像における前記パターンの前記座標により最小化する前記変換を特定すること
を含む、ことと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを前記プロセッサーが生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを前記プロセッサーが提供することと
を備えることを特徴とする方法。 - 前記パッチは、関心のある解剖学的構造に最も近く置かれるしなやかな粘着性パッチを含むことを特徴とする請求項1に記載の方法。
- 手術部位のメディエイテッドリアリティビューをプロセッサーによって生成するための方法であって、
第1の位置における患者の3次元アナトミーを表す術前画像を前記プロセッサーが受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を前記プロセッサーが特定することであって、前記基準マーカーは、1つまたは複数のふくらんだ表面を含む3次元構造を含み、前記基準マーカーの各々は、前記パッチにおける他の基準マーカーに関して一意的なジオメトリを有し、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を前記プロセッサーが受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を前記プロセッサーが特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションを前記プロセッサーがアライメントすることと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを前記プロセッサーが生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを前記プロセッサーが提供することと
を備えることを特徴とする方法。 - 前記基準マーカーは、前記パッチにおけるグリッドに配列されることを特徴とする請求項1に記載の方法。
- 手術部位のメディエイテッドリアリティビューをプロセッサーによって生成するための方法であって、
第1の位置における患者の3次元アナトミーを表す術前画像を前記プロセッサーが受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を前記プロセッサーが特定することであって、前記基準マーカーは、視覚的に区別できる異なる密度の材料を含み、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を前記プロセッサーが受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を前記プロセッサーが特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションを前記プロセッサーがアライメントすることと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを前記プロセッサーが生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを前記プロセッサーが提供することと
を備えることを特徴とする方法。 - 前記パッチは、前記パッチを断片に裂くための穴をあけられた境界を含むことを特徴とする請求項1に記載の方法。
- 手術部位のメディエイテッドリアリティビューを生成するための命令を格納する非一時的なコンピューター読み取り可能記録媒体であって、前記命令は、プロセッサーによって実行されると、前記プロセッサーに、
第1の位置における患者の3次元アナトミーを表す術前画像を受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を特定することであって、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションをアライメントすることとであって、前記変換を適用することは、
最適化アルゴリズムを行って、前記術前画像における前記基準マーカーのパターンの変換された座標の間の距離を、前記リアルタイム画像における前記パターンの前記座標により最小化する前記変換を特定すること
を含む、ことと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを提供することと
を含むステップを行わせることを特徴とする非一時的なコンピューター読み取り可能記録媒体。 - 前記パッチは、関心のある解剖学的構造に最も近く置かれるしなやかな粘着性パッチを含むことを特徴とする請求項3に記載の方法。
- 前記基準マーカーは、前記パッチにおけるグリッドに配列されることを特徴とする請求項3に記載の方法。
- 前記パッチは、前記パッチを断片に裂くための穴をあけられた境界を含むことを特徴とする請求項3に記載の方法。
- 前記パッチは、関心のある解剖学的構造に最も近く置かれるしなやかな粘着性パッチを含むことを特徴とする請求項5に記載の方法。
- 前記基準マーカーは、前記パッチにおけるグリッドに配列されることを特徴とする請求項5に記載の方法。
- 前記パッチは、前記パッチを断片に裂くための穴をあけられた境界を含むことを特徴とする請求項5に記載の方法。
- 前記パッチは、関心のある解剖学的構造に最も近く置かれるしなやかな粘着性パッチを含むことを特徴とする請求項7に記載の非一時的なコンピューター読み取り可能記録媒体。
- 前記基準マーカーは、前記パッチにおけるグリッドに配列されることを特徴とする請求項7に記載の非一時的なコンピューター読み取り可能記録媒体。
- 前記パッチは、前記パッチを断片に裂くための穴をあけられた境界を含むことを特徴とする請求項7に記載の非一時的なコンピューター読み取り可能記録媒体。
- 手術部位のメディエイテッドリアリティビューを生成するための命令を格納する非一時的なコンピューター読み取り可能記録媒体であって、前記命令は、プロセッサーによって実行されると、前記プロセッサーに、
第1の位置における患者の3次元アナトミーを表す術前画像を受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を特定することであって、前記基準マーカーは、1つまたは複数のふくらんだ表面を含む3次元構造を含み、前記基準マーカーの各々は、前記パッチにおける他の基準マーカーに関して一意的なジオメトリを有し、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションをアライメントすることと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを提供することと
を含むステップを行わせることを特徴とする非一時的なコンピューター読み取り可能記録媒体。 - 前記パッチは、関心のある解剖学的構造に最も近く置かれるしなやかな粘着性パッチを含むことを特徴とする請求項17に記載の非一時的なコンピューター読み取り可能記録媒体。
- 前記基準マーカーは、前記パッチにおけるグリッドに配列されることを特徴とする請求項17に記載の非一時的なコンピューター読み取り可能記録媒体。
- 前記パッチは、前記パッチを断片に裂くための穴をあけられた境界を含むことを特徴とする請求項17に記載の非一時的なコンピューター読み取り可能記録媒体。
- 手術部位のメディエイテッドリアリティビューを生成するための命令を格納する非一時的なコンピューター読み取り可能記録媒体であって、前記命令は、プロセッサーによって実行されると、前記プロセッサーに、
第1の位置における患者の3次元アナトミーを表す術前画像を受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を特定することであって、前記基準マーカーは、視覚的に区別できる異なる密度の材料を含み、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションをアライメントすることと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを提供することと
を含むステップを行わせることを特徴とする非一時的なコンピューター読み取り可能記録媒体。 - 前記パッチは、関心のある解剖学的構造に最も近く置かれるしなやかな粘着性パッチを含むことを特徴とする請求項21に記載の非一時的なコンピューター読み取り可能記録媒体。
- 前記基準マーカーは、前記パッチにおけるグリッドに配列されることを特徴とする請求項21に記載の非一時的なコンピューター読み取り可能記録媒体。
- 前記パッチは、前記パッチを断片に裂くための穴をあけられた境界を含むことを特徴とする請求項21に記載の非一時的なコンピューター読み取り可能記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962796065P | 2019-01-23 | 2019-01-23 | |
US62/796,065 | 2019-01-23 | ||
PCT/US2020/014674 WO2020154448A1 (en) | 2019-01-23 | 2020-01-22 | Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022517132A JP2022517132A (ja) | 2022-03-04 |
JP7138802B2 true JP7138802B2 (ja) | 2022-09-16 |
Family
ID=71609486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542469A Active JP7138802B2 (ja) | 2019-01-23 | 2020-01-22 | 手術部位のメディエイテッドリアリティビューに対するリアルタイム手術画像への術前スキャン画像のアライメント |
Country Status (5)
Country | Link |
---|---|
US (2) | US10912625B2 (ja) |
EP (1) | EP3897346A4 (ja) |
JP (1) | JP7138802B2 (ja) |
CA (1) | CA3127605C (ja) |
WO (1) | WO2020154448A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017114834A1 (en) * | 2015-12-29 | 2017-07-06 | Koninklijke Philips N.V. | System, controller and method using virtual reality device for robotic surgery |
US20210153959A1 (en) * | 2019-11-26 | 2021-05-27 | Intuitive Surgical Operations, Inc. | Physical medical element affixation systems, methods, and materials |
US11295460B1 (en) | 2021-01-04 | 2022-04-05 | Proprio, Inc. | Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene |
CA3226288A1 (en) * | 2021-07-13 | 2023-01-19 | Proprio, Inc. | Methods and systems for displaying preoperative and intraoperative image data of a scene |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013531525A (ja) | 2010-06-13 | 2013-08-08 | アンジオメトリックス コーポレーション | 血管内腔の情報を決定し、医療用デバイスをガイドするための方法およびシステム |
WO2014200017A1 (ja) | 2013-06-11 | 2014-12-18 | Tanji Atsushi | 骨切支援システム、情報処理装置、画像処理方法、および画像処理プログラム |
JP2016539768A (ja) | 2013-11-11 | 2016-12-22 | アエスキュラップ アーゲー | 外科用参照装置、外科用誘導システム及び方法 |
WO2018195529A1 (en) | 2017-04-21 | 2018-10-25 | Samadani Uzma | Using augmented reality in surgical navigation |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6167296A (en) * | 1996-06-28 | 2000-12-26 | The Board Of Trustees Of The Leland Stanford Junior University | Method for volumetric image navigation |
US6990220B2 (en) * | 2001-06-14 | 2006-01-24 | Igo Technologies Inc. | Apparatuses and methods for surgical navigation |
US8126224B2 (en) * | 2004-02-03 | 2012-02-28 | Ge Medical Systems Global Technology Company, Llc | Method and apparatus for instrument tracking on a scrolling series of 2D fluoroscopic images |
US8165659B2 (en) * | 2006-03-22 | 2012-04-24 | Garrett Sheffer | Modeling method and apparatus for use in surgical navigation |
US20070238982A1 (en) * | 2006-03-29 | 2007-10-11 | Caylor Edward J Iii | System and method for monitoring kinematic motion of a patient |
US8108025B2 (en) * | 2007-04-24 | 2012-01-31 | Medtronic, Inc. | Flexible array for use in navigated surgery |
WO2009042155A2 (en) * | 2007-09-24 | 2009-04-02 | Surgivision, Inc. | Mri-compatible patches and methods for using the same |
KR101862438B1 (ko) * | 2011-07-18 | 2018-05-29 | 톰슨 라이센싱 | 트리 구조들의 적응적 엔트로피 코딩을 위한 방법 |
US9314219B2 (en) * | 2013-02-27 | 2016-04-19 | Paul J Keall | Method to estimate real-time rotation and translation of a target with a single x-ray imager |
US20170042631A1 (en) | 2014-04-22 | 2017-02-16 | Surgerati, Llc | Intra-operative medical image viewing system and method |
JP2017524281A (ja) * | 2014-05-20 | 2017-08-24 | ユニヴァーシティ オブ ワシントン | 媒介現実の外科用視覚化のためのシステム及び方法 |
US9734595B2 (en) * | 2014-09-24 | 2017-08-15 | University of Maribor | Method and apparatus for near-lossless compression and decompression of 3D meshes and point clouds |
EP3221809A1 (en) * | 2014-11-18 | 2017-09-27 | Koninklijke Philips N.V. | User guidance system and method, use of an augmented reality device |
EP3163536B1 (en) * | 2015-10-30 | 2021-12-08 | Dassault Systèmes | Compression of a three-dimensional modeled object |
JP2019534717A (ja) * | 2016-08-16 | 2019-12-05 | インサイト メディカル システムズ インコーポレイテッド | 医療処置における感覚増強のためのシステム |
JP7012302B2 (ja) * | 2016-09-16 | 2022-01-28 | インテリジェンスファクトリー合同会社 | 手術支援端末及びプログラム |
US20180092698A1 (en) | 2016-10-04 | 2018-04-05 | WortheeMed, Inc. | Enhanced Reality Medical Guidance Systems and Methods of Use |
EP3545675A4 (en) | 2016-11-24 | 2020-07-01 | The University of Washington | CAPTURE AND RESTITUTION OF LIGHT FIELD FOR HEADSETS |
KR20200015803A (ko) | 2017-07-03 | 2020-02-12 | 스파인 얼라인, 엘엘씨 | 수술 중 정렬 평가 시스템 및 방법 |
-
2020
- 2020-01-22 EP EP20744787.1A patent/EP3897346A4/en active Pending
- 2020-01-22 WO PCT/US2020/014674 patent/WO2020154448A1/en unknown
- 2020-01-22 CA CA3127605A patent/CA3127605C/en active Active
- 2020-01-22 JP JP2021542469A patent/JP7138802B2/ja active Active
- 2020-01-22 US US16/749,963 patent/US10912625B2/en active Active
- 2020-08-17 US US16/995,756 patent/US11376096B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013531525A (ja) | 2010-06-13 | 2013-08-08 | アンジオメトリックス コーポレーション | 血管内腔の情報を決定し、医療用デバイスをガイドするための方法およびシステム |
WO2014200017A1 (ja) | 2013-06-11 | 2014-12-18 | Tanji Atsushi | 骨切支援システム、情報処理装置、画像処理方法、および画像処理プログラム |
JP2016539768A (ja) | 2013-11-11 | 2016-12-22 | アエスキュラップ アーゲー | 外科用参照装置、外科用誘導システム及び方法 |
WO2018195529A1 (en) | 2017-04-21 | 2018-10-25 | Samadani Uzma | Using augmented reality in surgical navigation |
Also Published As
Publication number | Publication date |
---|---|
CA3127605A1 (en) | 2020-07-30 |
WO2020154448A1 (en) | 2020-07-30 |
US20200229893A1 (en) | 2020-07-23 |
US20200375689A1 (en) | 2020-12-03 |
EP3897346A1 (en) | 2021-10-27 |
US11376096B2 (en) | 2022-07-05 |
US10912625B2 (en) | 2021-02-09 |
EP3897346A4 (en) | 2022-09-28 |
JP2022517132A (ja) | 2022-03-04 |
US20220265385A1 (en) | 2022-08-25 |
CA3127605C (en) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7138802B2 (ja) | 手術部位のメディエイテッドリアリティビューに対するリアルタイム手術画像への術前スキャン画像のアライメント | |
US10258427B2 (en) | Mixed reality imaging apparatus and surgical suite | |
US11350072B1 (en) | Augmented reality guidance for bone removal and osteotomies in spinal surgery including deformity correction | |
JP2022527360A (ja) | 空間トラッキングシステムと拡張現実ディスプレイとのレジストレーション | |
US11896441B2 (en) | Systems and methods for measuring a distance using a stereoscopic endoscope | |
CN113950301A (zh) | 用于计算机引导手术的系统 | |
NL2022371B1 (en) | Method and assembly for spatial mapping of a model of a surgical tool onto a spatial location of the surgical tool, as well as a surgical tool | |
CN113034700A (zh) | 基于移动终端的前交叉韧带重建手术导航方法及系统 | |
CN110638525B (zh) | 整合扩增实境的手术导航系统 | |
US11998401B2 (en) | Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site | |
JP6943884B2 (ja) | ハイブリッドx線/カメラ介入の動き補償 | |
JP6306532B2 (ja) | 3次元データ処理システム、方法、及びプログラム並びに3次元モデル、並びに3次元モデル造形装置 | |
JP2019161558A (ja) | 臓器追跡装置、臓器追跡方法及び臓器追跡プログラム | |
US12010285B2 (en) | Augmented reality guidance for spinal surgery with stereoscopic displays | |
US20230196595A1 (en) | Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene | |
Sauer et al. | Augmented reality visualization for thoracoscopic spine surgery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210921 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210921 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7138802 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |