JP7478383B2 - マルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム - Google Patents
マルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム Download PDFInfo
- Publication number
- JP7478383B2 JP7478383B2 JP2023107311A JP2023107311A JP7478383B2 JP 7478383 B2 JP7478383 B2 JP 7478383B2 JP 2023107311 A JP2023107311 A JP 2023107311A JP 2023107311 A JP2023107311 A JP 2023107311A JP 7478383 B2 JP7478383 B2 JP 7478383B2
- Authority
- JP
- Japan
- Prior art keywords
- ultrasound
- puncture
- image
- point
- registration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000002604 ultrasonography Methods 0.000 title claims description 225
- 239000000523 sample Substances 0.000 claims description 32
- 239000013598 vector Substances 0.000 claims description 29
- 238000009877 rendering Methods 0.000 claims description 22
- 230000009466 transformation Effects 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 6
- 230000003902 lesion Effects 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 6
- 230000009885 systemic effect Effects 0.000 claims description 5
- 230000004807 localization Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 101100330193 Homo sapiens CYREN gene Proteins 0.000 claims description 3
- 210000000056 organ Anatomy 0.000 claims description 3
- 210000002307 prostate Anatomy 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 210000001519 tissue Anatomy 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/12—Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
- A61B8/4254—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/44—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
- A61B8/4416—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5238—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
- A61B8/5261—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/00234—Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
- A61B2017/00238—Type of minimally invasive operation
- A61B2017/00274—Prostate operation, e.g. prostatectomy, turp, bhp treatment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
- A61B2017/3405—Needle locating or guiding means using mechanical guide means
- A61B2017/3411—Needle locating or guiding means using mechanical guide means with a plurality of holes, e.g. holes in matrix arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
- A61B2017/3413—Needle locating or guiding means guided by ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/374—NMR or MRI
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0223—Magnetic field sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
- A61B8/0841—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
- G06T2207/10136—3D ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30081—Prostate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Radiology & Medical Imaging (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Computer Graphics (AREA)
- Robotics (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Description
ヒト磁気共鳴シーケンス画像即ちMRIシーケンス画像を受信し、前記MRIシーケンス画像を3次元レンダリングし穿刺点を描くMRIシーケンス画像レンダリングユニットと、
ヒト超音波シーケンス画像を受信し、各フレームの超音波シーケンス画像の4頂点の3次元座標を抽出し、超音波ボリュームデータを再構成する超音波シーケンス画像再構成ユニットと、
ICP反復アルゴリズムを使用して再構成後の超音波ボリュームデータ及びレンダリング後のMRIデータに対して3次元レジストレーション操作を行い、超音波データに対応する3次元座標をMRIデータに対応する3次元座標系へ変換するためのレジストレーション変換係数を得るレジストレーションユニットと、
超音波プローブで取得したヒト超音波画像を受信し、系統穿刺点及び現在の超音波画像に基づいて穿刺計画画像を生成し、表示する穿刺計画ユニットと、を含む、マルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システムを提供する。
各フレームの超音波シーケンス画像の4頂点の3次元座標及び画素座標に基づき、下記座標変換式を用いて各フレームの超音波シーケンス画像における各画素に対応する3次元座標を得、超音波データの3次元ソース点群を得、
P(x,y,z)=Q(x,y,z)+uH(x,y,z)+vK(x,y,z)
式中、(u,v)は超音波シーケンス画像の画素座標であり、P(x,y,z)は変換後の3次元座標であり、Qは超音波画像における左上頂点の3次元座標であり、Hは3次元空間のx方向ベクトルであり、Kは3次元空間のy方向ベクトルであり、
そして各フレームの超音波画像に対して上記変換を行って各フレーム画像における全ての画素点の3次元座標を得、前後2フレームの画像の同じ画素位置に対応する3次元座標を計算し、続いて該3次元座標をボクセル位置に変換し、前後フレームの画像における同じ画素位置の点群の所在する断面に補間し、再構成後の超音波ボリュームデータを得る。
再構成後の超音波ボリュームデータに対して三角形メッシュ化処理を行い平滑化し、ダウンサンプリングして再構成後の超音波ボリュームデータの3次元ソース点群を得る操作と、
KNNツリーを用いて再構成後の超音波ボリュームデータの3次元ソース点群とMRIシーケンスレンダリング後の画像情報の3次元ターゲット点群との構造マッチングを行い、3次元ソース点群と3次元ターゲット点群との対応する点対を決定し、ICP反復を行ってレジストレーションを完了し、レジストレーション回転マトリクスR及びレジストレーション並進量Tを含むレジストレーション変換係数を得る操作と、を実行する。
各系統穿刺点に対して半径rの球体を構築し、球体表面に対していくつかの点を一様にサンプリングするステップと、
超音波プローブで取得したヒト超音波画像を受信し、該画像の4頂点の3次元座標を抽出するステップと、
各穿刺点に対して、穿刺点で構築された球体表面のサンプリング点と現在のプローブ平面との空間位置関係をトラバースし、現在の超音波画像における穿刺点を取得するステップと、
該穿刺点の3次元座標を超音波画像に投影し、超音波画像における該穿刺点の対応する針孔番号を抽出し、穿刺計画画像を生成する、即ち、2次元の現在の超音波画像において現在の穿刺点及び穿刺ガイドラインを描き及び対応する針孔をハイライトするステップと、
穿刺ガイドライン及び針孔番号に基づいて正確な穿刺を実現するステップと、を実行する。
現在の超音波画像における穿刺点を取得するステップは、具体的に、
サンプリング点と超音波画像の左上頂点とからなる空間ベクトルを取得するステップと、
超音波画像空間即ち頂点p0~p3の法線ベクトルを取得するステップと、
前記空間ベクトルと法線ベクトルとの夾角のコサイン値を計算するステップと、
算出されたコサイン値と設定された閾値とを比較し、コサイン値が閾値より小さい場合、該穿刺点が現在の超音波画像にあると認めるステップと、を含み、前記閾値は0.01~0.02である。
穿刺点の3次元座標を超音波画像に投影するステップは、具体的に、
レジストレーション変換係数に基づいて穿刺点MRIデータを超音波ボリュームデータに対応する3次元座標に変換するステップと、
穿刺点超音波ボリュームデータの3次元座標Pi(x,y,z)に基づき、それを現在の超音波画像の矢状面に投影するステップと、を含み、投影ステップは、
まず、穿刺点Pi(x,y,z)と現在の超音波画像の左上頂点p3(x0,y0,z0)との方向ベクトルvec(x-x0,y-y0,z-z0)を計算し、iは穿刺点の番号を表し、
次に、ベクトルvecの超音波平面x方向での投影値を計算し、x方向での穿刺点と超音波左上頂点との物理的距離Value:Value=vec・Hを得、Hは超音波平面x方向の単位ベクトルであり、
最後に、超音波画素の物理的間隔pixelSpaceに基づいて穿刺点の超音波平面でのx方向画素座標X:X=Value/pixelSpaceを計算すること、を含み、
同様に、穿刺点の超音波平面y方向での投影座標も上記と同様に計算する。
本発明はマルチモーダル医用画像レジストレーションによって、超音波下における電磁系即ち2次元座標をMRI世界座標系即ち3次元座標へと統合し、超音波断面によってMRI座標系へと変換し、穿刺点が超音波平面にあるか否かを判断し、超音波平面にある穿刺点を2次元座標に変換し、超音波平面において、正確な穿刺を行うようにガイド画像を計画し、穿刺ガイドの精度及び正確性をさらに高め、医師がより迅速に病変ターゲットに穿刺することを助け、穿刺にかかる時間を効果的に短縮させ、合併症の発症率を低下させる。
各フレームの超音波シーケンス画像の4頂点の3次元座標及び画素座標に基づき、下記座標変換式を用いて各フレームの超音波シーケンス画像における各画素に対応する3次元座標を得、超音波データの3次元ソース点群を得、
P(x,y,z)=Q(x,y,z)+uH(x,y,z)+vK(x,y,z)
式中、(u,v)は超音波シーケンス画像の画素座標であり、P(x,y,z)は変換後の3次元座標であり、Qは超音波画像における左上頂点の3次元座標であり、Hは3次元空間のx方向ベクトルであり、Kは3次元空間のy方向ベクトルであり、
そして各フレームの超音波画像に対して上記変換を行って各フレーム画像における全ての画素点の3次元座標を得、前後2フレームの画像の同じ画素位置に対応する3次元座標を計算し、続いて該3次元座標をボクセル位置に変換し、前後フレームの画像における同じ画素位置の点群の所在する断面に補間し、再構成後の超音波ボリュームデータを得る。
再構成後の超音波ボリュームデータに対して三角形メッシュ化処理を行い平滑化し、ダウンサンプリングして再構成後の超音波ボリュームデータの3次元ソース点群を得る操作と、
KNNツリーを用いて再構成後の超音波ボリュームデータの3次元ソース点群とMRIシーケンスレンダリング後の画像情報の3次元ターゲット点群との構造マッチングを行い、3次元ソース点群と3次元ターゲット点群との対応する点対を決定し、ICP反復を行ってレジストレーションを完了し、レジストレーション回転マトリクスR及びレジストレーション並進量Tを含むレジストレーション変換係数を得る操作と、を実行する。
まず、サンプリング点と超音波画像の左上頂点とからなる空間ベクトルを取得し、
次に、超音波画像空間即ち頂点p0~p3の法線ベクトルを取得し、
さらに、前記空間ベクトルと法線ベクトルとの夾角のコサイン値を計算し、
最後に、算出されたコサイン値と設定された閾値とを比較し、コサイン値が閾値より小さい場合、該穿刺点が現在の超音波画像にあると認め、ここで前記閾値は0.01~0.02である。
レジストレーション変換係数に基づいて穿刺点MRIデータを超音波ボリュームデータに対応する3次元座標に変換するステップと、
穿刺点超音波ボリュームデータの3次元座標Pi(x,y,z)に基づき、それを現在の超音波画像の矢状面に投影するステップと、を含み、投影ステップは、
まず、穿刺点Pi(x,y,z)と現在の超音波画像の左上頂点p3(x0,y0,z0)との方向ベクトルvec(x-x0,y-y0,z-z0)を計算し、iは穿刺点の番号を表し、
次に、ベクトルvecの超音波平面x方向での投影値を計算し、x方向での穿刺点と超音波左上頂点との物理的距離Value:Value=vec・Hを得、Hは超音波平面x方向の単位ベクトルであり、
最後に、超音波画素の物理的間隔pixelSpaceに基づいて穿刺点の超音波平面でのx方向画素座標X:X=Value/pixelSpaceを計算すること、を含み、
同様に、穿刺点の超音波平面y方向での投影座標も上記と同様に計算する。
図1から図7に示すように、本発明のマルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システムは、前立腺の超音波穿刺ガイドと計画に応用され、以下のS1~S5のステップを実行する。
医用デジタル画像と通信DICOM情報における患者位置情報に基づき、それに医用デジタル画像と通信DICOM情報における患者画像位置の情報を組み合わせて3次元再構成レンダリングを行い、ヒト前立腺を例とすると、画像情報描出システム及びターゲット(存在する場合、操作者又は医師により決定される)穿刺点(図4に示すように、前立腺MRI3次元レンダリング後の模式図であり、図中、番号1~12は描かれた穿刺点の分布を示すものである)に基づき、前立腺系統穿刺点分布の横断面模式図は図3示すように、後続の穿刺を容易にするために穿刺点の位置を直感的に表示できる。
まず、電磁位置特定システムを接続し、それに電磁センサを接続し、センサを超音波プローブと結び付け、次に、プログラム制御下で収集を開始し、1組の超音波シーケンス画像及び該当する各フレームの画像に対応する4頂点の座標を連続的に収集し、最後に、プログラム制御下で収集を終了し、収集された超音波シーケンス画像及び該当する各フレームの画像に対応する4頂点の座標をメモリに保存し、図2に示すように、p3は左上頂点、p2は右上頂点、p0は左下頂点、p1は右下頂点を表す。
P(x,y,z)=Q(x,y,z)+uH(x,y,z)+vK(x,y,z)
式中、(u,v)は超音波シーケンス画像の画素座標であり、P(x,y,z)は変換後の3次元座標であり、Qは超音波画像における左上頂点の3次元座標であり、Hは3次元空間のx方向ベクトルであり、Kは3次元空間のy方向ベクトルであり、
そして各フレームの超音波画像に対して上記変換を行って各フレーム画像における全ての画素点の3次元座標を得、前後2フレームの画像の同じ画素位置に対応する3次元座標を計算し、続いて該3次元座標をボクセル位置に変換し、前後フレームの画像における同じ画素位置の点群の所在する断面に補間し、再構成後の超音波ボリュームデータを得る。
そしてKNNツリーを用いて再構成後の超音波ボリュームデータの3次元ソース点群とMRIシーケンスレンダリング後の画像情報の3次元ターゲット点群との構造マッチングを行い、3次元ソース点群と3次元ターゲット点群との対応する点対を決定し、ICP反復を行ってレジストレーションを完了し、レジストレーション回転マトリクスR及びレジストレーション並進量Tを含むレジストレーション変換係数を得る。変換係数によって超音波と結び付けられた電磁座標系をMRI世界座標系へと変換する。
まず、各穿刺点に対して半径が1mmで、球心が穿刺点座標である球体を構築し、球体表面に対していくつかの点(本システムでは49個)を一様にサンプリングし、
次に、超音波プローブを回転させて2次元超音波画像をリアルタイムに取得し、
最後に、各穿刺点に対して、該球体表面の点と現在のプローブ平面との空間位置関係をトラバースし、一定の誤差範囲内で点がプローブ平面にあれば、穿刺ガイド画像を生成し、つまり、2次元超音波平面内に現在の穿刺点(レジストレーション変換係数に基づいて穿刺点MRIデータを超音波ボリュームデータに対応する3次元座標に変換し、そして穿刺点超音波ボリュームデータの3次元座標に基づき、それを現在の超音波画像の矢状面に投影する)、穿刺ガイドラインをリアルタイムに描き、穿刺ガイドラインに基づいて穿刺パッドにおける針孔番号を選択して正確な穿刺を実現し、図5及び図6は穿刺ガイドの2つの模式図であり、図左は超音波空間平面における前立腺MRI横断面での穿刺点の一定誤差範囲内の分布を示し、図右は超音波で可視化された前立腺矢状面を示し、横断面での穿刺点が2次元超音波矢状面に投影され、図から明らかなように、穿刺針が番号4、6の針孔から刺されてそれぞれ穿刺点11、8に穿刺する。図5、6の左は磁気共鳴での前立腺穿刺点を示し(2つの穿刺点が示される)、右は超音波プローブイメージングを示し、イメージング平面内に穿刺点が2つある。
アプリケーション層が穿刺フレームを一定の縮尺で超音波平面内に描き、ここで穿刺点は黄色円形で示し、穿刺する孔の番号及び穿刺ガイドラインは赤色で示し、図から明らかなように、現在の穿刺針は番号9、3の針孔から刺されてそれぞれ穿刺点1、10に穿刺し、最終的に超音波画像平面内で穿刺位置と穿刺ラインとの重なりが実現され、迅速で、高効率で、正確な穿刺プロセス全体が完了される。
Claims (9)
- ヒト磁気共鳴シーケンス画像即ちMRIシーケンス画像を受信し、前記MRIシーケンス画像を3次元レンダリングし穿刺点を描くMRIシーケンス画像レンダリングユニットと、
ヒト超音波シーケンス画像を受信し、各フレームの超音波シーケンス画像の4頂点の3次元座標を抽出し、超音波ボリュームデータを再構成する超音波シーケンス画像再構成ユニットと、
ICP反復アルゴリズムを使用して再構成後の超音波ボリュームデータ及びレンダリング後のMRIデータに対して3次元レジストレーション操作を行い、超音波データに対応する3次元座標をMRIデータに対応する3次元座標系へ変換するためのレジストレーション変換係数を得るレジストレーションユニットと、
超音波プローブで取得したヒト超音波画像を受信し、前記穿刺点及び現在の超音波画像に基づいて穿刺計画画像を生成し、表示する穿刺計画ユニットと、を含み、
穿刺計画ユニットは、
各前記穿刺点に対して半径rの球体を構築し、球体表面に対していくつかの点を一様にサンプリングするステップと、
超音波プローブで取得したヒト超音波画像を受信し、該画像の4頂点の3次元座標を抽出するステップと、
各穿刺点に対して、穿刺点で構築された球体表面のサンプリング点と現在のプローブ平面との空間位置関係をトラバースし、現在の超音波画像における穿刺点を取得するステップと、
該穿刺点の3次元座標を超音波画像に投影し、超音波画像における該穿刺点の対応する針孔番号を抽出し、穿刺計画画像を生成する、即ち、2次元の現在の超音波画像において現在の穿刺点及び穿刺ガイドラインを描き及び対応する針孔をハイライトするステップと、
穿刺ガイドライン及び針孔番号に基づいて正確な穿刺を実現するステップと、
を実行し、
穿刺計画ユニットにおいて、
現在の超音波画像における穿刺点を取得するステップは、具体的に、
サンプリング点と超音波画像の左上頂点とからなる空間ベクトルを取得するステップと、
超音波画像空間即ち頂点p0~p3の法線ベクトルを取得するステップと、
前記空間ベクトルと法線ベクトルとの夾角のコサイン値を計算するステップと、
算出されたコサイン値と設定された閾値とを比較し、コサイン値が閾値より小さい場合、該穿刺点が現在の超音波画像にあると認めるステップと、を含み、前記閾値は0.01~0.02であり、
穿刺点の3次元座標を超音波画像に投影するステップは、具体的に、
レジストレーション変換係数に基づいて穿刺点MRIデータを超音波ボリュームデータに対応する3次元座標に変換するステップと、
穿刺点超音波ボリュームデータの3次元座標Pi(x,y,z)に基づき、それを現在の超音波画像の矢状面に投影するステップと、
を含むことを特徴とする、マルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム。 - 前記MRIシーケンス画像は大型磁気共鳴装置により取得され、前記MRIシーケンス画像レンダリングユニットは、MRIシーケンス画像の医用デジタル画像と通信DICOM情報における患者位置情報に基づいて3次元再構成レンダリングを行って画像情報を取得し、画像情報に基づいて穿刺点を描くことを特徴とする、請求項1に記載のマルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム。
- 前記穿刺点は系統穿刺点及び/又はターゲット穿刺点を含み、系統穿刺点は12個であり、3次元再構成レンダリングにより得られた画像情報において均一に分布しており、前記ターゲット穿刺点は疑い病変位置であることを特徴とする、請求項2に記載のマルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム。
- 前記ヒト超音波シーケンス画像は超音波プローブを連続的に回転させることで1組の超音波シーケンス画像が手動で収集され、前記超音波プローブに電磁センサが結び付けられ、該電磁センサは電磁位置特定システムに接続され、超音波シーケンス画像の頂点の3次元座標を取得するためのものであることを特徴とする、請求項1に記載のマルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム。
- 前記超音波プローブのハンドル位置に穿刺パッドが配置され、前記穿刺パッドにいくつかの均一に分布する針孔が設けられ、前記穿刺パッドは穿刺器官を覆い得る大きさのサイズであり、且つ超音波表示平面も穿刺パッドにおける各孔の実際位置、間隔距離に対応して番号付けされることを特徴とする、請求項4に記載のマルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム。
- 超音波ボリュームデータを再構成するステップは、具体的に、
各フレームの超音波シーケンス画像の4頂点の3次元座標及び画素座標に基づき、下記座標変換式を用いて各フレームの超音波シーケンス画像における各画素に対応する3次元座標を得、超音波データの3次元ソース点群を得、
P(x,y,z)=Q(x,y,z)+uH(x,y,z)+vK(x,y,z)
式中、(u,v)は超音波シーケンス画像の画素座標であり、P(x,y,z)は変換後の3次元座標であり、Qは超音波画像における左上頂点の3次元座標であり、Hは3次元空間のx方向ベクトルであり、Kは3次元空間のy方向ベクトルであり、
そして各フレームの超音波画像に対して上記変換を行って各フレーム画像における全ての画素点の3次元座標を得、前後2フレームの画像の同じ画素位置に対応する3次元座標を計算し、続いて該3次元座標をボクセル位置に変換し、前後フレームの画像における同じ画素位置の点群の所在する断面に補間し、再構成後の超音波ボリュームデータを得ることを特徴とする、請求項4に記載のマルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム。 - レジストレーションユニットは、
再構成後の超音波ボリュームデータに対して三角形メッシュ化処理を行い平滑化し、ダウンサンプリングして再構成後の超音波ボリュームデータの3次元ソース点群を得る操作と、
KNNツリーを用いて再構成後の超音波ボリュームデータの3次元ソース点群とMRIシーケンスレンダリング後の画像情報の3次元ターゲット点群との構造マッチングを行い、3次元ソース点群と3次元ターゲット点群との対応する点対を決定し、ICP反復を行ってレジストレーションを完了し、レジストレーション回転マトリクスR及びレジストレーション並進量Tを含むレジストレーション変換係数を得る操作と、を実行することを特徴とする、請求項1に記載のマルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム。 - 投影ステップは、
まず、穿刺点Pi(x,y,z)と現在の超音波画像の左上頂点p3(x0,y0,z0)との方向ベクトルvec(x-x0,y-y0,z-z0)を計算し、iは穿刺点の番号を表し、
次に、ベクトルvecの超音波平面x方向での投影値を計算し、x方向での穿刺点と超音波左上頂点との物理的距離Value:Value=vec・Hを得、Hは超音波平面x方向の単位ベクトルであり、
最後に、超音波画素の物理的間隔pixelSpaceに基づいて穿刺点の超音波平面でのx方向画素座標X:X=Value/pixelSpaceを計算すること、を含み、
同様に、穿刺点の超音波平面y方向での投影座標も上記と同様に計算することを特徴とする、請求項1に記載のマルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム。 - 超音波プローブで取得したリアルタイムのヒト超音波画像をリアルタイムに受信し、穿刺計画ユニットを作動させて穿刺計画を実行し、超音波画像及び穿刺計画画像をリアルタイムに表示することができる穿刺ガイドユニットをさらに含むことを特徴とする、請求項1から8のいずれか1項に記載のマルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211219688.3A CN115294124B (zh) | 2022-10-08 | 2022-10-08 | 基于多模态医学图像配准的超声穿刺引导规划系统 |
CN202211219688.3 | 2022-10-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2024055754A JP2024055754A (ja) | 2024-04-18 |
JP7478383B2 true JP7478383B2 (ja) | 2024-05-07 |
Family
ID=83833300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023107311A Active JP7478383B2 (ja) | 2022-10-08 | 2023-06-29 | マルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240115322A1 (ja) |
EP (1) | EP4349265A1 (ja) |
JP (1) | JP7478383B2 (ja) |
CN (1) | CN115294124B (ja) |
NL (1) | NL2035295B1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115770104B (zh) * | 2022-11-24 | 2024-09-24 | 中国医学科学院北京协和医院 | 一种定位胸段背根神经节及预设穿刺路径的方法 |
CN116580820B (zh) * | 2023-07-13 | 2023-12-22 | 卡本(深圳)医疗器械有限公司 | 基于多模态医学图像的经会阴前列腺穿刺智能麻醉系统 |
CN116725673B (zh) * | 2023-08-10 | 2023-10-31 | 卡本(深圳)医疗器械有限公司 | 基于三维重建与多模态医学图像配准的超声穿刺导航系统 |
CN117058135A (zh) * | 2023-10-11 | 2023-11-14 | 卡本(深圳)医疗器械有限公司 | 基于系统模板的前列腺系统穿刺点分布方法、设备及介质 |
CN118021410B (zh) * | 2024-04-12 | 2024-06-04 | 卡本(深圳)医疗器械有限公司 | 基于多模融合的前列腺穿刺引导方法、装置、设备及系统 |
CN118680646A (zh) * | 2024-08-26 | 2024-09-24 | 西安市第三医院 | 一种基于视觉辅助的麻醉穿刺定位方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010515472A (ja) | 2006-11-27 | 2010-05-13 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 事前収集された医用画像に実時間超音波画像を融合させるシステム及び方法 |
JP2011011001A (ja) | 2009-07-06 | 2011-01-20 | Toshiba Corp | 超音波診断装置およびその処理プログラム |
JP2013048688A (ja) | 2011-08-30 | 2013-03-14 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
US20130310680A1 (en) | 2012-05-21 | 2013-11-21 | The Regents Of The University Of Colorado, A Body Corporate | Three-dimensional optical imaging and therapy of prostate cancer |
JP2016136065A (ja) | 2013-07-03 | 2016-07-28 | ジーエム・グローバル・テクノロジー・オペレーションズ・エルエルシー | チェーン出力を備えた連続可変変速機 |
CN107582098A (zh) | 2017-08-08 | 2018-01-16 | 南京大学 | 一种二维超声图像集合重构的三维超声成像方法 |
JP2021074295A (ja) | 2019-11-11 | 2021-05-20 | キヤノンメディカルシステムズ株式会社 | 穿刺支援装置 |
WO2021209794A1 (en) | 2020-04-16 | 2021-10-21 | B-K Medical Aps | Needle guide for ultrasound-guided freehand biopsy and/or ablation needle insertion |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103356284B (zh) * | 2012-04-01 | 2015-09-30 | 中国科学院深圳先进技术研究院 | 手术导航方法和系统 |
CN107028626B (zh) * | 2017-05-26 | 2023-06-06 | 北京龙慧珩医疗科技发展有限公司 | 一种前列腺术弹性配准方法及装置 |
CN108577940A (zh) * | 2018-02-11 | 2018-09-28 | 苏州融准医疗科技有限公司 | 一种基于多模态医学图像信息的靶向穿刺引导系统及方法 |
CN110464459B (zh) * | 2019-07-10 | 2022-04-15 | 丽水市中心医院 | 基于ct-mri融合的介入计划导航系统及其导航方法 |
DE102019130368A1 (de) * | 2019-11-11 | 2021-05-12 | Timo Krüger | Verfahren und System zum Wiedergeben eines Einstichpunktes für ein medizinisches Instrument |
JP2023524364A (ja) * | 2020-03-11 | 2023-06-12 | 蘇州市立普医療科技有限公司 | 針溝板、穿刺ホルダ及び生検装置 |
CN113057734A (zh) * | 2021-03-12 | 2021-07-02 | 上海微创医疗机器人(集团)股份有限公司 | 一种手术系统 |
CN114119549B (zh) * | 2021-11-26 | 2023-08-29 | 卡本(深圳)医疗器械有限公司 | 一种多模态医学图像三维点云配准优化方法 |
-
2022
- 2022-10-08 CN CN202211219688.3A patent/CN115294124B/zh active Active
-
2023
- 2023-06-29 JP JP2023107311A patent/JP7478383B2/ja active Active
- 2023-07-06 NL NL2035295A patent/NL2035295B1/en active
- 2023-07-20 US US18/224,064 patent/US20240115322A1/en active Pending
- 2023-08-14 EP EP23191316.1A patent/EP4349265A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010515472A (ja) | 2006-11-27 | 2010-05-13 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 事前収集された医用画像に実時間超音波画像を融合させるシステム及び方法 |
JP2011011001A (ja) | 2009-07-06 | 2011-01-20 | Toshiba Corp | 超音波診断装置およびその処理プログラム |
JP2013048688A (ja) | 2011-08-30 | 2013-03-14 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
US20130310680A1 (en) | 2012-05-21 | 2013-11-21 | The Regents Of The University Of Colorado, A Body Corporate | Three-dimensional optical imaging and therapy of prostate cancer |
JP2016136065A (ja) | 2013-07-03 | 2016-07-28 | ジーエム・グローバル・テクノロジー・オペレーションズ・エルエルシー | チェーン出力を備えた連続可変変速機 |
CN107582098A (zh) | 2017-08-08 | 2018-01-16 | 南京大学 | 一种二维超声图像集合重构的三维超声成像方法 |
JP2021074295A (ja) | 2019-11-11 | 2021-05-20 | キヤノンメディカルシステムズ株式会社 | 穿刺支援装置 |
WO2021209794A1 (en) | 2020-04-16 | 2021-10-21 | B-K Medical Aps | Needle guide for ultrasound-guided freehand biopsy and/or ablation needle insertion |
Also Published As
Publication number | Publication date |
---|---|
NL2035295B1 (en) | 2024-02-16 |
EP4349265A1 (en) | 2024-04-10 |
US20240115322A1 (en) | 2024-04-11 |
JP2024055754A (ja) | 2024-04-18 |
NL2035295A (en) | 2023-09-20 |
CN115294124B (zh) | 2023-01-06 |
CN115294124A (zh) | 2022-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7478383B2 (ja) | マルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム | |
EP3003161B1 (en) | Method for 3d acquisition of ultrasound images | |
US6379302B1 (en) | Navigation information overlay onto ultrasound imagery | |
US20110178389A1 (en) | Fused image moldalities guidance | |
US20130170726A1 (en) | Registration of scanned objects obtained from different orientations | |
US20050203385A1 (en) | Method and system of affine registration of inter-operative two dimensional images and pre-operative three dimensional images | |
JPH09511430A (ja) | 三次元データ組の登録システムおよび登録方法 | |
EP3110335B1 (en) | Zone visualization for ultrasound-guided procedures | |
US11364082B2 (en) | Fusion-imaging method for radio frequency ablation | |
CN108064148A (zh) | 用于体外受精的图像引导的胚胎转移 | |
CN111166373B (zh) | 一种定位注册方法、装置和系统 | |
CN109242964B (zh) | 三维医学模型的处理方法和装置 | |
CA3100458A1 (en) | Multi-modal image registration | |
Santos et al. | Geometric calibration of a new miniaturized endoscopic ultrasound probe | |
US20240206907A1 (en) | System and Method for Device Tracking in Magnetic Resonance Imaging Guided Inerventions | |
Freidlin et al. | NIHmagic: 3D visualization, registration, and segmentation tool | |
Maris et al. | Deformable surface registration for breast tumors tracking: a phantom study | |
Hu et al. | A navigation method for targeted prostate biopsy based on MRI-TRUS fusion | |
Lu et al. | Virtual-real registration of augmented reality technology used in the cerebral surgery lesion localization | |
WO2023175001A1 (en) | Method for displaying a 3d model of a patient | |
CN116402875A (zh) | 一种医学图像的mpr三维重建方法 | |
Ku et al. | Medical Images Illustrator: A Flexible Image Processing System | |
JP2011156117A (ja) | 医用画像読影システム、医用画像参照装置及び血管長計測用制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230629 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240411 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7478383 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |