JP2019107451A - Entの骨距離が色符号化された顔のマップ - Google Patents
Entの骨距離が色符号化された顔のマップ Download PDFInfo
- Publication number
- JP2019107451A JP2019107451A JP2018236163A JP2018236163A JP2019107451A JP 2019107451 A JP2019107451 A JP 2019107451A JP 2018236163 A JP2018236163 A JP 2018236163A JP 2018236163 A JP2018236163 A JP 2018236163A JP 2019107451 A JP2019107451 A JP 2019107451A
- Authority
- JP
- Japan
- Prior art keywords
- image
- skin
- minimum distance
- threshold
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000000988 bone and bone Anatomy 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000009877 rendering Methods 0.000 claims abstract description 21
- 238000002591 computed tomography Methods 0.000 claims description 48
- 239000003086 colorant Substances 0.000 claims description 32
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000003325 tomography Methods 0.000 abstract 1
- 239000000523 sample Substances 0.000 description 30
- 210000004872 soft tissue Anatomy 0.000 description 15
- 210000003128 head Anatomy 0.000 description 13
- 238000012545 processing Methods 0.000 description 5
- 238000001356 surgical procedure Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000002675 image-guided surgery Methods 0.000 description 3
- 210000003625 skull Anatomy 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 210000003928 nasal cavity Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000005865 ionizing radiation Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 238000007443 liposuction Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 210000003695 paranasal sinus Anatomy 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5205—Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/24—Surgical instruments, devices or methods, e.g. tourniquets for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/505—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/254—User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Theoretical Computer Science (AREA)
- Pathology (AREA)
- General Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Physiology (AREA)
- Human Computer Interaction (AREA)
- Pulmonology (AREA)
- Architecture (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Dentistry (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Gynecology & Obstetrics (AREA)
- Otolaryngology (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Primary Health Care (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
Abstract
Description
被験者の体内の手術器具の位置及び向きの決定は、磁気追跡を利用して行うことができる。耳鼻咽喉(ENT)手術では、最初に、被験者の頭部に対して磁気追跡システムが位置合わせされる。この位置合わせ手順は、通常、被験者の頭部の予め記録されたCT画像を使用する。位置合わせ手順の予備段階では、外科医は、位置合わせプローブを有するワンド状のプローブを用いて被験者の顔の数カ所、通常は4つの点に触れる。位置合わせプローブの位置及び向きが、磁気追跡システムによって認識される。これら4つの点に基づき、プロセッサが、位置合わせアルゴリズムを用いて磁気追跡システム内の各点の位置をCT画像内のそれらの位置に当てはめることによって、初期位置合わせを行う。
図1は、本発明の一実施形態に従った、表面整合システム10の概略図である。システム10は、本明細書において、例として、被験者14のコンピュータ断層撮影(CT)画像を備えると想定される、磁気追跡システム12を画像と位置合わせさせるために用いられる。追跡システム12は、被験者に実施される医学的手技の間に被験者14に挿入される、カテーテル又はガイドワイヤなどの1つ又は2つ以上の器具の位置及び配向を追跡するために用いられる。以下に記載されるように、追跡システム12は、被験者の外側にある位置合わせプローブ16の位置及び向きを追跡することもできる。プローブ16は、システム10の使用中に、専門家20(通常は外科医)が保持することができるハンドル18に固定的に接続されている。プローブ16とハンドル18との組み合わせは、専門家20による所望の位置へのプローブの配置を容易にする剛性プローブアセンブリ22を形成する。
(1) 被験者の身体の部分のボクセルを含んだコンピュータ断層撮影(CT)画像を受信することと、
前記画像をセグメント化して前記画像内の皮膚の表面及び骨の表面を識別することと、
前記皮膚の前記表面上の複数の点から前記骨までのそれぞれの最小距離を測定することと、
前記皮膚の前記表面の画像をレンダリングしながら前記レンダリング済み画像を視覚的に符号化することで前記それぞれの最小距離を表示することと、を含む、方法。
(2) 前記レンダリング済み画像を視覚的に符号化することは、前記最小距離が所定の閾値を上回らない前記皮膚の第1の領域に第1の画像特性を適用することと、前記最小距離が前記所定の閾値を上回る前記皮膚の第2の領域に第2の画像特性を適用することと、を含む、実施態様1に記載の方法。
(3) 前記第1及び第2の画像特性が、2つの区別可能な色である、実施態様2に記載の方法。
(4) 前記第1及び第2の画像特性が、2つの区別可能なパターンである、実施態様2に記載の方法。
(5) 前記第1及び第2の画像特性が、2つの区別可能なグレーレベルである、実施態様2に記載の方法。
(7) 前記第1、第2、及び第3の画像特性が、3つの区別可能な色である、実施態様6に記載の方法。
(8) 前記第3の画像特性の前記色が、前記第1及び第2の画像特性の前記色の組み合わせであり、前記組み合わせ中の前記第1及び第2の色の相対的重みが、第2の差に対する第1の差の比から求められ、前記第1の差が前記第1の閾値と前記最小距離との差であり、前記第2の差が前記最小距離と前記第2の閾値との差である、実施態様7に記載の方法。
(9) 前記第1及び第2の画像特性が2つの区別可能なグレーレベルであり、前記第3の画像特性が第3のグレーレベルであり、前記第3のグレーレベルが、前記第1及び第2の画像特性の前記グレーレベルの間の補間されたグレーレベルであり、前記補間されたグレーレベルが、それぞれ、前記最小距離と前記第1及び第2の閾値との差によって決定される、実施態様6に記載の方法。
(10) 前記身体の部分が頭部を含む、実施態様1に記載の方法。
(12) ディスプレイ装置と、
プロセッサであって、被験者の身体の部分のボクセルを含んだコンピュータ断層撮影(CT)画像を受信し、前記画像をセグメント化して前記画像内の皮膚の表面及び骨の表面を識別し、前記皮膚の前記表面上の複数の点から前記骨までのそれぞれの最小距離を測定し、前記ディスプレイ装置上の前記皮膚の前記表面の画像をレンダリングしながら前記レンダリング済み画像を視覚的に符号化することで前記それぞれの最小距離を示すように構成されている、プロセッサと、を備える、装置。
(13) 前記画像を視覚的に符号化することは、前記最小距離が所定の閾値を上回らない前記皮膚の第1の領域に第1の画像特性を適用することと、前記最小距離が前記所定の閾値を上回る前記皮膚の第2の領域に第2の画像特性を適用することと、を含む、実施態様12に記載の装置。
(14) 前記第1及び第2の画像特性が、2つの区別可能な色である、実施態様13に記載の装置。
(15) 前記第1及び第2の画像特性が、2つの区別可能なパターンである、実施態様13に記載の装置。
(17) 前記画像を視覚的に符号化することは、前記最小距離が所定の第1の閾値を上回る前記皮膚の前記表面の前記画像の第1の領域に第1の画像特性を適用することと、前記最小距離が所定の第2の閾値を上回らない前記皮膚の前記表面の前記画像の第2の領域に第2の画像特性を適用することと、前記最小距離が前記第1の閾値を上回らないが前記第2の閾値を上回る前記皮膚の前記表面の前記画像の第3の領域に第3の画像特性を適用することと、を含む、実施態様12に記載の装置。
(18) 前記第1、第2、及び第3の画像特性が、3つの区別可能な色である、実施態様17に記載の装置。
(19) 前記第3の画像特性の前記色が、前記第1及び第2の画像特性の前記色の組み合わせであり、前記組み合わせ中の前記第1及び第2の色の相対的重みが、第2の差に対する第1の差の比から求められ、前記第1の差が前記第1の閾値と前記最小距離との差であり、前記第2の差が前記最小距離と前記第2の閾値との差である、実施態様18に記載の装置。
(20) 前記第1及び第2の画像特性が2つの区別可能なグレーレベルであり、前記第3の画像特性が第3のグレーレベルであり、前記第3のグレーレベルが、前記第1及び第2の画像特性の前記グレーレベルの間の補間されたグレーレベルであり、前記補間されたグレーレベルが、それぞれ、前記最小距離と前記第1及び第2の閾値との差によって決定される、実施態様17に記載の装置。
(22) 前記身体の部分が頭部を含む、実施態様12に記載の装置。
(23) プログラム命令が格納された非一時的なコンピュータ可読媒体を含むコンピュータソフトウェア製品であって、前記命令が、コンピュータにより読み取られる際に前記コンピュータに、被験者の身体の部分のボクセルを含んだコンピュータ断層撮影(CT)画像を受信させ、前記画像をセグメント化して前記画像内の皮膚の表面及び骨の表面を識別させ、前記皮膚の前記表面上の複数の点から前記骨までのそれぞれの最小距離を測定させ、前記皮膚の前記表面の画像をレンダリングしながら前記レンダリング済み画像を視覚的に符号化することで前記それぞれの最小距離を表示させる、コンピュータソフトウェア製品。
Claims (23)
- ディスプレイ装置と、
プロセッサであって、被験者の身体の部分のボクセルを含んだコンピュータ断層撮影(CT)画像を受信し、前記画像をセグメント化して前記画像内の皮膚の表面及び骨の表面を識別し、前記皮膚の前記表面上の複数の点から前記骨までのそれぞれの最小距離を測定し、前記ディスプレイ装置上の前記皮膚の前記表面の画像をレンダリングしながら前記レンダリング済み画像を視覚的に符号化することで前記それぞれの最小距離を示すように構成されている、プロセッサと、を備える、装置。 - 前記画像を視覚的に符号化することは、前記最小距離が所定の閾値を上回らない前記皮膚の第1の領域に第1の画像特性を適用することと、前記最小距離が前記所定の閾値を上回る前記皮膚の第2の領域に第2の画像特性を適用することと、を含む、請求項1に記載の装置。
- 前記第1及び第2の画像特性が、2つの区別可能な色である、請求項2に記載の装置。
- 前記第1及び第2の画像特性が、2つの区別可能なパターンである、請求項2に記載の装置。
- 前記第1及び第2の画像特性が、2つの区別可能なグレーレベルである、請求項2に記載の装置。
- 前記画像を視覚的に符号化することは、前記最小距離が所定の第1の閾値を上回る前記皮膚の前記表面の前記画像の第1の領域に第1の画像特性を適用することと、前記最小距離が所定の第2の閾値を上回らない前記皮膚の前記表面の前記画像の第2の領域に第2の画像特性を適用することと、前記最小距離が前記第1の閾値を上回らないが前記第2の閾値を上回る前記皮膚の前記表面の前記画像の第3の領域に第3の画像特性を適用することと、を含む、請求項1に記載の装置。
- 前記第1、第2、及び第3の画像特性が、3つの区別可能な色である、請求項6に記載の装置。
- 前記第3の画像特性の前記色が、前記第1及び第2の画像特性の前記色の組み合わせであり、前記組み合わせ中の前記第1及び第2の色の相対的重みが、第2の差に対する第1の差の比から求められ、前記第1の差が前記第1の閾値と前記最小距離との差であり、前記第2の差が前記最小距離と前記第2の閾値との差である、請求項7に記載の装置。
- 前記第1及び第2の画像特性が2つの区別可能なグレーレベルであり、前記第3の画像特性が第3のグレーレベルであり、前記第3のグレーレベルが、前記第1及び第2の画像特性の前記グレーレベルの間の補間されたグレーレベルであり、前記補間されたグレーレベルが、それぞれ、前記最小距離と前記第1及び第2の閾値との差によって決定される、請求項6に記載の装置。
- 前記複数の点のそれぞれの前記最小距離が、前記複数の点のそれぞれにおける前記骨の前記表面に対する法線に沿って確立される、請求項1に記載の装置。
- 前記身体の部分が頭部を含む、請求項1に記載の装置。
- プログラム命令が格納された非一時的なコンピュータ可読媒体を含むコンピュータソフトウェア製品であって、前記命令が、コンピュータにより読み取られる際に前記コンピュータに、被験者の身体の部分のボクセルを含んだコンピュータ断層撮影(CT)画像を受信させ、前記画像をセグメント化して前記画像内の皮膚の表面及び骨の表面を識別させ、前記皮膚の前記表面上の複数の点から前記骨までのそれぞれの最小距離を測定させ、前記皮膚の前記表面の画像をレンダリングしながら前記レンダリング済み画像を視覚的に符号化することで前記それぞれの最小距離を表示させる、コンピュータソフトウェア製品。
- 被験者の身体の部分のボクセルを含んだコンピュータ断層撮影(CT)画像を受信することと、
前記画像をセグメント化して前記画像内の皮膚の表面及び骨の表面を識別することと、
前記皮膚の前記表面上の複数の点から前記骨までのそれぞれの最小距離を測定することと、
前記皮膚の前記表面の画像をレンダリングしながら前記レンダリング済み画像を視覚的に符号化することで前記それぞれの最小距離を表示することと、を含む、方法。 - 前記レンダリング済み画像を視覚的に符号化することは、前記最小距離が所定の閾値を上回らない前記皮膚の第1の領域に第1の画像特性を適用することと、前記最小距離が前記所定の閾値を上回る前記皮膚の第2の領域に第2の画像特性を適用することと、を含む、請求項13に記載の方法。
- 前記第1及び第2の画像特性が、2つの区別可能な色である、請求項14に記載の方法。
- 前記第1及び第2の画像特性が、2つの区別可能なパターンである、請求項14に記載の方法。
- 前記第1及び第2の画像特性が、2つの区別可能なグレーレベルである、請求項14に記載の方法。
- 前記レンダリング済み画像を視覚的に符号化することは、前記最小距離が所定の第1の閾値を上回る前記皮膚の前記表面の前記画像の第1の領域に第1の画像特性を適用することと、前記最小距離が所定の第2の閾値を上回らない前記皮膚の前記表面の前記画像の第2の領域に第2の画像特性を適用することと、前記最小距離が前記第1の閾値を上回らないが前記第2の閾値を上回る前記皮膚の前記表面の前記画像の第3の領域に第3の画像特性を適用することと、を含む、請求項13に記載の方法。
- 前記第1、第2、及び第3の画像特性が、3つの区別可能な色である、請求項18に記載の方法。
- 前記第3の画像特性の前記色が、前記第1及び第2の画像特性の前記色の組み合わせであり、前記組み合わせ中の前記第1及び第2の色の相対的重みが、第2の差に対する第1の差の比から求められ、前記第1の差が前記第1の閾値と前記最小距離との差であり、前記第2の差が前記最小距離と前記第2の閾値との差である、請求項19に記載の方法。
- 前記第1及び第2の画像特性が2つの区別可能なグレーレベルであり、前記第3の画像特性が第3のグレーレベルであり、前記第3のグレーレベルが、前記第1及び第2の画像特性の前記グレーレベルの間の補間されたグレーレベルであり、前記補間されたグレーレベルが、それぞれ、前記最小距離と前記第1及び第2の閾値との差によって決定される、請求項18に記載の方法。
- 前記身体の部分が頭部を含む、請求項13に記載の方法。
- 前記複数の点のそれぞれの前記最小距離が、前記複数の点のそれぞれにおける前記骨の前記表面に対する法線に沿って確立される、請求項13に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/847,646 US10660707B2 (en) | 2017-12-19 | 2017-12-19 | ENT bone distance color coded face maps |
US15/847,646 | 2017-12-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019107451A true JP2019107451A (ja) | 2019-07-04 |
JP7184626B2 JP7184626B2 (ja) | 2022-12-06 |
Family
ID=64744626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018236163A Active JP7184626B2 (ja) | 2017-12-19 | 2018-12-18 | Entの骨距離が色符号化された顔のマップ |
Country Status (11)
Country | Link |
---|---|
US (1) | US10660707B2 (ja) |
EP (1) | EP3501398B1 (ja) |
JP (1) | JP7184626B2 (ja) |
KR (1) | KR20190074226A (ja) |
CN (1) | CN109998676A (ja) |
AU (1) | AU2018274910A1 (ja) |
BR (1) | BR102018076393A2 (ja) |
CA (1) | CA3027389A1 (ja) |
IL (1) | IL263606B (ja) |
MX (1) | MX2018016050A (ja) |
RU (1) | RU2018144110A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021087665A (ja) * | 2019-12-05 | 2021-06-10 | 炳碩生醫股▲フン▼有限公司 | 手術支援システムおよびその表面情報を取得する方法 |
US11298186B2 (en) | 2018-08-02 | 2022-04-12 | Point Robotics Medtech Inc. | Surgery assistive system and method for obtaining surface information thereof |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112022348A (zh) * | 2020-09-11 | 2020-12-04 | 杭州微引科技有限公司 | 一种在ct和ai双引导下的穿刺消融术中导航系统 |
EP4368137A1 (en) * | 2022-11-08 | 2024-05-15 | Stryker European Operations Limited | Technique for determining a surface registration based on mechanically acquired tissue surface data |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63204480A (ja) * | 1987-02-20 | 1988-08-24 | Hitachi Medical Corp | 関係輪郭点デ−タの作成方法 |
JPH03232077A (ja) * | 1990-02-08 | 1991-10-16 | Toshiba Corp | 画像処理装置 |
CN1801213A (zh) * | 2005-09-30 | 2006-07-12 | 铁岭市公安局213研究所 | 三维颅骨身源鉴定方法及设备 |
US20140155730A1 (en) * | 2010-12-17 | 2014-06-05 | The Trustees Of Columbia University In The City Of New York | Apparatus, method and computer-accessible medium for diagnosing and subtyping psychiatric diseases |
KR20140132525A (ko) * | 2013-05-08 | 2014-11-18 | (주)약침학회 | 3차원 영상 촬영 장치를 이용한 경혈 위치 및 자침 깊이 결정 방법 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6006126A (en) * | 1991-01-28 | 1999-12-21 | Cosman; Eric R. | System and method for stereotactic registration of image scan data |
JPH05120451A (ja) | 1991-08-08 | 1993-05-18 | Hitachi Medical Corp | 医用診断画像装置 |
FR2694881B1 (fr) | 1992-07-31 | 1996-09-06 | Univ Joseph Fourier | Procede de determination de la position d'un organe. |
US5813984A (en) | 1997-03-07 | 1998-09-29 | University Radiologists, Inc. | Forensic skull and soft tissue database and on-line facial reconstruction of victims and age progession portrait rendering of missing children through utilization of advance diagnostic radiologic modalities |
US6081739A (en) | 1998-05-21 | 2000-06-27 | Lemchen; Marc S. | Scanning device or methodology to produce an image incorporating correlated superficial, three dimensional surface and x-ray images and measurements of an object |
US8781557B2 (en) | 1999-08-11 | 2014-07-15 | Osteoplastics, Llc | Producing a three dimensional model of an implant |
US6524250B1 (en) | 2000-09-19 | 2003-02-25 | Pearl Technology Holdings, Llc | Fat layer thickness mapping system to guide liposuction surgery |
US7113617B2 (en) * | 2000-12-12 | 2006-09-26 | Hewlett-Packard Development Company, L.P. | Method of computing sub-pixel Euclidean distance maps |
WO2012117381A1 (en) * | 2011-03-03 | 2012-09-07 | Koninklijke Philips Electronics N.V. | System and method for automated initialization and registration of navigation system |
CN104883974B (zh) * | 2012-10-26 | 2019-03-19 | 瓦里安医疗系统公司 | Nir图像引导的靶向 |
US9576107B2 (en) | 2013-07-09 | 2017-02-21 | Biosense Webster (Israel) Ltd. | Model based reconstruction of the heart from sparse samples |
US9775578B2 (en) | 2013-08-12 | 2017-10-03 | Biosense Webster (Israel) Ltd. | Unmapped region visualization |
JP2017511726A (ja) * | 2014-03-05 | 2017-04-27 | ブルー・ベルト・テクノロジーズ・インコーポレーテッド | コンピュータ支援によるプロテーゼの位置合わせ |
US9633482B2 (en) * | 2014-08-12 | 2017-04-25 | Toshiba Medical Systems Corporation | Apparatus and method for restricting image data visualization |
US20160180520A1 (en) * | 2014-12-17 | 2016-06-23 | Carestream Health, Inc. | Quantitative method for 3-d joint characterization |
KR102329862B1 (ko) * | 2015-02-10 | 2021-11-23 | 삼성전자주식회사 | 영상의 컬러 변환 방법 및 전자 장치 |
US10188465B2 (en) | 2015-08-26 | 2019-01-29 | Biosense Webster (Israel) Ltd. | Automatic ENT surgery preplanning using a backtracking maze problem solution |
US9652890B2 (en) * | 2015-09-29 | 2017-05-16 | Disney Enterprises, Inc. | Methods and systems of generating an anatomically-constrained local model for performance capture |
-
2017
- 2017-12-19 US US15/847,646 patent/US10660707B2/en active Active
-
2018
- 2018-12-05 AU AU2018274910A patent/AU2018274910A1/en not_active Abandoned
- 2018-12-10 IL IL263606A patent/IL263606B/en unknown
- 2018-12-13 CA CA3027389A patent/CA3027389A1/en not_active Abandoned
- 2018-12-13 RU RU2018144110A patent/RU2018144110A/ru not_active Application Discontinuation
- 2018-12-14 KR KR1020180161594A patent/KR20190074226A/ko unknown
- 2018-12-18 BR BR102018076393-8A patent/BR102018076393A2/pt not_active IP Right Cessation
- 2018-12-18 EP EP18213406.4A patent/EP3501398B1/en active Active
- 2018-12-18 MX MX2018016050A patent/MX2018016050A/es unknown
- 2018-12-18 JP JP2018236163A patent/JP7184626B2/ja active Active
- 2018-12-19 CN CN201811566899.8A patent/CN109998676A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63204480A (ja) * | 1987-02-20 | 1988-08-24 | Hitachi Medical Corp | 関係輪郭点デ−タの作成方法 |
JPH03232077A (ja) * | 1990-02-08 | 1991-10-16 | Toshiba Corp | 画像処理装置 |
CN1801213A (zh) * | 2005-09-30 | 2006-07-12 | 铁岭市公安局213研究所 | 三维颅骨身源鉴定方法及设备 |
US20140155730A1 (en) * | 2010-12-17 | 2014-06-05 | The Trustees Of Columbia University In The City Of New York | Apparatus, method and computer-accessible medium for diagnosing and subtyping psychiatric diseases |
KR20140132525A (ko) * | 2013-05-08 | 2014-11-18 | (주)약침학회 | 3차원 영상 촬영 장치를 이용한 경혈 위치 및 자침 깊이 결정 방법 |
Non-Patent Citations (1)
Title |
---|
森紀子他: "三次元CT画像を用いた現代日本人成人男女の頭部生体計測と顔面標準三次元物理モデルの構築", ANTHROPOLOGICAL SCIENCE (JAPANESE SERIES), vol. Vo. 111, No.1, JPN6022030513, 2003, pages 35 - 49, ISSN: 0004833743 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11298186B2 (en) | 2018-08-02 | 2022-04-12 | Point Robotics Medtech Inc. | Surgery assistive system and method for obtaining surface information thereof |
JP2021087665A (ja) * | 2019-12-05 | 2021-06-10 | 炳碩生醫股▲フン▼有限公司 | 手術支援システムおよびその表面情報を取得する方法 |
Also Published As
Publication number | Publication date |
---|---|
US20190183578A1 (en) | 2019-06-20 |
EP3501398B1 (en) | 2020-06-03 |
JP7184626B2 (ja) | 2022-12-06 |
KR20190074226A (ko) | 2019-06-27 |
BR102018076393A2 (pt) | 2019-07-09 |
AU2018274910A1 (en) | 2019-07-04 |
IL263606B (en) | 2022-02-01 |
RU2018144110A3 (ja) | 2020-06-15 |
IL263606A (en) | 2019-03-31 |
MX2018016050A (es) | 2019-08-29 |
CN109998676A (zh) | 2019-07-12 |
CA3027389A1 (en) | 2019-06-19 |
EP3501398A1 (en) | 2019-06-26 |
RU2018144110A (ru) | 2020-06-15 |
US10660707B2 (en) | 2020-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1837828B1 (en) | Image registration using locally-weighted fitting | |
JP7184626B2 (ja) | Entの骨距離が色符号化された顔のマップ | |
US7450743B2 (en) | Method and system of affine registration of inter-operative two dimensional images and pre-operative three dimensional images | |
US7010080B2 (en) | Method for marker-free automatic fusion of 2-D fluoroscopic C-arm images with preoperative 3D images using an intraoperatively obtained 3D data record | |
US7778686B2 (en) | Method and apparatus for medical intervention procedure planning and location and navigation of an intervention tool | |
US7346381B2 (en) | Method and apparatus for medical intervention procedure planning | |
EP1719078B1 (en) | Device and process for multimodal registration of images | |
EP2925216B1 (en) | Stenosis therapy planning | |
US20090281418A1 (en) | Determining tissue surrounding an object being inserted into a patient | |
US20090306497A1 (en) | Calibration method for catheter tracking system using medical imaging data | |
US20090012390A1 (en) | System and method to improve illustration of an object with respect to an imaged subject | |
US20180253838A1 (en) | Systems and methods for medical imaging of patients with medical implants for use in revision surgery planning | |
KR20140096919A (ko) | 의료 영상 정합 방법 및 장치 | |
KR20150118484A (ko) | 의료 영상 정합 방법 및 장치 | |
CN114746901A (zh) | 图像与跟踪系统的配准 | |
CN114845655A (zh) | 3d路径探测可视化 | |
CN111369675B (zh) | 基于肺结节脏层胸膜投影的三维可视模型重建方法及装置 | |
JP6703470B2 (ja) | データ処理装置及びデータ処理方法 | |
CN114283179A (zh) | 基于超声图像的骨折远近端空间位姿实时获取与配准系统 | |
Lee et al. | Determining the operative line of resection for image‐guided emphysema surgery using a laser scanner and non‐rigid registration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7184626 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |