KR101635731B1 - Visualization system and method for visualizing inner objects of human - Google Patents
Visualization system and method for visualizing inner objects of human Download PDFInfo
- Publication number
- KR101635731B1 KR101635731B1 KR1020140058318A KR20140058318A KR101635731B1 KR 101635731 B1 KR101635731 B1 KR 101635731B1 KR 1020140058318 A KR1020140058318 A KR 1020140058318A KR 20140058318 A KR20140058318 A KR 20140058318A KR 101635731 B1 KR101635731 B1 KR 101635731B1
- Authority
- KR
- South Korea
- Prior art keywords
- probe
- body structure
- subject
- image
- tracker
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N29/00—Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
- G01N29/22—Details, e.g. general constructional or apparatus details
- G01N29/24—Probes
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Chemical & Material Sciences (AREA)
- Biochemistry (AREA)
- Analytical Chemistry (AREA)
- Immunology (AREA)
- General Physics & Mathematics (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
본 발명은 사람의 체내 구조물을 나타내는 영상을 사람의 피부상에 가시화하는 가시화 시스템 및 방법에 관한 것이다.
본 발명에 따른 사람의 체내 구조물을 가시화하는 가시화 시스템은, 피시술자의 신체 중 적어도 일부를 스캔하여 피시술자의 체내 구조물에 대한 초음파 영상을 획득하는 프로브, 프로브의 위치 정보를 제공하기 위한 프로브 트래커, 프로브 트래커를 촬영하거나 프로브 트래커의 위치를 추적하는 촬영부, 프로브에 대한 체내 구조물의 상대 좌표를 초음파 영상으로부터 산출하고 촬영부를 통해 획득된 프로브의 위치 정보 및 산출된 상대 좌표에 기반하여 체내 구조물의 3차원 좌표를 산출하는 중앙처리부, 및 체내 구조물의 3차원 좌표를 참조하여 피시술자의 피부상에 체내 구조물의 영상을 투사하는 투사부를 포함한다.The present invention relates to a visualization system and method for visualizing an image representing a human body structure on human skin.
The present invention provides a visualization system for visualizing a human body structure, comprising: a probe that scans at least a part of a body of a subject to acquire an ultrasound image of a body structure of the subject, a probe tracker for providing position information of the probe, A relative position of the body structure to the probe is calculated from the ultrasound image, and based on the positional information of the probe obtained through the photographing unit and the calculated relative coordinates, the three-dimensional coordinates And a projection unit for projecting an image of the body structure on the skin of the subject by referring to the three-dimensional coordinates of the body structure.
Description
본 발명은 사람의 체내 구조물을 가시화하는 가시화 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 사람의 체내 구조물을 나타내는 영상을 사람의 피부상에 가시화하는 가시화 시스템 및 방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a visualization system and method for visualizing a human body structure, and more particularly, to a visualization system and method for visualizing an image representing a human body structure on human skin.
사람의 체내 구조물에 대한 진단 또는 치료에 도움을 주기 위해서, 초음파를 이용해 사람의 신체 내부에 있는 기관을 시각적으로 가시화하는 다양한 의료 영상 장치들이 연구되었다. 이러한 장치들의 예로서, 심부정맥 혈전증(DVT; deep vein thrombosis) 등의 정맥 질환을 진단할 목적으로 하지 정맥을 가시화하는 장치나, 내경정맥(內頸靜脈; internal jugular vein) 또는 액와정맥(腋窩靜脈, axillary vein)과 같이 특정한 정맥을 초음파로 가시화하는 장치들이 있는데, 이러한 장치들은 획득한 초음파 영상을 스크린을 통해 사용자(예를 들어, 시술자)에게 표시하도록 구성된다. In order to help diagnose or treat human body structures, a variety of medical imaging devices have been studied that visualize the organs inside the human body using ultrasound. Examples of such devices include a device for visualizing the lower limb for the purpose of diagnosing a venous disease such as deep vein thrombosis (DVT), a device for visualizing the lower jugular vein (internal jugular vein) or an axillary vein , axillary vein), which are configured to display acquired ultrasound images to a user (e.g., a practitioner) through a screen.
한편, 최근에는 시술의 정확성과 직관성을 높이기 위해 의료 영상 정보를 스크린이 아닌 환자 피부에 투사하여 증강현실(augmented reality, AR)을 달성하는 기술들이 속속 제안되고 있다. 이러한 기술들의 예로서, 2010년 일본 테이쿄대 및 고베대 연구팀은 고강도 빔 프로젝터를 수술실 천정에 고정하여 다양한 의료 영상 정보를 환자 피부에 가시화하는 기술을 제안하였고, 2011년에는 스위스 베른대 연구팀에 의해 소형 레이저 프로젝터를 이용하여 원하는 위치와 각도에서 의료 영상을 투사할 수 있는 핸드헬드(handheld) 장치가 제안된 바 있다. 그러나 이러한 장치들은 표시된 영상의 정확도가 낮고, 미리 처리된 컴퓨터 단층촬영(CT)이나 자기공명영상(MRI)을 기반으로 하기 때문에 영상 정보 표시의 즉각성 및 실시간성이 떨어지는 문제점이 있었다.
In recent years, techniques for achieving augmented reality (AR) by projecting medical image information on the patient's skin rather than on the screen have been proposed in order to improve the accuracy and intuitiveness of the procedure. As an example of these technologies, the research team at the University of Tokyo and Kobe University in Japan proposed a technique for visualizing various medical image information on the patient's skin by fixing a high-intensity beam projector on the ceiling of the operating room. In 2011, A handheld device capable of projecting a medical image at a desired position and angle using a laser projector has been proposed. However, these devices have problems in that the displayed image is low in accuracy, and the immediacy of the display of the image information and the real-time property are degraded because it is based on a pre-processed computerized tomography (CT) or magnetic resonance imaging (MRI).
본 발명의 목적은 피시술자의 체내 구조물 영상을 더욱 정확히 피부상에 표시함으로써 정확성 및 직관성을 향상시킨, 사람의 체내 구조물을 가시화하는 가시화 시스템 및 방법을 제공하는 데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a visualization system and method for visualizing a body structure of a person, which improves the accuracy and intuitiveness by displaying the image of the body structure of the person to be examined more accurately on the skin.
본 발명의 다른 목적은 영상 정보 표시의 즉각성 및 실시간성이 향상된, 사람의 체내 구조물을 가시화하는 가시화 시스템 및 방법을 제공하는 데 있다.It is another object of the present invention to provide a visualization system and method for visualizing a human body structure with improved instantness and real-time display of image information.
본 발명의 또 다른 목적은 근적외선이나 가시광선 대신 초음파를 매개로 함으로써 피시술자의 체내 구조물을 더욱 명확히 가시화할 수 있는, 사람의 체내 구조물을 가시화하는 가시화 시스템 및 방법을 제공하는 데 있다.
It is still another object of the present invention to provide a visualization system and method for visualizing a human body structure that can more clearly visualize a body structure of a subject by mediating ultrasonic waves instead of near-infrared rays or visible rays.
본 발명의 실시 예들에 따른 사람의 체내 구조물을 가시화하는 가시화 시스템은, 피시술자의 신체 중 적어도 일부를 스캔하여 상기 피시술자의 체내 구조물에 대한 초음파 영상을 획득하는 프로브; 상기 프로브의 위치 정보를 제공하기 위한 프로브 트래커; 상기 프로브 트래커를 촬영하거나 상기 프로브 트래커의 위치를 추적하는 촬영부; 상기 프로브에 대한 상기 체내 구조물의 상대 좌표를 상기 초음파 영상으로부터 산출하고, 상기 촬영부를 통해 획득된 상기 프로브의 위치 정보 및 상기 산출된 상대 좌표에 기반하여 상기 체내 구조물의 3차원 좌표를 산출하는 중앙처리부; 및 상기 체내 구조물의 3차원 좌표를 참조하여, 상기 피시술자의 피부상에 상기 체내 구조물의 영상을 투사하는 투사부를 포함한다.A visualization system for visualizing a human body structure according to embodiments of the present invention includes a probe for scanning at least a part of a body of a subject to acquire an ultrasound image of the body structure of the subject; A probe tracker for providing position information of the probe; A photographing unit photographing the probe tracker or tracking the position of the probe tracker; A central processing unit for calculating the relative coordinates of the body structure with respect to the probe from the ultrasound image and calculating the three-dimensional coordinates of the body structure based on the positional information of the probe obtained through the imaging unit and the calculated relative coordinates, ; And a projection unit for projecting the image of the body structure on the skin of the subject by referring to the three-dimensional coordinates of the body structure.
실시 예로서, 상기 프로브 트래커는 상기 프로브에 부착되고, 상기 프로브에는 상기 초음파 영상의 획득을 용이하게 하는 물주머니가 더 부착될 수 있다.In an embodiment, the probe tracker is attached to the probe, and the probe may be further provided with a water pouch for facilitating acquisition of the ultrasound image.
실시 예로서, 상기 프로브 트래커는 광학 트래킹 방식으로 상기 프로브의 위치 정보를 제공하는 광학 트래커 또는 자기 트래킹 방식으로 상기 프로브의 위치 정보를 제공하는 자기 트래커일 수 있다.In an embodiment, the probe tracker may be an optical tracker that provides position information of the probe in an optical tracking manner, or a magnetic tracker that provides position information of the probe in a magnetic tracking manner.
실시 예로서, 상기 중앙처리부는 상기 초음파 영상으로부터 상기 체내 구조물에 상응하는 영역을 분리하고, 상기 분리된 영역을 참조하여 상기 체내 구조물의 상기 상대 좌표를 산출할 수 있다.In an embodiment, the central processing unit may separate the region corresponding to the body structure from the ultrasound image, and calculate the relative coordinates of the body structure with reference to the separated region.
실시 예로서, 상기 촬영부는 상기 투사부에 의해 상기 피시술자의 피부상에 투사된 상기 체내 구조물의 영상을 더 촬영하고, 상기 중앙처리부는 상기 촬영부에 의해 촬영된 상기 체내 구조물의 영상을 모니터링하되, 상기 모니터링되는 상기 체내 구조물의 영상이 미리 결정된 정도 이상으로 움직이거나 변화한 경우 상기 체내 구조물의 영상이 더 이상 투사되지 않도록 상기 투사부를 제어할 수 있다.In an embodiment, the photographing unit further photographs the image of the internal structure projected on the skin of the subject by the projection unit, and the central processing unit monitors the image of the internal structure photographed by the photographing unit, The controller can control the projection unit so that the image of the body structure is not projected when the monitored image of the body structure moves or changes by a predetermined degree or more.
실시 예로서, 상기 촬영부, 상기 중앙처리부 및 상기 투사부는 하나의 하드웨어 장치에 내장될 수 있다.In an embodiment, the photographing unit, the central processing unit, and the projection unit may be embedded in one hardware device.
실시 예로서, 상기 피시술자에 대한 시술을 수행하는 시술자의 눈동자 위치를 감지하는 고글; 및 상기 고글의 위치 정보를 제공하기 위한 고글 트래커를 더 포함하고, 상기 중앙처리부는 상기 고글을 통해 감지되는 상기 시술자의 눈동자 위치 및 상기 고글 트래커를 이용하여 획득되는 상기 고글의 위치 정보에 따라, 상기 시술자의 시선 정보를 산출하고, 상기 산출된 시술자의 시선 정보를 참조하여 상기 체내 구조물의 상기 3차원 좌표를 변환 또는 조정하고, 상기 투사부는 상기 변환 또는 조정된 상기 체내 구조물의 상기 3차원 좌표에 따라, 상기 피시술자의 피부상에 상기 체내 구조물의 영상을 투사할 수 있다.As an embodiment, there is provided a goggle for detecting a pupil position of a practitioner performing a procedure on the subject; And a goggle tracker for providing positional information of the goggles, wherein the central processing unit is configured to determine, based on the pupil position of the practitioner sensed through the goggles and the positional information of the goggles acquired using the goggle tracker, Dimensional coordinate of the body structure by referring to the visual information of the practitioner, and the projection unit adjusts the three-dimensional coordinate of the body structure according to the three-dimensional coordinate of the body structure , The image of the body structure can be projected onto the skin of the subject.
실시 예로서, 상기 중앙처리부는 상기 초음파 영상으로부터 상기 피시술자의 피부에 상응하는 피부 영역을 분리하고, 상기 분리된 피부 영역 및 상기 프로브의 위치 정보를 참조하여 상기 피부의 3차원 좌표를 산출하고, 상기 시술자의 시선 정보와 함께 상기 피부의 3차원 좌표를 더 참조하여 상기 체내 구조물의 상기 3차원 좌표를 변환 또는 조정할 수 있다.In one embodiment, the central processing unit separates a skin region corresponding to the skin of the subject from the ultrasound image, calculates three-dimensional coordinates of the skin by referring to the separated skin region and the position information of the probe, The three-dimensional coordinates of the body structure can be converted or adjusted with reference to the three-dimensional coordinates of the skin together with the sight line information of the operator.
실시 예로서, 상기 촬영부는 상기 고글의 위치 정보를 상기 중앙처리부에 제공하기 위해, 상기 고글 트래커를 촬영하거나 상기 고글 트래커의 위치를 추적할 수 있다.In an embodiment, the photographing unit may photograph the goggle tracker or track the position of the goggle tracker to provide the position information of the goggles to the central processing unit.
실시 예로서, 상기 체내 구조물은 상기 피시술자의 정맥, 장기 또는 종양을 포함할 수 있다.In an embodiment, the body structure may include veins, organs or tumors of the subject.
본 발명의 실시 예들에 따른 사람의 체내 구조물을 가시화하는 가시화 방법은, 프로브로 피시술자의 신체 중 적어도 일부를 스캔하여 상기 피시술자의 체내 구조물에 대한 초음파 영상을 획득하는 단계; 상기 획득된 초음파 영상으로부터 상기 체내 구조물에 상응하는 영역을 분리하고, 상기 분리된 영역에 기반하여 상기 프로브에 대한 상기 체내 구조물의 상대 좌표를 산출하는 단계; 상기 프로브에 부착된 프로브 트래커를 촬영하거나 상기 프로브 트래커의 위치를 추적하여 상기 프로브의 위치 정보를 획득하는 단계; 상기 획득된 상기 프로브의 위치 정보 및 상기 산출된 상기 상대 좌표에 기반하여 상기 체내 구조물의 3차원 좌표를 산출하는 단계; 및 상기 체내 구조물의 3차원 좌표를 참조하여, 상기 피시술자의 피부상에 상기 체내 구조물의 영상을 투사하는 단계를 포함한다.
According to embodiments of the present invention, there is provided a method of visualizing a human body structure, comprising: scanning at least a part of a body of a subject with a probe to obtain an ultrasound image of the body structure of the subject; Separating a region corresponding to the body structure from the obtained ultrasound image and calculating relative coordinates of the body structure with respect to the probe based on the separated region; Capturing a probe tracker attached to the probe or tracking the position of the probe tracker to obtain position information of the probe; Calculating three-dimensional coordinates of the body structure based on the obtained position information of the probe and the calculated relative coordinates; And projecting the image of the body structure on the skin of the subject by referring to the three-dimensional coordinates of the body structure.
본 발명의 실시 예들에 따르면, 시술자는 피시술자 피부에 투사된 체내 구조물 영상을 보면서 시술을 수행할 수 있으며, 이를 통해 해당 시술의 정확성과 직관성이 크게 향상될 수 있다. According to the embodiments of the present invention, the practitioner can perform the operation while viewing the image of the body structure projected on the skin of the recipient, whereby the accuracy and intuitiveness of the operation can be greatly improved.
또한, 프로브를 통해 탐지된 체내 구조물의 위치를 실시간으로 피시술자의 피부에 투사할 수 있으므로, 영상 정보 표시의 즉각성 및 실시간성이 향상될 수 있고, 나아가 근적외선이나 가시광선 대신 초음파를 매개로 하므로 피시술자의 체내 구조물을 더욱 명확히 가시화할 수 있다.
In addition, since the position of the body structure detected through the probe can be projected on the skin of the patient, in real time, the immediacy and real time of the display of the image information can be improved. Further, since ultrasound waves are used instead of near infrared rays or visible rays, It is possible to more clearly visualize the body structure of the body.
도 1은 본 발명의 일 실시 예에 따른, 가시화 시스템의 상세 구성 및 그것을 통해 피시술자의 체내 구조물 위치를 계산하는 방법을 나타내는 개요도이다.
도 2는 도 1에서 계산된 체내 구조물 위치에 따라, 체내 구조물 영상을 피시술자의 피부상에 투사할 때의 동작 방법을 나타내는 개요도이다.
도 3은 도 1에 도시된 프로브의 상세 구성을 도시하는 측면도이다.
도 4는 본 발명의 다른 실시 예에 따른, 가시화 시스템의 상세 구성을 도시하는 사시도이다.
도 5는 도 4에 도시된 가시화 시스템이 피시술자의 체내 구조물 영상을 가시화하는 방법을 나타내는 측면도이다.
도 6은 본 발명의 또 다른 실시 예에 따른, 가시화 시스템의 상세 구성 및 그것을 통해 피시술자의 체내 구조물 위치를 계산하는 방법을 나타내는 개요도이다.
도 7은 도 6에서 계산된 체내 구조물 위치에 따라, 체내 구조물 영상을 피시술자의 피부상에 투사할 때의 동작 방법을 나타내는 개요도이다.
도 8은 본 발명의 일 실시 예에 따른, 사람의 체내 구조물을 가시화하는 가시화 방법을 개략적으로 나타내는 순서도이다.1 is a schematic diagram illustrating a detailed configuration of a visualization system and a method for calculating the position of a body structure of a subject by the method according to an embodiment of the present invention.
FIG. 2 is a schematic view showing an operation method when an image of an internal structure is projected onto a skin of a subject according to the position of the internal structure calculated in FIG. 1. FIG.
3 is a side view showing a detailed configuration of the probe shown in Fig.
4 is a perspective view showing a detailed configuration of a visualization system according to another embodiment of the present invention.
FIG. 5 is a side view showing a method of visualizing an image of a body structure of a subject by the visualization system shown in FIG. 4. FIG.
6 is a schematic diagram illustrating a detailed configuration of a visualization system and a method of calculating the position of a body structure of a subject by the visualization system according to another embodiment of the present invention.
FIG. 7 is a schematic view showing an operation method when an image of an internal structure is projected onto a skin of a client according to the position of an internal structure calculated in FIG. 6. FIG.
8 is a flowchart schematically showing a visualization method for visualizing a human body structure according to an embodiment of the present invention.
후술하는 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면들을 참조한다. 상세한 설명의 실시 예들은 당업자가 본 명세서에 기재된 발명을 실시하기 위한 상세 설명을 개시하는 목적으로 제공된다. The following detailed description refers to the accompanying drawings, which illustrate, by way of example, specific embodiments in which the invention may be practiced. Embodiments of the detailed description are provided for those of ordinary skill in the art to disclose the detailed description for carrying out the invention described herein.
본 명세서의 각 실시 예들은 서로 상이한 경우를 설명할 수 있으나, 그것이 각 실시 예들이 상호 배타적임을 의미하는 것은 아니다. 예를 들어, 상세한 설명의 일 실시 예와 관련하여 설명된 특정 형상, 구조 및 특성은 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예에서도 동일하게 구현될 수 있다. 또한, 여기서 개시되는 실시 예들의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 다양하게 변경될 수 있음이 이해되어야 한다. Each of the embodiments of the present invention can describe different cases, but it does not mean that the embodiments are mutually exclusive. For example, the specific shapes, structures, and characteristics described in connection with one embodiment of the detailed description may be implemented in other embodiments without departing from the spirit and scope of the present invention. It is also to be understood that the location or arrangement of the individual components of the embodiments disclosed herein may be varied without departing from the spirit and scope of the invention.
한편, 여러 실시 예들에서 동일하거나 유사한 참조번호는 동일하거나 유사한 구성요소를 지칭한다. 첨부된 도면들에서 각 구성 요소들의 크기는 설명을 위하여 과장될 수 있으며, 실제 적용되는 크기와 같거나 유사할 필요는 없다.
On the other hand, in various embodiments, the same or similar reference numerals refer to the same or similar components. In the accompanying drawings, the sizes of the respective components may be exaggerated for explanatory purposes and need not be equal to or similar to the actual applied size.
의료 영상 정보 기술 중 의료용 초음파 영상법(medical ultrasonography)은 관절, 근육 또는 혈관과 같은 체내 구조물을 초음파로 가시화하여 진단 및 치료에 활용하는 방법으로서, 오늘날 다양한 의료 환경에서 광범위하게 활용되고 있다. 다른 의료 영상 정보 기술과 비교할 때 초음파 영상법은 가격이 저렴하고 장비가 간단하며 실시간으로 의료 영상을 얻을 수 있는 장점이 있으며, 특히 정맥을 가시화할 때, 근적외선이나 가시광선을 이용한 방법들에 비해 훨씬 선명한 정맥 영상을 얻을 수 있다. 그러나 종래의 초음파 영상법은 얻어낸 영상 정보를 단지 스크린을 통해서만 표시하고 있으며, 이로 인해 시술의 정확성과 직관성에 크게 제약을 받고 있다.Among medical image information technologies, medical ultrasonography is a method of visualizing the internal structures such as joints, muscles, or blood vessels by ultrasound for diagnosis and treatment, and is widely used in various medical environments today. Compared with other medical image information technology, ultrasound imaging is cheap, and equipment is simple, and medical image can be obtained in real time. Especially, when vein is visualized, it is much better than near infrared ray or visible ray method A clear vein image can be obtained. However, in the conventional ultrasound imaging, only the obtained image information is displayed only on the screen, and thus the accuracy and intuitiveness of the procedure are severely restricted.
본 발명에서는, 획득된 초음파 영상에서 정맥을 분리하여 초음파 프로브와 정맥사이의 상대 좌표를 얻어내고, 초음파 프로브에 부착된 트래커를 스테레오 카메라로 추적하여 초음파 프로브의 3차원 위치를 파악하고, 정맥의 상대 좌표와 초음파 프로브의 3차원 위치를 통합하여 정맥의 3차원 좌표를 산출하고, 산출된 정맥의 3차원 좌표에 대응하는 환자 피부상 위치에 정맥 영상을 투사하는 구성을 통해, 종래의 초음파 영상법의 단점을 극복하고 시술자의 정확성과 직관성을 향상시키는 효과를 달성한다.In the present invention, the vein is separated from the acquired ultrasound image to obtain relative coordinates between the ultrasonic probe and the vein, the tracker attached to the ultrasonic probe is tracked by the stereo camera to determine the three-dimensional position of the ultrasonic probe, Dimensional coordinate of the vein by integrating the coordinate and the three-dimensional position of the ultrasonic probe, and projecting the vein image to the position of the patient's skin corresponding to the calculated three-dimensional coordinates of the vein, Thereby achieving the effect of overcoming the disadvantages and improving the accuracy and intuitiveness of the practitioner.
이하에서는, 첨부된 도면들을 참조하여 더욱 구체적인 실시 예들과 함께 본 발명을 설명한다.
In the following, the present invention will be described in conjunction with more specific embodiments with reference to the accompanying drawings.
도 1은 본 발명의 일 실시 예에 따른, 가시화 시스템의 상세 구성 및 그것을 통해 피시술자의 체내 구조물 위치를 계산하는 방법을 나타내는 개요도이다. 도 1을 참조하면, 본 발명에 따른 가시화 시스템(1000)은 프로브(100), 중앙처리부(200), 촬영부(300) 및 투사부(400)를 포함한다. 1 is a schematic diagram illustrating a detailed configuration of a visualization system and a method for calculating the position of a body structure of a subject by the method according to an embodiment of the present invention. Referring to FIG. 1, a
프로브(100)는 피시술자(10)의 신체 내부의 기관, 예를 들어 여기서는 정맥(11)에 대한 초음파 영상을 획득하는 초음파 프로브로서, 피시술자(10)의 피부 위에서 프로브(100)가 스캔되는 방향(101)을 따라 해당 위치의 초음파 영상을 획득한다. 프로브(100)가 획득한 초음파 영상은 중앙처리부(200)에 제공되어, 프로브(100)에 대한 정맥(11)의 상대 위치를 나타내는 정맥의 상대 좌표를 산출하는 데 이용된다.The
한편, 프로브(100)는 프로브의 위치를 추적하기 위한 프로브 트래커(110)를 포함한다. 실시 예로서, 프로브(100)는 프로브 끝에 달린 물주머니를 더 포함할 수 있다. 프로브(100)의 구체적인 구성에 대해서는 도 3에서 더욱 상세히 후술된다. Meanwhile, the
촬영부(300)는 프로브(100)의 프로브 트래커(110)를 촬영 또는 추적한다(301). 촬영부(300)는 프로브 트래커(110)의 위치를 명확히 촬영 또는 추적할 수 있는 위치와 각도에 설치되며, 예를 들어, 광학 트래킹 또는 자기 트래킹 방식으로 프로브 트래커(110)를 촬영 또는 추적할 수 있다(301). 촬영부(300)가 광학 트래킹 방식을 이용하는 경우, 프로브 트래커(110)는 광학 트래커가 될 것이다. 반면에, 촬영부(300)가 자기 트래킹 방식을 이용하는 경우, 프로브 트래커(110)는 자기 트래커가 될 것이다. 촬영부(300)가 프로브 트래커(110)의 위치를 촬영 또는 추적한 결과는 중앙처리부(200)에 제공되어, 정맥(11)의 3차원 위치를 산출하는 데 이용된다.The photographing
실시 예로서, 촬영부(300)는 프로브 트래커(110)를 촬영하여 영상을 생성하는 스테레오카메라를 포함할 수 있다.As an embodiment, the photographing
중앙처리부(200)는 프로브(100) 및 촬영부(300)를 통해 얻어진 영상 정보 또는 추적 정보를 바탕으로, 정맥(11)의 3차원 좌표를 산출한다. The
이를 위해, 중앙처리부(200)는 프로브(100)를 통해 획득한 피시술자(20)의 초음파 영상으로부터 정맥(11)에 상응하는 영역을 분리한 뒤, 프로브(100)에 대한 정맥(11)의 상대 좌표(즉, 정맥(11)을 구성하는 각 지점과 프로브(100) 사이의 상대적인 위치를 나타내는 정맥(11)의 상대 좌표)를 산출한다. 산출된 정맥의 상대 좌표는 정맥(11)의 상대 좌표가 된다. 실시 예로서, 산출된 정맥의 상대 좌표는 2차원 좌표일 수 있다.The
또한, 중앙처리부(200)는 촬영부(300)가 프로브 트래커(110)를 촬영 또는 추적한 정보(예를 들어, 영상 정보)에 기반하여, 프로브 트래커(110)의 3차원 위치 및 초음파 프로브(100)의 3차원 위치를 결정한다. In addition, the
그리고, 중앙처리부(200)는 앞서 산출된 정맥(11)의 상대 좌표와 초음파 프로브(100)의 3차원 위치를 결합하여 정맥(11)의 3차원 좌표를 산출한다(캘러브레이션, calibration). The
투사부(400)는 중앙처리부(200)가 산출한 정맥(11)의 3차원 좌표와 상응하는 피시술자(10)의 피부영역에 정맥 영상을 투사(401)함으로써, 피시술자의 정맥(11)을 가시화한다. 그리고, 시술자는 투사(가시화)된 영상을 시각적으로 관찰하며, 필요한 시술을 수행하게 된다. 투사부(400)의 구성 및 동작에 대해서는 도 2에서 더욱 상세히 후술된다.The
한편, 이러한 일련의 동작 및 기능들은 프로브(100)의 움직임에 따라 실시간으로 연속 수행될 수 있다. 예를 들어, 시술자가 피시술자(20)의 피부상에서 프로브(100)를 어떤 방향(101)으로 스캔하면, 스캔되는 방향을 따라 피시술자(20)의 초음파 영상이 획득되고, 동시에 촬영부(300)는 프로브(100)에 부착된 초음파 트래커(110)의 움직임을 촬영 또는 추적한다(301). 이때, 중앙처리부(200)는 프로브(100)를 통해 획득된 초음파 영상에서 정맥(11)에 해당하는 영역을 분리한 뒤, 프로브(100)에 대한 정맥(11)의 상대 좌표를 계산한다. 또한, 중앙 연산부(200)는 촬영부(300)에서 촬영 또는 추적한 정보를 기반으로 프로브 트래커(110) 및 프로브(100)의 3차원 위치를 산출하고, 산출된 프로브(100)의 3차원 위치를 앞서 계산된 정맥(11)의 상대 좌표와 결합하여 정맥(11)이 실제로 위치한 좌표를 나타내는 정맥(11)의 3차원 좌표를 산출한다(캘러브레이션). 그리고, 투사부(400)는 산출된 3차원 좌표에 따라 정맥 영상을 실시간으로 피시술자(10)의 피부상에 투사함으로써(401), 피시술자의 정맥(11)을 가시화한다.Meanwhile, such a series of operations and functions can be continuously performed in real time in accordance with the movement of the
한편, 프로브(100)의 3차원 위치를 정맥(11)의 상대 좌표와 결합하여 정맥(11)의 3차원 좌표를 산출하는 캘러브레이션 방법으로는 다양한 방법들이 사용될 수 있다. 가령 여기에 적용될 수 있는 일반적인 캘러브레이션 방법으로는, 크로스-와이어 팬텀법(cross-wire phantom, 십자선 환영법), 쓰리-와이어 팬텀법(tree-wire phantom, 3선 환영법), 싱글-월 팬텀법(single-wall phantom, 단일-벽 환영법) 및 캠브리지 팬텀법(cambridge phantom) 등 다양한 방법들이 있으며, 각 캘러브레이션 방법의 특징들을 고려하여 그것들 중 어느 하나를 선택적으로 본 발명에 적용할 수 있다. 각 캘러브레이션 방법들에 대한 구체적인 내용은 당해 기술분야에 널리 알려져 있으므로, 여기서는 그에 대한 상세 설명을 생략한다.Various methods can be used as the calibration method of calculating the three-dimensional coordinates of the
도 1에서, 본 발명은 정맥에 대해 3차원 위치를 산출한 후 그에 기반하여 정맥 영상을 가시화하는 것으로 예시하였으나, 본 발명의 범위는 이에 한정되지 않는다. 예를 들어, 본 발명은 정맥 외의 다른 장기나 신체 내부의 종양 등 초음파로 식별 가능한 다양한 체내 구조물이나 체내 구조물을 가시화하는 것에도 적용가능하다.In FIG. 1, the present invention is illustrated by calculating a three-dimensional position of a vein and then visualizing a vein image based on the calculated three-dimensional position. However, the scope of the present invention is not limited thereto. For example, the present invention can be applied to visualizing a variety of internal structures or internal structures that can be recognized by ultrasound, such as other organs other than intravenous or internal organs.
위에서 설명한 구성들에 따르면, 시술자는 피시술자 피부에 투사된 체내 구조물(예를 들어, 정맥) 영상을 보면서 시술을 수행할 수 있으며, 이를 통해 해당 시술의 정확성과 직관성이 크게 향상될 수 있다. According to the above-described configurations, the practitioner can perform the operation while viewing the image of the internal structure (for example, vein) projected on the skin of the recipient, and the accuracy and intuitiveness of the operation can be greatly improved.
또한, 프로브를 통해 탐지된 체내 구조물의 위치를 실시간으로 피시술자의 피부에 투사하므로 영상 정보 표시의 즉각성 및 실시간성이 향상될 수 있으며, 나아가 근적외선이나 가시광선 대신 초음파를 매개로 하므로 피시술자의 체내 구조물을 더욱 명확히 가시화할 수 있다.In addition, since the position of the body structure detected through the probe is projected on the skin of the patient in real time in real time, the immediacy and real time of the display of the image information can be improved. Moreover, since ultrasound waves are used instead of near infrared rays or visible rays, Can be more clearly visualized.
도 2는 도 1에서 계산된 체내 구조물 위치에 따라, 체내 구조물 영상을 피시술자의 피부상에 투사할 때의 동작 방법을 나타내는 개요도이다. 도 2를 참조하면, 가시화 시스템(1000)의 투사부(400)가 투사한 정맥 영상(12)이 피시술자(10)의 피부상에 표시된다. FIG. 2 is a schematic view showing an operation method when an image of an internal structure is projected onto a skin of a subject according to the position of the internal structure calculated in FIG. 1. FIG. Referring to FIG. 2, the
투사부(400)는 중앙처리부(200)에서 계산한 정맥(11)의 실제 3차원 좌표를 기반으로, 그에 상응하는 피시술자(10)의 피부 영역에 정맥 영상(12)을 투사한다(401). 투사부(400)는 영상을 투사할 수 있는 프로젝터 또는 레이저쇼 장비를 포함할 수 있다. 이때, 투사부(400)는 프로젝터 또는 레이저쇼를 대신하여 증강 현실 방식으로 정맥 영상을 제공하는 특수 고글을 더 포함할 수 있다.The
실시 예로서, 투사부(400)는 피시술자(10)의 피부상에 정맥 영상(12)을 투사한 후 별도의 투사 정지 명령이 없는 한, 정맥 영상(12)이 지속적으로 유지되도록 계속 영상을 투사할 수 있다. The
이때, 촬영부(300)는 투사부(400)에 의해 정맥 영상(12)이 피시술자(10)의 피부상에 투사된 후, 투사된 정맥 영상(12)을 촬영하도록(302) 구성될 수 있다. 이를 위해, 촬영부(300)는 피시술자(10)의 피부상에 투사된 정맥 영상(12)을 촬영할 수 있도록, 피시술자(10)의 피부 영역까지 자신의 시야각 내에 담을 수 있는 위치와 각도로 설치된다. 실시 예로서, 촬영부(300)는 복수의 촬영장치를 구비하되, 그중 하나가 프로브 트래커(110)를 촬영하고, 다른 하나가 투사된 정맥 영상(12)을 촬영하도록 구성될 수 있다. At this time, the photographing
중앙처리부(200)는 피시술자(10)의 피부에 투사된 정맥 영상(12)을 촬영부(300)를 통해 실시간으로 모니터링하며, 정맥 영상(12)이 미리 결정된 정도 이상으로 움직이거나 변화했을 경우, 피시술자(10)가 과도하게 움직인 것으로 판단하여 정맥 영상(12)이 더 이상 투사되지 않도록 투사부(400)에 투사 정지 명령을 전달한다.
The
도 3은 도 1에 도시된 프로브의 상세 구성을 도시하는 측면도이다. 도 3을 참조하면, 프로브(100)는 프로브 트래커(110), 물주머니(120) 및 본체(130)를 포함한다.3 is a side view showing a detailed configuration of the probe shown in Fig. Referring to FIG. 3, the
프로브 트래커(110)는 프로브(100)의 위치 추적을 위한 트래커로서 광학적 방식으로 동작하는 광학 트래커 또는 자기적 방식으로 동작하는 자기 트래커일 수 있다. 프로브 트래커(110)는 촬영부(300)에 의해 촬영 또는 감지되는 하나 이상의 센싱 유닛(111)을 포함한다. 실시 예로서, 프로브 트래커(110)는 적어도 세 개의 센싱 유닛(111)을 포함할 수 있다. 프로브 트래커(110)는 프로브(100)의 본체(130) 상의 임의의 지점에 부착된다.The
물주머니(120)는 프로브(100)의 사용 목적에 따라, 프로브(100)의 끝단에 부착된다. 물주머니(120)는 예를 들어 프로브(100)가 초음파 영상을 스캔할 때, 초음파 신호의 전달을 용이하게 하기 위해 프로브(100)의 끝단에 부착될 수 있다.The
본체(130)는 프로브(100)의 구조를 형성 및 지지하는 구조물로서, 본체(130) 상의 특정 지점에 프로브 트래커(110) 및 물주머니(120)가 부착될 수 있다. 실시 예로서, 본체(130)는 프로브(100) 조작을 제어하기 위한 제어 스위치(미도시)를 더 포함할 수 있다.
The
도 4는 본 발명의 다른 실시 예에 따른, 가시화 시스템의 상세 구성을 도시하는 사시도이다. 도 4의 가시화 시스템(2000)에서, 하나의 하드웨어 장치 내에 촬영부(2300), 투사부(2400) 및 중앙처리부(2200)가 함께 통합적으로 구비될 수 있다. 이때, 프로브(2100)는 통합 장치에 함께 포함될 수도 있고, 통합 장치와는 별개로 분리될 수도 있다. 4 is a perspective view showing a detailed configuration of a visualization system according to another embodiment of the present invention. In the
도 4에 도시된 가시화 시스템(2000)의 프로브(2100), 중앙처리부(2200), 촬영부(2300) 및 투사부(2400)의 구체적인 기능 및 동작은 도 1에 도시된 가시화 시스템(1000)의 프로브(100), 중앙처리부(200), 촬영부(300) 및 투사부(400)의 기능 및 동작과 실질적으로 동일하다. 다만, 도 4에서는 이러한 구성들이 하나의 통합 장치로 구성되는 것만이 상이하다.The concrete functions and operations of the
실시 예로서, 도 4의 가시화 시스템(2000)은 프로브(2100)에 의해 스캔되거나 투사부(2400)에 의해 정맥 영상이 투사될 피시술자의 신체 일부를 거치 또는 지지하는 테이블(2510) 및 통합 장치를 이동시키기 위한 이동용 바퀴(2520)를 더 포함한다.
As an example, the
도 5는 도 4에 도시된 가시화 시스템이 피시술자의 체내 구조물 영상을 가시화하는 방법을 나타내는 측면도이다. FIG. 5 is a side view showing a method of visualizing an image of a body structure of a subject by the visualization system shown in FIG. 4. FIG.
도 5의 실시 예에서, 피시술자(10)가 테이블(2510) 위에 자신의 신체 일부(예를 들어, 상완)을 올려놓으면, 프로브(2100)는 테이블(2510) 위에 올려진 신체 일부를 스캔하여 초음파 영상을 획득하고, 촬영부(2300)는 프로브(2100) 또는 프로브 트래커(2110)의 위치를 촬영 또는 추적한다(2301). 그리고, 중앙처리부(2200)는 초음파 영상 및 촬영/추적된 프로브(2100)의 위치에 기반하여 피시술자(10)의 정맥의 3차원 좌표를 산출하고, 투사부(2400)는 그에 따라 테이블(2510) 위에 올려진 피시술자의 신체 일부에 정맥 영상을 투사하는 방식으로(2401), 피시술자(10)의 정맥을 가시화한다.5, when the subject 10 places his body part (e.g., upper arm) on the table 2510, the
이때, 촬영부(2300)는 테이블(2510)에 올려진 피시술자(10)의 신체 일부를 자신의 시야각에 충분히 포함하도록 구성되며, 투사부(2400)는 테이블(2510)에 올려진 피시술자(10)의 신체 일부가 자신의 투사각에 충분히 포함되도록 구성된다.The
한편, 가시화 시스템(2000)의 구성, 동작 및 기능에 대해 여기서 설명되지 않은 것들은 앞서 설명된 가시화 시스템(1000)의 구성, 동작 및 기능과 그 내용이 실질적으로 동일하다.
Meanwhile, components, operations, and functions of the
도 6은 본 발명의 또 다른 실시 예에 따른, 가시화 시스템의 상세 구성 및 그것을 통해 피시술자의 체내 구조물 위치를 계산하는 방법을 나타내는 개요도이다. 도 6에서는, 본 발명에 따른 가시화 시스템(3000)이 정맥 이외의 다양한 체내 구조물을 가시화할 수 있도록 확장된다. 6 is a schematic diagram illustrating a detailed configuration of a visualization system and a method of calculating the position of a body structure of a subject by the visualization system according to another embodiment of the present invention. In FIG. 6, the
도 6에서, 가시화 시스템(3000)은 앞서 설명한 경우와 유사하게, 프로브(3100), 중앙처리부(3200), 촬영부(3300) 및 투사부(3400)를 포함한다. 6, the
도 6의 실시 예에서, 가시화 시스템(3000)은 프로브(3100)를 통해 피시술자(10)의 체내 구조물(13)에 대한 초음파 영상을 획득하고, 중앙처리부(3200)를 통해 획득된 초음파 영상에서 체내 구조물(13)에 상응하는 영역을 분리한 후 프로브(3100)에 대한 체내 구조물(13)의 상대 좌표를 산출한다. 그리고, 촬영부(3300)를 통해 프로브 트래커(3100)를 촬영 또는 추적하여(3301) 프로브(3100)의 3차원 위치를 획득하고, 획득한 프로브(3100)의 3차원 위치를 체내 구조물(13)의 상대 좌표와 결합(또는, 캘러브레이션)하여 체내 구조물(13)의 3차원 좌표를 산출한다.6, the
한편, 도 6의 가시화 시스템(3000)은 시술자의 눈동자를 추적하여, 시술자의 시선에 대한 정보를 제공하는 특수한 시술자용 고글(3500)을 더 포함한다. 그리고, 중앙처리부(3200)는 피시술자(10)의 획득된 초음파 영상에서 피시술자(10)의 피부에 상응하는 영역을 별도로 분리한 후, 그로부터 프로브(3100)에 대한 피시술자(10) 피부의 상대 좌표를 더 산출한다. 그리고, 중앙처리부(3200)는 체내 구조물(13)의 경우와 마찬가지로, 피시술자(10) 피부의 상대 좌표 및 프로브(3100)의 3차원 위치에 기반하여 피시술자(10) 피부의 3차원 좌표를 산출한다.Meanwhile, the
가령, 체내 장기나 종양과 같이 정맥 외의 다른 체내 구조물을 가시화하는 경우, 가시화할 체내 구조물이 정맥과 달리 피시술자의 몸속 깊은 곳에 위치할 수 있다. 이때, 시술자의 시선과 피시술자의 피부 높이를 함께 고려하여 의료 영상을 투사하면, 체내 구조물의 깊이에 의한 오차를 줄일 수 있기 때문에 체내 구조물의 정확한 가시화에 도움이 된다.For example, in the case of visualizing other intravenous structures such as internal organs or tumors, the internal structures to be visualized may be located deep within the body of the recipient, unlike veins. In this case, if the medical image is projected by considering the operator's gaze and the skin height of the recipient, the error due to the depth of the internal structure can be reduced, which is helpful for accurate visualization of the internal structure.
도 6에서, 시술자용 고글(3500)에는 시술자용 고글(3500)의 위치를 촬영 또는 추적(3302)하기 위한 고글 트래커(3510)가 부착되며, 시술이 진행되는 동안 시술자용 고글(3500)에 포함된 시선 트래커(3520)는 시술자(20)의 눈동자를 실시간으로 추적하여 시술자(20)의 눈동자 위치를 획득한다. 이때, 촬영부(3300)는 시술자용 고글(3500)에 부착된 고글 트래커(3510)까지 자신의 시야각 내에 담을 수 있는 위치와 각도로 설치된다. 실시 예로서, 촬영부(3300)는 복수의 촬영장치를 구비하되, 그중 하나가 프로브 트래커(3110)를 촬영하고, 다른 하나가 시술자용 특수 고글(3500)을 촬영하도록 구성될 수 있다. 6, a
중앙처리부(3200)는 촬영부(3300)를 통해 고글 트래커(3510)를 촬영 또는 추적하여(3302) 통해 시술자용 고글(3500)의 3차원 위치를 획득한다. 그리고, 획득한 시술자용 고글(3500)의 3차원 위치와 함께 시선 트래커(3520)를 통해 얻어진 시술자(20)의 눈동자 위치를 참조하여, 시술자(20)의 시선 정보를 산출한다. The
그리고, 중앙처리부(3200)는 산출된 시술자(20)의 시선 정보 및 피시술자(10)의 피부의 3차원 좌표에 따라, 앞서 산출된 체내 구조물(13)의 3차원 좌표를 시술자(20)의 시선에 맞게 변환 또는 수정한다.
The
도 7은 도 6에서 계산된 체내 구조물 위치에 따라, 체내 구조물 영상을 피시술자의 피부상에 투사할 때의 동작 방법을 나타내는 개요도이다.FIG. 7 is a schematic view showing an operation method when an image of an internal structure is projected onto a skin of a client according to the position of an internal structure calculated in FIG. 6. FIG.
도 7에서, 투사부(3400)는 중앙처리부(3200)가 시술자(20)의 시선(3501)에 맞게 변환한 체내 구조물(13)의 3차원 좌표에 기반하여, 피시술자(10)의 피부상에 체내 구조물의 영상(14)을 투사한다(3401).7, the
투사부(3400)는 영상을 투사할 수 있는 프로젝터 또는 레이저쇼 장비를 포함할 수 있다. 실시 예로서, 투사부(3400)는 피시술자(10)의 피부상에 체내 구조물의 영상(14)을 투사한 후 별도의 투사 정지 명령이 없는 한, 체내 구조물의 영상(14)이 지속적으로 유지되도록 계속 영상을 투사할 수 있다. The
이때, 투사부(3400)에 의해 체내 구조물의 영상(14)이 피시술자(10)의 피부상에 투사된 후, 촬영부(3300)는 투사된 영상(14)을 촬영할 수 있다(3303). 이를 위해, 촬영부(3300)는 피시술자(10)의 피부상에 투사된 체내 구조물의 영상(14)을 촬영할 수 있도록, 피시술자(10)의 피부 영역까지 자신의 시야각 내에 담을 수 있는 위치와 각도로 설치된다. 실시 예로서, 촬영부(3300)는 투사된 체내 구조물의 영상(14)을 촬영하기 위한 별도의 촬영수단 또는 카메라을 포함할 수 있다.At this time, after the
중앙처리부(3200)는 피시술자(10)의 피부에 투사된 영상(14)을 촬영부(3300)를 통해 실시간으로 모니터링하며, 투사된 체내 구조물의 영상(14)이 미리 결정된 정도 이상으로 움직이거나 변화했을 경우, 피시술자(10)가 과도하게 움직인 것으로 판단하여 더 이상 영상을 투사하지 않도록 투사부(3400)에 투사 정지 명령을 전달한다.
The
도 8은 본 발명의 일 실시 예에 따른, 사람의 체내 구조물을 가시화하는 가시화 방법을 개략적으로 나타내는 순서도이다. 도 8을 참조하면, 가시화 시스템의 가시화 방법은 S110 단계 내지 S140 단계를 포함한다.8 is a flowchart schematically showing a visualization method for visualizing a human body structure according to an embodiment of the present invention. Referring to FIG. 8, the visualization method of the visualization system includes steps S110 to S140.
S110 단계에서, 가시화 시스템(1000, 도 1 참조)은 먼저 프로브로 피시술자의 신체를 스캔한다. In step S110, the visualization system 1000 (see FIG. 1) first scans the physician's body with a probe.
S120 단계에서, 가시화 시스템(1000)은 앞서 스캔된 영역에 대한 초음파 영상을 획득한다. 초음파 영상에는 피시술자의 정맥, 장기, 종양 등을 비롯한 체내 구조물에 대한 영상 정보 및 피시술자의 피부에 대한 영상 정보가 포함될 수 있다.In step S120, the
S130 단계에서, 가시화 시스템(1000)은 획득된 초음파 영상으로부터 가시화할 피시술자의 체내 구조물에 상응하는 영역을 분리하고, 분리된 영역으로부터 피시술자의 체내 구조물의 프로브에 대한 상대 좌표를 산출한다. 그리고, 프로브 트래커의 위치를 촬영 또는 추적하여 프로브의 3차원 좌표를 획득한다. In
그리고, 가시화 시스템(1000)은 산출 또는 획득된 체내 구조물의 상대 좌표와 프로브의 3차원 좌표를 결합(캘러브레이션)하여, 체내 구조물의 3차원 좌표를 산출한다.Then, the
실시 예로서, 이때 체내 구조물은 피시술자의 정맥, 장기 또는 종양과 같은 피시술자의 체내에 위치한 기관(organ)들 중 어느 하나일 수 있다.By way of example, the body structure may be any one of the organs located within the body of the recipient, such as the vein, organs or tumor of the recipient.
S140 단계에서, 가시화 시스템(1000)은 산출된 체내 구조물의 3차원 좌표에 따라, 체내 구조물의 영상을 피시술자의 피부상에 투사한다. In step S140, the
실시 예로서, 이때, 가시화 시스템(1000)은 도 7 및 도 8에서 설명된 방법과 같이 시술자용 고글을 통해 시술자의 시선을 계산한 후, 계산된 시술자의 시선에 따라 체내 구조물의 3차원 좌표를 변환 또는 수정하고, 변환 또는 수정된 체내 구조물의 3차원 좌표를 피시술자의 피부상에 투사할 수 있다.As an embodiment, the
위에서 설명한 구성들에 따르면, 시술자는 피시술자 피부에 투사된 체내 구조물(예를 들어, 정맥) 영상을 보면서 시술을 수행할 수 있으며, 이를 통해 해당 시술의 정확성과 직관성이 크게 향상될 수 있다. According to the above-described configurations, the practitioner can perform the operation while viewing the image of the internal structure (for example, vein) projected on the skin of the recipient, and the accuracy and intuitiveness of the operation can be greatly improved.
또한, 프로브를 통해 탐지된 체내 구조물의 위치를 실시간으로 피시술자의 피부에 투사하므로 영상 정보 표시의 즉각성 및 실시간성이 향상될 수 있으며, 나아가 근적외선이나 가시광선 대신 초음파를 매개로 하므로 피시술자의 체내 구조물을 더욱 명확히 가시화할 수 있다.
In addition, since the position of the body structure detected through the probe is projected on the skin of the patient in real time in real time, the immediacy and real time of the display of the image information can be improved. Moreover, since ultrasound waves are used instead of near infrared rays or visible rays, Can be more clearly visualized.
본 발명의 상세한 설명에서는 구체적인 실시 예를 들어 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한 각 실시 예는 여러 가지 형태로 변형될 수 있다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments.
또한, 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 발명의 범위는 상술한 실시 예에 한정되는 것은 아니며, 첨부된 특허 청구범위에서 제시되는 바에 따라 정해져야 한다.
In addition, although specific terms are used herein, they are used for the purpose of describing the present invention only and are not used to limit the scope of the present invention described in the claims or the claims. Therefore, the scope of the present invention should not be limited to the above-described embodiments, but should be determined as set forth in the appended claims.
1000, 2000, 3000: 가시화 시스템 100, 2100, 3100: 프로브
200, 2200, 3200: 중앙처리부 300, 2300, 3300: 촬영부
400, 2400, 3400: 투사부 110, 3110, 3510: 트래커
120: 물주머니 130: 프로브 본체
2510: 테이블 2520: 이동용 바퀴
3500: 시술자용 고글 3510: 시선 감지기
11, 13: 체내 구조물 12, 14: 투사 영상1000, 2000, 3000:
200, 2200, 3200:
400, 2400, 3400: projecting
120: water pocket 130: probe body
2510: Table 2520: Mobile wheels
3500: Operator's Goggles 3510: Eye Detector
11, 13:
Claims (11)
상기 프로브의 위치 정보를 제공하기 위한 프로브 트래커;
상기 프로브 트래커를 촬영하거나 상기 프로브 트래커의 위치를 추적하는 촬영부;
상기 프로브에 대한 상기 체내 구조물의 상대 좌표를 상기 초음파 영상으로부터 산출하고, 상기 촬영부를 통해 획득된 상기 프로브의 위치 정보 및 상기 산출된 상대 좌표에 기반하여 상기 체내 구조물의 3차원 좌표를 산출하는 중앙처리부; 및
상기 체내 구조물의 3차원 좌표를 참조하여, 상기 피시술자의 피부상에 상기 체내 구조물의 영상을 투사하는 투사부를 포함하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
A probe which scans at least a part of the body of the subject and acquires an ultrasound image of the internal structure of the subject;
A probe tracker for providing position information of the probe;
A photographing unit photographing the probe tracker or tracking the position of the probe tracker;
A central processing unit for calculating the relative coordinates of the body structure with respect to the probe from the ultrasound image and calculating the three-dimensional coordinates of the body structure based on the positional information of the probe obtained through the imaging unit and the calculated relative coordinates, ; And
And a projection unit for projecting an image of the body structure on the skin of the subject by referring to the three-dimensional coordinates of the body structure.
상기 프로브 트래커는 상기 프로브에 부착되고,
상기 프로브에는 상기 초음파 영상의 획득을 용이하게 하는 물주머니가 더 부착되는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
The method according to claim 1,
Wherein the probe tracker is attached to the probe,
Wherein the probe is further provided with a water bladder for facilitating acquisition of the ultrasound image.
상기 프로브 트래커는 광학 트래킹 방식으로 상기 프로브의 위치 정보를 제공하는 광학 트래커 또는 자기 트래킹 방식으로 상기 프로브의 위치 정보를 제공하는 자기 트래커인, 사람의 체내 구조물을 가시화하는 가시화 시스템.
3. The method of claim 2,
Wherein the probe tracker is an optical tracker that provides position information of the probe in an optical tracking manner or a magnetic tracker that provides position information of the probe in a magnetic tracking manner.
상기 중앙처리부는 상기 초음파 영상으로부터 상기 체내 구조물에 상응하는 영역을 분리하고, 상기 분리된 영역을 참조하여 상기 체내 구조물의 상기 상대 좌표를 산출하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
The method according to claim 1,
Wherein the central processing unit separates a region corresponding to the body structure from the ultrasound image and calculates the relative coordinates of the body structure with reference to the separated region.
상기 촬영부는 상기 투사부에 의해 상기 피시술자의 피부상에 투사된 상기 체내 구조물의 영상을 더 촬영하고,
상기 중앙처리부는 상기 촬영부에 의해 촬영된 상기 체내 구조물의 영상을 모니터링하되, 상기 모니터링되는 상기 체내 구조물의 영상이 미리 결정된 정도 이상으로 움직이거나 변화한 경우 상기 체내 구조물의 영상이 더 이상 투사되지 않도록 상기 투사부를 제어하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
The method according to claim 1,
Wherein the photographing unit further photographs the image of the internal structure projected on the skin of the subject by the projection unit,
Wherein the central processing unit monitors an image of the body structure photographed by the photographing unit so that the image of the body structure is no longer projected when the monitored image of the body structure moves or changes by a predetermined degree or more And controls the projection unit to visualize a human body structure.
상기 촬영부, 상기 중앙처리부 및 상기 투사부는 하나의 하드웨어 장치에 내장되는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
The method according to claim 1,
Wherein the imaging unit, the central processing unit, and the projection unit are built in one hardware device, the visualization system for visualizing a human body structure.
상기 피시술자에 대한 시술을 수행하는 시술자의 눈동자 위치를 감지하는 고글; 및
상기 고글의 위치 정보를 제공하기 위한 고글 트래커를 더 포함하고,
상기 중앙처리부는 상기 고글을 통해 감지되는 상기 시술자의 눈동자 위치 및 상기 고글 트래커를 이용하여 획득되는 상기 고글의 위치 정보에 따라, 상기 시술자의 시선 정보를 산출하고, 상기 산출된 시술자의 시선 정보를 참조하여 상기 체내 구조물의 상기 3차원 좌표를 변환 또는 조정하고,
상기 투사부는 상기 변환 또는 조정된 상기 체내 구조물의 상기 3차원 좌표에 따라, 상기 피시술자의 피부상에 상기 체내 구조물의 영상을 투사하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
The method according to claim 1,
A goggle for sensing a pupil position of a practitioner performing a procedure on the subject; And
Further comprising a goggle tracker for providing position information of the goggles,
The central processing unit may calculate gaze information of the operator according to the pupil position of the operator sensed through the goggles and the position information of the goggles obtained using the goggle tracker, The three-dimensional coordinates of the body structure are converted or adjusted,
Wherein the projection unit projects an image of the internal structure on the skin of the subject according to the three-dimensional coordinates of the converted or adjusted body structure.
상기 중앙처리부는 상기 초음파 영상으로부터 상기 피시술자의 피부에 상응하는 피부 영역을 분리하고, 상기 분리된 피부 영역 및 상기 프로브의 위치 정보를 참조하여 상기 피부의 3차원 좌표를 산출하고, 상기 시술자의 시선 정보와 함께 상기 피부의 3차원 좌표를 더 참조하여 상기 체내 구조물의 상기 3차원 좌표를 변환 또는 조정하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
8. The method of claim 7,
The central processing unit separates a skin region corresponding to the skin of the subject from the ultrasound image, calculates three-dimensional coordinates of the skin by referring to the separated skin region and the position information of the probe, Dimensional coordinate of the body structure with reference to the three-dimensional coordinates of the skin together with the three-dimensional coordinates of the skin.
상기 촬영부는 상기 고글의 위치 정보를 상기 중앙처리부에 제공하기 위해, 상기 고글 트래커를 촬영하거나 상기 고글 트래커의 위치를 추적하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
8. The method of claim 7,
Wherein the photographing unit photographs the goggle tracker or tracks the position of the goggle tracker to provide the position information of the goggle to the central processing unit.
상기 체내 구조물은 상기 피시술자의 정맥, 장기 또는 종양을 포함하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
The method according to claim 1,
Wherein the in-vivo structure includes a vein, an organ, or a tumor of the subject.
상기 획득된 초음파 영상으로부터 상기 체내 구조물에 상응하는 영역을 분리하고, 상기 분리된 영역에 기반하여 상기 프로브에 대한 상기 체내 구조물의 상대 좌표를 산출하는 단계;
상기 프로브에 부착된 프로브 트래커를 촬영하거나 상기 프로브 트래커의 위치를 추적하여 상기 프로브의 위치 정보를 획득하는 단계;
상기 획득된 상기 프로브의 위치 정보 및 상기 산출된 상기 상대 좌표에 기반하여 상기 체내 구조물의 3차원 좌표를 산출하는 단계; 및
상기 체내 구조물의 3차원 좌표를 참조하여, 상기 피시술자의 피부상에 상기 체내 구조물의 영상을 투사하는 단계를 포함하는, 사람의 체내 구조물을 가시화하는 가시화 방법.Scanning at least a part of the body of the subject with a probe to obtain an ultrasound image of the body structure of the subject;
Separating a region corresponding to the body structure from the obtained ultrasound image and calculating relative coordinates of the body structure with respect to the probe based on the separated region;
Capturing a probe tracker attached to the probe or tracking the position of the probe tracker to obtain position information of the probe;
Calculating three-dimensional coordinates of the body structure based on the obtained position information of the probe and the calculated relative coordinates; And
And projecting an image of the body structure onto the skin of the subject by referring to the three-dimensional coordinates of the body structure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140058318A KR101635731B1 (en) | 2014-05-15 | 2014-05-15 | Visualization system and method for visualizing inner objects of human |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140058318A KR101635731B1 (en) | 2014-05-15 | 2014-05-15 | Visualization system and method for visualizing inner objects of human |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150131536A KR20150131536A (en) | 2015-11-25 |
KR101635731B1 true KR101635731B1 (en) | 2016-07-05 |
Family
ID=54845358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140058318A KR101635731B1 (en) | 2014-05-15 | 2014-05-15 | Visualization system and method for visualizing inner objects of human |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101635731B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112155596B (en) * | 2020-10-10 | 2023-04-07 | 达闼机器人股份有限公司 | Ultrasonic diagnostic apparatus, method of generating ultrasonic image, and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003505132A (en) | 1999-07-23 | 2003-02-12 | ユニバーシティ・オブ・フロリダ | Ultrasound guidance of target structures for medical procedures |
KR100726028B1 (en) | 2005-12-14 | 2007-06-08 | 한양대학교 산학협력단 | Augmented reality projection system of affected parts and method therefor |
JP2011200533A (en) | 2010-03-26 | 2011-10-13 | Fujifilm Corp | Ultrasonic diagnostic apparatus |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100049849A (en) * | 2008-11-04 | 2010-05-13 | 주식회사 메디슨 | Ultrasound diagnostic system and medical diagnostic system for providing position information of medical instrument |
-
2014
- 2014-05-15 KR KR1020140058318A patent/KR101635731B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003505132A (en) | 1999-07-23 | 2003-02-12 | ユニバーシティ・オブ・フロリダ | Ultrasound guidance of target structures for medical procedures |
KR100726028B1 (en) | 2005-12-14 | 2007-06-08 | 한양대학교 산학협력단 | Augmented reality projection system of affected parts and method therefor |
JP2011200533A (en) | 2010-03-26 | 2011-10-13 | Fujifilm Corp | Ultrasonic diagnostic apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR20150131536A (en) | 2015-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101572487B1 (en) | System and Method For Non-Invasive Patient-Image Registration | |
US20220192611A1 (en) | Medical device approaches | |
JP6242569B2 (en) | Medical image display apparatus and X-ray diagnostic apparatus | |
RU2740259C2 (en) | Ultrasonic imaging sensor positioning | |
JP3707830B2 (en) | Image display device for surgical support | |
CN109124764A (en) | Guide device of performing the operation and surgery systems | |
CN106687046A (en) | Guiding system for positioning a patient for medical imaging | |
JP6116754B2 (en) | Device for stereoscopic display of image data in minimally invasive surgery and method of operating the device | |
KR102214637B1 (en) | Imaging system for medical image and method of driving the same | |
KR101458585B1 (en) | Radiopaque Hemisphere Shape Maker for Cardiovascular Diagnosis and Procedure Guiding Image Real Time Registration | |
WO2018235533A1 (en) | Medical imaging system, method and computer program product | |
JP6112689B1 (en) | Superimposed image display system | |
JP4491420B2 (en) | Surgery support device and surgery support imaging device | |
US20170055844A1 (en) | Apparatus and method for acquiring object information | |
CN110584782B (en) | Medical image processing method, medical image processing apparatus, medical system, computer, and storage medium | |
KR102476832B1 (en) | User terminal for providing augmented reality medical image and method for providing augmented reality medical image | |
KR101485899B1 (en) | Image matching method between computed tomography angiography image and X-Ray angiography image based on hemisphere shaped radiopaque 3D Marker | |
JP2022502126A (en) | Breast mapping and abnormal localization | |
KR101687934B1 (en) | Operating electronic medical navigation system and method using the splinter | |
KR101635731B1 (en) | Visualization system and method for visualizing inner objects of human | |
KR20160057024A (en) | Markerless 3D Object Tracking Apparatus and Method therefor | |
WO2015091226A1 (en) | Laparoscopic view extended with x-ray vision | |
JP2011156286A (en) | Ultrasonic diagnosis apparatus and ultrasonic image displaying program | |
KR101485900B1 (en) | Image matching method between computed tomography angiography image and X-Ray angiography image based on hemisphere shaped radiopaque 3D Marker | |
JP2011050583A (en) | Medical diagnostic apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |