KR101635731B1 - Visualization system and method for visualizing inner objects of human - Google Patents

Visualization system and method for visualizing inner objects of human Download PDF

Info

Publication number
KR101635731B1
KR101635731B1 KR1020140058318A KR20140058318A KR101635731B1 KR 101635731 B1 KR101635731 B1 KR 101635731B1 KR 1020140058318 A KR1020140058318 A KR 1020140058318A KR 20140058318 A KR20140058318 A KR 20140058318A KR 101635731 B1 KR101635731 B1 KR 101635731B1
Authority
KR
South Korea
Prior art keywords
probe
body structure
subject
image
tracker
Prior art date
Application number
KR1020140058318A
Other languages
Korean (ko)
Other versions
KR20150131536A (en
Inventor
이득희
박세형
이상준
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020140058318A priority Critical patent/KR101635731B1/en
Publication of KR20150131536A publication Critical patent/KR20150131536A/en
Application granted granted Critical
Publication of KR101635731B1 publication Critical patent/KR101635731B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/22Details, e.g. general constructional or apparatus details
    • G01N29/24Probes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • General Physics & Mathematics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

본 발명은 사람의 체내 구조물을 나타내는 영상을 사람의 피부상에 가시화하는 가시화 시스템 및 방법에 관한 것이다.
본 발명에 따른 사람의 체내 구조물을 가시화하는 가시화 시스템은, 피시술자의 신체 중 적어도 일부를 스캔하여 피시술자의 체내 구조물에 대한 초음파 영상을 획득하는 프로브, 프로브의 위치 정보를 제공하기 위한 프로브 트래커, 프로브 트래커를 촬영하거나 프로브 트래커의 위치를 추적하는 촬영부, 프로브에 대한 체내 구조물의 상대 좌표를 초음파 영상으로부터 산출하고 촬영부를 통해 획득된 프로브의 위치 정보 및 산출된 상대 좌표에 기반하여 체내 구조물의 3차원 좌표를 산출하는 중앙처리부, 및 체내 구조물의 3차원 좌표를 참조하여 피시술자의 피부상에 체내 구조물의 영상을 투사하는 투사부를 포함한다.
The present invention relates to a visualization system and method for visualizing an image representing a human body structure on human skin.
The present invention provides a visualization system for visualizing a human body structure, comprising: a probe that scans at least a part of a body of a subject to acquire an ultrasound image of a body structure of the subject, a probe tracker for providing position information of the probe, A relative position of the body structure to the probe is calculated from the ultrasound image, and based on the positional information of the probe obtained through the photographing unit and the calculated relative coordinates, the three-dimensional coordinates And a projection unit for projecting an image of the body structure on the skin of the subject by referring to the three-dimensional coordinates of the body structure.

Description

사람의 체내 구조물을 가시화하는 가시화 시스템 및 방법{VISUALIZATION SYSTEM AND METHOD FOR VISUALIZING INNER OBJECTS OF HUMAN}TECHNICAL FIELD [0001] The present invention relates to a visualization system and method for visualizing a human body structure,

본 발명은 사람의 체내 구조물을 가시화하는 가시화 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 사람의 체내 구조물을 나타내는 영상을 사람의 피부상에 가시화하는 가시화 시스템 및 방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a visualization system and method for visualizing a human body structure, and more particularly, to a visualization system and method for visualizing an image representing a human body structure on human skin.

사람의 체내 구조물에 대한 진단 또는 치료에 도움을 주기 위해서, 초음파를 이용해 사람의 신체 내부에 있는 기관을 시각적으로 가시화하는 다양한 의료 영상 장치들이 연구되었다. 이러한 장치들의 예로서, 심부정맥 혈전증(DVT; deep vein thrombosis) 등의 정맥 질환을 진단할 목적으로 하지 정맥을 가시화하는 장치나, 내경정맥(內頸靜脈; internal jugular vein) 또는 액와정맥(腋窩靜脈, axillary vein)과 같이 특정한 정맥을 초음파로 가시화하는 장치들이 있는데, 이러한 장치들은 획득한 초음파 영상을 스크린을 통해 사용자(예를 들어, 시술자)에게 표시하도록 구성된다. In order to help diagnose or treat human body structures, a variety of medical imaging devices have been studied that visualize the organs inside the human body using ultrasound. Examples of such devices include a device for visualizing the lower limb for the purpose of diagnosing a venous disease such as deep vein thrombosis (DVT), a device for visualizing the lower jugular vein (internal jugular vein) or an axillary vein , axillary vein), which are configured to display acquired ultrasound images to a user (e.g., a practitioner) through a screen.

한편, 최근에는 시술의 정확성과 직관성을 높이기 위해 의료 영상 정보를 스크린이 아닌 환자 피부에 투사하여 증강현실(augmented reality, AR)을 달성하는 기술들이 속속 제안되고 있다. 이러한 기술들의 예로서, 2010년 일본 테이쿄대 및 고베대 연구팀은 고강도 빔 프로젝터를 수술실 천정에 고정하여 다양한 의료 영상 정보를 환자 피부에 가시화하는 기술을 제안하였고, 2011년에는 스위스 베른대 연구팀에 의해 소형 레이저 프로젝터를 이용하여 원하는 위치와 각도에서 의료 영상을 투사할 수 있는 핸드헬드(handheld) 장치가 제안된 바 있다. 그러나 이러한 장치들은 표시된 영상의 정확도가 낮고, 미리 처리된 컴퓨터 단층촬영(CT)이나 자기공명영상(MRI)을 기반으로 하기 때문에 영상 정보 표시의 즉각성 및 실시간성이 떨어지는 문제점이 있었다.
In recent years, techniques for achieving augmented reality (AR) by projecting medical image information on the patient's skin rather than on the screen have been proposed in order to improve the accuracy and intuitiveness of the procedure. As an example of these technologies, the research team at the University of Tokyo and Kobe University in Japan proposed a technique for visualizing various medical image information on the patient's skin by fixing a high-intensity beam projector on the ceiling of the operating room. In 2011, A handheld device capable of projecting a medical image at a desired position and angle using a laser projector has been proposed. However, these devices have problems in that the displayed image is low in accuracy, and the immediacy of the display of the image information and the real-time property are degraded because it is based on a pre-processed computerized tomography (CT) or magnetic resonance imaging (MRI).

미국 등록특허공보 제8,199,189호(2012. 06. 12)U.S. Patent Publication No. 8,199,189 (June 12, 2012) 미국 등록특허공보 제7,841,751호(2010. 11. 30)U.S. Patent Publication No. 7,841,751 (Nov. 30, 2010)

1988년 발행된, American Journal of Cardiology의 62권, 제7호, 493-494페이지에 수록된,“Ultrasound Angioscopy: Real-time, Two-dimensional, Intraluminal Ultrasound Imaging of Blood Vessels”"Ultrasound Angioscopy: Real-time, Two-dimensional, Intraluminal Ultrasound Imaging of Blood Vessels", published in 1988, Vol. 62, No. 7, pages 493-494 of the American Journal of Cardiology,

본 발명의 목적은 피시술자의 체내 구조물 영상을 더욱 정확히 피부상에 표시함으로써 정확성 및 직관성을 향상시킨, 사람의 체내 구조물을 가시화하는 가시화 시스템 및 방법을 제공하는 데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a visualization system and method for visualizing a body structure of a person, which improves the accuracy and intuitiveness by displaying the image of the body structure of the person to be examined more accurately on the skin.

본 발명의 다른 목적은 영상 정보 표시의 즉각성 및 실시간성이 향상된, 사람의 체내 구조물을 가시화하는 가시화 시스템 및 방법을 제공하는 데 있다.It is another object of the present invention to provide a visualization system and method for visualizing a human body structure with improved instantness and real-time display of image information.

본 발명의 또 다른 목적은 근적외선이나 가시광선 대신 초음파를 매개로 함으로써 피시술자의 체내 구조물을 더욱 명확히 가시화할 수 있는, 사람의 체내 구조물을 가시화하는 가시화 시스템 및 방법을 제공하는 데 있다.
It is still another object of the present invention to provide a visualization system and method for visualizing a human body structure that can more clearly visualize a body structure of a subject by mediating ultrasonic waves instead of near-infrared rays or visible rays.

본 발명의 실시 예들에 따른 사람의 체내 구조물을 가시화하는 가시화 시스템은, 피시술자의 신체 중 적어도 일부를 스캔하여 상기 피시술자의 체내 구조물에 대한 초음파 영상을 획득하는 프로브; 상기 프로브의 위치 정보를 제공하기 위한 프로브 트래커; 상기 프로브 트래커를 촬영하거나 상기 프로브 트래커의 위치를 추적하는 촬영부; 상기 프로브에 대한 상기 체내 구조물의 상대 좌표를 상기 초음파 영상으로부터 산출하고, 상기 촬영부를 통해 획득된 상기 프로브의 위치 정보 및 상기 산출된 상대 좌표에 기반하여 상기 체내 구조물의 3차원 좌표를 산출하는 중앙처리부; 및 상기 체내 구조물의 3차원 좌표를 참조하여, 상기 피시술자의 피부상에 상기 체내 구조물의 영상을 투사하는 투사부를 포함한다.A visualization system for visualizing a human body structure according to embodiments of the present invention includes a probe for scanning at least a part of a body of a subject to acquire an ultrasound image of the body structure of the subject; A probe tracker for providing position information of the probe; A photographing unit photographing the probe tracker or tracking the position of the probe tracker; A central processing unit for calculating the relative coordinates of the body structure with respect to the probe from the ultrasound image and calculating the three-dimensional coordinates of the body structure based on the positional information of the probe obtained through the imaging unit and the calculated relative coordinates, ; And a projection unit for projecting the image of the body structure on the skin of the subject by referring to the three-dimensional coordinates of the body structure.

실시 예로서, 상기 프로브 트래커는 상기 프로브에 부착되고, 상기 프로브에는 상기 초음파 영상의 획득을 용이하게 하는 물주머니가 더 부착될 수 있다.In an embodiment, the probe tracker is attached to the probe, and the probe may be further provided with a water pouch for facilitating acquisition of the ultrasound image.

실시 예로서, 상기 프로브 트래커는 광학 트래킹 방식으로 상기 프로브의 위치 정보를 제공하는 광학 트래커 또는 자기 트래킹 방식으로 상기 프로브의 위치 정보를 제공하는 자기 트래커일 수 있다.In an embodiment, the probe tracker may be an optical tracker that provides position information of the probe in an optical tracking manner, or a magnetic tracker that provides position information of the probe in a magnetic tracking manner.

실시 예로서, 상기 중앙처리부는 상기 초음파 영상으로부터 상기 체내 구조물에 상응하는 영역을 분리하고, 상기 분리된 영역을 참조하여 상기 체내 구조물의 상기 상대 좌표를 산출할 수 있다.In an embodiment, the central processing unit may separate the region corresponding to the body structure from the ultrasound image, and calculate the relative coordinates of the body structure with reference to the separated region.

실시 예로서, 상기 촬영부는 상기 투사부에 의해 상기 피시술자의 피부상에 투사된 상기 체내 구조물의 영상을 더 촬영하고, 상기 중앙처리부는 상기 촬영부에 의해 촬영된 상기 체내 구조물의 영상을 모니터링하되, 상기 모니터링되는 상기 체내 구조물의 영상이 미리 결정된 정도 이상으로 움직이거나 변화한 경우 상기 체내 구조물의 영상이 더 이상 투사되지 않도록 상기 투사부를 제어할 수 있다.In an embodiment, the photographing unit further photographs the image of the internal structure projected on the skin of the subject by the projection unit, and the central processing unit monitors the image of the internal structure photographed by the photographing unit, The controller can control the projection unit so that the image of the body structure is not projected when the monitored image of the body structure moves or changes by a predetermined degree or more.

실시 예로서, 상기 촬영부, 상기 중앙처리부 및 상기 투사부는 하나의 하드웨어 장치에 내장될 수 있다.In an embodiment, the photographing unit, the central processing unit, and the projection unit may be embedded in one hardware device.

실시 예로서, 상기 피시술자에 대한 시술을 수행하는 시술자의 눈동자 위치를 감지하는 고글; 및 상기 고글의 위치 정보를 제공하기 위한 고글 트래커를 더 포함하고, 상기 중앙처리부는 상기 고글을 통해 감지되는 상기 시술자의 눈동자 위치 및 상기 고글 트래커를 이용하여 획득되는 상기 고글의 위치 정보에 따라, 상기 시술자의 시선 정보를 산출하고, 상기 산출된 시술자의 시선 정보를 참조하여 상기 체내 구조물의 상기 3차원 좌표를 변환 또는 조정하고, 상기 투사부는 상기 변환 또는 조정된 상기 체내 구조물의 상기 3차원 좌표에 따라, 상기 피시술자의 피부상에 상기 체내 구조물의 영상을 투사할 수 있다.As an embodiment, there is provided a goggle for detecting a pupil position of a practitioner performing a procedure on the subject; And a goggle tracker for providing positional information of the goggles, wherein the central processing unit is configured to determine, based on the pupil position of the practitioner sensed through the goggles and the positional information of the goggles acquired using the goggle tracker, Dimensional coordinate of the body structure by referring to the visual information of the practitioner, and the projection unit adjusts the three-dimensional coordinate of the body structure according to the three-dimensional coordinate of the body structure , The image of the body structure can be projected onto the skin of the subject.

실시 예로서, 상기 중앙처리부는 상기 초음파 영상으로부터 상기 피시술자의 피부에 상응하는 피부 영역을 분리하고, 상기 분리된 피부 영역 및 상기 프로브의 위치 정보를 참조하여 상기 피부의 3차원 좌표를 산출하고, 상기 시술자의 시선 정보와 함께 상기 피부의 3차원 좌표를 더 참조하여 상기 체내 구조물의 상기 3차원 좌표를 변환 또는 조정할 수 있다.In one embodiment, the central processing unit separates a skin region corresponding to the skin of the subject from the ultrasound image, calculates three-dimensional coordinates of the skin by referring to the separated skin region and the position information of the probe, The three-dimensional coordinates of the body structure can be converted or adjusted with reference to the three-dimensional coordinates of the skin together with the sight line information of the operator.

실시 예로서, 상기 촬영부는 상기 고글의 위치 정보를 상기 중앙처리부에 제공하기 위해, 상기 고글 트래커를 촬영하거나 상기 고글 트래커의 위치를 추적할 수 있다.In an embodiment, the photographing unit may photograph the goggle tracker or track the position of the goggle tracker to provide the position information of the goggles to the central processing unit.

실시 예로서, 상기 체내 구조물은 상기 피시술자의 정맥, 장기 또는 종양을 포함할 수 있다.In an embodiment, the body structure may include veins, organs or tumors of the subject.

본 발명의 실시 예들에 따른 사람의 체내 구조물을 가시화하는 가시화 방법은, 프로브로 피시술자의 신체 중 적어도 일부를 스캔하여 상기 피시술자의 체내 구조물에 대한 초음파 영상을 획득하는 단계; 상기 획득된 초음파 영상으로부터 상기 체내 구조물에 상응하는 영역을 분리하고, 상기 분리된 영역에 기반하여 상기 프로브에 대한 상기 체내 구조물의 상대 좌표를 산출하는 단계; 상기 프로브에 부착된 프로브 트래커를 촬영하거나 상기 프로브 트래커의 위치를 추적하여 상기 프로브의 위치 정보를 획득하는 단계; 상기 획득된 상기 프로브의 위치 정보 및 상기 산출된 상기 상대 좌표에 기반하여 상기 체내 구조물의 3차원 좌표를 산출하는 단계; 및 상기 체내 구조물의 3차원 좌표를 참조하여, 상기 피시술자의 피부상에 상기 체내 구조물의 영상을 투사하는 단계를 포함한다.
According to embodiments of the present invention, there is provided a method of visualizing a human body structure, comprising: scanning at least a part of a body of a subject with a probe to obtain an ultrasound image of the body structure of the subject; Separating a region corresponding to the body structure from the obtained ultrasound image and calculating relative coordinates of the body structure with respect to the probe based on the separated region; Capturing a probe tracker attached to the probe or tracking the position of the probe tracker to obtain position information of the probe; Calculating three-dimensional coordinates of the body structure based on the obtained position information of the probe and the calculated relative coordinates; And projecting the image of the body structure on the skin of the subject by referring to the three-dimensional coordinates of the body structure.

본 발명의 실시 예들에 따르면, 시술자는 피시술자 피부에 투사된 체내 구조물 영상을 보면서 시술을 수행할 수 있으며, 이를 통해 해당 시술의 정확성과 직관성이 크게 향상될 수 있다. According to the embodiments of the present invention, the practitioner can perform the operation while viewing the image of the body structure projected on the skin of the recipient, whereby the accuracy and intuitiveness of the operation can be greatly improved.

또한, 프로브를 통해 탐지된 체내 구조물의 위치를 실시간으로 피시술자의 피부에 투사할 수 있으므로, 영상 정보 표시의 즉각성 및 실시간성이 향상될 수 있고, 나아가 근적외선이나 가시광선 대신 초음파를 매개로 하므로 피시술자의 체내 구조물을 더욱 명확히 가시화할 수 있다.
In addition, since the position of the body structure detected through the probe can be projected on the skin of the patient, in real time, the immediacy and real time of the display of the image information can be improved. Further, since ultrasound waves are used instead of near infrared rays or visible rays, It is possible to more clearly visualize the body structure of the body.

도 1은 본 발명의 일 실시 예에 따른, 가시화 시스템의 상세 구성 및 그것을 통해 피시술자의 체내 구조물 위치를 계산하는 방법을 나타내는 개요도이다.
도 2는 도 1에서 계산된 체내 구조물 위치에 따라, 체내 구조물 영상을 피시술자의 피부상에 투사할 때의 동작 방법을 나타내는 개요도이다.
도 3은 도 1에 도시된 프로브의 상세 구성을 도시하는 측면도이다.
도 4는 본 발명의 다른 실시 예에 따른, 가시화 시스템의 상세 구성을 도시하는 사시도이다.
도 5는 도 4에 도시된 가시화 시스템이 피시술자의 체내 구조물 영상을 가시화하는 방법을 나타내는 측면도이다.
도 6은 본 발명의 또 다른 실시 예에 따른, 가시화 시스템의 상세 구성 및 그것을 통해 피시술자의 체내 구조물 위치를 계산하는 방법을 나타내는 개요도이다.
도 7은 도 6에서 계산된 체내 구조물 위치에 따라, 체내 구조물 영상을 피시술자의 피부상에 투사할 때의 동작 방법을 나타내는 개요도이다.
도 8은 본 발명의 일 실시 예에 따른, 사람의 체내 구조물을 가시화하는 가시화 방법을 개략적으로 나타내는 순서도이다.
1 is a schematic diagram illustrating a detailed configuration of a visualization system and a method for calculating the position of a body structure of a subject by the method according to an embodiment of the present invention.
FIG. 2 is a schematic view showing an operation method when an image of an internal structure is projected onto a skin of a subject according to the position of the internal structure calculated in FIG. 1. FIG.
3 is a side view showing a detailed configuration of the probe shown in Fig.
4 is a perspective view showing a detailed configuration of a visualization system according to another embodiment of the present invention.
FIG. 5 is a side view showing a method of visualizing an image of a body structure of a subject by the visualization system shown in FIG. 4. FIG.
6 is a schematic diagram illustrating a detailed configuration of a visualization system and a method of calculating the position of a body structure of a subject by the visualization system according to another embodiment of the present invention.
FIG. 7 is a schematic view showing an operation method when an image of an internal structure is projected onto a skin of a client according to the position of an internal structure calculated in FIG. 6. FIG.
8 is a flowchart schematically showing a visualization method for visualizing a human body structure according to an embodiment of the present invention.

후술하는 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면들을 참조한다. 상세한 설명의 실시 예들은 당업자가 본 명세서에 기재된 발명을 실시하기 위한 상세 설명을 개시하는 목적으로 제공된다. The following detailed description refers to the accompanying drawings, which illustrate, by way of example, specific embodiments in which the invention may be practiced. Embodiments of the detailed description are provided for those of ordinary skill in the art to disclose the detailed description for carrying out the invention described herein.

본 명세서의 각 실시 예들은 서로 상이한 경우를 설명할 수 있으나, 그것이 각 실시 예들이 상호 배타적임을 의미하는 것은 아니다. 예를 들어, 상세한 설명의 일 실시 예와 관련하여 설명된 특정 형상, 구조 및 특성은 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예에서도 동일하게 구현될 수 있다. 또한, 여기서 개시되는 실시 예들의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 다양하게 변경될 수 있음이 이해되어야 한다. Each of the embodiments of the present invention can describe different cases, but it does not mean that the embodiments are mutually exclusive. For example, the specific shapes, structures, and characteristics described in connection with one embodiment of the detailed description may be implemented in other embodiments without departing from the spirit and scope of the present invention. It is also to be understood that the location or arrangement of the individual components of the embodiments disclosed herein may be varied without departing from the spirit and scope of the invention.

한편, 여러 실시 예들에서 동일하거나 유사한 참조번호는 동일하거나 유사한 구성요소를 지칭한다. 첨부된 도면들에서 각 구성 요소들의 크기는 설명을 위하여 과장될 수 있으며, 실제 적용되는 크기와 같거나 유사할 필요는 없다.
On the other hand, in various embodiments, the same or similar reference numerals refer to the same or similar components. In the accompanying drawings, the sizes of the respective components may be exaggerated for explanatory purposes and need not be equal to or similar to the actual applied size.

의료 영상 정보 기술 중 의료용 초음파 영상법(medical ultrasonography)은 관절, 근육 또는 혈관과 같은 체내 구조물을 초음파로 가시화하여 진단 및 치료에 활용하는 방법으로서, 오늘날 다양한 의료 환경에서 광범위하게 활용되고 있다. 다른 의료 영상 정보 기술과 비교할 때 초음파 영상법은 가격이 저렴하고 장비가 간단하며 실시간으로 의료 영상을 얻을 수 있는 장점이 있으며, 특히 정맥을 가시화할 때, 근적외선이나 가시광선을 이용한 방법들에 비해 훨씬 선명한 정맥 영상을 얻을 수 있다. 그러나 종래의 초음파 영상법은 얻어낸 영상 정보를 단지 스크린을 통해서만 표시하고 있으며, 이로 인해 시술의 정확성과 직관성에 크게 제약을 받고 있다.Among medical image information technologies, medical ultrasonography is a method of visualizing the internal structures such as joints, muscles, or blood vessels by ultrasound for diagnosis and treatment, and is widely used in various medical environments today. Compared with other medical image information technology, ultrasound imaging is cheap, and equipment is simple, and medical image can be obtained in real time. Especially, when vein is visualized, it is much better than near infrared ray or visible ray method A clear vein image can be obtained. However, in the conventional ultrasound imaging, only the obtained image information is displayed only on the screen, and thus the accuracy and intuitiveness of the procedure are severely restricted.

본 발명에서는, 획득된 초음파 영상에서 정맥을 분리하여 초음파 프로브와 정맥사이의 상대 좌표를 얻어내고, 초음파 프로브에 부착된 트래커를 스테레오 카메라로 추적하여 초음파 프로브의 3차원 위치를 파악하고, 정맥의 상대 좌표와 초음파 프로브의 3차원 위치를 통합하여 정맥의 3차원 좌표를 산출하고, 산출된 정맥의 3차원 좌표에 대응하는 환자 피부상 위치에 정맥 영상을 투사하는 구성을 통해, 종래의 초음파 영상법의 단점을 극복하고 시술자의 정확성과 직관성을 향상시키는 효과를 달성한다.In the present invention, the vein is separated from the acquired ultrasound image to obtain relative coordinates between the ultrasonic probe and the vein, the tracker attached to the ultrasonic probe is tracked by the stereo camera to determine the three-dimensional position of the ultrasonic probe, Dimensional coordinate of the vein by integrating the coordinate and the three-dimensional position of the ultrasonic probe, and projecting the vein image to the position of the patient's skin corresponding to the calculated three-dimensional coordinates of the vein, Thereby achieving the effect of overcoming the disadvantages and improving the accuracy and intuitiveness of the practitioner.

이하에서는, 첨부된 도면들을 참조하여 더욱 구체적인 실시 예들과 함께 본 발명을 설명한다.
In the following, the present invention will be described in conjunction with more specific embodiments with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른, 가시화 시스템의 상세 구성 및 그것을 통해 피시술자의 체내 구조물 위치를 계산하는 방법을 나타내는 개요도이다. 도 1을 참조하면, 본 발명에 따른 가시화 시스템(1000)은 프로브(100), 중앙처리부(200), 촬영부(300) 및 투사부(400)를 포함한다. 1 is a schematic diagram illustrating a detailed configuration of a visualization system and a method for calculating the position of a body structure of a subject by the method according to an embodiment of the present invention. Referring to FIG. 1, a visualization system 1000 according to the present invention includes a probe 100, a central processing unit 200, a photographing unit 300, and a projection unit 400.

프로브(100)는 피시술자(10)의 신체 내부의 기관, 예를 들어 여기서는 정맥(11)에 대한 초음파 영상을 획득하는 초음파 프로브로서, 피시술자(10)의 피부 위에서 프로브(100)가 스캔되는 방향(101)을 따라 해당 위치의 초음파 영상을 획득한다. 프로브(100)가 획득한 초음파 영상은 중앙처리부(200)에 제공되어, 프로브(100)에 대한 정맥(11)의 상대 위치를 나타내는 정맥의 상대 좌표를 산출하는 데 이용된다.The probe 100 is an ultrasonic probe for acquiring an ultrasound image of an organ in the body of the subject 10 such as the vein 11 in the direction of the scan of the probe 100 on the skin of the subject 10 101 to obtain an ultrasound image at the corresponding position. The ultrasound image obtained by the probe 100 is provided to the central processing unit 200 and used to calculate the relative coordinates of the vein indicating the relative position of the vein 11 with respect to the probe 100. [

한편, 프로브(100)는 프로브의 위치를 추적하기 위한 프로브 트래커(110)를 포함한다. 실시 예로서, 프로브(100)는 프로브 끝에 달린 물주머니를 더 포함할 수 있다. 프로브(100)의 구체적인 구성에 대해서는 도 3에서 더욱 상세히 후술된다. Meanwhile, the probe 100 includes a probe tracker 110 for tracking the position of the probe. As an example, the probe 100 may further include a water pocket attached to the probe tip. The specific configuration of the probe 100 will be described later in more detail in Fig.

촬영부(300)는 프로브(100)의 프로브 트래커(110)를 촬영 또는 추적한다(301). 촬영부(300)는 프로브 트래커(110)의 위치를 명확히 촬영 또는 추적할 수 있는 위치와 각도에 설치되며, 예를 들어, 광학 트래킹 또는 자기 트래킹 방식으로 프로브 트래커(110)를 촬영 또는 추적할 수 있다(301). 촬영부(300)가 광학 트래킹 방식을 이용하는 경우, 프로브 트래커(110)는 광학 트래커가 될 것이다. 반면에, 촬영부(300)가 자기 트래킹 방식을 이용하는 경우, 프로브 트래커(110)는 자기 트래커가 될 것이다. 촬영부(300)가 프로브 트래커(110)의 위치를 촬영 또는 추적한 결과는 중앙처리부(200)에 제공되어, 정맥(11)의 3차원 위치를 산출하는 데 이용된다.The photographing unit 300 photographs or tracks the probe tracker 110 of the probe 100 (301). The photographing unit 300 is installed at a position and an angle capable of clearly photographing or tracking the position of the probe tracker 110 and can photograph or track the probe tracker 110 in an optical tracking or magnetic tracking manner, (301). When the photographing unit 300 uses the optical tracking method, the probe tracker 110 will be an optical tracker. On the other hand, when the photographing unit 300 uses the magnetic tracking method, the probe tracker 110 will be a magnetic tracker. The result of the photographing unit 300 photographing or tracking the position of the probe tracker 110 is provided to the central processing unit 200 and used to calculate the three-dimensional position of the vein 11.

실시 예로서, 촬영부(300)는 프로브 트래커(110)를 촬영하여 영상을 생성하는 스테레오카메라를 포함할 수 있다.As an embodiment, the photographing unit 300 may include a stereo camera that photographs the probe tracker 110 to generate an image.

중앙처리부(200)는 프로브(100) 및 촬영부(300)를 통해 얻어진 영상 정보 또는 추적 정보를 바탕으로, 정맥(11)의 3차원 좌표를 산출한다. The central processing unit 200 calculates the three-dimensional coordinates of the vein 11 based on the image information or the tracking information obtained through the probe 100 and the photographing unit 300.

이를 위해, 중앙처리부(200)는 프로브(100)를 통해 획득한 피시술자(20)의 초음파 영상으로부터 정맥(11)에 상응하는 영역을 분리한 뒤, 프로브(100)에 대한 정맥(11)의 상대 좌표(즉, 정맥(11)을 구성하는 각 지점과 프로브(100) 사이의 상대적인 위치를 나타내는 정맥(11)의 상대 좌표)를 산출한다. 산출된 정맥의 상대 좌표는 정맥(11)의 상대 좌표가 된다. 실시 예로서, 산출된 정맥의 상대 좌표는 2차원 좌표일 수 있다.The central processing unit 200 separates the region corresponding to the vein 11 from the ultrasound image of the subject 20 acquired through the probe 100 and then detects the relative position of the vein 11 with respect to the probe 100 (I.e., the relative coordinates of the vein 11 indicating the relative position between each point constituting the vein 11 and the probe 100). The relative coordinates of the calculated vein are the relative coordinates of the vein 11. As an example, the relative coordinates of the calculated vein may be two-dimensional coordinates.

또한, 중앙처리부(200)는 촬영부(300)가 프로브 트래커(110)를 촬영 또는 추적한 정보(예를 들어, 영상 정보)에 기반하여, 프로브 트래커(110)의 3차원 위치 및 초음파 프로브(100)의 3차원 위치를 결정한다. In addition, the central processing unit 200 may be configured to detect the three-dimensional position of the probe tracker 110 and the position of the ultrasonic probe (e.g., the probe) based on the information (e.g., image information) 100 are determined.

그리고, 중앙처리부(200)는 앞서 산출된 정맥(11)의 상대 좌표와 초음파 프로브(100)의 3차원 위치를 결합하여 정맥(11)의 3차원 좌표를 산출한다(캘러브레이션, calibration). The central processing unit 200 calculates the three-dimensional coordinates of the vein 11 by combining the relative coordinates of the vein 11 calculated previously and the three-dimensional position of the ultrasonic probe 100 (calibration).

투사부(400)는 중앙처리부(200)가 산출한 정맥(11)의 3차원 좌표와 상응하는 피시술자(10)의 피부영역에 정맥 영상을 투사(401)함으로써, 피시술자의 정맥(11)을 가시화한다. 그리고, 시술자는 투사(가시화)된 영상을 시각적으로 관찰하며, 필요한 시술을 수행하게 된다. 투사부(400)의 구성 및 동작에 대해서는 도 2에서 더욱 상세히 후술된다.The projection unit 400 projects (401) the vein image to the skin area of the subject 10 corresponding to the three-dimensional coordinate of the vein 11 calculated by the central processing unit 200, thereby visualizing the vein 11 of the subject do. Then, the practitioner visually observes the projected (visualized) image and performs necessary procedures. The configuration and operation of the projection unit 400 will be described later in more detail in Fig.

한편, 이러한 일련의 동작 및 기능들은 프로브(100)의 움직임에 따라 실시간으로 연속 수행될 수 있다. 예를 들어, 시술자가 피시술자(20)의 피부상에서 프로브(100)를 어떤 방향(101)으로 스캔하면, 스캔되는 방향을 따라 피시술자(20)의 초음파 영상이 획득되고, 동시에 촬영부(300)는 프로브(100)에 부착된 초음파 트래커(110)의 움직임을 촬영 또는 추적한다(301). 이때, 중앙처리부(200)는 프로브(100)를 통해 획득된 초음파 영상에서 정맥(11)에 해당하는 영역을 분리한 뒤, 프로브(100)에 대한 정맥(11)의 상대 좌표를 계산한다. 또한, 중앙 연산부(200)는 촬영부(300)에서 촬영 또는 추적한 정보를 기반으로 프로브 트래커(110) 및 프로브(100)의 3차원 위치를 산출하고, 산출된 프로브(100)의 3차원 위치를 앞서 계산된 정맥(11)의 상대 좌표와 결합하여 정맥(11)이 실제로 위치한 좌표를 나타내는 정맥(11)의 3차원 좌표를 산출한다(캘러브레이션). 그리고, 투사부(400)는 산출된 3차원 좌표에 따라 정맥 영상을 실시간으로 피시술자(10)의 피부상에 투사함으로써(401), 피시술자의 정맥(11)을 가시화한다.Meanwhile, such a series of operations and functions can be continuously performed in real time in accordance with the movement of the probe 100. For example, when a practitioner scans the probe 100 in a certain direction 101 on the skin of the subject 20, the ultrasound image of the subject 20 is acquired along the direction in which the subject is scanned, The movement of the ultrasonic tracker 110 attached to the probe 100 is photographed or tracked (301). At this time, the central processing unit 200 separates the region corresponding to the vein 11 from the ultrasound image acquired through the probe 100, and calculates the relative coordinates of the vein 11 with respect to the probe 100. The central arithmetic unit 200 calculates the three-dimensional positions of the probe tracker 110 and the probe 100 based on the information photographed or tracked by the photographing unit 300, Dimensional coordinates of the vein 11 indicating the coordinates where the vein 11 is actually located is calculated by combining the relative coordinates of the previously calculated vein 11 (calabration). The projection unit 400 projects the vein image on the skin of the subject 10 in real time in accordance with the calculated three-dimensional coordinate (401), and visualizes the vein 11 of the subject.

한편, 프로브(100)의 3차원 위치를 정맥(11)의 상대 좌표와 결합하여 정맥(11)의 3차원 좌표를 산출하는 캘러브레이션 방법으로는 다양한 방법들이 사용될 수 있다. 가령 여기에 적용될 수 있는 일반적인 캘러브레이션 방법으로는, 크로스-와이어 팬텀법(cross-wire phantom, 십자선 환영법), 쓰리-와이어 팬텀법(tree-wire phantom, 3선 환영법), 싱글-월 팬텀법(single-wall phantom, 단일-벽 환영법) 및 캠브리지 팬텀법(cambridge phantom) 등 다양한 방법들이 있으며, 각 캘러브레이션 방법의 특징들을 고려하여 그것들 중 어느 하나를 선택적으로 본 발명에 적용할 수 있다. 각 캘러브레이션 방법들에 대한 구체적인 내용은 당해 기술분야에 널리 알려져 있으므로, 여기서는 그에 대한 상세 설명을 생략한다.Various methods can be used as the calibration method of calculating the three-dimensional coordinates of the vein 11 by combining the three-dimensional position of the probe 100 with the relative coordinates of the vein 11. [ For example, common calibration methods that may be applied here include cross-wire phantom, tree-wire phantom, There are various methods such as a single-wall phantom method and a cambridge phantom method. In consideration of the features of each calibration method, one of them may be selectively applied to the present invention . Details of each of the calibration methods are well known in the art, and detailed description thereof will be omitted here.

도 1에서, 본 발명은 정맥에 대해 3차원 위치를 산출한 후 그에 기반하여 정맥 영상을 가시화하는 것으로 예시하였으나, 본 발명의 범위는 이에 한정되지 않는다. 예를 들어, 본 발명은 정맥 외의 다른 장기나 신체 내부의 종양 등 초음파로 식별 가능한 다양한 체내 구조물이나 체내 구조물을 가시화하는 것에도 적용가능하다.In FIG. 1, the present invention is illustrated by calculating a three-dimensional position of a vein and then visualizing a vein image based on the calculated three-dimensional position. However, the scope of the present invention is not limited thereto. For example, the present invention can be applied to visualizing a variety of internal structures or internal structures that can be recognized by ultrasound, such as other organs other than intravenous or internal organs.

위에서 설명한 구성들에 따르면, 시술자는 피시술자 피부에 투사된 체내 구조물(예를 들어, 정맥) 영상을 보면서 시술을 수행할 수 있으며, 이를 통해 해당 시술의 정확성과 직관성이 크게 향상될 수 있다. According to the above-described configurations, the practitioner can perform the operation while viewing the image of the internal structure (for example, vein) projected on the skin of the recipient, and the accuracy and intuitiveness of the operation can be greatly improved.

또한, 프로브를 통해 탐지된 체내 구조물의 위치를 실시간으로 피시술자의 피부에 투사하므로 영상 정보 표시의 즉각성 및 실시간성이 향상될 수 있으며, 나아가 근적외선이나 가시광선 대신 초음파를 매개로 하므로 피시술자의 체내 구조물을 더욱 명확히 가시화할 수 있다.In addition, since the position of the body structure detected through the probe is projected on the skin of the patient in real time in real time, the immediacy and real time of the display of the image information can be improved. Moreover, since ultrasound waves are used instead of near infrared rays or visible rays, Can be more clearly visualized.

도 2는 도 1에서 계산된 체내 구조물 위치에 따라, 체내 구조물 영상을 피시술자의 피부상에 투사할 때의 동작 방법을 나타내는 개요도이다. 도 2를 참조하면, 가시화 시스템(1000)의 투사부(400)가 투사한 정맥 영상(12)이 피시술자(10)의 피부상에 표시된다. FIG. 2 is a schematic view showing an operation method when an image of an internal structure is projected onto a skin of a subject according to the position of the internal structure calculated in FIG. 1. FIG. Referring to FIG. 2, the vein image 12 projected by the projection unit 400 of the visualization system 1000 is displayed on the skin of the subject 10.

투사부(400)는 중앙처리부(200)에서 계산한 정맥(11)의 실제 3차원 좌표를 기반으로, 그에 상응하는 피시술자(10)의 피부 영역에 정맥 영상(12)을 투사한다(401). 투사부(400)는 영상을 투사할 수 있는 프로젝터 또는 레이저쇼 장비를 포함할 수 있다. 이때, 투사부(400)는 프로젝터 또는 레이저쇼를 대신하여 증강 현실 방식으로 정맥 영상을 제공하는 특수 고글을 더 포함할 수 있다.The projection unit 400 projects the vein image 12 to the skin region of the corresponding subject 10 based on the actual three-dimensional coordinates of the vein 11 calculated by the central processing unit 200 (401). The projection unit 400 may include a projector or laser show equipment capable of projecting an image. At this time, the projection unit 400 may further include a special goggle for providing a vein image in an augmented reality manner instead of a projector or a laser show.

실시 예로서, 투사부(400)는 피시술자(10)의 피부상에 정맥 영상(12)을 투사한 후 별도의 투사 정지 명령이 없는 한, 정맥 영상(12)이 지속적으로 유지되도록 계속 영상을 투사할 수 있다. The projection unit 400 may project the vein image 12 onto the skin of the subject 10 and then continue projecting the image so that the vein image 12 is continuously maintained unless there is a separate projection stop command. can do.

이때, 촬영부(300)는 투사부(400)에 의해 정맥 영상(12)이 피시술자(10)의 피부상에 투사된 후, 투사된 정맥 영상(12)을 촬영하도록(302) 구성될 수 있다. 이를 위해, 촬영부(300)는 피시술자(10)의 피부상에 투사된 정맥 영상(12)을 촬영할 수 있도록, 피시술자(10)의 피부 영역까지 자신의 시야각 내에 담을 수 있는 위치와 각도로 설치된다. 실시 예로서, 촬영부(300)는 복수의 촬영장치를 구비하되, 그중 하나가 프로브 트래커(110)를 촬영하고, 다른 하나가 투사된 정맥 영상(12)을 촬영하도록 구성될 수 있다.  At this time, the photographing unit 300 may be configured to photograph the projected vein image 12 after the vein image 12 is projected onto the skin of the subject 10 by the projecting unit 400 . For this purpose, the photographing unit 300 is installed at an angle and at a position capable of holding the vein image 12 projected onto the skin of the subject 10 to the skin region of the subject 10 . As an embodiment, the photographing unit 300 may be configured to have a plurality of photographing apparatuses, one of which photographs the probe tracker 110 and the other photographs the projected vein image 12. [

중앙처리부(200)는 피시술자(10)의 피부에 투사된 정맥 영상(12)을 촬영부(300)를 통해 실시간으로 모니터링하며, 정맥 영상(12)이 미리 결정된 정도 이상으로 움직이거나 변화했을 경우, 피시술자(10)가 과도하게 움직인 것으로 판단하여 정맥 영상(12)이 더 이상 투사되지 않도록 투사부(400)에 투사 정지 명령을 전달한다.
The central processing unit 200 monitors the vein image 12 projected on the skin of the subject 10 in real time through the photographing unit 300. When the vein image 12 moves or changes beyond a predetermined degree, It is determined that the subject 10 has moved excessively and a projection stop command is transmitted to the projection unit 400 so that the vein image 12 is not projected any more.

도 3은 도 1에 도시된 프로브의 상세 구성을 도시하는 측면도이다. 도 3을 참조하면, 프로브(100)는 프로브 트래커(110), 물주머니(120) 및 본체(130)를 포함한다.3 is a side view showing a detailed configuration of the probe shown in Fig. Referring to FIG. 3, the probe 100 includes a probe tracker 110, a water pocket 120, and a body 130.

프로브 트래커(110)는 프로브(100)의 위치 추적을 위한 트래커로서 광학적 방식으로 동작하는 광학 트래커 또는 자기적 방식으로 동작하는 자기 트래커일 수 있다. 프로브 트래커(110)는 촬영부(300)에 의해 촬영 또는 감지되는 하나 이상의 센싱 유닛(111)을 포함한다. 실시 예로서, 프로브 트래커(110)는 적어도 세 개의 센싱 유닛(111)을 포함할 수 있다. 프로브 트래커(110)는 프로브(100)의 본체(130) 상의 임의의 지점에 부착된다.The probe tracker 110 may be an optical tracker that operates optically as a tracker for tracking the position of the probe 100, or a magnetic tracker that operates magnetically. The probe tracker 110 includes at least one sensing unit 111 that is photographed or sensed by the photographing unit 300. In an embodiment, the probe tracker 110 may include at least three sensing units 111. The probe tracker 110 is attached to any point on the body 130 of the probe 100.

물주머니(120)는 프로브(100)의 사용 목적에 따라, 프로브(100)의 끝단에 부착된다. 물주머니(120)는 예를 들어 프로브(100)가 초음파 영상을 스캔할 때, 초음파 신호의 전달을 용이하게 하기 위해 프로브(100)의 끝단에 부착될 수 있다.The water bag 120 is attached to the end of the probe 100 according to the purpose of use of the probe 100. The water bag 120 may be attached to the end of the probe 100 to facilitate the transmission of ultrasonic signals, for example, when the probe 100 scans an ultrasound image.

본체(130)는 프로브(100)의 구조를 형성 및 지지하는 구조물로서, 본체(130) 상의 특정 지점에 프로브 트래커(110) 및 물주머니(120)가 부착될 수 있다. 실시 예로서, 본체(130)는 프로브(100) 조작을 제어하기 위한 제어 스위치(미도시)를 더 포함할 수 있다.
The body 130 is a structure for forming and supporting the structure of the probe 100. The probe tracker 110 and the water pocket 120 may be attached to specific points on the body 130. As an embodiment, the main body 130 may further include a control switch (not shown) for controlling the operation of the probe 100.

도 4는 본 발명의 다른 실시 예에 따른, 가시화 시스템의 상세 구성을 도시하는 사시도이다. 도 4의 가시화 시스템(2000)에서, 하나의 하드웨어 장치 내에 촬영부(2300), 투사부(2400) 및 중앙처리부(2200)가 함께 통합적으로 구비될 수 있다. 이때, 프로브(2100)는 통합 장치에 함께 포함될 수도 있고, 통합 장치와는 별개로 분리될 수도 있다. 4 is a perspective view showing a detailed configuration of a visualization system according to another embodiment of the present invention. In the visualization system 2000 of FIG. 4, the imaging unit 2300, the projection unit 2400, and the central processing unit 2200 may be integrated together in one hardware device. At this time, the probe 2100 may be included in the integration device or may be separated from the integration device.

도 4에 도시된 가시화 시스템(2000)의 프로브(2100), 중앙처리부(2200), 촬영부(2300) 및 투사부(2400)의 구체적인 기능 및 동작은 도 1에 도시된 가시화 시스템(1000)의 프로브(100), 중앙처리부(200), 촬영부(300) 및 투사부(400)의 기능 및 동작과 실질적으로 동일하다. 다만, 도 4에서는 이러한 구성들이 하나의 통합 장치로 구성되는 것만이 상이하다.The concrete functions and operations of the probe 2100, the central processing unit 2200, the photographing unit 2300 and the projection unit 2400 of the visualization system 2000 shown in FIG. 4 are the same as those of the visualization system 1000 shown in FIG. 1 The functions and operations of the probe 100, the central processing unit 200, the photographing unit 300, and the projection unit 400 are substantially the same. However, in FIG. 4, these configurations are different only in that they are constituted by one integrated device.

실시 예로서, 도 4의 가시화 시스템(2000)은 프로브(2100)에 의해 스캔되거나 투사부(2400)에 의해 정맥 영상이 투사될 피시술자의 신체 일부를 거치 또는 지지하는 테이블(2510) 및 통합 장치를 이동시키기 위한 이동용 바퀴(2520)를 더 포함한다.
As an example, the visualization system 2000 of FIG. 4 includes a table 2510 for holding or supporting a body part of a subject to be scanned by the probe 2100 or to which a vein image is to be projected by the projection unit 2400, And a moving wheel 2520 for moving the wheel.

도 5는 도 4에 도시된 가시화 시스템이 피시술자의 체내 구조물 영상을 가시화하는 방법을 나타내는 측면도이다.  FIG. 5 is a side view showing a method of visualizing an image of a body structure of a subject by the visualization system shown in FIG. 4. FIG.

도 5의 실시 예에서, 피시술자(10)가 테이블(2510) 위에 자신의 신체 일부(예를 들어, 상완)을 올려놓으면, 프로브(2100)는 테이블(2510) 위에 올려진 신체 일부를 스캔하여 초음파 영상을 획득하고, 촬영부(2300)는 프로브(2100) 또는 프로브 트래커(2110)의 위치를 촬영 또는 추적한다(2301). 그리고, 중앙처리부(2200)는 초음파 영상 및 촬영/추적된 프로브(2100)의 위치에 기반하여 피시술자(10)의 정맥의 3차원 좌표를 산출하고, 투사부(2400)는 그에 따라 테이블(2510) 위에 올려진 피시술자의 신체 일부에 정맥 영상을 투사하는 방식으로(2401), 피시술자(10)의 정맥을 가시화한다.5, when the subject 10 places his body part (e.g., upper arm) on the table 2510, the probe 2100 scans a part of the body placed on the table 2510 to produce ultrasound And the photographing section 2300 photographs or tracks the position of the probe 2100 or the probe tracker 2110 (2301). The central processing unit 2200 calculates the three-dimensional coordinates of the vein of the subject 10 based on the position of the ultrasound image and the captured / traced probe 2100. The projection unit 2400 calculates the three- (2401) the vein image of the subject 10 is projected by projecting the vein image onto a part of the body of the subject.

이때, 촬영부(2300)는 테이블(2510)에 올려진 피시술자(10)의 신체 일부를 자신의 시야각에 충분히 포함하도록 구성되며, 투사부(2400)는 테이블(2510)에 올려진 피시술자(10)의 신체 일부가 자신의 투사각에 충분히 포함되도록 구성된다.The projection unit 2400 is configured to project a part of the body 10 of the subject 10 that is put on the table 2510 to the perspective of the subject 10, Of the body is fully contained in the angle of its own projection.

한편, 가시화 시스템(2000)의 구성, 동작 및 기능에 대해 여기서 설명되지 않은 것들은 앞서 설명된 가시화 시스템(1000)의 구성, 동작 및 기능과 그 내용이 실질적으로 동일하다.
Meanwhile, components, operations, and functions of the visualization system 2000 that are not described here are substantially the same as those of the configuration, operation, and function of the visualization system 1000 described above.

도 6은 본 발명의 또 다른 실시 예에 따른, 가시화 시스템의 상세 구성 및 그것을 통해 피시술자의 체내 구조물 위치를 계산하는 방법을 나타내는 개요도이다. 도 6에서는, 본 발명에 따른 가시화 시스템(3000)이 정맥 이외의 다양한 체내 구조물을 가시화할 수 있도록 확장된다. 6 is a schematic diagram illustrating a detailed configuration of a visualization system and a method of calculating the position of a body structure of a subject by the visualization system according to another embodiment of the present invention. In FIG. 6, the visualization system 3000 according to the present invention is extended to allow various non-vein structures to be visualized.

도 6에서, 가시화 시스템(3000)은 앞서 설명한 경우와 유사하게, 프로브(3100), 중앙처리부(3200), 촬영부(3300) 및 투사부(3400)를 포함한다. 6, the visualization system 3000 includes a probe 3100, a central processing unit 3200, a photographing unit 3300, and a projection unit 3400, similar to the case described above.

도 6의 실시 예에서, 가시화 시스템(3000)은 프로브(3100)를 통해 피시술자(10)의 체내 구조물(13)에 대한 초음파 영상을 획득하고, 중앙처리부(3200)를 통해 획득된 초음파 영상에서 체내 구조물(13)에 상응하는 영역을 분리한 후 프로브(3100)에 대한 체내 구조물(13)의 상대 좌표를 산출한다. 그리고, 촬영부(3300)를 통해 프로브 트래커(3100)를 촬영 또는 추적하여(3301) 프로브(3100)의 3차원 위치를 획득하고, 획득한 프로브(3100)의 3차원 위치를 체내 구조물(13)의 상대 좌표와 결합(또는, 캘러브레이션)하여 체내 구조물(13)의 3차원 좌표를 산출한다.6, the visualization system 3000 acquires an ultrasound image of the body structure 13 of the subject 10 through the probe 3100 and acquires ultrasound images from the ultrasound image acquired through the central processing unit 3200 The relative coordinates of the body structure 13 with respect to the probe 3100 are calculated after the region corresponding to the structure 13 is separated. Then, the probe tracker 3100 is photographed or traced (3301) through the photographing unit 3300 to acquire the three-dimensional position of the probe 3100, and the three-dimensional position of the obtained probe 3100 is transmitted to the body structure 13 (Or calaboration) with the relative coordinates of the body structure 13 to calculate the three-dimensional coordinates of the body structure 13. [

한편, 도 6의 가시화 시스템(3000)은 시술자의 눈동자를 추적하여, 시술자의 시선에 대한 정보를 제공하는 특수한 시술자용 고글(3500)을 더 포함한다. 그리고, 중앙처리부(3200)는 피시술자(10)의 획득된 초음파 영상에서 피시술자(10)의 피부에 상응하는 영역을 별도로 분리한 후, 그로부터 프로브(3100)에 대한 피시술자(10) 피부의 상대 좌표를 더 산출한다. 그리고, 중앙처리부(3200)는 체내 구조물(13)의 경우와 마찬가지로, 피시술자(10) 피부의 상대 좌표 및 프로브(3100)의 3차원 위치에 기반하여 피시술자(10) 피부의 3차원 좌표를 산출한다.Meanwhile, the visualization system 3000 of FIG. 6 further includes a specialist goggles 3500 for tracking the operator's eyes and providing information on the operator's gaze. The central processing unit 3200 separates the region corresponding to the skin of the subject 10 from the acquired ultrasound image of the subject 10 and then extracts the relative coordinates of the skin of the subject 10 with respect to the probe 3100 More. The central processing unit 3200 calculates the three-dimensional coordinates of the subject's skin 10 based on the relative coordinates of the subject's skin and the three-dimensional position of the probe 3100, as in the case of the body structure 13 .

가령, 체내 장기나 종양과 같이 정맥 외의 다른 체내 구조물을 가시화하는 경우, 가시화할 체내 구조물이 정맥과 달리 피시술자의 몸속 깊은 곳에 위치할 수 있다. 이때, 시술자의 시선과 피시술자의 피부 높이를 함께 고려하여 의료 영상을 투사하면, 체내 구조물의 깊이에 의한 오차를 줄일 수 있기 때문에 체내 구조물의 정확한 가시화에 도움이 된다.For example, in the case of visualizing other intravenous structures such as internal organs or tumors, the internal structures to be visualized may be located deep within the body of the recipient, unlike veins. In this case, if the medical image is projected by considering the operator's gaze and the skin height of the recipient, the error due to the depth of the internal structure can be reduced, which is helpful for accurate visualization of the internal structure.

도 6에서, 시술자용 고글(3500)에는 시술자용 고글(3500)의 위치를 촬영 또는 추적(3302)하기 위한 고글 트래커(3510)가 부착되며, 시술이 진행되는 동안 시술자용 고글(3500)에 포함된 시선 트래커(3520)는 시술자(20)의 눈동자를 실시간으로 추적하여 시술자(20)의 눈동자 위치를 획득한다. 이때, 촬영부(3300)는 시술자용 고글(3500)에 부착된 고글 트래커(3510)까지 자신의 시야각 내에 담을 수 있는 위치와 각도로 설치된다. 실시 예로서, 촬영부(3300)는 복수의 촬영장치를 구비하되, 그중 하나가 프로브 트래커(3110)를 촬영하고, 다른 하나가 시술자용 특수 고글(3500)을 촬영하도록 구성될 수 있다. 6, a goggle tracker 3510 for photographing or tracking (3302) the position of the operator's goggles 3500 is attached to the operator's goggles 3500, and is inserted into the operator's goggles 3500 during the procedure The gaze tracker 3520 traces the pupil of the practitioner 20 in real time to acquire the pupil position of the practitioner 20. At this time, the photographing unit 3300 is installed at a position and an angle so that the goggle tracker 3510 attached to the operator goggles 3500 can be contained within the viewing angle. As an embodiment, the photographing section 3300 may have a plurality of photographing apparatuses, one of which may photograph the probe tracker 3110 and the other photographs the specialist goggles 3500 for a practitioner.

중앙처리부(3200)는 촬영부(3300)를 통해 고글 트래커(3510)를 촬영 또는 추적하여(3302) 통해 시술자용 고글(3500)의 3차원 위치를 획득한다. 그리고, 획득한 시술자용 고글(3500)의 3차원 위치와 함께 시선 트래커(3520)를 통해 얻어진 시술자(20)의 눈동자 위치를 참조하여, 시술자(20)의 시선 정보를 산출한다. The central processing unit 3200 captures or tracks the goggle tracker 3510 through the photographing unit 3300 to obtain the three-dimensional position of the goggle 3500 for the operator. The visual information of the practitioner 20 is calculated by referring to the pupil position of the practitioner 20 obtained through the visual tracker 3520 together with the obtained three-dimensional position of the operator's goggles 3500.

그리고, 중앙처리부(3200)는 산출된 시술자(20)의 시선 정보 및 피시술자(10)의 피부의 3차원 좌표에 따라, 앞서 산출된 체내 구조물(13)의 3차원 좌표를 시술자(20)의 시선에 맞게 변환 또는 수정한다.
The central processing unit 3200 calculates the three-dimensional coordinates of the body structure 13 calculated in advance based on the visual information of the practitioner 20 and the three-dimensional coordinates of the skin of the subject 10, Converting or modifying it to fit.

도 7은 도 6에서 계산된 체내 구조물 위치에 따라, 체내 구조물 영상을 피시술자의 피부상에 투사할 때의 동작 방법을 나타내는 개요도이다.FIG. 7 is a schematic view showing an operation method when an image of an internal structure is projected onto a skin of a client according to the position of an internal structure calculated in FIG. 6. FIG.

도 7에서, 투사부(3400)는 중앙처리부(3200)가 시술자(20)의 시선(3501)에 맞게 변환한 체내 구조물(13)의 3차원 좌표에 기반하여, 피시술자(10)의 피부상에 체내 구조물의 영상(14)을 투사한다(3401).7, the projection unit 3400 is provided on the skin of the subject 10, based on the three-dimensional coordinates of the body structure 13 converted by the central processing unit 3200 in accordance with the sight 3501 of the practitioner 20 The image 14 of the body structure is projected (3401).

투사부(3400)는 영상을 투사할 수 있는 프로젝터 또는 레이저쇼 장비를 포함할 수 있다. 실시 예로서, 투사부(3400)는 피시술자(10)의 피부상에 체내 구조물의 영상(14)을 투사한 후 별도의 투사 정지 명령이 없는 한, 체내 구조물의 영상(14)이 지속적으로 유지되도록 계속 영상을 투사할 수 있다. The projection unit 3400 may include a projector or laser show equipment capable of projecting an image. The projection unit 3400 may be configured to project the image 14 of the body structure onto the skin of the subject 10 so that the image 14 of the body structure is continuously maintained unless a separate projection stop command is issued The image can be continuously projected.

이때, 투사부(3400)에 의해 체내 구조물의 영상(14)이 피시술자(10)의 피부상에 투사된 후, 촬영부(3300)는 투사된 영상(14)을 촬영할 수 있다(3303). 이를 위해, 촬영부(3300)는 피시술자(10)의 피부상에 투사된 체내 구조물의 영상(14)을 촬영할 수 있도록, 피시술자(10)의 피부 영역까지 자신의 시야각 내에 담을 수 있는 위치와 각도로 설치된다. 실시 예로서, 촬영부(3300)는 투사된 체내 구조물의 영상(14)을 촬영하기 위한 별도의 촬영수단 또는 카메라을 포함할 수 있다.At this time, after the image 14 of the body structure is projected on the skin of the subject 10 by the projecting unit 3400, the photographing unit 3300 can take the projected image 14 (3303). For this purpose, the photographing unit 3300 is disposed at a position and an angle that allows the photographing unit 3300 to capture the image of the body structure 14 projected onto the skin of the subject 10 to the skin region of the subject 10 Respectively. As an embodiment, the photographing section 3300 may include a separate photographing means or a camera for photographing the image 14 of the projected body structure.

중앙처리부(3200)는 피시술자(10)의 피부에 투사된 영상(14)을 촬영부(3300)를 통해 실시간으로 모니터링하며, 투사된 체내 구조물의 영상(14)이 미리 결정된 정도 이상으로 움직이거나 변화했을 경우, 피시술자(10)가 과도하게 움직인 것으로 판단하여 더 이상 영상을 투사하지 않도록 투사부(3400)에 투사 정지 명령을 전달한다.
The central processing unit 3200 monitors the image 14 projected on the skin of the subject 10 in real time through the photographing unit 3300 and detects that the image 14 of the projected body structure is moving , It is determined that the subject 10 has moved excessively and a projection stop command is transmitted to the projection unit 3400 so that the image is no longer projected.

도 8은 본 발명의 일 실시 예에 따른, 사람의 체내 구조물을 가시화하는 가시화 방법을 개략적으로 나타내는 순서도이다. 도 8을 참조하면, 가시화 시스템의 가시화 방법은 S110 단계 내지 S140 단계를 포함한다.8 is a flowchart schematically showing a visualization method for visualizing a human body structure according to an embodiment of the present invention. Referring to FIG. 8, the visualization method of the visualization system includes steps S110 to S140.

S110 단계에서, 가시화 시스템(1000, 도 1 참조)은 먼저 프로브로 피시술자의 신체를 스캔한다. In step S110, the visualization system 1000 (see FIG. 1) first scans the physician's body with a probe.

S120 단계에서, 가시화 시스템(1000)은 앞서 스캔된 영역에 대한 초음파 영상을 획득한다. 초음파 영상에는 피시술자의 정맥, 장기, 종양 등을 비롯한 체내 구조물에 대한 영상 정보 및 피시술자의 피부에 대한 영상 정보가 포함될 수 있다.In step S120, the visualization system 1000 acquires an ultrasound image for the previously scanned area. The ultrasound image may include image information about an internal body structure including a vein, an organ, a tumor, and the like of the subject, and image information about the skin of the subject.

S130 단계에서, 가시화 시스템(1000)은 획득된 초음파 영상으로부터 가시화할 피시술자의 체내 구조물에 상응하는 영역을 분리하고, 분리된 영역으로부터 피시술자의 체내 구조물의 프로브에 대한 상대 좌표를 산출한다. 그리고, 프로브 트래커의 위치를 촬영 또는 추적하여 프로브의 3차원 좌표를 획득한다. In operation S 130, the visualization system 1000 separates the region corresponding to the body structure of the subject to be visualized from the obtained ultrasound image, and calculates the relative coordinates of the body structure of the subject with respect to the probe from the separated region. Then, the position of the probe tracker is photographed or tracked to acquire the three-dimensional coordinates of the probe.

그리고, 가시화 시스템(1000)은 산출 또는 획득된 체내 구조물의 상대 좌표와 프로브의 3차원 좌표를 결합(캘러브레이션)하여, 체내 구조물의 3차원 좌표를 산출한다.Then, the visualization system 1000 combines (coordinates) the relative coordinates of the body structure or the three-dimensional coordinates of the probe, which are calculated or obtained, and calculates the three-dimensional coordinates of the body structure.

실시 예로서, 이때 체내 구조물은 피시술자의 정맥, 장기 또는 종양과 같은 피시술자의 체내에 위치한 기관(organ)들 중 어느 하나일 수 있다.By way of example, the body structure may be any one of the organs located within the body of the recipient, such as the vein, organs or tumor of the recipient.

S140 단계에서, 가시화 시스템(1000)은 산출된 체내 구조물의 3차원 좌표에 따라, 체내 구조물의 영상을 피시술자의 피부상에 투사한다. In step S140, the visualization system 1000 projects an image of the body structure on the skin of the subject according to the calculated three-dimensional coordinates of the body structure.

실시 예로서, 이때, 가시화 시스템(1000)은 도 7 및 도 8에서 설명된 방법과 같이 시술자용 고글을 통해 시술자의 시선을 계산한 후, 계산된 시술자의 시선에 따라 체내 구조물의 3차원 좌표를 변환 또는 수정하고, 변환 또는 수정된 체내 구조물의 3차원 좌표를 피시술자의 피부상에 투사할 수 있다.As an embodiment, the visualization system 1000 calculates the operator's gaze through the operator's goggles as shown in FIGS. 7 and 8, and then calculates the three-dimensional coordinates of the body structure according to the gaze of the operator Transformed or modified, and the three-dimensional coordinates of the transformed or modified body structure can be projected onto the skin of the recipient.

위에서 설명한 구성들에 따르면, 시술자는 피시술자 피부에 투사된 체내 구조물(예를 들어, 정맥) 영상을 보면서 시술을 수행할 수 있으며, 이를 통해 해당 시술의 정확성과 직관성이 크게 향상될 수 있다. According to the above-described configurations, the practitioner can perform the operation while viewing the image of the internal structure (for example, vein) projected on the skin of the recipient, and the accuracy and intuitiveness of the operation can be greatly improved.

또한, 프로브를 통해 탐지된 체내 구조물의 위치를 실시간으로 피시술자의 피부에 투사하므로 영상 정보 표시의 즉각성 및 실시간성이 향상될 수 있으며, 나아가 근적외선이나 가시광선 대신 초음파를 매개로 하므로 피시술자의 체내 구조물을 더욱 명확히 가시화할 수 있다.
In addition, since the position of the body structure detected through the probe is projected on the skin of the patient in real time in real time, the immediacy and real time of the display of the image information can be improved. Moreover, since ultrasound waves are used instead of near infrared rays or visible rays, Can be more clearly visualized.

본 발명의 상세한 설명에서는 구체적인 실시 예를 들어 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한 각 실시 예는 여러 가지 형태로 변형될 수 있다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments.

또한, 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 발명의 범위는 상술한 실시 예에 한정되는 것은 아니며, 첨부된 특허 청구범위에서 제시되는 바에 따라 정해져야 한다.
In addition, although specific terms are used herein, they are used for the purpose of describing the present invention only and are not used to limit the scope of the present invention described in the claims or the claims. Therefore, the scope of the present invention should not be limited to the above-described embodiments, but should be determined as set forth in the appended claims.

1000, 2000, 3000: 가시화 시스템 100, 2100, 3100: 프로브
200, 2200, 3200: 중앙처리부 300, 2300, 3300: 촬영부
400, 2400, 3400: 투사부 110, 3110, 3510: 트래커
120: 물주머니 130: 프로브 본체
2510: 테이블 2520: 이동용 바퀴
3500: 시술자용 고글 3510: 시선 감지기
11, 13: 체내 구조물 12, 14: 투사 영상
1000, 2000, 3000: visualization system 100, 2100, 3100: probe
200, 2200, 3200: central processing unit 300, 2300, 3300:
400, 2400, 3400: projecting unit 110, 3110, 3510:
120: water pocket 130: probe body
2510: Table 2520: Mobile wheels
3500: Operator's Goggles 3510: Eye Detector
11, 13: internal structure 12, 14: projection image

Claims (11)

피시술자의 신체 중 적어도 일부를 스캔하여 상기 피시술자의 체내 구조물에 대한 초음파 영상을 획득하는 프로브;
상기 프로브의 위치 정보를 제공하기 위한 프로브 트래커;
상기 프로브 트래커를 촬영하거나 상기 프로브 트래커의 위치를 추적하는 촬영부;
상기 프로브에 대한 상기 체내 구조물의 상대 좌표를 상기 초음파 영상으로부터 산출하고, 상기 촬영부를 통해 획득된 상기 프로브의 위치 정보 및 상기 산출된 상대 좌표에 기반하여 상기 체내 구조물의 3차원 좌표를 산출하는 중앙처리부; 및
상기 체내 구조물의 3차원 좌표를 참조하여, 상기 피시술자의 피부상에 상기 체내 구조물의 영상을 투사하는 투사부를 포함하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
A probe which scans at least a part of the body of the subject and acquires an ultrasound image of the internal structure of the subject;
A probe tracker for providing position information of the probe;
A photographing unit photographing the probe tracker or tracking the position of the probe tracker;
A central processing unit for calculating the relative coordinates of the body structure with respect to the probe from the ultrasound image and calculating the three-dimensional coordinates of the body structure based on the positional information of the probe obtained through the imaging unit and the calculated relative coordinates, ; And
And a projection unit for projecting an image of the body structure on the skin of the subject by referring to the three-dimensional coordinates of the body structure.
제 1 항에 있어서,
상기 프로브 트래커는 상기 프로브에 부착되고,
상기 프로브에는 상기 초음파 영상의 획득을 용이하게 하는 물주머니가 더 부착되는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
The method according to claim 1,
Wherein the probe tracker is attached to the probe,
Wherein the probe is further provided with a water bladder for facilitating acquisition of the ultrasound image.
제 2 항에 있어서,
상기 프로브 트래커는 광학 트래킹 방식으로 상기 프로브의 위치 정보를 제공하는 광학 트래커 또는 자기 트래킹 방식으로 상기 프로브의 위치 정보를 제공하는 자기 트래커인, 사람의 체내 구조물을 가시화하는 가시화 시스템.
3. The method of claim 2,
Wherein the probe tracker is an optical tracker that provides position information of the probe in an optical tracking manner or a magnetic tracker that provides position information of the probe in a magnetic tracking manner.
제 1 항에 있어서,
상기 중앙처리부는 상기 초음파 영상으로부터 상기 체내 구조물에 상응하는 영역을 분리하고, 상기 분리된 영역을 참조하여 상기 체내 구조물의 상기 상대 좌표를 산출하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
The method according to claim 1,
Wherein the central processing unit separates a region corresponding to the body structure from the ultrasound image and calculates the relative coordinates of the body structure with reference to the separated region.
제 1 항에 있어서,
상기 촬영부는 상기 투사부에 의해 상기 피시술자의 피부상에 투사된 상기 체내 구조물의 영상을 더 촬영하고,
상기 중앙처리부는 상기 촬영부에 의해 촬영된 상기 체내 구조물의 영상을 모니터링하되, 상기 모니터링되는 상기 체내 구조물의 영상이 미리 결정된 정도 이상으로 움직이거나 변화한 경우 상기 체내 구조물의 영상이 더 이상 투사되지 않도록 상기 투사부를 제어하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
The method according to claim 1,
Wherein the photographing unit further photographs the image of the internal structure projected on the skin of the subject by the projection unit,
Wherein the central processing unit monitors an image of the body structure photographed by the photographing unit so that the image of the body structure is no longer projected when the monitored image of the body structure moves or changes by a predetermined degree or more And controls the projection unit to visualize a human body structure.
제 1 항에 있어서,
상기 촬영부, 상기 중앙처리부 및 상기 투사부는 하나의 하드웨어 장치에 내장되는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
The method according to claim 1,
Wherein the imaging unit, the central processing unit, and the projection unit are built in one hardware device, the visualization system for visualizing a human body structure.
제 1 항에 있어서,
상기 피시술자에 대한 시술을 수행하는 시술자의 눈동자 위치를 감지하는 고글; 및
상기 고글의 위치 정보를 제공하기 위한 고글 트래커를 더 포함하고,
상기 중앙처리부는 상기 고글을 통해 감지되는 상기 시술자의 눈동자 위치 및 상기 고글 트래커를 이용하여 획득되는 상기 고글의 위치 정보에 따라, 상기 시술자의 시선 정보를 산출하고, 상기 산출된 시술자의 시선 정보를 참조하여 상기 체내 구조물의 상기 3차원 좌표를 변환 또는 조정하고,
상기 투사부는 상기 변환 또는 조정된 상기 체내 구조물의 상기 3차원 좌표에 따라, 상기 피시술자의 피부상에 상기 체내 구조물의 영상을 투사하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
The method according to claim 1,
A goggle for sensing a pupil position of a practitioner performing a procedure on the subject; And
Further comprising a goggle tracker for providing position information of the goggles,
The central processing unit may calculate gaze information of the operator according to the pupil position of the operator sensed through the goggles and the position information of the goggles obtained using the goggle tracker, The three-dimensional coordinates of the body structure are converted or adjusted,
Wherein the projection unit projects an image of the internal structure on the skin of the subject according to the three-dimensional coordinates of the converted or adjusted body structure.
제 7 항에 있어서,
상기 중앙처리부는 상기 초음파 영상으로부터 상기 피시술자의 피부에 상응하는 피부 영역을 분리하고, 상기 분리된 피부 영역 및 상기 프로브의 위치 정보를 참조하여 상기 피부의 3차원 좌표를 산출하고, 상기 시술자의 시선 정보와 함께 상기 피부의 3차원 좌표를 더 참조하여 상기 체내 구조물의 상기 3차원 좌표를 변환 또는 조정하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
8. The method of claim 7,
The central processing unit separates a skin region corresponding to the skin of the subject from the ultrasound image, calculates three-dimensional coordinates of the skin by referring to the separated skin region and the position information of the probe, Dimensional coordinate of the body structure with reference to the three-dimensional coordinates of the skin together with the three-dimensional coordinates of the skin.
제 7항에 있어서,
상기 촬영부는 상기 고글의 위치 정보를 상기 중앙처리부에 제공하기 위해, 상기 고글 트래커를 촬영하거나 상기 고글 트래커의 위치를 추적하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
8. The method of claim 7,
Wherein the photographing unit photographs the goggle tracker or tracks the position of the goggle tracker to provide the position information of the goggle to the central processing unit.
제 1항에 있어서,
상기 체내 구조물은 상기 피시술자의 정맥, 장기 또는 종양을 포함하는, 사람의 체내 구조물을 가시화하는 가시화 시스템.
The method according to claim 1,
Wherein the in-vivo structure includes a vein, an organ, or a tumor of the subject.
프로브로 피시술자의 신체 중 적어도 일부를 스캔하여 상기 피시술자의 체내 구조물에 대한 초음파 영상을 획득하는 단계;
상기 획득된 초음파 영상으로부터 상기 체내 구조물에 상응하는 영역을 분리하고, 상기 분리된 영역에 기반하여 상기 프로브에 대한 상기 체내 구조물의 상대 좌표를 산출하는 단계;
상기 프로브에 부착된 프로브 트래커를 촬영하거나 상기 프로브 트래커의 위치를 추적하여 상기 프로브의 위치 정보를 획득하는 단계;
상기 획득된 상기 프로브의 위치 정보 및 상기 산출된 상기 상대 좌표에 기반하여 상기 체내 구조물의 3차원 좌표를 산출하는 단계; 및
상기 체내 구조물의 3차원 좌표를 참조하여, 상기 피시술자의 피부상에 상기 체내 구조물의 영상을 투사하는 단계를 포함하는, 사람의 체내 구조물을 가시화하는 가시화 방법.
Scanning at least a part of the body of the subject with a probe to obtain an ultrasound image of the body structure of the subject;
Separating a region corresponding to the body structure from the obtained ultrasound image and calculating relative coordinates of the body structure with respect to the probe based on the separated region;
Capturing a probe tracker attached to the probe or tracking the position of the probe tracker to obtain position information of the probe;
Calculating three-dimensional coordinates of the body structure based on the obtained position information of the probe and the calculated relative coordinates; And
And projecting an image of the body structure onto the skin of the subject by referring to the three-dimensional coordinates of the body structure.
KR1020140058318A 2014-05-15 2014-05-15 Visualization system and method for visualizing inner objects of human KR101635731B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140058318A KR101635731B1 (en) 2014-05-15 2014-05-15 Visualization system and method for visualizing inner objects of human

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140058318A KR101635731B1 (en) 2014-05-15 2014-05-15 Visualization system and method for visualizing inner objects of human

Publications (2)

Publication Number Publication Date
KR20150131536A KR20150131536A (en) 2015-11-25
KR101635731B1 true KR101635731B1 (en) 2016-07-05

Family

ID=54845358

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140058318A KR101635731B1 (en) 2014-05-15 2014-05-15 Visualization system and method for visualizing inner objects of human

Country Status (1)

Country Link
KR (1) KR101635731B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112155596B (en) * 2020-10-10 2023-04-07 达闼机器人股份有限公司 Ultrasonic diagnostic apparatus, method of generating ultrasonic image, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003505132A (en) 1999-07-23 2003-02-12 ユニバーシティ・オブ・フロリダ Ultrasound guidance of target structures for medical procedures
KR100726028B1 (en) 2005-12-14 2007-06-08 한양대학교 산학협력단 Augmented reality projection system of affected parts and method therefor
JP2011200533A (en) 2010-03-26 2011-10-13 Fujifilm Corp Ultrasonic diagnostic apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100049849A (en) * 2008-11-04 2010-05-13 주식회사 메디슨 Ultrasound diagnostic system and medical diagnostic system for providing position information of medical instrument

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003505132A (en) 1999-07-23 2003-02-12 ユニバーシティ・オブ・フロリダ Ultrasound guidance of target structures for medical procedures
KR100726028B1 (en) 2005-12-14 2007-06-08 한양대학교 산학협력단 Augmented reality projection system of affected parts and method therefor
JP2011200533A (en) 2010-03-26 2011-10-13 Fujifilm Corp Ultrasonic diagnostic apparatus

Also Published As

Publication number Publication date
KR20150131536A (en) 2015-11-25

Similar Documents

Publication Publication Date Title
KR101572487B1 (en) System and Method For Non-Invasive Patient-Image Registration
US20220192611A1 (en) Medical device approaches
JP6242569B2 (en) Medical image display apparatus and X-ray diagnostic apparatus
RU2740259C2 (en) Ultrasonic imaging sensor positioning
JP3707830B2 (en) Image display device for surgical support
CN109124764A (en) Guide device of performing the operation and surgery systems
CN106687046A (en) Guiding system for positioning a patient for medical imaging
JP6116754B2 (en) Device for stereoscopic display of image data in minimally invasive surgery and method of operating the device
KR102214637B1 (en) Imaging system for medical image and method of driving the same
KR101458585B1 (en) Radiopaque Hemisphere Shape Maker for Cardiovascular Diagnosis and Procedure Guiding Image Real Time Registration
WO2018235533A1 (en) Medical imaging system, method and computer program product
JP6112689B1 (en) Superimposed image display system
JP4491420B2 (en) Surgery support device and surgery support imaging device
US20170055844A1 (en) Apparatus and method for acquiring object information
CN110584782B (en) Medical image processing method, medical image processing apparatus, medical system, computer, and storage medium
KR102476832B1 (en) User terminal for providing augmented reality medical image and method for providing augmented reality medical image
KR101485899B1 (en) Image matching method between computed tomography angiography image and X-Ray angiography image based on hemisphere shaped radiopaque 3D Marker
JP2022502126A (en) Breast mapping and abnormal localization
KR101687934B1 (en) Operating electronic medical navigation system and method using the splinter
KR101635731B1 (en) Visualization system and method for visualizing inner objects of human
KR20160057024A (en) Markerless 3D Object Tracking Apparatus and Method therefor
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
JP2011156286A (en) Ultrasonic diagnosis apparatus and ultrasonic image displaying program
KR101485900B1 (en) Image matching method between computed tomography angiography image and X-Ray angiography image based on hemisphere shaped radiopaque 3D Marker
JP2011050583A (en) Medical diagnostic apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant