KR20080042334A - Ultrasound system and method for forming ultrasound image - Google Patents

Ultrasound system and method for forming ultrasound image Download PDF

Info

Publication number
KR20080042334A
KR20080042334A KR1020060110605A KR20060110605A KR20080042334A KR 20080042334 A KR20080042334 A KR 20080042334A KR 1020060110605 A KR1020060110605 A KR 1020060110605A KR 20060110605 A KR20060110605 A KR 20060110605A KR 20080042334 A KR20080042334 A KR 20080042334A
Authority
KR
South Korea
Prior art keywords
setting
anatomical position
anatomical
ultrasound
cross
Prior art date
Application number
KR1020060110605A
Other languages
Korean (ko)
Other versions
KR100875620B1 (en
Inventor
권의철
김윤진
Original Assignee
주식회사 메디슨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디슨 filed Critical 주식회사 메디슨
Priority to KR1020060110605A priority Critical patent/KR100875620B1/en
Publication of KR20080042334A publication Critical patent/KR20080042334A/en
Application granted granted Critical
Publication of KR100875620B1 publication Critical patent/KR100875620B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

An ultrasound system and a method for forming an ultrasound image are provided to improve user convenience by giving accurate anatomical position information of the ultrasound image according to positions of a subject and a probe. An ultrasound system(100) includes a probe(110), a data forming unit(120), an image forming unit(130), and an anatomical position processing unit(160). The probe transmits an ultrasound signal to a subject and receives the ultrasound signal reflected from the subject. The data forming unit forms frame data based on the received signal. The image forming unit forms a plurality of cross-sectional images and three-dimensional ultrasound images based on the frame data. The anatomical position processing unit sets anatomical positions for the plurality of cross-sectional images and provides anatomical position information for the plurality of cross-sectional images and three-dimensional ultrasound images based on the set anatomical positions.

Description

초음파 영상 시스템 및 방법{ULTRASOUND SYSTEM AND METHOD FOR FORMING ULTRASOUND IMAGE}ULTRASOUND SYSTEM AND METHOD FOR FORMING ULTRASOUND IMAGE

도 1은 본 발명의 실시예에 따른 초음파 시스템의 구성을 보이는 블록도.1 is a block diagram showing the configuration of an ultrasonic system according to an embodiment of the present invention.

도 2는 본 발명의 실시예에 따른 초음파 영상의 해부학적 위치 정보를 제공하는 절차를 보이는 플로우챠트.Figure 2 is a flow chart showing a procedure for providing anatomical position information of the ultrasound image according to an embodiment of the present invention.

도 3은 본 발명의 일실시예에 따른 해부학적 위치 제공부의 해부학적 위치 설정 절차를 보이는 플로우챠트. Figure 3 is a flow chart showing the anatomical positioning procedure of the anatomical position providing unit according to an embodiment of the present invention.

도 4는 본 발명의 다른 실시예에 따른 해부학적 위치 제공부의 해부학적 위치 설정 절차를 보이는 플로우챠트.Figure 4 is a flow chart showing the anatomical positioning procedure of the anatomical position providing unit according to another embodiment of the present invention.

도 5는 볼륨 데이터의 예를 보이는 예시도.5 is an exemplary view showing an example of volume data.

도 6은 본 발명의 실시예에 따른 가상 인체의 예를 보이는 예시도.6 is an exemplary view showing an example of a virtual human body according to an embodiment of the present invention.

도 7은 본 발명의 실시예에 따른 프로브의 제1 방향 마커와 가상 프로브의 제2 방향 마커의 예를 보이는 예시도.7 is an exemplary view showing an example of a first direction marker of a probe and a second direction marker of a virtual probe according to an embodiment of the present invention.

도 8은 본 발명의 실시예에 따른 템플릿의 예를 보이는 예시도.8 is an exemplary view showing an example of a template according to an embodiment of the present invention.

도 9는 본 발명의 실시예에 따른 해부학적 위치 제공부의 예를 보이는 예시도.9 is an exemplary view showing an example of an anatomical position providing unit according to an embodiment of the present invention.

도 10은 본 발명의 실시예에 따른 초음파 신호의 입사방향을 설정하는 입사 방향 설정화면의 예를 보이는 예시도.10 is an exemplary view showing an example of an incident direction setting screen for setting an incident direction of an ultrasonic signal according to an exemplary embodiment of the present invention.

도 11은 본 발명의 실시예에 따른 초음파 신호의 입사방향을 설명하기 위한 설명도.11 is an explanatory diagram for explaining an incident direction of an ultrasonic signal according to an exemplary embodiment of the present invention.

도 12 및 도 13은 본 발명의 실시예에 따른 각 단면의 단면영상, 가상 인체, 가상 프로브 및 해부학적 위치 제공부를 동시에 디스플레이한 예를 보이는 예시도.12 and 13 are exemplary views showing an example of simultaneously displaying a cross-sectional image, a virtual human body, a virtual probe, and an anatomical position providing unit of each cross section according to an embodiment of the present invention.

도 14 및 도 15는 본 발명의 실시예에 따른 각 단면의 단면영상, 템플릿 및 해부학적 위치 제공부를 동시에 디스플레이한 예를 보이는 예시도.14 and 15 are exemplary views showing an example of simultaneously displaying a cross-sectional image, a template, and an anatomical position providing unit of each cross section according to an embodiment of the present invention.

도 16은 본 발명의 실시예에 따른 각 단면의 단면영상 및 3D 초음파 영상과 해부학적 위치 제공부를 동시에 디스플레이한 예를 보이는 예시도.16 is an exemplary view showing an example of simultaneously displaying a cross-sectional image and a 3D ultrasound image and an anatomical position providing unit of each cross section according to an embodiment of the present invention.

< 도면의 주요 부분에 대한 부호 설명 ><Explanation of Signs of Major Parts of Drawings>

100 : 초음파 시스템 110 : 데이터 획득부100: ultrasonic system 110: data acquisition unit

120 : 볼륨 데이터 형성부 130 : 영상 형성부120: volume data forming unit 130: image forming unit

140 : 디스플레이부 150 : 입력부140: display unit 150: input unit

160 : 저장부 170 : 해부학적 위치 처리부160: storage unit 170: anatomical position processing unit

210 : 볼륨 데이터 210: volume data

본 발명은 초음파 분야에 관한 것으로, 특히 초음파 영상 시스템 및 방법에 관한 것이다.TECHNICAL FIELD The present invention relates to the field of ultrasound, and in particular, to ultrasound imaging systems and methods.

초음파 시스템은 다양하게 응용되고 있는 중요한 진단 시스템 중의 하나이다. 특히, 초음파 시스템은 대상체에 무침습 및 비파괴 특성을 가지고 있기 때문에, 의료 분야에 널리 이용되고 있다. 근래의 고성능 초음파 시스템은 대상체 내부의 2차원 또는 3차원 영상을 생성하는데 이용된다.Ultrasound systems are one of the important diagnostic systems that are used in a variety of applications. In particular, ultrasound systems are widely used in the medical field because they have non-invasive and nondestructive properties. Modern high-performance ultrasound systems are used to generate two-dimensional or three-dimensional images inside an object.

일반적으로, 초음파 시스템의 프로브는 광대역의 초음파 신호를 송신 및 수신하기 위한 트랜스듀서를 구비한다. 트랜스듀서가 전기적으로 자극되면 초음파 신호가 생성되어 대상체로 전달된다. 대상체에서 반사되어 트랜스듀서에 전달되는 초음파 에코신호는 전기적으로 변환된다. 변환된 전기적 신호를 증폭 및 신호처리하여 초음파 영상 데이터가 생성된다.Generally, probes in ultrasound systems have transducers for transmitting and receiving wideband ultrasound signals. When the transducer is electrically stimulated, an ultrasonic signal is generated and transmitted to the object. The ultrasonic echo signal reflected from the object and transmitted to the transducer is electrically converted. The ultrasound image data is generated by amplifying and signal processing the converted electrical signal.

한편, 초음파 시스템은 2차원 초음파 영상에서 제공할 수 없었던 공간정보, 해부학적 형태 등과 같은 임상 정보를 포함하는 3차원 초음파 영상을 제공하고 있다. 즉, 초음파 시스템은 획득된 대상체의 3차원 초음파 데이터를 스캔 변환하고, 스캔 변환된 3차원 데이터를 렌더링하여 임상 정보를 포함하는 대상체의 3차원 초음파 영상을 제공한다.Meanwhile, the ultrasound system provides a 3D ultrasound image including clinical information such as spatial information and anatomical shape that cannot be provided in the 2D ultrasound image. That is, the ultrasound system scan-converts the acquired 3D ultrasound data of the object, renders the scan-converted 3D data, and provides a 3D ultrasound image of the object including clinical information.

그러나, 종래의 초음파 시스템은 컴퓨터 X선 단층촬영(CT) 또는 자기공명이미지(MRI)와 달리, 관측 대상체의 위치 또는 초음파 신호를 송수신하는 프로브의 위치에 따라 대상체에 대한 초음파 영상의 해부학적 위치가 변하게 되어, 대상체에 대한 초음파 영상의 해부학적 위치 정보를 제공하는데 어려움이 있다. However, in the conventional ultrasound system, unlike computer X-ray tomography (CT) or magnetic resonance imaging (MRI), the anatomical position of the ultrasound image with respect to the object is different depending on the position of the observation object or the position of the probe that transmits and receives the ultrasound signal. As a result, it is difficult to provide anatomical position information of the ultrasound image with respect to the object.

본 발명은 전술한 문제점을 해결하기 위한 것으로, 대상체 및 프로브의 위치 에 따라 초음파 영상의 해부학적 위치 정보를 제공하는 초음파 시스템 및 방법을 제공한다. The present invention is to solve the above-described problem, and provides an ultrasound system and method for providing anatomical position information of the ultrasound image according to the position of the object and the probe.

본 발명에 따른 초음파 시스템은 초음파 신호를 대상체에 송신하고 상기 대상체로부터 반사되는 초음파 신호를 수신하는 프로브; 상기 수신된 신호에 기초하여 프레임 데이터를 형성하는 데이터 형성부; 상기 프레임 데이터에 기초하여 다수의 단면영상 및 3차원 초음파 영상을 형성하는 영상 형성부; 상기 다수의 단면영상에 대한 해부학적 위치를 설정하고, 상기 설정된 해부학적 위치에 기초하여 상기 다수의 단면영상 및 상기 3차원 초음파 영상에 대한 해부학적 위치 정보를 제공하는 해부학적 위치 처리부를 포함한다.An ultrasound system according to the present invention includes a probe for transmitting an ultrasound signal to an object and receiving an ultrasound signal reflected from the object; A data forming unit forming frame data based on the received signal; An image forming unit configured to form a plurality of cross-sectional images and three-dimensional ultrasound images based on the frame data; And an anatomical position processor configured to set anatomical positions of the plurality of cross-sectional images and to provide anatomical position information of the plurality of cross-sectional images and the 3D ultrasound image based on the set anatomical position.

또한, 본 발명에 따른 초음파 영상 형성방법은 a) 초음파 신호를 대상체에 송신하고 상기 대상체로부터 반사되는 초음파 신호를 수신하는 단계; b) 상기 수신된 신호에 기초하여 프레임 데이터를 형성하는 단계; c) 상기 프레임 데이터에 기초하여 다수의 단면영상 및 3차원 초음파 영상을 형성하는 단계; d) 상기 다수의 단면영상에 대한 해부학적 위치를 설정하는 단계; 및 e) 상기 설정된 해부학적 위치에 기초하여 상기 다수의 단면영상 및 상기 3차원 초음파 영상에 대한 해부학적 위치 정보를 제공하는 단계를 포함한다.In addition, the ultrasound image forming method according to the present invention comprises the steps of: a) transmitting an ultrasound signal to the object and receiving the ultrasound signal reflected from the object; b) forming frame data based on the received signal; c) forming a plurality of cross-sectional images and three-dimensional ultrasound images based on the frame data; d) setting anatomical positions for the plurality of cross-sectional images; And e) providing anatomical position information for the plurality of cross-sectional images and the 3D ultrasound image based on the set anatomical position.

본 발명의 바람직한 실시예에 따른 초음파 시스템은 프로브, 데이터 형성부, 영상 형성부, 해부학적 위치 처리부를 포함한다. 상기 프로브는 초음파 신호를 대상체에 송신하고 상기 대상체로부터 반사되는 초음파 신호를 수신한다. 상기 데이 터 형성부는 상기 수신된 신호에 기초하여 프레임 데이터를 형성한다. 상기 영상 형성부는 상기 프레임 데이터에 기초하여 다수의 단면영상 및 3차원 초음파 영상을 형성한다. 상기 해부학적 위치 처리부는 상기 다수의 단면영상에 대한 해부학적 위치를 설정하고, 상기 설정된 해부학적 위치에 기초하여 상기 다수의 단면영상 및 상기 3차원 초음파 영상에 대한 해부학적 위치 정보를 제공한다.An ultrasound system according to a preferred embodiment of the present invention includes a probe, a data generator, an image generator, and an anatomical position processor. The probe transmits an ultrasound signal to an object and receives an ultrasound signal reflected from the object. The data forming unit forms frame data based on the received signal. The image forming unit forms a plurality of cross-sectional images and three-dimensional ultrasound images based on the frame data. The anatomical position processor sets anatomical positions for the plurality of cross-sectional images, and provides anatomical position information for the plurality of cross-sectional images and the 3D ultrasound image based on the set anatomical position.

이하, 도 1 내지 도 16을 참조하여 본 발명의 실시예를 설명한다.Hereinafter, an embodiment of the present invention will be described with reference to FIGS. 1 to 16.

도 1에 도시된 바와 같이, 본 발명에 따른 초음파 시스템(100)은 프로브(110), 데이터 형성부(120), 영상 형성부(130), 저장부(140), 입력부(150), 해부학적 위치 처리부(160) 및 디스플레이부(170)를 포함한다.As shown in FIG. 1, the ultrasound system 100 according to the present invention includes a probe 110, a data forming unit 120, an image forming unit 130, a storage unit 140, an input unit 150, and anatomical structure. The location processor 160 and the display unit 170 are included.

프로브(110)는 초음파 신호를 대상체로 송신하고 대상체로부터 반사되는 초음파 신호를 수신하기 위한 다수의 트랜스듀서(112), 프로브(110)의 방위와 디스플레이부(170)에 디스플레이된 초음파 영상의 방위를 일치시키기 위한 제1 방향 마커(Direction Marker)(114) 및 프로브(110)의 3차원 위치를 검출하고 검출된 3차원 위치의 정보를 생성하는 3D 위치센서(116)를 포함한다. 여기서, 3D 위치센서(116)는 프로브(110)의 위치를 검출할 수 있는 것이라면 어떤 장치라도 무방하며, 일예로서, 자이로를 포함한다.The probe 110 transmits an ultrasound signal to an object and adjusts the orientation of the plurality of transducers 112, the probe 110, and the ultrasound image displayed on the display unit 170 to receive the ultrasound signal reflected from the object. And a 3D position sensor 116 for detecting a 3D position of the probe 110 and generating information of the detected 3D position. Here, the 3D position sensor 116 may be any device as long as it can detect the position of the probe 110, and as an example, includes a gyro.

데이터 형성부(120)는 프로브(110)로부터 수신신호를 입력받아 대상체의 초음파 영상을 형성하기 위한 프레임 데이터를 형성한다. 데이터 형성부(120)는 도시하지 않았지만, 프로브(110)의 트랜스듀서(112)를 통해 송신되는 초음파 신호를 송신 집속시키고, 대상체로부터 반사되어 트랜스듀서로 수신되는 초음파 신호에 시간 지연을 가하여 수신된 신호를 수신 집속하기 위한 빔 포머와, 수신 집속된 신호에 기초하여 프레임 데이터를 형성하기 위한 DSP(Digital Signal Prcoessor) 등을 포함할 수도 있다.The data forming unit 120 receives the received signal from the probe 110 and forms frame data for forming an ultrasound image of the object. Although not illustrated, the data forming unit 120 transmits and focuses an ultrasonic signal transmitted through the transducer 112 of the probe 110, and adds a time delay to the ultrasonic signal reflected from the object and received by the transducer. And a beamformer for receiving and focusing a signal, and a digital signal processor (DSP) for forming frame data based on the received focused signal.

영상 형성부(130)는 데이터 형성부(120)로부터 프레임 데이터를 입력받아 도 5에 도시된 바와 같이 각 단면(A 단면(220a), B 단면(220b) 및 C 단면(220c))에 해당하는 영상(이하, 단면영상이라 함)과 3D 초음파 영상을 형성한다.The image forming unit 130 receives frame data from the data forming unit 120 and corresponds to each of the cross sections (A cross section 220a, B cross section 220b, and C cross section 220c) as shown in FIG. 5. Images (hereinafter, referred to as cross-sectional images) and 3D ultrasound images are formed.

저장부(140)는 프로브(110)를 통해 초음파 신호가 대상체로 입사하는 방향을 설정하기 위한 가상 인체, 가상 프로브, 템플릿 및 해부학적 위치 제공부를 포함하는 해부학적 정보를 저장한다. 도 6 내지 도 9를 참조하여 본 발명의 일실시예에 따른 가상 인체, 가상 프로브, 템플릿 및 해부학적 위치 제공부를 설명하면 다음과 같다.The storage 140 stores anatomical information including a virtual human body, a virtual probe, a template, and an anatomical position providing unit for setting a direction in which the ultrasound signal enters the object through the probe 110. 6 to 9, a virtual human body, a virtual probe, a template, and an anatomical position providing unit according to an embodiment of the present invention will be described.

가상 인체(410)는 프로브(110)를 통해 초음파 신호가 대상체로 입사하는 방향(이하, 스캔 위치라 함)을 일치시키기 위한 것으로, 도 6에 도시된 바와 같이 Cr(Cranial), Ca(Caudal), A(Anterior), P(Posterior), R(Right) 및 L(Left)를 포함하는 해부학적 위치를 갖는다. 가상 인체(410)는 입력부(150)를 통한 사용자의 설정에 따라 회전되어 스캔 위치와 일치될 수 있다.The virtual human body 410 is to match a direction (hereinafter, referred to as a scan position) in which an ultrasound signal is incident to an object through the probe 110. As shown in FIG. 6, Cr (Cranial) and Ca (Caudal) are shown. And anatomical positions including A (Anterior), P (Posterior), R (Right), and L (Left). The virtual human body 410 may be rotated according to the user's setting through the input unit 150 to match the scan position.

가상 프로브(420)는 도 7에 도시된 바와 같이 가상 인체(410) 상에 설정되어 프로브(110)가 초음파 신호를 송수신한 위치를 설정하기 위한 것이다. 가상 프로브(420)는 프로브(110)의 제1 방향 마커(114)에 해당하는 제2 방향 마커(424)를 포함한다. 가상 프로브(420)는 입력부(150)를 통한 사용자의 설정에 따라 이동 및 회 전되어, 제2 방향 마커(424)가 프로브(110)의 제1 방향 마커(114)와 일치될 수 있다. 한편, 가상 프로브(420)는 입력부(150)를 통한 사용자의 설정에 따라 대상체의 표면에 접촉된 상태에서 소정 각도로 기울어진 프로브(110)와 일치될 수 있다.The virtual probe 420 is set on the virtual human body 410 as shown in FIG. 7 to set the position at which the probe 110 transmits and receives an ultrasonic signal. The virtual probe 420 includes a second direction marker 424 corresponding to the first direction marker 114 of the probe 110. The virtual probe 420 is moved and rotated according to a user's setting through the input unit 150, such that the second direction marker 424 may coincide with the first direction marker 114 of the probe 110. Meanwhile, the virtual probe 420 may coincide with the probe 110 inclined at a predetermined angle while being in contact with the surface of the object according to the user's setting through the input unit 150.

템플릿(430)은 가상 인체(410)를 통해 초음파 신호의 입사 방향을 설정하기 어려운 대상체의 해부학적 위치를 설정하기 위한 것으로, 도 8에 도시된 바와 같이 심장, 간, 태아 등과 같은 특정 대상체의 해부학적 위치를 설정하기 위한 것이다. 템플릿(430) 각각은 Cr(Cranial), Ca(Caudal), A(Anterior), P(Posterior), R(Right) 및 L(Left)를 포함하는 해부학적 위치를 갖는다. 템플릿(430)은 입력부(150)를 통한 사용자의 설정에 따라 회전되어, 스캔 위치와 일치될 수 있다.Template 430 is to set the anatomical position of the object difficult to set the direction of incidence of the ultrasound signal through the virtual human body 410, as shown in Figure 8 anatomy of a specific object, such as the heart, liver, fetus, etc. To set the enemy position. Each template 430 has an anatomical location including Cr (Cranial), Ca (Caudal), A (Anterior), P (Posterior), R (Right), and L (Left). The template 430 may be rotated according to the user's setting through the input unit 150 to match the scan position.

해부학적 위치 제공부(440)는 대상체의 스캔 위치에 해당하는 해부학적 위치를 설정하고, 설정된 해부학적 위치에 기초하여 각 단면영상 및 3차원 초음파 영상의 해부학적 위치 정보를 제공한다. 해부학적 위치 제공부(440)는 도 9에 도시된 바와 같이 Cr(Cranial), Ca(Caudal), A(Anterior), P(Posterior), R(Right) 및 L(Left)를 포함하는 해부학적 위치를 갖는다. 해부학적 위치 제공부(440)는 입력부(150)를 통한 가상 인체(410), 가상 프로브(420) 및 템플릿(430)의 해부학적 위치 설정에 따라 해부학적 위치가 설정된다. 보다 상세하게, 해부학적 위치 제공부(440)는 입력부(150)를 통해 가상 인체(410)의 해부학적 위치와 대상체의 해부학적 위치를 일치시키기 위한 사용자의 설정에 따라 해부학적 위치가 설정되고, 입력부(150)를 통해 프로브(110)의 제1 방향 마커(114)의 방향과 가상 프로브(420)의 제2 방향 마커(424)의 방향을 일치시키기 위한 사용자의 설정에 따라 해부학적 위 치가 설정되며, 입력부(150)를 통해 템플릿(430)의 해부학적 위치를 설정하기 위한 사용자의 설정에 따라, 해부학적 위치가 설정된다. 한편, 해부학적 위치 제공부(440)는 입력부(150)를 통한 사용자의 설정에 따라 회전될 수 있다. 본 실시예에서는 해부학적 위치 제공부(440)를 육각형 형태로 표시하였지만, 그것만으로 한정되지 않고 다양한 형태로 표시할 수 있다.The anatomical position providing unit 440 sets an anatomical position corresponding to the scan position of the object and provides anatomical position information of each cross-sectional image and the 3D ultrasound image based on the set anatomical position. The anatomical position providing unit 440 is anatomically including Cr (Cranial), Ca (Caudal), A (Anterior), P (Posterior), R (Right), and L (Left) as shown in FIG. Has a location. The anatomical position providing unit 440 may set an anatomical position according to the anatomical position setting of the virtual human body 410, the virtual probe 420, and the template 430 through the input unit 150. In more detail, the anatomical position providing unit 440 is an anatomical position is set according to the user's setting for matching the anatomical position of the virtual human body 410 with the anatomical position of the object through the input unit 150, The anatomical position is set according to a user's setting for matching the direction of the first direction marker 114 of the probe 110 with the direction of the second direction marker 424 of the virtual probe 420 through the input unit 150. The anatomical position is set according to the user's setting for setting the anatomical position of the template 430 through the input unit 150. Meanwhile, the anatomical position providing unit 440 may be rotated according to a user's setting through the input unit 150. In the present embodiment, the anatomical position providing unit 440 is displayed in a hexagonal shape, but is not limited thereto and may be displayed in various forms.

입력부(150)는 사용자로부터 다양한 설정정보를 입력받는다. 일예로서, 입력부(150)는 프로브(110)를 통해 초음파 신호가 대상체로 입사하는 방향을 설정하는 입사방향 설정정보, 가상 프로브(420)를 이동 및 회전시키기 위한 설정정보, 템플릿(430)의 해부학적 위치를 설정하는 해부학적 위치 설정정보 등을 입력받는다.The input unit 150 receives various setting information from the user. For example, the input unit 150 may include incidence direction setting information for setting a direction in which an ultrasound signal enters an object through the probe 110, setting information for moving and rotating the virtual probe 420, and anatomy of the template 430. Anatomical position setting information for setting the enemy position is received.

해부학적 위치 처리부(160)는 가상 인체(410), 가상 프로브(420), 템플릿(430) 및 해부학적 위치 제공부(440)의 해부학적 위치를 설정한다.The anatomical position processor 160 sets anatomical positions of the virtual human body 410, the virtual probe 420, the template 430, and the anatomical position providing unit 440.

본 발명의 일실시예에 따라, 해부학적 위치 처리부(160)는 프로브(110)를 통해 초음파 신호가 대상체로 입사하는 방향을 설정하는 다수의 입사방향 설정메뉴를 포함하는 입사방향 설정화면(310)을 도 10에 도시된 바와 같이 형성하여 디스플레이부(170)에 디스플레이한다. 도 10에 도시된 다수의 입사방향 설정메뉴에 있어서, 입사방향 설정메뉴(A)는 도 11에 도시된 바와 같이 프로브(110)를 통해 초음파 신호가 대상체의 해부학적 위치(A)로부터 해부학적 위치(P)로 입사하는 방향과, 가상 인체(410) 및 해부학적 위치 제공부(440)의 해부학적 위치를 일치시키기 위한 메뉴이다. 입사방향 설정메뉴(P)는 입사방향 설정메뉴(A)와 반대로 설정하기 위한 메뉴, 즉 프로브(110)를 통해 초음파 신호가 대상체의 해부학적 위치(P)로부터 해부 학적 위치(A)로 입사하는 방향과, 가상 인체(410) 및 해부학적 위치 제공부(440)의 해부학적 위치를 일치시키기 위한 메뉴이다. 입사방향 설정메뉴(R)는 프로브(110)를 통해 초음파 신호가 대상체의 해부학적 위치(R)로부터 해부학적 위치(L)로 입사하는 방향과, 가상 인체(410) 및 해부학적 위치 제공부(440)의 해부학적 위치를 일치시키기 위한 메뉴이다. 입사방향 설정메뉴(L)는 입사방향 설정메뉴(R)와 반대로 설정하기 위한 메뉴이다. 입사방향 설정메뉴(Cr)는 프로브(110)를 통해 초음파 신호가 대상체의 해부학적 위치(Cr)로부터 해부학적 위치(Ca)로 입사하는 방향과, 가상 인체(410) 및 해부학적 위치 제공부(440)의 해부학적 위치를 일치시키기 위한 메뉴이다. 입사방향 설정메뉴(Ca)는 입사방향 설정메뉴(Cr)와 반대로 설정하기 위한 메뉴이다. 해부학적 위치 처리부(160)는 가상 인체(410), 가상 프로브(420) 및 해부학적 위치 제공부(440)의 해부학적 위치를 설정하기 위한 화면(이하, 해부학적 위치 설정화면이라 함)을 형성하여 디스플레이부(170)에 디스플레이한다. 일예로서, 해부학적 위치 처리부(160)는 도 12에 도시된 바와 같이 각 단면영상(240a 내지 240c), 가상 인체(410), 가상 프로브(420) 및 해부학적 위치 제공부(440)를 포함하는 제1 해부학적 위치 설정화면(320)을 형성하여 디스플레이부(170)에 디스플레이한다. 해부학적 위치 처리부(160)는 입사방향 설정메뉴에 기초하여 가상 인체(410) 및 해부학적 위치 제공부(440)의 해부학적 위치를 설정하고, 가상 프로브(420)의 회전 및 이동 설정정보에 기초하여 가상 프로브(420) 및 해부학적 위치 제공부(440)의 해부학적 위치를 설정한다.According to an embodiment of the present invention, the anatomical position processor 160 includes a plurality of incident direction setting menus for setting a direction in which an ultrasonic signal enters an object through the probe 110. Is formed as shown in FIG. 10 and displayed on the display unit 170. In the plurality of incidence direction setting menus shown in FIG. 10, the incidence direction setting menu A includes an anatomical position from the anatomical position A of the object through the probe 110 as shown in FIG. 11. A menu for matching the direction of incidence to (P) with the anatomical position of the virtual human body 410 and the anatomical position providing unit 440. The incident direction setting menu P is a menu for setting opposite to the incident direction setting menu A, that is, an ultrasonic signal is incident from the anatomical position P of the object to the anatomical position A through the probe 110. Direction and menu for matching the anatomical position of the virtual human body 410 and the anatomical position providing unit 440. The incident direction setting menu R may include a direction in which an ultrasonic signal is incident from the anatomical position R to the anatomical position L through the probe 110, and a virtual human body 410 and an anatomical position providing unit ( 440 is a menu for matching the anatomical position. The incidence direction setting menu L is a menu for setting opposite to the incidence direction setting menu R. The incident direction setting menu Cr may include a direction in which an ultrasonic signal is incident from the anatomical position Cr of the object through the probe 110 to the anatomical position Ca, and the virtual human body 410 and the anatomical position providing unit ( 440 is a menu for matching the anatomical position. The incidence direction setting menu Ca is a menu for setting opposite to the incidence direction setting menu Cr. The anatomical position processor 160 forms a screen (hereinafter, referred to as an anatomical position setting screen) for setting the anatomical position of the virtual human body 410, the virtual probe 420, and the anatomical position providing unit 440. Display on the display unit 170. As an example, the anatomical position processor 160 includes each cross-sectional image 240a to 240c, a virtual human body 410, a virtual probe 420, and an anatomical position providing unit 440 as shown in FIG. 12. A first anatomical position setting screen 320 is formed and displayed on the display unit 170. The anatomical position processor 160 sets the anatomical position of the virtual human body 410 and the anatomical position providing unit 440 based on the incident direction setting menu, and based on the rotation and movement setting information of the virtual probe 420. The anatomical position of the virtual probe 420 and the anatomical position providing unit 440 are set.

본 발명의 다른 실시예에 따라, 해부학적 위치 처리부(160)는 다수의 템플릿 에서 1개의 템플릿을 선택하는 템플릿 설정화면을 형성하여 디스플레이부(170)에 디스플레이한다. 해부학적 위치 처리부(160)는 입력부(150)를 통한 사용자의 설정에 따라 템플릿(430) 및 해부학적 위치 제공부(440)의 해부학적 위치를 설정한다. 한편, 해부학적 위치 처리부(160)는 입력부(150)를 통한 사용자의 설정에 따라 템플릿(430) 및 해부학적 위치 제공부(440)의 회전을 설정할 수 있다.According to another exemplary embodiment of the present invention, the anatomical position processor 160 forms a template setting screen for selecting one template from a plurality of templates and displays the template setting screen on the display unit 170. The anatomical position processor 160 sets the anatomical position of the template 430 and the anatomical position providing unit 440 according to the user's setting through the input unit 150. Meanwhile, the anatomical position processor 160 may set the rotation of the template 430 and the anatomical position providing unit 440 according to the user's setting through the input unit 150.

해부학적 위치 처리부(160)는 설정된 해부학적 위치 제공부(440)의 해부학적 위치에 기초하여, 디스플레이부(170)에 디스플레이되는 각 단면영상과 3차원 초음파 영상의 해부학적 위치 정보를 제공한다.The anatomical position processor 160 provides anatomical position information of each cross-sectional image and the 3D ultrasound image displayed on the display unit 170 based on the anatomical position of the set anatomical position providing unit 440.

본 발명의 일실시예에 따라, 해부학적 위치 처리부(160)는 설정된 해부학적 위치 제공부(440)의 해부학적 위치가 A 단면(220a)의 단면영상에 해당하는 해부학적 위치에 해당하므로(이하, A 단면(220a)을 기준단면이라 함), 도 16에 도시된 바와 같이 해부학적 위치 제공부(440)의 해부학적 위치를 기준단면(220a)의 단면영상(240a)에 해당하는 제1 해부학적 위치 제공부(440a)의 해부학적 위치로 설정하고, 설정된 제1 해부학적 위치 제공부(440a)를 사전 설정 위치에 형성한다. 해부학적 위치 처리부(160)는 B 단면(220b)이 기준단면(220a)을 Y축을 기준으로 90°회전시킨 단면이므로, 제1 해부학적 위치 제공부(440a)의 해부학적 위치를 Y축을 기준으로 90°회전시킨 해부학적 위치를 B 단면(220b)의 단면영상(240b)에 해당하는 제2 해부학적 위치 제공부(440b)의 해부학적 위치로 설정하고, 설정된 제2 해부학적 위치 제공부(440b)를 사전 설정된 위치에 형성한다. 해부학적 위치 처리부(160)는 C 단면(220c)이 기준단면(220a)을 X축을 기준으로 90°회전시킨 단면이므로, 제1 해부학적 위치 제공부(440a)의 해부학적 위치를 X축을 기준으로 90°회전시킨 해부학적 위치를 C 단면(220c)의 단면영상(240c)에 해당하는 제3 해부학적 위치 제공부(440c)의 해부학적 위치로 설정하고, 설정된 제3 해부학적 위치 제공부(440c)를 사전 설정된 위치에 형성한다. 해부학적 위치 처리부(160)는 3D 초음파 영상(250)에 해당하는 제4 해부학적 위치 제공부(440d)의 해부학적 위치가 제1 해부학적 위치 제공부(440a)의 해부학적 위치를 X축 및 Z축 각각을 기준으로 90°회전시킨 해부학적 위치에 해당하므로, 제1 해부학적 위치 제공부(440a)의 해부학적 위치를 X축을 기준으로 90°회전시킨 후, Z축을 기준으로 90°회전시킨 해부학적 위치(또는 Z축 을 기준으로 90°회전시킨 후, X축을 기준으로 90°회전시킨 해부학적 위치)를 제4 해부학적 위치 제공부(440d)의 해부학적 위치로 설정하고, 설정된 제4 해부학적 위치 제공부(440d)를 사전 설정된 위치에 형성한다.According to one embodiment of the invention, the anatomical position processing unit 160 is because the anatomical position of the set anatomical position providing unit 440 corresponds to the anatomical position corresponding to the cross-sectional image of the A cross section (220a) (hereinafter , A cross section 220a is referred to as a reference section), as shown in FIG. 16, a first anatomy corresponding to the cross-sectional image 240a of the reference section 220a with the anatomical position of the anatomical position providing unit 440. The anatomical position of the enemy position providing unit 440a is set, and the set first anatomical position providing unit 440a is formed at a preset position. The anatomical position processing unit 160 is a section in which the B section 220b rotates the reference section 220a by 90 ° with respect to the Y axis, so that the anatomical position of the first anatomical position providing unit 440a is based on the Y axis. The anatomical position rotated by 90 ° is set to the anatomical position of the second anatomical position providing unit 440b corresponding to the cross-sectional image 240b of the B section 220b, and the set second anatomical position providing unit 440b is set. ) At a preset position. The anatomical position processing unit 160 is a cross section in which the C cross section 220c rotates the reference section 220a by 90 ° with respect to the X axis, and thus, the anatomical position of the first anatomical position providing unit 440a based on the X axis. The anatomical position rotated by 90 ° is set to the anatomical position of the third anatomical position providing unit 440c corresponding to the cross-sectional image 240c of the C cross section 220c, and the set third anatomical position providing unit 440c. ) At a preset position. The anatomical position processing unit 160 may have an anatomical position of the fourth anatomical position providing unit 440d corresponding to the 3D ultrasound image 250 in terms of the X-axis and the anatomical position of the first anatomical position providing unit 440a. Since it corresponds to an anatomical position rotated by 90 ° with respect to each of the Z axes, the anatomical position of the first anatomical position providing unit 440a is rotated by 90 ° with respect to the X axis, and then rotated by 90 ° with respect to the Z axis. The anatomical position (or the anatomical position rotated 90 ° about the X axis and then rotated 90 ° about the X axis) is set as the anatomical position of the fourth anatomical position providing unit 440d, and the set fourth The anatomical position providing portion 440d is formed at a preset position.

해부학적 위치 처리부(160)는 프로브(110)에 장착된 3D 위치센서(116)로부터 입력되는 3D 위치정보 또는 사용자로부터 입력부(150)를 통해 입력되는 회전 정보에 기초하여, 각 해부학적 위치 제공부(440a 내지 440d)를 회전시킨다. 이때, 해부학적 위치 처리부(160)는 제1 해부학적 위치 제공부(440a), 즉 기준단면(220a)의 단면영상(240a)에 해당하는 제1 해부학적 위치 제공부(440a)의 해부학적 위치를 3D 위치정보 또는 회전정보에 기초하여 회전시키고, 회전된 제1 해부학적 위치 제공부(440a)의 해부학적 위치를 Y축을 기준으로 하여 90°회전시킨 해부학적 위치를 제2 해부학적 위치 제공부(440b)의 해부학적 위치로 설정하고, 회전된 제1 해부학적 위치 제공부(440a)의 해부학적 위치를 X축을 기준으로 90°회전시킨 해부학적 위치를 제3 해부학적 위치 제공부(440c)의 해부학적 위치로 설정하며, 회전된 제1 해부학적 위치 제공부(440a)의 해부학적 위치를 X축 및 Z축 각각을 기준으로 90°회전시킨 해부학적 위치를 제4 해부학적 위치 제공부(440d)의 해부학적 위치로 설정함으로써, 각 해부학적 위치 제공부(440a 내지 440d)를 회전시킬 수 있다.The anatomical position processor 160 is based on the 3D position information input from the 3D position sensor 116 mounted on the probe 110 or the rotation information input through the input unit 150 from the user, each anatomical position providing unit Rotate 440a to 440d. At this time, the anatomical position processing unit 160 is the anatomical position of the first anatomical position providing unit 440a, that is, the first anatomical position providing unit 440a corresponding to the cross-sectional image 240a of the reference section 220a. Rotates the anatomical position of the rotated first anatomical position providing unit 440a based on the Y-axis and rotates the anatomical position of the rotated first anatomical position providing unit 440a based on the Y-axis. A third anatomical position providing unit 440c is set to the anatomical position of 440b, and rotates the anatomical position of the rotated first anatomical position providing unit 440a by 90 ° about the X axis. The anatomical position of the anatomical position of the rotated first anatomical position providing unit 440a rotated by 90 ° with respect to each of the X and Z axes is set to the fourth anatomical position providing unit ( By setting the anatomical position 440d). It is possible to rotate the section (440a to 440d).

디스플레이부(170)는 영상 형성부(130)에 의해 형성된 각 단면영상 및 3D 초음파 영상과 해부학적 위치 처리부(160)에 의해 처리된 해부학적 위치 제공부(440a 내지 440d)를 디스플레이한다.The display unit 170 displays each cross-sectional image and the 3D ultrasound image formed by the image forming unit 130, and the anatomical position providing units 440a to 440d processed by the anatomical position processing unit 160.

이하, 도 2 내지 도 16을 참조하여 본 발명의 실시예에 따른 초음파 영상을 형성하는 절차를 설명한다.Hereinafter, a procedure of forming an ultrasound image according to an exemplary embodiment of the present invention will be described with reference to FIGS. 2 to 16.

도 2에 도시된 바와 같이, 데이터 형성부(120)가 프로브(110)를 통해 수신된 신호에 기초하여 프레임 데이터를 형성하면(S102), 영상 형성부(130)는 볼륨 데이터에 기초하여 각 단면(220a 내지 220c)의 단면영상 및 3D 초음파 영상을 형성한다(S104). 디스플레이부(170)는 영상 형성부(130)에 의해 형성된 각 단면영상 및 3D 초음파 영상을 디스플레이한다(S106).As shown in FIG. 2, when the data forming unit 120 forms the frame data based on the signal received through the probe 110 (S102), the image forming unit 130 may cross each section based on the volume data. Cross-sectional images and 3D ultrasound images 220a to 220c are formed (S104). The display unit 170 displays each cross-sectional image and the 3D ultrasound image formed by the image forming unit 130 (S106).

해부학적 위치 처리부(160)는 가상 인체(410), 가상 프로브(420) 및 해부학적 위치 제공부(440), 또는 템플릿(430) 및 해부학적 위치 제공부(440)의 해부학적 위치를 설정한다(S108). 단계 S108에 대해 도 3 및 도 4를 참조하여 상세하게 설명하면 다음과 같다.The anatomical position processor 160 sets the anatomical position of the virtual human body 410, the virtual probe 420, and the anatomical position providing unit 440, or the template 430 and the anatomical position providing unit 440. (S108). Step S108 will be described in detail with reference to FIGS. 3 and 4 as follows.

도 3에 도시된 바와 같이, 해부학적 위치 처리부(160)는 다수의 입사방향 설정메뉴를 포함하는 입사방향 설정화면(310)(도 10을 참조)을 형성하여 디스플레이 부(170)에 디스플레이한다(S202).As shown in FIG. 3, the anatomical position processor 160 forms an incident direction setting screen 310 (see FIG. 10) including a plurality of incident direction setting menus and displays the same on the display unit 170 (see FIG. 10). S202).

해부학적 위치 처리부(160)는 사용자로부터 입력부(150)를 통해 다수의 입사방향 설정메뉴에서 1개의 입사방향 설정메뉴를 선택하는 입사방향 선택정보가 입력되면(S204), 저장부(140)에 저장된 해부학적 정보에 기초하여 가상 인체(410), 가상 프로브(420), 해부학적 위치 제공부(440) 및 각 단면영상(240a 내지 240c)을 포함하는 제1 해부학적 위치 설정화면(320)을 형성한다(S206).The anatomical position processor 160 is stored in the storage unit 140 when the incident direction selection information for selecting one incident direction setting menu is input from the plurality of incident direction setting menus through the input unit 150 (S204). Based on the anatomical information, the first anatomical position setting screen 320 including the virtual human body 410, the virtual probe 420, the anatomical position providing unit 440, and the cross-sectional images 240a to 240c is formed. (S206).

이어서, 해부학적 위치 처리부(160)는 단계 S204에서 입력된 입사방향 선택정보 및 사전설정된 가상 프로브(420)의 해부학적 위치 정보에 기초하여 가상 인체(410), 가상 프로브(420) 및 해부학적 위치 제공부(440)의 해부학적 위치를 설정한다(S208). 일예로서, 해부학적 위치 처리부(160)는 도 12에 도시된 바와 같이 입사방향 선택정보(A)에 기초하여 가상 인체(410) 및 해부학적 위치 제공부(440)의 해부학적 위치를 설정하고, 사전 설정된 가상 프로브(420)의 해부학적 위치 정보에 기초하여 가상 프로브(420) 및 해부학적 위치 제공부(440)의 해부학적 위치를 설정한다.Subsequently, the anatomical position processor 160 based on the incident direction selection information input in step S204 and the anatomical position information of the preset virtual probe 420, the virtual human body 410, the virtual probe 420, and the anatomical position. The anatomical position of the providing unit 440 is set (S208). As an example, the anatomical position processor 160 sets the anatomical position of the virtual human body 410 and the anatomical position providing unit 440 based on the incident direction selection information A, as shown in FIG. 12, The anatomical position of the virtual probe 420 and the anatomical position providing unit 440 is set based on the anatomical position information of the preset virtual probe 420.

해부학적 위치 처리부(160)는 사용자로부터 입력부(150)를 통해 프로브(110)의 제1 방향 마커(114)와 가상 프로브(420)의 제2 방향 마커(424)를 일치시키는 방향 마커 설정정보가 입력되면(S210), 입력된 방향 마커 설정정보에 기초하여 도 13에 도시된 바와 같이 가상 프로브(420) 및 해부학적 위치 제공부(440)의 해부학적 위치를 설정한다.The anatomical position processor 160 has direction marker setting information for matching the first direction marker 114 of the probe 110 and the second direction marker 424 of the virtual probe 420 through the input unit 150 from a user. If it is input (S210), the anatomical position of the virtual probe 420 and the anatomical position providing unit 440 is set as shown in FIG. 13 based on the input direction marker setting information.

해부학적 위치 처리부(160)는 사용자로부터 입력부(150)를 통해 가상 프로 브(420) 및 해부학적 위치 제공부(440)를 회전시키는 회전 설정정보가 입력되는지 판단한다(S214). 여기서, 회전 설정정보는 대상체의 표면에 접촉된 상태에서 소정 각도로 기울어진 프로브(110)와 가상 프로브(420)를 일치시키기 위한 설정정보이다.The anatomical position processor 160 determines whether rotation setting information for rotating the virtual probe 420 and the anatomical position providing unit 440 is input from the user through the input unit 150 (S214). Here, the rotation setting information is setting information for matching the probe 110 and the virtual probe 420 which are inclined at a predetermined angle in contact with the surface of the object.

단계 S214에서 회전 설정정보가 입력된 것으로 판단되면, 해부학적 위치 처리부(160)는 입력된 회전 설정정보에 기초하여 가상 프로브(420) 및 해부학적 위치 제공부(440)를 회전시킨다. If it is determined in step S214 that the rotation setting information is input, the anatomical position processing unit 160 rotates the virtual probe 420 and the anatomical position providing unit 440 based on the input rotation setting information.

해부학적 위치 처리부(160)는 사용자로부터 입력부(150)를 통해 해부학적 위치 설정을 종료하는 설정 종료정보가 입력되는지 판단한다(S218). 단계 S218에서 설정 종료정보가 입력되지 않은 것으로 판단되면, 해부학적 위치 처리부(160)는 단계 S204로 되돌아간다. 한편, 단계 S218에서 설정 종료정보가 입력된 것으로 판단되면, 해부학적 위치 처리부(160)는 전술한 절차를 통해 설정된 해부학적 위치 제공부(440)의 해부학적 위치 정보를 저장부(140)에 저장하고(S220), 입사방향 설정화면(310) 및 제1 해부학적 위치 설정화면(320)을 종료시킨다(S222).The anatomical position processing unit 160 determines whether setting end information for terminating anatomical position setting is input from the user through the input unit 150 (S218). If it is determined in step S218 that the setting end information has not been input, the anatomical position processing unit 160 returns to step S204. On the other hand, when it is determined in step S218 that the setting end information is input, the anatomical position processing unit 160 stores the anatomical position information of the anatomical position providing unit 440 set through the above-described procedure in the storage unit 140. In operation S220, the incident direction setting screen 310 and the first anatomical position setting screen 320 are terminated (S222).

도 4에 도시된 바와 같이, 해부학적 위치 처리부(160)는 저장부(140)에 저장된 템플릿 정보에 기초하여 다수의 템플릿에서 1개의 템플릿을 선택할 수 있는 템플릿 설정화면을 형성하여 디스플레이한다(S302).As shown in FIG. 4, the anatomical position processor 160 forms and displays a template setting screen for selecting one template from a plurality of templates based on the template information stored in the storage 140 (S302). .

해부학적 위치 처리부(160)는 사용자로부터 입력부(150)를 통해 다수의 템플릿에서 1개의 템플릿을 선택하는 템플릿 선택정보가 입력되는지 판단한다(S304). 단계 S304에서 템플릿 선택정보가 입력된 것으로 판단되면, 해부학적 위치 처리 부(160)는 도 14에 도시된 바와 같이 템플릿(430), 해부학적 위치 제공부(440) 및 각 단면영상(240a 내지 240c)을 포함하는 제2 해부학적 위치 설정화면(330)을 형성하여 디스플레이한다(S306). 이때, 해부학적 위치 처리부(160)는 사전 설정된 정보에 기초하여 도 14에 도시된 바와 같이 해부학적 위치 제공부(440)의 해부학적 위치를 설정한다.The anatomical position processor 160 determines whether template selection information for selecting one template from a plurality of templates is input from the user through the input unit 150 (S304). If it is determined in step S304 that the template selection information is input, the anatomical position processing unit 160 is a template 430, an anatomical position providing unit 440 and each cross-sectional image 240a to 240c as shown in FIG. Form and display a second anatomical position setting screen 330 including the (S306). At this time, the anatomical position processing unit 160 sets the anatomical position of the anatomical position providing unit 440 as shown in FIG. 14 based on preset information.

해부학적 위치 처리부(160)는 사용자로부터 입력부(150)를 통해 템플릿(430)의 해부학적 위치를 설정하는 위치 설정정보가 입력되는지 판단한다(S308). 여기서, 위치 설정정보는 템플릿의 해부학적 위치, 즉 A, P, Ca, Cr, R, L 중 3개의 해부학적 위치를 설정하는 정보를 포함한다. 이것은 해부학적 위치(A)가 설정되면 해부학적 위치(P)가 자동으로 설정될 수 있고, 해부학적 위치(Ca)가 설정되면 해부학적 위치(Cr)가 자동으로 설정될 수 있으며, 해부학적 위치(R)가 설정되면 해부학적 위치(L)가 자동으로 설정될 수 있기 때문이다. The anatomical position processor 160 determines whether position setting information for setting the anatomical position of the template 430 is input from the user through the input unit 150 (S308). Here, the position setting information includes information for setting the anatomical position of the template, that is, three anatomical positions of A, P, Ca, Cr, R, and L. The anatomical position (P) can be automatically set when the anatomical position (A) is set, the anatomical position (Cr) can be automatically set when the anatomical position (Ca) is set, and the anatomical position is set. This is because the anatomical position L can be set automatically when (R) is set.

단계 S308에서 위치 설정정보가 입력된 것으로 판단되면, 해부학적 위치 처리부(160)는 입력된 위치 설정정보에 기초하여 도 15에 도시된 바와 같이 템플릿(430) 및 해부학적 위치 제공부(440)의 해부학적 위치를 설정한다(S310). If it is determined in step S308 that the position setting information is input, the anatomical position processing unit 160 of the template 430 and the anatomical position providing unit 440 as shown in FIG. 15 based on the input position setting information. Set the anatomical position (S310).

해부학적 위치 처리부(160)는 사용자로부터 입력부(150)를 통해 템플릿(430) 또는 해부학적 위치 제공부(440)를 회전시키는 회전 설정정보가 입력되는지 판단한다(S312). 여기서, 회전 설정정보는 기준 단면 영상의 대상체 방향과, 템플릿(430) 또는 해부학적 위치 제공부(440)를 일치시키기 위한 설정정보이다.The anatomical position processor 160 determines whether rotation setting information for rotating the template 430 or the anatomical position providing unit 440 is input from the user through the input unit 150 (S312). The rotation setting information is setting information for matching the object direction of the reference cross-sectional image with the template 430 or the anatomical position providing unit 440.

단계 S312에서 회전 설정정보가 입력된 것으로 판단되면, 해부학적 위치 처 리부(160)는 입력된 회전 설정정보에 기초하여 템플릿(430) 및 해부학적 위치 제공부(440)를 회전시킨다(S314). 다른 실시예에 따라, 해부학적 위치 처리부(160)는 회전 설정정보에 기초하여 해부학적 위치 제공부(440)만을 회전시킬 수도 있다.If it is determined in step S312 that the rotation setting information is input, the anatomical position processing unit 160 rotates the template 430 and the anatomical position providing unit 440 based on the input rotation setting information (S314). According to another exemplary embodiment, the anatomical position processor 160 may rotate only the anatomical position providing unit 440 based on the rotation setting information.

해부학적 위치 처리부(160)는 사용자로부터 입력부(150)를 통해 해부학적 위치 설정을 종료하는 설정 종료정보가 입력되는지 판단한다(S316). 단계 S316에서 설정 종료정보가 입력되지 않은 것으로 판단되면, 해부학적 위치 처리부(160)는 단계 S304를 수행한다. 한편, 단계 S316에서 설정 종료정보가 입력된 것으로 판단되면, 해부학적 위치 처리부(160)는 전술한 절차를 통해 설정된 해부학적 위치 제공부(440)의 해부학적 위치 정보를 저장부(140)에 저장하고(S318), 템플릿 설정화면 및 제2 해부학적 위치 설정화면(330)을 종료시킨다(S320).The anatomical position processing unit 160 determines whether setting end information for terminating anatomical position setting is input from the user through the input unit 150 (S316). If it is determined in step S316 that the setting end information is not input, the anatomical position processing unit 160 performs step S304. On the other hand, if it is determined in step S316 that the setting end information is input, the anatomical position processing unit 160 stores the anatomical position information of the anatomical position providing unit 440 set through the above-described procedure in the storage unit 140. In operation S318, the template setting screen and the second anatomical position setting screen 330 are terminated (S320).

다시 도 2를 참조하면, 해부학적 위치 처리부(170)는 도 3 또는 도 4를 통해 설정된 해부학적 위치 제공부(440)의 해부학적 위치 정보에 기초하여 각 단면영상 및 3D 초음파 영상에 해부학적 위치 정보를 제공한다(S110). 일예로서, 해부학적 위치 처리부(160)는 설정된 해부학적 위치 제공부(440)의 해부학적 위치 정보에 기초하여 단면영상(240a 내지 240c) 각각에 해당하는 해부학적 위치 제공부(440a 내지 440c)와, 3D 초음파 영상(250)에 해당하는 해부학적 위치 제공부(440d)의 해부학적 위치를 설정하고, 해부학적 위치가 설정된 각 해부학적 위치 제공부(440a 내지 440d)를 각 단면영상(240a 내지 240c)과 3D 초음파 영상(250)이 디스플레이되는 뷰(330)의 사전 설정된 위치에 형성한다. Referring back to FIG. 2, the anatomical position processing unit 170 based on the anatomical position information of the anatomical position providing unit 440 set through FIG. 3 or FIG. 4, shows the anatomical position on each cross-sectional image and the 3D ultrasound image. Provides information (S110). As an example, the anatomical position processor 160 may be provided with anatomical position providing units 440a to 440c corresponding to the cross-sectional images 240a to 240c based on the anatomical position information of the set anatomical position providing unit 440. , Sets the anatomical position of the anatomical position providing unit 440d corresponding to the 3D ultrasound image 250, and displays each anatomical position providing unit 440a to 440d in which the anatomical position is set. ) And the 3D ultrasound image 250 are formed at a preset position of the view 330 to be displayed.

해부학적 위치 처리부(160)는 프로브(110)의 3D 위치센서(116)로부터 프로 브(110)의 회전정보를 포함하는 3D 위치정보, 또는 사용자로부터 입력부(150)를 통해 해부학적 위치 제공부(440a 내지 440d)를 회전시키는 회전 정보 중 적어도 1개의 입력된 것으로 판단되면(S112), 입력된 정보에 기초하여 해부학적 위치 제공부(440a 내지 440d)를 회전시킨다(S114).The anatomical position processing unit 160 includes 3D position information including rotation information of the probe 110 from the 3D position sensor 116 of the probe 110, or an anatomical position providing unit through the input unit 150 from the user ( If it is determined that at least one of the rotation information for rotating the 440a to 440d is input (S112), the anatomical position providing units 440a to 440d are rotated based on the input information (S114).

본 발명이 바람직한 실시예를 통해 설명되고 예시되었으나, 당업자라면 첨부된 특허청구범위의 사항 및 범주를 벗어나지 않고 여러 가지 변형 및 변경이 이루어질 수 있음을 알 수 있을 것이다.While the invention has been described and illustrated by way of preferred embodiments, those skilled in the art will recognize that various modifications and changes can be made without departing from the spirit and scope of the appended claims.

전술한 바와 같이 본 발명에 의하면, 대상체 및 프로브의 위치에 따라 초음파 영상에 대한 해부학적 위치를 정확하게 제공할 수 있어, 사용자의 편의성을 증대시킬 수 있다.As described above, according to the present invention, the anatomical position of the ultrasound image can be precisely provided according to the position of the object and the probe, thereby increasing user convenience.

Claims (15)

초음파 신호를 대상체에 송신하고 상기 대상체로부터 반사되는 초음파 신호를 수신하는 프로브;A probe transmitting an ultrasound signal to an object and receiving an ultrasound signal reflected from the object; 상기 수신된 신호에 기초하여 프레임 데이터를 형성하는 데이터 형성부;A data forming unit forming frame data based on the received signal; 상기 프레임 데이터에 기초하여 다수의 단면영상 및 3차원 초음파 영상을 형성하는 영상 형성부;An image forming unit configured to form a plurality of cross-sectional images and three-dimensional ultrasound images based on the frame data; 상기 다수의 단면영상에 대한 해부학적 위치를 설정하고, 상기 설정된 해부학적 위치에 기초하여 상기 다수의 단면영상 및 상기 3차원 초음파 영상에 대한 해부학적 위치 정보를 제공하는 해부학적 위치 처리부An anatomical position processor configured to set anatomical positions of the plurality of cross-sectional images and provide anatomical position information of the plurality of cross-sectional images and the 3D ultrasound image based on the set anatomical positions; 를 포함하는 초음파 시스템.Ultrasound system comprising a. 제1항에 있어서, 상기 다수의 단면영상에서 기준단면의 단면영상에 대한 해부학적 위치를 설정하는 해부학적 위치 설정부를 더 포함하는 초음파 시스템.The ultrasound system of claim 1, further comprising an anatomical positioning unit configured to set an anatomical position of the cross-sectional image of the reference cross-section in the plurality of cross-sectional images. 제2항에 있어서, 상기 해부학적 위치 설정부는The method of claim 2, wherein the anatomical positioning unit 상기 프로브를 통해 초음파 신호가 상기 대상체로 입사하는 방향과 동일한 방향이 되도록 상기 해부학적 위치를 설정하는 제1 설정부;A first setting unit configured to set the anatomical position to be in the same direction as the direction in which the ultrasonic signal enters the object through the probe; 상기 제1 설정부 상에 배치되고 상기 프로브의 위치와 동일한 위치가 되도록 상기 해부학적 위치를 설정하는 제2 설정부;A second setting unit disposed on the first setting unit and setting the anatomical position to be the same position as the position of the probe; 상기 대상체에 해당하는 다수의 템플릿을 포함하며, 상기 해부학적 위치를 설정하는 제3 설정부; 및A third setting unit including a plurality of templates corresponding to the object and setting the anatomical position; And 상기 제1 내지 제3 설정부의 해부학적 위치에 기초하여 상기 기준단면의 단면영상에 대한 해부학적 위치를 설정하는 제4 설정부A fourth setting unit configured to set an anatomical position with respect to the cross-sectional image of the reference cross section based on the anatomical position of the first to third setting units; 를 포함하는 초음파 시스템.Ultrasound system comprising a. 제3항에 있어서, 상기 해부학적 위치 처리부는The method of claim 3, wherein the anatomical position processing unit 외부로부터 초음파 신호가 상기 대상체로 입사하는 방향과 동일한 방향이 되도록 설정하는 제1 설정정보를 입력받아 상기 제1 및 제4 설정부의 해부학적 위치를 설정하는 제1 처리부;A first processor configured to receive first setting information for setting an ultrasound signal from the outside so as to be in the same direction as the incident direction to the object, and to set anatomical positions of the first and fourth setting units; 외부로부터 상기 프로브의 위치와 동일한 위치가 되도록 설정하는 제2 설정정보를 입력받아 상기 제2 및 제4 설정부의 해부학적 위치를 설정하는 제2 처리부; 및A second processor configured to receive second setting information from the outside to set the same position as that of the probe to set anatomical positions of the second and fourth setters; And 상기 제4 설정부의 해부학적 위치에 기초하여, 상기 다수의 단면영상 및 상기 3차원 초음파 영상 각각에 대한 해부학적 위치를 제공하는 다수의 제5 설정부를 형성하고, 상기 다수의 제5 설정부 각각의 해부학적 위치를 설정하는 제3 처리부Based on the anatomical position of the fourth setter, forming a plurality of fifth setters providing anatomical positions for each of the plurality of cross-sectional images and the 3D ultrasound image, and each of the plurality of fifth setters Third processor for setting the anatomical position 를 포함하는 초음파 시스템.Ultrasound system comprising a. 제3항에 있어서, 상기 해부학적 위치 처리부는The method of claim 3, wherein the anatomical position processing unit 외부로부터 상기 다수의 템플릿에서 1개의 템플릿을 선택하는 제3 설정정보 를 입력받아 상기 제3 및 제4 설정부의 해부학적 위치를 설정하는 제4 처리부;A fourth processing unit configured to set anatomical positions of the third and fourth setting units by receiving third setting information for selecting one template from the plurality of templates from the outside; 외부로부터 상기 제3 설정부의 해부학적 위치를 설정하는 제4 설정정보를 입력받아 상기 제3 및 제4 설정부의 해부학적 위치를 설정하는 제5 처리부;A fifth processor configured to receive fourth setting information for setting an anatomical position of the third setter from the outside and set an anatomical position of the third and fourth setters; 상기 제4 설정부의 해부학적 위치에 기초하여, 상기 다수의 단면영상 및 상기 3차원 초음파 영상 각각에 대한 해부학적 위치를 제공하는 다수의 제5 설정부를 형성하고, 상기 다수의 제5 설정부 각각의 해부학적 위치를 설정하는 제6 처리부Based on the anatomical position of the fourth setter, a plurality of fifth setters providing anatomical positions for each of the plurality of cross-sectional images and the 3D ultrasound image are formed, and each of the plurality of fifth setters Sixth processing unit for setting the anatomical position 를 포함하는 초음파 시스템.Ultrasound system comprising a. 제4항 및 제5항중 어느 한 항에 있어서, 상기 다수의 제5 설정부는 상기 제4 설정부와 동일한 형태를 갖는 초음파 시스템.The ultrasound system according to any one of claims 4 and 5, wherein the plurality of fifth setters have the same shape as the fourth setters. 제6항에 있어서, 상기 프로브는 3D 위치센서를 포함하는 초음파 시스템.The ultrasound system of claim 6, wherein the probe comprises a 3D position sensor. 제7항에 있어서, 상기 해부학적 위치 처리부는The method of claim 7, wherein the anatomical position processing unit 상기 3D 위치센서로부터 3D 위치정보를 입력받아 상기 다수의 제5 설정부를 회전시키는 제7 처리부A seventh processor which receives 3D position information from the 3D position sensor and rotates the plurality of fifth setters; 를 포함하는 초음파 시스템.Ultrasound system comprising a. 프로브를 이용하여 초음파 영상을 형성하는 방법으로서,As a method of forming an ultrasound image using a probe, a) 상기 프로브를 통해 초음파 신호를 대상체에 송신하고 상기 대상체로부터 반사되는 초음파 신호를 수신하는 단계;a) transmitting an ultrasound signal to an object through the probe and receiving an ultrasound signal reflected from the object; b) 상기 수신된 신호에 기초하여 프레임 데이터를 형성하는 단계;b) forming frame data based on the received signal; c) 상기 프레임 데이터에 기초하여 다수의 단면영상 및 3차원 초음파 영상을 형성하는 단계;c) forming a plurality of cross-sectional images and three-dimensional ultrasound images based on the frame data; d) 상기 다수의 단면영상에 대한 해부학적 위치를 설정하는 단계; 및d) setting anatomical positions for the plurality of cross-sectional images; And e) 상기 설정된 해부학적 위치에 기초하여 상기 다수의 단면영상 및 상기 3차원 초음파 영상에 대한 해부학적 위치 정보를 제공하는 단계e) providing anatomical position information for the plurality of cross-sectional images and the 3D ultrasound image based on the set anatomical position; 를 포함하는 초음파 영상 형성방법.Ultrasonic image forming method comprising a. 제9항에 있어서, 상기 단계 a) 이전에10. The method of claim 9, prior to step a) a1) 상기 다수의 단면영상에서 기준단면의 단면영상에 대한 해부학적 위치를 설정하는 해부학적 위치 설정부를 마련하는 단계a1) providing an anatomical position setting unit for setting an anatomical position with respect to the cross-sectional image of the reference cross-section in the plurality of cross-sectional images 를 포함하는 초음파 영상 형성방법.Ultrasonic image forming method comprising a. 제10항에 있어서, 상기 단계 a1)은The method of claim 10, wherein step a1) 상기 프로브를 통해 초음파 신호가 상기 대상체로 입사하는 방향과 동일한 방향이 되도록 상기 해부학적 위치를 설정하는 제1 설정부를 마련하는 단계;Providing a first setting unit configured to set the anatomical position to be in the same direction as the direction in which the ultrasound signal enters the object through the probe; 상기 제1 설정부 상에 배치되고 상기 프로브의 위치와 동일한 위치가 되도록 상기 해부학적 위치를 설정하는 제2 설정부를 마련하는 단계;Providing a second setting unit disposed on the first setting unit and setting the anatomical position to be the same position as the position of the probe; 상기 대상체에 해당하는 다수의 템플릿을 포함하며, 상기 해부학적 위치를 설정하는 제3 설정부를 마련하는 단계; 및Providing a third setting unit including a plurality of templates corresponding to the object and setting the anatomical position; And 상기 제1 내지 제3 설정부의 해부학적 위치에 기초하여 상기 기준단면의 단면영상에 대한 해부학적 위치를 설정하는 제4 설정부를 마련하는 단계Providing a fourth setting unit for setting the anatomical position with respect to the cross-sectional image of the reference section based on the anatomical position of the first to third setting unit. 를 포함하는 초음파 영상 형성방법.Ultrasonic image forming method comprising a. 제11항에 있어서, 상기 단계 d)는The method of claim 11, wherein step d) d11) 사용자로부터 초음파 신호가 상기 대상체로 입사하는 방향과 동일한 방향이 되도록 설정하는 제1 설정정보를 입력받는 단계d11) receiving first setting information for setting the ultrasound signal from the user to be in the same direction as the incident direction to the object; d12) 상기 제1 설정정보에 기초하여 상기 제1 및 제4 설정부의 해부학적 위치를 설정하는 단계; 및d12) setting anatomical positions of the first and fourth setting units based on the first setting information; And d13) 사용자로부터 기 프로브의 위치와 동일한 위치가 되도록 설정하는 제2 설정정보를 입력받아 상기 제2 및 제4 설정부의 해부학적 위치를 설정하는 단계d13) setting anatomical positions of the second and fourth setting units by receiving second setting information from the user, the second setting information being set to be the same position as the position of the probe; 를 포함하는 초음파 영상 형성방법.Ultrasonic image forming method comprising a. 제11항에 있어서, 상기 단계 d)는 The method of claim 11, wherein step d) d21) 사용자로부터 상기 다수의 템플릿에서 1개의 템플릿을 선택하는 제3 설정정보를 입력받는 단계;d21) receiving, by a user, third setting information for selecting one template from the plurality of templates; d22) 상기 제3 설정정보에 기초하여 상기 제3 및 제4 설정부의 해부학적 위치를 설정하는 단계;d22) setting anatomical positions of the third and fourth setting units based on the third setting information; d23) 사용자로부터 상기 제3 설정부의 해부학적 위치를 설정하는 제4 설정정 보를 입력받는 단계; 및d23) receiving a fourth setting information for setting an anatomical position of the third setting unit from a user; And d24) 상기 제4 설정정보에 기초하여 상기 제3 및 제4 설정부의 해부학적 위치를 설정하는 단계d24) setting anatomical positions of the third and fourth setting units based on the fourth setting information. 를 포함하는 초음파 영상 형성방법.Ultrasonic image forming method comprising a. 제12항 및 제13항중 어느 한 항에 있어서, 상기 단계 e)는 The method of any one of claims 12 and 13, wherein step e) 상기 다수의 단면영상 및 상기 3차원 초음파 영상 각각에 대한 해부학적 위치를 제공하는 다수의 제5 설정부를 형성하는 단계; 및Forming a plurality of fifth setting units providing anatomical positions of each of the plurality of cross-sectional images and the three-dimensional ultrasound image; And 상기 제4 설정부의 해부학적 위치에 기초하여, 상기 다수의 제5 설정부 각각의 해부학적 위치를 설정하는 단계Setting an anatomical position of each of the plurality of fifth setting units based on the anatomical position of the fourth setting unit; 를 포함하는 초음파 영상 형성방법.Ultrasonic image forming method comprising a. 제14항에 있어서,The method of claim 14, 외부로부터 상기 다수의 단면영상 및 상기 3차원 초음파 영상을 회전시키는 회전정보를 입력받는 단계; 및Receiving rotation information for rotating the plurality of cross-sectional images and the 3D ultrasound image from the outside; And 상기 회전정보에 기초하여 상기 다수의 제5 설정부를 회전시키는 단계Rotating the plurality of fifth setters based on the rotation information; 를 더 포함하는 초음파 영상 형성방법.Ultrasonic image forming method further comprising.
KR1020060110605A 2006-11-09 2006-11-09 Ultrasound Imaging Systems and Methods KR100875620B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060110605A KR100875620B1 (en) 2006-11-09 2006-11-09 Ultrasound Imaging Systems and Methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060110605A KR100875620B1 (en) 2006-11-09 2006-11-09 Ultrasound Imaging Systems and Methods

Publications (2)

Publication Number Publication Date
KR20080042334A true KR20080042334A (en) 2008-05-15
KR100875620B1 KR100875620B1 (en) 2008-12-26

Family

ID=39649065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060110605A KR100875620B1 (en) 2006-11-09 2006-11-09 Ultrasound Imaging Systems and Methods

Country Status (1)

Country Link
KR (1) KR100875620B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101055528B1 (en) * 2008-12-02 2011-08-08 삼성메디슨 주식회사 Ultrasound system and method for providing OH
KR101229490B1 (en) * 2010-05-31 2013-02-04 삼성메디슨 주식회사 3d ultrasound apparatus and method for operating thereof
WO2015130037A1 (en) * 2014-02-28 2015-09-03 Samsung Medison Co., Ltd. Medical imaging apparatus having probe and method of controlling the medical imaging apparatus
US9211105B2 (en) 2009-01-28 2015-12-15 Samsung Medison Co., Ltd. Image indicator provision in an ultrasound system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100326756B1 (en) 1999-04-29 2002-03-12 이호균 Position and Control Signal Input System using Ultrasonic
JP2003164450A (en) 2001-11-26 2003-06-10 Ge Medical Systems Global Technology Co Llc Ultrasonic probe

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101055528B1 (en) * 2008-12-02 2011-08-08 삼성메디슨 주식회사 Ultrasound system and method for providing OH
US9211105B2 (en) 2009-01-28 2015-12-15 Samsung Medison Co., Ltd. Image indicator provision in an ultrasound system
KR101229490B1 (en) * 2010-05-31 2013-02-04 삼성메디슨 주식회사 3d ultrasound apparatus and method for operating thereof
WO2015130037A1 (en) * 2014-02-28 2015-09-03 Samsung Medison Co., Ltd. Medical imaging apparatus having probe and method of controlling the medical imaging apparatus

Also Published As

Publication number Publication date
KR100875620B1 (en) 2008-12-26

Similar Documents

Publication Publication Date Title
EP3013244B1 (en) System and method for mapping ultrasound shear wave elastography measurements
KR101182880B1 (en) Ultrasound system and method for providing image indicator
US10251627B2 (en) Elastography measurement system and method
KR100948047B1 (en) Ultrasound system and method for forming ultrasound image
JP6018411B2 (en) Ultrasound imaging system for image-guided maneuvers
JP5015580B2 (en) Ultrasonic diagnostic apparatus and report image creation method
US9713508B2 (en) Ultrasonic systems and methods for examining and treating spinal conditions
JP6109556B2 (en) Ultrasonic diagnostic apparatus and image processing program
KR20080053057A (en) Ultrasound imaging system and method for forming and displaying fusion image of ultrasound image and external medical image
US20080063305A1 (en) Apparatus and method for displaying an ultrasound image
US9675321B2 (en) Ultrasonographic systems and methods for examining and treating spinal conditions
JP2009089736A (en) Ultrasonograph
EP3195807B1 (en) Ultrasonic imaging apparatus
JP2009207899A (en) System and method for processing ultrasound image
US20070100238A1 (en) System and method for forming 3-dimensional images using multiple sectional plane images
JP2014161444A (en) Ultrasound diagnostic device, medical image processor and control program
KR20110064842A (en) Ultrasound system and method for providing compounding image of two-dimensional ultrasound image and three-dimensional ultrasound image
KR100875620B1 (en) Ultrasound Imaging Systems and Methods
KR20120046539A (en) Ultrasound system and method for providing body mark
US20150182198A1 (en) System and method for displaying ultrasound images
KR20180087698A (en) Ultrasound diagnostic apparatus for displaying shear wave data of the object and method for operating the same
JP5421349B2 (en) Ultrasonic diagnostic apparatus and report image creation method
KR102615722B1 (en) Ultrasound scanner and method of guiding aim
TWI852356B (en) Ultrasound imaging system
KR101055528B1 (en) Ultrasound system and method for providing OH

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120910

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20130911

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20141128

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151119

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20161205

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20171129

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20181128

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20191202

Year of fee payment: 12