KR20150000627A - Ultrasonic imaging apparatus and control method for thereof - Google Patents

Ultrasonic imaging apparatus and control method for thereof Download PDF

Info

Publication number
KR20150000627A
KR20150000627A KR20130072953A KR20130072953A KR20150000627A KR 20150000627 A KR20150000627 A KR 20150000627A KR 20130072953 A KR20130072953 A KR 20130072953A KR 20130072953 A KR20130072953 A KR 20130072953A KR 20150000627 A KR20150000627 A KR 20150000627A
Authority
KR
South Korea
Prior art keywords
image
operator
ultrasonic
volume data
generating
Prior art date
Application number
KR20130072953A
Other languages
Korean (ko)
Inventor
김윤태
김정호
김규홍
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR20130072953A priority Critical patent/KR20150000627A/en
Priority to PCT/KR2014/005572 priority patent/WO2014208977A1/en
Publication of KR20150000627A publication Critical patent/KR20150000627A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4209Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
    • A61B8/4227Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by straps, belts, cuffs or braces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4455Features of the external shape of the probe, e.g. ergonomic aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8909Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
    • G01S15/8915Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array
    • G01S15/8925Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array the array being a two-dimensional transducer configuration, i.e. matrix or orthogonal linear arrays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/899Combination of imaging systems with ancillary equipment

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

Disclosed are an ultrasonic imaging apparatus and a control method thereof, capable of providing an intuitive ultrasonic image. The ultrasonic imaging apparatus according to one embodiment of the ultrasonic imaging apparatus includes a flexible probe which emits an ultrasonic wave to an object, receives an ultrasonic echo reflected from the object, and has a planar shape, an image processing unit which tracks the gaze of an operator from the image to photograph the operator and generates an ultrasonic image by processing 3D volume data obtained by the ultrasonic echo according to the tracked gaze, and a flexible display which is formed on one side of the flexible probe, displays the ultrasonic image, and has a planar shape.

Description

초음파 영상 장치 및 그 제어 방법{Ultrasonic imaging apparatus and control method for thereof}[0001] The present invention relates to an ultrasound imaging apparatus and a control method thereof,

초음파 영상 장치 및 그 제어 방법이 개시된다. 더욱 상세하게는 직관적인 초음파 영상을 제공할 수 있는 초음파 영상 장치 및 그 제어 방법이 개시된다. An ultrasonic imaging apparatus and a control method thereof are disclosed. And more particularly, to an ultrasound imaging apparatus and a control method thereof that can provide an intuitive ultrasound image.

의료 영상 장치로는 엑스선촬영장치, 엑스선투시촬영장치, CT 스캐너(Computerized Tomography Scanner), 자기공명영상장치(Magnetic Resonance Image; MRI), 양전자방출단층촬영장치(Positron Emission Tomography; PET), 초음파 영상 장치 등을 예로 들 수 있다. Medical imaging devices include X-ray imaging devices, X-ray fluoroscopy devices, CT scanners, Magnetic Resonance Imaging (MRI), Positron Emission Tomography (PET), ultrasound imaging devices And the like.

초음파 영상 장치는 대상체의 내부로 초음파를 조사하고, 대상체의 내부에서 반사된 초음파 에코에 기초하여 대상체의 내부 조직에 대한 단층 영상이나 혈류에 대한 영상을 비침습적으로 얻을 수 있는 장치이다. The ultrasound imaging apparatus is a device that irradiates ultrasonic waves into a target object and non-invasively obtains tomographic images or blood flow images of the internal tissues of the target based on ultrasound echoes reflected from the inside of the target object.

초음파 영상 장치는 다른 의료 영상 장치들에 비하여 소형이고 저렴하며, 실시간으로 표시 가능하다는 장점이 있다. 또한 환자가 엑스선 등의 방사선에 노출될 위험이 없어 안정성이 높다는 장점이 있다. 때문에 초음파 영상 장치는 심장, 유방, 복부, 비뇨기 및 산부인과 진단을 위해 널리 사용되고 있다.Ultrasonic imaging devices are smaller and cheaper than other medical imaging devices, and are advantageous in that they can be displayed in real time. In addition, there is no risk that the patient is exposed to radiation such as X-rays, which is advantageous in stability. Therefore, ultrasound imaging devices are widely used for diagnosis of heart, breast, abdomen, urinary and obstetrics.

직관적인 초음파 영상을 제공할 수 있는 초음파 영상 장치 및 그 제어 방법이 제공된다. There is provided an ultrasound imaging apparatus and its control method capable of providing an intuitive ultrasound image.

상술한 과제를 해결하기 위하여, 초음파 영상 장치의 일 실시예는 대상체로 초음파를 조사하고, 상기 대상체에서 반사된 초음파 에코를 수신하는 면 형상의 플렉서블 프로브; 조작자를 촬영한 영상으로부터 상기 조작자의 시선을 추적하고, 상기 초음파 에코로부터 획득된 3차원 볼륨 데이터를 상기 추적된 시선에 따라 처리하여 초음파 영상을 생성하는 영상 처리부; 및 상기 플렉서블 프로브의 일면에 마련되어, 상기 초음파 영상을 디스플레이하는 면 형상의 플렉서블 디스플레이를 포함한다. According to an embodiment of the present invention, there is provided an ultrasonic imaging apparatus including: a planar flexible probe for irradiating ultrasound to a target object and receiving ultrasound echoes reflected from the target object; An image processor for tracking the operator's gaze from the image of the operator and processing the three-dimensional volume data obtained from the ultrasound echo according to the tracked gaze to generate an ultrasound image; And a planar flexible display provided on one surface of the flexible probe for displaying the ultrasound image.

상술한 과제를 해결하기 위하여, 초음파 영상 장치 제어 방법의 일 실시예는 면 형상의 플렉서블 프로브를 이용하여, 대상체로 초음파를 조사하고, 상기 대상체에서 반사된 초음파 에코를 수신하는 단계; 조작자를 촬영한 영상으로부터 상기 조작자의 시선을 추적하고, 상기 초음파 에코로부터 획득된 3차원 볼륨 데이터를 상기 추적된 시선에 따라 처리하여 초음파 영상을 생성하는 단계; 및 상기 플렉서블 프로브의 일면에 마련되는 면 형상의 플렉서블 디스플레이를 통해 상기 초음파 영상을 디스플레이하는 단계를 포함한다. According to an embodiment of the present invention, there is provided a method of controlling an ultrasonic imaging apparatus, the method comprising: receiving an ultrasonic echo reflected from the object by irradiating ultrasonic waves to the object using a planar flexible probe; Tracking an operator's line of sight from an image of an operator and generating an ultrasound image by processing the 3D volume data obtained from the ultrasonic echo according to the tracked line of sight; And displaying the ultrasound image through a flexible display on a surface of the flexible probe.

플렉서블 플렉서블 프로브와 플렉서블 디스플레이가 일체형으로 구현되므로, 직관적인 초음파 영상을 제공할 수 있다.Since the flexible flexible probe and the flexible display are integrated, it is possible to provide an intuitive ultrasound image.

도 1은 초음파 영상 장치의 일 실시예에 대한 사시도이다.
도 2는 초음파 영상 장치의 다른 실시예에 대한 사시도이다.
도 3은 초음파 영상 장치의 일 실시예에 대한 구성도이다.
도 4는 송신 빔포머의 일 실시예에 대한 구성도이다.
도 5는 수신 빔포머의 일 실시예에 대한 구성도이다.
도 6은 영상 처리부의 일 실시예에 대한 구성도이다.
도 7a 및 도 7b는 도 6의 영상 처리부에서 생성되는 단면 영상을 설명하기 위한 도면이다.
도 8은 도 6의 영상 처리부에서 생성되는 투영 영상을 설명하기 위한 도면이다.
도 9는 영상 처리부의 다른 실시예에 대한 구성도이다.
도 10은 영상 처리부의 또 다른 실시예에 대한 구성도이다.
도 11은 도 6의 영상 처리부를 포함하는 초음파 영상 장치의 제어 방법을 도시한 흐름도이다.
도 12는 도 9의 영상 처리부를 포함하는 초음파 영상 장치의 제어 방법을 도시한 흐름도이다.
도 13은 도 10의 영상 처리부를 포함하는 초음파 영상 장치의 제어 방법을 도시한 흐름도이다.
1 is a perspective view of an embodiment of an ultrasound imaging apparatus.
2 is a perspective view of another embodiment of the ultrasound imaging apparatus.
3 is a block diagram of an embodiment of an ultrasound imaging apparatus.
4 is a block diagram of an embodiment of a transmit beamformer.
5 is a block diagram of an embodiment of a receive beamformer.
6 is a configuration diagram of an embodiment of the image processing unit.
FIGS. 7A and 7B are views for explaining a cross-sectional image generated in the image processor of FIG.
8 is a diagram for explaining a projection image generated by the image processing unit of FIG.
9 is a configuration diagram of another embodiment of the image processing unit.
10 is a configuration diagram of another embodiment of the image processing unit.
11 is a flowchart showing a control method of the ultrasound imaging apparatus including the image processing unit of FIG.
12 is a flowchart illustrating a control method of the ultrasound imaging apparatus including the image processing unit of FIG.
13 is a flowchart illustrating a control method of the ultrasound imaging apparatus including the image processing unit of FIG.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

이하, 첨부된 도면들을 참조하여 초음파 영상 장치 및 그 제어 방법에 대한 실시예들을 설명한다. 도면에서 동일한 도면 부호는 동일한 구성 요소를 나타낸다. Hereinafter, embodiments of an ultrasound imaging apparatus and a control method thereof will be described with reference to the accompanying drawings. In the drawings, like reference numerals designate like elements.

개시된 초음파 영상 장치는 대상체의 목표 부위로 초음파를 조사하고, 대상체의 목표 부위에서 반사된 초음파 에코를 전기적 신호로 변환한다. 그리고 전기적 신호에 기초하여 목표 부위에 대한 초음파 영상을 얻는다. The disclosed ultrasound imaging apparatus irradiates ultrasound to a target site of a target object and converts the ultrasound echo reflected from a target site of the target object into an electrical signal. And obtains an ultrasound image of the target site based on the electrical signal.

도 1은 초음파 영상 장치의 일 실시예에 대한 사시도이다. 1 is a perspective view of an embodiment of an ultrasound imaging apparatus.

도 1에 도시된 바와 같이 초음파 영상 장치(200)는 몸체(201) 및 몸체(201)에 마련된 벨트(290)를 포함할 수 있다. As shown in FIG. 1, the ultrasound imaging apparatus 200 may include a body 201 and a belt 290 provided on the body 201.

몸체(201)에는 플렉서블 프로브(230), 플렉서블 디스플레이(220) 및 촬영부(210)가 마련될 수 있다. The body 201 may be provided with a flexible probe 230, a flexible display 220, and a photographing unit 210.

플렉서블 프로브(230)는 대상체(10)의 체표에 접촉하는 부분으로, 면 형상 예를 들어, 사각 형상을 가질 수 있다. 도면에 도시되지는 않았으나, 플렉서블 프로브(230)는 플렉서블 기판(flexible substrate)과, 플렉서블 기판 위에 마련된 복수의 초음파 소자(T)를 포함할 수 있다. The flexible probe 230 is a portion that contacts the body surface of the object 10 and may have a planar shape, for example, a rectangular shape. Although not shown in the drawing, the flexible probe 230 may include a flexible substrate and a plurality of ultrasonic elements T provided on a flexible substrate.

플렉서블 기판은 휘어지거나, 접히거나, 구부려질 수 있다. 플렉서블 기판의 소재로는 플라스틱 기판(고분자 필름), 금속 박막(metal foi), 박막 유리(thin glass) 등을 예로 들 수 있다. The flexible substrate can be bent, folded, or bent. Examples of the material of the flexible substrate include a plastic substrate (polymer film), a metal foi, a thin glass, and the like.

복수의 초음파 소자(T)는 대상체(10)의 내부로 초음파를 조사하고, 대상체(10)의 내부에서 반사된 초음파 에코를 수신하여 전기적 신호로 변환한다. 일 예로, 초음파 소자(T)는 초음파를 발생시키는 초음파 발생 소자 및 초음파 에코를 수신하여 전기적 신호로 변환하는 초음파 수신 소자를 포함할 수 있다. 다른 예로, 하나의 초음파 소자(T)에서 초음파 발생 및 초음파 에코 수신이 모두 이루어질 수도 있다. The plurality of ultrasound elements T irradiate the inside of the target body 10 with ultrasound waves and receive ultrasound echoes reflected inside the target body 10 and convert them into electrical signals. For example, the ultrasonic element T may include an ultrasonic wave generating element for generating an ultrasonic wave and an ultrasonic receiving element for receiving the ultrasonic wave echo and converting the ultrasonic wave into an electric signal. As another example, both the ultrasonic wave generation and the ultrasonic echo reception may be performed in one ultrasonic wave element T.

초음파 소자(T)는 초음파 트랜스듀서(ultrasound transducer)일 수도 있다. 트랜스듀서란 소정 형태의 에너지를 다른 형태의 에너지로 변환시키는 장치를 말한다. 예를 들어 초음파 트랜스듀서는 전기 에너지를 파동 에너지로 변환시키고, 파동 에너지를 전기 에너지로 변환시킬 수 있다. 다시 말해, 초음파 트랜스듀서는 초음파 발생 소자의 기능 및 초음파 수신 소자의 기능을 모두 수행할 수 있다. The ultrasonic element T may be an ultrasound transducer. A transducer is a device that converts a given type of energy into another type of energy. For example, an ultrasonic transducer can convert electrical energy into wave energy and wave energy into electrical energy. In other words, the ultrasonic transducer can perform both the function of the ultrasonic wave generating element and the function of the ultrasonic wave receiving element.

좀 더 구체적으로 초음파 트랜스듀서는 압전 물질이나 압전 박막을 포함할 수 있다. 만약 배터리 등의 내부 축전 장치나 외부의 전원 공급 장치로부터 교류 전류가 압전 물질이나 압전 박막에 인가되면, 압전 물질이나 압전 박막은 소정의 주파수로 진동하게 되고, 진동 주파수에 따라 소정 주파수의 초음파가 생성된다. 이와 반대로 소정 주파수의 초음파 에코가 압전 물질이나 압전 박막에 도달하면, 압전 물질이나 압전 박막은 도달한 초음파 에코의 주파수에 따라 진동하게 된다. 이 때, 압전 물질이나 압전 박막은 진동 주파수에 대응하는 주파수의 교류 전류를 출력한다. More specifically, the ultrasonic transducer may include a piezoelectric material or a piezoelectric thin film. If an alternating current is applied to the piezoelectric material or the piezoelectric thin film from an internal power storage device such as a battery or an external power supply device, the piezoelectric material or the piezoelectric thin film vibrates at a predetermined frequency, and ultrasonic waves of a predetermined frequency are generated do. On the other hand, when the ultrasonic echo of a predetermined frequency reaches the piezoelectric material or the piezoelectric thin film, the piezoelectric material or the piezoelectric thin film vibrates according to the frequency of the ultrasonic echo reached. At this time, the piezoelectric material or the piezoelectric thin film outputs an alternating current having a frequency corresponding to the vibration frequency.

초음파 트랜스듀서로는 자성체의 자왜효과를 이용하는 자왜 초음파 트랜스듀서(Magnetostrictive Ultrasonic Transducer)나, 압전 물질의 압전 효과를 이용한 압전 초음파 트랜스듀서(Piezoelectric Ultrasonic Transducer), 미세 가공된 수백 또는 수천 개의 박막의 진동을 이용하여 초음파를 송수신하는 정전용량형 미세가공 초음파 트랜스듀서(Capacitive Micromachined Ultrasonic Transducer; CMUT) 등 다양한 종류의 초음파 트랜스듀서가 사용될 수 있다. 이외에도 전기적 신호에 따라 초음파를 생성하거나, 초음파에 따라 전기적 신호를 생성할 수 있는 다른 종류의 트랜스듀서들도 초음파 트랜스듀서로 사용될 수 있다. Ultrasonic transducers include magnetostrictive ultrasonic transducers that utilize the magnetostrictive effects of magnetic materials, piezoelectric ultrasonic transducers that use the piezoelectric effect of piezoelectric materials, vibrations of hundreds or thousands of microfabricated thin films And a capacitive micromachined ultrasonic transducer (CMUT) that transmits and receives ultrasonic waves using the ultrasonic transducer. In addition, other types of transducers capable of generating ultrasonic waves according to electrical signals or generating electrical signals according to ultrasonic waves can also be used as ultrasonic transducers.

일 예로, 복수의 초음파 트랜스듀서는 플렉서블 기판 위에 매트릭스 형태로 배열될 수 있다. 복수의 초음파 트랜스듀서가 매트릭스 형태로 배열되므로, 한번의 초음파 송신으로 3차원 볼륨 데이터를 획득할 수 있다. For example, a plurality of ultrasonic transducers may be arranged in a matrix form on a flexible substrate. Since a plurality of ultrasonic transducers are arranged in a matrix form, three-dimensional volume data can be obtained by one ultrasonic transmission.

다른 예로, 복수의 초음파 트랜스듀서는 플렉서블 기판 위에 일렬로 배열되되, 플렉서블 기판 위에서 이동 가능하도록 구현될 수도 있다. 구체적으로, 일렬로 배열된 복수의 트랜스듀서의 양쪽 끝에, 복수의 트랜스듀서가 배열된 방향과 수직한 방향으로 레일(미도시)이 마련될 수 있다. 그리고, 일렬로 배열된 복수의 트랜스듀서를 이 레일을 따라 주사 방향(scaning direction)으로 이동시켜, 복수의 초음파 영상을 획득할 수 있다. 복수의 초음파 영상이 획득되면, 이를 축적하여 3차원 볼륨 데이터를 획득할 수 있다. As another example, a plurality of ultrasonic transducers may be arranged in a line on a flexible substrate, but may be implemented to be movable on a flexible substrate. Specifically, rails (not shown) may be provided at both ends of a plurality of transducers arranged in a row in a direction perpendicular to the direction in which a plurality of transducers are arranged. A plurality of transducers arranged in a row may be moved along the rail in a scanning direction to acquire a plurality of ultrasound images. When a plurality of ultrasound images are acquired, they can be accumulated to acquire three-dimensional volume data.

이하의 설명에서는 복수의 초음파 트랜스듀서가 플렉서블 기판 위에 매트릭스 형태로 배열된 경우를 예로 들어 설명하기로 한다. In the following description, a case where a plurality of ultrasonic transducers are arranged in a matrix form on a flexible substrate will be described as an example.

플렉서블 디스플레이(220)는 플렉서블 프로브(230)의 상부에 마련된다. 플렉서블 디스플레이(220)는 플렉서블 프로브(230)와 마찬가지로 면 형상 예를 들어, 사각 형상을 가질 수 있다. 플렉서블 디스플레이(220)는 예를 들어, LCD(Lquid Crystal Display), OLED(Organic Light Emitting Diode), 또는 EPD(Electrophoretic Display)로 구현될 수 있다. The flexible display 220 is provided on the upper portion of the flexible probe 230. Like the flexible probe 230, the flexible display 220 may have a planar shape, for example, a rectangular shape. The flexible display 220 may be implemented by, for example, an LCD (Liquid Crystal Display), an OLED (Organic Light Emitting Diode), or an EPD (Electrophoretic Display).

플렉서블 디스플레이(220)는 플렉서블 기판과, 플렉서블 기판 위에 형성된 박막 트랜지스터 어레이(Thin Film Transistor array, TFT array)를 포함할 수 있다. The flexible display 220 may include a flexible substrate and a thin film transistor array (TFT array) formed on the flexible substrate.

플렉서블 기판은 휘어지거나, 접히거나, 구부려질 수 있다. 플렉서블 기판의 소재로는 플라스틱 기판(고분자 필름), 금속 박막(metal foi), 박막 유리(thin glass) 등을 예로 들 수 있다. The flexible substrate can be bent, folded, or bent. Examples of the material of the flexible substrate include a plastic substrate (polymer film), a metal foi, a thin glass, and the like.

TFT 어레이는 복수의 TFT가 배열된 것을 말한다. TFT는 디스플레이 화면의 픽셀마다 마련된다. TFT는 박막 형상의 반도체에 흐르는 전류를 그것과 수직인 전계를 가해서 제어하는 것으로, 전계 효과 트랜지스터(Field Effect Transistor)의 일종이다. 도면에 도시되지는 않았으나, TFT는 기판 위에 서로 이격되어 형성된 소스 전극과 드레인 전극, 소스 전극과 드레인 전극에 걸쳐서 형성된 반도체 박막, 반도체 박막 위에 형성된 절연막, 절연막 위에 형성된 게이트를 포함할 수 있다. 소스 전극 및 드레인 전극은 예를 들어, 알루미늄이나 인듐을 기판 위에 증착하여 만들 수 있다. 반도체 박막은 예를 들어, 황화 카드뮴(CdS)를 전극 위에 증착하여 만들 수 있다. 절연막은 예를 들어, 산화 규소(SiO2)를 반도체 박막 위체 증착하여 만들 수 있다. The TFT array means a plurality of TFTs arranged. A TFT is provided for each pixel of the display screen. A TFT is a kind of a field effect transistor in which a current flowing in a thin film semiconductor is controlled by applying an electric field perpendicular thereto. Although not shown in the figure, the TFT may include a source electrode and a drain electrode formed on a substrate, a semiconductor thin film formed over the source electrode and the drain electrode, an insulating film formed on the semiconductor thin film, and a gate formed on the insulating film. The source electrode and the drain electrode can be made, for example, by depositing aluminum or indium on the substrate. The semiconductor thin film can be made, for example, by depositing cadmium sulfide (CdS) on the electrode. The insulating film can be formed, for example, by depositing silicon oxide (SiO 2 ) on a semiconductor thin film.

플렉서블 디스플레이(220)는 디스플레이 기능을 가질 수 있다. 예를 들면, 플렉서블 디스플레이(220)는 초음파 영상을 디스플레이할 수 있다. 초음파 영상으로는 3차원 볼륨 데이터로부터 획득한 단면 영상, 및 3차원 볼륨 데이터를 소정 시점을 기준으로 볼륨 렌더링하여 획득한 투영 영상을 예로 들 수 있다. 플렉서블 디스플레이(220)를 통해 어떠한 종류의 초음파 영상을 디스플레이할 것인지는 조작자에 의해 사전에 설정될 수 있다. 설정된 값은 초음파 영상 장치(200)의 저장부(도 3의 280 참조)에 저장될 수 있다. The flexible display 220 may have a display function. For example, the flexible display 220 may display an ultrasound image. Examples of the ultrasound image include a sectional image obtained from three-dimensional volume data, and a projection image obtained by volume rendering of three-dimensional volume data based on a predetermined point in time. The kind of ultrasound image to be displayed through the flexible display 220 can be preset by the operator. The set value may be stored in the storage unit (see 280 in FIG. 3) of the ultrasound imaging apparatus 200.

플렉서블 디스플레이(220)는 디스플레이 기능 외에도 입력 기능을 가질 수도 있다. 예를 들어, 플렉서블 디스플레이(220)는 터치 디스플레이로 구현될 수 있다. 이 경우, 플렉서블 디스플레이(220)의 디스플레이 화면에는 그림이나 글자 등의 메뉴가 표시될 수 있다. 메뉴는 초음파 영상과 별도의 영역에 디스플레이되거나, 초음파 영상에 중첩되어 표시될 수 있다. 조작자는 표시된 메뉴에 손가락이나 스타일러스 등을 갖다댐으로써, 초음파 영상 장치(200)를 조작하기 위한 지시나 명령을 입력할 수 있다. 이외에도, 조작자는 손이나 스타일러스를 이용하여, 초음파 영상에서 병변 영역을 마킹할 수도 있다. The flexible display 220 may have an input function in addition to the display function. For example, the flexible display 220 may be implemented as a touch display. In this case, a menu such as a picture or a letter may be displayed on the display screen of the flexible display 220. The menu may be displayed in a separate area from the ultrasound image, or superimposed on the ultrasound image. The operator can input an instruction or command for operating the ultrasound imaging apparatus 200 by holding a finger or a stylus on the displayed menu. In addition, the operator may mark the lesion area in the ultrasound image using a hand or a stylus.

만약, 플렉서블 디스플레이(220)가 디스플레이 기능만을 가진다면, 초음파 영상 장치(200)에는 조작자가 지시나 명령을 입력할 수 있는 입력부(미도시) 및/또는 조작자가 외부 장치에서 입력한 지시나 명령을 외부 장치로부터 수신하기 위한 통신부(미도시)가 추가로 구비될 수 있다. 통신부는 유선 통신 및/또는 무선 통신을 통해 외부 장치로부터 지시나 명령을 수신할 수 있다. If the flexible display 220 has only a display function, the ultrasound imaging apparatus 200 is provided with an input unit (not shown) through which an operator can input an instruction or a command and / or an instruction or command input by the operator from the external apparatus A communication unit (not shown) for receiving data from an external device may be additionally provided. The communication unit can receive an instruction or command from an external device through wired communication and / or wireless communication.

한편, 플렉서블 프로브(230)와 플렉서블 디스플레이(220) 사이에는 초음파 영상 장치(200)의 주요 구성요소들이 수납될 수 있다. 예를 들면, 도 3에 도시된 제어부(240), 송신 빔포머(250), 수신 빔포머(260), 영상 처리부(270) 및 저장부(280) 등이 수납될 수 있다. 이들 구성요소들에 대한 구체적인 설명은 도 3을 참조하여 후술하기로 한다.The main components of the ultrasound imaging apparatus 200 may be accommodated between the flexible probe 230 and the flexible display 220. For example, the control unit 240, the transmission beamformer 250, the reception beamformer 260, the image processing unit 270, and the storage unit 280 shown in FIG. 3 may be accommodated. A detailed description of these components will be given later with reference to FIG.

촬영부(210)는 조작자를 촬영하여, 조작자에 대한 영상을 획득할 수 있다. 구체적으로, 촬영부(210)는 조작자의 눈으로 적외선을 투영하는 적외선 발광체(intrafed emitter) 및 조작자의 각막에서 반사된 적외선을 촬영하는 카메라를 포함할 수 있다. 적외선 발광체는 예를 들어, 적외선 발광 다이오드(Light Emitting Diode; LED)로 구현될 수 있다. 카메라에 의해 획득된 영상은 조작자의 시선을 추적하는데 사용될 수 있다. 구체적으로, 시선의 방향에 따라 적외선의 반사 정도가 달라진다. 따라서 반사되는 적외선에 기초하여 조작자의 시선의 방향을 산출할 수 있다. The photographing unit 210 can photograph an operator and acquire an image for the operator. Specifically, the photographing unit 210 may include an intrafed emitter for projecting infrared light with an operator's eye and a camera for photographing infrared light reflected from the cornea of the operator. The infrared light emitters may be implemented with, for example, an infrared light emitting diode (LED). The image obtained by the camera can be used to track the operator's gaze. Specifically, the degree of reflection of infrared rays changes depending on the direction of the line of sight. Therefore, the direction of the line of sight of the operator can be calculated based on the reflected infrared rays.

촬영부(210)의 개수 및 설치 위치는 다양하게 변형될 수 있다. The number and position of the photographing unit 210 can be variously modified.

일 예로, 도 1에 도시된 바와 같이, 플렉서블 디스플레이(220)의 가장자리에 두 개의 촬영부(210)가 구비될 수 있다. 이 때, 두 개의 촬영부(210)는 도 1에 도시된 바와 같이, 플렉서블 디스플레이(220)의 가장자리의 중앙쪽에 배치되되, 두 개의 촬영부(210)는 소정 간격 이격되어 설치될 수 있다. 도면에 도시되지는 않았으나, 두 개의 촬영부(210)는 플렉서블 디스플레이(220)의 좌우 모서리에 각각 설치될 수도 있다. For example, as shown in FIG. 1, two photographing units 210 may be provided on the edge of the flexible display 220. In this case, as shown in FIG. 1, the two photographing units 210 are disposed at the center of the edge of the flexible display 220, and the two photographing units 210 may be spaced apart from each other by a predetermined distance. Although not shown in the drawing, the two photographing units 210 may be installed at the left and right corners of the flexible display 220, respectively.

다른 예로, 도 2에 도시된 바와 같이, 플렉서블 디스플레이(220)의 가장자리에 한 개의 촬영부(210)가 구비될 수 있다. 이 경우, 촬영부(210)는 도 2에 도시된 바와 같이, 플렉서블 디스플레이(220)의 가장자리의 중앙에 설치될 수 있다. 그러나, 촬영부(210)의 위치가 반드시 이로 한정되는 것은 아니며, 플렉서블 디스플레이(220)의 네 개의 모서리 중에서 어느 하나의 모서리에 설치될 수도 있다. As another example, as shown in FIG. 2, one photographing unit 210 may be provided at the edge of the flexible display 220. In this case, the photographing unit 210 may be installed at the center of the edge of the flexible display 220, as shown in FIG. However, the position of the photographing unit 210 is not limited to this, and may be provided at any one of the four corners of the flexible display 220.

또 다른 예로, 촬영부(210)는 조작자의 머리에 착용될 수 있는 장비 예를 들어, 안경, 고글, 헤드셋 등에 구비될 수도 있다. 이 경우, 촬영부(210)에 의해 촬영된 영상은 유선 통신 또는 무선 통신에 의해 몸체(201)로 전송될 수 있다. As another example, the photographing unit 210 may be equipped with equipment that can be worn on the operator's head, such as glasses, goggles, a headset, and the like. In this case, the image photographed by the photographing unit 210 can be transmitted to the body 201 by wire communication or wireless communication.

벨트(290)는 몸체(201)의 양단에 마련될 수 있다. 벨트(290)는 대상체 예를 들어, 환자의 복부에 몸체(201)를 고정시키는 역할을 한다. 뿐만 아니라, 벨트(290)는 대상체에 플렉서블 프로브(230)를 밀착시키는 역할을 한다. 벨트(290)는 길이가 조절 가능하도록 구성될 수 있다. 또한, 벨트(290)는 신축성 있는 소재로 만들어질 수도 있다. The belt 290 may be provided at both ends of the body 201. The belt 290 serves to secure the body 201 to the subject, e.g., the abdomen of the patient. In addition, the belt 290 functions to bring the flexible probe 230 into close contact with the object. The belt 290 can be configured to be adjustable in length. The belt 290 may also be made of a stretchable material.

도 3은 초음파 영상 장치(200)의 일 실시예에 대한 구성도이다. 3 is a block diagram of an embodiment of the ultrasound imaging apparatus 200. As shown in FIG.

도 3에 도시된 바와 같이, 초음파 영상 장치(200)는 촬영부(210), 플렉서블 디스플레이(220), 플렉서블 프로브(230), 제어부(240), 송신 빔포버(250), 수신 빔포머(260), 영상 처리부(270) 및 저장부(280)를 포함할 수 있다. 3, the ultrasound imaging apparatus 200 includes an imaging unit 210, a flexible display 220, a flexible probe 230, a controller 240, a transmission beam paver 250, a reception beam former 260 An image processing unit 270, and a storage unit 280.

촬영부(210), 플렉서블 디스플레이(220) 및 플렉서블 프로브(230)에 대한 설명은 도 1 및 도 2를 참조하여 설명하였으므로, 중복되는 설명은 생략하기로 한다. The description of the photographing unit 210, the flexible display 220, and the flexible probe 230 has been described with reference to FIGS. 1 and 2, and a description thereof will be omitted.

제어부(240)는 초음파 영상 장치(200)의 전반적인 동작을 제어할 수 있다. 구체적으로, 제어부(240)는 조작자 또는 외부 장치로부터 수신한 지시나 명령에 대응하여 송신 빔포머(250), 수신 빔포머(260), 영상 처리부(270), 저장부(280) 및 플렉서블 디스플레이(220) 중 적어도 하나를 제어하기 위한 제어 신호를 생성할 수 있다. 예를 들어, 조작자가 손이나 스타일러스를 이용하여 병변 영역을 마킹하는 경우, 제어부(240)는 조작자가 마킹한 영역에 실선 등을 표시함으로써, 다른 영역과 구분될 수 있도록 한다. The control unit 240 can control the overall operation of the ultrasound imaging apparatus 200. Specifically, the control unit 240 controls the transmission beamformer 250, the reception beamformer 260, the image processing unit 270, the storage unit 280, and the flexible display (not shown) corresponding to instructions or commands received from the operator or external device 220). ≪ / RTI > For example, when an operator marks a lesion area using a hand or a stylus, the control section 240 displays a solid line or the like in an area marked by the operator so that the area can be distinguished from other areas.

송신 빔포머(250)는 송신 빔포밍(transmit beamforming)을 수행할 수 있다. 송신 빔포밍이란 적어도 하나의 초음파 소자(T)에서 발생된 초음파를 초점(focal point)에 집속시키는 것을 말한다. 즉, 적어도 하나의 초음파 소자(T)에서 발생된 초음파가 초점에 도달하는 시간 차이를 극복하기 위하여 적절한 순서를 정해서 초음파 소자(T)에서 초음파를 발생시키는 것을 말한다. 송신 빔포밍에 대한 보다 구체적인 설명을 위해 도 5를 참조하기로 한다. The transmit beamformer 250 may perform transmit beamforming. The transmission beamforming refers to focusing ultrasound generated from at least one ultrasonic element T at a focal point. That is, it refers to generating ultrasonic waves in the ultrasonic element T by setting an appropriate order in order to overcome the time difference in which the ultrasonic waves generated in the at least one ultrasonic element T reach the focus. For a more detailed description of transmission beamforming, reference is made to Fig.

도 4는 송신 빔포머(250)를 도시한 구성도이다. 도 4에 도시된 바와 같이, 송신 빔포머(250)는 송신 신호 생성부(251) 및 시간 지연부(252)를 포함할 수 있다. 4 is a block diagram showing the transmission beamformer 250. As shown in FIG. As shown in FIG. 4, the transmission beamformer 250 may include a transmission signal generator 251 and a time delay unit 252.

송신 신호 생성부(251)는 제어부(240)의 제어 신호에 따라 적어도 하나의 초음파 소자(T)에 인가할 송신 신호(고주파 교류전류)를 발생시킬 수 있다. 송신 신호 생성부(251)에서 발생된 송신 신호는 시간 지연부(252)로 제공된다. The transmission signal generator 251 can generate a transmission signal (high frequency AC current) to be applied to at least one ultrasonic element T according to a control signal of the controller 240. [ The transmission signal generated by the transmission signal generator 251 is provided to the time delay unit 252.

시간 지연부(252)는 송신 신호 생성부(251)에서 발생된 송신 신호마다 시간 지연을 가하여, 각 송신 신호가 각 초음파 소자(T)에 도달하는 시간을 조절할 수 있다. 시간 지연부(252)에 의해 시간 지연된 송신 신호가 초음파 소자(T)로 인가되면, 초음파 소자(T)는 송신 신호의 주파수에 대응하는 초음파를 발생시킨다. 각 초음파 소자(T)에서 발생된 초음파는 초점(focal point)에서 집속(focusing)된다. 초음파 소자(T)에서 발생된 초음파가 집속되는 초점의 위치는 송신 신호에 어떤 형태의 지연 패턴이 적용되었는지에 따라 달라질 수 있다. The time delay unit 252 can adjust the time for each transmission signal to reach each ultrasonic element T by applying a time delay to each transmission signal generated by the transmission signal generator 251. [ When a transmission signal delayed by the time delay unit 252 is applied to the ultrasonic element T, the ultrasonic element T generates an ultrasonic wave corresponding to the frequency of the transmission signal. The ultrasonic waves generated in each ultrasonic element T are focused at a focal point. The position of the focal point at which the ultrasonic wave generated from the ultrasonic element T is focused may vary depending on what type of delay pattern is applied to the transmission signal.

좀 더 구체적으로, 도 4에는 5개의 초음파 소자(t1~t5)가 예시되어 있다. 또한 송신 신호들에 적용될 수 있는 3가지의 지연 패턴이 굵은 실선, 중간 굵기의 실선, 가는 실선으로 예시되어 있다. More specifically, in Fig. 4, five ultrasonic elements t1 to t5 are illustrated. Three delay patterns that can be applied to the transmission signals are illustrated by bold solid lines, medium-thick solid lines, and thin solid lines.

만약, 송신 신호 생성부(251)에서 발생된 송신 신호들에 대해 굵은 실선과 같은 형태의 지연 패턴을 적용하는 경우, 각 초음파 소자(t1~t5)에서 발생된 초음파는 제1 초점(F1)에서 접속된다. If a delay pattern of a thick solid line is applied to the transmission signals generated by the transmission signal generation unit 251, the ultrasonic waves generated in the respective ultrasonic elements t1 to t5 are transmitted to the first focus F 1 , Lt; / RTI >

만약, 송신 신호 생성부(251)에서 발생된 각 송신 신호에 대해 중간 굵기의 실선과 같은 형태의 지연 패턴을 적용하는 경우, 각 초음파 소자(t1~t5)에서 발생된 초음파는 제1 초점(F1)보다 먼 제2 초점(F2)에서 집속된다. If a delay pattern having the same shape as a solid thick solid line is applied to each transmission signal generated by the transmission signal generation unit 251, the ultrasonic waves generated in each of the ultrasonic elements t1 to t5 are transmitted to the first focal point F 1) than is focused in a distant second focus (F 2).

만약, 송신 신호 생성부(251)에서 발생된 각 송신 신호에 대해 가는 실선과 같은 형태의 지연 패턴을 적용하는 경우, 각 초음파 소자(t1~t5)에서 발생된 초음파는 제2 초점(F2)보다 먼 제3 초점(F3)에서 집속된다. If, when applying the form of delay patterns such as a thin solid line for each transmission signal generated in transmission signal generation unit 251, the ultrasonic waves generated from each ultrasound element (t1 ~ t5) to the second focus (F 2) And focused at a third focus F 3 farther away.

상술한 바와 같이, 송신 신호 생성부(251)에서 발생된 송신 신호에 적용되는 지연 패턴에 따라 초점의 위치가 달라진다. 따라서 하나의 지연 패턴만을 적용하는 경우, 대상체(10)로 조사되는 초음파는 고정된 초점에서 집속된다(fixed-focusing). 만약 서로 다른 지연 패턴을 적용하는 경우, 대상체(10)로 조사되는 초음파는 여러 개의 초점에서 집속된다(multi-focusing). As described above, the position of the focus is changed according to the delay pattern applied to the transmission signal generated in the transmission signal generating unit 251. Therefore, when only one delay pattern is applied, the ultrasonic waves irradiated to the object 10 are fixed-focused. If different delay patterns are applied, the ultrasound emitted to the object 10 is multi-focused.

이처럼 각 초음파 소자(T)에서 발생된 초음파는 한 지점에만 고정 집속되거나 여러 지점에 다중 집속된다. 집속된 초음파는 대상체(10) 내부로 조사된다. 대상체(10) 내부로 조사된 초음파는 대상체(10) 내의 목표 부위에서 반사된다. 목표 부위에서 반사된 초음파 에코는 초음파 소자(T)로 수신된다. 그러면 초음파 소자(T)는 수신된 초음파 에코를 전기 신호로 변환한다. 이하, 변환된 전기 신호를 수신 신호(초음파 에코 신호)라 한다. 초음파 소자(T)에서 출력된 수신 신호는 증폭 및 필터링된 후, 디지털 신호로 변환되어 수신 빔포머(260)로 제공된다. As described above, the ultrasonic waves generated from the respective ultrasonic elements T are fixedly focused at one point or multi-focused at several points. The focused ultrasound is irradiated into the object 10. Ultrasonic waves irradiated into the object 10 are reflected at the target site in the object 10. The ultrasonic echo reflected at the target site is received by the ultrasonic element (T). Then, the ultrasonic element T converts the received ultrasonic echo into an electric signal. Hereinafter, the converted electric signal is called a reception signal (ultrasonic echo signal). The received signal output from the ultrasonic element T is amplified and filtered, and then converted into a digital signal and provided to the reception beamformer 260.

다시 도 3을 참조하면, 수신 빔포머(260)는 디지털 신호로 변환된 수신 신호에 대해 수신 빔포밍(receive beamforming)을 수행할 수 있다. 수신 빔포밍이란 각 초음파 소자(T)에서 출력되는 수신 신호들 간에 존재하는 시차를 보정하여, 집속시키는 것을 말한다. 수신 빔포밍에 대한 보다 구체적인 설명을 위해 도 5를 참조하기로 한다. Referring again to FIG. 3, the receive beamformer 260 may perform receive beamforming on the received signal converted into a digital signal. The reception beamforming means that the parallax existing between the reception signals output from the respective ultrasonic elements T is corrected and focused. For a more detailed description of receive beamforming, reference is made to Fig.

도 5는 수신 빔포머(260)를 도시한 구성도이다. 도 5에 도시된 바와 같이, 수신 빔포머(260)는 시차 보정부(262) 및 집속부(261)를 포함할 수 있다. 5 is a block diagram illustrating a receive beamformer 260. In FIG. As shown in FIG. 5, the reception beamformer 260 may include a time correction section 262 and a focusing section 261.

시차 보정부(262)는 각 초음파 소자(T)에서 출력된 수신 신호들을 일정 시간 동안 지연시켜 수신 신호들이 동일한 시간에 집속부(261)로 전달될 수 있도록 한다. The time difference corrector 262 delays the received signals output from the respective ultrasonic elements T for a predetermined time so that the received signals can be transmitted to the focusing unit 261 at the same time.

집속부(261)는 시차 보정부(262)에 의해 시차가 보정된 수신 신호들을 하나로 집속할 수 있다. 집속부(261)는 입력되는 수신 신호마다 소정의 가중치 예를 들어, 빔포밍 계수를 부가하여 소정 수신 신호를 다른 수신 신호에 비하여 강조 또는 감쇄시켜 집속할 수 있다. 집속된 수신 신호는 영상 처리부(270)로 제공될 수 있다. The focusing unit 261 can converge the received signals whose parallax is corrected by the time difference correction unit 262 into one. The focusing unit 261 may add a predetermined weighting factor, for example, a beam forming coefficient to each of the received signals to emphasize or attenuate the predetermined received signal as compared with other received signals. The focused received signal may be provided to the image processing unit 270.

영상 처리부(270)는 수신 빔포머(260)의 집속부(261)에 의해 집속된 수신 신호로부터 3차원 볼륨 데이터를 획득할 수 있다. 또한, 영상 처리부(270)는 촬영부(210)에 의해 획득된 영상으로부터 조작자의 시선을 추적할 수 있다. 그리고 추적된 조작자의 시선에 따라 3차원 볼륨 데이터를 처리하여, 초음파 영상을 생성할 수 있다. 초음파 영상으로는 3차원 볼륨 데이터로부터 획득한 단면 영상, 3차원 볼륨 데이터를 소정 시점을 기준으로 볼륨 렌더링하여 획득한 투영 영상을 예로 들 수 있다. 여기서, 영상 처리부(270)에 대한 보다 구체적인 설명을 위해 도 6을 참조하기로 한다. The image processing unit 270 may obtain the three-dimensional volume data from the received signal focused by the focusing unit 261 of the reception beam former 260. [ In addition, the image processing unit 270 can track the line of sight of the operator from the image acquired by the photographing unit 210. The ultrasound image can be generated by processing the 3D volume data according to the gaze of the tracked operator. Examples of the ultrasound image include a sectional image acquired from three-dimensional volume data, and a projection image obtained by volume rendering of three-dimensional volume data based on a predetermined viewpoint. Here, for a more detailed description of the image processing unit 270, FIG. 6 will be referred to.

도 6은 영상 처리부(270)에 대한 구성도이다. 도 6에 도시된 바와 같이, 영상 처리부(270)는 볼륨 데이터 획득부(271), 시선 추적부(272), 단면 영상 생성부(273), 및 볼륨 렌더링부(274)를 포함할 수 있다. FIG. 6 is a configuration diagram of the image processing unit 270. FIG. 6, the image processing unit 270 may include a volume data acquisition unit 271, a line-of-sight tracing unit 272, a cross-sectional image generation unit 273, and a volume rendering unit 274.

볼륨 데이터 획득부(271)는 수신 빔포머(260)의 집속부(261)에 의해 집속된 수신 신호로부터 3차원 볼륨 데이터를 획득할 수 있다. The volume data obtaining unit 271 can obtain the three-dimensional volume data from the received signal focused by the focusing unit 261 of the receiving beam former 260. [

시선 추적부(272)는 촬영부(210)에 의해 획득된 영상으로부터 조작자의 시선을 추적할 수 있다. 구체적으로, 촬영부(210)의 적외선 발광체가 조작자에게 적외선을 투영하면, 투영된 적외선은 조작자의 눈의 각막에 의해 반사된다. 반사된 광(이하, '각막광'이라 한다)은 촬영부(210)의 카메라에 의해 촬영된다. 시선 추적부(272)는 촬영부(210)에 의해 획득된 영상에서 각막광의 위치 및 동공의 위치를 검출하고, 검출 결과에 기초하여 조작자의 시선을 추적할 수 있다. 시선 추적 결과는 후술될 단면 영상 생성부(273) 및 볼륨 렌더링부(274)로 제공될 수 있다. The gaze tracking unit 272 can track the operator's gaze from the image acquired by the photographing unit 210. [ Specifically, when the infrared light emitting unit of the photographing unit 210 projects infrared light to the operator, the projected infrared light is reflected by the cornea of the operator's eye. The reflected light (hereinafter, referred to as 'cornea light') is photographed by the camera of the photographing unit 210. The gaze tracking unit 272 can detect the position of the cornea light and the position of the pupil in the image obtained by the photographing unit 210 and track the operator's gaze based on the detection result. The gaze tracking result may be provided to the sectional image generating unit 273 and the volume rendering unit 274, which will be described later.

단면 영상 생성부(273)는 시선 추적 결과에 기초하여, 3차원 볼륨 데이터로부터 소정 평면에 대응하는 단면 영상을 생성할 수 있다. 구체적으로, 단면 영상 생성부(273)는 3차원 볼륨 데이터로부터 조작자의 시선과 수직인 평면에 대응하는 단면 영상을 생성할 수 있다. 도 7a 및 도 7b는 단면 영상을 생성하는 동작을 개략적으로 도시한 도면이다. The sectional image generating unit 273 can generate a sectional image corresponding to a predetermined plane from the three-dimensional volume data based on the gaze tracking result. Specifically, the cross-sectional image generating unit 273 can generate a cross-sectional image corresponding to a plane perpendicular to the line of sight of the operator from the three-dimensional volume data. Figs. 7A and 7B are views schematically showing an operation of generating a sectional image. Fig.

도 7a는 x, y, z축으로 표현되는 3차원 공간 상에 위치하는 3차원 볼륨 데이터로부터 yz 평면에 대응하는 단면 영상이 생성되는 경우를 도시하고 있다. 도면에 도시되지는 않았지만, 조작자의 xy 평면에 대응하는 단면 영상 또는 yz 평면에 대응하는 단면 영상이 생성될 수도 있다. 7A shows a case in which a sectional image corresponding to the yz plane is generated from three-dimensional volume data located on a three-dimensional space represented by x, y, and z axes. Although not shown in the drawing, a sectional image corresponding to the operator's xy plane or a sectional image corresponding to the yz plane may be generated.

도 7b는 xy 평면, yz 평면, zx 평면 이외의 평면에 대응하는 단면 영상이 생성되는 경우를 도시하고 있다. FIG. 7B shows a case where a sectional image corresponding to a plane other than the xy plane, the yz plane, and the zx plane is generated.

도 7a 및 도 7b을 참조하면, 조작자의 시선과 수직인 평면은 시점으로부터의 거리에 따라 복수개가 존재할 수 있다. 이와 같은 경우, 조작자의 시선과 수직인 평면들 중에서 단면 영상을 생성하기 위한 평면은 다양한 방법으로 선택될 수 있다. 7A and 7B, a plurality of planes perpendicular to the operator's line of sight may exist depending on the distance from the viewpoint. In such a case, of the planes perpendicular to the line of sight of the operator, the plane for generating the sectional image can be selected in various ways.

일 예로, 조작자의 시선과 수직인 평면들 중에서 단면 영상을 생성하기 위한 평면은 자동으로 선택될 수 있다. 예를 들어, 도 7a과 같이, 조작자의 시선과 수직인 평면들의 면적이 모두 동일한 경우에는, 조작자의 시선과 수직인 평면들 중에서 조작자의 시점과 가장 가까운 거리에 있는 평면이 자동으로 선택될 수 있다. 또는 조작자의 시선과 수직인 평면들 중에서 조작자의 시점과 가장 먼 거리에 있는 평면이 자동으로 선택될 수 있다. 예를 들어, 도 7b와 같이, 조작자의 시선과 수직인 평면들의 면적이 모두 다른 경우에는, 조작자의 시선과 수직인 평면들 중에서 면적이 가장 넓은 평면이 자동으로 선택될 수 있다. As an example, a plane for generating a sectional image among the planes perpendicular to the operator's line of sight can be automatically selected. For example, when the operator's gaze and the areas of the planes perpendicular to each other are the same, as shown in FIG. 7A, a plane that is closest to the operator's viewpoint among the planes perpendicular to the operator's gaze can be automatically selected . Or a plane that is the farthest from the operator's viewpoint among the planes perpendicular to the operator's line of sight can be automatically selected. For example, as shown in FIG. 7B, when the operator's gaze and the areas of the planes perpendicular to each other are different, a plane having the largest area among the planes perpendicular to the line of sight of the operator can be automatically selected.

다른 예로, 조작자의 시선과 수직인 평면들 중에서 단면 영상을 생성하기 위한 평면은 수동으로 선택될 수 있다. 우선, 조작자의 시선과 수직인 평면들 중에서 임의의 평면에 대응하는 단면 영상을 생성한 다음, 플렉서블 디스플레이(220)를 통해 디스플레이한다. 이 후, 단면 영상을 변경하기 위한 지시나 명령이 조작자로부터 입력되면, 단면 영상 생성부(273)는 입력된 지시나 명령에 대응하는 평면을 선택하고, 그에 대응하는 단면 영상을 생성할 수 있다. As another example, of the planes perpendicular to the operator ' s line of sight, a plane for creating a sectional image can be manually selected. First, a cross-sectional image corresponding to an arbitrary plane is generated from the planes perpendicular to the line of sight of the operator, and then displayed on the flexible display 220. Thereafter, when an instruction or command for changing the cross-section image is inputted from the operator, the cross-sectional image generating unit 273 can select a plane corresponding to the inputted instruction or command, and generate a cross-sectional image corresponding thereto.

다시 도 6을 참조하면, 볼륨 렌더링부(274)는 시선 추적 결과에 기초하여, 3차원 볼륨 데이터를 볼륨 렌더링(Volumn Rendering)할 수 있다. 볼륨 렌더링은 소정 시점을 기준으로 3차원 볼륨 데이터를 2차원 평면에 투영시키는 것을 말한다. 볼륨 렌더링은 표면 렌더링(surface rendering)과 직접 볼륨 렌더링(direct volumn rendering)으로 분류될 수 있다. Referring again to FIG. 6, the volume rendering unit 274 may perform volume rendering of the 3D volume data based on the gaze tracking result. Volume rendering refers to projecting three-dimensional volume data on a two-dimensional plane based on a predetermined point in time. Volume rendering can be categorized into surface rendering and direct volume rendering.

표면 렌더링은 볼륨 데이터로부터 일정한 스칼라 값과 공간적인 변화량을 기반으로 표면 정보를 추출하여 이를 다각형이나 곡면 패치(patch) 등의 기하학적 요소로 변환하여 기존의 렌더링 기법을 적용하는 방법을 말한다. 표면 렌더링의 예로는 marching cubes 알고리즘, dividing cibes 알고리즘을 들 수 있다. Surface rendering refers to a method of extracting surface information based on a constant scalar value and spatial variation from volume data and converting it into a geometric element such as a polygon or a surface patch, and applying the existing rendering method. Examples of surface rendering include the marching cubes algorithm and the dividing cibes algorithm.

직접 볼륨 렌더링은 볼륨 데이터를 기하학적 요소로 바꾸는 중간 단계 없이 볼륨 데이터를 직접 렌더링하는 방법을 말한다. 직접 볼륨 렌더링은 물체의 내부 정보를 그대로 가시화할 수 있고, 반투명한 구조를 표현하는데 유용하다. 직접 볼륨 렌더링은 볼륨 데이터에 접근하는 방식에 따라, 객체 순서 방식(object-order method)과 영상 순서 방식(image-order method)으로 분류될 수 있다. Direct volume rendering is a method of rendering volume data directly without intermediate steps that convert volume data into geometric elements. Direct volume rendering can visualize the internal information of an object as it is, and is useful for expressing a translucent structure. Direct volume rendering can be categorized into an object-order method and an image-order method, depending on how the volume data is accessed.

객체 순서 방식은 볼륨 데이터를 저장 순서에 따라 탐색하여 각 복셀을 그에 대응되는 픽셀에 합성하는 방식으로서, 대표적인 예로서 스플래팅(splatting) 방식이 있다. The object ordering method is a method of searching volume data according to a storage order and synthesizing each voxel into a pixel corresponding thereto. As a representative example, there is a splatting method.

영상 순서 방식은 영상의 스캔 라인 순서대로 각 픽셀 값을 차례로 결정해 나가는 방식이다. 영상 순서 방식의 예로는 광선 투사법(Ray-Casting), 광선 추적법(Ray-Tracing)을 들 수 있다. The image ordering method is to sequentially determine each pixel value in the order of the scan lines of the image. Examples of image ordering methods include ray-casting and ray-tracing.

광선 투사법은 도 8에 도시된 바와 같이, 시점에서부터 디스플레이 화면의 소정 픽셀을 향하여 가상의 광선을 발사한다. 그 다음, 볼륨 데이터의 복셀들 중에서 상기 광선이 통과하는 복셀들을 검출한다. 그리고 검출된 복셀들의 밝기값들을 누적하여 디스플레이 화면의 해당 픽셀의 밝기값을 결정한다. 또는 검출된 복셀들의 평균값을 디스플레이 화면의 해당 픽셀의 밝기값으로 결정할 수도 있다. 또는 검출된 복셀들의 가중 평균값을 디스플레이 화면의 해당 픽셀의 밝기값으로 결정할 수도 있다. As shown in FIG. 8, the ray projection method emits a virtual ray from a viewpoint toward a predetermined pixel on a display screen. Then, among the voxels of the volume data, the voxels through which the light passes are detected. Then, the brightness values of the detected voxels are accumulated to determine a brightness value of the corresponding pixel of the display screen. Alternatively, the average value of the detected voxels may be determined as the brightness value of the corresponding pixel of the display screen. Alternatively, the weighted average value of the detected voxels may be determined as the brightness value of the corresponding pixel of the display screen.

광선 추적법은 관찰자의 눈에 들어오는 광선의 경로를 하나하나 추적하는 방식을 말한다. 광선이 볼륨 데이터와 만나는 교점만을 찾는 광선 투사법과는 달리, 광선 추적법은 조사된 광선의 추적하여 광선의 반사, 굴절과 같은 현상까지도 반영할 수 있다. Ray tracing is a method of tracking the path of an incoming beam of light into an observer's eye. Unlike the ray projection method, in which only the intersection of rays meet the volume data, ray tracing can also track phenomena such as reflection and refraction of rays by tracking the irradiated rays.

광선 추적법은 순방향 광선 추적법과 역방향 광선 추적법으로 나뉠 수 있다. 순방향 광선 추적법은 가상의 광원에서 조사된 광원이 볼륩 데이터에 닿아 반사, 산란, 투과되는 현상을 모델링하여 최종적으로 관찰자의 눈에 들어오는 광선을 찾는 기법이다. 역방향 광선 추적법은 관찰자의 눈에 들어오는 광선의 경로를 역방향으로 추적하는 기법이다. The ray tracing method can be divided into forward ray tracing method and reverse ray tracing method. The forward ray tracing method is a technique of modeling the reflection, scattering, and transmission phenomenon by the light source irradiated from the virtual light source to the data of the ball, and finally finding the light ray entering the observer's eye. Reverse ray tracing is a technique that tracks the path of light entering the observer's eye in the reverse direction.

다시 도 6을 참조하면, 볼륨 렌더링부(274)는 상술한 볼륨 렌더링 방식 중 하나를 이용하여 3차원 볼륨 데이터를 볼륨 렌더링할 수 있다. 이 때, 3차원 볼륨 데이터를 하나의 시점을 기준으로 볼륨 렌더링하면, 2차원 투영 영상(projection image)을 얻을 수 있다. 만약, 3차원 볼륨 데이터를 사람의 좌우 눈에 각각 대응하는 두 개의 시점에서 각각 볼륨 렌더링하면, 두 개의 2차원 투영 영상 즉, 좌영상과 우영상을 얻을 수 있다. 좌영상과 우영상을 합성하면 3차원 입체 영상(stero image)를 얻을 수 있다. Referring again to FIG. 6, the volume rendering unit 274 may render volume rendering of the 3D volume data using one of the volume rendering methods described above. In this case, when the volume rendering of the three-dimensional volume data is performed based on one viewpoint, a two-dimensional projection image can be obtained. If two-dimensional projection images, that is, a left image and a right image, are obtained by volume rendering three-dimensional volume data at two points corresponding to the right and left eyes of a person, respectively. When a left image and a right image are combined, a three-dimensional stereoscopic image can be obtained.

한편, 볼륨 렌더링부(274)에 의해 획득된 2차원 투영 영상이나 3차원 입체 영상, 단면 영상 생성부(273)에 의해 생성된 단면 영상은 플렉서블 디스플레이(220)를 통해 디스플레이될 수 있다. 예시된 영상들 중에서 플렉서블 디스플레이(220)를 통해 어떠한 종류의 영상을 디스플레이할 것인지는 조작자에 의해 사전에 설정될 수 있다. 플렉서블 디스플레이(220)를 통해 사전에 설정된 종류의 영상이 디스플레이되고 있다할지라도, 디스플레이할 영상의 종류를 변경하는 지시나 명령이 수신되면, 변경된 종류의 영상이 디스플레이될 수 있다. Meanwhile, the two-dimensional projection image, the three-dimensional image obtained by the volume rendering unit 274, and the sectional image generated by the sectional image generating unit 273 may be displayed through the flexible display 220. [ Of the illustrated images, what kind of image to display through the flexible display 220 can be preset by the operator. Even if an image of a predetermined type is being displayed through the flexible display 220, when an instruction or command for changing the type of the image to be displayed is received, the changed type of image can be displayed.

다시 도 3을 참조하면, 저장부(280)는 초음파 영상 장치(200)가 동작하는데 필요한 데이터나 알고리즘을 저장할 수 있다. 예를 들면, 촬영부(210)를 통해 획득된 영상으로부터 조작자의 시선을 추적하는데 필요한 알고리즘, 3차원 볼륨 데이터로부터 단면 영상을 생성하는데 필요한 알고리즘, 및 3차원 볼륨 데이터를 볼륨 렌더링하는데 필요한 알고리즘 등을 저장할 수 있다. Referring again to FIG. 3, the storage unit 280 may store data and algorithms necessary for the ultrasonic imaging apparatus 200 to operate. For example, an algorithm necessary for tracking an operator's gaze from an image obtained through the photographing unit 210, an algorithm necessary for generating a sectional image from the three-dimensional volume data, and an algorithm necessary for rendering volume rendering of the three-dimensional volume data Can be stored.

또한, 저장부(280)는 사전에 조작자에 의해 설정된 값들을 저장할 수도 있다. 예를 들면, 저장부(280)는 플렉서블 디스플레이(220)를 통해 디스플레이할 초음파 영상의 종류, 단면 영상의 자동 생성 여부, 조작자의 시선과 수직인 평면들 중에서 단면 영상을 생성하기 위한 평면을 선택하는 기준 등을 저장할 수 있다. In addition, the storage unit 280 may store the values set by the operator in advance. For example, the storage unit 280 selects the type of the ultrasound image to be displayed through the flexible display 220, the automatic generation of the sectional image, and the plane for generating the sectional image from the planes perpendicular to the operator's gaze Criteria, and so on.

이러한 저장부(280)는 롬(Read Only Memory: ROM), 램(Random Access Memory: RAM), 피롬(Programmable Read Only Memory: PROM), 이피롬(Erasable Programmable Read Only Memory: EPROM), 플래시 메모리, 램(Random Access Memory: RAM), 하드 디스크 드라이브, 광 디스크 드라이브, 또는 이들의 조합으로 구현될 수 있다. 그러나 상술한 예로 한정되는 것은 아니며, 저장부(280)는 당업계에 알려져 있는 임의의 다른 형태로 구현될 수도 있음은 물론이다. The storage unit 280 may be a ROM, a random access memory (RAM), a programmable read only memory (PROM), an erasable programmable read only memory (EPROM) A random access memory (RAM), a hard disk drive, an optical disk drive, or a combination thereof. However, the present invention is not limited to the above-described example, and it goes without saying that the storage unit 280 may be implemented in any other form known in the art.

이상으로, 도 3 내지 도 8을 참조하여, 초음파 영상 장치(200)의 일 실시예에 대한 구성도를 설명하였다. 상술한 실시예에서는 영상 처리부(270)가 단면 영상 생성부(273) 및 볼륨 렌더링부(274)를 모두 포함하는 경우를 예로 들어 설명하였다. 3 to 8, a configuration diagram of an embodiment of the ultrasound imaging apparatus 200 has been described above. In the above-described embodiment, the case where the image processing unit 270 includes both the sectional image generating unit 273 and the volume rendering unit 274 has been described as an example.

다른 실시예에 따르면, 영상 처리부(270)는 도 9에 도시된 바와 같이, 볼륨 데이터 획득부(271), 시선 추적부(272) 및 단면 영상 생성부(273)를 포함할 수 있다. 이들 구성요소들에 대한 설명은 앞서 도 6, 도 7a 및 도 7b를 참조하여 설명하였으므로, 중복되는 설명은 생략하기로 한다. 영상 처리부(270)가 도 9에 도시된 바와 같은 구성을 가지는 경우, 조작자로부터 별도의 지시나 명령을 입력받지 않더라도, 3차원 볼륨 데이터로부터 단면 영상이 자동적으로 생성될 수 있다. According to another embodiment, the image processing unit 270 may include a volume data obtaining unit 271, a gaze tracking unit 272, and a cross-sectional image generating unit 273, as shown in FIG. The description of these constituent elements has been given above with reference to FIG. 6, FIG. 7A and FIG. 7B, and thus a duplicate description will be omitted. 9, the sectional image can be automatically generated from the three-dimensional volume data without receiving any instruction or command from the operator.

또 다른 실시예에 따르면, 영상 처리부(270)는 도 10에 도시된 바와 같이, 볼륨 데이터 획득부(271), 시선 추적부(272) 및 볼륨 렌더링부(273)를 포함할 수 있다. 이들 구성요소들에 대한 설명은 앞서 도 6 및 도 8을 참조하여 설명하였으므로, 중복되는 설명은 생략하기로 한다. 영상 처리부(270)가 도 10에 도시된 바와 같은 구성을 가지는 경우, 3차원 볼륨 데이터로부터 2차원 투영 영상 또는 3차원 입체 영상이 획득될 수 있다. 이들 영상 중에서 플렉서블 디스플레이(220)를 통해 어떠한 종류의 영상을 디스플레이할 것인지는 조작자에 의해 사전에 설정될 수 있다. 또한, 사전에 설정된 종류의 영상이 디스플레이되고 있더라도, 디스플레이할 영상의 종류를 변경하는 지시나 명령이 수신되는 경우에는, 변경된 종류의 영상이 디스플레이될 수 잇다. According to another embodiment, the image processing unit 270 may include a volume data acquisition unit 271, a gaze tracking unit 272, and a volume rendering unit 273, as shown in FIG. The description of these constituent elements has been given above with reference to FIG. 6 and FIG. 8, so that redundant description will be omitted. When the image processing unit 270 has a configuration as shown in FIG. 10, a two-dimensional projection image or a three-dimensional image can be obtained from the three-dimensional volume data. Of these images, what kind of image to display through the flexible display 220 can be preset by the operator. In addition, even when an image of a preset kind is displayed, when an instruction or command for changing the type of the image to be displayed is received, the changed kind of image can be displayed.

도 11은 도 6의 영상 처리부를 포함하는 초음파 영상 장치(200)의 제어 방법을 도시한 흐름도이다. 11 is a flowchart illustrating a control method of the ultrasound imaging apparatus 200 including the image processing unit of FIG.

설명에 앞서, 초음파 영상 장치(200)의 플렉서블 프로브(230)가 대상체(10)에 접촉된 상태로, 대상체(10)에 고정된 상태임을 가정한다. It is assumed that the flexible probe 230 of the ultrasound imaging apparatus 200 is in a state of being fixed to the object 10 in a state of being in contact with the object 10. [

플렉서블 프로브(230)의 위치가 고정되면, 대상체(10)로 초음파를 조사하고, 대상체(10)에서 반사된 초음파 에코를 수신한다(S710). 초음파 조사 및 초음파 에코 수신은 적어도 하나의 초음파 소자(T) 예를 들어, 초음파 트랜스듀서에 의해 수행될 수 있다. 초음파 소자(T)는 수신된 초음파 에코를 전기 신호로 변환하여 수신 신호를 출력할 수 있다. 초음파 소자(T)에서 출력된 수신 신호는 증폭 및 필터링된 후, 디지털 신호로 변환될 수 있다. 디지털 신호로 변환된 수신 신호는 수신 빔포머(260)에 의해 수신 집속될 수 있다. When the position of the flexible probe 230 is fixed, the ultrasonic wave is irradiated to the object 10, and the ultrasonic echo reflected from the object 10 is received (S710). The ultrasonic irradiation and the ultrasonic echo reception may be performed by at least one ultrasonic element (T), for example, an ultrasonic transducer. The ultrasonic element T can convert the received ultrasonic echo into an electric signal and output the received signal. The received signal output from the ultrasonic element T can be amplified and filtered, and then converted into a digital signal. The received signal converted into a digital signal can be received-focused by the receiving beam former 260. [

이 후, 수신 빔포머(260)에 의해 집속된 수신 신호에 기초하여 3차원 볼륨 데이터를 획득할 수 있다(S720). 3차원 볼륨 데이터는 영상 처리부(270)의 볼륨 데이터 획득부(271)에 의해 이루어질 수 있다. Thereafter, the three-dimensional volume data may be obtained based on the reception signal focused by the reception beam former 260 (S720). The three-dimensional volume data may be generated by the volume data acquisition unit 271 of the image processing unit 270.

한편, 촬영부(210)가 조작자를 촬영하여 영상이 획득되면, 획득된 영상으로부터 조작자의 시선을 추적할 수 있다(S730). 조작자의 시선을 추적하는 단계(S730)는 예를 들어, 조작자에게 적외선을 투영하는 단계, 조작자의 각막에 의해 반사된 각막광을 촬영하는 단계, 촬영 결과로 획득된 영상으로부터 각막광의 위치 및 동공의 위치를 검출하는 단계, 및 검출 결과에 기초하여 조작자의 시선을 추적하는 단계를 포함할 수 있다. On the other hand, when the photographing unit 210 photographs the operator and acquires an image, the operator's eyes can be tracked from the obtained image (S730). The step of tracking the operator's eyes (S730) includes, for example, projecting infrared rays to the operator, photographing the cornea light reflected by the cornea of the operator, locating the cornea light from the image obtained by the photographing result, Detecting the position, and tracking the operator's gaze based on the detection result.

이 후, 볼륨 렌더링이 필요한지를 판단할 수 있다(S740). 이러한 판단은, 디스플레이할 영상의 종류에 기초하여 이루어질 수 있다. 예를 들어, 디스플레이할 영상의 종류를 확인한 결과, 단면 영상을 디스플레이하도록 설정되어 있다면, 볼륨 렌더링이 필요 없는 것으로 판단할 수 있다. 만약, 디스플레이할 영상의 종류를 확인한 결과, 2차원 투영 영상이나 3차원 입체 영상을 디스플레이하도록 설정되어 있다면, 볼륨 렌더링이 필요한 것으로 판단할 수 있다. Thereafter, it may be determined whether volume rendering is necessary (S740). This determination can be made based on the type of the image to be displayed. For example, if it is set to display a sectional image as a result of checking the type of an image to be displayed, it can be determined that volume rendering is not necessary. If it is set to display a two-dimensional projection image or a three-dimensional stereoscopic image as a result of checking the type of an image to be displayed, it can be determined that volume rendering is necessary.

판단 결과, 볼륨 렌더링이 필요하다면(S740, 예), 조작자의 시선에 따라 3차원 볼륨 데이터를 볼륨 렌더링할 수 있다(S750). 일 예로, 볼륨 렌더링 단계(S750)는 소정 시점에 따라 3차원 볼륨 데이터를 볼륨 렌더링하여 2차원 투영 영상을 생성하는 단계를 포함할 수 있다. 다른 예로, 볼륨 렌더링 단계(S750)는 두 개의 시점에서 각각 볼륨 렌더링하여 좌영상 및 우영상을 생성하는 단계와, 좌영상과 우영상을 합성하여 3차원 입체 영상을 생성하는 단계를 포함할 수 있다. As a result of the determination, if volume rendering is required (S740, YES), volume rendering of the 3D volume data may be performed according to the operator's line of sight (S750). For example, the volume rendering step S750 may include generating a two-dimensional projection image by volume rendering the three-dimensional volume data at a predetermined point in time. As another example, the volume rendering step S750 may include generating a left image and a right image by respectively performing volume rendering at two viewpoints, and generating a three-dimensional image by synthesizing a left image and a right image .

볼륨 렌더링이 완료되면, 볼륨 렌더링 결과를 플렉서블 디스플레이(220)를 통해 디스플레이할 수 있다(S760). 예를 들어, 볼륨 렌더링 단계(S750)에서 2차원 투영 데이터가 획득된 경우라면, 획득된 2차원 투영 영상을 플렉서블 디스플레이(220)를 통해 디스플레이할 수 있다. 만약, 볼륨 렌더링 단계(S750)에서 3차원 입체 영상이 획득된 경우라면, 획득된 3차원 입체 영상을 플렉서블 디스플레이(220)를 통해 디스플레이할 수 있다. When the volume rendering is completed, the volume rendering result may be displayed on the flexible display 220 (S760). For example, if the two-dimensional projection data is acquired in the volume rendering step S750, the obtained two-dimensional projection image can be displayed on the flexible display 220. [ If the three-dimensional stereoscopic image is acquired in the volume rendering step S750, the obtained three-dimensional stereoscopic image can be displayed through the flexible display 220. [

판단 결과, 볼륨 렌더링이 필요하지 않다면(S740, 아니오), 3차원 볼륨 데이터로부터 3차원 볼륨 데이터로부터 조작자의 시선에 수직인 평면에 대응하는 단면 영상을 생성할 수 있다(S770). 단면 영상을 생성하는 단계(S770)는 조작자의 시선과 수직한 평면들 중에서 소정 평면을 선택하는 단계와, 선택된 평면에 대응하는 단면 영상을 생성하는 단계를 포함할 수 있다. 조작자의 시선과 수직한 복수의 평면들 중에서 소정 평면을 선택하는 것은 자동으로 이루어질 수도 있고, 조작자가 입력한 지시나 명령에 따라 수동으로 이루어질 수도 있다. As a result of the determination, if volume rendering is not required (S740, No), a sectional image corresponding to a plane perpendicular to the operator's line of sight can be generated from the three-dimensional volume data from the three-dimensional volume data (S770). The step of creating a sectional image S770 may include selecting a predetermined plane among the planes perpendicular to the operator's line of sight and generating a sectional image corresponding to the selected plane. The selection of a predetermined plane from a plurality of planes perpendicular to the line of sight of the operator may be performed automatically or manually according to an instruction or command input by the operator.

생성된 단면 영상은 플렉서블 디스플레이(220)를 통해 디스플레이될 수 있다(S780). The generated sectional image can be displayed through the flexible display 220 (S780).

도 12는 도 9의 영상 처리부를 포함하는 초음파 영상 장치(200)의 제어 방법을 도시한 흐름도이다. FIG. 12 is a flowchart illustrating a control method of the ultrasound imaging apparatus 200 including the image processing unit of FIG.

우선, 조작자는 초음파 영상 장치(200)의 몸체(201) 중에서, 플렉서블 프로브(230)를 대상체(10)에 접촉시킨 다음, 벨트(290)를 이용하여 플렉서블 프로브(230)의 위치를 대상체(10)에 고정시킨다. First, the operator touches the flexible probe 230 in the body 201 of the ultrasound imaging apparatus 200 with the object 10 and then uses the belt 290 to move the position of the flexible probe 230 to the object 10 ).

플렉서블 프로브(230)의 위치가 고정되면, 대상체(10)로 초음파를 조사하고, 대상체(10)에서 반사된 초음파 에코를 수신한다(S810). 초음파 조사 및 초음파 에코 수신은 적어도 하나의 초음파 소자(T) 예를 들어, 초음파 트랜스듀서에 의해 수행될 수 있다. 초음파 소자(T)는 수신된 초음파 에코를 전기 신호로 변환하여 수신 신호를 출력할 수 있다. 초음파 소자(T)에서 출력된 수신 신호는 증폭 및 필터링된 후, 디지털 신호로 변환될 수 있다. 디지털 신호로 변환된 수신 신호는 수신 빔포머(260)에 의해 수신 집속될 수 있다. When the position of the flexible probe 230 is fixed, the ultrasonic wave is irradiated to the object 10, and the ultrasonic echo reflected from the object 10 is received (S810). The ultrasonic irradiation and the ultrasonic echo reception may be performed by at least one ultrasonic element (T), for example, an ultrasonic transducer. The ultrasonic element T can convert the received ultrasonic echo into an electric signal and output the received signal. The received signal output from the ultrasonic element T can be amplified and filtered, and then converted into a digital signal. The received signal converted into a digital signal can be received-focused by the receiving beam former 260. [

이 후, 수신 빔포머(260)에 의해 집속된 수신 신호에 기초하여 3차원 볼륨 데이터를 획득할 수 있다(S820). 3차원 볼륨 데이터는 영상 처리부(270)의 볼륨 데이터 획득부(271)에 의해 이루어질 수 있다. Thereafter, the 3D volume data may be obtained based on the received signal focused by the receiving beam former 260 (S820). The three-dimensional volume data may be generated by the volume data acquisition unit 271 of the image processing unit 270.

한편, 촬영부(210)가 조작자를 촬영하여 영상이 획득되면, 획득된 영상으로부터 조작자의 시선을 추적할 수 있다(S830). 조작자의 시선을 추적하는 단계(S830)는 조작자에게 적외선을 투영하는 단계, 조작자의 각막에 의해 반사된 각막광을 촬영하는 단계, 촬영 결과로 획득된 영상으로부터 각막광의 위치 및 동공의 위치를 검출하는 단계, 검출 결과에 기초하여 조작자의 시선을 추적하는 단계를 포함할 수 있다. On the other hand, when the photographing unit 210 photographs the operator and the image is acquired, the operator's eyes can be tracked from the obtained image (S830). The step of tracking the operator's eyes (S830) includes projecting infrared rays to the operator, photographing the cornea light reflected by the cornea of the operator, detecting the position of the cornea light and the position of the pupil from the image obtained as a result of the photographing And tracking the operator's gaze based on the detection result.

조작자의 시선이 추적되면, 3차원 볼륨 데이터로부터 조작자의 시선에 수직인 평면에 대응하는 단면 영상을 생성할 수 있다(S870). 단면 영상을 생성하는 단계(S870)는 조작자의 시선과 수직한 평면들 중에서 소정 평면을 선택하는 단계와, 선택된 평면에 대응하는 단면 영상을 생성하는 단계를 포함할 수 있다. 조작자의 시선과 수직한 복수의 평면들 중에서 소정 평면을 선택하는 것은 자동으로 이루어질 수도 있고, 조작자가 입력한 지시나 명령에 따라 수동으로 이루어질 수도 있다. If an operator's line of sight is tracked, a cross-sectional image corresponding to a plane perpendicular to the operator's line of sight can be generated from the three-dimensional volume data (S870). The step of creating a sectional image (S870) may include a step of selecting a predetermined plane among the planes perpendicular to the line of sight of the operator, and a step of generating a sectional image corresponding to the selected plane. The selection of a predetermined plane from a plurality of planes perpendicular to the line of sight of the operator may be performed automatically or manually according to an instruction or command input by the operator.

생성된 단면 영상은 플렉서블 디스플레이(220)를 통해 디스플레이될 수 있다(S880). The generated sectional image can be displayed through the flexible display 220 (S880).

도 13는 도 10의 영상 처리부를 포함하는 초음파 영상 장치(200)의 제어 방법을 도시한 흐름도이다. 13 is a flowchart illustrating a control method of the ultrasound imaging apparatus 200 including the image processing unit of FIG.

우선, 조작자는 초음파 영상 장치(200)의 몸체(201) 중에서, 플렉서블 프로브(230)를 대상체(10)에 접촉시킨 다음, 벨트를 이용하여 플렉서블 프로브(230)의 위치를 대상체(10)에 고정시킨다. The operator first touches the flexible probe 230 to the object 10 in the body 201 of the ultrasound imaging device 200 and then fixes the position of the flexible probe 230 to the object 10 using a belt .

플렉서블 프로브(230)의 위치가 고정되면, 대상체(10)로 초음파를 조사하고, 대상체(10)에서 반사된 초음파 에코를 수신한다(S910). 초음파 조사 및 초음파 에코 수신은 적어도 하나의 초음파 소자(T) 예를 들어, 초음파 트랜스듀서에 의해 수행될 수 있다. 초음파 소자(T)는 수신된 초음파 에코를 전기 신호로 변환하여 수신 신호를 출력할 수 있다. 초음파 소자(T)에서 출력된 수신 신호는 증폭 및 필터링된 후, 디지털 신호로 변환될 수 있다. 디지털 신호로 변환된 수신 신호는 수신 빔포머(260)에 의해 수신 집속될 수 있다. When the position of the flexible probe 230 is fixed, the ultrasound echo is irradiated to the target object 10 and the ultrasound echo reflected from the target object 10 is received (S910). The ultrasonic irradiation and the ultrasonic echo reception may be performed by at least one ultrasonic element (T), for example, an ultrasonic transducer. The ultrasonic element T can convert the received ultrasonic echo into an electric signal and output the received signal. The received signal output from the ultrasonic element T can be amplified and filtered, and then converted into a digital signal. The received signal converted into a digital signal can be received-focused by the receiving beam former 260. [

이 후, 수신 빔포머(260)에 의해 집속된 수신 신호에 기초하여 3차원 볼륨 데이터를 획득할 수 있다(S920). 3차원 볼륨 데이터는 영상 처리부(270)의 볼륨 데이터 획득부(271)에 의해 이루어질 수 있다. Thereafter, three-dimensional volume data may be obtained based on the received signal focused by the receiving beam former 260 (S920). The three-dimensional volume data may be generated by the volume data acquisition unit 271 of the image processing unit 270.

한편, 촬영부(210)가 조작자를 촬영하여 영상이 획득되면, 획득된 영상으로부터 조작자의 시선을 추적할 수 있다(S930). 조작자의 시선을 추적하는 단계(S930)는 조작자에게 적외선을 투영하는 단계, 조작자의 각막에 의해 반사된 각막광을 촬영하는 단계, 촬영 결과로 획득된 영상으로부터 각막광의 위치 및 동공의 위치를 검출하는 단계, 검출 결과에 기초하여 조작자의 시선을 추적하는 단계를 포함할 수 있다. On the other hand, when the photographing unit 210 photographs the operator and acquires an image, the operator's eyes can be tracked from the obtained image (S930). The step of tracking an operator's sight (S930) includes projecting an infrared ray to the operator, photographing the cornea light reflected by the cornea of the operator, detecting the position of the cornea light and the position of the pupil from the image obtained as a result of the photographing And tracking the operator's gaze based on the detection result.

조작자의 시선이 추적되면, 3차원 볼륨 데이터를 볼륨 렌더링할 수 있다(S950). 일 예로, 볼륨 렌더링 단계(S950)는 소정 시점에 따라 3차원 볼륨 데이터를 볼륨 렌더링하여 2차원 투영 영상을 생성하는 단계를 포함할 수 있다. 다른 예로, 볼륨 렌더링 단계(S950)는 두 개의 시점에서 각각 볼륨 렌더링하여 좌영상 및 우영상을 생성하는 단계, 좌영상과 우영상을 합성하여 3차원 입체 영상을 생성하는 단계를 포함할 수 있다. If the viewer's line of sight is tracked, the 3D volume data can be volume-rendered (S950). For example, the volume rendering step S950 may include generating a two-dimensional projection image by volume rendering the three-dimensional volume data at a predetermined point in time. As another example, the volume rendering step S950 may include generating a left image and a right image by respectively rendering volume at two viewpoints, and synthesizing a left image and a right image to generate a three-dimensional image.

볼륨 렌더링이 완료되면, 볼륨 렌더링 결과를 플렉서블 디스플레이(220)를 통해 디스플레이할 수 있다(S960). 예를 들어, 볼륨 렌더링 단계(S950)에서 2차원 투영 데이터가 획득된 경우라면, 획득된 2차원 투영 영상을 플렉서블 디스플레이(220)를 통해 디스플레이할 수 있다. 만약, 볼륨 렌더링 단계(S950)에서 3차원 입체 영상이 획득된 경우라면, 획득된 3차원 입체 영상을 플렉서블 디스플레이(220)를 통해 디스플레이할 수 있다. When the volume rendering is completed, the volume rendering result may be displayed on the flexible display 220 (S960). For example, if the two-dimensional projection data is acquired in the volume rendering step S950, the obtained two-dimensional projection image can be displayed on the flexible display 220. [ If the three-dimensional stereoscopic image is acquired in the volume rendering step S950, the obtained three-dimensional stereoscopic image can be displayed through the flexible display 220. [

이상과 같이 예시된 도면을 참조로 하여 개시된 발명에 대한 실시예들을 설명하였다. 그러나 개시된 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다. Embodiments of the disclosed invention have been described with reference to the drawings exemplified above. However, it will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

200: 초음파 영상 장치
201: 몸체
210: 촬영부
220: 플렉서블 디스플레이
230: 플렉서블 프로브
240: 제어부
250: 송신 빔포머
260: 수신 빔포머
270: 영상 처리부
271: 볼륨 데이터 획득부
272: 시선 추적부
273: 단면 영상 생성부
274: 볼륨 렌더링부
280: 저장부
T: 초음파 소자
200: Ultrasonic imaging device
201: Body
210:
220: Flexible display
230: Flexible probe
240:
250: transmission beam former
260: Receive beamformer
270:
271: Volume data acquisition unit
272:
273:
274: Volume rendering unit
280:
T: Ultrasonic device

Claims (12)

대상체로 초음파를 조사하고, 상기 대상체에서 반사된 초음파 에코를 수신하는 면 형상의 플렉서블 프로브;
조작자를 촬영한 영상으로부터 상기 조작자의 시선을 추적하고, 상기 초음파 에코로부터 획득된 3차원 볼륨 데이터를 상기 추적된 시선에 따라 처리하여 초음파 영상을 생성하는 영상 처리부; 및
상기 플렉서블 프로브의 일면에 마련되어, 상기 초음파 영상을 디스플레이하는 면 형상의 플렉서블 디스플레이를 포함하는, 초음파 영상 장치.
A planar flexible probe for irradiating ultrasonic waves to a target object and receiving ultrasonic echoes reflected from the target object;
An image processor for tracking the operator's gaze from the image of the operator and processing the three-dimensional volume data obtained from the ultrasound echo according to the tracked gaze to generate an ultrasound image; And
And a flexible display provided on one surface of the flexible probe for displaying the ultrasonic image.
제 1 항에 있어서,
상기 플렉서블 프로브 및 상기 플렉서블 디스플레이를 포함하는 몸체의 위치를 상기 대상체에 고정시키기 위한 벨트를 더 포함하는, 초음파 영상 장치.
The method according to claim 1,
And a belt for fixing the position of the body including the flexible probe and the flexible display to the object.
제 1 항에 있어서,
상기 조작자를 촬영하는 촬영부를 더 포함하는, 초음파 영상 장치.
The method according to claim 1,
And a photographing unit for photographing the operator.
제 3 항에 있어서,
상기 촬영부는 상기 조작자에게 적외선을 투영하는 적외선 발광체 및 상기 조작자의 각막에서 반사된 적외선을 촬영하기 위한 카메라를 포함하는, 초음파 영상 장치.
The method of claim 3,
Wherein the photographing unit includes an infrared ray illuminator for projecting infrared rays to the operator and a camera for photographing infrared rays reflected by the cornea of the operator.
제 1 항에 있어서,
상기 영상 처리부는
상기 3차원 볼륨 데이터로부터 상기 추적된 시선과 수직인 평면들 중에서 선택된 평면에 대응하는 단면 영상을 생성하는 단면 영상 생성부를 포함하는, 초음파 영상 장치.
The method according to claim 1,
The image processing unit
And a sectional image generating unit for generating a sectional image corresponding to a selected one of the planes perpendicular to the tracked line from the three-dimensional volume data.
제 1 항에 있어서,
상기 영상 처리부는
상기 추적된 시선에 따라 상기 3차원 볼륨 데이터를 볼륨 렌더링하는 볼륨 렌더링부를 포함하는, 초음파 영상 장치.
The method according to claim 1,
The image processing unit
And a volume rendering unit for rendering the volume of the 3D volume data according to the tracked line of sight.
제 1 항에 있어서,
상기 영상 처리부는
상기 3차원 볼륨 데이터로부터 상기 추적된 시선과 수직인 평면들 중에서 선택된 평면에 대응하는 단면 영상을 생성하는 단면 영상 생성부; 및
상기 추적된 시선에 따라 상기 3차원 볼륨 데이터를 볼륨 렌더링하여, 2차원 투영 영상 또는 3차원 입체 영상을 생성하는 볼륨 렌더링부를 포함하는, 초음파 영상 장치.
The method according to claim 1,
The image processing unit
A sectional image generating unit for generating a sectional image corresponding to a plane selected from planes perpendicular to the tracked line from the three-dimensional volume data; And
And a volume rendering unit that generates a two-dimensional projection image or a three-dimensional image by volume rendering the three-dimensional volume data according to the tracked line of sight.
제 1 항에 있어서,
상기 플렉서블 디스플레이는 터치 디스플레이인, 초음파 영상 장치.
The method according to claim 1,
Wherein the flexible display is a touch display.
면 형상의 플렉서블 프로브를 이용하여, 대상체로 초음파를 조사하고, 상기 대상체에서 반사된 초음파 에코를 수신하는 단계;
조작자를 촬영한 영상으로부터 상기 조작자의 시선을 추적하고, 상기 초음파 에코로부터 획득된 3차원 볼륨 데이터를 상기 추적된 시선에 따라 처리하여 초음파 영상을 생성하는 단계; 및
상기 플렉서블 프로브의 일면에 마련되는 면 형상의 플렉서블 디스플레이를 통해 상기 초음파 영상을 디스플레이하는 단계를 포함하는, 초음파 영상 장치 제어 방법.
Irradiating ultrasonic waves to a target object using a planar flexible probe and receiving ultrasound echoes reflected from the target object;
Tracking an operator's line of sight from an image of an operator and generating an ultrasound image by processing the 3D volume data obtained from the ultrasonic echo according to the tracked line of sight; And
And displaying the ultrasound image through a surface-shaped flexible display provided on one surface of the flexible probe.
제 9 항에 있어서,
상기 초음파 영상을 생성하는 단계는
상기 3차원 볼륨 데이터로부터 상기 추적된 시선과 수직인 평면들 중에서 선택된 평면에 대응하는 단면 영상을 생성하는 단계를 포함하는, 초음파 영상 장치 제어 방법.
10. The method of claim 9,
The step of generating the ultrasound image
And generating a cross-sectional image corresponding to a plane selected from the planes perpendicular to the tracked line from the three-dimensional volume data.
제 9 항에 있어서,
상기 초음파 영상을 생성하는 단계는
상기 추적된 시선에 따라 상기 3차원 볼륨 데이터를 볼륨 렌더링하여 2차원 투영 영상 또는 3차원 입체 영상을 생성하는 단계를 포함하는, 초음파 영상 장치 제어 방법.
10. The method of claim 9,
The step of generating the ultrasound image
And generating a two-dimensional projection image or a three-dimensional image by volume rendering the three-dimensional volume data according to the tracked line of sight.
제 9 항에 있어서,
상기 초음파 영상을 생성하는 단계는
상기 플렉서블 디스플레이를 통해 디스플레이할 초음파 영상의 종류를 확인하는 단계; 및
상기 확인 결과에 따라 상기 3차원 볼륨 데이터로부터 단면 영상을 생성하거나 상기 3차원 볼륨 데이터를 볼륨 렌더링하는 단계를 포함하는, 초음파 영상 장치 제어 방법.
10. The method of claim 9,
The step of generating the ultrasound image
Confirming the type of ultrasound image to be displayed through the flexible display; And
Generating a sectional image from the three-dimensional volume data or rendering a volume of the three-dimensional volume data according to the determination result.
KR20130072953A 2013-06-25 2013-06-25 Ultrasonic imaging apparatus and control method for thereof KR20150000627A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR20130072953A KR20150000627A (en) 2013-06-25 2013-06-25 Ultrasonic imaging apparatus and control method for thereof
PCT/KR2014/005572 WO2014208977A1 (en) 2013-06-25 2014-06-24 Ultrasonic imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130072953A KR20150000627A (en) 2013-06-25 2013-06-25 Ultrasonic imaging apparatus and control method for thereof

Publications (1)

Publication Number Publication Date
KR20150000627A true KR20150000627A (en) 2015-01-05

Family

ID=52142243

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130072953A KR20150000627A (en) 2013-06-25 2013-06-25 Ultrasonic imaging apparatus and control method for thereof

Country Status (2)

Country Link
KR (1) KR20150000627A (en)
WO (1) WO2014208977A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021525632A (en) * 2018-05-31 2021-09-27 マット・マクグラス・デザイン・アンド・カンパニー,リミテッド・ライアビリティー・カンパニーMatt Mcgrath Design & Co, Llc Medical imaging method using multiple sequences
WO2021004076A1 (en) * 2019-07-05 2021-01-14 山东大学 Ai chip-based conformal wearable biological information monitoring device and system
CN111184532B (en) * 2020-04-09 2020-07-31 上海尽星生物科技有限责任公司 Ultrasonic system and method of contact type flexible conformal ultrasonic probe

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6517484B1 (en) * 2000-02-28 2003-02-11 Wilk Patent Development Corporation Ultrasonic imaging system and associated method
KR20060058327A (en) * 2004-11-25 2006-05-30 주식회사 메디슨 Remote control device for ultrasound imaging apparatus
RU2009109414A (en) * 2006-08-17 2010-09-27 Конинклейке Филипс Электроникс Н.В. (Nl) DYNAMIC BODY DISPLAY DEVICE
KR20090099953A (en) * 2008-03-19 2009-09-23 주식회사 메디슨 Ultrasound system
US8939908B2 (en) * 2009-07-16 2015-01-27 Unex Corporation Ultrasonic blood vessel inspecting apparatus

Also Published As

Publication number Publication date
WO2014208977A1 (en) 2014-12-31

Similar Documents

Publication Publication Date Title
US9907622B2 (en) Generating images for at least two displays in image-guided surgery
US9520154B2 (en) Apparatus and method for displaying images
US9262823B2 (en) Medical image generating apparatus and medical image generating method
KR102111626B1 (en) Image processing apparatus and image processing method
JP6058283B2 (en) Ultrasonic diagnostic equipment
US20130021336A1 (en) Image processing system, image processing device, image processing method, and medical image diagnostic device
CN111031918A (en) X-ray imaging apparatus and control method thereof
JP2012252697A (en) Method and system for indicating depth of 3d cursor in volume-rendered image
US20120327080A1 (en) Image processing system, terminal device, and image processing method
US20120050277A1 (en) Stereoscopic image displaying method and device
US20150011872A1 (en) Medical imaging apparatus and method of providing medical images
US9589387B2 (en) Image processing apparatus and image processing method
US10282893B2 (en) Imaging apparatus and imaging method
US9968320B2 (en) X-ray diagnostic apparatus
KR20150000627A (en) Ultrasonic imaging apparatus and control method for thereof
JP6425884B2 (en) X-ray diagnostic device
WO2012161054A1 (en) Medical image diagnosis device, image processing device, and ultrasound diagnosis device
KR102406937B1 (en) Ultrasound imaging apparatus and controlling method of the same
EP3017428B1 (en) Ultrasonic imaging apparatus and control method thereof
JP7465988B2 (en) ULTRASONIC SYSTEM AND METHOD FOR CONTROLLING AN ULTRASONIC SYSTEM - Patent application
KR101167249B1 (en) Ultrasonograph and control method thereof
US20230017291A1 (en) Systems and methods for acquiring ultrasonic data

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid