KR102377530B1 - The method and apparatus for generating three-dimensional(3d) image of the object - Google Patents

The method and apparatus for generating three-dimensional(3d) image of the object Download PDF

Info

Publication number
KR102377530B1
KR102377530B1 KR1020140085306A KR20140085306A KR102377530B1 KR 102377530 B1 KR102377530 B1 KR 102377530B1 KR 1020140085306 A KR1020140085306 A KR 1020140085306A KR 20140085306 A KR20140085306 A KR 20140085306A KR 102377530 B1 KR102377530 B1 KR 102377530B1
Authority
KR
South Korea
Prior art keywords
image
characteristic information
generating
color
specular
Prior art date
Application number
KR1020140085306A
Other languages
Korean (ko)
Other versions
KR20150037497A (en
Inventor
오동훈
현동규
김한준
Original Assignee
삼성메디슨 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성메디슨 주식회사 filed Critical 삼성메디슨 주식회사
Priority to EP20140182742 priority Critical patent/EP2863363A1/en
Priority to US14/500,388 priority patent/US9759814B2/en
Publication of KR20150037497A publication Critical patent/KR20150037497A/en
Application granted granted Critical
Publication of KR102377530B1 publication Critical patent/KR102377530B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52068Stereoscopic displays; Three-dimensional displays; Pseudo 3D displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

본 발명의 일 실시예에 따른 대상체의 3차원 영상을 생성하기 위한 방법은 상기 대상체에 대한 초음파 데이터를 획득하는 단계; 및 상기 획득된 초음파 데이터를 통하여 상기 대상체의 3차원 영상을 생성하는 단계를 포함하고, 상기 대상체의 3차원 영상을 생성하는 단계는, 상기 획득된 초음파 데이터의 특성정보가 상이한 부분은 상기 대상체의 3차원 영상이 상이하게 표현되도록 상기 대상체의 3차원 영상을 생성할 수 있다. According to an embodiment of the present invention, a method for generating a 3D image of an object includes: acquiring ultrasound data of the object; and generating a three-dimensional image of the object based on the obtained ultrasound data, wherein the generating of the three-dimensional image of the object includes a portion in which the characteristic information of the obtained ultrasound data is different from the 3D image of the object. A 3D image of the object may be generated so that the 3D image is expressed differently.

Description

대상체의 3차원 영상을 생성하기 위한 방법 및 장치{THE METHOD AND APPARATUS FOR GENERATING THREE-DIMENSIONAL(3D) IMAGE OF THE OBJECT}Method and apparatus for generating a three-dimensional image of an object

본 발명은 대상체의 3차원 영상을 생성하기 위한 방법 및 장치에 관한 것으로, 더욱 특정하게는 대상체에 대한 3차원 의료 영상을 생성하기 위한 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for generating a 3D image of an object, and more particularly, to a method and apparatus for generating a 3D medical image of an object.

초음파 진단 장치는 대상체의 체표로부터 체내의 소정 부위를 향하여 초음파 신호를 전달하고, 체내의 조직에서 반사된 초음파 신호의 정보를 이용하여 연부조직의 단층이나 혈류에 관한 이미지를 얻는 것이다.An ultrasound diagnosis apparatus transmits an ultrasound signal from a body surface of an object toward a predetermined part of the body, and obtains an image of a tomography or blood flow of a soft tissue by using information on the ultrasound signal reflected from a tissue in the body.

이러한 초음파 진단 장치는 대상체에 대한 정보를 실시간으로 표시 가능하다는 이점이 있다. 또한, 초음파 진단 장치는, X선 등의 피폭이 없어 안정성이 높은 장점이 있어, X선 진단장치, CT(Computerized Tomography) 스캐너, MRI(Magnetic Resonance Image) 장치, 핵의학 진단장치 등의 다른 화상 진단장치와 함께 널리 이용되고 있다.Such an ultrasound diagnosis apparatus has an advantage of being able to display information about an object in real time. In addition, the ultrasound diagnosis apparatus has the advantage of high stability because there is no exposure to X-rays, and other image diagnosis such as X-ray diagnostic apparatus, CT (Computerized Tomography) scanner, MRI (Magnetic Resonance Image) apparatus, nuclear medicine diagnostic apparatus, etc. It is widely used with devices.

본 발명의 일 실시예에 따른 대상체의 3차원 영상을 생성하기 위한 방법은 상기 대상체에 대한 초음파 데이터를 획득하는 단계; 및 상기 획득된 초음파 데이터를 통하여 상기 대상체의 3차원 영상을 생성하는 단계를 포함하고, 상기 대상체의 3차원 영상을 생성하는 단계는, 상기 획득된 초음파 데이터의 특성정보가 상이한 부분은 상기 대상체의 3차원 영상이 상이하게 표현되도록 상기 대상체의 3차원 영상을 생성할 수 있다. According to an embodiment of the present invention, a method for generating a 3D image of an object includes: acquiring ultrasound data of the object; and generating a three-dimensional image of the object based on the obtained ultrasound data, wherein the generating of the three-dimensional image of the object includes a portion in which the characteristic information of the obtained ultrasound data is different from the 3D image of the object. A 3D image of the object may be generated so that the 3D image is expressed differently.

예를 들어, 상기 특성정보는 상기 대상체에 대한 영상 특성정보, 물성 정보 및 표면정보 중 적어도 하나를 포함 할 수 있다.For example, the characteristic information may include at least one of image characteristic information, physical property information, and surface information about the object.

예를 들어, 상기 대상체의 3차원 영상을 생성하는 단계는 상기 대상체의 경면 반사계수, 경면광 지수, 색상 중 적어도 하나를 통해서 상기 대상체의 3차원 영상을 생성할 수 있다. For example, the generating of the three-dimensional image of the object may include generating the three-dimensional image of the object through at least one of a specular reflection coefficient, a specular light index, and a color of the object.

예를 들어, 상기 대상체의 3차원 영상을 생성하는 단계는, 상기 특성정보에 따라 상기 대상체에 대한 3차원 영상을 렌더링하는 단계를 포함할 수 있다. For example, the generating of the 3D image of the object may include rendering the 3D image of the object according to the characteristic information.

예를 들어, 상기 생성된 대상체의 3차원 영상을 디스플레이하는 단계를 더 포함할 수 있다. For example, the method may further include displaying the generated 3D image of the object.

예를 들어, 상기 대상체의 3차원 영상을 생성하는 단계는, 상기 대상체에 대한 반사광 효과를 갖는 영상을 생성하는 단계를 포함할 수 있다. For example, generating the 3D image of the object may include generating an image having a reflected light effect on the object.

예를 들어, 상기 반사광 효과를 갖는 영상은 복수의 광원에 의하여 생성될 수 있다. For example, the image having the reflected light effect may be generated by a plurality of light sources.

본 발명의 일 실시예에 따른 대상체의 3차원 영상을 생성하기 위한 장치는, 상기 대상체에 대한 초음파 데이터를 획득하는 초음파 데이터 획득부; 및 상기 획득된 초음파 데이터를 통하여 상기 대상체의 3차원 영상을 생성하는 영상 생성부를 포함하고, 상기 대상체의 3차원 영상을 생성하는 단계는, 상기 획득된 초음파 데이터의 특성정보가 상이한 부분은 상기 대상체의 3차원 영상이 상이하게 표현되도록 상기 대상체의 3차원 영상을 생성할 수 있다. According to an embodiment of the present invention, an apparatus for generating a 3D image of an object includes: an ultrasound data acquisition unit configured to acquire ultrasound data of the object; and an image generator generating a three-dimensional image of the object based on the obtained ultrasound data, wherein the generating of the three-dimensional image of the object includes: a portion in which the characteristic information of the obtained ultrasound data is different is determined by the object. A 3D image of the object may be generated so that the 3D image is expressed differently.

예를 들어, 상기 특성정보는 상기 대상체에 대한 영상 특성정보, 물성 정보 및 표면정보 중 적어도 하나를 포함할 수 있다. For example, the characteristic information may include at least one of image characteristic information, physical property information, and surface information about the object.

예를 들어, 상기 영상 생성부는 상기 대상체의 경면 반사계수, 경면광 지수, 색상 중 적어도 하나를 통해서 상기 대상체의 3차원 영상을 생성 할 수 있다.For example, the image generator may generate a 3D image of the object through at least one of a specular reflection coefficient, a specular light index, and a color of the object.

예를 들어, 상기 영상 생성부는 상기 특성정보에 따라 상기 대상체에 대한 3차원 영상을 렌더링하여 상기 대상체에 대한 3차원 영상을 생성 할 수 있다.For example, the image generator may generate a 3D image of the object by rendering a 3D image of the object according to the characteristic information.

예를 들어, 상기 생성된 3차원 영상을 디스플레이하는 디스플레이부를 더 포함 할 수 있다.For example, it may further include a display unit for displaying the generated 3D image.

예를 들어, 상기 영상 생성부는, 상기 대상체에 대한 반사광 효과를 갖는 영상을 생성 할 수 있다.For example, the image generator may generate an image having a reflected light effect on the object.

예를 들어, 상기 반사광 효과를 갖는 영상은 복수의 광원에 의하여 생성될 수 있다. For example, the image having the reflected light effect may be generated by a plurality of light sources.

본 발명의 일 실시예에 따른 대상체의 3차원 영상을 생성하기 위한 방법은 상기 대상체에 대한 의료영상 데이터를 획득하는 단계; 및 상기 획득된 의료영상 데이터에 기초하여 상기 대상체에 대한 반사광 효과를 갖는 영상을 생성하는 단계를 포함 할 수 있다.According to an embodiment of the present invention, a method for generating a 3D image of an object includes: acquiring medical image data of the object; and generating an image having a reflected light effect on the object based on the obtained medical image data.

예를 들어, 상기 반사광 효과를 갖는 영상을 디스플레이하는 단계를 더 포함 할 수 있다.For example, the method may further include displaying an image having the reflected light effect.

예를 들어, 상기 대상체에 대한 반사광 효과를 갖는 영상을 생성하는 단계는, 시선 벡터의 경로에 있는 복셀들 중 화면에 표시할 대표 복셀을 산출하는 단계; 표면 법선 벡터를 계산하는 단계; 상기 표면 법선 벡터를 통하여 반사광 벡터를 계산하는 단계; 상기 대상체의 색상, 광원에 대한 반사 계수, 경면광 지수를 생성하는 단계; 상기 반사광 벡터, 상기 대상체의 색상, 상기 광원에 대한 반사 계수, 상기 경면광 지수 중 적어도 하나를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 단계를 포함하는 것을 특징으로 할 수 있다.For example, generating the image having the reflected light effect on the object may include calculating a representative voxel to be displayed on a screen among voxels in a path of a gaze vector; calculating a surface normal vector; calculating a reflected light vector through the surface normal vector; generating a color of the object, a reflection coefficient for a light source, and a specular light index; and calculating the color of one point included in the image through at least one of the reflected light vector, the color of the object, the reflection coefficient for the light source, and the specular light index.

예를 들어, 상기 대상체에 대한 반사광 효과를 갖는 영상을 생성하는 단계는, 대상체와 화면에 대한 깊이맵을 추출하는 단계; 깊이맵에 대하여 표면 법선 벡터를 계산하는 단계; 상기 표면 법선 벡터를 통하여 반사광 벡터를 계산하는 단계; 상기 대상체의 색상, 광원에 대한 반사 계수, 경면광 지수를 생성하는 단계; 상기 반사광 벡터, 상기 대상체의 색상, 상기 광원에 대한 반사 계수, 상기 경면광 지수 중 적어도 하나를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 단계를 포함하는 것을 특징으로 할 수 있다. For example, generating the image having the reflected light effect on the object may include: extracting a depth map of the object and the screen; calculating a surface normal vector for the depth map; calculating a reflected light vector through the surface normal vector; generating a color of the object, a reflection coefficient for a light source, and a specular light index; and calculating the color of one point included in the image through at least one of the reflected light vector, the color of the object, the reflection coefficient for the light source, and the specular light index.

예를 들어, 상기 반사광 효과를 갖는 영상은 반사광 렌더링을 포함하는 복수의 렌더링을 통하여 생성되는 것을 특징으로 할 수 있다. For example, the image having the specular light effect may be generated through a plurality of renderings including specular rendering.

예를 들어, 상기 반사광 효과를 갖는 영상은 복수의 광원에 의하여 생성되는 것을 특징으로 할 수 있다. For example, the image having the reflected light effect may be generated by a plurality of light sources.

예를 들어, 상기 의료영상 데이터는 초음파 진단장치, X선 진단장치, CT(Computerized Tomography) 스캐너 또는 MRI(Magnetic Resonance Image) 장치를 이용하여 획득된 대상체에 대한 영상 데이터인 것을 특징으로 할 수 있다. For example, the medical image data may be image data of an object obtained using an ultrasound diagnosis apparatus, an X-ray diagnosis apparatus, a computerized tomography (CT) scanner, or a magnetic resonance image (MRI) apparatus.

본 발명의 일 실시예에 따른 대상체의 3차원 의료 영상을 생성하기 위한 장치는 상기 대상체에 대한 의료영상 데이터를 획득하는 초음파 데이터 획득부; 및 상기 획득된 의료영상 데이터에 기초하여 상기 대상체에 대한 반사광 효과를 갖는 영상을 생성하는 영상 생성부를 포함 할 수 있다.According to an embodiment of the present invention, an apparatus for generating a 3D medical image of an object includes an ultrasound data acquisition unit configured to acquire medical image data of the object; and an image generator generating an image having a reflected light effect on the object based on the obtained medical image data.

예를 들어, 상기 반사광 효과를 갖는 영상을 디스플레이하는 디스플레이부를 더 포함하는 것을 특징으로 할 수 있다.For example, it may further include a display unit for displaying the image having the reflected light effect.

예를 들어, 상기 영상 생성부는 상기 대상체의 색상, 광원에 대한 반사 계수, 경면광 지수를 장치의 외부에서 입력을 받거나 또는 내부적으로 계산하고, 상기 상기 대상체의 색상, 상기 광원에 대한 반사 계수, 상기 경면광 지수 중 적어도 하나를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 것을 특징으로 할 수 있다. For example, the image generator may receive an input from the outside of the device or internally calculate the color of the object, the reflection coefficient for the light source, and the specular light index, and the color of the object, the reflection coefficient for the light source, and the It may be characterized in that the color of one point included in the image is calculated through at least one of the specular light indices.

예를 들어, 상기 영상 생성부는 상기 대상체와 화면에 대한 깊이맵을 추출하여, 반사광 벡터를 계산하고, 상기 반사광 벡터를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 단계를 포함하는 것을 특징으로 할 수 있다. For example, the image generator extracts a depth map for the object and the screen, calculates a reflected light vector, and calculates a color for one point included in the image through the reflected light vector. can be characterized.

예를 들어, 상기 반사광 효과를 갖는 영상은 복수의 광원에 의하여 생성되는 것을 특징으로 할 수 있다. For example, the image having the reflected light effect may be generated by a plurality of light sources.

예를 들어, 상기 반사광 효과를 갖는 영상은 반사광 렌더링을 포함하는 복수의 렌더링을 통하여 생성되는 것을 특징으로 할 수 있다. For example, the image having the specular light effect may be generated through a plurality of renderings including specular rendering.

예를 들어, 상기 의료영상 데이터는 초음파 진단장치, X선 진단장치, CT(Computerized Tomography) 스캐너 또는 MRI(Magnetic Resonance Image) 장치를 이용하여 획득된 대상체에 대한 영상 데이터인 것을 특징으로 할 수 있다.
For example, the medical image data may be image data of an object obtained using an ultrasound diagnosis apparatus, an X-ray diagnosis apparatus, a computerized tomography (CT) scanner, or a magnetic resonance image (MRI) apparatus.

도 1은 대상체에 대한 초음파 영상 및 3차원 렌더링 영상을 나타낸다.
도 2는 본 발명의 일 실시예에 따라 대상체의 특성정보가 반영된 3차원 영상을 생성하기 위한 방법을 나타낸 순서도이다.
도 3은 본 발명의 일 실시예에 따라 영상 특성정보가 공간 주파수인 것을 도시한다.
도 4는 본 발명의 일 실시예에 따라 영상 특성정보가 영상 강도인 것을 도시한다.
도 5는 본 발명의 일 실시예에 따라 영상 특성정보가 영상 히스토그램인 것을 도시한다.
도 6은 본 발명의 일 실시예에 따라 영상 특성정보가 동시발생 행렬인 것을 도시한다.
도 7은 본 발명의 일 실시예에 따라 영상 특성정보가 국부 이진 패턴인 것을 도시한다.
도 8은 본 발명의 일 실시예에 따라 영상 특성정보가 균일성인 것을 도시한다.
도 9는 본 발명의 일 실시예에 따라 대상체의 특성정보가 반영된 3차원 영상을 렌더링하고, 디스플레이하는 방법을 나타낸 순서도이다.
도 10은 본 발명의 일 실시예에 따라 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 방법을 나타낸 순서도이다.
도 11은 본 발명의 일 실시예에 따라 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 방법을 나타낸 순서도이다.
도 12는 본 발명의 다른 실시예에 따라 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 방법을 나타낸 순서도이다.
도 13은 본 발명의 일 실시예에 따라 대상체의 특성정보가 반영된 3차원 영상을 생성하기 위한 장치를 나타낸 블록도이다.
도 14는 본 발명의 일 실시예에 따라 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 장치를 나타낸 블록도이다.
도 15는 본 발명의 다른 실시예에 따라 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 장치를 나타낸 블록도이다.
도 16 및 도 17은 본 발명의 일 실시예에 따른 대상체의 특성정보 중 반사광 효과를 설명하기 위한 도면이다.
도 18은 도 16 및 도 17의 초음파 영상을 얻기 위한 방법을 설명하기 위한 도면이다.
도 19은 본 발명의 일 실시예에 따른 대상체의 윈도우 영역에 대한 특성정보가 경면광 지수에 따라서 각각 다르게 반영된 영상을 나타낸 도면이다.
도 20은 본 발명의 일 실시예에 따른 대상체의 윈도우 영역에 대한 특성정보가 경면광 지수에 따라서 각각 다르게 반영된 영상을 나타낸 도면이다.
도 21은 경면광 지수 및 경면 반사 계수에 따른 영상의 변화를 나타내기 위한 도면 이다.
도 22은 본 발명의 일 실시예에 따른 광원이 2개인 경우의 반사광 효과를 나타내는 초음파 영상을 나타낸 도면이다.
도 23는 본 발명의 일 실시예에 따른 3차원 반사광 효과 렌더링 방법을 설명하기 위한 순서도이다.
도 24은 법선 벡터를 통하여 반사광 벡터를 계산하는 방법을 도시하기 위한 도면이다.
도 25는 본 발명의 일 실시예에 따른 3차원 반사광 효과 렌더링 방법을 설명하기 위한 순서도이다.
도 26는 본 발명의 일 실시예에 따른 3차원 반사광 효과 렌더링 방법을 설명하기 위한 순서도이다.
도 27 내지 도 29는 대상체의 표면정보를 산출하는 방법을 설명하기 위한 도면이다.
1 shows an ultrasound image and a 3D rendered image of an object.
2 is a flowchart illustrating a method for generating a 3D image in which characteristic information of an object is reflected according to an embodiment of the present invention.
3 shows that image characteristic information is a spatial frequency according to an embodiment of the present invention.
4 shows that image characteristic information is image intensity according to an embodiment of the present invention.
5 shows that the image characteristic information is an image histogram according to an embodiment of the present invention.
6 illustrates that image characteristic information is a co-occurrence matrix according to an embodiment of the present invention.
7 illustrates that image characteristic information is a local binary pattern according to an embodiment of the present invention.
8 shows that image characteristic information is uniform according to an embodiment of the present invention.
9 is a flowchart illustrating a method of rendering and displaying a 3D image in which characteristic information of an object is reflected according to an embodiment of the present invention.
10 is a flowchart illustrating a method for generating an image in which characteristic information on a window region of an object is reflected according to an embodiment of the present invention.
11 is a flowchart illustrating a method of generating an image for a window region based on generated characteristic information according to an embodiment of the present invention.
12 is a flowchart illustrating a method of generating an image for a window region based on generated characteristic information according to another embodiment of the present invention.
13 is a block diagram illustrating an apparatus for generating a 3D image in which characteristic information of an object is reflected according to an embodiment of the present invention.
14 is a block diagram illustrating an apparatus for generating an image in which characteristic information on a window region of an object is reflected, according to an embodiment of the present invention.
15 is a block diagram illustrating an apparatus for generating an image in which characteristic information on a window region of an object is reflected, according to another embodiment of the present invention.
16 and 17 are diagrams for explaining a reflected light effect among characteristic information of an object according to an embodiment of the present invention.
18 is a diagram for explaining a method for obtaining the ultrasound image of FIGS. 16 and 17 .
19 is a diagram illustrating an image in which characteristic information on a window region of an object is reflected differently according to a specular light index according to an embodiment of the present invention.
20 is a diagram illustrating an image in which characteristic information on a window region of an object is reflected differently according to a specular light index according to an embodiment of the present invention.
FIG. 21 is a diagram illustrating changes in an image according to a specular light index and a specular reflection coefficient.
22 is a diagram illustrating an ultrasound image showing a reflected light effect when there are two light sources according to an embodiment of the present invention.
23 is a flowchart illustrating a 3D specular light effect rendering method according to an embodiment of the present invention.
24 is a diagram illustrating a method of calculating a reflected light vector through a normal vector.
25 is a flowchart illustrating a 3D specular light effect rendering method according to an embodiment of the present invention.
26 is a flowchart illustrating a 3D specular light effect rendering method according to an embodiment of the present invention.
27 to 29 are diagrams for explaining a method of calculating surface information of an object.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, which may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part "includes" a certain element, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .

명세서 전체에서 "초음파 영상"이란 초음파를 이용하여 획득된 대상체에 대한 영상을 의미한다. 대상체는 신체의 일부를 의미할 수 있다. 예를 들어, 대상체에는 간이나, 심장, 자궁, 뇌, 유방, 복부 등의 장기나, 태아 등이 포함될 수 있는 것이다. Throughout the specification, the term “ultrasound image” refers to an image of an object obtained using ultrasound. The object may refer to a part of a body. For example, the object may include organs such as a liver, heart, uterus, brain, breast, abdomen, or a fetus.

명세서 전체에서 "의료 영상"이란 초음파를 이용하여 획득된 대상체에 대한 영상 뿐만 아니라, X선 진단장치, CT(Computerized Tomography) 스캐너, MRI(Magnetic Resonance Image) 장치, 핵의학 진단장치를 이용하여 획득된 대상체에 대한 영상을 의미할 수 있다. Throughout the specification, the term “medical image” refers not only to an image of an object obtained using ultrasound, but also to an X-ray diagnostic device, a computerized tomography (CT) scanner, a magnetic resonance image (MRI) device, and a nuclear medicine diagnostic device. It may mean an image of an object.

명세서 전체에서 "사용자"는 의료전문가로서 의사, 간호사, 임상병리사, 의료영상 전문가 등이 될 수 있으나, 이에 한정되지 않는다.Throughout the specification, a "user" may be a medical professional, such as a doctor, a nurse, a clinical pathologist, or a medical imaging specialist, but is not limited thereto.

명세서 전체에서 "복셀"는 3차원 이미지 영상의 최소 단위를 의미 할 수 있으나, 이에 한정되지 않는다.Throughout the specification, “voxel” may mean a minimum unit of a 3D image image, but is not limited thereto.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

도 1은 대상체에 대한 초음파 영상 및 3차원 렌더링 영상을 나타낸다.1 shows an ultrasound image and a 3D rendered image of an object.

초음파 3D 기능은 최근까지 태아 진단을 위해서 사용되어 왔으나, 최근 들어 실제로 내시경을 사용하지 않고도, 내시경을 통한 소화기관 촬영과 같은 효과를 낼 수 있도록 하는 기술로 발전하고 있다.The ultrasound 3D function has been used for fetal diagnosis until recently, but recently, it has been developed into a technology capable of producing effects such as imaging of the digestive tract through an endoscope without actually using an endoscope.

예를 들어, 초음파 3D 기능을 이용하면, 위장 등을 포함하는 소화 기관의 초음파 데이터와 3차원 볼륨 렌더링 기법 등을 이용하여 소화 기관의 내부 구조를 쉽게 파악할 수 있다.For example, if the ultrasound 3D function is used, the internal structure of the digestive system may be easily identified using ultrasound data of the digestive system including the stomach and the like and a 3D volume rendering technique.

그러나, 이와 같은 초음파 3D 기능은 대상체의 초음파 영상에 나타난 구조 정보만을 이용하여 3차원 볼륨 렌더링을 수행하므로, 대상체에 대한 특성 (예를 들어, 질감) 등을 정확히 표현할 수 없다는 문제점이 있다. However, since the 3D ultrasound function performs 3D volume rendering using only structural information displayed in the ultrasound image of the object, there is a problem in that characteristics (eg, texture) of the object cannot be accurately expressed.

예를 들어, 도 1에 도시된 바와 같이, 대상체(예컨대, 환자의 위장)에 침전물(20)(예컨대, 위장에 붙은 국수 다발 등)이 있는 경우, 침전물(20)은 초음파 영상(10)에서 주변 조직들 보다 어둡거나 밝게 나타날 수 있다. 침전물(20)에 대한 정밀한 관찰을 위하여 초음파 영상(10)에서 소정의 영역(11)을 선택하고, 선택된 영역에 대하여 렌더링을 수행한다면, 대상체 내의 침전물(20)은 렌더링된 영상(30)에서 마치 용종(polyp)(31)처럼 나타날 수 있다. For example, as shown in FIG. 1 , if there is a sediment 20 (eg, a bundle of noodles attached to the stomach, etc.) in the object (eg, the stomach of a patient), the sediment 20 is the ultrasound image 10 . It may appear darker or brighter than surrounding tissues. If a predetermined region 11 is selected from the ultrasound image 10 for precise observation of the sediment 20 and rendering is performed on the selected region, the sediment 20 in the object is displayed as if in the rendered image 30 . It may appear like a polyp (31).

이러한 방법에 따르면 대상체의 조직, 침전물(20)의 속성을 간과한 채, 대상체의 구조 정보만을 이용하여 렌더링을 수행하므로 침전물(20)을 마치 용종처럼 렌더링하는 오류가 발생될 수 있고, 이에 따라 사용자는 잘못된 임상 판단을 내릴 수도 있다. According to this method, an error of rendering the sediment 20 like a polyp may occur because rendering is performed using only the structure information of the object while ignoring the properties of the tissue and sediment 20 of the object, and accordingly, the user may lead to erroneous clinical judgment.

대상체의 2차원(2D) 초음파 영상에서 침전물(20) 등은 주변 조직에 비하여 상이한 밝기와 질감을 가질 수 있으므로, 본 발명의 일 실시예에 따라 침전물(20) 등이 포함된 대상체의 특성에 기초하여 3차원 볼륨 렌더링을 수행함으로써 사용자에게 대상체에 대한 특성이 반영된 3차원 영상을 제공할 수 있다.In a two-dimensional (2D) ultrasound image of an object, the sediment 20 and the like may have different brightness and texture compared to the surrounding tissue, so according to an embodiment of the present invention, the sediment 20 and the like may have different characteristics. Thus, by performing 3D volume rendering, a 3D image in which characteristics of an object are reflected may be provided to the user.

본 발명의 일 실시예에 따른 3차원 영상 생성 장치 또는 방법은 획득된 초음파 데이터를 통하여 대상체의 3차원 영상을 생성하는 경우, 획득된 초음파 데이터의 특성정보가 상이한 부분은 대상체의 3차원 영상이 상이하게 표현되도록 대상체의 3차원 영상을 생성할 수 있다. 예를 들어, 도 1에서 침전물(20)이 주변 조직과 다르게 특성정보를 가진다면, 3차원 영상에서도 침전물(20)이 주변 조직과 다르게 표현될 수 있다. When the apparatus or method for generating a 3D image according to an embodiment of the present invention generates a 3D image of an object through acquired ultrasound data, the 3D image of the object is different in a portion having different characteristic information of the acquired ultrasound data. A three-dimensional image of the object may be generated to be expressed in a realistic manner. For example, if the sediment 20 in FIG. 1 has characteristic information different from that of the surrounding tissue, the sediment 20 may be expressed differently from the surrounding tissue even in a 3D image.

본 발명의 일 실시예에 따른 3차원 영상 생성 장치 또는 방법은 초음파 데이터의 특성정보가 상이하다면, 대상체의 3차원 영상이 상이할 수 있다. 여기서 특성정보는 영상 특성 정보, 물성 정보 및 표면 정보 중 적어도 하나를 포함할 수 있다. 특성정보에 대해서는 이하에서 구체적으로 설명한다. In the 3D image generating apparatus or method according to an embodiment of the present invention, if the characteristic information of ultrasound data is different, the 3D image of the object may be different. Here, the characteristic information may include at least one of image characteristic information, physical property information, and surface information. The characteristic information will be described in detail below.

도 2는 본 발명의 일 실시예에 따라 대상체의 특성정보가 반영된 3차원 영상을 생성하기 위한 방법을 나타낸 순서도이다. 2 is a flowchart illustrating a method for generating a 3D image in which characteristic information of an object is reflected according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 대상체의 특성정보가 반영된 3차원 영상을 생성하기 위한 방법은, 대상체에 대한 초음파 데이터를 획득하는 단계(S10), 획득된 초음파 데이터로부터 대상체의 특성정보를 생성하는 단계(S20) 및 생성된 특성정보에 기초하여 대상체에 대한 3차원 영상을 생성하는 단계(S30)를 포함할 수 있다. A method for generating a three-dimensional image in which characteristic information of an object is reflected according to an embodiment of the present invention includes: acquiring ultrasound data for the object (S10); generating characteristic information of the object from the acquired ultrasound data; (S20) and generating a 3D image of the object based on the generated characteristic information (S30).

본 발명의 일 실시예에 따른 초음파 데이터는 초음파가 조사된 대상체로부터 수신되는 초음파 응답 신호를 포함할 수 있다. 이러한 초음파 응답 신호는 아날로그 신호 및 디지털 신호 중 적어도 하나를 포함할 수 있다. The ultrasound data according to an embodiment of the present invention may include an ultrasound response signal received from an object irradiated with ultrasound. The ultrasonic response signal may include at least one of an analog signal and a digital signal.

예를 들어, 초음파 데이터는 복셀(voxel) 단위로 표현될 수 있는 대상체로부터 획득된 초음파 응답 신호를 포함할 수 있다. 다시 말해서, 초음파 데이터는 프로브를 통하여 대상체를 향하여 송신된 초음파가 대상체를 거쳐 다시 프로브로 되돌아 오는 응답 초음파의 진폭 및 위상 값을 포함할 수 있다. For example, the ultrasound data may include an ultrasound response signal obtained from an object that may be expressed in units of voxels. In other words, the ultrasound data may include amplitude and phase values of a response ultrasound in which ultrasound transmitted toward the object through the probe passes through the object and returns to the probe.

본 발명의 일 실시예에 따른 대상체의 특성(attribute) 정보는 대상체에 대한 영상 특성정보, 대상체의 물성 정보, 대상체의 표면정보 등을 포함할 수 있다. The attribute information of the object according to an embodiment of the present invention may include image characteristic information of the object, information on physical properties of the object, surface information of the object, and the like.

영상 특성정보는 대상체에 대한 초음파 영상의 공간 주파수, 영상 강도(image intensity), 영상 히스토그램, 동시발생 행렬(co-occurrence matrix), 국부 이진 패턴(Local Binary Pattern), 균일성(homogeneity)과 같은 초음파 영상의 특성정보 중 적어도 하나를 포함할 수 있다. Image characteristic information includes ultrasound such as spatial frequency, image intensity, image histogram, co-occurrence matrix, local binary pattern, and homogeneity of an ultrasound image of an object. It may include at least one of the characteristic information of the image.

대상체의 균일성은 대상체에 포함된 적어도 하나의 입자의 크기, 모양의 변화 정도를 의미한다. 예를 들어, 대상체에 포함된 적어도 하나의 입자(또는 조직)의 크기 또는 모양이 다양하다면, 대상체의 균일성은 없거나 매우 낮게 된다. 또한, 대상체에 포함된 적어도 하나의 입자(또는 조직)의 크기 또는 모양이 동일하다면, 대상체는 매우 높은 균일성을 갖고 있음을 의미한다.The uniformity of the object refers to a degree of change in the size and shape of at least one particle included in the object. For example, if the size or shape of at least one particle (or tissue) included in the object is varied, uniformity of the object is absent or very low. Also, if the size or shape of at least one particle (or tissue) included in the object is the same, it means that the object has very high uniformity.

대상체의 물성 정보는 강도(strength), 경도(hardness), 탄성(elasticity), 소성(plasticity), 점성(viscosity), 밀도(density), 연성(ductile), 취성(brittleness), 전성(malleablity), 강성(rigidity) 및 인성(toughness)과 같은 대상체의 물리적인 성질을 나타내는 정보를 포함할 수 있다. Physical property information of an object includes strength, hardness, elasticity, plasticity, viscosity, density, ductile, brittleness, malleability, It may include information indicating a physical property of the object, such as rigidity and toughness.

대상체의 표면정보는 '매끄럽다', '울퉁불퉁하다', '거칠다', '부드럽다' 등과 같이 사람의 촉감 인지 기관을 통하여 느낄 수 있는 대상체의 표면적인 성질을 나타내기 위한 정보를 포함할 수 있다. The surface information of the object may include information for indicating the surface properties of the object that can be felt through a human tactile recognition organ, such as 'smooth', 'rough', 'rough', 'soft', and the like.

또한, 대상체의 표면정보는 밝음과 어두움의 대비', '전체 바탕과 소정의 물건 간의 분리 또는 구분' 등과 같이 사람의 시각 기관을 통하여 느낄 수 있는 대상체의 시각적 또는 입체적 성질을 나타내기 위한 정보를 포함할 수 있다. In addition, the surface information of the object includes information for indicating the visual or three-dimensional properties of the object that can be felt through the human visual organ, such as contrast between light and dark, 'separation or division between the entire background and a predetermined object' can do.

대상체의 특성(attribute) 정보는 영상을 구성하는 각각의 픽셀에 대한 정보일 수 있고, 영상을 구성하는 하나 이상의 영역 각각에 대한 정보 일 수 있다. 또한, 대상체의 특성(attribute) 정보는 영상의 프레임에 대한 정보를 의미할 수 있다. The attribute information of the object may be information on each pixel constituting an image, or information on each of one or more regions constituting an image. Also, the attribute information of the object may refer to information about a frame of an image.

대상체에 대한 초음파 영상은 B 모드(brightness mode) 영상, C 모드(color mode) 영상, D 모드(Doppler mode) 영상 중 적어도 하나일 수 있다. 또한, 본 발명의 일 실시예에 의하면, 초음파 영상은 대상체에 대한 2차원 영상 또는 3차원 영상일 수도 있다.The ultrasound image of the object may be at least one of a B-mode (brightness mode) image, a C-mode (color mode) image, and a D-mode (Doppler mode) image. Also, according to an embodiment of the present invention, the ultrasound image may be a 2D image or a 3D image of an object.

본 발명의 일 실시예에 따라 획득된 초음파 데이터로부터 특성정보를 추출하는 단계(S20)는, 초음파 응답 신호에 따라 생성된 초음파 영상에 기초하여 공간 주파수, 영상 강도, 영상 히스토그램, 동시발생 행렬, 국부 이진 패턴 및 균일성 중 하나를 획득하는 단계를 포함할 수 있다. According to an embodiment of the present invention, the step of extracting characteristic information from the acquired ultrasound data ( S20 ) may include spatial frequency, image intensity, image histogram, co-occurrence matrix, and local frequency based on an ultrasound image generated according to an ultrasound response signal. obtaining one of a binary pattern and uniformity.

본 발명의 일 실시예에 따라 획득된 초음파 데이터로부터 특성정보를 추출하는 단계(S20)는, 영상 특성정보를 분석하는 단계 및 분석 결과에 기초하여 대상체의 특성정보를 결정하는 단계를 포함할 수 있다. According to an embodiment of the present invention, the step of extracting characteristic information from the acquired ultrasound data (S20) may include analyzing the image characteristic information and determining characteristic information of the object based on the analysis result. .

영상 특성정보의 분석 및 결정과 관련해서는 이하의 도 3 내지 도 8을 참조하여 후술한다. Analysis and determination of image characteristic information will be described later with reference to FIGS. 3 to 8 .

도 3은 본 발명의 일 실시예에 따라 영상 특성정보가 공간 주파수인 것을 도시한다. 3 shows that image characteristic information is a spatial frequency according to an embodiment of the present invention.

공간 주파수는 영상을 나타낸 화면 상에서 가로 또는 세로 방향으로 픽셀 값이 변화하는 비율을 나타내기 위한 개념이다. 예를 들어, 픽셀 값이 천천히 변화(또는 픽셀 값이 거의 변화 없음) 하거나 영상에 포함된 객체들의 상관도가 높을 때 공간 주파수가 낮다. 이와 반대로, 픽셀 값의 변화가 극심(또는 에지(edge)와 같이 픽셀 값의 변화가 불연속적임)하거나 영상에 포함된 객체들의 상관도가 낮을 때 공간 주파수가 높다. The spatial frequency is a concept for representing the rate at which pixel values change in the horizontal or vertical direction on a screen displaying an image. For example, when the pixel value changes slowly (or the pixel value hardly changes) or the correlation of objects included in the image is high, the spatial frequency is low. Conversely, when the change in the pixel value is extreme (or the change in the pixel value is discontinuous like an edge) or the correlation of objects included in the image is low, the spatial frequency is high.

대상체의 초음파 영상(40 또는 50)은 도 3에 도시된 바와 같이 획득될 수 있다. 또한, 대상체의 초음파 영상(40 또는 50)은 도 1에서와 같이 대상체의 초음파 영상(10) 중 일부(예컨대, 소정의 선택된 영역(11)에 상응하는 부분)에 대한 초음파 영상일 수 있다. An ultrasound image 40 or 50 of the object may be acquired as shown in FIG. 3 . Also, the ultrasound image 40 or 50 of the object may be an ultrasound image of a portion of the ultrasound image 10 of the object (eg, a portion corresponding to the predetermined selected region 11 ) as shown in FIG. 1 .

예를 들어, 대상체의 조직(41, 42, 43)의 크기는 각각 상이할 수 있다. 여기서, 조직은 대상체를 이루는 생체 기관의 입자 또는 침전물의 입자 등을 지칭할 수 있다. 대상체에는 가장 큰 조직(42), 중간 크기의 조직(43) 및 가장 작은 조직(41)이 포함되어 있을 수 있다. 또한, 대상체의 조직(41, 42, 43)의 모양도 각각 상이할 수 있다.For example, the sizes of the tissues 41 , 42 , and 43 of the object may be different from each other. Here, the tissue may refer to particles of biological organs or particles of sediment constituting the object. The object may include the largest tissue 42 , the medium-sized tissue 43 , and the smallest tissue 41 . Also, the shapes of the tissues 41 , 42 , and 43 of the object may be different from each other.

또한, 대상체의 조직(41, 42, 43)의 밝기 값도 각각 상이할 수 있다. 예컨대, 대상체는 초음파 영상(40 또는 50)상에서 가장 밝게 나타나는 조직(43), 중간 밝기를 나타내는 조직(42) 및 가장 어둡게 나타나는 조직(41)을 포함할 수 있다. 조직의 깊이, 밀도, 탄성력 등에 따라 상이한 초음파 응답 신호가 생성될 수 있으므로, 상이한 조직은 상이한 밝기 값을 나타낼 수 있다. 예를 들면, 가장 깊은 곳에 위치한 조직(41)은 가장 어둡게 나타날 수 있다. 다시 말해서, 조직의 깊이가 깊어질수록 밝기 값이 점점 작게 나타날 수 있다.Also, the brightness values of the tissues 41 , 42 , and 43 of the object may be different from each other. For example, the object may include a tissue 43 appearing brightest in the ultrasound image 40 or 50 , a tissue 42 exhibiting an intermediate brightness, and a tissue 41 appearing the darkest in the ultrasound image 40 or 50 . Since different ultrasound response signals may be generated according to the depth, density, elasticity, etc. of the tissue, different tissues may exhibit different brightness values. For example, the deepest tissue 41 may appear the darkest. In other words, as the depth of the tissue increases, the brightness value may appear gradually smaller.

제 1 초음파 영상(40)의 위로부터 k번째에 위치한 라인에 포함된 복수개의 픽셀들의 밝기 값은 도 3에서와 같이 픽셀의 진폭 값으로서 표현될 수 있다. 예를 들어, 중간 밝기를 나타내는 조직(42)은 0.5의 픽셀 진폭 값으로서 표현될 수 있다. 또한, 가장 어둡게 나타나는 조직(41)은 -1의 픽셀 진폭 값으로서 표현될 수 있다. The brightness values of the plurality of pixels included in the k-th line from the top of the first ultrasound image 40 may be expressed as amplitude values of the pixels as shown in FIG. 3 . For example, tissue 42 exhibiting moderate brightness may be represented as a pixel amplitude value of 0.5. Also, the darkest appearing tissue 41 can be expressed as a pixel amplitude value of -1.

또한, 제 1 초음파 영상(40)과 상응하게 제 2 초음파 영상(50)의 위로부터 k번째에 위치한 라인에 포함된 복수개의 픽셀들의 밝기 값도 픽셀의 진폭 값으로서 표현될 수 있다. 제 2 초음파 영상(50)에는 동일한 크기, 동일한 밝기 값을 갖는 조직(51)이 포함되어 있다. 따라서, k번째 라인을 따라 밝기 값을 나타내면 도 3에 도시된 바와 같이 1의 픽셀 진폭 값을 갖도록 표현될 수 있다. In addition, the brightness values of the plurality of pixels included in the k-th line from the top of the second ultrasound image 50 corresponding to the first ultrasound image 40 may also be expressed as amplitude values of the pixels. The second ultrasound image 50 includes tissues 51 having the same size and the same brightness value. Accordingly, when the brightness value is expressed along the k-th line, it can be expressed to have a pixel amplitude value of 1 as shown in FIG. 3 .

동일한 k번째 라인을 따른 픽셀의 밝기 값은 제 1 초음파 영상(40)과 제 2 초음파 영상(50)에서 상이한 양상을 나타낸다. 다시 말해서, 제 1 초음파 영상(40)에서는 픽셀 진폭 값(또는 픽셀의 밝기 값)이 -1에서부터 0.5까지 다양하게 변화하는데 비하여, 제 2 초음파 영상(50)에서는 픽셀 진폭 값이 0에서부터 1까지 변화할 뿐이다. The brightness values of pixels along the same k-th line show different aspects in the first ultrasound image 40 and the second ultrasound image 50 . In other words, in the first ultrasound image 40 , the pixel amplitude value (or the pixel brightness value) varies from -1 to 0.5, whereas in the second ultrasound image 50, the pixel amplitude value varies from 0 to 1. just do it

전술한 예에서 제 1 초음파 영상(40)은 픽셀 진폭 값의 변화가 많으므로, 공간 주파수가 높다고 결정될 수 있다. 다시 말해서, 제 1 초음파 영상(40)에 포함된 조직(41, 42, 43)들의 상관도는 낮으며, 따라서 제 1 초음파 영상(40)의 대상체는 '울퉁불퉁'하거나 '거친' 특성을 갖는다고 결정될 수 있다. In the above-described example, since the pixel amplitude value of the first ultrasound image 40 has a large change, it may be determined that the spatial frequency is high. In other words, the correlation between the tissues 41 , 42 , and 43 included in the first ultrasound image 40 is low, and therefore it is assumed that the object of the first ultrasound image 40 has 'ragged' or 'rough' characteristics. can be decided.

또한, 제 1 초음파 영상(40)에 비하여 제 2 초음파 영상(50)은 픽셀 진폭 값의 변화가 거의 없으므로, 공간 주파수가 낮다고 결정될 수 있다. 다시 말해서, 제 2 초음파 영상에 포함된 객체(예컨대, 조직(51))들의 상관도는 매우 높으며, 그러므로 제 2 초음파 영상(50)의 대상체는 '매끄러운' 또는 '부드러운' 특성을 갖는다고 결정될 수 있다. Also, since the pixel amplitude value of the second ultrasound image 50 hardly changes compared to the first ultrasound image 40 , it may be determined that the spatial frequency is low. In other words, the correlation between objects (eg, tissues 51 ) included in the second ultrasound image is very high, and therefore it may be determined that the object of the second ultrasound image 50 has 'smooth' or 'soft' characteristics. there is.

전술한 바와 같이, 특성정보로서 초음파 영상의 공간 주파수가 추출될 수 있고, 이러한 공간 주파수에 기초하여 대상체의 특성정보가 결정(또는 획득)될 수 있다.As described above, the spatial frequency of the ultrasound image may be extracted as the characteristic information, and the characteristic information of the object may be determined (or acquired) based on the spatial frequency.

도 4는 본 발명의 일 실시예에 따라 영상 특성정보가 영상 강도인 것을 도시한다. 4 shows that image characteristic information is image intensity according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 강도(image intensity)는 대상체에 대한 초음파 영상의 복수개의 픽셀들의 밝기 값으로서 표현될 수 있다. Image intensity according to an embodiment of the present invention may be expressed as a brightness value of a plurality of pixels of an ultrasound image of an object.

도 4에서와 같이 상이한 범위(예컨대, 제 1 구간(401) 내지 제 3 구간(403))에 포함된 밝기 값들을 갖는 복수개의 조직들(41 내지 43)이 제 1 초음파 영상(40)에서 나타날 수 있다. 또한, 동일한 범위(예컨대, 제 3 구간(403))의 밝기 값을 갖는 조직(51)이 제 2 초음파 영상(50)에서 나타날 수 있다.As shown in FIG. 4 , a plurality of tissues 41 to 43 having brightness values included in different ranges (eg, the first section 401 to the third section 403 ) appear in the first ultrasound image 40 . can Also, a tissue 51 having a brightness value in the same range (eg, the third section 403 ) may appear in the second ultrasound image 50 .

다시 말해서, 제 1 초음파 영상(40)에서는 제 1 구간(예컨대, 어두운 구간)(401)에 포함된 밝기 값을 갖는 조직(41), 제 2 구간(예컨대, 중간 밝기 구간)(402)에 포함된 밝기 값을 갖는 조직(42) 및 제 3 구간(예컨대, 밝은 구간)(403)에 포함된 밝기 값을 갖는 조직(43)을 포함하므로, 제 1 초음파 영상(40)에 포함된 조직들(41 내지 43)은 이종의 조직들이라고 결정될 수 있다. 또한, 조직들(41 내지 43)이 동종의 조직이라고 하더라도, 조직들(41 내지 43)의 밝기 값 구간이 상이하므로, 조직들(41 내지 43)의 깊이가 각각 상이하다고 결정될 수 있다. In other words, in the first ultrasound image 40 , the tissue 41 having a brightness value included in the first section (eg, dark section) 401 is included in the second section (eg, medium brightness section) 402 . Since it includes the tissue 42 having the brightness value obtained and the tissue 43 having the brightness value included in the third section (eg, the bright section) 403 , the tissues included in the first ultrasound image 40 ( 41 to 43) can be determined to be heterogeneous tissues. Also, even if the tissues 41 to 43 are the same type of tissue, since the brightness value sections of the tissues 41 to 43 are different, it may be determined that the depths of the tissues 41 to 43 are different, respectively.

따라서, 제 1 초음파 영상(40)의 대상체는 '울퉁불퉁'하거나 '거친' 특성을 갖는다고 결정될 수 있다.Accordingly, the object of the first ultrasound image 40 may be determined to have a 'rough' or 'rough' characteristic.

이와 반면에, 제 2 초음파 영상(50)에서는 제 3 구간(예컨대, 밝은 구간)(403)에 포함된 밝기 값을 갖는 조직(51)을 포함하므로, 제 2 초음파 영상(50)은 단일 조직(51)들을 포함한다고 결정될 수 있다. On the other hand, since the second ultrasound image 50 includes the tissue 51 having the brightness value included in the third section (eg, the bright section) 403 , the second ultrasound image 50 is a single tissue ( 51) can be determined.

그러므로 제 2 초음파 영상(50)의 대상체는 '매끄러운' 또는 '부드러운' 특성을 갖는다고 결정될 수 있다.Therefore, the object of the second ultrasound image 50 may be determined to have a 'smooth' or 'soft' characteristic.

도 5는 본 발명의 일 실시예에 따라 영상 특성정보가 영상 히스토그램인 것을 도시한다.5 shows that the image characteristic information is an image histogram according to an embodiment of the present invention.

본 발명의 일 실시예에 따라 대상체에 대한 초음파 영상(40 또는 50)의 영상 히스토그램이 영상 특성정보로서 도 5에서와 같이 획득될 수 있다. According to an embodiment of the present invention, an image histogram of an ultrasound image 40 or 50 of an object may be obtained as image characteristic information as shown in FIG. 5 .

초음파 영상(40 또는 50)의 영상 히스토그램은 초음파 영상의 픽셀 값(예컨대, 밝기 값 등)에 대한 픽셀 수를 나타낸다. An image histogram of the ultrasound image 40 or 50 indicates the number of pixels for a pixel value (eg, a brightness value, etc.) of the ultrasound image.

도 5에서와 같이 상이한 밝기 값을 갖는 복수개의 조직들(41 내지 43)이 제 1 초음파 영상(40)에서 나타날 수 있다. 제 1 초음파 영상(40)의 픽셀 값에 따른 픽셀 수는 픽셀 값 0 내지 192에서 고르게 분포하게 나타날 수 있다. As shown in FIG. 5 , a plurality of tissues 41 to 43 having different brightness values may appear in the first ultrasound image 40 . The number of pixels according to the pixel values of the first ultrasound image 40 may be evenly distributed among pixel values 0 to 192 .

도 4 및 도 5를 참조하면, 제 1 구간(401)에 포함된 밝기 값을 갖는 픽셀 수는 제 1 그래프(501)로, 제 2 구간(402)에 포함된 밝기 값을 갖는 픽셀 수는 제 2 그래프(503)로, 그리고 제 3 구간(403)에 포함된 밝기 값을 갖는 픽셀 수는 제 3 그래프(505)로 영상 히스토그램 상에서 나타날 수 있다. 4 and 5 , the number of pixels having a brightness value included in the first section 401 is the first graph 501 , and the number of pixels having a brightness value included in the second section 402 is the second graph 501 . The number of pixels having a brightness value included in the second graph 503 and the third section 403 may be displayed on the image histogram as the third graph 505 .

따라서, 제 1 초음파 영상(40)에 포함된 조직들(41 내지 43)은 다양한 밝기 값들을 갖는 이종의 조직들이라고 결정될 수 있다. 또한, 조직들(41 내지 43)이 동종의 조직이라고 하더라도, 조직들(41 내지 43)의 히스토그램 분포가 비교적 넓게 나타나므로, 조직들(41 내지 43)의 깊이가 각각 상이하다고 결정될 수 있다. Accordingly, the tissues 41 to 43 included in the first ultrasound image 40 may be determined to be heterogeneous tissues having various brightness values. Also, even if the tissues 41 to 43 are the same type of tissue, since the histogram distribution of the tissues 41 to 43 appears relatively wide, it may be determined that the depths of the tissues 41 to 43 are different, respectively.

그러므로, 제 1 초음파 영상(40)의 대상체는 '울퉁불퉁'하거나 '거친' 특성을 갖는다고 결정될 수 있다.Therefore, it may be determined that the object of the first ultrasound image 40 has a 'ragged' or 'rough' characteristic.

또한, 동일하거나 유사한 밝기 값을 갖는 조직(51)이 제 2 초음파 영상(50)에서 나타날 수 있다. 도 4 및 도 5를 참조하면, 제 2 초음파 영상(50)에 대한 영상 히스토그램 상에서는 제 3 구간(403)에 포함된 밝기 값을 갖는 픽셀 수만이 제 4 그래프(502)로 나타날 수 있으므로, 제 2 초음파 영상(50)은 단일 조직(51)들을 포함한다고 결정될 수 있다. Also, tissues 51 having the same or similar brightness values may appear in the second ultrasound image 50 . 4 and 5 , on the image histogram of the second ultrasound image 50 , only the number of pixels having a brightness value included in the third section 403 may be displayed as the fourth graph 502 , so that the second The ultrasound image 50 may be determined to include single tissues 51 .

그러므로 제 2 초음파 영상(50)의 대상체는 '매끄러운' 또는 '부드러운' 특성을 갖는다고 결정될 수 있다.Therefore, the object of the second ultrasound image 50 may be determined to have a 'smooth' or 'soft' characteristic.

도 6은 본 발명의 일 실시예에 따라 영상 특성정보가 동시발생 행렬인 것을 도시한다. 6 illustrates that image characteristic information is a co-occurrence matrix according to an embodiment of the present invention.

동시발생 행렬(co-occurrence matrix)은 픽셀 값의 반복성을 판단하기 위하여 이용될 수 있다. 예컨대, 소정의 패턴에 해당하는 값이 많을 경우, 그러한 패턴의 반복성이 높다고 판단될 수 있다. A co-occurrence matrix may be used to determine the repeatability of pixel values. For example, when there are many values corresponding to a predetermined pattern, it may be determined that the repeatability of the pattern is high.

설명의 편의상 도 6에서와 같이, 가장 밝은 조직(43)은 밝기 값이 3으로 표현되고, 중간 밝기 조직(42)은 밝기 값이 2로 표현되며, 가장 어두운 조직(41)은 밝기 값이 0으로 표현될 때 제 1 초음파 영상(40)은 4x4 크기의 행렬(610)로 간단히 나타낼 수 있다. For convenience of explanation, as shown in FIG. 6 , the brightest tissue 43 has a brightness value of 3, the medium-brightness tissue 42 has a brightness value of 2, and the darkest tissue 41 has a brightness value of 0. When expressed as , the first ultrasound image 40 may be simply expressed as a matrix 610 having a size of 4x4.

제 1 초음파 영상(40)의 픽셀 값을 나타낸 행렬(610)에 대하여 픽셀간 수평 거리 1의 단위로 해석되는 패턴을 이용하여 동시발생 행렬(630)이 획득될 수 있다. 그러나 픽셀들 사이의 패턴의 해석이 반드시 수평 방향으로만 제한되는 것은 아니고, 수직 방향, 대각선 방향 등으로 수행될 수도 있다. With respect to the matrix 610 indicating the pixel values of the first ultrasound image 40 , the co-occurrence matrix 630 may be obtained by using a pattern interpreted as a unit of a horizontal distance between pixels of 1 . However, the analysis of the pattern between the pixels is not necessarily limited to only the horizontal direction, and may be performed in a vertical direction, a diagonal direction, or the like.

예를 들어, (1, 0)의 수평적 패턴으로 나란히 픽셀 값이 존재(611)한다면, (1, 0)의 패턴에 상응하는 행렬의 원소(element)(631)에 (1, 0)의 패턴의 개수인 3을 표시한다. 행렬의 각각의 원소(element)에 상응하는 패턴의 개수를 각각 표시함으로써 동시발생 행렬(630)이 획득될 수 있다. For example, if there are pixel values 611 side by side in a horizontal pattern of (1, 0), the element of (1, 0) in the element 631 of the matrix corresponding to the pattern of (1, 0) is 3, which is the number of patterns, is displayed. The co-occurrence matrix 630 may be obtained by respectively indicating the number of patterns corresponding to each element of the matrix.

또한, 제 2 초음파 영상(50)에 포함된 조직(51)의 밝기 값을 3으로 표현함으로써, 제 2 초음파 영상(50)도 4x4 크기의 행렬(620)로 간단히 나타낼 수 있다. 제 2 초음파 영상(50)에 대한 동시발생 행렬(640)도 제 1 초음파 영상(40)에 대한 동시발생 행렬(630) 획득과 같은 방식으로 획득될 수 있다. In addition, by expressing the brightness value of the tissue 51 included in the second ultrasound image 50 as 3, the second ultrasound image 50 may also be simply expressed as a matrix 620 having a size of 4x4. The co-occurrence matrix 640 for the second ultrasound image 50 may also be obtained in the same manner as the co-occurrence matrix 630 for the first ultrasound image 40 .

제 2 초음파 영상(50)에 대한 동시발생 행렬(640)에서는 행렬(640)의 특정 원소(641)에 값이 집중적으로 나타날 수 있다. 다시 말해서, 제 2 초음파 영상(50)에서는 (1,1)의 패턴이 여섯번이나 반복하여 나타나므로, (1, 1)의 패턴에 상응하는 행렬의 원소(641)는 6의 값으로서 표현될 수 있다. In the simultaneous occurrence matrix 640 for the second ultrasound image 50 , a value may appear intensively in a specific element 641 of the matrix 640 . In other words, since the pattern of (1,1) is repeated six times in the second ultrasound image 50, the element 641 of the matrix corresponding to the pattern of (1, 1) can be expressed as a value of 6. there is.

제 1 초음파 영상(40)에 대한 동시발생 행렬(630)과 제 2 초음파 영상(50)에 대한 동시발생 행렬(640)을 비교해보면, 동시발생 행렬(640)에서는 특정 원소에 값이 집중적으로 나타남으로써 상대적으로 단조로운 행렬로서 표현되는데, 왜냐하면 제 2 초음파 영상(50)에서는 소정의 패턴(예컨대, (1,1) 또는 (3,3))의 반복성이 높게 나타나기 때문이다. Comparing the co-occurrence matrix 630 for the first ultrasound image 40 and the co-occurrence matrix 640 for the second ultrasound image 50, values are concentrated on specific elements in the co-occurrence matrix 640 This is expressed as a relatively monotonous matrix because the repeatability of a predetermined pattern (eg, (1,1) or (3,3)) appears to be high in the second ultrasound image 50 .

제 2 초음파 영상(50)의 패턴의 반복성이 높기 때문에, 제 2 초음파 영상(50)의 대상체는 제 1 초음파 영상(40)의 대상체에 비하여 상대적으로 '매끄러운' 또는 '부드러운' 특성을 갖는다고 결정될 수 있다.Since the repeatability of the pattern of the second ultrasound image 50 is high, it may be determined that the object of the second ultrasound image 50 has a relatively 'smooth' or 'soft' characteristic compared to the object of the first ultrasound image 40 . can

도 7은 본 발명의 일 실시예에 따라 추출된 영상 특성정보가 국부 이진 패턴(LBP)인 것을 도시한다. 7 shows that the image characteristic information extracted according to an embodiment of the present invention is a local binary pattern (LBP).

국부 이진 패턴(Local Binary Pattern)은 현재 위치의 픽셀 값과 이웃 픽셀 값 간의 차이를 0, 1의 2진 형태로 표현하여 픽셀들 간의 유사도를 판단하기 위한 기법이다. 다시 말해서, 영상의 각 픽셀에 대하여 소정 반경 내에 포함된 주변 픽셀들 간의 차이를 2진 형태의 값으로서 표현한 LBP 히스토그램을 획득하고, 각 픽셀을 기준으로 획득된 복수개의 2진 표현 값들을 상호 비교함으로써 픽셀들 간의 유사도를 판단할 수 있다. The local binary pattern is a technique for determining the similarity between pixels by expressing the difference between a pixel value of a current position and a neighboring pixel value in a binary form of 0 and 1. In other words, by obtaining an LBP histogram expressing the difference between neighboring pixels included within a predetermined radius for each pixel of the image as a binary value, and comparing a plurality of binary expression values obtained based on each pixel The similarity between pixels may be determined.

픽셀들 간의 유사도가 크다는 것은 픽셀들이 동일한 속성(feature)을 가짐을 나타낸다. 예를 들어, 유사도가 큰 픽셀들은 동일하거나 유사한 밝기 값을 가질 수 있다. 따라서, 국부 이진 패턴 기법을 이용하여 영상의 패턴을 비교적 정확하게 추정할 수 있다. A high degree of similarity between pixels indicates that the pixels have the same feature. For example, pixels having a high similarity may have the same or similar brightness values. Therefore, it is possible to estimate the image pattern relatively accurately by using the local binary pattern technique.

도 7에 도시된 바와 같이, 제 1 초음파 영상(40)의 픽셀 값을 나타낸 행렬(610)에서 소정의 원소(711)를 중심으로한 3x3 행렬(710)이 선택되고, 원소(711)의 픽셀 값인 1을 기준으로 주변 픽셀이 높거나 같은 픽셀 값을 가지면 1로 나타내고, 1보다 작은 픽셀 값을 가지면 0으로 나타냄으로써 이진 표현 행렬(730)이 획득될 수 있다. 이진 표현 행렬(730)에서 원소(711)로부터 시계 방향으로 각각의 원소의 값들을 판독함으로써, 원소(711)에 상응하는 픽셀을 기준으로한 이진 값(750) '11101001'이 획득될 수 있다. 이와 같은 방식으로 원소(712)를 기준으로 하여 이진 값 '11111111'이 획득될 수 있다.As shown in FIG. 7 , a 3x3 matrix 710 centered on a predetermined element 711 is selected from the matrix 610 indicating pixel values of the first ultrasound image 40 , and the pixel of the element 711 is selected. A binary representation matrix 730 may be obtained by representing a value of 1 as 1 when a neighboring pixel has a higher or equal pixel value based on the value 1, and representing it as 0 when a pixel value is smaller than 1. By reading the values of each element in the clockwise direction from the element 711 in the binary representation matrix 730 , a binary value 750 '11101001' based on the pixel corresponding to the element 711 may be obtained. In this way, the binary value '11111111' may be obtained based on the element 712 .

또한, 제 2 초음파 영상(50)의 픽셀 값을 나타낸 행렬(620)에서 소정의 원소(721)를 중심으로한 행렬(720)에 기초하여 이진 값(760) '00111110'이 획득될 수 있다. 또한, 원소(722)를 기준으로 하여 이진 값 '00111110'이 획득될 수 있다.In addition, a binary value 760 '00111110' may be obtained based on the matrix 720 centered on a predetermined element 721 in the matrix 620 indicating the pixel values of the second ultrasound image 50 . Also, a binary value '00111110' may be obtained based on the element 722 .

제 1 초음파 영상(40)에서 획득된 이진 값들('11101001' 및 '11111111')의 변화는 급격하지만, 제 2 초음파 영상(50)에서 획득된 이진 값들('00111110' 및 '00111110')은 변화가 없다. 즉, 제 1 초음파 영상(40)에 비하여 제 2 초음파 영상(50)은 인접한 픽셀들 간의 픽셀 값의 변화가 크지 않다. The binary values '11101001' and '11111111' obtained from the first ultrasound image 40 change rapidly, but the binary values '00111110' and '00111110' obtained from the second ultrasound image 50 change. there is no That is, compared to the first ultrasound image 40 , the change in pixel values between adjacent pixels in the second ultrasound image 50 is not large.

제 2 초음파 영상(50)은 인접한 픽셀들 간의 픽셀 값의 변화가 적으므로, 제 2 초음파 영상(50)의 대상체는 제 1 초음파 영상(40)의 대상체에 비하여 상대적으로 '매끄러운' 또는 '부드러운' 특성을 갖는다고 결정될 수 있다.Since the second ultrasound image 50 has little change in pixel values between adjacent pixels, the object of the second ultrasound image 50 is relatively 'smooth' or 'soft' compared to the object of the first ultrasound image 40 . characteristics can be determined.

도 8은 본 발명의 일 실시예에 따라 영상 특성정보가 균일성인 것을 도시한다. 8 shows that image characteristic information is uniform according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 초음파 영상의 균일성은, 초음파 영상(40 또는 50)에 포함된 조직(41, 42, 43 또는 51)의 크기 또는 모양의 균일성을 의미한다. 설명의 편의상, 완전히 균일한 경우 균일성은 값 '10'으로 표현되고, 균일하지 않은 경우 균일성은 값 '1'로 표현된다고 가정한다. The uniformity of the ultrasound image according to an embodiment of the present invention refers to the uniformity of the size or shape of the tissue 41 , 42 , 43 or 51 included in the ultrasound image 40 or 50 . For convenience of explanation, it is assumed that uniformity is expressed as a value of '10' when it is completely uniform, and uniformity is expressed as a value of '1' when it is not uniform.

제 1 초음파 영상(40)에는 크기가 상이한 복수개의 조직들(41 내지 43)이 포함된다. 따라서, 제 1 초음파 영상(40)의 균일성은 낮다고 결정될 수 있다. 예를 들어, 제 1 초음파 영상(40)의 균일성은 값 '1'로 표현될 수 있고, 입자(또는 조직)이 고르지 못하다고 결정될 수 있다. 다시 말해서, 제 1 초음파 영상(40)의 대상체는 '울퉁불퉁'하거나 '거친' 특성을 갖는다고 결정될 수 있다.The first ultrasound image 40 includes a plurality of tissues 41 to 43 having different sizes. Accordingly, it may be determined that the uniformity of the first ultrasound image 40 is low. For example, the uniformity of the first ultrasound image 40 may be expressed as a value of '1', and it may be determined that particles (or tissues) are uneven. In other words, the object of the first ultrasound image 40 may be determined to have a 'ragged' or 'rough' characteristic.

이에 비하여, 제 2 초음파 영상(50)은 크기가 동일한 조직(51)이 복수개 포함된다. 그러므로, 제 2 초음파 영상(50)의 균일성은 제 1 초음파에 비하여 상대적으로 높다고 결정될 수 있다. 예를 들어, 제 2 초음파 영상(50)의 균일성은 값 '10'으로 표현될 수 있고, 입자(또는 조직)이 고르다고 결정될 수 있다. 다시 말해서, 제 2 초음파 영상(50)의 대상체는 제 1 초음파 영상(40)의 대상체에 비하여 상대적으로 '매끄러운' 또는 '부드러운' 특성을 갖는다고 결정될 수 있다.In contrast, the second ultrasound image 50 includes a plurality of tissues 51 having the same size. Therefore, it may be determined that the uniformity of the second ultrasound image 50 is relatively higher than that of the first ultrasound image. For example, the uniformity of the second ultrasound image 50 may be expressed as a value of '10', and it may be determined that particles (or tissues) are even. In other words, it may be determined that the object of the second ultrasound image 50 has a relatively 'smooth' or 'soft' characteristic compared to the object of the first ultrasound image 40 .

도 9는 본 발명의 일 실시예에 따라 대상체의 특성정보가 반영된 3차원 영상을 렌더링하고, 디스플레이하는 방법을 나타낸 순서도이다.9 is a flowchart illustrating a method of rendering and displaying a 3D image in which characteristic information of an object is reflected, according to an embodiment of the present invention.

본 발명의 일 실시예에 따라 생성된 특성정보에 기초하여 대상체에 대한 3차원 영상을 생성하는 단계(S30)는, 특성정보에 따라 대상체에 대한 3차원 영상을 렌더링하는 단계(S31)를 포함할 수 있다. According to an embodiment of the present invention, generating a 3D image of an object based on the generated characteristic information (S30) may include rendering a 3D image of the object according to the characteristic information (S31). can

예컨대, 대상체에 대하여 전술한 방법에 따라 생성된 특성정보를 이용하여 3차원 영상이 렌더링될 수 있다. 다시 말해서, 대상체에 대한 3차원 볼륨 렌더링을 수행할 때, 전술한 영상 특성정보의 분석을 통하여 획득(또는 결정)된 각각의 픽셀에 상응하는 특성(예컨대, 질감 등) 정보를 이용함으로써 대상체의 구조뿐만 아니라 대상체의 질감 등의 특성이 반영된 3차원 볼륨 영상을 획득할 수 있다. For example, a 3D image may be rendered using the characteristic information generated according to the method described above for the object. In other words, when 3D volume rendering of the object is performed, the structure of the object is obtained by using characteristic (eg, texture, etc.) information corresponding to each pixel obtained (or determined) through the analysis of the above-described image characteristic information. In addition, it is possible to obtain a 3D volume image in which characteristics such as the texture of the object are reflected.

또한, 본 발명의 일 실시예에 따른 방법은 특성정보가 반영되어 생성된 3차원 영상을 디스플레이하는 단계(S40)를 더 포함할 수 있다. In addition, the method according to an embodiment of the present invention may further include displaying a 3D image generated by reflecting the characteristic information (S40).

도 10은 본 발명의 일 실시예에 따라 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 방법을 나타낸 순서도이다. 10 is a flowchart illustrating a method for generating an image in which characteristic information on a window region of an object is reflected, according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 방법은, 대상체에 대한 초음파 데이터에 기초하여 대상체에 대한 초음파 영상을 획득하는 단계(S100), 획득된 초음파 영상에서 윈도우 영역 을 설정하는 단계(S200), 초음파 데이터로부터 윈도우 영역에 대한 특성정보를 생성하는 단계(S300) 및 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 단계(S400)를 포함할 수 있다. According to an embodiment of the present invention, a method for generating an image in which characteristic information on a window region of an object is reflected includes acquiring an ultrasound image of an object based on ultrasound data of the object (S100), the acquired ultrasound It includes the steps of setting the window area in the image (S200), generating characteristic information of the window area from ultrasound data (S300), and generating an image of the window area based on the generated characteristic information (S400). can do.

본 발명의 일 실시예에 따라 획득된 초음파 영상에서 윈도우 영역 을 설정하는 단계(S200)는, 외부 입력에 기초하여 초음파 영상에서 소정의 영역을 선택하는 단계(S210)를 포함할 수 있다. According to an embodiment of the present invention, the step of setting the window region in the acquired ultrasound image (S200) may include selecting a predetermined region in the ultrasound image based on an external input (S210).

또한, 본 발명의 일 실시예에 따른 윈도우 영역 은, 별도의 외부 입력이 인가되지 않더라도 대상체의 소정의 부분(또는 부위)이 포함되는 소정 크기의 미리 설정된 영역만큼 자동적으로 설정될 수 있다. 예를 들어, 환자의 위장의 상단부 또는 하곡면 등이 포함되도록 소정 크기로 미리 설정된 윈도우 영역이 자동으로 설정될 수 있다.In addition, the window area according to an embodiment of the present invention may be automatically set as much as a preset area of a predetermined size including a predetermined portion (or region) of the object even if a separate external input is not applied. For example, a window area preset to a predetermined size to include the upper end or lower curved surface of the patient's stomach may be automatically set.

본 발명의 일 실시예에 따른 영상 특성정보는, 대상체에 대한 초음파 영상의 공간 주파수, 영상 강도, 영상 히스토그램, 동시발생 행렬, 국부 이진 패턴, 균일성 중 적어도 하나를 포함할 수 있고, 특성정보는 대상체의 질감을 포함할 수 있다. The image characteristic information according to an embodiment of the present invention may include at least one of a spatial frequency, an image intensity, an image histogram, a co-occurrence matrix, a local binary pattern, and a uniformity of an ultrasound image of an object, and the characteristic information is The texture of the object may be included.

도 11은 본 발명의 일 실시예에 따라 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 방법을 나타낸 순서도이다. 11 is a flowchart illustrating a method of generating an image for a window region based on generated characteristic information according to an embodiment of the present invention.

본 발명의 일 실시예에 따라 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 단계(S400)는, 생성된 특성정보에 따라 윈도우 영역에 대한 3차원 영상을 렌더링하는 단계(S410)를 포함할 수 있다. According to an embodiment of the present invention, the step of generating an image of the window region based on the generated characteristic information (S400) includes the step of rendering a 3D image of the window region according to the generated characteristic information (S410). may include

전술한 바와 같이, 대상체에 대한 3차원 볼륨 렌더링을 수행할 때, 특성정보의 분석을 통하여 획득(또는 결정)된 각각의 픽셀에 상응하는 특성정보를 이용함으로써 대상체의 구조뿐만 아니라 대상체의 질감 등의 특성이 반영된 3차원 볼륨 영상을 획득할 수 있다. As described above, when 3D volume rendering of an object is performed, by using characteristic information corresponding to each pixel obtained (or determined) through analysis of characteristic information, not only the structure of the object but also the texture of the object A three-dimensional volume image with characteristics reflected may be obtained.

도 12는 본 발명의 다른 실시예에 따라 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 방법을 나타낸 순서도이다.12 is a flowchart illustrating a method of generating an image for a window region based on generated characteristic information according to another embodiment of the present invention.

본 발명의 일 실시예에 따라 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 단계(S400)는, 윈도우 영역에 대한 3차원 영상이 획득되도록 렌더링하는 단계(S420) 및 렌더링된 3차원 영상에 생성된 특성정보를 부가하는 단계(S440)를 포함할 수 있다. According to an embodiment of the present invention, the step (S400) of generating an image of the window area based on the generated characteristic information includes the steps of rendering (S420) so that a three-dimensional image of the window area is obtained and the rendered three-dimensional (3D) image. It may include adding the generated characteristic information to the image (S440).

윈도우 영역에 대한 3차원 볼륨 렌더링을 수행하여 3차원 영상을 획득하고 나서, 렌더링된 3차원 영상에 특성정보를 부가함으로써 특성정보가 반영된 3차원 영상을 획득할 수 있다. After obtaining a 3D image by performing 3D volume rendering on the window region, the 3D image in which the characteristic information is reflected may be obtained by adding characteristic information to the rendered 3D image.

다시 말해서, 윈도우 영역에 대한 3차원 볼륨 렌더링을 수행하여 제 1 영상을 생성하고, 윈도우 영역에 상응하게 초음파 데이터로부터 추출 및 분석되어 생성된 특성정보에 기초하여 제 2 영상을 생성하고, 제 1 영상과 제 2 영상을 중첩시킴으로써 렌더링된 3차원 영상(예컨대, 제 1 영상)에 특성정보를 부가할 수 있다. 또한, 소정의 영상 처리 필터 등을 통하여 필터링된 특성정보를 렌더링된 3차원 영상에 부가함으로써 특성정보가 반영된 3차원 영상이 획득될 수 있다. In other words, a first image is generated by performing 3D volume rendering on the window area, a second image is generated based on characteristic information generated by extraction and analysis from ultrasound data corresponding to the window area, and the first image is generated. By overlapping the second image and the second image, characteristic information may be added to the rendered 3D image (eg, the first image). In addition, a 3D image to which the characteristic information is reflected may be obtained by adding the characteristic information filtered through a predetermined image processing filter or the like to the rendered 3D image.

도 13은 본 발명의 일 실시예에 따라 대상체의 특성정보가 반영된 3차원 영상을 생성하기 위한 장치를 나타낸 블록도이다.13 is a block diagram illustrating an apparatus for generating a 3D image in which characteristic information of an object is reflected according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 대상체의 특성정보가 반영된 3차원 영상을 생성하기 위한 장치(1300)는, 대상체에 대한 초음파 데이터를 획득하는 초음파 데이터 획득부(1310), 획득된 초음파 데이터로부터 대상체의 특성정보를 생성하는 특성정보 생성부(1350) 및 생성된 특성정보에 기초하여 대상체에 대한 3차원 영상을 생성하는 영상 생성부(1370)를 포함할 수 있다. An apparatus 1300 for generating a 3D image in which characteristic information of an object is reflected according to an embodiment of the present invention includes an ultrasound data acquisition unit 1310 that acquires ultrasound data of the object, and an ultrasound data acquisition unit 1310 of the object from the acquired ultrasound data. It may include a characteristic information generator 1350 that generates characteristic information and an image generator 1370 that generates a 3D image of an object based on the generated characteristic information.

또한, 본 발명의 일 실시예에 따른 장치(1300)는 생성된 3차원 영상을 디스플레이하는 디스플레이부(1390)를 더 포함할 수 있다. Also, the apparatus 1300 according to an embodiment of the present invention may further include a display unit 1390 for displaying the generated 3D image.

본 발명의 일 실시예에 따른 특성정보는, 상기 대상체에 대한 초음파 영상의 공간 주파수, 영상 강도, 영상 히스토그램, 동시발생 행렬, 국부 이진 패턴, 균일성 중 적어도 하나의 영상 특성정보를 포함할 수 있다. The characteristic information according to an embodiment of the present invention may include image characteristic information of at least one of spatial frequency, image intensity, image histogram, co-occurrence matrix, local binary pattern, and uniformity of the ultrasound image of the object. .

본 발명의 일 실시예에 따른 특성정보는 영상 특성정보, 대상체의 물성 정보, 표현 정보 중 적어도 하나를 포함할 수 있다. The characteristic information according to an embodiment of the present invention may include at least one of image characteristic information, physical property information of an object, and expression information.

본 발명의 일 실시예에 따른 영상 생성부(1370)는 특성정보 생성부(1350)에 의하여 생성된 특성정보에 따라 대상체에 대한 3차원 영상을 렌더링할 수 있다.The image generation unit 1370 according to an embodiment of the present invention may render a 3D image of the object according to the characteristic information generated by the characteristic information generation unit 1350 .

도 14는 본 발명의 일 실시예에 따라 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 장치를 나타낸 블록도이다. 14 is a block diagram illustrating an apparatus for generating an image in which characteristic information on a window region of an object is reflected, according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 장치(1300)는, 대상체에 대한 초음파 데이터를 획득하는 초음파 데이터 획득부(1310), 획득된 초음파 데이터에 기초하여 대상체에 대한 초음파 영상을 획득하는 초음파 영상 획득부(1320), 획득된 초음파 영상에서 윈도우 영역 을 설정하는 윈도우 영역 설정부(1360), 초음파 데이터로부터 윈도우 영역에 대한 특성정보를 생성하는 특성정보 생성부(1350) 및 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 영상 생성부(1370)를 포함할 수 있다. An apparatus 1300 for generating an image in which characteristic information on a window region of an object is reflected according to an embodiment of the present invention includes an ultrasound data acquisition unit 1310 that acquires ultrasound data on the object, and the acquired ultrasound data. An ultrasound image acquisition unit 1320 for acquiring an ultrasound image of an object based on an ultrasound image acquisition unit 1320, a window region setting unit 1360 for setting a window region from the acquired ultrasound image, and characteristic information for generating characteristic information on a window region from ultrasound data It may include a generator 1350 and an image generator 1370 that generates an image of the window region based on the generated characteristic information.

본 발명의 일 실시예에 따른 윈도우 영역 설정부(1360)는, 대상체의 소정의 부분(또는 부위)가 포함되는 소정 크기의 미리 설정된 영역만큼 자동적으로 윈도우 영역을 설정할 수 있다. 이러한 미리 설정된 영역은 저장부(미도시)에 미리 저장되어 있을 수 있다. 예를 들어, 환자의 위장의 상단부 또는 하곡면 등이 포함되도록 소정 크기로 미리 설정된 윈도우 영역이 자동으로 설정될 수 있다.The window area setting unit 1360 according to an embodiment of the present invention may automatically set the window area by a preset area of a predetermined size including a predetermined part (or part) of the object. Such a preset area may be previously stored in a storage unit (not shown). For example, a window area preset to a predetermined size to include the upper end or lower curved surface of the patient's stomach may be automatically set.

본 발명의 일 실시예에 따른 장치(1300)는, 외부 입력 수신부(1340)를 더 포함할 수 있다. The apparatus 1300 according to an embodiment of the present invention may further include an external input receiving unit 1340 .

윈도우 영역 설정부(1360)는, 외부 입력 수신부(1340)를 통하여 수신된 외부 입력에 기초하여 초음파 영상 획득부(1320)를 통하여 획득된 초음파 영상에서 소정의 영역을 선택할 수 있다. The window area setting unit 1360 may select a predetermined area from the ultrasound image obtained through the ultrasound image obtaining unit 1320 based on the external input received through the external input receiving unit 1340 .

본 발명의 일 실시예에 따른 영상 특성정보는, 대상체에 대한 초음파 영상의 공간 주파수, 영상 강도, 영상 히스토그램, 동시발생 행렬, 국부 이진 패턴, 균일성 중 적어도 하나를 포함하고, 특성정보는 대상체의 질감 및 대상체의 균일성 중 적어도 하나를 포함할 수 있다. The image characteristic information according to an embodiment of the present invention includes at least one of a spatial frequency, an image intensity, an image histogram, a co-occurrence matrix, a local binary pattern, and a uniformity of an ultrasound image of an object, and the characteristic information includes: It may include at least one of texture and uniformity of the object.

본 발명의 일 실시예에 따른 영상 생성부(1370)는, 특성정보 생성부(1350)를 통하여 생성된 특성정보에 따라 윈도우 영역에 대한 3차원 영상이 획득되도록 렌더링하는 영상 렌더링부(1371)를 포함할 수 있다. The image generating unit 1370 according to an embodiment of the present invention includes an image rendering unit 1371 that renders a 3D image of the window area according to the characteristic information generated through the characteristic information generating unit 1350 to be obtained. may include

도 15는 본 발명의 다른 실시예에 따라 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 장치를 나타낸 블록도이다.15 is a block diagram illustrating an apparatus for generating an image in which characteristic information on a window area of an object is reflected, according to another embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 생성부(1370)는, 윈도우 영역에 대한 3차원 영상이 획득되도록 렌더링하는 영상 렌더링부(1371) 및 렌더링된 3차원 영상에 특성정보 생성부(1350)를 통하여 생성된 특성정보를 부가하는 특성정보 부가부(1372)를 포함할 수 있다.The image generating unit 1370 according to an embodiment of the present invention may be configured to perform an image rendering unit 1371 that renders a 3D image for a window region to be obtained and a characteristic information generating unit 1350 on the rendered 3D image through the It may include a characteristic information adding unit 1372 for adding the generated characteristic information.

또한, 본 발명의 일 실시예에 따른 영상 생성부(1370)는 특성정보 생성부(1350)에 의하여 생성된 특성정보에 기초하여 특성정보가 표현된 특성정보 영상을 생성할 수 있다. Also, the image generation unit 1370 according to an embodiment of the present invention may generate a characteristic information image in which characteristic information is expressed based on the characteristic information generated by the characteristic information generation unit 1350 .

다시 말해서, 윈도우 영역에 대한 3차원 볼륨 렌더링을 수행하여 3차원 영상을 획득하고, 그리고 나서 렌더링된 3차원 영상에 특성정보를 부가함으로써 특성정보가 반영된 3차원 영상이 획득될 수 있다. In other words, a 3D image is obtained by performing 3D volume rendering on the window region, and then, a 3D image to which the characteristic information is reflected may be obtained by adding characteristic information to the rendered 3D image.

특성정보 부가부(1372)는 영상 렌더링부(1371)에 의하여 생성된 제 1 영상과 영상 생성부(1370)를 통하여 생성된 제 2 영상(예컨대, 특성정보 영상)을 중첩시킴으로써 렌더링된 3차원 영상(예컨대, 제 1 영상)에 특성정보를 부가할 수 있다. 또한, 특성정보 부가부(1372)는 소정의 영상 처리 필터 등을 포함할 수 있다. 다시 말해서, 소정의 영상 처리 필터 등을 통하여 특성정보를 필터링하여 렌더링된 3차원 영상에 부가함으로써 특성정보가 반영된 3차원 영상이 획득될 수 있다.The characteristic information adding unit 1372 is a 3D image rendered by superimposing the first image generated by the image rendering unit 1371 and the second image (eg, characteristic information image) generated through the image generation unit 1370 . Characteristic information may be added to (eg, the first image). Also, the characteristic information adding unit 1372 may include a predetermined image processing filter or the like. In other words, a 3D image in which the characteristic information is reflected may be obtained by filtering the characteristic information through a predetermined image processing filter or the like and adding it to the rendered 3D image.

도 16 및 도 17은 본 발명의 일 실시예에 따른 대상체의 특성정보 중 반사광 효과를 설명하기 위한 도면이다.16 and 17 are diagrams for explaining a reflected light effect among characteristic information of an object according to an embodiment of the present invention.

도 16 및 도 17을 참조하면, 도 16(a)의 이미지와 도 16(b)의 이미지를 합성하여 도 16(c)와 같은 이미지를 생성할 수 있다. 도 16(b)와 같은 반사광 효과는 대상체의 재료 특성에 따라서 달라질 수 있다. 16 and 17 , the image shown in FIG. 16(c) may be generated by synthesizing the image of FIG. 16(a) and the image of FIG. 16(b). The reflected light effect as shown in FIG. 16(b) may vary depending on the material properties of the object.

예를 들어, 도 13의 장치(1300)는 도 16(a)와 같이 3차원 이미지를 획득할 수 있고, 도 16(b)의 이미지에 대응하는 특성정보를 획득할 수 있다. 또한, 예를 들어, 도 13의 장치(1300)는 도 16(a)와 같이 3차원 이미지에 도 16(b)와 같은 이미지를 부가하여 도 16(c)와 같이 이미지를 생성할 수 있다. 따라서, 도 13의 장치(1300)는 도 16(a)와 같이 3차원 이미지에 도 16(b)의 이미지에 대응하는 특성정보인 반사광 효과를 부가적으로 렌더링 할 수 있다. For example, the device 1300 of FIG. 13 may acquire a 3D image as shown in FIG. 16( a ), and may acquire characteristic information corresponding to the image of FIG. 16( b ). Also, for example, the apparatus 1300 of FIG. 13 may generate an image as shown in FIG. 16(c) by adding the image as shown in FIG. 16(b) to the 3D image as shown in FIG. 16(a). Accordingly, the apparatus 1300 of FIG. 13 may additionally render the reflected light effect, which is characteristic information corresponding to the image of FIG. 16(b), to the 3D image as shown in FIG. 16(a).

도 17(a)의 이미지와 도 17(b)의 이미지를 합성하여 도 17(c)와 같은 이미지를 생성할 수 있다. 도 17(b)와 같은 반사광 효과는 대상체의 재료 특성에 따라서 달라질 수 있다.An image as shown in FIG. 17(c) may be generated by synthesizing the image of FIG. 17(a) and the image of FIG. 17(b). The reflected light effect as shown in FIG. 17(b) may vary depending on the material properties of the object.

예를 들어, 도 13의 장치(1300)는 도 17(a)와 같이 3차원 이미지를 획득할 수 있고, 도 17(b)의 이미지에 대응하는 특성정보를 획득할 수 있다. 또한, 예를 들어, 도 13의 장치(1300)는 도 17(a)와 같이 3차원 이미지에 도 17(b)와 같은 이미지를 부가하여 도 17(c)와 같이 이미지를 생성할 수 있다. 따라서, 도 13의 장치(1300)는 도 17(a)와 같이 3차원 이미지에 도 17(b)의 이미지에 대응하는 특성정보인 반사광 효과를 부가적으로 렌더링 할 수 있다. For example, the device 1300 of FIG. 13 may acquire a 3D image as shown in FIG. 17(a) and may acquire characteristic information corresponding to the image of FIG. 17(b). Also, for example, the apparatus 1300 of FIG. 13 may generate an image as shown in FIG. 17(c) by adding the image as shown in FIG. 17(b) to the 3D image as shown in FIG. 17(a). Accordingly, the apparatus 1300 of FIG. 13 may additionally render the reflected light effect, which is characteristic information corresponding to the image of FIG. 17(b), to the 3D image as shown in FIG. 17(a).

도 18은 도 16 및 도 17의 초음파 영상을 얻기 위한 방법을 설명하기 위한 도면이다. 18 is a diagram for explaining a method for obtaining the ultrasound image of FIGS. 16 and 17 .

도 18을 참조하면, 반사광 효과는 3차원 렌더링(Rendering) 과정을 통하여 발생할 수 있다. 반사광 효과를 발생시키는 반사광 렌더링(Specular Rendering)은 광선 추적 렌더링(Ray Tracing Rendering)으로 구현될 수 있다. 광선 추적 렌더링(Ray Tracing Rendering)은 전역 조명모델을 적용한 렌더링 방식이다. 즉, 광선 추적 렌더링(Ray Tracing Rendering)은 카메라에서 광선이 발사된다고 가정하고 화면의 모든 화소에서 빛의 경로를 추적하여 빛과 표면에서 발생하는 반사, 굴절, 흡수 자체 발광에 의한 조명효과를 연산하는 방법이다. 광선 추적 렌더링(Ray Tracing Rendering)에서 광원과 물체 사이에 의해 반사에 의한 조명효과를 연산에 있어서, 지역 조명모델을 사용하는데, 지역 조명모델은 주변 광 효과(Ambient), 확산반사(Diffusive Reflection), 하이라이트반사(Specular Reflection)에 의한 조명 효과를 연산한다. 이 중 반사광 효과는 특히 표면으로부터 정반사된 빛에 의해 하이라이트 되는 조명 효과를 표현한다. 이러한 하이라이트는 카메라의 위치에 따라 강도가 변하게 된다.Referring to FIG. 18 , the reflected light effect may be generated through a 3D rendering process. Specular rendering that generates a specular light effect may be implemented as ray tracing rendering. Ray tracing rendering is a rendering method that applies a global lighting model. In other words, ray tracing rendering assumes that rays are emitted from the camera and traces the path of light in all pixels on the screen to calculate lighting effects by reflection, refraction, absorption and self-luminescence occurring on light and surfaces. way. In ray tracing rendering, a local lighting model is used to calculate the lighting effect caused by reflection between a light source and an object. Calculate the lighting effect by Specular Reflection. Among them, the specular light effect expresses a lighting effect that is particularly highlighted by the light specularly reflected from the surface. These highlights change in intensity depending on the camera's position.

반사광 효과는 다음과 같은 [수학식 1]을 통해서 산출할 수 있다.The reflected light effect can be calculated through the following [Equation 1].

[수학식 1][Equation 1]

Figure 112014064229125-pat00001
Figure 112014064229125-pat00001

Co : 화소의 색상Co: color of pixel

Cp : 경면광 색상 (Specular light color)Cp : Specular light color

Ks : 경면 반사계수 (Specula reflection coefficient)Ks: Specular reflection coefficient

Os : 대상체의 색상 (Object Color) Os : Object Color

R : 반사광 벡터 (Reflection light vector) R : Reflection light vector

S : 시선 벡터 (View vector) S : View vector

n : 경면광 지수 (Specular Reflection Exponent)n: Specular Reflection Exponent

경면광 색상(Cp)은 반사광 효과를 주기 위한 빛의 색상을 의미할 수 있다. 경면 반사계수(Ks)는 반사광이 반사되는 정도를 의미할 수 있다. 반사광 벡터(R)는 반사광의 방향과 세기를 동시에 나타낼 수 있다. 시선 벡터(S)는 시선의 방향에 대한 단위 벡터를 의미할 수 있다. The specular light color Cp may mean a color of light for giving a reflected light effect. The specular reflection coefficient Ks may mean a degree to which reflected light is reflected. The reflected light vector R may simultaneously indicate the direction and intensity of the reflected light. The gaze vector S may mean a unit vector with respect to the direction of the gaze.

[수학식 1]에서 반사광 벡터(R)의 방향과 시선 벡터(S)의 방향을 일치 시킨다면, [수학식 2]와 같이 표현 될 수 있다. If the direction of the reflected light vector (R) and the direction of the gaze vector (S) are matched in [Equation 1], it can be expressed as in [Equation 2].

즉, 반사광 효과는 다음과 같은 [수학식 2]을 통해서도 산출할 수 있다. 광원의 위치와 방향을 변경하지 않는다고 가정한다면, 광원의 위치와 방향을 카메라 위치 및 방향과 동일하다고 간주 할 수 있다. That is, the reflected light effect can also be calculated through the following [Equation 2]. Assuming that the position and direction of the light source do not change, the position and direction of the light source can be regarded as the same as the camera position and direction.

[수학식 2][Equation 2]

Figure 112014064229125-pat00002
Figure 112014064229125-pat00002

Co : 화소의 색상 Co: color of pixel

Cp : 경면광 색상 (Specular light color)Cp : Specular light color

Ks : 경면 반사계수 (Specula reflection coefficient)Ks: Specular reflection coefficient

Os : 대상체의 색상 (Object Color) Os : Object Color

Rz : 물체의 표면에서 빛이 반사하게 되는 반사벡터의 z축(View Plane원점) 값Rz: The z-axis (View Plane origin) value of the reflection vector where light is reflected from the surface of the object.

N : 경면광 지수N: specular light index

또한, [수학식1] 및 [수학식 2]의 Cp (Specular light color), Ks (Specula reflection coefficient), Os (Object Color)는 도 3 내지 도 8을 통하여 설명한 초음파 데이터의 공간 주파수, 영상 강도, 영상 히스토그램, 동시발생 행렬, 국부 이진 패턴, 균일성과 같은 특성정보에 의하여 변경될 수 있다.In addition, Cp (Specular light color), Ks (Specula reflection coefficient), and Os (Object Color) of [Equation 1] and [Equation 2] are spatial frequency and image intensity of the ultrasound data described with reference to FIGS. 3 to 8 . , image histogram, co-occurrence matrix, local binary pattern, and can be changed by characteristic information such as uniformity.

또한, [수학식1] 및 [수학식 2]의 Cp (Specular light color), Ks (Specula reflection coefficient), Os (Object Color)는 초음파 데이터(B,C,D,E)의 평균, 분산, 표준분포, 비대칭도(skewness), 첨도(kurtosis)와 같은 특성정보에 의하여 변경될 수 있다. In addition, Cp (Specular light color), Ks (Specula reflection coefficient), Os (Object Color) of [Equation 1] and [Equation 2] are the average, variance, It can be changed according to characteristic information such as standard distribution, skewness, and kurtosis.

또한, [수학식1] 및 [수학식 2]의 Cp (Specular light color), Ks (Specula reflection coefficient), Os (Object Color)는 대상체의 복셀(voxel)간의 거리에 대한 통계적인 값일 수 있다. In addition, Cp (Specular light color), Ks (Specula reflection coefficient), and Os (Object Color) of [Equation 1] and [Equation 2] may be statistical values for a distance between voxels of an object.

도 19은 본 발명의 일 실시예에 따른 대상체의 윈도우 영역에 대한 특성정보가 경면광 지수에 따라서 각각 다르게 반영된 영상을 나타낸 도면이다.19 is a diagram illustrating an image in which characteristic information on a window region of an object is reflected differently according to a specular light index according to an embodiment of the present invention.

도 19을 참조하면, 도 19(a)는 [수학식 2]에서 경면광 지수가 10인 경우에 대한 대상체의 초음파 영상이고, 도 19(b)는 [수학식 2]에서 경면광 지수가 40인 경우에 대한 대상체의 초음파 영상이다. 도 19(a)의 초음파 영상은 도 19(b)의 초음파 영상와 대비하여, 경면광 지수가 작으므로, 초음파 영상에 하이라이트 부분이 넓게 분포되어 있다. Referring to FIG. 19, FIG. 19(a) is an ultrasound image of an object for a case in which the specular light index is 10 in [Equation 2], and FIG. 19(b) is a specular light index of 40 in [Equation 2] This is an ultrasound image of the object for the case of . Compared to the ultrasound image of FIG. 19(b) , the ultrasound image of FIG. 19( a ) has a small specular light index, and thus a highlight portion is widely distributed in the ultrasound image.

도 20은 본 발명의 일 실시예에 따른 대상체의 윈도우 영역에 대한 특성정보가 경면광 지수에 따라서 각각 다르게 반영된 영상을 나타낸 도면이다.20 is a diagram illustrating an image in which characteristic information on a window region of an object is reflected differently according to a specular light index according to an embodiment of the present invention.

도 20을 참조하면, 도 20(a)는 [수학식 2]에서 경면 반사 계수가 0.19인 경우에 대한 대상체의 초음파 영상이고, 도 20(b)는 [수학식 2]에서 경면 반사 계수가 0.5인 경우에 대한 대상체의 초음파 영상이다. 도 20(a)의 초음파 영상은 도 20(b)의 초음파 영상와 대비하여, 경면 반사 계수가 작으므로, 초음파 영상에 하이라이트 부분이 상대적으로 약하다.Referring to FIG. 20, FIG. 20(a) is an ultrasound image of an object when the specular reflection coefficient is 0.19 in [Equation 2], and FIG. 20(b) is a specular reflection coefficient of 0.5 in [Equation 2] This is an ultrasound image of the object for the case of . Compared to the ultrasound image of FIG. 20(b) , the ultrasound image of FIG. 20( a ) has a small specular reflection coefficient, and thus a highlight portion in the ultrasound image is relatively weak.

도 21은 경면광 지수 및 경면 반사 계수에 따른 영상의 변화를 나타내기 위한 도면 이다. FIG. 21 is a diagram illustrating changes in an image according to a specular light index and a specular reflection coefficient.

도 21을 참조하면, 경면 반사 계수가 증가할수록 반사되는 광의 크기가 증가하는 것을 볼 수 있고, 경면광 지수가 증가할수록 반사되는 부분의 크기가 좁게 분포되는 것을 볼 수 있다. Referring to FIG. 21 , it can be seen that the size of the reflected light increases as the specular reflection coefficient increases, and the size of the reflected portion is narrowly distributed as the specular light index increases.

도 22은 본 발명의 일 실시예에 따른 광원이 2개인 경우의 반사광 효과를 나타내는 초음파 영상을 나타낸 도면이다.22 is a diagram illustrating an ultrasound image showing a reflected light effect when there are two light sources according to an embodiment of the present invention.

도 22을 참조하면, 도 22(a)는 하나의 백색 광원만을 가정한 경우의 초음파 영상이다. 도 22(b)는 백색 광원와 붉은색 광원을 함께 가정한 경우의 초음파 영상이다. 도 22(b)의 초음파 영상은 도 22(a)의 초음파 영상과 대비하여, 하이라이트가 붉은 색인 것을 확인할 수 있다. Referring to FIG. 22 , FIG. 22( a ) is an ultrasound image when only one white light source is assumed. 22B is an ultrasound image when a white light source and a red light source are assumed together. In contrast to the ultrasound image of FIG. 22( a ), in the ultrasound image of FIG. 22( b ), it can be seen that the highlight is red.

광원이 2개인 경우에 화소의 색상은 [수학식 3]과 같이 산출할 수 있다. When there are two light sources, the color of a pixel can be calculated as in [Equation 3].

[수학식 3][Equation 3]

Figure 112014064229125-pat00003
Figure 112014064229125-pat00003

일반적으로, 대상체의 색상이 같으므로, [수학식 4]와 같이 산출할 수 있다.In general, since the color of the object is the same, it can be calculated as in [Equation 4].

[수학식 4][Equation 4]

Figure 112014064229125-pat00004
Figure 112014064229125-pat00004

Co : 화소의 색상 Co: color of pixel

Cp1 ~ Cpj : 각각의 광원의 경면광 색상 Cp1 ~ Cpj : Specular light color of each light source

Ks1 ~ Ksj : 각각의 광원에 대한 경면 반사계수 Ks1 ~ Ksj : specular reflection coefficient for each light source

Os1 ~ Osj : 대상체의 색상 (Object Color) Os1 ~ Osj : Object Color

Rz1 ~ Rzj : 각각의 광원에 대한 물체의 표면에서 빛이 반사하게 되는 반사벡터의 z축 값Rz1 ~ Rzj : The z-axis value of the reflection vector that light is reflected from the surface of the object for each light source

n1 ~ nj : 각각의 광원에 대한 경면광 지수n1 ~ nj : specular light index for each light source

또한, [수학식 3]은 다양한 실시예에 따라서 응용될 수 있다. 예를 들어, [수학식 3]에서 대상체의 색상 및 광원에 대한 반사 계수가 동일한 경우, Ks1~Ksj는 동일한 값을 가질 수 있을 것이다. In addition, [Equation 3] may be applied according to various embodiments. For example, in [Equation 3], when the color of the object and the reflection coefficient for the light source are the same, Ks1 to Ksj may have the same value.

도 23는 본 발명의 일 실시예에 따른 3차원 반사광 효과 렌더링 방법을 설명하기 위한 순서도이다. 23 is a flowchart illustrating a 3D specular light effect rendering method according to an embodiment of the present invention.

도 13의 영상 생성부(1370)는 도 23의 방법으로 영상을 생성할 수 있다. 도 23를 참조하면, 영상 생성부(1370)는 화면의 한 점(P)에서 투사한 시선 벡터의 경로에 있는 복셀들 중 화면에 표시할 대표 복셀(V)을 얻을 수 있다(S2100). 영상 생성부(1370)는 복셀(V)에 대한 표면 법선 벡터를 계산할 수 있고, 법선 벡터를 통하여 반사광 벡터를 계산할 수 있다(S2200). The image generator 1370 of FIG. 13 may generate an image by the method of FIG. 23 . Referring to FIG. 23 , the image generator 1370 may obtain a representative voxel V to be displayed on the screen among voxels in the path of the gaze vector projected from one point P on the screen ( S2100 ). The image generator 1370 may calculate a surface normal vector for the voxel V, and may calculate a reflected light vector through the normal vector (S2200).

영상 생성부(1370)는 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os)을 사용자로부터 입력 받거나, 장치 내부적으로 계산할 수 있다(S2300). 예를 들어, 영상 생성부(1370)는 도 3 내지 도 8을 통하여 설명한 초음파 데이터의 공간 주파수, 영상 강도, 영상 히스토그램, 동시발생 행렬, 국부 이진 패턴, 균일성과 같은 특성정보에 의하여 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os)을 계산할 수 있다. The image generator 1370 may receive the specular light color Cp, the specular reflection coefficient Ks, and the color Os of the object as input from the user or internally calculate the specular light color (S2300). For example, the image generator 1370 uses the specular light color ( Cp), the specular reflection coefficient (Ks), and the color (Os) of the object may be calculated.

영상 생성부(1370)는 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os) 및 반사광 벡터를 이용하여 [수학식 1]을 통하여 화면 상의 한 점(P)에서의 화소의 색상(Co)를 산출할 수 있다. The image generator 1370 uses a specular light color (Cp), a specular reflection coefficient (Ks), an object color (Os), and a reflected light vector through [Equation 1] at a point P on the screen. The color (Co) of can be calculated.

도 14의 영상 렌더링부(1371), 도 15의 영상 렌더링부(1371)는 도 23의 방법으로 영상을 생성할 수 있다.The image rendering unit 1371 of FIG. 14 and the image rendering unit 1371 of FIG. 15 may generate an image by the method of FIG. 23 .

도 24은 법선 벡터를 통하여 반사광 벡터를 계산하는 방법을 도시하기 위한 도면이다. 24 is a diagram illustrating a method of calculating a reflected light vector through a normal vector.

도 24을 참조하면, 영상 생성부(1370)는 반사광 벡터(Vreflect)를 [수학식 5]에 의하여 산출할 수 있다. Referring to FIG. 24 , the image generator 1370 may calculate the reflected light vector V reflect by Equation 5.

[수학식 5][Equation 5]

Figure 112014064229125-pat00005
Figure 112014064229125-pat00005

영상 생성부(1370)는 [수학식 5]을 통하여 법선 벡터(Vnormal) 및 광원 벡터(Vlight)를 통해서 반사광 벡터(Vreflect)를 산출할 수 있다. The image generator 1370 may calculate the reflected light vector V reflect through the normal vector V normal and the light source vector V light through [Equation 5].

도 25는 본 발명의 일 실시예에 따른 3차원 반사광 효과 렌더링 방법을 설명하기 위한 순서도이다. 25 is a flowchart illustrating a 3D specular light effect rendering method according to an embodiment of the present invention.

도 13의 영상 생성부(1370)는 도 25의 방법으로 영상을 생성할 수 있다. 도 25를 참조하면, 영상 생성부(1370)는 대상체와 화면에 대한 깊이맵을 추출한다(S3100). 영상 생성부(1370)는 깊이맵에 대하여 표면 법선 벡터 및 반사 벡터를 계산할 수 있다(S3200). 영상 생성부(1370)는 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os)을 외부에서 입력 받거나, 내부적으로 계산할 수 있다(S3300). 영상 생성부(1370)는 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os) 및 반사광 벡터를 이용하여 [수학식 2]을 통하여 화면상의 한 점(P)에서의 화소의 색상(Co)를 산출할 수 있다. The image generator 1370 of FIG. 13 may generate an image by the method of FIG. 25 . Referring to FIG. 25 , the image generator 1370 extracts a depth map for an object and a screen ( S3100 ). The image generator 1370 may calculate a surface normal vector and a reflection vector with respect to the depth map ( S3200 ). The image generator 1370 may receive the specular light color Cp, the specular reflection coefficient Ks, and the color Os of the object externally or calculate it internally (S3300). The image generator 1370 uses the specular light color (Cp), the specular reflection coefficient (Ks), the color (Os) of the object, and the reflected light vector through [Equation 2] at a point P on the screen. The color (Co) of can be calculated.

도 26는 본 발명의 일 실시예에 따른 3차원 반사광 효과 렌더링 방법을 설명하기 위한 순서도이다. 26 is a flowchart illustrating a 3D specular light effect rendering method according to an embodiment of the present invention.

도 13의 영상 생성부(1370)는 도 26의 방법으로 영상을 생성할 수 있다. 도 26를 참조하면, 영상 생성부(1370)는 대상체와 화면에 대한 깊이맵을 추출한다(S4100). 영상 생성부(1370)는 깊이맵에 대하여 표면 법선 벡터 및 반사 벡터를 계산할 수 있다(S4200). 영상 생성부(1370)는 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os)을 외부에서 입력 받거나, 내부적으로 계산할 수 있다(S4300). 영상 생성부(1370)는 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os) 및 반사광 벡터를 이용하여 [수학식 3] 또는 [수학식 4]를 통하여 화면상의 한 점(P)에서의 화소의 색상(Co)를 산출할 수 있다. The image generator 1370 of FIG. 13 may generate an image by the method of FIG. 26 . Referring to FIG. 26 , the image generator 1370 extracts a depth map for an object and a screen ( S4100 ). The image generator 1370 may calculate a surface normal vector and a reflection vector with respect to the depth map (S4200). The image generator 1370 may receive the specular light color Cp, the specular reflection coefficient Ks, and the color Os of the object externally or calculate it internally (S4300). The image generator 1370 uses the specular light color (Cp), the specular reflection coefficient (Ks), the color of the object (Os), and the reflected light vector through [Equation 3] or [Equation 4] to a point on the screen The color (Co) of the pixel in (P) can be calculated.

한편, 도 24 내지 도 26에 의한 반사광 효과 렌더링 방법은 도 10의 단계(S500)의 일부분 일 수 있다. 도 24 내지 도 26에 의한 반사광 효과 렌더링 방법은 도 13의 영상 생성부(1370), 도 14의 영상 렌더링부(1371), 도 15의 영상 렌더링부(1371)에 의하여 구현될 수 있다.Meanwhile, the reflection light effect rendering method illustrated in FIGS. 24 to 26 may be a part of step S500 of FIG. 10 . The specular effect rendering method of FIGS. 24 to 26 may be implemented by the image generating unit 1370 of FIG. 13 , the image rendering unit 1371 of FIG. 14 , and the image rendering unit 1371 of FIG. 15 .

또한, 도 24 내지 도 26에 의한 반사광 렌더링 방법은 그레이 스케일 렌더링(Grey Scale Rendering), 디퓨즈드 라이트 렌더링(Diffused Light Rendering)과 함께 구현될 수 있다. 또한, 도 24 내지 도 26에 의한 반사광 렌더링 방법은 그레이 스케일 렌더링(Grey Scale Rendering), 디퓨즈드 라이트 렌더링(Diffused Light Rendering) 독립적으로 구현되고, 각각의 렌더링 이미지를 합쳐서 완성된 이미지를 구현할 수 있다. Also, the reflected light rendering method illustrated in FIGS. 24 to 26 may be implemented together with gray scale rendering and diffused light rendering. In addition, the specular light rendering method shown in FIGS. 24 to 26 is implemented independently of gray scale rendering and diffused light rendering, and may implement a completed image by combining the respective rendering images.

도 27 내지 도 29는 대상체의 표면정보를 산출하는 방법을 설명하기 위한 도면이다. 27 to 29 are diagrams for explaining a method of calculating surface information of an object.

도 27을 참조하면, 대상체의 표면을 기하학적 모델로 표현하면 A 내지 H 의 파동선과 같이 다양한 방법으로 표현할 수 있다. A 내지 H 의 파동선 각각은 기준선을 가지고 있다. 기준선은 파동선으로 표현되는 파동(Wave)의 기준이 되는 선이다. 기준선은 파동선을 이용하여 스무딩 기법(Smoothing), 라인 피팅 기법(Line Fitting)을 통해서 산출될 수 있다. Referring to FIG. 27 , when the surface of an object is expressed as a geometric model, it can be expressed in various ways, such as wave lines A to H. Each of the wavelines A to H has a baseline. The reference line is a line that serves as a reference for a wave expressed as a wave line. The reference line may be calculated through a smoothing technique and a line fitting technique using a wave line.

파동선과 기준선의 교차하는 빈도가 높을 수록 표면이 거칠다고 할 수 있다. 파동선과 기준선의 교차하는 빈도가 낮을수록 표면이 매끄럽다고 할 수 있다. 따라서, A 내지 H 의 파동선에서 A 파동선에 가까운 파동선 일수록 대상체의 매끄러운 표면을 표현할 수 있고, H 파동선에 가까운 파동선 일수록 대상체의 거친 표면을 표현할 수 있다. The higher the frequency of intersection of the wave line and the reference line, the rougher the surface. The lower the frequency of intersection of the wave line and the reference line, the smoother the surface. Accordingly, from the wavelines A to H, the closer the waveline to the A waveline is, the smoother the surface of the object can be, and the closer the waveline to the H waveline is, the more the rough surface of the object can be expressed.

도 28을 참조하면, 도 27의 파동선과 기준선의 개념을 통하여 2차원 영상(또는 3차원 초음파 볼륨 데이터의 단면)에서 대상체의 표면정보를 산출할 수 있다. 한편, 2차원 영상에서 대상체의 표면정보를 산출함에 있어서, 도 27의 파동선과 기준선이 사용되는 것이 아니고, 다양한 형태의 파동선과 기준선이 사용될 수 있다. 예를 들어, 기준선이 도 28에서 도시한 바와 같이, 굴곡이 있을 수 있다. Referring to FIG. 28 , surface information of an object may be calculated from a 2D image (or a cross section of 3D ultrasound volume data) through the concept of the wave line and the reference line of FIG. 27 . Meanwhile, in calculating the surface information of the object in the two-dimensional image, the wave line and reference line of FIG. 27 are not used, but various types of wave line and reference line may be used. For example, the baseline may be curved, as shown in FIG. 28 .

도 29를 참조하면, 도 27의 파동선과 기준선을 3차원 초음파 볼륨으로 확장하여 파동면과 기준면을 정의할 수 있을 것이다. 도 28의 2차원 영상을 3차원으로 확장하는 경우, 도 29의 3차원 영상을 획득할 수 있다. 본 발명의 일 실시예에 따른, 대상체의 표면 정보를 산출하는 방법은 2차원 영상의 파동선과 기준선을 통해서 3차원 영상의 파동면과 기준면을 산출할 수 있다. Referring to FIG. 29 , the wave plane and the reference plane may be defined by extending the wave line and the reference line of FIG. 27 to a 3D ultrasound volume. When the 2D image of FIG. 28 is expanded to 3D, the 3D image of FIG. 29 may be acquired. The method of calculating the surface information of the object according to an embodiment of the present invention may calculate the wave plane and the reference plane of the 3D image through the wave line and the reference line of the 2D image.

본 발명의 일 실시예에 따른 장치와 관련하여서는 전술한 방법과 관련된 내용들이 적용될 수 있다. 따라서, 장치와 관련하여, 전술한 방법에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.Regarding the apparatus according to an embodiment of the present invention, contents related to the above-described method may be applied. Accordingly, in relation to the apparatus, descriptions of the same contents as those of the above-described method are omitted.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 이러한 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates such a program using a computer-readable recording medium.

컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.The computer-readable recording medium includes a magnetic storage medium (eg, ROM, floppy disk, hard disk, etc.), an optically readable medium (eg, CD-ROM, DVD, etc.) and a carrier wave (eg, through the Internet). storage media such as transmission).

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at with respect to preferred embodiments thereof. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (28)

대상체의 3차원 영상을 생성하기 위한 방법에 있어서,
상기 대상체에 대한 초음파 데이터를 획득하는 단계; 및
상기 획득된 초음파 데이터를 통하여 상기 대상체의 3차원 영상을 생성하는 단계를 포함하고,
상기 획득된 초음파 데이터는, 제1 특성정보 및 제2 특성정보를 포함하는 특성정보를 가지고,
상기 대상체의 3차원 영상을 생성하는 단계는,
3차원 볼륨 렌더링을 이용하여, 상기 제1 특성정보를 가지는 상기 획득된 초음파 데이터의 적어도 일부에 대한 제1 영상을 생성하는 단계;
상기 획득된 초음파 데이터의 적어도 일부에 대한 영상으로서, 상기 제1 특성정보와는 상이한 상기 제2 특성정보에 따른 반사광 효과를 가지는 제2 영상을 생성하는 단계; 및
상기 제1 영상과 상기 제2 영상을 합성하는 단계; 를 포함하는 것을 특징으로 하는 방법.
A method for generating a three-dimensional image of an object, the method comprising:
acquiring ultrasound data for the object; and
generating a three-dimensional image of the object through the acquired ultrasound data;
The acquired ultrasound data has characteristic information including first characteristic information and second characteristic information,
The step of generating a three-dimensional image of the object comprises:
generating a first image of at least a portion of the acquired ultrasound data having the first characteristic information by using 3D volume rendering;
generating, as an image of at least a portion of the acquired ultrasound data, a second image having a reflected light effect according to the second characteristic information different from the first characteristic information; and
synthesizing the first image and the second image; A method comprising a.
제 1 항에 있어서, 상기 특성정보는 상기 대상체에 대한 영상 특성정보, 물성 정보 및 표면정보 중 적어도 하나를 포함하는 것을 특징으로 하는 방법. The method of claim 1, wherein the characteristic information includes at least one of image characteristic information, physical property information, and surface information about the object. 제 1 항에 있어서, 상기 대상체의 3차원 영상을 생성하는 단계는, 상기 대상체의 경면 반사계수, 경면광 지수, 색상 중 적어도 하나를 통해서 상기 대상체의 3차원 영상을 생성하는 것을 특징으로 하는 방법. The method of claim 1 , wherein the generating of the three-dimensional image of the object comprises generating the three-dimensional image of the object through at least one of a specular reflection coefficient, a specular light index, and a color of the object. 제 1 항에 있어서, 상기 대상체의 3차원 영상을 생성하는 단계는, 상기 특성정보에 따라 상기 대상체에 대한 3차원 영상을 렌더링하는 단계를 포함하는 것을 특징으로 하는 방법.The method of claim 1, wherein the generating of the 3D image of the object comprises rendering the 3D image of the object according to the characteristic information. 제 1 항에 있어서, 상기 생성된 대상체의 3차원 영상을 디스플레이하는 단계를 더 포함하는 것을 특징으로 하는 방법. The method of claim 1, further comprising displaying the generated 3D image of the object. 삭제delete 제1항에 있어서, 상기 반사광 효과를 갖는 영상은 복수의 광원에 의하여 생성되는 것을 특징으로 하는 방법. The method of claim 1 , wherein the image having the reflected light effect is generated by a plurality of light sources. 대상체의 3차원 영상을 생성하기 위한 장치에 있어서,
상기 대상체에 대한 초음파 데이터를 획득하는 초음파 데이터 획득부; 및
상기 획득된 초음파 데이터를 통하여 상기 대상체의 3차원 영상을 생성하는 영상 생성부를 포함하고,
상기 획득된 초음파 데이터는, 제1 특성정보 및 제2 특성정보를 포함하는 특성정보를 가지고,
상기 영상 생성부는, 3차원 볼륨 렌더링을 이용하여, 상기 제1 특성정보를 가지는 상기 획득된 초음파 데이터의 적어도 일부에 대한 제1 영상을 생성할 수 있고, 상기 획득된 초음파 데이터의 적어도 일부에 대한 영상으로서 상기 제1 특성정보와는 상이한 상기 제2 특성정보에 따른 반사광 효과를 가지는 제2 영상을 생성할 수 있고, 상기 제1 영상과 상기 제2 영상을 합성할 수 있는 것을 특징으로 하는 영상 생성 장치.
An apparatus for generating a three-dimensional image of an object, comprising:
an ultrasound data acquisition unit configured to acquire ultrasound data for the object; and
and an image generator for generating a three-dimensional image of the object through the acquired ultrasound data,
The acquired ultrasound data has characteristic information including first characteristic information and second characteristic information,
The image generator may generate a first image of at least a portion of the obtained ultrasound data having the first characteristic information by using 3D volume rendering, and an image of at least a portion of the obtained ultrasound data as a second image having a reflected light effect according to the second characteristic information different from the first characteristic information, and synthesizing the first image and the second image. .
제 8 항에 있어서, 상기 특성정보는 상기 대상체에 대한 영상 특성정보, 물성 정보 및 표면정보 중 적어도 하나를 포함하는 것을 특징으로 하는 장치. The apparatus of claim 8 , wherein the characteristic information includes at least one of image characteristic information, physical property information, and surface information about the object. 제 8 항에 있어서, 상기 영상 생성부는 상기 대상체의 경면 반사계수, 경면광 지수, 색상 중 적어도 하나를 통해서 상기 대상체의 3차원 영상을 생성하는 것을 특징으로 하는 장치.The apparatus of claim 8 , wherein the image generator generates a 3D image of the object using at least one of a specular reflection coefficient, a specular light index, and a color of the object. 제 8 항에 있어서, 상기 영상 생성부는 상기 특성정보에 따라 상기 대상체에 대한 3차원 영상을 렌더링하여 상기 대상체에 대한 3차원 영상을 생성하는 것을 특징으로 하는 장치. The apparatus of claim 8 , wherein the image generator generates a 3D image of the object by rendering the 3D image of the object according to the characteristic information. 제 8 항에 있어서, 상기 생성된 3차원 영상을 디스플레이하는 디스플레이부를 더 포함하는 것을 특징으로 하는 장치. The apparatus of claim 8, further comprising a display unit configured to display the generated 3D image. 삭제delete 제8항에 있어서, 상기 반사광 효과를 갖는 영상은 복수의 광원에 의하여 생성되는 것을 특징으로 하는 장치. The apparatus of claim 8 , wherein the image having the reflected light effect is generated by a plurality of light sources. 삭제delete 삭제delete 제1항에 있어서, 상기 제2 영상을 생성하는 단계는,
시선 벡터의 경로에 있는 복셀들 중 화면에 표시할 대표 복셀을 산출하는 단계;
표면 법선 벡터를 계산하는 단계;
상기 표면 법선 벡터를 통하여 반사광 벡터를 계산하는 단계;
상기 대상체의 색상, 광원에 대한 반사 계수, 경면광 지수를 생성하는 단계;
상기 반사광 벡터, 상기 대상체의 색상, 상기 광원에 대한 반사 계수, 상기 경면광 지수 중 적어도 하나를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein the generating of the second image comprises:
calculating a representative voxel to be displayed on a screen among voxels in a path of a gaze vector;
calculating a surface normal vector;
calculating a reflected light vector through the surface normal vector;
generating a color of the object, a reflection coefficient for a light source, and a specular light index;
and calculating a color for one point included in the image through at least one of the reflected light vector, the color of the object, the reflection coefficient for the light source, and the specular light index.
제1항에 있어서, 상기 제2 영상을 생성하는 단계는,
대상체와 화면에 대한 깊이맵을 추출하는 단계;
깊이맵에 대하여 표면 법선 벡터를 계산하는 단계;
상기 표면 법선 벡터를 통하여 반사광 벡터를 계산하는 단계;
상기 대상체의 색상, 광원에 대한 반사 계수, 경면광 지수를 생성하는 단계;
상기 반사광 벡터, 상기 대상체의 색상, 상기 광원에 대한 반사 계수, 상기 경면광 지수 중 적어도 하나를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein the generating of the second image comprises:
extracting a depth map for an object and a screen;
calculating a surface normal vector for the depth map;
calculating a reflected light vector through the surface normal vector;
generating a color of the object, a reflection coefficient for a light source, and a specular light index;
and calculating a color for one point included in the image through at least one of the reflected light vector, the color of the object, the reflection coefficient for the light source, and the specular light index.
제1항에 있어서, 상기 반사광 효과를 갖는 상기 제2 영상은 반사광 렌더링을 포함하는 복수의 렌더링을 통하여 생성되는 것을 특징으로 하는 방법. The method of claim 1 , wherein the second image having the specular light effect is generated through a plurality of renderings including specular rendering. 제1항에 있어서, 상기 반사광 효과를 갖는 상기 제2 영상은 복수의 광원에 의하여 생성되는 것을 특징으로 하는 방법. The method of claim 1 , wherein the second image having the reflected light effect is generated by a plurality of light sources. 삭제delete 삭제delete 제8항에 있어서, 상기 반사광 효과를 갖는 상기 제2 영상을 디스플레이하는 디스플레이부를 더 포함하는 것을 특징으로 하는 장치. The apparatus of claim 8, further comprising a display unit configured to display the second image having the reflected light effect. 제8항에 있어서, 상기 영상 생성부는,
상기 대상체의 색상, 광원에 대한 반사 계수, 경면광 지수를 장치의 외부에서 입력을 받거나 또는 내부적으로 계산하고, 상기 대상체의 색상, 상기 광원에 대한 반사 계수, 상기 경면광 지수 중 적어도 하나를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 것을 특징으로 하는 장치.
The method of claim 8, wherein the image generator,
The color of the object, the reflection coefficient for the light source, and the specular light index are received from the outside of the device or calculated internally, and the color of the object, the reflection coefficient for the light source, and the specular light index are used through at least one of the An apparatus for calculating a color for a single point included in an image.
제8항에 있어서, 상기 영상 생성부는,
상기 대상체와 화면에 대한 깊이맵을 추출하여, 반사광 벡터를 계산하고, 상기 반사광 벡터를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 단계를 포함하는 것을 특징으로 하는 장치.
The method of claim 8, wherein the image generator,
and extracting a depth map for the object and the screen, calculating a reflected light vector, and calculating a color for one point included in the image through the reflected light vector.
삭제delete 제8항에 있어서, 상기 반사광 효과를 갖는 상기 제2 영상은 반사광 렌더링을 포함하는 복수의 렌더링을 통하여 생성되는 것을 특징으로 하는 장치. The apparatus of claim 8 , wherein the second image having the specular light effect is generated through a plurality of renderings including specular rendering. 삭제delete
KR1020140085306A 2013-09-30 2014-07-08 The method and apparatus for generating three-dimensional(3d) image of the object KR102377530B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20140182742 EP2863363A1 (en) 2013-09-30 2014-08-29 Method and apparatus for generating three-dimensional image of target object
US14/500,388 US9759814B2 (en) 2013-09-30 2014-09-29 Method and apparatus for generating three-dimensional (3D) image of target object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20130116899 2013-09-30
KR1020130116899 2013-09-30

Publications (2)

Publication Number Publication Date
KR20150037497A KR20150037497A (en) 2015-04-08
KR102377530B1 true KR102377530B1 (en) 2022-03-23

Family

ID=53033446

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140085306A KR102377530B1 (en) 2013-09-30 2014-07-08 The method and apparatus for generating three-dimensional(3d) image of the object

Country Status (1)

Country Link
KR (1) KR102377530B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200056709A (en) * 2018-11-15 2020-05-25 주식회사 인트로메딕 Method for rendering 3d image, image processing apparatus using said method, camera apparatus interlocking with said image processing apparatus, photographing method of said camera, and 3d image rendering system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130150719A1 (en) * 2011-12-08 2013-06-13 General Electric Company Ultrasound imaging system and method
US20140184600A1 (en) 2012-12-28 2014-07-03 General Electric Company Stereoscopic volume rendering imaging system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5491830B2 (en) * 2009-01-20 2014-05-14 株式会社東芝 Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, image processing method, and image display method
KR101068917B1 (en) * 2009-05-18 2011-09-30 삼성메디슨 주식회사 Ultrasound diagnostic system and method for displaying organ
EP2511878B1 (en) * 2011-04-12 2020-05-06 Samsung Medison Co., Ltd. Providing three-dimensional ultrasound image based on three-dimensional color reference table in ultrasound system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130150719A1 (en) * 2011-12-08 2013-06-13 General Electric Company Ultrasound imaging system and method
US20140184600A1 (en) 2012-12-28 2014-07-03 General Electric Company Stereoscopic volume rendering imaging system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BINDER T ET AL, "Three-dimensional imaging of the heart using transesophageal echocardiography", PROCEEDINGS OF THE COMPUTERS IN CARDIOLOGY CONFERENCE. LONDON, SEPT. 5 - 8, 1993

Also Published As

Publication number Publication date
KR20150037497A (en) 2015-04-08

Similar Documents

Publication Publication Date Title
Lou et al. Generation of anatomically realistic numerical phantoms for photoacoustic and ultrasonic breast imaging
US20110125016A1 (en) Fetal rendering in medical diagnostic ultrasound
JP5295562B2 (en) Flexible 3D rotational angiography-computed tomography fusion method
JP2012155723A (en) Method and apparatus for automatically generating optimal two-dimensional medical image from three-dimensional medical image
US9504450B2 (en) Apparatus and method for combining three dimensional ultrasound images
KR20130023735A (en) Method and apparatus for generating organ medel image
US10478151B2 (en) System and method for automated monitoring of fetal head descent during labor
US9759814B2 (en) Method and apparatus for generating three-dimensional (3D) image of target object
Glaßer et al. Combined visualization of wall thickness and wall shear stress for the evaluation of aneurysms
WO2022219631A1 (en) Systems and methods for reconstruction of 3d images from ultrasound and camera images
CN111836584A (en) Ultrasound contrast imaging method, ultrasound imaging apparatus, and storage medium
JP6564075B2 (en) Selection of transfer function for displaying medical images
JP2009195283A (en) Ultrasonic image processor
KR20120102447A (en) Method and apparatus for diagnostic
Birkeland et al. The ultrasound visualization pipeline
JP4681358B2 (en) Ultrasonic diagnostic apparatus and volume data processing method
JP2011041804A (en) Ultrasonic system and method for measuring number of embryonic rib
KR102377530B1 (en) The method and apparatus for generating three-dimensional(3d) image of the object
Klein et al. Visual computing for medical diagnosis and treatment
Cong et al. Fast and automatic ultrasound simulation from ct images
US20240119705A1 (en) Systems, methods, and apparatuses for identifying inhomogeneous liver fat
US20240193764A1 (en) Systems and methods for reconstruction of 3d images from ultrasound and camera images
Cerrolaza et al. Modeling human tissues: an efficient integrated methodology
TWM547954U (en) Diagnosis system for detecting pathological change
Dusim Three-Dimensional (3D) Reconstruction of Ultrasound Foetal Images Using Visualisation Toolkit (VTK)

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right