KR102377530B1 - The method and apparatus for generating three-dimensional(3d) image of the object - Google Patents
The method and apparatus for generating three-dimensional(3d) image of the object Download PDFInfo
- Publication number
- KR102377530B1 KR102377530B1 KR1020140085306A KR20140085306A KR102377530B1 KR 102377530 B1 KR102377530 B1 KR 102377530B1 KR 1020140085306 A KR1020140085306 A KR 1020140085306A KR 20140085306 A KR20140085306 A KR 20140085306A KR 102377530 B1 KR102377530 B1 KR 102377530B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- characteristic information
- generating
- color
- specular
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000002604 ultrasonography Methods 0.000 claims abstract description 186
- 238000009877 rendering Methods 0.000 claims description 59
- 230000001795 light effect Effects 0.000 claims description 43
- 230000000704 physical effect Effects 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 210000001519 tissue Anatomy 0.000 description 58
- 239000011159 matrix material Substances 0.000 description 31
- 238000010586 diagram Methods 0.000 description 22
- 230000008859 change Effects 0.000 description 11
- 239000013049 sediment Substances 0.000 description 11
- 238000003745 diagnosis Methods 0.000 description 9
- 239000002245 particle Substances 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 210000002784 stomach Anatomy 0.000 description 5
- 238000003325 tomography Methods 0.000 description 5
- 210000000056 organ Anatomy 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 208000037062 Polyps Diseases 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 210000002249 digestive system Anatomy 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000009206 nuclear medicine Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001605 fetal effect Effects 0.000 description 1
- 210000003754 fetus Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000004020 luminiscence type Methods 0.000 description 1
- 235000012149 noodles Nutrition 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 210000004291 uterus Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/8993—Three dimensional imaging systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/0035—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/466—Displaying means of special interest adapted to display 3D data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52053—Display arrangements
- G01S7/52057—Cathode ray tube displays
- G01S7/52068—Stereoscopic displays; Three-dimensional displays; Pseudo 3D displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7425—Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Computer Graphics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- General Engineering & Computer Science (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
본 발명의 일 실시예에 따른 대상체의 3차원 영상을 생성하기 위한 방법은 상기 대상체에 대한 초음파 데이터를 획득하는 단계; 및 상기 획득된 초음파 데이터를 통하여 상기 대상체의 3차원 영상을 생성하는 단계를 포함하고, 상기 대상체의 3차원 영상을 생성하는 단계는, 상기 획득된 초음파 데이터의 특성정보가 상이한 부분은 상기 대상체의 3차원 영상이 상이하게 표현되도록 상기 대상체의 3차원 영상을 생성할 수 있다. According to an embodiment of the present invention, a method for generating a 3D image of an object includes: acquiring ultrasound data of the object; and generating a three-dimensional image of the object based on the obtained ultrasound data, wherein the generating of the three-dimensional image of the object includes a portion in which the characteristic information of the obtained ultrasound data is different from the 3D image of the object. A 3D image of the object may be generated so that the 3D image is expressed differently.
Description
본 발명은 대상체의 3차원 영상을 생성하기 위한 방법 및 장치에 관한 것으로, 더욱 특정하게는 대상체에 대한 3차원 의료 영상을 생성하기 위한 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for generating a 3D image of an object, and more particularly, to a method and apparatus for generating a 3D medical image of an object.
초음파 진단 장치는 대상체의 체표로부터 체내의 소정 부위를 향하여 초음파 신호를 전달하고, 체내의 조직에서 반사된 초음파 신호의 정보를 이용하여 연부조직의 단층이나 혈류에 관한 이미지를 얻는 것이다.An ultrasound diagnosis apparatus transmits an ultrasound signal from a body surface of an object toward a predetermined part of the body, and obtains an image of a tomography or blood flow of a soft tissue by using information on the ultrasound signal reflected from a tissue in the body.
이러한 초음파 진단 장치는 대상체에 대한 정보를 실시간으로 표시 가능하다는 이점이 있다. 또한, 초음파 진단 장치는, X선 등의 피폭이 없어 안정성이 높은 장점이 있어, X선 진단장치, CT(Computerized Tomography) 스캐너, MRI(Magnetic Resonance Image) 장치, 핵의학 진단장치 등의 다른 화상 진단장치와 함께 널리 이용되고 있다.Such an ultrasound diagnosis apparatus has an advantage of being able to display information about an object in real time. In addition, the ultrasound diagnosis apparatus has the advantage of high stability because there is no exposure to X-rays, and other image diagnosis such as X-ray diagnostic apparatus, CT (Computerized Tomography) scanner, MRI (Magnetic Resonance Image) apparatus, nuclear medicine diagnostic apparatus, etc. It is widely used with devices.
본 발명의 일 실시예에 따른 대상체의 3차원 영상을 생성하기 위한 방법은 상기 대상체에 대한 초음파 데이터를 획득하는 단계; 및 상기 획득된 초음파 데이터를 통하여 상기 대상체의 3차원 영상을 생성하는 단계를 포함하고, 상기 대상체의 3차원 영상을 생성하는 단계는, 상기 획득된 초음파 데이터의 특성정보가 상이한 부분은 상기 대상체의 3차원 영상이 상이하게 표현되도록 상기 대상체의 3차원 영상을 생성할 수 있다. According to an embodiment of the present invention, a method for generating a 3D image of an object includes: acquiring ultrasound data of the object; and generating a three-dimensional image of the object based on the obtained ultrasound data, wherein the generating of the three-dimensional image of the object includes a portion in which the characteristic information of the obtained ultrasound data is different from the 3D image of the object. A 3D image of the object may be generated so that the 3D image is expressed differently.
예를 들어, 상기 특성정보는 상기 대상체에 대한 영상 특성정보, 물성 정보 및 표면정보 중 적어도 하나를 포함 할 수 있다.For example, the characteristic information may include at least one of image characteristic information, physical property information, and surface information about the object.
예를 들어, 상기 대상체의 3차원 영상을 생성하는 단계는 상기 대상체의 경면 반사계수, 경면광 지수, 색상 중 적어도 하나를 통해서 상기 대상체의 3차원 영상을 생성할 수 있다. For example, the generating of the three-dimensional image of the object may include generating the three-dimensional image of the object through at least one of a specular reflection coefficient, a specular light index, and a color of the object.
예를 들어, 상기 대상체의 3차원 영상을 생성하는 단계는, 상기 특성정보에 따라 상기 대상체에 대한 3차원 영상을 렌더링하는 단계를 포함할 수 있다. For example, the generating of the 3D image of the object may include rendering the 3D image of the object according to the characteristic information.
예를 들어, 상기 생성된 대상체의 3차원 영상을 디스플레이하는 단계를 더 포함할 수 있다. For example, the method may further include displaying the generated 3D image of the object.
예를 들어, 상기 대상체의 3차원 영상을 생성하는 단계는, 상기 대상체에 대한 반사광 효과를 갖는 영상을 생성하는 단계를 포함할 수 있다. For example, generating the 3D image of the object may include generating an image having a reflected light effect on the object.
예를 들어, 상기 반사광 효과를 갖는 영상은 복수의 광원에 의하여 생성될 수 있다. For example, the image having the reflected light effect may be generated by a plurality of light sources.
본 발명의 일 실시예에 따른 대상체의 3차원 영상을 생성하기 위한 장치는, 상기 대상체에 대한 초음파 데이터를 획득하는 초음파 데이터 획득부; 및 상기 획득된 초음파 데이터를 통하여 상기 대상체의 3차원 영상을 생성하는 영상 생성부를 포함하고, 상기 대상체의 3차원 영상을 생성하는 단계는, 상기 획득된 초음파 데이터의 특성정보가 상이한 부분은 상기 대상체의 3차원 영상이 상이하게 표현되도록 상기 대상체의 3차원 영상을 생성할 수 있다. According to an embodiment of the present invention, an apparatus for generating a 3D image of an object includes: an ultrasound data acquisition unit configured to acquire ultrasound data of the object; and an image generator generating a three-dimensional image of the object based on the obtained ultrasound data, wherein the generating of the three-dimensional image of the object includes: a portion in which the characteristic information of the obtained ultrasound data is different is determined by the object. A 3D image of the object may be generated so that the 3D image is expressed differently.
예를 들어, 상기 특성정보는 상기 대상체에 대한 영상 특성정보, 물성 정보 및 표면정보 중 적어도 하나를 포함할 수 있다. For example, the characteristic information may include at least one of image characteristic information, physical property information, and surface information about the object.
예를 들어, 상기 영상 생성부는 상기 대상체의 경면 반사계수, 경면광 지수, 색상 중 적어도 하나를 통해서 상기 대상체의 3차원 영상을 생성 할 수 있다.For example, the image generator may generate a 3D image of the object through at least one of a specular reflection coefficient, a specular light index, and a color of the object.
예를 들어, 상기 영상 생성부는 상기 특성정보에 따라 상기 대상체에 대한 3차원 영상을 렌더링하여 상기 대상체에 대한 3차원 영상을 생성 할 수 있다.For example, the image generator may generate a 3D image of the object by rendering a 3D image of the object according to the characteristic information.
예를 들어, 상기 생성된 3차원 영상을 디스플레이하는 디스플레이부를 더 포함 할 수 있다.For example, it may further include a display unit for displaying the generated 3D image.
예를 들어, 상기 영상 생성부는, 상기 대상체에 대한 반사광 효과를 갖는 영상을 생성 할 수 있다.For example, the image generator may generate an image having a reflected light effect on the object.
예를 들어, 상기 반사광 효과를 갖는 영상은 복수의 광원에 의하여 생성될 수 있다. For example, the image having the reflected light effect may be generated by a plurality of light sources.
본 발명의 일 실시예에 따른 대상체의 3차원 영상을 생성하기 위한 방법은 상기 대상체에 대한 의료영상 데이터를 획득하는 단계; 및 상기 획득된 의료영상 데이터에 기초하여 상기 대상체에 대한 반사광 효과를 갖는 영상을 생성하는 단계를 포함 할 수 있다.According to an embodiment of the present invention, a method for generating a 3D image of an object includes: acquiring medical image data of the object; and generating an image having a reflected light effect on the object based on the obtained medical image data.
예를 들어, 상기 반사광 효과를 갖는 영상을 디스플레이하는 단계를 더 포함 할 수 있다.For example, the method may further include displaying an image having the reflected light effect.
예를 들어, 상기 대상체에 대한 반사광 효과를 갖는 영상을 생성하는 단계는, 시선 벡터의 경로에 있는 복셀들 중 화면에 표시할 대표 복셀을 산출하는 단계; 표면 법선 벡터를 계산하는 단계; 상기 표면 법선 벡터를 통하여 반사광 벡터를 계산하는 단계; 상기 대상체의 색상, 광원에 대한 반사 계수, 경면광 지수를 생성하는 단계; 상기 반사광 벡터, 상기 대상체의 색상, 상기 광원에 대한 반사 계수, 상기 경면광 지수 중 적어도 하나를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 단계를 포함하는 것을 특징으로 할 수 있다.For example, generating the image having the reflected light effect on the object may include calculating a representative voxel to be displayed on a screen among voxels in a path of a gaze vector; calculating a surface normal vector; calculating a reflected light vector through the surface normal vector; generating a color of the object, a reflection coefficient for a light source, and a specular light index; and calculating the color of one point included in the image through at least one of the reflected light vector, the color of the object, the reflection coefficient for the light source, and the specular light index.
예를 들어, 상기 대상체에 대한 반사광 효과를 갖는 영상을 생성하는 단계는, 대상체와 화면에 대한 깊이맵을 추출하는 단계; 깊이맵에 대하여 표면 법선 벡터를 계산하는 단계; 상기 표면 법선 벡터를 통하여 반사광 벡터를 계산하는 단계; 상기 대상체의 색상, 광원에 대한 반사 계수, 경면광 지수를 생성하는 단계; 상기 반사광 벡터, 상기 대상체의 색상, 상기 광원에 대한 반사 계수, 상기 경면광 지수 중 적어도 하나를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 단계를 포함하는 것을 특징으로 할 수 있다. For example, generating the image having the reflected light effect on the object may include: extracting a depth map of the object and the screen; calculating a surface normal vector for the depth map; calculating a reflected light vector through the surface normal vector; generating a color of the object, a reflection coefficient for a light source, and a specular light index; and calculating the color of one point included in the image through at least one of the reflected light vector, the color of the object, the reflection coefficient for the light source, and the specular light index.
예를 들어, 상기 반사광 효과를 갖는 영상은 반사광 렌더링을 포함하는 복수의 렌더링을 통하여 생성되는 것을 특징으로 할 수 있다. For example, the image having the specular light effect may be generated through a plurality of renderings including specular rendering.
예를 들어, 상기 반사광 효과를 갖는 영상은 복수의 광원에 의하여 생성되는 것을 특징으로 할 수 있다. For example, the image having the reflected light effect may be generated by a plurality of light sources.
예를 들어, 상기 의료영상 데이터는 초음파 진단장치, X선 진단장치, CT(Computerized Tomography) 스캐너 또는 MRI(Magnetic Resonance Image) 장치를 이용하여 획득된 대상체에 대한 영상 데이터인 것을 특징으로 할 수 있다. For example, the medical image data may be image data of an object obtained using an ultrasound diagnosis apparatus, an X-ray diagnosis apparatus, a computerized tomography (CT) scanner, or a magnetic resonance image (MRI) apparatus.
본 발명의 일 실시예에 따른 대상체의 3차원 의료 영상을 생성하기 위한 장치는 상기 대상체에 대한 의료영상 데이터를 획득하는 초음파 데이터 획득부; 및 상기 획득된 의료영상 데이터에 기초하여 상기 대상체에 대한 반사광 효과를 갖는 영상을 생성하는 영상 생성부를 포함 할 수 있다.According to an embodiment of the present invention, an apparatus for generating a 3D medical image of an object includes an ultrasound data acquisition unit configured to acquire medical image data of the object; and an image generator generating an image having a reflected light effect on the object based on the obtained medical image data.
예를 들어, 상기 반사광 효과를 갖는 영상을 디스플레이하는 디스플레이부를 더 포함하는 것을 특징으로 할 수 있다.For example, it may further include a display unit for displaying the image having the reflected light effect.
예를 들어, 상기 영상 생성부는 상기 대상체의 색상, 광원에 대한 반사 계수, 경면광 지수를 장치의 외부에서 입력을 받거나 또는 내부적으로 계산하고, 상기 상기 대상체의 색상, 상기 광원에 대한 반사 계수, 상기 경면광 지수 중 적어도 하나를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 것을 특징으로 할 수 있다. For example, the image generator may receive an input from the outside of the device or internally calculate the color of the object, the reflection coefficient for the light source, and the specular light index, and the color of the object, the reflection coefficient for the light source, and the It may be characterized in that the color of one point included in the image is calculated through at least one of the specular light indices.
예를 들어, 상기 영상 생성부는 상기 대상체와 화면에 대한 깊이맵을 추출하여, 반사광 벡터를 계산하고, 상기 반사광 벡터를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 단계를 포함하는 것을 특징으로 할 수 있다. For example, the image generator extracts a depth map for the object and the screen, calculates a reflected light vector, and calculates a color for one point included in the image through the reflected light vector. can be characterized.
예를 들어, 상기 반사광 효과를 갖는 영상은 복수의 광원에 의하여 생성되는 것을 특징으로 할 수 있다. For example, the image having the reflected light effect may be generated by a plurality of light sources.
예를 들어, 상기 반사광 효과를 갖는 영상은 반사광 렌더링을 포함하는 복수의 렌더링을 통하여 생성되는 것을 특징으로 할 수 있다. For example, the image having the specular light effect may be generated through a plurality of renderings including specular rendering.
예를 들어, 상기 의료영상 데이터는 초음파 진단장치, X선 진단장치, CT(Computerized Tomography) 스캐너 또는 MRI(Magnetic Resonance Image) 장치를 이용하여 획득된 대상체에 대한 영상 데이터인 것을 특징으로 할 수 있다.
For example, the medical image data may be image data of an object obtained using an ultrasound diagnosis apparatus, an X-ray diagnosis apparatus, a computerized tomography (CT) scanner, or a magnetic resonance image (MRI) apparatus.
도 1은 대상체에 대한 초음파 영상 및 3차원 렌더링 영상을 나타낸다.
도 2는 본 발명의 일 실시예에 따라 대상체의 특성정보가 반영된 3차원 영상을 생성하기 위한 방법을 나타낸 순서도이다.
도 3은 본 발명의 일 실시예에 따라 영상 특성정보가 공간 주파수인 것을 도시한다.
도 4는 본 발명의 일 실시예에 따라 영상 특성정보가 영상 강도인 것을 도시한다.
도 5는 본 발명의 일 실시예에 따라 영상 특성정보가 영상 히스토그램인 것을 도시한다.
도 6은 본 발명의 일 실시예에 따라 영상 특성정보가 동시발생 행렬인 것을 도시한다.
도 7은 본 발명의 일 실시예에 따라 영상 특성정보가 국부 이진 패턴인 것을 도시한다.
도 8은 본 발명의 일 실시예에 따라 영상 특성정보가 균일성인 것을 도시한다.
도 9는 본 발명의 일 실시예에 따라 대상체의 특성정보가 반영된 3차원 영상을 렌더링하고, 디스플레이하는 방법을 나타낸 순서도이다.
도 10은 본 발명의 일 실시예에 따라 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 방법을 나타낸 순서도이다.
도 11은 본 발명의 일 실시예에 따라 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 방법을 나타낸 순서도이다.
도 12는 본 발명의 다른 실시예에 따라 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 방법을 나타낸 순서도이다.
도 13은 본 발명의 일 실시예에 따라 대상체의 특성정보가 반영된 3차원 영상을 생성하기 위한 장치를 나타낸 블록도이다.
도 14는 본 발명의 일 실시예에 따라 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 장치를 나타낸 블록도이다.
도 15는 본 발명의 다른 실시예에 따라 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 장치를 나타낸 블록도이다.
도 16 및 도 17은 본 발명의 일 실시예에 따른 대상체의 특성정보 중 반사광 효과를 설명하기 위한 도면이다.
도 18은 도 16 및 도 17의 초음파 영상을 얻기 위한 방법을 설명하기 위한 도면이다.
도 19은 본 발명의 일 실시예에 따른 대상체의 윈도우 영역에 대한 특성정보가 경면광 지수에 따라서 각각 다르게 반영된 영상을 나타낸 도면이다.
도 20은 본 발명의 일 실시예에 따른 대상체의 윈도우 영역에 대한 특성정보가 경면광 지수에 따라서 각각 다르게 반영된 영상을 나타낸 도면이다.
도 21은 경면광 지수 및 경면 반사 계수에 따른 영상의 변화를 나타내기 위한 도면 이다.
도 22은 본 발명의 일 실시예에 따른 광원이 2개인 경우의 반사광 효과를 나타내는 초음파 영상을 나타낸 도면이다.
도 23는 본 발명의 일 실시예에 따른 3차원 반사광 효과 렌더링 방법을 설명하기 위한 순서도이다.
도 24은 법선 벡터를 통하여 반사광 벡터를 계산하는 방법을 도시하기 위한 도면이다.
도 25는 본 발명의 일 실시예에 따른 3차원 반사광 효과 렌더링 방법을 설명하기 위한 순서도이다.
도 26는 본 발명의 일 실시예에 따른 3차원 반사광 효과 렌더링 방법을 설명하기 위한 순서도이다.
도 27 내지 도 29는 대상체의 표면정보를 산출하는 방법을 설명하기 위한 도면이다. 1 shows an ultrasound image and a 3D rendered image of an object.
2 is a flowchart illustrating a method for generating a 3D image in which characteristic information of an object is reflected according to an embodiment of the present invention.
3 shows that image characteristic information is a spatial frequency according to an embodiment of the present invention.
4 shows that image characteristic information is image intensity according to an embodiment of the present invention.
5 shows that the image characteristic information is an image histogram according to an embodiment of the present invention.
6 illustrates that image characteristic information is a co-occurrence matrix according to an embodiment of the present invention.
7 illustrates that image characteristic information is a local binary pattern according to an embodiment of the present invention.
8 shows that image characteristic information is uniform according to an embodiment of the present invention.
9 is a flowchart illustrating a method of rendering and displaying a 3D image in which characteristic information of an object is reflected according to an embodiment of the present invention.
10 is a flowchart illustrating a method for generating an image in which characteristic information on a window region of an object is reflected according to an embodiment of the present invention.
11 is a flowchart illustrating a method of generating an image for a window region based on generated characteristic information according to an embodiment of the present invention.
12 is a flowchart illustrating a method of generating an image for a window region based on generated characteristic information according to another embodiment of the present invention.
13 is a block diagram illustrating an apparatus for generating a 3D image in which characteristic information of an object is reflected according to an embodiment of the present invention.
14 is a block diagram illustrating an apparatus for generating an image in which characteristic information on a window region of an object is reflected, according to an embodiment of the present invention.
15 is a block diagram illustrating an apparatus for generating an image in which characteristic information on a window region of an object is reflected, according to another embodiment of the present invention.
16 and 17 are diagrams for explaining a reflected light effect among characteristic information of an object according to an embodiment of the present invention.
18 is a diagram for explaining a method for obtaining the ultrasound image of FIGS. 16 and 17 .
19 is a diagram illustrating an image in which characteristic information on a window region of an object is reflected differently according to a specular light index according to an embodiment of the present invention.
20 is a diagram illustrating an image in which characteristic information on a window region of an object is reflected differently according to a specular light index according to an embodiment of the present invention.
FIG. 21 is a diagram illustrating changes in an image according to a specular light index and a specular reflection coefficient.
22 is a diagram illustrating an ultrasound image showing a reflected light effect when there are two light sources according to an embodiment of the present invention.
23 is a flowchart illustrating a 3D specular light effect rendering method according to an embodiment of the present invention.
24 is a diagram illustrating a method of calculating a reflected light vector through a normal vector.
25 is a flowchart illustrating a 3D specular light effect rendering method according to an embodiment of the present invention.
26 is a flowchart illustrating a 3D specular light effect rendering method according to an embodiment of the present invention.
27 to 29 are diagrams for explaining a method of calculating surface information of an object.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, which may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part "includes" a certain element, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .
명세서 전체에서 "초음파 영상"이란 초음파를 이용하여 획득된 대상체에 대한 영상을 의미한다. 대상체는 신체의 일부를 의미할 수 있다. 예를 들어, 대상체에는 간이나, 심장, 자궁, 뇌, 유방, 복부 등의 장기나, 태아 등이 포함될 수 있는 것이다. Throughout the specification, the term “ultrasound image” refers to an image of an object obtained using ultrasound. The object may refer to a part of a body. For example, the object may include organs such as a liver, heart, uterus, brain, breast, abdomen, or a fetus.
명세서 전체에서 "의료 영상"이란 초음파를 이용하여 획득된 대상체에 대한 영상 뿐만 아니라, X선 진단장치, CT(Computerized Tomography) 스캐너, MRI(Magnetic Resonance Image) 장치, 핵의학 진단장치를 이용하여 획득된 대상체에 대한 영상을 의미할 수 있다. Throughout the specification, the term “medical image” refers not only to an image of an object obtained using ultrasound, but also to an X-ray diagnostic device, a computerized tomography (CT) scanner, a magnetic resonance image (MRI) device, and a nuclear medicine diagnostic device. It may mean an image of an object.
명세서 전체에서 "사용자"는 의료전문가로서 의사, 간호사, 임상병리사, 의료영상 전문가 등이 될 수 있으나, 이에 한정되지 않는다.Throughout the specification, a "user" may be a medical professional, such as a doctor, a nurse, a clinical pathologist, or a medical imaging specialist, but is not limited thereto.
명세서 전체에서 "복셀"는 3차원 이미지 영상의 최소 단위를 의미 할 수 있으나, 이에 한정되지 않는다.Throughout the specification, “voxel” may mean a minimum unit of a 3D image image, but is not limited thereto.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
도 1은 대상체에 대한 초음파 영상 및 3차원 렌더링 영상을 나타낸다.1 shows an ultrasound image and a 3D rendered image of an object.
초음파 3D 기능은 최근까지 태아 진단을 위해서 사용되어 왔으나, 최근 들어 실제로 내시경을 사용하지 않고도, 내시경을 통한 소화기관 촬영과 같은 효과를 낼 수 있도록 하는 기술로 발전하고 있다.The ultrasound 3D function has been used for fetal diagnosis until recently, but recently, it has been developed into a technology capable of producing effects such as imaging of the digestive tract through an endoscope without actually using an endoscope.
예를 들어, 초음파 3D 기능을 이용하면, 위장 등을 포함하는 소화 기관의 초음파 데이터와 3차원 볼륨 렌더링 기법 등을 이용하여 소화 기관의 내부 구조를 쉽게 파악할 수 있다.For example, if the ultrasound 3D function is used, the internal structure of the digestive system may be easily identified using ultrasound data of the digestive system including the stomach and the like and a 3D volume rendering technique.
그러나, 이와 같은 초음파 3D 기능은 대상체의 초음파 영상에 나타난 구조 정보만을 이용하여 3차원 볼륨 렌더링을 수행하므로, 대상체에 대한 특성 (예를 들어, 질감) 등을 정확히 표현할 수 없다는 문제점이 있다. However, since the 3D ultrasound function performs 3D volume rendering using only structural information displayed in the ultrasound image of the object, there is a problem in that characteristics (eg, texture) of the object cannot be accurately expressed.
예를 들어, 도 1에 도시된 바와 같이, 대상체(예컨대, 환자의 위장)에 침전물(20)(예컨대, 위장에 붙은 국수 다발 등)이 있는 경우, 침전물(20)은 초음파 영상(10)에서 주변 조직들 보다 어둡거나 밝게 나타날 수 있다. 침전물(20)에 대한 정밀한 관찰을 위하여 초음파 영상(10)에서 소정의 영역(11)을 선택하고, 선택된 영역에 대하여 렌더링을 수행한다면, 대상체 내의 침전물(20)은 렌더링된 영상(30)에서 마치 용종(polyp)(31)처럼 나타날 수 있다. For example, as shown in FIG. 1 , if there is a sediment 20 (eg, a bundle of noodles attached to the stomach, etc.) in the object (eg, the stomach of a patient), the
이러한 방법에 따르면 대상체의 조직, 침전물(20)의 속성을 간과한 채, 대상체의 구조 정보만을 이용하여 렌더링을 수행하므로 침전물(20)을 마치 용종처럼 렌더링하는 오류가 발생될 수 있고, 이에 따라 사용자는 잘못된 임상 판단을 내릴 수도 있다. According to this method, an error of rendering the
대상체의 2차원(2D) 초음파 영상에서 침전물(20) 등은 주변 조직에 비하여 상이한 밝기와 질감을 가질 수 있으므로, 본 발명의 일 실시예에 따라 침전물(20) 등이 포함된 대상체의 특성에 기초하여 3차원 볼륨 렌더링을 수행함으로써 사용자에게 대상체에 대한 특성이 반영된 3차원 영상을 제공할 수 있다.In a two-dimensional (2D) ultrasound image of an object, the
본 발명의 일 실시예에 따른 3차원 영상 생성 장치 또는 방법은 획득된 초음파 데이터를 통하여 대상체의 3차원 영상을 생성하는 경우, 획득된 초음파 데이터의 특성정보가 상이한 부분은 대상체의 3차원 영상이 상이하게 표현되도록 대상체의 3차원 영상을 생성할 수 있다. 예를 들어, 도 1에서 침전물(20)이 주변 조직과 다르게 특성정보를 가진다면, 3차원 영상에서도 침전물(20)이 주변 조직과 다르게 표현될 수 있다. When the apparatus or method for generating a 3D image according to an embodiment of the present invention generates a 3D image of an object through acquired ultrasound data, the 3D image of the object is different in a portion having different characteristic information of the acquired ultrasound data. A three-dimensional image of the object may be generated to be expressed in a realistic manner. For example, if the
본 발명의 일 실시예에 따른 3차원 영상 생성 장치 또는 방법은 초음파 데이터의 특성정보가 상이하다면, 대상체의 3차원 영상이 상이할 수 있다. 여기서 특성정보는 영상 특성 정보, 물성 정보 및 표면 정보 중 적어도 하나를 포함할 수 있다. 특성정보에 대해서는 이하에서 구체적으로 설명한다. In the 3D image generating apparatus or method according to an embodiment of the present invention, if the characteristic information of ultrasound data is different, the 3D image of the object may be different. Here, the characteristic information may include at least one of image characteristic information, physical property information, and surface information. The characteristic information will be described in detail below.
도 2는 본 발명의 일 실시예에 따라 대상체의 특성정보가 반영된 3차원 영상을 생성하기 위한 방법을 나타낸 순서도이다. 2 is a flowchart illustrating a method for generating a 3D image in which characteristic information of an object is reflected according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 대상체의 특성정보가 반영된 3차원 영상을 생성하기 위한 방법은, 대상체에 대한 초음파 데이터를 획득하는 단계(S10), 획득된 초음파 데이터로부터 대상체의 특성정보를 생성하는 단계(S20) 및 생성된 특성정보에 기초하여 대상체에 대한 3차원 영상을 생성하는 단계(S30)를 포함할 수 있다. A method for generating a three-dimensional image in which characteristic information of an object is reflected according to an embodiment of the present invention includes: acquiring ultrasound data for the object (S10); generating characteristic information of the object from the acquired ultrasound data; (S20) and generating a 3D image of the object based on the generated characteristic information (S30).
본 발명의 일 실시예에 따른 초음파 데이터는 초음파가 조사된 대상체로부터 수신되는 초음파 응답 신호를 포함할 수 있다. 이러한 초음파 응답 신호는 아날로그 신호 및 디지털 신호 중 적어도 하나를 포함할 수 있다. The ultrasound data according to an embodiment of the present invention may include an ultrasound response signal received from an object irradiated with ultrasound. The ultrasonic response signal may include at least one of an analog signal and a digital signal.
예를 들어, 초음파 데이터는 복셀(voxel) 단위로 표현될 수 있는 대상체로부터 획득된 초음파 응답 신호를 포함할 수 있다. 다시 말해서, 초음파 데이터는 프로브를 통하여 대상체를 향하여 송신된 초음파가 대상체를 거쳐 다시 프로브로 되돌아 오는 응답 초음파의 진폭 및 위상 값을 포함할 수 있다. For example, the ultrasound data may include an ultrasound response signal obtained from an object that may be expressed in units of voxels. In other words, the ultrasound data may include amplitude and phase values of a response ultrasound in which ultrasound transmitted toward the object through the probe passes through the object and returns to the probe.
본 발명의 일 실시예에 따른 대상체의 특성(attribute) 정보는 대상체에 대한 영상 특성정보, 대상체의 물성 정보, 대상체의 표면정보 등을 포함할 수 있다. The attribute information of the object according to an embodiment of the present invention may include image characteristic information of the object, information on physical properties of the object, surface information of the object, and the like.
영상 특성정보는 대상체에 대한 초음파 영상의 공간 주파수, 영상 강도(image intensity), 영상 히스토그램, 동시발생 행렬(co-occurrence matrix), 국부 이진 패턴(Local Binary Pattern), 균일성(homogeneity)과 같은 초음파 영상의 특성정보 중 적어도 하나를 포함할 수 있다. Image characteristic information includes ultrasound such as spatial frequency, image intensity, image histogram, co-occurrence matrix, local binary pattern, and homogeneity of an ultrasound image of an object. It may include at least one of the characteristic information of the image.
대상체의 균일성은 대상체에 포함된 적어도 하나의 입자의 크기, 모양의 변화 정도를 의미한다. 예를 들어, 대상체에 포함된 적어도 하나의 입자(또는 조직)의 크기 또는 모양이 다양하다면, 대상체의 균일성은 없거나 매우 낮게 된다. 또한, 대상체에 포함된 적어도 하나의 입자(또는 조직)의 크기 또는 모양이 동일하다면, 대상체는 매우 높은 균일성을 갖고 있음을 의미한다.The uniformity of the object refers to a degree of change in the size and shape of at least one particle included in the object. For example, if the size or shape of at least one particle (or tissue) included in the object is varied, uniformity of the object is absent or very low. Also, if the size or shape of at least one particle (or tissue) included in the object is the same, it means that the object has very high uniformity.
대상체의 물성 정보는 강도(strength), 경도(hardness), 탄성(elasticity), 소성(plasticity), 점성(viscosity), 밀도(density), 연성(ductile), 취성(brittleness), 전성(malleablity), 강성(rigidity) 및 인성(toughness)과 같은 대상체의 물리적인 성질을 나타내는 정보를 포함할 수 있다. Physical property information of an object includes strength, hardness, elasticity, plasticity, viscosity, density, ductile, brittleness, malleability, It may include information indicating a physical property of the object, such as rigidity and toughness.
대상체의 표면정보는 '매끄럽다', '울퉁불퉁하다', '거칠다', '부드럽다' 등과 같이 사람의 촉감 인지 기관을 통하여 느낄 수 있는 대상체의 표면적인 성질을 나타내기 위한 정보를 포함할 수 있다. The surface information of the object may include information for indicating the surface properties of the object that can be felt through a human tactile recognition organ, such as 'smooth', 'rough', 'rough', 'soft', and the like.
또한, 대상체의 표면정보는 밝음과 어두움의 대비', '전체 바탕과 소정의 물건 간의 분리 또는 구분' 등과 같이 사람의 시각 기관을 통하여 느낄 수 있는 대상체의 시각적 또는 입체적 성질을 나타내기 위한 정보를 포함할 수 있다. In addition, the surface information of the object includes information for indicating the visual or three-dimensional properties of the object that can be felt through the human visual organ, such as contrast between light and dark, 'separation or division between the entire background and a predetermined object' can do.
대상체의 특성(attribute) 정보는 영상을 구성하는 각각의 픽셀에 대한 정보일 수 있고, 영상을 구성하는 하나 이상의 영역 각각에 대한 정보 일 수 있다. 또한, 대상체의 특성(attribute) 정보는 영상의 프레임에 대한 정보를 의미할 수 있다. The attribute information of the object may be information on each pixel constituting an image, or information on each of one or more regions constituting an image. Also, the attribute information of the object may refer to information about a frame of an image.
대상체에 대한 초음파 영상은 B 모드(brightness mode) 영상, C 모드(color mode) 영상, D 모드(Doppler mode) 영상 중 적어도 하나일 수 있다. 또한, 본 발명의 일 실시예에 의하면, 초음파 영상은 대상체에 대한 2차원 영상 또는 3차원 영상일 수도 있다.The ultrasound image of the object may be at least one of a B-mode (brightness mode) image, a C-mode (color mode) image, and a D-mode (Doppler mode) image. Also, according to an embodiment of the present invention, the ultrasound image may be a 2D image or a 3D image of an object.
본 발명의 일 실시예에 따라 획득된 초음파 데이터로부터 특성정보를 추출하는 단계(S20)는, 초음파 응답 신호에 따라 생성된 초음파 영상에 기초하여 공간 주파수, 영상 강도, 영상 히스토그램, 동시발생 행렬, 국부 이진 패턴 및 균일성 중 하나를 획득하는 단계를 포함할 수 있다. According to an embodiment of the present invention, the step of extracting characteristic information from the acquired ultrasound data ( S20 ) may include spatial frequency, image intensity, image histogram, co-occurrence matrix, and local frequency based on an ultrasound image generated according to an ultrasound response signal. obtaining one of a binary pattern and uniformity.
본 발명의 일 실시예에 따라 획득된 초음파 데이터로부터 특성정보를 추출하는 단계(S20)는, 영상 특성정보를 분석하는 단계 및 분석 결과에 기초하여 대상체의 특성정보를 결정하는 단계를 포함할 수 있다. According to an embodiment of the present invention, the step of extracting characteristic information from the acquired ultrasound data (S20) may include analyzing the image characteristic information and determining characteristic information of the object based on the analysis result. .
영상 특성정보의 분석 및 결정과 관련해서는 이하의 도 3 내지 도 8을 참조하여 후술한다. Analysis and determination of image characteristic information will be described later with reference to FIGS. 3 to 8 .
도 3은 본 발명의 일 실시예에 따라 영상 특성정보가 공간 주파수인 것을 도시한다. 3 shows that image characteristic information is a spatial frequency according to an embodiment of the present invention.
공간 주파수는 영상을 나타낸 화면 상에서 가로 또는 세로 방향으로 픽셀 값이 변화하는 비율을 나타내기 위한 개념이다. 예를 들어, 픽셀 값이 천천히 변화(또는 픽셀 값이 거의 변화 없음) 하거나 영상에 포함된 객체들의 상관도가 높을 때 공간 주파수가 낮다. 이와 반대로, 픽셀 값의 변화가 극심(또는 에지(edge)와 같이 픽셀 값의 변화가 불연속적임)하거나 영상에 포함된 객체들의 상관도가 낮을 때 공간 주파수가 높다. The spatial frequency is a concept for representing the rate at which pixel values change in the horizontal or vertical direction on a screen displaying an image. For example, when the pixel value changes slowly (or the pixel value hardly changes) or the correlation of objects included in the image is high, the spatial frequency is low. Conversely, when the change in the pixel value is extreme (or the change in the pixel value is discontinuous like an edge) or the correlation of objects included in the image is low, the spatial frequency is high.
대상체의 초음파 영상(40 또는 50)은 도 3에 도시된 바와 같이 획득될 수 있다. 또한, 대상체의 초음파 영상(40 또는 50)은 도 1에서와 같이 대상체의 초음파 영상(10) 중 일부(예컨대, 소정의 선택된 영역(11)에 상응하는 부분)에 대한 초음파 영상일 수 있다. An
예를 들어, 대상체의 조직(41, 42, 43)의 크기는 각각 상이할 수 있다. 여기서, 조직은 대상체를 이루는 생체 기관의 입자 또는 침전물의 입자 등을 지칭할 수 있다. 대상체에는 가장 큰 조직(42), 중간 크기의 조직(43) 및 가장 작은 조직(41)이 포함되어 있을 수 있다. 또한, 대상체의 조직(41, 42, 43)의 모양도 각각 상이할 수 있다.For example, the sizes of the
또한, 대상체의 조직(41, 42, 43)의 밝기 값도 각각 상이할 수 있다. 예컨대, 대상체는 초음파 영상(40 또는 50)상에서 가장 밝게 나타나는 조직(43), 중간 밝기를 나타내는 조직(42) 및 가장 어둡게 나타나는 조직(41)을 포함할 수 있다. 조직의 깊이, 밀도, 탄성력 등에 따라 상이한 초음파 응답 신호가 생성될 수 있으므로, 상이한 조직은 상이한 밝기 값을 나타낼 수 있다. 예를 들면, 가장 깊은 곳에 위치한 조직(41)은 가장 어둡게 나타날 수 있다. 다시 말해서, 조직의 깊이가 깊어질수록 밝기 값이 점점 작게 나타날 수 있다.Also, the brightness values of the
제 1 초음파 영상(40)의 위로부터 k번째에 위치한 라인에 포함된 복수개의 픽셀들의 밝기 값은 도 3에서와 같이 픽셀의 진폭 값으로서 표현될 수 있다. 예를 들어, 중간 밝기를 나타내는 조직(42)은 0.5의 픽셀 진폭 값으로서 표현될 수 있다. 또한, 가장 어둡게 나타나는 조직(41)은 -1의 픽셀 진폭 값으로서 표현될 수 있다. The brightness values of the plurality of pixels included in the k-th line from the top of the
또한, 제 1 초음파 영상(40)과 상응하게 제 2 초음파 영상(50)의 위로부터 k번째에 위치한 라인에 포함된 복수개의 픽셀들의 밝기 값도 픽셀의 진폭 값으로서 표현될 수 있다. 제 2 초음파 영상(50)에는 동일한 크기, 동일한 밝기 값을 갖는 조직(51)이 포함되어 있다. 따라서, k번째 라인을 따라 밝기 값을 나타내면 도 3에 도시된 바와 같이 1의 픽셀 진폭 값을 갖도록 표현될 수 있다. In addition, the brightness values of the plurality of pixels included in the k-th line from the top of the
동일한 k번째 라인을 따른 픽셀의 밝기 값은 제 1 초음파 영상(40)과 제 2 초음파 영상(50)에서 상이한 양상을 나타낸다. 다시 말해서, 제 1 초음파 영상(40)에서는 픽셀 진폭 값(또는 픽셀의 밝기 값)이 -1에서부터 0.5까지 다양하게 변화하는데 비하여, 제 2 초음파 영상(50)에서는 픽셀 진폭 값이 0에서부터 1까지 변화할 뿐이다. The brightness values of pixels along the same k-th line show different aspects in the
전술한 예에서 제 1 초음파 영상(40)은 픽셀 진폭 값의 변화가 많으므로, 공간 주파수가 높다고 결정될 수 있다. 다시 말해서, 제 1 초음파 영상(40)에 포함된 조직(41, 42, 43)들의 상관도는 낮으며, 따라서 제 1 초음파 영상(40)의 대상체는 '울퉁불퉁'하거나 '거친' 특성을 갖는다고 결정될 수 있다. In the above-described example, since the pixel amplitude value of the
또한, 제 1 초음파 영상(40)에 비하여 제 2 초음파 영상(50)은 픽셀 진폭 값의 변화가 거의 없으므로, 공간 주파수가 낮다고 결정될 수 있다. 다시 말해서, 제 2 초음파 영상에 포함된 객체(예컨대, 조직(51))들의 상관도는 매우 높으며, 그러므로 제 2 초음파 영상(50)의 대상체는 '매끄러운' 또는 '부드러운' 특성을 갖는다고 결정될 수 있다. Also, since the pixel amplitude value of the
전술한 바와 같이, 특성정보로서 초음파 영상의 공간 주파수가 추출될 수 있고, 이러한 공간 주파수에 기초하여 대상체의 특성정보가 결정(또는 획득)될 수 있다.As described above, the spatial frequency of the ultrasound image may be extracted as the characteristic information, and the characteristic information of the object may be determined (or acquired) based on the spatial frequency.
도 4는 본 발명의 일 실시예에 따라 영상 특성정보가 영상 강도인 것을 도시한다. 4 shows that image characteristic information is image intensity according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 영상 강도(image intensity)는 대상체에 대한 초음파 영상의 복수개의 픽셀들의 밝기 값으로서 표현될 수 있다. Image intensity according to an embodiment of the present invention may be expressed as a brightness value of a plurality of pixels of an ultrasound image of an object.
도 4에서와 같이 상이한 범위(예컨대, 제 1 구간(401) 내지 제 3 구간(403))에 포함된 밝기 값들을 갖는 복수개의 조직들(41 내지 43)이 제 1 초음파 영상(40)에서 나타날 수 있다. 또한, 동일한 범위(예컨대, 제 3 구간(403))의 밝기 값을 갖는 조직(51)이 제 2 초음파 영상(50)에서 나타날 수 있다.As shown in FIG. 4 , a plurality of
다시 말해서, 제 1 초음파 영상(40)에서는 제 1 구간(예컨대, 어두운 구간)(401)에 포함된 밝기 값을 갖는 조직(41), 제 2 구간(예컨대, 중간 밝기 구간)(402)에 포함된 밝기 값을 갖는 조직(42) 및 제 3 구간(예컨대, 밝은 구간)(403)에 포함된 밝기 값을 갖는 조직(43)을 포함하므로, 제 1 초음파 영상(40)에 포함된 조직들(41 내지 43)은 이종의 조직들이라고 결정될 수 있다. 또한, 조직들(41 내지 43)이 동종의 조직이라고 하더라도, 조직들(41 내지 43)의 밝기 값 구간이 상이하므로, 조직들(41 내지 43)의 깊이가 각각 상이하다고 결정될 수 있다. In other words, in the
따라서, 제 1 초음파 영상(40)의 대상체는 '울퉁불퉁'하거나 '거친' 특성을 갖는다고 결정될 수 있다.Accordingly, the object of the
이와 반면에, 제 2 초음파 영상(50)에서는 제 3 구간(예컨대, 밝은 구간)(403)에 포함된 밝기 값을 갖는 조직(51)을 포함하므로, 제 2 초음파 영상(50)은 단일 조직(51)들을 포함한다고 결정될 수 있다. On the other hand, since the
그러므로 제 2 초음파 영상(50)의 대상체는 '매끄러운' 또는 '부드러운' 특성을 갖는다고 결정될 수 있다.Therefore, the object of the
도 5는 본 발명의 일 실시예에 따라 영상 특성정보가 영상 히스토그램인 것을 도시한다.5 shows that the image characteristic information is an image histogram according to an embodiment of the present invention.
본 발명의 일 실시예에 따라 대상체에 대한 초음파 영상(40 또는 50)의 영상 히스토그램이 영상 특성정보로서 도 5에서와 같이 획득될 수 있다. According to an embodiment of the present invention, an image histogram of an
초음파 영상(40 또는 50)의 영상 히스토그램은 초음파 영상의 픽셀 값(예컨대, 밝기 값 등)에 대한 픽셀 수를 나타낸다. An image histogram of the
도 5에서와 같이 상이한 밝기 값을 갖는 복수개의 조직들(41 내지 43)이 제 1 초음파 영상(40)에서 나타날 수 있다. 제 1 초음파 영상(40)의 픽셀 값에 따른 픽셀 수는 픽셀 값 0 내지 192에서 고르게 분포하게 나타날 수 있다. As shown in FIG. 5 , a plurality of
도 4 및 도 5를 참조하면, 제 1 구간(401)에 포함된 밝기 값을 갖는 픽셀 수는 제 1 그래프(501)로, 제 2 구간(402)에 포함된 밝기 값을 갖는 픽셀 수는 제 2 그래프(503)로, 그리고 제 3 구간(403)에 포함된 밝기 값을 갖는 픽셀 수는 제 3 그래프(505)로 영상 히스토그램 상에서 나타날 수 있다. 4 and 5 , the number of pixels having a brightness value included in the first section 401 is the
따라서, 제 1 초음파 영상(40)에 포함된 조직들(41 내지 43)은 다양한 밝기 값들을 갖는 이종의 조직들이라고 결정될 수 있다. 또한, 조직들(41 내지 43)이 동종의 조직이라고 하더라도, 조직들(41 내지 43)의 히스토그램 분포가 비교적 넓게 나타나므로, 조직들(41 내지 43)의 깊이가 각각 상이하다고 결정될 수 있다. Accordingly, the
그러므로, 제 1 초음파 영상(40)의 대상체는 '울퉁불퉁'하거나 '거친' 특성을 갖는다고 결정될 수 있다.Therefore, it may be determined that the object of the
또한, 동일하거나 유사한 밝기 값을 갖는 조직(51)이 제 2 초음파 영상(50)에서 나타날 수 있다. 도 4 및 도 5를 참조하면, 제 2 초음파 영상(50)에 대한 영상 히스토그램 상에서는 제 3 구간(403)에 포함된 밝기 값을 갖는 픽셀 수만이 제 4 그래프(502)로 나타날 수 있으므로, 제 2 초음파 영상(50)은 단일 조직(51)들을 포함한다고 결정될 수 있다. Also,
그러므로 제 2 초음파 영상(50)의 대상체는 '매끄러운' 또는 '부드러운' 특성을 갖는다고 결정될 수 있다.Therefore, the object of the
도 6은 본 발명의 일 실시예에 따라 영상 특성정보가 동시발생 행렬인 것을 도시한다. 6 illustrates that image characteristic information is a co-occurrence matrix according to an embodiment of the present invention.
동시발생 행렬(co-occurrence matrix)은 픽셀 값의 반복성을 판단하기 위하여 이용될 수 있다. 예컨대, 소정의 패턴에 해당하는 값이 많을 경우, 그러한 패턴의 반복성이 높다고 판단될 수 있다. A co-occurrence matrix may be used to determine the repeatability of pixel values. For example, when there are many values corresponding to a predetermined pattern, it may be determined that the repeatability of the pattern is high.
설명의 편의상 도 6에서와 같이, 가장 밝은 조직(43)은 밝기 값이 3으로 표현되고, 중간 밝기 조직(42)은 밝기 값이 2로 표현되며, 가장 어두운 조직(41)은 밝기 값이 0으로 표현될 때 제 1 초음파 영상(40)은 4x4 크기의 행렬(610)로 간단히 나타낼 수 있다. For convenience of explanation, as shown in FIG. 6 , the
제 1 초음파 영상(40)의 픽셀 값을 나타낸 행렬(610)에 대하여 픽셀간 수평 거리 1의 단위로 해석되는 패턴을 이용하여 동시발생 행렬(630)이 획득될 수 있다. 그러나 픽셀들 사이의 패턴의 해석이 반드시 수평 방향으로만 제한되는 것은 아니고, 수직 방향, 대각선 방향 등으로 수행될 수도 있다. With respect to the
예를 들어, (1, 0)의 수평적 패턴으로 나란히 픽셀 값이 존재(611)한다면, (1, 0)의 패턴에 상응하는 행렬의 원소(element)(631)에 (1, 0)의 패턴의 개수인 3을 표시한다. 행렬의 각각의 원소(element)에 상응하는 패턴의 개수를 각각 표시함으로써 동시발생 행렬(630)이 획득될 수 있다. For example, if there are
또한, 제 2 초음파 영상(50)에 포함된 조직(51)의 밝기 값을 3으로 표현함으로써, 제 2 초음파 영상(50)도 4x4 크기의 행렬(620)로 간단히 나타낼 수 있다. 제 2 초음파 영상(50)에 대한 동시발생 행렬(640)도 제 1 초음파 영상(40)에 대한 동시발생 행렬(630) 획득과 같은 방식으로 획득될 수 있다. In addition, by expressing the brightness value of the
제 2 초음파 영상(50)에 대한 동시발생 행렬(640)에서는 행렬(640)의 특정 원소(641)에 값이 집중적으로 나타날 수 있다. 다시 말해서, 제 2 초음파 영상(50)에서는 (1,1)의 패턴이 여섯번이나 반복하여 나타나므로, (1, 1)의 패턴에 상응하는 행렬의 원소(641)는 6의 값으로서 표현될 수 있다. In the
제 1 초음파 영상(40)에 대한 동시발생 행렬(630)과 제 2 초음파 영상(50)에 대한 동시발생 행렬(640)을 비교해보면, 동시발생 행렬(640)에서는 특정 원소에 값이 집중적으로 나타남으로써 상대적으로 단조로운 행렬로서 표현되는데, 왜냐하면 제 2 초음파 영상(50)에서는 소정의 패턴(예컨대, (1,1) 또는 (3,3))의 반복성이 높게 나타나기 때문이다. Comparing the
제 2 초음파 영상(50)의 패턴의 반복성이 높기 때문에, 제 2 초음파 영상(50)의 대상체는 제 1 초음파 영상(40)의 대상체에 비하여 상대적으로 '매끄러운' 또는 '부드러운' 특성을 갖는다고 결정될 수 있다.Since the repeatability of the pattern of the
도 7은 본 발명의 일 실시예에 따라 추출된 영상 특성정보가 국부 이진 패턴(LBP)인 것을 도시한다. 7 shows that the image characteristic information extracted according to an embodiment of the present invention is a local binary pattern (LBP).
국부 이진 패턴(Local Binary Pattern)은 현재 위치의 픽셀 값과 이웃 픽셀 값 간의 차이를 0, 1의 2진 형태로 표현하여 픽셀들 간의 유사도를 판단하기 위한 기법이다. 다시 말해서, 영상의 각 픽셀에 대하여 소정 반경 내에 포함된 주변 픽셀들 간의 차이를 2진 형태의 값으로서 표현한 LBP 히스토그램을 획득하고, 각 픽셀을 기준으로 획득된 복수개의 2진 표현 값들을 상호 비교함으로써 픽셀들 간의 유사도를 판단할 수 있다. The local binary pattern is a technique for determining the similarity between pixels by expressing the difference between a pixel value of a current position and a neighboring pixel value in a binary form of 0 and 1. In other words, by obtaining an LBP histogram expressing the difference between neighboring pixels included within a predetermined radius for each pixel of the image as a binary value, and comparing a plurality of binary expression values obtained based on each pixel The similarity between pixels may be determined.
픽셀들 간의 유사도가 크다는 것은 픽셀들이 동일한 속성(feature)을 가짐을 나타낸다. 예를 들어, 유사도가 큰 픽셀들은 동일하거나 유사한 밝기 값을 가질 수 있다. 따라서, 국부 이진 패턴 기법을 이용하여 영상의 패턴을 비교적 정확하게 추정할 수 있다. A high degree of similarity between pixels indicates that the pixels have the same feature. For example, pixels having a high similarity may have the same or similar brightness values. Therefore, it is possible to estimate the image pattern relatively accurately by using the local binary pattern technique.
도 7에 도시된 바와 같이, 제 1 초음파 영상(40)의 픽셀 값을 나타낸 행렬(610)에서 소정의 원소(711)를 중심으로한 3x3 행렬(710)이 선택되고, 원소(711)의 픽셀 값인 1을 기준으로 주변 픽셀이 높거나 같은 픽셀 값을 가지면 1로 나타내고, 1보다 작은 픽셀 값을 가지면 0으로 나타냄으로써 이진 표현 행렬(730)이 획득될 수 있다. 이진 표현 행렬(730)에서 원소(711)로부터 시계 방향으로 각각의 원소의 값들을 판독함으로써, 원소(711)에 상응하는 픽셀을 기준으로한 이진 값(750) '11101001'이 획득될 수 있다. 이와 같은 방식으로 원소(712)를 기준으로 하여 이진 값 '11111111'이 획득될 수 있다.As shown in FIG. 7 , a
또한, 제 2 초음파 영상(50)의 픽셀 값을 나타낸 행렬(620)에서 소정의 원소(721)를 중심으로한 행렬(720)에 기초하여 이진 값(760) '00111110'이 획득될 수 있다. 또한, 원소(722)를 기준으로 하여 이진 값 '00111110'이 획득될 수 있다.In addition, a binary value 760 '00111110' may be obtained based on the
제 1 초음파 영상(40)에서 획득된 이진 값들('11101001' 및 '11111111')의 변화는 급격하지만, 제 2 초음파 영상(50)에서 획득된 이진 값들('00111110' 및 '00111110')은 변화가 없다. 즉, 제 1 초음파 영상(40)에 비하여 제 2 초음파 영상(50)은 인접한 픽셀들 간의 픽셀 값의 변화가 크지 않다. The binary values '11101001' and '11111111' obtained from the
제 2 초음파 영상(50)은 인접한 픽셀들 간의 픽셀 값의 변화가 적으므로, 제 2 초음파 영상(50)의 대상체는 제 1 초음파 영상(40)의 대상체에 비하여 상대적으로 '매끄러운' 또는 '부드러운' 특성을 갖는다고 결정될 수 있다.Since the
도 8은 본 발명의 일 실시예에 따라 영상 특성정보가 균일성인 것을 도시한다. 8 shows that image characteristic information is uniform according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 초음파 영상의 균일성은, 초음파 영상(40 또는 50)에 포함된 조직(41, 42, 43 또는 51)의 크기 또는 모양의 균일성을 의미한다. 설명의 편의상, 완전히 균일한 경우 균일성은 값 '10'으로 표현되고, 균일하지 않은 경우 균일성은 값 '1'로 표현된다고 가정한다. The uniformity of the ultrasound image according to an embodiment of the present invention refers to the uniformity of the size or shape of the
제 1 초음파 영상(40)에는 크기가 상이한 복수개의 조직들(41 내지 43)이 포함된다. 따라서, 제 1 초음파 영상(40)의 균일성은 낮다고 결정될 수 있다. 예를 들어, 제 1 초음파 영상(40)의 균일성은 값 '1'로 표현될 수 있고, 입자(또는 조직)이 고르지 못하다고 결정될 수 있다. 다시 말해서, 제 1 초음파 영상(40)의 대상체는 '울퉁불퉁'하거나 '거친' 특성을 갖는다고 결정될 수 있다.The
이에 비하여, 제 2 초음파 영상(50)은 크기가 동일한 조직(51)이 복수개 포함된다. 그러므로, 제 2 초음파 영상(50)의 균일성은 제 1 초음파에 비하여 상대적으로 높다고 결정될 수 있다. 예를 들어, 제 2 초음파 영상(50)의 균일성은 값 '10'으로 표현될 수 있고, 입자(또는 조직)이 고르다고 결정될 수 있다. 다시 말해서, 제 2 초음파 영상(50)의 대상체는 제 1 초음파 영상(40)의 대상체에 비하여 상대적으로 '매끄러운' 또는 '부드러운' 특성을 갖는다고 결정될 수 있다.In contrast, the
도 9는 본 발명의 일 실시예에 따라 대상체의 특성정보가 반영된 3차원 영상을 렌더링하고, 디스플레이하는 방법을 나타낸 순서도이다.9 is a flowchart illustrating a method of rendering and displaying a 3D image in which characteristic information of an object is reflected, according to an embodiment of the present invention.
본 발명의 일 실시예에 따라 생성된 특성정보에 기초하여 대상체에 대한 3차원 영상을 생성하는 단계(S30)는, 특성정보에 따라 대상체에 대한 3차원 영상을 렌더링하는 단계(S31)를 포함할 수 있다. According to an embodiment of the present invention, generating a 3D image of an object based on the generated characteristic information (S30) may include rendering a 3D image of the object according to the characteristic information (S31). can
예컨대, 대상체에 대하여 전술한 방법에 따라 생성된 특성정보를 이용하여 3차원 영상이 렌더링될 수 있다. 다시 말해서, 대상체에 대한 3차원 볼륨 렌더링을 수행할 때, 전술한 영상 특성정보의 분석을 통하여 획득(또는 결정)된 각각의 픽셀에 상응하는 특성(예컨대, 질감 등) 정보를 이용함으로써 대상체의 구조뿐만 아니라 대상체의 질감 등의 특성이 반영된 3차원 볼륨 영상을 획득할 수 있다. For example, a 3D image may be rendered using the characteristic information generated according to the method described above for the object. In other words, when 3D volume rendering of the object is performed, the structure of the object is obtained by using characteristic (eg, texture, etc.) information corresponding to each pixel obtained (or determined) through the analysis of the above-described image characteristic information. In addition, it is possible to obtain a 3D volume image in which characteristics such as the texture of the object are reflected.
또한, 본 발명의 일 실시예에 따른 방법은 특성정보가 반영되어 생성된 3차원 영상을 디스플레이하는 단계(S40)를 더 포함할 수 있다. In addition, the method according to an embodiment of the present invention may further include displaying a 3D image generated by reflecting the characteristic information (S40).
도 10은 본 발명의 일 실시예에 따라 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 방법을 나타낸 순서도이다. 10 is a flowchart illustrating a method for generating an image in which characteristic information on a window region of an object is reflected, according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 방법은, 대상체에 대한 초음파 데이터에 기초하여 대상체에 대한 초음파 영상을 획득하는 단계(S100), 획득된 초음파 영상에서 윈도우 영역 을 설정하는 단계(S200), 초음파 데이터로부터 윈도우 영역에 대한 특성정보를 생성하는 단계(S300) 및 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 단계(S400)를 포함할 수 있다. According to an embodiment of the present invention, a method for generating an image in which characteristic information on a window region of an object is reflected includes acquiring an ultrasound image of an object based on ultrasound data of the object (S100), the acquired ultrasound It includes the steps of setting the window area in the image (S200), generating characteristic information of the window area from ultrasound data (S300), and generating an image of the window area based on the generated characteristic information (S400). can do.
본 발명의 일 실시예에 따라 획득된 초음파 영상에서 윈도우 영역 을 설정하는 단계(S200)는, 외부 입력에 기초하여 초음파 영상에서 소정의 영역을 선택하는 단계(S210)를 포함할 수 있다. According to an embodiment of the present invention, the step of setting the window region in the acquired ultrasound image (S200) may include selecting a predetermined region in the ultrasound image based on an external input (S210).
또한, 본 발명의 일 실시예에 따른 윈도우 영역 은, 별도의 외부 입력이 인가되지 않더라도 대상체의 소정의 부분(또는 부위)이 포함되는 소정 크기의 미리 설정된 영역만큼 자동적으로 설정될 수 있다. 예를 들어, 환자의 위장의 상단부 또는 하곡면 등이 포함되도록 소정 크기로 미리 설정된 윈도우 영역이 자동으로 설정될 수 있다.In addition, the window area according to an embodiment of the present invention may be automatically set as much as a preset area of a predetermined size including a predetermined portion (or region) of the object even if a separate external input is not applied. For example, a window area preset to a predetermined size to include the upper end or lower curved surface of the patient's stomach may be automatically set.
본 발명의 일 실시예에 따른 영상 특성정보는, 대상체에 대한 초음파 영상의 공간 주파수, 영상 강도, 영상 히스토그램, 동시발생 행렬, 국부 이진 패턴, 균일성 중 적어도 하나를 포함할 수 있고, 특성정보는 대상체의 질감을 포함할 수 있다. The image characteristic information according to an embodiment of the present invention may include at least one of a spatial frequency, an image intensity, an image histogram, a co-occurrence matrix, a local binary pattern, and a uniformity of an ultrasound image of an object, and the characteristic information is The texture of the object may be included.
도 11은 본 발명의 일 실시예에 따라 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 방법을 나타낸 순서도이다. 11 is a flowchart illustrating a method of generating an image for a window region based on generated characteristic information according to an embodiment of the present invention.
본 발명의 일 실시예에 따라 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 단계(S400)는, 생성된 특성정보에 따라 윈도우 영역에 대한 3차원 영상을 렌더링하는 단계(S410)를 포함할 수 있다. According to an embodiment of the present invention, the step of generating an image of the window region based on the generated characteristic information (S400) includes the step of rendering a 3D image of the window region according to the generated characteristic information (S410). may include
전술한 바와 같이, 대상체에 대한 3차원 볼륨 렌더링을 수행할 때, 특성정보의 분석을 통하여 획득(또는 결정)된 각각의 픽셀에 상응하는 특성정보를 이용함으로써 대상체의 구조뿐만 아니라 대상체의 질감 등의 특성이 반영된 3차원 볼륨 영상을 획득할 수 있다. As described above, when 3D volume rendering of an object is performed, by using characteristic information corresponding to each pixel obtained (or determined) through analysis of characteristic information, not only the structure of the object but also the texture of the object A three-dimensional volume image with characteristics reflected may be obtained.
도 12는 본 발명의 다른 실시예에 따라 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 방법을 나타낸 순서도이다.12 is a flowchart illustrating a method of generating an image for a window region based on generated characteristic information according to another embodiment of the present invention.
본 발명의 일 실시예에 따라 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 단계(S400)는, 윈도우 영역에 대한 3차원 영상이 획득되도록 렌더링하는 단계(S420) 및 렌더링된 3차원 영상에 생성된 특성정보를 부가하는 단계(S440)를 포함할 수 있다. According to an embodiment of the present invention, the step (S400) of generating an image of the window area based on the generated characteristic information includes the steps of rendering (S420) so that a three-dimensional image of the window area is obtained and the rendered three-dimensional (3D) image. It may include adding the generated characteristic information to the image (S440).
윈도우 영역에 대한 3차원 볼륨 렌더링을 수행하여 3차원 영상을 획득하고 나서, 렌더링된 3차원 영상에 특성정보를 부가함으로써 특성정보가 반영된 3차원 영상을 획득할 수 있다. After obtaining a 3D image by performing 3D volume rendering on the window region, the 3D image in which the characteristic information is reflected may be obtained by adding characteristic information to the rendered 3D image.
다시 말해서, 윈도우 영역에 대한 3차원 볼륨 렌더링을 수행하여 제 1 영상을 생성하고, 윈도우 영역에 상응하게 초음파 데이터로부터 추출 및 분석되어 생성된 특성정보에 기초하여 제 2 영상을 생성하고, 제 1 영상과 제 2 영상을 중첩시킴으로써 렌더링된 3차원 영상(예컨대, 제 1 영상)에 특성정보를 부가할 수 있다. 또한, 소정의 영상 처리 필터 등을 통하여 필터링된 특성정보를 렌더링된 3차원 영상에 부가함으로써 특성정보가 반영된 3차원 영상이 획득될 수 있다. In other words, a first image is generated by performing 3D volume rendering on the window area, a second image is generated based on characteristic information generated by extraction and analysis from ultrasound data corresponding to the window area, and the first image is generated. By overlapping the second image and the second image, characteristic information may be added to the rendered 3D image (eg, the first image). In addition, a 3D image to which the characteristic information is reflected may be obtained by adding the characteristic information filtered through a predetermined image processing filter or the like to the rendered 3D image.
도 13은 본 발명의 일 실시예에 따라 대상체의 특성정보가 반영된 3차원 영상을 생성하기 위한 장치를 나타낸 블록도이다.13 is a block diagram illustrating an apparatus for generating a 3D image in which characteristic information of an object is reflected according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 대상체의 특성정보가 반영된 3차원 영상을 생성하기 위한 장치(1300)는, 대상체에 대한 초음파 데이터를 획득하는 초음파 데이터 획득부(1310), 획득된 초음파 데이터로부터 대상체의 특성정보를 생성하는 특성정보 생성부(1350) 및 생성된 특성정보에 기초하여 대상체에 대한 3차원 영상을 생성하는 영상 생성부(1370)를 포함할 수 있다. An
또한, 본 발명의 일 실시예에 따른 장치(1300)는 생성된 3차원 영상을 디스플레이하는 디스플레이부(1390)를 더 포함할 수 있다. Also, the
본 발명의 일 실시예에 따른 특성정보는, 상기 대상체에 대한 초음파 영상의 공간 주파수, 영상 강도, 영상 히스토그램, 동시발생 행렬, 국부 이진 패턴, 균일성 중 적어도 하나의 영상 특성정보를 포함할 수 있다. The characteristic information according to an embodiment of the present invention may include image characteristic information of at least one of spatial frequency, image intensity, image histogram, co-occurrence matrix, local binary pattern, and uniformity of the ultrasound image of the object. .
본 발명의 일 실시예에 따른 특성정보는 영상 특성정보, 대상체의 물성 정보, 표현 정보 중 적어도 하나를 포함할 수 있다. The characteristic information according to an embodiment of the present invention may include at least one of image characteristic information, physical property information of an object, and expression information.
본 발명의 일 실시예에 따른 영상 생성부(1370)는 특성정보 생성부(1350)에 의하여 생성된 특성정보에 따라 대상체에 대한 3차원 영상을 렌더링할 수 있다.The
도 14는 본 발명의 일 실시예에 따라 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 장치를 나타낸 블록도이다. 14 is a block diagram illustrating an apparatus for generating an image in which characteristic information on a window region of an object is reflected, according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 장치(1300)는, 대상체에 대한 초음파 데이터를 획득하는 초음파 데이터 획득부(1310), 획득된 초음파 데이터에 기초하여 대상체에 대한 초음파 영상을 획득하는 초음파 영상 획득부(1320), 획득된 초음파 영상에서 윈도우 영역 을 설정하는 윈도우 영역 설정부(1360), 초음파 데이터로부터 윈도우 영역에 대한 특성정보를 생성하는 특성정보 생성부(1350) 및 생성된 특성정보에 기초하여 윈도우 영역에 대한 영상을 생성하는 영상 생성부(1370)를 포함할 수 있다. An
본 발명의 일 실시예에 따른 윈도우 영역 설정부(1360)는, 대상체의 소정의 부분(또는 부위)가 포함되는 소정 크기의 미리 설정된 영역만큼 자동적으로 윈도우 영역을 설정할 수 있다. 이러한 미리 설정된 영역은 저장부(미도시)에 미리 저장되어 있을 수 있다. 예를 들어, 환자의 위장의 상단부 또는 하곡면 등이 포함되도록 소정 크기로 미리 설정된 윈도우 영역이 자동으로 설정될 수 있다.The window
본 발명의 일 실시예에 따른 장치(1300)는, 외부 입력 수신부(1340)를 더 포함할 수 있다. The
윈도우 영역 설정부(1360)는, 외부 입력 수신부(1340)를 통하여 수신된 외부 입력에 기초하여 초음파 영상 획득부(1320)를 통하여 획득된 초음파 영상에서 소정의 영역을 선택할 수 있다. The window
본 발명의 일 실시예에 따른 영상 특성정보는, 대상체에 대한 초음파 영상의 공간 주파수, 영상 강도, 영상 히스토그램, 동시발생 행렬, 국부 이진 패턴, 균일성 중 적어도 하나를 포함하고, 특성정보는 대상체의 질감 및 대상체의 균일성 중 적어도 하나를 포함할 수 있다. The image characteristic information according to an embodiment of the present invention includes at least one of a spatial frequency, an image intensity, an image histogram, a co-occurrence matrix, a local binary pattern, and a uniformity of an ultrasound image of an object, and the characteristic information includes: It may include at least one of texture and uniformity of the object.
본 발명의 일 실시예에 따른 영상 생성부(1370)는, 특성정보 생성부(1350)를 통하여 생성된 특성정보에 따라 윈도우 영역에 대한 3차원 영상이 획득되도록 렌더링하는 영상 렌더링부(1371)를 포함할 수 있다. The
도 15는 본 발명의 다른 실시예에 따라 대상체의 윈도우 영역에 대한 특성정보가 반영된 영상을 생성하기 위한 장치를 나타낸 블록도이다.15 is a block diagram illustrating an apparatus for generating an image in which characteristic information on a window area of an object is reflected, according to another embodiment of the present invention.
본 발명의 일 실시예에 따른 영상 생성부(1370)는, 윈도우 영역에 대한 3차원 영상이 획득되도록 렌더링하는 영상 렌더링부(1371) 및 렌더링된 3차원 영상에 특성정보 생성부(1350)를 통하여 생성된 특성정보를 부가하는 특성정보 부가부(1372)를 포함할 수 있다.The
또한, 본 발명의 일 실시예에 따른 영상 생성부(1370)는 특성정보 생성부(1350)에 의하여 생성된 특성정보에 기초하여 특성정보가 표현된 특성정보 영상을 생성할 수 있다. Also, the
다시 말해서, 윈도우 영역에 대한 3차원 볼륨 렌더링을 수행하여 3차원 영상을 획득하고, 그리고 나서 렌더링된 3차원 영상에 특성정보를 부가함으로써 특성정보가 반영된 3차원 영상이 획득될 수 있다. In other words, a 3D image is obtained by performing 3D volume rendering on the window region, and then, a 3D image to which the characteristic information is reflected may be obtained by adding characteristic information to the rendered 3D image.
특성정보 부가부(1372)는 영상 렌더링부(1371)에 의하여 생성된 제 1 영상과 영상 생성부(1370)를 통하여 생성된 제 2 영상(예컨대, 특성정보 영상)을 중첩시킴으로써 렌더링된 3차원 영상(예컨대, 제 1 영상)에 특성정보를 부가할 수 있다. 또한, 특성정보 부가부(1372)는 소정의 영상 처리 필터 등을 포함할 수 있다. 다시 말해서, 소정의 영상 처리 필터 등을 통하여 특성정보를 필터링하여 렌더링된 3차원 영상에 부가함으로써 특성정보가 반영된 3차원 영상이 획득될 수 있다.The characteristic
도 16 및 도 17은 본 발명의 일 실시예에 따른 대상체의 특성정보 중 반사광 효과를 설명하기 위한 도면이다.16 and 17 are diagrams for explaining a reflected light effect among characteristic information of an object according to an embodiment of the present invention.
도 16 및 도 17을 참조하면, 도 16(a)의 이미지와 도 16(b)의 이미지를 합성하여 도 16(c)와 같은 이미지를 생성할 수 있다. 도 16(b)와 같은 반사광 효과는 대상체의 재료 특성에 따라서 달라질 수 있다. 16 and 17 , the image shown in FIG. 16(c) may be generated by synthesizing the image of FIG. 16(a) and the image of FIG. 16(b). The reflected light effect as shown in FIG. 16(b) may vary depending on the material properties of the object.
예를 들어, 도 13의 장치(1300)는 도 16(a)와 같이 3차원 이미지를 획득할 수 있고, 도 16(b)의 이미지에 대응하는 특성정보를 획득할 수 있다. 또한, 예를 들어, 도 13의 장치(1300)는 도 16(a)와 같이 3차원 이미지에 도 16(b)와 같은 이미지를 부가하여 도 16(c)와 같이 이미지를 생성할 수 있다. 따라서, 도 13의 장치(1300)는 도 16(a)와 같이 3차원 이미지에 도 16(b)의 이미지에 대응하는 특성정보인 반사광 효과를 부가적으로 렌더링 할 수 있다. For example, the
도 17(a)의 이미지와 도 17(b)의 이미지를 합성하여 도 17(c)와 같은 이미지를 생성할 수 있다. 도 17(b)와 같은 반사광 효과는 대상체의 재료 특성에 따라서 달라질 수 있다.An image as shown in FIG. 17(c) may be generated by synthesizing the image of FIG. 17(a) and the image of FIG. 17(b). The reflected light effect as shown in FIG. 17(b) may vary depending on the material properties of the object.
예를 들어, 도 13의 장치(1300)는 도 17(a)와 같이 3차원 이미지를 획득할 수 있고, 도 17(b)의 이미지에 대응하는 특성정보를 획득할 수 있다. 또한, 예를 들어, 도 13의 장치(1300)는 도 17(a)와 같이 3차원 이미지에 도 17(b)와 같은 이미지를 부가하여 도 17(c)와 같이 이미지를 생성할 수 있다. 따라서, 도 13의 장치(1300)는 도 17(a)와 같이 3차원 이미지에 도 17(b)의 이미지에 대응하는 특성정보인 반사광 효과를 부가적으로 렌더링 할 수 있다. For example, the
도 18은 도 16 및 도 17의 초음파 영상을 얻기 위한 방법을 설명하기 위한 도면이다. 18 is a diagram for explaining a method for obtaining the ultrasound image of FIGS. 16 and 17 .
도 18을 참조하면, 반사광 효과는 3차원 렌더링(Rendering) 과정을 통하여 발생할 수 있다. 반사광 효과를 발생시키는 반사광 렌더링(Specular Rendering)은 광선 추적 렌더링(Ray Tracing Rendering)으로 구현될 수 있다. 광선 추적 렌더링(Ray Tracing Rendering)은 전역 조명모델을 적용한 렌더링 방식이다. 즉, 광선 추적 렌더링(Ray Tracing Rendering)은 카메라에서 광선이 발사된다고 가정하고 화면의 모든 화소에서 빛의 경로를 추적하여 빛과 표면에서 발생하는 반사, 굴절, 흡수 자체 발광에 의한 조명효과를 연산하는 방법이다. 광선 추적 렌더링(Ray Tracing Rendering)에서 광원과 물체 사이에 의해 반사에 의한 조명효과를 연산에 있어서, 지역 조명모델을 사용하는데, 지역 조명모델은 주변 광 효과(Ambient), 확산반사(Diffusive Reflection), 하이라이트반사(Specular Reflection)에 의한 조명 효과를 연산한다. 이 중 반사광 효과는 특히 표면으로부터 정반사된 빛에 의해 하이라이트 되는 조명 효과를 표현한다. 이러한 하이라이트는 카메라의 위치에 따라 강도가 변하게 된다.Referring to FIG. 18 , the reflected light effect may be generated through a 3D rendering process. Specular rendering that generates a specular light effect may be implemented as ray tracing rendering. Ray tracing rendering is a rendering method that applies a global lighting model. In other words, ray tracing rendering assumes that rays are emitted from the camera and traces the path of light in all pixels on the screen to calculate lighting effects by reflection, refraction, absorption and self-luminescence occurring on light and surfaces. way. In ray tracing rendering, a local lighting model is used to calculate the lighting effect caused by reflection between a light source and an object. Calculate the lighting effect by Specular Reflection. Among them, the specular light effect expresses a lighting effect that is particularly highlighted by the light specularly reflected from the surface. These highlights change in intensity depending on the camera's position.
반사광 효과는 다음과 같은 [수학식 1]을 통해서 산출할 수 있다.The reflected light effect can be calculated through the following [Equation 1].
[수학식 1][Equation 1]
Co : 화소의 색상Co: color of pixel
Cp : 경면광 색상 (Specular light color)Cp : Specular light color
Ks : 경면 반사계수 (Specula reflection coefficient)Ks: Specular reflection coefficient
Os : 대상체의 색상 (Object Color) Os : Object Color
R : 반사광 벡터 (Reflection light vector) R : Reflection light vector
S : 시선 벡터 (View vector) S : View vector
n : 경면광 지수 (Specular Reflection Exponent)n: Specular Reflection Exponent
경면광 색상(Cp)은 반사광 효과를 주기 위한 빛의 색상을 의미할 수 있다. 경면 반사계수(Ks)는 반사광이 반사되는 정도를 의미할 수 있다. 반사광 벡터(R)는 반사광의 방향과 세기를 동시에 나타낼 수 있다. 시선 벡터(S)는 시선의 방향에 대한 단위 벡터를 의미할 수 있다. The specular light color Cp may mean a color of light for giving a reflected light effect. The specular reflection coefficient Ks may mean a degree to which reflected light is reflected. The reflected light vector R may simultaneously indicate the direction and intensity of the reflected light. The gaze vector S may mean a unit vector with respect to the direction of the gaze.
[수학식 1]에서 반사광 벡터(R)의 방향과 시선 벡터(S)의 방향을 일치 시킨다면, [수학식 2]와 같이 표현 될 수 있다. If the direction of the reflected light vector (R) and the direction of the gaze vector (S) are matched in [Equation 1], it can be expressed as in [Equation 2].
즉, 반사광 효과는 다음과 같은 [수학식 2]을 통해서도 산출할 수 있다. 광원의 위치와 방향을 변경하지 않는다고 가정한다면, 광원의 위치와 방향을 카메라 위치 및 방향과 동일하다고 간주 할 수 있다. That is, the reflected light effect can also be calculated through the following [Equation 2]. Assuming that the position and direction of the light source do not change, the position and direction of the light source can be regarded as the same as the camera position and direction.
[수학식 2][Equation 2]
Co : 화소의 색상 Co: color of pixel
Cp : 경면광 색상 (Specular light color)Cp : Specular light color
Ks : 경면 반사계수 (Specula reflection coefficient)Ks: Specular reflection coefficient
Os : 대상체의 색상 (Object Color) Os : Object Color
Rz : 물체의 표면에서 빛이 반사하게 되는 반사벡터의 z축(View Plane원점) 값Rz: The z-axis (View Plane origin) value of the reflection vector where light is reflected from the surface of the object.
N : 경면광 지수N: specular light index
또한, [수학식1] 및 [수학식 2]의 Cp (Specular light color), Ks (Specula reflection coefficient), Os (Object Color)는 도 3 내지 도 8을 통하여 설명한 초음파 데이터의 공간 주파수, 영상 강도, 영상 히스토그램, 동시발생 행렬, 국부 이진 패턴, 균일성과 같은 특성정보에 의하여 변경될 수 있다.In addition, Cp (Specular light color), Ks (Specula reflection coefficient), and Os (Object Color) of [Equation 1] and [Equation 2] are spatial frequency and image intensity of the ultrasound data described with reference to FIGS. 3 to 8 . , image histogram, co-occurrence matrix, local binary pattern, and can be changed by characteristic information such as uniformity.
또한, [수학식1] 및 [수학식 2]의 Cp (Specular light color), Ks (Specula reflection coefficient), Os (Object Color)는 초음파 데이터(B,C,D,E)의 평균, 분산, 표준분포, 비대칭도(skewness), 첨도(kurtosis)와 같은 특성정보에 의하여 변경될 수 있다. In addition, Cp (Specular light color), Ks (Specula reflection coefficient), Os (Object Color) of [Equation 1] and [Equation 2] are the average, variance, It can be changed according to characteristic information such as standard distribution, skewness, and kurtosis.
또한, [수학식1] 및 [수학식 2]의 Cp (Specular light color), Ks (Specula reflection coefficient), Os (Object Color)는 대상체의 복셀(voxel)간의 거리에 대한 통계적인 값일 수 있다. In addition, Cp (Specular light color), Ks (Specula reflection coefficient), and Os (Object Color) of [Equation 1] and [Equation 2] may be statistical values for a distance between voxels of an object.
도 19은 본 발명의 일 실시예에 따른 대상체의 윈도우 영역에 대한 특성정보가 경면광 지수에 따라서 각각 다르게 반영된 영상을 나타낸 도면이다.19 is a diagram illustrating an image in which characteristic information on a window region of an object is reflected differently according to a specular light index according to an embodiment of the present invention.
도 19을 참조하면, 도 19(a)는 [수학식 2]에서 경면광 지수가 10인 경우에 대한 대상체의 초음파 영상이고, 도 19(b)는 [수학식 2]에서 경면광 지수가 40인 경우에 대한 대상체의 초음파 영상이다. 도 19(a)의 초음파 영상은 도 19(b)의 초음파 영상와 대비하여, 경면광 지수가 작으므로, 초음파 영상에 하이라이트 부분이 넓게 분포되어 있다. Referring to FIG. 19, FIG. 19(a) is an ultrasound image of an object for a case in which the specular light index is 10 in [Equation 2], and FIG. 19(b) is a specular light index of 40 in [Equation 2] This is an ultrasound image of the object for the case of . Compared to the ultrasound image of FIG. 19(b) , the ultrasound image of FIG. 19( a ) has a small specular light index, and thus a highlight portion is widely distributed in the ultrasound image.
도 20은 본 발명의 일 실시예에 따른 대상체의 윈도우 영역에 대한 특성정보가 경면광 지수에 따라서 각각 다르게 반영된 영상을 나타낸 도면이다.20 is a diagram illustrating an image in which characteristic information on a window region of an object is reflected differently according to a specular light index according to an embodiment of the present invention.
도 20을 참조하면, 도 20(a)는 [수학식 2]에서 경면 반사 계수가 0.19인 경우에 대한 대상체의 초음파 영상이고, 도 20(b)는 [수학식 2]에서 경면 반사 계수가 0.5인 경우에 대한 대상체의 초음파 영상이다. 도 20(a)의 초음파 영상은 도 20(b)의 초음파 영상와 대비하여, 경면 반사 계수가 작으므로, 초음파 영상에 하이라이트 부분이 상대적으로 약하다.Referring to FIG. 20, FIG. 20(a) is an ultrasound image of an object when the specular reflection coefficient is 0.19 in [Equation 2], and FIG. 20(b) is a specular reflection coefficient of 0.5 in [Equation 2] This is an ultrasound image of the object for the case of . Compared to the ultrasound image of FIG. 20(b) , the ultrasound image of FIG. 20( a ) has a small specular reflection coefficient, and thus a highlight portion in the ultrasound image is relatively weak.
도 21은 경면광 지수 및 경면 반사 계수에 따른 영상의 변화를 나타내기 위한 도면 이다. FIG. 21 is a diagram illustrating changes in an image according to a specular light index and a specular reflection coefficient.
도 21을 참조하면, 경면 반사 계수가 증가할수록 반사되는 광의 크기가 증가하는 것을 볼 수 있고, 경면광 지수가 증가할수록 반사되는 부분의 크기가 좁게 분포되는 것을 볼 수 있다. Referring to FIG. 21 , it can be seen that the size of the reflected light increases as the specular reflection coefficient increases, and the size of the reflected portion is narrowly distributed as the specular light index increases.
도 22은 본 발명의 일 실시예에 따른 광원이 2개인 경우의 반사광 효과를 나타내는 초음파 영상을 나타낸 도면이다.22 is a diagram illustrating an ultrasound image showing a reflected light effect when there are two light sources according to an embodiment of the present invention.
도 22을 참조하면, 도 22(a)는 하나의 백색 광원만을 가정한 경우의 초음파 영상이다. 도 22(b)는 백색 광원와 붉은색 광원을 함께 가정한 경우의 초음파 영상이다. 도 22(b)의 초음파 영상은 도 22(a)의 초음파 영상과 대비하여, 하이라이트가 붉은 색인 것을 확인할 수 있다. Referring to FIG. 22 , FIG. 22( a ) is an ultrasound image when only one white light source is assumed. 22B is an ultrasound image when a white light source and a red light source are assumed together. In contrast to the ultrasound image of FIG. 22( a ), in the ultrasound image of FIG. 22( b ), it can be seen that the highlight is red.
광원이 2개인 경우에 화소의 색상은 [수학식 3]과 같이 산출할 수 있다. When there are two light sources, the color of a pixel can be calculated as in [Equation 3].
[수학식 3][Equation 3]
일반적으로, 대상체의 색상이 같으므로, [수학식 4]와 같이 산출할 수 있다.In general, since the color of the object is the same, it can be calculated as in [Equation 4].
[수학식 4][Equation 4]
Co : 화소의 색상 Co: color of pixel
Cp1 ~ Cpj : 각각의 광원의 경면광 색상 Cp1 ~ Cpj : Specular light color of each light source
Ks1 ~ Ksj : 각각의 광원에 대한 경면 반사계수 Ks1 ~ Ksj : specular reflection coefficient for each light source
Os1 ~ Osj : 대상체의 색상 (Object Color) Os1 ~ Osj : Object Color
Rz1 ~ Rzj : 각각의 광원에 대한 물체의 표면에서 빛이 반사하게 되는 반사벡터의 z축 값Rz1 ~ Rzj : The z-axis value of the reflection vector that light is reflected from the surface of the object for each light source
n1 ~ nj : 각각의 광원에 대한 경면광 지수n1 ~ nj : specular light index for each light source
또한, [수학식 3]은 다양한 실시예에 따라서 응용될 수 있다. 예를 들어, [수학식 3]에서 대상체의 색상 및 광원에 대한 반사 계수가 동일한 경우, Ks1~Ksj는 동일한 값을 가질 수 있을 것이다. In addition, [Equation 3] may be applied according to various embodiments. For example, in [Equation 3], when the color of the object and the reflection coefficient for the light source are the same, Ks1 to Ksj may have the same value.
도 23는 본 발명의 일 실시예에 따른 3차원 반사광 효과 렌더링 방법을 설명하기 위한 순서도이다. 23 is a flowchart illustrating a 3D specular light effect rendering method according to an embodiment of the present invention.
도 13의 영상 생성부(1370)는 도 23의 방법으로 영상을 생성할 수 있다. 도 23를 참조하면, 영상 생성부(1370)는 화면의 한 점(P)에서 투사한 시선 벡터의 경로에 있는 복셀들 중 화면에 표시할 대표 복셀(V)을 얻을 수 있다(S2100). 영상 생성부(1370)는 복셀(V)에 대한 표면 법선 벡터를 계산할 수 있고, 법선 벡터를 통하여 반사광 벡터를 계산할 수 있다(S2200). The
영상 생성부(1370)는 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os)을 사용자로부터 입력 받거나, 장치 내부적으로 계산할 수 있다(S2300). 예를 들어, 영상 생성부(1370)는 도 3 내지 도 8을 통하여 설명한 초음파 데이터의 공간 주파수, 영상 강도, 영상 히스토그램, 동시발생 행렬, 국부 이진 패턴, 균일성과 같은 특성정보에 의하여 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os)을 계산할 수 있다. The
영상 생성부(1370)는 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os) 및 반사광 벡터를 이용하여 [수학식 1]을 통하여 화면 상의 한 점(P)에서의 화소의 색상(Co)를 산출할 수 있다. The
도 14의 영상 렌더링부(1371), 도 15의 영상 렌더링부(1371)는 도 23의 방법으로 영상을 생성할 수 있다.The
도 24은 법선 벡터를 통하여 반사광 벡터를 계산하는 방법을 도시하기 위한 도면이다. 24 is a diagram illustrating a method of calculating a reflected light vector through a normal vector.
도 24을 참조하면, 영상 생성부(1370)는 반사광 벡터(Vreflect)를 [수학식 5]에 의하여 산출할 수 있다. Referring to FIG. 24 , the
[수학식 5][Equation 5]
영상 생성부(1370)는 [수학식 5]을 통하여 법선 벡터(Vnormal) 및 광원 벡터(Vlight)를 통해서 반사광 벡터(Vreflect)를 산출할 수 있다. The
도 25는 본 발명의 일 실시예에 따른 3차원 반사광 효과 렌더링 방법을 설명하기 위한 순서도이다. 25 is a flowchart illustrating a 3D specular light effect rendering method according to an embodiment of the present invention.
도 13의 영상 생성부(1370)는 도 25의 방법으로 영상을 생성할 수 있다. 도 25를 참조하면, 영상 생성부(1370)는 대상체와 화면에 대한 깊이맵을 추출한다(S3100). 영상 생성부(1370)는 깊이맵에 대하여 표면 법선 벡터 및 반사 벡터를 계산할 수 있다(S3200). 영상 생성부(1370)는 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os)을 외부에서 입력 받거나, 내부적으로 계산할 수 있다(S3300). 영상 생성부(1370)는 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os) 및 반사광 벡터를 이용하여 [수학식 2]을 통하여 화면상의 한 점(P)에서의 화소의 색상(Co)를 산출할 수 있다. The
도 26는 본 발명의 일 실시예에 따른 3차원 반사광 효과 렌더링 방법을 설명하기 위한 순서도이다. 26 is a flowchart illustrating a 3D specular light effect rendering method according to an embodiment of the present invention.
도 13의 영상 생성부(1370)는 도 26의 방법으로 영상을 생성할 수 있다. 도 26를 참조하면, 영상 생성부(1370)는 대상체와 화면에 대한 깊이맵을 추출한다(S4100). 영상 생성부(1370)는 깊이맵에 대하여 표면 법선 벡터 및 반사 벡터를 계산할 수 있다(S4200). 영상 생성부(1370)는 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os)을 외부에서 입력 받거나, 내부적으로 계산할 수 있다(S4300). 영상 생성부(1370)는 경면광 색상(Cp), 경면 반사계수(Ks), 대상체의 색상(Os) 및 반사광 벡터를 이용하여 [수학식 3] 또는 [수학식 4]를 통하여 화면상의 한 점(P)에서의 화소의 색상(Co)를 산출할 수 있다. The
한편, 도 24 내지 도 26에 의한 반사광 효과 렌더링 방법은 도 10의 단계(S500)의 일부분 일 수 있다. 도 24 내지 도 26에 의한 반사광 효과 렌더링 방법은 도 13의 영상 생성부(1370), 도 14의 영상 렌더링부(1371), 도 15의 영상 렌더링부(1371)에 의하여 구현될 수 있다.Meanwhile, the reflection light effect rendering method illustrated in FIGS. 24 to 26 may be a part of step S500 of FIG. 10 . The specular effect rendering method of FIGS. 24 to 26 may be implemented by the
또한, 도 24 내지 도 26에 의한 반사광 렌더링 방법은 그레이 스케일 렌더링(Grey Scale Rendering), 디퓨즈드 라이트 렌더링(Diffused Light Rendering)과 함께 구현될 수 있다. 또한, 도 24 내지 도 26에 의한 반사광 렌더링 방법은 그레이 스케일 렌더링(Grey Scale Rendering), 디퓨즈드 라이트 렌더링(Diffused Light Rendering) 독립적으로 구현되고, 각각의 렌더링 이미지를 합쳐서 완성된 이미지를 구현할 수 있다. Also, the reflected light rendering method illustrated in FIGS. 24 to 26 may be implemented together with gray scale rendering and diffused light rendering. In addition, the specular light rendering method shown in FIGS. 24 to 26 is implemented independently of gray scale rendering and diffused light rendering, and may implement a completed image by combining the respective rendering images.
도 27 내지 도 29는 대상체의 표면정보를 산출하는 방법을 설명하기 위한 도면이다. 27 to 29 are diagrams for explaining a method of calculating surface information of an object.
도 27을 참조하면, 대상체의 표면을 기하학적 모델로 표현하면 A 내지 H 의 파동선과 같이 다양한 방법으로 표현할 수 있다. A 내지 H 의 파동선 각각은 기준선을 가지고 있다. 기준선은 파동선으로 표현되는 파동(Wave)의 기준이 되는 선이다. 기준선은 파동선을 이용하여 스무딩 기법(Smoothing), 라인 피팅 기법(Line Fitting)을 통해서 산출될 수 있다. Referring to FIG. 27 , when the surface of an object is expressed as a geometric model, it can be expressed in various ways, such as wave lines A to H. Each of the wavelines A to H has a baseline. The reference line is a line that serves as a reference for a wave expressed as a wave line. The reference line may be calculated through a smoothing technique and a line fitting technique using a wave line.
파동선과 기준선의 교차하는 빈도가 높을 수록 표면이 거칠다고 할 수 있다. 파동선과 기준선의 교차하는 빈도가 낮을수록 표면이 매끄럽다고 할 수 있다. 따라서, A 내지 H 의 파동선에서 A 파동선에 가까운 파동선 일수록 대상체의 매끄러운 표면을 표현할 수 있고, H 파동선에 가까운 파동선 일수록 대상체의 거친 표면을 표현할 수 있다. The higher the frequency of intersection of the wave line and the reference line, the rougher the surface. The lower the frequency of intersection of the wave line and the reference line, the smoother the surface. Accordingly, from the wavelines A to H, the closer the waveline to the A waveline is, the smoother the surface of the object can be, and the closer the waveline to the H waveline is, the more the rough surface of the object can be expressed.
도 28을 참조하면, 도 27의 파동선과 기준선의 개념을 통하여 2차원 영상(또는 3차원 초음파 볼륨 데이터의 단면)에서 대상체의 표면정보를 산출할 수 있다. 한편, 2차원 영상에서 대상체의 표면정보를 산출함에 있어서, 도 27의 파동선과 기준선이 사용되는 것이 아니고, 다양한 형태의 파동선과 기준선이 사용될 수 있다. 예를 들어, 기준선이 도 28에서 도시한 바와 같이, 굴곡이 있을 수 있다. Referring to FIG. 28 , surface information of an object may be calculated from a 2D image (or a cross section of 3D ultrasound volume data) through the concept of the wave line and the reference line of FIG. 27 . Meanwhile, in calculating the surface information of the object in the two-dimensional image, the wave line and reference line of FIG. 27 are not used, but various types of wave line and reference line may be used. For example, the baseline may be curved, as shown in FIG. 28 .
도 29를 참조하면, 도 27의 파동선과 기준선을 3차원 초음파 볼륨으로 확장하여 파동면과 기준면을 정의할 수 있을 것이다. 도 28의 2차원 영상을 3차원으로 확장하는 경우, 도 29의 3차원 영상을 획득할 수 있다. 본 발명의 일 실시예에 따른, 대상체의 표면 정보를 산출하는 방법은 2차원 영상의 파동선과 기준선을 통해서 3차원 영상의 파동면과 기준면을 산출할 수 있다. Referring to FIG. 29 , the wave plane and the reference plane may be defined by extending the wave line and the reference line of FIG. 27 to a 3D ultrasound volume. When the 2D image of FIG. 28 is expanded to 3D, the 3D image of FIG. 29 may be acquired. The method of calculating the surface information of the object according to an embodiment of the present invention may calculate the wave plane and the reference plane of the 3D image through the wave line and the reference line of the 2D image.
본 발명의 일 실시예에 따른 장치와 관련하여서는 전술한 방법과 관련된 내용들이 적용될 수 있다. 따라서, 장치와 관련하여, 전술한 방법에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.Regarding the apparatus according to an embodiment of the present invention, contents related to the above-described method may be applied. Accordingly, in relation to the apparatus, descriptions of the same contents as those of the above-described method are omitted.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 이러한 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates such a program using a computer-readable recording medium.
컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.The computer-readable recording medium includes a magnetic storage medium (eg, ROM, floppy disk, hard disk, etc.), an optically readable medium (eg, CD-ROM, DVD, etc.) and a carrier wave (eg, through the Internet). storage media such as transmission).
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at with respect to preferred embodiments thereof. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.
Claims (28)
상기 대상체에 대한 초음파 데이터를 획득하는 단계; 및
상기 획득된 초음파 데이터를 통하여 상기 대상체의 3차원 영상을 생성하는 단계를 포함하고,
상기 획득된 초음파 데이터는, 제1 특성정보 및 제2 특성정보를 포함하는 특성정보를 가지고,
상기 대상체의 3차원 영상을 생성하는 단계는,
3차원 볼륨 렌더링을 이용하여, 상기 제1 특성정보를 가지는 상기 획득된 초음파 데이터의 적어도 일부에 대한 제1 영상을 생성하는 단계;
상기 획득된 초음파 데이터의 적어도 일부에 대한 영상으로서, 상기 제1 특성정보와는 상이한 상기 제2 특성정보에 따른 반사광 효과를 가지는 제2 영상을 생성하는 단계; 및
상기 제1 영상과 상기 제2 영상을 합성하는 단계; 를 포함하는 것을 특징으로 하는 방법. A method for generating a three-dimensional image of an object, the method comprising:
acquiring ultrasound data for the object; and
generating a three-dimensional image of the object through the acquired ultrasound data;
The acquired ultrasound data has characteristic information including first characteristic information and second characteristic information,
The step of generating a three-dimensional image of the object comprises:
generating a first image of at least a portion of the acquired ultrasound data having the first characteristic information by using 3D volume rendering;
generating, as an image of at least a portion of the acquired ultrasound data, a second image having a reflected light effect according to the second characteristic information different from the first characteristic information; and
synthesizing the first image and the second image; A method comprising a.
상기 대상체에 대한 초음파 데이터를 획득하는 초음파 데이터 획득부; 및
상기 획득된 초음파 데이터를 통하여 상기 대상체의 3차원 영상을 생성하는 영상 생성부를 포함하고,
상기 획득된 초음파 데이터는, 제1 특성정보 및 제2 특성정보를 포함하는 특성정보를 가지고,
상기 영상 생성부는, 3차원 볼륨 렌더링을 이용하여, 상기 제1 특성정보를 가지는 상기 획득된 초음파 데이터의 적어도 일부에 대한 제1 영상을 생성할 수 있고, 상기 획득된 초음파 데이터의 적어도 일부에 대한 영상으로서 상기 제1 특성정보와는 상이한 상기 제2 특성정보에 따른 반사광 효과를 가지는 제2 영상을 생성할 수 있고, 상기 제1 영상과 상기 제2 영상을 합성할 수 있는 것을 특징으로 하는 영상 생성 장치.An apparatus for generating a three-dimensional image of an object, comprising:
an ultrasound data acquisition unit configured to acquire ultrasound data for the object; and
and an image generator for generating a three-dimensional image of the object through the acquired ultrasound data,
The acquired ultrasound data has characteristic information including first characteristic information and second characteristic information,
The image generator may generate a first image of at least a portion of the obtained ultrasound data having the first characteristic information by using 3D volume rendering, and an image of at least a portion of the obtained ultrasound data as a second image having a reflected light effect according to the second characteristic information different from the first characteristic information, and synthesizing the first image and the second image. .
시선 벡터의 경로에 있는 복셀들 중 화면에 표시할 대표 복셀을 산출하는 단계;
표면 법선 벡터를 계산하는 단계;
상기 표면 법선 벡터를 통하여 반사광 벡터를 계산하는 단계;
상기 대상체의 색상, 광원에 대한 반사 계수, 경면광 지수를 생성하는 단계;
상기 반사광 벡터, 상기 대상체의 색상, 상기 광원에 대한 반사 계수, 상기 경면광 지수 중 적어도 하나를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 단계를 포함하는 것을 특징으로 하는 방법. The method of claim 1, wherein the generating of the second image comprises:
calculating a representative voxel to be displayed on a screen among voxels in a path of a gaze vector;
calculating a surface normal vector;
calculating a reflected light vector through the surface normal vector;
generating a color of the object, a reflection coefficient for a light source, and a specular light index;
and calculating a color for one point included in the image through at least one of the reflected light vector, the color of the object, the reflection coefficient for the light source, and the specular light index.
대상체와 화면에 대한 깊이맵을 추출하는 단계;
깊이맵에 대하여 표면 법선 벡터를 계산하는 단계;
상기 표면 법선 벡터를 통하여 반사광 벡터를 계산하는 단계;
상기 대상체의 색상, 광원에 대한 반사 계수, 경면광 지수를 생성하는 단계;
상기 반사광 벡터, 상기 대상체의 색상, 상기 광원에 대한 반사 계수, 상기 경면광 지수 중 적어도 하나를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 단계를 포함하는 것을 특징으로 하는 방법. The method of claim 1, wherein the generating of the second image comprises:
extracting a depth map for an object and a screen;
calculating a surface normal vector for the depth map;
calculating a reflected light vector through the surface normal vector;
generating a color of the object, a reflection coefficient for a light source, and a specular light index;
and calculating a color for one point included in the image through at least one of the reflected light vector, the color of the object, the reflection coefficient for the light source, and the specular light index.
상기 대상체의 색상, 광원에 대한 반사 계수, 경면광 지수를 장치의 외부에서 입력을 받거나 또는 내부적으로 계산하고, 상기 대상체의 색상, 상기 광원에 대한 반사 계수, 상기 경면광 지수 중 적어도 하나를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 것을 특징으로 하는 장치.The method of claim 8, wherein the image generator,
The color of the object, the reflection coefficient for the light source, and the specular light index are received from the outside of the device or calculated internally, and the color of the object, the reflection coefficient for the light source, and the specular light index are used through at least one of the An apparatus for calculating a color for a single point included in an image.
상기 대상체와 화면에 대한 깊이맵을 추출하여, 반사광 벡터를 계산하고, 상기 반사광 벡터를 통하여 상기 영상에 포함된 하나의 점에 대한 색상을 계산하는 단계를 포함하는 것을 특징으로 하는 장치. The method of claim 8, wherein the image generator,
and extracting a depth map for the object and the screen, calculating a reflected light vector, and calculating a color for one point included in the image through the reflected light vector.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20140182742 EP2863363A1 (en) | 2013-09-30 | 2014-08-29 | Method and apparatus for generating three-dimensional image of target object |
US14/500,388 US9759814B2 (en) | 2013-09-30 | 2014-09-29 | Method and apparatus for generating three-dimensional (3D) image of target object |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130116899 | 2013-09-30 | ||
KR1020130116899 | 2013-09-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150037497A KR20150037497A (en) | 2015-04-08 |
KR102377530B1 true KR102377530B1 (en) | 2022-03-23 |
Family
ID=53033446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140085306A KR102377530B1 (en) | 2013-09-30 | 2014-07-08 | The method and apparatus for generating three-dimensional(3d) image of the object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102377530B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200056709A (en) * | 2018-11-15 | 2020-05-25 | 주식회사 인트로메딕 | Method for rendering 3d image, image processing apparatus using said method, camera apparatus interlocking with said image processing apparatus, photographing method of said camera, and 3d image rendering system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130150719A1 (en) * | 2011-12-08 | 2013-06-13 | General Electric Company | Ultrasound imaging system and method |
US20140184600A1 (en) | 2012-12-28 | 2014-07-03 | General Electric Company | Stereoscopic volume rendering imaging system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5491830B2 (en) * | 2009-01-20 | 2014-05-14 | 株式会社東芝 | Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, image processing method, and image display method |
KR101068917B1 (en) * | 2009-05-18 | 2011-09-30 | 삼성메디슨 주식회사 | Ultrasound diagnostic system and method for displaying organ |
EP2511878B1 (en) * | 2011-04-12 | 2020-05-06 | Samsung Medison Co., Ltd. | Providing three-dimensional ultrasound image based on three-dimensional color reference table in ultrasound system |
-
2014
- 2014-07-08 KR KR1020140085306A patent/KR102377530B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130150719A1 (en) * | 2011-12-08 | 2013-06-13 | General Electric Company | Ultrasound imaging system and method |
US20140184600A1 (en) | 2012-12-28 | 2014-07-03 | General Electric Company | Stereoscopic volume rendering imaging system |
Non-Patent Citations (1)
Title |
---|
BINDER T ET AL, "Three-dimensional imaging of the heart using transesophageal echocardiography", PROCEEDINGS OF THE COMPUTERS IN CARDIOLOGY CONFERENCE. LONDON, SEPT. 5 - 8, 1993 |
Also Published As
Publication number | Publication date |
---|---|
KR20150037497A (en) | 2015-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lou et al. | Generation of anatomically realistic numerical phantoms for photoacoustic and ultrasonic breast imaging | |
US20110125016A1 (en) | Fetal rendering in medical diagnostic ultrasound | |
JP5295562B2 (en) | Flexible 3D rotational angiography-computed tomography fusion method | |
JP2012155723A (en) | Method and apparatus for automatically generating optimal two-dimensional medical image from three-dimensional medical image | |
US9504450B2 (en) | Apparatus and method for combining three dimensional ultrasound images | |
KR20130023735A (en) | Method and apparatus for generating organ medel image | |
US10478151B2 (en) | System and method for automated monitoring of fetal head descent during labor | |
US9759814B2 (en) | Method and apparatus for generating three-dimensional (3D) image of target object | |
Glaßer et al. | Combined visualization of wall thickness and wall shear stress for the evaluation of aneurysms | |
WO2022219631A1 (en) | Systems and methods for reconstruction of 3d images from ultrasound and camera images | |
CN111836584A (en) | Ultrasound contrast imaging method, ultrasound imaging apparatus, and storage medium | |
JP6564075B2 (en) | Selection of transfer function for displaying medical images | |
JP2009195283A (en) | Ultrasonic image processor | |
KR20120102447A (en) | Method and apparatus for diagnostic | |
Birkeland et al. | The ultrasound visualization pipeline | |
JP4681358B2 (en) | Ultrasonic diagnostic apparatus and volume data processing method | |
JP2011041804A (en) | Ultrasonic system and method for measuring number of embryonic rib | |
KR102377530B1 (en) | The method and apparatus for generating three-dimensional(3d) image of the object | |
Klein et al. | Visual computing for medical diagnosis and treatment | |
Cong et al. | Fast and automatic ultrasound simulation from ct images | |
US20240119705A1 (en) | Systems, methods, and apparatuses for identifying inhomogeneous liver fat | |
US20240193764A1 (en) | Systems and methods for reconstruction of 3d images from ultrasound and camera images | |
Cerrolaza et al. | Modeling human tissues: an efficient integrated methodology | |
TWM547954U (en) | Diagnosis system for detecting pathological change | |
Dusim | Three-Dimensional (3D) Reconstruction of Ultrasound Foetal Images Using Visualisation Toolkit (VTK) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right |