KR101851221B1 - 초음파 영상 장치 및 그 제어 방법 - Google Patents

초음파 영상 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR101851221B1
KR101851221B1 KR1020130078794A KR20130078794A KR101851221B1 KR 101851221 B1 KR101851221 B1 KR 101851221B1 KR 1020130078794 A KR1020130078794 A KR 1020130078794A KR 20130078794 A KR20130078794 A KR 20130078794A KR 101851221 B1 KR101851221 B1 KR 101851221B1
Authority
KR
South Korea
Prior art keywords
sample
texel
volume data
unit
texture image
Prior art date
Application number
KR1020130078794A
Other languages
English (en)
Other versions
KR20150005799A (ko
Inventor
고영인
이희세
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130078794A priority Critical patent/KR101851221B1/ko
Priority to PCT/KR2014/006007 priority patent/WO2015002498A1/en
Priority to US14/902,905 priority patent/US10535184B2/en
Priority to CN201480038568.0A priority patent/CN105359191B/zh
Priority to EP14819625.6A priority patent/EP3017428B1/en
Publication of KR20150005799A publication Critical patent/KR20150005799A/ko
Application granted granted Critical
Publication of KR101851221B1 publication Critical patent/KR101851221B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4405Device being mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Architecture (AREA)
  • Image Generation (AREA)

Abstract

초음파 신호를 영상화하는 초음파 영상 장치 및 그 제어 방법에 관한 것이다.
초음파 영상 장치는 대상체로부터 초음파를 수집하는 초음파 수집부; 상기 초음파에 기초하여 볼륨 데이터를 생성하는 볼륨 데이터 생성부; 및 텍스쳐 이미지를 참조하여 상기 볼륨 데이터에 대해 볼륨 렌더링을 수행하는 영상 처리부; 를 포함하되, 상기 텍스쳐 이미지의 각 텍셀은 대상체의 반투명 성질 및 다층 조직이 반영된 초음파 영상 장치.

Description

초음파 영상 장치 및 그 제어 방법 {ultrasonic imaging apparatus and method for controlling a ultrasonic imaging apparatus using the same}
초음파 신호를 영상화하는 초음파 영상 장치 및 그 제어 방법에 관한 것이다.
초음파 진단 장치는 대상체의 체표로부터 체내의 특정 부위를 향하여 초음파 신호를 조사하고, 반사된 초음파 신호(초음파 에코신호)의 정보를 이용하여 연부조직의 단층이나 혈류에 관한 이미지를 비침습적으로 얻는 장치이다.
초음파 진단 장치는 X선 진단장치, CT스캐너(Computerized Tomography Scanner), 자기공명영상장치(Magnetic Resonance Image; MRI), 핵의학 진단장치 등의 다른 영상진단장치와 비교할 때, 소형이고 저렴하며, 실시간으로 표시 가능하고, X선 등의 피폭이 없어 안전성이 높은 장점이 있다. 이러한 장점들로 인하여 초음파 진단 장치는 심장, 유방, 복부, 비뇨기 및 산부인과 진단을 위해 널리 이용되고 있다.
초음파 진단 장치는 초음파 진단 장치의 주요 구성요소를 수납하는 본체와, 초음파를 송수신하는 초음파 수집부와, 초음파 진단장치의 조작에 필요한 명령을 입력하기 위한 각종 스위치 및 키 등을 구비한 컨트롤 패널(control panel)과, 초음파 진단 결과를 영상으로 표시하는 디스플레이부를 포함한다.
이러한 초음파 진단 장치를 사용하여 대상체에 초음파 진단을 수행하는 과정을 살펴보면 다음과 같다. 우선, 검사자는 한 손에 초음파 수집부를 쥐고 대상체의 체표에 초음파 수집부를 접촉시켜 이동시키면서, 다른 한 손으로는 컨트롤패널을 조작하여 초음파 진단을 수행한다. 이러한 초음파 진단에 의해 얻어진 초음파 영상은 디스플레이부를 통해 실시간으로 표시되어, 검사자는 대상체에 대한 상태를 진단할 수 있다.
그런데 초음파 진단에 의해 얻어진 초음파 영상은 그 물리적 특성상 흑백 영상이기 때문에 사실적인 표현에 한계가 있다. 이러한 한계를 극복하기 위하여 종래에는 임의로 선택된 컬러에 기초하여 3차원 컬러 초음파 영상을 생성하는 방법을 사용했다. 그러나 대상체의 실제 컬러에 기초한 것이 아니기 때문에 여전히 현실감이 떨어진다는 문제가 있다. 특히 심장이나 유방 등에 비하여 태아에 대한 3차원 초음파 영상을 생성할 때에는 실감도가 많이 떨어진다는 문제가 있다.
볼륨 데이터뿐만 아니라, 대상체의 반투명 성질 또는 다층 조직을 반영한 텍스쳐 이미지를 참조하여 렌더링을 수행함으로써 실감도 높은 3D 영상을 생성해 내는 초음파 영상 장치 및 그 제어 방법을 제공한다.
그러나 해결하고자 하는 과제들은 이상에서 언급된 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
초음파 영상 장치의 일 실시예는 대상체로부터 초음파를 수집하는 초음파 수집부; 상기 초음파에 기초하여 볼륨 데이터를 생성하는 볼륨 데이터 생성부; 및 텍스쳐 이미지를 참조하여 상기 볼륨 데이터에 대해 볼륨 렌더링을 수행하는 영상 처리부; 를 포함하되, 상기 텍스쳐 이미지의 각 텍셀은 대상체의 반투명 성질 및 다층 조직이 반영될 수 있다.
초음파 영상 장치의 다른 실시예는 대상체로부터 초음파를 수집하는 초음파 수집부; 상기 초음파에 기초하여 볼륨 데이터를 생성하는 볼륨 데이터 생성부; 및 텍스쳐 이미지를 참조하여 상기 볼륨 데이터에 대해 볼륨 렌더링을 수행하는 영상 처리부; 를 포함하되, 상기 텍스쳐 이미지의 각 텍셀은 대상체의 반투명 성질이 반영될 수 있다.
초음파 영상 장치의 또 다른 실시예는 대상체로부터 초음파를 수집하는 초음파 수집부; 상기 초음파에 기초하여 볼륨 데이터를 생성하는 볼륨 데이터 생성부; 및 텍스쳐 이미지를 참조하여 상기 볼륨 데이터에 대해 볼륨 렌더링을 수행하는 영상 처리부; 를 포함하되, 상기 텍스쳐 이미지의 각 텍셀은 대상체의 다층 조직이 반영될 수 있다.
초음파 영상 장치 제어 방법의 일 실시예는 대상체로부터 초음파를 수집하는 초음파 수집 단계; 상기 초음파에 기초하여 볼륨 데이터를 생성하는 볼륨 데이터 생성 단계; 및 텍스쳐 이미지를 참조하여 상기 볼륨 데이터에 대해 볼륨 렌더링을 수행하는 영상 처리 단계; 를 포함하되, 상기 텍스쳐 이미지의 각 텍셀은 대상체의 반투명 성질 및 다층 조직이 반영될 수 있다.
초음파 영상 장치 제어 방법의 다른 실시예는 대상체로부터 초음파를 수집하는 초음파 수집 단계; 상기 초음파에 기초하여 볼륨 데이터를 생성하는 볼륨 데이터 생성 단계; 및 텍스쳐 이미지를 참조하여 상기 볼륨 데이터에 대해 볼륨 렌더링을 수행하는 영상 처리 단계; 를 포함하되, 상기 텍스쳐 이미지의 각 텍셀은 대상체의 반투명 성질이 반영될 수 있다.
초음파 영상 장치 제어 방법의 또 다른 실시예는 대상체로부터 초음파를 수집하는 초음파 수집 단계; 상기 초음파에 기초하여 볼륨 데이터를 생성하는 볼륨 데이터 생성 단계; 및 텍스쳐 이미지를 참조하여 상기 볼륨 데이터에 대해 볼륨 렌더링을 수행하는 영상 처리 단계; 를 포함하되, 상기 텍스쳐 이미지의 각 텍셀은 대상체의 다층 조직이 반영될 수 있다.
초음파 영상 장치 및 그 제어 방법에 의하면 다음과 같은 효과가 있다.
초음파 영상 장치 및 그 제어 방법의 일 실시예에 따르면, 대상체의 반투명 성질과 다층 조직을 반영하여 볼륨 데이터를 렌더링 하므로 대상체의 실체에 근접한 영상을 제어 및 생성할 수 있다.
특히 산부인과 진단에서 개시된 발명이 사용될 경우, 태아의 모습을 더욱 실감나게 표현함으로써, 산모 및 가족들의 정서적 안정감과 심리적 만족감을 향상시킬 수 있다.
도 1은 초음파 영상 장치의 일 실시예를 도시한 사시도이다.
도 2는 초음파 영상 장치의 일 실시예에 따른 제어 구성의 블록도를 도시한 도면이다.
도 3은 영상 처리부의 일 실시예에 따른 제어 구성의 블록도를 도시한 도면이다.
도 4는 대상체를 기준으로 광원이 시점의 반대편에 있을 때 빛의 경로를 표현한 그림이다.
도 5은 대상체의 반투명 성질 및 다층 조직에 대한 정보를 포함하는 텍스쳐 이미지의 일 실시예이다.
도 6는 샘플링 시 대상체의 위치를 시점을 기준으로 재배열하는 과정의 일 실시예를 도시한 도면이다.
도 7은 각 샘플과 대응하는 텍스쳐 이미지의 픽셀 위치를 구하는 방법의 일 실시예이다.
도 8은 시점을 기준으로 표면으로부터 각 샘플까지의 깊이를 구하는 방법의 일 실시예를 도시한 도면이다.
도 9는 시점을 기준으로 대상체의 표면으로부터 각 샘플까지의 깊이를 구하는 방법의 일 실시예를 도시한 흐름도이다.
도 10은 광원을 기준으로 표면으로부터 각 샘플까지의 깊이를 구하는 방법의 일 실시예를 도시한 도면이다.
도 11은 광원을 기준으로 표면으로부터 각 샘플까지의 깊이를 구하는 방법의 일 실시예를 도시한 흐름도이다.
도 12는 볼륨 렌더링 방법의 일 실시예에 따른 렌더링 알고리즘을 도시한 흐름도이다.
도 1은 초음파 영상 장치의 일 실시예를 도시한 사시도이다. 도 1에 도시된 바와 같이 초음파 영상 장치는 본체(100), 초음파 수집부(110), 입력부(150), 메인 디스플레이부(160) 및 서브 디스플레이부(170)를 포함할 수 있다.
본체(100)의 일측에는 하나 이상의 암 커넥터(female connector; 145)가 구비될 수 있다. 암 커넥터(145)에는 케이블(130)과 연결된 수 커넥터(male connector; 140)가 물리적으로 결합될 수 있다.
한편, 본체(100)의 하부에는 초음파 영상 장치의 이동성을 위한 복수개의 캐스터(미도시)가 구비될 수 있다. 복수개의 캐스터는 초음파 영상 장치를 특정 장소에 고정시키거나, 특정 방향으로 이동시킬 수 있다.
초음파 수집부(110)는 대상체의 체표에 접촉하는 부분으로, 초음파를 송수신할 수 있다. 구체적으로, 초음파 수집부(110)는 본체(100)로부터 제공받은 송신 신호 즉, 초음파 신호를 대상체의 체내로 조사하고, 대상체의 체내의 특정 부위로부터 반사된 초음파 에코 신호를 수신하여 본체(100)로 송신하는 역할을 한다. 이러한 초음파 수집부(110)에는 케이블(130)의 일단이 연결되며, 케이블(130)의 타단에는 수 커넥터(140)가 연결될 수 있다. 케이블(130)의 타단에 연결된 수 커넥터(140)는 본체(100)의 암 커넥터(145)와 물리적으로 결합할 수 있다.
입력부(150)는 초음파 영상 생성 장치의 동작과 관련된 명령을 입력받을 수 있는 부분이다. 예를 들면, A-모드(Amplitude mode), B-모드(Brightness mode), M-모드(Motion mode) 등의 모드 선택 명령이나, 초음파 진단 시작 명령을 입력받을 수 있다. 입력부(150)를 통해 입력된 명령은 유선 통신 또는 무선 통신을 통해 본체(100)로 전송될 수 있다.
입력부(150)는 예를 들어, 키보드, 풋 스위치(foot switch) 및 풋 페달(foot pedal) 중 적어도 하나를 포함할 수 있다. 키보드는 하드웨어적으로 구현되어, 본체(100)의 상부에 위치할 수 있다. 이러한 키보드는 스위치, 키, 조이스틱 및 트랙볼 중 적어도 하나를 포함할 수 있다. 다른 예로 키보드는 그래픽 유저 인터페이스와 같이 소프트웨어적으로 구현될 수도 있다. 이 경우, 키보드는 서브 디스프레이부(170)나 메인 디스플레이부(160)를 통해 디스플레이될 수 있다. 풋 스위치나 풋 페달은 본체(100)의 하부에 마련될 수 있으며, 조작자는 풋 페달을 이용하여 초음파 영상 생성 장치의 동작을 제어할 수 있다.
입력부(150)의 주변에는 초음파 수집부(110)를 거치하기 위한 초음파 수집부 홀더(120)가 구비될 수 있다. 초음파 수집부 홀더(120)는 하나 이상 구비될 수 있다. 검사자는 초음파 영상 생성 장치를 사용하지 않을 때, 초음파 수집부 홀더(120)에 초음파 수집부(110)를 거치하여 보관할 수 있다.
서브 디스플레이부(170)는 본체(100)에 마련될 수 있다. 도 1은 서브 디스플레이부(170)가 입력부(150)의 상부에 마련된 경우를 보여주고 있다. 서브 디스플레이부(170)는 초음파 영상 생성 장치의 동작과 관련된 어플리케이션을 디스플레이할 수 있다. 예를 들면, 서브 디스플레이부(170)는 초음파 진단에 필요한 메뉴나 안내 사항 등을 디스플레이할 수 있다. 이러한 서브 디스플레이부(170)는 예를 들어, 브라운관(Cathod Ray Tube: CRT), 액정표시장치(Liquid Crystal Display: LCD) 등으로 구현될 수 있다.
메인 디스플레이부(160)는 본체(100)에 마련될 수 있다. 도 1은 메인 디스플레이부(160)가 서브 디스플레이부(170)의 상부에 마련된 경우를 보여주고 있다. 메인 디스플레이부(160)는 초음파 진단 과정에서 얻어진 초음파 영상을 디스플레이할 수 있다. 이러한 메인 디스플레이부(160)는 서브 디스플레이부(170)와 마찬가지로 브라운관 또는 액정표시장치로 구현될 수 있다. 도 1은 메인 디스플레이부(160)가 본체(100)에 결합되어 있는 경우를 도시하고 있지만, 메인 디스플레이부(160)는 본체(100)와 분리 가능하도록 구현될 수도 있다.
도 1은 초음파 영상 장치에 메인 디스플레이부(160)와 서브 디스플레이부(170)가 모두 구비된 경우를 보여주고 있으나, 경우에 따라 서브 디스플레이부(170)는 생략될 수도 있다. 이 경우, 서브 디스플레이부(170)를 통해 디스플레이되는 어플리케이션이나 메뉴 등은 메인 디스플레이부(160)를 통해 디스플레이될 수 있다.
도 2는 초음파 영상 장치의 일 실시예에 따른 제어 구성의 블록도를 도시한 도면이다. 초음파 수집부(110)에는, 도시된 바와 같이 전원(112)으로부터 인가된 교류 전류에 따라서 초음파를 생성한 후 대상체로 조사하고, 대상체 내부의 목표 부위로부터 반사되어 돌아오는 에코 초음파를 수신하여 전기적 신호로 변환하는 복수의 초음파 트랜스듀서(114)가 포함된다. 여기서 전원(112)는 외부의 전원 공급 장치나 또는 초음파 영상 장치 내부의 축전 장치 등일 수 있다.
초음파 트랜스듀서(114)로 예를 들어 자성체의 자왜 효과를 이용하는 자왜 초음파 트랜스듀서(Magnetostrictive Ultrasonic Transducer), 압전 물질의 압전 효과를 이용한 압전 초음파 트랜스듀서(Piezoelectric Ultrasonic Transducer), 미세 가공된 수백 또는 수천 개의 박막의 진동을 이용하여 초음파를 송수신하는 정전용량형 미세가공 초음파 트랜스듀서(Capacitive Micromachined Ultrasonic Transducer, 이하 cMUT으로 약칭한다) 등이 이용될 수 있다.
전원(112)으로부터 교류 전류가 초음파 트랜스듀서(114)에 인가되면, 초음파 트랜스듀서(114)의 압전 진동자나 박막 등은 진동하게 되고, 그 결과 초음파가 생성된다. 생성된 초음파는 대상체, 예를 들어 인체 내부로 조사된다. 조사된 초음파는 대상체 내부의 다양한 깊이에 위치한 적어도 하나의 목표 부위에 의해 반사된다. 초음파 트랜스듀서(114)는 이와 같이 목표 부위에서 반사되어 되돌아오는 초음파 에코 신호를 수신하고, 수신된 초음파 에코 신호를 전기적 신호를 변환하여 복수의 수신 신호를 획득한다.
복수의 수신 신호는, 유무선 통신망을 통해서 본체(100)로 전달된다. 초음파 수집부(110)는 초음파 에코 신호를 복수의 채널을 통해 수신하므로 변환된 복수의 수신 신호 역시 복수의 채널을 통하여 본체(100)로 전달된다.
본체(100)는 일 실시예에 의하면 빔포밍부(210), 볼륨 데이터 형성부(220), 영상처리장치(230)를 포함할 수 있다. 물론 실시예에 따라서 상술한 구성 요소 중 일부의 구성요소가 본체(100)에서 제외될 수도 있다.
빔포밍부(210)는 복수의 수신 신호를 기초로 빔 포밍(beam forming)을 수행한다. 빔 포밍은 복수의 채널로 입력되는 복수의 수신 신호를 집속하여 대상체 내부에 대한 적절한 초음파 영상을 획득할 수 있도록 하는 작업이다.
빔포밍부(210)는 먼저 각 트랜스듀서와 대상체 내부의 목표 부위 간의 거리 차이에 기인한 복수의 수신 신호의 시간차를 보정한다. 그리고 빔 포밍부(210)는 특정 채널의 복수의 수신 신호를 강조하거나, 다른 채널의 복수의 수신 신호를 상대적으로 감쇠하여 복수의 수신 신호를 집속하도록 한다. 이 경우 빔포밍부(210)는, 예를 들어, 각 채널을 통해 입력되는 복수의 수신 신호에 가중치를 부가하거나 부가하지 않음으로써 특정 수신 신호의 강조 및 감쇠를 수행할 수 있다.
빔 포밍부(210)는 초음파 수집부(110)의 변환 소자의 위치 및 집속점을 고려하여 복수의 프레임 각각마다 초음파 수집부(110)에서 수집된 복수의 수신 신호를 집속하도록 할 수도 있다.
한편, 빔포밍부(210)에 의해 수행되는 빔 포밍은, 데이터 독립형 빔 포밍(data-independent beamforming) 방식과 적응형 빔 포밍(adaptive beamforming) 방식 모두가 이용될 수 있다.
볼륨 데이터 형성부(220)는, 빔포밍부(210)에 의해 집속된 신호를 기초로 초음파 영상 데이터를 생성한다. 만약 빔포밍부(210)가 복수의 프레임 각각마다 복수의 수신 신호를 집속한 경우에는, 복수의 집속된 신호를 기초로 복수의 프레임 각각에 대응하는 복수의 초음파 영상 데이터를 생성한다. 이 때, 생성되는 초음파 영상 데이터는 대상체에 대한 3차원 초음파 영상 데이터, 즉 대상체에 대한 볼륨 데이터일 수 있다.
영상 처리부(230)는 볼륨 데이터 형성부(230)로부터 대상체에 대한 볼륨 데이터를 전달 받는다. 이렇게 전달받은 볼륨 데이터를 기초로 볼륨 렌더링을 수행하고, 그 결과를 영상으로 출력하기 위해 메인 디스플레이부(160)에 전달한다.
영상 처리부(230)는 기존에 공지된 볼륨 렌더링 방식 중 하나를 사용하여 3차원 볼륨 데이터를 볼륨 렌더링할 수 있다. 구체적으로, 볼륨 렌더링은 표면 렌더링(surface rendering)과 직접 볼륨 렌더링(direct vome rendering)으로 분류될 수 있다.
표면 렌더링은 볼륨 데이터로부터 일정한 스칼라 값과 공간적인 변화량을 기반으로 표면 정보를 추출하여 이를 다각형이나 곡면 패치(patch) 등의 기하학적 요소로 변환하여 기존의 렌더링 기법을 적용하는 방법을 말한다. 표면 렌더링의 예로는 marching cubes 알고리즘, dividing cubes 알고리즘을 들 수 있다.
직접 볼륨 렌더링은 볼륨 데이터를 기하학적 요소로 바꾸는 중간 단계 없이 볼륨 데이터를 직접 렌더링하는 방법을 말한다. 직접 볼륨 렌더링은 물체의 내부 정보를 그대로 가시화할 수 있고, 반투명한 대상체를 표현하는데 유용하다. 직접 볼륨 렌더링은 볼륨 데이터에 접근하는 방식에 따라, 객체 순서 방식(object-order method)과 영상 순서 방식(image-order method)으로 분류될 수 있다.
영상 순서 방식은 영상의 픽셀 값을 차례로 결정해 나가는 방식이다. 영상 순서 방식의 예로는 볼륨 광선 투사법(volume ray casting)을 들 수 있다. 볼륨 광선 투사법은 도 6에 도시된 바와 같이, 시점에서부터 디스플레이 화면의 소정 픽셀을 향하여 가상의 광선을 발사하고, 볼륨 데이터의 복셀들 중에서 상기 광선이 통과하는 복셀들을 검출한다. 그리고 검출된 복셀들의 밝기값들을 가져와 이를 누적하여 해당 픽셀의 밝기값을 결정한다. 또는 검출된 복셀들의 평균값을 픽셀의 밝기값으로 결정하거나, 검출된 복셀들의 가중 평균값을 픽셀의 밝기값으로 결정할 수도 있다.
객체 순서 방식은 볼륨 데이터를 직접 영상에 투영하는 방식이다. 객체 순서 방식의 예로는 스플래팅 방법(splatting)이 있다. 스플래팅 방법은 복셀이 관측평면으로 투영되는 점에 재구성 커널의 중심이 오도록 한 후에 주변 화소들에게 복셀의 값을 분배하도록 하여 픽셀의 밝기값을 결정하게 된다.
볼륨 렌더링이 완료되면, 3차원 초음파 영상이 생성될 수 있다. 이 때, 3차원 초음파 영상의 각 픽셀은 음영 및 색상값을 가질 수 있다. 이하에서는 위에서 설명한 볼륨 렌더링 방법 중 볼륨 광선 투사법에 의함을 전제로 서술한다.
저장부(240)는 초음파 영상 장치가 동작하는데 필요한 알고리즘을 저장할 수 있다. 예를 들어, 볼륨 데이터를 렌더링 하기 위한 알고리즘, 시점을 기준으로 샘플의 위치를 구하는 알고리즘 및 표면으로부터 각 샘플까지의 깊이를 구하는 알고리즘 등을 저장할 수 있다.
이러한 저장부(240)는 롬(Read Only Memory: ROM), 램(Random Access Memory: RAM), 피롬(Programmable Read Only Memory: PROM), 이피롬(Erasable Programmable Read Only Memory: EPROM), 플래시 메모리와 같은 비휘발성 메모리 소자, 또는 램(Random Access Memory: RAM)과 같은 휘발성 메모리 소자, 또는 하드 디스크, 광 디스크와 같은 저장 매체로 구현될 수 있다. 그러나 상술한 예로 한정되는 것은 아니며, 저장부(240)는 당업계에 알려져 있는 임의의 다른 형태로 구현될 수도 있음은 물론이다.
이상 초음파 영상 장치의 본체(100)가 빔포밍부(210) 내지 저장부(240)등을 포함한 실시예에 대해서 설명하였으나, 본체(100)가 상술한 구성요소 모두를 반드시 포함할 필요는 없다. 일부의 구성요소는 다른 부분, 예를 들어 초음파 수집부(110)에 구축되는 것도 가능하다.
예를 들어 초음파 수집부(110)가 프로세스에 의하여 전기적 신호를 기초로 초음파 영상을 생성하고, 생성된 초음파 영상을 보정할 수 있도록 빔포밍부(210) 를 포함하는 것도 가능하다.
이상으로 초음파 영상 장치의 일 실시예에 대한 외관 및 제어구성을 설명하였다. 이하에서는 도 3 내지 도 12를 참조하여 초음파 영상 장치의 일 제어 구성인 영상 처리부의 제어 구성 및 각 구성요소들의 역할에 대해서 보다 상세히 설명하기로 한다.
도 3은 영상 처리부의 일 실시예에 따른 제어 구성을 도시한 블록도이다. 도 3에 도시된 바와 같이 영상 처리부는 텍스쳐 이미지 저장부(232), 샘플링부(234), 연산부(236), 데이터 누적부(238)를 포함할 수 있다.
텍스쳐 이미지 저장부(232)는 볼륨 렌더링 시 참조할 텍스쳐 이미지를 저장할 수 있다. 텍스쳐 이미지 저장부(232) 역시 데이터를 저장하는 역할을 수행하므로 앞서 언급한 저장부(240)의 구현방식을 따른다.
텍스쳐 이미지 저장부(232)에는 하나 이상의 텍스쳐 이미지가 저장될 수 있다. 이 때 저장될 텍스쳐 이미지는 대상체의 반투명 성질 또는 다층 조직을 반영할 수 있다. 이하 대상체의 반투명 성질과 다층 조직에 대하여 살핀다.
빛이 어떤 물체에 닿을 때 흡수되거나 반사되지 않고 그 물체를 통과하는 것을 투과라고 한다. 물체의 성질에 따라 투과하는 정도가 크게 다른데 유리 같은 투명 물질은 광선을 약간은 반사하고, 약간은 흡수하지만 거의 대부분의 광선을 통과시킨다. 빛이 매질을 통과하는 정도로 그 물질의 투명 여부를 판단하는데, 빛을 100% 투과시키는 물질은 투명한 성질을 갖는다고 할 수 있다. 반면에 빛을 전혀 통과시키지 못하는 물질은 불투명 물질이다. 약간의 빛만 통과시키며 표면 구조와 성질에 따라 빛을 분산시켜 물체의 투명도를 떨어뜨리는 물질의 경우 반투명(translucent) 성질을 갖는다고 한다.
조직이 연한 태아와 같은 대상체의 경우는 일정량의 광량이 대상체를 투과하기 때문에 반투명 성질을 갖는다고 할 수 있다. 따라서 광원으로부터 조사된 빛의 일부가 조직 깊숙이 투과되어 반투명 성질에 의한 효과가 강하게 나타난다. 반투명 성질을 갖는 대상체에 대하여, 광원이 대상체의 전면에 있을 경우뿐만 아니라, 광원이 대상체의 후면에 있을 경우에도 빛이 대상체를 투과하여 나타나는 효과를 고려하여야 한다. 이러한 반투명성의 표현은, 빛이 대상체의 표면에서만 반사되는 것이 아니라 대상체의 내부를 일부 투과한다고 가정하고 연산을 함으로써 가능하다.
도 4는 대상체를 기준으로 광원이 시점의 반대편에 있을 때 빛의 경로를 표현한 그림이다. 빛이 대상체에 조사될 때, 반사되는 빛은 광원 반대편의 시점에서 대상체를 관찰하는데 영향을 미치지 않으므로, 경로를 생략한다. 우선, 광원으로부터 빛이 대상체의 내부로 진입하는 점인 df1과 대상체 내부에서 외부로 빛이 탈출하는 점인 do1를 지나는 빛의 빛의 경로를 살핀다. 이러한 빛은 대상체 내부를 S1의 거리만큼 투과한다. 반면에 광원으로부터 빛이 대상체 내부로 진입하는 점인 df2와 대상체 내부에서 외부로 빛이 탈출하는 점인 do2를 지나는 빛은 대상체 내부를 S2의 거리만큼 투과한다. 동일한 광원으로부터 발생한 빛이 동일한 대상체를 투과하는 경우라도 대상체의 두께가 균일하지 않은 이상, 빛이 대상체의 내부를 지나는 거리도 경로에 따라 상이하다.
위의 서로 다른 두 경로를 지나는 빛을 비교할 때, 대상체의 상단을 통과한 빛이 대상체의 하단을 통과한 빛보다 대상체 내부를 투과한 거리가 짧다.(S1 > S2) 대상체가 완전히 투명한 물질이 아닌 이상, 빛이 대상체 내부를 투과하면서 일부는 대상체 내부에 흡수된다. 따라서 대상체 내부를 투과한 거리가 더 길수록 더 많은 빛이 흡수된다. 그러므로, 도 4에서 시점을 기준으로 대상체를 바라볼 때, do1지점이 do2지점보다 더 어둡게 관찰된다. 즉 광원을 기준으로 표면으로부터 깊이가 깊을수록 더욱 어둡게 표현되어야 대상체의 실감도를 높일 수 있다. 이를 반영하여 텍스쳐 이미지 저장부(232)에 저장될 텍스쳐 이미지의 어느 한 축은 광원을 기준으로 표면으로부터의 깊이로 구성될 수 있다.
대상체의 반투명 성질과 함께 반영해야 할 사항으로, 대상체의 다층(multi-layer) 조직이 있다. 매질의 종류에 따라 매질을 투과하는 빛이 받는 영향은 상이하다. 특히 매질을 달리하면 흡수하는 빛의 파장도 달라지므로 투과하는 빛의 깊이에 따라 시점에서 관찰되는 대상체의 색상에 영향을 준다. 따라서 시점을 기준으로 대상체를 바라볼 때, 대상체 내부의 서로 다른 재질 층을 통과한 빛의 효과, 즉 색상이 종합적으로 반영된 결과를 시각적으로 관찰할 수 있다.
예를 들어 대상체를 인체라 가정하면, 렌더링 수행시 인체의 다층 조직이 고려될 수 있다. 인체의 피부는 단일 재질이 아니라 몇 가지 다른 종류의 층(layer)들로 이루어져 있기 때문이다. 인체의 피부를 각질층, 표피층, 진피층, 피하지방층으로 구분하면, 각 층이 갖는 성질이 다르기 때문에 단일층을 갖는 대상체와는 다르게 표현될 수 있다. 따라서 인체의 피부와 같이 대상체가 다층으로 형성되어 있는 경우 실감의 효과를 높이기 위한 렌더링시에는 대상체의 다층 조직 역시 고려의 대상이 될 수 있다. 특히 볼륨 렌더링의 경우 본질적으로 표면뿐만 아니라 표면 안쪽의 내부도 렌더링을 해야 하므로 대상체의 다층 조직을 고려하여 색상값을 정하는 것이 렌더링의 실감을 높이는 방법이 될 수 있다.
대상체의 다층 조직을 고려하기 위하여는 해당 샘플이 대상체의 어떤 층에 위치하는지를 판단해야 한다. 샘플이 속하는 층을 판단하기 위하여 시점을 기준으로 표면으로부터 샘플이 얼마나 깊이 위치하는지를 연산할 수 있다. 이런 과정을 통해 렌더링 시 색상값을 정하여 실감도를 높일수 있다. 이를 반영하여 텍스쳐 이미지 저장부(232)에 저장될 텍스쳐 이미지의 어느 한 축은 시점을 기준으로 표면으로부터의 깊이로 구성될 수 있다.
도 5은 대상체(태아)의 반투명 성질 및 다층 조직에 대한 정보를 포함하는 텍스쳐 이미지의 일 실시예이다. 텍스쳐 이미지 저장부(232)에는 2차원의 텍스쳐 이미지가 저장될 수 있다. 이러한 텍스쳐 이미지는 음영 또는 색상값을 갖는 개개의 텍셀(texel)의 집합으로 구성될 수 있으며, 렌더링이 수행될 때 실감도를 높이기 위하여 텍셀의 음영 또는 색상값이 참조 될 수 있다. 이때 텍셀은 텍스쳐 이미지 데이터를 구성하는 최소단위를 의미한다.
도 5에서처럼 텍스쳐 이미지는 가로축이 각 샘플이 시점을 기준으로 표면에서부터 얼마나 깊이 위치했는지로, 세로축이 각 샘플이 광원을 기준으로 표면에서부터 얼마나 깊이 위치했는지로 구성될 수 있다. 앞서 살핀 바와 같이, 시점을 기준으로 표면에서부터의 깊이(텍스쳐 이미지의 가로축)는 해당 샘플이 어느 층에 위치하는지를 판단하기 위한 것으로 텍셀의 색상값을 정하는 기준이 될 수 있다. 광원을 기준으로 표면에서부터의 깊이(텍스쳐 이미지의 세로축)는 빛이 대상체를 얼마나 투과하였는지를 판단하기 위한 것으로 텍셀의 음영값을 정하는 기준이 될 수 있다.
다시 도 3을 참조하면, 샘플링부(234)는 볼륨 데이터 형성부(220)로부터 대상체에 대한 볼륨 데이터를 전달 받는다. 샘플링부(234)는 이렇게 전달받은 볼륨 데이터에 대하여 볼륨 렌더링을 위한 샘플링을 수행한다.
샘플링 과정에서, 대상체의 위치를 시점을 기준으로 재배열함으로써 볼륨 렌더링의 연산을 용이하게 할 수 있다. 특히 디스플레이 화면의 각 축을 직교 좌표계의 각 축으로 설정하여, 샘플의 위치를 벡터로 표현할 수 있다. 이를 통해 간단한 수학적 연산으로 샘플과 표면간의 거리를 구할 수 있다.
도 6은 샘플링 과정에서 대상체의 위치를 시점을 기준으로 재배열하는 과정의 일 실시예를 도시한 도면이다. 도 6에서는 측면이 각각 N 복셀들로 이루어진 스칼라 값을 갖는 정육면체 형태의 볼륨 데이터 샘플들의 배열을 예시하였다. 복셀들은 벡터
Figure 112013060588825-pat00001
(i, j, k는 x, y, z축의 좌표)의 형태로 표현되고 벡터
Figure 112013060588825-pat00002
에서의 복셀 값은
Figure 112013060588825-pat00003
(함수 f는 복셀에 대응하는 복셀 값을 나타내는 함수)이다. 먼저 광선들이 관찰자로부터 볼륨 데이터를 향해 투사된다고 가정한다. 이 때, 디스플레이 화면은
Figure 112013060588825-pat00004
(M은 디스플레이 화면의 가로축 픽셀 개수, N은 디스플레이 화면의 세로축 픽셀 개수) 픽셀들로 이루어져 있고 픽셀당 하나의 광선이 투사된다. 픽셀 또는 픽셀을 투사하는 광선은 벡터
Figure 112013060588825-pat00005
(u, v는 x, y축의 좌표)로 표현되고, 광선 상에서 샘플링 되는 지점들은
Figure 112013060588825-pat00006
(w는 z축의 좌표)에 의해 표현된다. 벡터
Figure 112013060588825-pat00007
의 z축 좌표 w는 샘플링 거리 및 샘플링 횟수에 비례한다. 이를 통해 샘플의 위치를 파악할 수 있다. 샘플의 위치를 벡터로 표현함으로써, 샘플과 표면간의 거리를 수학적 연산에 의해 용이하게 획득할 수 있다.
샘플링부(234)에서 수행하는 샘플링에 대한 구체적인 설정은 입력부(150)를 통해 사용자가 입력할 수 있다. 예를 들어 샘플링 거리, 샘플링 횟수, 샘플링 종료 지점 등 사용자가 원하는 값을 입력하여 설정할 수 있다.
다시 도 3을 참조하면, 연산부(236)는 샘플링에 의해 획득된 각 샘플의 위치를 샘플링부(234)로부터 전달받는다. 연산부(236)는 전달받은 샘플의 위치를 이용하여 샘플과 표면간의 거리를 산출해내는 역할을 수행한다. 연산의 속도 및 정확도를 높이기 위해 연산부(236)는 다수의 파이프라인을 이용한 병렬처리가 가능하도록 하드웨어적으로 구현될 수 있다.
연산부(236)에서는 디스플레이 화면을 지나는 광선 방향의 각 샘플에 대응하는 텍셀을 검출하는데 필요한 연산을 할 수 있다. 도 6을 참조하면, 텍스쳐 이미지의 가로축은 시점 기준 표면에서부터의 깊이로, 세로축은 광원 기준 표면에서부터의 깊이로 설정될 수 있다. 샘플링부(234)로부터 전달받은 샘플의 위치를 이용하여 텍스쳐 이미지의 가로 혹은 세로축의 값을 연산함으로써 대응하는 텍셀의 확인이 가능하다. 연산부(236)는 이렇게 확인한 텍셀의 음영 또는 색상값을 데이터 누적부(238)로 전달할 수 있다.
도 7은 샘플과 대응하는 텍셀 위치를 연산하는 방법의 일 실시예이다. 대상체의 다층 조직을 반영한 색상값을 찾기 위해, 시점을 기준으로 표면으로부터 당해 샘플까지의 깊이 X를 구한다. 또한 대상체의 반투명 성질을 반영한 음영값을 찾기 위해, 광원을 기준으로 표면으로부터 당해 샘플까지의 깊이 Y를 구한다. 이렇게 결정된 (X,Y) 좌표를 기초로 도 6의 텍스쳐 이미지로부터 대응 텍셀을 확인할 수 있다. 연산부는(236) 확인한 텍셀의 색상 및 음영값을 데이터 누적부(238)으로 전달할 수 있다. 이하에서 도 8내지 11을 참조하여, 깊이 X, Y를 구체적으로 구하는 방법에 대하여 살펴본다.
도 8은 시점을 기준으로 표면으로부터 각 샘플까지의 깊이 X를 구하는 방법의 일 실시예를 도시한 도면이다. 도 8a 단계에서, 시점에서 가상의 광선을 대상체로 투과했을 때 광선 방향으로 볼륨 데이터가 샘플링 된다. 광선 경로 상의 표면을 찾기 위하여, 시점에서부터 샘플링을 계속하다가 빈 공간이 아닌 첫 번째 샘플 위치를 표면으로 추정한다. 단, 샘플링을 계속하는 도중에 빈 공간을 만나면, 다시 빈 공간이 아닌 첫 번째 샘플 위치를 표면으로 추정한다.
도 8b 단계에서, 전 단계에서 추정한 표면에서의 기울기 벡터(gradient vector)를 구한다. 표면에서의 기울기 벡터는 x, y, z 축 각각 주변의 샘플의 복셀값을 가지고 계산한다. 아래 식은 표면에서의 기울기 벡터의 x성분을 구하는 공식이다. 벡터
Figure 112013060588825-pat00008
는 샘플의 위치를, f는 샘플의 복셀값을, h는 샘플간의 단위 거리를 의미한다.(u, v, w는 x, y, z축 좌표)
Figure 112013060588825-pat00009
도 8c 단계에서, 앞서 구한 표면의 기울기 벡터를 법선 벡터로 하고 표면을 지나는 평면을 가정한다. 이 평면이 대상체의 당해 표면에서의 접평면이 된다. 이 평면과 깊이를 구하고자 하는 샘플과의 거리를 구하면 이 값이 시점을 기준으로 표면으로부터 각 샘플까지의 깊이 X가 된다.
도 9는 시점을 기준으로 표면으로부터 각 샘플까지의 깊이 X를 구하는 방법의 일 실시예를 도시한 흐름도이다. 이 때, 깊이 X는 표면에서의 접평면을 구하고, 접평면과 깊이를 구하고자 하는 샘플과의 거리를 연산하여 구할 수 있다.
먼저 시점으로부터 광선을 따라 샘플링을 진행한다.(300) 이 때 샘플링 횟수는 볼륨 렌더링의 실감도와 비례한다. 샘플링 횟수가 많아지면 보다 정확한 표면의 위치를 찾을 수 있기 때문이다. 샘플링 횟수는 사용자가 입력부(150)에 입력하여 설정할 수 있다. 샘플링은 이하 과정의 진행과 동시 또는 별도로 진행될 수 있으며, 이하에서는 동시에 진행됨을 전제로 이하 서술한다.
다음으로 시점에서 가까운 순서대로 샘플의 복셀값을 확인한다.(310) 그리고, 확인한 복셀값을 바탕으로, 샘플이 빈 공간인지 여부를 판단한다.(320) 여기서 빈 공간인지 여부는 복셀값 중 밀도값과 투명도 사이의 관계를 정의하는 불투명도 전이함수(opacity transfer function, 이하 OTF라 함)를 이용하여 판단할 수 있다. OTF를 이용한 빈 공간을 판단하는 과정은 공지의 기술이므로 이하 설명은 생략한다.
위의 샘플이 빈 공간인 경우 다음 샘플로 이동(325)하고, 샘플이 빈 공간이 아니라면 당해 샘플의 위치값을 확인한다.(330) 그리고, 이 때 위치값이 확인된 샘플을 표면으로 추정한다. 빈 공간의 샘플이 계속되다가 빈 공간이 아닌 샘플이 확인되면, 확인된 샘플이 광선 방향에서 대상체 내부에 존재하는 최초의 샘플이기 때문이다.
다음으로 깊이 X를 구하기 위한 연산을 수행한다. 깊이 X를 구하기 위해 앞서 확인한 샘플의 위치값을 이용한다. 이를 위해 먼저, 현재 샘플의 위치에서 기울기 벡터를 구하기 위한 연산을 수행한다.(340) 기울기 벡터는 현재 샘플의 x, y, z축 주변의 값을 이용하여 구한다. 기울기 벡터를 구하는 방법은 도 8(b)에서 언급하였으므로 생략한다.
기울기 벡터를 구한 다음, 표면으로 추정한 현재 샘플의 위치를 지나고, 이 위치에서의 기울기 벡터를 법선 벡터로 하는 평면을 가정한다.(350) 이 평면은 대상체와 표면 점에서만 만나고 대상체와 수직이므로 접평면이 된다. 접평면은, 정의에 따르면, 대상체와 수직을 이루는 성질을 가지므로, 이를 이용하면 광선방향으로의 샘플들의 깊이를 용이하게 구할 수 있다.
마지막으로 접평면과 구하고자 하는 샘플간의 거리를 연산하여 시점을 기준으로 표면으로부터 샘플까지의 깊이 X를 획득할 수 있다.(350) 깊이 X는 도 6의 텍스쳐 이미지의 가로축에서 텍셀을 확인하는데 사용될 수 있다.
도 10은 광원을 기준으로 표면으로부터 각 샘플까지의 깊이 Y를 구하는 방법의 일 실시예를 도시한 도면이다. 도 10a 단계에서, 깊이를 구하고자 하는 샘플로부터 광원방향으로의 광선을 생성한다. 광원으로부터 조사된 빛이 해당 샘플까지 도달하는 경로 중 매질을 얼마나 지났는지를 구하여, 대상체의 반투명 성질을 반영하기 위함이다. 대상체의 표면에서 반사되는 빛은 내부의 샘플의 음영을 결정하는데 영향을 미치지 않으므로, 빛은 일직선방향으로 진행하는 경우만을 상정한다.
도 10b 단계에서, 도 10a 단계를 통해 생성한 광선을 따라 볼륨 데이터를 일정 간격으로 샘플링 한다. 깊이를 구하고자 하는 샘플로부터 광선의 진행방향을 따라 샘플링을 진행하면서 샘플의 복셀값에서 음영값을 확인한다. 광원으로부터 조사된 빛이 매질을 깊이 지날수록 음영값이 커지기 때문에, 음영값을 확인하여 매질 표면의 샘플을 검출하기 위함이다. 샘플링 된 순서대로 확인한 음영값과 특정 임계값을 비교한다. 음영 값이 크게 변하는 지점이 빛이 매질을 지나기 시작하는 지점이라 보면, 샘플의 음영 값이 임계값 이하가 되기 직전의 샘플을 표면으로 가정할 수 있다. 이렇게 구한 표면과 깊이를 구하고자 하는 샘플과의 거리를 구하여, 광원을 기준으로 표면으로부터 각 샘플까지의 깊이 Y를 구할 수 있다.
도 11은 광원을 기준으로 표면으로부터 각 샘플까지의 깊이 Y를 구하는 방법의 일 실시예를 도시한 흐름도이다. 깊이 Y는, 빛이 깊이를 구하고자 하는 샘플에 도달하기까지 매질을 지나온 거리에 따라 그 강도가 달라짐을 이용하여 구할 수 있다.
깊이 Y를 구하기 위하여 먼저, 깊이를 구하고자 하는 샘플로부터 광원 방향으로 광선을 생성한다.(400) 이렇게 광선을 생성하는 이유는 실제 광원으로부터 해당 샘플까지 빛이 도달하는 경로를 상정하고, 경로를 따라 이동하는 빛이 매질을 얼마나 지나왔는지를 용이하게 구하기 위함이다.
광선이 생성되면, 생성된 광선 방향으로 일정 간격의 샘플링을 시작한다.(410) 이 때 샘플링 횟수는 볼륨 렌더링의 실감도와 비례한다. 샘플링 횟수가 많아지면 보다 정확한 표면의 위치를 찾을 수 있기 때문이다. 샘플링 횟수는 사용자가 입력부(150)에 입력하여 설정할 수 있다. 샘플링은 이하 과정의 진행과 동시에 또는 별도로 진행될 수 있으며, 이하에서는 동시에 진행됨을 전제로 이하 서술한다.
샘플링을 진행하면서 광원에서 먼 순서대로 샘플의 복셀값 중 음영값을 확인(420)하고, 확인한 음영값과 임계값을 비교한다.(430) 임계값과의 비교를 통해 해당 샘플이 대상체 내부에 존재하는지를 확인할 수 있다. 이 때 임계값은, 빛이 매질을 지나지 않았을 때의 음영값의 오차범위 내에서 설정할 수 있다.
위와 같이 두 값을 비교하여, 음영값이 임계값보다 크다면 당해 샘플이 아직 대상체 내부에 존재하는 것으로 판단하고, 다음 샘플로 이동한다.(435) 반면에 확인한 음영값이 임계값보다 작다면 당해 샘플이 대상체 외부에 존재하는 것으로 판단한다.
샘플이 대상체 외부에 존재하는 것으로 판단 시, 해당 샘플의 바로 직전의 샘플을 대상체의 표면으로 추정한다. 그리고 그 샘플의 위치값을 확인한다.(440) 대상체 내부의 샘플이 계속되다가 대상체 외부의 샘플이 확인되면, 대상체 외부로 확인된 샘플의 바로 직전 샘플이 광선 방향에서 대상체 내부에 존재하는 최후의 샘플이기 때문이다.
마지막으로 추정되는 표면의 위치와 구하고자 하는 샘플간의 거리를 연산하여 광원을 기준으로 표면으로부터 샘플까지의 깊이 Y를 획득할 수 있다.(450) 이렇게 획득한 깊이 Y는 도 6의 텍스쳐 이미지의 세로축에서 텍셀을 확인하는데 사용될 수 있다.
연산부(236)는 획득한 깊이 X, Y를 기초로 텍스쳐 이미지 저장부(232)에 저장된 텍스쳐 이미지로부터 대응하는 텍셀을 확인할 수 있다. 그리고 해당 텍셀로부터 음영 또는 색상값을 검출한다.
다시 도 3을 참조하면, 데이터 누적부(238)는 연산부로부터 검출한 텍셀의 음영 또는 색상값을 전달받는다. 시점을 기준으로 디스플레이 픽셀을 지나는 하나의 광선 경로를 따라 획득된 샘플에 대응하는 텍셀의 음영 또는 색상값은 모두 데이터 누적부(238)에 누적된다. 누적부(238)에 누적된 결과값으로 광선이 지나는 디스플레이 픽셀의 음영 또는 색상을 결정한다.
도 12는 초음파 영상 장치의 제어 방법의 실시예에 따른 흐름도이다.먼저 시점에서부터 광선방향으로 일정 간격의 샘플링을 시작(500)한다. 이 때, 샘플링 간격을 보다 짧게 설정하면 각 디스플레이 픽셀의 음영 및 색상값을 정하는데 더 많은 샘플로부터 연산이 수행된다. 그에 따라 획득되는 텍셀의 음영 및 색상값도 많아지므로, 결과적으로 더 많은 데이터의 누적에 따른 높은 실감도의 렌더링 결과를 얻을수 있다. 샘플링 간격은 사용자가 입력부(150)를 통해 설정할 수 있다.
다음으로 시점에 인접한 순서대로 샘플의 복셀값을 확인한다.(510) 확인한 복셀값을 바탕으로, 샘플이 빈 공간인지 여부를 판단한다.(520) 여기서 빈 공간인지 여부는 공지기술인 OTF를 이용하여 판단할 수 있다. 복셀값을 확인한 결과, 샘플이 빈 공간인 경우 다음 샘플로 이동(525)하여 동일한 단계를 반복 수행한다. 이 때 다음 샘플로 이동하는 이유는, 빈 공간인 샘플은 대상체에 대한 정보를 가지고 있지 않기 때문이다.
해당 샘플이 빈 공간이 아닐 경우, 텍스쳐 이미지에서 대응 텍셀을 찾기 위한 연산을 시작한다. 이를 위해 광원을 기준으로 표면으로부터의 깊이를 연산(540)하고, 시점을 기준으로 표면으로부터의 깊이를 연산(550)한다.
광원을 기준으로 표면으로부터의 깊이는, 샘플에서 광원으로 광선을 생성하여 광원까지 가는 동안 매질을 얼마나 지나게 되었는가로 계산을 할 수 있다. 시점을 기준으로 표면으로부터의 깊이는, 빈 공간이 아닌 첫번째 샘플 위치를 표면으로 추정하고 이 표면의 접평면과 구하고자 하는 샘플과의 거리를 구하여 계산할 수 있다. 각 깊이를 구하는 연산은 동시에 또는 별도로 진행될 수 있다.
각 깊이를 구하는 연산 결과를 기초로 하여, 텍스쳐 이미지 저장부(232)에 저장된 텍스쳐 이미지의 대응 텍셀을 확인한다. 텍스쳐 이미지는 대상체의 반투명 성질 및 다층 조직을 반영한 음영 및 색상값을 가질수 있다. 반투명 성질을 반영한 음영값은, 광원을 기준으로 표면으로부터 깊이를 구하고자 하는 샘플까지의 깊이를 구하여 확인된 대응 텍셀로부터 획득할 수 있다. 다층 조직을 반영한 색상값은, 시점을 기준으로 표면으로부터 깊이를 구하고자 하는 샘플까지의 깊이를 구하여 확인된 대응 텍셀로부터 획득할 수 있다. 이러한 방식으로 당해 샘플과 대응하는 텍셀의 음영 및 색상값을 획득한다.(560)
이렇게 획득된 음영 및 색상값을 기존값에 축적(570)하는 방식으로 렌더링을 진행한다. 따라서 디스플레이 픽셀의 음영 및 색상값은, 당해 디스플레이 픽셀을 통과하는 광선을 따라 샘플링 된 샘플과 대응하는 텍셀의 음영 및 색상값이 축적된 형태로 결정된다. 데이터의 축적 후에는 샘플링을 계속할 필요가 있는지 여부를 판단한다.(580) 샘플링을 계속할 필요가 있다면 다음 샘플의 위치를 획득하여 기존의 과정을 반복 실시하고, 그렇지 않다면 종료한다.
100: 본체
110: 초음파 수집부
114: 트랜스듀서
120: 초음파 수집부 홀더
150: 입력부
160: 메인 디스플레이부
170: 서브 디스플레이부
210: 빔 포머
220: 볼륨 데이터 생성부
230: 영상 처리부
232: 텍스쳐 이미지 저장부
234: 샘플링부
236: 연산부
238: 데이터 누적부
240: 저장부

Claims (18)

  1. 대상체로부터 초음파를 수집하는 초음파 수집부;
    상기 초음파에 기초하여 볼륨 데이터를 생성하는 볼륨 데이터 생성부; 및
    텍스쳐 이미지를 참조하여 상기 볼륨 데이터에 대해 볼륨 렌더링을 수행하는 영상 처리부;
    를 포함하되,
    상기 텍스쳐 이미지의 각 텍셀은 대상체의 반투명 성질 및 다층 조직이 반영되고,
    상기 영상 처리부는,
    샘플링의 복셀값에서 빈 공간을 확인하여 표면을 결정하고, 광원을 기준으로 상기 반투명 성질에 기초하여 상기 결정된 대상체의 표면으로부터 깊이에 따른 음영값 및 시점을 기준으로 상기 다층 조직에 기초하여 상기 결정된 표면의 기울기 벡터로부터 깊이에 따른 색상값을 달리하는 초음파 영상 장치.
  2. 제 1 항에 있어서,
    상기 영상 처리부는 상기 볼륨 데이터를 샘플링 하여 획득한 샘플과 대응하는 상기 텍스쳐 이미지의 텍셀을 확인하는 연산부를 포함하는 초음파 영상 장치.
  3. 삭제
  4. 제 2 항에 있어서,
    상기 연산부는 광원을 기준으로 상기 대상체의 표면과 상기 샘플간의 거리를 연산하여 상기 텍셀을 확인하는 초음파 영상 장치.
  5. 삭제
  6. 제 2 항에 있어서,
    상기 연산부는 시점을 기준으로 상기 대상체의 표면과 상기 샘플간의 거리를 연산하여 상기 텍셀을 확인하는 초음파 영상 장치.
  7. 제 1 항에 있어서,
    상기 볼륨 렌더링은 볼륨 광선 투사법에 의하는 초음파 영상 장치.
  8. 삭제
  9. 삭제
  10. 대상체로부터 초음파를 수집하는 초음파 수집 단계;
    상기 초음파에 기초하여 볼륨 데이터를 생성하는 볼륨 데이터 생성 단계; 및
    텍스쳐 이미지를 참조하여 상기 볼륨 데이터에 대해 볼륨 렌더링을 수행하는 영상 처리 단계;
    를 포함하되,
    상기 텍스쳐 이미지의 각 텍셀은 대상체의 반투명 성질 및 다층 조직이 반영되고,
    상기 영상 처리 단계는,
    샘플링의 복셀값에서 빈 공간을 확인하여 표면을 결정하고, 광원을 기준으로 상기 반투명 성질에 기초하여 상기 결정된 표면으로부터 깊이에 따른 음영값 및 시점을 기준으로 상기 다층 조직에 기초하여 상기 결정된 표면의 기울기 벡터로부터 깊이에 따른 색상값을 달리하는 초음파 영상 장치 제어 방법.
  11. 제 10 항에 있어서,
    상기 영상 처리 단계는,
    상기 볼륨 데이터를 샘플링하여 획득한 샘플과 대응하는 상기 텍스쳐 이미지의 텍셀을 확인하는 텍셀 확인 단계를 포함하는 초음파 영상 장치 제어 방법.
  12. 삭제
  13. 제 11 항에 있어서,
    상기 텍셀 확인 단계는 광원을 기준으로 상기 대상체의 표면과 상기 샘플간의 거리를 연산하여 상기 텍셀을 확인하는 초음파 영상 장치 제어 방법.
  14. 삭제
  15. 제 11 항에 있어서,
    상기 텍셀 확인 단계는 시점을 기준으로 상기 대상체의 표면과 상기 샘플간의 거리를 연산하여 상기 텍셀을 확인하는 초음파 영상 장치 제어 방법.
  16. 제 10 항에 있어서,
    상기 볼륨 렌더링은 볼륨 광선 투사법에 의하는 초음파 영상 장치 제어 방법.
  17. 삭제
  18. 삭제
KR1020130078794A 2013-07-05 2013-07-05 초음파 영상 장치 및 그 제어 방법 KR101851221B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020130078794A KR101851221B1 (ko) 2013-07-05 2013-07-05 초음파 영상 장치 및 그 제어 방법
PCT/KR2014/006007 WO2015002498A1 (en) 2013-07-05 2014-07-04 Ultrasonic imaging apparatus and control method thereof
US14/902,905 US10535184B2 (en) 2013-07-05 2014-07-04 Ultrasonic imaging apparatus and control method thereof
CN201480038568.0A CN105359191B (zh) 2013-07-05 2014-07-04 超声成像设备及其控制方法
EP14819625.6A EP3017428B1 (en) 2013-07-05 2014-07-04 Ultrasonic imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130078794A KR101851221B1 (ko) 2013-07-05 2013-07-05 초음파 영상 장치 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20150005799A KR20150005799A (ko) 2015-01-15
KR101851221B1 true KR101851221B1 (ko) 2018-04-25

Family

ID=52144009

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130078794A KR101851221B1 (ko) 2013-07-05 2013-07-05 초음파 영상 장치 및 그 제어 방법

Country Status (5)

Country Link
US (1) US10535184B2 (ko)
EP (1) EP3017428B1 (ko)
KR (1) KR101851221B1 (ko)
CN (1) CN105359191B (ko)
WO (1) WO2015002498A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11100138B2 (en) * 2015-09-11 2021-08-24 Ayasdi Ai Llc Network representation for evolution of clusters and groups
KR102651126B1 (ko) 2016-11-28 2024-03-26 삼성전자주식회사 그래픽 프로세싱 장치 및 그래픽스 파이프라인에서 텍스처를 처리하는 방법

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010031920A1 (en) 1999-06-29 2001-10-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US20050091672A1 (en) 2003-10-24 2005-04-28 Microsoft Corporation Facilitating presentation functionality through a programming interface media namespace
US20050264578A1 (en) * 2004-05-25 2005-12-01 Engel Klaus D Sliding texture volume rendering
US20070014446A1 (en) 2005-06-20 2007-01-18 Siemens Medical Solutions Usa Inc. Surface parameter adaptive ultrasound image processing
KR100738107B1 (ko) 2006-02-15 2007-07-12 삼성전자주식회사 3차원 포인트 기반 모델링 장치 및 방법
US20080260227A1 (en) 2004-09-13 2008-10-23 Hitachi Medical Corporation Ultrasonic Imaging Apparatus and Projection Image Generating Method
JP2009291295A (ja) 2008-06-03 2009-12-17 Toshiba Corp 医用画像処理装置、超音波診断装置、及び超音波画像取得プログラム
JP2010240409A (ja) 2009-03-31 2010-10-28 General Electric Co <Ge> 4dレンダリングにおいて定量的なセグメントデータを表示するための方法およびシステム
JP4628645B2 (ja) 2001-09-18 2011-02-09 ジーイー・メデイカル・システムズ・クレツツテヒニク・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング・ウント・コンパニー・オツフエネハンデルスゲゼルシヤフト 複数の2dスライスから画像を作成するための超音波診断方法及び装置
US20120327198A1 (en) 2011-06-22 2012-12-27 Toshiba Medical Systems Corporation Image processing system, apparatus, and method
US20130150719A1 (en) * 2011-12-08 2013-06-13 General Electric Company Ultrasound imaging system and method
US20130271455A1 (en) 2011-01-26 2013-10-17 Hitachi Medical Corporation Ultrasonic diagnostic device and image processing method

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6343936B1 (en) 1996-09-16 2002-02-05 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination, navigation and visualization
US6331116B1 (en) 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
US6825838B2 (en) * 2002-10-11 2004-11-30 Sonocine, Inc. 3D modeling system
EP1542167A1 (en) * 2003-12-09 2005-06-15 Koninklijke Philips Electronics N.V. Computer graphics processor and method for rendering 3D scenes on a 3D image display screen
US8049752B2 (en) * 2006-07-25 2011-11-01 Siemens Medical Solutions Usa, Inc. Systems and methods of determining sampling rates for volume rendering
JP4588736B2 (ja) * 2007-04-12 2010-12-01 富士フイルム株式会社 画像処理方法および装置並びにプログラム
US7940268B2 (en) * 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
US7912264B2 (en) 2007-08-03 2011-03-22 Siemens Medical Solutions Usa, Inc. Multi-volume rendering of single mode data in medical diagnostic imaging
WO2010143587A1 (ja) * 2009-06-10 2010-12-16 株式会社 日立メディコ 超音波診断装置、超音波画像処理装置、超音波画像処理プログラム、及び超音波画像生成方法
US8941646B2 (en) 2010-01-15 2015-01-27 Hitachi Medical Corporation Ultrasonic diagnostic apparatus and ultrasonic image display method
US20120095341A1 (en) * 2010-10-19 2012-04-19 Toshiba Medical Systems Corporation Ultrasonic image processing apparatus and ultrasonic image processing method
JP5981281B2 (ja) * 2012-09-12 2016-08-31 東芝メディカルシステムズ株式会社 超音波診断装置、画像処理装置及びプログラム
US10016181B2 (en) * 2012-09-26 2018-07-10 Hitachi, Ltd. Ultrasound diagnostic apparatus and ultrasound three-dimensional image creation method
CN105073017A (zh) * 2013-04-12 2015-11-18 日立阿洛卡医疗株式会社 超声波诊断装置以及超声波三维图像生成方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010031920A1 (en) 1999-06-29 2001-10-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
JP4628645B2 (ja) 2001-09-18 2011-02-09 ジーイー・メデイカル・システムズ・クレツツテヒニク・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング・ウント・コンパニー・オツフエネハンデルスゲゼルシヤフト 複数の2dスライスから画像を作成するための超音波診断方法及び装置
US20050091672A1 (en) 2003-10-24 2005-04-28 Microsoft Corporation Facilitating presentation functionality through a programming interface media namespace
US20050264578A1 (en) * 2004-05-25 2005-12-01 Engel Klaus D Sliding texture volume rendering
US20080260227A1 (en) 2004-09-13 2008-10-23 Hitachi Medical Corporation Ultrasonic Imaging Apparatus and Projection Image Generating Method
US20070014446A1 (en) 2005-06-20 2007-01-18 Siemens Medical Solutions Usa Inc. Surface parameter adaptive ultrasound image processing
KR100738107B1 (ko) 2006-02-15 2007-07-12 삼성전자주식회사 3차원 포인트 기반 모델링 장치 및 방법
JP2009291295A (ja) 2008-06-03 2009-12-17 Toshiba Corp 医用画像処理装置、超音波診断装置、及び超音波画像取得プログラム
JP2010240409A (ja) 2009-03-31 2010-10-28 General Electric Co <Ge> 4dレンダリングにおいて定量的なセグメントデータを表示するための方法およびシステム
US20130271455A1 (en) 2011-01-26 2013-10-17 Hitachi Medical Corporation Ultrasonic diagnostic device and image processing method
US20120327198A1 (en) 2011-06-22 2012-12-27 Toshiba Medical Systems Corporation Image processing system, apparatus, and method
US20130150719A1 (en) * 2011-12-08 2013-06-13 General Electric Company Ultrasound imaging system and method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AARON FENSTER et al., `Three-dimensional ultrasound scanning', Interface Focus, 1 June 2011, vol. 1, no. 4, pp. 503-519
MARK S. SKLANSKY et al., `Real-time 3-Dimensional Fetal Echocardiography With an Instantaneous Volume-Rendered Display`, Journal of Ultrasound Med., 1 February 2004, vol. 23, no. 2, pp. 283-289

Also Published As

Publication number Publication date
KR20150005799A (ko) 2015-01-15
CN105359191B (zh) 2018-11-06
EP3017428A1 (en) 2016-05-11
US20170249777A1 (en) 2017-08-31
EP3017428A4 (en) 2017-02-22
CN105359191A (zh) 2016-02-24
EP3017428B1 (en) 2020-09-02
WO2015002498A1 (en) 2015-01-08
US10535184B2 (en) 2020-01-14

Similar Documents

Publication Publication Date Title
KR102111626B1 (ko) 영상 처리 장치 및 영상 처리 방법
KR102539901B1 (ko) 2차원 초음파 이미지를 음영화하는 방법 및 시스템
CN107647880A (zh) 医用图像处理装置以及医用图像处理方法
US20120154400A1 (en) Method of reducing noise in a volume-rendered image
JP2021045561A (ja) 医用4dイメージングにおける動き適応型可視化
US11903760B2 (en) Systems and methods for scan plane prediction in ultrasound images
JP2009011468A (ja) 超音波診断装置
US10282893B2 (en) Imaging apparatus and imaging method
US20150289837A1 (en) Ultrasonic apparatus and control method for the same
US9589387B2 (en) Image processing apparatus and image processing method
KR102218308B1 (ko) 초음파 영상 처리 장치 및 방법
KR20140131808A (ko) 초음파 영상 장치 및 그 제어 방법
EP1952359A1 (en) System and method for generating for display two-dimensional echocardiography views from a three-dimensional image
JP6742734B2 (ja) 被検体情報取得装置および信号処理方法
KR101851221B1 (ko) 초음파 영상 장치 및 그 제어 방법
JP6890677B2 (ja) 3dボリューム内に埋め込まれ、mpr図の十字線に結合された仮想光源
KR20140093364A (ko) 의료 영상 생성 장치 및 방법
CN115444452A (zh) 三维剪切波弹性成像方法和超声成像系统
WO2016205926A1 (en) Ultrasound computed tomography
WO2023047601A1 (ja) 画像生成方法、画像生成プログラムおよび画像生成装置
JP7062384B2 (ja) 医用画像処理装置および医用画像処理プログラム
US20230181165A1 (en) System and methods for image fusion
JP6942847B2 (ja) 被検体情報取得装置および信号処理方法
US20230267618A1 (en) Systems and methods for automated ultrasound examination
JP3335687B2 (ja) 超音波診断装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant