KR20010111348A - 스티어링이 가능한 프로브를 사용한 3차원 초음파 영상시스템 및 영상 형성 방법 - Google Patents

스티어링이 가능한 프로브를 사용한 3차원 초음파 영상시스템 및 영상 형성 방법 Download PDF

Info

Publication number
KR20010111348A
KR20010111348A KR1020000031929A KR20000031929A KR20010111348A KR 20010111348 A KR20010111348 A KR 20010111348A KR 1020000031929 A KR1020000031929 A KR 1020000031929A KR 20000031929 A KR20000031929 A KR 20000031929A KR 20010111348 A KR20010111348 A KR 20010111348A
Authority
KR
South Korea
Prior art keywords
frame
main frame
main
image
distance
Prior art date
Application number
KR1020000031929A
Other languages
English (en)
Other versions
KR100355718B1 (ko
Inventor
김상현
고석빈
Original Assignee
이민화
주식회사 메디슨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이민화, 주식회사 메디슨 filed Critical 이민화
Priority to KR1020000031929A priority Critical patent/KR100355718B1/ko
Priority to US09/877,866 priority patent/US6494837B2/en
Priority to JP2001174900A priority patent/JP3423937B2/ja
Priority to DE10128206A priority patent/DE10128206B4/de
Publication of KR20010111348A publication Critical patent/KR20010111348A/ko
Application granted granted Critical
Publication of KR100355718B1 publication Critical patent/KR100355718B1/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices Characterised By Use Of Acoustic Means (AREA)

Abstract

본 발명은 진단 영역내의 목표물에 대한 3차원 영상을 형성하기 위한 방법을 제공한다. 본 발명에 따른 3차원 영상 형성 방법은 초음파 신호를 진단 영역내로 송신하고 목표물에서 반사된 신호를 수신하기 위한 프로브를 진단 영역을 가로질러 이동하면서 다수의 영상 프레임 쌍―상기 다수의 영상 프레임 쌍 각각은 하나의 주 프레임과 상기 주 프레임과 소정의 각도를 이루면서 기울어진 보조 프레임을 포함함―을 발생시키는 단계와, 상기 다수의 영상 프레임 쌍 중의 소정의 영상 프레임 쌍에 포함된 주 프레임 및 보조 프레임으로부터 상기 주 프레임과 평행한 가상 프레임을 발생시키는 단계와, 상기 주 프레임과 상기 가상 프레임 간의 상관 계수를 계산하는 단계와, 상기 주 프레임 및 상기 주 프레임에 인접한 다음 주 프레임 간의 상관 계수를 계산하는 단계와, 상기 주 프레임과 상기 가상 프레임 간의 거리, 상기 주 프레임과 상기 가상 프레임 간의 상관 계수, 및 상기 주 프레임과 상기 다음 주 프레임 간의 상관 계수를 이용하여 상기 주 프레임과 상기 다음 주 프레임간의 거리를 추정하는 단계와, 가상 프레임을 발생시키는 상기 단계와, 주 프레임과 가상 프레임 간의 상관 계수를 계산하는 상기 단계와, 인접한 주 프레임 간의 상관 계수를 계산하는 상기 단계와, 인접한 주 프레임 간의 거리를 추정하는 상기 단계를 상기 다수의 영상 프레임 쌍 각각에 대하여 반복하는 단계와, 상기 다수의 영상 프레임 쌍의 주 프레임 간의 추정된 거리를 사용하여 3차원 영상을 형성하는 단계를 포함한다.

Description

스티어링이 가능한 프로브를 사용한 3차원 초음파 영상 시스템 및 영상 형성 방법{SYSTEM AND METHOD FOR 3-D ULTRASOUND IMAGING USING AN STEERABLE PROBE}
본 발명은 목표물의 다수의 2차원 영상을 구하고 이로부터 3차원 영상을 발생시키기 위한 3차원 초음파 영상 시스템 및 영상 형성 방법에 관한 것으로서, 보다 더 상세히 설명하자면, 1.5-D 프로브와 같은 스티어링이 가능한 프로브를 사용하여 다수의 2차원 영상간의 거리를 용이하게 추정할 수 있는 3차원 초음파 영상 시스템 및 영상 형성 방법에 관한 것이다.
초음파 영상 시스템은 진단하고자 하는 목표물을 향하여 초음파 신호를 송신하고 반사된 초음파 신호로부터 목표물의 영상을 얻어내어 이를 표시장치에 표시하는 장치로서 의료 및 진단 분야에서 널리 사용되고 있다. 초음파 영상 시스템은 일반적으로 복수개의 초음파 배열 변환자(array transducer), 또는 프로브(probe)를 사용하여 초음파를 발생시키고, 반사된 초음파를 초음파 배열 변환자의 각각의 변환자를 사용하여 수신한다. 수신된 초음파 신호는 공지된 방법을 통하여 처리되어, 목표물의 영상을 나타내는 신호로서 표시장치에 표시된다.
2차원 초음파 영상 시스템은 단일 스캔 평면상에서 초음파를 송신하고 수신함으로써, 진단 영역의 2차원 영상을 발생시킨다. 이러한 2차원 초음파 영상 시스템은 진단 영역내의 목표물의 단면만을 표시하므로 사용자는 단면의 영상 이외에는목표물의 구조에 대한 정보를 얻을 수가 없다.
한편, 목표물에 대한 3차원 초음파 영상을 얻기 위해서는 프로브를 이동시키면서 2차원 초음파 영상을 연속적으로 획득하는 방법이 많이 사용된다. 도 1은 3차원 영상 시스템의 원리를 설명하기 위한 도면이다. 도 1에서, 참조 번호 101로 표시된 바와 같이, 직교 좌표계의 x축은 진단 깊이를 표시하고, y축은 m개의 초음파 변환자(1081내지 108m)의 배열방향을 표시하고, z축은 3차원 초음파 영상을 생성하기 위한 프로브 또는 초음파 배열 변환자(108)의 진행방향을 표시한다. 소정의 위치에서, 참조 번호 109로 표시된 바와 같이, 프로브(108)가 x-y 평면과 평행한 평면 상에서 초음파 신호를 송신하고 반사된 초음파 신호를 수신하여 처리함으로써, 목표물에 대한 영상 프레임(1101)을 발생시킬 수 있다. 프로브(108)를 z축 방향으로 이동하면서 전술한 동작을 반복함으로써, 목표물에 대한 다수의 2차원 영상 프레임(1101내지 1103)을 발생시킬 수 있다. 프로브(108)을 z축 방향으로 이동하면서 발생한 다수의 2차원 영상 프레임을 합성하여, 목표물에 대한 3차원 영상을 획득한다.
이와 같은 방법으로 3차원 영상을 얻기 위해서는, 발생시킨 다수의 2차원 영상 프레임 간의 거리에 관한 정확한 정보가 필요하다. 프로브가 z축 방향으로 정속으로 이동하고, 2차원 영상 프레임이 발생되는 정확한 시간 간격을 알고 있다면, 2차원 영상 프레임 간의 거리는 쉽게 알 수 있다. 그러나, 예를 들어서, 사용자가 수동으로 프로브를 움직이는 경우에는, 프로브는 정속으로 이동하지 않는다. 따라서, 2차원 영상 프레임이 발생되는 정확한 시간 간격을 알고 있다 하더라도, 발생한 2차원 영상 프레임 간의 정확한 거리를 쉽게 알아낼 수는 없다.
2차원 영상 프레임 간의 거리를 추정하는 공지된 방법으로는 2차원 영상내의 '반점 잡음(speckle noise)'을 이용하는 방법이 있다. 반점 잡음이란 진단 영역내에서 초음파 신호의 파장보다 작은 물체가 신호를 분산시키거나, 반사시키거나, 신호와 간섭함으로써, 화면상에서 반점으로 표시되는 잡음이다. 2개의 영상 프레임이 서로 인접할수록, 2개의 영상 프레임의 반점의 특성은 유사하다. 따라서, 2개의 영상 프레임 간의 반점 상관도(speckle correlation)를 계산하여, 2개의 프레임 간의 거리를 추정할 수 있다.
반점 잡음을 이용한 공지된 방법에서는 반점 잡음에 대한 특성을 잘 알고 있는 물질로 하나의 실험용 팬텀을 만들고, 모터등을 이용하여 프로브를 미리 선정한 거리만큼 정밀하게 이동시키면서 다양한 위치에서 2차원 영상 프레임을 발생시킨다. 발생시킨 프레임 간의 거리는 알고 있으므로, 프레임 간의 반점 상관도를 계산하여, 프레임 간의 거리와 반점 상관도와의 관계를 구한다. 도 2는 전술한 방법에 의하여 계산된 프레임간의 거리에 대한 프레임간의 반점 상관도를 도시한 그래프의 일례이다.
프레임 간의 거리와 반점 상관도와의 관계를 얻은 후에 실제 목표물에 대하여, 도 1에 도시된 바와 같이, 다수의 2차원 영상 프레임을 발생시킨다. 발생한 2차원 영상 프레임 간의 반점 상관도를 계산하고, 도 2의 관계를 이용하여 프레임 간의 거리를 추정한다. 각각의 프레임 사이의 추정된 거리를 이용하여 다수의 2차원 영상 프레임을 결합함으로써, 3차원 영상을 발생시킨다.
2차원 영상 프레임들은 반점 잡음만으로 구성되지는 않으며, 예를 들어서, 인체 장기의 윤곽을 표시하는 영역과, 반점 잡음을 표시하는 영역이 있을 것이다. 따라서, 공지된 방법에서 반점 잡음을 이용하여 영상 프레임 간의 거리를 추정하기 위해서는, 먼저 반점 잡음을 표시하는 영역을 추출하여야 한다. 도 3은 반점 잡음을 표시하는 영역을 추출하기 위하여 여러 개의 서브 블록으로 나눈 영상 프레임의 예를 도시하는 도면으로서 검은 색으로 표시되어 있는 부분이 반점을 표시하는 서브 블록이다. i번째 프레임과 (i+1)번째 프레임 상에서 반점을 표시하는 서브 블록만을 사용하여 상관도를 계산하여, i번째 프레임과 (i+1)번째 프레임간의 거리를 추정한다.
전술한 방법은 특정 실험용 팬텀을 사용하여 프레임간의 반점 상관도와 프레임간의 거리사이의 관계를 계산하고, 이 관계를 이용하여 실제 목표물에 대한 영상 프레임 간의 거리를 추정한다. 따라서, 실험용 팬텀과 특성이 다른 목표물을 진단하는 경우에 추정된 거리에 오차가 있을 수 있다. 또한, 2차원 프레임에서 반점을 표시하는 영역만을 추출하기가 어려울 뿐만 아니라, 추출에 많은 시간을 필요로 한다.
따라서, 본 발명의 목적은 프로브를 이동하면서 획득한 다수의 2차원 영상 프레임간의 거리를 간단하고 정확하게 추정할 수 있는 방법을 제공하는 것이다.
본 발명의 또 다른 목적은 프로브를 이동하면서 획득한 다수의 2차원 영상프레임간의 거리를 간단하고 정확하게 추정함으로써, 목표물의 정확한 3차원 영상을 발생시킬 수 있는 영상 시스템 및 방법을 제공하는 것이다.
도 1은 3차원 영상 시스템의 원리를 설명하기 위한 도면.
도 2는 프레임간의 거리에 대한 프레임간의 반점 상관도를 도시한 그래프의 일례.
도 3은 반점 잡음을 표시하는 영역을 추출하기 위하여 여러 개의 서브 블록으로 나눈 영상 프레임의 예를 도시하는 도면.
도 4는 1.5D 프로브를 사용하여 영상 프레임 쌍을 발생시키는 과정을 설명하기 위한 도면.
도 5는 초음파 신호를 집속하기 위하여 1.5D 프로브를 구성하는 다수의 1D 프로브 각각에 가하는 시간 지연을 설명하기 위한 도면.
도 6은, 본 발명의 하나의 실시예에 따른, 1.5D 프로브를 z축 방향으로 이동하면서 얻게 되는 2차원 영상 프레임 쌍의 예를 도시하는 도면.
도 7은, 본 발명의 하나의 실시예에 따른, 3차원 영상 형성 방법을 설명하기 위한 흐름도.
<도면의 주요 부분에 대한 부호의 설명>
410 : 1.5D 프로브
420 : 제1빔 형성부
430 : 제2빔 형성부
본 발명은 초음파 신호를 송신하고 수신하기 위한 프로브를 이동하면서 획득한 2개의 영상 프레임 간의 거리를 추정하기 위한 방법을 제공한다. 본 발명에 따른 거리 추정 방법은 상기 프로브를 이동하면서 제1 주 프레임, 상기 제1 주 프레임과 평행한 제2 주 프레임 및 상기 제1 주 프레임과 소정의 각도를 이루면서 상기 제2 주 프레임 방향으로 기울어진 보조 프레임을 발생시키는 단계와, 상기 제1 주 프레임과 평행한 가상 프레임을 상기 제1 주 프레임 및 보조 프레임으로부터 발생시키는 단계와, 상기 제1 주 프레임과 상기 가상 프레임 간의 상관 계수를 계산하는 단계와, 상기 제1 및 제2 주 프레임 간의 상관 계수를 계산하는 단계와, 상기 제1 주 프레임과 상기 가상 프레임 간의 거리, 상기 제1 주 프레임과 상기 가상 프레임 간의 상관 계수, 및 상기 제1 및 제2 주 프레임 간의 상관 계수를 이용하여 상기 제1 및 제2 주 프레임 간의 거리를 추정하는 단계를 포함한다.
본 발명은 또한 진단 영역내의 목표물에 대한 3차원 영상을 형성하기 위한 방법을 제공한다. 본 발명에 따른 3차원 영상 형성 방법은 초음파 신호를 진단 영역내로 송신하고 목표물에서 반사된 신호를 수신하기 위한 프로브를 진단 영역을 가로질러 이동하면서 다수의 영상 프레임 쌍―상기 다수의 영상 프레임 쌍 각각은 하나의 주 프레임과 상기 주 프레임과 소정의 각도를 이루면서 기울어진 보조 프레임을 포함함―을 발생시키는 단계와, 상기 다수의 영상 프레임 쌍 중의 소정의 영상 프레임 쌍에 포함된 주 프레임 및 보조 프레임으로부터 상기 주 프레임과 평행한 가상 프레임을 발생시키는 단계와, 상기 주 프레임과 상기 가상 프레임 간의 상관 계수를 계산하는 단계와, 상기 주 프레임 및 상기 주 프레임에 인접한 다음 주 프레임 간의 상관 계수를 계산하는 단계와, 상기 주 프레임과 상기 가상 프레임 간의 거리, 상기 주 프레임과 상기 가상 프레임 간의 상관 계수, 및 상기 주 프레임과 상기 다음 주 프레임 간의 상관 계수를 이용하여 상기 주 프레임과 상기 다음 주 프레임간의 거리를 추정하는 단계와, 가상 프레임을 발생시키는 상기 단계와, 주 프레임과 가상 프레임 간의 상관 계수를 계산하는 상기 단계와, 인접한 주 프레임 간의 상관 계수를 계산하는 상기 단계와, 인접한 주 프레임 간의 거리를 추정하는 상기 단계를 상기 다수의 영상 프레임 쌍 각각에 대하여 반복하는 단계와, 상기 다수의 영상 프레임 쌍의 주 프레임 간의 추정된 거리를 사용하여 3차원 영상을 형성하는 단계를 포함한다.
본 발명은 또한 진단 영역내의 목표물에 대한 3차원 영상을 형성하기 위한 3차원 영상 시스템을 제공한다. 본 발명에 따른 3차원 영상 시스템은 초음파 신호를 진단 영역내로 송신하고 목표물에서 반사된 신호를 수신하면서 진단 영역을 가로질러 이동함으로써 다수의 영상 프레임 쌍―상기 다수의 영상 프레임 쌍 각각은 하나의 주 프레임과 주 프레임과 소정의 각도를 이루면서 기울어진 보조 프레임을 포함함―을 발생시키기 위한 초음파 프로브, 상기 다수의 영상 프레임 쌍의 주 프레임 간의 거리를 생성하기 위한 거리 생성 수단, 및 상기 다수의 영상 프레임 쌍의 주 프레임 간의 거리를 이용하여 3차원 영상을 표시하기 위한 표시 수단을 포함하며, 상기 거리 생성 수단은 상기 다수의 영상 프레임 쌍의 소정의 영상 프레임 쌍에 포함된 주 프레임 및 보조 프레임으로부터 상기 주 프레임과 평행한 가상 프레임을 발생시키기 위한 가상 프레임 발생 수단, 상기 주 프레임과 상기 가상 프레임 간의 거리, 상기 주 프레임과 상기 가상 프레임 간의 상관 계수, 상기 주 프레임과 상기 주 프레임에 인접한 다음 주 프레임 간의 상관 계수를 계산하기 위한 계산 수단, 및 상기 계산 수단에서 계산된 값을 이용하여 상기 주 프레임과 상기 다음 주 프레임간의 거리를 추정하기 위한 추정 수단을 포함한다.
본 발명에 따른 3차원 초음파 영상 시스템 및 영상 형성 방법에서 사용하는 프로브는 스티어링이 가능한 프로브, 즉 임의의 각도의 영상 프레임을 획득할 수 있는 프로브인 것이 바람직하다. 스티이링이 가능한 프로브의 일례로서 다수의 1D 프로브―상기 다수의 1D 프로브 각각은 초음파 변환자를 일렬로 배열하여 만들어짐―를 1D 프로브의 초음파 변환자의 배열 방향에 수직인 방향으로 결합하여 만들어지는 1.5D 프로브가 있다.
본 발명의 하나의 실시예에 따르면, 하나의 영상 프레임 및 상기 하나의 영상 프레임과 소정의 각도를 이루는 다른 영상 프레임을 포함하는 영상 프레임 쌍을 발생시키기 위하여 1.5D 프로브를 사용한다. 1D 프로브는 다수의 초음파 변환자를 일렬로 배열하여 형성되며, 1.5D 프로브는 다수의 1D 프로브를 결합하여 형성된다.
도 4는 1.5D 프로브를 사용하여 영상 프레임 쌍을 발생시키는 과정을 설명하기 위한 도면이다. 도 1과 마찬가지로, 도 4에서 직교 좌표계의 x축은 진단 깊이를 표시하고, y축은 1D 프로브를 구성하는 다수의 초음파 변환자의 배열방향을 표시하고, z축은 3차원 초음파 영상을 생성하기 위한 1.5D 프로브(410)의 진행방향을 표시한다. 초음파 변환자가 y축 방향으로 일렬로 배열된 하나의 1D 프로브는 하나의 평면, 예를 들어서 x-y 평면상에서만 초음파 신호를 집속할 수 있다. 이와 달리, 다수의 1D 프로브가 z축 방향으로 결합된 1.5D 프로브(410)는 초음파 신호를 x-y 평면상에서 집속할 수 있을 뿐만 아니라, x-y 평면에 대하여 각도 θ만큼 기울어진 평면상에서 초음파 신호를 집속할 수 있다. 도 4에 도시된 실시예에서는 제1 빔 형성부(420)에서 x-y 평면에 평행한 영상 프레임을 발생시키고, 제2 빔 형성부(430)에서 x-y 평면에 대하여 각도 θ만큼 기울어진 영상 프레임을 발생시킨다. 도 4에 도시된 실시예에서는 제1 및 제2 빔 형성부를 별도로 도시하였지만, 반드시 2개의 빔 형성부가 필요한 것은 아니다. 하나의 빔 형성부를 순차적으로 사용하는 것도 가능하다. 예를 들어서, 초음파 신호를 송신하여 x-y 평면에 평행한 영상 프레임을 발생시킨 후에, 다시 초음파 신호를 송신하여 x-y 평면에 대하여 각도 θ만큼 기울어진 영상 프레임을 발생시킬 수 있다.
도 5는 도 4의 제1 빔 형성부(420) 및 제2 빔 형성부(430)에서 초음파 신호를 집속하기 위하여 1.5D 프로브를 구성하는 다수의 1D 프로브 각각에 가하는 시간 지연을 설명하기 위한 도면이다. 도 5는 도 4의 1.5D 프로브를 측면에서 바라본 도면이다. 도 5의 (a)에 도시된 바와 같이, 시간 지연부(520)의 지연 시간을 조절함으로써, x-y 평면상에서만 초음파 신호를 집속할 수 있다. 마찬가지로, 도 5의 (b)에 도시된 바와 같이, 시간 지연부(520)의 지연 시간을 조절함으로써, x-y 평면에 대하여 각도 θ만큼 기울어진 평면상에서 초음파 신호를 집속할 수 있다. 따라서, 1.5D 프로브를 사용하여 하나의 영상 프레임과, 이 영상 프레임에 대하여 일정한 각도로 기울어진 또 하나의 영상 프레임을 포함하는 영상 프레임 쌍을 발생시킬 수 있다. 도 5에 도시된 실시예에서는 1.5D 프로브를 사용하는 것으로 설명되었지만 본 발명이 이에 국한되는 것은 아니다. 서로 다른 각도를 갖는 영상 프레임을 발생시킬 수 있는 프로브, 즉 스티어링이 가능한 모든 프로브가 본 발명에 사용될 수 있다.
도 6은, 본 발명의 하나의 실시예에 따른, 1.5D 프로브를 z축 방향으로 이동하면서 획득하는 다수의 2차원 영상 프레임 쌍의 일례를 도시하는 도면이다. 1.5D 프로브를 사용하여 획득하는 i번째 프레임 쌍 f(i)은 2개의 영상 프레임을 포함한다. 하나는 x축 방향으로 진행하는 초음파 신호로부터 획득한 주 프레임(main frame, 610)이고, 다른 하나는 x축과 소정의 각도(θ)를 이루어 진행하는 초음파 신호로부터 획득한 보조 프레임(supplementary frame, 620)이다. 주 프레임은 3차원 영상을 합성하기 위하여 직접 사용되며, 보조 프레임은 주 프레임간의 거리를 추정하기 위하여 사용되는 가상 프레임(virtual frame, 630)을 발생시키기 위하여 사용된다. 도 6에 도시된 바와 같이, 가상 프레임(630)은 주 프레임과 평행하며, 보조 프레임과 θ의 각도를 이루면서 보조 프레임의 중심을 통과한다. 가상 프레임(630)은 주 프레임과 보조 프레임으로부터 내삽 및 외삽에 의하여 발생될 수 있다. 가상 프레임(630)에서 주 프레임과 보조 프레임 사이에 있는 부분은 내삽에 의하여 발생될 수 있고, 주 프레임과 보조 프레임 사이에 있지 않은 부분은 외삽에 의하여 발생될 수 있다. 설명의 편의를 위하여, i번째 주 프레임과 보조 프레임으로부터 발생한 가상 프레임을 i'번째 가상 프레임으로 표시한다.
i번째 주 프레임(610)과 i'번째 가상 프레임(630) 사이의 거리 d(i, i')는 수학식 1에 의하여 결정된다.
여기서, L은 i번째 보조 프레임의 진단 깊이이다.
수학식 1에서는 가상 프레임이 보조 프레임의 중심을 통과하는 것으로 가정하였지만, 본 발명은 이에 국한되지 않는다. 가상 프레임과 주 프레임과의 거리는 임의로 설정될 수 있으며, 설정된 거리에 따라서 주 프레임과 보조 프레임으로부터 내삽 및 외삽을 적절히 이용하여 가상 프레임을 발생시킬 수 있다.
수학식 1에 의하여 계산된 i번째 주 프레임(610)과 i'번째 가상 프레임(630) 사이의 거리 d(i, i')를 이용하여, i번째 주 프레임(610)과 (i+1)번째 프레임(640) 사이의 거리 d(i, i+1)를 이하에서 설명되는 것과 같은 방식으로 추정한다.
2개의 영상 프레임 간의 거리와 상관계수의 관계는 수학식 2와 같다.
여기서, ρ(i, j)는 i번째 프레임과 j번째 프레임간의 상관계수(correlationcoefficient), αi,j는 거리 상수, d(i, j)는 i번째 프레임과 j번째 프레임간의 거리, αi는 i번째 프레임의 표준 편차(standard deviation), K(i, j)는 i번째 프레임과 j번째 프레임간의 분산(covariance)이다.
수학식 2로부터 i번째 프레임과 (i+1)번째 프레임간의 거리는 수학식 3과 같이 유도된다.
수학식 3으로부터 i번째 프레임과 (i+1)번째 프레임간의 거리를 계산하기 위해서는, i번째 프레임과 (i+1)번째 프레임간의 상관 계수 ρ(i, i+1) 및 i번째 프레임과 (i+1)번째 프레임간의 거리상수 αi,i+1를 구해야 한다. ρ(i, i+1)는 i번째 프레임과 (i+1)번째 프레임의 데이터로부터 계산할 수 있다. 본 발명에 따르면, i번째 프레임과 (i+1)번째 프레임간의 거리상수 αi,i+1를 사용하는 대신, i번째 프레임과 i'번째 가상 프레임간의 거리상수 αi,i'를 사용한다. i번째 프레임과 (i+1)번째 프레임 사이의 거리가 통계적 특성이 변할 정도로 멀리 떨어져 있지 않은 경우, i번째 프레임과 (i+1)번째 프레임간의 거리상수 αi,i+1를 αi,i'로 근사화할 수 있기 때문이다. 수학식 3으로부터 i번째 프레임과 i'번째 가상 프레임간의 거리상수 αi,i'는 수학식 4와 같이 유도된다.
수학식 3에서 i번째 프레임과 (i+1)번째 프레임간의 거리상수 αi,i+1대신에 수학식 4를 대입하면 i번째 프레임과 (i+1)번째 프레임간의 거리 d(i, i+1)은 수학식 5와 같이 근사화된다.
i번째 주 프레임(610)과 i'번째 가상 프레임(630) 사이의 거리 d(i, i')는 수학식 1로부터 계산되며, i번째 주 프레임(610)과 i'번째 가상 프레임(630) 사이의 상관 계수 ρ(i, i')는 i번째 주 프레임(610)과 i'번째 가상 프레임(630)의 데이터로부터 계산할 수 있다.
전술한 바와 같이, i번째 주 프레임과 보조 프레임을 이용하여 가상 프레임을 발생시키고, 이를 이용하여 i번째 주 프레임과 (i+1)번째 주 프레임간의 거리를 수학식 5로부터 계산한다. 이러한 과정을 반복하여 모든 프레임간의 거리를 계산할 수 있다.
도 7은, 본 발명의 하나의 실시예에 따른, 3차원 영상 표시 방법을 설명하기 위한 흐름도이다. 단계(710)에서 1.5D 프로브를 이동하면서 다수의 영상 프레임 쌍을 발생시킨다. 각각의 영상 프레임 쌍은 주 프레임 및 주 프레임과 소정의 각도를 이루는 보조 프레임을 포함한다. 단계(720)에서, 각각의 영상 프레임 쌍에 대하여, 주 프레임과 평행한 가상 프레임을 얻는다. 가상 프레임은 주 프레임과 보조 프레임으로부터 내삽 및 외삽 등에 의하여 얻을 수 있다. 단계(730)에서, 주 프레임과 주 프레임의 가상 프레임 간의 거리, 프레임 간의 상관 계수를 계산하고, 수학식 5를 이용하여 모든 영상 프레임 쌍의 주 프레임간의 거리를 계산한다. 단계(740)에서, 단계(730)에서 계산된 영상 프레임간의 거리를 이용하여, 다수의 2차원 영상 프레임으로부터 3차원 영상을 형성한다. 3차원 영상은 사용자의 요구에 의하여 다양하게 표시될 수 있다. 예를 들어, 렌더링과 같은 공지된 기술을 사용하여 3차원 영상을 표시할 수 있다.
본 발명에 대해서 다양한 개량이 가능하다. 예를 들어서, 본 발명의 하나의 실시예에 따르면, 프레임을 다수의 서브 프레임으로 나누고, 미리 결정된 일부 서브 프레임을 사용하여 프레임간의 거리를 추정할 수 있다. 일부 서브 프레임만을 사용하여 상관 계수를 계산한다면, 프레임간의 거리 계산에 필요한 시간 및 계산량을 감소시키는 것이 가능하다. 프레임간의 거리 계산에 사용될 서브 프레임은 다양한 방법으로 결정될 수 있다. 예를 들어, 반점 잡음을 표시하고 있는 서브 프레임만을 선택할 수도 있다.
본 발명의 또다른 실시예에 따르면, 특정한 프레임에서의 프로브 속도를 추정하여 인접한 프레임에서의 프로브 속도와 비교한다. 특정한 프레임에서의 프로브 속도는 인접한 프레임과의 추정된 거리 및 상기 프레임과 인접한 프레임간의 프레임 발생 시간 차이로부터 계산될 수 있다. 상기 프레임에서의 프로브 속도와 인접한 프레임에서의 프로브 속도의 차이가 미리 결정된 임계치 이상이라면, 이는 프로브 속도의 급격한 변화를 의미한다. 즉, 상기 프레임에 대한 거리 추정에서 오류가 발생했을 가능성이 높은 것이다. 이 경우, 상기 프레임은 3차원 영상을 표시하는데 있어서 제외될 수도 있다. 그 대신, 상기 프레임과 인접한 프레임간의 거리를 평균적인 프레임 간의 거리로 설정하고, 3차원 영상을 표시할 수도 있다.
상술한 바와 같이, 다수의 2차원 영상 프레임간의 거리를 추정하여, 3차원 영상을 표시하기 위한 방법 및 시스템의 다양한 실시예에 대하여 개시하였다. 개시된 실시예는 본 발명의 원리를 응용한 다양한 실시예의 일부를 나타낸 것에 지나지 않음을 이해해야 한다. 본 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질로부터 벗어남이 없이 여러 가지 변형이 가능함을 명백히 알 수 있을 것이다.
본 발명에 따른 프레임간 거리 추정 방법은 프로브를 수동으로 이동하면서 2차원 영상 프레임을 발생시키는 경우에 프레임간 거리를 간편하고 정확하게 추정하는 방법을 제공한다. 본 발명에 따른 초음파 3차원 영상 형성 방법은 실험용 팬텀을 사용하여 반점 상관도와 거리간의 관계를 미리 구하거나, 2차원 프레임에서 반점 영역을 추출할 필요없이, 간편하고 정확하게 2차원 프레임간의 거리를 추정하고, 이로부터 3차원 영상을 형성한다.

Claims (10)

  1. 초음파 신호를 송신하고 수신하기 위한 프로브를 이동하면서 획득한 2개의 영상 프레임 간의 거리를 추정하기 위한 방법에 있어서,
    상기 프로브를 이동하면서 제1 주 프레임, 상기 제1 주 프레임과 평행한 제2 주 프레임 및 상기 제1 주 프레임과 소정의 각도를 이루면서 상기 제2 주 프레임 방향으로 기울어진 보조 프레임을 발생시키는 단계와,
    상기 제1 주 프레임과 평행한 가상 프레임을 상기 제1 주 프레임 및 보조 프레임으로부터 발생시키는 단계와,
    상기 제1 주 프레임과 상기 가상 프레임 간의 상관 계수를 계산하는 단계와,
    상기 제1 및 제2 주 프레임 간의 상관 계수를 계산하는 단계와,
    상기 제1 주 프레임과 상기 가상 프레임 간의 거리, 상기 제1 주 프레임과 상기 가상 프레임 간의 상관 계수, 및 상기 제1 및 제2 주 프레임 간의 상관 계수를 이용하여 상기 제1 및 제2 주 프레임 간의 거리를 추정하는 단계
    를 포함하는 거리 추정 방법.
  2. 제1항에 있어서, 상기 프로브는 다수의 1D 프로브―상기 다수의 1D 프로브 각각은 초음파 변환자를 일렬로 배열하여 만들어짐―를 1D 프로브의 초음파 변환자의 배열 방향에 수직인 방향으로 결합하여 만들어지는 1.5D 프로브인 거리 추정 방법.
  3. 진단 영역내의 목표물에 대한 3차원 영상을 형성하기 위한 방법에 있어서,
    초음파 신호를 진단 영역내로 송신하고 목표물에서 반사된 신호를 수신하기 위한 프로브를 진단 영역을 가로질러 이동하면서 다수의 영상 프레임 쌍―상기 다수의 영상 프레임 쌍 각각은 하나의 주 프레임과 상기 주 프레임과 소정의 각도를 이루면서 기울어진 보조 프레임을 포함함―을 발생시키는 단계와,
    상기 다수의 영상 프레임 쌍 중의 소정의 영상 프레임 쌍에 포함된 주 프레임 및 보조 프레임으로부터 상기 주 프레임과 평행한 가상 프레임을 발생시키는 단계와,
    상기 주 프레임과 상기 가상 프레임 간의 상관 계수를 계산하는 단계와,
    상기 주 프레임 및 상기 주 프레임에 인접한 다음 주 프레임 간의 상관 계수를 계산하는 단계와,
    상기 주 프레임과 상기 가상 프레임 간의 거리, 상기 주 프레임과 상기 가상 프레임 간의 상관 계수, 및 상기 주 프레임과 상기 다음 주 프레임 간의 상관 계수를 이용하여 상기 주 프레임과 상기 다음 주 프레임간의 거리를 추정하는 단계와,
    가상 프레임을 발생시키는 상기 단계와, 주 프레임과 가상 프레임 간의 상관 계수를 계산하는 상기 단계와, 인접한 주 프레임 간의 상관 계수를 계산하는 상기 단계와, 인접한 주 프레임 간의 거리를 추정하는 상기 단계를 상기 다수의 영상 프레임 쌍 각각에 대하여 반복하는 단계와,
    상기 다수의 영상 프레임 쌍의 주 프레임 간의 추정된 거리를 사용하여 3차원 영상을 형성하는 단계
    를 포함하는 3차원 영상 형성 방법.
  4. 제3항에 있어서, 상기 프로브는 다수의 1D 프로브―상기 다수의 1D 프로브 각각은 초음파 변환자를 일렬로 배열하여 만들어짐―를 1D 프로브의 초음파 변환자의 배열 방향에 수직인 방향으로 결합하여 만들어지는 1.5D 프로브인 3차원 영상 형성 방법.
  5. 제3항에 있어서, 상기 주 프레임 간의 거리를 추정하는 단계는 주 프레임 및 가상 프레임 각각을 다수의 서브 프레임으로 나누고, 미리 결정된 서브 프레임만을 사용하여 주 프레임간의 거리를 추정하는 3차원 영상 형성 방법.
  6. 제5항에 있어서, 상기 미리 결정된 서브 프레임은 반점 잡음만을 표시하는 3차원 영상 형성 방법.
  7. 제3항에 있어서,
    각 주 프레임에서의 상기 프로브의 속도를 추정하는 단계와.
    인접한 주 프레임과의 프로브 속도 차이가 미리 결정된 임계치 이상인 주 프레임을 선택하는 단계와,
    상기 선택 단계에서 선택된 주 프레임을 3차원 영상 형성에서 삭제하는 단계를 포함하는 3차원 영상 형성 방법.
  8. 제3항에 있어서,
    각 주 프레임에서의 상기 프로브의 속도를 추정하는 단계와.
    인접한 주 프레임과의 프로브 속도 차이가 미리 결정된 임계치 이상인 주 프레임을 선택하는 단계와,
    상기 선택 단계에서 선택된 주 프레임과 인접한 주 프레임과의 거리를 다수의 주 프레임간의 거리의 평균치로 설정하는 단계를 포함하는 3차원 영상 형성 방법.
  9. 진단 영역내의 목표물에 대한 3차원 영상을 형성하기 위한 3차원 영상 시스템에 있어서,
    초음파 신호를 진단 영역내로 송신하고 목표물에서 반사된 신호를 수신하면서 진단 영역을 가로질러 이동함으로써 다수의 영상 프레임 쌍―상기 다수의 영상 프레임 쌍 각각은 하나의 주 프레임과 주 프레임과 소정의 각도를 이루면서 기울어진 보조 프레임을 포함함―을 발생시키기 위한 초음파 프로브,
    상기 다수의 영상 프레임 쌍의 주 프레임 간의 거리를 생성하기 위한 거리 생성 수단, 및
    상기 다수의 영상 프레임 쌍의 주 프레임 간의 거리를 이용하여 3차원 영상을 표시하기 위한 표시 수단을 포함하며,
    상기 거리 생성 수단은
    상기 다수의 영상 프레임 쌍의 소정의 영상 프레임 쌍에 포함된 주 프레임 및 보조 프레임으로부터 상기 주 프레임과 평행한 가상 프레임을 발생시키기 위한 가상 프레임 발생 수단,
    상기 주 프레임과 상기 가상 프레임 간의 거리, 상기 주 프레임과 상기 가상 프레임 간의 상관 계수, 상기 주 프레임과 상기 주 프레임에 인접한 다음 주 프레임 간의 상관 계수를 계산하기 위한 계산 수단, 및
    상기 계산 수단에서 계산된 값을 이용하여 상기 주 프레임과 상기 다음 주 프레임간의 거리를 추정하기 위한 추정 수단을 포함하는
    3차원 영상 시스템.
  10. 제9항에 있어서, 상기 프로브는 다수의 1D 프로브―상기 다수의 1D 프로브 각각은 초음파 변환자를 일렬로 배열하여 만들어짐―를 1D 프로브의 초음파 변환자의 배열 방향에 수직인 방향으로 결합하여 만들어지는 1.5D 프로브인 3차원 영상 시스템.
KR1020000031929A 2000-06-10 2000-06-10 스티어링이 가능한 프로브를 사용한 3차원 초음파 영상시스템 및 영상 형성 방법 KR100355718B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020000031929A KR100355718B1 (ko) 2000-06-10 2000-06-10 스티어링이 가능한 프로브를 사용한 3차원 초음파 영상시스템 및 영상 형성 방법
US09/877,866 US6494837B2 (en) 2000-06-10 2001-06-08 System and method for three-dimensional ultrasound imaging using a steerable probe
JP2001174900A JP3423937B2 (ja) 2000-06-10 2001-06-08 映像フレーム間距離計算方法、3次元映像生成システム及びその方法
DE10128206A DE10128206B4 (de) 2000-06-10 2001-06-11 Dreidimensionale Ultraschall-Bilderzeugung unter Verwenden einer bewegbaren Sonde

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000031929A KR100355718B1 (ko) 2000-06-10 2000-06-10 스티어링이 가능한 프로브를 사용한 3차원 초음파 영상시스템 및 영상 형성 방법

Publications (2)

Publication Number Publication Date
KR20010111348A true KR20010111348A (ko) 2001-12-17
KR100355718B1 KR100355718B1 (ko) 2002-10-11

Family

ID=19671613

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000031929A KR100355718B1 (ko) 2000-06-10 2000-06-10 스티어링이 가능한 프로브를 사용한 3차원 초음파 영상시스템 및 영상 형성 방법

Country Status (4)

Country Link
US (1) US6494837B2 (ko)
JP (1) JP3423937B2 (ko)
KR (1) KR100355718B1 (ko)
DE (1) DE10128206B4 (ko)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100478165B1 (ko) * 2002-06-12 2005-03-23 주식회사 메디슨 3 차원 동영상 형성 방법 및 장치
US20050075572A1 (en) * 2003-10-01 2005-04-07 Mills David M. Focusing micromachined ultrasonic transducer arrays and related methods of manufacture
US7275547B2 (en) * 2003-10-08 2007-10-02 Boston Scientific Scimed, Inc. Method and system for determining the location of a medical probe using a reference transducer array
KR101120691B1 (ko) 2005-08-22 2012-04-06 삼성메디슨 주식회사 공간합성을 이용한 초음파영상 합성방법
JP5001286B2 (ja) * 2005-10-11 2012-08-15 プライム センス リミティド 対象物再構成方法およびシステム
US20110096182A1 (en) * 2009-10-25 2011-04-28 Prime Sense Ltd Error Compensation in Three-Dimensional Mapping
CN101496033B (zh) * 2006-03-14 2012-03-21 普莱姆森斯有限公司 利用散斑图案的三维传感
EP1994503B1 (en) * 2006-03-14 2017-07-05 Apple Inc. Depth-varying light fields for three dimensional sensing
US8350847B2 (en) * 2007-01-21 2013-01-08 Primesense Ltd Depth mapping using multi-beam illumination
TWI433052B (zh) * 2007-04-02 2014-04-01 Primesense Ltd 使用投影圖案之深度製圖
US8150142B2 (en) * 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
WO2008155770A2 (en) * 2007-06-19 2008-12-24 Prime Sense Ltd. Distance-varying illumination and imaging techniques for depth mapping
US8456517B2 (en) * 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US8462207B2 (en) * 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8786682B2 (en) * 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) * 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US9582889B2 (en) * 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8830227B2 (en) * 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
US8982182B2 (en) * 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
US9066087B2 (en) 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
US9167138B2 (en) 2010-12-06 2015-10-20 Apple Inc. Pattern projection and imaging using lens arrays
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
AU2013219966B2 (en) 2012-02-15 2015-04-02 Apple Inc. Scanning depth engine

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2735181B2 (ja) * 1987-01-12 1998-04-02 株式会社東芝 超音波診断装置
US4972838A (en) * 1988-07-13 1990-11-27 Kabushiki Kaisha Toshiba Ultrasonic diagnostic apparatus
JP3101301B2 (ja) * 1990-07-20 2000-10-23 株式会社東芝 超音波診断装置
US5255681A (en) * 1991-03-20 1993-10-26 Olympus Optical Co., Ltd. Ultrasonic wave diagnosing apparatus having an ultrasonic wave transmitting and receiving part transmitting and receiving ultrasonic waves
US5313948A (en) * 1991-11-28 1994-05-24 Aloka Co., Ltd. Ultrasonic diagnostic apparatus
JPH06182A (ja) * 1992-06-18 1994-01-11 Toshiba Corp 超音波診断装置
JP3312282B2 (ja) * 1992-11-02 2002-08-05 株式会社日立メディコ 超音波診断装置
US5497776A (en) * 1993-08-05 1996-03-12 Olympus Optical Co., Ltd. Ultrasonic image diagnosing apparatus for displaying three-dimensional image
JP3045642B2 (ja) * 1994-01-25 2000-05-29 アロカ株式会社 超音波診断装置
US5782766A (en) * 1995-03-31 1998-07-21 Siemens Medical Systems, Inc. Method and apparatus for generating and displaying panoramic ultrasound images
US5582173A (en) * 1995-09-18 1996-12-10 Siemens Medical Systems, Inc. System and method for 3-D medical imaging using 2-D scan data
US5876342A (en) * 1997-06-30 1999-03-02 Siemens Medical Systems, Inc. System and method for 3-D ultrasound imaging and motion estimation
JP3723663B2 (ja) * 1997-07-15 2005-12-07 フクダ電子株式会社 超音波診断装置
US5873830A (en) * 1997-08-22 1999-02-23 Acuson Corporation Ultrasound imaging system and method for improving resolution and operation
US6012458A (en) * 1998-03-20 2000-01-11 Mo; Larry Y. L. Method and apparatus for tracking scan plane motion in free-hand three-dimensional ultrasound scanning using adaptive speckle correlation

Also Published As

Publication number Publication date
DE10128206B4 (de) 2004-05-27
US6494837B2 (en) 2002-12-17
JP2002102226A (ja) 2002-04-09
JP3423937B2 (ja) 2003-07-07
KR100355718B1 (ko) 2002-10-11
US20020004633A1 (en) 2002-01-10
DE10128206A1 (de) 2002-03-21

Similar Documents

Publication Publication Date Title
KR100355718B1 (ko) 스티어링이 가능한 프로브를 사용한 3차원 초음파 영상시스템 및 영상 형성 방법
JP5681623B2 (ja) 2次元アレイプローブによる拡張視野の超音波イメージング
JP5508401B2 (ja) 誘導efov走査による拡張視野の超音波イメージング
US5899861A (en) 3-dimensional volume by aggregating ultrasound fields of view
US5582173A (en) System and method for 3-D medical imaging using 2-D scan data
KR101121301B1 (ko) 3차원 측정을 수행하는 초음파 시스템 및 방법
JPH08229038A (ja) 3次元超音波画像作成方法および装置
CN101273903A (zh) 超声波成像装置以及超声波速度优化方法
JP2003220060A (ja) 超音波血流撮像及び体積流量計算のための方法及びシステム
JP2003204963A (ja) 複数の2dスライスから画像を作成するための超音波診断方法及び装置
US20110098571A1 (en) Scan line display apparatus and method
JP4945277B2 (ja) 超音波診断装置
JP5191183B2 (ja) 超音波診断装置
US8157735B2 (en) Ultrasound system and method of providing ultrasound images
US20090062653A1 (en) Ultrasound System And Method Of Forming Ultrasound Image
US11116481B2 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
JP3685737B2 (ja) 超音波診断装置
JP2002233527A (ja) 超音波診断装置
JP2002017724A (ja) 超音波診断装置
JP2000201930A (ja) 3次元超音波診断装置
JP5348829B2 (ja) 超音波診断装置、超音波画像表示方法及び超音波画像表示プログラム
KR20180123974A (ko) 교차 평면 초음파 이미지로 움직이는 구조의 시각화를 향상시키는 방법 및 시스템
Perez et al. Feasibility of Optical Tracking for Swept Synthetic Aperture Imaging

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120618

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20130521

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20140827

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20160905

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20170905

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20180827

Year of fee payment: 17

FPAY Annual fee payment

Payment date: 20190826

Year of fee payment: 18