KR101487688B1 - 단면의 위치를 가이드하기 위한 내비게이터를 제공하는 초음파 시스템 및 방법 - Google Patents

단면의 위치를 가이드하기 위한 내비게이터를 제공하는 초음파 시스템 및 방법 Download PDF

Info

Publication number
KR101487688B1
KR101487688B1 KR20120133998A KR20120133998A KR101487688B1 KR 101487688 B1 KR101487688 B1 KR 101487688B1 KR 20120133998 A KR20120133998 A KR 20120133998A KR 20120133998 A KR20120133998 A KR 20120133998A KR 101487688 B1 KR101487688 B1 KR 101487688B1
Authority
KR
South Korea
Prior art keywords
section
ultrasound image
dimensional
input information
dimensional position
Prior art date
Application number
KR20120133998A
Other languages
English (en)
Other versions
KR20140066578A (ko
Inventor
유준상
김성윤
Original Assignee
삼성메디슨 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성메디슨 주식회사 filed Critical 삼성메디슨 주식회사
Priority to KR20120133998A priority Critical patent/KR101487688B1/ko
Publication of KR20140066578A publication Critical patent/KR20140066578A/ko
Application granted granted Critical
Publication of KR101487688B1 publication Critical patent/KR101487688B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

단면의 위치를 가이드하기 위한 내비게이터를 제공하는 초음파 시스템 및 방법이 개시된다. 본 발명에 따른 초음파 시스템은, 사용자의 입력정보를 수신하도록 동작하는 사용자 입력부; 및 대상체를 포함하는 생체에 대응하는 초음파 데이터를 이용하여 3차원 지오메트리 정보를 포함하는 3차원 초음파 영상을 형성하고, 3차원 초음파 영상에 대한 단면을 설정하고, 3차원 지오메트리 정보를 이용하여 단면의 3차원 위치를 검출하고, 입력정보 및 3차원 위치를 이용하여 단면의 위치를 가이드하기 위한 내비게이터를 형성하도록 동작하는 프로세서를 포함한다.

Description

단면의 위치를 가이드하기 위한 내비게이터를 제공하는 초음파 시스템 및 방법{ULTRASOUND SYSTEM AND METHOD OF PROVIDING NAVIGATOR FOR GUIDING POSITION OF PLANE}
본 발명은 초음파 시스템에 관한 것으로, 특히 단면의 위치를 가이드하기 위한 내비게이터를 제공하는 초음파 시스템 및 방법에 관한 것이다.
초음파 시스템은 무침습 및 비파괴 특성을 가지고 있어, 생체 내부의 정보를 얻기 위한 의료 분야에서 널리 이용되고 있다. 초음파 시스템은 생체를 직접 절개하여 관찰하는 외과 수술의 필요 없이, 생체 내부의 고해상도 영상을 실시간으로 의사에게 제공할 수 있어 의료 분야에서 매우 중요하게 사용되고 있다.
초음파 시스템은 2차원 초음파 영상에서 제공할 수 없었던 공간정보, 해부학적 정보 등과 같은 임상정보를 포함하는 3차원 초음파 영상을 제공하고 있다. 즉, 초음파 시스템은 연속적으로 초음파 신호를 생체에 송신하고 생체로부터 반사되는 초음파 신호(즉, 초음파 에코신호)를 수신하여 볼륨 데이터를 형성하고, 볼륨 데이터를 렌더링하여 3차원 초음파 영상을 형성한다.
초음파 시스템은 3차원 초음파 영상의 공간적 위치(즉, 3차원 위치)를 제공하기 위해 OH(orientation help)를 제공하고 있다. OH는 초음파 프로브를 통해 획득한 초음파 데이터의 전체 윤곽을 3차원으로 나타내고, 사용자에 의해 선택된 기준 단면(reference plane)이 3차원 공간에서 어느 위치에 해당하는지를 입체적으로 나타낸다.
종래의 OH는 전체 볼륨 데이터에 대한 현재 단면(plane)의 위치만을 표시한다. 이로 인해, 사용자가 원하는 단면의 위치를 찾는데 어려움이 있는 문제점이 있다.
본 발명은 3차원 초음파 영상의 3차원 지오메트리 정보를 이용하여 단면의 위치를 가이드하기 위한 내비게이터를 제공하는 초음파 시스템 및 방법을 제공한다.
본 발명에 따른 초음파 시스템은, 사용자의 입력정보를 수신하도록 동작하는 사용자 입력부; 및 대상체를 포함하는 생체에 대응하는 초음파 데이터를 이용하여 3차원 지오메트리 정보를 포함하는 3차원 초음파 영상을 형성하고, 상기 3차원 초음파 영상에 대한 단면을 설정하고, 상기 3차원 지오메트리 정보를 이용하여 상기 단면의 3차원 위치를 검출하고, 상기 입력정보 및 상기 3차원 위치를 이용하여 상기 단면의 위치를 가이드하기 위한 내비게이터를 형성하도록 동작하는 프로세서를 포함한다.
또한 본 발명에 따른 내비게이터 제공 방법은, a) 대상체를 포함하는 생체에 대응하는 초음파 데이터를 이용하여 3차원 지오메트리 정보를 포함하는 3차원 초음파 영상을 형성하는 단계; b) 사용자의 입력정보를 수신하는 단계; c) 상기 3차원 초음파 영상에 대한 단면을 설정하는 단계; d) 상기 3차원 지오메트리 정보를 이용하여 상기 단면의 3차원 위치를 검출하는 단계; 및 e) 상기 입력정보 및 상기 3차원 위치를 이용하여 상기 단면의 위치를 가이드하기 위한 내비게이터를 형성하는 단계를 포함한다.
본 발명은 3차원 초음파 영상으로부터 원하는 단면 또는 찾고자 하는 뷰(view)를 용이하게 찾을 수 있다. 따라서, 대상체를 진단하는 속도를 높일 수 있어, 사용자에게 편의성을 제공할 수 있다.
또한, 본 발명은 찾은 뷰(view)에 대해 신뢰성을 높일 수 있어, 사용자 간에 정보를 교환하는데 용이하다.
도 1은 본 발명의 실시예에 따른 초음파 시스템의 구성을 보이는 블록도.
도 2는 본 발명의 실시예에 따른 초음파 데이터 획득부의 구성을 보이는 블록도.
도 3은 복수의 프레임을 보이는 예시도.
도 4는 본 발명의 실시예에 따라 현재 단면의 위치를 가이드하기 위한 내비게이터를 제공하는 절차를 보이는 플로우차트.
도 5는 볼륨 데이터를 보이는 예시도.
도 6은 본 발명의 일실시예에 따른 내비게이터를 보이는 예시도.
도 7은 본 발명의 다른 실시예에 따른 내비게이터를 보이는 예시도.
도 8은 본 발명의 또 다른 실시예에 따른 내비게이터를 보이는 예시도.
도 9는 본 발명의 또 다른 실시예에 따른 내비게이터를 보이는 예시도.
도 10은 본 발명의 또 다른 실시예에 따른 내비게이터를 보이는 예시도.
도 11은 본 발명의 또 다른 실시예에 따른 내비게이터를 보이는 예시도.
도 12는 본 발명의 실시예에 따른 2차원 초음파 영상 및 내비게이터를 보이는 예시도.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 설명한다.
도 1은 본 발명의 실시예에 따른 초음파 시스템의 구성을 보이는 블록도이다. 도 1을 참조하면, 초음파 시스템(100)은 초음파 데이터 획득부(110), 사용자 입력부(120), 프로세서(130), 저장부(140) 및 디스플레이부(150)를 포함한다.
초음파 데이터 획득부(110)는 생체의 초음파 영상에 대응하는 초음파 데이터를 획득한다. 생체는 대상체(예를 들어, 혈관, 심장, 간 등)를 포함한다. 초음파 데이터는 RF(radio frequency) 데이터를 포함한다. 그러나, 초음파 데이터는 반드시 이에 한정되지 않는다.
도 2는 본 발명의 실시예에 따른 초음파 데이터 획득부(110)의 구성을 보이는 블록도이다. 도 2를 참조하면, 초음파 데이터 획득부(110)는 초음파 프로브(210), 송신부(220), 수신부(230) 및 초음파 데이터 형성부(240)를 포함한다.
초음파 프로브(210)는 전기적 신호와 초음파 신호를 상호 변환하도록 동작하는 복수의 변환소자(transducer element)(도시하지 않음)를 포함한다. 초음파 프로브(210)는 초음파 신호를 생체에 송신하고, 생체로부터 반사되는 초음파 신호(즉, 초음파 에코신호)를 수신하여 전기적 신호(이하, 수신신호라 함)를 형성한다. 수신신호는 아날로그 신호이다. 초음파 프로브(210)는 3D 프로브(three-dimensional probe), 2D 어레이 프로브(two-dimensional array probe) 등을 포함한다.
송신부(220)는 초음파 신호의 송신을 제어한다. 또한, 송신부(220)는 변환소자를 고려하여, 초음파 영상을 얻기 위한 전기적 신호(이하, 송신신호라 함)를 형성한다. 본 실시예에 있어서, 송신부(220)는 변환소자를 고려하여, 도 3에 도시된 바와 같이, 복수의 프레임(Fi(1≤i≤N)) 각각을 얻기 위한 송신신호를 형성한다. 따라서, 초음파 프로브(210)는 송신부(220)로부터 순차적으로 제공되는 송신신호를 초음파 신호로 변환하고, 변환된 초음파 신호를 생체에 송신하고 생체로부터 반사되는 초음파 에코신호를 수신하여 수신신호를 형성한다.
수신부(230)는 초음파 프로브(210)로부터 제공되는 수신신호를 아날로그 디지털 변환하여 디지털 신호를 형성한다. 또한, 수신부(230)는 변환소자의 위치를 고려하여 디지털 신호에 수신 빔 포밍을 수행하여 수신집속신호를 형성한다.
초음파 데이터 형성부(240)는 수신부(230)로부터 제공되는 수신집속신호를 이용하여 초음파 영상에 대응하는 초음파 데이터를 형성한다. 본 실시예에 있어서, 초음파 데이터 형성부(240)는 수신부(230)로부터 순차적으로 제공되는 수신집속신호를 이용하여 복수의 프레임(Fi(1≤i≤N)) 각각에 대응하는 초음파 데이터를 형성한다. 또한, 초음파 데이터 형성부(240)는 초음파 데이터를 형성하는데 필요한 신호 처리(예를 들어, 이득(gain) 조절 등)를 수신집속신호에 수행할 수도 있다.
전술한 실시예에서는 초음파 데이터 획득부(110)가 초음파 신호를 생체에 송신하고 생체로부터 반사되는 초음파 에코신호를 수신하여 초음파 영상에 대응하는 초음파 데이터를 획득하는 것으로 설명하였지만, 다른 실시예에서는 초음파 데이터 획득부(110)가 초음파 시스템(100)에 유선 또는 무선으로 연결된 외부 또는 내부 장치(도시하지 않음)로부터 초음파 데이터를 획득할 수도 있다.
다시 도 1을 참조하면, 사용자 입력부(120)는 사용자의 입력정보를 수신한다. 본 실시예에 있어서, 입력정보는 내비게이터를 형성할 단면을 설정하기 위한 제1 입력정보를 포함한다. 또한, 입력정보는 생체내에서 세그멘테이션을 수행할 대상체를 선택하기 위한 제2 입력정보를 포함한다. 또한, 입력정보는 적어도 하나의 기준 단면을 설정하기 위한 제3 입력정보를 포함한다. 또한, 입력정보는 3차원 초음파 영상에 관심영역을 설정하기 위한 제4 입력정보를 포함한다. 관심영역은 적어도 하나의 포인트 또는 적어도 하나의 영역을 포함한다. 그러나, 관심영역은 반드시 이에 한정되지 않는다. 또한, 입력정보는 3차원 초음파 영상을 회전시키기 위한 제5 입력정보 및 3차원 초음파 영상을 이동시키기 위한 제6 입력정보중 적어도 하나를 포함한다. 또한, 입력정보는 단면을 회전시키기 위한 제7 입력정보 및 단면을 이동시키기 위한 제8 입력정보중 적어도 하나를 포함한다. 사용자 입력부(120)는 컨트롤 패널(control panel), 트랙볼(trackball), 터치 스크린(touch screen), 키보드, 마우스 등을 포함한다.
프로세서(130)는 초음파 데이터 획득부(110) 및 사용자 입력부(120)에 연결된다. 프로세서(130)는 CPU(central processing unit), 마이크로프로세서(microprocessor), GPU(graphic processing unit) 등을 포함한다.
도 4는 본 발명의 실시예에 따라 단면의 위치를 가이드하기 위한 내비게이터를 제공하는 절차를 보이는 플로우차트이다. 도 4를 참조하면, 프로세서(130)는 초음파 데이터 획득부(110)로부터 제공되는 초음파 데이터를 이용하여 도 5에 도시된 바와 같이 볼륨 데이터(VD)를 형성한다(S402). 볼륨 데이터(VD)는 복수의 프레임(Fi(1≤i≤N))으로 이루어지고 밝기값을 갖는 복셀(voxel)을 포함한다. 복수의 복셀 각각은 3차원 지오메트리 정보(three-dimensional geometry information)를 갖는다. 3차원 지오메트리 정보는 3차원 좌표값을 포함한다. 그러나, 3차원 지오메트리 정보는 반드시 이에 한정되지 않는다. 도 5에 있어서, 도면부호 521 내지 523은 A 단면, B 단면 및 C 단면을 나타낸다. 또한, 축(axial) 방향은 초음파 프로브(210)의 변환소자를 기준으로 초음파 신호의 진행 방향을 나타내고, 측(lateral) 방향은 스캔라인(scanline)의 이동 방향을 나타내며, 고도(elevation) 방향은 3차원 초음파 영상의 깊이 방향으로서 프레임(즉, 주사면)의 스캔 방향을 나타낸다.
프로세서(130)는 볼륨 데이터(VD)에 볼륨 렌더링을 수행하여 3차원 초음파 영상을 형성한다(S404). 볼륨 렌더링은 공지된 다양한 방법이 이용될 수 있으므로 본 실시예에서 상세하게 설명하지 않는다.
프로세서(130)는 3차원 초음파 영상에 대한 단면을 설정한다(S406). 일례로서, 프로세서(130)는 사용자 입력부(120)로부터 제공되는 입력정보(즉, 제2 입력정보)에 기초하여 3차원 초음파 영상에 대한 단면을 설정한다. 다른 예로서, 프로세서(130)는 사용자 입력부(120)로부터 제공되는 입력정보(즉, 제2 입력정보)에 기초하여 디스플레이부(150)에 디스플레이된 2차원 초음파 영상에 해당하는 단면들(예를 들어, A 단면, B 단면 또는 C 단면)중 적어도 하나의 단면을 설정한다. 그러나, 단면은 반드시 이에 한정되지 않는다.
프로세서(130)는 3차원 초음파 영상의 3차원 지오메트리 정보를 이용하여 단면의 3차원 위치(즉, 3차원 좌표값)를 검출한다(S408). 3차원 위치는 공지된 다양한 방법을 이용하여 검출될 수 있으므로 본 실시예에서 상세하게 설명하지 않는다.
프로세서(130)는 사용자 입력부(120)로부터 제공되는 입력정보 및 검출된 3차원 위치에 기초하여 단면의 위치를 가이드하기 위한 내비게이터를 형성한다(S410).
일실시예에 있어서, 프로세서(130)는 사용자 입력부(120)로부터 제공되는 입력정보(즉, 제2 입력정보)에 기초하여 3차원 초음파 영상에 대상체의 세그멘테이션을 수행한다. 세그멘테이션은 공지된 다양한 방법이 이용될 수 있으므로 본 실시예에서 상세하게 설명하지 않는다. 프로세서(130)는 3차원 초음파 영상으로부터 세그멘테이션된 대상체를 추출한다. 프로세서(130)는 3차원 초음파 영상의 3차원 지오메트리 정보를 이용하여 추출된 대상체의 3차원 위치(즉, 3차원 좌표값)을 검출한다. 프로세서(130)는 단면의 3차원 위치 및 추출된 대상체의 3차원 위치에 기초하여, 도 6에 도시된 바와 같이 추출된 대상체(TO)을 기준으로 단면의 위치를 가이드하기 위한 내비게이터(NV)를 형성한다.
다른 실시예에 있어서, 프로세서(130)는 사용자 입력부(120)로부터 제공되는 입력정보(즉, 제2 입력정보)에 기초하여 3차원 초음파 영상에 대상체의 세그멘테이션을 수행한다. 프로세서(130)는 3차원 초음파 영상으로부터 세그멘테이션된 대상체를 추출한다. 프로세서(130)는 프로세서(130)는 3차원 초음파 영상의 3차원 지오메트리 정보를 이용하여 추출된 대상체의 3차원 위치(즉, 3차원 좌표값)을 검출한다. 프로세서(130)는 볼륨 데이터(VD)(즉, 3차원 초음파 영상)의 윤곽을 검출하고, 볼륨 데이터(VD)(즉, 3차원 초음파 영상)의 윤곽을 나타내는 윤곽선을 형성한다. 프로세서(130)는 단면의 3차원 위치, 추출된 대상체의 3차원 위치 및 윤곽선에 기초하여 내비게이터를 형성한다. 예를 들면, 프로세서(130)는 도 7에 도시된 바와 같이, 추출된 대상체의 3차원 위치에 기초하여 윤곽선(CL)내에 대상체(TO)를 위치시키고, 단면의 3차원 위치를 이용하여 대상체(TO)를 기준으로 단면의 위치를 가이드하기 위한 내비게이터(NV)를 형성한다.
또 다른 실시예에 있어서, 프로세서(130)는 사용자 입력부(120)로부터 제공되는 입력정보(즉, 제3 입력정보)에 기초하여, 3차원 초음파 영상에 적어도 하나의 기준 단면을 설정한다. 프로세서(130)는 3차원 초음파 영상의 3차원 지오메트리 정보에 기초하여 적어도 하나의 기준 단면의 3차원 위치를 검출한다. 프로세서(130)는 단면의 3차원 위치 및 기준 단면의 3차원 위치에 기초하여 내비게이터를 형성한다. 예를 들면, 프로세서(130)는 도 8에 도시된 바와 같이, 단면의 3차원 위치에 기초하여 기준 단면들(RP1 내지 RP3)을 기준으로 단면의 위치를 가이드하기 위한 내비게이터(NV)를 형성한다.
또 다른 실시예에 있어서, 프로세서(130)는 사용자 입력부(120)로부터 제공되는 입력정보(즉, 제3 입력정보)에 기초하여, 3차원 초음파 영상에 적어도 하나의 기준 단면을 설정한다. 프로세서(130)는 3차원 초음파 영상의 3차원 지오메트 정보에 기초하여 적어도 하나의 기준 단면의 3차원 위치를 검출한다. 프로세서(130)는 볼륨 데이터(VD)(즉, 3차원 초음파 영상)의 윤곽을 검출하여 볼륨 데이터(VD)(즉, 3차원 초음파 영상)의 윤곽을 나타내는 윤곽선을 형성한다. 프로세서(130)는 단면의 3차원 위치, 기준 단면의 3차원 위치 및 윤곽선에 기초하여 내비게이터를 형성한다. 예를 들면, 프로세서(130)는 도 9에 도시된 바와 같이, 적어도 하나의 기준 단면의 3차원 위치에 기초하여 윤곽선(CL)내에 적어도 하나의 기준 단면을 위치시키고, 단면의 3차원 위치를 이용하여 적어도 하나의 기준 단면을 기준으로 단면의 위치를 가이드하기 위한 내비게이터(NV)를 형성한다.
또 다른 실시예에 있어서, 프로세서(130)는 사용자 입력부(120)로부터 제공되는 입력정보(즉, 제4 입력정보)에 기초하여 3차원 초음파 영상에 관심영역을 설정한다. 프로세서(130)는 설정된 관심영역에 해당하는 대상체를 3차원 초음파 영상으로부터 추출한다. 프로세서(130)는 3차원 초음파 영상의 3차원 지오메트리 정보에 기초하여 추출된 대상체의 3차원 위치(즉, 3차원 좌표값)을 검출한다. 프로세서(130)는 단면의 3차원 위치 및 추출된 대상체의 3차원 위치에 기초하여, 도 10에 도시된 바와 같이 추출된 대상체(TO)을 기준으로 단면의 위치를 가이드하기 위한 내비게이터(NV)를 형성한다. 도 10에 있어서, 도면부호 ROI는 관심영역을 나타낸다.
또 다른 실시예에 있어서, 프로세서(130)는 사용자 입력부(120)로부터 제공되는 입력정보(즉, 제4 입력정보)에 기초하여 3차원 초음파 영상에 관심영역을 설정한다. 프로세서(130)는 설정된 관심영역에 해당하는 대상체를 3차원 초음파 영상으로부터 추출한다. 프로세서(130)는 3차원 초음파 영상의 3차원 지오메트리 정보에 기초하여 추출된 대상체의 3차원 위치(즉, 3차원 좌표값)을 검출한다. 프로세서(130)는 볼륨 데이터(VD)(즉, 3차원 초음파 영상)의 윤곽을 검출하여 볼륨 데이터(VD)(즉, 3차원 초음파 영상)의 윤곽을 나타내는 윤곽선을 형성한다. 프로세서(130)는 단면의 3차원 위치, 대상체의 3차원 위치 및 윤곽선에 기초하여 내비게이터를 형성한다. 예를 들면, 프로세서(130)는 도 11에 도시된 바와 같이, 대상체의 3차원 위치에 기초하여 윤곽선(CL)내에 대상체(TO)를 위치시키고, 단면의 3차원 위치에 기초하여 대상체(TO)를 기준으로 단면의 위치를 가이드하기 위한 내비게이터(NV)를 형성한다. 도 11에 있어서, 도면부호 ROI는 관심영역을 나타낸다.
선택적으로, 프로세서(130)는 사용자 입력부(120)로부터 제공되는 입력정보(즉, 제5 입력정보 및 제6 입력정보중 적어도 하나)에 기초하여, 3차원 초음파 영상에 영상 처리(회전 및 이동 중 적어도 하나)를 수행하고, 영상 처리된 3차원 초음파 영상의 새로운 3차원 지오메트리 정보를 검출하고, 새로운 3차원 지오메트리정보에 기초하여 내비게이터(NV)의 3차원 위치를 변경한다.
또한 선택적으로, 프로세서(130)는 사용자 입력부(120)로부터 제공되는 입력정보(즉, 제7 입력정보 및 제8 입력정보중 적어도 하나)에 기초하여, 단면을 회전시키거나 단면을 이동시킬 수도 있다.
프로세서(130)는 내비게이터의 디스플레이를 제어한다(S412). 일례로서, 프로세서(130)는 도 12에 도시된 바와 같이, 현재 단면에 해당하는 2차원 초음파 영상(UI)의 일측에 내비게이터(NV)가 디스플레이되도록 제어한다. 다른 예로서, 프로세서(130)는 현재 단면에 해당하는 2차원 초음파 영상과 내비게이터가 상이한 디스플레이부(150)에 디스플레이되도록 제어한다.
다시 도 1을 참조하면, 저장부(140)는 초음파 데이터 획득부(110)에서 획득된 초음파 데이터를 저장한다. 또한, 저장부(140)는 사용자 입력부(120)에서 수신된 입력정보를 저장한다. 또한, 저장부(140)는 프로세서(130)에서 형성된 볼륨 데이터(VD)를 형성한다. 또한, 저장부(140)는 프로세서(130)에서 형성된 내비게이터를 저장한다.
디스플레이부(150)는 프로세서(130)에서 형성된 3차원 초음파 영상을 디스플레이한다. 또한, 디스플레이부(150)는 프로세서(130)에서 형성된 2차원 초음파 영상을 디스플레이한다. 또한, 디스플레이부(150)는 프로세서(130)에서 형성된 내비게이터를 디스플레이한다.
본 발명은 바람직한 실시예를 통해 설명되고 예시되었으나, 당업자라면 첨부한 청구 범위의 사항 및 범주를 벗어나지 않고 여러 가지 변형 및 변경이 이루어질 수 있음을 알 수 있을 것이다.
100: 초음파 시스템 110: 초음파 데이터 획득부
120: 사용자 입력부 130: 프로세서
140: 저장부 150: 디스플레이부
210: 초음파 프로브 220: 송신부
230: 수신부 240: 초음파 데이터 형성부
Fi: 프레임 VD: 볼륨 데이터
TO: 대상체 ROI: 관심영역
CL: 윤곽선 NV: 내비게이터

Claims (34)

  1. 초음파 시스템으로서,
    사용자의 입력정보를 수신하도록 동작하는 사용자 입력부; 및
    대상체를 포함하는 생체에 대응하는 초음파 데이터를 이용하여 3차원 지오메트리 정보를 포함하는 3차원 초음파 영상을 형성하고,
    상기 입력정보에 기초하여 상기 3차원 초음파 영상에 상기 대상체의 세그멘테이션을 수행하고, 상기 3차원 지오메트리 정보를 이용하여 상기 세그멘테이션된 대상체의 3차원 위치를 검출하고,
    상기 3차원 초음파 영상에 대한 단면을 설정하고, 상기 3차원 지오메트리 정보를 이용하여 상기 단면의 3차원 위치를 검출하고, 상기 입력정보, 상기 단면의 3차원 위치, 및 상기 대상체의 3차원 위치를 이용하여 상기 단면의 위치를 가이드하기 위한 내비게이터를 형성하도록 동작하는 프로세서를 포함하는 초음파 시스템.
  2. 삭제
  3. 제1항에 있어서, 상기 프로세서는,
    상기 입력정보에 기초하여 상기 3차원 초음파 영상에 상기 대상체의 세그멘테이션을 수행하고,
    상기 3차원 초음파 영상으로부터 상기 세그멘테이션된 대상체를 추출하고,
    상기 3차원 지오메트리 정보를 이용하여 상기 대상체의 3차원 위치를 검출하고,
    상기 3차원 초음파 영상의 윤곽을 검출하여 상기 3차원 초음파 영상의 윤곽을 나타내는 윤곽선을 형성하고,
    상기 단면의 3차원 위치, 상기 대상체의 3차원 위치 및 상기 윤곽선에 기초하여 상기 내비게이터를 형성하도록 동작하는 초음파 시스템.
  4. 제3항에 있어서, 상기 프로세서는,
    상기 대상체의 3차원 위치에 기초하여 상기 윤곽선내에 상기 대상체를 위치시키고,
    상기 단면의 3차원 위치를 이용하여 상기 대상체를 기준으로 상기 내비게이터를 형성하도록 동작하는 초음파 시스템.
  5. 제3항 내지 제4항중 어느 한 항에 있어서, 상기 입력정보는,
    상기 단면을 설정하기 위한 제1 입력정보; 및
    상기 생체내에서 상기 세그멘테이션을 수행할 상기 대상체를 선택하기 위한 제2 입력정보
    를 포함하는 초음파 시스템.
  6. 제1항에 있어서, 상기 프로세서는,
    상기 입력정보에 기초하여 상기 3차원 초음파 영상에 적어도 하나의 기준 단면을 설정하고,
    상기 3차원 초음파 영상의 3차원 지오메트리 정보에 기초하여 상기 기준 단면의 3차원 위치를 검출하고,
    상기 단면의 3차원 위치 및 상기 기준 단면의 3차원 위치에 기초하여 상기 내비게이터를 형성하도록 동작하는 초음파 시스템.
  7. 제1항에 있어서, 상기 프로세서는,
    상기 입력정보에 기초하여 상기 3차원 초음파 영상에 적어도 하나의 기준 단면을 설정하고,
    상기 3차원 초음파 영상의 3차원 지오메트리 정보에 기초하여 상기 기준 단면의 3차원 위치를 검출하고,
    상기 3차원 초음파 영상의 윤곽을 검출하여 상기 3차원 초음파 영상의 윤곽을 나타내는 윤곽선을 형성하고,
    상기 단면의 3차원 위치, 상기 기준 단면의 3차원 위치 및 상기 윤곽선에 기초하여 상기 내비게이터를 형성하도록 동작하는 초음파 시스템.
  8. 제7항에 있어서, 상기 프로세서는,
    상기 기준 단면의 3차원 위치에 기초하여 상기 윤곽선 내에 상기 기준 단면을 위치시키고,
    상기 단면의 3차원 위치에 기초하여 상기 기준 단면을 기준으로 상기 내비게이터를 형성하도록 동작하는 초음파 시스템.
  9. 제6항 내지 제8항중 어느 한 항에 있어서, 상기 입력정보는,
    상기 단면을 설정하기 위한 제1 입력정보; 및
    상기 3차원 초음파 영상에 상기 적어도 하나의 기준 단면을 설정하기 위한 제3 입력정보
    를 포함하는 초음파 시스템.
  10. 제1항에 있어서, 상기 프로세서는,
    상기 입력정보에 기초하여 상기 3차원 초음파 영상에 관심영역을 설정하고,
    상기 관심영역에 해당하는 상기 대상체를 상기 3차원 초음파 영상으로부터 추출하고,
    상기 3차원 초음파 영상의 3차원 지오메트리 정보에 기초하여 상기 대상체의 3차원 위치를 검출하고,
    상기 단면의 3차원 위치 및 상기 대상체의 3차원 위치를 이용하여 상기 내비게이터를 형성하도록 동작하는 초음파 시스템.
  11. 제1항에 있어서, 상기 프로세서는,
    상기 입력정보에 기초하여 상기 3차원 초음파 영상에 관심영역을 설정하고,
    상기 관심영역에 해당하는 상기 대상체를 상기 3차원 초음파 영상으로부터 추출하고,
    상기 3차원 지오메트리 정보를 이용하여 상기 대상체의 3차원 위치를 검출하고,
    상기 3차원 초음파 영상의 윤곽을 검출하여 상기 3차원 초음파 영상의 윤곽을 나타내는 윤곽선을 형성하고,
    상기 단면의 3차원 위치, 상기 대상체의 3차원 위치 및 상기 윤곽선에 기초하여 상기 내비게이터를 형성하도록 동작하는 초음파 시스템.
  12. 제11항에 있어서, 상기 프로세서는,
    상기 대상체의 3차원 위치에 기초하여 상기 윤곽선내에 상기 대상체를 위치시키고,
    상기 단면의 3차원 위치를 이용하여 상기 대상체를 기준으로 상기 내비게이터를 형성하도록 동작하는 초음파 시스템.
  13. 제10항 내지 제12항중 어느 한 항에 있어서, 상기 입력정보는,
    상기 3차원 초음파 영상에 상기 관심영역을 설정하기 위한 제4 입력정보
    를 포함하는 초음파 시스템.
  14. 제1항에 있어서, 상기 프로세서는,
    상기 입력정보에 기초하여 상기 3차원 초음파 영상에 회전 처리 및 이동 처리중 적어도 하나의 영상 처리를 수행하고,
    상기 영상 처리된 3차원 초음파 영상의 새로운 3차원 지오메트리 정보를 검출하고,
    상기 새로운 3차원 지오메트리 정보에 기초하여 상기 내비게이터의 3차원 위치를 변경하도록 더 동작하는 초음파 시스템.
  15. 제14항에 있어서, 상기 입력정보는, 상기 3차원 초음파 영상을 회전시키기 위한 제5 입력정보 및 3차원 초음파 영상을 이동시키기 위한 제6 입력정보중 적어도 하나를 포함하는 초음파 시스템.
  16. 제1항에 있어서, 상기 프로세서는, 상기 입력정보에 기초하여 상기 단면에 회전 처리 및 이동 처리 중 적어도 하나의 처리를 수행하도록 더 동작하는 초음파 시스템.
  17. 제16항에 있어서, 상기 입력정보는, 상기 단면을 회전시키기 위한 제7 입력정보 및 상기 단면을 이동시키기 위한 제8 입력정보중 적어도 하나를 포함하는 초음파 시스템.
  18. 내비게이터 제공 방법으로서,
    a) 대상체를 포함하는 생체에 대응하는 초음파 데이터를 이용하여 3차원 지오메트리 정보를 포함하는 3차원 초음파 영상을 형성하는 단계;
    b) 사용자의 입력정보를 수신하는 단계;
    c) 상기 입력정보에 기초하여 상기 3차원 초음파 영상에 상기 대상체의 세그멘테이션을 수행하는 단계;
    d) 상기 3차원 지오메트리 정보를 이용하여 상기 세그멘테이션된 대상체의 3차원 위치를 검출하는 단계,
    e) 상기 3차원 초음파 영상에 대한 단면을 설정하는 단계;
    f) 상기 3차원 지오메트리 정보를 이용하여 상기 단면의 3차원 위치를 검출하는 단계; 및
    g) 상기 입력정보, 상기 단면의 3차원 위치, 및 상기 대상체의 3차원 위치를 이용하여 상기 단면의 위치를 가이드하기 위한 내비게이터를 형성하는 단계
    를 포함하는 내비게이터 제공 방법.
  19. 삭제
  20. 제18항에 있어서, 상기 단계 g)는,
    g1) 상기 입력정보에 기초하여 상기 3차원 초음파 영상에 상기 대상체의 세그멘테이션을 수행하는 단계;
    g2) 상기 3차원 초음파 영상으로부터 상기 세그멘테이션된 대상체를 추출하는 단계;
    g3) 상기 3차원 지오메트리 정보를 이용하여 상기 대상체의 3차원 위치를 검출하는 단계;
    g4) 상기 3차원 초음파 영상의 윤곽을 검출하여 상기 3차원 초음파 영상의 윤곽을 나타내는 윤곽선을 형성하는 단계; 및
    g5) 상기 단면의 3차원 위치, 상기 대상체의 3차원 위치 및 상기 윤곽선에 기초하여 상기 내비게이터를 형성하는 단계
    를 포함하는 내비게이터 제공 방법.
  21. 제20항에 있어서, 상기 단계 g5)는,
    상기 대상체의 3차원 위치에 기초하여 상기 윤곽선내에 상기 대상체를 위치시키는 단계; 및
    상기 단면의 3차원 위치를 이용하여 상기 대상체를 기준으로 상기 내비게이터를 형성하는 단계
    를 포함하는 내비게이터 제공 방법.
  22. 제20항 내지 제21항중 어느 한 항에 있어서, 상기 입력정보는,
    상기 단면을 설정하기 위한 제1 입력정보; 및
    상기 생체내에서 상기 세그멘테이션을 수행할 상기 대상체를 선택하기 위한 제2 입력정보
    를 포함하는 내비게이터 제공 방법.
  23. 제18항에 있어서, 상기 단계 g)는,
    상기 입력정보에 기초하여 상기 3차원 초음파 영상에 적어도 하나의 기준 단면을 설정하는 단계;
    상기 3차원 초음파 영상의 3차원 지오메트리 정보에 기초하여 상기 기준 단면의 3차원 위치를 검출하는 단계; 및
    상기 단면의 3차원 위치 및 상기 기준 단면의 3차원 위치에 기초하여 상기 내비게이터를 형성하는 단계
    를 포함하는 내비게이터 제공 방법.
  24. 제18항에 있어서, 상기 단계 g)는,
    g1) 상기 입력정보에 기초하여 상기 3차원 초음파 영상에 적어도 하나의 기준 단면을 설정하는 단계;
    g2) 상기 3차원 초음파 영상의 3차원 지오메트리 정보에 기초하여 상기 기준 단면의 3차원 위치를 검출하는 단계;
    g3) 상기 3차원 초음파 영상의 윤곽을 검출하여 상기 3차원 초음파 영상의 윤곽을 나타내는 윤곽선을 형성하는 단계; 및
    g4) 상기 단면의 3차원 위치, 상기 기준 단면의 3차원 위치 및 상기 윤곽선에 기초하여 상기 내비게이터를 형성하는 단계
    를 포함하는 내비게이터 제공 방법.
  25. 제24항에 있어서, 상기 단계 g4)는,
    상기 기준 단면의 3차원 위치에 기초하여 상기 윤곽선 내에 상기 기준 단면을 위치시키는 단계; 및
    상기 단면의 3차원 위치에 기초하여 상기 기준 단면을 기준으로 상기 내비게이터를 형성하는 단계
    를 포함하는 내비게이터 제공 방법.
  26. 제23항 내지 제25항중 어느 한 항에 있어서, 상기 입력정보는,
    상기 단면을 설정하기 위한 제1 입력정보; 및
    상기 3차원 초음파 영상에 상기 적어도 하나의 기준 단면을 설정하기 위한 제3 입력정보
    를 포함하는 내비게이터 제공 방법.
  27. 제18항에 있어서, 상기 단계 g)는,
    상기 입력정보에 기초하여 상기 3차원 초음파 영상에 관심영역을 설정하는 단계;
    상기 관심영역에 해당하는 상기 대상체를 상기 3차원 초음파 영상으로부터 추출하는 단계;
    상기 3차원 초음파 영상의 3차원 지오메트리 정보에 기초하여 상기 대상체의 3차원 위치를 검출하는 단계; 및
    상기 단면의 3차원 위치 및 상기 대상체의 3차원 위치를 이용하여 상기 내비게이터를 형성하는 단계
    를 포함하는 내비게이터 제공 방법.
  28. 제18항에 있어서, 상기 단계 g)는,
    g1) 상기 입력정보에 기초하여 상기 3차원 초음파 영상에 관심영역을 설정하는 단계;
    g2) 상기 관심영역에 해당하는 상기 대상체를 상기 3차원 초음파 영상으로부터 추출하는 단계;
    g3) 상기 3차원 지오메트리 정보를 이용하여 상기 대상체의 3차원 위치를 검출하는 단계;
    g4) 상기 3차원 초음파 영상의 윤곽을 검출하여 상기 3차원 초음파 영상의 윤곽을 나타내는 윤곽선을 형성하는 단계; 및
    g5) 상기 단면의 3차원 위치, 상기 대상체의 3차원 위치 및 상기 윤곽선에 기초하여 상기 내비게이터를 형성하는 단계
    를 포함하는 내비게이터 제공 방법.
  29. 제28항에 있어서, 상기 단계 g5)는,
    상기 대상체의 3차원 위치에 기초하여 상기 윤곽선내에 상기 대상체를 위치시키는 단계; 및
    상기 단면의 3차원 위치를 이용하여 상기 대상체를 기준으로 상기 내비게이터를 형성하는 단계
    를 포함하는 내비게이터 제공 방법.
  30. 제27항 내지 제29항중 어느 한 항에 있어서, 상기 입력정보는,
    상기 3차원 초음파 영상에 상기 관심영역을 설정하기 위한 제4 입력정보
    를 포함하는 내비게이터 제공 방법.
  31. 제18항에 있어서,
    h) 상기 3차원 초음파 영상을 회전시키기 위한 제5 입력정보 및 상기 3차원 초음파 영상을 이동시키기 위한 제6 입력정보중 적어도 하나를 수신하는 단계
    를 더 포함하는 내비게이터 제공 방법.
  32. 제31항에 있어서,
    i) 상기 제5 입력정보 및 상기 제6 입력정보중 적어도 하나에 기초하여 상기 3차원 초음파 영상에 회전 처리 및 이동 처리중 적어도 하나의 영상 처리를 수행하는 단계;
    j) 상기 영상 처리된 3차원 초음파 영상의 새로운 3차원 지오메트리 정보를 검출하는 단계; 및
    k) 상기 새로운 3차원 지오메트리 정보에 기초하여 상기 내비게이터의 3차원 위치를 변경하는 단계
    를 더 포함하는 내비게이터 제공 방법.
  33. 제18항에 있어서,
    i) 상기 단면을 회전시키기 위한 제7 입력정보 및 상기 단면을 이동시키기 위한 제8 입력정보중 적어도 하나를 수신하는 단계
    를 더 포함하는 내비게이터 제공 방법.
  34. 제33항에 있어서,
    j) 상기 제7입력정보 및 상기 제8 입력정보중 적어도 하나에 기초하여 상기 단면에 회전 처리 및 이동 처리중 적어도 하나를 수행하는 단계
    를 더 포함하는 내비게이터 제공 방법.
KR20120133998A 2012-11-23 2012-11-23 단면의 위치를 가이드하기 위한 내비게이터를 제공하는 초음파 시스템 및 방법 KR101487688B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20120133998A KR101487688B1 (ko) 2012-11-23 2012-11-23 단면의 위치를 가이드하기 위한 내비게이터를 제공하는 초음파 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20120133998A KR101487688B1 (ko) 2012-11-23 2012-11-23 단면의 위치를 가이드하기 위한 내비게이터를 제공하는 초음파 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20140066578A KR20140066578A (ko) 2014-06-02
KR101487688B1 true KR101487688B1 (ko) 2015-01-29

Family

ID=51123262

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20120133998A KR101487688B1 (ko) 2012-11-23 2012-11-23 단면의 위치를 가이드하기 위한 내비게이터를 제공하는 초음파 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101487688B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170123305A (ko) 2017-10-30 2017-11-07 이일권 내비게이터를 가진 인체 시술 장치 및 그에 의한 인체 시술 위치 표시 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060112243A (ko) * 2005-04-26 2006-10-31 바이오센스 웹스터 인코포레이티드 2―차원적 초음파 팬의 디스플레이
US20070038085A1 (en) 2003-11-28 2007-02-15 Wei Zhang Navigation among multiple breast ultrasound volumes
US20080146923A1 (en) 2006-10-20 2008-06-19 General Electric Company Composite ultrasound 3D intracardiac volume by aggregation of individual ultrasound 3D intracardiac segments
JP2009506808A (ja) * 2005-09-01 2009-02-19 トムテック イマジング システムズ ゲゼルシャフト ミットべシュレンクテル ハフツンク 多次元画像データセットにおけるナビゲーションと測定の方法及びその装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070038085A1 (en) 2003-11-28 2007-02-15 Wei Zhang Navigation among multiple breast ultrasound volumes
KR20060112243A (ko) * 2005-04-26 2006-10-31 바이오센스 웹스터 인코포레이티드 2―차원적 초음파 팬의 디스플레이
JP2009506808A (ja) * 2005-09-01 2009-02-19 トムテック イマジング システムズ ゲゼルシャフト ミットべシュレンクテル ハフツンク 多次元画像データセットにおけるナビゲーションと測定の方法及びその装置
US20080146923A1 (en) 2006-10-20 2008-06-19 General Electric Company Composite ultrasound 3D intracardiac volume by aggregation of individual ultrasound 3D intracardiac segments

Also Published As

Publication number Publication date
KR20140066578A (ko) 2014-06-02

Similar Documents

Publication Publication Date Title
EP2741107B1 (en) Medical System and Method for Providing Measurement Information Using Three-Dimensional Caliper
CN108784735B (zh) 用于显示采集质量水平的超声成像系统和方法
US9437036B2 (en) Medical system, medical imaging apparatus, and method of providing three-dimensional marker
EP2302414A2 (en) Ultrasound system and method of performing measurement on three-dimensional ultrasound image
KR101100464B1 (ko) 부 관심영역에 기초하여 3차원 초음파 영상을 제공하는 초음파 시스템 및 방법
KR101478622B1 (ko) 3차원 컬러 참조 테이블에 기초하여 3차원 초음파 영상을 제공하는 초음파 시스템 및 방법
WO2018222471A1 (en) Systems and methods for displaying intersections on ultrasound images
KR101792592B1 (ko) 초음파 영상 표시 방법 및 장치
JP2011152416A (ja) 3次元超音波映像に映像処理および関心物体の大きさ測定を行う超音波システムおよび方法
JP2018057428A (ja) 超音波診断装置および超音波診断支援プログラム
EP2610635A2 (en) Providing Doppler spectrum images corresponding to at least two sample volumes in ultrasound system
JP2011120901A (ja) 超音波空間合成映像を提供する超音波システムおよび方法
EP3108456B1 (en) Motion adaptive visualization in medical 4d imaging
JP5766443B2 (ja) スライス映像を提供する超音波システムおよび方法
JP2007068724A (ja) 超音波診断装置及びプログラム
KR101286401B1 (ko) 미리 보기 영상을 제공하는 초음파 시스템 및 방법
KR20170095799A (ko) 초음파 영상 장치 및 그 제어방법
JP2011240131A (ja) スライス映像および付加情報を提供する超音波システムおよび方法
JP2001128982A (ja) 超音波画像診断装置および画像処理装置
KR101487688B1 (ko) 단면의 위치를 가이드하기 위한 내비게이터를 제공하는 초음파 시스템 및 방법
KR20140114523A (ko) 주사 선 정보를 이용한 초음파 데이터 처리 방법 및 장치
JP5202916B2 (ja) 超音波画像診断装置およびその制御プログラム
KR101614374B1 (ko) 3차원 마커를 제공하는 의료 시스템, 의료 영상 장치 및 방법
KR101415021B1 (ko) 파노라마 영상을 제공하는 초음파 시스템 및 방법
JP5959880B2 (ja) 超音波診断装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180111

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191226

Year of fee payment: 6