KR20160081478A - 초음파 진단 장치 및 그 동작방법 - Google Patents

초음파 진단 장치 및 그 동작방법 Download PDF

Info

Publication number
KR20160081478A
KR20160081478A KR1020140195374A KR20140195374A KR20160081478A KR 20160081478 A KR20160081478 A KR 20160081478A KR 1020140195374 A KR1020140195374 A KR 1020140195374A KR 20140195374 A KR20140195374 A KR 20140195374A KR 20160081478 A KR20160081478 A KR 20160081478A
Authority
KR
South Korea
Prior art keywords
marker
interest
ultrasound image
ultrasound
image
Prior art date
Application number
KR1020140195374A
Other languages
English (en)
Other versions
KR102367194B1 (ko
Inventor
김한얼
Original Assignee
삼성메디슨 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성메디슨 주식회사 filed Critical 삼성메디슨 주식회사
Priority to KR1020140195374A priority Critical patent/KR102367194B1/ko
Priority to EP15166202.0A priority patent/EP3040031B1/en
Priority to US14/744,446 priority patent/US10441249B2/en
Publication of KR20160081478A publication Critical patent/KR20160081478A/ko
Application granted granted Critical
Publication of KR102367194B1 publication Critical patent/KR102367194B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4405Device being mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4472Wireless probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52073Production of cursor lines, markers or indicia by electronic means
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

일 실시 예에 따른 초음파 진단 장치는 대상체에 대한 초음파 데이터를 획득하는 데이터 획득부, 상기 초음파 데이터에 기초하여, 초음파 영상을 생성하고, 상기 생성된 초음파 영상에 포함되지 않는 제1 관심 객체에 대한 제1 마커를 형성하는 영상 처리부 및 상기 생성된 초음파 영상을 표시하고, 상기 제1 마커를 상기 추출된 제1 관심 객체의 위치에 대응되도록 표시하는 디스플레이부를 포함할 수 있다.

Description

초음파 진단 장치 및 그 동작방법{Ultrasonic diagnostic apparatus and operating method for the same}
본 발명은 초음파 진단 장치 및 그 동작방법에 관한 것으로, 더욱 구체적으로는 초음파 영상에 표시되지 않는 소정 객체들의 위치를 나타내는 초음파 진단 장치 및 그 동작방법에 관한 것이다.
초음파 진단 장치는 프로브(probe)의 트랜스듀서(transducer)로부터 생성되는 초음파 신호를 대상체로 조사하고, 대상체로부터 반사된 에코 신호의 정보를 수신하여 대상체 내부의 부위에 대한 영상을 얻는다. 특히, 초음파 진단 장치는 대상체 내부의 관찰, 이물질 검출, 및 상해 측정 등 의학적 목적으로 사용된다. 이러한 초음파 진단 장치는 X선을 이용하는 진단 장치에 비하여 안정성이 높고, 실시간으로 영상의 디스플레이가 가능하며, 방사능 피폭이 없어 안전하다는 장점이 있어서 다른 화상 진단 장치와 함께 널리 이용된다.
한편, 초음파 진단 장치는 대상체로부터 반사되는 초음파 신호의 반사 계수를 2차원 영상으로 보이는 B모드(brightness mode), 도플러 효과(doppler effect)를 이용하여 움직이는 대상체(특히, 혈류)의 영상을 보이는 도플러 모드(doppler mode), 대상체에 컴프레션(compression)을 가할 때와 가하지 않을 대의 반응 차이를 영상으로 보이는 탄성 모드(elastic mode) 등을 제공할 수 있다.
본 발명은 디스플레이부에 표시되는 초음파 영상에 포함되지 않는 소정 객체에 대한 마커를, 소정 객체의 위치에 대응되도록 표시할 수 있는 초음파 진단 장치 및 그 동작방법을 제공하는 데 있다.
일 실시 예에 따른 초음파 진단 장치는 대상체에 대한 초음파 데이터를 획득하는 데이터 획득부, 상기 초음파 데이터에 기초하여, 초음파 영상을 생성하고, 상기 생성된 초음파 영상에 포함되지 않는 제1 관심 객체에 대한 제1 마커를 형성하는 영상 처리부 및 상기 생성된 초음파 영상을 표시하고, 상기 제1 마커를 상기 추출된 제1 관심 객체의 위치에 대응되도록 표시하는 디스플레이부를 포함할 수 있다.
일 실시 예에 따른 초음파 데이터는 3차원 볼륨 데이터이고, 상기 초음파 영상은 상기 3차원 볼륨 데이터를 렌더링하여 생성한 3차원 초음파 영상일 수 있다.
일 실시 예에 따른 제1 마커는 상기 제1 관심 객체를 나타내는 텍스트, 이미지 및 동영상 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따른 영상 처리부는, 상기 제1 관심 객체의 위치에 기초하여, 상기 제1 마커의 색상 또는 크기를 결정할 수 있다.
일 실시 예에 따른 영상 처리부는, 상기 초음파 영상에 대응하는 영역과 상기 제1 관심 객체가 위치하는 지점의 거리에 기초하여, 상기 제1 마커의 크기를 결정할 수 있다.
일 실시 예에 따른 영상 처리부는, 상기 생성된 초음파 영상에 포함되는 제2 관심 객체에 대응되는 제2 마커를 형성하며, 상기 디스플레이부는, 상기 제2 마커를 상기 제2 관심 객체의 위치에 대응시켜, 상기 초음파 영상 내에 표시할 수 있다.
일 실시 예에 따른 영상 처리부는, 상기 제1 마커와 제2 마커의 색상 및 크기 중 적어도 하나를 다르게 형성할 수 있다.
일 실시 예에 따른 디스플레이부는, 상기 제1 관심 객체가 시선 방향을 기준으로, 상기 초음파 영상에 대응하는 영역의 전방 영역에 위치하는 경우, 상기 제1 마커를 상기 초음파 영상 내에 표시할 수 있다.
일 실시 예에 따른 디스플레이부는, 상기 제1 관심 객체가 시선 방향을 기준으로, 상기 초음파 영상에 대응하는 영역의 왼쪽 영역, 오른쪽 영역, 위쪽 영역, 아래쪽 영역 중 적어도 하나에 위치하는 경우, 상기 제1 마커를 상기 초음파 영상의 테두리 영역에 표시할 수 있다.
일 실시 예에 따른 디스플레이부는, 상기 초음파 영상에 대응하는 영역의 위치와 상기 제1 관심 객체의 위치를 나타내는 맵 영상에 상기 제1 마커를 표시할 수 있다.
일 실시 예에 따른 초음파 진단 장치의 동작방법은 대상체에 대한 초음파 데이터를 획득하는 단계, 상기 초음파 데이터에 기초하여, 초음파 영상을 생성하는 단계, 상기 생성된 초음파 영상에 포함되지 않는 제1 관심 객체에 대한 제1 마커를 형성하는 단계 및 상기 생성된 초음파 영상을 표시하고, 상기 제1 마커를 상기 추출된 제1 관심 객체의 위치에 대응되도록 표시하는 단계를 포함할 수 있다.
일 실시 예에 따른 제1 마커를 형성하는 단계는, 상기 제1 관심 객체의 위치에 기초하여, 상기 제1 마커의 색상 또는 크기를 결정하는 단계를 포함할 수 있다.
일 실시 예에 따른 제1 마커를 형성하는 단계는, 상기 초음파 영상에 대응하는 영역과 상기 제1 관심 객체가 위치하는 지점의 거리에 기초하여, 상기 제1 마커의 크기를 결정하는 단계를 포함할 수 있다.
일 실시 예에 따른 초음파 진단 장치의 동작방법은, 상기 생성된 초음파 영상에 포함되는 제2 관심 객체에 대응되는 제2 마커를 형성하는 단계 및 상기 제2 마커를 상기 제2 관심 객체의 위치에 대응시켜, 상기 초음파 영상 내에 표시하는 단계를 더 포함할 수 있다.
일 실시 예에 따른 제1 마커와 제2 마커의 색상 및 크기 중 적어도 하나는 다르게 형성될 수 있다.
일 실시 예에 따른 제1 마커를 표시하는 단계는, 상기 제1 관심 객체가 시선 방향을 기준으로, 상기 초음파 영상에 대응하는 영역의 전방 영역에 위치하는 경우, 상기 제1 마커를 상기 초음파 영상 내에 표시하는 단계를 포함할 수 있다.
일 실시 예에 따른 제1 마커를 표시하는 단계는, 상기 제1 관심 객체가 시선 방향을 기준으로, 상기 초음파 영상에 대응하는 영역의 왼쪽 영역, 오른쪽 영역, 위쪽 영역, 아래쪽 영역 중 적어도 하나에 위치하는 경우, 상기 제1 마커를 상기 초음파 영상의 테두리 영역에 표시하는 단계를 포함할 수 있다.
일 실시 예에 따른 제1 마커를 표시하는 단계는, 상기 초음파 영상에 대응하는 영역의 위치와 상기 제1 관심 객체의 위치를 나타내는 맵 영상에 상기 제1 마커를 표시하는 단계를 포함할 수 있다.
초음파 영상에 포함되지 않는 관심 객체에 대한 마커를 관심 객체의 위치에 대응되게 표시함으로써, 관심 객체의 위치를 용이하게 인식할 수 있다. 이에 따라, 스캔 효율성 및 사용자의 이용 편의성이 향상될 수 있다.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 본 발명의 일 실시 예에 따른 초음파 진단 장치의 구성을 나타내는 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 초음파 진단 장치의 구성을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 3차원 초음파 영상을 렌더링하는 방법을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 3차원 초음파 영상을 나타내는 도면이다.
도 5 내지 도 8은 본 발명의 일 실시예에 따른 마커가 디스플레이부에 표시되는 예들을 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 초음파 진단 장치의 동작방법을 나타내는 흐름도이다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부”, “…모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
명세서 전체에서 "초음파 영상"이란 초음파를 이용하여 획득된 대상체(object)에 대한 영상을 의미한다. 또한, 대상체는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 또는 혈관을 포함할 수 있다. 또한, 대상체는 팬텀(phantom)을 포함할 수도 있으며, 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미할 수 있다. 예를 들어, 팬텀은, 인체와 유사한 특성을 갖는 구형 팬텀일 수 있다.
또한, 초음파 영상은 다양하게 구현될 수 있다. 예를 들어, 초음파 영상은 A 모드(amplitude mode) 영상, B 모드(brightness mode) 영상, C 모드(color mode) 영상, D 모드(Doppler mode) 영상 중 적어도 하나일 수 있다. 또한, 본 발명의 일 실시 예에 의하면, 초음파 영상은 2차원 영상 또는 3차원 영상일 수도 있다.
또한, 명세서 전체에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지는 않는다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
도 1은 본 발명의 일 실시 예에 따른 초음파 진단 장치(100)의 구성을 나타내는 블록도이다. 일 실시 예에 따른 초음파 진단 장치(100)는 프로브(20), 초음파 송수신부(115), 영상 처리부(150), 통신부(170), 디스플레이부(160), 메모리(180), 입력 디바이스(190), 및 제어부(195)를 포함할 수 있으며, 상술한 여러 구성들은 버스(185)를 통해 서로 연결될 수 있다.
일 실시 예에 따른 초음파 진단 장치(100)는 카트형뿐만 아니라 휴대형으로도 구현될 수 있다. 휴대형 초음파 장치의 예로는 팩스 뷰어(PACS viewer), 스마트 폰(smart phone), 랩탑 컴퓨터, PDA, 태블릿 PC 등이 있을 수 있으나, 이에 제한되지 않는다.
프로브(20)는, 초음파 송수신부(115)로부터 인가된 구동 신호(driving signal)에 따라 대상체(10)로 초음파 신호를 송출하고, 대상체(10)로부터 반사된 에코 신호를 수신한다. 프로브(20)는 복수의 트랜스듀서를 포함하며, 복수의 트랜스듀서는 전달되는 전기적 신호에 따라 진동하며 음향 에너지인 초음파를 발생시킨다. 또한, 프로브(20)는 초음파 장치(100)의 본체와 유선 또는 무선으로 연결될 수 있으며, 초음파 장치(100)는 구현 형태에 따라 복수 개의 프로브(20)를 구비할 수 있다.
송신부(110)는 프로브(20)에 구동 신호를 공급하며, 펄스 생성부(112), 송신 지연부(114), 및 펄서(116)를 포함한다. 펄스 생성부(112)는 소정의 펄스 반복 주파수(PRF, Pulse Repetition Frequency)에 따른 송신 초음파를 형성하기 위한 펄스(pulse)를 생성하며, 송신 지연부(114)는 송신 지향성(transmission directionality)을 결정하기 위한 지연 시간(delay time)을 펄스에 적용한다. 지연 시간이 적용된 각각의 펄스는, 프로브(20)에 포함된 복수의 압전 진동자(piezoelectric vibrators)에 각각 대응된다. 펄서(116)는, 지연 시간이 적용된 각각의 펄스에 대응하는 타이밍(timing)으로, 프로브(20)에 구동 신호(또는, 구동 펄스(driving pulse))를 인가한다.
수신부(120)는 프로브(20)로부터 수신되는 에코 신호를 처리하여 초음파 데이터를 생성하며, 증폭기(122), ADC(아날로그 디지털 컨버터, Analog Digital converter)(124), 수신 지연부(126), 및 합산부(128)를 포함할 수 있다. 증폭기(122)는 에코 신호를 각 채널(channel) 마다 증폭하며, ADC(124)는 증폭된 에코 신호를 아날로그-디지털 변환한다. 수신 지연부(126)는 수신 지향성(reception directionality)을 결정하기 위한 지연 시간을 디지털 변환된 에코 신호에 적용하고, 합산부(128)는 수신 지연부(126)에 의해 처리된 에코 신호를 합산함으로써 초음파 데이터를 생성한다. 한편, 수신부(1120)는 그 구현 형태에 따라 증폭기(1122)를 포함하지 않을 수도 있다. 즉, 프로브(20)의 감도가 향상되거나 ADC(1124)의 처리 비트(bit) 수가 향상되는 경우, 증폭기(1122)는 생략될 수도 있다.
영상 처리부(150)는 초음파 송수신부(115)에서 생성된 초음파 데이터에 대한 스캔 변환(scan conversion) 과정을 통해 초음파 영상을 생성하고 표시한다. 한편, 초음파 영상은 A 모드(amplitude mode), B 모드(brightness mode) 및 M 모드(motion mode)에서 대상체를 스캔하여 획득된 그레이 스케일(gray scale)의 초음파 영상뿐만 아니라, 도플러 효과(doppler effect)를 이용하여 움직이는 대상체를 표현하는 도플러 영상일 수도 있다. 도플러 영상은, 혈액의 흐름을 나타내는 혈류 도플러 영상 (또는, 컬러 플로우 영상으로도 불림), 조직의 움직임을 나타내는 티슈 도플러 영상, 및 대상체의 이동 속도를 파형으로 표시하는 스펙트럴 도플러 영상을 포함할 수 있다.
B 모드 처리부(141)는, 초음파 데이터로부터 B 모드 성분을 추출하여 처리한다. 영상 생성부(155)는, B 모드 처리부(141)에 의해 추출된 B 모드 성분에 기초하여 신호의 강도가 휘도(brightness)로 표현되는 초음파 영상을 생성할 수 있다.
마찬가지로, 도플러 처리부(142)는, 초음파 데이터로부터 도플러 성분을 추출하고, 영상 생성부(155)는 추출된 도플러 성분에 기초하여 대상체의 움직임을 컬러 또는 파형으로 표현하는 도플러 영상(예를 들어, 컬러 플로우 영상 등)을 생성할 수 있다.
일 실시 예에 의한 영상 생성부(155)는, 볼륨 데이터에 대한 볼륨 렌더링 과정을 거쳐 3차원 초음파 영상을 생성할 수 있으며, 압력에 따른 대상체(10)의 변형 정도를 영상화한 탄성 영상 또한 생성할 수도 있다.
나아가, 영상 생성부(155)는 초음파 영상 상에 여러 가지 부가 정보를 텍스트, 그래픽으로 표현할 수도 있다. 한편, 생성된 초음파 영상은 메모리(180)에 저장될 수 있다.
일 실시예에 따른 영상 처리부(150)는 대상체에 대한 초음파 데이터에 기초하여, 대상체에 포함되는 관심 객체들을 검출하고, 검출된 관심 객체들의 위치를 계산할 수 있다. 예를 들어, 관심 객체는 장기, 용종, 혹 등을 포함할 수 있다.
일 실시예에 따른 영상 처리부(150)는 추출된 관심 객체에 대응하는 마커를 형성할 수 있으며, 관심 객체의 위치에 기초하여, 마커의 속성을 결정할 수 있다. 예를 들어, 영상 처리부(150)는 관심 객체가 초음파 영상에 포함되는지 여부, 초음파 영상에 대응하는 영역과 관심 객체가 위치하는 지점 사이의 거리에 기초하여, 마커의 크기 또는 색상을 결정할 수 있다.
디스플레이부(160)는 생성된 초음파 영상을 표시 출력한다. 디스플레이부(160)는, 초음파 영상뿐 아니라 초음파 진단 장치(100)에서 처리되는 다양한 정보를 GUI(Graphic User Interface)를 통해 화면 상에 표시 출력할 수 있다. 한편, 초음파 진단 장치(100)는 구현 형태에 따라 둘 이상의 디스플레이부(160)를 포함할 수 있다.
디스플레이부(160)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다.
또한, 디스플레이부(160)와 사용자 입력부가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(160)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다.
터치 스크린은 터치 입력 위치, 터치된 면적뿐만 아니라 터치 압력까지도 검출할 수 있도록 구성될 수 있다. 또한, 터치 스크린은 직접 터치(real-touch)뿐만 아니라 근접 터치(proximity touch)도 검출될 수 있도록 구성될 수 있다.
일 실시예에 따른 디스플레이부(160)는 초음파 영상을 표시할 수 있다. 또한, 디스플레이부(160)는 영상 처리부(150)에서 형성된 마커를 관심 객체의 위치에 대응되도록 표시할 수 있다.
통신부(170)는, 유선 또는 무선으로 네트워크(30)와 연결되어 외부 디바이스나 서버와 통신한다. 통신부(170)는 의료 영상 정보 시스템(PACS, Picture Archiving and Communication System)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 데이터를 주고 받을 수 있다. 또한, 통신부(170)는 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 데이터 통신할 수 있다.
통신부(170)는 네트워크(30)를 통해 대상체의 초음파 영상, 초음파 데이터, 도플러 데이터 등 대상체의 진단과 관련된 데이터를 송수신할 수 있으며, CT, MRI, X-ray 등 다른 의료 장치에서 촬영한 의료 영상 또한 송수신할 수 있다. 나아가, 통신부(170)는 서버로부터 환자의 진단 이력이나 치료 일정 등에 관한 정보를 수신하여 대상체의 진단에 활용할 수도 있다. 나아가, 통신부(170)는 병원 내의 서버나 의료 장치뿐만 아니라, 의사나 환자의 휴대용 단말과 데이터 통신을 수행할 수도 있다.
통신부(170)는 유선 또는 무선으로 네트워크(30)와 연결되어 서버(32), 의료 장치(34), 또는 휴대용 단말(36)과 데이터를 주고 받을 수 있다. 통신부(170)는 외부 디바이스와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈(171), 유선 통신 모듈(172), 및 이동 통신 모듈(173)을 포함할 수 있다.
근거리 통신 모듈(171)은 소정 거리 이내의 근거리 통신을 위한 모듈을 의미한다. 본 발명의 일 실시 예에 따른 근거리 통신 기술에는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(zigbee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
유선 통신 모듈(172)은 전기적 신호 또는 광 신호를 이용한 통신을 위한 모듈을 의미하며, 일 실시 예에 의한 유선 통신 기술에는 페어 케이블(pair cable), 동축 케이블, 광섬유 케이블, 이더넷(ethernet) 케이블 등이 포함될 수 있다.
이동 통신 모듈(173)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
메모리(180)는 초음파 진단 장치(100)에서 처리되는 여러 가지 정보를 저장한다. 예를 들어, 메모리(180)는 입/출력되는 초음파 데이터, 초음파 영상 등 대상체의 진단에 관련된 의료 데이터를 저장할 수 있고, 초음파 진단 장치(100) 내에서 수행되는 알고리즘이나 프로그램을 저장할 수도 있다.
메모리(180)는 플래시 메모리, 하드디스크, EEPROM 등 여러 가지 종류의 저장매체로 구현될 수 있다. 또한, 초음파 진단 장치(100)는 웹 상에서 메모리(180)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.
입력 디바이스(190)는, 사용자가 초음파 진단 장치(50)를 제어하기 위한 데이터를 입력 받는 수단을 의미한다. 사용자 입력부(190)는 키 패드, 마우스, 터치 패드, 트랙볼, 조그 스위치 등 하드웨어 구성을 포함할 수 있으나 이에 한정되는 것은 아니며, 심전도 측정 모듈, 호흡 측정 모듈, 음성 인식 센서, 제스쳐 인식 센서, 지문 인식 센서, 홍채 인식 센서, 깊이 센서, 거리 센서 등의 다양한 구성을 더 포함할 수 있다. 특히, 터치 패드가 전술한 디스플레이부(160)와 상호 레이어 구조를 이루는 터치 스크린도 포함할 수 있다.
이때, 본 발명의 일 실시예에 따른 초음파 진단 장치(100)는, 소정 모드의 초음파 영상 및 초음파 영상에 대한 컨트롤 패널을 터치 스크린상에 표시할 수 있다. 그리고 초음파 진단 장치(100)는, 터치 스크린을 통해 초음파 영상에 대한 사용자의 터치 제스처를 감지할 수 있다.
본 발명의 일 실시예에 따른 초음파 진단 장치(100)는, 일반적인 초음파 장치의 컨트롤 패널에 포함되어 있던 버튼들 중 사용자가 자주 사용하는 일부 버튼을 물리적으로 구비하고, 나머지 버튼들은 GUI(Graphical User Interface) 형태로 터치 스크린을 통해 제공할 수 있다.
제어부(195)는 초음파 진단 장치(100)의 동작을 전반적으로 제어한다. 즉, 제어부(195)는 도 2에 도시된 프로브(20), 초음파 송수신부(100), 영상 처리부(150), 통신부(170), 메모리(180), 및 사용자 입력부(190) 간의 동작을 제어할 수 있다.
프로브(20), 초음파 송수신부(115), 영상 처리부(150), 디스플레이부(140), 통신부(170), 메모리(180), 사용자 입력부(190) 및 제어부(195) 중 일부 또는 전부는 소프트웨어 모듈에 의해 동작할 수 있으나 이에 제한되지 않으며, 상술한 구성 중 일부가 하드웨어에 의해 동작할 수도 있다. 또한, 초음파 송수신부(115), 영상 처리부(150), 및 통신부(170) 중 적어도 일부는 제어부(195)에 포함될 수 있으나, 이러한 구현 형태에 제한되지는 않는다.
도 2는 본 발명의 일 실시 예에 따른 초음파 진단 장치(200)의 구성을 나타내는 블록도이다. 도 2를 참조하면, 초음파 진단 장치(200)는 데이터 획득부(210), 영상 처리부(220) 및 디스플레이부(230)를 포함할 수 있다.
도 2의 데이터 획득부(210)는 도 1의 프로브(20) 또는 초음파 송수신부(115)에, 도 2의 영상 처리부(220)는 도 1의 영상 처리부(150)에, 도 2의 디스플레이부(240)는 도 1의 디스플레이부(160)에 대응되는 구성일 수 있다.
데이터 획득부(210)는 대상체에 대한 초음파 데이터를 획득할 수 있다. 일 실시예에 따른 데이터 획득부(210)는 대상체로 초음파를 송신하고, 대상체부터 반사된 에코 신호를 수신하여, 3차원 볼륨 데이터를 획득할 수 있다.
또는, 데이터 획득부(210)는 도 1에서 설명한 통신부(170)를 통하여, 외부 디바이스로부터 3차원 볼륨 데이터를 수신할 수 있다.
3차원 볼륨 데이터는 위상차 프로브(phased probe), 리니어 프로브(linear probe) 및 컨벡스 프로브(convex probe)를 이용하여, 획득된 데이터일 수 있으며, 프로브의 종류에 따라, 볼륨 데이터의 형상이 상이할 수 있다.
영상 처리부(220)는 획득한 초음파 데이터에 기초하여, 대상체에 대한 초음파 영상을 생성할 수 있다. 이때, 초음파 영상은 2차원 초음파 영상 또는 3차원 초음파 영상일 수 있다.
예를 들어, 영상 처리부(220)는 3차원 볼륨 데이터를 볼륨 렌더링하여, 3차원 초음파 영상을 생성할 수 있다. 3차원 영상의 볼륨 렌더링은 시점, 시선 방향, 화면, 볼륨 데이터를 포함하는 모델을 기반으로 이루어질 수 있다.
도 3을 참조하면, 3차원 영상의 볼륨 렌더링에서, 시점(1)이 결정되고, 결정된 시점(1)에 따라 화면(2)을 결정할 수 있다. 이때, 시점(1)은 관측자(viewer)가 3차원 볼륨 데이터(50)를 관측하는 방향을 나타낸다. 또한, 화면(2)은 시점(1)으로부터 볼륨 데이터(50)가 투영되는 투영면을 나타내며, 볼륨 렌더링을 수행한 결과 생성된 영상이 표시되는 2차원 화면을 나타낸다.
볼륨 데이터(50)는 복수의 복셀(voxel)을 포함할 수 있으며, 복셀은 볼륨(volume)과 픽셀(pixel)의 합성어로, 픽셀이 2차원 평면에서의 한 점을 정의한다면, 복셀은 3차원 공간에서의 한 점을 정의한다. 또한, 픽셀은 x 좌표와 y 좌표를 포함하는데 비하여, 복셀은 x, y, z 좌표를 포함한다.
한편, 일 실시예에 따른 초음파 진단 장치(200)는 광선 투사법(Ray casting)을 이용하여, 볼륨 렌더링을 수행할 수 있다. 예를 들어, 광선 투사법은 도 3에 도시된 바와 같이, 시점(1)에서부터 디스플레이 화면의 소정 픽셀(25)을 향하여 가상의 광선(60)을 발사하고, 볼륨 데이터(50)의 복셀들 중에서 상기 광선(60)이 통과하는 복셀들을 검출한다. 그리고, 초음파 진단 장치(200)는 검출된 복셀들의 밝기 값들에 기초하여, 해당 픽셀의 밝기 값(또는 투명도)을 결정할 수 있다.
예를 들어, 초음파 진단 장치(200)는 검출된 복셀들의 밝기 값들 중 가장 큰 밝기값을 해당 픽셀의 밝기 값으로 결정할 수 있다. 또한, 초음파 진단 장치(200)는 검출된 복셀들의 밝기 값들 중 가장 작은 밝기 값을 해당 픽셀의 밝기 값으로 결정할 수 있다. 또는, 초음파 진단 장치(200)는 검출된 복셀들의 밝기 값들의 평균 값을 해당 픽셀의 밝기 값으로 결정할 수 있다. 다만, 이에 한정되는 것은 아니다.
또한, 초음파 진단 장치(200)는 상술한 볼륨 렌더링 방법 이외에도 기존에 공지된 볼륨 렌더링 방식들 중 하나를 사용하여, 볼륨 데이터(50)를 볼륨 렌더링할 수 있다.
또한, 일 실시예에 따른 영상 처리부(220)는 대상체에 대한 초음파 데이터에 기초하여, 대상체에 포함되는 관심 객체들을 검출하고, 검출된 관심 객체들의 위치를 계산할 수 있다. 예를 들어, 관심 객체는 장기, 용종, 혹 등을 포함할 수 있다. 또한, 영상 처리부(220)에서 검출된 관심 객체들 및 계산된 관심 객체들의 위치는 매핑되어, 도 1의 메모리(180)에 저장될 수 있다.
관심 객체는 생성된 초음파 영상에 포함되지 않는 제1 관심 객체와 생성된 초음파 영상에 포함되는 제2 관심 객체로 분류될 수 있다. 예를 들어, 볼륨 데이터에 대한 볼륨 렌더링을 통하여, 3차원 초음파 영상을 생성하는 경우, 가상의 광선이 도달하는 영역에 위치하는 관심 객체만 초음파 영상에 포함될 수 있다.
반면에, 가상의 광선이 도달하는 영역에 위치하지 않은 관심 객체는 초음파 영상에 포함되지 않을 수 있다. 또한, 관심 객체가 광선이 도달하는 영역(가시 영역)내에 위치하나, 다른 객체에 의해 가려지는 경우(다른 객체에 대응하는 복셀들의 불투명도가 높은 경우) 초음파 영상에 포함되지 않을 수 있다.
또한, 영상 처리부(220)는 검출된 관심 객체들에 대응하는 마커를 형성할 수 있으며, 마커는 관심 객체를 나타내는 텍스트, 이미지 및 동영상 중 적어도 하나를 포함할 수 있다. 예를 들어, 마커는 대응하는 관심 객체의 명칭을 나타내는 텍스트로 표시될 수 있으며, 관심 객체에 대응하는 영상 또는 동영상으로 표시될 수 있다.
일 실시예에 따른 영상 처리부(220)는 제1 관심 객체의 위치에 기초하여, 제1 관심 객체에 대응하는 제1 마커의 색상 또는 크기를 결정할 수 있다. 예를 들어, 영상 처리부(220)는 초음파 영상에 대응하는 영역과 제1 관심 객체가 위치하는 지점 사이의 거리가 멀수록 제1 마커의 크기를 작게 형성하고, 초음파 영상에 대응하는 영역과 제1 관심 객체가 위치하는 지점의 거리가 가까울수록 제1 마커의 크기를 크게 형성할 수 있다.
일 실시예에 따른 영상 처리부(220)는 제1 마커와 제2 관심 객체에 대응하는 제2 마커의 색상 및 크기 중 적어도 하나를 다르게 형성할 수 있다.
디스플레이부(230)는 영상 처리부에서 생성된 초음파 영상을 표시할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 디스플레이부(230)에 표시되는 초음파 영상(310)은 볼륨 데이터를 볼륨 렌더링하여 생성한 3차원 초음파 영상일 수 있다. 또한, 초음파 영상(310)은 가상의 내시경 영상일 수 있다. 가상의 내시경 영상은 대상체 내부에 내시경을 삽입하여, 대상체의 내부를 직접 촬영한 영상과 동일한 뷰를 가지는 영상을 의미한다.
또한, 디스플레이부(230)는 도 4에 도시된 바와 같이, 영상 처리부(220)에서 형성된 마커들(예를 들어, #Polyp1, #Polyp2, #Rectum, 등)을 각각 관심 객체들의 위치에 대응되게 표시할 수 있다. 이때, 초음파 영상(310)에 포함되는 제2 관심 객체(예를 들어, 용종)에 대응하는 제2 마커(#Polyp 1)와 초음파 영상(310)에 포함되지 않는 제1 관심 객체(예를 들어, 혹, 직장)에 대응하는 제1 마커(예를 들어, #Polyp 2, #Rectum)는 색상을 다르게 하여 표시할 수 있다. 또한, 제1 마커(예를 들어, #Polyp 2, #Rectum)는 제1 관심 객체가 위치하는 지점의 거리에 기초하여, 크기를 다르게 표시할 수 있다. 예를 들어, 제1 마커들(예를 들어, #Polyp 2, #Rectum) 중 초음파 영상(310)에 대응하는 영역으로부터 가장 멀리 떨어져 있는 직장에 대응하는 마커(#Rectum)가 가장 작게 표시될 수 있으며, 초음파 영상(310)에 대응하는 영역으로부터 가장 가까운 혹에 대응하는 마커(#Polyp 2)가 가장 크게 표시될 수 있다.
또한, 디스플레이부(230)는 제1 관심 객체가 시선 방향을 기준으로, 초음파 영상에 대응하는 영역의 전방 영역에 위치하는 경우, 제1 마커를 초음파 영상 내에 표시할 수 있다. 또한, 디스플레이부(230)는 제1 관심 객체가 시선 방향을 기준으로 초음파 영상에 대응하는 영역의 왼쪽 영역, 오른쪽 영역, 위쪽 영역, 아래쪽 영역 중 적어도 하나에 위치하는 경우, 제1 마커를 초음파 영상의 테두리 영역에 표시할 수 있다.
또한, 디스플레이부(230)는 제2 마커를 제2 관심 객체의 위치에 대응되도록 초음파 영상 내에 표시할 수 있다.
또한, 디스플레이부(230)는 초음파 영상에 대응하는 영역의 위치와 제1 관심 객체의 위치를 나타내는 맵 영상을 더 표시할 수 있다.
도 5 내지 8은 본 발명의 일 실시예에 따른 관심 객체에 대응하는 마커를 표시하는 방법을 설명하기 위해 참조되는 도면들이다.
도 5의 (a)는 일 실시예에 따른 관심 객체가 초음파 영상에 포함되지 않는 경우, 즉, 제1 관심 객체에 대한 마커가 표시되는 일예를 나타내는 도면이고, 도 5의 (b)는 일 실시예에 따른 관심 객체가 초음파 영상에 포함되는 경우, 즉, 제2 관심 객체에 대한 마커가 표시되는 일예를 나타내는 도면이다.
도 5의 (a) 참조하면, 일 실시예에 따른 디스플레이부(230)는 렌더링된 3차원 초음파 영상(제1 초음파 영상, 440)을 표시할 수 있다. 제1 초음파 영상(440)은 제1 지점(410)을 시점으로 하여, 제1 시선 방향(413)으로, 3차원 볼륨 데이터에 가상의 광선을 발사하고, 발사된 가상이 광선과 교차하는 복셀들의 밝기 값에 기초하여, 렌더링된 영상일 수 있다.
제1 영역(420)은 제1 초음파 영상의 볼륨 렌더링시 발사되는 가상의 광선(ray)이 도달하는 영역일 수 있다. 이에 따라, 제1 영역(420)에 위치하는 관심 객체(제2 관심 객체)는 제1 초음파 영상에 포함될 수 있으나, 제1 영역(420)에 위치하지 않는 관심 객체(제1 관심 객체)는 제1 초음파 영상에 포함되지 않을 수 있다. 예를 들어, 도 5의 (a)에 도시된 바와 같이, 제1 영역(420)에 위치하지 않는 용종(Polyp, 430)에는 가상의 광선이 도달하지 않으므로, 제1 초음파 영상에 표시되지 않는다.
한편, 초음파 진단 장치(100, 200)는 대상체에 대한 초음파 데이터에 기초하여, 제1 관심 객체인 용종(430)을 검출하고, 용종(430)의 위치를 계산할 수 있다. 또한, 초음파 진단 장치(100, 200)는 용종에 대응하는 제1 마커(#polyp, 450)를 형성하여, 계산된 용종(430)의 위치에 대응되도록 표시할 수 있다.
예를 들어, 도 5의 (a)에 도시된 바와 같이, 용종이 제1 시선 방향(413)을 따라 제1 영역(420)의 전방에 위치하는 경우, 초음파 진단 장치(100, 200)는 제1 초음파 영상(440) 내에 마커(#polyp, 450)를 표시할 수 있다. 이때, 초음파 진단 장치(100, 200)는 제1 지점(410)을 기준으로 용종이 위치하는 지점의 방향에 기초하여, 마커(#polyp, 450)를 표시할 수 있다. 예를 들어, 용종(430)이 제1 지점(410)을 기준으로, 전방 좌측 아래에 위치하는 경우, 도 5에 (a)도시된 바와 같이, 초음파 영상(440)의 중심을 기준으로, 마커(#polyp, 450)는 좌측 아래에 표시될 수 있다.
제1 지점(410)과 용종(430)이 위치하는 지점까지의 거리에 기초하여, 표시되는 마커(#polyp, 450)의 크기가 결정될 수 있다. 예를 들어, 초음파 진단 장치(100, 200)는 제1 지점(410)과 용종(430) 사이의 거리가 멀수록, 마커(#polyp, 450)의 크기를 작게 표시할 수 있다. 이에 따라, 사용자는 마커(#polyp, 450)가 작게 표시되는 경우, 용종(430)이 제1 지점(410)으로부터 멀리 떨어져있음을 용이하게 인식할 수 있다.
도 5의 (b)를 참조하면, 초음파 진단 장치(100, 200)는 시선 방향(413)은 변경하지 않고, 시점을 제1 지점(410)에서 제2 지점(415)으로 이동시켜, 초음파 데이터를 렌더링함으로써, 제2 초음파 영상(445)을 생성할 수 있다.
시점이 제1 지점에서 제2 지점으로 이동되는 경우, 가상의 광선이 도달하는 영역은 제1 영역(420)에서 제2 영역(425)으로 이동될 수 있다. 이에 따라, 용종(430)은 제2 영역(425)에 위치할 수 있으며, 제2 초음파 영상(445)에 포함될 수 있다.
한편, 초음파 진단 장치(100, 200)는 제2 관심 객체인 용종(430)에 대응하는 제2 마커(#polyp, 455)를 형성하여, 제2 초음파 영상(445) 중 용종이 위치하는 영역에 제2 마커(#polyp, 455)를 표시할 수 있다.
또한, 제2 지점(415)과 용종(425)이 위치하는 지점까지의 거리에 기초하여, 표시되는 제2 마커(#polyp, 455)의 크기가 결정될 수 있다. 예를 들어, 초음파 진단 장치(100, 200)는 제2 지점(415)과 용종(430) 사이의 거리가 멀수록, 제2 마커(#polyp, 455)의 크기를 작게 표시하고, 제2 지점(415)과 용종 사이의 거리가 가까울수록, 제2 마커(#polyp, 455)의 크기를 크게 표시할 수 있다. 이에 따라, 사용자는 마커(#polyp, 455)가 작게 표시되는 경우, 용종(430)이 제2 지점(415)으로부터 멀리 떨어져있음을 용이하게 인식할 수 있다.
또한, 초음파 진단 장치(100, 200)는 초음파 영상에 포함되는 제2 관심 객체에 대응하는 제2 마커를 초음파 영상에 포함되지 않는 제1 관심 객체에 대응하는 제1 마커와 다른 색상으로 표시할 수 있다. 예를 들어, 도 5의 (a)에서의 제1 마커(#polyp, 450)는 제1 색상으로 표시되고, 도 5의 (b)에서의 제2 마커(#polyp, 455)는 제2 색상으로 표시될 수 있다.
이에 따라, 사용자는 마커에 대응하는 관심 객체가 초음파 영상에 포함되는지 여부를 용이하게 인식할 수 있다.
도 6의 (a) 및 (b)를 참조하면, 초음파 진단 장치(100, 200)는 초음파 영상(510, 515) 및 맵 영상(520, 525)을 표시할 수 있다. 제1 맵 영상(520)은 제1 초음파 영상(510)에 대응하는 시점, 시선 방향, 가상의 광선이 도달하는 영역 및 추출된 관심 객체들의 위치를 표시하는 영상일 수 있다. 또한, 제2 맵 영상(525)은 제2 초음파 영상(515)에 대응하는 시점, 시선 방향, 가상의 광선이 도달하는 영역 및 추출된 관심객체들의 위치를 표시하는 영상일 수 있다.
또한, 맵 영상(520, 525)은 대상체의 단면 영상 위에, 초음파 영상(510, 520)에 대응하는 시점, 시선 방향, 가상의 광선이 도달하는 영역 및 추출된 관심 객체들의 위치가 오버랩되어 표시된 영상일수 있다.
또한, 초음파 진단 장치(100)는 일 실시예에 따른 마커를 관심 객체의 위치에 대응시켜 맵 영상에 표시할 수 있다. 예를 들어, 도 6의 (a)를 참조하면, 초음파 진단 장치(100, 200)는 제1 초음파 영상(510)에 포함되지 않는 관심 객체(제1 관심 객체)에 대응하는 제1 마커(#polyp, 540)를 제1 맵 영상(520)에 표시할 수 있다. 이때, 제1 마커(#polyp, 540)는 제1 영역(가상의 광선이 도달하는 영역, 550) 밖의 소정의 지점에 표시될 수 있다. 이에 따라, 사용자는 제1 영역 밖에 표시된 제1 마커(#polyp, 540)에 대응하는 관심 객체가 초음파 영상에 포함되지 않음을 용이하게 인식할 수 있다.
또한, 도 6의 (b)를 참조하면, 초음파 진단 장치(100, 200)는 제2 초음파 영상(515)에 포함되는 관심 객체(제2 관심 객체)에 대응하는 제2 마커(#polyp, 545)를 제2 맵 영상(525)에 표시할 수 있다. 이때, 제2 마커(#polyp, 545)는 제2 영역(가상의 광선이 도달하는 영역, 555) 내의 소정의 지점에 표시될 수 있다. 이에 따라, 사용자는 제2 영역(555) 내에 표시된 제2 마커(#polyp, 545)에 대응하는 관심 객체가 초음파 영상에 포함됨을 용이하게 인식할 수 있다.
또한, 초음파 진단 장치(100, 200)는 시점, 시선 방향, 가상의 광선이 도달하는 영역 및 제1 마커의 위치관계에 기초하여, 소정의 관심 객체가 초음파 영상에 표시되도록 시점, 시선 방향을 조절할 수 있다.
예를 들어, 도 6의 (a)의 제1 맵 영상(520)에 도시된 바와 같이, 용종(polyp)이 제1 영역(550)의 전방에 위치하는 경우, 초음파 진단 장치(100, 200)는 시선 방향은 유지시키고 시점만 제2 지점(565)으로, 이동시켜, 용종이 가상의 광선이 도달하는 영역(555)내에 포함되도록 제어할 수 있다. 이에 따라, 용종은 제2 초음파 영상(515)에 표시될 수 있다.
도 7의 (a) 및 (b)는 일 실시예에 따른 제1 관심 객체에 대한 마커가 표시되는 일예를 나타내는 도면들이고, 도 7의 (c)는 일 실시예에 따른 제2 관심 객체에 대한 마커가 표시되는 일예를 나타내는 도면이다.
도 7의 (a)를 참조하면, 일 실시예에 따른 디스플레이부(230)는 렌더링된 3차원 초음파 영상(제1 초음파 영상, 611)을 표시할 수 있다. 제1 초음파 영상(611)은 제1 지점(610)을 시점으로 하여, 제1 시선 방향(613)으로, 3차원 볼륨 데이터에 가상의 광선을 발사하고, 발사된 가상이 광선과 교차하는 복셀들의 밝기 값에 기초하여, 렌더링된 영상일 수 있다.
제1 영역(620)은 제1 초음파 영상(611)의 볼륨 렌더링시 발사되는 가상의 광선(ray)이 도달하는 영역일 수 있다. 이에 따라, 제1 영역(620)에 위치하는 관심 객체(제2 관심 객체)는 제1 초음파 영상에 포함될 수 있으나, 제1 영역(620)에 위치하지 않는 관심 객체(제1 관심 객체)는 제1 초음파 영상에 포함되지 않을 수 있다. 예를 들어, 도 7의 (a)에 도시된 바와 같이, 제1 영역(620)에 위치하지 않는 용종(Polyp, 630)에는 가상의 광선이 도달하지 않으므로, 제1 초음파 영상(611)에 표시되지 않는다.
한편, 초음파 진단 장치(100, 200)는 대상체에 대한 초음파 데이터에 기초하여, 제1 관심 객체인 용종(630)을 검출하고, 용종(630)의 위치를 계산할 수 있다. 또한, 초음파 진단 장치(100, 200)는 용종에 대응하는 마커(제1 마커, 650)를 형성하여, 계산된 폴립의 위치에 대응되도록 표시할 수 있다.
예를 들어, 도 7의 (a)에 도시된 바와 같이, 용종(630)이 제1 시선 방향(613)에 위치하지 않는 경우, 초음파 진단 장치(100)는 제1 초음파 영상의 테두리 영역(661, 662, 663, 664)에 마커(650)를 표시할 수 있다. 이때, 초음파 진단 장치(100, 200)는 제1 영역(620)을 기준으로 용종이 위치하는 영역의 방향에 기초하여, 마커(650)를 표시할 수 있다. 예를 들어, 용종이 시선방향(613)을 기준으로, 제1 영역(620)의 왼쪽 영역에 위치하는 경우, 초음파 진단 장치(100, 200)는 제1 초음파 영상의 테두리 영역 중 왼쪽 영역(661)에 마커(650)를 표시할 수 있다.
또한, 용종(630)이 제1 영역(620)의 오른쪽 영역에 위치하는 경우, 초음파 진단 장치(100, 200)는 제1 초음파 영상(611)의 테두리 영역 중 오른쪽 영역(663)에 마커(650)를 표시할 수 있다. 또한, 용종(630)이 제1 영역(620)의 위쪽 영역(662)에 위치하는 경우, 초음파 진단 장치(100, 200)는 제1 초음파 영상(611)의 테두리 영역 중 위쪽 영역(662)에 마커(650)를 표시할 수 있다. 또한, 용종(630)이 제1 영역의 아래쪽 영역에 위치하는 경우, 초음파 진단 장치(100, 200)는 제1 초음파 영상(611)의 테두리 영역 중 아래쪽 영역(614)에 마커(650)를 표시할 수 있다.
또한, 용종(630)이 카메라의 높이를 기준으로, 카메라보다 높이 위치한 경우, 왼쪽 영역(661) 중에서도 상단부에 마커(650)를 표시할 수 있으며, 용종(630)이 카메라의 높이를 기준으로, 카메라보다 낮게 위치한 경우, 왼쪽 영역(661) 중에서도 하단부에 마커(650)를 표시할 수 있다.
또한, 제1 지점(610)과 용종(630)이 위치하는 지점까지의 거리에 기초하여, 표시되는 마커(650)의 크기가 결정될 수 있다. 예를 들어, 초음파 진단 장치(100, 200)는 제1 지점(610)과 용종 사이의 거리가 멀수록, 마커(650)의 크기를 작게 표시할 수 있다. 이에 따라, 사용자는 마커(650)가 작게 표시되는 경우, 용종(630)이 제1 지점(610)으로부터 멀리 떨어져있음을 용이하게 인식할 수 있다.
도 7의 (b)를 참조하면, 초음파 진단 장치(100, 200)는 용종(Polyp, 630)에 대응하는 마커(680)를 제1 초음파 영상(611) 위에 표시할 수 있다.
초음파 진단 장치(100, 200)는 제1 영역(620)을 기준으로 용종이 위치하는 영역의 방향에 기초하여, 마커(680)를 표시할 수 있다. 예를 들어, 용종이 시선방향(613)을 기준으로, 제1 영역(620)의 왼쪽 영역에 위치하는 경우, 초음파 진단 장치(100, 200)는 제1 초음파 영상(611) 내의 왼쪽 영역에 마커(680)를 표시할 수 있다.
또한, 용종(630)이 제1 영역(620)의 오른쪽 영역에 위치하는 경우, 초음파 진단 장치(100, 200)는 제1 초음파 영상(611) 내의 오른쪽 영역에 마커(680)를 표시할 수 있다. 또한, 용종(630)이 제1 영역(620)의 위쪽 영역에 위치하는 경우, 초음파 진단 장치(100, 200)는 제1 초음파 영상(611) 내의 위쪽 영역에 마커(680)를 표시할 수 있다. 또한, 용종(630)이 제1 영역의 아래쪽 영역에 위치하는 경우, 초음파 진단 장치(100, 200)는 제1 초음파 영상(611) 내의 아래쪽 영역에 마커(680)를 표시할 수 있다.도 7의 (c)를 참조하면, 초음파 진단 장치(100, 200)는 시점(610)은 변경하지 않고, 시선 방향을 제1 시선 방향(613)에서 제2 시선 방향(615)으로 변경하여, 초음파 데이터를 렌더링함으로써, 제2 초음파 영상(621)을 생성할 수 있다.
시선 방향이 제1 시선 방향(613)에서 제2 시선 방향(615)으로 이동되는 경우, 가상의 광선이 도달하는 영역은 제1 영역(620)에서 제2 영역(625)으로 이동될 수 있다. 이에 따라, 용종(630)은 제2 영역(625)에 위치할 수 있으며, 제2 초음파 영상(621)에 포함될 수 있다.
또한, 초음파 진단 장치(100, 200)는 제2 관심 객체인 용종(630)에 대응하는 마커(#polyp, 655)를 형성하여, 제2 초음파 영상(621) 중 용종이 위치하는 영역에 제2 마커(#polyp, 655)를 표시할 수 있다. 이때, 제1 지점(610)과 용종(630)이 위치하는 지점까지의 거리에 기초하여, 표시되는 제2 마커(#polyp, 655)의 크기가 결정될 수 있으며, 제2 마커(#polyp, 655)는 제1 마커와 다른 색상으로 표시될 수 있다.
도 8의 (a) 및 (b)를 참조하면, 초음파 진단 장치(100, 200)는 초음파 영상(711, 712) 및 맵 영상(720, 725)을 표시할 수 있다. 맵 영상(720, 725)은 초음파 영상(711, 712)에 대응하는 시점, 시선 방향, 가상의 광선이 도달하는 영역 및 추출된 관심 객체들의 위치를 표시하는 영상일 수 있다.
또한, 맵 영상(720, 725)은 대상체의 단면 영상 위에, 초음파 영상(711, 712)에 대응하는 시점, 시선 방향, 가상의 광선이 도달하는 영역 및 추출된 관심 객체들의 위치가 오버랩되어 표시된 영상일 수 있다.
또한, 초음파 진단 장치(100, 200)는 일 실시예에 따른 마커를 관심 객체의 위치에 대응시켜 맵 영상에 표시할 수 있다. 예를 들어, 도 8의 (a)를 참조하면, 초음파 진단 장치(100, 200)는 제1 초음파 영상(711)에 포함되지 않는 관심 객체(제1 관심 객체)에 대응하는 제1 마커(#polyp, 740)를 제1 맵 영상(720)에 표시할 수 있다. 이때, 제1 마커(#polyp, 740)는 제1 영역(가상의 광선이 도달하는 영역, 750) 밖의 소정의 지점에 표시될 수 있다. 이에 따라, 사용자는 제1 영역(750) 밖에 표시된 제1 마커(#polyp, 740)에 대응하는 관심 객체가 초음파 영상에 포함되지 않음을 용이하게 인식할 수 있다.
또한, 도 8의 (b)를 참조하면, 초음파 진단 장치(100, 200)는 제2 초음파 영상(712)에 포함되는 관심 객체(제2 관심 객체)에 대응하는 제2 마커(#polyp, 745)를 제2 맵 영상(725)에 표시할 수 있다. 이때, 제2 마커(#polyp, 745)는 제2 영역(가상의 광선이 도달하는 영역, 755) 내의 소정의 지점에 표시될 수 있다. 이에 따라, 사용자는 제2 영역 내에 표시된 제2 마커(#polyp, 745)에 대응하는 관심 객체가 초음파 영상에 포함됨을 용이하게 인식할 수 있다.
또한, 초음파 진단 장치(100, 200)는 시점, 시선 방향, 가상의 광선이 도달하는 영역 및 제1 마커의 위치관계에 기초하여, 소정의 관심 객체가 초음파 영상에 표시되도록 시점, 시선 방향을 조절할 수 있다.
예를 들어, 도 8의 (a)의 맵 영상(720)에 도시된 바와 같이, 용종(polyp)이 제1 영역(750)의 왼쪽 영역에 위치하는 경우, 초음파 진단 장치(100, 200)는 시점은 유지시키고 시선방향만 변경시켜, 용종이 가상의 광선이 도달하는 영역(755)내에 포함되도록 제어할 수 있다.
이에 따라, 용종은 제2 초음파 영상(712)에 표시될 수 있다.
도 9는 본 발명의 일 실시예에 따른 초음파 진단 장치의 동작방법을 나타내는 흐름도이다.
도 9를 참조하면, 초음파 진단 장치(100, 200)는 대상체에 대한 초음파 데이터를 획득할 수 있다(S810).
초음파 진단 장치(100, 200)는 대상체로 초음파를 송신하고, 대상체로부터 반사된 에코 신호를 수신하여, 초음파 데이터를 획득할 수 있다. 또는, 외부 디바이스로부터 초음파 데이터를 수신할 수 있다. 일 실시예에 따른 초음파 데이터는 3차원 볼륨 데이터일 수 있다.
초음파 진단 장치(100, 200)는 초음파 데이터에 기초하여, 초음파 영상을 생성할 수 있다(S820).
초음파 진단 장치(100, 200)는 2차원 초음파 영상 또는 3차원 초음파 영상을 생성할 수 있다. 예를 들어, 초음파 진단 장치(100, 200)는 3차원 볼륨 데이터를 볼륨 렌더링하여, 3차원 초음파 영상을 생성할 수 있다. 3차원 영상의 볼륨 렌더링은 시점, 시선 방향, 화면, 볼륨 데이터를 포함하는 모델을 기반으로 이루어질 수 있다.
일 실시예에 따른 초음파 진단 장치(100, 200)는 광선 투사법(Ray casting)을 이용하여, 볼륨 렌더링을 수행할 수 있다. 예를 들어, 광선 투사법은 도 3에서 설명한 바와 같이, 시점에서부터 디스플레이 화면의 소정 픽셀을 향하여 가상의 광선을 발사하고, 볼륨 데이터의 복셀들 중에서 가상의 광선이 통과하는 복셀들을 검출하며, 검출된 복셀들의 밝기 값들에 기초하여, 해당 픽셀의 밝기 값(또는 투명도)을 결정하는 렌더링 기법이다.
이에 따라, 가상의 광선이 도달하는 영역(가상의 광선이 도달하는 볼륨 데이터)에 대한 초음파 영상이 생성될 수 있다.
초음파 진단 장치(100, 200)는 생성된 초음파 영상에 포함되지 않는 제1 관심객체의 위치를 추출하고, 제1 관심 객체에 대한 제1 마커를 생성할 수 있다 있다(S830).
예를 들어, 초음파 진단 장치(100, 200)는 대상체에 대한 초음파 데이터에 기초하여, 대상체에 포함되는 관심 객체들을 검출하고, 검출된 관심 객체들의 위치를 계산할 수 있다. 예를 들어, 관심 객체는 장기, 용종, 혹 등을 포함할 수 있다. 또한, 초음파 진단 장치(100, 200)는 관심 객체와 관심 객체의 위치를 매핑하여, 저장할 수 있다.
또한, 초음파 진단 장치(100, 200)는 검출된 관심 객체들에 대응하는 마커를 형성할 수 있다. 마커는 관심 객체를 나타내는 텍스트, 이미지 및 동영상 중 적어도 하나를 포함할 수 있다.
한편, 관심 객체는 생성된 초음파 영상에 포함되지 않는 제1 관심 객체와 생성된 초음파 영상에 포함되는 제2 관심 객체로 분류될 수 있다.
초음파 진단 장치(100, 200)는 제1 관심 객체의 위치에 기초하여, 제1 관심 객체에 대응하는 제1 마커의 색상 또는 크기를 결정할 수 있다. 예를 들어, 초음파 진단 장치(100, 200)는 초음파 영상에 대응하는 영역과 제1 관심 객체가 위치하는 지점 사이의 거리가 멀수록 제1 마커의 크기를 작게 형성하고, 초음파 영상에 대응하는 영역과 제1 관심 객체가 위치하는 지점의 거리가 가까울수록 제1 마커의 크기를 크게 형성할 수 있다. 또한, 초음파 진단 장치(100, 200)는 제1 마커와 제2 관심 객체에 대응하는 제2 마커의 색상 및 크기 중 적어도 하나를 다르게 형성할 수 있다.
초음파 진단 장치(100, 200)는 제1 마커를 제1 관심 객체의 위치에 대응되도록 표시할 수 있다(S840).
예를 들어, 초음파 진단 장치(100, 200)는 제1 마커를 생성된 초음파 영상 위에 표시할 수 있다. 이때, 초음파 진단 장치(100, 200)는 생성된 초음파 영상에 대응하는 시점을 기준으로, 제1 마커에 대응하는 관심 객체가 위치하는 지점의 방향에 기초하여, 제1 마커를 표시할 수 있다.
또한, 초음파 진단 장치(100, 200)는 초음파 영상에 대응하는 대상체의 소정 영역을 기준으로, 제1 마커에 대응하는 관심 객체가 위치하는 방향에 기초하여, 제1 마커를 초음파 영상의 외곽 영역 중 일 영역에 표시할 수 있다.
한편, 본 발명의 초음파 진단 장치 및 그 동작방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM. CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (20)

  1. 대상체에 대한 초음파 데이터를 획득하는 데이터 획득부;
    상기 초음파 데이터에 기초하여, 초음파 영상을 생성하고, 상기 생성된 초음파 영상에 포함되지 않는 제1 관심 객체에 대한 제1 마커를 형성하는 영상 처리부; 및
    상기 생성된 초음파 영상을 표시하고, 상기 제1 마커를 상기 제1 관심 객체의 위치에 대응되도록 표시하는 디스플레이부;를 포함하는 초음파 진단 장치.
  2. 제1항에 있어서,
    상기 초음파 데이터는 3차원 볼륨 데이터이고, 상기 초음파 영상은 상기 3차원 볼륨 데이터를 렌더링하여 생성한 3차원 초음파 영상인 초음파 진단 장치.
  3. 제1항에 있어서,
    상기 제1 마커는 상기 제1 관심 객체를 나타내는 텍스트, 이미지 및 동영상 중 적어도 하나를 포함하는 초음파 진단 장치.
  4. 제1항에 있어서,
    상기 영상 처리부는,
    상기 제1 관심 객체의 위치에 기초하여, 상기 제1 마커의 색상 또는 크기를 결정하는 초음파 진단 장치.
  5. 제4항에 있어서,
    상기 영상 처리부는,
    상기 초음파 영상에 대응하는 영역과 상기 제1 관심 객체가 위치하는 지점의 거리에 기초하여, 상기 제1 마커의 크기를 결정하는 초음파 진단 장치.
  6. 제1항에 있어서,
    상기 영상 처리부는,
    상기 생성된 초음파 영상에 포함되는 제2 관심 객체에 대응되는 제2 마커를 형성하며,
    상기 디스플레이부는,
    상기 제2 마커를 상기 제2 관심 객체의 위치에 대응시켜, 상기 초음파 영상 내에 표시하는 초음파 진단 장치.
  7. 제6항에 있어서,
    상기 영상 처리부는,
    상기 제1 마커와 제2 마커의 색상 및 크기 중 적어도 하나를 다르게 형성하는 초음파 진단 장치.
  8. 제1항에 있어서,
    상기 디스플레이부는,
    상기 제1 관심 객체가 시선 방향을 기준으로, 상기 초음파 영상에 대응하는 영역의 전방 영역에 위치하는 경우,
    상기 제1 마커를 상기 초음파 영상 내에 표시하는 초음파 진단 장치.
  9. 제1항에 있어서,
    상기 디스플레이부는,
    상기 제1 관심 객체가 시선 방향을 기준으로, 상기 초음파 영상에 대응하는 영역의 왼쪽 영역, 오른쪽 영역, 위쪽 영역, 아래쪽 영역 중 적어도 하나에 위치하는 경우, 상기 제1 마커를 상기 초음파 영상의 테두리 영역에 표시하는 초음파 진단 장치.
  10. 제1항에 있어서,
    상기 디스플레이부는,
    상기 초음파 영상에 대응하는 영역의 위치와 상기 제1 관심 객체의 위치를 나타내는 맵 영상에 상기 제1 마커를 표시하는 초음파 진단 장치.
  11. 대상체에 대한 초음파 데이터를 획득하는 단계;
    상기 초음파 데이터에 기초하여, 초음파 영상을 생성하는 단계;
    상기 생성된 초음파 영상에 포함되지 않는 제1 관심 객체에 대한 제1 마커를 형성하는 단계; 및
    상기 생성된 초음파 영상을 표시하고, 상기 제1 마커를 상기 제1 관심 객체의 위치에 대응되도록 표시하는 단계;를 포함하는 초음파 진단 장치의 동작방법.
  12. 제11항에 있어서,
    상기 초음파 데이터는 3차원 볼륨 데이터이고, 상기 초음파 영상은 상기 3차원 볼륨 데이터를 렌더링하여 생성한 3차원 초음파 영상인 초음파 진단 장치의 동작방법.
  13. 제11항에 있어서,
    상기 제1 마커는 상기 제1 관심 객체를 나타내는 텍스트, 이미지 및 동영상 중 적어도 하나를 포함하는 초음파 진단 장치의 동작방법.
  14. 제11항에 있어서,
    상기 제1 마커를 형성하는 단계는,
    상기 제1 관심 객체의 위치에 기초하여, 상기 제1 마커의 색상 또는 크기를 결정하는 단계를 포함하는 초음파 진단 장치의 동작방법.
  15. 제14항에 있어서,
    상기 제1 마커를 형성하는 단계는,
    상기 초음파 영상에 대응하는 영역과 상기 제1 관심 객체가 위치하는 지점의 거리에 기초하여, 상기 제1 마커의 크기를 결정하는 단계를 포함하는 초음파 진단 장치의 동작방법.
  16. 제11항에 있어서,
    상기 방법은,
    상기 생성된 초음파 영상에 포함되는 제2 관심 객체에 대응되는 제2 마커를 형성하는 단계; 및
    상기 제2 마커를 상기 제2 관심 객체의 위치에 대응시켜, 상기 초음파 영상 내에 표시하는 단계를 더 포함하는 초음파 진단 장치의 동작방법.
  17. 제16항에 있어서,
    상기 제1 마커와 제2 마커의 색상 및 크기 중 적어도 하나는 다르게 형성되는 초음파 진단 장치의 동작방법.
  18. 제11항에 있어서,
    상기 제1 마커를 표시하는 단계는,
    상기 제1 관심 객체가 시선 방향을 기준으로, 상기 초음파 영상에 대응하는 영역의 전방 영역에 위치하는 경우, 상기 제1 마커를 상기 초음파 영상 내에 표시하는 단계를 포함하는 초음파 진단 장치의 동작방법.
  19. 제11항에 있어서,
    상기 제1 마커를 표시하는 단계는,
    상기 제1 관심 객체가 시선 방향을 기준으로, 상기 초음파 영상에 대응하는 영역의 왼쪽 영역, 오른쪽 영역, 위쪽 영역, 아래쪽 영역 중 적어도 하나에 위치하는 경우, 상기 제1 마커를 상기 초음파 영상의 테두리 영역에 표시하는 단계를 포함하는 초음파 진단 장치의 동작방법.
  20. 제11항에 있어서,
    상기 제1 마커를 표시하는 단계는,
    상기 초음파 영상에 대응하는 영역의 위치와 상기 제1 관심 객체의 위치를 나타내는 맵 영상에 상기 제1 마커를 표시하는 단계를 포함하는 초음파 진단 장치.
KR1020140195374A 2014-12-31 2014-12-31 초음파 진단 장치 및 그 동작방법 KR102367194B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140195374A KR102367194B1 (ko) 2014-12-31 2014-12-31 초음파 진단 장치 및 그 동작방법
EP15166202.0A EP3040031B1 (en) 2014-12-31 2015-05-04 Ultrasound diagnosis apparatus and method of operating the same
US14/744,446 US10441249B2 (en) 2014-12-31 2015-06-19 Ultrasound diagnosis apparatus and method of operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140195374A KR102367194B1 (ko) 2014-12-31 2014-12-31 초음파 진단 장치 및 그 동작방법

Publications (2)

Publication Number Publication Date
KR20160081478A true KR20160081478A (ko) 2016-07-08
KR102367194B1 KR102367194B1 (ko) 2022-02-25

Family

ID=53191476

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140195374A KR102367194B1 (ko) 2014-12-31 2014-12-31 초음파 진단 장치 및 그 동작방법

Country Status (3)

Country Link
US (1) US10441249B2 (ko)
EP (1) EP3040031B1 (ko)
KR (1) KR102367194B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230984A1 (ko) * 2019-05-15 2020-11-19 삼성메디슨 주식회사 초음파 영상 장치 및 그 표시 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019220979A1 (ja) * 2018-05-18 2019-11-21 富士フイルム株式会社 超音波システムおよび超音波システムの制御方法
CN112512434B (zh) * 2018-08-22 2023-08-22 深圳迈瑞生物医疗电子股份有限公司 一种超声成像的方法及相关设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030212327A1 (en) * 2000-11-24 2003-11-13 U-Systems Inc. Adjunctive ultrasound processing and display for breast cancer screening
US20080221446A1 (en) * 2007-03-06 2008-09-11 Michael Joseph Washburn Method and apparatus for tracking points in an ultrasound image
JP2009022411A (ja) * 2007-07-18 2009-02-05 Hitachi Medical Corp 医用画像処理装置
WO2010074058A1 (ja) * 2008-12-25 2010-07-01 株式会社 日立メディコ 医用画像表示装置及び方法
JP2010167032A (ja) * 2009-01-21 2010-08-05 Toshiba Corp 超音波診断装置及び画像表示装置
JP2012105966A (ja) * 2010-10-19 2012-06-07 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP2013192673A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 医用画像診断装置、画像処理装置及びプログラム
US20140228687A1 (en) * 2013-02-08 2014-08-14 Samsung Electronics Co., Ltd. Diagnosis aiding apparatus and method to provide diagnosis information and diagnosis system thereof

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3349233B2 (ja) * 1993-12-28 2002-11-20 オリンパス光学工業株式会社 超音波診断装置
US5720291A (en) * 1996-03-22 1998-02-24 Advanced Technology Laboratories, Inc. Three dimensional medical ultrasonic diagnostic image of tissue texture and vasculature
US6346940B1 (en) * 1997-02-27 2002-02-12 Kabushiki Kaisha Toshiba Virtualized endoscope system
JP3878270B2 (ja) 1997-02-27 2007-02-07 株式会社東芝 画像処理装置
US6254540B1 (en) * 1999-11-19 2001-07-03 Olympus Optical Co., Ltd. Ultrasonic image processing apparatus for constructing three-dimensional image using volume-rendering data and surface-rendering data simultaneously
JP2003260052A (ja) * 2002-03-08 2003-09-16 Hitachi Medical Corp 画像診断支援装置
US8591420B2 (en) * 2006-12-28 2013-11-26 Kabushiki Kaisha Toshiba Ultrasound imaging apparatus and method for acquiring ultrasound image
WO2008149291A1 (en) * 2007-06-04 2008-12-11 Koninklijke Philips Electronics, N.V. X-ray tool for 3d ultrasound
JP4922107B2 (ja) 2007-09-03 2012-04-25 オリンパスメディカルシステムズ株式会社 内視鏡装置
KR101068917B1 (ko) * 2009-05-18 2011-09-30 삼성메디슨 주식회사 기관 표시를 위한 초음파 진단기 및 방법
JP5748520B2 (ja) 2011-03-25 2015-07-15 富士フイルム株式会社 内視鏡挿入支援装置およびその作動方法、並びに内視鏡挿入支援プログラム
JP6054089B2 (ja) * 2011-08-19 2016-12-27 東芝メディカルシステムズ株式会社 超音波診断装置、医用画像処理装置および医用画像処理プログラム
US9295449B2 (en) * 2012-01-23 2016-03-29 Ultrasonix Medical Corporation Landmarks for ultrasound imaging
US9437036B2 (en) 2012-12-04 2016-09-06 Samsung Medison Co., Ltd. Medical system, medical imaging apparatus, and method of providing three-dimensional marker
JP6173686B2 (ja) 2012-12-25 2017-08-02 東芝メディカルシステムズ株式会社 超音波診断装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030212327A1 (en) * 2000-11-24 2003-11-13 U-Systems Inc. Adjunctive ultrasound processing and display for breast cancer screening
US20080221446A1 (en) * 2007-03-06 2008-09-11 Michael Joseph Washburn Method and apparatus for tracking points in an ultrasound image
JP2008212680A (ja) * 2007-03-06 2008-09-18 General Electric Co <Ge> 超音波画像内の所定の点を追跡するための方法及び装置
JP2009022411A (ja) * 2007-07-18 2009-02-05 Hitachi Medical Corp 医用画像処理装置
WO2010074058A1 (ja) * 2008-12-25 2010-07-01 株式会社 日立メディコ 医用画像表示装置及び方法
JP2010167032A (ja) * 2009-01-21 2010-08-05 Toshiba Corp 超音波診断装置及び画像表示装置
JP2012105966A (ja) * 2010-10-19 2012-06-07 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP2013192673A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 医用画像診断装置、画像処理装置及びプログラム
US20140228687A1 (en) * 2013-02-08 2014-08-14 Samsung Electronics Co., Ltd. Diagnosis aiding apparatus and method to provide diagnosis information and diagnosis system thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230984A1 (ko) * 2019-05-15 2020-11-19 삼성메디슨 주식회사 초음파 영상 장치 및 그 표시 방법
EP3970623A4 (en) * 2019-05-15 2023-06-07 Samsung Medison Co., Ltd. ULTRASONIC IMAGING DEVICE AND DISPLAY METHOD THEREOF

Also Published As

Publication number Publication date
US20160183925A1 (en) 2016-06-30
US10441249B2 (en) 2019-10-15
KR102367194B1 (ko) 2022-02-25
EP3040031B1 (en) 2019-07-17
EP3040031A1 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
KR102388130B1 (ko) 의료 영상 표시 방법 및 장치
US10631823B2 (en) Method and apparatus for displaying ultrasonic image
KR101660369B1 (ko) 초음파 장치 및 초음파 영상 생성 방법
US20140288425A1 (en) Apparatus and method for providing elasticity information
KR102297346B1 (ko) 의료 영상 장치 및 그에 따른 의료 영상을 디스플레이 하는 방법
KR20150082945A (ko) 초음파 진단 장치 및 그 동작방법
KR102388132B1 (ko) 대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템.
KR20170006200A (ko) 의료 영상 처리 장치 및 그 동작방법
KR20160087221A (ko) 초음파 진단 장치 및 그 동작방법
KR101630763B1 (ko) 초음파 영상 표시 장치 및 초음파 영상의 표시 방법
KR102551695B1 (ko) 의료 영상 장치 및 그 동작방법
KR20170068944A (ko) 초음파 영상을 디스플레이하는 방법 및 이를 위한 초음파 장치
KR20150089835A (ko) 초음파 영상 표시 방법 및 이를 위한 초음파 장치
KR20170041513A (ko) 대상체를 나타내는 영상을 디스플레이하는 방법 및 장치.
KR20150004490A (ko) 초음파 진단 장치 및 그 동작방법
KR102367194B1 (ko) 초음파 진단 장치 및 그 동작방법
KR20160148441A (ko) 초음파 장치 및 그 동작 방법
EP3025650B1 (en) Volume rendering apparatus and volume rendering method
KR20140115921A (ko) 탄성 정보 제공 장치 및 방법
KR102389347B1 (ko) 초음파 진단장치 및 그에 따른 초음파 진단 장치의 동작 방법
KR102446343B1 (ko) 초음파 장치 및 그 제어방법
KR102416511B1 (ko) 바디 마커를 생성하는 방법 및 장치.
KR102364490B1 (ko) 초음파 진단장치, 그에 따른 초음파 진단 방법 및 그에 따른 컴퓨터 판독 가능한 저장매체
KR20160056164A (ko) 초음파 진단장치, 그에 따른 초음파 진단 장치의 동작 방법 및 그에 따른 컴퓨터 판독 가능한 저장매체
KR102270721B1 (ko) 초음파 영상 장치 및 초음파 영상 생성 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant