KR101599891B1 - 초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체 - Google Patents

초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체 Download PDF

Info

Publication number
KR101599891B1
KR101599891B1 KR1020140125300A KR20140125300A KR101599891B1 KR 101599891 B1 KR101599891 B1 KR 101599891B1 KR 1020140125300 A KR1020140125300 A KR 1020140125300A KR 20140125300 A KR20140125300 A KR 20140125300A KR 101599891 B1 KR101599891 B1 KR 101599891B1
Authority
KR
South Korea
Prior art keywords
point
touch
user
acquiring
ultrasound image
Prior art date
Application number
KR1020140125300A
Other languages
English (en)
Inventor
이명우
박종근
손기원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140125300A priority Critical patent/KR101599891B1/ko
Priority to US14/637,560 priority patent/US9841831B2/en
Application granted granted Critical
Publication of KR101599891B1 publication Critical patent/KR101599891B1/ko
Priority to US15/817,827 priority patent/US10228785B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

본원에서는 터치 기반의 사용자 인터페이스를 이용하여 사용자가 원하는 정확한 지점의 입력을 보다 용이하게 할 수 있는 장치, 방법 및 컴퓨터 판독 가능한 저장매체의 제공을 목적으로 한다.
초음파진단장치는 초음파 영상을 포함하는 화면을 디스플레이하고, 초음파 영상 상에 사용자 터치를 수신하는 터치 인터페이스 및 사용자 터치가 감지된 지점을 근원 지점(seed point)으로 획득하고, 초음파 영상 내에 포함되는 대상체의 형태 정보를 획득하며, 근원 지점과 형태 정보에 근거하여, 사용자 터치에 대응되는 터치 지점이 초음파 영상 상에 디스플레이되도록 제어하는 제어부를 포함할 수 있다.

Description

초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체{UNTRASOUND DIANOGNOSIS APPARATUS, METHOD AND COMPUTER-READABLE STORAGE MEDIUM}
본원 발명은 초음파진단장치 및 방법에 관한 것이다. 최근 대두되는 스마트폰(Smart Phone), 태블릿 컴퓨터(Tablet PC) 등의 모바일 장비는 터치(Touch) 기반의 사용자 인터페이스를 제공하여 마우스, 트랙볼 등의 별도 입력장치 없이 조작이 가능하다는 장점이 있다. 이러한 편리한 사용성으로 인하여 터치 기반의 사용자 인터페이스를 의료용 초음파 영상 장비에 적용하는 사례가 증가하고 있다.
초음파진단장치는 프로브(probe)의 트랜스듀서(transducer)로부터 생성되는 초음파 신호를 대상체로 조사하고, 대상체로부터 반사된 초음파 에코 신호의 정보를 수신하여 대상체 내부의 부위에 대한 영상을 얻는다. 특히, 초음파진단장치는 대상체 내부의 관찰, 이물질 검출, 및 상해 측정 등 의학적 목적으로 사용된다. 이러한 초음파진단장치는 X선을 이용하는 진단 장치에 비하여 안정성이 높고, 실시간으로 영상의 디스플레이가 가능하며, 방사능 피폭이 없어 안전하다는 장점이 있어서 다른 화상 진단 장치와 함께 널리 이용된다.
이와 관련하여 의료진료행위를 하는 사용자가 측정 위치를 보다 용이하게 지정하기 위한 방법이 사용자에게 제공될 필요가 있다.
터치 기반의 사용자 인터페이스는 입력장치를 필요로 하지 않으며, 화면 상에 표시되는 마우스 커서가 존재하지 않는다. 손가락 또는 별도의 펜 등을 이용하여 화면 상의 버튼 등을 조작한다는 편리한 사용성을 제공하는 반면, 픽셀(Pixel) 단위로 정확하게 제어할 수 있는 마우스 기반의 조작에 비하여 정확성이 뒤떨어진다. 이로 인하여 초음파 영상에서 특정 구조물, 장기 등을 측정함에 있어서, 사용자가 원하는 정확한 지점의 입력이 어렵다는 문제점이 있었다.
본원에서는 터치 기반의 사용자 인터페이스를 이용하여 사용자가 원하는 정확한 지점의 입력을 보다 용이하게 할 수 있는 장치, 방법 및 컴퓨터 판독 가능한 저장매체의 제공을 목적으로 한다.
상술한 바와 같은 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 초음파진단장치는 초음파 영상을 포함하는 화면을 디스플레이하고, 상기 초음파 영상 상에 사용자 터치를 수신하는 터치 인터페이스; 및 상기 사용자 터치가 감지된 지점을 근원 지점(seed point)으로 획득하고, 상기 초음파 영상 내에 포함되는 대상체의 형태 정보를 획득하며, 상기 근원 지점과 상기 형태 정보에 근거하여, 상기 사용자 터치에 대응되는 터치 지점이 상기 초음파 영상 상에 디스플레이되도록 제어하는 제어부를 포함하는 것을 특징으로 한다.
또한, 상기 제어부는 상기 형태 정보에 포함된 상기 대상체의 소정 지점과 상기 근원 지점과의 거리에 근거하여 상기 터치 지점을 획득하고, 상기 터치 지점을 상기 초음파 영상에 표시하도록 제어하는 것을 특징으로 한다.
또한, 상기 제어부는 상기 초음파 영상에 기초하여 상기 대상체의 윤곽선(edge)을 포함하는 상기 형태 정보를 획득하고, 상기 근원 지점과 상기 윤곽선 상의 점들의 거리를 획득하고, 상기 근원 지점과 윤곽선 상의 점들의 거리에 기초하여 상기 터치 지점을 획득하는 것을 특징으로 한다.
또한, 상기 제어부는 상기 근원 지점에 기초하여 상기 초음파 영상 상에 소정의 크기의 관심영역을 획득하고, 상기 관심영역을 영상처리하여 상기 대상체의 형태 정보를 획득하는 것을 특징으로 한다.
또한, 상기 터치 인터페이스는 상기 관심영역의 영상을 상기 초음파 영상 상에 디스플레이하는 것을 특징으로 한다.
또한, 상기 터치 인터페이스가 사용자로부터 근원 지점들을 포함하는 근원 선(seed line)을 수신한 경우, 상기 제어부는 상기 근원 선에 기초하여 사용자 터치 선을 실시간으로 획득하는 것을 특징으로 한다.
또한, 상기 제어부는 상기 대상체의 형태 정보는 상기 대상체의 윤곽선을 포함하고, 상기 윤곽선 상의 지점들 중 상기 근원 지점과 가장 가까운 지점을 상기 터치 지점으로 자동으로 획득하는 것을 특징으로 한다.
또한, 상기 제어부는 상기 대상체의 형태 정보 상의 지점들 중 상기 근원 지점과 소정의 거리 안에 있는 하나 이상의 후보 터치 지점들을 획득하는 것을 특징으로 한다.
또한, 상기 터치 인터페이스는 사용자로부터 소정의 동작 패턴을 수신하고,
상기 제어부는 상기 수신된 동작 패턴에 기초하여 상기 후보 터치 지점들 중 하나를 터치 지점으로 획득하는 것을 특징으로 한다.
또한, 상기 터치 인터페이스는 상기 초음파 영상, 상기 근원 지점, 상기 대상체의 형태 정보, 상기 터치 지점 중 적어도 하나를 포함하는 화면을 실시간으로 디스플레이하는 것을 특징으로 한다.
또한, 상기 터치 인터페이스가 사용자로부터 소정의 동작 패턴을 수신하는 경우, 상기 제어부는 상기 근원 지점을 상기 터치 지점으로 획득하는 것을 특징으로 한다.
또한, 상기 제어부는 몰폴로지컬 이미지 프로세싱(morphological image processing)을 이용하여 상기 형태 정보를 획득하는 것을 특징으로 한다.
또한, 상기 몰폴로지컬 이미지 프로세싱은 엣지 디텍션(Edge detection), 세그맨테이션(Segmentation) 및 머신 러닝(Machine Learning) 알고리즘 중 적어도 하나를 포함하는 것을 특징으로 한다.
상술한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 초음파진단 방법은 초음파 영상 상에 사용자 터치를 수신하는 단계; 상기 사용자 터치가 감지된 지점을 근원 지점(seed point)으로 획득하는 단계; 상기 초음파 영상 내에 포함되는 대상체의 형태 정보를 획득하는 단계; 상기 근원 지점과 상기 형태 정보에 근거하여, 상기 사용자 터치에 대응되는 터치 지점을 획득하는 단계; 및 상기 터치 지점을 상기 초음파 영상과 함께 디스플레이하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 터치 지점을 획득하는 단계는 상기 형태 정보에 포함된 상기 대상체의 소정 지점과 상기 근원 지점과의 거리에 근거하여 상기 터치 지점을 획득하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 대상체의 형태 정보를 획득하는 단계는 상기 초음파 영상에 기초하여 상기 대상체의 윤곽선(edge)을 포함하는 상기 형태 정보를 획득하는 단계를 포함하고, 상기 터치 지점을 획득하는 단계는 상기 근원 지점과 상기 윤곽선 상의 점들의 거리를 획득하는 단계; 및 상기 근원 지점과 윤곽선 상의 점들의 거리에 기초하여 상기 터치 지점을 획득하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 대상체의 형태 정보를 획득하는 단계는 상기 근원 지점에 기초하여 상기 초음파 영상 상에 소정의 크기의 관심영역을 획득하는 단계; 및 상기 관심영역을 영상처리하여 상기 대상체의 형태 정보를 획득하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 디스플레이하는 단계는 상기 관심영역의 확대 화면을 상기 초음파 영상 상에 디스플레이하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 근원 지점을 획득하는 단계는 사용자로부터 근원 지점들을 포함하는 근원 선(seed line)을 수신하는 단계를 포함하고, 상기 터치 지점을 획득하는 단계는 상기 근원 선에 기초하여 상기 사용자 터치에 대응되는 터치 선을 실시간으로 획득하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 터치 지점을 획득하는 단계는 상기 대상체의 형태 정보는 상기 대상체의 윤곽선을 포함하고, 상기 윤곽선 상의 지점들 중 상기 근원 지점과 가장 가까운 지점을 상기 터치 지점으로 자동으로 획득하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 터치 지점을 획득하는 단계는 상기 대상체의 형태 정보 상의 지점들 중 상기 근원 지점과 소정의 거리 안에 있는 하나 이상의 후보 터치 지점들을 획득하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 사용자 터치를 수신하는 단계는 사용자로부터 소정의 동작 패턴를 수신하는 단계를 포함하고, 상기 터치 지점을 획득하는 단계는 상기 수신된 동작 패턴에 기초하여 상기 후보 터치 지점들 중 하나를 터치 지점으로 획득하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 디스플레이하는 단계는 상기 초음파 영상, 상기 근원 지점, 상기 대상체의 형태 정보, 상기 터치 지점 중 적어도 하나를 포함하는 화면을 실시간으로 디스플레이하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 사용자 터치를 수신하는 단계는 사용자로부터 소정의 동작 패턴을 수신하는 단계를 포함하고, 상기 터치 지점을 획득하는 단계는 상기 근원 지점을 상기 터치 지점으로 획득하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 대상체의 형태 정보를 획득하는 단계는 몰폴로지컬 이미지 프로세싱(morphological image processing)을 이용하여 형태 정보를 획득하는 것을 특징으로 한다.
또한, 상기 몰폴로지컬 이미지 프로세싱은 엣지 디텍션(Edge detection), 세그맨테이션(Segmentation) 및 머신 러닝(Machine Learning) 알고리즘 중 적어도 하나를 포함하는 것을 특징으로 한다.
또한 본 발명은 상술한 목적을 달성하기 위하여 상기 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체를 포함한다.
도 1은 본 발명에서 이용되는 초음파 영상장치를 나타낸 도면이다.
도 2 는 본 발명의 일 실시 예와 관련된 무선 프로브(200)의 구성을 도시한 블록도이다.
도 3 은 본원 발명의 일 실시예에 따른 초음파진단장치를 나타낸 도면이다.
도 4 는 본원 발명의 일 실시예에 따른 초음파진단장치를 나타낸 도면이다.
도 5 는 본원 발명의 일 실시예에 따른 초음파진단방법을 나타낸 도면이다.
도 6 은 본원 발명의 일 실시예에 따른 터치 지점 획득 과정을 나타낸 도면이다.
도 7 은 본원 발명의 일 실시예에 따른 터치 선을 획득하는 과정을 나타낸 도면이다.
도 8 은 본원 발명의 일 실시예에 따른 초음파영상을 나타낸 도면이다.
도 9 는 본원 발명의 일 실시예에 따른 터치 지점 획득 과정을 나타낸 도면이다.
도 10 은 본원 발명의 일 실시예에 따른 터치 지점 획득 과정을 나타낸 도면이다.
도 11 은 본원 발명의 일 실시예에 따른 터치 지점 획득 과정을 나타낸 도면이다.
도 12 는 본원 발명의 일 실시예에 따른 터치 지점 획득 과정을 나타낸 도면이다.
도 13 은 는 본원 발명의 일 실시예에 따라 획득한 터치 지점에 기초한 측정을 나타낸 도면이다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "... 모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
명세서 전체에서 "초음파 영상"이란 초음파를 이용하여 획득된 대상체(object)에 대한 영상을 의미한다. 또한, 대상체는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 또는 혈관을 포함할 수 있다. 또한, 대상체는 팬텀(phantom)을 포함할 수도 있으며, 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미할 수 있다.
또한, 명세서 전체에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지는 않는다.
또한, 명세서 전체에서 "터치"는 사용자가 초음파영상에 접촉한 것 뿐 아니라, 초음파영상에 근접하여 초음파진단장치가 사용자의 입력을 인식할 수 있는 정도로 근접한 것 또한 포함한다. 또한 사용자의 신체 일부가 초음파 영상을 터치 하는 것 뿐 아니라, 예를 들어 터치펜, 막대기 등의 물체를 이용하여 초음파 영상을 터치하는 것 또한 포함한다.
이하에서는 도면을 참조하여 본 발명의 실시 예 들을 상세히 설명한다.
도 1은 본 발명에서 이용되는 초음파 영상장치를 나타내는 도면이다.
도 1을 참조하면, 본 발명에서 이용되는 초음파진단장치의 전체적인 구성이 도시된다.
도 1을 참조하면, 초음파진단장치(100)는 프로브(2), 초음파 송수신부(10), 영상 처리부(20), 통신부(30), 메모리(40), 입력 디바이스(50), 및 제어부(60)를 포함할 수 있으며, 상술한 여러 구성들은 버스(70)를 통해 서로 연결될 수 있다.
초음파진단장치(100)는 카트형뿐만 아니라 휴대형으로도 구현될 수 있다. 휴대형 초음파진단장치의 예로는 팩스 시야어(PACS viewer), 스마트 폰(smart phone), 랩탑 컴퓨터, PDA, 태블릿 PC 등이 있을 수 있으나, 이에 제한되지 않는다.
프로브(2)는, 초음파 송수신부(10)로부터 인가된 구동 신호(driving signal)에 따라 대상체(1)로 초음파 신호를 송출하고, 대상체(1)로부터 반사된 에코 신호를 수신한다. 프로브(2)는 복수의 트랜스듀서를 포함하며, 복수의 트랜스듀서는 전달되는 전기적 신호에 따라 진동하며 음향 에너지인 초음파를 발생시킨다. 또한, 프로브(2)는 초음파진단장치(100)의 본체와 유선 또는 무선으로 연결될 수 있으며, 초음파진단장치(100)는 구현 형태에 따라 복수 개의 프로브(2)를 구비할 수 있다.
송신부(11)는 프로브(2)에 구동 신호를 공급하며, 펄스 생성부(17), 송신 지연부(18), 및 펄서(19)를 포함한다. 펄스 생성부(17)는 소정의 펄스 반복 주파수(PRF, Pulse Repetition Frequency)에 따른 송신 초음파를 형성하기 위한 펄스(pulse)를 생성하며, 송신 지연부(18)는 송신 지향성(transmission directionality)을 결정하기 위한 지연 시간(delay time)을 펄스에 적용한다. 지연 시간이 적용된 각각의 펄스는, 프로브(2)에 포함된 복수의 압전 진동자(piezoelectric vibrators)에 각각 대응된다. 펄서(19)는, 지연 시간이 적용된 각각의 펄스에 대응하는 타이밍(timing)으로, 프로브(2)에 구동 신호(또는, 구동 펄스(driving pulse))를 인가한다.
수신부(12)는 프로브(2)로부터 수신되는 에코 신호를 처리하여 초음파 데이터를 생성하며, 증폭기(13), ADC(아날로그 디지털 컨버터, Analog Digital converter)(14), 수신 지연부(15), 및 합산부(16)를 포함할 수 있다. 증폭기(13)는 에코 신호를 각 채널(channel) 마다 증폭하며, ADC(14)는 증폭된 에코 신호를 아날로그-디지털 변환한다. 수신 지연부(15)는 수신 지향성(reception directionality)을 결정하기 위한 지연 시간을 디지털 변환된 에코 신호에 적용하고, 합산부(16)는 수신 지연부(15)에 의해 처리된 에코 신호를 합산함으로써 초음파 데이터를 생성한다. 한편, 수신부(12)는 그 구현 형태에 따라 증폭기(13)를 포함하지 않을 수도 있다. 즉, 프로브(2)의 감도가 향상되거나 ADC(14)의 처리 비트(bit) 수가 향상되는 경우, 증폭기(13)는 생략될 수도 있다.
영상 처리부(20)는 초음파 송수신부(10)에서 생성된 초음파 데이터에 대한 주사 변환(scan conversion) 과정을 통해 초음파 영상을 생성하고 디스플레이한다. 한편, 초음파 영상은 A 모드(amplitude mode), B 모드(brightness mode) 및 M 모드(motion mode)에서 대상체를 스캔하여 획득된 그레이 스케일(gray scale)의 영상뿐만 아니라, 도플러 효과(doppler effect)를 이용하여 움직이는 대상체를 표현하는 도플러 영상을 포함할 수도 있다. 도플러 영상은, 혈액의 흐름을 나타내는 혈류 도플러 영상 (또는, 컬러 도플러 영상으로도 불림), 조직의 움직임을 나타내는 티슈 도플러 영상, 및 대상체의 이동 속도를 파형으로 표시하는 스펙트럴 도플러 영상을 포함할 수 있다.
B 모드 처리부(22)는, 초음파 데이터로부터 B 모드 성분을 추출하여 처리한다. 영상 생성부(24)는, B 모드 처리부(22)에 의해 추출된 B 모드 성분에 기초하여 신호의 강도가 휘도(brightness)로 표현되는 초음파 영상을 생성할 수 있다.
마찬가지로, 도플러 처리부(23)는, 초음파 데이터로부터 도플러 성분을 추출하고, 영상 생성부(24)는 추출된 도플러 성분에 기초하여 대상체의 움직임을 컬러 또는 파형으로 표현하는 도플러 영상을 생성할 수 있다.
일 실시 예에 의한 영상 생성부(24)는, 볼륨 데이터에 대한 볼륨 렌더링 과정을 거쳐 3차원 초음파 영상을 생성할 수 있으며, 압력에 따른 대상체(1)의 변형 정도를 영상화한 탄성 영상을 생성할 수도 있다. 나아가, 영상 생성부(24)는 초음파 영상 상에 여러 가지 부가 정보를 텍스트, 그래픽으로 표현할 수도 있다. 한편, 생성된 초음파 영상은 메모리(40)에 저장될 수 있다.
디스플레이부(25)는 생성된 초음파 영상을 표시 출력한다. 디스플레이부(25)는, 초음파 영상뿐 아니라 초음파진단장치(100)에서 처리되는 다양한 정보를 GUI(Graphic User Interface)를 통해 화면 상에 표시 출력할 수 있다. 한편, 초음파진단장치(100)는 구현 형태에 따라 둘 이상의 디스플레이부(25)를 포함할 수 있다.
통신부(30)는, 유선 또는 무선으로 네트워크(3)와 연결되어 외부 디바이스나 서버와 통신한다. 통신부(30)는 의료 영상 정보 시스템(PACS, Picture Archiving and Communication System)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 데이터를 주고 받을 수 있다. 또한, 통신부(300)는 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 데이터 통신할 수 있다.
통신부(30)는 네트워크(3)를 통해 대상체(1)의 초음파 영상, 초음파 데이터, 도플러 데이터 등 대상체의 진단과 관련된 데이터를 송수신할 수 있으며, CT, MRI, X-ray 등 다른 의료 장치에서 촬영한 의료 영상 또한 송수신할 수 있다. 나아가, 통신부(30)는 서버로부터 환자의 진단 이력이나 치료 일정 등에 관한 정보를 수신하여 대상체(1)의 진단에 활용할 수도 있다. 나아가, 통신부(30)는 병원 내의 서버나 의료 장치뿐만 아니라, 의사나 환자의 휴대용 단말과 데이터 통신을 수행할 수도 있다.
통신부(30)는 유선 또는 무선으로 네트워크(3)와 연결되어 서버(35), 의료 장치(34), 또는 휴대용 단말(36)과 데이터를 주고 받을 수 있다. 통신부(300)는 외부 디바이스와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈(31), 유선 통신 모듈(32), 및 이동 통신 모듈(33)을 포함할 수 있다.
근거리 통신 모듈(31)은 소정 거리 이내의 근거리 통신을 위한 모듈을 의미한다. 본 발명의 일 실시 예에 따른 근거리 통신 기술에는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(zigbee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
유선 통신 모듈(32)은 전기적 신호 또는 광 신호를 이용한 통신을 위한 모듈을 의미하며, 일 실시 예에 의한 유선 통신 기술에는 페어 케이블(pair cable), 동축 케이블, 광섬유 케이블, 이더넷(ethernet) 케이블 등이 포함될 수 있다.
이동 통신 모듈(33)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
메모리(40)는 초음파진단장치(100)에서 처리되는 여러 가지 정보를 저장한다. 예를 들어, 메모리(40)는 입/출력되는 초음파 데이터, 초음파 영상 등 대상체의 진단에 관련된 의료 데이터를 저장할 수 있고, 초음파진단장치(100) 내에서 수행되는 알고리즘이나 프로그램을 저장할 수도 있다.
메모리(40)는 플래시 메모리, 하드디스크, EEPROM 등 여러 가지 종류의 저장매체로 구현될 수 있다. 또한, 초음파진단장치(100)는 웹 상에서 메모리(40)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.
입력 디바이스(50)는, 사용자로부터 초음파진단장치(100)를 제어하기 위한 데이터를 입력받는 수단을 의미한다. 입력 디바이스(50)는 키 패드, 마우스, 터치 패널, 터치 스크린, 트랙볼, 조그 스위치 등 하드웨어 구성을 포함할 수 있으나 이에 한정되는 것은 아니며, 심전도 측정 모듈, 호흡 측정 모듈, 음성 인식 센서, 제스쳐 인식 센서, 지문 인식 센서, 홍채 인식 센서, 깊이 센서, 거리 센서 등 다양한 입력 수단을 더 포함할 수 있다.
제어부(60)는 초음파진단장치(100)의 동작을 전반적으로 제어한다. 즉, 제어부(60)는 도 1에 도시된 프로브(2), 초음파 송수신부(10), 영상 처리부(20), 통신부(30), 메모리(40), 및 입력 디바이스(50) 간의 동작을 제어할 수 있다.
프로브(2), 초음파 송수신부(10), 영상 처리부(20), 통신부(30), 메모리(40), 입력 디바이스(50) 및 제어부(60) 중 일부 또는 전부는 소프트웨어 모듈에 의해 동작할 수 있으나 이에 제한되지 않으며, 상술한 구성 중 일부가 하드웨어에 의해 동작할 수도 있다. 또한, 초음파 송수신부(10), 영상 처리부(20), 및 통신부(30) 중 적어도 일부는 제어부(60)에 포함될 수 있으나, 이러한 구현 형태에 제한되지는 않는다.
초음파 영상을 이용한 질병의 진단을 위하여, 대상체를 포함하는 초음파 영상 내에 진단 부위를 설정 또는 소정 위치를 표시하기 위한 마커(marker)가 설정될 수 있다.
구체적으로, 마커는 사용자가 질병 진단 또는 환자의 건강 이상 유무를 확인하기 위하여 상세히 관찰할 필요가 있는 부분에 설정될 수 있다. 본원에서는 전술한 마커가 설정된 대상체 부위를 보다 정확하게 진단할 수 있도록, 초음파 영상을 변경하여 출력하는 초음파진단장치 및 그에 따른 초음파 영상의 디스플레이 방법을 개시한다.
도 2 는 본 발명의 일 실시 예와 관련된 무선 프로브(200)의 구성을 도시한 블록도이다.
무선 프로브(200)는, 도 1에서 설명한 바와 같이 복수의 트랜스듀서를 포함하며, 구현 형태에 따라 도 1의 초음파 송수신부(10)의 구성을 일부 또는 전부 포함할 수 있다.
도 2 에 도시된 실시 예에 의한 무선 프로브(200)는, 송신부(210), 트랜스듀서(220), 및 수신부(230)를 포함하며, 각각의 구성에 대해서는 1에서 설명한 바 있으므로 자세한 설명은 생략한다. 한편, 무선 프로브(200)는 그 구현 형태에 따라 수신 지연부(233)와 합산부(234)를 선택적으로 포함할 수도 있다.
무선 프로브(200)는, 대상체(1)로 초음파 신호를 송신하고 에코 신호를 수신하며, 초음파 데이터를 생성하여 도 1의 초음파진단장치(100)로 무선 전송할 수 있다.
종래에 터치 기반의 사용자 인터페이스를 가지는 입력 디바이스(50)는 픽셀(Pixel) 단위로 정확하게 제어할 수 있는 마우스 기반의 조작에 비하여 정확성이 뒤떨어졌다. 이로 인하여 초음파 영상에서 특정 구조물, 장기 등을 측정함에 있어서, 사용자가 원하는 정확한 지점의 입력이 어렵다는 문제점이 있었다.
본원의 일 또는 다른 실시예에서는 전술한 종래 기술의 문제점을 극복하여 사용자가 정확하고 편리하게 측정 지점을 입력할 수 있도록 한다. 이하에서, 도 3 내지 도 13 를 참조하여, 본 발명의 일 또는 다른 실시예에 따른 초음파진단장치, 방법 및 컴퓨터 판독 가능한 저장매체를 상세히 설명한다.
초음파진단장치는 프로브(Probe)로부터 신호를 획득하여 초음파 영상을 구성한 후, 이미지 상의 특정 장기, 구조물 등의 길이, 각도, 면적, 부피 등을 측정할 수 있다. 이러한 측정을 통해 신체 내 이상 부위의 정보를 획득하거나, 태아 주수(Gestational age) 등에 관한 정보를 획득하기도 한다. 초음파진단장치는 의료적 진단을 보조하는 중요한 수단이기에 의료 현장에서 수시로 사용되며, 사용의 편이성과 더불어 정확성이 요구된다.
이와 관련하여 최근 스마트폰(Smart Phone), 태블릿 컴퓨터(Tablet PC) 등의 모바일 장비는 터치(Touch) 기반의 사용자 인터페이스를 제공하여 마우스, 트랙볼 등의 별도 입력장치 없이 조작이 가능하다는 장점이 있다. 이러한 편리한 사용성으로 인하여 터치 기반의 사용자 인터페이스를 의료용 초음파 영상 장비에 적용하는 사례가 증가하고 있다. 따라서 초음파진단장치에 터치 기반의 사용자 인터페이스를 적용하는 경우 터치 지점의 정확성을 높일 필요성이 있다.
도 3 은 본원 발명의 일 실시예에 따른 초음파진단장치를 나타낸 도면이다. 도 3에 있어서, 터치 인터페이스(310) 및 제어부(320)는 각각 도 1에서 설명한 입력 디바이스(50) 및 제어부(60)와 동일 대응되므로, 도 1에서와 중복되는 설명은 생략한다.
도 3 을 참조하면, 본원 발명의 일 실시예에 따른 초음파진단장치는 터치 인터페이스(310) 및 제어부(320) 를 포함한다. 터치 인터페이스(310)는 초음파 영상을 포함하는 화면을 디스플레이하고, 초음파 영상 상에 사용자 터치를 수신한다. 제어부(320)는 사용자 터치가 감지된 지점을 근원 지점(seed point)으로 획득하고, 초음파 영상 내에 포함되는 대상체의 형태 정보를 획득하며, 근원 지점과 형태 정보에 근거하여 사용자 터치에 대응되는 터치 지점이 초음파 영상 상에 디스플레이되도록 제어한다.
또한, 제어부(320)는 형태 정보에 포함된 대상체의 소정 지점과 근원 지점과의 거리에 근거하여 터치 지점을 획득하고, 터치 지점을 초음파 영상에 표시하도록 제어한다.
또한, 제어부(320)는 초음파 영상에 기초하여 대상체의 윤곽선(edge)을 포함하는 형태 정보를 획득하고, 근원 지점과 윤곽선 상의 점들의 거리를 획득하고, 근원 지점과 윤곽선 상의 점들의 거리에 기초하여 터치 지점을 획득한다.
터치 인터페이스(310)는 사용자로부터 입력을 수신한다. 또한, 터치 인터페이스(310)는 도 1 의 입력 디바이스(50) 중 하나일 수 있다. 터치 인터페이스(310)는 터치 기반의 사용자 인터페이스(user interface)이다. 즉, 터치 인터페이스(310)는 사용자의 터치를 인식하여 입력을 수신할 수 있다. 구체적으로, 터치 인터페이스(310)는 사용자로부터 소정 명령 또는 데이터를 입력받기 위한 사용자 인터페이스 화면을 생성 및 출력하며, 사용자 인터페이스 화면을 통하여 사용자로부터 소정 명령 또는 데이터를 입력받는다. 예를 들어 터치 인터페이스(310)는 터치 스크린으로 형성될 수 있다. 여기서, 터치 스크린은 디스플레이 패널(display panel)(미도시)과 결합되는 터치 패드(touch pad)(미도시)를 포함하여, 디스플레이 패널 상으로 사용자 인터페이스 화면을 출력한다. 그리고, 사용자 인터페이스 화면을 통하여 소정 명령이 입력되면, 터치 패드에서 이를 감지하여, 사용자가 입력한 소정 명령을 인식할 수 있다.
예를 들어, 터치 인터페이스(310)가 초음파 영상을 디스플레이하면, 사용자는 터치 인터페이스(310)를 통하여 초음파영상을 보면서 초음파 영상 상의 일 지점을 터치 하여, 사용자가 측정하고자 하는 지점을 입력할 수 있다. 터치 인터페이스(310)는 가압식, 정전식, 적외선식 등을 포함할 수 있다. 그러나, 터치 인터페이스(310)는 터치 기반의 사용자 인터페이스이면 되는 것이지 가압식, 정전식, 적외선식으로 제한되는 것은 아니다.
근원 지점(seed point)은 사용자로부터 수신한 지점을 의미한다. 예를 들어 사용자는 초음파 영상 상에서 측정하고자 하는 지점을 손가락 또는 터치 팬 등으로 터치하면, 터치 인터페이스(310)는 사용자가 터치한 지점을 감지하여 근원 지점으로 인식할 수 있다. 근원 지점은 초음파 영상 상의 카르테시안 좌표값, 극 좌표값 데이터 등을 포함하는 위치 정보로 획득될 수 있다.
근원 지점과 사용자가 의도한 지점 사이에는 다양한 이유로 오차가 있을 수 있다. 예를 들어 사용자가 터치 인터페이스(310) 상에 손가락을 터치한 경우, 사용자의 손가락과 터치 인터페이스(310)의 접촉 표면적은 비교적 넓다. 따라서 터치 인터페이스(310)는 접촉 표면적의 소정의 지점을 근원 지점으로 획득하지만, 근원 지점은 사용자가 의도한 지점과 차이가 있을 수 있다. 또한 터치 인터페이스(310) 자체의 오차가 있어 근원 지점과 사용자가 의도한 지점 사이에는 차이가 있을 수 있다. 본원 발명의 일 실시예에 따르면 근원 지점에 기초하여 사용자가 의도한 지점을 터치 지점으로 보다 정확하게 획득할 수 있다.
대상체의 형태 정보는 초음파 영상에 디스플레이된 대상체를 영상 처리하여 얻을 수 있는 대상체의 생김새에 관한 정보이다. 대상체의 형태 정보를 이용하면 대상체의 크기, 모양, 위치, 각도 등을 보다 용이하게 파악할 수 있으므로 초음파 영상을 보다 용이하게 다룰 수 있다. 대상체의 형태 정보는 예를 들어 대상체의 윤곽선 정보가 있을 수 있다.
터치 지점은 사용자가 터치하려고 의도했던 지점을 의미한다. 상술한 바와 같이 근원 지점은 사용자가 의도한 지점과 다를 수가 있다. 본원 발명에 따른 일 실시예에 따르면 사용자로부터 실제로 수신한 근원 지점에 기초하여, 사용자가 의도한 터치 지점을 획득할 수 있다.
도 4 는 본원 발명의 일 실시예에 따른 초음파진단장치를 나타낸 도면이다.
본원 발명의 일 실시예에 따른 초음파진단장치는 터치 인터페이스(410), 및 제어부(420)를 가질 수 있다. 여기서, 터치 인터페이스(410), 및 제어부(420)는 도 3에서 설명한 터치 인터페이스(310) 및 제어부(320)에 동일 대응되므로, 도 3에서와 중복되는 설명은 생략한다.
또한 터치 인터페이스(410)는 디스플레이부(411) 및 사용자 입력 수신부(412)를 포함할 수 있다. 디스플레이부(411)는 본원 발명에서 획득되는 다양한 데이터를 시각적으로 디스플레이할 수 있는 장치로서, 도 1의 디스플레이부(25)에 대응되며 디스플레이 패널을 포함한다. 디스플레이부(411)는 초음파 영상, 근원 지점, 윤곽선, 및 터치 지점 중 적어도 하나를 포함하는 화면을 실시간으로 디스플레이할 수 있다. 또한, 디스플레이부(411)에서 디스플레이되는 초음파 영상, 근원 지점, 윤곽선, 터치 지점 중 적어도 하나는 데이터로 변환되어 컴퓨터 판독 가능한 저장 매체에 저장될 수도 있다.
사용자 입력 수신부(412)는 사용자로부터 입력을 수신한다. 구체적으로, 사용자 입력 수신부(412)는 디스플레이부(411)에 부착되는 터치 패널을 포함한다. 사용자 입력 수신부(412)가 이용하는 방법은 가압식, 정전식, 적외선식 등을 포함할 수 있다. 그러나, 사용자 입력 수신부(412)는 터치 기반의 사용자 인터페이스이면 되는 것이지 가압식, 정전식, 적외선식으로 제한되는 것은 아니다.
도 5 는 본원 발명의 일 실시예에 따른 초음파진단방법을 나타낸 도면이다.
도 5 를 참조하면, 본원 발명의 일 실시예에 따른 초음파진단방법은 사용자 터치를 수신하는 단계(510), 근원 지점을 획득하는 단계(520), 대상체의 형태 정보를 획득하는 단계(530), 터치 지점을 획득하는 단계(540) 및 디스플레이하는 단계(550)를 포함할 수 있다. 구체적인 설명은 도 3 의 설명과 중복되므로 이하에서는 도 5 의 각 단계에 대한 설명만을 언급한다. 사용자 터치를 수신하는 단계(510)는 사용자로부터 터치 입력을 수신하는 단계이며, 사용자 입력 수신부(412)를 통하여 수행될 수 있다. 사용자로부터의 입력은 손가락을 터치 인터페이스(310)에 터치하는 행위일 수 있다. 근원 지점을 획득하는 단계(520)는 사용자로부터 수신한 터치 입력에 기초하여 초음파 영상 상의 근원지점을 획득하는 단계이다. 대상체의 형태 정보를 획득하는 단계(530)는 대상체의 초음파 영상에 영상처리를 하는 단계이다. 이 단계에 의하여 대상체의 크기, 모양, 위치, 각도 등을 보다 용이하게 파악할 수 있다. 터치 지점을 획득하는 단계(540)는 대상체의 형태 정보에 기초하여 사용자가 의도한 터치 지점을 획득하는 단계이다. 전술한, 520 단계, 530 단계 및 540 단계 각각의 동작은 제어부(420)에서 수행될 수 있다. 디스플레이하는 단계(550)는 사용자가 의도한 터치 지점을 초음파 영상과 함께 디스플레이하는 단계이다. 550 단계의 동작은 디스플레이부(411)에서 수행될 수 있다.
또한 대상체의 형태 정보를 획득하는 단계(530)는 초음파 영상에 기초하여 대상체의 형태 정보인 윤곽선(edge)을 포함하는 형태 정보를 획득하는 단계를 포함할 수 있다.
터치 지점을 획득하는 단계(540)는 형태 정보에 포함된 대상체의 소정 지점과 근원 지점과의 거리에 근거하여 터치 지점을 획득하는 단계를 포함할 수 있다. 구체적으로, 터치 지점을 획득하는 단계(540)는 근원 지점과 윤곽선 상의 점들의 거리를 획득하는 단계를 포함할 수 있으며, 근원 지점과 윤곽선 상의 점들의 거리에 기초하여 터치 지점을 획득하는 단계를 포함할 수 있다. 윤곽선을 포함하는 형태 정보에 근거하여 터치 지점을 획득하는 동작은 이하에서 도 6을 참조하여 상세히 설명한다.
또한, 대상체의 형태 정보를 획득하는 단계(530)는 근원 지점에 기초하여 초음파 영상 상에 소정의 크기의 관심영역을 획득하는 단계를 포함할 수 있고, 관심영역을 영상 처리하여 대상체의 형태 정보를 획득하는 단계를 포함할 수 있다. 디스플레이하는 단계(550)는 관심영역의 확대 화면을 초음파 영상 상에 디스플레이하는 단계를 포함할 수 있다.
또한, 근원 지점을 획득하는 단계(520)는 사용자로부터 근원 지점들을 포함하는 근원 선(seed line)을 수신하는 단계를 포함할 수 있다. 또한 터치 지점을 획득하는 단계(540)는 근원 선에 기초하여 사용자 터치에 대응되는 터치 선을 실시간으로 획득하는 단계를 포함할 수 있다.
터치 지점을 획득하는 단계(540)는 대상체의 형태 정보는 대상체의 윤곽선을 포함하고, 윤곽선 상의 지점들 중 근원 지점과 가장 가까운 지점을 터치 지점으로 자동으로 획득하는 단계를 포함할 수 있다. 터치 지점을 획득하는 단계(540)는 대상체의 형태 정보 상의 지점들 중 근원 지점과 소정의 거리 안에 있는 하나 이상의 후보 터치 지점들을 획득하는 단계를 포함할 수 있다. 사용자 터치를 수신하는 단계(510)는 사용자로부터 소정의 동작 패턴을 수신하는 단계를 포함할 수 있다. 터치 지점을 획득하는 단계(540)는 수신된 동작 패턴에 기초하여 후보 터치 지점들 중 하나를 터치 지점으로 획득하는 단계를 포함할 수 있다.
디스플레이하는 단계(550)는 초음파 영상, 근원 지점, 대상체의 형태 정보, 터치 지점 중 적어도 하나를 포함하는 화면을 실시간으로 디스플레이하는 단계를 포함할 수 있다. 사용자 터치를 수신하는 단계(510)는 사용자로부터 소정의 동작 패턴을 수신하는 단계를 포함할 수 있다. 또한, 터치 지점을 획득하는 단계(540)는 근원 지점을 터치 지점으로 획득하는 단계를 포함할 수 있다. 대상체의 형태 정보를 획득하는 단계(530)는 몰폴로지컬 이미지 프로세싱(morphological image processing)을 이용하여 형태 정보를 획득할 수 있다. 몰폴로지컬 이미지 프로세싱은 엣지 디텍션(Edge detection), 세그맨테이션(Segmentation) 및 머신 러닝(Machine Learning) 알고리즘 중 적어도 하나를 포함할 수 있다.
상술한 바와 같은 방법을 수행하기 위한 프로그램은 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다.
본 발명의 실시예에 따른 초음파 진단 장치의 구체적인 동작은 이하에서 도 6 내지 도 13을 참조하여 상세히 설명한다. 또한, 이하에서는 본 발명의 실시예에 따른 초음파 진단 장치로, 도 3에 도시된 초음파 진단 장치를 예로 들어 설명한다.
도 6 은 본원 발명의 일 실시예에 따른 터치 지점 획득 과정을 나타낸 도면이다.
도 6 을 참조하면, 초음파진단장치는 초음파 데이터에 기초하여 초음파 영상(610)을 획득한다. 터치 인터페이스(310)는 초음파 영상(620)을 디스플레이하고, 사용자로부터 초음파 영상(620) 상의 적어도 하나의 지점을 근원 지점(621)으로 수신한다. 예를들어 사용자는 손(622)으로 터치 인터페이스(310)를 터치할 수 있다. 터치 인터페이스(310)는 사용자가 터치한 지점을 근원 지점(621)으로 수신할 수 있다. 사용자로부터 수신한 근원 지점(621)은 초음파 영상(620) 상에 표시될 수 있다. 제어부(320)는 근원 지점(621)에 기초하여 소정의 관심 영역(Region of Interest)의 영상(630)을 획득할 수 있다. 예를 들어 근원 지점(631)을 중심으로 소정의 넓이를 관심 영역의 영상(630)으로 획득할 수 있다. 관심 영역의 영상(630)은 근원 지점(631)을 중심으로 대상체의 일부(632)가 나타날 수 있는 크기를 가질 수 있다. 관심 영역의 영상(630)에 기초하여 대상체의 형태 정보를 획득할 수 있다. 예를 들어 대상체의 형태 정보는 윤곽선을 포함할 수 있다. 또한, 관심 영역의 크기는 제어부(320) 또는 사용자가 자체적으로 설정할 수 있으며, 대상체의 형태 정보에 근거하여 획득될 수도 있을 것이다. 예를 들어, 도 6 에 도시된 바와 같이 터치 인터페이스(310)가 태아의 다리 부분을 디스플레이하는 경우, 제어부(320)는 태아의 다리 부분에서 근원 지점을 중심으로 한 소정 크기를 갖는 영역인 영상(630)에 나타나는 영역을 관심 영역으로 설정할 수 있을 것이다. 또 다른 예로, 터치 인터페이스(310)가 태아의 몸을 전체적으로 디스플레이할 경우, 제어부(320)는 대상체의 형태 정보에 근거하여 근원 지점이 인식된 대상체 부위가 태아의 다리로 판단된 경우, 제어부(320)는 근원 지점이 인식된 태아의 다리를 포함하는 영역을 관심 영역으로 설정할 수 있을 것이다. 획득된 윤곽선 영상(640)은 디스플레이부(25)에 디스플레이될 수 있다.
제어부(320)는 형태 정보를 획득하기 위해서 몰폴로지컬 이미지 프로세싱(morphological image processing) 영상처리를 이용할 수 있다. 몰폴로지컬 이미지 프로세싱은 영상에 나타난 대상을 형태학적으로 분석하는 처리를 의미한다. 예를 들어 영상에 나타난 대상의 윤곽선을 추출하는 처리가 있을 수 있다. 몰폴로지컬 이미지 프로세싱은 윤곽선 추출(Edge detection), 이미지 분할(Imaage Segmentation) 및 머신 러닝(Machine Learning) 알고리즘을 포함할 수 있다.
윤곽선 추출 알고리즘은 이미지에서 영역의 경계를 나타내는 특징을 검출하는 영상처리 기법이다. 예를 들어 픽셀의 밝기가 급작스럽게 변하는 점들을 검출하여 윤곽선을 추출할 수 있다. 윤곽선 추출 알고리즘의 종류에는 연산자를 이용한 윤곽선 추출, 캐니(canny) 윤곽선 추출 등이 있을 수 있다. 연산자를 이용한 윤곽선 추출에서 연산자에는 소벨(Soble), 프리윗(Prewitt), 로버츠(Roberts) 및 라플라시안(Laplacian) 등이 있을 수 있다.
이미지 분할 알고리즘은 이미지를 여러 세그먼트로 분할하는 영상 처리 기법을 의미한다. 이미지 분할 알고리즘의 종류에는 영역 성장 방법/분할-병합 방법, 그래픽 파티셔닝(graphic partitioning) 방법, 스레숄딩(thresholding) 방법 등이 있을 수 있다.
제어부(320)는 획득된 윤곽선과 근원 지점의 거리에 기초하여 터치 지점을 획득할 수 있다. 예를 들어, 제어부(320)는 획득된 윤곽선(642)과 근원 지점(641)의 거리가 가장 가까운 윤곽선(642) 상의 지점(652)을 근원지점(621, 651)에 대응되는 터치 지점(652)으로 자동으로 획득 할 수 있다. 초음파 영상(650)에서는 획득된 윤곽선(642)과 근원 지점(641)의 거리가 가장 짧은 지점을 터치 지점(652)으로 획득한 영상이 나타나 있다. 이와 같이 본원 발명에 따르면, 터치 인터페이스(310)가 수신한 사용자의 입력은 근원 지점(651)이지만, 제어부(320)는 근원 지점(651)을 터치 지점(652)으로 보정할 수 있다. 또한, 터치 지점(652)에 의하여 보다 정확하게 대상체를 측정할 수 있다. 또한, 터치 지점(661)이 포함된 초음파 영상(660)이 디스플레이부(411)에 디스플레이될 수 있다.
도 7 은 본원 발명의 일 실시예에 따른 터치 선을 획득하는 과정을 나타낸 도이다.
터치 인터페이스(310)가 사용자로부터 근원 지점들을 포함하는 근원 선(seed line)을 수신한 경우, 제어부(320)는 근원 선에 기초하여 터치 선을 실시간으로 획득할 수 있다.
터치 선은 터치 지점들을 포함하는 선 이다. 예를 들어, 터치 선에 포함되는 각 픽셀은 터치 지점일 수 있다. 또는 터치 선의 양 끝 지점이 터치 지점일 수 있다.
도 7 을 참조하면, 초음파진단장치는 초음파 데이터에 기초하여 초음파 영상(710)을 획득한다. 터치 인터페이스(310)는 사용자로부터 초음파 영상(720) 상에 근원 선(721)을 수신한다. 예를 들어 사용자는 손(722)으로 터치 인터페이스(310)를 터치할 수 있다. 근원 선(721)은 근원 지점들을 포함한다. 예를들어 터치 인터페이스(310)는 근원 선(721)의 양 끝 점을 사용자로부터 수신하여 근원 선(721)을 획득할 수 있다. 또한 사용자 입력 수신부는 사용자로부터 소정의 경로의 드래그를 수신하여 복수의 근원 지점을 포함하는 근원 선(721)을 획득할 수 있다. 드래그는 사용자의 손(722)이 터치 인터페이스(310)에 터치를 유치한 채로 이동하는 사용자의 행위를 의미한다. 사용자로부터 수신한 근원 선(721)은 초음파 영상(720)과 함께 디스플레이 될 수 있다.
제어부(320)는 근원 선(721)에 기초하여 소정의 관심 영역의 영상(730) 을 획득할 수 있다. 예를 들어 근원 선(731)을 중심으로 소정의 넓이를 관심 영역의 영상(730)으로 획득할 수 있다. 관심 영역의 영상(730)은 근원 선(731) 주위에 존재하는 대상체의 일부(732)가 나타날 수 있는 크기를 가질 수 있다. 관심 영역의 영상(730)에 기초하여 대상체의 윤곽선을 포함하는 형태 정보를 획득할 수 있다. 대상에의 윤곽선 영상(740)은 디스플레이될 수 있다.
제어부(320)는 획득된 윤곽선과 근원 지점의 거리에 기초하여 터치 선을 획득할 수 있다. 예를 들어 제어부(320)는 획득된 윤곽선(742)과 근원 선(741)의 거리가 가장 짧은 지점을 터치 선(752)으로 자동으로 획득 할 수 있다. 예를 들어 근원 선(741)에 포함된 각각의 픽셀과 윤곽선(742)에 포함된 각각의 픽셀 사이의 거리가 가장 짧을 지점을 포함하는 선을 터치 선(752)으로 획득할 수 있다.
초음파 영상(750)에서는 획득된 윤곽선(742)과 근원 선(741)의 거리가 가장 짧은 지점을 터치 선(752)으로 획득하는 영상이 나타나 있다. 이와 같이 본원 발명에 따르면, 터치 인터페이스(310)가 수신한 사용자의 입력은 근원 선(751)이지만, 제어부(320)는 근원 선(751)을 터치 선(752)으로 보정할 수 있다. 또한, 터치 선(752)에 의하여 보다 정확하게 대상체를 측정할 수 있다. 또한, 터치 선(761)이 포함된 초음파 영상(760)이 디스플레이부(411)에 디스플레이될 수 있다.
도 8 은 본원 발명의 일 실시예에 따른 초음파영상을 나타낸 도면이다. 터치 인터페이스(310)는 관심영역의 영상(830)을 초음파 영상(800) 상에 디스플레이할 수 있다.
도 6 에서 설명한 바와 같이 터치 인터페이스(310)는 사용자로부터 근원 지점을 수신할 수 있다. 또한 제어부(320)는 근원 지점(810)에 기초하여 소정의 관심 영역(820)을 획득할 수 있다. 획득된 관심 영역의 영상(830)은 초음파 영상(800)과 함께 표시될 수 있다. 또한 관심 영역의 영상(830)에는 근원 지점(831)이 함께 표시될 수 있다. 예를 들어 사용자가 사용자의 손가락으로 초음파 영상(800)의 한 지점을 터치한 경우, 터치 인터페이스(310)는 이를 근원 지점(810)으로 획득한다.
한편, 근원 지점(810)이 사용자의 손가락에 가려서 사용자가 근원 지점(810)이 어디인지 확인할 수 없는 경우가 있다. 하지만 초음파 영상(800)과 함께 관심 영역의 영상(830)이 표시되는 경우 사용자는 근원 지점(831)이 어디인지 쉽게 파악할 수 있다. 관심 영역의 영상(830)은 초음파 영상의 일부를 확대한 화면일 수 있다. 또한 관심 영역의 영상(830)은 관심 영역(820)에서 획득한 윤곽선 영상(미도시)일 수 있다. 사용자는 관심 영역의 영상(830)에 기초하여 근원 지점(810 또는 831)의 위치를 보다 용이하게 파악할 수 있다.
도 9 는 본원 발명의 일 실시예에 따른 터치 지점 획득 과정을 나타낸 도면이다.
도 9 을 참조하면, 터치 인터페이스(310)는 사용자로부터 초음파 영상(910) 상에 근원 지점(911)을 수신한다. 예를 들어 사용자는 손(912)으로 터치 인터페이스(310)를 터치할 수 있다. 사용자로부터 수신한 근원 지점(911)은 초음파 영상(910)과 함께 디스플레이 될 수 있다. 제어부(320)는 근원 지점(911)에 기초하여 소정의 관심 영역(Region of Interest)의 영상(920)을 획득할 수 있다. 예를 들어 근원 지점(921)을 중심으로 소정의 넓이를 관심 영역의 영상(920)으로 획득할 수 있다. 관심 영역의 영상(920)은 근원 지점(921)을 중심으로 대상체의 일부(922)가 나타날 수 있는 크기를 가질 수 있다. 관심 영역의 영상(920)에 기초하여 대상체의 형태 정보를 획득할 수 있다. 형태 정보는 윤곽선을 포함할 수 있다. 디스플레이부(411)는 윤곽선 영상(930)을 디스플레이할 수 있다.
예를 들어 사용자가 손(945)을 터치 인터페이스(310)에 터치하면 터치 이벤트가 시작되며, 사용자가 손을 터치 인터페이스(310)에 터치한 채로 손(945)을 제 1 지점(941)에서 제 2 지점(942)으로 이동하는 경우, 터치 지점도 제 1 지점(941)에 대응하는 제 3 지점(943)에서 제 2 지점(942)에 대응하는 제 4 지점(944)으로 실시간으로 디스플레이부(411)에 디스플레이될 수 있다. 또한 사용자가 제 2 지점(942)에서 손(945)을 터치 인터페이스(310) 상에서 떼어낸 경우, 터치 이벤트는 종료되며 터치 지점은 제 4 지점(944)으로 획득될 수 있다. 또한 초음파 영상(940)은 제 1 지점(941) 내지 제 4 지점(944) 중 적어도 하나를 포함할 수 있다. 터치 인터페이스(310)는, 근원 지점, 대상체의 형태 정보, 터치 지점 중 적어도 하나를 포함하는 초음파 영상(940)을 실시간으로 디스플레이할 수 있다. 사용자는 사용자 입력지점을 실시간으로 확인할 수 있으므로 사용자가 의도하는 지점을 보다 명확하게 지정할 수 있다.
도 10 은 본원 발명의 일 실시예에 따른 터치 지점 획득 과정을 나타낸 도면이다. 제어부(320)는 대상체의 형태 정보 상의 지점들 중 근원 지점과 소정의 거리 안에 있는 하나 이상의 후보 터치 지점들을 획득할 수 있다.
예를 들어, 도 6 에서 관심 영역의 영상(630)에 기초하여 대상체의 윤곽선 영상(640)을 획득한 경우, 제어부(320)는 근원 지점(1010)으로부터 소정의 거리 안에 있는 윤곽선(1001) 상의 하나 이상의 지점들을 후보 터치 지점들(1020, 1030 및 1040)로 획득할 수 있다. 제어부(320)는 근원 지점(1010)에 기초하여 터치 지점이 될 수 있는 가능성이 큰 지점을 자동으로 후보 터치 지점들(1020, 1030 및 1040)로 획득할 수 있다. 예를 들어 후보 터치 지점들(1020, 1030 및 1040)은 근원 지점(1010)과 동일한 거리로 떨어져 있는 윤곽선(1001) 상의 복수의 지점일 수 있다. 또한, 후보 터치 지점들(1020, 1030 및 1040)은 근원 지점(1010)에서 소정의 거리 내에 있는 윤곽선 상의 소정의 복수의 지점 일 수 있다. 소정의 거리 내에 있는 윤곽선 상의 지점이 복수개인 경우, 제어부(320)는 소정의 개수의 후보 터치 지점들(1020, 1030 및 1040)을 자동으로 획득할 수 있다. 근원 지점(1010), 제 1 후보 터치 지점(1020) 내지 제 3 후보 터치 지점(1040) 및 윤곽선(1001) 중 적어도 하나를 포함하는 초음파 영상(1000)이 디스플레이부(411)에 디스플레이될 수 있다. 또한, 제어부(320)는 후보터치 지점들(1020, 1030 및 1040)을 표시한 초음파 영상을 디스플레이하도록 하고, 후보 지점들 중 어느 하나를 사용자가 재선택할 수 있도록 할 수 있다. 사용자의 재선택은 이하에서 도 11을 참조하여 상세히 설명한다.
또한, 제어부(320)는 대상체의 형태 정보에 근거하여 자체적으로 후보터치 지점들(1020, 1030 및 1040) 어느 하나를 터치 지점으로 검출할 수 있다. 예를 들어, 대상체의 형태 정보에 근거하여 대상체의 진단에 필요한 지점에 대응되는 지점을 터치지점으로 검출하도록 할 수 있다. 도 10에 도시된 예에서, 태아의 다리 길이(FL)를 측정하기 위해서는 형태 정보 상의 제2 후보 지점(1030)이 필요한 경우, 제어부(320)는 대상체의 형태 정보에 근거하여 대상체의 관심 영역에서 측정 가능한 항목(예를 들어, FL)을 결정하고, 결정된 항목(FL)을 측정하기 위해 필요한 지점(예를 들어, 1030)에 대응되는 지점을 터치 지점으로 검출할 수 있다.
도 11 은 본원 발명의 일 실시예에 따른 터치 지점 획득 과정을 나타낸 도면이다. 터치 인터페이스(310)는 사용자로부터 소정의 동작 패턴을 수신하고 제어부(320)는 수신된 동작 패턴에 기초하여 후보 터치 지점들 중 하나를 터치 지점으로 획득할 수 있다.
도 10에서 설명한 바와 같이 후보 터치 지점들(1020, 1030 및 1040)이 획득된 경우, 관심 영역의 윤곽선 영상(1110)을 포함하는 초음파 영상(1100)이 디스플레이부(411)에 디스플레이될 수 있다. 또한, 사용자는 터치 인터페이스(310)에 손가락을 터치를 한 후 터치 인터페이스(310) 상에 표시된 후보 터치 지점들(1111, 1112 및 1113)을 확인할 수 있다. 제 1 후보 터치 지점(1111)은 왼쪽-위에 위치해 있다. 제 2 후보 터치 지점(1112)은 오른쪽-위에 위치해 있다. 제 3 후보 터치 지점(1113)은 아래쪽에 위치해 있다.
터치 인터페이스(310)는 후보 입력 지점들 중 하나를 선택하기 위한 사용자로부터의 선택을 수신할 수 있다. 다양한 동작 패턴에 의하여 사용자로부터의 선택이 이루어질 수 있다. 동작 패턴은 터치스크린 상에서 이루어 지는 사용자의 소정의 행위, 동작을 의미한다. 동작 패턴에는 예를 들어 손가락이 터치스크린을 터치한 시간의 길이, 손가락이 터치스크린 상에서 움직인 경로, 손가락이 터치 인터페이스(310)를 탭한 횟수를 포함할 수 있다.
예를 들어 사용자는 선택을 위하여 드래그와 같은 동작 패턴을 이용할 수 있다. 사용자가 제 3 후보 터치 지점(1113)을 선택하고자 하는 경우 사용자는 터치 인터페이스(310) 상에 손가락을 터치를 한 상태에서 아래쪽으로 드레그를 할 수 있다. 터치 인터페이스(310)는 사용자로부터 아래쪽 드래그 입력을 수신할 수 있다. 수신된 입력에 기초하여 제 3 후보 터치 지점(1113)은 제 1 후보 터치 지점(1111) 및 제 2 후보 터치 지점(1112)과 다르게 표시될 수 있다. 예를 들어 도 11 에 나타난 바와 같이 제 3 후보 터치 지점(1113)은 제 1 및 제 2 후보 터치 지점(1111 및 1112)보다 큰 아이콘이 디스플레이될 수 있다.
사용자가 손가락을 터치 인터페이스(310)에서 떼어낸 경우 터치 이벤트가 종료되고 제 3 후보 터치 지점(1113)을 터치 지점(1152)으로 확정할 수 있다. 또한 확정된 터치 지점(1152)을 포함한 초음파 영상(1150)이 디스플레이부(411)에 디스플레이될 수 있다.
이와 같이 본원 발명에 따르면, 터치 인터페이스(310)가 수신한 사용자의 입력은 근원 지점(1151)이지만, 제어부(320)는 후보 터치 지점들(1111, 1112 및 1113)에 기초하여 근원 지점(1151)을 터치 지점(1152)으로 보정할 수 있다. 또한, 터치 지점(1152)에 의하여 보다 정확하게 대상체를 측정할 수 있다.
도 12 는 본원 발명의 일 실시예에 따른 터치 지점 획득 과정을 나타낸 것이다. 터치 인터페이스가 사용자로부터 소정의 동작 패턴을 수신하는 경우, 제어부(320)는 근원 지점을 터치 지점으로 획득할 수 있다.
예를 들어 터치 인터페이스(310)는 사용자의 다양한 동작 패턴을 수신할 수 있다. 또한 제어부(320)는 수신된 다양한 동작 패턴에 기초하여 입력 지점을 획득하기 위한 다양한 동작이 이루어 질 수 있다. 그 일 실시예는 도 11 과 함께 설명된 바 있다. 도 12 를 참조하면, 초음파진단장치는 초음파 데이터에 기초하여 초음파 영상(1210)을 획득한다. 터치 인터페이스(310)는 사용자로부터 초음파 영상(1220) 상에 근원 지점(1221)을 수신한다. 사용자로부터 수신한 근원 지점(1221)은 초음파 영상(1220)과 함께 디스플레이 될 수 있다. 이 때 예를 들어 사용자는 손가락으로 터치스크린을 소정 시간 이상으로 길게 터치할 수 있다. 터치 인터페이스(310)는 사용자로부터 소정 시간 이상으로 길게 터치한 동작 패턴을 수신할 수 있다. 제어부(320)는 동작 패턴에 기초하여, 별도의 윤곽선 획득 없이 근원 지점(1221)을 터치 지점(1231)으로 획득 할 수 있다. 획득된 터치 지점(1231)을 포함하는 초음파 영상(1230)은 디스플레이부(411)에 디스플레이될 수 있다.
도 13 은 본원 발명의 일 실시예에 따라 획득한 터치 지점에 기초한 측정을 나타낸 도면이다.
초음파 영상(1310)은 태아의 머리 부분을 초음파 촬영한 것이다. 캘리퍼(1311)는 양 끝단에 지점들(1312 및 1313)을 포함하고 있다. 터치 인터페이스(310)는 사용자로부터 터치를 수신하여 캘리퍼(1311)의 지점들(1312 및 1313)을 획득할 수 있다.
이와 관련하여, 캘리퍼(1311)에 포함된 지점들(1312 및 1313)의 위치에 따라 측정 정보가 달라질 수 있다. 예를들어 하나의 지점이 대상체의 머리뼈의 일측의 바깥쪽에 있고, 다른 하나의 지점이 대상체의 머리뼈의 반대측의 안쪽에 있는 경우 측정 정보는 양두정골(Bi-parietal; BPD)의 지름을 나타내는 수직선의 캘리퍼에 관한 정보가 될 수 있다. 또한 하나의 지점이 대상체의 머리뼈의 일측의 바깥쪽에 있고, 다른 하나의 지점이 대상체의 머리뼈의 반대측의 바깥쪽에 있는 경우 측정정보는 머리의 지름(Head Circumference; HC)을 나타내는 타원의 캘리퍼에 관한 정보가 될 수 있다. 측정 정보에 기초하여 HC가 측정 대상으로 획득될 수 있다. 지점들의 위치에 따라 측정 정보가 다르게 획득될 수 있다.
사용자가 BPD 를 측정하고자 하는 경우, 사용자는 초음파 영상(1310) 상에 대상체의 머리뼈(1315)의 일측의 안쪽에 있는 지점(1312)과 대상체의 머리뼈의 일측의 바깥쪽에 있는 지점(1313)을 터치해야 한다. 이와 관련하여, 본원 발명에 의한 초음파진단장치는 초음파 영상 상의 대상체의 머리뼈(1315)가 가늘 더라도 터치 인터페이스(310)가 수신한 근원 지점에 기초하여 터치 지점을 정확하게 판단할 수 있다. 즉, 초음파 영상(1310) 상의 대상체의 머리뼈(1315)가 얇아서 터치 인터페이스(310)가 지점(1312)의 근처 지점을 근원 지점으로 수신한 경우라도, 제어부(320)는 근원 지점에 기초하여 터치 지점(1312)을 획득할 수 있다. 또한 터치 인터페이스(310)가 지점(1313)의 근처 지점을 근원 지점으로 수신한 경우라도, 제어부(320)는 근원 지점에 기초하여 터치 지점(1313)을 획득할 수 있다.
정확한 터치 지점을 획득하기 위하여 도 3 내지 12와 함께 설명한 내용이 이용될 수 있다. 예를 들어 도 11 에서 설명한 바와 같이 제어부(320)는 초음파 영상 상의 대상체의 머리뼈(1315)의 안쪽과 바깥쪽에 후보 터치 지점들을 획득하고, 사용자로부터 수신한 선택에 기초하여 터치 지점들(1312 및 1313)을 획득할 수 있다.
초음파 영상(1310)에서 지점(1312)은 대상체의 머리뼈의 일측의 안쪽에 있고, 지점(1313)은 대상체의 머리뼈의 일측의 바깥쪽에 있으므로, 지점들(1312 및 1313)을 포함하는 캘리퍼(1311)에 의하여 측정 대상으로 BPD가 획득될 수 있다. 캘리퍼(1311)에 의하여 획득된 BPD의 측정값(1314)은 2.12mm 가 될 수 있다.
초음파 영상(1320)은 태아를 초음파 촬영한 것이다. 캘리퍼(1321)는 양 끝단에 지점들(1322 및 1323)을 포함하고 있다. 터치 인터페이스(310)는 사용자로부터 터치를 수신하여 캘리퍼(1321)의 지점들(1322 및 1323)을 획득할 수 있다. 지점들(1322 및 1323)을 포함하는 캘리퍼(1321)에 의하여 측정 대상인 CRL가 획득될 수 있다. 캘리퍼(1321)에 의하여 획득된 CRL의 측정값(1324)은 8.12mm 가 될 수 있다.
초음파 영상(1330)은 태아를 초음파 촬영한 것이다. 캘리퍼(1331)는 양 끝단에 지점들(1332 및 1333)을 포함하고 있다. 터치 인터페이스(310)는 사용자로부터 터치를 수신하여 캘리퍼(1331)의 지점들(1332 및 1333)을 획득할 수 있다. 지점들(1332 및 1333)을 포함하는 캘리퍼(1331)에 의하여 측정 대상인 TIB가 획득될 수 있다. 캘리퍼(1331)에 의하여 획득된 TIB의 측정값(1334)은 2.06mm 가 될 수 있다.
상술한 바와 같은 터치 기반의 사용자 인터페이스를 이용하여 사용자는 초음파 영상 상에서 원하는 정확한 지점을 보다 용이하게 입력할 수 있다.
본원 발명의 실시 예 들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 방법들은 한정적인 관점이 아닌 설명적 관점에서 고려되어야 한다. 본 발명의 범위는 발명의 상세한 설명이 아닌 특허청구 범위에 나타나며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (27)

  1. 초음파 영상을 포함하는 화면을 디스플레이하고, 상기 초음파 영상 상에 사용자 터치를 수신하는 터치 인터페이스; 및
    상기 사용자 터치가 감지된 지점을 근원 지점(seed point)으로 획득하고, 상기 초음파 영상 내에 포함되는 대상체의 형태 정보를 획득하며, 상기 근원 지점과 상기 형태 정보에 근거하여, 상기 사용자 터치에 대응되는 터치 지점이 상기 초음파 영상 상에 디스플레이되도록 제어하는 제어부를 포함하는 것을 특징으로 하는 초음파진단장치.
  2. 제 1 항에 있어서,
    상기 제어부는,
    상기 형태 정보에 포함된 상기 대상체의 소정 지점과 상기 근원 지점과의 거리에 근거하여 상기 터치 지점을 획득하고, 상기 터치 지점을 상기 초음파 영상에 표시하도록 제어하는 것을 특징으로 하는 초음파진단장치.
  3. 제1항에 있어서,
    상기 제어부는,
    상기 초음파 영상에 기초하여 상기 대상체의 윤곽선(edge)을 포함하는 상기 형태 정보를 획득하고, 상기 근원 지점과 상기 윤곽선 상의 점들의 거리를 획득하고, 상기 근원 지점과 윤곽선 상의 점들의 거리에 기초하여 상기 터치 지점을 획득하는 초음파진단장치.
  4. 제 1 항에 있어서,
    상기 제어부는,
    상기 근원 지점에 기초하여 상기 초음파 영상 상에 소정의 크기의 관심영역을 획득하고, 상기 관심영역을 영상처리하여 상기 대상체의 형태 정보를 획득하는 초음파진단장치.
  5. 제 4 항에 있어서,
    상기 터치 인터페이스는,
    상기 관심영역의 영상을 상기 초음파 영상 상에 디스플레이하는 초음파진단장치.
  6. 제 1 항에 있어서,
    상기 터치 인터페이스가 사용자로부터 근원 지점들을 포함하는 근원 선(seed line)을 수신한 경우, 상기 제어부는 상기 근원 선에 기초하여 사용자 터치 선을 실시간으로 획득하는 초음파진단장치.
  7. 제 1 항에 있어서,
    상기 제어부는,
    상기 대상체의 형태 정보는 상기 대상체의 윤곽선을 포함하고, 상기 윤곽선 상의 지점들 중 상기 근원 지점과 가장 가까운 지점을 상기 터치 지점으로 자동으로 획득하는 초음파진단장치.
  8. 제 1 항에 있어서,
    상기 제어부는,
    상기 대상체의 형태 정보 상의 지점들 중 상기 근원 지점과 소정의 거리 안에 있는 하나 이상의 후보 터치 지점들을 획득하는 초음파진단장치.
  9. 제 8 항에 있어서,
    상기 터치 인터페이스는 사용자로부터 소정의 동작 패턴을 수신하고,
    상기 제어부는 상기 수신된 동작 패턴에 기초하여 상기 후보 터치 지점들 중 하나를 터치 지점으로 획득하는 초음파진단장치.
  10. 제 1 항에 있어서,
    상기 터치 인터페이스는,
    상기 초음파 영상, 상기 근원 지점, 상기 대상체의 형태 정보, 상기 터치 지점 중 적어도 하나를 포함하는 화면을 실시간으로 디스플레이하는 초음파진단장치.
  11. 제 1 항에 있어서,
    상기 터치 인터페이스가 사용자로부터 소정의 동작 패턴을 수신하는 경우, 상기 제어부는 상기 근원 지점을 상기 터치 지점으로 획득하는 초음파진단장치.
  12. 제 1 항에 있어서,
    상기 제어부는,
    몰폴로지컬 이미지 프로세싱(morphological image processing)을 이용하여 상기 형태 정보를 획득하는 초음파진단장치.
  13. 제 12 항에 있어서,
    상기 몰폴로지컬 이미지 프로세싱은 엣지 디텍션(Edge detection), 세그맨테이션(Segmentation) 및 머신 러닝(Machine Learning) 알고리즘 중 적어도 하나를 포함하는 초음파진단장치.
  14. 초음파 영상 상에 사용자 터치를 수신하는 단계;
    상기 사용자 터치가 감지된 지점을 근원 지점(seed point)으로 획득하는 단계;
    상기 초음파 영상 내에 포함되는 대상체의 형태 정보를 획득하는 단계;
    상기 근원 지점과 상기 형태 정보에 근거하여, 상기 사용자 터치에 대응되는 터치 지점을 획득하는 단계; 및
    상기 터치 지점을 상기 초음파 영상과 함께 디스플레이하는 단계를 포함하는 것을 특징으로 하는 초음파진단방법.
  15. 제 14 항에 있어서,
    상기 터치 지점을 획득하는 단계는,
    상기 형태 정보에 포함된 상기 대상체의 소정 지점과 상기 근원 지점과의 거리에 근거하여 상기 터치 지점을 획득하는 단계를 포함하는 것을 특징으로 하는 초음파진단방법.
  16. 제 14 항에 있어서,
    상기 대상체의 형태 정보를 획득하는 단계는,
    상기 초음파 영상에 기초하여 상기 대상체의 윤곽선(edge)을 포함하는 상기 형태 정보를 획득하는 단계를 포함하고,
    상기 터치 지점을 획득하는 단계는,
    상기 근원 지점과 상기 윤곽선 상의 점들의 거리를 획득하는 단계; 및
    상기 근원 지점과 윤곽선 상의 점들의 거리에 기초하여 상기 터치 지점을 획득하는 단계를 포함하는 초음파진단방법.
  17. 제 14 항에 있어서,
    상기 대상체의 형태 정보를 획득하는 단계는,
    상기 근원 지점에 기초하여 상기 초음파 영상 상에 소정의 크기의 관심영역을 획득하는 단계; 및
    상기 관심영역을 영상처리하여 상기 대상체의 형태 정보를 획득하는 단계를 포함하는, 초음파진단방법.
  18. 제 17 항에 있어서,
    상기 디스플레이하는 단계는,
    상기 관심영역의 확대 화면을 상기 초음파 영상 상에 디스플레이하는 단계를 포함하는, 초음파진단방법.
  19. 제 14 항에 있어서,
    상기 근원 지점을 획득하는 단계는,
    사용자로부터 근원 지점들을 포함하는 근원 선(seed line)을 수신하는 단계를 포함하고,
    상기 터치 지점을 획득하는 단계는,
    상기 근원 선에 기초하여 상기 사용자 터치에 대응되는 터치 선을 실시간으로 획득하는 단계를 포함하는, 초음파진단방법.
  20. 제 14 항에 있어서,
    상기 터치 지점을 획득하는 단계는,
    상기 대상체의 형태 정보는 상기 대상체의 윤곽선을 포함하고, 상기 윤곽선 상의 지점들 중 상기 근원 지점과 가장 가까운 지점을 상기 터치 지점으로 자동으로 획득하는 단계를 포함하는 초음파진단방법.
  21. 제 14 항에 있어서,
    상기 터치 지점을 획득하는 단계는,
    상기 대상체의 형태 정보 상의 지점들 중 상기 근원 지점과 소정의 거리 안에 있는 하나 이상의 후보 터치 지점들을 획득하는 단계를 포함하는 초음파진단방법.
  22. 제 21 항에 있어서,
    상기 사용자 터치를 수신하는 단계는,
    사용자로부터 소정의 동작 패턴를 수신하는 단계를 포함하고,
    상기 터치 지점을 획득하는 단계는,
    상기 수신된 동작 패턴에 기초하여 상기 후보 터치 지점들 중 하나를 터치 지점으로 획득하는 단계를 포함하는 초음파진단방법.
  23. 제 14 항에 있어서,
    상기 디스플레이하는 단계는,
    상기 초음파 영상, 상기 근원 지점, 상기 대상체의 형태 정보, 상기 터치 지점 중 적어도 하나를 포함하는 화면을 실시간으로 디스플레이하는 단계를 포함하는 초음파진단방법.
  24. 제 14 항에 있어서,
    상기 사용자 터치를 수신하는 단계는,
    사용자로부터 소정의 동작 패턴을 수신하는 단계를 포함하고,
    상기 터치 지점을 획득하는 단계는,
    상기 근원 지점을 상기 터치 지점으로 획득하는 단계를 포함하는 초음파진단방법.
  25. 제 14 항에 있어서,
    상기 대상체의 형태 정보를 획득하는 단계는,
    몰폴로지컬 이미지 프로세싱(morphological image processing)을 이용하여 형태 정보를 획득하는 초음파진단방법.
  26. 제 25 항에 있어서,
    상기 몰폴로지컬 이미지 프로세싱은 엣지 디텍션(Edge detection), 세그맨테이션(Segmentation) 및 머신 러닝(Machine Learning) 알고리즘 중 적어도 하나를 포함하는 초음파진단방법.
  27. 제 14 항 내지 제 26 항 중 어느 한 항에 의한 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
KR1020140125300A 2014-09-19 2014-09-19 초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체 KR101599891B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140125300A KR101599891B1 (ko) 2014-09-19 2014-09-19 초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체
US14/637,560 US9841831B2 (en) 2014-09-19 2015-03-04 Ultrasound diagnosis apparatus and method and computer-readable storage medium
US15/817,827 US10228785B2 (en) 2014-09-19 2017-11-20 Ultrasound diagnosis apparatus and method and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140125300A KR101599891B1 (ko) 2014-09-19 2014-09-19 초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체

Publications (1)

Publication Number Publication Date
KR101599891B1 true KR101599891B1 (ko) 2016-03-04

Family

ID=55525712

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140125300A KR101599891B1 (ko) 2014-09-19 2014-09-19 초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체

Country Status (2)

Country Link
US (2) US9841831B2 (ko)
KR (1) KR101599891B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180121157A (ko) * 2017-04-28 2018-11-07 연세대학교 산학협력단 초음파 영상 내 선택 지점의 위치를 조절하는 방법 및 그 장치
WO2020004855A1 (ko) * 2018-06-28 2020-01-02 주식회사 힐세리온 초음파 영상의 디스플레이 장치와 시스템 및 이를 이용한 생체조직의 사이즈 검출방법

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101599891B1 (ko) * 2014-09-19 2016-03-04 삼성전자주식회사 초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체
EP3513731A1 (en) * 2018-01-23 2019-07-24 Koninklijke Philips N.V. Device and method for obtaining anatomical measurements from an ultrasound image
JP6960521B2 (ja) 2018-03-16 2021-11-05 富士フイルム株式会社 音響波診断装置および音響波診断装置の制御方法
JP7183262B2 (ja) * 2018-05-18 2022-12-05 富士フイルム株式会社 超音波システムおよび超音波システムの制御方法
JP6951576B2 (ja) * 2018-07-02 2021-10-20 富士フイルム株式会社 音響波診断装置および音響波診断装置の制御方法
CN108961291A (zh) * 2018-08-10 2018-12-07 广东工业大学 一种图像边缘检测的方法、系统及相关组件
WO2020086811A1 (en) * 2018-10-25 2020-04-30 Butterfly Network, Inc. Methods and apparatus for performing measurements on an ultrasound image
US10909677B2 (en) * 2019-02-14 2021-02-02 Clarius Mobile Health Corp. Systems and methods for performing a measurement on an ultrasound image displayed on a touchscreen device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030074414A (ko) * 2002-03-14 2003-09-19 마쯔시다덴기산교 가부시키가이샤 화상 처리 장치 및 초음파 진단 장치
KR100644636B1 (ko) * 2004-10-07 2006-11-15 삼성전자주식회사 정보처리 단말기의 화면 확대 장치 및 방법
KR101113218B1 (ko) * 2009-12-04 2012-02-20 삼성메디슨 주식회사 터치 입력부를 가지는 초음파 진단 장치
JP2014097127A (ja) * 2012-11-13 2014-05-29 Honda Electronic Co Ltd 医療画像測定方法及び医療画像診断装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5984870A (en) 1997-07-25 1999-11-16 Arch Development Corporation Method and system for the automated analysis of lesions in ultrasound images
US20040022447A1 (en) * 2002-07-31 2004-02-05 General Electric Company Method and system for image compression and decompression using span of interest of an imaging sequence
US7843427B2 (en) * 2006-09-06 2010-11-30 Apple Inc. Methods for determining a cursor position from a finger contact with a touch screen display
CN101527047B (zh) * 2008-03-05 2013-02-13 深圳迈瑞生物医疗电子股份有限公司 使用超声图像检测组织边界的方法与装置
US20100158332A1 (en) 2008-12-22 2010-06-24 Dan Rico Method and system of automated detection of lesions in medical images
US20110231796A1 (en) * 2010-02-16 2011-09-22 Jose Manuel Vigil Methods for navigating a touch screen device in conjunction with gestures
JP2012019824A (ja) 2010-07-12 2012-02-02 Hitachi Aloka Medical Ltd 超音波診断装置
CN102419679B (zh) * 2010-09-27 2014-10-01 联想(北京)有限公司 显示处理方法和便携式移动终端
US20130072795A1 (en) * 2011-06-10 2013-03-21 Ruoli Mo Apparatuses and methods for user interactions during ultrasound imaging
TW201324268A (zh) * 2011-12-07 2013-06-16 Elan Microelectronics Corp 改良觸控板防誤觸功能的方法
US11096668B2 (en) * 2013-03-13 2021-08-24 Samsung Electronics Co., Ltd. Method and ultrasound apparatus for displaying an object
KR101599891B1 (ko) * 2014-09-19 2016-03-04 삼성전자주식회사 초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030074414A (ko) * 2002-03-14 2003-09-19 마쯔시다덴기산교 가부시키가이샤 화상 처리 장치 및 초음파 진단 장치
KR100644636B1 (ko) * 2004-10-07 2006-11-15 삼성전자주식회사 정보처리 단말기의 화면 확대 장치 및 방법
KR101113218B1 (ko) * 2009-12-04 2012-02-20 삼성메디슨 주식회사 터치 입력부를 가지는 초음파 진단 장치
JP2014097127A (ja) * 2012-11-13 2014-05-29 Honda Electronic Co Ltd 医療画像測定方法及び医療画像診断装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180121157A (ko) * 2017-04-28 2018-11-07 연세대학교 산학협력단 초음파 영상 내 선택 지점의 위치를 조절하는 방법 및 그 장치
KR101984005B1 (ko) * 2017-04-28 2019-05-30 연세대학교 산학협력단 초음파 영상 내 선택 지점의 위치를 조절하는 방법 및 그 장치
WO2020004855A1 (ko) * 2018-06-28 2020-01-02 주식회사 힐세리온 초음파 영상의 디스플레이 장치와 시스템 및 이를 이용한 생체조직의 사이즈 검출방법
KR20200001736A (ko) * 2018-06-28 2020-01-07 주식회사 힐세리온 초음파 영상의 디스플레이 장치와 시스템 및 이를 이용한 생체조직의 사이즈 검출방법
KR102161880B1 (ko) 2018-06-28 2020-10-05 주식회사 힐세리온 초음파 영상의 디스플레이 장치와 시스템 및 이를 이용한 생체조직의 사이즈 검출방법
US11950957B2 (en) 2018-06-28 2024-04-09 Healcerion Co., Ltd. Display device and system for ultrasound image, and method for detecting size of biological tissue by using same

Also Published As

Publication number Publication date
US9841831B2 (en) 2017-12-12
US10228785B2 (en) 2019-03-12
US20180088694A1 (en) 2018-03-29
US20160085328A1 (en) 2016-03-24

Similar Documents

Publication Publication Date Title
KR101599891B1 (ko) 초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체
KR102452998B1 (ko) 초음파 진단 장치
KR102642000B1 (ko) 의료 영상 장치 및 그 동작 방법
EP2918233B1 (en) Ultrasound diagnosis apparatus and method of displaying ultrasound image
KR102618500B1 (ko) 초음파 진단장치 및 그에 따른 초음파 진단 방법
KR102490069B1 (ko) 초음파 진단 장치 및 그 동작방법
KR20150089836A (ko) 관심 영역에 대응하는 초음파 영상 표시 방법 및 이를 위한 초음파 장치
KR102312270B1 (ko) 초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체
KR102388132B1 (ko) 대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템.
KR20160065669A (ko) 초음파 영상 장치 및 그 동작 방법
US20160199022A1 (en) Ultrasound diagnosis apparatus and method of operating the same
KR102297148B1 (ko) 3차원 영상을 표시하는 초음파 시스템 및 그 방법
EP2842495A1 (en) Method of generating body marker and ultrasound diagnosis apparatus using the same
KR102551695B1 (ko) 의료 영상 장치 및 그 동작방법
KR102462391B1 (ko) 초음파 장치 및 그 동작 방법
KR20180108210A (ko) 의료 영상 표시 방법 및 의료 영상 표시 장치
KR20150114285A (ko) 초음파 진단 장치 및 그 동작방법
KR102364490B1 (ko) 초음파 진단장치, 그에 따른 초음파 진단 방법 및 그에 따른 컴퓨터 판독 가능한 저장매체
KR20170126722A (ko) 초음파 영상 장치 및 그 동작 방법
KR20160086126A (ko) 초음파 진단 방법 및 장치
KR20160026608A (ko) 초음파 진단 장치 및 그 동작방법

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190130

Year of fee payment: 4