KR20180066781A - 의료 영상을 표시하는 방법 및 장치 - Google Patents

의료 영상을 표시하는 방법 및 장치 Download PDF

Info

Publication number
KR20180066781A
KR20180066781A KR1020160168002A KR20160168002A KR20180066781A KR 20180066781 A KR20180066781 A KR 20180066781A KR 1020160168002 A KR1020160168002 A KR 1020160168002A KR 20160168002 A KR20160168002 A KR 20160168002A KR 20180066781 A KR20180066781 A KR 20180066781A
Authority
KR
South Korea
Prior art keywords
medical image
image data
needle
information
tissue
Prior art date
Application number
KR1020160168002A
Other languages
English (en)
Inventor
류지원
오영택
방원철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160168002A priority Critical patent/KR20180066781A/ko
Priority to EP17204611.2A priority patent/EP3332713B1/en
Priority to CN201711293338.0A priority patent/CN108231180B/zh
Priority to US15/836,076 priority patent/US10695032B2/en
Publication of KR20180066781A publication Critical patent/KR20180066781A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4417Constructional features of apparatus for radiation diagnosis related to combined acquisition of different diagnostic modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00238Type of minimally invasive operation
    • A61B2017/00274Prostate operation, e.g. prostatectomy, turp, bhp treatment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B50/00Containers, covers, furniture or holders specially adapted for surgical or diagnostic appliances or instruments, e.g. sterile covers
    • A61B50/10Furniture specially adapted for surgical or diagnostic appliances or instruments
    • A61B50/13Trolleys, e.g. carts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means

Abstract

대상체로부터 조직을 획득하는 조직 검사를 수행함에 있어서, 조직 검사 위치를 자동으로 결정하고 표시하는 방법 및 장치가 제공된다.
일 실시예에 따라 프로브에 의해 대상체로부터 획득된 제1 의료 영상 데이터로부터 생성된 의료 영상을 표시하는 의료 영상 표시 장치는, 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 바늘에 의해 대상체로부터 조직이 획득되는 위치에 대한 정보를 획득하고, 획득된 정보에 기초하여 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정하는, 적어도 하나의 프로세서 및 제1 의료 영상 데이터로부터 생성된, 조직 획득 지점이 표시된 제1 의료 영상을 표시하는, 디스플레이를 포함할 수 있다.

Description

의료 영상을 표시하는 방법 및 장치 {Method and apparatus for displaying medical image}
본 개시는 의료 영상을 표시하는 방법 및 장치에 관한 것으로서, 대상체로부터 조직을 획득하는 바이옵시(biopsy)를 수행함에 있어서, 바이옵시가 수행된 위치를 자동으로 결정하고 표시하는 방법 및 장치에 관한 것이다.
초음파 영상 획득 장치는 초음파 프로브 (probe)의 트랜스듀서(transducer)로부터 생성되는 초음파 신호를 대상체 내부의 소정 부위로 조사하고, 대상체 내부의 소정 부위로부터 반사된 에코 신호의 정보를 수신하여 대상체 내부의 부위에 대한 영상을 얻는다. 특히, 초음파 영상 획득 장치는 대상체 내부의 관찰, 이물질 검출, 병변 판정 및 상해 측정 등 의학적 목적으로 사용된다.
이러한 초음파 영상 획득 장치는 X선을 이용하는 영상 획득 장치에 비하여 안정성이 높고, 실시간으로 영상의 디스플레이가 가능하며, 방사능 피폭이 없어 안전하다는 장점이 있어서 다른 영상 획득 장치와 함께 널리 이용된다.
한편, 바이옵시(biopsy)는, 피부를 절개하지 않고 중공침(中空針)을 생체내 기관에 삽입하고, 병리학적 검사를 위해 조직을 채취하는 검사법이다. 바이옵시를 수행함에 있어서, 실시간으로 영상의 디스플레이가 가능하다는 장점 때문에 초음파 영상 획득 장치가 널리 이용될 수 있다. 사용자는 초음파 프로브를 환자의 피부에 접촉하여 병변을 확인한 뒤, 실시간으로 초음파 영상을 확인하면서 바늘을 병변에 삽입함으로써 병변의 조직을 획득할 수 있다.
이 때, 병변의 조직을 정확하게 획득하기 위해서는, 정확한 신체 내부의 영상이 제공되어야 한다. 따라서, 신호대 잡음비가 낮은 초음파 영상과 함께, MR 영상 또는 CT 영상과 같이 신호대 잡음비가 높은 다른 의료 영상 획득 방식에 의해 획득된 영상을 표시할 수 있는 의료 영상 표시 장치가 요구된다.
일 실시예에 따르면, 바이옵시가 수행된 위치를 자동으로 결정하고 표시하는 의료 영상 표시 방법 및 장치가 제공된다.
일 실시예에 따르면, 서로 다른 시간 대에 바이옵시가 수행된 대상체 내의 위치들을 비교할 수 있도록, 기준점에 대해서 상대적인 바이옵시 위치들을 자동으로 기록하는 의료 영상 표시 방법 및 장치가 제공된다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따라 프로브에 의해 대상체로부터 획득된 제1 의료 영상 데이터로부터 생성된 의료 영상을 표시하는 의료 영상 표시 장치는, 상기 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 상기 바늘에 의해 상기 대상체로부터 조직(tissues)이 획득되는 위치에 대한 정보를 획득하고, 상기 획득된 정보에 기초하여 상기 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정하는, 적어도 하나의 프로세서; 및 상기 제1 의료 영상 데이터로부터 생성된, 상기 조직 획득 지점이 표시된 제1 의료 영상을 표시하는, 디스플레이를 포함할 수 있다.
다른 일 실시예에 따르면, 프로브에 의해 대상체로부터 획득된 제1 의료 영상 데이터로부터 생성된 의료 영상을 표시하는 의료 영상 표시 방법은, 상기 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 상기 바늘에 의해 상기 대상체로부터 조직이 획득되는 위치에 대한 정보를 획득하는 단계; 상기 획득된 정보에 기초하여 상기 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정하는 단계; 및 상기 제1 의료 영상 데이터로부터 생성된, 상기 조직 획득 지점이 표시된 제1 의료 영상을 표시하는 단계를 포함할 수 있다.
다른 일 실시예에 따르면, 프로브에 의해 대상체로부터 획득된 제1 의료 영상 데이터로부터 생성된 의료 영상을 표시하는 의료 영상 표시 방법을 수행하도록 하는 명령어들이 기록된 컴퓨터로 읽을 수 있는 기록 매체에 있어서, 상기 의료 영상 표시 방법은, 상기 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 상기 바늘에 의해 상기 대상체로부터 조직(tissues)이 획득되는 위치에 대한 정보를 획득하는 단계; 상기 획득된 정보에 기초하여 상기 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정하는 단계; 및 상기 제1 의료 영상 데이터로부터 생성된, 상기 조직 획득 지점이 표시된 제1 의료 영상을 표시하는 단계를 포함할 수 있다.
도 1은 일반적인 바이옵시를 설명하기 위한 도면이다.
도 2a, 2b, 및 2c는 바이옵시에 사용되는 프로브 및 바늘의 한 예를 도시한다.
도 3a 및 3b는 일 실시예에 따른 의료 영상 표시 장치의 블록도이다.
도 4a, 4b, 및 4c는 프로브에 부착되는 위치 센서의 예를 설명하기 위한 도면이다.
도 5a 및 5b는 일 실시예에 따라 의료 영상 표시 장치가 의료 영상을 표시하는 방법의 흐름도이다.
도 6a 및 6b는 일 실시예에 따라 의료 영상 표시 장치가 의료 영상을 표시하는 방법의 흐름도이다.
도 7은 일 실시예에 따라 의료 영상 표시 장치가 바늘의 제1 위치에 대한 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 8은 일 실시예에 따라 의료 영상 표시 장치가 바늘의 위치와 의료 영상 데이터를 정합하기 위해 사용자 입력을 수신하기 위한 화면의 예를 도시한다.
도 9는 일 실시예에 따라 저장되는 조직 획득 지점에 대한 정보를 설명하기 위한 도면이다.
도 10은 일 실시예에 따라 의료 영상 표시 장치가 조직 획득 지점이 표시된 의료 영상을 표시하는 화면의 예를 도시한다.
도 11은 일 실시예에 따라 의료 영상 표시 장치가 조직 획득 지점이 표시된 의료 영상을 표시하는 화면의 예를 도시한다.
도 12는 일 실시예에 따라 의료 영상 표시 장치가 서로 다른 시간대의 조직 획득 지점들이 표시된 의료 영상들을 표시하는 방법의 흐름도이다.
도 13은 일 실시예에 따라 의료 영상 표시 장치가 서로 다른 시간대의 조직 획득 지점들이 표시된 의료 영상들을 표시하는 화면의 예를 도시한다.
도 14는 일 실시 예에 따른 초음파 진단 장치의 구성을 도시한 블록도이다.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 또한, 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.
명세서 전체에서 “대상체” 란, 영상이 나타내고자 하는 생물 또는 무생물일 수 있다. 또한, 대상체는 신체의 전부 또는 일부를 의미할 수 있고, 대상체에는 간이나, 심장, 자궁, 뇌, 유방, 복부 등의 장기나, 태아 등이 포함될 수 있으며, 신체의 어느 한 단면이 포함될 수 있다.
명세서 전체에서 “사용자”란, 의료 전문가로서 의사, 간호사, 임상병리사, 소노그래퍼(sonographer), 의료 영상 전문가 등이 될 수 있으나, 이에 한정되지 않는다. 또한, 명세서 전체에서 “의료 영상” 이란, 초음파 영상, MR(magnetic resonance) 영상, X-ray 영상, CT(computerized tomography) 영상, PET(Positron Emission Tomography) 영상, 및 대상체를 모델링한 모델 영상 등을 포함할 수 있으나, 이에 한정되지 않는다.
명세서 전체에서 “의료 영상 데이터”란, 의료 영상을 생성할 수 있는 데이터 세트를 의미하고, 영상 데이터는 볼륨 데이터, 및 2D 영상 데이터를 포함할 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
도 1은 일반적인 바이옵시를 설명하기 위한 도면이다.
도 1에 도시된 바와 같이, 사용자는 초음파 프로브(20)를 환자(10)의 피부에 접촉하여 병변(15)을 확인한 뒤, 초음파 영상을 확인하면서 바늘(30)을 병변(15)에 삽입함으로써 조직을 획득할 수 있다. 도 1에는 사용자가 초음파 프로브(20)와 바늘(30)을 별개로 움직이면서 조직 검사를 수행하는 경우를 도시하였으나, 실시예는 이에 제한되지 않는다.
도 2a, 2b, 및 2c에 도시된 바와 같이, 바이옵시를 위해서 바늘(30)이 부착된 초음파 프로브(20)가 이용될 수 있다.
도 2a 및 2b에는, 복부(Abdomen) 애플리케이션(application), 및 산부인과(OB/GYN) 애플리케이션 등의 애플리케이션을 이용하여 초음파 영상을 얻는 초음파 프로브(20)가 예로서 도시된다. 초음파 프로브(20)의 외면에 고정된 브래킷(bracket)(21) 상의 바늘 가이드(22) 내에 바늘(30)이 장착됨으로써, 바늘(30)이 프로브(20)에게 부착될 수 있다. 브래킷(21)은, 초음파 프로브(20)의 외면에 임시적으로 고정될 수 있으며, 바이옵시가 수행되지 않을 때에는 초음파 프로브(20)로부터 탈착될 수 있다.
도 2b에는, 도 2a에 도시된 바늘 가이드(22)와 상이한 형태의 바늘 가이드(23)가 도시된다.
도 2c에는, 항문(Anus) 애플리케이션 또는 질(Vaginal) 애플리케이션 등의 애플리케이션을 이용하여 초음파 영상을 얻는 초음파 프로브(20)가 예로서 도시된다. 초음파 프로브(20)의 외면에 고정된 바늘 가이드(24) 내에 바늘(30)이 장착됨으로써, 바늘(30)이 프로브(20)에게 부착될 수 있다.
일 실시예에 따른 초음파 프로브(20)는 도 2a, 2b 및 2c에 도시된 프로브에 제한되지 않고, 복부(Abdomen), 산부인과(OB/GYN), 혈관(Vascular), 및 심장(Cardiac) 등의 다양한 애플리케이션을 이용하여 초음파 영상을 얻는 초음파 프로브를 포함할 수 있다. 또한, 초음파 프로브(20)의 외면에 고정되는 바늘 가이드 및 브래킷은, 도 2a, 2b 및 2c에 도시된 형태에 제한되지 않고, 바늘(30)을 초음파 프로브(20) 상에 부착시키기 위한 다양한 형태를 가질 수 있다.
일 실시예에 따르면, 초음파 프로브(20) 상에 부착된 바늘(30)을 이용하여 바이옵시를 수행할 수 있다. 예를 들어, 전립선(prostate)에 대한 초음파 검사(ultrasonography)를 위해서는 항문(anus)을 통하여 도 2c에 도시된 프로브(20)를 직장 내로 삽입하고, 직장 내벽을 통해 바늘(30)을 삽입하여 전립선의 병변에 대한 조직을 채취할 수 있다.
이 때, 일반적인 초음파 영상 표시 장치는, 바이옵시 수행 전에 획득된 기준 초음파 영상과 바이옵시가 수행되는 동안 획득된 초음파 영상을 비교함으로써, 바늘이 움직인 궤적을 초음파 영상 상에 표시할 수 있다. 사용자는, 바늘이 움직인 궤적을 참조함으로써, 조직이 획득된 위치를 확인하고, 확인된 위치에 수동으로 마킹할 수 있다.
일반적인 초음파 영상 표시 장치는, 조직 획득 위치가 마킹된 초음파 영상을 나중에 이용하기 위해서, 디스플레이 되고 있는 초음파 영상과 디스플레이 되고 있는 초음파 영상 상의 마킹 위치를 저장할 수 있다. 매번 바이옵시가 수행될 때마다 디스플레이 되는 초음파 영상들은, 대상체의 서로 다른 단면들에 대한 초음파 영상들일 수 있다. 따라서, 일반적인 초음파 영상 표시 장치에 의하면, 매번 바이옵시가 수행될 때마다 서로 다른 대상체의 단면에 대한 초음파 영상들 상의 마킹 위치들이 저장된다. 따라서, 일반적인 초음파 영상 표시 장치에 의해 저장된 초음파 영상들을 비교함으로써, 서로 다른 시간대에 바이옵시가 수행된 위치들의 변화를 확인하는 것이 불가능하였다.
일 실시예에 따르면, 서로 다른 시간 대에 바이옵시가 수행된 대상체 내의 위치들을 비교할 수 있도록, 기준점에 대해서 상대적인 조직 검사 위치들을 자동으로 기록하는 의료 영상 표시 방법 및 장치가 제공된다.
도 3a 및 3b는 일 실시예에 따른 의료 영상 표시 장치의 블록도이다.
일 실시예에 따른 의료 영상 표시 장치(300)는, 예를 들어, 초음파 진단 장치 또는 내시경 진단 장치와 같이, 의료 영상을 획득하고 표시할 수 있는 진단 장치 내에 포함될 수 있다. 그러나 실시예는 이에 제한되지 않으며, 의료 영상 표시 장치(300)는, 대상체로부터 의료 영상을 직접 획득하지 않고, 별도의 장치로부터 획득된 의료 영상을 처리 및 표시하는 장치일 수 있다. 또한, 의료 영상 표시 장치(300)는, 의료 영상을 획득하는 장치 또는 의료 영상을 처리하는 장치와 유선 또는 무선으로 연결된 별도의 셋톱 박스 형태로 동작할 수 있다.
일 실시예에 따른 의료 영상 표시 장치(300)는, 디스플레이(320) 및 프로세서(310)를 포함할 수 있다. 도 3a 및 3b에는 하나의 프로세서(310)만이 도시되었지만, 프로세서(310)는 둘 이상의 프로세서들을 포함할 수 있다.
일 실시예에 따르면, 프로세서(310)는 의료 영상 표시 장치(300)의 전반적인 동작을 제어하며, 의료 영상 데이터로부터 조직 획득 지점이 표시된 의료 영상을 생성할 수 있다. 프로세서(310)는, 생성된 의료 영상을 표시할 수 있도록 디스플레이(320)를 제어할 수 있다.
프로세서(310)는, 대상체에 대한 의료 영상 데이터를 획득할 수 있다. 프로세서(310)가 의료 영상을 생성하기 위해서 이용하는 의료 영상 데이터는, 미리 저장된 데이터이거나, 대상체에게 송신되는 신호에 응답하여 대상체로부터 수신되는 신호에 기초하여 생성된 데이터이거나, 외부 장치 또는 외부 서버로부터 수신된 데이터일 수 있다.
일 실시예에 따르면, 프로세서(310)는, 대상체에 대한 의료 영상 데이터를 획득할 수 있다. 예를 들어, 프로세서(310)는, 초음파 영상 데이터, MR 영상 데이터, CT 영상 데이터, 및 대상체를 모델링한 모델 영상 데이터 중 적어도 하나를 획득할 수 있다. 그러나 실시예는 이에 제한되지 않으며, 프로세서(310)는 다양한 방식으로 획득된 의료 영상 데이터를 획득할 수 있다. 프로세서(310)는, 프로브에 의해 대상체로부터 획득된 제1 의료 영상 데이터를 획득할 수 있다. 예를 들어, 제1 의료 영상 데이터는, 초음파 영상 데이터를 포함할 수 있다.
프로세서(310)는, 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 바늘에 의해 대상체로부터 조직이 획득되는 위치에 대한 정보를 획득할 수 있다. 프로세서(310)는, 획득된 정보에 기초하여 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정할 수 있다.
프로세서(310)는, 제2 의료 영상 데이터를 획득할 수 있다. 예를 들어, 제2 의료 영상 데이터는, MR 영상 데이터, CT 영상 데이터, 및 대상체를 모델링한 모델 영상 데이터 중 적어도 하나를 포함 할 수 있다. 프로세서(310)는, 획득된 정보에 기초하여 대상체에 대한 제2 의료 영상 데이터 내에서 조직 획득 지점을 결정할 수 있다.
일 실시예에 따르면, 바늘의 위치에 대한 정보는, 바늘에 부착된 위치 센서 또는 프로브에 포함되는 위치 센서에 의해 획득될 수 있다. 예를 들어, 위치 센서는 EM 센서(electromagnetic sensor)를 포함할 수 있다. 바늘이 부착된 프로브에 위치 센서가 포함되는 경우, 프로브의 위치에 대한 정보에 기초하여 바늘의 위치에 대한 정보로서 획득할 수 있다. 의료 영상 표시 장치(300)는, 조직을 획득하기 위하여 바늘이 프로브에 대해서 움직인 거리 및 방향 중 적어도 하나에 기초하여, 바늘이 조직이 획득되는 위치를 결정할 수 있다. 프로세서(310)는, 조직을 획득하기 위하여 바늘이 프로브에 대해서 움직인 거리 및 방향 중 적어도 하나에 기초하여, 프로브의 위치로부터 조직이 획득되는 위치에 대한 정보를 결정할 수 있다. 조직을 획득하기 위하여 바늘이 프로브에 대해서 움직인 거리는, 미리 결정된 값이거나 사용자에 의해 입력된 값일 수 있다. 일 실시예에 따른 의료 영상 표시 장치(300)가 바늘에 부착된 위치 센서를 이용하여 바늘이 조직을 획득한 위치를 직접적으로 결정할 경우, 프로브에 대한 바늘의 상대적인 위치를 고려하여 조직 획득 위치를 결정하는 경우보다, 오차를 줄일 수 있다.
프로세서(310)는, 바늘의 위치와 의료 영상 데이터를 정합할 수 있다. 프로세서(310)는, 정합된 결과에 기초하여, 의료 영상 데이터 내에서 조직 획득 지점을 결정할 수 있다.
프로세서(310)는, 바늘의 변화하는 위치의 기준이 되는 정보로서, 바늘의 제1 위치에 대한 정보를 획득할 수 있다. 프로세서(310)는, 바늘을 이용하여 대상체로부터 조직을 획득하기 이 전에, 바늘의 제1 위치에 대한 정보를 획득할 수 있다.
프로세서(310)는, 바늘의 제1 위치와 의료 영상 데이터 내의 기준점을 매칭시킴으로써, 바늘의 위치와 의료 영상 데이터를 정합할 수 있다. 의료 영상 데이터 내의 기준점은, 미리 저장된 정보 또는 사용자 입력에 기초하여 결정될 수 있다.
일 실시예에 따르면, 프로세서(310)는, 바늘에 의해 대상체로부터 조직이 획득되는 제2 위치에 대한 정보를 획득할 수 있다. 프로세서(310)는, 제1 위치를 원점으로 포함하는 좌표계 내에서 제2 위치에 대응하는 좌표 정보를 제2 위치에 대한 정보로서 획득할 수 있다.
프로세서(310)는, 대상체에 대한 의료 영상 데이터 내에서 제1 위치에 대응되는 기준점에 기초하여, 의료 영상 데이터 내에서 제2 위치에 대응되는 조직 획득 지점을 결정할 수 있다. 프로세서(310)는, 바늘의 위치와 의료 영상 데이터가 정합된 결과에 기초하여, 의료 영상 데이터 내에서 제2 위치에 대응되는 조직 획득 지점을 결정할 수 있다. 프로세서(310)는, 제1 위치에 대한 제2 위치에 대응하는 좌표 정보에 기초하여, 기준점에 대한 조직 획득 지점을 결정할 수 있다.
일 실시예에 따르면, 디스플레이(320)는, 제1 의료 영상 데이터로부터 생성된, 조직 획득 지점이 표시된 제1 의료 영상을 표시할 수 있다. 예를 들어, 디스플레이(320)는, 사용자가 바이옵시 수행을 준비하고 바이옵시를 수행하는 동안, 초음파 영상 데이터로부터 생성된 실시간 초음파 영상을 표시할 수 있다. 디스플레이(320)는, 제2 의료 영상 데이터로부터 생성된 제2 의료 영상을 표시할 수 있다. 예를 들어, 디스플레이(320)는, 초음파 영상 데이터로부터 생성된 실시간 초음파 영상과 함께, MR 영상, CT 영상, 모델 영상 중 적어도 하나를 표시함으로써, 대상체 내의 정확한 위치에 대한 바이옵시가 가능하도록 할 수 있다. 디스플레이(320)는, 제2 의료 영상 데이터로부터 생성된, 조직 획득 지점이 표시된 제2 의료 영상을 표시할 수 있다.
일 실시예에 따른 의료 영상 표시 장치(300)는, 도 3a에 도시된 예에 제한되지 않는다. 도 3a에 도시된 구성 요소들보다 많은 구성 요소에 의해 의료 영상 표시 장치(300)가 구현될 수도 있다. 예를 들어, 도 3b에 도시된 바와 같이, 일 실시예에 따른 의료 영상 표시 장치(300)는, 입력부(330), 프로브(340), 위치 감지부(350), 및 저장부(360) 중 적어도 하나를 더 포함할 수 있다.
일 실시예에 따르면, 프로세서(310)는, 입력부(330)를 통해 사용자 입력이 수신되면, 사용자 입력이 수신되는 시점의 바늘의 위치에 대한 정보를 획득할 수 있다.
예를 들어, 사용자는, 바늘이 부착된 프로브(340)가 대상체의 기준 부위 상에 위치한 경우, 사용자 입력을 입력함으로써, 해당 시점의 바늘의 위치를 제1 위치로서 기록할 수 있다. 일 실시예에 따른 프로브(340)는, 도 1, 2a, 2b, 및 2c의 프로브(20)에 대응할 수 있다. 중복되는 설명은 생략한다.
프로세서(310)는, 입력부(330)를 통해 사용자 입력이 수신되면, 바늘의 제1 위치에 대한 정보를 획득하고, 바늘의 제1 위치와 의료 영상 데이터 내의 기준점을 매칭시킬 수 있다. 프로세서(310)는, 바늘의 제1 위치와 의료 영상 데이터 내의 기준점을 매칭시킴으로써, 바늘의 위치와 의료 영상 데이터를 정합할 수 있다.
또한, 사용자는, 바늘을 이용하여 바이옵시를 수행하기 직 전, 수행하는 시점 또는 수행한 직 후에 사용자 입력을 입력함으로써, 해당 시점의 바늘의 위치를 제2 위치로서 기록할 수 있다. 제1 위치를 기록하기 위한 사용자 입력과 제2 위치를 기록하기 위한 사용자 입력은 서로 다를 수 있다. 예를 들어, 제1 위치를 기록하기 위한 사용자 입력은 제1 입력이고, 제2 위치를 기록하기 위한 사용자 입력은 제2 입력일 수 있다.
프로세서(310)는, 입력부(330)를 통해 사용자 입력이 수신되면, 바늘의 제2 위치에 대한 정보를 획득할 수 있다. 예를 들어, 바늘의 위치에 대한 정보가, 프로브(340)에 포함되는 위치 센서에 의해 획득되는 경우, 프로세서(310)는, 사용자 입력이 수신되면, 바늘이 부착된 프로브(340)의 위치에 대한 정보를 획득할 수 있다. 프로세서(310)는, 조직을 획득하기 위하여 바늘이 프로브(340)에 대해서 움직인 거리 및 방향 중 적어도 하나에 기초하여, 제2 위치에 대한 정보를 결정할 수 있다.
위치 감지부(350)는, 바늘 및 바늘이 부착된 프로브(340) 중 적어도 하나의 위치를 감지할 수 있다. 예를 들어, 바늘 및 바늘이 부착된 프로브(340) 중 적어도 하나의 내부 또는 외부에 전자기 센서(EM sensor; Electromagnetic Sensor)가 설치될 수도 있다. 위치 감지부(350)는, 전자계의 변화를 감지함으로써, 바늘 및 바늘이 부착된 프로브(340) 중 적어도 하나의 위치에 대한 정보를 획득할 수 있다. 또는, 위치 감지부(350)는, 바늘 및 바늘이 부착된 프로브(340) 중 적어도 하나에 포함된 움직임 센서로부터 수신된 정보에 기초하여, 바늘 및 바늘이 부착된 프로브(340) 중 적어도 하나의 위치를 결정할 수 있다. 프로브(340)에 부착되는 위치 센서와 관련하여서는, 후에 도 4a, 4b 및 4c를 참조하여 구체적으로 설명한다. 위치 감지부(350)는, 바늘 및 바늘이 부착된 프로브(340) 중 적어도 하나에 포함되거나 부착되는 센서를 포함할 수 있다.
일 실시예에 따르면, 저장부(360)는, 기준점 및 조직 획득 지점에 대한 정보를 포함하는 의료 영상 데이터를 저장할 수 있다. 저장부(360)는, 바늘에 의해 대상체로부터 조직이 획득되는 제2 위치에 대한 정보를 저장할 수 있다. 저장부(360)는, 바늘의 제1 위치를 원점으로 포함하는 좌표계 내에서 바늘의 제2 위치에 대응하는 좌표 정보를 바늘의 제2 위치에 대한 정보로서 저장할 수 있다.
저장부(360)는, 대상체에 대해서 이전에 수행되었던 바이옵시와 관련하여, 기준점 및 이 전의 조직 획득 지점에 대한 정보를 포함하는 제3 의료 영상 데이터를 저장할 수 있다. 프로세서(310)는, 저장부(360)로부터 제3 의료 영상 데이터를 획득할 수 있다.
프로세서(310)는, 제2 의료 영상 데이터의 기준점 및 제3 의료 영상 데이터의 기준점을 매칭시킴으로써, 제2 의료 영상 데이터와 제3 의료 영상 데이터를 정합할 수 있다. 프로세서(310)는, 제2 의료 영상 데이터로부터 조직 획득 지점이 표시된 제2 의료 영상을 생성할 수 있다. 프로세서(310)는, 제3 의료 영상 데이터로부터 이 전의 조직 획득 지점이 표시된, 제2 의료 영상에 대응하는 대상체의 단면에 대한 제3 의료 영상을 생성할 수 있다.
도 4a, 4b, 및 4c는 프로브(340)에 부착되는 위치 센서(401)의 예를 도시한다.
도 4a에 도시된 바와 같이, 일 실시예에 따른 초음파 프로브(340)의 외면에 위치 센서(401)가 브래킷(405)에 의해 고정될 수 있다. 도 4a에는 복부 초음파 영상을 획득하기 위해서 이용되는 초음파 프로브(340) 상에 2 개의 위치 센서들(401)이 고정되는 경우가 예로서 도시되지만 실시예는 이에 제한되지 않는다.
도 4b에는, 항문 초음파 영상 또는 질 초음파 영상 등의 영상을 획득하기 위해서 이용되는 초음파 프로브(340) 상에 1 개의 위치 센서(401)가 브래킷(405)에 의해 고정되는 경우가 예로서 도시된다. 또한, 도 4a 및 4b에는 초음파 프로브(340)의 외면에 위치 센서(401)가 부착되는 경우만이 도시되었으나, 일 실시예에 따르면 바이옵시를 수행하는 바늘에도 위치 센서가 부착될 수 있다.
도 4c에 도시된 바와 같이, 위치 센서(401)는, 필드 생성기(field generator)(430)가 방사(emit)하는 전자파(electromagnetic)를 검출하고, 신호 입력 장치(420)에게 검출된 신호를 송신할 수 있다. 위치 센서(401)는, 필드 생성기(430)가 생성한 전자계(electromagnetic field) 내에서 위치 센서(401)의 상대적인 위치를 검출할 수 있다.
의료 영상 표시 장치(300)는, 신호 입력 장치(420)로부터 수신된 신호에 기초하여 초음파 프로브(340) 및 바늘 중 적어도 하나의 위치에 대한 정보를 획득할 수 있다. 의료 영상 표시 장치(300)는, 획득된 정보에 기초하여, 의료 영상 데이터 내에서 조직 획득 지점을 결정하고, 조직 획득 지점이 표시된 의료 영상을 제1 디스플레이(320-1) 및 제2 디스플레이(320-2) 중 적어도 하나 상에 디스플레이 할 수 있다.
이하에서는, 일 실시예에 따른 의료 영상 표시 장치(300)의 구체적인 동작 방법을 설명한다. 이하에서 서술하는 방법의 각 단계는, 도 3a 및 3b와 관련하여 상술한 의료 영상 표시 장치(300)의 각 구성들에 의해 수행될 수 있다.
도 5a는 일 실시예에 따라 의료 영상 표시 장치가 의료 영상을 표시하는 방법의 흐름도이다. 일 실 시예에 따른 의료 영상 표시 장치(300)는, 초음파 프로브에 의해 대상체로부터 획득된 의료 영상 데이터로부터 생성된 의료 영상을 표시할 수 있다.
일 실시예에 따르면, 단계 S511에서 의료 영상 표시 장치(300)는, 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 바늘에 의해 대상체로부터 조직이 획득되는 위치에 대한 정보를 획득할 수 있다. 의료 영상 표시 장치(300)는, 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 바늘의 위치에 대한 정보를 획득할 수 있다.
일 실시예에 따르면, 단계 S513에서 의료 영상 표시 장치(300)는, 단계 S511에서 획득된 정보에 기초하여 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정할 수 있다. 예를 들어, 제1 의료 영상 데이터는, 초음파 영상 데이터를 포함할 수 있다. 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터와 바늘의 위치를 정합함으로써, 대상체로부터 조직이 획득되는 시점의 바늘의 위치에 대응되는 지점을 조직 획득 지점으로서 결정할 수 있다.
일 실시예에 따르면, 단계 S515에서 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터로부터 생성된, 조직 획득 지점이 표시된 제1 의료 영상을 표시할 수 있다. 의료 영상 표시 장치(300)는, 색상, 도형, 명암, 및 기호 중 적어도 하나를 이용하여 제1 의료 영상 상에 조직 획득 지점을 표시할 수 있다.
도 10은 일 실시예에 따라 의료 영상 표시 장치(300)가 조직 획득 지점이 표시된 의료 영상을 표시하는 화면의 예를 도시한다. 의료 영상 표시 장치(300)는, 조직 획득 지점(1011)이 표시된 제1 의료 영상(1010)을 표시할 수 있다. 제1 의료 영상(1010)은 실시간 초음파 영상일 수도 있고, 프리즈(freeze) 초음파 영상일 수도 있다.
도 10에 도시된 바와 같이, 일 실시예에 따른 의료 영상 표시 장치(300)는 초음파 영상과 함께 다른 영상 획득 방식에 의해 획득된 의료 영상을 더 표시할 수 있다. 일 실시예에 따른 의료 영상 표시 장치(300)는, 예를 들어, 초음파 영상 상에 조직 획득 지점이 표시되는 경우, 초음파 영상과 연관된 다른 의료 영상 상에도 조직 획득 지점을 표시할 수 있다.
예를 들어, 의료 영상 표시 장치(300)는, 바이옵시 동안 대상체에 대한 실시간 초음파 영상을 제공함과 더불어, 대상체의 동일한 부위에 대한 CT 영상을 제공함으로써 정확한 신체 내부에 대한 정보를 제공할 수 있다. 일 실시예에 따른 의료 영상 표시 장치(300)는, 초음파 영상 상에 조직 획득 지점이 표시되는 경우, 초음파 영상과 함께 제공되는 CT 영상 상에도 조직 획득 지점을 표시할 수 있다.
도 5b는 일 실시예에 따라 의료 영상 표시 장치가 의료 영상을 표시하는 방법의 구체적인 흐름도이다. 도 5a의 S511은 도 5b의 S521 내지 S529에 대응되고, 도 5a의 S513은 도 5b의 S533에 대응되고, 도 5a의 S515는 도 5b의 S535에 대응할 수 있다. 서로 대응하는 도 5a의 각 단계와 도 5b의 각 단계에 대해서는, 각 단계에 대한 설명이 서로 적용될 수 있다. 따라서, 중복되는 동작에 대한 설명은 생략한다.
일 실시예에 따르면, 단계 S521에서 의료 영상 표시 장치(300)는 초음파 프로브가 특정 부위 상에 위치했다는 사용자 입력을 수신할 수 있다.
의료 영상 표시 장치(300)는, 초음파 프로브에 의해 대상체로부터 획득된 제1 의료 영상 데이터로부터 생성된 실시간 초음파 영상을 디스플레이 할 수 있다. 사용자는, 의료 영상 표시 장치(300)가 디스플레이 하는 실시간 초음파 영상을 보면서, 초음파 프로브가 대상체의 특정 부위 상에 위치했다고 판단할 수 있다. 사용자는, 초음파 프로브가 특정 부위 상에 위치했다고 판단되면, 사용자 입력을 의료 영상 표시 장치(300)에게 입력할 수 있다.
예를 들어, 도 7에 도시된 바와 같이, 사용자는 전립선 바이옵시를 수행하기 위해서, 바늘이 부착된 프로브(340)를 항문 상에 위치 시킬 수 있다. 사용자는 프로브(340)를 통해 획득된 초음파 데이터에 기초하여 생성되는 실시간 초음파 영상을 참고하면서, 프로브(340)가 특정 부위 상에 위치했다고 판단할 수 있다. 바늘의 위치와 의료 영상 데이터를 정합하기 위한 기준이 되는 특정 부위는, 바이옵시가 수행되기 전에 미리 결정된 부위일 수 있다. 대상체 내에서 시간에 따라 변형이 적은 조직 또는 장기가, 정합을 위한 특정 부위로서 미리 결정될 수 있다.
일 실시예에 따르면, 단계 S523에서 의료 영상 표시 장치(300)는, 바늘의 제1 위치에 대한 정보를 획득할 수 있다.
의료 영상 표시 장치(300)는, 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 바늘의 위치에 대한 정보를 획득할 수 있다. 의료 영상 표시 장치(300)는, 프로브 및 바늘 중 적어도 하나에 부착된 센서의 위치를 바늘의 위치에 대한 정보로서 획득할 수 있다.
의료 영상 표시 장치(300)는, 바늘에 의해 대상체로부터 조직이 획득되기 이전에, 바늘의 변화하는 위치에 대한 기준 위치로서 바늘의 제1 위치에 대한 정보를 획득할 수 있다. 의료 영상 표시 장치(300)는, 사용자 입력이 수신되면, 사용자 입력이 수신되는 시점의 바늘의 위치에 대한 정보를 제1 위치에 대한 정보로서 획득할 수 있다. 의료 영상 표시 장치(300)는, 대상체의 특정 부위 상에 위치한 바늘의 위치에 대한 정보를 제1 위치에 대한 정보로서 획득할 수 있다.
일 실시예에 따르면, 단계 S525에서 의료 영상 표시 장치(300)는, 바늘의 위치와 의료 영상 데이터를 정합할 수 있다.
의료 영상 표시 장치(300)는, 제1 의료 영상 데이터와 다른 영상 획득 방식에 의해 획득된 제2 의료 영상 데이터를 획득할 수 있다. 예를 들어, 제2 의료 영상 데이터는, MR 영상 데이터, CT 영상 데이터, 및 대상체를 모델링한 모델 영상 데이터 중 적어도 하나를 포함할 수 있다.
의료 영상 표시 장치(300)는, 바늘의 위치와 제2 의료 영상 데이터를 정합할 수 있다. 의료 영상 표시 장치(300)는, 바늘의 제1 위치와 제2 의료 영상 데이터 내의 기준점을 매칭시킴으로써, 바늘의 위치와 제2 의료 영상 데이터를 정합할 수 있다.
예를 들어, 제2 의료 영상 데이터 내의 기준점은, 바늘의 제1 위치에 대응되는 지점일 수 있다. 제2 의료 영상 데이터 내의 기준점은, 대상체 내의 특정 부위에 대응하는 지점일 수 있다. 제2 의료 영상 데이터 내의 기준점은, 미리 저장되거나, 사용자 입력에 기초하여 결정될 수 있다. 예를 들어, 전립선 바이옵시를 수행함에 있어서, 초음파 프로브가 환자의 항문 내에 위치할 때 획득된 바늘의 제1 위치와, 제1 의료 영상 데이터 내에서 항문에 대응되는 기준점을 매칭시킴으로써, 의료 영상 표시 장치(300)는, 바늘의 위치와 제2 의료 영상 데이터를 정합할 수 있다.
의료 영상 표시 장치(300)는, 바늘의 위치와 제2 의료 영상 데이터를 정합함으로써, 바늘의 현재 위치에 대응하는 제2 의료 영상 데이터 내의 지점을 결정할 수 있다.
도 8은 일 실시예에 따라 바늘의 위치와 의료 영상 데이터를 정합하기 위해 사용자 입력을 수신하기 위한 화면의 예를 도시한다.
예를 들어, 의료 영상 표시 장치(300)는, 바늘이 부착된 프로브에 의해 획득된 초음파 영상 데이터를 획득하고, 초음파 영상 데이터로부터 생성된 실시간 초음파 영상(810)을 표시할 수 있다. 또한, 일 실시예에 따르면, 의료 영상 표시 장치(300)는, 바이옵시의 정확도를 높이기 위하여, 초음파 영상과 함께, MR 영상, CT 영상 또는 모델 영상과 같은 다른 의료 영상 획득 방식에 의해 획득된 의료 영상(820)을 더 표시할 수 있다.
사용자는, 실시간 초음파 영상(810)을 참조함으로써 프로브가 특정 부위 상에 위치했다고 판단되는 경우, 의료 영상 표시 장치(300)가 바늘의 위치와 의료 영상 데이터를 정합하도록 사용자 입력을 입력할 수 있다. 의료 영상 표시 장치(300)는, 버튼(830)을 선택하는 사용자 입력이 수신되면, 해당 시점의 바늘의 위치에 대한 정보를 제1 위치에 대한 정보로서 획득하고, 바늘의 위치와 의료 영상 데이터를 정합할 수 있다.
일 실시예에 따르면, 단계 S527에서 의료 영상 표시 장치(300)는, 대상체로부터 조직을 획득하였다는 사용자 입력을 수신할 수 있다. 사용자는, 바늘에 의해 대상체로부터 조직을 획득하기 직 전, 획득하는 시점 또는 획득한 직 후에, 사용자 입력을 의료 영상 표시 장치(300)에게 입력할 수 있다.
일 실시예에 따르면, 단계 S529에서 의료 영상 표시 장치(300)는, 바늘의 제2 위치에 대한 정보를 획득할 수 있다.
바늘의 제2 위치에 대한 정보는, 바늘에 의해 대상체로부터 조직이 획득되는 위치에 대한 정보를 포함할 수 있다. 의료 영상 표시 장치(300)는, 사용자 입력이 수신되면, 사용자 입력이 수신되는 시점에 대응하는 바늘의 위치에 대한 정보를 제2 위치에 대한 정보로서 획득할 수 있다. 의료 영상 표시 장치(300)는, 제1 위치를 원점으로 포함하는 좌표계 내에서 제2 위치에 대응하는 좌표 정보를 제2 위치에 대한 정보로서 획득할 수 있다.
도 9에 도시된 바와 같이, 의료 영상 표시 장치(300)는, 바늘의 제1 위치(901)를 원점으로 포함하는 좌표계 내에서 변화된 위치(902)에 대응하는 좌표 정보(x1, y1, z1)를 획득할 수 있다.
예를 들어, 바늘의 위치에 대한 정보는, 바늘이 부착된 프로브에 포함되는 위치 센서에 의해 획득될 수 있다. 의료 영상 표시 장치(300)는, 대상체로부터 조직이 획득되었다는 사용자 입력이 수신되면, 바늘이 부착된 프로브의 위치에 대한 정보를 획득할 수 있다. 의료 영상 표시 장치(300)는, 조직을 획득하기 위하여 바늘이 프로브에 대해서 움직인 거리 및 방향 중 적어도 하나에 기초하여, 제2 위치에 대한 정보를 결정할 수 있다. 조직을 획득하기 위하여 바늘이 프로브에 대해서 움직이는 거리 및 방향은 미리 결정된 값일 수 있다. 따라서, 의료 영상 표시 장치(300)는, 프로브의 위치로부터 바늘이 움직인 거리만큼 보정함으로써, 바늘에 의해 조직이 획득된 위치에 대한 정보를 획득할 수 있다.
일 실시예에 따르면, 단계 S531에서 의료 영상 표시 장치(300)는, 제2 의료 영상 데이터 내에서 제2 위치에 대응되는 조직 획득 지점을 결정할 수 있다.
의료 영상 표시 장치(300)는, 바늘의 위치와 제2 의료 영상 데이터가 정합된 결과에 기초하여, 제2 의료 영상 데이터 내에서 조직 획득 지점을 결정할 수 있다. 의료 영상 표시 장치(300)는, 바늘의 위치와 제2 의료 영상 데이터를 정합함으로써, 바늘의 위치를 제2 의료 영상 데이터 내의 소정 지점으로 변환하기 위한 변환 정보를 획득할 수 있다.
의료 영상 표시 장치(300)는, 제1 위치를 원점으로 포함하는 좌표계 내에서 제2 위치에 대응하는 좌표 정보에 기초하여, 기준점에 대한 조직 획득 지점을 결정할 수 있다. 의료 영상 표시 장치(300)는, 좌표 정보 및 변환 정보에 기초하여, 제2 의료 영상 데이터 내에서 제2 위치에 대응되는 조직 획득 지점을 결정할 수 있다.
일 실시예에 따르면, 단계 S533에서 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정할 수 있다.
일 예로서, 의료 영상 표시 장치(300)는, 바늘에 의해 대상체로부터 조직이 획득되는 위치에 대한 정보에 기초하여 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정할 수 있다. 예를 들어, 제1 의료 영상 데이터는, 초음파 영상 데이터를 포함할 수 있다. 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터와 바늘의 위치를 정합함으로써, 대상체로부터 조직이 획득되는 시점의 바늘의 위치에 대응되는 지점을 조직 획득 지점으로서 결정할 수 있다.
다른 예로서, 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터로부터 생성된 의료 영상을 분석함으로써 조직 획득 지점을 결정할 수 있다. 예를 들어, 의료 영상 표시 장치(300)는, 조직을 획득하기 전에 대상체로부터 획득된 기준 의료 영상과 조직이 획득되는 동안 바늘의 움직임을 추적하기 위해 대상체로부터 획득되는 의료 영상들을 비교함으로써, 바늘이 움직인 궤적을 결정할 수 있다. 의료 영상 표시 장치(300)는, 획득된 바늘이 움직인 궤적에 기초하여, 조직 획득 지점을 결정할 수 있다.
일 실시예에 따르면, 단계 S535에서 의료 영상 표시 장치(300)는, 조직 획득 지점이 표시된 제1 의료 영상 및 제2 의료 영상을 표시할 수 있다. 의료 영상 표시 장치(300)는, 색상, 도형, 명암, 및 기호 중 적어도 하나를 이용하여 의료 영상 상에 조직 획득 지점을 표시할 수 있다.
의료 영상 상에 표시된 조직 획득 지점은, 사용자 입력에 기초하여 수정될 수 있다. 사용자는, 의료 영상 표시 장치(300)에 의해 자동으로 결정된 조직 획득 지점이, 실제로 조직이 획득된 지점과 상이하다고 판단될 경우, 결정된 조직 획득 지점을 수정하는 사용자 입력을 의료 영상 표시 장치(300)에게 입력할 수 있다. 의료 영상 표시 장치(300)는, 수신된 사용자 입력에 기초하여, 의료 영상 데이터 내에서의 조직 획득 지점을 수정하고, 수정된 조직 획득 지점을 의료 영상 상에 표시할 수 있다.
일 실시예에 따르면, 단계 S537에서 의료 영상 표시 장치(300)는, 기준점 및 조직 획득 지점에 대한 정보를 포함하는 의료 영상 데이터를 저장할 수 있다. 또한, 의료 영상 표시 장치(300)는, 대상체로부터 조직이 획득되는 바늘의 제2 위치에 대한 정보를 더 저장할 수 있다. 의료 영상 표시 장치(300)는, 바늘의 제1 위치를 원점으로 포함하는 좌표계 내에서 바늘의 제2 위치에 대응하는 좌표 정보를 바늘의 제2 위치에 대한 정보로서 저장할 수 있다.
일 실시예에 따른 의료 영상 표시 장치(300)는, 기준점에 대한 조직 획득 지점에 대한 정보를 포함하는 의료 영상 데이터를 저장함으로써, 서로 다른 시간 대에 수행된 바이옵시 위치들을 사용자가 직관적으로 비교할 수 있도록 한다.
일 실시예에 따른 의료 영상 표시 장치(300)는, 대상체에 대해서 이전에 수행되었던 바이옵시와 관련하여, 기준점 및 이 전의 조직 획득 지점에 대한 정보를 포함하는 제3 의료 영상 데이터를 저장할 수 있다. 의료 영상 표시 장치(300)는, 저장된 제3 의료 영상 데이터를 획득할 수 있다. 의료 영상 표시 장치(300)는, 제2 의료 영상 데이터의 기준점 및 제3 의료 영상 데이터의 기준점을 매칭시킴으로써, 제2 의료 영상 데이터와 제3 의료 영상 데이터를 정합할 수 있다. 의료 영상 표시 장치(300)는, 미리 결정된 기준점들을 매칭시킴으로써 제2 의료 영상 데이터와 제3 의료 영상 데이터를 빠르고 정확하게 정합할 수 있다. 의료 영상 표시 장치(300)는, 제2 의료 영상 데이터로부터 조직 획득 지점이 표시된 제2 의료 영상을 생성할 수 있다. 의료 영상 표시 장치(300)는, 제3 의료 영상 데이터로부터 이 전의 조직 획득 지점이 표시된 제3 의료 영상을 생성할 수 있다. 의료 영상 표시 장치(300)는, 제2 의료 영상에 대응하는 대상체의 단면에 대한 제3 의료 영상을 생성할 수 있다. 예를 들어, 의료 영상 표시 장치(300)는, 제2 의료 영상이 나타내는 대상체의 단면과 동일한 단면에 대한 제3 의료 영상을 생성할 수 있다. 의료 영상 표시 장치(300)는, 제2 의료 영상 및 제3 의료 영상을 표시할 수 있다. 예를 들어, 의료 영상 표시 장치(300)는, 제2 의료 영상 및 제3 의료 영상을 겹쳐서 표시할 수 있다.
따라서, 일 실시예에 따른 의료 영상 표시 장치(300)는, 대상체의 동일한 단면에 의료 영상들 상에 각각 조직 획득 지점을 표시함으로써, 서로 다른 시간 대에 수행된 바이옵시 위치들을 사용자가 직관적으로 비교할 수 있도록 한다.
도 5a 및 도 5b를 참조하여 상술한 바와 같이, 일 실시예에 따른 의료 영상 표시 장치(300)는, 프로브에 의해 대상체로부터 획득된 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정하고, 조직 획득 지점을 제1 의료 영상 상에 자동으로 표시할 수 있다. 그러나, 의료 영상 표시 장치(300)가 조직 획득 지점을 자동으로 기록하는 의료 영상은, 프로브에 의해 대상체로부터 획득된 의료 영상 데이터로부터 생성된 초음파 영상에 제한되지 않는다. 일 실시예에 따른 의료 영상 표시 장치(300)는, 다양한 방식으로 획득된 의료 영상 상에 조직 획득 지점을 표시할 수 있다.
도 6a는 일 실시예에 따라 의료 영상 표시 장치가 의료 영상을 표시하는 방법의 흐름도이다.
일 실시예에 따르면, 단계 S611에서 의료 영상 표시 장치(300)는, 바늘의 제1 위치에 대한 정보를 획득할 수 있다. 의료 영상 표시 장치(300)는, 바늘을 이용하여 대상체로부터 조직을 획득하기 이 전에, 기준이 되는 정보로서 바늘의 제1 위치에 대한 정보를 획득할 수 있다.
일 실시예에서, 바늘의 위치에 대한 정보는, 바늘 및 바늘이 부착된 프로브 중 적어도 하나에 포함되는 위치 센서에 의해 획득될 수 있다. 바이옵시를 위한 바늘은 초음파 영상 데이터를 획득하기 위한 프로브 상에 부착될 수 있다. 따라서, 의료 영상 표시 장치(300)는, 바늘과 프로브의 위치가 대응된다고 판단하고, 프로브의 위치에 대한 정보를 바늘의 위치에 대한 정보로서 획득할 수 있다.
의료 영상 표시 장치(300)는, 바늘이 부착된 프로브에 의해 획득된 초음파 영상 데이터를 획득하고, 초음파 영상 데이터로부터 생성된 실시간 초음파 영상을 표시할 수 있다. 의료 영상 표시 장치(300)의 사용자는, 실시간 초음파 영상을 확인하면서 바늘이 부착된 프로브가 대상체의 기준 부위 상에 위치하도록 프로브를 움직일 수 있다. 의료 영상 표시 장치(300)의 사용자는, 실시간 초음파 영상을 확인하면서 바늘이 부착된 프로브가 대상체의 기준 부위 상에 위치한 경우, 제1 입력을 의료 영상 표시 장치(300)에게 입력할 수 있다. 의료 영상 표시 장치(300)는, 제1 입력이 수신되면, 대응되는 시점의 바늘의 위치에 대한 정보를 제1 위치에 대한 정보로서 획득할 수 있다.
의료 영상 표시 장치(300)는, 제1 의료 영상 데이터를 획득할 수 있다. 예를 들어, 제1 의료 영상 데이터는, MR 영상 데이터, CT 영상 데이터, 및 대상체를 모델링한 모델 영상 데이터 중 적어도 하나를 포함할 수 있다.
의료 영상 표시 장치(300)는, 바늘의 위치와 제1 의료 영상 데이터를 정합할 수 있다. 의료 영상 표시 장치(300)는, 바늘의 제1 위치와 제1 의료 영상 데이터 내의 기준점을 매칭시킴으로써, 바늘의 위치와 제1 의료 영상 데이터를 정합할 수 있다. 제1 의료 영상 데이터 내의 기준점은, 미리 저장된 정보 또는 사용자 입력에 기초하여 결정될 수 있다. 기준점은, 대상체의 특정 부위에 대응하는 지점일 수 있다. 예를 들어, 전립선 바이옵시의 경우, 기준점은 항문(anus)이 될 수 있다.
일 실시예에 따르면, 단계 S613에서 의료 영상 표시 장치(300)는, 바늘에 의해 대상체로부터 조직이 획득되는 제2 위치에 대한 정보를 획득할 수 있다.
의료 영상 표시 장치(300)는, 제1 위치를 기준으로, 바늘의 위치 변화를 감지할 수 있다. 예를 들어, 의료 영상 표시 장치(300)는, 제1 위치를 원점으로 포함하는 좌표계 내에서 제2 위치에 대응하는 좌표 정보를 제2 위치에 대한 정보로서 획득할 수 있다.
의료 영상 표시 장치(300)의 사용자는, 실시간 초음파 영상을 확인하면서 프로브에 부착된 바늘이 관심 영역 내에 또는 관심 영역 근방에 위치하도록 프로브를 움직일 수 있다. 의료 영상 표시 장치(300)의 사용자는, 실시간 초음파 영상을 확인하면서 프로브에 부착된 바늘이 관심 영역에 대응되는 위치에 위치한 경우, 제2 입력을 의료 영상 표시 장치(300)에게 입력할 수 있다. 의료 영상 표시 장치(300)는, 제2 입력이 수신되면, 대응되는 시점의 바늘의 위치에 대한 정보를 제2 위치에 대한 정보로서 획득할 수 있다. 의료 영상 표시 장치(300)는, 바늘에 의해 대상체의 관심 영역으로부터 조직이 획득되기 직 전, 획득되는 시점 또는 획득된 직 후의 바늘의 위치에 대한 정보를 제2 위치에 대한 정보로서 획득할 수 있다.
프로브에 부착된 바늘은, 조직을 획득하기 위해서 프로브에 대해서 소정 방향으로 움직였다가 다시 원래 위치로 돌아올 수 있다. 의료 영상 표시 장치(300)는, 관심 영역에 대응되는 위치에 바늘이 위치하여 있다는 사용자 입력이 수신되면, 바늘이 부착된 프로브의 위치에 대한 정보를 획득할 수 있다. 의료 영상 표시 장치(300)는, 조직 획득을 위하여 바늘이 프로브에 대해서 움직인 거리, 방향 및 프로브의 위치에 기초하여, 제2 위치에 대한 정보를 결정할 수 있다.
일 실시예에 따르면, 단계 S615에서 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정할 수 있다. 의료 영상 표시 장치(300)는, 대상체에 대한 제1 의료 영상 데이터 내에서 제2 위치에 대응되는 조직 획득 지점을 결정할 수 있다. 의료 영상 표시 장치(300)는, 대상체에 대한 제1 의료 영상 데이터 내에서 제1 위치에 대응되는 기준점에 기초하여, 제1 의료 영상 데이터 내에서 제2 위치에 대응되는 조직 획득 지점을 결정할 수 있다.
의료 영상 표시 장치(300)는, 바늘의 위치와 제1 의료 영상 데이터가 정합된 결과에 기초하여, 제1 의료 영상 데이터 내에서 바늘의 제2 위치에 대응되는 조직 획득 지점을 결정할 수 있다. 의료 영상 표시 장치(300)는, 제1 위치로부터 제2 위치로 움직인 바늘의 위치 변화에 기초하여, 제1 의료 영상 데이터 내에서 기준점에 대한 조직 획득 지점의 위치를 결정할 수 있다. 예를 들어, 의료 영상 표시 장치(300)는, 제1 위치를 원점으로 포함하는 좌표계 내에서 제2 위치에 대응하는 좌표 정보에 기초하여, 기준점에 대한 조직 획득 지점을 결정할 수 있다.
일 실시예에 따르면, 단계 S617에서 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터로부터 조직 획득 지점이 표시된 제1 의료 영상을 생성하고 표시할 수 있다. 의료 영상 표시 장치(300)는, 제1 의료 영상과 함께, 조직 획득 지점이 표시된 초음파 영상을 더 표시할 수 있다.
일 실시예에 따른 의료 영상 표시 장치(300)는, 조직 획득 지점을 자동으로 표시함으로써, 조직 획득 지점을 수동으로 마킹하기 위해 추가로 소요되는 시간을 줄일 수 있다. 또한, 조직 획득 지점을 수동으로 마킹하기 위한 시술 보조자가 필요하지 않다는 장점이 있다.
의료 영상 표시 장치(300)는, 기준점 및 조직 획득 지점에 대한 정보를 포함하는 의료 영상 데이터를 저장할 수 있다. 따라서 의료 영상 표시 장치(300)는, 서로 다른 시간대에 수행된 바이옵시들과 관련된 제1 의료 영상 데이터 및 제2 의료 영상 데이터와 관련하여, 기준점을 기초로 제1 의료 영상 데이터와 제2 의료 영상 데이터를 정합할 수 있다.
의료 영상 표시 장치(300)는, 정합된 제1 의료 영상 데이터와 제2 의료 영상 데이터 각각으로부터, 대상체의 동일한 단면에 대한 의료 영상을 생성할 수 있다. 의료 영상 표시 장치(300)는, 생성된 의료 영상들 상에 조직 획득 지점들을 표시할 수 있다. 따라서, 의료 영상 표시 장치(300)는, 서로 다른 시간대에 수행된 바이옵시들에 있어서, 조직이 획득된 위치들의 변화를 사용자에게 직관적으로 디스플레이 할 수 있다.
도 6b는 일 실시예에 따라 의료 영상 표시 장치가 의료 영상을 표시하는 방법의 구체적인 흐름도이다. 도 6a의 S611, S613, S615, 및 S617은 도 6b의 S623, S629, S631, 및 S633 에 각각 대응할 수 있다. 서로 대응하는 도 6a의 각 단계와 도 6b의 각 단계에 대해서는, 각 단계에 대한 설명이 서로 적용될 수 있다. 따라서, 중복되는 동작에 대한 설명은 생략한다.
일 실시예에 따르면, 단계 S621에서 의료 영상 표시 장치(300)는, 프로브가 대상체의 특정 부위 상에 위치한다는 사용자 입력을 수신할 수 있다.
예를 들어, 전립선 바이옵시를 수행함에 있어서, 사용자는, 초음파 프로브가 환자의 항문 내에 위치한 경우, 사용자 입력을 의료 영상 표시 장치(300)에게 입력할 수 있다.
단계 S623에서 의료 영상 표시 장치(300)는, 바늘의 제1 위치에 대한 정보를 획득할 수 있다. 의료 영상 표시 장치(300)는, 바늘을 이용하여 대상체로부터 조직을 획득하기 이 전에, 기준이 되는 정보로서 바늘의 제1 위치에 대한 정보를 획득할 수 있다. 의료 영상 표시 장치(300)는, 단계 S621에서 사용자 입력이 수신되면, 대응되는 시점의 바늘의 위치에 대한 정보를 제1 위치에 대한 정보로서 획득할 수 있다.
일 실시예에 따르면, 단계 S625에서 의료 영상 표시 장치(300)는, 바늘의 위치와 제1 의료 영상 데이터를 정합할 수 있다.
도 8은 일 실시예에 따라 바늘의 위치와 의료 영상 데이터를 정합하기 위해 사용자 입력을 수신하기 위한 화면의 예를 도시한다.
도 8에 도시된 바와 같이, 의료 영상 표시 장치(300)는, 바늘이 부착된 프로브에 의해 획득된 초음파 영상 데이터를 획득하고, 초음파 영상 데이터로부터 생성된 실시간 초음파 영상(810)을 표시할 수 있다.
또한, 일 실시예에 따르면, 의료 영상 표시 장치(300)는, 바이옵시의 정확도를 높이기 위하여, 초음파 영상과 함께, MR 영상, CT 영상 또는 모델 영상과 같은 다른 의료 영상 획득 방식에 의해 획득된 의료 영상(820)을 더 표시할 수 있다. 의료 영상(820)은 제1 의료 영상 데이터로부터 획득된 영상일 수 있다. 화면(800)은, 바늘(또는 프로브)의 위치와 제1 의료 영상 데이터가 정합되기 전의 화면이므로, 대상체의 임의의 단면에 대해서 제1 의료 영상 데이터로부터 생성된 의료 영상(820)이 디스플레이 될 수 있다.
의료 영상(820)은, 미리 저장된 정보 또는 사용자 입력에 기초하여 결정된 기준점이 표시된 영상일 수 있다. 제1 의료 영상 데이터 내에서 기준점은, 대상체의 특정 부위에 대응하는 지점일 수 있다. 예를 들어, 전립선 바이옵시의 경우, 기준점은 항문이 될 수 있다.
의료 영상 표시 장치(300)는, 바이옵시가 수행되는 부위와 관련하여 미리 저장된 정보에 기초하여, 의료 영상(820) 상에 기준점을 표시할 수 있다.
또는, 의료 영상 표시 장치(300)는, 의료 영상(820)에 대한 사용자 입력에 기초하여, 사용자 입력에 대응되는 지점을 기준점으로서 표시할 수 있다. 예를 들어, 사용자는, 프로브에 의해 획득되는 실시간 초음파 영상에 기초하여, 프로브에 부착된 바늘이 위치하는 것으로 예상되는 지점을 기준점으로 설정할 수 있다.
사용자는, 실시간 초음파 영상(810)을 참조함으로써 프로브가 특정 부위 상에 위치했다고 판단되는 경우, 의료 영상 표시 장치(300)가 바늘의 위치와 제1 의료 영상 데이터를 정합하도록 사용자 입력을 입력할 수 있다. 의료 영상 표시 장치(300)는, 버튼(830)을 선택하는 사용자 입력이 수신되면, 대응되는 시점의 바늘의 위치에 대한 정보를 제1 위치에 대한 정보로서 획득하고, 바늘의 위치와 제1 의료 영상 데이터를 정합할 수 있다. 의료 영상 표시 장치(300)는, 바늘의 위치와 제1 의료 영상 데이터를 자동으로 정합한 후, 사용자 입력에 기초하여 정합한 결과를 보정할 수 있다.
일 실시예에 따르면, 의료 영상 표시 장치(300)는, 바늘의 제1 위치와 제1 의료 영상 데이터 내의 기준점을 매칭시킴으로써, 바늘의 위치와 제1 의료 영상 데이터를 정합할 수 있다. 의료 영상 표시 장치(300)는, 정합된 결과에 기초하여, 사용자에 의해 바늘이 움직임에 따라, 바늘의 위치에 대응되는 제1 의료 영상 데이터 내의 지점을 계산할 수 있다.
도 9에 도시된 바와 같이, 의료 영상 표시 장치(300)는, 바늘의 제1 위치(901)를 원점으로 포함하는 좌표계 내에서 변화된 위치(902)에 대응하는 좌표 정보(x1, y1, z1)를 획득할 수 있다.
일 실시예에 따르면, 단계 S627에서 의료 영상 표시 장치(300)는, 대상체로부터 조직을 획득하였다는 사용자 입력을 수신할 수 있다.
의료 영상 표시 장치(300)의 사용자는, 실시간 초음파 영상을 확인하면서 프로브에 부착된 바늘이 관심 영역에 대응되는 위치에 위치한 경우, 바늘을 조작함으로써 조직을 획득할 수 있다. 사용자는, 대상체로부터 조직을 획득하기 직 전, 획득하는 시점, 또는 획득한 직 후에 사용자 입력을 의료 영상 표시 장치(300)에게 입력할 수 있다.
단계 S629에서 의료 영상 표시 장치(300)는, 바늘에 의해 대상체로부터 조직이 획득되는 제2 위치에 대한 정보를 획득할 수 있다. 의료 영상 표시 장치(300)는, 단계 S627에서 사용자 입력이 수신되면, 대응되는 시점의 바늘의 위치에 대한 정보를 제2 위치에 대한 정보로서 획득할 수 있다.
단계 S631에서 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터 내에서 제2 위치에 대응되는 조직 획득 지점을 결정할 수 있다.
의료 영상 표시 장치(300)는, 바늘의 위치와 제1 의료 영상 데이터가 정합된 결과에 기초하여, 제1 의료 영상 데이터 내에서 바늘의 제2 위치에 대응되는 조직 획득 지점을 결정할 수 있다.
단계 S633에서 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터로부터 조직 획득 지점이 표시된 제1 의료 영상을 생성하고 표시할 수 있다.
도 10은 일 실시예에 따라 의료 영상 표시 장치(300)가 조직 획득 지점이 표시된 의료 영상을 표시하는 화면의 예를 도시한다.
대상체로부터 조직을 획득하였으므로 조직 획득 지점을 기록하라는 사용자 입력이 수신되면, 의료 영상 표시 장치(300)는 바늘의 제2 위치에 대한 정보를 획득할 수 있다. 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터 내에서 제2 위치에 대응하는 조직 획득 지점을 결정하고, 결정된 조직 획득 지점이 표시된 제1 의료 영상을 표시할 수 있다. 예를 들어, 조직 획득 지점을 기록하라는 사용자 입력은, 화면(1000) 상에서 버튼(1030)을 선택하는 사용자 입력을 포함할 수 있다.
의료 영상 표시 장치(300)는, 조직 획득 지점(1021)이 표시된 제1 의료 영상(1020)을 표시할 수 있다. 의료 영상 표시 장치(300)는, 조직을 획득하기 위하여 바늘이 움직인 방향에 기초하여, 바늘의 삽입 방향을 나타내는 지시자(1023)를 더 포함할 수 있다.
또한, 의료 영상 표시 장치(300)는, 바늘이 부착된 프로브에 의해 획득된 초음파 영상 데이터로부터 생성된 초음파 영상(1010)을 표시할 수 있다. 의료 영상 표시 장치(300)는, 초음파 영상(1010) 상에도 조직 획득 지점(1011)을 표시할 수 있다. 예를 들어, 의료 영상 표시 장치(300)는, 조직을 획득하기 위하여 바늘이 프로브에 대해서 움직인 거리 및 방향 중 적어도 하나에 기초하여, 조직 획득 지점(1011)을 결정하고, 초음파 영상(1010) 상에 표시할 수 있다. 초음파 영상(1010)은 실시간 초음파 영상일 수도 있고, 프리즈(freeze) 영상일 수도 있다.
한편, 의료 영상 표시 장치(300)는, 사용자 입력에 기초하여, 자동으로 표시된 조직 획득 지점을 수정할 수 있다. 의료 영상 표시 장치(300)는, 조직 획득 지점을 표시하는 마커를 수정된 위치로 움직여 표시할 수 있다. 의료 영상 표시 장치(300)는, 자동으로 결정된 조직 획득 지점을 사용자 입력에 기초하여 수정된 지점으로 변경하여 저장할 수 있다.
도 10에는 제1 의료 영상 데이터로서 MR 영상 데이터가 이용되는 경우를 예로 들어 도시하였다. 그러나 실시예는 이에 제한되지 않는다. 도 11에 도시된 바와 같이, 의료 영상 표시 장치(300)는, 대상체를 모델링한 모델 영상 데이터를 이용하여 조직 획득 지점이 표시된 의료 영상을 표시할 수 있다.
도 11은 일 실시예에 따라 조직 획득 지점이 표시된 의료 영상을 표시하는 화면의 예를 도시한다.
화면(1100) 상에서 버튼(1030)을 선택하는 사용자 입력이 수신되면, 의료 영상 표시 장치(300)는, 조직 획득 지점(1121)이 표시된 제1 의료 영상(1120)을 표시할 수 있다. 제1 의료 영상(1120)은, 대상체의 일부 조직 또는 장기를 모델링한 모델 영상 데이터로부터 생성된 모델 영상이다. 의료 영상 표시 장치(300)는, 조직을 획득하기 위하여 바늘이 움직인 방향에 기초하여, 바늘의 삽입 방향을 나타내는 지시자(1123)를 더 표시할 수 있다. 의료 영상 표시 장치(300)는, 대상체의 소정 단면을 나타내는 지시자(1125)를 더 표시할 수 있다. 지시자(1125)는, 초음파 영상(1110)에 대응하는 단면을 나타내거나, 조직이 획득된 지점을 포함하는 단면을 나타내거나, 화면(1100)이 표시되기 전에 표시되었던 화면(1000)에 포함되는 MR 영상(1020)에 대응하는 단면을 나타낼 수 있다.
또한, 의료 영상 표시 장치(300)는, 모델 영상 데이터를 다른 시점으로 렌더링함으로써 생성된 의료 영상(1130)을 더 표시할 수 있다. 의료 영상 표시 장치(300)는, 의료 영상(1130) 상에 조직 획득 지점(1131) 및 바늘의 삽입 방향을 나타내는 지시자(1133)를 더 포함할 수 있다.
또한, 의료 영상 표시 장치(300)는, 바늘이 부착된 프로브에 의해 획득된 초음파 영상 데이터로부터 생성된 초음파 영상(1110)을 표시할 수 있다. 의료 영상 표시 장치(300)는, 초음파 영상(1110) 상에도 조직 획득 지점(1111)을 표시할 수 있다.
도 6b로 되돌아와서, 단계 S635에서 의료 영상 표시 장치(300)는, 기준점 및 조직 획득 지점에 대한 정보를 포함하는 제1 의료 영상 데이터를 저장할 수 있다.
의료 영상 표시 장치(300)는, 기준점 및 기준점에 대한 조직 획득 지점의 위치에 대한 정보를 포함하는 의료 영상 데이터를 저장함으로써, 이 전에 수행되었던 바이옵시와 관련하여 조직이 획득된 위치를 추후에 사용자에게 직관적으로 디스플레이 할 수 있다.
예를 들어, 의료 영상 표시 장치(300)는, 이전에 수행되었던 바이옵시와 관련하여, 기준점 및 이 전의 조직 획득 지점에 대한 정보를 포함하는 제2 의료 영상 데이터도 저장할 수 있다. 의료 영상 표시 장치(300)는, 서로 다른 시간대에 수행된 바이옵시들과 관련된 제1 의료 영상 데이터 및 제2 의료 영상 데이터를 이용하여, 조직 획득 지점들이 표시된 의료 영상들을 생성하고 표시할 수 있다. 따라서, 의료 영상 표시 장치(300)는, 서로 다른 시간대에 수행된 바이옵시들에 있어서, 조직이 획득된 위치들의 변화를 사용자에게 직관적으로 디스플레이 할 수 있다.
도 12는 일 실시예에 따라 의료 영상 표시 장치가 서로 다른 시간대의 조직 획득 지점들이 표시된 의료 영상들을 표시하는 방법의 흐름도이다.
단계 S1210에서 일 실시예에 따른 의료 영상 표시 장치(300)는, 대상체에 대해서 수행되었던 바이옵시와 관련하여, 기준점 및 조직 획득 지점에 대한 정보를 포함하는 의료 영상 데이터를 저장할 수 있다. 의료 영상 데이터 내에서 조직 획득 지점을 결정하는 방법은, 도 5a, 5b, 6a,및 6b를 참조하여 앞서 설명한 방법이 이용될 수 있다. 의료 영상 표시 장치(300)는, 복수의 시점들에 수행되었던 바이옵시와 관련하여 복수의 의료 영상 데이터를 저장할 수 있다.
단계 S1220에서 일 실시예에 따른 의료 영상 표시 장치(300)는, 제1 시점 및 제2 시점에 수행되었던 바이옵시와 관련하여, 기준점 및 조직 획득 지점에 대한 정보를 포함하는 제1 의료 영상 데이터 및 제2 의료 영상 데이터를 획득할 수 있다. 의료 영상 표시 장치(300)는, 내장된 메모리 또는 외부 서버로부터 의료 영상 데이터를 획득할 수 있다.
단계 S1230에서 일 실시예에 따른 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터의 기준점 및 제2 의료 영상 데이터의 기준점을 매칭시킴으로써, 제1 의료 영상 데이터와 제2 의료 영상 데이터를 정합할 수 있다. 예를 들어, 기준점은, 대상체 내의 특정 부위에 대응하다고 미리 결정된 지점일 수 있다. 따라서, 의료 영상 표시 장치(300)는, 미리 결정된 기준점들을 매칭시킴으로써 제1 의료 영상 데이터와 제2 의료 영상 데이터를 빠르고 정확하게 정합할 수 있다.
단계 S1240에서 일 실시예에 따른 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터로부터 제1 시점의 조직 획득 지점이 표시된 제1 의료 영상을 생성할 수 있다. 제1 의료 영상 상에는 기준점이 더 표시될 수 있다.
단계 S1250에서 일 실시예에 따른 의료 영상 표시 장치(300)는, 제2 의료 영상 데이터로부터 제2 시점의 조직 획득 지점이 표시된 제2 의료 영상을 생성할 수 있다. 의료 영상 표시 장치(300)는, 제1 의료 영상에 대응하는 대상체의 단면에 대한 제2 의료 영상을 생성할 수 있다. 예를 들어, 의료 영상 표시 장치(300)는, 제1 의료 영상이 나타내는 대상체의 단면과 동일한 단면을 나타내는 제2 의료 영상을 생성할 수 있다. 제2 의료 영상 상에는 기준점이 더 표시될 수 있다.
단계 S1260에서 일 실시예에 따른 의료 영상 표시 장치(300)는, 제1 의료 영상 및 제2 의료 영상을 표시할 수 있다. 예를 들어, 의료 영상 표시 장치(300)는, 제1 의료 영상의 근방에 제2 의료 영상을 표시하거나, 제1 의료 영상과 겹쳐서 제2 의료 영상을 표시할 수 있다.
도 13은 일 실시예에 따라 서로 다른 시간대의 조직 획득 지점들이 표시된 의료 영상들을 표시하는 화면의 예를 도시한다.
의료 영상 표시 장치(300)는, 서로 다른 시간대에 수행된 바이옵시와 관련된 의료 영상 데이터를 불러올 수 있다. 예를 들어, 의료 영상 표시 장치(300)는, 서로 다른 시간대에 수행된 바이옵시와 관련된 제1 의료 영상 데이터 및 제2 의료 영상 데이터를 불러올 수 있다. 의료 영상 표시 장치(300)는, 의료 영상 데이터와 함께 저장된 기준점에 기초하여, 제1 의료 영상 데이터와 제2 의료 영상 데이터를 정합할 수 있다.
일 실시예에 따르면, 의료 영상 표시 장치(300)는, 정합된 결과에 기초하여, 제1 의료 영상 데이터와 제2 의료 영상 데이터 각각으로부터, 대상체의 동일한 단면에 대한 의료 영상을 생성하고 표시할 수 있다. 의료 영상 표시 장치(300)는, 기준점에 대한 상대적인 위치로 기록된 조직 획득 지점을 의료 영상 상에 표시할 수 있다.
바이옵시 히스토리를 보고자 하는 사용자 입력이 수신되면, 의료 영상 표시 장치(300)는, 기준점(1323) 및 조직 획득 지점(1325)이 표시된 제1 의료 영상(1220)을 표시할 수 있다. 의료 영상 표시 장치(300)는, 바이옵시가 수행된 시간대에 대한 정보(1321)를 제1 의료 영상(1320)과 함께 표시할 수 있다.
그리고, 의료 영상 표시 장치(300)는, 이 전에 수행되었던 바이옵시와 관련하여, 기준점 및 이 전의 조직 획득 지점에 대한 정보를 포함하는 제2 의료 영상 데이터를 획득할 수 있다. 의료 영상 표시 장치(300)는, 기준점(1313) 및 조직 획득 지점(1315)이 표시된 제2 의료 영상(1310)을 표시할 수 있다. 의료 영상 표시 장치(300)는, 바이옵시가 수행된 시간대에 대한 정보(1311)를 제2 의료 영상(1320)과 함께 표시할 수 있다.
일 실시예에 따르면, 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터의 기준점 및 제2 의료 영상 데이터의 기준점을 매칭시킴으로써, 제1 의료 영상 데이터와 제2 의료 영상 데이터를 보다 빠르고 정확하게 정합할 수 있다. 의료 영상 표시 장치(300)는, 정합된 결과에 기초하여, 대상체의 동일한 단면에 대한 제1 의료 영상(1320) 및 제2 의료 영상(1310)을 표시할 수 있다. 사용자는, 조직 획득 지점(1315, 1325)이 표시된 제1 의료 영상(1320)과 제2 의료 영상(1310)을 비교함으로써, 조직 검사의 위치 변화를 알 수 있다.
도 13에는 서로 다른 시간대의 의료 영상들을 별도로 표시하는 경우를 예로 들어 도시하였다. 그러나 실시예는 이에 제한되지 않는다. 예를 들어, 의료 영상 표시 장치(300)는, 기준점에 대한 조직 획득 지점의 상대적인 위치 정보를 알고 있기 때문에, 하나의 의료 영상 상에 서로 다른 시간대의 조직 획득 지점들을 표시할 수 있다. 의료 영상 표시 장치(300)는, 제1 의료 영상 데이터로부터 조직 획득 지점이 표시된 제1 의료 영상을 생성하고, 제1 의료 영상 상에 이 전의 조직 획득 지점을 겹쳐서 표시할 수 있다. 사용자는, 하나의 의료 영상 상에 표시된 조직 획득 지점들을 비교함으로써, 조직 검사의 위치 변화를 알 수 있다.
의료 영상 표시 장치(300)는, 서로 다른 시간대의 조직 검사에 대한 정보를 제공함으로써, 사용자가 대상체의 조직이 변화한 정도 및 조직 검사가 수행된 위치를 용이하게 인식할 수 있도록 한다. 따라서, 일 실시예에 따르면, 조직 검사의 효율이 높아지고 과거 바이옵시에 대한 추적 조사(follow up)가 보다 용이해질 수 있다.
한편, 일 실시예에 따른 의료 영상 표시 장치(300)는, 일반적인 초음파 진단 장치 내에 포함되거나, 유선 또는 무선으로 일반적인 초음파 진단 장치와 연결될 수 있다.
도 14는 일 실시 예에 따른 초음파 진단 장치의 구성을 도시한 블록도이다.
도 14는 일 실시예에 따른 초음파 진단 장치(2100)의 구성을 도시한 블록도이다. 일 실시예에 따른 초음파 진단 장치(2100)는 프로브(2020), 초음파 송수신부(2110), 제어부(2120), 영상 처리부(2130), 디스플레이부(2140), 저장부(2150), 통신부(2160), 입력부(2170), 및 위치 감지부(2180)를 포함할 수 있다. 도 14의 제어부(2120), 디스플레이부(2140), 입력부(2170), 프로브(2020), 위치 감지부(2180), 및 저장부(360)는 도 3a 및 3b의 프로세서(310), 디스플레이(320), 입력부(330), 프로브(340), 위치 감지부(350), 및 저장부(360)에 각각 대응될 수 있다. 중복되는 설명은 생략한다.
초음파 진단 장치(2100)는 카트형뿐만 아니라 휴대형으로도 구현될 수 있다. 휴대형 초음파 진단 장치의 예로는 프로브 및 어플리케이션을 포함하는 스마트 폰(smart phone), 랩탑 컴퓨터, PDA, 태블릿 PC 등이 있을 수 있으나, 이에 한정되지 않는다.
프로브(2020)는 복수의 트랜스듀서들을 포함할 수 있다. 복수의 트랜스듀서들은 송신부(2113)로부터 인가된 송신 신호에 따라 대상체(2010)로 초음파 신호를 송출할 수 있다. 복수의 트랜스듀서들은 대상체(2010)로부터 반사된 초음파 신호를 수신하여, 수신 신호를 형성할 수 있다. 또한, 프로브(2020)는 초음파 진단 장치(2100)와 일체형으로 구현되거나, 또는 초음파 진단 장치(2100)와 유무선으로 연결되는 분리형으로 구현될수 있다. 또한, 초음파 진단 장치(2100)는 구현 형태에 따라 하나 또는 복수의 프로브(2020)를 구비할 수 있다.
일 실시예에 따른 프로브(2020) 상에는, 바이옵시를 위한 바늘이 부착될 수 있다. 바늘 및 프로브 중 적어도 하나는 위치 센서를 포함할 수 있다. 위치 감지부(2180)는, 바늘 및 바늘이 부착된 프로브 중 적어도 하나의 위치를 감지할 수 있다. 위치 감지부(2180)는, 바늘 및 바늘이 부착된 프로브 중 적어도 하나에 포함된 위치 센서로부터 수신된 정보에 기초하여, 바늘 및 바늘이 부착된 프로브 중 적어도 하나의 위치를 결정할 수 있다.
제어부(2120)는 프로브(2020)에 포함되는 복수의 트랜스듀서들의 위치 및 집속점을 고려하여, 복수의 트랜스듀서들 각각에 인가될 송신 신호를 형성하도록 송신부(2113)를 제어한다.
제어부(2120)는 프로브(2020)로부터 수신되는 수신 신호를 아날로그 디지털 변환하고, 복수의 트랜스듀서들의 위치 및 집속점을 고려하여, 디지털 변환된 수신 신호를 합산함으로써, 초음파 데이터를 생성하도록 수신부(2115)를 제어 한다.
영상 처리부(2130)는 초음파 수신부(2115)에서 생성된 초음파 데이터를 이용하여, 초음파 영상을 생성한다.
디스플레이부(2140)는 생성된 초음파 영상 및 초음파 진단 장치(2100)에서 처리되는 다양한 정보를 표시할 수 있다. 초음파 진단 장치(2100)는 구현 형태에 따라 하나 또는 복수의 디스플레이부(2140)를 포함할 수 있다. 또한, 디스플레이부(2140)는 터치패널과 결합하여 터치 스크린으로 구현될 수 있다.
제어부(2120)는 초음파 진단 장치(2100)의 전반적인 동작 및 초음파 진단 장치(2100)의 내부 구성 요소들 사이의 신호 흐름을 제어할 수 있다. 제어부(2120)는 초음파 진단 장치(2100)의 기능을 수행하기 위한 프로그램 또는 데이터를 저장하는 메모리, 및 프로그램 또는 데이터를 처리하는 프로세서를 포함할 수 있다. 또한, 제어부(2120)는 입력부(2170) 또는 외부 장치로부터 제어신호를 수신하여, 초음파 진단 장치(2100)의 동작을 제어할 수 있다.
초음파 진단 장치(2100)는 통신부(2160)를 포함하며, 통신부(2160)를 통해 외부 장치(예를 들면, 서버, 의료 장치, 휴대 장치(스마트폰, 태블릿 PC, 웨어러블 기기 등))와 연결할 수 있다.
통신부(2160)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
통신부(2160)가 외부 장치로부터 제어 신호 및 데이터를 수신하고, 수신된 제어 신호를 제어부(2120)에 전달하여 제어부(2120)로 하여금 수신된 제어 신호에 따라 초음파 진단 장치(2100)를 제어하도록 하는 것도 가능하다.
또는, 제어부(2120)가 통신부(2160)를 통해 외부 장치에 제어 신호를 송신함으로써, 외부 장치를 제어부의 제어 신호에 따라 제어하는 것도 가능하다.
예를 들어 외부 장치는 통신부를 통해 수신된 제어부의 제어 신호에 따라 외부 장치의 데이터를 처리할 수 있다.
외부 장치에는 초음파 진단 장치(2100)를 제어할 수 있는 프로그램이 설치될 수 있는 바, 이 프로그램은 제어부(2120)의 동작의 일부 또는 전부를 수행하는 명령어를 포함할 수 있다.
프로그램은 외부 장치에 미리 설치될 수도 있고, 외부장치의 사용자가 어플리케이션을 제공하는 서버로부터 프로그램을 다운로드하여 설치하는 것도 가능하다. 어플리케이션을 제공하는 서버에는 해당 프로그램이 저장된 기록매체가 포함될 수 있다.
저장부(2150)는 초음파 진단 장치(2100)를 구동하고 제어하기 위한 다양한 데이터 또는 프로그램, 입/출력되는 초음파 데이터, 획득된 초음파 영상 등을 저장할 수 있다.
입력부(2170)는, 초음파 진단 장치(2100)를 제어하기 위한 사용자의 입력을 수신할 수 있다. 예를 들어, 사용자의 입력은 버튼, 키 패드, 마우스, 트랙볼, 조그 스위치, 놉(knop) 등을 조작하는 입력, 터치 패드나 터치 스크린을 터치하는 입력, 음성 입력, 모션 입력, 생체 정보 입력(예를 들어, 홍채 인식, 지문 인식 등) 등을 포함할 수 있으나 이에 한정되지 않는다.
한편, 상술한 실시예는, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터에 의해 판독 가능한 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시예에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 또한, 상술한 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로 구현될 수 있다. 예를 들어, 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 컴퓨터가 읽고 실행할 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다.
컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 기록 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 포함할 수 있다. 컴퓨터 판독 가능 매체는 마그네틱 저장매체, 예를 들면, 롬, 플로피 디스크, 하드 디스크 등을 포함하고,) 광학적 판독 매체, 예를 들면, 시디롬, DVD 등과 같은 저장 매체를 포함할 수 있으나, 이에 제한되지 않는다. 또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다.
또한, 컴퓨터가 읽을 수 있는 복수의 기록 매체가 네트워크로 연결된 컴퓨터 시스템들에 분산되어 있을 수 있으며, 분산된 기록 매체들에 저장된 데이터, 예를 들면 프로그램 명령어 및 코드가 적어도 하나의 컴퓨터에 의해 실행될 수 있다.
본 개시에서 설명된 특정 실행들은 일 실시예 일 뿐이며, 어떠한 방법으로도 본 개시의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 및 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다.
본 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
"부", "모듈"은 어드레싱될 수 있는 저장 매체에 저장되며 프로세서에 의해 실행될 수 있는 프로그램에 의해 구현될 수도 있다.
예를 들어, “부”, "모듈" 은 소프트웨어 구성 요소들, 객체 지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들에 의해 구현될 수 있다.

Claims (21)

  1. 프로브에 의해 대상체로부터 획득된 제1 의료 영상 데이터로부터 생성된 의료 영상을 표시하는 의료 영상 표시 장치에 있어서,
    상기 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 상기 바늘에 의해 상기 대상체로부터 조직(tissues)이 획득되는 위치에 대한 정보를 획득하고, 상기 획득된 정보에 기초하여 상기 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정하는, 적어도 하나의 프로세서; 및
    상기 제1 의료 영상 데이터로부터 생성된, 상기 조직 획득 지점이 표시된 제1 의료 영상을 표시하는, 디스플레이를 포함하는, 의료 영상 표시 장치.
  2. 제1 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 획득된 정보에 기초하여 상기 대상체에 대한 제2 의료 영상 데이터 내에서 조직 획득 지점을 결정하고,
    상기 디스플레이는,
    상기 제2 의료 영상 데이터로부터 생성된, 상기 조직 획득 지점이 표시된 제2 의료 영상을 더 표시하고,
    상기 제2 의료 영상 데이터는, MR 영상 데이터, CT 영상 데이터, 및 상기 대상체를 모델링한 모델 영상 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는, 의료 영상 표시 장치.
  3. 제2 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 상기 바늘의 위치에 대한 정보를 획득하고,
    상기 바늘의 위치와 상기 제2 의료 영상 데이터를 정합하고,
    상기 조직 획득 지점을 결정함에 있어서, 상기 정합된 결과에 기초하여, 상기 제2 의료 영상 데이터 내에서 상기 조직 획득 지점을 결정하는 것을 특징으로 하는, 의료 영상 표시 장치.
  4. 제2 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 바늘에 의해 상기 대상체로부터 조직이 획득되기 이전에 상기 바늘의 제1 위치에 대한 정보를 획득하고, 상기 바늘에 의해 상기 대상체로부터 상기 조직이 획득되는 제2 위치에 대한 정보를 획득하고, 상기 제2 의료 영상 데이터 내에서 상기 제1 위치에 대응되는 기준점에 기초하여, 상기 제2 의료 영상 데이터 내에서 상기 제2 위치에 대응되는 상기 조직 획득 지점을 결정하는 것을 특징으로 하는, 의료 영상 표시 장치.
  5. 제4 항에 있어서,
    입력부를 더 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 바늘의 제1 위치에 대한 정보를 획득함에 있어서,
    상기 입력부를 통해 사용자 입력이 수신되면, 상기 제1 위치에 대한 정보를 획득하고, 상기 바늘의 상기 제1 위치와 상기 제2 의료 영상 데이터 내의 상기 기준점을 매칭시킴으로써, 상기 바늘의 위치와 상기 제2 의료 영상 데이터를 정합하는 것을 특징으로 하는, 의료 영상 표시 장치.
  6. 제4 항에 있어서,
    상기 기준점은 미리 저장된 정보 또는 사용자 입력에 기초하여 결정되는 것을 특징으로 하는, 의료 영상 표시 장치.
  7. 제4 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 제1 위치를 원점으로 포함하는 좌표계 내에서 상기 제2 위치에 대응하는 좌표 정보를 상기 제2 위치에 대한 정보로서 획득하고,
    상기 좌표 정보에 기초하여, 상기 기준점에 대한 상기 조직 획득 지점을 결정하는 단계를 포함하는, 의료 영상 표시 장치.
  8. 제4 항에 있어서,
    입력부를 더 포함하고,
    상기 제1 위치에 대한 정보 및 상기 제2 위치에 대한 정보는, 상기 바늘이 부착된 상기 프로브에 포함되는 위치 센서에 의해 획득되고,
    상기 적어도 하나의 프로세서는,
    상기 제2 위치에 대한 정보를 획득함에 있어서,
    상기 입력부를 통해 사용자 입력이 수신되면, 상기 바늘이 부착된 프로브의 위치에 대한 정보를 획득하고, 상기 조직을 획득하기 위하여 상기 바늘이 상기 프로브에 대해서 움직인 거리 및 방향 중 적어도 하나에 기초하여, 상기 제2 위치에 대한 정보를 결정하는 것을 특징으로 하는, 의료 영상 표시 장치.
  9. 제2 항에 있어서,
    상기 대상체에 대해서 이전에 수행되었던 바이옵시와 관련하여, 기준점 및 이 전의 조직 획득 지점에 대한 정보를 포함하는 제3 의료 영상 데이터를 저장하는 저장부를 더 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 저장부로부터 상기 제3 의료 영상 데이터를 획득하고, 상기 제2 의료 영상 데이터의 기준점 및 상기 제3 의료 영상 데이터의 기준점을 매칭시킴으로써, 상기 제2 의료 영상 데이터와 상기 제3 의료 영상 데이터를 정합하고, 상기 제2 의료 영상 데이터로부터 상기 조직 획득 지점이 표시된 제2 의료 영상을 생성하고, 상기 제3 의료 영상 데이터로부터 상기 이 전의 조직 획득 지점이 표시된, 상기 제2 의료 영상에 대응하는 상기 대상체의 단면에 대한 제3 의료 영상을 생성하고,
    상기 디스플레이는,
    상기 제2 의료 영상 및 상기 제3 의료 영상을 표시하는 것을 특징으로 하는, 의료 영상 표시 장치.
  10. 제4 항에 있어서,
    상기 제1 위치를 원점으로 포함하는 좌표계 내에서 상기 제2 위치에 대응하는 좌표 정보를 상기 제2 위치에 대한 정보로서 저장하는 저장부를 더 포함하는, 의료 영상 표시 장치.
  11. 프로브에 의해 대상체로부터 획득된 제1 의료 영상 데이터로부터 생성된 의료 영상을 표시하는 의료 영상 표시 방법에 있어서,
    상기 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 상기 바늘에 의해 상기 대상체로부터 조직(tissues)이 획득되는 위치에 대한 정보를 획득하는 단계;
    상기 획득된 정보에 기초하여 상기 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정하는 단계; 및
    상기 제1 의료 영상 데이터로부터 생성된, 상기 조직 획득 지점이 표시된 제1 의료 영상을 표시하는 단계를 포함하는, 의료 영상 표시 방법.
  12. 제11 항에 있어서,
    상기 획득된 정보에 기초하여 상기 대상체에 대한 제2 의료 영상 데이터 내에서 조직 획득 지점을 결정하는 단계; 및
    상기 제2 의료 영상 데이터로부터 생성된, 상기 조직 획득 지점이 표시된 제2 의료 영상을 표시하는 단계를 더 포함하고,
    상기 제2 의료 영상 데이터는, MR 영상 데이터, CT 영상 데이터, 및 상기 대상체를 모델링한 모델 영상 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는, 의료 영상 표시 방법.
  13. 제12 항에 있어서,
    상기 대상체로부터 조직이 획득되는 위치에 대한 정보를 획득하는 단계는,
    상기 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 상기 바늘의 위치에 대한 정보를 획득하는 단계를 포함하고,
    상기 조직 획득 지점을 결정하는 단계는,
    상기 바늘의 위치와 상기 제2 의료 영상 데이터를 정합하는 단계; 및
    상기 정합된 결과에 기초하여, 상기 제2 의료 영상 데이터 내에서 상기 조직 획득 지점을 결정하는 단계를 포함하는 것을 특징으로 하는, 의료 영상 표시 방법.
  14. 제12 항에 있어서,
    상기 대상체로부터 조직이 획득되는 위치에 대한 정보를 획득하는 단계는,
    상기 바늘에 의해 상기 대상체로부터 조직이 획득되기 이전에 상기 바늘의 제1 위치에 대한 정보를 획득하는 단계; 및
    상기 바늘에 의해 상기 대상체로부터 상기 조직이 획득되는 제2 위치에 대한 정보를 획득하는 단계를 포함하고,
    상기 대상체에 대한 제2 의료 영상 데이터 내에서 조직 획득 지점을 결정하는 단계는,
    상기 제2 의료 영상 데이터 내에서 상기 제1 위치에 대응되는 기준점에 기초하여, 상기 제2 의료 영상 데이터 내에서 상기 제2 위치에 대응되는 상기 조직 획득 지점을 결정하는 단계를 포함하는 것을 특징으로 하는, 의료 영상 표시 방법.
  15. 제14 항에 있어서,
    상기 바늘의 제1 위치에 대한 정보를 획득하는 단계는,
    사용자 입력이 수신되면, 상기 제1 위치에 대한 정보를 획득하는 단계를 포함하고,
    상기 대상체에 대한 제2 의료 영상 데이터 내에서 조직 획득 지점을 결정하는 단계는,
    상기 바늘의 상기 제1 위치와 상기 제2 의료 영상 데이터 내의 상기 기준점을 매칭시킴으로써, 상기 바늘의 위치와 상기 제2 의료 영상 데이터를 정합하는 단계를 포함하는 것을 특징으로 하는, 의료 영상 표시 방법.
  16. 제14 항에 있어서,
    상기 기준점은 미리 저장된 정보 또는 사용자 입력에 기초하여 결정되는 것을 특징으로 하는, 의료 영상 표시 방법.
  17. 제14 항에 있어서,
    상기 제2 위치에 대한 정보를 획득하는 단계는,
    상기 제1 위치를 원점으로 포함하는 좌표계 내에서 상기 제2 위치에 대응하는 좌표 정보를 상기 제2 위치에 대한 정보로서 획득하는 단계를 포함하고,
    상기 대상체에 대한 제2 의료 영상 데이터 내에서 조직 획득 지점을 결정하는 단계는,
    상기 좌표 정보에 기초하여, 상기 기준점에 대한 상기 조직 획득 지점을 결정하는 단계를 포함하는, 의료 영상 표시 방법.
  18. 제14 항에 있어서,
    상기 제1 위치에 대한 정보 및 상기 제2 위치에 대한 정보는, 상기 바늘이 부착된 상기 프로브에 포함되는 위치 센서에 의해 획득되고,
    상기 적어도 하나의 프로세서는,
    상기 제2 위치에 대한 정보를 획득하는 단계는,
    사용자 입력이 수신되면, 상기 바늘이 부착된 프로브의 위치에 대한 정보를 획득하는 단계; 및
    상기 조직을 획득하기 위하여 상기 바늘이 상기 프로브에 대해서 움직인 거리 및 방향 중 적어도 하나에 기초하여, 상기 제2 위치에 대한 정보를 결정하는 단계를 포함하는 것을 특징으로 하는, 의료 영상 표시 방법.
  19. 제12 항에 있어서,
    상기 대상체에 대해서 이전에 수행되었던 바이옵시와 관련하여, 기준점 및 이 전의 조직 획득 지점에 대한 정보를 포함하는 제3 의료 영상 데이터를 저장하는 단계를 더 포함하고,
    상기 제2 의료 영상을 표시하는 단계는,
    저장된 상기 제3 의료 영상 데이터를 획득하는 단계;
    상기 제2 의료 영상 데이터의 기준점 및 상기 제3 의료 영상 데이터의 기준점을 매칭시킴으로써, 상기 제2 의료 영상 데이터와 상기 제3 의료 영상 데이터를 정합하는 단계;
    상기 제2 의료 영상 데이터로부터 상기 조직 획득 지점이 표시된 제2 의료 영상을 생성하는 단계;
    상기 제3 의료 영상 데이터로부터 상기 이 전의 조직 획득 지점이 표시된, 상기 제2 의료 영상에 대응하는 상기 대상체의 단면에 대한 제3 의료 영상을 생성하는 단계; 및
    상기 제2 의료 영상 및 상기 제3 의료 영상을 표시하는 단계를 포함하는 것을 특징으로 하는, 의료 영상 표시 방법.
  20. 제14 항에 있어서,
    상기 제1 위치를 원점으로 포함하는 좌표계 내에서 상기 제2 위치에 대응하는 좌표 정보를 상기 제2 위치에 대한 정보로서 저장하는 단계를 더 포함하는, 의료 영상 표시 방법.
  21. 프로브에 의해 대상체로부터 획득된 제1 의료 영상 데이터로부터 생성된 의료 영상을 표시하는 의료 영상 표시 방법을 수행하도록 하는 명령어들이 기록된 컴퓨터로 읽을 수 있는 기록 매체에 있어서,
    상기 의료 영상 표시 방법은,
    상기 프로브 및 바늘 중 적어도 하나에 부착된 센서로부터 수신된 신호에 기초하여 상기 바늘에 의해 상기 대상체로부터 조직(tissues)이 획득되는 위치에 대한 정보를 획득하는 단계;
    상기 획득된 정보에 기초하여 상기 제1 의료 영상 데이터 내에서 조직 획득 지점을 결정하는 단계; 및
    상기 제1 의료 영상 데이터로부터 생성된, 상기 조직 획득 지점이 표시된 제1 의료 영상을 표시하는 단계를 포함하는, 기록 매체.
KR1020160168002A 2016-12-09 2016-12-09 의료 영상을 표시하는 방법 및 장치 KR20180066781A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020160168002A KR20180066781A (ko) 2016-12-09 2016-12-09 의료 영상을 표시하는 방법 및 장치
EP17204611.2A EP3332713B1 (en) 2016-12-09 2017-11-30 Medical image display apparatus and method therefor
CN201711293338.0A CN108231180B (zh) 2016-12-09 2017-12-08 医学图像显示设备及其方法
US15/836,076 US10695032B2 (en) 2016-12-09 2017-12-08 Medical image display apparatus and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160168002A KR20180066781A (ko) 2016-12-09 2016-12-09 의료 영상을 표시하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20180066781A true KR20180066781A (ko) 2018-06-19

Family

ID=60515269

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160168002A KR20180066781A (ko) 2016-12-09 2016-12-09 의료 영상을 표시하는 방법 및 장치

Country Status (4)

Country Link
US (1) US10695032B2 (ko)
EP (1) EP3332713B1 (ko)
KR (1) KR20180066781A (ko)
CN (1) CN108231180B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110537961A (zh) * 2019-08-01 2019-12-06 中国人民解放军总医院 一种ct和超声影像融合的微创介入引导系统及方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8388541B2 (en) 2007-11-26 2013-03-05 C. R. Bard, Inc. Integrated system for intravascular placement of a catheter
JP6886260B2 (ja) * 2016-09-07 2021-06-16 キヤノン株式会社 画像処理装置、その制御方法、およびプログラム
DE102018209885B3 (de) 2018-06-19 2019-07-04 Siemens Healthcare Gmbh Repositionieren einer Interventionseinheit auf der Haut eines Patienten
US10898151B2 (en) * 2018-10-31 2021-01-26 Medtronic Inc. Real-time rendering and referencing for medical procedures
CN112998857A (zh) * 2019-12-19 2021-06-22 巴德阿克塞斯系统股份有限公司 使用磁针跟踪的针无菌性破坏警告
CN113180608A (zh) * 2021-05-08 2021-07-30 上海科技大学 基于电磁场空间定位的光声成像系统
CN114366186B (zh) * 2022-01-17 2022-09-02 中国中医科学院广安门医院 一种肛瘘手术中的挂线打洞辅助系统和方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005058584A (ja) * 2003-08-19 2005-03-10 Toshiba Corp 超音波診断装置
JP2010269067A (ja) * 2009-05-25 2010-12-02 Hitachi Medical Corp 治療支援装置
JP2011524772A (ja) * 2008-06-20 2011-09-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 生検実施のための方法及びシステム
JP2015204988A (ja) * 2014-04-18 2015-11-19 国立大学法人愛媛大学 体内での針先端を画像上に表示する針先端画像表示装置、それを用いたがん治療装置および体内での針先端を画像上に表示する針先端画像表示方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2686258B1 (fr) * 1992-01-21 1994-09-16 Edap Int Procede de visee d'une cible anatomique en vue de son traitement par ondes elastiques focalisees et appareil faisant application de ce procede au traitement de la prostate par hyperthermie.
US7922674B2 (en) 2005-05-06 2011-04-12 Artann Laboratories Inc Method and device for real time mechanical imaging of prostate
FR2920961B1 (fr) 2007-09-18 2017-06-02 Koelis Systeme et procede d'imagerie et de localisation de ponctions sous echographie prostatique
US20160066887A1 (en) 2009-01-28 2016-03-10 Samsung Medison Co., Ltd. Image indicator provision in ultrasound system
KR101182880B1 (ko) 2009-01-28 2012-09-13 삼성메디슨 주식회사 영상 지시자를 제공하는 초음파 시스템 및 방법
JP5438985B2 (ja) * 2009-02-10 2014-03-12 株式会社東芝 超音波診断装置及び超音波診断装置の制御プログラム
US9895135B2 (en) * 2009-05-20 2018-02-20 Analogic Canada Corporation Freehand ultrasound imaging systems and methods providing position quality feedback
WO2010136922A1 (en) * 2009-05-28 2010-12-02 Koninklijke Philips Electronics N.V. Re-calibration of pre-recorded images during interventions using a needle device
JP5513790B2 (ja) 2009-07-06 2014-06-04 株式会社東芝 超音波診断装置
US8526691B2 (en) * 2010-06-09 2013-09-03 Siemens Aktiengesellschaft System and method for passive medical device navigation under real-time MRI guidance
US8945140B2 (en) * 2010-06-18 2015-02-03 Vantage Surgical Systems, Inc. Surgical procedures using instrument to boundary spacing information extracted from real-time diagnostic scan data
US9226729B2 (en) * 2010-09-28 2016-01-05 Fujifilm Corporation Ultrasound diagnostic system, ultrasound image generation apparatus, and ultrasound image generation method
EP2638859A4 (en) 2010-11-12 2015-08-26 Konica Minolta Inc ULTRASONIC DIAGNOSTIC APPARATUS AND ULTRASONIC DIAGNOSTIC SYSTEM
JP5501290B2 (ja) * 2011-05-23 2014-05-21 富士フイルム株式会社 画像処理装置、放射線画像撮影システム、及び画像処理プログラム
KR20130063790A (ko) 2011-12-07 2013-06-17 한국과학기술원 초음파 프로브의 위치 및 방향 추정 시스템 및 방법
CN103889333B (zh) * 2012-06-20 2016-03-02 株式会社东芝 图像诊断装置及其控制方法
ES2874099T3 (es) * 2012-11-19 2021-11-04 Lightlab Imaging Inc Sistemas multimodales de formación de imágenes
KR20150059059A (ko) * 2013-11-21 2015-05-29 삼성메디슨 주식회사 초음파 영상 표시 방법 및 장치
US10307079B2 (en) * 2014-01-27 2019-06-04 Edda Technology, Inc. Method and system for surgical instrument guidance and tracking with position and orientation correction
JP2017511728A (ja) * 2014-03-11 2017-04-27 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 同時x平面撮像を用いた画像レジストレーション及び誘導
KR20160012590A (ko) 2014-07-24 2016-02-03 삼성메디슨 주식회사 초음파 영상 장치 및 그 제어방법
JP6629031B2 (ja) * 2015-10-05 2020-01-15 キヤノンメディカルシステムズ株式会社 超音波診断装置及び医用画像診断装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005058584A (ja) * 2003-08-19 2005-03-10 Toshiba Corp 超音波診断装置
JP2011524772A (ja) * 2008-06-20 2011-09-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 生検実施のための方法及びシステム
JP2010269067A (ja) * 2009-05-25 2010-12-02 Hitachi Medical Corp 治療支援装置
JP2015204988A (ja) * 2014-04-18 2015-11-19 国立大学法人愛媛大学 体内での針先端を画像上に表示する針先端画像表示装置、それを用いたがん治療装置および体内での針先端を画像上に表示する針先端画像表示方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110537961A (zh) * 2019-08-01 2019-12-06 中国人民解放军总医院 一种ct和超声影像融合的微创介入引导系统及方法
CN110537961B (zh) * 2019-08-01 2021-09-28 中国人民解放军总医院 一种ct和超声影像融合的微创介入引导系统及方法

Also Published As

Publication number Publication date
EP3332713A1 (en) 2018-06-13
CN108231180B (zh) 2022-04-29
EP3332713B1 (en) 2021-06-23
US10695032B2 (en) 2020-06-30
CN108231180A (zh) 2018-06-29
US20180161012A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
CN108231180B (zh) 医学图像显示设备及其方法
US11116582B2 (en) Apparatus for determining a motion relation
CN111315301B (zh) 用于将超声乳房图像与其他成像模态的乳房图像相关的超声系统和方法
RU2510699C2 (ru) Способ и система для выполнения биопсии
EP3013244B1 (en) System and method for mapping ultrasound shear wave elastography measurements
CN106535774A (zh) 在针对介入流程的3d成像工作流中的智能实时工具和解剖结构可视化
US10026191B2 (en) Multi-imaging modality navigation system
KR102475822B1 (ko) 초음파 진단 장치 및 초음파 진단 장치의 동작 방법
US20230103969A1 (en) Systems and methods for correlating regions of interest in multiple imaging modalities
EP3019088B1 (en) Imaging apparatus for biopsy or brachytherapy
US9892557B2 (en) Integrated system for focused treatment and methods thereof
US20230062672A1 (en) Ultrasonic diagnostic apparatus and method for operating same
US20160210511A1 (en) Imaging based instrument event tracking
KR20170086311A (ko) 의료 영상 장치 및 그 동작방법
KR20140066584A (ko) 니들의 가이드 라인을 제공하는 초음파 시스템
US9538983B2 (en) Device for guiding a medical imaging probe and method for guiding such a probe
US20230098305A1 (en) Systems and methods to produce tissue imaging biomarkers
KR101931747B1 (ko) 생체 검사 장치 및 동작 방법
US10076311B2 (en) Method and apparatus for registering medical images
US11766236B2 (en) Method and apparatus for displaying ultrasound image providing orientation of fetus and computer program product
KR20210093049A (ko) 초음파 진단 장치 및 그 동작방법
WO2021161515A1 (ja) 長尺状医療用デバイスの位置検出システムおよび方法
KR20200072312A (ko) 초음파 영상 장치, 그 제어 방법, 및 컴퓨터 프로그램 제품

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
N231 Notification of change of applicant
E601 Decision to refuse application
E801 Decision on dismissal of amendment