KR102307356B1 - 컴퓨터 보조 진단 장치 및 방법 - Google Patents

컴퓨터 보조 진단 장치 및 방법 Download PDF

Info

Publication number
KR102307356B1
KR102307356B1 KR1020140178732A KR20140178732A KR102307356B1 KR 102307356 B1 KR102307356 B1 KR 102307356B1 KR 1020140178732 A KR1020140178732 A KR 1020140178732A KR 20140178732 A KR20140178732 A KR 20140178732A KR 102307356 B1 KR102307356 B1 KR 102307356B1
Authority
KR
South Korea
Prior art keywords
information
probe
screen
interest
region
Prior art date
Application number
KR1020140178732A
Other languages
English (en)
Other versions
KR20160071241A (ko
Inventor
김원식
김하영
감혜진
강효아
전주혁
채승철
유승우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140178732A priority Critical patent/KR102307356B1/ko
Priority to EP15199299.7A priority patent/EP3032445B1/en
Priority to US14/966,118 priority patent/US9928600B2/en
Priority to CN201510920500.1A priority patent/CN105701331B/zh
Publication of KR20160071241A publication Critical patent/KR20160071241A/ko
Priority to US15/935,523 priority patent/US11100645B2/en
Application granted granted Critical
Publication of KR102307356B1 publication Critical patent/KR102307356B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5292Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Abstract

컴퓨터 보조 진단 장치에 관한 것이다. 일 실시예에 따르면 컴퓨터 보조 진단 장치는 프로브로부터 수신된 영상을 이용하여 자동 진단 과정을 수행하여 진단 정보를 생성하는 자동 진단부와 그 진단 정보 중에서, 사용자의 수동 진단 과정에 대응하여 화면에 출력할 진단 정보를 결정하는 화면 정보 결정부 및 결정된 진단 정보를 화면에 출력하는 화면 표시부를 포함할 수 있다.

Description

컴퓨터 보조 진단 장치 및 방법{APPARATUS AND METHOD FOR COMPUTER AIDED DIAGNOSIS}
컴퓨터 보조 진단 장치 및 방법에 관한 것이다.
컴퓨터에 의한 보조 진단(Computer Aided Diagnosis, CAD) 시스템은 다양한 의료 기기에 활용되어 의사의 진단을 돕고 있다. 예를 들어, 가슴 종양 진단을 위해 초음파 기기가 널리 사용되고 있다. 현재 대부분의 CAD 시스템은 의사에 의해 우선 저장된 이미지를 사후에 읽어 들여 병변의 위치나 악성/양성 여부를 판단하는 용도로 활용되고 있다.
한편, 더욱 효율적인 진단을 위해서, 실시간으로 촬영되는 동영상으로부터 실시간으로 병변의 위치 등을 파악하는 실시간 CAD 시스템의 필요성이 대두되고 있다. 실시간 CAD 시스템에서는 매 프레임마다 컴퓨터 진단을 실시하고 다양한 정보를 화면에 표시하여 의사에게 필요한 정보를 제시한다. 하지만 실시간으로 의사의 진단을 돕는 CAD 시스템에서 실시간으로 모든 정보를 의사에게 제시하는 것은 의사의 진단을 방해할 수 있다.
프로브를 통해 사용자가 수행하는 진단 과정을 고려하여 적절하게 진단 정보를 화면에 출력하는 컴퓨터 보조 진단 장치 및 방법이 제시된다.
일 양상에 따르면, 컴퓨터 보조 진단 장치는 프로브로부터 수신된 영상을 이용하여 자동 진단 과정을 수행하고, 자동 진단 과정의 수행 결과를 포함하는 진단 정보를 생성하는 자동 진단부, 그 생성된 진단 정보 중에서, 사용자의 수동 진단 과정에 대응하여 화면에 출력할 진단 정보를 결정하는 화면 정보 결정부 및 수신된 영상 및 결정된 진단 정보를 화면에 출력하는 화면 표시부를 포함할 수 있다.
이때, 사용자의 수동 진단 과정은 관심영역 검출 과정 및 관심영역 관찰 과정을 포함할 수 있다.
화면 정보 결정부는 사용자가 관심영역 검출 과정을 수행중이면 진단 정보 중의 관심영역 검출 정보를 화면에 출력할 진단 정보로 결정하고, 관심영역 관찰 과정을 수행중이면 진단 정보 중의 관심영역 관찰 정보를 화면에 출력할 진단 정보로 결정할 수 있다.
화면 표시부는 관심영역 검출 정보가 화면에 출력될 진단 정보로 결정되면, 관심영역 검출 정보 중의 관심영역의 위치 정보를 기초로 화면상의 영상에 관심영역을 나타내는 시각적인 식별 표시를 출력할 수 있다.
화면 표시부는 관심영역 관찰 정보가 화면에 출력될 진단 정보로 결정되면, 관심영역 관찰 과정이 지속되는 동안에 출력될 관심영역 관찰 정보의 종류 및 출력 순서 정보를 기초로 관심영역 관찰 정보를 출력할 수 있다.
이때, 관심영역 관찰 정보의 종류 및 출력 순서 정보는 프로브의 속도 및 소정 단위 시간 중의 어느 하나 또는 둘의 조합에 기초하여 미리 설정될 수 있다.
이때, 관심영역 관찰 정보의 종류는 관심영역 크기, 특징 및 양성/악성 분류 결과를 포함하는 관심영역 판정 정보, 도플러 영상, 탄성 초음파 영상, 해부학상 챠트, 피검진자의 검진 이력 정보, 다른 기기로부터 획득된 피검진자의 동일 부위 영상 및 피검진자의 유사 케이스 정보 중의 하나 이상을 포함할 수 있다.
추가적인 양상에 따르면, 컴퓨터 보조 진단 장치는 프로브로부터 영상이 수신되면, 프로브의 속도를 검출하고 검출된 프로브의 속도에 기초하여 사용자의 수동 진단 과정을 결정하는 프로브 속도 검출부를 더 포함할 수 있다.
프로브 속도 검출부는 프로브로부터 수신되는 영상 간의 변화에 기초하여 프로브의 속도를 검출할 수 있다.
이때, 영상 간의 변화는 영상 간의 픽셀별 영상 강도(image intensity)의 차이, 영상 간의 히스토그램의 차이, 영상 간의 히스토그램의 유사도, 영상 간의 상관 관계(correlation) 및 영상 간의 주요 정보의 변화도 중의 적어도 하나를 포함할 수 있다.
자동 진단부는 프로브로부터 영상이 수신되면, 프로브 속도 검출부의 프로브의 속도 검출 과정과 병렬로 자동 진단 과정을 수행할 수 있다.
자동 진단부는 프로브로부터 영상이 수신되면, 프로브 속도 검출부에 의해 결정된 사용자의 수동 진단 과정에 상응하는 자동 진단 과정을 수행할 수 있다.
추가적인 양상에 따르면, 컴퓨터 보조 진단 장치는 인터페이스 장치를 통해 사용자로부터 입력 신호를 수신하고, 수신된 입력 신호에 기초하여 사용자의 수동 진단 과정을 결정하는 입력 신호 수신부를 더 포함할 수 있다.
이때, 인터페이스 장치는 스위치, 조이스틱, 및 조그 셔틀 중의 하나 이상을 포함할 수 있다.
일 양상에 따르면, 컴퓨터 보조 진단 방법은 프로브로부터 수신된 영상을 이용하여 자동 진단 과정을 수행하는 단계, 자동 진단 과정의 수행 결과를 포함하는 진단 정보를 생성하는 단계, 생성된 진단 정보 중에서, 사용자의 수동 진단 과정에 대응하여 화면에 출력할 진단 정보를 결정하는 단계 및, 수신된 영상과 결정된 진단 정보를 화면에 출력하는 단계를 포함할 수 있다.
이때, 사용자의 수동 진단 과정은 관심영역 검출 과정 및 관심영역 관찰 과정을 포함할 수 있다.
진단 정보를 결정하는 단계는 사용자가 관심영역 검출 과정을 수행중이면 진단 정보 중의 관심영역 검출 정보를 화면에 출력할 진단 정보로 결정하는 단계 및 사용자가 관심영역 관찰 과정을 수행중이면 진단 정보 중의 관심영역 관찰 정보를 화면에 출력할 진단 정보로 결정하는 단계를 포함할 수 있다.
화면에 출력하는 단계는 관심영역 검출 정보가 화면에 출력될 진단 정보로 결정되면, 관심영역 검출 정보 중의 관심영역의 위치 정보를 기초로 화면상의 영상에 관심영역을 나타내는 시각적인 식별 표시를 출력할 수 있다.
화면에 출력하는 단계는 관심영역 관찰 정보가 화면에 출력될 진단 정보로 결정되면, 관심영역 관찰 과정이 지속되는 동안에 출력될 관심영역 관찰 정보의 종류 및 출력 순서 정보를 기초로 관심영역 관찰 정보를 출력할 수 있다.
이때, 관심영역 관찰 정보의 종류 및 출력 순서 정보는 프로브의 속도 및 소정 단위 시간 중의 어느 하나 또는 둘의 조합에 기초하여 미리 설정될 수 있다.
추가적인 양상에 따르면, 컴퓨터 보조 진단 방법은 프로브로부터 영상이 수신되면, 프로브의 속도를 검출하는 단계 및 검출된 프로브의 속도에 기초하여 사용자의 수동 진단 과정을 결정하는 단계를 더 포함할 수 있다.
프로브 속도를 검출하는 단계는 프로브로부터 수신되는 영상 간의 변화에 기초하여 프로브의 속도를 검출할 수 있다.
이때, 영상 간의 변화는 영상 간의 픽셀별 영상 강도(image intensity)의 차이, 영상 간의 히스토그램의 차이, 영상 간의 히스토그램의 유사도, 영상 간의 상관관계(correlation) 및 영상 간의 주요 정보의 변화도 중의 적어도 하나를 포함할 수 있다.
추가적인 양상에 따르면, 컴퓨터 보조 진단 방법은 인터페이스 장치를 통해 사용자로부터 입력 신호를 수신하는 단계 및 수신된 입력 신호에 기초하여 사용자의 수동 진단 과정을 결정하는 단계를 더 포함할 수 있다.
사용자의 실제 진단 과정을 고려하여 사용자가 필요한 정보를 시의적절하게 제시할 수 있다.
도 1은 일 실시예에 따른 컴퓨터 보조 진단 장치의 블록도이다.
도 2는 다른 실시예에 따른 컴퓨터 보조 진단 장치의 블록도이다.
도 3은 또 다른 실시예에 따른 컴퓨터 보조 진단 장치의 블록도이다.
도 4a 및 도 4b는 사용자의 수동 진단 과정에 따른 화면 출력의 예이다.
도 5a 및 도 5b는 도 4b의 수동 진단 과정에 따라 화면에 출력되는 진단 정보의 예이다.
도 6은 일 실시예에 따른 컴퓨터 보조 진단 방법의 흐름도이다.
도 7은 다른 실시예에 따른 컴퓨터 보조 진단 방법의 흐름도이다.
도 8은 또 다른 실시예에 따른 컴퓨터 보조 진단 방법의 흐름도이다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. 기재된 기술의 이점 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 컴퓨터 보조 진단 지원 장치 및 방법의 실시예들을 도면들을 참고하여 자세히 설명하도록 한다.
이하에서 설명되는 실시예들은 프로브를 통해 실시간으로 획득되는 초음파 영상을 분석하여 관심영역 검출 및 검출된 관심영역의 진단 결과를 제시하는 컴퓨터 보조 진단 장치에 적용될 수 있다. 다만, 이에 한정되는 것은 아니며, CT, MRI 등과 같이 그 밖의 다양한 기술로 획득되는 의료 영상을 입력받아 진단하는 컴퓨터 보조 진단 장치에 적용될 수 있음은 자명하다.
도 1은 일 실시예에 따른 컴퓨터 보조 진단 장치의 블록도이다.
도 1을 참조하면, 일 실시예에 따른 컴퓨터 보조 진단 장치(100)는 영상 수신부(110), 자동 진단부(120), 화면 정보 결정부(130) 및 화면 표시부(140)를 포함할 수 있다.
영상 수신부(110)는 프로브로부터 영상을 수신한다. 이때, 사용자는 프로브를 피검진자의 검진 영역(예: 복부, 가슴, 간, 유방 등)에 밀착하여 여기 저기로 이동시키면서 실시간으로 영상을 획득한다. 이와 같이, 프로브를 통해 획득된 실시간 영상은 프레임 단위로 영상 수신부(110)에 입력될 수 있다.
자동 진단부(120)는 영상 수신부(110)가 프로브로부터 영상을 수신하면, 수신된 영상을 이용하여 자동 진단 과정을 수행한다. 이때, 자동 진단 과정은 영상으로부터 관심영역을 검출하는 관심영역 검출 과정과, 검출된 관심영역을 판정하는 관심영역 판정 과정을 포함할 수 있다.
여기서, 관심영역 검출 과정은 수신된 영상에 미리 설정된 자동 검출 알고리즘을 적용하여 병변과 같은 관심항목이 존재하거나 의심되는 위치를 검출하고, 그 위치의 주변 영역을 관심영역으로 설정하는 진단 과정이다. 자동 검출 알고리즘은 아다부스트(AdaBoost), DPM(Deformable Part Models), DNN(Deep Neural Network), CNN(Convolutional Neural Network) 및 희소코딩(Sparse coding) 등을 포함할 수 있다.
또한, 관심영역 판정 과정은 검출된 관심항목의 크기를 측정하거나, 관심항목의 모양(Shape), 에코 패턴(Echo Pattern), 방향(Orientation), 경계(Boundary), 질감(Texture) 및 강도(Intensity) 등의 특징, BI-RADS(Breast Imaging Reporting And Data System) 또는 LI-RADS(Liver Imaging Reporting And Data System) 렉시콘 분류에 따른 병변 특성 등을 측정하고, 이와 같이 측정된 값들을 이용하여 병변이 악성인지 양성인지를 판정하는 진단 과정이다.
이때, 일 실시예에 따르면, 자동 진단부(120)는 프로브로부터 영상이 수신되면 자동 진단 과정을 사용자의 수동 진단 과정과 무관하게 병렬로 수행하여 진단 정보를 생성할 수 있다. 이때, 진단 정보는 각 자동 진단 과정을 수행한 결과, 예컨대, 관심항목의 위치, 크기, 특징, BI-RADS 특성, LI-RADS 특성 및 양성/악성 판정 결과를 포함할 수 있다. 또한, 진단 정보는 그 밖의 도플러 영상이나 탄성 초음파 영상, 해부학상 챠트, 피검진자의 검진 이력, 다른 기기로부터 획득된 피검진자의 동일 부위 영상 및 유사 케이스 정보 등을 더 포함할 수 있다.
또한, 다른 실시예에 따르면, 자동 진단부(120)는 프로브로부터 영상이 수신된 후 사용자의 수동 진단 과정에 기초하여 진단 과정을 수행할 수 있다. 이때, 사용자의 수동 진단 과정에 따라 자동 진단 과정의 계산 대상이나 정확도, 계산량 등은 다르게 설정될 수 있다.
예를 들어, 사용자가 관심영역을 검출하는 과정을 수행하는 경우 자동 진단부(120)는 그에 대응하여 자동으로 관심영역 검출 과정을 수행할 수 있다. 또한, 사용자가 검출된 관심영역을 관찰하는 과정을 수행하는 경우에 그에 대응하여 자동으로 관심영역 판정 과정을 수행할 수 있다. 이때, 사용자의 관심영역 관찰 과정은 세그멘테이션 과정, 특징 추출 과정, BI-RADS 특성 추출 및 클래스 분류 과정, 양성/악성 판정 과정 등과 같이 보다 세부적인 과정으로 구분될 수 있으며, 자동 진단부(120)는 관심영역 관찰 과정의 각 세부 과정에 대응하는 관심영역 판정 과정의 세부 과정들을 수행할 수 있다.
화면 정보 결정부(130)는 사용자가 현재 수행중인 수동 진단 과정에 따라 화면에 출력할 진단 정보를 결정한다. 이때, 화면 정보 결정부(130)는 사용자의 수동 진단 과정이 결정되면 아래의 표 1과 같이 미리 설정된 정보를 참조하여 수동 진단 과정에 해당하는 진단 정보를 화면에 출력할 정보로 결정할 수 있다.
아래의 표 1은 사용자의 수동 진단 과정별로 화면에 출력될 진단 정보의 종류, 각 진단 정보별 출력 여부, 출력 시간 및 출력 순서 등을 미리 설정한 일 예이다. 이때, 각 진단 정보별 출력 여부, 출력 시간 및 출력 순서는 진단 대상, 진단 목적, 사용자의 관심도, 미리 설정된 단위 시간, 프로브의 속도 및 사용자의 입력 신호 등에 따라 미리 설정될 수 있다.
수동 진단 과정 출력될 진단 정보 출력 여부 출력 시간 출력 순서
관심영역 검출 과정 관심영역 검출 정보 Y - -
관심영역 관찰 과정



관심영역 판정 정보 Y 5초 1
도플러 영상 N 2초 2
탄성 초음파 영상 N 2초 3
검진 이력 Y 3초 4
유사 케이스 Y 3초 5
표 1을 참조하면, 화면 정보 결정부(130)는 현재 사용자의 수동 진단 과정이 관심영역 검출 과정이면, 자동 진단부(120)에 의해 검출된 관심영역 검출 정보, 예컨대, 관심영역의 위치 정보를 화면에 출력할 진단 정보로 결정할 수 있다.
화면 정보 결정부(130)는 현재 사용자의 수동 진단 과정이 관심 영역 관찰 과정이면, 관심영역 판정 정보, 도플러 영상, 탄성 초음파 영상, 피검진자의 검진 이력 및 유사 케이스 정보 중에서, 그 출력 여부가 'Y'로 설정되어 있는 관심영역 판정 정보, 검진 이력 및 유사 케이스 정보를 화면에 출력할 정보로 결정할 수 있다.
이때, 화면 정보 결정부(130)는 설정된 출력 순서 및 출력 시간을 기초로 관심영역 관찰 과정이 지속되는 동안 차례대로 관심영역 판정 정보를 5초, 검진 이력 정보를 3초, 유사 케이스 정보를 3초 동안 출력할 진단 정보로 결정할 수 있다. 이때, 각 정보들이 차례대로 출력된 이후에도 사용자가 관심영역 관찰 과정을 수행하고 있는 경우에는 다시 반복하여 출력될 수 있다.
다만, 표 1은 하나의 예에 불과하므로 이에 한정되는 것은 아니며, 사용자는 관심영역 판정 정보를 세그멘테이션 정보, 관심영역 크기 정보, 특징 정보, BI-RADS 렉시콘 분류에 따른 특성 및 클래스 분류 결과, LI-RADS 렉시콘 분류에 따른 특성 및 클래스 분류 결과, 양성/악성 판정 결과 등으로 세분화하여 각각에 대하여 출력 여부, 출력 시간 및 출력 순서 등을 설정할 수도 있다. 또한, 각 진단 정보별로 개별적으로 출력 시간을 설정함이 없이 동일한 시간(예: 1초, 2초 등) 단위로 출력되도록 설정하는 것도 가능하다.
다른 실시예에 따르면 화면 정보 결정부(130)는 프로브의 속도에 기초하여 화면에 출력할 진단 정보를 결정하거나, 인터페이스 장치를 통해 사용자로부터 입력되는 입력 신호를 기초로 화면에 출력할 진단 정보를 결정할 수 있다. 이 실시예는 도 2 및 도 3을 참조하여 자세히 후술하기로 한다.
화면 표시부(140)는 사용자의 현재 수동 진단 과정에 대하여 화면 정보 결정부(130)가 결정한 진단 정보를 화면에 출력한다.
예를 들어, 사용자가 관심영역 검출 과정을 수행하여 화면 정보 결정부(130)가 관심영역의 검출 정보를 화면에 출력할 진단 정보로 결정하면, 화면 표시부(140)는 관심영역 검출 정보 중의 관심영역의 위치 정보를 이용하여 화면에 출력된 영상에 관심영역을 나타내는 시각적인 식별 표시를 출력할 수 있다. 이때, 시각적인 식별 표시는 바운딩 박스, 원, 타원, 십자 표시, 화살표 등이 될 수 있으며, 경계선의 종류나 굵기, 색상 등을 다르게 하여 사용자가 쉽게 관심영역을 파악할 수 있도록 출력될 수 있다.
또한, 화면 표시부(140)는 사용자가 관심영역 관찰 과정을 수행하면, 화면 정보 결정부(130)에 의해 결정된 진단 정보들을 화면에 출력한다.
이때, 화면 표시부(140)는 영상 수신부(110)에 의해 수신된 영상에 진단 정보들을 중첩하고, 각 진단 정보의 출력 순서에 기초하여 그 영상과 함께 슬라이드 형태로 차례대로 출력할 수 있다. 또는, 화면 표시부(140)는 사용자의 설정에 의해 화면을 수신된 영상을 출력하기 위한 제1 영역과 진단 정보를 출력하기 위한 제2 영역으로 구분하고, 수신된 현재 영상의 진단 결과(예: 관심영역 검출 및 판정 정보)를 영상에 중첩하여 제1 영역에 출력하고, 현재 영상의 진단 결과와 비교할 진단 정보(예: 검진 이력, 유사 케이스 정보 등)를 제2 영역에 현재 영상의 진단 결과와 동시 또는 이시에 출력할 수 있다.
도 2는 다른 실시예에 따른 컴퓨터 보조 진단 장치의 블록도이다.
도 2를 참조하면, 컴퓨터 보조 진단 장치(200)는 영상 수신부(210), 자동 진단부(220), 화면 정보 결정부(230), 화면 표시부(240) 및 프로브 속도 검출부(250)를 포함할 수 있다. 이때, 영상 수신부(210), 자동 진단부(220), 화면 정보 결정부(230) 및 화면 표시부(240)는 도 1의 컴퓨터 보조 진단 장치(100)의 대응되는 구성들(110,120,130,140)과 동일하므로, 이하에서는 프로브 속도 검출부(250)를 중심으로 설명한다.
프로브 속도 검출부(250)는 사용자가 피검진자로부터 영상을 획득하기 위해 프로브를 이동시키면 그 프로브의 속도를 검출한다.
이때, 일 실시예에 따르면 프로브 속도 검출부(250)는 영상 수신부(210)에 의해 수신된 영상의 변화 즉, 이전 프레임과 현재 프레임에서 광흐름(optical flow)을 계산하여 이용하거나 이전 프레임과 현재 프레임 간의 차 영상을 이용하여 프로브의 속도를 검출할 수 있다.
일 예로, 프로브 속도 검출부(250)는 이전 프레임과 현재 프레임의 픽셀별 영상 강도(image intensity)의 차이를 영상의 변화로서 활용하여 프로브의 속도를 검출할 수 있다. 즉, 프로브 속도 검출부(250)는 프로브에 의해 프레임 영상이 획득되면 전처리 과정을 수행하여 픽셀별로 영상 강도를 측정하고, 이를 이용하여 일정 시간 동안의 변위를 산출하고, 산출된 변위를 기초로 프로브의 속도를 검출할 수 있다.
다른 예로, 프로브 속도 검출부(250)는 이전 프레임과 현재 프레임의 히스토그램의 차이 또는 유사도에 기초하여 프로브의 속도를 검출할 수 있다. 이때, 프로브 속도 검출부(250)는 프레임의 전체 또는 프레임의 특정 영역으로부터 추출된 픽셀 값에 대한 빈도수 등을 이용하여 각 프레임으로부터 히스토그램을 생성하고, 생성된 히스토그램의 빈도수의 차이 혹은, 히스토그램 유사도가 일정 이상인 경우에 그 차이 또는 유사도를 기초로 프로브의 속도를 검출할 수 있다.
또 다른 예로, 프로브 속도 검출부(250)는 이전 프레임과 현재 프레임의 주요 정보의 변화도를 기초로 프로브의 속도를 검출할 수 있다. 여기서, 주요 정보는 두드러진 영역(salient region) 정보를 포함할 수 있다.
한편, 다른 실시예에 따르면 프로브에는 3축 가속도 센서 등의 속도를 측정하기 위한 센서가 탑재될 수 있으며, 프로브 속도 검출부(250)는 프로브에 탑재된 센서를 이용하여 프로브의 속도를 검출하는 것도 가능하다.
프로브 속도 검출부(250)는 프로브의 속도가 검출되면, 그 프로브 속도를 기초로 사용자가 현재 수행중인 수동 진단 과정을 결정할 수 있다. 이때, 프로브 속도별로 미리 설정된 사용자의 수동 진단 과정 정보를 참조하여 사용자의 수동 진단 과정을 결정할 수 있다.
일 실시예에 따르면, 프로브 속도 검출부(250)는 아래의 표 2를 참고로 검출된 프로브의 속도를 미리 설정된 임계치와 비교하여 저속 및 고속 중의 어느 하나로 결정하고, 그 프로브 속도에 따른 사용자의 수동 진단 과정을 관심영역 관찰 과정 및 관심영역 검출 과정 중의 어느 하나로 결정할 수 있다.
프로브의 속도 속도 임계치(단위, cm/sec) 사용자의 수동 진단 과정
저속 3 미만 관심영역 관찰 과정
고속 3 이상 관심영역 검출 과정
다른 실시예에 따르면, 프로브 속도 검출부(250)는 아래의 표 3을 참고로 검출된 프로브의 속도를 정지, 저속 및 고속 중의 어느 하나로 결정하고, 결정된 프로브의 속도에 따라 사용자의 수동 진단 과정을 비교 정보 확인 과정, 판정 정보 확인 과정 및 관심영역 검출 과정 중의 어느 하나로 결정할 수 있다. 이때, 비교 정보 확인 과정은 현재 영상의 진단 결과와 비교하여 관찰하기 위한 피검진자의 검진 이력이나 유사 케이스 등의 진단 정보를 확인하는 과정이고, 판정 정보 확인 과정은 현재 영상에 대한 판정 결과로서 세그멘테이션 정보, 관심영역 크기, 특징 정보, 양성/악성 판정 정보 등을 확인하는 과정을 의미한다.
프로브의 속도 속도 임계치(단위, cm/sec) 사용자의 수동 진단 과정
정지 0.5 미만 비교 정보 확인 과정
저속 0.5 이상 3 미만 판정 정보 확인 과정
고속 3 이상 관심영역 검출 과정
또 다른 실시예에 따르면, 프로브의 속도는 제1 단계, 제2 단계, …, 제N 단계와 같이 더욱 세분화될 수 있다. 이때, 제1 단계는 관심영역 검출 과정으로 매칭되고, 나머지의 각 단계는 관심영역 관찰 과정을 세그멘테이션 확인 과정, 특징 정보 확인 과정, 판정 결과 확인 과정, 도플러 영상 확인 과정, 탄성 초음파 영상 확인 과정, 검진 이력 확인 과정 및 유사 케이스 확인 과정 등으로 세분화하여 매칭될 수 있다.
자동 진단부(220)는 영상 수신부(210)가 프로브로부터 영상을 수신하면, 수신된 영상을 이용하여 자동 진단 과정을 수행한다. 이때, 전술한 바와 같이 프로브 속도 검출부(250)가 프로브 속도 및 사용자의 수동 진단 과정을 결정하는 것과는 무관하게 병렬로 자동 진단 과정을 수행할 수 있으며, 또한, 프로브 속도 검출부(250)가 결정한 사용자의 수동 진단 과정에 기초하여 대응하는 자동 진단 과정을 수행할 수도 있다.
화면 정보 결정부(230)는 프로브의 속도에 따라 사용자가 현재 수행중인 수동 진단 과정이 결정되면, 결정된 수동 진단 과정에 대응하는 진단 정보를 화면에 출력할 진단 정보로 결정할 수 있다. 이때, 화면 정보 결정부(230)는 표 1과 같이 미리 설정된 정보를 참조하여 사용자의 수동 진단 과정에 대응되는 진단 정보를 결정할 수 있다. 전술한 바와 같이, 사용자가 프로브를 장시간 저속으로 이동시키거나 정지시켜 관심영역 관찰 과정을 오랫동안 수행하는 경우에는 화면 정보 결정부(230)는 관심영역 관찰 정보에 포함된 각 진단 정보의 출력 순서 및 출력 시간을 기초로 각 진단 정보가 슬라이드 형태로 차례대로 출력되도록 결정할 수 있다.
화면 표시부(240)는 사용자가 현재 수행중인 수동 진단 과정에 대응하여 화면 정보 결정부(230)에 의해 결정된 진단 정보를 화면에 출력한다.
이에 따라, 사용자는 프로브를 고속으로 이동시킴으로써 관심영역 검출 정보만을 화면에 표시되도록 하여 자동으로 검출된 관심영역이 사용자가 진단하고자 하는 관심영역인지 판단할 수 있다. 또한, 검출된 관심영역이 자신이 진단하고자 하는 관심영역이면 프로브의 속도를 저속으로 이동시킴으로써 관심영역 관찰 정보를 화면에 출력되도록 하고, 이때, 관심영역 관찰 정보의 각 진단 정보를 슬라이드 형태로 차례대로 출력되도록 하여 자세하게 관심영역을 관찰할 수 있다.
도 3은 또 다른 실시예에 따른 컴퓨터 보조 진단 장치의 블록도이다.
도 3을 참조하면, 컴퓨터 보조 진단 장치(300)는 영상 수신부(310), 자동 진단부(320), 화면 정보 결정부(330), 화면 표시부(340) 및 입력 신호 수신부(350)를 포함할 수 있다. 이때, 영상 수신부(310), 자동 진단부(320), 화면 정보 결정부(330) 및 화면 표시부(340)는 도 1의 컴퓨터 보조 진단 장치(100)의 대응되는 구성들(110,120,130,140)과 동일하므로 이하에서는 입력 신호 수신부(350)를 중심으로 설명한다.
입력 신호 수신부(350)는 인터페이스 장치로부터 사용자의 입력 신호를 수신하고, 수신된 입력 신호에 따라 사용자의 수동 진단 과정을 결정할 수 있다.
이때, 인터페이스 장치는 컴퓨터 보조 진단 장치(300)에 장착되거나 유무선으로 연결되는 외부 장치일 수 있으며, 프로브를 조작하지 않는 신체의 일부, 예컨대, 오른손 잡이인 경우 왼손/오른발(왼손잡이인 경우는 반대) 등을 통해 조작이 가능한 스위치나 조그 셔틀, 조이 스틱 등을 포함할 수 있다. 다만, 이에 한정되지 않고, 머리에 착용이 가능한 머리띠 형태나 얼굴에 착용 가능한 안경 형태, 팔목에 착용하는 팔찌, 발목에 착용하는 발찌, 손가락에 착용하는 반지 형태로 제작되는 다양한 장치를 포함할 수 있다.
예를 들어, 아래의 표 4는 사용자로부터 단위 시간 내에 입력되는 신호의 수에 따라 대응되는 사용자의 수동 진단 과정을 예시한 것으로서, 입력 신호 수신부(350)는 표 4를 참조하여 사용자가 현재 수행중인 진단 과정을 결정할 수 있다.
입력 신호의 수 수동 진단 과정
1회 관심영역 검출 과정
2회 관심영역 관찰 과정
표 4를 참조하면, 사용자가 인터페이스 장치를 통해 단위 시간(예: 1초) 내에 1회의 신호를 입력하면, 입력 신호 수신부(350)는 사용자가 관심영역 검출 과정을 수행하는 것으로 판단할 수 있다. 이때, 전술한 바와 같이 화면 정보 결정부(330)는 입력 신호 수신부(350)의 결정에 따라 자동 진단부(320)에 의해 검출된 관심영역 검출 정보를 화면에 출력할 진단 정보로 결정하고, 화면 표시부(340)는 관심영역 위치 정보를 이용하여 영상에 관심영역의 위치를 나타내는 식별 표시를 중첩하여 화면에 출력할 수 있다.
이후, 사용자가 인터페이스 장치를 이용하여 단위 시간 내에 2회의 신호를 입력하면, 입력 신호 수신부(350)는 사용자가 관심영역 관찰 과정을 수행하는 것으로 결정하고, 마찬가지로 화면 표시부(340)는 관심영역 관찰 정보를 화면에 출력한다.
이때, 일 예로 화면 정보 결정부(330)는 표 1을 참조하여 관심영역 관찰 과정이 수행되는 동안 화면에 출력할 진단 정보와 각 진단 정보의 출력 순서 및 출력 시간 등을 기초로 화면에 출력할 진단 정보를 변경하고, 화면 표시부(340)는 화면 정보 결정부(330)의 결정에 따라 해당하는 진단 정보를 차례대로 화면에 출력할 수 있다.
다른 예로, 사용자가 2회의 신호를 입력하여 관심영역 관찰 과정이 시작된 이후 1회의 신호를 입력할 때마다 관심영역 관찰 정보에 포함된 각 진단 정보를 차례대로 출력할 수 있다. 이때, 입력 신호 수신부(350)가 사용자로부터 3회의 신호를 입력하면 화면 표시부(340)는 화면에 현재 출력된 정보들을 제거하고, 영상 수신부(310)가 수신한 다음 영상을 출력할 수 있다.
다만, 입력 신호의 수에 기초한 사용자의 수동 진단 과정은 다양하게 변경될 수 있음은 자명한 사항이며, 또한, 인터페이스 장치의 종류에 따라 입력 신호의 길이, 강도 등을 기초로 하여 사용자의 수동 진단 과정이 미리 설정될 수도 있다.
도 4a 및 도 4b는 사용자의 수동 진단 과정에 따른 화면 출력의 예이다. 도 5a 및 도 5b는 도 4b의 수동 진단 과정에 따라 화면에 출력되는 진단 정보의 예이다.
컴퓨터 보조 진단 장치(100,200,300)는 사용자가 현재 수행중인 진단 과정을 관심영역 검출 과정으로 결정하면, 도 4a에 도시된 바와 같이 화면(10)에 프로브로부터 수신된 영상(40)과 그 영상(40)에 중첩하여 관심영역을 나타내는 식별 표시(41)을 출력한다. 이때, 시각적인 식별 표시(41)는 도시된 바와 같은 십자 표시에 한정되는 것은 아니며, 바운딩 박스, 타원, 원형, 화살표 등을 포함할 수 있다.
또한, 컴퓨터 보조 진단 장치(100,200,300)는 사용자가 현재 수행중인 진단 과정을 관심영역 관찰 과정으로 결정하면, 도 4b에 도시된 바와 같이 화면(10)에 프로브로부터 수신된 영상(40)과 그 영상(40)에 중첩하여 병변의 크기(42a), BI-RADS 클래스 분류 결과(42b), 세그멘테이션, 병변 특징 정보 등의 관심영역 판정 정보를 출력할 수 있다. 이때, 컴퓨터 보조 진단 장치(100,200,300)는 관심영역 판정 정보 전체를 동시에 출력할 수도 있으며, 전술한 바와 같이 미리 설정된 출력 순서 및 출력 시간에 기초하여 차례대로 슬라이딩 형태로 출력할 수도 있다.
도 5a 및 도 5b는 도 4b와 같이 컴퓨터 보조 진단 장치(100,200,300)가 관심영역 관찰 과정을 수행할 때, 화면에 출력될 수 있는 관심영역 관찰 정보의 예이다. 도 5a 및 도 5b를 참조하면, 컴퓨터 보조 진단 장치(100,200,300)는 사용자가 관심영역 관찰 과정을 수행하는 것으로 결정하면, 먼저, (a) 관심영역의 세그멘테이션 정보(51), (b) 병변 크기(52a), BI-RADS 클래스 분류 결과(52b) 등의 판정 정보, (c) 환자의 검진 이력 정보와 다른 기기로부터 획득된 동일 부위 영상(53) 및, (d) 환자와 유사한 케이스 정보(54)를 영상(50)에 차례대로 출력할 수 있다.
도 6은 일 실시예에 따른 컴퓨터 보조 진단 방법의 흐름도이다.
도 6은 도 1의 컴퓨터 보조 진단 장치(100)에 의해 수행되는 컴퓨터 보조 진단 방법의 일 실시예이다.
컴퓨터 보조 진단 장치(100)는 프로브로부터 영상을 수신한다(610). 이때, 영상은 프로브를 통해 실시간으로 획득되며, 프레임 단위로 컴퓨터 보조 진단 장치(100)에 입력될 수 있다.
그 다음, 프로브로부터 영상을 수신하면 수신된 영상을 이용하여 자동 진단 과정을 수행한다(620). 이때, 자동 진단 과정은 자동 검출 알고리즘을 영상에 적용하여 관심영역을 검출하는 관심영역 검출 과정과, 검출된 관심영역을 판정하는 관심영역 판정 과정을 포함할 수 있다.
그 다음, 사용자가 현재 수행중인 수동 진단 과정에 따라 화면에 출력할 진단 정보를 결정한다(630).
이때, 표 1에 예시한 바와 같이, 진단 대상, 진단 목적, 프로브의 속도, 인터페이스 장치로부터 입력되는 신호 등을 기초로 하여 사용자의 수동 진단 과정별로 화면에 출력될 진단 정보의 종류, 각 진단 정보별 출력 여부, 출력 시간 및 출력 순서 등이 미리 설정될 수 있다.
컴퓨터 보조 진단 장치(100)는 이와 같이 미리 설정된 정보를 참조하여 현재 사용자의 수동 진단 과정이 관심영역 검출 과정이면 관심영역 검출 정보를 화면에 출력할 진단 정보로 결정하고, 현재 사용자의 수동 진단 과정이 관심 영역 관찰 과정이면 관심영역 관찰 정보를 화면에 출력할 정보로 결정할 수 있다. 이때, 관심영역 관찰 과정이 수행되는 동안 미리 설정된 관심영역 관찰 정보의 출력 여부를 참고하여 관심영역 관찰 정보 중에서 출력할 하나 이상의 진단 정보를 결정할 수 있다.
그 다음, 사용자가 현재 수행중인 수동 진단 과정에 상응하여 수신된 영상 및 결정된 진단 정보를 화면에 출력한다(640).
예를 들어, 사용자가 관심영역 검출 과정을 수행하면, 관심영역의 위치 정보를 이용하여 화면에 출력된 영상에 관심영역을 나타내는 시각적인 식별 표시를 출력할 수 있다. 또한, 사용자가 관심영역 관찰 과정을 수행하면, 결정된 진단 정보들, 예컨대, 세그멘테이션, 관심영역 크기, 특징 정보, 양성/악성 판정 정보, BI-RADS 클래스 분류 결과 등을 영상에 중첩하여 슬라이드 형태로 화면에 출력할 수 있다. 이때, 사용자가 현재 영상의 진단 결과와 함께 쉽게 비교해 볼 수 있도록 소정의 진단 정보를 영상에 중첩하지 않고 화면상의 별도의 영역에 출력할 수 있다.
도 7은 다른 실시예에 따른 컴퓨터 보조 진단 방법의 흐름도이다.
도 7은 도 2의 컴퓨터 보조 진단 장치(200)에 의해 수행되는 컴퓨터 보조 진단 방법의 일 실시예이다.
컴퓨터 보조 진단 장치(200)는 프로브로부터 영상을 수신한다(710).
그 다음, 영상을 획득하기 위해 사용자가 조작하는 프로브의 속도를 검출한다(720). 이때, 수신된 영상의 변화 즉, 이전 프레임과 현재 프레임에서 광흐름을 계산하여 검출하거나, 이전 프레임과 현재 프레임 간의 차 영상을 이용하여 프로브의 속도를 검출할 수 있다.
예를 들어, 이전 프레임과 현재 프레임의 픽셀별 영상 강도의 합계의 차이를 영상의 변화로서 활용하여 프로브의 속도를 검출하거나, 이전 프레임과 현재 프레임의 히스토그램의 차이 또는 유사도에 기초하여 프로브의 속도를 검출할 수 있다. 또는 이전 프레임과 현재 프레임의 주요 정보의 변화도를 기초로 프로브의 속도를 검출할 수 있다. 또는, 프로브에 탑재된 속도 측정 센서를 이용하여 프로브의 속도를 검출하는 것도 가능하다.
그 다음, 프로브의 속도가 검출되면 그 프로브 속도를 기초로 사용자가 현재 수행중인 수동 진단 과정을 결정한다(730).
일 실시예에 따르면, 컴퓨터 보조 진단 장치(200)는 표 2와 같이 검출된 프로브의 속도를 저속 및 고속 중의 어느 하나로 결정하고, 결정된 프로브 속도에 따라 사용자의 수동 진단 과정을 관심영역 관찰 과정 및 관심영역 검출 과정 중의 어느 하나로 결정할 수 있다. 다른 실시예에 따르면, 컴퓨터 보조 진단 장치(200)는 표 3과 같이 검출된 프로브의 속도를 정지, 저속 및 고속 중의 어느 하나로 결정하고, 결정된 프로브의 속도에 따라 사용자의 수동 진단 과정을 비교 정보 확인 과정, 판정 정보 확인 과정 및 관심영역 검출 과정 중의 어느 하나로 결정할 수 있다. 다만, 프로브의 속도 및 사용자의 수동 진단 과정은 여기에 예시된 바에 제한되는 것은 아니며 다양하게 설정되는 것이 가능하다.
한편, 컴퓨터 보조 진단 장치(200)는 프로브로부터 영상이 수신되면, 수신된 영상을 이용하여 자동 진단 과정을 수행한다(740). 이때, 도 7에 도시된 바와 같이 프로브 속도 검출(720) 및 사용자의 수동 진단 과정을 결정하는 단계(730)와는 무관하게 병렬로 자동 진단 과정을 수행할 수 있다. 다른 실시예로서, 여기에 도시되지는 않았지만, 프로브의 속도 검출(720) 및 사용자의 수동 진단 과정 결정 단계(730)에서 결정된 사용자의 수동 진단 과정에 기초하여 대응하는 자동 진단 과정을 수행할 수도 있다.
그 다음, 자동 진단 과정의 수행 결과를 포함하는 진단 정보를 생성한다(750). 이때, 진단 정보는 현재 수신된 영상을 이용하여 진단한 결과로서, 관심영역 검출 정보 및 관심영역 판정 정보를 포함하며, 그 밖에도 도플러 영상, 탄성 초음파 영상, 피검진자의 검진 이력 및 유사 케이스 정보 등을 포함할 수 있다.
그 다음, 프로브의 속도에 따라 결정된 사용자의 수동 진단 과정에 대응하는 진단 정보를 화면에 출력할 진단 정보로 결정한다(760).
예를 들어, 사용자가 프로브를 고속으로 이동시켜 관심영역을 검출하는 과정을 수행하면, 자동 진단에 의해 검출된 관심영역 검출 정보를 화면에 출력할 정보로 결정하고, 사용자가 프로브를 저속으로 이동시켜 관심영역 관찰 과정을 수행하면, 관심영역 판정 정보 및 도플러 영상, 탄성 초음파 영상, 검진 이력 및 유사 케이스 정보 등을 화면에 출력할 정보로 결정할 수 있다. 이때, 사용자가 관심영역 관찰 과정을 오랫동안 수행하는 경우에는 각 진단 정보들을 미리 설정된 출력 순서 및 출력 시간에 기초하여 슬라이드 형태로 차례대로 출력되도록 하는 것도 가능하다.
그 다음, 사용자가 현재 수행중인 수동 진단 과정에 대응하여 수신된 영상 및 결정된 진단 정보를 화면에 출력한다(770). 이때, 결정된 진단 정보는 영상에 중첩하여 출력되거나, 영상이 출력되는 영역과는 다른 화면상의 영역에 출력될 수 있다.
도 8은 또 다른 실시예에 따른 컴퓨터 보조 진단 방법의 흐름도이다.
도 8은 도 3의 컴퓨터 보조 진단 장치(300)에 의해 수행되는 컴퓨터 보조 진단 방법의 일 실시예이다.
컴퓨터 보조 진단 장치(300)는 프로브로부터 영상을 수신한다(810).
그 다음, 프로브로부터 영상이 수신되면, 사용자가 인터페이스 장치를 이용하여 입력하는 신호를 수신한다(820).
이때, 인터페이스 장치는 컴퓨터 보조 진단 장치(300)에 장착되거나 유무선으로 연결되는 외부 장치로서, 스위치나 조그 셔틀, 조이 스틱 등을 포함할 수 있다. 다만, 이에 한정되지 아니하고 머리띠, 안경, 팔찌, 발찌, 반지 형태 등 다양한 형태로 제작되는 신호 발생 장치를 포함할 수 있다.
그 다음, 사용자로부터 입력되는 신호를 기초로 사용자가 현재 수행중인 수동 진단 과정을 결정한다(830). 이때, 표 4와 같이 입력 신호의 수에 따라 사용자의 수동 진단 과정이 미리 정의될 수 있다. 사용자는 수신된 영상이 화면에 출력되면 1회의 신호를 입력함으로써 컴퓨터 보조 진단 장치(300)에 관심영역 검출 과정을 수행하려는 의사를 전달할 수 있다. 또한, 단위 시간 내에 2회의 신호를 입력함으로써 관심영역에 대한 판정 결과 등을 확인하고자 하는 관심영역 관찰 과정을 수행하려는 의사를 컴퓨터 보조 진단 장치(300)에 전달할 수 있다.
다만, 이러한 예시들은 일 예에 지나지 않으며, 그 밖에 다양하게 설정될 수 있음은 자명한 사항이다.
한편, 컴퓨터 보조 진단 장치(300)는 프로브로부터 영상이 수신되면, 수신된 영상을 이용하여 자동 진단 과정을 수행한다(840). 이때, 도 8에 도시된 바와 같이 사용자 입력 신호 수신(820) 및 사용자의 수동 진단 과정을 결정하는 단계(830)와 무관하게 병렬로 자동 진단 과정을 수행할 수 있다. 또는, 사용자의 수동 진단 과정 결정 단계(830)에서 결정된 사용자의 수동 진단 과정에 기초하여 대응하는 자동 진단 과정을 수행할 수도 있다.
그 다음, 자동 진단 과정의 수행 결과를 포함하는 진단 정보를 생성한다(850). 이때, 진단 정보는 관심영역 검출 정보 및 관심영역 관찰 정보를 포함할 수 있으며, 관심영역 관찰 정보는 관심영역 판정 정보 및 도플러 영상, 탄성 초음파 영상, 피검진자의 검진 이력 및 유사 케이스 정보 등을 포함할 수 있다.
그 다음, 사용자의 수동 진단 과정에 대응하여 화면에 출력할 진단 정보를 결정한다(860).
그 다음, 사용자가 현재 수행중인 수동 진단 과정에 대응하여 수신된 영상 및 결정된 진단 정보를 화면에 출력한다(870).
한편, 본 실시 예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 개시된 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100,200,300: 컴퓨터 보조 진단 장치
110,210,310: 영상 수신부
120,220,320: 자동 진단부
130,230,330: 화면 정보 결정부
140,240,340: 화면 표시부
250: 프로브 속도 검출부
350: 입력 신호 수신부

Claims (24)

  1. 프로브로부터 수신된 영상을 이용하여 자동 진단 과정을 수행하고, 상기 자동 진단 과정의 수행 결과를 포함하는 진단 정보를 생성하는 자동 진단부;
    상기 프로브의 속도를 검출하고, 검출된 상기 프로브의 속도에 기초하여 사용자의 수동 진단 과정을 결정하는 프로브 속도 검출부;
    상기 진단 정보 중에서, 상기 결정된 사용자의 수동 진단 과정에 대응하여 화면에 출력할 진단 정보를 결정하는 화면 정보 결정부; 및
    상기 수신된 영상 및 상기 결정된 진단 정보를 화면에 출력하는 화면 표시부;
    를 포함하는 컴퓨터 보조 진단 장치.
  2. 제1항에 있어서,
    상기 사용자의 수동 진단 과정은 관심영역 검출 과정 및 관심영역 관찰 과정을 포함하는 컴퓨터 보조 진단 장치.
  3. 제2항에 있어서,
    상기 화면 정보 결정부는
    사용자가 상기 관심영역 검출 과정을 수행중이면 상기 진단 정보 중의 관심영역 검출 정보를 화면에 출력할 진단 정보로 결정하고, 상기 관심영역 관찰 과정을 수행중이면 상기 진단 정보 중의 관심영역 관찰 정보를 화면에 출력할 진단 정보로 결정하는 컴퓨터 보조 진단 장치.
  4. 제3항에 있어서,
    상기 화면 표시부는
    상기 관심영역 검출 정보가 화면에 출력될 진단 정보로 결정되면, 상기 관심영역 검출 정보 중의 관심영역의 위치 정보를 기초로 상기 화면상의 영상에 관심영역을 나타내는 시각적인 식별 표시를 출력하는 컴퓨터 보조 진단 장치.
  5. 제3항에 있어서,
    상기 화면 표시부는
    상기 관심영역 관찰 정보가 화면에 출력될 진단 정보로 결정되면, 상기 관심영역 관찰 과정이 지속되는 동안에 출력될 관심영역 관찰 정보의 종류 및 출력 순서 정보를 기초로 상기 관심영역 관찰 정보를 출력하는 컴퓨터 보조 진단 장치.
  6. 제5항에 있어서,
    상기 관심영역 관찰 정보의 종류 및 출력 순서 정보는 프로브의 속도, 인터페이스 장치로부터 수신되는 입력 신호 및 소정 단위 시간 중의 어느 하나 또는 둘 이상의 조합에 기초하여 미리 설정되는 컴퓨터 보조 진단 장치.
  7. 제5항에 있어서,
    상기 관심영역 관찰 정보의 종류는
    관심영역 크기, 특징 및 양성/악성 분류 결과를 포함하는 관심영역 판정 정보, 도플러 영상, 탄성 초음파 영상, 해부학상 챠트, 피검진자의 검진 이력 정보, 다른 기기로부터 획득된 피검진자의 동일 부위 영상 및 피검진자의 유사 케이스 정보 중의 하나 이상을 포함하는 컴퓨터 보조 진단 장치.
  8. 삭제
  9. 제1항에 있어서,
    상기 프로브 속도 검출부는
    프로브로부터 수신되는 영상 간의 변화에 기초하여 상기 프로브의 속도를 검출하는 컴퓨터 보조 진단 장치.
  10. 제9항에 있어서,
    상기 영상 간의 변화는
    영상 간의 픽셀별 영상 강도(image intensity)의 차이, 영상 간의 히스토그램의 차이, 영상 간의 히스토그램의 유사도, 영상 간의 상관관계(correlation) 및 영상 간의 주요 정보의 변화도 중의 적어도 하나를 포함하는 컴퓨터 보조 진단 장치.
  11. 제1항에 있어서,
    상기 자동 진단부는
    상기 프로브로부터 영상이 수신되면, 상기 프로브 속도 검출부의 프로브의 속도 검출 과정과 병렬로 상기 자동 진단 과정을 수행하는 컴퓨터 보조 진단 장치.
  12. 제1항에 있어서,
    상기 자동 진단부는
    상기 프로브로부터 영상이 수신되면, 상기 프로브 속도 검출부에 의해 결정된 사용자의 수동 진단 과정에 상응하는 자동 진단 과정을 수행하는 컴퓨터 보조 진단 장치.
  13. 제1항에 있어서,
    인터페이스 장치를 통해 사용자로부터 입력 신호를 수신하고, 수신된 입력 신호에 기초하여 상기 사용자의 수동 진단 과정을 결정하는 입력 신호 수신부를 더 포함하는 컴퓨터 보조 진단 장치.
  14. 제13항에 있어서,
    상기 인터페이스 장치는 스위치, 조이스틱, 및 조그 셔틀 중의 하나 이상을 포함하는 컴퓨터 보조 진단 장치.
  15. 프로브로부터 수신된 영상을 이용하여 자동 진단 과정을 수행하는 단계;
    상기 자동 진단 과정의 수행 결과를 포함하는 진단 정보를 생성하는 단계;
    상기 프로브의 속도를 검출하는 단계;
    상기 검출된 프로브의 속도에 기초하여 사용자의 수동 진단 과정을 결정하는 단계;
    상기 진단 정보 중에서, 상기 결정된 사용자의 수동 진단 과정에 대응하여 화면에 출력할 진단 정보를 결정하는 단계; 및
    상기 수신된 영상 및 상기 결정된 진단 정보를 화면에 출력하는 단계;
    를 포함하는 컴퓨터 보조 진단 방법.
  16. 제15항에 있어서,
    상기 사용자의 수동 진단 과정은 관심영역 검출 과정 및 관심영역 관찰 과정을 포함하는 컴퓨터 보조 진단 방법.
  17. 제16항에 있어서,
    상기 진단 정보를 결정하는 단계는
    사용자가 상기 관심영역 검출 과정을 수행중이면 상기 진단 정보 중의 관심영역 검출 정보를 화면에 출력할 진단 정보로 결정하는 단계; 및
    사용자가 상기 관심영역 관찰 과정을 수행중이면 상기 진단 정보 중의 관심영역 관찰 정보를 화면에 출력할 진단 정보로 결정하는 단계를 포함하는 컴퓨터 보조 진단 방법.
  18. 제17항에 있어서,
    상기 화면에 출력하는 단계는
    상기 관심영역 검출 정보가 화면에 출력될 진단 정보로 결정되면, 상기 관심영역 검출 정보 중의 관심영역의 위치 정보를 기초로 상기 화면상의 영상에 관심영역을 나타내는 시각적인 식별 표시를 출력하는 컴퓨터 보조 진단 방법.
  19. 제17항에 있어서,
    상기 화면에 출력하는 단계는
    상기 관심영역 관찰 정보가 화면에 출력될 진단 정보로 결정되면, 상기 관심영역 관찰 과정이 지속되는 동안에 출력될 관심영역 관찰 정보의 종류 및 출력 순서 정보를 기초로 상기 관심영역 관찰 정보를 출력하는 컴퓨터 보조 진단 방법.
  20. 제19항에 있어서,
    상기 관심영역 관찰 정보의 종류 및 출력 순서 정보는 프로브의 속도, 인터페이스 장치로부터 수신되는 입력 신호 및 소정 단위 시간 중의 어느 하나 또는 둘 이상의 조합에 기초하여 미리 설정되는 컴퓨터 보조 진단 방법.
  21. 삭제
  22. 제15항에 있어서,
    상기 프로브 속도를 검출하는 단계는
    프로브로부터 수신되는 영상 간의 변화에 기초하여 상기 프로브의 속도를 검출하는 컴퓨터 보조 진단 방법.
  23. 제22항에 있어서,
    상기 영상 간의 변화는
    영상 간의 픽셀별 영상 강도(image intensity)의 차이, 영상 간의 히스토그램의 차이, 영상 간의 히스토그램의 유사도, 영상 간의 상관관계(correlation) 및 영상 간의 주요 정보의 변화도 중의 적어도 하나를 포함하는 컴퓨터 보조 진단 방법.
  24. 제15항에 있어서,
    인터페이스 장치를 통해 사용자로부터 입력 신호를 수신하는 단계; 및
    상기 수신된 입력 신호에 기초하여 상기 사용자의 수동 진단 과정을 결정하는 단계를 더 포함하는 컴퓨터 보조 진단 방법.
KR1020140178732A 2014-12-11 2014-12-11 컴퓨터 보조 진단 장치 및 방법 KR102307356B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020140178732A KR102307356B1 (ko) 2014-12-11 2014-12-11 컴퓨터 보조 진단 장치 및 방법
EP15199299.7A EP3032445B1 (en) 2014-12-11 2015-12-10 Computer-aided diagnosis apparatus and computer-aided diagnosis method
US14/966,118 US9928600B2 (en) 2014-12-11 2015-12-11 Computer-aided diagnosis apparatus and computer-aided diagnosis method
CN201510920500.1A CN105701331B (zh) 2014-12-11 2015-12-11 计算机辅助诊断设备和计算机辅助诊断方法
US15/935,523 US11100645B2 (en) 2014-12-11 2018-03-26 Computer-aided diagnosis apparatus and computer-aided diagnosis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140178732A KR102307356B1 (ko) 2014-12-11 2014-12-11 컴퓨터 보조 진단 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20160071241A KR20160071241A (ko) 2016-06-21
KR102307356B1 true KR102307356B1 (ko) 2021-09-30

Family

ID=55027255

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140178732A KR102307356B1 (ko) 2014-12-11 2014-12-11 컴퓨터 보조 진단 장치 및 방법

Country Status (4)

Country Link
US (2) US9928600B2 (ko)
EP (1) EP3032445B1 (ko)
KR (1) KR102307356B1 (ko)
CN (1) CN105701331B (ko)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150120774A (ko) * 2014-04-18 2015-10-28 삼성전자주식회사 관심영역 검출 시스템 및 방법
KR20160107528A (ko) * 2015-03-04 2016-09-19 삼성전자주식회사 컴퓨터 보조 진단을 위한 신뢰도 제공 장치 및 방법
EP3304425A1 (en) * 2015-06-04 2018-04-11 Siemens Healthcare GmbH Medical pattern classification using non-linear and nonnegative sparse representations
US9965863B2 (en) 2016-08-26 2018-05-08 Elekta, Inc. System and methods for image segmentation using convolutional neural network
US9947102B2 (en) 2016-08-26 2018-04-17 Elekta, Inc. Image segmentation using neural network method
JP6708529B2 (ja) * 2016-10-07 2020-06-10 キヤノン株式会社 制御装置、制御方法、制御システム及びプログラム。
US11158411B2 (en) * 2017-02-18 2021-10-26 3M Innovative Properties Company Computer-automated scribe tools
TWI683276B (zh) 2017-11-10 2020-01-21 太豪生醫股份有限公司 病灶偵測裝置及其方法
US11264135B2 (en) * 2017-11-10 2022-03-01 Siemens Medical Solutions Usa, Inc. Machine-aided workflow in ultrasound imaging
WO2019169242A1 (en) * 2018-03-02 2019-09-06 Mmodal Ip Llc Automated diagnostic support system for clinical documentation workflows
CN108665456B (zh) * 2018-05-15 2022-01-28 广州尚医网信息技术有限公司 基于人工智能的乳腺超声病灶区域实时标注的方法及系统
WO2019232742A1 (zh) * 2018-06-07 2019-12-12 深圳迈瑞生物医疗电子股份有限公司 基于超声影像设备的图像分析方法及超声影像设备
CN108938003B (zh) * 2018-06-22 2022-05-31 深圳华声医疗技术股份有限公司 超声诊断设备及其控制方法和计算机可读存储介质
CN112584740B (zh) * 2018-08-20 2024-04-05 富士胶片株式会社 医疗图像处理装置
AU2019326372A1 (en) 2018-08-20 2021-03-11 Butterfly Network, Inc. Methods and apparatuses for guiding collection of ultrasound data
CN111166371A (zh) * 2018-11-09 2020-05-19 宏碁股份有限公司 诊断辅助方法
CN109461154A (zh) * 2018-11-16 2019-03-12 京东方科技集团股份有限公司 一种舌象检测方法、装置、客户端、服务器及系统
JP7143504B2 (ja) * 2019-02-26 2022-09-28 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
JP2020178989A (ja) * 2019-04-26 2020-11-05 キヤノンメディカルシステムズ株式会社 超音波診断装置及び解析装置
KR102360615B1 (ko) * 2019-11-05 2022-02-09 주식회사 인피니트헬스케어 내시경 영상에 대한 복수의 의료 영상 판독 알고리듬들을 이용하는 의료 영상 판독 지원 장치 및 방법
US11710229B2 (en) * 2020-03-23 2023-07-25 GE Precision Healthcare LLC Methods and systems for shear wave elastography
CN112164437A (zh) * 2020-09-28 2021-01-01 周敬洋 一种基于人工智能的li-rads诊断报告生成方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105729A (ja) 2002-09-13 2004-04-08 Ge Medical Systems Global Technology Co Llc コンピュータ支援による断層撮影マンモグラフィデータの分析
US20040086158A1 (en) 2002-10-31 2004-05-06 Isaac Leichter Display for computer-aided diagnosis of mammograms
US20050102315A1 (en) 2003-08-13 2005-05-12 Arun Krishnan CAD (computer-aided decision ) support systems and methods
US20060274928A1 (en) 2005-06-02 2006-12-07 Jeffrey Collins System and method of computer-aided detection
US20110079083A1 (en) 2008-06-05 2011-04-07 Koninklijke Philips Electronics N.V. Extended field of view ultrasonic imaging with guided efov scanning
US20120116219A1 (en) 2010-11-10 2012-05-10 Miller Nathan D System and method of ultrasound image processing

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5910114A (en) * 1998-09-30 1999-06-08 Siemens Medical Systems, Inc. System and method for correcting the geometry of ultrasonic images acquired with a moving transducer
US7386153B2 (en) * 2001-11-23 2008-06-10 Infinitt Co., Ltd. Medical image segmentation apparatus and method thereof
US8031917B2 (en) * 2005-03-23 2011-10-04 Siemens Medical Solutions Usa, Inc. System and method for smart display of CAD markers
KR100815977B1 (ko) * 2005-04-20 2008-03-24 주식회사 메디슨 연속되는 영상으로부터 움직임을 추정하는 방법 및 시스템
US20070083099A1 (en) * 2005-09-29 2007-04-12 Henderson Stephen W Path related three dimensional medical imaging
JP5737823B2 (ja) * 2007-09-03 2015-06-17 株式会社日立メディコ 超音波診断装置
US8272794B2 (en) * 2009-04-29 2012-09-25 Ed Silchenstedt Material marking system and method incorporating an HMI device
EP2476376A4 (en) * 2009-09-10 2016-03-30 Hitachi Medical Corp ULTRASONIC DIAGNOSTIC DEVICE AND ELASTICITY IMAGE DISPLAY METHOD
US9183355B2 (en) * 2009-11-24 2015-11-10 Penrad Technologies, Inc. Mammography information system
WO2011065950A1 (en) 2009-11-27 2011-06-03 Qview Medical, Inc. Interactive display of computer aided detection radiological screening results combined with quantitative prompts
US20120172726A1 (en) * 2009-12-04 2012-07-05 Panasonic Corporation Ultrasonic diagnostic device
WO2013080373A1 (ja) * 2011-12-02 2013-06-06 株式会社 東芝 医用画像観察装置
KR102043133B1 (ko) * 2012-11-16 2019-11-12 삼성전자주식회사 컴퓨터 보조 진단 지원 장치 및 방법
KR20140093359A (ko) * 2013-01-15 2014-07-28 삼성전자주식회사 사용자 인터랙션 기반의 영상 세그멘테이션 장치 및 방법
KR102146851B1 (ko) 2013-02-08 2020-08-21 삼성전자주식회사 효율적인 진단 정보 제공을 통한 진단 지원 장치 및 방법과, 진단 시스템
JP5927591B2 (ja) * 2013-08-07 2016-06-01 パナソニックIpマネジメント株式会社 症例表示装置、症例表示方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105729A (ja) 2002-09-13 2004-04-08 Ge Medical Systems Global Technology Co Llc コンピュータ支援による断層撮影マンモグラフィデータの分析
US20040086158A1 (en) 2002-10-31 2004-05-06 Isaac Leichter Display for computer-aided diagnosis of mammograms
US20050102315A1 (en) 2003-08-13 2005-05-12 Arun Krishnan CAD (computer-aided decision ) support systems and methods
US20060274928A1 (en) 2005-06-02 2006-12-07 Jeffrey Collins System and method of computer-aided detection
US20110079083A1 (en) 2008-06-05 2011-04-07 Koninklijke Philips Electronics N.V. Extended field of view ultrasonic imaging with guided efov scanning
US20120116219A1 (en) 2010-11-10 2012-05-10 Miller Nathan D System and method of ultrasound image processing

Also Published As

Publication number Publication date
US20160171708A1 (en) 2016-06-16
US9928600B2 (en) 2018-03-27
CN105701331B (zh) 2020-12-01
KR20160071241A (ko) 2016-06-21
EP3032445A3 (en) 2017-12-06
EP3032445B1 (en) 2019-03-06
EP3032445A2 (en) 2016-06-15
CN105701331A (zh) 2016-06-22
US11100645B2 (en) 2021-08-24
US20180211392A1 (en) 2018-07-26

Similar Documents

Publication Publication Date Title
KR102307356B1 (ko) 컴퓨터 보조 진단 장치 및 방법
US20200222027A1 (en) Device and method for automatic pneumothorax detection
US11191518B2 (en) Ultrasound system and method for detecting lung sliding
CN105636505B (zh) 用于获得对象的生命体征的设备和方法
CN109313934B (zh) 用于确定患者胸部按压深度的cpr辅助设备和方法
EP3174467B1 (en) Ultrasound imaging apparatus
US20150002538A1 (en) Ultrasound image display method and apparatus
KR20160032586A (ko) 관심영역 크기 전이 모델 기반의 컴퓨터 보조 진단 장치 및 방법
KR20140091177A (ko) 병변 진단 장치 및 방법
KR102202617B1 (ko) 의료 영상 기반 복부 질환 분석 방법 및 장치
KR20160016460A (ko) 관심영역의 시각화 장치 및 방법
JP7247280B2 (ja) 情報処理装置、検査システム及び情報処理方法
KR20160107528A (ko) 컴퓨터 보조 진단을 위한 신뢰도 제공 장치 및 방법
US11896433B2 (en) Ultrasound determination of dynamic air bronchogram and associated devices, systems, and methods
EP3606437B1 (en) Method and apparatus for physiological functional parameter determination
JP2011251113A (ja) 3次元超音波診断装置およびその操作方法
EP4213093A2 (en) Medical image processing device, ultrasonic diagnostic apparatus, and program
US20230293113A1 (en) System and method of estimating vital signs of user using artificial intelligence
GB2605401A (en) System and method of estimating vital signs of user using artificial intelligence
KR20150088972A (ko) 의료 영상 정합 방법 및 그 장치
Rinchi et al. Remote Breathing Monitoring Using LiDAR Technology
CN117157013A (zh) 用于超声成像的方法
JP2020142018A (ja) 動態画像解析システム及び動態画像処理装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right