KR20230171892A - 의료 정보를 추출하는 장치 및 방법 - Google Patents

의료 정보를 추출하는 장치 및 방법 Download PDF

Info

Publication number
KR20230171892A
KR20230171892A KR1020230075680A KR20230075680A KR20230171892A KR 20230171892 A KR20230171892 A KR 20230171892A KR 1020230075680 A KR1020230075680 A KR 1020230075680A KR 20230075680 A KR20230075680 A KR 20230075680A KR 20230171892 A KR20230171892 A KR 20230171892A
Authority
KR
South Korea
Prior art keywords
target image
medical information
extracting
interest
bounding boxes
Prior art date
Application number
KR1020230075680A
Other languages
English (en)
Inventor
김중희
Original Assignee
서울대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원 filed Critical 서울대학교병원
Publication of KR20230171892A publication Critical patent/KR20230171892A/ko

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Business, Economics & Management (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Business, Economics & Management (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Databases & Information Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Emergency Management (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Cardiology (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

일 실시예에 따른 의료 정보를 추출하는 장치 및 방법이 개시된다. 일 실시예에 따른 의료 정보를 추출하는 장치는 하나 이상의 프로세서; 및 상기 하나 이상의 프로세서를 실행하기 위한 명령어를 저장하는 메모리를 포함하는, 의료 정보를 추출하는 장치로서, 상기 프로세서는: 대상 이미지의 속성 데이터와 상기 대상 이미지의 특징 데이터를 포함하는 상기 대상 이미지의 의료 정보의 추출을 요청하는 사용자 입력을 감지하고, 상기 사용자 입력에 응답하여 상기 대상 이미지의 속성 데이터를 추출하고, 상기 대상 이미지의 특징 데이터를 분류하여 상기 의료 정보를 추출하고, 기 학습된 모델을 이용하여 상기 대상 이미지와 상기 의료 정보에 대응하는 상기 대상 이미지 내의 관심 영역을 특정한다.

Description

의료 정보를 추출하는 장치 및 방법{APPARATUS AND MEHTOD FOR EXTRACTING MEDICAL INFORMATION}
개시되는 실시예들은 의료 정보를 추출하는 장치 및 방법에 관한 것이다.
일반적으로, 의료 정보는 PACS(Picture Archiving and Communication System; 의료이미지저장전송시스템)를 통해 관리된다. 그러나, PACS는 환자의 개인 정보 보호를 이유로 원칙적으로 처리에 제한적이다.
설령, 처리가 가능하더라도 의료 정보의 업로드와 다운로드는 여러 스텝에 걸쳐 이루어져 번거로운 절차를 수반한다. 더욱이, 개인 정보 보호를 이유로 해당 절차의 진행은 환자의 동의가 요구하기도 한다.
뿐만 아니라, PACS에서 관리되는 의료 정보는 다양한 의료 장비에서 비롯된 것으로 그 형식과 프로토콜은 의료 장비마다 제각각이다. 즉, 의료 장비가 상이한 경우에는 의료 정보 간의 호환성이 상당히 부족한 실정이다.
따라서, 환자의 개인 정보의 보호와 의료 정보에 대한 처리 용이성을 강화시키기 위해, 한 번의 실행만으로도 일련의 의료 정보 추출 과정을 통합적으로 실행시키는 시스템이 필요한 실정이다.
대한민국 공개특허공보 제10-2022-0105812호(2022.07.28. 공개)
개시되는 실시예들은 의료 정보를 추출하는 일련의 복수의 스텝들을 하나의 명령으로 연속적으로 한 큐에 실행하기 위한 것이다.
일 실시예에 따른 의료 정보를 추출하는 장치는 하나 이상의 프로세서; 및 상기 하나 이상의 프로세서를 실행하기 위한 명령어를 저장하는 메모리를 포함하는, 의료 정보를 추출하는 장치로서, 상기 프로세서는: 대상 이미지의 속성 데이터와 상기 대상 이미지의 특징 데이터를 포함하는 상기 대상 이미지에 대한 의료 정보의 추출을 요청하는 사용자 입력을 감지하고, 상기 사용자 입력에 응답하여 상기 대상 이미지의 속성 데이터를 추출하고, 상기 대상 이미지의 특징 데이터를 분류하여 상기 의료 정보를 추출하고, 기 학습된 모델을 이용하여 상기 대상 이미지와 상기 의료 정보에 대응하는 상기 대상 이미지 내의 관심 영역을 특정한다.
상기 속성 데이터는, 상기 대상 이미지의 해상도 및 채널 수 중 적어도 하나를 포함하고, 상기 특징 데이터는 상기 대상 이미지의 모달리티, 촬영 방향 및 신호 채널의 수 중 적어도 하나에 대한 분류 예측 값을 포함할 수 있다.
상기 프로세서는: 기 학습된 모델을 이용하여 상기 대상 이미지에 포함되는 하나 이상의 객체 각각에 대응하는 하나 이상의 후보 바운딩 박스를 검출하고, 상기 하나 이상의 후보 바운딩 박스 별 대응하는 신뢰도를 산출하고, 상기 신뢰도에 기초하여 상기 하나 이상의 후보 바운딩 박스를 정렬할 수 있다.
상기 프로세서는: 상기 하나 이상의 후보 바운딩 박스 각각의 신뢰도에 기초하여 중복되는 바운딩 박스를 제거하고, 나머지 하나 이상의 후보 바운딩 박스 중 적어도 하나에 기초하여 관심 영역을 특정할 수 있다.
상기 프로세서는: 상기 하나 이상의 후보 바운딩 박스 각각의 신뢰도에 기초하여 기준 바운딩 박스를 선택하고, 상기 기준 바운딩 박스의 예측 영역과 나머지 비교 대상 바운딩 박스의 예측 영역 사이의 일치율에 기초하여 상기 하나 이상의 후보 바운딩 박스에서 중복되는 바운딩 박스들을 제거하고, 상기 나머지 하나 이상의 후보 바운딩 박스 중 가장 높은 신뢰도를 갖는 후보 바운딩 박스에 기초하여 상기 관심 영역을 특정할 수 있다.
상기 프로세서는: 기 정의된 마우스 제스쳐 입력, 단축키 입력, 아이콘 입력 및 음성 명령 중 적어도 하나를 포함하는 사용자 입력을 감지한 경우, 기 학습된 모델을 이용하여 상기 의료 정보의 추출을 개시할 수 있다.
상기 프로세서는: 상기 대상 이미지에서 관심 영역을 지정하는 사용자의 제2 입력에 기초하여 상기 관심 영역의 경계를 특정하고, 상기 관심 영역의 속성을 지정하는 사용자의 제3 입력에 기초하여 상기 의료 정보를 수동으로 추출할 수 있다.
상기 프로세서는: 상기 의료 정보를 추출하는 장치와 통신하는 하나 이상의 의료 장비를 포함하는 장비 리스트를 출력하고, 상기 장비 리스트 중 제4 사용자 입력에 기초하여 선택된 의료 장비에 상기 대상 이미지, 상기 관심 영역, 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나를 전송할 수 있다.
상기 프로세서는: 기 설정된 영역에 상기 대상 이미지 또는 상기 관심 영역을 드롭하는 제5 사용자 입력을 수신하는 경우, 상기 하나 이상의 기 학습된 모델 중 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나에 기초하여 상기 대상 이미지와 매칭하는 모델에 송신하고, 상기 매칭하는 모델로 하여금 상기 대상 이미지를 의료 분석하게 하고, 상기 의료 분석이 완료된 경우, 시각적 알림 신호 및 청각적 알림 신호 중 적어도 하나를 출력할 수 있다.
상기 프로세서는: 상기 대상 이미지의 수직 해상도, 수평 해상도 및 상기 수직 해상도와 상기 수평 해상도 사이의 비율 중 적어도 하나가 기 설정된 값 이하인 경우 경고 신호를 출력할 수 있다.
일 실시예에 따른 의료 정보를 추출하는 방법은 하나 이상의 프로세서; 및 상기 하나 이상의 프로세서를 실행하기 위한 명령어를 저장하는 메모리를 포함하는 의료 정보를 추출하는 장치에 의해 수행되는 방법으로서: 상기 방법은: 대상 이미지의 속성 데이터와 상기 대상 이미지의 특징 데이터를 포함하는 상기 대상 이미지에 대한 의료 정보의 추출을 요청하는 사용자 입력을 감지하는 단계; 상기 사용자 입력에 응답하여 상기 대상 이미지의 속성 데이터를 추출하고, 상기 대상 이미지의 특징 데이터를 분류하여 상기 의료 정보를 추출하는 단계; 및 기 학습된 모델을 이용하여 상기 대상 이미지와 상기 의료 정보에 대응하는 상기 대상 이미지 내의 관심 영역을 특정하는 단계를 포함한다.
상기 속성 데이터는, 상기 대상 이미지의 해상도 및 채널 수 중 적어도 하나를 포함하고, 상기 특징 데이터는 상기 대상 이미지의 모달리티, 촬영 방향 및 신호 채널의 수 중 적어도 하나에 대한 분류 예측 값을 포함할 수 있다.
상기 의료 정보를 추출하는 단계는, 기 학습된 모델을 이용하여 상기 대상 이미지에 포함되는 하나 이상의 객체 각각에 대응하는 하나 이상의 후보 바운딩 박스를 검출하는 단계; 상기 하나 이상의 후보 바운딩 박스 별 대응하는 신뢰도를 산출하는 단계; 및 상기 신뢰도에 기초하여 상기 하나 이상의 후보 바운딩 박스를 정렬하는 단계를 포함할 수 있다.
상기 의료 정보를 추출하는 단계는, 상기 하나 이상의 후보 바운딩 박스의 각각의 신뢰도에 기초하여 중복되는 바운딩 박스를 제거하는 단계; 및 나머지 하나 이상의 후보 바운딩 박스 중 적어도 하나에 기초하여 관심 영역을 특정하는 단계를 포함할 수 있다.
상기 의료 정보를 추출하는 단계는, 상기 하나 이상의 후보 바운딩 박스 각각의 신뢰도에 기초하여 기준 바운딩 박스를 선택하는 단계; 상기 기준 바운딩 박스의 예측 영역과 나머지 비교 대상 바운딩 박스의 예측 영역 사이의 일치율에 기초하여 상기 하나 이상의 후보 바운딩 박스 중 중복되는 바운딩 박스들을 제거하는 단계; 및 상기 나머지 하나 이상의 후보 바운딩 박스에 기초하여 상기 관심 영역을 특정하는 단계를 포함할 수 있다.
상기 의료 정보를 추출하는 단계는, 기 정의된 마우스 제스쳐 입력, 단축키 입력, 아이콘 입력 및 음성 명령 중 적어도 하나를 포함하는 사용자 입력을 감지한 경우, 기 학습된 모델을 이용하여 상기 의료 정보의 추출을 개시하는 단계를 포함할 수 있다.
상기 의료 정보를 추출하는 단계는, 상기 대상 이미지에서 관심 영역을 지정하는 사용자의 제2 입력에 기초하여 상기 관심 영역의 경계를 특정하는 단계; 및 상기 관심 영역의 속성을 지정하는 사용자의 제3 입력에 기초하여 상기 의료 정보를 수동으로 추출하는 단계를 포함할 수 있다.
상기 방법은: 상기 의료 정보를 추출하는 장치와 통신하는 하나 이상의 의료 장비를 포함하는 장비 리스트를 출력하는 단계; 및 상기 장비 리스트 중 제4 사용자 입력에 기초하여 선택된 의료 장비에 상기 대상 이미지, 상기 관심 영역, 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나를 전송하는 단계를 포함할 수 있다.
상기 전송하는 단계는, 기 설정된 영역에 상기 대상 이미지 또는 상기 관심 영역을 드롭하는 제5 사용자 입력을 수신하는 경우, 상기 하나 이상의 기 학습된 모델 중 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나에 기초하여 상기 대상 이미지와 매칭하는 모델에 송신하는 단계; 상기 매칭하는 모델로 하여금 상기 대상 이미지를 의료 분석하게 하는 단계; 및 상기 의료 분석이 완료된 경우, 시각적 알림 신호 및 청각적 알림 신호 중 적어도 하나를 출력하는 단계를 포함할 수 있다.
상기 방법은: 상기 대상 이미지의 수직 해상도, 수평 해상도 및 상기 수직 해상도와 상기 수평 해상도 사이의 비율 중 적어도 하나가 기 설정된 값 이하인 경우 경고 신호를 출력하는 단계를 더 포함할 수 있다.
개시되는 실시예들은 의료 정보를 추출하는 일련의 복수의 스텝들을 하나의 명령으로 연속적으로 한 큐에 간편히 실행할 수 있다.
도 1은 일 실시예에 따른 의료 정보를 추출하는 장치를 설명하기 위한 블록도
도 2는 의료 정보를 추출하는 장치의 추출 기능을 호출하기 위한 메뉴와 아이콘을 설명하기 위한 일 예시의 도면
도 3은 의료 정보를 추출하는 장치의 추출 기능을 호출하기 위한 메뉴, 아이콘 및 서브 메뉴를 설명하기 위한 일 예시의 도면
도 4는 의료 정보를 추출하는 장치가 의료 정보를 추출하는 과정을 설명하기 위한 일 예시의 도면
도 5는 의료 정보를 추출하는 장치가 대상 이미지를 업로드하는 과정을 설명한 일 예시의 도면
도 6은 의료 정보를 추출하는 장치가 추출된 의료 정보를 사용자에게 제공하는 화면을 일 예시의 도면
도 7은 의료 정보를 추출하는 장치가 추출된 의료 정보를 사용자에게 제공하는 화면을 다른 예시의 도면
도 8은 일 실시예에 따른 의료 정보를 추출하는 방법을 설명하기 위한 흐름도
이하, 도면을 참조하여 일 실시예의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 발명에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
일 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 일 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
후술되는 용어들은 본 발명에서의 작업을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 일 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 성분들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 성분, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
또한, 본 명세서에 기술된 실시예는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고 부분적으로 소프트웨어이거나, 또는 전적으로 소프트웨어인 측면을 가질 수 있다. 본 명세서에서 "부(unit)", "계층(layer)", 모듈(module)", "장치(device)", "서버(server)" 또는 "시스템(system)" 등은 하드웨어, 하드웨어와 소프트웨어의 조합, 또는 소프트웨어 등 컴퓨터 관련 엔티티(entity)를 지칭한다. 예컨대, 부, 계층, 모듈, 장치, 서버 또는 시스템은 플랫폼(platform)의 일부 또는 전부를 구성하는 하드웨어 및/또는 상기 하드웨어를 구동하기 위한 애플리케이션(application) 등의 소프트웨어를 지칭하는 것일 수 있다. 구체적인 예로, 부, 계층, 모듈, 장치, 서버 또는 시스템은 프로세서에 의해 구현될 수 있다.
도 1은 일 실시예에 따른 의료 정보를 추출하는 장치(100)를 설명하기 위한 블록도이다.
일 실시예에 따른 의료 정보를 추출하는 장치(100)는 획득한 대상 이미지에 손쉬운 데이터 파이프 라인(data-pipe line)을 제공하는 장치이다. 구체적으로, 의료 정보를 추출하는 장치(100)는 사용자의 입력을 감지하여 의료 정보를 한 큐에 추출하는 장치를 의미할 수 있다.
여기서, 의료 정보는 대상 이미지에서 캡처 또는 크롭되기 적절한 것으로 선택되는 관심 영역, 대상 이미지의 종류, 형식 등을 포함할 수 있다.
도 1을 참조하면, 의료 정보를 추출하는 장치(100)는 프로세서(110)와 메모리(120)를 포함한다.
프로세서(110)는 대상 이미지의 속성 데이터와 대상 이미지의 특징 데이터를 포함하는 대상 이미지에 대한 의료 정보의 추출을 요청하는 사용자 입력을 감지한다.
여기서, 대상 이미지란, 환자의 생체 신호 및 생체 신호를 분석한 의료 분석의 결과를 포함하는 이미지 중 적어도 하나일 수 있다. 예를 들어, 대상 이미지는 심전도 이미지 및 흉부 방사선 이미지 중 적어도 하나를 포함할 수 있다.
프로세서(110)는 기 정의된 사용자 입력을 감지하는 경우, 기 학습된 모델을 이용하여 의료 정보의 추출을 개시할 수 있다.
여기서, 기 정의된 사용자 입력은 예를 들어, 의료 정보의 추출을 개시하도록 매핑되는 마우스 제스쳐 입력, 단축키 입력, 메뉴 클릭 입력, 아이콘 클릭 입력, 및 음성 명령 중 적어도 하나를 포함할 수 있다.
구체적인 예로, 프로세서(110)는 대상 이미지 상에 마우스의 클릭 입력을 감지하면, 대상 이미지의 의료 정보 추출 및 관심 영역의 특정에 필요한 일련의 단계들을 연속적으로 수행할 수 있다.
구체적인 예로, 프로세서(110)는 대상 이미지에 대응하여 예측된 클래스에 매핑되는 단축키의 입력을 감지하면, 단축키에 대응하는 관심 영역 특정 단계들을 연속적으로 수행할 수 있다.
즉, 프로세서(110)는 백그라운드에서 추출 기능의 개시를 대기하는 중 사용자 입력을 감지하면 상기 추출 기능을 호출하는 것으로 해석될 수 있다.
이때, 프로세서(110)는 사용자 입력이 감지되고 요청되었음을 사용자에게 인지시키기 위해, 화면 또는 유저 인터페이스의 형상, 모양, 색상 및/또는 밝기 등을 포함하는 시각적 신호를 변경할 수 있다.
한편, 의료 정보의 추출을 개시시키는 사용자 입력은 마우스 입력, 단축키 입력, 등인 것으로 설명하였으나, 이는 예시적인 것으로서 반드시 나열된 예시에 제한되는 것은 아니다.
프로세서(110)는 사용자 입력에 응답하여 대상 이미지의 속성 데이터를 추출하고, 대상 이미지의 특징 데이터를 분류하여 의료 정보를 추출한다.
속성 데이터란, 대상 이미지의 성질을 설명하기 위한 데이터로서, 예를 들어, 대상 이미지의 해상도, 채널수, 색 공간, 비트 깊이, 이미지 형식, 오염 레벨, 노이즈 레벨 및 압축 방식 중 적어도 하나를 포함할 수 있다. 이때, 속성 데이터는 어레이 형식으로 표현될 수 있다.
특징 데이터란, 대상 이미지의 모달리티, 촬영 방향 및 신호 채널의 수 중 적어도 하나를 포함하는 데이터일 수 있다. 이때, 특징 데이터는 기 학습된 모델을 통해 예측된 클래스의 집합으로 표현될 수 있다.
구체적으로, 특징 데이터는 대상 이미지가 어떠한 종류의 의료 이미지인지 분류한 예측 값을 포함할 수 있다. 구체적 예로, 특징 데이터는 모달리티를 심전도 또는 흉부방사선으로 분류하여 대응하는 클래스로 표현될 수 있다.
다른 예로, 특징 데이터는 대상 이미지의 촬영 방향을 후전 방향(Posteroanterior; PA), 전후 방향(Anteroposterior; AP) 또는 측방향(Lateral; Lat)으로 분류하여 대응하는 클래스로 표현될 수 있다. 다른 예로, 특징 데이터는 심전도와 같은 신호 데이터일 경우, 신호 데이터를 구성하는 전체 채널 수 및 채널의 종류 중 적어도 하나를 예측하여 대응하는 클래스로 표현될 수 있다. 예를 들어, 특징 데이터는 1채널(예: lead II), 3채널(예: lead I, II, III), 12채널로 대상 이미지에 대응하는 검사를 위해 사용되는 전극의 신호 채널 수를 예측하여 대응하는 클래스로 표현될 수 있다.
프로세서(110)는 기 학습된 모델을 이용하여 대상 이미지와 의료 정보에 대응하는 대상 이미지 내의 관심 영역을 특정한다.
일 예시에 따르면, 프로세서(110)는 기 학습된 모델을 이용하여 속성 데이터와 특징 데이터를 결부하여 대상 이미지 내 관심 영역을 특정할 수 있다.
여기서, 관심 영역은 의료 진단의 결과에 영향을 미치는 대상 이미지 내의 영역을 의미할 수 있다. 다시 말해, 관심 영역은 의료 진단 결과를 좌우하는 중요한 객체가 포함되는 영역으로, 하나의 대상 이미지 내에 복수 개가 존재할 수 있다.
일 예시에 따르면, 프로세서(110)는 기 학습된 모델을 이용하여 대상 이미지에 포함되는 객체에 대응하는 하나 이상의 후보 바운딩 박스를 검출하여 관심 영역을 특정할 수 있다.
일 예시에 따르면, 프로세서(110)는 대상 이미지 내 검출된 하나 이상의 후보 바운딩 박스의 신뢰도(confidence score)에 기초하여 하나 이상의 후보 바운딩 박스 중 적어도 하나를 관심 영역을 특정할 수 있다.
여기서 신뢰도란, 학습된 모델에서 심전도 이미지나 흉부방사선 이미지 중 적어도 하나를 미리 정한 방식으로 포함하는 영역을 정의하는 바운딩 박스의 확률 및 그에 준하는 통계적 정의일 수 있으며, 심전도의 이미지 세부 종류 및 영역, 흉부방사선 이미지의 세부 종류 및 영역을 포함할 수 있다.
구체적으로, 프로세서(110)는 검출된 하나 이상의 후보 바운딩 박스에 대한 클래스 및 영역을 정의하고, 각각의 바운딩 박스의 신뢰도에 기초하여 후보 바운딩 박스 중 적어도 하나를 관심 영역으로 특정할 수 있다.
프로세서(110)는 신뢰도가 가장 높은 바운딩 박스를 예측한 정답으로 선택하고, 다른 하나 이상의 후보 바운딩 박스의 예측 영역과 선택된 정답 값 사이의 일치율을 계산하여, 하나 이상의 후보 바운딩 박스 중 중복되는 바운딩 박스들을 제거할 수 있다.
프로세서(110)는 이후 동일한 방식으로 남은 바운딩 박스 중 신뢰도가 가장 높은 바운딩 박스를 선택하고, 중복되는 바운딩 박스들을 제거하는 과정을 반복하여 대상 이미지에 대해 관심 영역 및 해당 클래스를 지정할 수 있다.
프로세서(110)는 속성 데이터 및 특정 데이터 중 적어도 하나를 기 정의된 후보 추출 함수에 적용하여 임의의 바운딩 박스를 관심 영역으로 선택할 수 있다. 또는, 프로세서(110)는 사용자에 의해 선택된 후보 바운딩 박스를 관심 영역으로 특정할 수 있다.일 예시에 따르면, 프로세서(110)는 사용자 입력에 의해 관심 영역을 수동으로 검출할 수도 있다.
구체적으로, 프로세서(110)는 대상 이미지에서 관심 영역을 지정하는 사용자의 제2 입력에 기초하여 관심 영역의 경계 및 클래스를 특정할 수 있다.
예를 들어, 프로세서(110)는 관심 영역의 경계를 지정하는 드래그 입력 및 클릭 입력 중 적어도 하나를 포함하는 사용자의 제2사용자의 제2 입력을 감지하는 경우, 드래그 입력 및 클릭 입력 중 적어도 하나에 기초하여 관심 영역을 수동으로 특정할 수도 있다. 드래그 입력 및 클릭 시작 전이나 중, 후에 사용자가 클래스를 지정할 수 있도록 새로운 창이 표시되거나 바운딩 박스의 형상, 모양, 색상 및 밝기 중 적어도 하나를 변경하는 것을 포함하여 사용자로 하여금 클래스를 지정할 수 있음을 인지하게 할 수 있다. 또한 추가 입력으로 클래스를 특정할 수 있다.
프로세서(110)는 관심 영역을 특정하기 이전에, 대상 이미지의 추출 적합성을 판단할 수 있다. 다시 말해, 프로세서(110)는 대상 이미지가 의료 정보의 추출 대상으로 사용되기 적합한지 여부를 판단할 수 있다.
구체적으로, 프로세서(110)는 대상 이미지의 속성 데이터를 이용하여 대상 이미지가 기 설정된 질적 혹은 형태적 조건에 부합하는지 여부를 판단하여 대상 이미지의 추출 적합성을 판단할 수 있다.
예를 들어, 프로세서(110)는 대상 이미지의 수직 해상도, 수평 해상도, 및 수직 해상도와 수평 해상도 사이의 비율 중 적어도 하나가 기 설정된 값 이하인 경우, 대상 이미지를 추출 대상에서 배제할 수 있다.
프로세서(110)는 속성 데이터를 이용하여 대상 이미지가 기 설정된 질적 조건에 부합하는지 여부를 판단하여 대상 이미지의 추출 적합성을 판단할 수 있다.
예를 들어, 프로세서(110)는 대상 이미지의 오염 레벨 및 노이즈 레벨이 기 설정된 값 이상인 경우 대상 이미지를 추출 대상에서 배제할 수 있다. 프로세서(110)는 대상 이미지의 이미지 형식이 기 정의된 형식에 부합하지 않는 경우, 대상 이미지를 추출 대상에서 배제할 수 있다.
프로세서(110)는 대상 이미지가 대상 이미지로 사용되기 위한 형태적 조건 및 질적 조건 중 적어도 하나를 만족하지 않는 것으로 판단하는 경우, 경고 신호를 출력할 수 있다.
프로세서(110)는 대상 이미지의 형태적 조건 결과 및 질적 조건 결과 중 적어도 하나에 기초하여 추출 적합성을 정성적 및/또는 정량적으로 평가할 수 있다.
메모리(120)는 프로세서(110)가 실행하는 하나 이상의 명령어를 저장한다.
메모리(120)는 프로세서(110)에 의해 사용되는 다양한 데이터를 저장할 수 있다. 예를 들어, 메모리(120)는 소프트웨어(예: 프로세서(110)에 의해 실행되는 프로그램 및/또는 프로그램과 관련된 명령어, 명령어와 관련된 라이브러리, 명령어에 대한 입력 데이터 또는 출력 데이터)를 포함할 수 있다.
메모리(120)는, 휘발성 메모리(120) 또는 비휘발성 메모리(120)를 포함할 수 있다.
도 2는 의료 정보를 추출하는 장치(100)의 추출 기능을 호출하기 위한 메뉴(10)와 아이콘(20)을 설명하기 위한 일 예시의 도면이다.
도 2를 참조하면, 제1 이미지는 메뉴(10)와 아이콘(20)을 포함한다.
프로세서(110)는 제1 이미지의 상단에 메뉴(10)를 디스플레이할 수 있다. 프로세서(110)는 사용자 편의성을 제고하고자 하나 이상의 메뉴(10)를 툴바에 집합시켜 디스플레이할 수 있다.
프로세서(110)는 제1 이미지의 컨텐츠 영역에 아이콘(20)을 디스플레이할 수 있다. 컨텐츠 영역이란, 툴바 아래의 하단 영역으로, 사용자가 작업을 수행하는 영역을 포함할 수 있다. 예를 들어, 이미지를 편집, 이미지 업로드 등의 작업을 수행하는 영역일 수 있다.
도 3은 의료 정보를 추출하는 장치(100)의 추출 기능을 호출하기 위한 메뉴(10), 아이콘(20) 및 서브 메뉴(101, 102, 103)를 설명하기 위한 일 예시의 도면이다.
도 3을 참조하면, 제2 이미지는 메뉴(10)와 서브 메뉴(101, 102, 103)를 디스플레이 한다. 구체적으로, 프로세서(110)는 사용자 입력에 기초하여 메뉴(10) 선택 시 디스플레이 되는 하나 이상의 서브 메뉴(101, 102, 103)를 출력한다.
이때, 프로세서(110)는 사용자 입력을 통해 선택된(예: 클릭) 메뉴(10)의 형상, 모양, 색상 및 밝기 중 적어도 하나를 변경하여 사용자로 하여금 선택된 메뉴(10)가 실행되었음을 인지하게 할 수 있다.
이후, 프로세서(110)는 사용자로 하여금 서브 메뉴(101, 102, 103)의 작업을 실행할 수 있도록 선택된 메뉴(10)에 포함되는 서브 메뉴(101, 102, 103)를 선택된 메뉴(10)의 근방에 출력할 수 있다. 예를 들어, 프로세서(110)는 메뉴(10)의 하단에 서브 메뉴(101, 102, 103)들을 펼치는 형태로 서브 메뉴(101, 102, 103)들을 출력할 수 있다.
즉, 프로세서(110)는 메뉴(10)가 출력된 동일한 이미지에서 메뉴(10)의 서브 메뉴(101, 102, 103)를 오버랩하여 출력할 수 있다. 예를 들어, 메뉴(10)가 제1 이미지에 배치되는 경우, 프로세서(110)는 제1 이미지에서 서브 메뉴(101, 102, 103)를 출력할 수 있다. 메뉴(10)가 제2 이미지에 배치되는 경우, 프로세서(110)는 제2 이미지에서 서브 메뉴(101, 102, 103)를 출력할 수 있다.
이때, 메뉴(10) 및 서브 메뉴(101, 102, 103) 중 적어도 하나는 대응하는 작업을 설명하는 직관적인 기호, 모양 및 이미지 중 적어도 하나를 통해 시각화될 수 있다.
예컨대, 캡처 작업과 관련된 메뉴(10) 또는 서브 메뉴(101, 102, 103)는 사진기를 형상화 한 로고, 마크, 기호 등을 포함하는 이미지로 시각화하여 캡처 작업에 대한 설명을 직관적으로 제공할 수 있다.
다른 예로, 업로드와 관련된 메뉴(10)는 위쪽 화살표를 형상화 한 로고, 마크, 기호 등을 포함하는 이미지로 시각화하여 업로드 작업에 대한 설명을 직관적으로 제공할 수 있다.
반면, 프로세서(110)는 아이콘(20)의 실행을 요청하는 사용자 입력이 수신되면, 메뉴(10)에 포함되는 하나 이상의 서브 메뉴(101, 102, 103)를 조회하지 않고, 아이콘(20)과 대응하는 서브 메뉴(101, 102, 103)를 곧바로 실행할 수 있다.
아이콘(20)은 대응하는 작업을 설명하는 직관적인 기호, 모양 및 이미지 중 적어도 하나를 통해 시각화될 수 있다.
도 4는 의료 정보를 추출하는 장치(100)가 의료 정보를 추출하는 과정을 설명하기 위한 일 예시의 도면이다.
도 4의 대상 이미지는 대상 이미지로 선정되고, 사용자 입력에 따른 추출 기능의 호출을 대기하는 상태이다.
여기서, 입력 이미지란, 의료 분석의 대상으로 의료 정보를 추출하는 장치(100)가 획득한 의료 이미지(예: 심전도 이미지)로서, 예를 들어, 전자의무기록(Electronic Medical Record)으로부터 획득된 이미지일 수 있다.
프로세서(110)는 기 정의된 사용자 입력을 감지하면, 업로드 또는 화면 상에 표시되는 대상 이미지의 의료 정보를 추출할 수 있다.
여기서, 프로세서(110)는 자동 지정의 방식으로, 기 학습된 모델을 이용하여 관심 영역을 특정할 수 있다.
프로세서(110)는 입력된 단축키에 매핑되는 학습 모델을 이용하여 대상 이미지에서 관심 영역을 특정할 수 있다. 예를 들어, 프로세서(110)는 심전도 이미지의 클래스로 지정된 "1"과 동일하게 매핑된 단축키"1"이 입력되면, 기 학습된 모델을 이용하여 심전도 이미지에 맞춤화된 관심 영역을 특정할 수 있다.
프로세서(110)는 속성 데이터, 특징 데이터 및 사용자 입력 중 적어도 하나에 기초하여 매핑되는 분석 모델에 관심 영역을 전송하고, 분석 모델로 하여금 관심 영역에 대응하는 의료 진단을 분석하게 할 수 있다.
다른 예로, 프로세서(110)는 수동 지정의 방식으로, 사용자 입력에 기초하여 관심 영역을 특정할 수 있다.
구체적으로, 프로세서(110)는 대각선 방향의 사용자의 드래그 입력에 기초하여 관심 영역을 특정할 수 있다. 또는, 프로세서(110)는 좌표를 선택하는 사용자의 클릭 또는 터치 입력에 기초하여 관심 영역을 특정할 수도 있다.
구체적인 예로, 프로세서(110)는 시작 지점에서 끝 지점까지 드래그하는 사용자 입력을 통해 관심 영역을 수동으로 특정할 수 있다. 프로세서(110)는 네 개의 지점을 클릭 또는 터치하는 사용자 입력에 기초하여 관심 영역을 수동으로 특정할 수 있다.
프로세서(110)는 관심 영역이 특정된 후, 관심 영역에 기초하여 캡처 이미지를 생성할 수 있다. 이후, 프로세서(110)는, 캡처 이미지 생성 후, 캡처 이미지를 송신할 수 있는 의료 장비 리스트를 동일한 화면에 표시할 수 있다.
구체적으로, 프로세서(110)는 사용자의 우클릭 입력 또는 해당 작업을 실행하는 아이콘(20)의 클릭 입력을 감지하는 경우 또는 자동으로 송신할 수 있는 의료 장비 리스트를 동일한 화면에 표시할 수 있다.
이후, 프로세서(110)는 기 설정된 영역에 캡처 이미지를 드롭하는 사용자 입력을 수신하는 경우, 분석 모델로 하여금 대상 이미지의 생체 신호 종류에 대응하여 의료 분석하게 할 수 있다.
이후, 프로세서(110)는 의료 분석이 완료된 경우, 의료 정보를 추출하는 장치(100)로 하여금 시각적 알림 신호 및 청각적 알림 신호 중 적어도 하나를 출력하게 할 수 있다.
예를 들어, 프로세서(110)는 의료 정보를 추출하는 장치(100)로 하여금 디스플레이에 팝업 메시지, 애니메이션 효과 및 알림 소리 중 적어도 하나를 포함하는 알림 신호를 출력하게 할 수 있다.
도 5는 의료 정보를 추출하는 장치(100)가 대상 이미지를 업로드하는 과정을 설명한 일 예시의 도면이다.
프로세서(110)는 제2 서브 메뉴(102) 또는 제2 아이콘(20-2)을 선택하는 사용자 입력을 수신하는 경우, 파일 탐색을 실행하여 대상 이미지의 저장 경로를 표시할 수 있다.
이후, 프로세서(110)가 대상 이미지를 선택하는 사용자 입력을 수신하는 경우, 선택된 대상 이미지를 불러올 수 있다. 여기서, 대상 이미지는 의료 정보를 추출하는 장치(100)에 기 저장된 이미지 또는 외부로부터 제공될 수 있는 의료 이미지일 수 있다.
프로세서(110)는 이미지 업로드 후, 사용자 입력 없이 의료 정보 추출에 필요한 지정된 작업을 자동으로 수행할 수 있다. 예를 들어, 프로세서(110)는 대상 이미지를 업로드한 이후, 사용자 입력 없이, 의료 정보를 추출하고, 의료 분석을 요청할 수 있다.
프로세서(110)는 특정한 작업을 자동 또는 수동 실행한 후, 화면에 특정한 아이콘(20)을 표시할 수 있다. 예컨대, 특정한 아이콘(20)은, 특정한 작업 이후 가장 빈번하게 사용되는 작업을 실행하는 아이콘(20)일 수 있다. 구체적인 예로, 의료 정보 추출 이후, 사용자로부터 관심 영역을 저장하는 요청이 빈번한 경우, 프로세서(110)는 의료 정보 추출 이후, 관심 영역의 저장을 요청하는 아이콘(20)을 화면에 표시할 수 있다.
도 6은 의료 정보를 추출하는 장치(100)가 추출된 의료 정보를 사용자에게 제공하는 화면을 일 예시의 도면이다.
프로세서(110)는 사용자가 요청한 의료 정보를 제공하고자, 요청된 의료 정보를 화면에 표시할 수 있다.
구체적으로, 프로세서(110)는 대상 이미지와 관련된 정보를 화면에 표시할 수 있다. 예를 들어, 대상 이미지와 관련된 정보는 이미지의 파일명, 업로드 시각, 조회 요청 순서 등을 포함할 수 있다.
구체적으로, 프로세서(110)는 대상 이미지의 의료 분석의 결과를 화면에 표시할 수 있다. 이때, 의료 분석의 결과는 기 학습된 모델을 이용하여 의료 정보에 기초하여 분석된 의료 분석의 결과를 의미할 수 있다. 여기서, 의료 분석의 결과는 환자 이름, 환자 번호 식별코드 및 진단명 중 적어도 하나를 포함할 수 있다.
도 7은 의료 정보를 추출하는 장치(100)가 추출된 의료 정보를 사용자에게 제공하는 화면을 다른 예시의 도면이다.
프로세서(110)는 대상 이미지와 관련된 정보 및 의료 분석의 결과 중 적어도 하나를 의료 기관의 서버에 전송할 수 있다.
이때, 프로세서(110)는 기 인증된 사용자의 전송 요청에 한하여 사용자의 동의 없이 의료 기관의 서버에 전송할 수 있다.
도 8은 일 실시예에 따른 의료 플랫폼을 제공하는 방법을 설명하기 위한 흐름도이다.
도 8을 참조하면, 도 1의 일 실시예에 따른 의료 정보를 추출하는 장치(100)에 의해 수행될 수 있다.
우선, 일 실시예에 따른 의료 정보를 추출하는 장치(100)는 대상 이미지로부터 대상 이미지의 속성 데이터와 대상 이미지의 특징 데이터를 포함하는 의료 정보에 대한 추출을 요청하는 사용자 입력을 감지(810)한다.
이후, 일 실시예에 따른 의료 정보를 추출하는 장치(100)는 사용자 입력에 응답하여 대상 이미지의 속성 데이터를 추출하고, 대상 이미지의 특징 데이터를 분류하여 의료 정보를 추출(820)한다.
이후, 일 실시예에 따른 의료 정보를 추출하는 장치(100)는 기 학습된 모델을 이용하여 대상 이미지와 상기 의료 정보에 대응하는 대상 이미지 내의 관심 영역을 특정(830)한다.
한편, 본 발명의 실시예는 본 명세서에서 기술한 방법들을 컴퓨터상에서 수행하기 위한 프로그램, 및 상기 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 또는 컴퓨터 소프트웨어 분야에서 통상적으로 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 및 롬, 램, 플래시 메모리(120) 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.
100: 의료 정보를 추출하는 장치
110: 프로세서
120: 메모리
10: 메뉴
10-1: 제1 메뉴
10-2: 제2 메뉴
10-n: 제n 메뉴
101: 제1 서브 메뉴
102: 제2 서브 메뉴
103: 제3 서브 메뉴
20: 아이콘
20-1: 제1 아이콘
20-2: 제2 아이콘
20-n: 제n 아이콘

Claims (20)

  1. 하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서를 실행하기 위한 명령어를 저장하는 메모리를 포함하는, 의료 정보를 추출하는 장치로서,
    상기 프로세서는:
    대상 이미지의 속성 데이터와 상기 대상 이미지의 특징 데이터를 포함하는 상기 대상 이미지에 대한 의료 정보의 추출을 요청하는 사용자 입력을 감지하고,
    상기 사용자 입력에 응답하여 상기 대상 이미지의 속성 데이터를 추출하고, 상기 대상 이미지의 특징 데이터를 분류하여 상기 의료 정보를 추출하고,
    기 학습된 모델을 이용하여 상기 대상 이미지와 상기 의료 정보에 대응하는 상기 대상 이미지 내의 관심 영역을 특정하는, 의료 정보를 추출하는 장치.
  2. 제1항에 있어서,
    상기 속성 데이터는, 상기 대상 이미지의 해상도 및 채널 수 중 적어도 하나를 포함하고,
    상기 특징 데이터는 상기 대상 이미지의 모달리티, 촬영 방향 및 신호 채널의 수 중 적어도 하나에 대한 분류 예측 값을 포함하는, 의료 정보를 추출하는 장치.
  3. 제1항에 있어서,
    상기 프로세서는:
    기 학습된 모델을 이용하여 상기 대상 이미지에 포함되는 하나 이상의 객체 각각에 대응하는 하나 이상의 후보 바운딩 박스를 검출하고, 상기 하나 이상의 후보 바운딩 박스 별 대응하는 신뢰도를 산출하고, 상기 신뢰도에 기초하여 상기 하나 이상의 후보 바운딩 박스를 정렬하는, 의료 정보를 추출하는 장치.
  4. 제3항에 있어서,
    상기 프로세서는:
    상기 하나 이상의 후보 바운딩 박스 각각의 신뢰도에 기초하여 중복되는 바운딩 박스를 제거하고, 나머지 하나 이상의 후보 바운딩 박스 중 적어도 하나에 기초하여 관심 영역을 특정하는, 의료 정보를 추출하는 장치.
  5. 제4항에 있어서,
    상기 프로세서는:
    상기 하나 이상의 후보 바운딩 박스 각각의 신뢰도에 기초하여 기준 바운딩 박스를 선택하고, 상기 기준 바운딩 박스의 예측 영역과 나머지 비교 대상 바운딩 박스의 예측 영역 사이의 일치율에 기초하여 상기 하나 이상의 후보 바운딩 박스에서 중복되는 바운딩 박스들을 제거하고, 상기 나머지 하나 이상의 후보 바운딩 박스 중 가장 높은 신뢰도를 갖는 후보 바운딩 박스에 기초하여 상기 관심 영역을 특정하는, 의료 정보를 추출하는 장치.
  6. 제1항에 있어서,
    상기 프로세서는:
    기 정의된 마우스 제스쳐 입력, 단축키 입력, 아이콘 입력 및 음성 명령 중 적어도 하나를 포함하는 사용자 입력을 감지한 경우, 기 학습된 모델을 이용하여 상기 의료 정보의 추출을 개시하는, 의료 정보를 추출하는 장치.
  7. 제1항에 있어서,
    상기 프로세서는:
    상기 대상 이미지에서 관심 영역을 지정하는 사용자의 제2 입력에 기초하여 상기 관심 영역의 경계를 특정하고, 상기 관심 영역의 속성을 지정하는 사용자의 제3 입력에 기초하여 상기 의료 정보를 수동으로 추출하는, 의료 정보를 추출하는 장치.
  8. 제1항에 있어서,
    상기 프로세서는:
    상기 의료 정보를 추출하는 장치와 통신하는 하나 이상의 의료 장비를 포함하는 장비 리스트를 출력하고, 상기 장비 리스트 중 제4 사용자 입력에 기초하여 선택된 의료 장비에 상기 대상 이미지, 상기 관심 영역, 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나를 전송하는, 의료 정보를 추출하는 장치.
  9. 제8항에 있어서,
    상기 프로세서는:
    기 설정된 영역에 상기 대상 이미지 또는 상기 관심 영역을 드롭하는 제5 사용자 입력을 수신하는 경우, 상기 하나 이상의 기 학습된 모델 중 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나에 기초하여 상기 대상 이미지와 매칭하는 모델에 송신하고, 상기 매칭하는 모델로 하여금 상기 대상 이미지를 의료 분석하게 하고, 상기 의료 분석이 완료된 경우, 시각적 알림 신호 및 청각적 알림 신호 중 적어도 하나를 출력하는, 의료 정보를 추출하는 장치.
  10. 제1항에 있어서,
    상기 프로세서는:
    상기 대상 이미지의 수직 해상도, 수평 해상도 및 상기 수직 해상도와 상기 수평 해상도 사이의 비율 중 적어도 하나가 기 설정된 값 이하인 경우 경고 신호를 출력하는, 의료 정보를 추출하는 장치.
  11. 하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서를 실행하기 위한 명령어를 저장하는 메모리를 포함하는 의료 정보를 추출하는 장치에 의해 수행되는 방법으로서:
    상기 방법은:
    대상 이미지의 속성 데이터와 상기 대상 이미지의 특징 데이터를 포함하는 상기 대상 이미지에 대한 의료 정보의 추출을 요청하는 사용자 입력을 감지하는 단계;
    상기 사용자 입력에 응답하여 상기 대상 이미지의 속성 데이터를 추출하고, 상기 대상 이미지의 특징 데이터를 분류하여 상기 의료 정보를 추출하는 단계; 및
    기 학습된 모델을 이용하여 상기 대상 이미지와 상기 의료 정보에 대응하는 상기 대상 이미지 내의 관심 영역을 특정하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  12. 제11항에 있어서,
    상기 속성 데이터는, 상기 대상 이미지의 해상도 및 채널 수 중 적어도 하나를 포함하고,
    상기 특징 데이터는 상기 대상 이미지의 모달리티, 촬영 방향 및 신호 채널의 수 중 적어도 하나에 대한 분류 예측 값을 포함하는, 의료 정보를 추출하는 방법.
  13. 제11항에 있어서,
    상기 의료 정보를 추출하는 단계는,
    기 학습된 모델을 이용하여 상기 대상 이미지에 포함되는 하나 이상의 객체 각각에 대응하는 하나 이상의 후보 바운딩 박스를 검출하는 단계;
    상기 하나 이상의 후보 바운딩 박스 별 대응하는 신뢰도를 산출하는 단계; 및
    상기 신뢰도에 기초하여 상기 하나 이상의 후보 바운딩 박스를 정렬하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  14. 제13항에 있어서,
    상기 의료 정보를 추출하는 단계는,
    상기 하나 이상의 후보 바운딩 박스의 각각의 신뢰도에 기초하여 중복되는 바운딩 박스를 제거하는 단계; 및
    나머지 하나 이상의 후보 바운딩 박스 중 적어도 하나에 기초하여 관심 영역을 특정하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  15. 제14항에 있어서,
    상기 의료 정보를 추출하는 단계는,
    상기 하나 이상의 후보 바운딩 박스 각각의 신뢰도에 기초하여 기준 바운딩 박스를 선택하는 단계;
    상기 기준 바운딩 박스의 예측 영역과 나머지 비교 대상 바운딩 박스의 예측 영역 사이의 일치율에 기초하여 상기 하나 이상의 후보 바운딩 박스 중 중복되는 바운딩 박스들을 제거하는 단계; 및
    상기 나머지 하나 이상의 후보 바운딩 박스에 기초하여 상기 관심 영역을 특정하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  16. 제11항에 있어서,
    상기 의료 정보를 추출하는 단계는,
    기 정의된 마우스 제스쳐 입력, 단축키 입력, 아이콘 입력 및 음성 명령 중 적어도 하나를 포함하는 사용자 입력을 감지한 경우, 기 학습된 모델을 이용하여 상기 의료 정보의 추출을 개시하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  17. 제11항에 있어서,
    상기 의료 정보를 추출하는 단계는,
    상기 대상 이미지에서 관심 영역을 지정하는 사용자의 제2 입력에 기초하여 상기 관심 영역의 경계를 특정하는 단계; 및
    상기 관심 영역의 속성을 지정하는 사용자의 제3 입력에 기초하여 상기 의료 정보를 수동으로 추출하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  18. 제11항에 있어서,
    상기 방법은:
    상기 의료 정보를 추출하는 장치와 통신하는 하나 이상의 의료 장비를 포함하는 장비 리스트를 출력하는 단계; 및
    상기 장비 리스트 중 제4 사용자 입력에 기초하여 선택된 의료 장비에 상기 대상 이미지, 상기 관심 영역, 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나를 전송하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  19. 제18항에 있어서,
    상기 전송하는 단계는,
    기 설정된 영역에 상기 대상 이미지 또는 상기 관심 영역을 드롭하는 제5 사용자 입력을 수신하는 경우, 상기 하나 이상의 기 학습된 모델 중 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나에 기초하여 상기 대상 이미지와 매칭하는 모델에 송신하는 단계;
    상기 매칭하는 모델로 하여금 상기 대상 이미지를 의료 분석하게 하는 단계; 및
    상기 의료 분석이 완료된 경우, 시각적 알림 신호 및 청각적 알림 신호 중 적어도 하나를 출력하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  20. 제11항에 있어서,
    상기 방법은:
    상기 대상 이미지의 수직 해상도, 수평 해상도 및 상기 수직 해상도와 상기 수평 해상도 사이의 비율 중 적어도 하나가 기 설정된 값 이하인 경우 경고 신호를 출력하는 단계를 더 포함하는, 의료 정보를 추출하는 방법.
KR1020230075680A 2022-06-13 2023-06-13 의료 정보를 추출하는 장치 및 방법 KR20230171892A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220071586 2022-06-13
KR1020220071586 2022-06-13

Publications (1)

Publication Number Publication Date
KR20230171892A true KR20230171892A (ko) 2023-12-21

Family

ID=89191557

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230075680A KR20230171892A (ko) 2022-06-13 2023-06-13 의료 정보를 추출하는 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20230171892A (ko)
WO (1) WO2023243992A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220105812A (ko) 2021-01-21 2022-07-28 박수환 온라인 네트워크 기반 비대면 브이첵 자가검사에 따른 원격 의료진단 플랫폼 시스템

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102154734B1 (ko) * 2013-06-10 2020-09-10 삼성전자주식회사 의료 영상 촬영 방법 및 장치, 및 개인화된 파라미터 값의 생성 방법
KR20170012076A (ko) * 2015-07-21 2017-02-02 (주)아이알엠 의료 영상과 관련된 장치들 간에 송수신되는 의료 데이터를 생성하는 방법 및 장치.
WO2021215357A1 (ja) * 2020-04-21 2021-10-28 富士フイルム株式会社 画像処理装置、画像表示システム、画像処理方法及びプログラム
KR102449240B1 (ko) * 2020-06-22 2022-09-29 주식회사 뷰노 모델 학습 방법
KR102313652B1 (ko) * 2020-12-30 2021-10-19 뉴로핏 주식회사 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220105812A (ko) 2021-01-21 2022-07-28 박수환 온라인 네트워크 기반 비대면 브이첵 자가검사에 따른 원격 의료진단 플랫폼 시스템

Also Published As

Publication number Publication date
WO2023243992A1 (ko) 2023-12-21

Similar Documents

Publication Publication Date Title
US11145058B2 (en) User interface configured to facilitate user annotation for instance segmentation within biological samples
CN110837403B (zh) 机器人过程自动化
US8442280B2 (en) Method and system for intelligent qualitative and quantitative analysis of digital radiography softcopy reading
US11176415B2 (en) Assisted image annotation
JP7373494B2 (ja) 超音波検査にアノテーションを付けるための方法および装置
KR101346539B1 (ko) 얼굴들을 상관시킴으로써 디지털 이미지들을 구조화하기
KR102043133B1 (ko) 컴퓨터 보조 진단 지원 장치 및 방법
US10789712B2 (en) Method and system for image analysis to detect cancer
KR101960667B1 (ko) 저장 영상에서 용의자 추적 장치 및 방법
JP7320280B2 (ja) ラベル収集装置、ラベル収集方法及びラベル収集プログラム
JP6334767B1 (ja) 情報処理装置、プログラム、及び情報処理方法
WO2019026406A1 (ja) 装置、試料の状態の判別方法、及び分析システム
CN117119990A (zh) 用于捕获、显示和操控医学图像和视频的系统和方法
KR20230171892A (ko) 의료 정보를 추출하는 장치 및 방법
US20230335261A1 (en) Combining natural language understanding and image segmentation to intelligently populate text reports
US20170277722A1 (en) Search service providing apparatus, system, method, and computer program
JP2012011109A (ja) 医用画像処理装置及びプログラム
EP4099225A1 (en) Method for training a classifier and system for classifying blocks
CN115461821A (zh) 处理电子图像以确定数字病理学中的凸显信息的系统和方法
US20230033263A1 (en) Information processing system, information processing method, information terminal, and non-transitory computer-readable medium
US20240145068A1 (en) Medical image analysis platform and associated methods
CA3216440A1 (en) Software testing
JP2014010738A (ja) 情報処理装置および情報処理装置の機能設定方法並びにプログラム
Szelagowski et al. Detection and removal of texts burned in medical images using deep learning