WO2023243992A1 - 의료 정보를 추출하는 장치 및 방법 - Google Patents

의료 정보를 추출하는 장치 및 방법 Download PDF

Info

Publication number
WO2023243992A1
WO2023243992A1 PCT/KR2023/008120 KR2023008120W WO2023243992A1 WO 2023243992 A1 WO2023243992 A1 WO 2023243992A1 KR 2023008120 W KR2023008120 W KR 2023008120W WO 2023243992 A1 WO2023243992 A1 WO 2023243992A1
Authority
WO
WIPO (PCT)
Prior art keywords
target image
medical information
extracting
interest
bounding boxes
Prior art date
Application number
PCT/KR2023/008120
Other languages
English (en)
French (fr)
Inventor
김중희
Original Assignee
서울대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원 filed Critical 서울대학교병원
Publication of WO2023243992A1 publication Critical patent/WO2023243992A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • Disclosed embodiments relate to devices and methods for extracting medical information.
  • PACS Picture Archiving and Communication System
  • the medical information managed in PACS comes from various medical devices, and the format and protocols are different for each medical device. In other words, when medical equipment is different, compatibility between medical information is significantly lacking.
  • the disclosed embodiments are intended to continuously execute a plurality of steps for extracting medical information as one command in one queue.
  • An apparatus for extracting medical information includes one or more processors; and a memory storing instructions for executing the one or more processors, wherein the processor includes: information about the target image including attribute data of the target image and feature data of the target image. Detect a user input requesting extraction of medical information, extract attribute data of the target image in response to the user input, classify feature data of the target image to extract the medical information, and extract a pre-learned model. A region of interest within the target image corresponding to the target image and the medical information is specified.
  • the attribute data includes at least one of the resolution and number of channels of the target image, and the feature data may include a classification prediction value for at least one of the modality, shooting direction, and number of signal channels of the target image. .
  • the processor detects one or more candidate bounding boxes corresponding to each of one or more objects included in the target image using a previously learned model, calculates a corresponding reliability for each of the one or more candidate bounding boxes, and adds the reliability to the reliability. Based on this, the one or more candidate bounding boxes can be sorted.
  • the processor may: remove overlapping bounding boxes based on the reliability of each of the one or more candidate bounding boxes, and specify a region of interest based on at least one of the remaining one or more candidate bounding boxes.
  • the processor selects a reference bounding box based on the reliability of each of the one or more candidate bounding boxes, and selects the one or more candidate bounding boxes based on a match rate between the predicted area of the reference bounding box and the predicted area of the remaining bounding boxes to be compared. Overlapping bounding boxes may be removed from the box, and the region of interest may be specified based on the candidate bounding box with the highest reliability among the remaining one or more candidate bounding boxes.
  • the processor may: When detecting a user input including at least one of a predefined mouse gesture input, shortcut key input, icon input, and voice command, the processor may initiate extraction of the medical information using a pre-trained model.
  • the processor outputs a device list including one or more medical devices that communicate with the device for extracting medical information, and displays the target image, the region of interest, and At least one of the attribute data and the feature data may be transmitted.
  • the processor may output a warning signal when at least one of the vertical resolution, horizontal resolution, and ratio between the vertical resolution and the horizontal resolution of the target image is less than or equal to a preset value.
  • a method for extracting medical information includes one or more processors; and a memory storing instructions for executing the one or more processors, the method comprising: attribute data of a target image and feature data of the target image; Detecting a user input requesting extraction of medical information for a target image; extracting attribute data of the target image in response to the user input, classifying feature data of the target image, and extracting the medical information; and specifying a region of interest in the target image corresponding to the target image and the medical information using a previously learned model.
  • the attribute data includes at least one of the resolution and number of channels of the target image, and the feature data may include a classification prediction value for at least one of the modality, shooting direction, and number of signal channels of the target image. .
  • Extracting the medical information may include removing overlapping bounding boxes based on the reliability of each of the one or more candidate bounding boxes; and specifying a region of interest based on at least one of the remaining one or more candidate bounding boxes.
  • Extracting the medical information may include selecting a reference bounding box based on the reliability of each of the one or more candidate bounding boxes; removing overlapping bounding boxes among the one or more candidate bounding boxes based on a coincidence rate between the predicted area of the reference bounding box and the predicted area of the remaining bounding boxes to be compared; and specifying the region of interest based on the remaining one or more candidate bounding boxes.
  • the transmitting step when receiving a fifth user input for dropping the target image or the region of interest in a preset region, is based on at least one of the attribute data and the feature data among the one or more pre-learned models. transmitting to a model matching the target image; allowing the matching model to medically analyze the target image; And when the medical analysis is completed, it may include outputting at least one of a visual notification signal and an auditory notification signal.
  • the disclosed embodiments can easily execute a plurality of steps for extracting medical information continuously in one queue with one command.
  • FIG. 1 is a block diagram illustrating a device for extracting medical information according to an embodiment.
  • Figure 6 is a diagram illustrating an example of a screen on which a device for extracting medical information provides extracted medical information to a user.
  • Figure 8 is a flowchart illustrating a method of extracting medical information according to an embodiment.
  • unit refers to hardware, hardware and software.
  • a unit, layer, module, device, server, or system refers to hardware that constitutes part or all of a platform and/or operates the hardware. It may refer to software such as an application, etc.
  • a unit, layer, module, device, server, or system may be implemented by a processor.
  • the medical information may include a region of interest selected as appropriate to be captured or cropped from the target image, the type and format of the target image, etc.
  • the device 100 for extracting medical information includes a processor 110 and a memory 120.
  • the processor 110 detects a user input requesting extraction of medical information about the target image, including attribute data of the target image and feature data of the target image.
  • the processor 110 may start extracting medical information using a pre-learned model.
  • the predefined user input may include, for example, at least one of a mouse gesture input, a shortcut key input, a menu click input, an icon click input, and a voice command mapped to initiate extraction of medical information.
  • the processor 110 when the processor 110 detects a mouse click input on a target image, it can sequentially perform a series of steps necessary to extract medical information from the target image and specify a region of interest.
  • the processor 110 may be interpreted as calling the extraction function when it detects a user input while waiting for the extraction function to start in the background.
  • the processor 110 may change visual signals including the shape, shape, color, and/or brightness of the screen or user interface to make the user aware that the user input has been detected and requested.
  • the processor 110 extracts attribute data of the target image in response to user input, classifies feature data of the target image, and extracts medical information.
  • Attribute data is data for describing the properties of a target image, and may include, for example, at least one of the resolution, number of channels, color space, bit depth, image format, pollution level, noise level, and compression method of the target image. You can. At this time, attribute data may be expressed in array format.
  • Feature data may be data including at least one of the modality of the target image, the shooting direction, and the number of signal channels. At this time, the feature data can be expressed as a set of classes predicted through a previously learned model.
  • feature data may be expressed as a class corresponding to the shooting direction of the target image by classifying it as Posteroanterior (PA), Anteroposterior (AP), or Lateral (Lat).
  • PA Posteroanterior
  • AP Anteroposterior
  • Lat Lateral
  • the feature data is signal data such as an electrocardiogram
  • at least one of the total number of channels and types of channels constituting the signal data may be predicted and expressed as a corresponding class.
  • the feature data is 1 channel (e.g. lead II), 3 channels (e.g. lead I, II, III), and 12 channels, predicting the number of signal channels of the electrode used for inspection corresponding to the target image. It can be expressed as a corresponding class.
  • the processor 110 may specify a region of interest in a target image by combining attribute data and feature data using a previously learned model.
  • the region of interest may refer to an area within the target image that affects the results of medical diagnosis.
  • the region of interest is an area containing important objects that influence medical diagnosis results, and a plurality of regions may exist in one target image.
  • the processor 110 may specify a region of interest by detecting one or more candidate bounding boxes corresponding to objects included in the target image using a previously learned model.
  • the processor 110 may specify at least one of the one or more candidate bounding boxes as a region of interest based on the confidence score of the one or more candidate bounding boxes detected in the target image.
  • reliability may be the probability of a bounding box that defines an area containing at least one of an electrocardiogram image or a chest radiology image in a predetermined manner in the learned model and a statistical definition equivalent thereto, and the detailed type and area of the image of the electrocardiogram, chest radiology image, etc. May include detailed types and areas of radiological images.
  • the processor 110 may define a class and area for one or more detected candidate bounding boxes, and specify at least one of the candidate bounding boxes as a region of interest based on the reliability of each bounding box.
  • the processor 110 selects the bounding box with the highest reliability as the predicted correct answer, calculates the coincidence rate between the predicted area of one or more candidate bounding boxes and the selected correct answer value, and selects overlapping bounding boxes among the one or more candidate bounding boxes. It can be removed.
  • the processor 110 may then select the bounding box with the highest reliability among the remaining bounding boxes in the same manner and repeat the process of removing overlapping bounding boxes to specify the region of interest and corresponding class for the target image.
  • the processor 110 may select an arbitrary bounding box as a region of interest by applying at least one of attribute data and specific data to a predefined candidate extraction function. Alternatively, the processor 110 may specify the candidate bounding box selected by the user as the area of interest. According to one example, the processor 110 may manually detect the area of interest based on user input.
  • the processor 110 may specify the boundary and class of the region of interest based on the user's second input designating the region of interest in the target image.
  • processor 110 when processor 110 detects a second input of a second user including at least one of a drag input and a click input that specifies the boundary of a region of interest, the processor 110 responds to at least one of the drag input and the click input. Based on this, the area of interest can also be manually specified. Before, during, or after the start of the drag input and click, a new window will be displayed allowing the user to specify a class, including changing at least one of the shape, shape, color, and brightness of the bounding box. You can do it. Additionally, the class can be specified with additional input.
  • the processor 110 may determine the suitability of the target image for extraction before specifying the area of interest. In other words, the processor 110 may determine whether the target image is suitable to be used as a target for extracting medical information.
  • the processor 110 may use attribute data of the target image to determine whether the target image meets preset qualitative or morphological conditions to determine suitability for extraction of the target image.
  • the processor 110 may exclude the target image from being extracted when at least one of the vertical resolution, horizontal resolution, and ratio between the vertical resolution and the horizontal resolution of the target image is less than or equal to a preset value.
  • the processor 110 may determine the suitability for extraction of the target image by determining whether the target image meets preset qualitative conditions using attribute data.
  • the processor 110 may output a warning signal.
  • Memory 120 stores one or more instructions that processor 110 executes.
  • the processor 110 may display the icon 20 in the content area of the first image.
  • the content area is the lower area below the toolbar and may include an area where the user performs work. For example, it may be an area where tasks such as image editing or image upload are performed.
  • the second image displays a menu 10 and submenus 101, 102, and 103.
  • the processor 110 outputs one or more submenus 101, 102, and 103 that are displayed when the menu 10 is selected based on the user input.
  • the processor 110 moves the submenus 101, 102, and 103 included in the selected menu 10 to the vicinity of the selected menu 10 so that the user can execute the tasks of the submenus 101, 102, and 103. It can be printed to .
  • the processor 110 may output the submenus 101, 102, and 103 in the form of expanding the submenus 101, 102, and 103 at the bottom of the menu 10.
  • At this time, at least one of the menu 10 and the submenus 101, 102, and 103 may be visualized through at least one of intuitive symbols, shapes, and images that describe the corresponding task.
  • the input image is a medical image (e.g., electrocardiogram image) acquired by the device 100 for extracting medical information as a subject of medical analysis, for example, an image obtained from an electronic medical record. You can.
  • a medical image e.g., electrocardiogram image
  • the processor 110 When the processor 110 detects a predefined user input, it can extract medical information of the target image that is uploaded or displayed on the screen.
  • the processor 110 may specify the region of interest using a previously learned model in an automatic designation manner.
  • the processor 110 may specify a region of interest in the target image using a learning model mapped to the input shortcut key. For example, when the shortcut key "1" mapped identically to "1" designated as the class of the ECG image is input, the processor 110 can specify a region of interest customized to the ECG image using a previously learned model. .
  • the processor 110 may specify a region of interest based on user input through manual designation.
  • the processor 110 may specify the area of interest based on the user's drag input in the diagonal direction.
  • the processor 110 may specify an area of interest based on a user's click or touch input for selecting coordinates.
  • the processor 110 may manually specify an area of interest through a user input of dragging from a starting point to an ending point.
  • the processor 110 can manually specify the area of interest based on user input by clicking or touching four points.
  • the processor 110 may generate a captured image based on the area of interest. Thereafter, after generating the captured image, the processor 110 may display a list of medical devices capable of transmitting the captured image on the same screen.
  • the processor 110 may display a list of medical devices that can be automatically transmitted on the same screen.
  • the processor 110 may cause the device 100 for extracting medical information to output at least one of a visual notification signal and an auditory notification signal.
  • the processor 110 may cause the device 100 for extracting medical information to output a notification signal including at least one of a pop-up message, an animation effect, and a notification sound on the display.
  • FIG. 5 is a diagram illustrating an example of a process in which the device 100 for extracting medical information uploads a target image.
  • the processor 110 may perform a file search and display the storage path of the target image.
  • the processor 110 receives a user input for selecting a target image
  • the selected target image may be loaded.
  • the target image may be an image pre-stored in the device 100 for extracting medical information or a medical image that can be provided from outside.
  • the processor 110 can automatically perform designated tasks required to extract medical information without user input. For example, after uploading a target image, the processor 110 may extract medical information and request medical analysis without user input.
  • the processor 110 may automatically or manually execute a specific task and then display a specific icon 20 on the screen.
  • the specific icon 20 may be an icon 20 that executes the most frequently used task after a specific task.
  • the processor 110 may display an icon 20 on the screen requesting storage of the area of interest after extracting medical information.
  • FIG. 6 is a diagram illustrating an example of a screen on which the device 100 for extracting medical information provides the extracted medical information to a user.
  • the processor 110 may display the requested medical information on the screen in order to provide the medical information requested by the user.
  • the processor 110 may display information related to the target image on the screen.
  • information related to the target image may include the file name of the image, upload time, order of inquiry requests, etc.
  • the processor 110 can only transmit a transmission request from a previously authenticated user to the medical institution's server without the user's consent.
  • Figure 8 is a flowchart illustrating a method of providing a medical platform according to an embodiment.
  • this may be performed by the apparatus 100 for extracting medical information according to an embodiment of FIG. 1.
  • the device 100 for extracting medical information detects a user input requesting extraction of medical information including attribute data of the target image and feature data of the target image from the target image (810). .
  • the device 100 for extracting medical information extracts attribute data of the target image in response to a user input, classifies feature data of the target image, and extracts medical information (820).
  • the device 100 for extracting medical information specifies a target image and a region of interest within the target image corresponding to the medical information using a previously learned model (830).

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Business, Economics & Management (AREA)
  • Pathology (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Emergency Management (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

일 실시예에 따른 의료 정보를 추출하는 장치 및 방법이 개시된다. 일 실시예에 따른 의료 정보를 추출하는 장치는 하나 이상의 프로세서; 및 상기 하나 이상의 프로세서를 실행하기 위한 명령어를 저장하는 메모리를 포함하는, 의료 정보를 추출하는 장치로서, 상기 프로세서는: 대상 이미지의 속성 데이터와 상기 대상 이미지의 특징 데이터를 포함하는 상기 대상 이미지의 의료 정보의 추출을 요청하는 사용자 입력을 감지하고, 상기 사용자 입력에 응답하여 상기 대상 이미지의 속성 데이터를 추출하고, 상기 대상 이미지의 특징 데이터를 분류하여 상기 의료 정보를 추출하고, 기 학습된 모델을 이용하여 상기 대상 이미지와 상기 의료 정보에 대응하는 상기 대상 이미지 내의 관심 영역을 특정한다.

Description

의료 정보를 추출하는 장치 및 방법
개시되는 실시예들은 의료 정보를 추출하는 장치 및 방법에 관한 것이다.
[관련 출원의 상호 참조]
본 출원은 2022년 6월 13일에 출원된 대한민국 임시출원 제10-2022-0071586호에 대한 우선권을 주장하며, 그 출원 내용 전체가 본 출원에 통합된다.
일반적으로, 의료 정보는 PACS(Picture Archiving and Communication System; 의료이미지저장전송시스템)를 통해 관리된다. 그러나, PACS는 환자의 개인 정보 보호를 이유로 원칙적으로 처리에 제한적이다.
설령, 처리가 가능하더라도 의료 정보의 업로드와 다운로드는 여러 스텝에 걸쳐 이루어져 번거로운 절차를 수반한다. 더욱이, 개인 정보 보호를 이유로 해당 절차의 진행은 환자의 동의가 요구하기도 한다.
뿐만 아니라, PACS에서 관리되는 의료 정보는 다양한 의료 장비에서 비롯된 것으로 그 형식과 프로토콜은 의료 장비마다 제각각이다. 즉, 의료 장비가 상이한 경우에는 의료 정보 간의 호환성이 상당히 부족한 실정이다.
따라서, 환자의 개인 정보의 보호와 의료 정보에 대한 처리 용이성을 강화시키기 위해, 한 번의 실행만으로도 일련의 의료 정보 추출 과정을 통합적으로 실행시키는 시스템이 필요한 실정이다.
개시되는 실시예들은 의료 정보를 추출하는 일련의 복수의 스텝들을 하나의 명령으로 연속적으로 한 큐에 실행하기 위한 것이다.
일 실시예에 따른 의료 정보를 추출하는 장치는 하나 이상의 프로세서; 및 상기 하나 이상의 프로세서를 실행하기 위한 명령어를 저장하는 메모리를 포함하는, 의료 정보를 추출하는 장치로서, 상기 프로세서는: 대상 이미지의 속성 데이터와 상기 대상 이미지의 특징 데이터를 포함하는 상기 대상 이미지에 대한 의료 정보의 추출을 요청하는 사용자 입력을 감지하고, 상기 사용자 입력에 응답하여 상기 대상 이미지의 속성 데이터를 추출하고, 상기 대상 이미지의 특징 데이터를 분류하여 상기 의료 정보를 추출하고, 기 학습된 모델을 이용하여 상기 대상 이미지와 상기 의료 정보에 대응하는 상기 대상 이미지 내의 관심 영역을 특정한다.
상기 속성 데이터는, 상기 대상 이미지의 해상도 및 채널 수 중 적어도 하나를 포함하고, 상기 특징 데이터는 상기 대상 이미지의 모달리티, 촬영 방향 및 신호 채널의 수 중 적어도 하나에 대한 분류 예측 값을 포함할 수 있다.
상기 프로세서는: 기 학습된 모델을 이용하여 상기 대상 이미지에 포함되는 하나 이상의 객체 각각에 대응하는 하나 이상의 후보 바운딩 박스를 검출하고, 상기 하나 이상의 후보 바운딩 박스 별 대응하는 신뢰도를 산출하고, 상기 신뢰도에 기초하여 상기 하나 이상의 후보 바운딩 박스를 정렬할 수 있다.
상기 프로세서는: 상기 하나 이상의 후보 바운딩 박스 각각의 신뢰도에 기초하여 중복되는 바운딩 박스를 제거하고, 나머지 하나 이상의 후보 바운딩 박스 중 적어도 하나에 기초하여 관심 영역을 특정할 수 있다.
상기 프로세서는: 상기 하나 이상의 후보 바운딩 박스 각각의 신뢰도에 기초하여 기준 바운딩 박스를 선택하고, 상기 기준 바운딩 박스의 예측 영역과 나머지 비교 대상 바운딩 박스의 예측 영역 사이의 일치율에 기초하여 상기 하나 이상의 후보 바운딩 박스에서 중복되는 바운딩 박스들을 제거하고, 상기 나머지 하나 이상의 후보 바운딩 박스 중 가장 높은 신뢰도를 갖는 후보 바운딩 박스에 기초하여 상기 관심 영역을 특정할 수 있다.
상기 프로세서는: 기 정의된 마우스 제스쳐 입력, 단축키 입력, 아이콘 입력 및 음성 명령 중 적어도 하나를 포함하는 사용자 입력을 감지한 경우, 기 학습된 모델을 이용하여 상기 의료 정보의 추출을 개시할 수 있다.
상기 프로세서는: 상기 대상 이미지에서 관심 영역을 지정하는 사용자의 제2 입력에 기초하여 상기 관심 영역의 경계를 특정하고, 상기 관심 영역의 속성을 지정하는 사용자의 제3 입력에 기초하여 상기 의료 정보를 수동으로 추출할 수 있다.
상기 프로세서는: 상기 의료 정보를 추출하는 장치와 통신하는 하나 이상의 의료 장비를 포함하는 장비 리스트를 출력하고, 상기 장비 리스트 중 제4 사용자 입력에 기초하여 선택된 의료 장비에 상기 대상 이미지, 상기 관심 영역, 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나를 전송할 수 있다.
상기 프로세서는: 기 설정된 영역에 상기 대상 이미지 또는 상기 관심 영역을 드롭하는 제5 사용자 입력을 수신하는 경우, 상기 하나 이상의 기 학습된 모델 중 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나에 기초하여 상기 대상 이미지와 매칭하는 모델에 송신하고, 상기 매칭하는 모델로 하여금 상기 대상 이미지를 의료 분석하게 하고, 상기 의료 분석이 완료된 경우, 시각적 알림 신호 및 청각적 알림 신호 중 적어도 하나를 출력할 수 있다.
상기 프로세서는: 상기 대상 이미지의 수직 해상도, 수평 해상도 및 상기 수직 해상도와 상기 수평 해상도 사이의 비율 중 적어도 하나가 기 설정된 값 이하인 경우 경고 신호를 출력할 수 있다.
일 실시예에 따른 의료 정보를 추출하는 방법은 하나 이상의 프로세서; 및 상기 하나 이상의 프로세서를 실행하기 위한 명령어를 저장하는 메모리를 포함하는 의료 정보를 추출하는 장치에 의해 수행되는 방법으로서: 상기 방법은: 대상 이미지의 속성 데이터와 상기 대상 이미지의 특징 데이터를 포함하는 상기 대상 이미지에 대한 의료 정보의 추출을 요청하는 사용자 입력을 감지하는 단계; 상기 사용자 입력에 응답하여 상기 대상 이미지의 속성 데이터를 추출하고, 상기 대상 이미지의 특징 데이터를 분류하여 상기 의료 정보를 추출하는 단계; 및 기 학습된 모델을 이용하여 상기 대상 이미지와 상기 의료 정보에 대응하는 상기 대상 이미지 내의 관심 영역을 특정하는 단계를 포함한다.
상기 속성 데이터는, 상기 대상 이미지의 해상도 및 채널 수 중 적어도 하나를 포함하고, 상기 특징 데이터는 상기 대상 이미지의 모달리티, 촬영 방향 및 신호 채널의 수 중 적어도 하나에 대한 분류 예측 값을 포함할 수 있다.
상기 의료 정보를 추출하는 단계는, 기 학습된 모델을 이용하여 상기 대상 이미지에 포함되는 하나 이상의 객체 각각에 대응하는 하나 이상의 후보 바운딩 박스를 검출하는 단계; 상기 하나 이상의 후보 바운딩 박스 별 대응하는 신뢰도를 산출하는 단계; 및 상기 신뢰도에 기초하여 상기 하나 이상의 후보 바운딩 박스를 정렬하는 단계를 포함할 수 있다.
상기 의료 정보를 추출하는 단계는, 상기 하나 이상의 후보 바운딩 박스의 각각의 신뢰도에 기초하여 중복되는 바운딩 박스를 제거하는 단계; 및 나머지 하나 이상의 후보 바운딩 박스 중 적어도 하나에 기초하여 관심 영역을 특정하는 단계를 포함할 수 있다.
상기 의료 정보를 추출하는 단계는, 상기 하나 이상의 후보 바운딩 박스 각각의 신뢰도에 기초하여 기준 바운딩 박스를 선택하는 단계; 상기 기준 바운딩 박스의 예측 영역과 나머지 비교 대상 바운딩 박스의 예측 영역 사이의 일치율에 기초하여 상기 하나 이상의 후보 바운딩 박스 중 중복되는 바운딩 박스들을 제거하는 단계; 및 상기 나머지 하나 이상의 후보 바운딩 박스에 기초하여 상기 관심 영역을 특정하는 단계를 포함할 수 있다.
상기 의료 정보를 추출하는 단계는, 기 정의된 마우스 제스쳐 입력, 단축키 입력, 아이콘 입력 및 음성 명령 중 적어도 하나를 포함하는 사용자 입력을 감지한 경우, 기 학습된 모델을 이용하여 상기 의료 정보의 추출을 개시하는 단계를 포함할 수 있다.
상기 의료 정보를 추출하는 단계는, 상기 대상 이미지에서 관심 영역을 지정하는 사용자의 제2 입력에 기초하여 상기 관심 영역의 경계를 특정하는 단계; 및 상기 관심 영역의 속성을 지정하는 사용자의 제3 입력에 기초하여 상기 의료 정보를 수동으로 추출하는 단계를 포함할 수 있다.
상기 방법은: 상기 의료 정보를 추출하는 장치와 통신하는 하나 이상의 의료 장비를 포함하는 장비 리스트를 출력하는 단계; 및 상기 장비 리스트 중 제4 사용자 입력에 기초하여 선택된 의료 장비에 상기 대상 이미지, 상기 관심 영역, 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나를 전송하는 단계를 포함할 수 있다.
상기 전송하는 단계는, 기 설정된 영역에 상기 대상 이미지 또는 상기 관심 영역을 드롭하는 제5 사용자 입력을 수신하는 경우, 상기 하나 이상의 기 학습된 모델 중 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나에 기초하여 상기 대상 이미지와 매칭하는 모델에 송신하는 단계; 상기 매칭하는 모델로 하여금 상기 대상 이미지를 의료 분석하게 하는 단계; 및 상기 의료 분석이 완료된 경우, 시각적 알림 신호 및 청각적 알림 신호 중 적어도 하나를 출력하는 단계를 포함할 수 있다.
상기 방법은: 상기 대상 이미지의 수직 해상도, 수평 해상도 및 상기 수직 해상도와 상기 수평 해상도 사이의 비율 중 적어도 하나가 기 설정된 값 이하인 경우 경고 신호를 출력하는 단계를 더 포함할 수 있다.
개시되는 실시예들은 의료 정보를 추출하는 일련의 복수의 스텝들을 하나의 명령으로 연속적으로 한 큐에 간편히 실행할 수 있다.
도 1은 일 실시예에 따른 의료 정보를 추출하는 장치를 설명하기 위한 블록도
도 2는 의료 정보를 추출하는 장치의 추출 기능을 호출하기 위한 메뉴와 아이콘을 설명하기 위한 일 예시의 도면
도 3은 의료 정보를 추출하는 장치의 추출 기능을 호출하기 위한 메뉴, 아이콘 및 서브 메뉴를 설명하기 위한 일 예시의 도면
도 4는 의료 정보를 추출하는 장치가 의료 정보를 추출하는 과정을 설명하기 위한 일 예시의 도면
도 5는 의료 정보를 추출하는 장치가 대상 이미지를 업로드하는 과정을 설명한 일 예시의 도면
도 6은 의료 정보를 추출하는 장치가 추출된 의료 정보를 사용자에게 제공하는 화면을 일 예시의 도면
도 7은 의료 정보를 추출하는 장치가 추출된 의료 정보를 사용자에게 제공하는 화면을 다른 예시의 도면
도 8은 일 실시예에 따른 의료 정보를 추출하는 방법을 설명하기 위한 흐름도
이하, 도면을 참조하여 일 실시예의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 발명에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
일 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 일 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
후술되는 용어들은 본 발명에서의 작업을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 일 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 성분들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 성분, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
또한, 본 명세서에 기술된 실시예는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고 부분적으로 소프트웨어이거나, 또는 전적으로 소프트웨어인 측면을 가질 수 있다. 본 명세서에서 "부(unit)", "계층(layer)", 모듈(module)", "장치(device)", "서버(server)" 또는 "시스템(system)" 등은 하드웨어, 하드웨어와 소프트웨어의 조합, 또는 소프트웨어 등 컴퓨터 관련 엔티티(entity)를 지칭한다. 예컨대, 부, 계층, 모듈, 장치, 서버 또는 시스템은 플랫폼(platform)의 일부 또는 전부를 구성하는 하드웨어 및/또는 상기 하드웨어를 구동하기 위한 애플리케이션(application) 등의 소프트웨어를 지칭하는 것일 수 있다. 구체적인 예로, 부, 계층, 모듈, 장치, 서버 또는 시스템은 프로세서에 의해 구현될 수 있다.
도 1은 일 실시예에 따른 의료 정보를 추출하는 장치(100)를 설명하기 위한 블록도이다.
일 실시예에 따른 의료 정보를 추출하는 장치(100)는 획득한 대상 이미지에 손쉬운 데이터 파이프 라인(data-pipe line)을 제공하는 장치이다. 구체적으로, 의료 정보를 추출하는 장치(100)는 사용자의 입력을 감지하여 의료 정보를 한 큐에 추출하는 장치를 의미할 수 있다.
여기서, 의료 정보는 대상 이미지에서 캡처 또는 크롭되기 적절한 것으로 선택되는 관심 영역, 대상 이미지의 종류, 형식 등을 포함할 수 있다.
도 1을 참조하면, 의료 정보를 추출하는 장치(100)는 프로세서(110)와 메모리(120)를 포함한다.
프로세서(110)는 대상 이미지의 속성 데이터와 대상 이미지의 특징 데이터를 포함하는 대상 이미지에 대한 의료 정보의 추출을 요청하는 사용자 입력을 감지한다.
여기서, 대상 이미지란, 환자의 생체 신호 및 생체 신호를 분석한 의료 분석의 결과를 포함하는 이미지 중 적어도 하나일 수 있다. 예를 들어, 대상 이미지는 심전도 이미지 및 흉부 방사선 이미지 중 적어도 하나를 포함할 수 있다.
프로세서(110)는 기 정의된 사용자 입력을 감지하는 경우, 기 학습된 모델을 이용하여 의료 정보의 추출을 개시할 수 있다.
여기서, 기 정의된 사용자 입력은 예를 들어, 의료 정보의 추출을 개시하도록 매핑되는 마우스 제스쳐 입력, 단축키 입력, 메뉴 클릭 입력, 아이콘 클릭 입력, 및 음성 명령 중 적어도 하나를 포함할 수 있다.
구체적인 예로, 프로세서(110)는 대상 이미지 상에 마우스의 클릭 입력을 감지하면, 대상 이미지의 의료 정보 추출 및 관심 영역의 특정에 필요한 일련의 단계들을 연속적으로 수행할 수 있다.
구체적인 예로, 프로세서(110)는 대상 이미지에 대응하여 예측된 클래스에 매핑되는 단축키의 입력을 감지하면, 단축키에 대응하는 관심 영역 특정 단계들을 연속적으로 수행할 수 있다.
즉, 프로세서(110)는 백그라운드에서 추출 기능의 개시를 대기하는 중 사용자 입력을 감지하면 상기 추출 기능을 호출하는 것으로 해석될 수 있다.
이때, 프로세서(110)는 사용자 입력이 감지되고 요청되었음을 사용자에게 인지시키기 위해, 화면 또는 유저 인터페이스의 형상, 모양, 색상 및/또는 밝기 등을 포함하는 시각적 신호를 변경할 수 있다.
한편, 의료 정보의 추출을 개시시키는 사용자 입력은 마우스 입력, 단축키 입력, 등인 것으로 설명하였으나, 이는 예시적인 것으로서 반드시 나열된 예시에 제한되는 것은 아니다.
프로세서(110)는 사용자 입력에 응답하여 대상 이미지의 속성 데이터를 추출하고, 대상 이미지의 특징 데이터를 분류하여 의료 정보를 추출한다.
속성 데이터란, 대상 이미지의 성질을 설명하기 위한 데이터로서, 예를 들어, 대상 이미지의 해상도, 채널수, 색 공간, 비트 깊이, 이미지 형식, 오염 레벨, 노이즈 레벨 및 압축 방식 중 적어도 하나를 포함할 수 있다. 이때, 속성 데이터는 어레이 형식으로 표현될 수 있다.
특징 데이터란, 대상 이미지의 모달리티, 촬영 방향 및 신호 채널의 수 중 적어도 하나를 포함하는 데이터일 수 있다. 이때, 특징 데이터는 기 학습된 모델을 통해 예측된 클래스의 집합으로 표현될 수 있다.
구체적으로, 특징 데이터는 대상 이미지가 어떠한 종류의 의료 이미지인지 분류한 예측 값을 포함할 수 있다. 구체적 예로, 특징 데이터는 모달리티를 심전도 또는 흉부방사선으로 분류하여 대응하는 클래스로 표현될 수 있다.
다른 예로, 특징 데이터는 대상 이미지의 촬영 방향을 후전 방향(Posteroanterior; PA), 전후 방향(Anteroposterior; AP) 또는 측방향(Lateral; Lat)으로 분류하여 대응하는 클래스로 표현될 수 있다. 다른 예로, 특징 데이터는 심전도와 같은 신호 데이터일 경우, 신호 데이터를 구성하는 전체 채널 수 및 채널의 종류 중 적어도 하나를 예측하여 대응하는 클래스로 표현될 수 있다. 예를 들어, 특징 데이터는 1채널(예: lead II), 3채널(예: lead I, II, III), 12채널로 대상 이미지에 대응하는 검사를 위해 사용되는 전극의 신호 채널 수를 예측하여 대응하는 클래스로 표현될 수 있다.
프로세서(110)는 기 학습된 모델을 이용하여 대상 이미지와 의료 정보에 대응하는 대상 이미지 내의 관심 영역을 특정한다.
일 예시에 따르면, 프로세서(110)는 기 학습된 모델을 이용하여 속성 데이터와 특징 데이터를 결부하여 대상 이미지 내 관심 영역을 특정할 수 있다.
여기서, 관심 영역은 의료 진단의 결과에 영향을 미치는 대상 이미지 내의 영역을 의미할 수 있다. 다시 말해, 관심 영역은 의료 진단 결과를 좌우하는 중요한 객체가 포함되는 영역으로, 하나의 대상 이미지 내에 복수 개가 존재할 수 있다.
일 예시에 따르면, 프로세서(110)는 기 학습된 모델을 이용하여 대상 이미지에 포함되는 객체에 대응하는 하나 이상의 후보 바운딩 박스를 검출하여 관심 영역을 특정할 수 있다.
일 예시에 따르면, 프로세서(110)는 대상 이미지 내 검출된 하나 이상의 후보 바운딩 박스의 신뢰도(confidence score)에 기초하여 하나 이상의 후보 바운딩 박스 중 적어도 하나를 관심 영역을 특정할 수 있다.
여기서 신뢰도란, 학습된 모델에서 심전도 이미지나 흉부방사선 이미지 중 적어도 하나를 미리 정한 방식으로 포함하는 영역을 정의하는 바운딩 박스의 확률 및 그에 준하는 통계적 정의일 수 있으며, 심전도의 이미지 세부 종류 및 영역, 흉부방사선 이미지의 세부 종류 및 영역을 포함할 수 있다.
구체적으로, 프로세서(110)는 검출된 하나 이상의 후보 바운딩 박스에 대한 클래스 및 영역을 정의하고, 각각의 바운딩 박스의 신뢰도에 기초하여 후보 바운딩 박스 중 적어도 하나를 관심 영역으로 특정할 수 있다.
프로세서(110)는 신뢰도가 가장 높은 바운딩 박스를 예측한 정답으로 선택하고, 다른 하나 이상의 후보 바운딩 박스의 예측 영역과 선택된 정답 값 사이의 일치율을 계산하여, 하나 이상의 후보 바운딩 박스 중 중복되는 바운딩 박스들을 제거할 수 있다.
프로세서(110)는 이후 동일한 방식으로 남은 바운딩 박스 중 신뢰도가 가장 높은 바운딩 박스를 선택하고, 중복되는 바운딩 박스들을 제거하는 과정을 반복하여 대상 이미지에 대해 관심 영역 및 해당 클래스를 지정할 수 있다.
프로세서(110)는 속성 데이터 및 특정 데이터 중 적어도 하나를 기 정의된 후보 추출 함수에 적용하여 임의의 바운딩 박스를 관심 영역으로 선택할 수 있다. 또는, 프로세서(110)는 사용자에 의해 선택된 후보 바운딩 박스를 관심 영역으로 특정할 수 있다.일 예시에 따르면, 프로세서(110)는 사용자 입력에 의해 관심 영역을 수동으로 검출할 수도 있다.
구체적으로, 프로세서(110)는 대상 이미지에서 관심 영역을 지정하는 사용자의 제2 입력에 기초하여 관심 영역의 경계 및 클래스를 특정할 수 있다.
예를 들어, 프로세서(110)는 관심 영역의 경계를 지정하는 드래그 입력 및 클릭 입력 중 적어도 하나를 포함하는 사용자의 제2사용자의 제2 입력을 감지하는 경우, 드래그 입력 및 클릭 입력 중 적어도 하나에 기초하여 관심 영역을 수동으로 특정할 수도 있다. 드래그 입력 및 클릭 시작 전이나 중, 후에 사용자가 클래스를 지정할 수 있도록 새로운 창이 표시되거나 바운딩 박스의 형상, 모양, 색상 및 밝기 중 적어도 하나를 변경하는 것을 포함하여 사용자로 하여금 클래스를 지정할 수 있음을 인지하게 할 수 있다. 또한 추가 입력으로 클래스를 특정할 수 있다.
프로세서(110)는 관심 영역을 특정하기 이전에, 대상 이미지의 추출 적합성을 판단할 수 있다. 다시 말해, 프로세서(110)는 대상 이미지가 의료 정보의 추출 대상으로 사용되기 적합한지 여부를 판단할 수 있다.
구체적으로, 프로세서(110)는 대상 이미지의 속성 데이터를 이용하여 대상 이미지가 기 설정된 질적 혹은 형태적 조건에 부합하는지 여부를 판단하여 대상 이미지의 추출 적합성을 판단할 수 있다.
예를 들어, 프로세서(110)는 대상 이미지의 수직 해상도, 수평 해상도, 및 수직 해상도와 수평 해상도 사이의 비율 중 적어도 하나가 기 설정된 값 이하인 경우, 대상 이미지를 추출 대상에서 배제할 수 있다.
프로세서(110)는 속성 데이터를 이용하여 대상 이미지가 기 설정된 질적 조건에 부합하는지 여부를 판단하여 대상 이미지의 추출 적합성을 판단할 수 있다.
예를 들어, 프로세서(110)는 대상 이미지의 오염 레벨 및 노이즈 레벨이 기 설정된 값 이상인 경우 대상 이미지를 추출 대상에서 배제할 수 있다. 프로세서(110)는 대상 이미지의 이미지 형식이 기 정의된 형식에 부합하지 않는 경우, 대상 이미지를 추출 대상에서 배제할 수 있다.
프로세서(110)는 대상 이미지가 대상 이미지로 사용되기 위한 형태적 조건 및 질적 조건 중 적어도 하나를 만족하지 않는 것으로 판단하는 경우, 경고 신호를 출력할 수 있다.
프로세서(110)는 대상 이미지의 형태적 조건 결과 및 질적 조건 결과 중 적어도 하나에 기초하여 추출 적합성을 정성적 및/또는 정량적으로 평가할 수 있다.
메모리(120)는 프로세서(110)가 실행하는 하나 이상의 명령어를 저장한다.
메모리(120)는 프로세서(110)에 의해 사용되는 다양한 데이터를 저장할 수 있다. 예를 들어, 메모리(120)는 소프트웨어(예: 프로세서(110)에 의해 실행되는 프로그램 및/또는 프로그램과 관련된 명령어, 명령어와 관련된 라이브러리, 명령어에 대한 입력 데이터 또는 출력 데이터)를 포함할 수 있다.
메모리(120)는, 휘발성 메모리(120) 또는 비휘발성 메모리(120)를 포함할 수 있다.
도 2는 의료 정보를 추출하는 장치(100)의 추출 기능을 호출하기 위한 메뉴(10)와 아이콘(20)을 설명하기 위한 일 예시의 도면이다.
도 2를 참조하면, 제1 이미지는 메뉴(10)와 아이콘(20)을 포함한다.
프로세서(110)는 제1 이미지의 상단에 메뉴(10)를 디스플레이할 수 있다. 프로세서(110)는 사용자 편의성을 제고하고자 하나 이상의 메뉴(10)를 툴바에 집합시켜 디스플레이할 수 있다.
프로세서(110)는 제1 이미지의 컨텐츠 영역에 아이콘(20)을 디스플레이할 수 있다. 컨텐츠 영역이란, 툴바 아래의 하단 영역으로, 사용자가 작업을 수행하는 영역을 포함할 수 있다. 예를 들어, 이미지를 편집, 이미지 업로드 등의 작업을 수행하는 영역일 수 있다.
도 3은 의료 정보를 추출하는 장치(100)의 추출 기능을 호출하기 위한 메뉴(10), 아이콘(20) 및 서브 메뉴(101, 102, 103)를 설명하기 위한 일 예시의 도면이다.
도 3을 참조하면, 제2 이미지는 메뉴(10)와 서브 메뉴(101, 102, 103)를 디스플레이 한다. 구체적으로, 프로세서(110)는 사용자 입력에 기초하여 메뉴(10) 선택 시 디스플레이 되는 하나 이상의 서브 메뉴(101, 102, 103)를 출력한다.
이때, 프로세서(110)는 사용자 입력을 통해 선택된(예: 클릭) 메뉴(10)의 형상, 모양, 색상 및 밝기 중 적어도 하나를 변경하여 사용자로 하여금 선택된 메뉴(10)가 실행되었음을 인지하게 할 수 있다.
이후, 프로세서(110)는 사용자로 하여금 서브 메뉴(101, 102, 103)의 작업을 실행할 수 있도록 선택된 메뉴(10)에 포함되는 서브 메뉴(101, 102, 103)를 선택된 메뉴(10)의 근방에 출력할 수 있다. 예를 들어, 프로세서(110)는 메뉴(10)의 하단에 서브 메뉴(101, 102, 103)들을 펼치는 형태로 서브 메뉴(101, 102, 103)들을 출력할 수 있다.
즉, 프로세서(110)는 메뉴(10)가 출력된 동일한 이미지에서 메뉴(10)의 서브 메뉴(101, 102, 103)를 오버랩하여 출력할 수 있다. 예를 들어, 메뉴(10)가 제1 이미지에 배치되는 경우, 프로세서(110)는 제1 이미지에서 서브 메뉴(101, 102, 103)를 출력할 수 있다. 메뉴(10)가 제2 이미지에 배치되는 경우, 프로세서(110)는 제2 이미지에서 서브 메뉴(101, 102, 103)를 출력할 수 있다.
이때, 메뉴(10) 및 서브 메뉴(101, 102, 103) 중 적어도 하나는 대응하는 작업을 설명하는 직관적인 기호, 모양 및 이미지 중 적어도 하나를 통해 시각화될 수 있다.
예컨대, 캡처 작업과 관련된 메뉴(10) 또는 서브 메뉴(101, 102, 103)는 사진기를 형상화 한 로고, 마크, 기호 등을 포함하는 이미지로 시각화하여 캡처 작업에 대한 설명을 직관적으로 제공할 수 있다.
다른 예로, 업로드와 관련된 메뉴(10)는 위쪽 화살표를 형상화 한 로고, 마크, 기호 등을 포함하는 이미지로 시각화하여 업로드 작업에 대한 설명을 직관적으로 제공할 수 있다.
반면, 프로세서(110)는 아이콘(20)의 실행을 요청하는 사용자 입력이 수신되면, 메뉴(10)에 포함되는 하나 이상의 서브 메뉴(101, 102, 103)를 조회하지 않고, 아이콘(20)과 대응하는 서브 메뉴(101, 102, 103)를 곧바로 실행할 수 있다.
아이콘(20)은 대응하는 작업을 설명하는 직관적인 기호, 모양 및 이미지 중 적어도 하나를 통해 시각화될 수 있다.
도 4는 의료 정보를 추출하는 장치(100)가 의료 정보를 추출하는 과정을 설명하기 위한 일 예시의 도면이다.
도 4의 대상 이미지는 대상 이미지로 선정되고, 사용자 입력에 따른 추출 기능의 호출을 대기하는 상태이다.
여기서, 입력 이미지란, 의료 분석의 대상으로 의료 정보를 추출하는 장치(100)가 획득한 의료 이미지(예: 심전도 이미지)로서, 예를 들어, 전자의무기록(Electronic Medical Record)으로부터 획득된 이미지일 수 있다.
프로세서(110)는 기 정의된 사용자 입력을 감지하면, 업로드 또는 화면 상에 표시되는 대상 이미지의 의료 정보를 추출할 수 있다.
여기서, 프로세서(110)는 자동 지정의 방식으로, 기 학습된 모델을 이용하여 관심 영역을 특정할 수 있다.
프로세서(110)는 입력된 단축키에 매핑되는 학습 모델을 이용하여 대상 이미지에서 관심 영역을 특정할 수 있다. 예를 들어, 프로세서(110)는 심전도 이미지의 클래스로 지정된 "1"과 동일하게 매핑된 단축키"1"이 입력되면, 기 학습된 모델을 이용하여 심전도 이미지에 맞춤화된 관심 영역을 특정할 수 있다.
프로세서(110)는 속성 데이터, 특징 데이터 및 사용자 입력 중 적어도 하나에 기초하여 매핑되는 분석 모델에 관심 영역을 전송하고, 분석 모델로 하여금 관심 영역에 대응하는 의료 진단을 분석하게 할 수 있다.
다른 예로, 프로세서(110)는 수동 지정의 방식으로, 사용자 입력에 기초하여 관심 영역을 특정할 수 있다.
구체적으로, 프로세서(110)는 대각선 방향의 사용자의 드래그 입력에 기초하여 관심 영역을 특정할 수 있다. 또는, 프로세서(110)는 좌표를 선택하는 사용자의 클릭 또는 터치 입력에 기초하여 관심 영역을 특정할 수도 있다.
구체적인 예로, 프로세서(110)는 시작 지점에서 끝 지점까지 드래그하는 사용자 입력을 통해 관심 영역을 수동으로 특정할 수 있다. 프로세서(110)는 네 개의 지점을 클릭 또는 터치하는 사용자 입력에 기초하여 관심 영역을 수동으로 특정할 수 있다.
프로세서(110)는 관심 영역이 특정된 후, 관심 영역에 기초하여 캡처 이미지를 생성할 수 있다. 이후, 프로세서(110)는, 캡처 이미지 생성 후, 캡처 이미지를 송신할 수 있는 의료 장비 리스트를 동일한 화면에 표시할 수 있다.
구체적으로, 프로세서(110)는 사용자의 우클릭 입력 또는 해당 작업을 실행하는 아이콘(20)의 클릭 입력을 감지하는 경우 또는 자동으로 송신할 수 있는 의료 장비 리스트를 동일한 화면에 표시할 수 있다.
이후, 프로세서(110)는 기 설정된 영역에 캡처 이미지를 드롭하는 사용자 입력을 수신하는 경우, 분석 모델로 하여금 대상 이미지의 생체 신호 종류에 대응하여 의료 분석하게 할 수 있다.
이후, 프로세서(110)는 의료 분석이 완료된 경우, 의료 정보를 추출하는 장치(100)로 하여금 시각적 알림 신호 및 청각적 알림 신호 중 적어도 하나를 출력하게 할 수 있다.
예를 들어, 프로세서(110)는 의료 정보를 추출하는 장치(100)로 하여금 디스플레이에 팝업 메시지, 애니메이션 효과 및 알림 소리 중 적어도 하나를 포함하는 알림 신호를 출력하게 할 수 있다.
도 5는 의료 정보를 추출하는 장치(100)가 대상 이미지를 업로드하는 과정을 설명한 일 예시의 도면이다.
프로세서(110)는 제2 서브 메뉴(102) 또는 제2 아이콘(20-2)을 선택하는 사용자 입력을 수신하는 경우, 파일 탐색을 실행하여 대상 이미지의 저장 경로를 표시할 수 있다.
이후, 프로세서(110)가 대상 이미지를 선택하는 사용자 입력을 수신하는 경우, 선택된 대상 이미지를 불러올 수 있다. 여기서, 대상 이미지는 의료 정보를 추출하는 장치(100)에 기 저장된 이미지 또는 외부로부터 제공될 수 있는 의료 이미지일 수 있다.
프로세서(110)는 이미지 업로드 후, 사용자 입력 없이 의료 정보 추출에 필요한 지정된 작업을 자동으로 수행할 수 있다. 예를 들어, 프로세서(110)는 대상 이미지를 업로드한 이후, 사용자 입력 없이, 의료 정보를 추출하고, 의료 분석을 요청할 수 있다.
프로세서(110)는 특정한 작업을 자동 또는 수동 실행한 후, 화면에 특정한 아이콘(20)을 표시할 수 있다. 예컨대, 특정한 아이콘(20)은, 특정한 작업 이후 가장 빈번하게 사용되는 작업을 실행하는 아이콘(20)일 수 있다. 구체적인 예로, 의료 정보 추출 이후, 사용자로부터 관심 영역을 저장하는 요청이 빈번한 경우, 프로세서(110)는 의료 정보 추출 이후, 관심 영역의 저장을 요청하는 아이콘(20)을 화면에 표시할 수 있다.
도 6은 의료 정보를 추출하는 장치(100)가 추출된 의료 정보를 사용자에게 제공하는 화면을 일 예시의 도면이다.
프로세서(110)는 사용자가 요청한 의료 정보를 제공하고자, 요청된 의료 정보를 화면에 표시할 수 있다.
구체적으로, 프로세서(110)는 대상 이미지와 관련된 정보를 화면에 표시할 수 있다. 예를 들어, 대상 이미지와 관련된 정보는 이미지의 파일명, 업로드 시각, 조회 요청 순서 등을 포함할 수 있다.
구체적으로, 프로세서(110)는 대상 이미지의 의료 분석의 결과를 화면에 표시할 수 있다. 이때, 의료 분석의 결과는 기 학습된 모델을 이용하여 의료 정보에 기초하여 분석된 의료 분석의 결과를 의미할 수 있다. 여기서, 의료 분석의 결과는 환자 이름, 환자 번호 식별코드 및 진단명 중 적어도 하나를 포함할 수 있다.
도 7은 의료 정보를 추출하는 장치(100)가 추출된 의료 정보를 사용자에게 제공하는 화면을 다른 예시의 도면이다.
프로세서(110)는 대상 이미지와 관련된 정보 및 의료 분석의 결과 중 적어도 하나를 의료 기관의 서버에 전송할 수 있다.
이때, 프로세서(110)는 기 인증된 사용자의 전송 요청에 한하여 사용자의 동의 없이 의료 기관의 서버에 전송할 수 있다.
도 8은 일 실시예에 따른 의료 플랫폼을 제공하는 방법을 설명하기 위한 흐름도이다.
도 8을 참조하면, 도 1의 일 실시예에 따른 의료 정보를 추출하는 장치(100)에 의해 수행될 수 있다.
우선, 일 실시예에 따른 의료 정보를 추출하는 장치(100)는 대상 이미지로부터 대상 이미지의 속성 데이터와 대상 이미지의 특징 데이터를 포함하는 의료 정보에 대한 추출을 요청하는 사용자 입력을 감지(810)한다.
이후, 일 실시예에 따른 의료 정보를 추출하는 장치(100)는 사용자 입력에 응답하여 대상 이미지의 속성 데이터를 추출하고, 대상 이미지의 특징 데이터를 분류하여 의료 정보를 추출(820)한다.
이후, 일 실시예에 따른 의료 정보를 추출하는 장치(100)는 기 학습된 모델을 이용하여 대상 이미지와 상기 의료 정보에 대응하는 대상 이미지 내의 관심 영역을 특정(830)한다.
한편, 본 발명의 실시예는 본 명세서에서 기술한 방법들을 컴퓨터상에서 수행하기 위한 프로그램, 및 상기 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 또는 컴퓨터 소프트웨어 분야에서 통상적으로 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 및 롬, 램, 플래시 메모리(120) 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.
일 실시예에 따른 의료 정보를 추출하는 장치 및 방법은 한 번의 사용자 명령으로 일련의 의료 정보 추출 과정을 한 큐에 실행시킴으로써, 디지털 의료 산업에 이용 가능하다.

Claims (20)

  1. 하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서를 실행하기 위한 명령어를 저장하는 메모리를 포함하는, 의료 정보를 추출하는 장치로서,
    상기 프로세서는:
    대상 이미지의 속성 데이터와 상기 대상 이미지의 특징 데이터를 포함하는 상기 대상 이미지에 대한 의료 정보의 추출을 요청하는 사용자 입력을 감지하고,
    상기 사용자 입력에 응답하여 상기 대상 이미지의 속성 데이터를 추출하고, 상기 대상 이미지의 특징 데이터를 분류하여 상기 의료 정보를 추출하고,
    기 학습된 모델을 이용하여 상기 대상 이미지와 상기 의료 정보에 대응하는 상기 대상 이미지 내의 관심 영역을 특정하는, 의료 정보를 추출하는 장치.
  2. 제1항에 있어서,
    상기 속성 데이터는, 상기 대상 이미지의 해상도 및 채널 수 중 적어도 하나를 포함하고,
    상기 특징 데이터는 상기 대상 이미지의 모달리티, 촬영 방향 및 신호 채널의 수 중 적어도 하나에 대한 분류 예측 값을 포함하는, 의료 정보를 추출하는 장치.
  3. 제1항에 있어서,
    상기 프로세서는:
    기 학습된 모델을 이용하여 상기 대상 이미지에 포함되는 하나 이상의 객체 각각에 대응하는 하나 이상의 후보 바운딩 박스를 검출하고, 상기 하나 이상의 후보 바운딩 박스 별 대응하는 신뢰도를 산출하고, 상기 신뢰도에 기초하여 상기 하나 이상의 후보 바운딩 박스를 정렬하는, 의료 정보를 추출하는 장치.
  4. 제3항에 있어서,
    상기 프로세서는:
    상기 하나 이상의 후보 바운딩 박스 각각의 신뢰도에 기초하여 중복되는 바운딩 박스를 제거하고, 나머지 하나 이상의 후보 바운딩 박스 중 적어도 하나에 기초하여 관심 영역을 특정하는, 의료 정보를 추출하는 장치.
  5. 제4항에 있어서,
    상기 프로세서는:
    상기 하나 이상의 후보 바운딩 박스 각각의 신뢰도에 기초하여 기준 바운딩 박스를 선택하고, 상기 기준 바운딩 박스의 예측 영역과 나머지 비교 대상 바운딩 박스의 예측 영역 사이의 일치율에 기초하여 상기 하나 이상의 후보 바운딩 박스에서 중복되는 바운딩 박스들을 제거하고, 상기 나머지 하나 이상의 후보 바운딩 박스 중 가장 높은 신뢰도를 갖는 후보 바운딩 박스에 기초하여 상기 관심 영역을 특정하는, 의료 정보를 추출하는 장치.
  6. 제1항에 있어서,
    상기 프로세서는:
    기 정의된 마우스 제스쳐 입력, 단축키 입력, 아이콘 입력 및 음성 명령 중 적어도 하나를 포함하는 사용자 입력을 감지한 경우, 기 학습된 모델을 이용하여 상기 의료 정보의 추출을 개시하는, 의료 정보를 추출하는 장치.
  7. 제1항에 있어서,
    상기 프로세서는:
    상기 대상 이미지에서 관심 영역을 지정하는 사용자의 제2 입력에 기초하여 상기 관심 영역의 경계를 특정하고, 상기 관심 영역의 속성을 지정하는 사용자의 제3 입력에 기초하여 상기 의료 정보를 수동으로 추출하는, 의료 정보를 추출하는 장치.
  8. 제1항에 있어서,
    상기 프로세서는:
    상기 의료 정보를 추출하는 장치와 통신하는 하나 이상의 의료 장비를 포함하는 장비 리스트를 출력하고, 상기 장비 리스트 중 제4 사용자 입력에 기초하여 선택된 의료 장비에 상기 대상 이미지, 상기 관심 영역, 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나를 전송하는, 의료 정보를 추출하는 장치.
  9. 제8항에 있어서,
    상기 프로세서는:
    기 설정된 영역에 상기 대상 이미지 또는 상기 관심 영역을 드롭하는 제5 사용자 입력을 수신하는 경우, 상기 하나 이상의 기 학습된 모델 중 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나에 기초하여 상기 대상 이미지와 매칭하는 모델에 송신하고, 상기 매칭하는 모델로 하여금 상기 대상 이미지를 ㅊ하게 하고, 상기 의료 분석이 완료된 경우, 시각적 알림 신호 및 청각적 알림 신호 중 적어도 하나를 출력하는, 의료 정보를 추출하는 장치.
  10. 제1항에 있어서,
    상기 프로세서는:
    상기 대상 이미지의 수직 해상도, 수평 해상도 및 상기 수직 해상도와 상기 수평 해상도 사이의 비율 중 적어도 하나가 기 설정된 값 이하인 경우 경고 신호를 출력하는, 의료 정보를 추출하는 장치.
  11. 하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서를 실행하기 위한 명령어를 저장하는 메모리를 포함하는 의료 정보를 추출하는 장치에 의해 수행되는 방법으로서:
    상기 방법은:
    대상 이미지의 속성 데이터와 상기 대상 이미지의 특징 데이터를 포함하는 상기 대상 이미지에 대한 의료 정보의 추출을 요청하는 사용자 입력을 감지하는 단계;
    상기 사용자 입력에 응답하여 상기 대상 이미지의 속성 데이터를 추출하고, 상기 대상 이미지의 특징 데이터를 분류하여 상기 의료 정보를 추출하는 단계; 및
    기 학습된 모델을 이용하여 상기 대상 이미지와 상기 의료 정보에 대응하는 상기 대상 이미지 내의 관심 영역을 특정하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  12. 제11항에 있어서,
    상기 속성 데이터는, 상기 대상 이미지의 해상도 및 채널 수 중 적어도 하나를 포함하고,
    상기 특징 데이터는 상기 대상 이미지의 모달리티, 촬영 방향 및 신호 채널의 수 중 적어도 하나에 대한 분류 예측 값을 포함하는, 의료 정보를 추출하는 방법.
  13. 제11항에 있어서,
    상기 의료 정보를 추출하는 단계는,
    기 학습된 모델을 이용하여 상기 대상 이미지에 포함되는 하나 이상의 객체 각각에 대응하는 하나 이상의 후보 바운딩 박스를 검출하는 단계;
    상기 하나 이상의 후보 바운딩 박스 별 대응하는 신뢰도를 산출하는 단계; 및
    상기 신뢰도에 기초하여 상기 하나 이상의 후보 바운딩 박스를 정렬하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  14. 제13항에 있어서,
    상기 의료 정보를 추출하는 단계는,
    상기 하나 이상의 후보 바운딩 박스의 각각의 신뢰도에 기초하여 중복되는 바운딩 박스를 제거하는 단계; 및
    나머지 하나 이상의 후보 바운딩 박스 중 적어도 하나에 기초하여 관심 영역을 특정하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  15. 제14항에 있어서,
    상기 의료 정보를 추출하는 단계는,
    상기 하나 이상의 후보 바운딩 박스 각각의 신뢰도에 기초하여 기준 바운딩 박스를 선택하는 단계;
    상기 기준 바운딩 박스의 예측 영역과 나머지 비교 대상 바운딩 박스의 예측 영역 사이의 일치율에 기초하여 상기 하나 이상의 후보 바운딩 박스 중 중복되는 바운딩 박스들을 제거하는 단계; 및
    상기 나머지 하나 이상의 후보 바운딩 박스에 기초하여 상기 관심 영역을 특정하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  16. 제11항에 있어서,
    상기 의료 정보를 추출하는 단계는,
    기 정의된 마우스 제스쳐 입력, 단축키 입력, 아이콘 입력 및 음성 명령 중 적어도 하나를 포함하는 사용자 입력을 감지한 경우, 기 학습된 모델을 이용하여 상기 의료 정보의 추출을 개시하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  17. 제11항에 있어서,
    상기 의료 정보를 추출하는 단계는,
    상기 대상 이미지에서 관심 영역을 지정하는 사용자의 제2 입력에 기초하여 상기 관심 영역의 경계를 특정하는 단계; 및
    상기 관심 영역의 속성을 지정하는 사용자의 제3 입력에 기초하여 상기 의료 정보를 수동으로 추출하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  18. 제11항에 있어서,
    상기 방법은:
    상기 의료 정보를 추출하는 장치와 통신하는 하나 이상의 의료 장비를 포함하는 장비 리스트를 출력하는 단계; 및
    상기 장비 리스트 중 제4 사용자 입력에 기초하여 선택된 의료 장비에 상기 대상 이미지, 상기 관심 영역, 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나를 전송하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  19. 제18항에 있어서,
    상기 전송하는 단계는,
    기 설정된 영역에 상기 대상 이미지 또는 상기 관심 영역을 드롭하는 제5 사용자 입력을 수신하는 경우, 상기 하나 이상의 기 학습된 모델 중 상기 속성 데이터 및 상기 특징 데이터 중 적어도 하나에 기초하여 상기 대상 이미지와 매칭하는 모델에 송신하는 단계;
    상기 매칭하는 모델로 하여금 상기 대상 이미지를 의료 분석하게 하는 단계; 및
    상기 의료 분석이 완료된 경우, 시각적 알림 신호 및 청각적 알림 신호 중 적어도 하나를 출력하는 단계를 포함하는, 의료 정보를 추출하는 방법.
  20. 제11항에 있어서,
    상기 방법은:
    상기 대상 이미지의 수직 해상도, 수평 해상도 및 상기 수직 해상도와 상기 수평 해상도 사이의 비율 중 적어도 하나가 기 설정된 값 이하인 경우 경고 신호를 출력하는 단계를 더 포함하는, 의료 정보를 추출하는 방법.
PCT/KR2023/008120 2022-06-13 2023-06-13 의료 정보를 추출하는 장치 및 방법 WO2023243992A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0071586 2022-06-13
KR20220071586 2022-06-13

Publications (1)

Publication Number Publication Date
WO2023243992A1 true WO2023243992A1 (ko) 2023-12-21

Family

ID=89191557

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/008120 WO2023243992A1 (ko) 2022-06-13 2023-06-13 의료 정보를 추출하는 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20230171892A (ko)
WO (1) WO2023243992A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140144065A (ko) * 2013-06-10 2014-12-18 삼성전자주식회사 의료 영상 촬영 방법 및 장치, 및 개인화된 파라미터 값의 생성 방법
KR20170046115A (ko) * 2015-07-21 2017-04-28 (주)아이알엠 의료 영상과 관련된 장치들 간에 송수신되는 의료 데이터를 생성하는 방법 및 장치.
KR102313652B1 (ko) * 2020-12-30 2021-10-19 뉴로핏 주식회사 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템
WO2021215357A1 (ja) * 2020-04-21 2021-10-28 富士フイルム株式会社 画像処理装置、画像表示システム、画像処理方法及びプログラム
KR20210157795A (ko) * 2020-06-22 2021-12-29 주식회사 뷰노 모델 학습 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102531211B1 (ko) 2021-01-21 2023-05-10 박수환 온라인 네트워크 기반 비대면 브이첵 자가검사에 따른 원격 의료진단 플랫폼 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140144065A (ko) * 2013-06-10 2014-12-18 삼성전자주식회사 의료 영상 촬영 방법 및 장치, 및 개인화된 파라미터 값의 생성 방법
KR20170046115A (ko) * 2015-07-21 2017-04-28 (주)아이알엠 의료 영상과 관련된 장치들 간에 송수신되는 의료 데이터를 생성하는 방법 및 장치.
WO2021215357A1 (ja) * 2020-04-21 2021-10-28 富士フイルム株式会社 画像処理装置、画像表示システム、画像処理方法及びプログラム
KR20210157795A (ko) * 2020-06-22 2021-12-29 주식회사 뷰노 모델 학습 방법
KR102313652B1 (ko) * 2020-12-30 2021-10-19 뉴로핏 주식회사 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템

Also Published As

Publication number Publication date
KR20230171892A (ko) 2023-12-21

Similar Documents

Publication Publication Date Title
WO2016171341A1 (ko) 클라우드 기반 병리 분석 시스템 및 방법
KR101346539B1 (ko) 얼굴들을 상관시킴으로써 디지털 이미지들을 구조화하기
WO2021049729A1 (ko) 인공지능 모델을 이용한 폐암 발병 가능성 예측 방법 및 분석 장치
WO2020096098A1 (ko) 어노테이션 작업 관리 방법, 이를 지원하는 장치 및 시스템
KR101960667B1 (ko) 저장 영상에서 용의자 추적 장치 및 방법
WO2011021907A2 (en) Metadata tagging system, image searching method and device, and method for tagging a gesture thereof
WO2012134106A2 (ko) 의료 영상 정보 저장과 표시 방법 및 그 장치
WO2019235828A1 (ko) 투 페이스 질병 진단 시스템 및 그 방법
WO2020017875A1 (en) Electronic apparatus, method for processing image and computer-readable recording medium
WO2021137454A1 (ko) 인공지능 기반의 사용자 의료정보 분석 방법 및 시스템
JP2006309770A (ja) スライド画像判定デバイスおよびスライド画像判定プログラム
WO2021246770A1 (ko) 인공지능 기반 실시간 자동 엑스레이 영상 판독 방법 및 시스템
US20230190404A1 (en) Systems and methods for capturing, displaying, and manipulating medical images and videos
WO2013039330A2 (ko) 의료영상에서의 세그멘테이션 방법 및 그 장치
WO2023243992A1 (ko) 의료 정보를 추출하는 장치 및 방법
WO2022039366A1 (ko) 전자 장치 및 그 제어 방법
WO2021101357A1 (ko) 데이터 라벨링을 위한 바운딩 박스 그리기 방법 및 장치
WO2016036049A1 (ko) 검색 서비스 제공 장치, 시스템, 방법 및 컴퓨터 프로그램
WO2021256597A1 (ko) 객체 레이블링을 통한 사용자맞춤 이미지식별 딥러닝 모델 생성을 위한 시스템 및 이의 운용 방법
JP2009042960A (ja) 保守作業支援システム
WO2018056587A1 (en) Electronic apparatus and controlling method thereof
WO2020045909A1 (en) Apparatus and method for user interface framework for multi-selection and operation of non-consecutive segmented information
WO2019164273A1 (ko) 수술영상을 기초로 수술시간을 예측하는 방법 및 장치
WO2023282500A1 (ko) 슬라이드 스캔 데이터의 자동 레이블링 방법, 장치 및 프로그램
WO2015174623A1 (ko) 입력 처리 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23824207

Country of ref document: EP

Kind code of ref document: A1