WO2024111846A1 - Method and device for detecting intraoperative bleeding through spatiotemporal feature fusion model - Google Patents

Method and device for detecting intraoperative bleeding through spatiotemporal feature fusion model Download PDF

Info

Publication number
WO2024111846A1
WO2024111846A1 PCT/KR2023/014458 KR2023014458W WO2024111846A1 WO 2024111846 A1 WO2024111846 A1 WO 2024111846A1 KR 2023014458 W KR2023014458 W KR 2023014458W WO 2024111846 A1 WO2024111846 A1 WO 2024111846A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature data
data
temporal
bleeding
spatial feature
Prior art date
Application number
PCT/KR2023/014458
Other languages
French (fr)
Korean (ko)
Inventor
홍슬기
홍승범
김근영
장준영
최민국
Original Assignee
(주)휴톰
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴톰 filed Critical (주)휴톰
Publication of WO2024111846A1 publication Critical patent/WO2024111846A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Definitions

  • the present disclosure relates to methods and devices for detecting bleeding during surgery. More specifically, the present disclosure relates to a method and device for detecting intraoperative bleeding through a spatiotemporal feature fusion model.
  • Intraoperative active bleeding is a representative adverse event associated with surgery. If iAB occurs, it can delay surgery time and damage organs, adversely affecting the patient's surgical results.
  • the purpose of the embodiments disclosed in the present disclosure is to provide a method and device for detecting bleeding during surgery through a spatiotemporal feature fusion model.
  • AI artificial intelligence
  • AI Artificial intelligence
  • a computer program stored in a computer-readable recording medium for implementing the present disclosure may be further provided.
  • a computer-readable recording medium recording a computer program for implementing the present disclosure may be further provided.
  • a method and device for detecting bleeding during surgery can be provided through a spatiotemporal feature fusion model.
  • FIG. 1 is a schematic diagram of a system for implementing a method for detecting intraoperative bleeding through surgical images, according to an embodiment of the present disclosure.
  • Figure 2 is a block diagram for explaining the configuration of an apparatus for detecting bleeding during surgery through surgical images, according to an embodiment of the present disclosure.
  • Figure 3 is a flowchart for explaining a method of detecting bleeding during surgery through a surgical image, according to an embodiment of the present disclosure.
  • FIG. 4 is a diagram illustrating an architecture for performing a method of detecting intraoperative bleeding through surgical images, according to an embodiment of the present disclosure.
  • Figure 5 is a diagram for explaining a method of detecting bleeding during surgery through a surgical image using an AI model, according to an embodiment of the present disclosure.
  • Figure 6 shows examples of temporal feature data and spatial feature data to which the present disclosure can be applied.
  • first and second are used to distinguish one component from another component, and the components are not limited by the above-mentioned terms.
  • the identification code for each step is used for convenience of explanation.
  • the identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.
  • 'device according to the present disclosure includes all various devices that can perform computational processing and provide results to the user.
  • the device according to the present disclosure may include all of a computer, a server device, and a portable terminal, or may take the form of any one.
  • the computer may include, for example, a laptop, desktop, laptop, tablet PC, slate PC, etc. equipped with a web browser.
  • the server device is a server that processes information by communicating with external devices and may include an application server, computing server, database server, file server, game server, mail server, proxy server, and web server.
  • the portable terminal is, for example, a wireless communication device that guarantees portability and mobility, such as PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), and PDA. (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), WiBro (Wireless Broadband Internet) terminal, smart phone ), all types of handheld wireless communication devices, and wearable devices such as watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted-device (HMD). may include.
  • PCS Personal Communication System
  • GSM Global System for Mobile communications
  • PDC Personal Digital Cellular
  • PHS Personal Handyphone System
  • PDA Personal Digital Assistant
  • IMT International Mobile Telecommunication
  • CDMA Code Division Multiple Access
  • W-CDMA Wideband Code Division Multiple Access
  • WiBro Wireless Broadband Internet
  • smart phone smart phone
  • a “user” is a medical professional and may be a doctor, nurse, clinical pathologist, medical imaging expert, etc., and may be a technician who repairs/controls a medical device, but is not limited thereto.
  • “surgery” refers to a surgical treatment performed by incising the skin or mucous membrane for disease or trauma.
  • FIG. 1 is a schematic diagram of a system 1000 for implementing a method for detecting intraoperative bleeding through surgical images, according to an embodiment of the present disclosure.
  • the system 1000 for implementing a method of detecting bleeding during surgery through surgical images includes a device 100, a hospital server 200, a database 300, and an AI model 400. ) may include.
  • the device 100 is shown to be implemented in the form of a single desktop, but it is not limited thereto.
  • device 100 may refer to various types of devices or a group of devices in which one or more types of devices are connected.
  • the device 100, hospital server 200, database 300, and artificial intelligence (AI) model 400 included in the system 1000 can communicate through the network (W).
  • the network W may include a wired network and a wireless network.
  • the network may include various networks such as a local area network (LAN), a metropolitan area network (MAN), and a wide area network (WAN).
  • LAN local area network
  • MAN metropolitan area network
  • WAN wide area network
  • the network W may include the known World Wide Web (WWW).
  • WWW World Wide Web
  • the network (W) according to an embodiment of the present disclosure is not limited to the networks listed above, and may include at least some of a known wireless data network, a known telephone network, and a known wired and wireless television network.
  • the device 100 may acquire a surgical image consisting of a plurality of frames corresponding to a plurality of surgical steps through the hospital server 200 and/or the database 300.
  • a surgical image consisting of a plurality of frames corresponding to a plurality of surgical steps through the hospital server 200 and/or the database 300.
  • this is only an example, and the device 100 can acquire surgical images captured through a camera connected wirelessly/wired to the device 100.
  • the device 100 may acquire temporal feature data based on surgical images with different frame rates set, and may acquire spatial feature data through a representative frame among a plurality of frames.
  • the device 100 performs operations on temporal feature data and spatial feature data to obtain spatiotemporal fusion feature data, and calculates the bleeding count and bleeding section in the surgical image based on the spatiotemporal fusion feature data.
  • the AI model 400 can be trained to output surgical index data that can identify duration.
  • the hospital server 200 may capture and store a patient's surgical video.
  • the hospital server 200 may transmit the stored surgical image to the device 100, the database 300, or the AI model 400.
  • the hospital server 200 can protect the personal information of the person in the surgery video by pseudonymizing or anonymizing the person in the surgery video. Additionally, the hospital server may encrypt and store information related to the age/gender/height/weight/parity of the patient who is involved in the surgery image input by the user.
  • the database 300 may store various feature data generated by the device 100 and one or more parameters/instructions for utilizing the AI model 400.
  • FIG. 1 illustrates the case where the database 300 is implemented outside the device 100, the database 300 may also be implemented as a component of the device 100.
  • the AI model 400 is an artificial intelligence model trained to output surgical index data that can identify the number of bleedings and bleeding sections within the surgical image.
  • the AI model 400 can be trained to output surgery index data through a data set built with feature data related to actual surgery images. Learning methods may include, but are not limited to, supervised training/unsupervised training. Detection data output through the AI model 400 may be stored in the database 300 or/and the memory of the device 100.
  • the AI model 400 is implemented outside of the device 100 (e.g., implemented as cloud-based), but is not limited thereto and is a component of the device 100. It can be implemented as:
  • FIG. 2 is a block diagram illustrating the configuration of an apparatus 100 for detecting intraoperative bleeding through surgical images, according to an embodiment of the present disclosure.
  • device 100 may include memory 110, communication module 120, display 130, input module 140, and processor 150. However, it is not limited to this, and the software and hardware configuration of the device 100 may be modified/added/omitted depending on the required operation within the range obvious to those skilled in the art.
  • the memory 110 can store data supporting various functions of the device 100 and at least one process and program for the operation of the processor 150, and can prevent bleeding during surgery through surgical images according to the present disclosure. At least one process for detection can be stored, input/output data (e.g., entire surgical image consisting of multiple frames, surgical index data, etc.) can be stored, and a number of applications run on the device. A program (application program or application), data for operation of the device 100, and commands can be stored. At least some of these applications may be downloaded from an external server via wireless communication.
  • the memory 110 may be a flash memory type, a hard disk type, a solid state disk type, an SDD type (Silicon Disk Drive type), or a multimedia card micro type. micro type), card-type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable) It may include at least one type of storage medium among programmable read-only memory (PROM), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk.
  • PROM programmable read-only memory
  • PROM programmable read-only memory
  • magnetic memory magnetic disk
  • optical disk optical disk.
  • the memory 110 is separate from the device, but may include a database connected by wire or wirelessly. That is, the database shown in FIG. 1 may be implemented as a component of the memory 110.
  • the communication module 120 may include one or more components that enable communication with an external device, for example, at least one of a broadcast reception module, a wired communication module, a wireless communication module, a short-range communication module, and a location information module. may include.
  • Wired communication modules include various wired communication modules such as Local Area Network (LAN) modules, Wide Area Network (WAN) modules, or Value Added Network (VAN) modules, as well as USB (Universal Serial Bus) modules. ), HDMI (High Definition Multimedia Interface), DVI (Digital Visual Interface), RS-232 (recommended standard 232), power line communication, or POTS (plain old telephone service).
  • LAN Local Area Network
  • WAN Wide Area Network
  • VAN Value Added Network
  • USB Universal Serial Bus
  • HDMI High Definition Multimedia Interface
  • DVI Digital Visual Interface
  • RS-232 Recommended standard 232
  • power line communication or POTS (plain old telephone service).
  • wireless communication modules include GSM (global System for Mobile Communication), CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), and UMTS (universal mobile telecommunications system). ), TDMA (Time Division Multiple Access), LTE (Long Term Evolution), 4G, 5G, 6G, etc. may include a wireless communication module that supports various wireless communication methods.
  • GSM Global System for Mobile Communication
  • CDMA Code Division Multiple Access
  • WCDMA Wideband Code Division Multiple Access
  • UMTS universal mobile telecommunications system
  • TDMA Time Division Multiple Access
  • LTE Long Term Evolution
  • 4G, 5G, 6G, etc. may include a wireless communication module that supports various wireless communication methods.
  • the display 130 displays (outputs) information processed by the device 100 (for example, a patient's surgical image, feature data output through specific frames constituting the surgical image, surgical index data, etc.).
  • the display may display execution screen information of an application (for example, an application) running on the device 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information. You can.
  • the input module 140 is for receiving information from the user.
  • the processor 150 can control the operation of the device 100 to correspond to the input information.
  • the input module 140 includes hardware-type physical keys (e.g., buttons, dome switches, jog wheels, jog switches, etc. located on at least one of the front, back, and sides of the device) and software-type keys. May include touch keys.
  • the touch key consists of a virtual key, soft key, or visual key displayed on the touch screen type display 130 through software processing, or the above It may consist of a touch key placed in a part other than the touch screen.
  • the virtual key or visual key can be displayed on the touch screen in various forms, for example, graphics, text, icons, videos, or these. It can be made up of a combination of .
  • the processor 150 may control the overall operation and functions of the device 100.
  • the processor 150 has a memory that stores data for an algorithm for controlling the operation of components within the device 100 or a program that reproduces the algorithm, and performs the above-described operations using the data stored in the memory. It may be implemented with at least one processor (not shown). At this time, the memory and processor may each be implemented as separate chips. Alternatively, the memory and processor may be implemented as a single chip.
  • the processor 150 can control any one or a combination of the above-described components in order to implement various embodiments according to the present disclosure described in FIGS. 3 to 6 below on the device 100. You can.
  • Figure 3 is a flowchart for explaining a method of detecting bleeding during surgery through a surgical image performed by a device, according to an embodiment of the present disclosure.
  • the processor 150 of the device 100 acquires first temporal feature data through a surgical image set at a first frame rate and second temporal feature data through a surgical image set at a second frame rate. can be obtained (S310).
  • the first temporal feature data and the second temporal feature data may mean temporal context information at different tempos.
  • the processor 150 may input each of the surgical image set to the first frame rate and the surgical image set to the second frame rate into the second AI model to obtain first temporal feature data and second temporal feature data.
  • the second AI model may be a convolutional neural network (CNN) model consisting of one or more convolutional layers that perform convolutional operations.
  • CNN convolutional neural network
  • the second AI model can be trained in advance to recognize objects included in the surgery image.
  • the first frame rate may be set to a value smaller than the second frame rate.
  • the first temporal feature data acquired through a surgical image set to a first frame rate may be feature data based on a slow pathway.
  • the second temporal feature data acquired through the surgical image set to the second frame rate may be feature data based on a fast pathway (slow pathway).
  • feature data based on the fast pathway has a lower channel capacity, the amount of computation related to the feature data based on the fast pathway may be small. Therefore, feature data based on fast path may have high temporal modeling ability.
  • feature data based on the slow pathway has high channel acceptance and may have a large ability to express spatial semantic characteristics.
  • the processor 150 generates first temporal feature data (or feature data based on slow pathway) 410-1 based on a surgical image composed of a plurality of frames (or clips) 400. And second temporal feature data (or feature data based on fast pathway) 420-1 can be obtained.
  • the processor 150 may acquire spatial feature data through a representative frame among the plurality of frames constituting the surgical image (S320).
  • the representative frame may mean any frame among a plurality of frames or a center frame located in the middle in time.
  • the processor 150 may obtain spatial feature data by inputting the intermediate frame 420 into the AI model 430 learned to perform a semantic segmentation algorithm.
  • Spatial feature data may include data indicating whether active bleeding exists in an area on the middle frame 430.
  • the processor 150 may apply a sigmoid function after adjusting the size of the spatial feature data. Additionally, the processor 150 may classify the spatial feature data into first class spatial feature data 440-1 and second class spatial feature data 440-2.
  • the first class of spatial feature data includes feature data for the background area (or non-bleeding area) in the surgical image
  • the second class of spatial feature data includes feature data for the active bleeding area in the surgical image. It may include feature data for
  • the processor 150 may acquire first intermediate data based on the first temporal feature data and spatial feature data, and acquire second intermediate data based on the second temporal feature data and spatial feature data (S330).
  • intermediate data refers to data that is a fusion of temporal feature data (e.g., temporal annotation data indicating the time when bleeding occurred, etc.) and spatial feature data (e.g., spatial annotation data indicating the location of bleeding, etc.). can do.
  • temporal feature data e.g., temporal annotation data indicating the time when bleeding occurred, etc.
  • spatial feature data e.g., spatial annotation data indicating the location of bleeding, etc.
  • the processor 150 may utilize spatiotemporal feature data as learning data to train an AI model to detect intraoperative bleeding through surgical images.
  • the device may generate intermediate data based on temporal feature data and spatial feature data.
  • the processor 150 performs a Hadamard product between the spatial feature data of the first class and the first temporal feature data and the result of performing the Hadamard product between the spatial feature data of the second class and the first temporal feature data.
  • First temporal-space specific data 450-1 can be obtained by adding up the results of the Mar multiplication.
  • the processor 150 performs a Hadamard product between first class spatial feature data and second temporal feature data and a Hadamard product performance result between second class spatial feature data and second temporal feature data. By summing, second temporal-spatial feature data 450-2 can be obtained.
  • the processor 150 may obtain first intermediate data 460-1 by adding the first temporal-spatial feature data 450-1 and the first temporal feature data 410-1. And, the device may obtain second intermediate data 460-2 by adding the second temporal-spatial feature data 450-2 and the second temporal feature data 410-2.
  • the processor 150 may generate learning data by concatenating the first intermediate data and the second intermediate data (S340). Additionally, the processor 150 may train the first AI model to output surgical index data that allows identification of the number of bleedings and bleeding sections within the surgical image based on the learning data (S350).
  • the processor 150 generates training data by concatenating the first intermediate data 450-1 and the second intermediate data 450-2, and based on the generated training data, the processor 150 generates training data.
  • 1 AI model can be trained.
  • FIG. 5 is a diagram illustrating a method of performing learning and inference steps related to a first AI model, according to an embodiment of the present disclosure.
  • the processor 150 uses a first AI model (or a fusion model or AMAGI (Image segmentation-guided active bleeding detection model) (520) can be trained.
  • a first AI model or a fusion model or AMAGI (Image segmentation-guided active bleeding detection model) (520) can be trained.
  • the learning data includes data related to the time when bleeding occurred (e.g., data shown in (a) of Figure 6) and data related to the spatial area where bleeding occurred (e.g., data shown in (b) of Figure 6). It can be configured based on
  • the processor 150 acquires a plurality of frames 540-1, 540-2, ... 540-N from a specific surgery image (e.g., Gastrectomy) 530. You can. At this time, the number of multiple frames may vary depending on the frame rate.
  • a specific surgery image e.g., Gastrectomy
  • the processor 150 inputs a plurality of frames 540-1, 540-2, ... 540-N into the learned first AI model 520, thereby determining the number of bleeding and bleeding duration within the surgical image.
  • Surgery index data 550 that allows identification can be obtained. That is, the surgical index data may be configured to indicate a time region in which bleeding is detected for the entire surgery in a specific area of the surgical image.
  • the processor 150 may perform post-processing on the surgical index data.
  • the device may perform noise filtering on surgical index data through a filter capable of filtering out noise.
  • the processor 150 may identify the number of bleeding and the bleeding section within the surgical image based on post-processed information (i.e., measure surgical index data).
  • the processor 150 may identify/detect the number of bleedings and bleeding sections in one or more specific areas (i.e., areas where bleeding occurs) within the surgical image through the first AI model 520.
  • the disclosed embodiments may be implemented in the form of a recording medium that stores instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may create program modules to perform operations of the disclosed embodiments.
  • the recording medium may be implemented as a computer-readable recording medium.
  • Computer-readable recording media include all types of recording media storing instructions that can be decoded by a computer. For example, there may be Read Only Memory (ROM), Random Access Memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, etc.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • magnetic tape magnetic tape
  • magnetic disk magnetic disk
  • flash memory optical data storage device

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Urology & Nephrology (AREA)
  • Evolutionary Computation (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)

Abstract

The present disclosure relates to a method and a device for detecting intraoperative bleeding through a spatiotemporal feature fusion model. The method may comprise the steps of: acquiring first temporal feature data through a surgical video set to a first frame rate, and acquiring second temporal feature data through a surgical video set to a second frame rate; acquiring spatial feature data through a representative frame from among a plurality of frames constituting the surgical video; acquiring first intermediate data on the basis of the first temporal feature data and the spatial feature data, and acquiring second intermediate data on the basis of the second temporal feature data and the spatial feature data; concatenating the first intermediate data and the second intermediate data so as to generate training data; and training, on the basis of the training data, a first artificial intelligence model to output surgical index data enabling bleeding frequency and bleeding sections in the surgical video to be identified.

Description

시공간 특징 퓨전 모델을 통해 수술 중 출혈을 검출하는 방법 및 장치Method and device for detecting intraoperative bleeding through spatiotemporal feature fusion model
본 개시는 수술 중 출혈을 검출하는 방법 및 장치에 관한 것이다. 보다 상세하게는, 본 개시는 시공간 특징 퓨전 모델을 통해 수술 중 출혈을 검출하는 방법 및 장치에 관한 것이다.The present disclosure relates to methods and devices for detecting bleeding during surgery. More specifically, the present disclosure relates to a method and device for detecting intraoperative bleeding through a spatiotemporal feature fusion model.
수술 중 활성 출혈(intraoperative active bleeding, iAB)은 수술과 관련된 대표적인 유해 사례(adverse event)이다. iAB가 발생할 경우, 수술 시간을 지연시킬 수 있으며 장기를 손상시켜 환자의 수술 결과에 악영향을 미칠 수 있다. Intraoperative active bleeding (iAB) is a representative adverse event associated with surgery. If iAB occurs, it can delay surgery time and damage organs, adversely affecting the patient's surgical results.
따라서, iAB 발생이 검출되면, 실시간으로 지혈이 필요한 지점을 정확하게 식별하고 신속하게 지혈하는 동작이 필수적이다. 다만, iAB 발생을 검출하기 위해서는 상당히 비용 및 기술이 필요하다는 문제점이 존재한다.Therefore, when the occurrence of iAB is detected, it is essential to accurately identify the point requiring hemostasis in real time and quickly stop the bleeding. However, there is a problem that considerable cost and technology are required to detect the occurrence of iAB.
이를 해결하기 위하여, iAB 발생을 자동으로 검출하는 방식이 지속적으로 연구 및 개발되었다. 다만, iAB의 색 및 질감(texture)이 장기(organ) 및 비활성 출혈의 색 및 질감이 유사한 바, 효율적으로 iAB의 발생을 검출하는 방식은 개발되지 않고 있다.To solve this problem, methods for automatically detecting the occurrence of iAB have been continuously researched and developed. However, since the color and texture of iAB are similar to those of organs and inactive bleeding, a method for efficiently detecting the occurrence of iAB has not been developed.
본 개시에 개시된 실시예는 시공간 특징 퓨전 모델을 통해 수술 중 출혈을 검출하는 방법 및 장치를 제공하는데 그 목적이 있다.The purpose of the embodiments disclosed in the present disclosure is to provide a method and device for detecting bleeding during surgery through a spatiotemporal feature fusion model.
본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.
상술한 기술적 과제를 해결하기 위한 본 개시의 일 실시예에 따른, 장치에 의해 수행되는, 수술 영상을 통해 수술 중 출혈을 검출하는 방법은, 제1 프레임 레이트(frame rate)로 설정된 상기 수술 영상을 통해 제1 시간적(temporal) 특징 데이터를 획득하고, 제2 프레임 레이트로 설정된 상기 수술 영상을 통해 제2 시간적 특징 데이터를 획득하는 단계; 상기 수술 영상을 구성하는 복수의 프레임 중 대표 프레임을 통해 공간(spatial) 특징 데이터를 획득하는 단계; 상기 제1 시간적 특징 데이터 및 상기 공간 특징 데이터에 기초하여 제1 중간 데이터를 획득하고, 상기 제2 시간적 특징 데이터 및 상기 공간 특징 데이터에 기초하여 제2 중간 데이터를 획득하는 단계; 상기 제1 중간 데이터 및 상기 제2 중간 데이터를 연결(concatenation)하여 학습 데이터를 생성하는 단계; 및 상기 학습 데이터에 기초하여 상기 수술 영상 내의 출혈 횟수(bleeding count) 및 출혈 구간(bleeding duration)을 식별할 수 있는 수술 인덱스(surgical index) 데이터를 출력하도록 제1 인공지능(artificial intelligence, AI) 모델을 학습시키는 단계를 포함할 수 있다.A method of detecting intraoperative bleeding through a surgical image performed by a device according to an embodiment of the present disclosure to solve the above-described technical problem includes using the surgical image set at a first frame rate. Obtaining first temporal feature data through and acquiring second temporal feature data through the surgical image set to a second frame rate; Obtaining spatial feature data through a representative frame among a plurality of frames constituting the surgical image; Obtaining first intermediate data based on the first temporal feature data and the spatial feature data, and acquiring second intermediate data based on the second temporal feature data and the spatial feature data; generating learning data by concatenating the first intermediate data and the second intermediate data; And a first artificial intelligence (AI) model to output surgical index data that can identify the bleeding count and bleeding duration in the surgical image based on the learning data. It may include a learning step.
또한, 상술한 기술적 과제를 해결하기 위한 본 개시에 따른 장치는, 수술 영상을 통해 수술 중 출혈을 검출하기 위한 적어도 하나의 프로세스가 저장된 메모리; 및 상기 프로세스가 실행됨에 따라 상기 수술 중 출혈을 검출하는 동작을 수행하는 프로세서를 포함하고, 상기 프로세서는 제1 프레임 레이트로 설정된 상기 수술 영상을 통해 제1 시간적(temporal) 특징 데이터를 획득하고, 제2 프레임 레이트로 설정된 상기 수술 영상을 통해 제2 시간적 특징 데이터를 획득하고, 상기 수술 영상을 구성하는 복수의 프레임 중 대표 프레임을 통해 공간(spatial) 특징 데이터를 획득하고, 상기 제1 시간적 특징 데이터 및 상기 공간 특징 데이터에 기초하여 제1 중간 데이터를 획득하고, 상기 제2 시간적 특징 데이터 및 상기 공간 특징 데이터에 기초하여 제2 중간 데이터를 획득하고, 상기 제1 중간 데이터 및 상기 제2 중간 데이터를 연결(concatenation)하여 학습 데이터를 생성하고, 상기 학습 데이터에 기초하여 상기 수술 영상 내의 출혈 횟수(bleeding count) 및 출혈 구간(bleeding duration)을 식별할 수 있는 수술 인덱스(surgical index) 데이터를 출력하도록 제1 인공지능(artificial intelligence, AI) 모델을 학습시킬 수 있다.In addition, the device according to the present disclosure for solving the above-described technical problem includes: a memory storing at least one process for detecting bleeding during surgery through a surgical image; And a processor that performs an operation of detecting bleeding during the surgery as the process is executed, wherein the processor acquires first temporal feature data through the surgical image set at a first frame rate, and Obtain second temporal feature data through the surgical image set at a 2 frame rate, obtain spatial feature data through a representative frame among a plurality of frames constituting the surgical image, and obtain the first temporal feature data and Obtain first intermediate data based on the spatial feature data, obtain second intermediate data based on the second temporal feature data and the spatial feature data, and connect the first intermediate data and the second intermediate data. (concatenation) to generate learning data, and output surgical index data that can identify the bleeding count and bleeding duration in the surgical image based on the learning data. Artificial intelligence (AI) models can be trained.
이 외에도, 본 개시를 구현하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 더 제공될 수 있다.In addition to this, a computer program stored in a computer-readable recording medium for implementing the present disclosure may be further provided.
이 외에도, 본 개시를 구현하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition, a computer-readable recording medium recording a computer program for implementing the present disclosure may be further provided.
본 개시의 전술한 과제 해결 수단에 의하면, 시공간 특징 퓨전 모델을 통해 수술 중 출혈을 검출하는 방법 및 장치가 제공될 수 있다.According to the means for solving the above-described problem of the present disclosure, a method and device for detecting bleeding during surgery can be provided through a spatiotemporal feature fusion model.
본 개시의 전술한 과제 해결 수단에 의하면, 수술 중 출혈을 보다 효율적으로 인식함으로써, 수술에 대해 평가하고 환자의 예후를 정확하게 예측/분석할 수 있다.According to the means for solving the above-described problem of the present disclosure, by more efficiently recognizing bleeding during surgery, it is possible to evaluate the surgery and accurately predict/analyze the patient's prognosis.
본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below.
도 1은 본 개시의 일 실시예에 따른, 수술 영상을 통해 수술 중 출혈을 검출하는 방법을 구현하기 위한 시스템의 개략도이다.1 is a schematic diagram of a system for implementing a method for detecting intraoperative bleeding through surgical images, according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시예에 따른, 수술 영상을 통해 수술 중 출혈을 검출하는 장치의 구성을 설명하기 위한 블록도이다.Figure 2 is a block diagram for explaining the configuration of an apparatus for detecting bleeding during surgery through surgical images, according to an embodiment of the present disclosure.
도 3은 본 개시의 일 실시예에 따른, 수술 영상을 통해 수술 중 출혈을 검출하는 방법을 설명하기 위한 순서도이다.Figure 3 is a flowchart for explaining a method of detecting bleeding during surgery through a surgical image, according to an embodiment of the present disclosure.
도 4는 본 개시의 일 실시예에 따른, 수술 영상을 통해 수술 중 출혈을 검출하는 방법을 수행하기 위한 구조(architecture)를 나타내는 도면이다.FIG. 4 is a diagram illustrating an architecture for performing a method of detecting intraoperative bleeding through surgical images, according to an embodiment of the present disclosure.
도 5는 본 개시의 일 실시예에 따른, AI 모델을 통해 수술 영상을 통해 수술 중 출혈을 검출하는 방법을 설명하기 위한 도면이다.Figure 5 is a diagram for explaining a method of detecting bleeding during surgery through a surgical image using an AI model, according to an embodiment of the present disclosure.
도 6은 본 개시가 적용될 수 있는 시간적 특징 데이터 및 공간적 특징 데이터의 예시를 나타낸다.Figure 6 shows examples of temporal feature data and spatial feature data to which the present disclosure can be applied.
본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다. Like reference numerals refer to like elements throughout this disclosure. This disclosure does not describe all elements of the embodiments, and general content or overlapping content between embodiments in the technical field to which this disclosure pertains is omitted. The term 'part, module, member, block' used in the specification may be implemented as software or hardware, and depending on the embodiment, a plurality of 'part, module, member, block' may be implemented as a single component, or It is also possible for one 'part, module, member, or block' to include multiple components.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우 뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be “connected” to another part, this includes not only direct connection but also indirect connection, and indirect connection includes connection through a wireless communication network. do.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be located “on” another member, this includes not only cases where a member is in contact with another member, but also cases where another member exists between the two members.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다. Terms such as first and second are used to distinguish one component from another component, and the components are not limited by the above-mentioned terms.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly makes an exception.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다. The identification code for each step is used for convenience of explanation. The identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.
이하 첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the operating principle and embodiments of the present disclosure will be described with reference to the attached drawings.
본 명세서에서 '본 개시에 따른 장치'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 본 개시에 따른 장치는, 컴퓨터, 서버 장치 및 휴대용 단말기를 모두 포함하거나, 또는 어느 하나의 형태가 될 수 있다.In this specification, 'device according to the present disclosure' includes all various devices that can perform computational processing and provide results to the user. For example, the device according to the present disclosure may include all of a computer, a server device, and a portable terminal, or may take the form of any one.
여기에서, 상기 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함할 수 있다.Here, the computer may include, for example, a laptop, desktop, laptop, tablet PC, slate PC, etc. equipped with a web browser.
상기 서버 장치는 외부 장치와 통신을 수행하여 정보를 처리하는 서버로써, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 게임 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다.The server device is a server that processes information by communicating with external devices and may include an application server, computing server, database server, file server, game server, mail server, proxy server, and web server.
상기 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.The portable terminal is, for example, a wireless communication device that guarantees portability and mobility, such as PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), and PDA. (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), WiBro (Wireless Broadband Internet) terminal, smart phone ), all types of handheld wireless communication devices, and wearable devices such as watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted-device (HMD). may include.
본 개시를 설명함에 있어서, "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리/제어하는 기술자가 될 수 있으나, 이에 한정되지 않는다.In explaining the present disclosure, a “user” is a medical professional and may be a doctor, nurse, clinical pathologist, medical imaging expert, etc., and may be a technician who repairs/controls a medical device, but is not limited thereto.
본 개시를 설명함에 있어서, “수술”은 질병이나 외상에 대하여 피부나 점막을 절개하여 시술하는 외과 치료 행위를 통칭한다.In explaining the present disclosure, “surgery” refers to a surgical treatment performed by incising the skin or mucous membrane for disease or trauma.
도 1은 본 개시의 일 실시예에 따른, 수술 영상을 통해 수술 중 출혈을 검출하는 방법을 구현하기 위한 시스템(1000)의 개략도이다.1 is a schematic diagram of a system 1000 for implementing a method for detecting intraoperative bleeding through surgical images, according to an embodiment of the present disclosure.
도 1에 도시된 바와 같이, 수술 영상을 통해 수술 중 출혈을 검출하는 방법을 구현하기 위한 시스템(1000)은, 장치(100), 병원 서버(200), 데이터 베이스(300) 및 AI 모델(400)을 포함할 수 있다.As shown in Figure 1, the system 1000 for implementing a method of detecting bleeding during surgery through surgical images includes a device 100, a hospital server 200, a database 300, and an AI model 400. ) may include.
여기서, 도 1에는 장치(100)가 하나의 데스크 탑의 형태로 구현될 것으로 도시되어 있으나, 이에 한정되는 것은 아니다. 장치(100)는 상술한 바와 같이 다양한 유형의 장치 또는 하나 이상의 유형의 장치가 연결된 장치 군을 의미할 수 있다.Here, in FIG. 1, the device 100 is shown to be implemented in the form of a single desktop, but it is not limited thereto. As described above, device 100 may refer to various types of devices or a group of devices in which one or more types of devices are connected.
시스템(1000)에 포함된 장치(100), 병원 서버(200), 데이터 베이스(300), 및 인공 지능(artificial intelligence, AI) 모델(400)은 네트워크(W)를 통해 통신을 수행할 수 있다. 여기서, 네트워크(W)는 유선 네트워크와 무선 네트워크를 포함할 수 있다. 예를 들어, 네트워크는 근거리 네트워크(LAN: Local Area Network), 도시권 네트워크(MAN: Metropolitan Area Network), 광역 네트워크(WAN: Wide Area Network) 등의 다양한 네트워크를 포함할 수 있다.The device 100, hospital server 200, database 300, and artificial intelligence (AI) model 400 included in the system 1000 can communicate through the network (W). . Here, the network W may include a wired network and a wireless network. For example, the network may include various networks such as a local area network (LAN), a metropolitan area network (MAN), and a wide area network (WAN).
또한, 네트워크(W)는 공지의 월드 와이드 웹(WWW: World Wide Web)을 포함할 수도 있다. 그러나, 본 개시의 실시예에 따른 네트워크(W)는 상기 열거된 네트워크에 국한되지 않고, 공지의 무선 데이터 네트워크나 공지의 전화 네트워크, 공지의 유무선 텔레비전 네트워크를 적어도 일부로 포함할 수도 있다.Additionally, the network W may include the known World Wide Web (WWW). However, the network (W) according to an embodiment of the present disclosure is not limited to the networks listed above, and may include at least some of a known wireless data network, a known telephone network, and a known wired and wireless television network.
장치(100)는 병원 서버(200) 또는/및 데이터 베이스(300)를 통해 복수의 수술 단계에 대응되는 복수의 프레임으로 구성된 수술 영상을 획득할 수 있다. 다만, 이는 일 실시예에 불과하며, 장치(100)는 장치(100)에 무선/유선으로 연결된 카메라를 통해 촬영되는 수술 영상을 획득할 수 있다.The device 100 may acquire a surgical image consisting of a plurality of frames corresponding to a plurality of surgical steps through the hospital server 200 and/or the database 300. However, this is only an example, and the device 100 can acquire surgical images captured through a camera connected wirelessly/wired to the device 100.
장치(100)는 서로 다른 프레임 레이트가 설정된 수술 영상에 기초하여 시간적(temporal) 특징 데이터를 획득하고, 복수의 프레임 중 대표 프레임을 통해 공간(spatial) 특징 데이터를 획득할 수 있다. The device 100 may acquire temporal feature data based on surgical images with different frame rates set, and may acquire spatial feature data through a representative frame among a plurality of frames.
장치(100)는 시간적 특징 데이터 및 공간 특징 데이터에 대해 연산을 수행하여 시공간 퓨전(fusion) 특징 데이터를 획득하고, 시공간 퓨턴 특징 데이터에 기초하여 수술 영상 내의 출혈 횟수(bleeding count) 및 출혈 구간(bleeding duration)을 식별할 수 있는 수술 인덱스(surgical index) 데이터를 출력하도록 AI 모델(400)을 학습시킬 수 있다.The device 100 performs operations on temporal feature data and spatial feature data to obtain spatiotemporal fusion feature data, and calculates the bleeding count and bleeding section in the surgical image based on the spatiotemporal fusion feature data. The AI model 400 can be trained to output surgical index data that can identify duration.
이와 관련된 동작은 후술하는 도면을 참조하여 구체적으로 설명하도록 한다.Operations related to this will be described in detail with reference to the drawings described later.
병원 서버(200)(예로, 클라우드 서버 등)는 환자의 수술 영상을 촬영하고 저장할 수 있다. 병원 서버(200)는 장치(100), 데이터 베이스(300), 또는 AI 모델(400)로 저장한 수술 영상을 전송할 수 있다.The hospital server 200 (eg, cloud server, etc.) may capture and store a patient's surgical video. The hospital server 200 may transmit the stored surgical image to the device 100, the database 300, or the AI model 400.
병원 서버(200)는 수술 영상의 당사자를 가명화 또는 익명화하여 수술 영상의 당사자의 개인 정보를 보호할 수 있다. 또한, 병원 서버는 사용자에 의해 입력된 수술 영상의 당사자가 되는 환자의 나이/성별/키/몸무게/출산 여부와 관련된 정보를 암호화하여 저장할 수 있다.The hospital server 200 can protect the personal information of the person in the surgery video by pseudonymizing or anonymizing the person in the surgery video. Additionally, the hospital server may encrypt and store information related to the age/gender/height/weight/parity of the patient who is involved in the surgery image input by the user.
데이터 베이스(300)는 장치(100)에 의해 생성된 각종 특징 데이터 및 AI 모델(400)을 활용하기 위한 하나 이상의 파라미터/인스트럭션(instruction)을 저장할 수 있다. 도 1에서는 데이터 베이스(300)가 장치(100) 외부에 구현된 경우를 도시하고 있으나, 데이터 베이스(300)는 장치(100)의 일 구성 요소로 구현될 수도 있다.The database 300 may store various feature data generated by the device 100 and one or more parameters/instructions for utilizing the AI model 400. Although FIG. 1 illustrates the case where the database 300 is implemented outside the device 100, the database 300 may also be implemented as a component of the device 100.
AI 모델(400)은 수술 영상 내의 출혈 횟수 및 출혈 구간을 식별할 수 있는 수술 인덱스 데이터를 출력하도록 학습된 인공지능 모델이다. AI 모델(400)은 실제 수술 영상과 관련된 특징 데이터로 구축된 데이터 셋을 통해 수술 인덱스 데이터를 출력하도록 학습될 수 있다. 학습 방식은 지도 학습(supervised training)/비지도 학습(unsupervised training) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. AI 모델(400)을 통해 출력된 검출 데이터는 데이터 베이스(300) 또는/및 장치(100)의 메모리에 저장될 수 있다.The AI model 400 is an artificial intelligence model trained to output surgical index data that can identify the number of bleedings and bleeding sections within the surgical image. The AI model 400 can be trained to output surgery index data through a data set built with feature data related to actual surgery images. Learning methods may include, but are not limited to, supervised training/unsupervised training. Detection data output through the AI model 400 may be stored in the database 300 or/and the memory of the device 100.
도 1은 AI 모델(400)이 장치(100) 외부에 구현(예로, 클라우드 기반(cloud-based)으로 구현)된 경우를 도시하고 있으나, 이에 한정되는 것은 아니며, 장치(100)에 일 구성 요소로 구현될 수 있다.1 illustrates a case where the AI model 400 is implemented outside of the device 100 (e.g., implemented as cloud-based), but is not limited thereto and is a component of the device 100. It can be implemented as:
도 2는 본 개시의 일 실시예에 따른, 수술 영상을 통해 수술 중 출혈을 검출하는 장치(100)의 구성을 설명하기 위한 블록도이다.FIG. 2 is a block diagram illustrating the configuration of an apparatus 100 for detecting intraoperative bleeding through surgical images, according to an embodiment of the present disclosure.
도 2에 도시된 바와 같이, 장치(100)는 메모리(110), 통신 모듈(120), 디스플레이(130), 입력 모듈(140) 및 프로세서(150)를 포함할 수 있다. 다만, 이에 국한되는 것은 아니며, 장치(100)는 필요한 동작에 따라 당업자 관점에서 자명한 범위 내에서 소프트웨어 및 하드웨어 구성이 수정/추가/생략될 수 있다.As shown in FIG. 2 , device 100 may include memory 110, communication module 120, display 130, input module 140, and processor 150. However, it is not limited to this, and the software and hardware configuration of the device 100 may be modified/added/omitted depending on the required operation within the range obvious to those skilled in the art.
메모리(110)는 본 장치(100)의 다양한 기능을 지원하는 데이터와, 프로세서(150)의 동작을 위한 적어도 하나의 프로세스 및 프로그램을 저장할 수 있고, 본 개시에 따라 수술 영상을 통해 수술 중 출혈을 검출하기 위한 적어도 하나의 프로세스를 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 복수의 프레임으로 구성된 전체 수술 영상, 수술 인덱스 데이터 등 등)을 저장할 있고, 본 장치에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 본 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. The memory 110 can store data supporting various functions of the device 100 and at least one process and program for the operation of the processor 150, and can prevent bleeding during surgery through surgical images according to the present disclosure. At least one process for detection can be stored, input/output data (e.g., entire surgical image consisting of multiple frames, surgical index data, etc.) can be stored, and a number of applications run on the device. A program (application program or application), data for operation of the device 100, and commands can be stored. At least some of these applications may be downloaded from an external server via wireless communication.
이러한, 메모리(110)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 110 may be a flash memory type, a hard disk type, a solid state disk type, an SDD type (Silicon Disk Drive type), or a multimedia card micro type. micro type), card-type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable) It may include at least one type of storage medium among programmable read-only memory (PROM), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk.
또한, 메모리(110)는 본 장치와는 분리되어 있으나, 유선 또는 무선으로 연결된 데이터베이스를 포함할 수 있다. 즉, 도 1에 도시된 데이터 베이스는 메모리(110)의 일 구성 요소로 구현될 수 있다.Additionally, the memory 110 is separate from the device, but may include a database connected by wire or wirelessly. That is, the database shown in FIG. 1 may be implemented as a component of the memory 110.
통신 모듈(120)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어, 방송 수신 모듈, 유선통신 모듈, 무선통신 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.The communication module 120 may include one or more components that enable communication with an external device, for example, at least one of a broadcast reception module, a wired communication module, a wireless communication module, a short-range communication module, and a location information module. may include.
유선 통신 모듈은, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다. Wired communication modules include various wired communication modules such as Local Area Network (LAN) modules, Wide Area Network (WAN) modules, or Value Added Network (VAN) modules, as well as USB (Universal Serial Bus) modules. ), HDMI (High Definition Multimedia Interface), DVI (Digital Visual Interface), RS-232 (recommended standard 232), power line communication, or POTS (plain old telephone service).
무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4G, 5G, 6G 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.In addition to Wi-Fi modules and WiBro (Wireless broadband) modules, wireless communication modules include GSM (global System for Mobile Communication), CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), and UMTS (universal mobile telecommunications system). ), TDMA (Time Division Multiple Access), LTE (Long Term Evolution), 4G, 5G, 6G, etc. may include a wireless communication module that supports various wireless communication methods.
디스플레이(130)는 본 장치(100)에서 처리되는 정보(예를 들어, 환자의 수술 영상, 수술 영상을 구성하는 특정 프레임을 통해 출력된 특징 데이터, 수술 인덱스 데이터 등)를 표시(출력)한다. 예를 들어, 디스플레이는 본 장치(100)에서 구동되는 응용 프로그램(일 예로, 어플리케이션)의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.The display 130 displays (outputs) information processed by the device 100 (for example, a patient's surgical image, feature data output through specific frames constituting the surgical image, surgical index data, etc.). For example, the display may display execution screen information of an application (for example, an application) running on the device 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information. You can.
입력 모듈(140)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부를 통해 정보가 입력되면, 프로세서(150)는 입력된 정보에 대응되도록 본 장치(100)의 동작을 제어할 수 있다. The input module 140 is for receiving information from the user. When information is input through the user input unit, the processor 150 can control the operation of the device 100 to correspond to the input information.
이러한, 입력 모듈(140)은 하드웨어식 물리 키(예를 들어, 본 장치의 전면, 후면 및 측면 중 적어도 하나에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 소프트웨어식 터치 키를 포함할 수 있다. 일 예로서, 터치 키는, 소프트웨어적인 처리를 통해 터치스크린 타입의 디스플레이(130) 상에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. The input module 140 includes hardware-type physical keys (e.g., buttons, dome switches, jog wheels, jog switches, etc. located on at least one of the front, back, and sides of the device) and software-type keys. May include touch keys. As an example, the touch key consists of a virtual key, soft key, or visual key displayed on the touch screen type display 130 through software processing, or the above It may consist of a touch key placed in a part other than the touch screen. Meanwhile, the virtual key or visual key can be displayed on the touch screen in various forms, for example, graphics, text, icons, videos, or these. It can be made up of a combination of .
프로세서(150)는 장치(100)의 전반적인 동작 및 기능을 제어할 수 있다. 구체적으로, 프로세서(150)는 본 장치(100) 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리, 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 적어도 하나의 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.The processor 150 may control the overall operation and functions of the device 100. Specifically, the processor 150 has a memory that stores data for an algorithm for controlling the operation of components within the device 100 or a program that reproduces the algorithm, and performs the above-described operations using the data stored in the memory. It may be implemented with at least one processor (not shown). At this time, the memory and processor may each be implemented as separate chips. Alternatively, the memory and processor may be implemented as a single chip.
또한, 프로세서(150)는 이하의 도 3 내지 도 6에서 설명되는 본 개시에 따른 다양한 실시 예들을 본 장치(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다. In addition, the processor 150 can control any one or a combination of the above-described components in order to implement various embodiments according to the present disclosure described in FIGS. 3 to 6 below on the device 100. You can.
도 3은 본 개시의 일 실시예에 따른, 장치에 의해 수행되는 수술 영상을 통해 수술 중 출혈을 검출하는 방법을 설명하기 위한 순서도이다.Figure 3 is a flowchart for explaining a method of detecting bleeding during surgery through a surgical image performed by a device, according to an embodiment of the present disclosure.
도 3을 참조하면, 장치(100)의 프로세서(150)는 제1 프레임 레이트로 설정된 수술 영상을 통해 제1 시간적 특징 데이터를 획득하고, 제2 프레임 레이트로 설정된 수술 영상을 통해 제2 시간적 특징 데이터를 획득할 수 있다(S310). Referring to FIG. 3, the processor 150 of the device 100 acquires first temporal feature data through a surgical image set at a first frame rate and second temporal feature data through a surgical image set at a second frame rate. can be obtained (S310).
여기서, 제1 시간적 특징 데이터 및 제2 시간적 특징 데이터는 다른 템포(temp)에서의 시간적(temporal) 컨텍스트 정보를 의미할 수 있다. Here, the first temporal feature data and the second temporal feature data may mean temporal context information at different tempos.
프로세서(150)는 제1 프레임 레이트로 설정된 수술 영상 및 제2 프레임 레이트로 설정된 수술 영상 각각을 제2 AI 모델에 입력하여 제1 시간적 특징 데이터 및 제2 시간적 특징 데이터를 획득할 수 있다. The processor 150 may input each of the surgical image set to the first frame rate and the surgical image set to the second frame rate into the second AI model to obtain first temporal feature data and second temporal feature data.
제2 AI 모델은 컨볼루션 연산을 수행하는 하나 이상의 컨볼루션 레이어로 구성된 CNN(convolutional neural network) 모델일 수 있다. 제2 AI 모델은 수술 영상에 포함된 객체 등을 인식하도록 미리 학습될 수 있다.The second AI model may be a convolutional neural network (CNN) model consisting of one or more convolutional layers that perform convolutional operations. The second AI model can be trained in advance to recognize objects included in the surgery image.
그리고, 제1 프레임 레이트는 제2 프레임 레이트보다 작은 값으로 설정될 수 있다. 제1 프레임 레이트로 설정된 수술 영상을 통해 획득된 제1 시간적 특징 데이터는 슬로우 패스웨이(slow pathway)에 기초한 특징 데이터일 수 있다. 제2 프레임 레이트로 설정된 수술 영상을 통해 획득된 제2 시간적 특징 데이터는 패스트 패스웨이(slow pathway)에 기초한 특징 데이터일 수 있다.And, the first frame rate may be set to a value smaller than the second frame rate. The first temporal feature data acquired through a surgical image set to a first frame rate may be feature data based on a slow pathway. The second temporal feature data acquired through the surgical image set to the second frame rate may be feature data based on a fast pathway (slow pathway).
패스트 패스웨이에 기초한 특징 데이터는 낮은 채널 수용성(lower channel capacity)를 가지는 바, 패스트 패스웨이에 기초한 특징 데이터와 관련된 연산(computation) 양은 적을 수 있다. 따라서, 패스트 패스웨이에 기초한 특징 데이터는 시간적 모델링(temporal) 능력이 클 수 있다.Since feature data based on the fast pathway has a lower channel capacity, the amount of computation related to the feature data based on the fast pathway may be small. Therefore, feature data based on fast path may have high temporal modeling ability.
이와 반대로, 슬로우 패스웨이에 기초한 특징 데이터는 높은 채널 수용성을 가지며, 공간적 시맨틱 특성을 표현하는 능력이 클 수 있다.In contrast, feature data based on the slow pathway has high channel acceptance and may have a large ability to express spatial semantic characteristics.
도 4를 참조하면, 프로세서(150)는 복수의 프레임(또는, 클립)(400)으로 구성된 수술 영상에 기초하여 제1 시간적 특징 데이터(또는, 슬로우 패스웨이에 기초한 특징 데이터)(410-1) 및 제2 시간적 특징 데이터(또는, 패스트 패스웨이에 기초한 특징 데이터)(420-1)를 획득할 수 있다.Referring to FIG. 4, the processor 150 generates first temporal feature data (or feature data based on slow pathway) 410-1 based on a surgical image composed of a plurality of frames (or clips) 400. And second temporal feature data (or feature data based on fast pathway) 420-1 can be obtained.
프로세서(150)는 수술 영상을 구성하는 복수의 프레임 중 대표 프레임을 통해 공간 특징 데이터를 획득할 수 있다(S320). 여기서, 대표 프레임은 복수의 프레임 중 임의의 프레임 또는 시간 상으로 중간에 위치하는 중간 프레임(center frame)을 의미할 수 있다.The processor 150 may acquire spatial feature data through a representative frame among the plurality of frames constituting the surgical image (S320). Here, the representative frame may mean any frame among a plurality of frames or a center frame located in the middle in time.
도 4를 참조하면, 프로세서(150)는 중간 프레임(420)을 시맨틱 세그멘테이션(semantic segmentation) 알고리즘을 수행하도록 학습된 AI 모델(430)에 입력하여 공간 특징 데이터를 획득할 수 있다. 공간 특징 데이터는 중간 프레임(430) 상에 어떤 영역에 활성 출혈(active bleeding)이 존재하는지 여부를 나타내는 데이터를 포함할 수 있다. Referring to FIG. 4, the processor 150 may obtain spatial feature data by inputting the intermediate frame 420 into the AI model 430 learned to perform a semantic segmentation algorithm. Spatial feature data may include data indicating whether active bleeding exists in an area on the middle frame 430.
프로세서(150)는 공간 특징 데이터의 사이즈를 조절한 후 시그모이드(sigmoid) 함수를 적용할 수 있다. 그리고, 프로세서(150)는 공간 특징 데이터를 제1 클래스의 공간 특징 데이터(440-1) 및 제2 클래스의 공간 특징 데이터(440-2)로 분류할 수 있다.The processor 150 may apply a sigmoid function after adjusting the size of the spatial feature data. Additionally, the processor 150 may classify the spatial feature data into first class spatial feature data 440-1 and second class spatial feature data 440-2.
여기서, 제1 클래스의 공간 특징 데이터는, 수술 영상 내의 배경(background) 영역(또는, 비출혈 영역)에 대한 특징 데이터를 포함하고, 제2 클래스의 공간 특징 데이터는, 수술 영상 내의 활성 출혈 영역에 대한 특징 데이터를 포함할 수 있다.Here, the first class of spatial feature data includes feature data for the background area (or non-bleeding area) in the surgical image, and the second class of spatial feature data includes feature data for the active bleeding area in the surgical image. It may include feature data for
프로세서(150)는 제1 시간적 특징 데이터 및 공간 특징 데이터에 기초하여 제1 중간 데이터를 획득하고, 제2 시간적 특징 데이터 및 공간 특징 데이터에 기초하여 제2 중간 데이터를 획득할 수 있다(S330).The processor 150 may acquire first intermediate data based on the first temporal feature data and spatial feature data, and acquire second intermediate data based on the second temporal feature data and spatial feature data (S330).
여기서, 중간 데이터는 시간적 특징 데이터(예로, 출혈이 발생한 시각을 나타내는 시간적 주석(temporal annotation) 데이터 등)와 공간 특징 데이터(예로, 출혈이 발생한 위치를 나타내는 공간적 주석 데이터 등)가 융합된 데이터를 의미할 수 있다. Here, intermediate data refers to data that is a fusion of temporal feature data (e.g., temporal annotation data indicating the time when bleeding occurred, etc.) and spatial feature data (e.g., spatial annotation data indicating the location of bleeding, etc.). can do.
프로세서(150)는 수술 영상을 통해 수술 중 출혈을 검출하도록 AI 모델을 학습시키기 위한 학습 데이터로서 시공간 특징 데이터를 활용할 수 있다. 시공간 특징 데이터를 생성하기 위하여, 장치는 시간적 특징 데이터 및 공간 특징 데이터에 기초한 중간 데이터를 생성할 수 있다.The processor 150 may utilize spatiotemporal feature data as learning data to train an AI model to detect intraoperative bleeding through surgical images. To generate spatiotemporal feature data, the device may generate intermediate data based on temporal feature data and spatial feature data.
도 4를 참조하면, 프로세서(150)는 제1 클래스의 공간 특징 데이터와 제1 시간적 특징 데이터 간의 아다마르 곱(Hadamard product) 수행 결과 및 제2 클래스의 공간 특징 데이터와 제1 시간적 특징 데이터 간의 아다마르 곱 수행 결과를 합산하여 제1 시간적-공간 특정 데이터(450-1)를 획득할 수 있다.Referring to FIG. 4, the processor 150 performs a Hadamard product between the spatial feature data of the first class and the first temporal feature data and the result of performing the Hadamard product between the spatial feature data of the second class and the first temporal feature data. First temporal-space specific data 450-1 can be obtained by adding up the results of the Mar multiplication.
또한, 프로세서(150)는 제1 클래스의 공간 특징 데이터와 제2 시간적 특징 데이터 간의 아다마르 곱(Hadamard product) 수행 결과 및 제2 클래스의 공간 특징 데이터와 제2 시간적 특징 데이터 간의 아다마르 곱 수행 결과를 합산하여 제2 시간적-공간 특징 데이터(450-2)를 획득할 수 있다.In addition, the processor 150 performs a Hadamard product between first class spatial feature data and second temporal feature data and a Hadamard product performance result between second class spatial feature data and second temporal feature data. By summing, second temporal-spatial feature data 450-2 can be obtained.
그리고, 프로세서(150)는 제1 시간적-공간 특징 데이터(450-1)와 제1 시간적 특징 데이터(410-1)를 합산하여 제1 중간 데이터(460-1)를 획득할 수 있다. 그리고, 장치는 제2 시간적-공간 특징 데이터(450-2)와 제2 시간적 특징 데이터(410-2)를 합산하여 제2 중간 데이터(460-2)를 획득할 수 있다. Additionally, the processor 150 may obtain first intermediate data 460-1 by adding the first temporal-spatial feature data 450-1 and the first temporal feature data 410-1. And, the device may obtain second intermediate data 460-2 by adding the second temporal-spatial feature data 450-2 and the second temporal feature data 410-2.
프로세서(150)는 제1 중간 데이터 및 제2 중간 데이터를 연결(concatenation)하여 학습 데이터를 생성할 수 있다(S340). 그리고, 프로세서(150)는 학습 데이터에 기초하여 수술 영상 내의 출혈 횟수 및 출혈 구간을 식별할 수 있도록 하는 수술 인덱스 데이터를 출력하도록 제1 AI 모델을 학습시킬 수 있다(S350).The processor 150 may generate learning data by concatenating the first intermediate data and the second intermediate data (S340). Additionally, the processor 150 may train the first AI model to output surgical index data that allows identification of the number of bleedings and bleeding sections within the surgical image based on the learning data (S350).
도 4를 참조하면, 프로세서(150)는 제1 중간 데이터(450-1) 및 제2 중간 데이터(450-2)를 연결(concatenation)하여 학습 데이터를 생성하고, 생성된 학습 데이터에 기초하여 제1 AI 모델을 학습시킬 수 있다.Referring to FIG. 4, the processor 150 generates training data by concatenating the first intermediate data 450-1 and the second intermediate data 450-2, and based on the generated training data, the processor 150 generates training data. 1 AI model can be trained.
도 5는 본 개시의 일 실시예에 따른, 제1 AI 모델과 관련된 학습 및 추론 단계를 진행하는 방법을 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating a method of performing learning and inference steps related to a first AI model, according to an embodiment of the present disclosure.
학습(train) 단계에서, 프로세서(150)는 학습 데이터에 기초하여 수술 영상 내의 출혈 횟수 및 출혈 구간을 식별할 수 있도록 하는 수술 인덱스 데이터를 출력하도록 제1 AI 모델(또는, 융합 모델 또는 AMAGI(Image segmentation-guided active bleeding detection model))(520)을 학습시킬 수 있다.In the training step, the processor 150 uses a first AI model (or a fusion model or AMAGI (Image segmentation-guided active bleeding detection model) (520) can be trained.
예로, 학습 데이터는 출혈이 발생한 시간과 관련된 데이터(예로, 도 6의 (a)에 도시된 데이터) 및 출혈이 발생한 공간 영역과 관련된 데이터(예로, 도 6의 (b)에 도시된 데이터)에 기초하여 구성될 수 있다.For example, the learning data includes data related to the time when bleeding occurred (e.g., data shown in (a) of Figure 6) and data related to the spatial area where bleeding occurred (e.g., data shown in (b) of Figure 6). It can be configured based on
추론(또는, 테스트) 단계에서, 프로세서(150)는 특정 수술 영상(예로, 위절제술(Gastrectomy))(530)에서 복수의 프레임(540-1, 540-2, …540-N)을 획득할 수 있다. 이 때, 복수의 프레임의 개수는 프레임 레이트에 따라 다를 수 있다.In the inference (or test) step, the processor 150 acquires a plurality of frames 540-1, 540-2, ... 540-N from a specific surgery image (e.g., Gastrectomy) 530. You can. At this time, the number of multiple frames may vary depending on the frame rate.
프로세서(150)는 복수의 프레임(540-1, 540-2, …540-N)을 학습된 제1 AI 모델(520)에 입력함으로써, 수술 영상 내에서 출혈 횟수 및 출혈 구간(bleeding duration)을 식별할 수 있도록 하는 수술 인덱스 데이터(550)를 획득할 수 있다. 즉, 수술 인덱스 데이터는 수술 영상의 특정 영역에서 전체 수술에 대해 출혈 발생이 감지된 시간 영역을 나타내도록 구성될 수 있다.The processor 150 inputs a plurality of frames 540-1, 540-2, ... 540-N into the learned first AI model 520, thereby determining the number of bleeding and bleeding duration within the surgical image. Surgery index data 550 that allows identification can be obtained. That is, the surgical index data may be configured to indicate a time region in which bleeding is detected for the entire surgery in a specific area of the surgical image.
프로세서(150)는 수술 인덱스 데이터에 대해 후처리(post-processing)을 수행할 수 있다. 예로, 장치는 노이즈를 필터링할 수 있는 필터를 통해 수술 인덱스 데이터에 대해 노이즈 필터링을 수행할 수 있다. 프로세서(150)는 후처리가 수행된 정보에 기초하여 수술 영상 내의 출혈 횟수 및 출혈 구간을 식별(즉, 수술 인덱스 데이터 측정)할 수 있다. The processor 150 may perform post-processing on the surgical index data. For example, the device may perform noise filtering on surgical index data through a filter capable of filtering out noise. The processor 150 may identify the number of bleeding and the bleeding section within the surgical image based on post-processed information (i.e., measure surgical index data).
즉, 프로세서(150)는 수술 영상 내에서 특정 하나 이상의 영역(즉, 출혈이 발생한 영역)에서의 출혈 횟수 및 출혈 구간을 제1 AI 모델(520)을 통해 식별/검출할 수 있다.That is, the processor 150 may identify/detect the number of bleedings and bleeding sections in one or more specific areas (i.e., areas where bleeding occurs) within the surgical image through the first AI model 520.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium that stores instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. Computer-readable recording media include all types of recording media storing instructions that can be decoded by a computer. For example, there may be Read Only Memory (ROM), Random Access Memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, etc.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 개시가 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the attached drawings. A person skilled in the art to which this disclosure pertains will understand that the present disclosure may be practiced in forms different from the disclosed embodiments without changing the technical idea or essential features of the present disclosure. The disclosed embodiments are illustrative and should not be construed as limiting.

Claims (15)

  1. 수술 영상을 통해 수술 중 출혈을 검출하기 위한 적어도 하나의 프로세스가 저장된 메모리; 및 a memory storing at least one process for detecting intraoperative bleeding through surgical images; and
    상기 프로세스가 실행됨에 따라 상기 수술 중 출혈을 검출하는 동작을 수행하는 프로세서를 포함하고, And a processor that performs an operation of detecting bleeding during the surgery as the process is executed,
    상기 프로세서는,The processor,
    제1 프레임 레이트로 설정된 상기 수술 영상을 통해 제1 시간적(temporal) 특징 데이터를 획득하고, 제2 프레임 레이트로 설정된 상기 수술 영상을 통해 제2 시간적 특징 데이터를 획득하고,Obtaining first temporal feature data through the surgical image set to a first frame rate, and acquiring second temporal feature data through the surgical image set to a second frame rate,
    상기 수술 영상을 구성하는 복수의 프레임 중 대표 프레임을 통해 공간(spatial) 특징 데이터를 획득하고,Obtaining spatial feature data through a representative frame among the plurality of frames constituting the surgical image,
    상기 제1 시간적 특징 데이터 및 상기 공간 특징 데이터에 기초하여 제1 중간 데이터를 획득하고, 상기 제2 시간적 특징 데이터 및 상기 공간 특징 데이터에 기초하여 제2 중간 데이터를 획득하고,Obtaining first intermediate data based on the first temporal feature data and the spatial feature data, and acquiring second intermediate data based on the second temporal feature data and the spatial feature data,
    상기 제1 중간 데이터 및 상기 제2 중간 데이터를 연결(concatenation)하여 학습 데이터를 생성하고,Generate learning data by concatenating the first intermediate data and the second intermediate data,
    상기 학습 데이터에 기초하여 상기 수술 영상 내의 출혈 횟수(bleeding count) 및 출혈 구간(bleeding duration)을 식별할 수 있는 수술 인덱스(surgical index) 데이터를 출력하도록 제1 인공지능(artificial intelligence, AI) 모델을 학습시키는, 장치.Based on the learning data, a first artificial intelligence (AI) model is used to output surgical index data that can identify the bleeding count and bleeding duration in the surgical image. Learning device.
  2. 제1항에 있어서,According to paragraph 1,
    상기 프로세서는, The processor,
    상기 제1 시간적 특징 데이터 및 상기 제2 시간적 특징 데이터를 획득할 때, 상기 제1 프레임 레이트로 설정된 상기 수술 영상 및 상기 제2 프레임 레이트로 설정된 상기 수술 영상 각각을 제2 AI 모델에 입력하여 상기 제1 시간적특징 데이터 및 상기 제2 시간적 특징 데이터를 획득하고,When acquiring the first temporal feature data and the second temporal feature data, each of the surgical image set to the first frame rate and the surgical image set to the second frame rate is input to a second AI model to obtain the first Obtaining 1 temporal feature data and the second temporal feature data,
    상기 제2 AI 모델은, CNN(convolutional neural network) 모델을 포함하는, 장치.The second AI model includes a convolutional neural network (CNN) model.
  3. 제1항에 있어서,According to paragraph 1,
    상기 공간 특징 데이터는, 제1 클래스의 공간 특징 데이터 및 제2 클래스의 공간 특징 데이터로 분류되고,The spatial feature data is classified into first class spatial feature data and second class spatial feature data,
    상기 제1 클래스의 공간 특징 데이터는, 상기 수술 영상 내의 배경 영역에 대한 특징 데이터를 포함하고,The spatial feature data of the first class includes feature data for a background area in the surgical image,
    상기 제2 클래스의 공간 특징 데이터는, 상기 수술 영상 내의 활성 출혈 영역에 대한 특징 데이터를 포함하는, 장치.The second class of spatial feature data includes feature data for an active bleeding area in the surgical image.
  4. 제3항에 있어서,According to paragraph 3,
    상기 프로세서는, The processor,
    상기 제1 중간 데이터를 획득할 때, 상기 제1 클래스의 공간 특징 데이터와 상기 제1 시간적 특징 데이터 간의 아다마르 곱(Hadamard product) 수행 결과 및 상기 제2 클래스의 공간 특징 데이터와 상기 제1 시간적 특징 데이터 간의 아다마르 곱 수행 결과를 합산하여 제1 시간적-공간 특정 데이터를 획득하고,When acquiring the first intermediate data, a Hadamard product performance result between the spatial feature data of the first class and the first temporal feature data and the spatial feature data of the second class and the first temporal feature Obtaining first temporal-space specific data by adding up the results of performing the Hadamard product between the data,
    상기 제2 중간 데이터를 획득할 때, 상기 제1 클래스의 공간 특징 데이터와 상기 제2 시간적 특징 데이터 간의 아다마르 곱(Hadamard product) 수행 결과 및 상기 제2 클래스의 공간 특징 데이터와 상기 제2 시간적 특징 데이터 간의 아다마르 곱 수행 결과를 합산하여 상기 제2 시간적-공간 특징 데이터를 획득하는, 장치.When acquiring the second intermediate data, a Hadamard product performance result between the spatial feature data of the first class and the second temporal feature data and the spatial feature data of the second class and the second temporal feature An apparatus for obtaining the second temporal-spatial feature data by summing the results of performing a Hadamard product between data.
  5. 제4항에 있어서,According to clause 4,
    상기 프로세서는, The processor,
    상기 제1 중간 데이터를 획득할 때, 상기 제1 시간적-공간 특징 데이터와 상기 제1 시간적 특징 데이터를 합산하여 상기 제1 중간 데이터를 획득하고,When acquiring the first intermediate data, obtain the first intermediate data by adding the first temporal-spatial feature data and the first temporal feature data,
    상기 제2 중간 데이터를 획득할 때, 상기 제2 시간적-공간 특징 데이터와 상기 제2 시간적 특징 데이터를 합산하여 상기 제2 중간 데이터를 획득하는, 장치.When acquiring the second intermediate data, the device acquires the second intermediate data by adding the second temporal-spatial feature data and the second temporal feature data.
  6. 제1항에 있어서,According to paragraph 1,
    상기 프로세서는,The processor,
    상기 수술 인덱스 데이터에 대해 후처리(post-processing)을 수행하고,Perform post-processing on the surgical index data,
    상기 후처리가 수행된 정보에 기초하여 상기 수술 영상 내의 출혈 횟수 및 출혈 구간을 식별하는, 장치.A device that identifies the number of bleeding and the bleeding section in the surgical image based on the information on which the post-processing was performed.
  7. 제1항에 있어서,According to paragraph 1,
    상기 제1 프레임 레이트는, 상기 제2 프레임 레이트보다 작은 값으로 설정되는, 장치.The first frame rate is set to a value smaller than the second frame rate.
  8. 제7항에 있어서,In clause 7,
    상기 대표 프레임은, 상기 복수의 프레임 중 중간 프레임(center frame)인, 장치.The representative frame is a center frame among the plurality of frames.
  9. 장치에 의해 수행되는, 수술 영상을 통해 수술 중 출혈을 검출하는 방법에 있어서,In a method of detecting bleeding during surgery through surgical images, performed by a device,
    제1 프레임 레이트(frame rate)로 설정된 상기 수술 영상을 통해 제1 시간적(temporal) 특징 데이터를 획득하고, 제2 프레임 레이트로 설정된 상기 수술 영상을 통해 제2 시간적 특징 데이터를 획득하는 단계;Obtaining first temporal feature data through the surgical image set to a first frame rate and acquiring second temporal feature data through the surgical image set to a second frame rate;
    상기 수술 영상을 구성하는 복수의 프레임 중 대표 프레임을 통해 공간(spatial) 특징 데이터를 획득하는 단계;Obtaining spatial feature data through a representative frame among a plurality of frames constituting the surgical image;
    상기 제1 시간적 특징 데이터 및 상기 공간 특징 데이터에 기초하여 제1 중간 데이터를 획득하고, 상기 제2 시간적 특징 데이터 및 상기 공간 특징 데이터에 기초하여 제2 중간 데이터를 획득하는 단계;Obtaining first intermediate data based on the first temporal feature data and the spatial feature data, and acquiring second intermediate data based on the second temporal feature data and the spatial feature data;
    상기 제1 중간 데이터 및 상기 제2 중간 데이터를 연결(concatenation)하여 학습 데이터를 생성하는 단계; 및generating learning data by concatenating the first intermediate data and the second intermediate data; and
    상기 학습 데이터에 기초하여 상기 수술 영상 내의 출혈 횟수(bleeding count) 및 출혈 구간(bleeding duration)을 식별할 수 있는 수술 인덱스(surgical index) 데이터를 출력하도록 제1 인공지능(artificial intelligence, AI) 모델을 학습시키는 단계를 포함하는, 방법.Based on the learning data, a first artificial intelligence (AI) model is used to output surgical index data that can identify the bleeding count and bleeding duration in the surgical image. A method comprising the step of learning.
  10. 제9항에 있어서,According to clause 9,
    상기 제1 시간적 특징 데이터 및 상기 제2 시간적 특징 데이터를 획득하는 단계는,Obtaining the first temporal feature data and the second temporal feature data includes:
    상기 제1 프레임 레이트로 설정된 상기 수술 영상 및 상기 제2 프레임 레이트로 설정된 상기 수술 영상 각각을 제2 AI 모델에 입력하여 상기 제1 시간적특징 데이터 및 상기 제2 시간적 특징 데이터를 획득하는 단계를 포함하고,Inputting each of the surgical image set to the first frame rate and the surgical image set to the second frame rate into a second AI model to obtain the first temporal feature data and the second temporal feature data; ,
    상기 제2 AI 모델은, CNN(convolutional neural network) 모델을 포함하는, 방법.The method wherein the second AI model includes a convolutional neural network (CNN) model.
  11. 제9항에 있어서,According to clause 9,
    상기 공간 특징 데이터는, 제1 클래스의 공간 특징 데이터 및 제2 클래스의 공간 특징 데이터로 분류되고,The spatial feature data is classified into first class spatial feature data and second class spatial feature data,
    상기 제1 클래스의 공간 특징 데이터는, 상기 수술 영상 내의 배경 영역에 대한 특징 데이터를 포함하고,The spatial feature data of the first class includes feature data for a background area in the surgical image,
    상기 제2 클래스의 공간 특징 데이터는, 상기 수술 영상 내의 활성 출혈 영역에 대한 특징 데이터를 포함하는, 방법.The method wherein the second class of spatial feature data includes feature data for an active bleeding area in the surgical image.
  12. 제9항에 있어서,According to clause 9,
    상기 제1 중간 데이터를 획득하는 단계는,The step of acquiring the first intermediate data is,
    상기 제1 클래스의 공간 특징 데이터와 상기 제1 시간적 특징 데이터 간의 아다마르 곱(Hadamard product) 수행 결과 및 상기 제2 클래스의 공간 특징 데이터와 상기 제1 시간적 특징 데이터 간의 아다마르 곱 수행 결과를 합산하여 제1 시간적-공간 특정 데이터를 획득하는 단계를 포함하고,By adding up the Hadamard product performance results between the spatial feature data of the first class and the first temporal feature data and the Hadamard product performance results between the spatial feature data of the second class and the first temporal feature data, comprising acquiring first temporal-space specific data,
    상기 제2 중간 데이터를 획득하는 단계는,The step of acquiring the second intermediate data is,
    상기 제1 클래스의 공간 특징 데이터와 상기 제2 시간적 특징 데이터 간의 아다마르 곱(Hadamard product) 수행 결과 및 상기 제2 클래스의 공간 특징 데이터와 상기 제2 시간적 특징 데이터 간의 아다마르 곱 수행 결과를 합산하여 상기 제2 시간적-공간 특징 데이터를 획득하는 단계를 포함하는, 방법.By adding up the Hadamard product performance results between the spatial feature data of the first class and the second temporal feature data and the Hadamard product performance results between the spatial feature data of the second class and the second temporal feature data, Obtaining the second temporal-spatial feature data.
  13. 제12항에 있어서,According to clause 12,
    상기 제1 중간 데이터를 획득하는 단계는,The step of acquiring the first intermediate data is,
    상기 제1 시간적-공간 특징 데이터와 상기 제1 시간적 특징 데이터를 합산하여 상기 제1 중간 데이터를 획득하고,Obtaining the first intermediate data by adding the first temporal-spatial feature data and the first temporal feature data,
    상기 제2 중간 데이터를 획득하는 단계는,The step of acquiring the second intermediate data is,
    상기 제2 시간적-공간 특징 데이터와 상기 제2 시간적 특징 데이터를 합산하여 상기 제2 중간 데이터를 획득하는 단계를 포함하는, 방법.Adding the second temporal-spatial feature data and the second temporal feature data to obtain the second intermediate data.
  14. 제9항에 있어서,According to clause 9,
    상기 수술 인덱스 데이터에 대해 후처리(post-processing)을 수행하는 단계; 및Performing post-processing on the surgical index data; and
    상기 후처리가 수행된 정보에 기초하여 상기 수술 영상 내의 출혈 횟수 및 출혈 구간을 식별하는 단계를 더 포함하는, 방법.The method further comprising identifying the number of bleeding and the bleeding section in the surgical image based on the information on which the post-processing was performed.
  15. 제14항에 있어서,According to clause 14,
    상기 제1 프레임 레이트는, 상기 제2 프레임 레이트보다 작은 값으로 설정되고,The first frame rate is set to a value smaller than the second frame rate,
    상기 대표 프레임은, 상기 복수의 프레임 중 중간 프레임(center frame)인, 방법.The representative frame is a center frame among the plurality of frames.
PCT/KR2023/014458 2022-11-22 2023-09-22 Method and device for detecting intraoperative bleeding through spatiotemporal feature fusion model WO2024111846A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0157638 2022-11-22
KR1020220157638A KR20240077534A (en) 2022-11-22 2022-11-22 Method and device for detecting intraoperative bleeding through spatiotemporal feature fusion mode

Publications (1)

Publication Number Publication Date
WO2024111846A1 true WO2024111846A1 (en) 2024-05-30

Family

ID=91195794

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/014458 WO2024111846A1 (en) 2022-11-22 2023-09-22 Method and device for detecting intraoperative bleeding through spatiotemporal feature fusion model

Country Status (2)

Country Link
KR (1) KR20240077534A (en)
WO (1) WO2024111846A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011036371A (en) * 2009-08-10 2011-02-24 Tohoku Otas Kk Medical image recording apparatus
KR101175065B1 (en) * 2011-11-04 2012-10-12 주식회사 아폴로엠 Method for bleeding scanning during operation using image processing apparatus for surgery
KR20120126679A (en) * 2011-05-12 2012-11-21 주식회사 이턴 Control method of surgical robot system, recording medium thereof, and surgical robot system
KR102014385B1 (en) * 2018-02-20 2019-08-26 (주)휴톰 Method and apparatus for learning surgical image and recognizing surgical action based on learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011036371A (en) * 2009-08-10 2011-02-24 Tohoku Otas Kk Medical image recording apparatus
KR20120126679A (en) * 2011-05-12 2012-11-21 주식회사 이턴 Control method of surgical robot system, recording medium thereof, and surgical robot system
KR101175065B1 (en) * 2011-11-04 2012-10-12 주식회사 아폴로엠 Method for bleeding scanning during operation using image processing apparatus for surgery
KR102014385B1 (en) * 2018-02-20 2019-08-26 (주)휴톰 Method and apparatus for learning surgical image and recognizing surgical action based on learning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HONG SEULGI, HONG SEUNGBUM; JANG JUNYOUNG; KIM KEUNYOUNG; HYUNG WOO JIN; CHOI MIN-KOOK: "Amplifying action-context greater: image segmentation-guided intraoperative active bleeding detection", COMPUTER METHODS IN BIOMECHANICS AND BIOMEDICAL ENGINEERING: IMAGING & VISUALIZATION, TAYLOR & FRANCIS, GB, vol. 11, no. 4, 4 July 2023 (2023-07-04), GB , pages 1261 - 1270, XP093175182, ISSN: 2168-1163, DOI: 10.1080/21681163.2022.2159533 *

Also Published As

Publication number Publication date
KR20240077534A (en) 2024-06-03

Similar Documents

Publication Publication Date Title
Dray et al. Artificial intelligence in small bowel capsule endoscopy‐current status, challenges and future promise
WO2020024484A1 (en) Method and device for outputting data
WO2022019402A1 (en) Computer program and method for training artificial neural network model on basis of time series bio-signal
WO2018124729A1 (en) Privacy-preserving transformation of continuous data
WO2021020810A1 (en) Learning method of ai model and electronic apparatus
US20220028545A1 (en) Machine learning-based prediction of physiological parameters in remote medical information exchange
WO2021091066A1 (en) System and method for passive subject specific monitoring
WO2021179719A1 (en) Face detection method, apparatus, medium, and electronic device
WO2021201582A1 (en) Method and device for analyzing causes of skin lesion
WO2024111846A1 (en) Method and device for detecting intraoperative bleeding through spatiotemporal feature fusion model
WO2024053989A1 (en) System and method for recommending rehabilitation exercise on basis of living environment detection by using digital image recognition
CN112101109B (en) Training method and device for face key point detection model, electronic equipment and medium
WO2023058942A1 (en) Device and method for providing oral health analysis service
EP3951794A1 (en) Skin disease analyzing program, skin disease analyzing method, skin disease analyzing device, and skin disease analyzing system
WO2023136695A1 (en) Apparatus and method for generating virtual lung model of patient
WO2020022825A1 (en) Method and electronic device for artificial intelligence (ai)-based assistive health sensing in internet of things network
WO2024111845A1 (en) Method and device for recognizing stages of surgery on basis of visual multiple-modality
WO2024053996A1 (en) Method for providing information regarding wart or corn prediction and apparatus using same
Ahmed et al. Towards a user-level self-management of COVID-19 using mobile devices supported by artificial intelligence, 5G and the cloud
WO2023234492A1 (en) Method, device, and program for providing patient-specific 3d surgical simulation
WO2024106660A1 (en) Thyrotoxicosis differential diagnosis method using machine learning algorithm, and server and program therefor
WO2024128424A1 (en) Method for diagnosing thyroid cancer using high-density lipoprotein cholesterol level monitoring, and server and program therefor
WO2024019324A1 (en) Artificial intelligence-based paraffin block recognition device using camera, and paraffin block recognition method using same
WO2022158737A1 (en) Disease diagnosis device and method
CN112149615B (en) Face living body detection method, device, medium and electronic equipment