KR20240018193A - Method for processing images related to importance, server and recording medium - Google Patents

Method for processing images related to importance, server and recording medium Download PDF

Info

Publication number
KR20240018193A
KR20240018193A KR1020220096156A KR20220096156A KR20240018193A KR 20240018193 A KR20240018193 A KR 20240018193A KR 1020220096156 A KR1020220096156 A KR 1020220096156A KR 20220096156 A KR20220096156 A KR 20220096156A KR 20240018193 A KR20240018193 A KR 20240018193A
Authority
KR
South Korea
Prior art keywords
information
target video
importance
risk
characteristic information
Prior art date
Application number
KR1020220096156A
Other languages
Korean (ko)
Inventor
김덕석
박준혁
Original Assignee
주식회사 엠티이지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엠티이지 filed Critical 주식회사 엠티이지
Priority to KR1020220096156A priority Critical patent/KR20240018193A/en
Publication of KR20240018193A publication Critical patent/KR20240018193A/en

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references

Abstract

일 실시 예에서, 의료 행위와 관련된 대상 동영상을 획득하는 단계; 상기 대상 동영상에 대한 영상 정보를 획득하는 단계; 상기 의료 행위에 대한 바이탈 신호, 상기 대상 동영상에 대한 속성 정보 및 상기 대상 동영상에 대한 음성 정보 중 적어도 하나를 포함하는, 비영상 정보를 획득하는 단계; 상기 영상 정보 및 상기 비영상 정보에 기초하여 상기 대상 동영상에 대한 특성 정보를 획득하는 단계; 및 상기 특성 정보에 기초하여 결정되는 중요도에 기초하여 상기 대상 동영상에 대한 영상 처리를 수행하는 단계;를 포함하는, 방법, 디바이스 및 기록매체가 개시된다.In one embodiment, acquiring a subject video related to a medical practice; Obtaining image information about the target video; Obtaining non-image information, including at least one of vital signals for the medical practice, attribute information for the target video, and audio information for the target video; Obtaining characteristic information about the target video based on the video information and the non-video information; and performing image processing on the target video based on importance determined based on the characteristic information. A method, device, and recording medium including a step are disclosed.

Description

중요도와 관련된 영상 처리 방법, 서버 및 기록매체{Method for processing images related to importance, server and recording medium}Image processing method, server and recording medium related to importance {Method for processing images related to importance, server and recording medium}

본 개시는 의료 행위와 관련된 영상에 대한 중요도에 기초하여 영상 처리를 수행하는 기술 분야에 관한 것으로, 구체적으로는 영상에 대한 영상 정보 및 비영상 정보를 이용하여 도출된 중요도에 기초하여 영상에 대한 처리를 수행하는 기술 분야와 관련된다.This disclosure relates to the field of technology for performing image processing based on the importance of images related to medical practice, and specifically, processing of images based on the importance derived using image information and non-image information about images. It is related to the technical field that performs.

최근 들어 카메라가 부착된 내시경 장비들이 다양한 분야에서 사용되고, 대상자의 체내에 삽입되거나 시술 또는 수술 현장을 촬영하는 영상 장비들이 소형화, 보편화되면서 내외과적 수술에서 동영상을 획득하는 경우가 많아지고 있다. 또한, 최근 들어 빅 데이터, 인공 지능의 발달로 동영상을 의료 정보 콘텐츠로 가공하고 이를 기반으로 기술에 대한 표준화 연구 및 도구의 사용성에 대한 평가 연구 등 다양한 연구를 진행하고자 하는 병원과 의사가 늘어남에 따라 동영상의 저장과 주요 장면에 대한 빠른 검색이 요구되고 있다. Recently, endoscopic devices equipped with cameras have been used in various fields, and video devices that are inserted into the patient's body or film the procedure or surgery site have become miniaturized and popular, and the number of cases of video acquisition in internal and surgical surgeries is increasing. In addition, with the recent development of big data and artificial intelligence, the number of hospitals and doctors who want to process videos into medical information content and conduct various studies, such as standardization studies on technology and evaluation studies on the usability of tools based on this, has increased. There is a demand for video storage and quick retrieval of key scenes.

한편, 다양한 의료 환경에서 획득되는 동영상(예: 수술 동영상)은 동영상의 내용, 관련 사항들에 따라 중요도가 상이할 수 있고, 중요도에 따라 동영상을 보관 기간, 보관 방식 등 동영상을 관리, 취급하는 방식 또한 상이할 수 있으나, 종래에는 단순히 획득된 동영상을 보관하기만 할 뿐, 동영상에 따른 중요도를 도출하고 도출된 중요도에 따라 동영상을 관리, 취급하는 기술은 제공되지 않고 있다.Meanwhile, the importance of videos acquired in various medical environments (e.g., surgery videos) may vary depending on the content and related matters, and the methods of managing and handling the videos, such as storage period and storage method, depending on the importance. In addition, although it may be different, in the past, acquired videos are simply stored, and technology for deriving the importance of the video and managing and handling the video according to the derived importance is not provided.

이에 따라, 종래에는 사용자가 동영상을 직접 분류하고, 필요한 경우 사용자가 동영상의 내용을 직접 검토한 후 중요도를 부여하는 등의 불편한 방식이 이용되고 있다는 점에서 종래 기술의 문제점들을 효과적으로 해소할 수 있는 기술의 제공이 시급한 실정이다.Accordingly, in the past, an inconvenient method was used, such as the user directly classifying the video and, if necessary, the user directly reviewing the content of the video and assigning importance to it. This is a technology that can effectively solve the problems of the prior art. The provision of is urgently needed.

한국등록특허 제10-2237198호 (2021.04.01), 인공지능 기반의 의료영상 판독 서비스 시스템Korean Patent No. 10-2237198 (2021.04.01), artificial intelligence-based medical image reading service system

본 개시에서 해결하고자 하는 과제는 의료 행위와 관련된 동영상에 대한 분석 결과에 기초하여 동영상의 중요도를 결정하고, 결정된 중요도에 따라 동영상의 보관 기간, 보관 위치, 파일 네이밍 등을 결정함으로써 중요도에 따라 동영상을 용이하게 관리할 수 있도록 하기 위한 것이다.The problem to be solved in this disclosure is to determine the importance of the video based on the analysis results of the video related to medical practice, and determine the storage period, storage location, file naming, etc. This is to make it easy to manage.

본 개시에서 해결하고자 하는 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.The problems to be solved by this disclosure are not limited to the technical problems described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로써, 본 개시의 제 1 측면에 따른 중요도와 관련된 영상 처리 방법은, 의료 행위와 관련된 대상 동영상을 획득하는 단계; 상기 대상 동영상에 대한 영상 정보를 획득하는 단계; 상기 의료 행위에 대한 바이탈 신호, 상기 대상 동영상에 대한 속성 정보 및 상기 대상 동영상에 대한 음성 정보 중 적어도 하나를 포함하는, 비영상 정보를 획득하는 단계; 상기 영상 정보 및 상기 비영상 정보에 기초하여 상기 대상 동영상에 대한 특성 정보를 획득하는 단계; 및 상기 특성 정보에 기초하여 결정되는 중요도에 기초하여 상기 대상 동영상에 대한 영상 처리를 수행하는 단계;를 포함할 수 있다.As a technical means for achieving the above-described technical problem, an image processing method related to importance according to the first aspect of the present disclosure includes the steps of acquiring a target video related to medical practice; Obtaining image information about the target video; Obtaining non-image information, including at least one of vital signals for the medical practice, attribute information for the target video, and audio information for the target video; Obtaining characteristic information about the target video based on the video information and the non-video information; and performing image processing on the target video based on the importance determined based on the characteristic information.

또한, 상기 영상 처리를 수행하는 단계는 상기 대상 동영상에 대한 저장 위치, 보관 기간, 색인 및 파일명 중 적어도 하나를 상기 특성 정보 및 상기 중요도에 기초하여 결정할 수 있다.Additionally, the step of performing the image processing may determine at least one of a storage location, storage period, index, and file name for the target video based on the characteristic information and the importance.

또한, 상기 영상 처리를 수행하는 단계는 상기 중요도가 높을수록 상기 저장 위치의 보안 레벨은 높고, 상기 보관 기간은 길도록 상기 대상 동영상에 대한 영상 처리를 수행하고, 상기 색인 및 상기 파일명을 상기 특성 정보에 기초하여 결정할 수 있다.In addition, the step of performing the image processing includes performing image processing on the target video so that the higher the importance, the higher the security level of the storage location, and the longer the storage period, and storing the index and the file name in the characteristic information. It can be decided based on

또한, 상기 특성 정보를 획득하는 단계는 상기 영상 정보에 대한 수술 도구 모니터링 정보, 바이탈 신호 모니터링 정보 및 출혈 모니터링 정보 중 적어도 하나에 기초하여 상기 특성 정보를 획득할 수 있다.Additionally, in the step of acquiring the characteristic information, the characteristic information may be acquired based on at least one of surgical tool monitoring information, vital signal monitoring information, and bleeding monitoring information for the image information.

또한, 상기 특성 정보를 결정하는 단계는 상기 음성 정보에 기초한 감정 분석 결과에 기초하여 상기 특성 정보를 획득할 수 있다.Additionally, in the step of determining the characteristic information, the characteristic information may be obtained based on an emotion analysis result based on the voice information.

또한, 상기 영상 정보에 따라 결정된 상기 대상 동영상 내의 제 1 위험 구간과 상기 감정 분석 결과에 따라 결정된 상기 대상 동영상 내의 제 2 위험 구간이 중첩되는 구간의 길이에 기초하여 상기 중요도를 결정할 수 있다.Additionally, the importance may be determined based on the length of a section where the first risk section in the target video determined according to the image information and the second risk section in the target video determined according to the emotion analysis result overlap.

또한, 상기 영상 처리를 수행하는 단계는 상기 제 1 위험 구간에 대한 제 1 위험 레벨을 결정하는 단계; 상기 제 2 위험 구간에 대한 제 2 위험 레벨을 결정하는 단계; 상기 제 1 위험 레벨과 상기 제 2 위험 레벨을 곱한 값에 대응되는 제 3 위험 레벨을 결정하는 단계; 및 상기 중첩되는 구간의 길이와 상기 제 3 위험 레벨을 곱한 값에 대응되도록 상기 중요도를 결정하는 단계;를 포함할 수 있다.Additionally, performing the image processing may include determining a first risk level for the first risk section; determining a second risk level for the second risk interval; determining a third risk level corresponding to a product of the first risk level and the second risk level; and determining the importance to correspond to a value obtained by multiplying the length of the overlapping section by the third risk level.

본 개시의 제 2 측면에 따른 중요도와 관련된 영상 처리 디바이스는, 의료 행위와 관련된 대상 동영상을 획득하는 수신부; 및 상기 대상 동영상에 대한 영상 정보를 획득하고, 상기 의료 행위에 대한 바이탈 신호, 상기 대상 동영상에 대한 속성 정보 및 상기 대상 동영상에 대한 음성 정보 중 적어도 하나를 포함하는, 비영상 정보를 획득하고, 상기 영상 정보 및 상기 비영상 정보에 기초하여 상기 대상 동영상에 대한 특성 정보를 획득하고, 상기 특성 정보에 기초하여 결정되는 중요도에 기초하여 상기 대상 동영상에 대한 영상 처리를 수행하는 프로세서;를 포함할 수 있다.An image processing device related to importance according to a second aspect of the present disclosure includes a receiving unit that acquires a target video related to medical practice; And acquiring image information for the target video, and acquiring non-image information, including at least one of vital signals for the medical action, attribute information for the target video, and audio information for the target video, It may include a processor that acquires characteristic information about the target video based on video information and the non-video information, and performs image processing on the target video based on the importance determined based on the characteristic information. .

또한, 상기 프로세서는 상기 대상 동영상에 대한 저장 위치, 보관 기간, 색인 및 파일명 중 적어도 하나를 상기 특성 정보 및 상기 중요도에 기초하여 결정할 수 있다.Additionally, the processor may determine at least one of a storage location, storage period, index, and file name for the target video based on the characteristic information and the importance.

또한, 상기 프로세서는 상기 중요도가 높을수록 상기 저장 위치의 보안 레벨은 높고, 상기 보관 기간은 길도록 상기 대상 동영상에 대한 영상 처리를 수행하고, 상기 색인 및 상기 파일명을 상기 특성 정보에 기초하여 결정할 수 있다.In addition, the processor may perform image processing on the target video so that the higher the importance, the higher the security level of the storage location, and the longer the storage period, and determine the index and the file name based on the characteristic information. there is.

또한, 상기 영상 정보에 대한 수술 도구 모니터링 정보, 바이탈 신호 모니터링 정보 및 출혈 모니터링 정보 중 적어도 하나에 기초하여 상기 특성 정보를 획득할 수 있다.Additionally, the characteristic information may be obtained based on at least one of surgical tool monitoring information, vital signal monitoring information, and bleeding monitoring information regarding the image information.

또한, 상기 프로세서는 상기 음성 정보에 기초한 감정 분석 결과에 기초하여 상기 특성 정보를 획득할 수 있다.Additionally, the processor may obtain the characteristic information based on an emotion analysis result based on the voice information.

또한, 상기 중요도는 상기 영상 정보에 따라 결정된 상기 대상 동영상 내의 제 1 위험 구간과 상기 감정 분석 결과에 따라 결정된 상기 대상 동영상 내의 제 2 위험 구간이 중첩되는 구간의 길이에 기초하여 결정될 수 있다.In addition, the importance may be determined based on the length of a section where the first risk section in the target video determined according to the image information and the second risk section in the target video determined according to the emotion analysis result overlap.

또한, 상기 프로세서는 상기 제 1 위험 구간에 대한 제 1 위험 레벨을 결정하고, 상기 제 2 위험 구간에 대한 제 2 위험 레벨을 결정하고, 상기 제 1 위험 레벨과 상기 제 2 위험 레벨을 곱한 값에 대응되는 제 3 위험 레벨을 결정하고, 상기 중첩되는 구간의 길이와 상기 제 3 위험 레벨을 곱한 값에 대응되도록 상기 중요도를 결정할 수 있다.Additionally, the processor determines a first risk level for the first risk interval, determines a second risk level for the second risk interval, and calculates a value obtained by multiplying the first risk level and the second risk level. The corresponding third risk level can be determined, and the importance can be determined to correspond to a value obtained by multiplying the length of the overlapping section and the third risk level.

본 개시의 제 3 측면에 따르면, 제 1 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함할 수 있다.According to a third aspect of the present disclosure, the method may include a computer-readable recording medium recording a program for executing the method of the first aspect on a computer.

본 개시의 일 실시 예에 따르면, 사용자가 수동적으로 동영상 마다 중요도를 판단하는 작업이 별도로 요구되지 않는다.According to an embodiment of the present disclosure, the user is not required to manually determine the importance of each video.

또한, 상대적으로 중요도가 높다고 판단된 동영상에 대해 우선적으로 동영상을 처리함으로써 동영상 관리가 용이해진다.In addition, video management becomes easier by processing videos with priority for videos judged to be relatively important.

본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below.

도 1은 일 실시 예에 따라 디바이스가 네트워크와 연동하여 동작하는 의료 영상 처리 시스템을 설명하는 도면이다.
도 2는 일 실시 예에 따른 디바이스의 구성을 개략적으로 도시한 블록도이다.
도 3은 일 실시 예에 따른 디바이스가 중요도에 기초하여 대상 동영상에 대한 영상 처리를 수행하는 각 단계를 도시한 흐름도이다.
도 4는 일 실시 예에 따른 디바이스가 대상 동영상에 대한 저장 위치, 보관 기간, 색인 및 파일명 중 적어도 하나를 결정하는 각 단계를 도시한 흐름도이다.
도 5는 일 실시 예에 따른 디바이스가 특성 정보를 획득하는 각 단계를 도시한 흐름도이다.
도 6은 일 실시 예에 따른 디바이스가 대상 동영상으로부터 영상 정보를 획득하는 일 예를 개략적으로 도시한 도면이다.
도 7은 일 실시 예에 따른 디바이스가 대상 동영상으로부터 음성 정보를 획득하는 일 예를 개략적으로 도시한 도면이다.
FIG. 1 is a diagram illustrating a medical image processing system in which a device operates in conjunction with a network, according to an embodiment.
Figure 2 is a block diagram schematically showing the configuration of a device according to an embodiment.
Figure 3 is a flowchart illustrating each step in which a device performs image processing on a target video based on importance, according to an embodiment.
FIG. 4 is a flowchart illustrating each step in which a device determines at least one of a storage location, storage period, index, and file name for a target video, according to an embodiment.
Figure 5 is a flowchart illustrating each step in which a device acquires characteristic information according to an embodiment.
FIG. 6 is a diagram schematically illustrating an example in which a device acquires image information from a target video, according to an embodiment.
FIG. 7 is a diagram schematically illustrating an example in which a device acquires audio information from a target video according to an embodiment.

본 개시에서 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시 예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 개시가 완전 하도록 하고, 해당 기술 분야에 속하는 통상의 기술자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이다. Advantages and features in the present disclosure, and methods for achieving them, will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure is complete and to those skilled in the art. It is provided to provide complete information.

본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 개시의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used herein are for describing embodiments and are not intended to limit the disclosure. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be the second component within the technical spirit of the present disclosure.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 해당 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작 시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms such as “below”, “beneath”, “lower”, “above”, “upper”, etc. are used as a single term as shown in the drawing. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms that include different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is flipped over, a component described as “below” or “beneath” another component will be placed “above” the other component. You can. Accordingly, the illustrative term “down” may include both downward and upward directions. Components can also be oriented in other directions, so spatially relative terms can be interpreted according to orientation.

이하에서는 도면을 참조하여 실시 예들을 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the drawings.

도 1은 일 실시 예에 따라 디바이스(100)가 네트워크와 연동하여 동작하는 의료 영상 처리 시스템을 설명하는 도면이다. FIG. 1 is a diagram illustrating a medical image processing system in which a device 100 operates in conjunction with a network, according to an embodiment.

도 1에 도시된 바와 같이, 의료 영상 처리 시스템은 정보 획득 장치(110), 디바이스(100), 외부 서버(130), 저장 매체(140), 통신 디바이스(150), 가상 서버(160), 사용자 단말(170) 및 네트워크 등을 포함할 수 있다.As shown in FIG. 1, the medical image processing system includes an information acquisition device 110, a device 100, an external server 130, a storage medium 140, a communication device 150, a virtual server 160, and a user. It may include a terminal 170 and a network.

그러나, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 의료 영상 처리 시스템에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들면, 의료 영상 처리 시스템은 네트워크와 연동하여 동작하는 블록체인 서버(미도시)를 더 포함할 수 있다. 또는 다른 실시 예에 따를 경우, 도 1에 도시된 구성요소들 중 일부 구성요소는 생략될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.However, those skilled in the art will understand that other general-purpose components other than those shown in FIG. 1 may be included in the medical image processing system. For example, a medical image processing system may further include a blockchain server (not shown) that operates in conjunction with a network. Alternatively, according to another embodiment, those skilled in the art may understand that some of the components shown in FIG. 1 may be omitted.

일 실시 예에 따른 디바이스(100)는 의료 영상 처리 시스템과 연동하여 동작할 수 있고, 의료 영상 처리 시스템을 통해 수행되는 동작이 디바이스(100)를 통해서도 수행될 수 있다. 또한, 디바이스(100)는 정보 획득 장치(110)로부터 수술 등 의료 행위와 관련된 정보를 획득할 수 있다. 정보 획득 장치(110)는 촬영 장치, 녹음 장치, 생체 신호 획득 장치 등을 포함할 수 있으나, 이에 제한되지 않는다. 생체 신호는 체온 신호, 맥박 신호, 호흡 신호, 혈압 신호, 근전도 신호, 뇌파 신호 등 생명체로부터 획득되는 신호를 제한 없이 포함할 수 있다. 정보 획득 장치(110)의 일 예인 촬영 장치는 수술실 상황을 전체적으로 촬영하는 제 1 촬영 장치(예: CCTV 등)와 수술 부위를 집중적으로 촬영하는 제 2 촬영 장치(예: 내시경 등) 등을 포함할 수 있으나, 이에 제한되지 않는다.The device 100 according to an embodiment may operate in conjunction with a medical image processing system, and operations performed through the medical image processing system may also be performed through the device 100. Additionally, the device 100 may obtain information related to medical procedures such as surgery from the information acquisition device 110. The information acquisition device 110 may include, but is not limited to, a photographing device, a recording device, a biological signal acquisition device, etc. Biological signals may include signals obtained from living organisms, such as body temperature signals, pulse signals, respiration signals, blood pressure signals, electromyography signals, and brain wave signals, without limitation. The imaging device, which is an example of the information acquisition device 110, may include a first imaging device (e.g., CCTV, etc.) for photographing the entire operating room situation and a second imaging device (e.g., endoscope, etc.) for intensively photographing the surgical site. may, but is not limited to this.

일 실시 예에 따른 디바이스(100)는 정보 획득 장치(110)로부터 수술 등 의료 행위와 관련된 영상인 대상 동영상(동영상, 정지영상 등)을 획득할 수 있다. 디바이스(100)는 획득한 영상에 대한 영상 처리를 수행할 수 있다. 일 실시 예에 따른 영상 처리는 각각의 영상에 대한 네이밍, 인코딩, 저장, 전송, 편집, 메타 데이터 생성, 보관 위치 및 보관 기간 등을 포함할 수 있으나, 이에 제한되지 않는다.The device 100 according to one embodiment may acquire a target video (video, still image, etc.), which is an image related to a medical procedure such as surgery, from the information acquisition device 110. The device 100 may perform image processing on the acquired image. Image processing according to an embodiment may include naming, encoding, storage, transmission, editing, metadata creation, storage location, and storage period for each image, but is not limited thereto.

일 실시 예에 따른 디바이스(100)는 정보 획득 장치(110)로부터 획득한 의료 행위 관련 정보를 그대로 또는 갱신하여 네트워크로 전송할 수 있다. 디바이스(100)가 네트워크로 전송하는 전송 정보는 네트워크를 통해서 외부 디바이스(130, 140, 150, 160, 170)로 전송될 수 있다. 예를 들면, 네트워크는 외부 서버(130), 저장 매체(140), 통신 디바이스(150), 가상 서버(160), 사용자 단말(170) 등으로 디바이스(100)가 네트워크로 전송한 전송 정보를 그대로 또는 갱신하여 전송할 수 있다. 디바이스(100) 또한 외부 디바이스(130, 140, 150, 160, 170)로부터 수신한 정보(예: 피드백 정보, 갱신 요청 등)를 수신할 수 있다. 통신 디바이스(150)는 통신에 이용되는 디바이스를 제한 없이 의미할 수 있으며(예: 게이트웨이), 통신 디바이스(150)는 사용자 단말(180) 등 네트워크와 직접 연결되지 않는 디바이스와 통신할 수 있다.The device 100 according to one embodiment may transmit medical treatment-related information obtained from the information acquisition device 110 as is or as updated information to the network. Transmission information transmitted by the device 100 to the network may be transmitted to external devices 130, 140, 150, 160, and 170 through the network. For example, the network transmits the transmission information sent by the device 100 to the network as is, such as the external server 130, the storage medium 140, the communication device 150, the virtual server 160, and the user terminal 170. Alternatively, it can be updated and transmitted. Device 100 may also receive information (eg, feedback information, update request, etc.) received from external devices 130, 140, 150, 160, and 170. The communication device 150 may refer to a device used for communication without limitation (eg, a gateway), and the communication device 150 may communicate with a device that is not directly connected to the network, such as the user terminal 180.

일 실시 예에 따른 디바이스(100)는 후술하는 바와 같이 입력부, 출력부 프로세서, 메모리 등을 포함할 수 있으며, 디스플레이 장치(미도시)도 포함할 수 있다. 예컨대, 사용자는 디스플레이 장치를 통해서 통신 상태, 메모리 사용 현황, 전력 상태(예: 배터리의 충전상태(State Of Charge), 외부 전력 공급 여부 등), 저장된 동영상에 대한 썸네일, 현재 동작 중인 동작 모드 등을 등을 확인 할 수 있다. 한편, 디스플레이 장치는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 등일 수 있다. 또한, 디스플레이 장치는 구현 형태에 따라 2개 이상의 디스플레이를 포함할 수 있다. 또한, 디스플레이의 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이는 출력 장치 이외에 입력 장치로도 사용될 수 있다.The device 100 according to one embodiment may include an input unit, an output processor, a memory, etc., and may also include a display device (not shown), as will be described later. For example, through the display device, the user can view communication status, memory usage status, power status (e.g., battery state of charge, external power supply, etc.), thumbnails for stored videos, currently operating mode, etc. You can check, etc. Meanwhile, display devices include liquid crystal display, thin film transistor-liquid crystal display, organic light-emitting diode, flexible display, and 3D display. display), electrophoretic display, etc. Additionally, the display device may include two or more displays depending on the implementation type. Additionally, when the touchpad of the display has a layered structure and is configured as a touch screen, the display can be used as an input device in addition to an output device.

또한, 네트워크는 유선 통신 또는 무선 통신을 통해 상호 통신을 수행할 수 있다. 예컨대 네트워크는 일종의 서버로 구현될 수도 있으며, 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC 칩 등을 포함할 수 있다. 물론, 디바이스(100)는 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC 칩 등을 이용하여 각종 외부기기와 통신을 수행할 수 있다. 와이파이 칩, 블루투스 칩은 각각 Wi-Fi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행할 수 있다. NFC 칩은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작할 수 있다.Additionally, networks may communicate with each other through wired or wireless communication. For example, a network may be implemented as a type of server and may include a Wi-Fi chip, Bluetooth chip, wireless communication chip, NFC chip, etc. Of course, the device 100 can communicate with various external devices using a Wi-Fi chip, Bluetooth chip, wireless communication chip, NFC chip, etc. Wi-Fi chips and Bluetooth chips can communicate using Wi-Fi and Bluetooth methods, respectively. When using a Wi-Fi chip or a Bluetooth chip, various connection information such as SSID and session key are first transmitted and received, and various information can be transmitted and received after establishing a communication connection using this. Wireless communication chips can perform communication according to various communication standards such as IEEE, ZigBee, 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), and LTE (Long Term Evolution). The NFC chip can operate in the NFC (Near Field Communication) method using the 13.56MHz band among various RF-ID frequency bands such as 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz, etc.

일 실시 예에 따른 입력부는 사용자가 디바이스(100)를 제어하기 위한 데이터를 입력하는 수단을 의미할 수 있다. 예를 들어, 입력부에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The input unit according to one embodiment may refer to a means through which a user inputs data to control the device 100. For example, the input unit includes a key pad, dome switch, and touch pad (contact capacitive type, pressure resistance type, infrared detection type, surface ultrasonic conduction type, integral tension measurement type, There may be a piezo effect method, etc.), a jog wheel, a jog switch, etc., but it is not limited thereto.

일 실시 예에 따른 출력부는 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부는 디스플레이 장치, 음향 출력 장치, 및 진동 모터 등을 포함할 수 있다.The output unit according to one embodiment may output an audio signal, a video signal, or a vibration signal, and the output unit may include a display device, a sound output device, and a vibration motor.

일 실시 예에 따른 사용자 단말(170)은 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC 등 다양한 유무선 통신 디바이스를 포함할 수 있으나 이에 제한되지 않는다.The user terminal 170 according to an embodiment may include, but is not limited to, various wired and wireless communication devices such as a smartphone, SmartPad, and tablet PC.

일 실시 예에 따른 디바이스(100)는 정보 획득 장치(110)로부터 획득한 의료 행위 관련 정보를 갱신할 수 있다. 예를 들면, 디바이스(100)는 정보 획득 장치(110)로부터 획득한 영상에 대한 네이밍, 인코딩, 저장, 전송, 편집, 메타 데이터 생성, 보관 위치 및 보관 기간 결정 등을 수행할 수 있다. 일 예로, 디바이스(100)는 획득한 영상의 메타 데이터(예: 생성 시간)을 이용하여 영상 파일의 네이밍을 수행할 수 있다. 다른 예로, 디바이스(100)는 정보 획득 장치(110)로부터 획득한 의료 행위와 관련된 영상을 분류할 수 있다. 디바이스(100)는 학습된 AI를 이용하여, 의료 행위와 관련된 영상을 수술 종류, 수술자, 수술 장소 등 다양한 기준에 기초하여 분류할 수 있다.The device 100 according to an embodiment may update medical practice-related information acquired from the information acquisition device 110. For example, the device 100 may perform naming, encoding, storage, transmission, editing, metadata generation, storage location, and storage period determination for the image acquired from the information acquisition device 110. As an example, the device 100 may name an image file using metadata (eg, creation time) of the acquired image. As another example, the device 100 may classify images related to medical procedures obtained from the information acquisition device 110. The device 100 can use learned AI to classify images related to medical procedures based on various criteria such as type of surgery, operator, and location of surgery.

도 2는 일 실시 예에 따른 디바이스(100)의 구성을 개략적으로 도시한 블록도이다.FIG. 2 is a block diagram schematically showing the configuration of the device 100 according to an embodiment.

도 2를 참조하면, 디바이스(100)는 수신부(210) 및 프로세서(220)를 포함할 수 있다. Referring to FIG. 2, device 100 may include a receiver 210 and a processor 220.

일 실시 예에서, 수신부(210)는 의료 행위와 관련된 대상 동영상을 정보 획득 장치(110)로부터 획득할 수 있다. 예를 들어, 대상 동영상은 수술 장면, 수술에 사용되는 도구, 수술 종류, 수술 방법, 수술 시 환자의 신체 상태, 환자의 신체 영상, 수술 상황에 대한 음성 등 환자의 수술과 관련된 전반적인 정보들을 포함하는 동영상일 수 있다.In one embodiment, the receiver 210 may obtain a target video related to medical treatment from the information acquisition device 110. For example, the target video contains general information related to the patient's surgery, such as surgery scenes, tools used in surgery, type of surgery, surgical method, patient's physical condition at the time of surgery, images of the patient's body, and audio about the surgical situation. It could be a video.

일 실시 예에서, 프로세서(220)는 대상 동영상에 대한 영상 정보를 획득하고, 의료 행위에 대한 바이탈 신호, 대상 동영상에 대한 속성 정보 및 대상 동영상에 대한 음성 정보 중 적어도 하나를 포함하는, 비영상 정보를 획득하고, 영상 정보 및 비영상 정보에 기초하여 대상 동영상에 대한 특성 정보를 획득하고, 특성 정보에 기초하여 결정되는 중요도에 기초하여 대상 동영상에 대한 영상 처리를 수행할 수 있다.In one embodiment, the processor 220 acquires image information about the target video, and non-image information including at least one of vital signals for medical operations, attribute information about the target video, and audio information about the target video. , obtain characteristic information about the target video based on image information and non-image information, and perform image processing on the target video based on the importance determined based on the characteristic information.

또한, 프로세서(220)는 대상 동영상에 대한 저장 위치, 보관 기간, 색인 및 파일명 중 적어도 하나를 특성 정보 및 중요도에 기초하여 결정할 수 있다.Additionally, the processor 220 may determine at least one of the storage location, storage period, index, and file name for the target video based on characteristic information and importance.

또한, 프로세서(220)는 중요도가 높을수록 저장 위치의 보안 레벨은 높고, 보관 기간은 길도록 대상 동영상에 대한 영상 처리를 수행하고, 색인 및 파일명을 특성 정보에 기초하여 결정할 수 있다.Additionally, the processor 220 may perform image processing on the target video so that the higher the importance, the higher the security level of the storage location and the longer the storage period, and determine the index and file name based on the characteristic information.

또한, 프로세서(220)는 영상 정보에 대한 수술 도구 모니터링 정보, 바이탈 신호 모니터링 정보 및 출혈 모니터링 정보 중 적어도 하나에 기초하여 특성 정보를 획득할 수 있다.Additionally, the processor 220 may obtain characteristic information based on at least one of surgical tool monitoring information, vital signal monitoring information, and bleeding monitoring information for image information.

또한, 프로세서(220)는 음성 정보에 기초한 감정 분석 결과에 기초하여 특성 정보를 획득할 수 있다.Additionally, the processor 220 may obtain characteristic information based on an emotion analysis result based on voice information.

또한, 프로세서(220)는 제 1 위험 구간에 대한 제 1 위험 레벨을 결정하고, 제 2 위험 구간에 대한 제 2 위험 레벨을 결정하고, 제 1 위험 레벨과 제 2 위험 레벨을 곱한 값에 대응되는 제 3 위험 레벨을 결정하고, 중첩되는 구간의 길이와 제 3 위험 레벨을 곱한 값에 대응되도록 중요도를 결정할 수 있다.Additionally, the processor 220 determines a first risk level for the first risk interval, determines a second risk level for the second risk interval, and determines a value corresponding to the product of the first risk level and the second risk level. The third risk level can be determined, and the importance can be determined to correspond to the value multiplied by the length of the overlapping section and the third risk level.

일 실시 예에서, 대상 동영상에 대한 중요도는 수술과 관련된 전반적인 사항들(예: 수술 종류, 수술 난이도, 환자 신체 상태, 대상 동영상 유출 시 피해 정도, 사용된 수술 도구 등)에 기초하여 결정되는 대상 동영상의 중요한 정도를 나타낼 수 있다.In one embodiment, the importance of the target video is determined based on overall information related to the surgery (e.g., type of surgery, difficulty of the surgery, patient's physical condition, degree of damage when the target video is leaked, surgical tools used, etc.) can indicate the degree of importance.

더하여, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 디바이스(100)에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들면, 디바이스(100)는 대상 동영상을 출력하는 디스플레이(미도시)를 더 포함할 수 있다. 또는 다른 실시 예에 따를 경우, 도 2에 도시된 구성요소들 중 일부 구성요소는 생략될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.In addition, those skilled in the art can understand that other general-purpose components in addition to the components shown in FIG. 2 may be further included in the device 100. For example, the device 100 may further include a display (not shown) that outputs the target video. Alternatively, according to another embodiment, those skilled in the art may understand that some of the components shown in FIG. 2 may be omitted.

일 실시 예에 따른 디바이스(100)는 사용자 또는 작업자에 의해 이용될 수 있고, 휴대폰, 스마트폰, PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), 태블릿 PC 등과 같이 터치 스크린 패널이 구비된 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 연동될 수 있으며, 이 외에도 데스크탑 PC, 태블릿 PC, 랩탑 PC, 셋탑 박스를 포함하는 IPTV와 같이, 애플리케이션을 설치하고 실행할 수 있는 기반이 마련된 장치에 포함되거나 연동될 수 있다.The device 100 according to an embodiment can be used by a user or worker, and can be any device equipped with a touch screen panel, such as a mobile phone, smartphone, PDA (Personal Digital Assistant), PMP (Portable Multimedia Player), tablet PC, etc. It can be linked to various types of handheld wireless communication devices, and can also be connected to devices that have a basis for installing and running applications, such as desktop PCs, tablet PCs, laptop PCs, and IPTVs including set-top boxes. Can be included or linked.

디바이스(100)는 본 명세서에서 설명되는 기능을 실현시키기 위한 컴퓨터 프로그램을 통해 동작하는 컴퓨터 등의 단말기로 구현될 수 있다.The device 100 may be implemented as a terminal such as a computer that operates through a computer program to realize the functions described in this specification.

일 실시 예에 따른 디바이스(100)는 의료 영상 처리 시스템에 대응되는 서버(미도시)를 포함할 수 있으나, 이에 제한되지 않는다. 일 실시 예에 따른 의료 영상 처리 시스템에 대응되는 서버는 영상 처리를 직접 수행하거나 이를 지원하는 애플리케이션을 제공할 수 있다.The device 100 according to an embodiment may include a server (not shown) corresponding to a medical image processing system, but is not limited thereto. A server corresponding to a medical image processing system according to an embodiment may directly perform image processing or provide an application that supports this.

이하에서는 일 실시 예에 따른 디바이스(100)가 독립적으로 영상 처리를 수행하는 실시 예를 중심으로 서술하도록 하지만, 전술한 것처럼, 의료 영상 처리 시스템에 대응되는 서버와의 연동을 통해 수행될 수도 있다. 즉, 일 실시 예에 따른 디바이스(100)와 의료 영상 처리 시스템에 대응되는 서버는 그 기능의 측면에서 통합 구현될 수 있고, 의료 영상 처리 시스템에 대응되는 서버는 생략될 수도 있으며, 어느 하나의 실시 예에 제한되지 않음을 알 수 있다.Hereinafter, the description will focus on an embodiment in which the device 100 independently performs image processing, but as described above, it may be performed through interworking with a server corresponding to a medical image processing system. That is, the device 100 and the server corresponding to the medical image processing system according to one embodiment may be integrated in terms of their functions, and the server corresponding to the medical image processing system may be omitted, and either implementation It can be seen that the example is not limited.

이상에서 언급한 실시 예들은 도 3 내지 도 5를 참조하여 아래에서 상세히 설명하도록 한다.The above-mentioned embodiments will be described in detail below with reference to FIGS. 3 to 5.

도 3은 일 실시 예에 따른 디바이스(100)가 중요도에 기초하여 대상 동영상에 대한 영상 처리를 수행하는 각 단계를 도시한 흐름도이다.FIG. 3 is a flowchart illustrating each step in which the device 100 performs image processing on a target video based on importance, according to an embodiment.

단계 S310에서 디바이스(100)는 의료 행위와 관련된 대상 동영상을 획득할 수 있다. In step S310, the device 100 may acquire a target video related to medical treatment.

단계 S320에서 디바이스(100)는 대상 동영상에 대한 영상 정보를 획득할 수 있다.In step S320, the device 100 may obtain image information about the target video.

예를 들어, 영상 정보는 수술 상황, 수술 종류, 수술을 집도 또는 보조하는 수술자, 출혈 모니터링 정보, 바이탈 신호 모니터링 정보 및 수술 도구 모니터링 정보 등 영상 속 수술 내용과 관련된 다양한 정보들을 포함할 수 있다.For example, the image information may include various information related to the surgery in the video, such as the surgical situation, type of surgery, operator performing or assisting the surgery, bleeding monitoring information, vital signal monitoring information, and surgical tool monitoring information.

단계 S330에서 디바이스(100)는 의료 행위에 대한 바이탈 신호, 대상 동영상에 대한 속성 정보 및 대상 동영상에 대한 음성 정보 중 적어도 하나를 포함하는, 비영상 정보를 획득할 수 있다.In step S330, the device 100 may acquire non-image information including at least one of vital signals for medical treatment, attribute information for the target video, and audio information for the target video.

예를 들어, 의료 행위에 대한 바이탈 신호는 대상 동영상 내 수술 대상 환자의 신체적 상태 및 변화를 나타내는 신호(예: 심박수 등)의 전체 데이터를 나타낼 수 있고, 대상 동영상에 대한 속성 정보는 일종의 메타 데이터로써 영상 길이, 영상 용량, 영상 촬영 시점, 영상 저장 시점, 영상 제목, 확장자, 저장 위치 등을 포함할 수 있다. 또한, 대상 동영상에 대한 음성 정보는 대상 동영상 내 수술이 진행되는 과정에서 획득되는 수술자의 음성에 대한 정보를 포함할 수 있다. 비영상 정보는 이러한 바이탈 신호, 속성 정보 및 음성 정보 중 적어도 하나를 포함할 수 있다.For example, vital signals for medical practice may represent the entire data of signals (e.g., heart rate, etc.) indicating the physical condition and changes of a patient undergoing surgery within a target video, and attribute information about the target video is a type of metadata. It can include video length, video capacity, video shooting time, video saving time, video title, extension, storage location, etc. Additionally, the voice information for the target video may include information about the operator's voice acquired during the surgery in the target video. Non-image information may include at least one of vital signals, attribute information, and voice information.

단계 S340에서 디바이스(100)는 영상 정보 및 비영상 정보에 기초하여 대상 동영상에 대한 특성 정보를 획득할 수 있다.In step S340, the device 100 may obtain characteristic information about the target video based on image information and non-image information.

예를 들어, 특성 정보는 대상 동영상에 대한 제 1 위험 구간, 제 2 위험 구간, 제 1 위험 구간에 대한 제 1 위험 레벨, 제 2 위험 구간에 대한 제 2 위험 레벨, 음성 정보에 기초한 감정 분석 결과에 따른 긴박함이 나타나는 구간, 긴박함의 정도, 사용되는 수술 도구, 바이탈 신호, 출혈 상태 등 동영상 및 동영상 내 수술과 관련된 영상 및 비영상적 특성에 대한 정보들을 포함할 수 있다.For example, the characteristic information may include a first risk interval for the target video, a second risk interval, a first risk level for the first risk interval, a second risk level for the second risk interval, and an emotion analysis result based on voice information. It can include information about video and non-video characteristics related to the surgery within the video, such as the section where urgency appears, the degree of urgency, surgical tools used, vital signs, and bleeding status.

일 실시 예에서, 디바이스(100)는 영상 정보에 대한 수술 도구 모니터링 정보, 바이탈 신호 모니터링 정보 및 출혈 모니터링 정보 중 적어도 하나에 기초하여 특성 정보를 획득할 수 있다.In one embodiment, the device 100 may acquire characteristic information based on at least one of surgical tool monitoring information, vital signal monitoring information, and bleeding monitoring information for image information.

예를 들어, 영상 정보에 따라 획득되는 특성 정보는 사용된 수술 도구의 종류, 수술 도구마다 사용된 시점 및 구간, 바이탈 신호가 급격히 변화한 시점 및 구간, 출혈이 기준치 이상으로 발생한 시점 및 구간 등을 포함할 수 있다.For example, characteristic information obtained according to image information includes the type of surgical tool used, the time point and section at which each surgical tool was used, the time point and section when vital signals changed rapidly, and the time point and section when bleeding occurred above the standard value. It can be included.

또한, 디바이스(100)는 음성 정보에 기초한 감정 분석 결과에 기초하여 특성 정보를 획득할 수 있다.Additionally, the device 100 may obtain characteristic information based on an emotion analysis result based on voice information.

예를 들어, 감정 분석 결과는 대상 동영상으로부터 추출되는 음성 정보에 대한 분석(예: 음성 그래프 분석 등)을 통해 획득되며, 대상 동영상의 수술 상황, 수술자 등에 대한 긴박함, 차분함, 안정감, 곤란함 등의 감정이 나타나는지 여부와, 감정에 대한 정량적 분석 결과를 포함할 수 있다.For example, emotion analysis results are obtained through analysis of voice information extracted from the target video (e.g., voice graph analysis, etc.), and include the surgical situation of the target video, urgency, calmness, stability, and difficulty for the operator, etc. It may include whether emotions appear and the results of quantitative analysis of the emotions.

단계 S350에서 디바이스(100)는 특성 정보에 기초하여 결정되는 중요도에 기초하여 대상 동영상에 대한 영상 처리를 수행할 수 있다.In step S350, the device 100 may perform image processing on the target video based on the importance determined based on the characteristic information.

예를 들어, 영상 처리는 특성 정보 및 중요도에 기초하여 대상 동영상에 대한 저장 위치, 보관 기간, 색인 및 파일명 중 하나를 결정하는 동작일 수 있다.For example, image processing may be an operation that determines one of the storage location, storage period, index, and file name for the target video based on characteristic information and importance.

대상 동영상에 대한 저장 위치, 보관 기간, 색인 및 파일명을 결정하는 실시 예에 대한 상세한 설명은 도 4를 참조하여 아래에서 후술하도록 한다.A detailed description of an embodiment of determining the storage location, storage period, index, and file name for the target video will be described below with reference to FIG. 4.

일 실시 예에서, 디바이스(100)는 영상 정보에 따라 결정된 대상 동영상 내의 제 1 위험 구간과 감정 분석 결과에 따라 결정된 대상 동영상 내의 제 2 위험 구간이 중첩되는 구간의 길이에 기초하여 중요도를 결정할 수 있다.In one embodiment, the device 100 may determine the importance based on the length of the section overlapping the first risk section in the target video determined according to the image information and the second risk section in the target video determined according to the emotion analysis result. .

예를 들어, 디바이스(100)는 영상 정보에 따라 출혈량이 기설정 수준 이상으로 많은 구간, 바이탈 신호의 급격한 변화가 발생한 구간 등에 기초하여 대상 동영상 내의 제 1 위험 구간을 결정할 수 있다.For example, the device 100 may determine the first risk section in the target video based on the image information, such as a section where the amount of bleeding is greater than a preset level or a section where a sudden change in the vital signal occurs.

또한, 디바이스(100)는 대상 동영상에 따른 수술자의 음성에 대한 긴박함 값이 기설정 값 이상인 구간 및 위험 상황임을 나타내는 감정 상태에 대한 값이 기설정 값 이상인 구간 등에 기초하여 대상 동영상 내의 제 2 위험 구간을 결정할 수 있다.In addition, the device 100 selects a second risk section in the target video based on a section in which the urgency value of the operator's voice according to the target video is more than a preset value and a section in which the value for the emotional state indicating a dangerous situation is more than a preset value. can be decided.

또한, 제 1 위험 구간과 제 2 위험 구간이 중첩되는 경우, 보다 정확하게 위험한 상황임을 나타낸다고 볼 수 있으므로 제 1 위험 구간과 제 2 위험 구간이 중첩되는 구간의 길이에 기초하여 대상 동영상 또는 제 1 위험 구간과 제 2 위험 구간에 대한 중요도를 결정할 수 있다.In addition, when the first and second risk sections overlap, it can be viewed as more accurately indicating a dangerous situation, so the target video or the first risk section is selected based on the length of the section where the first and second risk sections overlap. and the importance of the second risk interval can be determined.

보다 자세하게, 디바이스(100)는 제 1 위험 구간에 대한 제 1 위험 레벨을 영상 정보에 기초하여 결정하고, 제 2 위험 구간에 대한 제 2 위험 레벨을 감정 분석 결과에 기초하여 결정할 수 있다. 예를 들어, 디바이스(100)는 제 1 위험 구간에 따른 출혈량이 기설정 수준 이상으로 많거나, 바이탈 신호의 급격한 변화가 발생한 경우 등에 따라 제 1 위험 구간에 대한 위험 레벨을 제 1 위험 레벨로 결정할 수 있고, 제 2 위험 구간에 따른 수술자의 음성에 대한 긴박함 값이 기설정 값 이상인 경우, 위험 상황임을 나타내는 감정 상태에 대한 값이 기설정 값 이상 경우 등에 따라 제 2 위험 구간에 대한 위험 레벨을 제 2 위험 레벨로 결정할 수 있다.In more detail, the device 100 may determine the first risk level for the first risk section based on image information, and determine the second risk level for the second risk section based on the emotion analysis result. For example, the device 100 determines the risk level for the first risk section as the first risk level according to the case where the amount of bleeding according to the first risk section is greater than a preset level or when a sudden change in vital signals occurs, etc. The risk level for the second risk section can be set according to the case where the urgency value of the operator's voice according to the second risk section is more than the preset value, the value of the emotional state indicating a dangerous situation is more than the preset value, etc. 2 It can be determined by risk level.

이후, 디바이스(100)는 제 1 위험 레벨과 제 2 위험 레벨을 곱한 값에 대응되는 제 3 위험 레벨을 결정하고, 제 1 위험 구간과 제 2 위험 구간이 중첩되는 구간의 길이와 제 3 위험 레벨을 곱한 값에 대응되도록 중요도를 결정할 수 있다. 이렇게 함으로써, 제 1 위험 구간과 제 2 위험 구간이 중첩되는 구간의 길이에 따라서 대상 동영상의 중요도를 결정할 수 있다.Thereafter, the device 100 determines a third risk level corresponding to the value multiplied by the first risk level and the second risk level, and determines the length of the section where the first risk section and the second risk section overlap and the third risk level. The importance can be determined to correspond to the value multiplied by . By doing this, the importance of the target video can be determined according to the length of the section where the first and second risk sections overlap.

일 실시 예에서, 디바이스(100)는 바이탈 신호 모니터링 정보, 출혈 모니터링 정보, 속성 정보, 음성 정보 및 수술 도구 모니터링 정보의 순서로 높은 가중치를 부여하고, 부여된 가중치에 기초하여 대상 동영상에 대한 중요도를 결정할 수 있다.In one embodiment, the device 100 assigns high weight to vital signal monitoring information, bleeding monitoring information, attribute information, voice information, and surgical tool monitoring information in that order, and determines the importance of the target video based on the assigned weight. You can decide.

예를 들어, 수술 대상 환자의 신체 상태 변화가 급격하게 나타나는 대상 동영상일수록 위급 상황에 대한 대처 방법 등을 파악하기 용이하며, 동영상의 유출 시 소송 등의 피해가 예상되므로 가장 중요하게 관리되는 것이 바람직하다는 점에서 바이탈 신호 모니터링 정보에 가장 높은 가중치가 부여될 수 있다.For example, the more rapid the change in the physical condition of a patient undergoing surgery is shown in the video, the easier it is to understand how to respond to an emergency situation. If the video is leaked, damages such as lawsuits are expected, so it is desirable to manage it with the utmost importance. In this regard, the highest weight may be given to vital signal monitoring information.

또한, 출혈량이 많거나 적은 정도에 따라서 해당 수술이 위험한 수술인지 여부를 결정할 수 있고, 위험한 수술에 대한 동영상일수록 높은 수준의 보안을 바탕으로 관리하는 것이 바람직하다는 점에서 출혈 모니터링 정보에 2순위로 높은 가중치가 부여될 수 있다.In addition, it can be determined whether the surgery is a risky surgery depending on whether the amount of bleeding is large or small, and the more dangerous the surgery, the more desirable it is to manage it based on a high level of security, so it is the second highest priority for bleeding monitoring information. Weights may be assigned.

또한, 속성 정보에 따라서 대상 동영상을 쉽게 찾고 파악할 수 있고, 그에 따른 대상 동영상의 관리가 용이하다는 점에서 속성 정보에 3순위로 높은 가중치가 부여될 수 있다.In addition, because the target video can be easily found and identified according to the attribute information, and the target video can be easily managed accordingly, the attribute information may be given a high 3rd place weight.

또한, 음성 정보에 대한 감정 분석 결과에 따라 수술자의 음성이 긴박한 지, 안정적인지를 파악할 수 있고 이에 기초하여 중요도를 결정하기 용이하다는 점에서 음성 정보에 4순위로 높은 가중치가 부여될 수 있다.In addition, based on the result of emotional analysis of the voice information, it is possible to determine whether the operator's voice is urgent or stable, and based on this, it is easy to determine the importance, so voice information can be given a high weight of 4th priority.

또한, 수술 도구의 종류에 따라서 해당 수술의 난이도나 중요한 정도 등을 파악할 수 있으나, 수술 도구가 중요도에 작용하는 정도가 다른 요소들에 비해 상대적으로 낮다는 점에서 수술 도구 모니터링 정보에 5순위로 높은 가중치가 부여될 수 있다.In addition, depending on the type of surgical tool, the degree of difficulty or importance of the surgery can be determined, but given that the degree to which surgical tools affect importance is relatively low compared to other factors, it ranks 5th in surgical tool monitoring information. Weights may be assigned.

디바이스(100)는 이와 같이 상이하게 부여되는 가중치에 기초하여 중요도를 결정함으로써 대상 동영상에 대한 영상 처리를 더욱 용이하게 수행할 수 있다.The device 100 can more easily perform image processing on the target video by determining the importance based on the differently assigned weights.

도 4는 일 실시 예에 따른 디바이스(100)가 대상 동영상에 대한 저장 위치, 보관 기간, 색인 및 파일명 중 적어도 하나를 결정하는 각 단계를 도시한 흐름도이다.FIG. 4 is a flowchart illustrating each step in which the device 100 determines at least one of a storage location, storage period, index, and file name for a target video, according to an embodiment.

단계 S410에서 디바이스(100)는 대상 동영상에 대한 저장 위치, 보관 기간, 색인 및 파일명 중 적어도 하나를 특성 정보 및 중요도에 기초하여 결정할 수 있다.In step S410, the device 100 may determine at least one of a storage location, storage period, index, and file name for the target video based on characteristic information and importance.

또한, 단계 S420에서 디바이스(100)는 중요도가 높을수록 저장 위치의 보안 레벨은 높고, 보관 기간은 길도록 대상 동영상에 대한 영상 처리를 수행할 수 있다.Additionally, in step S420, the device 100 may perform image processing on the target video so that the higher the importance, the higher the security level of the storage location and the longer the storage period.

예를 들어, 대상 동영상에 대한 중요도가 제 1 값인 경우, 제 1 값에 대응되는 보안 레벨인 제 1 레벨(예: 비밀번호 입력 등)에 해당하는 저장 위치에 대상 동영상을 저장하고, 중요도가 제 2 값인 경우, 제 2 값에 대응되는 보안 레벨인 제 2 레벨(예: 비밀번호 입력 및 암호화 키 방식 등)에 해당하는 저장 위치에 대상 동영상을 저장할 수 있다.For example, if the importance of the target video is a first value, the target video is stored in a storage location corresponding to the first level (e.g., password input, etc.), which is the security level corresponding to the first value, and the target video is stored in a storage location corresponding to the first level (e.g., password input, etc.), and the importance is set to the second value. If it is a value, the target video can be stored in a storage location corresponding to the second level, which is the security level corresponding to the second value (e.g., password input and encryption key method, etc.).

또한, 대상 동영상에 대한 중요도가 제 1 값인 경우, 제 1 값에 대응되는 보관 기간인 제 1 기간(예: 1주) 동안 대상 동영상을 중요도에 대응하는 저장 위치에 보관할 수 있고, 중요도가 제 2 값인 경우, 제 2 값에 대응되는 보관 기간인 제 2 기간(예: 2주) 동안 대상 동영상을 중요도에 대응하는 저장 위치에 보관할 수 있다.In addition, when the importance of the target video is a first value, the target video may be stored in a storage location corresponding to the importance for a first period (e.g., 1 week), which is a storage period corresponding to the first value, and the target video may be stored in a storage location corresponding to the importance. In the case of a value, the target video may be stored in a storage location corresponding to the importance for a second period (eg, 2 weeks), which is a storage period corresponding to the second value.

단계 S430에서 디바이스(100)는 대상 동영상에 대한 색인 및 파일명은 특성 정보에 기초하여 결정할 수 있다. In step S430, the device 100 may determine the index and file name for the target video based on characteristic information.

예를 들어, 대상 동영상에 대한 색인은 영상 정보에 따른 수술 상황, 수술 종류, 비영상 정보에 따른 영상 길이, 영상 용량, 영상 촬영 시점 등에 의해 결정되는 대상 동영상을 구분하여 쉽게 찾아내기 위한 일종의 북마크 개념의 정보일 수 있다. 또한, 디바이스(100)는 “수술종류_수술자이름_수술날짜_....”과 같이 파일명을 특성 정보에 기초하여 결정할 수 있다.For example, the index for the target video is a kind of bookmark concept to easily find the target video determined by the surgical situation based on image information, type of surgery, video length, image capacity, and video shooting time according to non-image information. It may be information from Additionally, the device 100 may determine the file name based on characteristic information, such as “surgery type_surgery name_surgery date_....”.

도 5는 일 실시 예에 따른 디바이스(100)가 특성 정보를 획득하는 각 단계를 도시한 흐름도이다.FIG. 5 is a flowchart illustrating each step in which the device 100 acquires characteristic information according to an embodiment.

단계 S510에서 디바이스(100)는 영상 정보에 대한 수술 도구 모니터링 정보, 바이탈 신호 모니터링 정보 및 출혈 모니터링 정보 중 적어도 하나를 획득할 수 있다.In step S510, the device 100 may obtain at least one of surgical tool monitoring information, vital signal monitoring information, and bleeding monitoring information for image information.

예를 들어, 영상 정보에 따라 획득되는 특성 정보는 사용된 수술 도구의 종류, 수술 도구마다 사용된 시점 및 구간, 바이탈 신호가 급격히 변화한 시점 및 구간, 출혈이 기준치 이상으로 발생한 시점 및 구간 등을 포함할 수 있다.For example, characteristic information obtained according to image information includes the type of surgical tool used, the time point and section at which each surgical tool was used, the time point and section when vital signals changed rapidly, and the time point and section when bleeding occurred above the standard value. It can be included.

단계 S520에서 디바이스(100)는 음성 정보에 기초한 감정 분석 결과를 획득할 수 있다.In step S520, the device 100 may obtain an emotion analysis result based on voice information.

예를 들어, 감정 분석 결과는 대상 동영상으로부터 추출되는 음성 정보에 대한 분석(예: 음성 그래프 분석 등)을 통해 획득되며, 대상 동영상의 수술 상황, 수술자 등에 대한 긴박함, 차분함, 안정감, 곤란함 등의 감정이 나타나는지 여부와, 감정에 대한 정량적 분석 결과를 포함할 수 있다.For example, emotion analysis results are obtained through analysis of voice information extracted from the target video (e.g., voice graph analysis, etc.), and include the surgical situation of the target video, urgency, calmness, stability, and difficulty for the operator, etc. It may include whether emotions appear and the results of quantitative analysis of the emotions.

디바이스(100)는 영상 정보 및 음성 정보에 기초하여 특성 정보를 획득함으로써 영상 및 음성을 통해 대상 동영상의 중요도를 판단할 수 있게 된다.The device 100 can determine the importance of the target video through the video and audio by acquiring characteristic information based on the video information and audio information.

도 6은 일 실시 예에 따른 디바이스(100)가 대상 동영상으로부터 영상 정보를 획득하는 일 예를 개략적으로 도시한 도면이다.FIG. 6 is a diagram schematically illustrating an example in which the device 100 acquires image information from a target video according to an embodiment.

예를 들어, 디바이스(100)는 대상 동영상 내에서 수술 도구 모니터링 정보, 출혈 모니터링 정보 및 바이탈 신호 모니터링 정보를 획득할 수 있다.For example, the device 100 may obtain surgical tool monitoring information, bleeding monitoring information, and vital signal monitoring information from the target video.

구체적으로, 디바이스(100)는 대상 동영상에 대한 분석을 통해 각 구간 또는 프레임 별 사용되는 수술 도구, 출혈 상태 및 출혈량, 바이탈 신호를 판별할 수 있고, 그에 따른 모니터링 정보를 도 6의 도표에 도시된 바와 같이 획득, 출력할 수 있다.Specifically, the device 100 can determine the surgical tool used for each section or frame, bleeding state and amount, and vital signals through analysis of the target video, and provides the corresponding monitoring information as shown in the diagram of FIG. 6. It can be acquired and output as shown.

도 6을 참조하면, 디바이스(100)는 대상 동영상의 해당 장면에서 수술 도구 모니터링 정보에 따른 수술 도구를 “debakey forcep 및 Potts forcep”으로 나타내고 있고, 출혈 모니터링 정보를 “출혈 상태 정상, 출혈량 낮음”으로 나타내고 있고, 바이탈 신호 모니터링 정보를 “정상”으로 나타내는 것을 확인할 수 있다.Referring to FIG. 6, the device 100 indicates the surgical tools according to the surgical tool monitoring information as “debakey forcep and Potts forcep” in the corresponding scene of the target video, and the bleeding monitoring information as “normal bleeding state, low bleeding amount.” It can be confirmed that the vital signal monitoring information is displayed as “normal”.

이처럼, 대상 동영상에서 수술 도구, 출혈 및 바이탈 신호에 대한 모니터링 정보를 획득함으로써 대상 동영상의 중요도를 보다 용이하게 결정할 수 있다.In this way, the importance of the target video can be more easily determined by obtaining monitoring information about surgical tools, bleeding, and vital signals from the target video.

도 7은 일 실시 예에 따른 디바이스(100)가 대상 동영상으로부터 음성 정보를 획득하는 일 예를 개략적으로 도시한 도면이다.FIG. 7 is a diagram schematically illustrating an example in which the device 100 acquires audio information from a target video according to an embodiment.

예를 들어, 디바이스(100)는 대상 동영상으로부터 추출되는 음성 정보에 기초한 감정 분석 결과에 기초하여 특성 정보를 획득할 수 있다.For example, the device 100 may acquire characteristic information based on an emotion analysis result based on voice information extracted from the target video.

구체적으로, 감정 분석 결과는 대상 동영상으로부터 추출되는 음성 정보에 대한 분석(예: 음성 그래프 분석 등)을 통해 획득되며, 대상 동영상의 수술 상황, 수술자 등에 대한 긴박함, 차분함, 안정감, 곤란함 등의 감정이 나타나는지 여부와, 감정에 대한 정량적 분석 결과를 포함할 수 있다.Specifically, the emotion analysis results are obtained through analysis of audio information extracted from the target video (e.g., voice graph analysis, etc.), and emotions such as urgency, calmness, stability, and difficulty for the surgery situation in the target video and the operator, etc. It may include whether or not this appears and the results of quantitative analysis of emotions.

도 7을 참조하면, 디바이스(100)는 음성 정보로부터 감정 분석 결과를 도표에 도시된 바와 같이 획득, 출력할 수 있다. 도 7의 도표를 참조하면, 디바이스(100)는 감정 분석 결과에 따른 긴박함을 “60/100”으로 나타내고 있고, 차분함을 “”, 안정감을 “5/100”등으로 나타내고 있으며, 이에 따라 대상 동영상 내 수술 환경은 상대적으로 긴박한 상황임을 쉽게 알 수 있고, 이에 기초하여 대상 동영상에 대한 중요도를 용이하게 결정할 수 있게 된다.Referring to FIG. 7, the device 100 may obtain and output an emotion analysis result from voice information as shown in the diagram. Referring to the diagram in FIG. 7, the device 100 indicates urgency as “60/100” according to the emotion analysis results, calmness as “”, stability as “5/100”, etc., and accordingly, the target video It is easy to see that my surgical environment is a relatively urgent situation, and based on this, the importance of the target video can be easily determined.

본 개시의 다양한 실시 예들은 기기(machine)(예를 들어, 디스플레이 장치 또는 컴퓨터)에 의해 읽을 수 있는 저장 매체(140)(storage medium)(예를 들어, 메모리)에 저장된 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서(220)(예를 들어, 프로세서(220))는, 저장 매체(140)로부터 저장된 하나 이상의 인스트럭션들 중 적어도 하나의 인스트럭션을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 인스트럭션에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 인스트럭션들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present disclosure include one or more instructions stored in a storage medium (e.g., memory) that can be read by a machine (e.g., a display device or computer). It can be implemented as software. For example, the processor 220 of the device (eg, processor 220) may call at least one instruction among one or more instructions stored in the storage medium 140 and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.

일 실시 예에 따르면, 본 개시에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(140)(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체(140)에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in the present disclosure may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium 140 (e.g., compact disc read only memory (CD-ROM)), or through an application store (e.g., Play Store™) or between two users. It can be distributed (e.g. downloaded or uploaded) directly between devices (e.g. smartphones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium 140, such as the memory of a manufacturer's server, an application store server, or a relay server. there is.

본 발명에 대하여 예시한 도면을 참조로 하여 설명하였으나 개시된 실시 예와 도면에 의해 한정되는 것은 아니며 본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 실시 예를 설명하며 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을지라도, 해당 구성에 의해 예측이 가능한 효과 또한 인정될 수 있다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.Although the present invention has been described with reference to the illustrative drawings, it is not limited to the disclosed embodiments and drawings, and those skilled in the art in the technical field related to the present embodiments may make modifications without departing from the essential characteristics of the above-mentioned description. You will be able to understand that it can be implemented in a certain form. Therefore, the disclosed methods should be considered from an explanatory rather than a restrictive perspective. Even if the operational effects according to the configuration of the present invention are not explicitly described and explained in the description of the embodiment, the effects that can be predicted by the configuration may also be recognized. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.

100: 디바이스 110: 정보 획득 장치
130: 외부 서버 140: 저장 매체
150: 통신 디바이스 160: 가상 서버
170: 사용자 단말
210: 수신부 220: 프로세서
100: device 110: information acquisition device
130: external server 140: storage medium
150: communication device 160: virtual server
170: User terminal
210: receiving unit 220: processor

Claims (15)

중요도와 관련된 영상 처리 방법에 있어서,
의료 행위와 관련된 대상 동영상을 획득하는 단계;
상기 대상 동영상에 대한 영상 정보를 획득하는 단계;
상기 의료 행위에 대한 바이탈 신호, 상기 대상 동영상에 대한 속성 정보 및 상기 대상 동영상에 대한 음성 정보 중 적어도 하나를 포함하는, 비영상 정보를 획득하는 단계;
상기 영상 정보 및 상기 비영상 정보에 기초하여 상기 대상 동영상에 대한 특성 정보를 획득하는 단계; 및
상기 특성 정보에 기초하여 결정되는 중요도에 기초하여 상기 대상 동영상에 대한 영상 처리를 수행하는 단계;를 포함하는, 방법.
In an image processing method related to importance,
Obtaining a target video related to medical practice;
Obtaining image information about the target video;
Obtaining non-image information, including at least one of vital signals for the medical practice, attribute information for the target video, and audio information for the target video;
Obtaining characteristic information about the target video based on the video information and the non-video information; and
A method comprising: performing image processing on the target video based on importance determined based on the characteristic information.
제 1 항에 있어서,
상기 영상 처리를 수행하는 단계는
상기 대상 동영상에 대한 저장 위치, 보관 기간, 색인 및 파일명 중 적어도 하나를 상기 특성 정보 및 상기 중요도에 기초하여 결정하는, 방법.
According to claim 1,
The step of performing the image processing is
A method of determining at least one of a storage location, storage period, index, and file name for the target video based on the characteristic information and the importance.
제 2 항에 있어서,
상기 영상 처리를 수행하는 단계는
상기 중요도가 높을수록 상기 저장 위치의 보안 레벨은 높고, 상기 보관 기간은 길도록 상기 대상 동영상에 대한 영상 처리를 수행하고,
상기 색인 및 상기 파일명을 상기 특성 정보에 기초하여 결정하는, 방법.
According to claim 2,
The step of performing the image processing is
Perform image processing on the target video so that the higher the importance, the higher the security level of the storage location and the longer the storage period,
Determining the index and the file name based on the characteristic information.
제 1 항에 있어서,
상기 특성 정보를 획득하는 단계는
상기 영상 정보에 대한 수술 도구 모니터링 정보, 바이탈 신호 모니터링 정보 및 출혈 모니터링 정보 중 적어도 하나에 기초하여 상기 특성 정보를 획득하는, 방법.
According to claim 1,
The step of acquiring the characteristic information is
A method of acquiring the characteristic information based on at least one of surgical tool monitoring information, vital signal monitoring information, and bleeding monitoring information for the image information.
제 4 항에 있어서,
상기 특성 정보를 결정하는 단계는
상기 음성 정보에 기초한 감정 분석 결과에 기초하여 상기 특성 정보를 획득하는, 방법.
According to claim 4,
The step of determining the characteristic information is
A method of acquiring the characteristic information based on an emotion analysis result based on the voice information.
제 5 항에 있어서,
상기 영상 정보에 따라 결정된 상기 대상 동영상 내의 제 1 위험 구간과 상기 감정 분석 결과에 따라 결정된 상기 대상 동영상 내의 제 2 위험 구간이 중첩되는 구간의 길이에 기초하여 상기 중요도를 결정하는, 방법.
According to claim 5,
A method of determining the importance based on the length of a section where a first risk section in the target video determined according to the image information and a second risk section in the target video determined according to the emotion analysis result overlap.
제 6 항에 있어서,
상기 영상 처리를 수행하는 단계는
상기 제 1 위험 구간에 대한 제 1 위험 레벨을 결정하는 단계;
상기 제 2 위험 구간에 대한 제 2 위험 레벨을 결정하는 단계;
상기 제 1 위험 레벨과 상기 제 2 위험 레벨을 곱한 값에 대응되는 제 3 위험 레벨을 결정하는 단계; 및
상기 중첩되는 구간의 길이와 상기 제 3 위험 레벨을 곱한 값에 대응되도록 상기 중요도를 결정하는 단계;를 포함하는, 방법.
According to claim 6,
The step of performing the image processing is
determining a first risk level for the first risk interval;
determining a second risk level for the second risk interval;
determining a third risk level corresponding to a product of the first risk level and the second risk level; and
Determining the importance to correspond to a value obtained by multiplying the length of the overlapping section and the third risk level.
중요도와 관련된 영상 처리 디바이스에 있어서,
의료 행위와 관련된 대상 동영상을 획득하는 수신부; 및
상기 대상 동영상에 대한 영상 정보를 획득하고, 상기 의료 행위에 대한 바이탈 신호, 상기 대상 동영상에 대한 속성 정보 및 상기 대상 동영상에 대한 음성 정보 중 적어도 하나를 포함하는, 비영상 정보를 획득하고, 상기 영상 정보 및 상기 비영상 정보에 기초하여 상기 대상 동영상에 대한 특성 정보를 획득하고, 상기 특성 정보에 기초하여 결정되는 중요도에 기초하여 상기 대상 동영상에 대한 영상 처리를 수행하는 프로세서;를 포함하는, 디바이스.
In an image processing device related to importance,
A receiving unit that acquires a target video related to medical practice; and
Obtaining image information for the target video, acquiring non-image information including at least one of vital signals for the medical action, attribute information for the target video, and audio information for the target video, and A device comprising; a processor acquiring characteristic information about the target video based on information and the non-image information, and performing image processing on the target video based on importance determined based on the characteristic information.
제 8 항에 있어서,
상기 프로세서는
상기 대상 동영상에 대한 저장 위치, 보관 기간, 색인 및 파일명 중 적어도 하나를 상기 특성 정보 및 상기 중요도에 기초하여 결정하는, 디바이스.
According to claim 8,
The processor is
A device that determines at least one of a storage location, storage period, index, and file name for the target video based on the characteristic information and the importance.
제 9 항에 있어서,
상기 프로세서는
상기 중요도가 높을수록 상기 저장 위치의 보안 레벨은 높고, 상기 보관 기간은 길도록 상기 대상 동영상에 대한 영상 처리를 수행하고,
상기 색인 및 상기 파일명을 상기 특성 정보에 기초하여 결정하는, 디바이스.
According to clause 9,
The processor is
Perform image processing on the target video so that the higher the importance, the higher the security level of the storage location and the longer the storage period,
A device that determines the index and the file name based on the characteristic information.
제 8 항에 있어서,
상기 프로세서는
상기 영상 정보에 대한 수술 도구 모니터링 정보, 바이탈 신호 모니터링 정보 및 출혈 모니터링 정보 중 적어도 하나에 기초하여 상기 특성 정보를 획득하는, 디바이스.
According to claim 8,
The processor is
A device that acquires the characteristic information based on at least one of surgical tool monitoring information, vital signal monitoring information, and bleeding monitoring information for the image information.
제 11 항에 있어서,
상기 프로세서는
상기 음성 정보에 기초한 감정 분석 결과에 기초하여 상기 특성 정보를 획득하는, 디바이스.
According to claim 11,
The processor is
A device that acquires the characteristic information based on an emotion analysis result based on the voice information.
제 12 항에 있어서,
상기 중요도는
상기 영상 정보에 따라 결정된 상기 대상 동영상 내의 제 1 위험 구간과 상기 감정 분석 결과에 따라 결정된 상기 대상 동영상 내의 제 2 위험 구간이 중첩되는 구간의 길이에 기초하여 결정되는, 디바이스.
According to claim 12,
The importance of the above is
A device that is determined based on the length of a section where a first risk section in the target video determined according to the image information and a second risk section in the target video determined according to the emotion analysis result overlap.
제 13 항에 있어서,
상기 프로세서는
상기 제 1 위험 구간에 대한 제 1 위험 레벨을 결정하고,
상기 제 2 위험 구간에 대한 제 2 위험 레벨을 결정하고,
상기 제 1 위험 레벨과 상기 제 2 위험 레벨을 곱한 값에 대응되는 제 3 위험 레벨을 결정하고,
상기 중첩되는 구간의 길이와 상기 제 3 위험 레벨을 곱한 값에 대응되도록 상기 중요도를 결정하는, 디바이스.
According to claim 13,
The processor is
Determine a first risk level for the first risk interval,
determine a second risk level for the second risk interval;
Determine a third risk level corresponding to the product of the first risk level and the second risk level,
A device that determines the importance to correspond to a value obtained by multiplying the length of the overlapping section and the third risk level.
제 1 항 내지 제 7 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium recording a program for executing the method of any one of claims 1 to 7 on a computer.
KR1020220096156A 2022-08-02 2022-08-02 Method for processing images related to importance, server and recording medium KR20240018193A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220096156A KR20240018193A (en) 2022-08-02 2022-08-02 Method for processing images related to importance, server and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220096156A KR20240018193A (en) 2022-08-02 2022-08-02 Method for processing images related to importance, server and recording medium

Publications (1)

Publication Number Publication Date
KR20240018193A true KR20240018193A (en) 2024-02-13

Family

ID=89899572

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220096156A KR20240018193A (en) 2022-08-02 2022-08-02 Method for processing images related to importance, server and recording medium

Country Status (1)

Country Link
KR (1) KR20240018193A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102237198B1 (en) 2020-06-05 2021-04-08 주식회사 딥노이드 Ai-based interpretation service system of medical image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102237198B1 (en) 2020-06-05 2021-04-08 주식회사 딥노이드 Ai-based interpretation service system of medical image

Similar Documents

Publication Publication Date Title
US11923073B2 (en) Automatically assessing an anatomical surface feature and securely managing information related to the same
US10462412B2 (en) Surgical visualization and recording system
JP2017047022A (en) Information processor, information processing method and information processing program
US9795284B2 (en) Endoscopic imaging system and method for adapting to remote stimulus
WO2012078243A2 (en) Wound management mobile image capture device
KR102482067B1 (en) Electronic apparatus and operating method thereof
KR20140052263A (en) Contents service system, method and apparatus for service contents in the system
CN110610181A (en) Medical image identification method and device, electronic equipment and storage medium
US20130173439A1 (en) System and Method for Remote Veterinary Image Analysis and Consultation
JP5759079B2 (en) MEDICAL IMAGE MANAGEMENT SYSTEM, MEDICAL IMAGE MANAGEMENT METHOD, AND PROGRAM
US20150379217A1 (en) Medical information display system, server, and portable terminal
CN106796623B (en) image server and mobile terminal
KR20240018193A (en) Method for processing images related to importance, server and recording medium
EP3379431A1 (en) Electronic device and method for capturing contents
KR20240021624A (en) Method and device for acquiring image with annotations
KR20240020296A (en) Method, device and recording medium for image processing through labeling
KR20240022048A (en) A methods and a device for providing information about surgical steps
KR20240048074A (en) A method and a device for active learning using labeling
KR20240021622A (en) Method and server for processing voices embedded in videos
KR20240000925A (en) Method and device for acquiring encoded video
KR20240021623A (en) Method and server for processing vital signals related to video
KR20240022047A (en) A methods and a device for providing scenarios for surgery
KR20240048073A (en) Method and device for image processing using attention block
KR20240046357A (en) Method and device for determining a position for a region of interest
KR102425846B1 (en) augmented reality system and method operating based on scenario