KR102259797B1 - User event detection method through image analysis and device performing the method - Google Patents

User event detection method through image analysis and device performing the method Download PDF

Info

Publication number
KR102259797B1
KR102259797B1 KR1020200153243A KR20200153243A KR102259797B1 KR 102259797 B1 KR102259797 B1 KR 102259797B1 KR 1020200153243 A KR1020200153243 A KR 1020200153243A KR 20200153243 A KR20200153243 A KR 20200153243A KR 102259797 B1 KR102259797 B1 KR 102259797B1
Authority
KR
South Korea
Prior art keywords
image
image frame
key
frame
user event
Prior art date
Application number
KR1020200153243A
Other languages
Korean (ko)
Inventor
김경남
Original Assignee
주식회사 웨이센
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 웨이센 filed Critical 주식회사 웨이센
Priority to KR1020200153243A priority Critical patent/KR102259797B1/en
Application granted granted Critical
Publication of KR102259797B1 publication Critical patent/KR102259797B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00982Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body combined with or comprising means for visual or photographic inspections inside the body, e.g. endoscopes

Abstract

A user event detection method through image analysis composed of image frames according to an embodiment of the present invention may include the steps of: receiving a current image frame from a medical imaging apparatus; calculating a difference value between the current image frame and a previous image frame; determining whether a first user event signal for capturing the current image frame is input to the medical imaging apparatus according to whether the difference value exceeds a first threshold; and capturing the current image frame when it is determined that the first user event signal is input. The user event detection method can determine whether an event by a user is generated in the medical imaging apparatus by analyzing change information on an image frame.

Description

영상 분석을 통한 사용자 이벤트 검출 방법 및 해당 방법을 수행하는 장치 {User event detection method through image analysis and device performing the method}User event detection method through image analysis and device performing the method}

본 발명은 영상 분석을 통한 사용자 이벤트 검출 방법 및 해당 방법을 수행하는 장치에 관한 것으로, 보다 구체적으로 영상 분석 결과만을 가지고도 의료 영상 장치에 사용자 이벤트가 발생하였는지 여부를 검출할 수 있도록 하는, 영상 분석을 통한 사용자 이벤트 검출 방법 및 해당 방법을 수행하는 장치에 관한 것이다.The present invention relates to a method for detecting a user event through image analysis and an apparatus for performing the method, and more particularly, to an image analysis that enables detection of whether a user event has occurred in a medical imaging apparatus even with only an image analysis result. It relates to a method for detecting a user event through and an apparatus for performing the method.

위에 생기는 악성 종양에는 위선암(gastric adenocarcinoma), 악성림프종(gastric lymphoma), 간질성 종양(gastrointestinal stromal tumor)등 여러 종류가 있으나 이 중 위선암이 가장 흔하다. 이때, 위암은 종양의 진행 정도에 따라, 조기 위암(early gastric cancer, EGC) 과 진행성 위암(advanced gastric cancer, AGC)으로 분류할 수 있다. There are several types of malignant tumors in the stomach, such as gastric adenocarcinoma, gastric lymphoma, and gastrointestinal stromal tumor, but of these, gastric adenocarcinoma is the most common. In this case, gastric cancer may be classified into early gastric cancer (EGC) and advanced gastric cancer (AGC) according to the degree of tumor progression.

보다 구체적으로, 조기 위암은 림프절로의 전이 유무에 관계없이 종양 세포가 위의 점막층 또는 점막 하층까지 침범한 경우이고, 진행성 위암은 종양 세포가 점막하층을 지나 근육층 이상을 뚫고 침범된 경우로 주변 장기로의 침습이 가능하다. More specifically, early gastric cancer is a case in which tumor cells have invaded the mucosal or submucosal layer of the stomach regardless of whether or not metastasis to the lymph nodes is present. invasion is possible.

위암의 진단 방법으로는, 위 내시경 검사가 가장 중요하다. 보다 구체적으로, 의료진은 내시경 스코프(scope)를 이용하여 위암 의심 개체에 대하여 촬영된 위 내시경 영상을 판독함으로써 위암을 진단하고, 이를 기초로 병변에 따른 치료를 제공할 수 있다. 한편, 내시경 영상에 기초한 진단 시스템은, 의료진 숙련도에 따른 진단의 편차가 있을 수 있다. 이러한 진단의 편차는, 오진, 치료 시점의 지연, 부적절한 치료가 수행되는 등의 의료 사고와도 연관이 있을 수 있다.Gastric endoscopy is the most important method for diagnosing gastric cancer. More specifically, a medical staff may diagnose gastric cancer by reading a gastroscopic image taken for an object suspected of gastric cancer using an endoscope scope, and provide treatment according to the lesion based thereon. Meanwhile, in a diagnosis system based on an endoscopic image, there may be a deviation in diagnosis according to the skill level of a medical staff. Such deviations in diagnosis may also be related to medical accidents such as misdiagnosis, delay in treatment timing, and improper treatment.

특히, 조기 위암의 경우 병소 부위가 매우 작게 존재하거나 정상 조직과의 구별이 어려울 수 있어, 의료진의 숙련도에 따른 진단의 편차가 보다 클 수 있다.In particular, in the case of early gastric cancer, the lesion site may be very small or it may be difficult to distinguish it from normal tissue, so that the diagnosis deviation according to the skill of the medical staff may be greater.

그리고, 의료 사고의 예방 및 의료 서비스의 향상 등을 위하여 진단의 정확성이 더욱 요구되고 있음에 따라, 질환 발병 여부 뿐만 아니라, 병변에 대한 위치를 제공할 수 있는 새로운 진단 방법의 개발이 지속적으로 요구되고 있는 실정이다.And, as the accuracy of diagnosis is more demanded for the prevention of medical accidents and improvement of medical services, the development of a new diagnostic method capable of providing the location of the lesion as well as the onset of the disease is continuously required. there is a situation.

한편, 종래 기술에 따르면, 병변의 위치를 검출하기 위해 의료 영상 장치에서 출력되는 영상을 영상 수신 장치에서 실시간으로 입력 받아 출력부를 통해 출력하는 과정에서, 의료 영상 장치를 조작하는 사용자에 의한 특정 이벤트(프로브 스위치 또는 풋 스위치 누름 등)가 발생했을 때, 게이트웨이를 통해 해당 특정 이벤트 감지와 이에 대응하는 영상 저장이 이루어져, 의료 영상 장치에 특정 이벤트가 발생하였는지 여부를 판별할 수 있었다.Meanwhile, according to the prior art, in the process of receiving an image output from the medical imaging apparatus in real time and outputting it through an output unit in order to detect the location of a lesion, a specific event ( When a probe switch or a foot switch is pressed, etc.), the specific event is detected and an image corresponding thereto is detected through the gateway, so that it can be determined whether a specific event has occurred in the medical imaging apparatus.

그러나, 게이트웨이에 이러한 이벤트 감지와 이에 대응하는 영상 저장과 같은 기능을 수행하는 펌웨어 등의 시스템이 구비되어 있지 않은 경우도 있어, 이러한 경우에도 의료 영상 장치에 발생한 특정 이벤트를 영상 수신 장치에서 제대로 인지해야 하는 니즈가 있다.However, there are cases where the gateway is not equipped with a system such as firmware that performs functions such as event detection and image storage corresponding thereto. Even in this case, a specific event occurring in the medical imaging device must be properly recognized by the image receiving device. there is a need to

본 발명은 전술한 필요성에 의해 도출된 것으로, 영상 수신 장치에서 직접 영상 프레임에 대한 변화 정보를 분석해서 해당 결과만을 가지고도 의료 영상 장치에 사용자에 의한 이벤트가 발생하였는지 여부를 판단할 수 있도록 하는 데에 그 목적이 있다. The present invention was derived from the above necessity, and is used to analyze change information on an image frame directly by an image receiving device and to determine whether an event by a user has occurred in a medical imaging apparatus even with only the corresponding result. has its purpose in

실시예에 따른 영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 방법은, (a) 영상 수신 장치가 통신부를 통해 의료 영상 장치로부터 현재 영상 프레임을 수신하는 단계; (b) 제어부가 상기 현재 영상 프레임과 이전 영상 프레임의 차이값을 산출하는 단계; (c) 제어부가 상기 차이값이 소정의 제1 임계치를 초과하였는지 여부에 따라 상기 의료 영상 장치에 상기 현재 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력되었는지 여부를 판단하는 단계; 및 (d) 제어부가 상기 제1 사용자 이벤트 신호가 입력된 것으로 판단한 경우, 상기 현재 영상 프레임에 대한 캡쳐를 수행하는 단계를 포함할 수 있다.According to an embodiment, a method for detecting a user event through image analysis composed of image frames includes: (a) receiving, by an image receiving apparatus, a current image frame from a medical imaging apparatus through a communication unit; (b) calculating, by a controller, a difference value between the current image frame and a previous image frame; (c) determining, by the controller, whether a first user event signal for capturing the current image frame is input to the medical imaging apparatus according to whether the difference value exceeds a first threshold; and (d) when the controller determines that the first user event signal is input, capturing the current image frame.

상기 검출 방법은, (e) 상기 현재 영상 프레임에 대한 상기 캡쳐를 수행하여 획득된 캡쳐 이미지에 대한 저장을 수행하기 위한 제2 사용자 이벤트 신호가 입력되었는지 여부를 판단하는 단계; 및 (f) 상기 제2 사용자 이벤트 신호가 입력된 것으로 판단한 경우, 상기 캡쳐 이미지에 대응하는 인덱스 이미지를 생성하는 단계;를 더 포함할 수 있다.The detection method may include: (e) determining whether a second user event signal for storing the captured image obtained by performing the capturing of the current image frame is input; and (f) generating an index image corresponding to the captured image when it is determined that the second user event signal is input.

상기 (f) 단계는, 상기 캡쳐 이미지를 키 영상으로 저장하는 단계를 더 포함할 수 있다.The step (f) may further include storing the captured image as a key image.

상기 (b) 단계는, (b1) 제어부가 상기 현재 영상 프레임과 상기 이전 영상 프레임의 밝기의 차이를 채널별로 산출하는 단계; (b2) 제어부가 상기 산출된 밝기의 차이가 소정의 제2 임계치를 초과하였는지 여부에 따라 상기 채널별로 구성된 각 맵에 상이한 이진값을 할당하는 단계; 및 (b3) 제어부가 상기 이진값들의 합을 기초로 상기 차이값을 산출하는 단계를 포함할 수 있다.The step (b) includes: (b1) calculating, by the controller, a difference in brightness between the current image frame and the previous image frame for each channel; (b2) allocating, by the controller, different binary values to each map configured for each channel according to whether the calculated difference in brightness exceeds a second predetermined threshold; and (b3) calculating, by the controller, the difference value based on the sum of the binary values.

상기 제1 임계치는 0.005 이상 0.02 이하이고 상기 제2 임계치는 15 이상 40 이하일 수 있다.The first threshold may be 0.005 or more and 0.02 or less, and the second threshold may be 15 or more and 40 or less.

상기 키 영상은 상기 영상 프레임을 저장하기 위한 전체 큐 영역의 일부 영역 중에서 첫번째로 입력된 것이고, 상기 전체 큐 영역의 상기 일부 영역은 상기 키 영상에 대응하는 키 인덱스와 동일한 값을 가지는 영상들을 저장하기 위한 것일 수 있다.The key image is first input among partial regions of the entire queue region for storing the image frame, and the partial region of the entire queue region stores images having the same value as the key index corresponding to the key image. it may be for

상기 키 영상은 상기 영상 프레임을 저장하기 위한 전체 큐 영역의 일부 영역에 저장되는 영상들 중, 병변을 예측하기 위한 모델을 통한 예측 확률값이 가장 높은 영상이고, 상기 전체 큐 영역의 상기 일부 영역은 상기 키 영상에 대응하는 키 인덱스와 동일한 값을 가지는 상기 영상들을 저장하기 위한 것일 수 있다.The key image is an image having the highest prediction probability value through a model for predicting a lesion among images stored in a partial region of the entire cue region for storing the image frame, and the partial region of the entire cue region is It may be for storing the images having the same value as the key index corresponding to the key image.

실시예에 따른 영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 장치는, 의료 영상 장치로부터 현재 영상 프레임을 수신하는 통신부; 및 상기 현재 영상 프레임과 이전 영상 프레임의 차이값을 산출하고, 상기 차이값이 소정의 임계치를 초과한 경우 상기 의료 영상 장치에 상기 현재 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력된 것으로 판단하여 상기 현재 영상 프레임에 대한 캡쳐를 수행하고, 상기 현재 영상 프레임에 대한 상기 캡쳐를 수행하여 획득된 캡쳐 이미지에 대한 저장을 수행하기 위한 제2 사용자 이벤트 신호가 입력되면 상기 캡쳐 이미지에 대응하는 인덱스 이미지를 생성하는 제어부;를 포함할 수 있다.According to an embodiment, an apparatus for detecting a user event through image analysis composed of an image frame includes: a communication unit configured to receive a current image frame from a medical imaging apparatus; and calculating a difference value between the current image frame and a previous image frame, and when the difference value exceeds a predetermined threshold, a first user event signal for capturing the current image frame is input to the medical imaging apparatus When a second user event signal for performing a capture on the current image frame and storing a captured image obtained by performing the capturing on the current image frame is inputted, corresponding to the captured image It may include; a control unit for generating an index image.

상기 장치는 상기 인덱스 이미지 및 상기 인덱스 이미지에 대응하여 목록화된 영상을 포함하는 화면을 함께 출력하는 디스플레이부;를 더 포함할 수 있다.The apparatus may further include a; a display unit for outputting together the index image and a screen including an image listed in correspondence to the index image.

상기 제어부는 상기 캡쳐 이미지를 키 영상으로 저장할 수 있다.The controller may store the captured image as a key image.

본 발명에 따르면, 영상 수신 장치에서 직접 영상 프레임에 대한 변화 정보를 분석해서 해당 결과만을 가지고도 의료 영상 장치에 사용자에 의한 이벤트가 발생하였는지 여부를 판단할 수 있게 된다. According to the present invention, it is possible to determine whether an event by a user has occurred in the medical imaging apparatus by directly analyzing change information on an image frame by the image receiving apparatus and using only the corresponding result.

도 1은 실시예에 따른 영상 처리 시스템을 설명하기 위한 개념도이다.
도 2는 실시예에 따른 영상 분석을 통한 사용자 이벤트 검출 방법을 설명하기 위한 흐름도이고 도 3은 도 2의 방법을 설명하기 위해 참조되는 흐름도이다.
도 4 내지 도 8은 도 2 및 도 3의 방법을 설명하기 위해 참조되는 도면이다.
도 9 및 도 10은 실시예에 따라 디스플레이부(124)에 출력되는 화면을 예시한다.
도 11은 실시예에 따른 신경망 모델(121a)의 구조를 나타내는 도면이다.
1 is a conceptual diagram illustrating an image processing system according to an embodiment.
FIG. 2 is a flowchart illustrating a method of detecting a user event through image analysis according to an embodiment, and FIG. 3 is a flowchart referenced to describe the method of FIG. 2 .
4 to 8 are diagrams referenced to explain the method of FIGS. 2 and 3 .
9 and 10 illustrate a screen output to the display unit 124 according to an embodiment.
11 is a diagram illustrating a structure of a neural network model 121a according to an embodiment.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The detailed description of the present invention described below refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced. These embodiments are described in detail sufficient to enable a person skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different from each other, but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description to be described below is not intended to be taken in a limiting sense, and the scope of the present invention, if appropriately described, is limited only by the appended claims, along with all ranges equivalent to those claimed by the claims. Like reference numerals in the drawings refer to the same or similar functions over several aspects.

이하, 도면을 참조하여 본 발명의 구체적인 실시예에 대하여 설명한다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.

도 1은 실시예에 따른 영상 처리 시스템을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating an image processing system according to an embodiment.

도 1에 도시한 바와 같이, 의료 영상 장치(110)는 대상물을 촬영하여 획득된 영상 프레임을 영상 수신 장치(120)로 전송할 수 있다. 실시예에 따른 영상 프레임은 소화기 내시경 검사 장비 같은 의료 기기에서 획득된 영상일 수 있으나, 본 발명의 권리범위는 이에 제한되지 않고 초음파나 MRI 등의 다른 종류의 의료기기에도 동일/유사하게 적용될 수 있다.1 , the medical imaging apparatus 110 may transmit an image frame obtained by photographing an object to the image receiving apparatus 120 . The image frame according to the embodiment may be an image obtained from a medical device such as a digestive endoscopy equipment, but the scope of the present invention is not limited thereto and may be equally/similarly applied to other types of medical devices such as ultrasound or MRI. .

영상 수신 장치(120)는 신경망 모델(121a)을 통한 병변 예측을 수행하여 입력 영상 프레임을 분석하기 위한 소프트웨어를 구동할 수 있는 PC, 노트북 등의 다양한 전자 기기를 포함할 수 있다. The image receiving apparatus 120 may include various electronic devices, such as a PC or a laptop computer, capable of running software for analyzing an input image frame by performing lesion prediction through the neural network model 121a.

영상 수신 장치(120)는 통신부(122), 제어부(121), 메모리(123), 및 디스플레이부(124)를 포함할 수 있다.The image receiving apparatus 120 may include a communication unit 122 , a control unit 121 , a memory 123 , and a display unit 124 .

통신부(122)는 의료 영상 장치(110)로부터 영상 프레임을 수신하여 제어부(121)로 전송한다. The communication unit 122 receives the image frame from the medical imaging apparatus 110 and transmits it to the control unit 121 .

제어부(121)는 영상 변화 감지 모듈(121b)을 이용하여 수신한 영상 프레임들 사이의 변화를 감지하고, 이를 기초로 의료 영상 장치(110)에 사용자 이벤트 신호가 입력되었는지 여부를 판별할 수 있다.The controller 121 may detect a change between received image frames using the image change detection module 121b, and determine whether a user event signal is input to the medical imaging apparatus 110 based on this.

제어부(121)는 신경망 모델(121a)를 이용한 병변 예측을 수행하여 입력 영상 프레임 상의 병변의 결과값(특성값 등)을 획득하고 이를 기초로 병변을 예측할 수 있다. The controller 121 may perform lesion prediction using the neural network model 121a to obtain result values (characteristic values, etc.) of the lesion on the input image frame and predict the lesion based thereon.

메모리(123)는 제어부(121)로부터 획득한 결과값 등 제어부(121)의 처리가 수행된 다양한 종류의 데이터를 저장한다.The memory 123 stores various types of data processed by the control unit 121 , such as a result value obtained from the control unit 121 .

제어부(121)의 제어 하에 메모리(123)에 저장된 결과값이나 이미지 등이 독출되면 디스플레이부(124)는 해당 데이터를 출력하여 사용자에게 제공할 수 있다. When a result value or an image stored in the memory 123 is read under the control of the controller 121 , the display unit 124 may output the corresponding data and provide it to the user.

도 2는 실시예에 따른 영상 분석을 통한 사용자 이벤트 검출 방법을 설명하기 위한 흐름도이고 도 3은 도 2의 방법을 설명하기 위해 참조되는 흐름도이다. 다만, 본 발명의 각 단계는 해당 순서에만 구속되지 않는다.FIG. 2 is a flowchart illustrating a method of detecting a user event through image analysis according to an embodiment, and FIG. 3 is a flowchart referenced to describe the method of FIG. 2 . However, each step of the present invention is not limited only to the corresponding order.

도 2 및 도 3을 함께 참조하면, 영상 수신 장치(120)는 통신부(122)를 통해 의료 영상 장치(110)로부터 현재 영상 프레임을 수신할 수 있다(s210). 구체적으로, 영상 수신 장치(120)가 구동되어 영상에 대한 분석을 시작하고자 하면, 영상 분석 시작 시간을 측정하고 영상 프레임을 리딩할 수 있다(s310 내지 s312). 참고로, 본 발명에서 현재 영상 프레임은 현재 리딩하는 영상 프레임이고, 이전 영상 프레임은 바로 이전에 리딩한 영상 프레임으로 현재 영상 프레임과 인접한 영상 프레임일 수 있다. 이 때, 제어부(121)는 신경망 모델(121a)의 연산 속도(프레임 레이트)를 모니터링하며 의료 영상 장치(110)로부터 영상 프레임을 1 프레임씩 리딩할 수 있다. 실시예에 따라 하나의 영상 프레임을 처리하기 위한 복수의 신경망 모델(121a)에 대한 연산은 한번에 복수개의 분석이 가능하도록 병렬로 처리될 수도 있고, 직렬로 처리될 수도 있다. 2 and 3 together, the image receiving apparatus 120 may receive a current image frame from the medical imaging apparatus 110 through the communication unit 122 ( S210 ). Specifically, when the image receiving apparatus 120 is driven to start analyzing an image, an image analysis start time may be measured and an image frame may be read (s310 to s312). For reference, in the present invention, the current image frame may be a currently read image frame, and the previous image frame may be an image frame read immediately before and may be an image frame adjacent to the current image frame. In this case, the controller 121 may monitor the operation speed (frame rate) of the neural network model 121a and read image frames from the medical imaging apparatus 110 frame by frame. According to an embodiment, the operation of the plurality of neural network models 121a for processing one image frame may be processed in parallel to enable a plurality of analysis at once or may be processed in series.

제어부(121)는 영상 변화 감지 모듈(121b)을 이용하여 통신부(122)를 통해 수신한 영상 프레임의 변화를 감지할 수 있다. (s313)The controller 121 may detect a change in an image frame received through the communication unit 122 using the image change detection module 121b. (s313)

구체적으로, 영상 변화 감지 모듈(121b)은 현재 영상 프레임과 이전 영상 프레임의 차이값을 산출하고, 산출한 차이값이 소정의 제1 임계치를 초과하였는지 여부를 판단하여, 의료 영상 장치(110)에 현재 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력되었는지 여부를 판단할 수 있다. (s220 내지 s230). 즉, 차이값이 제 1 임계치를 초과하면, 현재 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력된 것으로 판단한 것으로, 이는 일종의 사용자의 의료 영상 장치(110)에 대한 'Freeze' 명령이 입력된 것이다. 특히, 영상 프레임들의 차이값 산출과 임계치와의 비교에 대해서는 도 6을 참조하여 뒤에서 자세하게 설명한다. In detail, the image change detection module 121b calculates a difference value between the current image frame and the previous image frame, determines whether the calculated difference value exceeds a first predetermined threshold, and sends it to the medical imaging apparatus 110 . It may be determined whether a first user event signal for capturing the current image frame is input. (s220 to s230). That is, when the difference value exceeds the first threshold, it is determined that the first user event signal for capturing the current image frame is input, which is a kind of user's 'Freeze' command to the medical imaging apparatus 110 . This is entered. In particular, the calculation of the difference between the image frames and the comparison with the threshold will be described in detail later with reference to FIG. 6 .

한편, 영상 변화 감지 모듈(121b)은 제1 사용자 이벤트 신호가 입력된 것으로 판단하면, 도 4의 (a)와 같이 현재 영상 프레임에 대한 캡쳐를 수행하고(s240), 현재 영상 프레임에 대응하는 인덱스(

Figure 112020122788789-pat00001
)를 키 프레임 인덱스(
Figure 112020122788789-pat00002
)로 저장할 수 있다(s314). 도 5a를 함께 참조하면, 현재 영상 프레임에 대응하는 인덱스(
Figure 112020122788789-pat00003
)인 11을 키 프레임 인덱스(
Figure 112020122788789-pat00004
)(A1)로 저장할 수 있다. On the other hand, if the image change detection module 121b determines that the first user event signal is input, captures the current image frame as shown in (a) of FIG. 4 ( s240 ), and an index corresponding to the current image frame (
Figure 112020122788789-pat00001
) to the keyframe index (
Figure 112020122788789-pat00002
) can be stored as (s314). 5A together, the index corresponding to the current image frame (
Figure 112020122788789-pat00003
), which is 11, is the key frame index (
Figure 112020122788789-pat00004
)(A1).

그리고, 영상 변화 감지 모듈(121b)은 현재 영상 프레임에 대한 캡쳐를 수행하여 획득된 캡쳐 이미지(도 4의 (a))에 대한 저장을 수행하기 위한 제2 사용자 이벤트 신호가 입력되었는지 여부를 판단하여, 제2 사용자 이벤트 신호가 입력된 것으로 판단한 경우, 캡쳐 이미지에 대응하는 인덱스 이미지를 생성하고(도 4의 (b)), 캡쳐 이미지(도 4의 (c))를 키 영상으로 저장할 수 있다(s250 내지 s270). 참고로, 본 발명에서 인덱스 이미지는 캡쳐 이미지가 축소된 썸네일 형태로 디스플레이부(124)의 영상 화면의 모서리 부분에 표시될 수 있다.Then, the image change detection module 121b determines whether a second user event signal for storing the captured image (FIG. 4 (a)) obtained by performing the capture of the current image frame is input, , when it is determined that the second user event signal is input, an index image corresponding to the captured image is generated ((b) of FIG. 4), and the captured image ((c) of FIG. 4) may be stored as a key image ( s250 to s270). For reference, in the present invention, the index image may be displayed on the edge of the image screen of the display unit 124 in the form of a thumbnail of the captured image.

구체적으로, 영상 변화 감지 모듈(121b)은 상기 캡쳐 이미지가 출력된 상태에서, 영상을 저장하기 위한 제2 사용자 이벤트 신호가 입력된 경우, 즉, 사용자의 의료 영상 장치(110)에 대한 'Release' 명령이 입력된 경우, 캡쳐 이미지에 대응하는 인덱스 이미지를 출력하고, 캡쳐 이미지(

Figure 112020122788789-pat00005
)를 키 영상(
Figure 112020122788789-pat00006
)으로 저장할 수 있다(s316). 도 5a를 참조하면, 11번째 영상 프레임(
Figure 112020122788789-pat00007
)을 키 영상(
Figure 112020122788789-pat00008
)으로 저장할 수 있다. 이 때, 키 영상(
Figure 112020122788789-pat00009
)은 인덱스 이미지에 대응하여 저장될 수 있다.Specifically, the image change detection module 121b is configured to 'Release' the user's medical imaging apparatus 110 when a second user event signal for storing an image is input while the captured image is output. When a command is input, an index image corresponding to the captured image is output, and the captured image (
Figure 112020122788789-pat00005
) to the key image (
Figure 112020122788789-pat00006
) can be saved as (s316). Referring to Figure 5a, the 11th image frame (
Figure 112020122788789-pat00007
) to the key image (
Figure 112020122788789-pat00008
) can be saved as At this time, the key image (
Figure 112020122788789-pat00009
) may be stored corresponding to the index image.

한편, 영상 변화 감지 모듈(121b)은 인덱스 이미지가 변경되었는지 여부를 판단하여, 인덱스 이미지가 변경되었다고 판단한 경우, 변경된 인덱스 이미지를 키 인덱스 영상으로 선별하여 저장할 수 있다(s317, s318).Meanwhile, the image change detection module 121b may determine whether the index image has been changed, and when it is determined that the index image has been changed, the changed index image may be selected and stored as a key index image (s317 and s318).

그리고, 현재 영상 프레임(

Figure 112020122788789-pat00010
:11)에 이어서 다음 영상 프레임(
Figure 112020122788789-pat00011
:12)를 리딩하고(i=i+1), 다음 영상 프레임(
Figure 112020122788789-pat00012
:12)을 현재 영상 프레임으로 간주하여 전술한 과정을 반복 수행할 수 있다.And, the current video frame (
Figure 112020122788789-pat00010
:11) followed by the next video frame (
Figure 112020122788789-pat00011
:12) is read (i=i+1), and the next image frame (
Figure 112020122788789-pat00012
:12) can be regarded as the current image frame and the above-described process can be repeated.

한편, 도 5a를 함께 참조하면, 다음 영상 프레임(

Figure 112020122788789-pat00013
:12)를 리딩(i=i+1)하여 다음 영상 프레임(
Figure 112020122788789-pat00014
:12)을 현재 영상 프레임으로 간주한 상태에서, 영상 변화 감지 모듈(121b)은 제1 사용자 이벤트 신호가 입력되지 않은 것으로 판단하면, 이전 영상 프레임에 대응하는 인덱스(
Figure 112020122788789-pat00015
)인 11을 키 프레임 인덱스(
Figure 112020122788789-pat00016
)(B1)로 저장할 수 있다. Meanwhile, referring to FIG. 5A together, the next image frame (
Figure 112020122788789-pat00013
:12) is read (i=i+1) to the next video frame (
Figure 112020122788789-pat00014
:12) as the current image frame and the image change detection module 121b determines that the first user event signal is not input, the index (
Figure 112020122788789-pat00015
), which is 11, is the key frame index (
Figure 112020122788789-pat00016
) (B1).

참고로, 제1 사용자 이벤트 신호가 입력되지 않은 것으로 판단하는 것은, 현재 영상 프레임과 이전 영상 프레임의 차이값이 소정의 제1 임계치 미만인 것으로, 사용자에 의한 별도의 캡쳐 동작이 수행되지는 않고, 사용자에 의한 이전 캡쳐 동작 수행으로 인한 잔상이 발생하는 구간(C1)을 의미할 수 있다. 즉, 실제 제1 사용자 이벤트 신호가 입력된 바로 해당 시점에서 순간적으로 1 프레임 정도 정지가 되더라도, 일부의 미약한 움직임이 추가적으로 있을 수 있으므로, 이 구간을 의미할 수 있다. For reference, when it is determined that the first user event signal is not input, the difference between the current image frame and the previous image frame is less than a predetermined first threshold, and a separate capture operation by the user is not performed, and the user It may mean a section C1 in which an afterimage is generated due to a previous capture operation by . That is, even when the actual first user event signal is inputted, even if the frame is momentarily stopped for about one frame, since there may be additional weak motions, it may mean this section.

그리고, 다시 제1 사용자 이벤트 신호가 입력된 경우, 도 5a를 함께 참조하면, 현재 영상 프레임에 대응하는 인덱스(

Figure 112020122788789-pat00017
)인 15를 키 프레임 인덱스(
Figure 112020122788789-pat00018
) (A2)로 저장할 수 있다(s314).And, when the first user event signal is input again, with reference to FIG. 5A , the index corresponding to the current image frame (
Figure 112020122788789-pat00017
), which is 15, is the key frame index (
Figure 112020122788789-pat00018
) (A2) (s314).

그리고, 다음 영상 프레임(

Figure 112020122788789-pat00019
:16)를 리딩(i=i+1)하여 다음 영상 프레임(
Figure 112020122788789-pat00020
:16)을 현재 영상 프레임으로 간주한 상태에서, 영상 변화 감지 모듈(121b)은 제1 사용자 이벤트 신호가 입력되지 않은 것으로 판단하면, 이전 영상 프레임에 대응하는 인덱스(
Figure 112020122788789-pat00021
)인 15를 키 프레임 인덱스(
Figure 112020122788789-pat00022
)(B2)로 저장할 수 있다. Then, the next video frame (
Figure 112020122788789-pat00019
:16) is read (i=i+1) and the next video frame (
Figure 112020122788789-pat00020
:16) as the current image frame and the image change detection module 121b determines that the first user event signal is not input, the index (
Figure 112020122788789-pat00021
), which is 15, is the key frame index (
Figure 112020122788789-pat00022
) (B2).

참고로, 제1 사용자 이벤트 신호가 입력되지 않은 것으로 판단하는 것은, 현재 영상 프레임과 이전 영상 프레임의 차이값이 소정의 제1 임계치 미만인 것으로, 사용자에 의한 별도의 캡쳐 동작이 수행되지는 않고, 사용자에 의한 이전 캡쳐 동작 수행으로 인한 잔상이 발생하는 구간(C2)을 의미할 수 있다. For reference, when it is determined that the first user event signal is not input, the difference between the current image frame and the previous image frame is less than a predetermined first threshold, and a separate capture operation by the user is not performed, and the user It may mean a section C2 in which an afterimage occurs due to performing a previous capture operation by .

한편, 도 5a에서 키 영상(

Figure 112020122788789-pat00023
:11,
Figure 112020122788789-pat00024
:15)은 각각 전체 큐(Queue) 영역의 일부 부분 영역들 중에서 각각 첫번째로 입력된 것이다. 즉, 키 영상(
Figure 112020122788789-pat00025
:11)은 전체 큐 영역의 제1 부분 영역(즉, 키 영상의 키 인덱스 11과 동일한 '11'을 가지는 영상들을 저장하기 위한 영역) 중에서 첫번째로 입력된 것이고, 키 영상(
Figure 112020122788789-pat00026
:15)은 전체 큐 영역의 제2 부분 영역(즉, 키 영상의 키 인덱스 15와 동일한 '15'를 가지는 영상들을 저장하기 위한 영역) 중에서 첫번째로 입력된 것이다. 큐의 각 부분 영역 중에서 첫번째로 입력된 것의 의미는, 본 발명에서 큐는 환형 큐를 이용할 수 있고, 이 때, 큐에 가장 먼저 입력되어 가장 오랫동안 머무른 영상을 키 영상으로 꺼낼 수 있음을 의미한다. On the other hand, in Figure 5a, the key image (
Figure 112020122788789-pat00023
:11,
Figure 112020122788789-pat00024
:15) is input first among some partial areas of the entire queue area, respectively. That is, the key image (
Figure 112020122788789-pat00025
:11) is the first input of the first partial area of the entire cue area (that is, an area for storing images having the same '11' as the key index 11 of the key image), and the key image (
Figure 112020122788789-pat00026
:15) is the first input of the second partial area of the entire cue area (ie, an area for storing images having the same '15' as the key index 15 of the key image). The meaning of the first input among each subregion of the cue means that in the present invention, the cue may use a circular cue, and in this case, the image that is first input to the cue and stayed the longest may be taken out as the key image.

이로서, 영상 변화가 거의 없는 안정적인 프레임을 키 영상으로 저장할 수 있게 된다. As a result, it is possible to store a stable frame with almost no image change as a key image.

또는, 다른 실시예에 따라 도 5b를 참조하면, 키 영상은 영상 프레임을 저장하기 위한 전체 큐 영역의 일부 영역에 저장되는 영상들 중, 병변을 예측하기 위한 모델을 통한 예측 확률값이 가장 높은 영상일 수 있다. 구체적으로, 전체 큐 영역의 상기 일부 영역은 상기 키 영상에 대응하는 키 인덱스와 동일한 값을 가지는 상기 영상들을 저장하기 위한 것으로, 도 5a와 같이 전체 큐 영역의 제1 부분 영역(즉, 키 영상의 키 인덱스 11과 동일한 '11'을 가지는 영상들을 저장하기 위한 영역) 또는 전체 큐 영역의 제2 부분 영역(즉, 키 영상의 키 인덱스 15와 동일한 '15'를 가지는 영상들을 저장하기 위한 영역) 일 수 있다. 그리고, 제1 부분 영역을 예로 들면, 이 중, 신경망 모델(121a) 중 하나인 병변을 예측하기 위한 모델을 통한 예측 확률값(88)이 가장 높은 영상을 키 영상으로 저장할 수 있다. Or, referring to FIG. 5B according to another embodiment, the key image is an image having the highest prediction probability value through a model for predicting a lesion among images stored in a partial region of the entire cue region for storing image frames. can Specifically, the partial region of the entire queue region is for storing the images having the same value as the key index corresponding to the key image, and as shown in FIG. 5A , the first partial region of the entire queue region (ie, the key image) A region for storing images having the same '11' as the key index 11) or a second partial region of the entire cue region (that is, an area for storing images having the same '15' as the key index 15 of the key image) one can And, taking the first partial region as an example, an image having the highest prediction probability value 88 through a model for predicting a lesion, which is one of the neural network models 121a, may be stored as a key image.

즉, 각 입력 영상 프레임들(

Figure 112020122788789-pat00027
)은 영상 변화 감지 모듈(121b)로 입력되면서 병변을 예측하기 위한 모델로도 입력되어 해당 모델을 통한 출력값의 정보를 함께 활용하여 키 영상을 선정할 수 있다. 이 때, 프레임 인덱스 정보, 키 프레임 인덱스 정보, 및 병변을 예측하기 위한 모델을 통한 예측 확률값 중 적어도 하나는 각 영상을 저장하기 위한 큐 영역에 1 대 1 대응하여 각각 저장 및/또는 관리될 수 있다. That is, each input image frame (
Figure 112020122788789-pat00027
) is input to the image change detection module 121b and is also input as a model for predicting a lesion, so that a key image can be selected by using information of an output value through the corresponding model. At this time, at least one of frame index information, key frame index information, and a prediction probability value through a model for predicting a lesion may be stored and/or managed in a one-to-one correspondence with a queue area for storing each image. .

이로서, 영상 변화가 거의 없어 안정적이면서도 신경망 모델(121a)을 통한 출력값까지 반영되어 보다 병변 예측 확률이 높은 정확한 프레임을 키 영상으로 저장할 수 있게 된다. As a result, it is possible to store an accurate frame with a higher lesion prediction probability as a key image by reflecting the output value through the neural network model 121a while being stable because there is little change in the image.

도 6 및 도 7은 전술한 현재 영상 프레임과 이전 영상 프레임의 차이값을 산출하여 소정의 제1 임계치를 초과하였는지 여부를 판별하는 과정을 설명하기 위해 참조되는 도면이다. 6 and 7 are diagrams referenced to explain a process of determining whether a difference value between a current image frame and a previous image frame is calculated and a predetermined first threshold is exceeded.

구체적으로, (a) 도 6a와 같이 영상 변화 감지 모듈(121b)은 현재 영상 프레임과 이전 영상 프레임의 밝기의 차이를 채널별로 산출하고, 산출된 밝기의 차이가 소정의 제2 임계치를 초과하였는지 여부에 따라 (b) 도 6b와 같이 채널별로 구성된 각 맵(

Figure 112020122788789-pat00028
Figure 112020122788789-pat00029
,
Figure 112020122788789-pat00030
)에 상이한 이진값을 할당하며, (c) 도 6c와 같이 이진값들의 합을 기초로 차이값(
Figure 112020122788789-pat00031
을 산출할 수 있다. Specifically, (a) as shown in FIG. 6A , the image change detection module 121b calculates the difference in brightness between the current image frame and the previous image frame for each channel, and whether the calculated difference in brightness exceeds a second predetermined threshold According to (b) each map configured for each channel as shown in FIG. 6b (
Figure 112020122788789-pat00028
Figure 112020122788789-pat00029
,
Figure 112020122788789-pat00030
) is assigned a different binary value, and (c) the difference value (
Figure 112020122788789-pat00031
can be calculated.

먼저, (a)와 (b)를 함께 살펴보면, 영상 변화 감지 모듈(121b)은 현재 영상 프레임과 이전 영상 프레임의 밝기의 차이의 절대값을 각 채널별(R,G,B)로 산출하고, 산출된 밝기의 차이의 절대값이 소정의 제2 임계치(

Figure 112020122788789-pat00032
)를 초과한 경우, 각 맵(
Figure 112020122788789-pat00033
Figure 112020122788789-pat00034
,
Figure 112020122788789-pat00035
)에 '1'을 할당하고, 그 밖의 경우에는 각 맵(
Figure 112020122788789-pat00036
Figure 112020122788789-pat00037
,
Figure 112020122788789-pat00038
)에 '0'을 할당할 수 있다. 이러한 동작은 현재 영상 프레임과 이전 영상 프레임의 각 픽셀별 비교를 통해 수행될 수 있으며, 각 맵(
Figure 112020122788789-pat00039
Figure 112020122788789-pat00040
,
Figure 112020122788789-pat00041
) 역시 픽셀별로 구분되어 상기 할당된 이진값들을 저장할 수 있다. 그리고, (c)를 살펴보면, 모든 픽셀들에 할당된 각 이진값들의 총합을 각 채널에 대응하는 모든 픽셀들의 개수로 나누어 차이값(
Figure 112020122788789-pat00042
을 산출할 수 있다. 이러한 차이값(
Figure 112020122788789-pat00043
은 영상차를 나타내는 것으로, 각 픽셀별 평균 맵 변화율로도 정의될 수 있다. 또한, 차이값(
Figure 112020122788789-pat00044
이 소정의 제1 임계치(
Figure 112020122788789-pat00045
)를 초과한 경우, 영상 변화 감지 모듈(121b)은 의료 영상 장치(110)의 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력되어 영상의 변화가 있는 것으로 판단할 수 있다.First, looking at (a) and (b) together, the image change detection module 121b calculates the absolute value of the difference between the brightness of the current image frame and the previous image frame for each channel (R, G, B), The absolute value of the calculated difference in brightness is set to a predetermined second threshold (
Figure 112020122788789-pat00032
), each map (
Figure 112020122788789-pat00033
Figure 112020122788789-pat00034
,
Figure 112020122788789-pat00035
) to '1', otherwise each map (
Figure 112020122788789-pat00036
Figure 112020122788789-pat00037
,
Figure 112020122788789-pat00038
) can be assigned '0'. This operation can be performed by comparing each pixel of the current image frame and the previous image frame, and each map (
Figure 112020122788789-pat00039
Figure 112020122788789-pat00040
,
Figure 112020122788789-pat00041
) can also be divided for each pixel to store the allocated binary values. And, looking at (c), the difference value (
Figure 112020122788789-pat00042
can be calculated. These differences (
Figure 112020122788789-pat00043
denotes an image difference, and may also be defined as an average map change rate for each pixel. Also, the difference (
Figure 112020122788789-pat00044
This predetermined first threshold (
Figure 112020122788789-pat00045
) is exceeded, the image change detection module 121b may determine that there is a change in the image due to the input of the first user event signal for capturing the image frame of the medical imaging apparatus 110 .

실시예에 따라, 바람직하게, 제어부(121)는 제1 임계치(

Figure 112020122788789-pat00046
)를 0.005 이상 0.02 이하로, 제2 임계치(
Figure 112020122788789-pat00047
)를 15 이상 40 이하로 설정할 수 있다. 제1 임계치(
Figure 112020122788789-pat00048
)는 영상의 변화를 판단하기 위한 임계치이고, 제2 임계치(
Figure 112020122788789-pat00049
)는 맵 생성을 위한 임계치로 정의될 수 있다. According to the embodiment, preferably, the control unit 121 is a first threshold (
Figure 112020122788789-pat00046
) to 0.005 or more and 0.02 or less, the second threshold (
Figure 112020122788789-pat00047
) can be set to 15 or more and 40 or less. the first threshold (
Figure 112020122788789-pat00048
) is a threshold for determining the change of the image, and the second threshold (
Figure 112020122788789-pat00049
) may be defined as a threshold for map generation.

한편, 도 7을 참조하면, 키 영상(

Figure 112020122788789-pat00050
)이 정해지기 전의 인접한 영상 프레임들 사이의 영상 차이를 나타내며, (a): 제2 임계치(
Figure 112020122788789-pat00051
)를 1로 설정한 경우 맵의 예를 나타내고, (b): 제2 임계치(
Figure 112020122788789-pat00052
)를 15로 설정한 경우 맵의 예를 나타낸다. On the other hand, referring to Figure 7, the key image (
Figure 112020122788789-pat00050
) represents the image difference between adjacent image frames before being determined, (a): the second threshold (
Figure 112020122788789-pat00051
) shows an example of a map when set to 1, (b): the second threshold (
Figure 112020122788789-pat00052
) is set to 15, an example of a map is shown.

예를 들어, 인접한 영상 프레임들 사이의 영상 차이가 '7' 정도의 값으로 출력되는 경우, 제2 임계치(

Figure 112020122788789-pat00053
)를 1로 설정하면 영상 차이를 식별하여 (a)와 같이 불균일한 영상이 출력되는 반면, 제2 임계치(
Figure 112020122788789-pat00054
)를 15로 설정하면 (b)와 같이 영상 차이를 식별하지 않아 균일한 영상으로 출력될 수 있게 된다. For example, when the image difference between adjacent image frames is output as a value of about '7', the second threshold (
Figure 112020122788789-pat00053
) is set to 1, the image difference is identified and a non-uniform image is output as shown in (a), while the second threshold (
Figure 112020122788789-pat00054
) is set to 15, as in (b), image differences are not identified, so that a uniform image can be output.

즉, 실제 '7' 정도의 차이는 사용자 이벤트가 있을 경우 발생하는 차이가 아니면, (a)와 같은 상황은 노이즈만 야기시킬 수 있게 되므로, (b)의 상황이 보다 바람직하다. 따라서, 본 발명에서는 제2 임계치(

Figure 112020122788789-pat00055
)를 15 이상 40 이하로 설정할 수 있다. That is, if the difference of about '7' is not a difference that occurs when there is a user event, the situation as in (a) can only cause noise, so the situation in (b) is more preferable. Therefore, in the present invention, the second threshold (
Figure 112020122788789-pat00055
) can be set to 15 or more and 40 or less.

한편, 도 8은 키 영상(

Figure 112020122788789-pat00056
)이 정해진 후의 키 영상 및 키 영상과 인접한 영상 프레임 사이의 영상 차이를 나타내며, (a): 제2 임계치(
Figure 112020122788789-pat00057
)를 1로 설정한 경우 맵의 예를 나타내고, (b): 제2 임계치(
Figure 112020122788789-pat00058
)를 15로 설정한 경우 맵의 예를 나타낸다. On the other hand, Figure 8 is a key image (
Figure 112020122788789-pat00056
) represents the key image and the image difference between the key image and an adjacent image frame, (a): the second threshold (
Figure 112020122788789-pat00057
) shows an example of a map when set to 1, (b): the second threshold (
Figure 112020122788789-pat00058
) is set to 15, an example of a map is shown.

그리고, 도 8의 경우에도 도 7에서 전술한 기술적 특징이 동일/유사하게 적용될 수 있다. Also, in the case of FIG. 8, the technical features described above in FIG. 7 may be applied in the same/similar manner.

도 9 및 도 10은 실시예에 따라 디스플레이부(124)에 출력되는 화면을 예시한다. 도 9의 사용자 캡쳐 이미지는 병변 예측 부위에 해당하고, 도 10의 사용자 캡쳐 이미지는 실제 병변 발생 부위에 해당한다. 9 and 10 illustrate a screen output to the display unit 124 according to an embodiment. The user captured image of FIG. 9 corresponds to a lesion prediction region, and the user captured image of FIG. 10 corresponds to an actual lesion occurrence region.

우선, 도 9 및 도 10의 (a)를 참조하면, 디스플레이부(124)에 출력되는 화면은 1) 사용자 캡쳐 이미지, 2) 병변에 대한 신경망 모델(121a)을 통한 연산이 수행되면 출력가능한 결과값들에 대응하는 복수의 항목 이미지(분석 결과), 3) 히트맵 이미지, 4) 인덱스 이미지(저장 영상), 5) 기타 환자 정보, 환경 설정 정보, 의료 영상 장치(110)와의 연결 상태 등을 디스플레이부(124) 의 화면 상에 표시할 수 있다. 그리고 상기 각 정보들은 전체 디스플레이 화면 상에서 별도의 박스 영역안에 구분되어 표시될 수 있다. 2)와 관련하여, 제어부(121)는 각 결과값들(Lesion, Mucosa, SubMucosa, Differentiated, Undifferentiated)에 대응하는 복수의 항목을 상이한 크기, 무늬, 색상 등의 형태로 상이하게 표시할 수 있다. 3)과 관련하여, 히트맵은 영상 프레임에 포함되는 병변 영역을 파악하기 위한 지도로, 제어부(121)는 출력된 결과값을 기초로 히트맵을 생성하고, 히트맵에 임계값을 적용하여 히트맵으로부터 병변 영역을 추출(또는 분리)하여 추출된 이미지를 기초로 영상 프레임에 포함되는 병변 영역을 파악할 수 있다.First, referring to FIGS. 9 and 10 (a) , the screen output to the display unit 124 is a result that can be output when an operation is performed through 1) a user captured image, and 2) a neural network model 121a for a lesion. A plurality of item images corresponding to the values (analysis result), 3) heat map image, 4) index image (saved image), 5) other patient information, environment setting information, connection status with the medical imaging apparatus 110, etc. It may be displayed on the screen of the display unit 124 . In addition, each piece of information may be displayed separately in a separate box area on the entire display screen. In relation to 2), the controller 121 may differently display a plurality of items corresponding to the respective result values (Lesion, Mucosa, SubMucosa, Differentiated, and Undifferentiated) in different sizes, patterns, colors, and the like. In relation to 3), the heat map is a map for identifying a lesion region included in an image frame, and the controller 121 generates a heat map based on the output result value, and applies a threshold value to the heat map to generate a heat map. By extracting (or separating) the lesion region from the map, the lesion region included in the image frame may be identified based on the extracted image.

그리고, 도 9 및 도 10의 (b)를 참조하면, 제어부(121)는 사용자 캡쳐 이미지에 대응하는 인덱스 이미지를 디스플레이부(124)의 화면 상에 더 표시할 수 있고, 이를 또한 저장 영상 목록 상에 추가할 수 있다. 또한, 도 9 및 도 10의 (c)를 참조하면, 인덱스 이미지에 대응한 키 영상을 메모리(123)에 저장할 수 있다. And, referring to FIGS. 9 and 10 (b), the control unit 121 may further display an index image corresponding to the user captured image on the screen of the display unit 124, which is also displayed on the stored image list. can be added to Also, referring to FIGS. 9 and 10 ( c ), a key image corresponding to the index image may be stored in the memory 123 .

도 11은 실시예에 따른 신경망 모델(121a)의 구조를 나타내는 도면이다.11 is a diagram illustrating a structure of a neural network model 121a according to an embodiment.

실시예에 따른 신경망 모델(121a)은 (a) 병변의 검출 모델, (b) 병변의 종류 판별 모델, (c) 영상 프레임 상의 상기 병변의 위치 정보 판별 모델, (d) 병변의 위치 정보에 대응하는 병변과 관련된 검사 진행 여부 판별 모델, (e) 권장 검사 시간 알림 모델, 및 (f) 병변 발생의 위험 알림 모델 중 어느 하나일 수 있다. 다만, 이는 일 실시예이고 병변 검출과 관련하여 구현된 모델이면 본 발명에 동일/유사하게 적용될 수 있으며, 상기 각 모델은 적어도 하나 이상 서로 조합되어 사용될 수 있다.The neural network model 121a according to the embodiment corresponds to (a) a lesion detection model, (b) a lesion type determination model, (c) a lesion location information determination model on an image frame, and (d) a lesion location information. It may be any one of a model for determining whether to proceed with an examination related to a lesion, (e) a recommended examination time notification model, and (f) a risk notification model for lesion occurrence. However, this is an embodiment, and if it is a model implemented in relation to lesion detection, it may be applied to the present invention in the same/similar manner, and at least one or more of the models may be used in combination with each other.

도 11에서 NT개의 클래스(T1, T2, ... Tt, ... TNT)가 존재하고, 클래스 T1에는 2가지의 특성이 속하고, 클래스 T2에는 2가지의 특성이 속하고, 클래스 Tt에는 n가지의 특성이 속하고, 클래스 TNT에는 3가지의 특성이 속하는 것으로 가정하였다.In FIG. 11, NT classes (T 1 , T 2 , ... T t , ... T NT ) exist, class T 1 includes two characteristics, and class T 2 includes two characteristics. It is assumed that n properties belong to class T t , and three properties belong to class T NT .

도 11을 참조하면, 본 발명의 실시예에 따른 신경망 모델(121a)은, 입력 영상 (xi)에 대해 컨볼루션 연산을 수행하기 위한 컨볼루션층(10)과, 상기 컨볼루션층(10)의 출력(oconv)에 대해 풀링을 수행하기 위한 풀링층(20)과, 복합 특성이 분류되는 복수의 클래스에 각각 대응하며, 상기 풀링층(20)의 출력에 대해 클래스별 가중치(wfc(Tt))를 곱한 값을 출력하는 복수의 클래스별 완전결합층(30)을 포함한다. Referring to FIG. 11 , a neural network model 121a according to an embodiment of the present invention includes a convolution layer 10 for performing a convolution operation on an input image xi, and The pooling layer 20 for performing pooling on the output (oconv), and each corresponding to a plurality of classes into which the complex characteristic is classified, the weight w fc (T t ) for each class for the output of the pooling layer 20 )) to output a value multiplied by a plurality of class-specific perfect coupling layers 30 .

신경망 모델(121a)은, 상기 복수의 클래스별 완전결합층(30)에 각각 대응하며 각 클래스별 완전결합층(30)의 출력에 따라 클래스별 특성 확률을 연산하는 복수의 클래스별 분류기(40)를 더 포함할 수 있다. The neural network model 121a corresponds to the plurality of class-specific fully coupled layers 30, respectively, and a plurality of class-specific classifiers 40 for calculating the characteristic probability for each class according to the output of each class-specific fully coupled layer 30. may further include.

컨볼루션층(10)은 입력 영상에 대해 복수의 컨볼루션 필터를 이용하여 컨볼루션 연산을 수행함으로써 특징맵을 추출한다. 도 11에 도시된 바와 같이 컨볼루션 연산은 복수회 수행될 수 있다. 컨볼루션층(10)의 출력, 즉 특징맵(oconv)은 높이(H), 너비(W), 채널 수(C)를 갖는 것으로 가정하였다.The convolution layer 10 extracts a feature map by performing a convolution operation on the input image using a plurality of convolution filters. 11 , the convolution operation may be performed multiple times. It is assumed that the output of the convolution layer 10, that is, the feature map oconv, has a height (H), a width (W), and the number of channels (C).

풀링층(20)은 컨볼루션층(10)과 완전결합층(30)의 사이에 위치하며, 특징맵(oconv)의 크기를 감소시켜 후술하는 완전결합층(30)에서 필요한 연산을 감소시키고, 오버피팅을 방지하는 역할을 한다. 풀링층(20)은 특징맵(oconv)의 각 채널에 대해 평균값을 출력하는 전체 평균 풀링(Global Average Pooling)을 수행할 수 있다.The pooling layer 20 is located between the convolutional layer 10 and the fully coupled layer 30, and reduces the size of the feature map (oconv) to reduce the calculation required in the fully coupled layer 30 to be described later, It serves to prevent overfitting. The pooling layer 20 may perform global average pooling of outputting an average value for each channel of the feature map (oconv).

클래스별 완전결합층(30)은 풀링층(20)의 출력에 클래스별 가중치(wfc(T1), wfc(T2), ... wfc(Tt), ... wfc(TNT))를 곱한 값을 출력한다. 이때, 클래스별 가중치(wfc(T1), wfc(T2), ... wfc(Tt), ... wfc(TNT))의 각각은 채널 수에 해당하는 복수의 값일 수 있다. The class-specific fully coupled layer 30 is the output of the pooling layer 20 for each class weight (w fc (T 1 ), w fc (T 2 ), ... w fc (T t ), ... w fc (T NT )) and output the multiplied value. At this time, each of the weights for each class (w fc (T 1 ), w fc (T 2 ), ... w fc (T t ), ... w fc (T NT )) is a plurality of channels corresponding to the number of channels. can be a value.

클래스별 분류기(40)는 클래스별 완전결합층(30)에 각각 대응하며, 클래스별 완전결합층(30)의 출력에 따라 클래스별 특성 확률을 연산한다. 도 11을 참조하면, 클래스 T1에 해당하는 분류기는 클래스 T1에 속하는 특성들 각각에 해당하는 확률(P1(T1), P2(T1))을 연산하고, 클래스 T2에 해당하는 분류기는 클래스 T2에 속하는 특성들 각각에 해당하는 확률(P1(T2), P2(T2))을 연산하고, 클래스 Tt에 해당하는 분류기는 클래스 Tt에 속하는 특성들 각각에 해당하는 확률(P1(Tt), P2(Tt), ... Pn(Tt))을 연산하고, 클래스 TNT에 해당하는 분류기는 클래스 TNT에 속하는 특성들 각각에 해당하는 확률(P1(TNT), P2(TNT), P3(TNT))을 연산한다. 클래스별 분류기(40)로서 예를 들어 Softmax 함수, Sigmoid 함수 등이 이용될 수 있다.The classifier 40 for each class corresponds to the fully coupled layer 30 for each class, and calculates the characteristic probability for each class according to the output of the perfectly coupled layer 30 for each class. 11, the sorter for the class T 1 corresponds to the class T probability corresponding to the characteristic of belonging to the 1 (P 1 (T 1) , P 2 (T 1)) computing a, and class T 2 classifier computes the probability (P 1 (T 2 ), P 2 (T 2 )) corresponding to each feature belonging to class T 2 , and the classifier corresponding to class T t calculates the probability of each feature belonging to class T t . probability that corresponds to the sorter for calculating the (P 1 (T t), P 2 (T t), ... Pn (T t)) and corresponds to the class T NT is equivalent to each of the attributes belonging to the class T NT Calculate the probability (P 1 (T NT ), P 2 (T NT ), P 3 (T NT )). As the classifier 40 for each class, for example, a Softmax function, a Sigmoid function, or the like may be used.

이상 설명된 실시 형태는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터로 판독가능한 기록매체에 기록될 수 있다. 상기 컴퓨터로 판독가능한 기록매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The embodiments described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.

컴퓨터로 판독가능한 기록매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 실행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of the computer-readable recording medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and DVD, and a magneto-optical medium such as a floppy disk. optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for carrying out the processing according to the present invention, and vice versa.

본 명세서의 양상들은 전체적으로 하드웨어, 전체적으로 소프트웨어 (펌웨어, 상주 소프트웨어, 마이크로 코드 등을 포함 함) 또는 컴퓨터 판독 가능 프로그램 코드가 구현 된 하나 이상의 컴퓨터 판독 가능 매체에 구현 된 컴퓨터 프로그램 제품의 형태를 취할 수 있다.Aspects herein may take the form of a computer program product embodied on one or more computer readable media embodied in hardware entirely, software entirely (including firmware, resident software, microcode, etc.) or computer readable program code. .

이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Features, structures, effects, etc. described in the above embodiments are included in one embodiment of the present invention, and are not necessarily limited to one embodiment. Furthermore, features, structures, effects, etc. illustrated in each embodiment can be combined or modified for other embodiments by those of ordinary skill in the art to which the embodiments belong. Therefore, contents related to such combinations and modifications should be construed as being included in the scope of the present invention.

Claims (10)

영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 방법에 있어서,
(a) 영상 수신 장치가 통신부를 통해 의료 영상 장치로부터 현재 영상 프레임을 수신하는 단계;
(b) 제어부가 상기 현재 영상 프레임과 이전 영상 프레임의 차이값을 산출하는 단계;
(c) 제어부가 상기 차이값이 0.005 이상 0.02 이하를 초과하였는지 여부에 따라 상기 의료 영상 장치에 상기 현재 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력되었는지 여부를 판단하는 단계; 및
(d) 제어부가 상기 제1 사용자 이벤트 신호가 입력된 것으로 판단한 경우, 상기 현재 영상 프레임에 대한 캡쳐를 수행하는 단계;
(e) 제어부가 상기 현재 영상 프레임에 대한 상기 캡쳐를 수행하여 획득된 캡쳐 이미지에 대한 저장을 수행하기 위한 제2 사용자 이벤트 신호가 입력되었는지 여부를 판단하는 단계; 및
(f) 제어부가 상기 제2 사용자 이벤트 신호가 입력된 것으로 판단한 경우, 상기 캡쳐 이미지에 대응하는 인덱스 이미지를 생성하는 단계;를 포함하고,
상기 (f) 단계는,
제어부가 상기 캡쳐 이미지를 키 영상으로 저장하는 단계;를 더 포함하며,
상기 키 영상은 상기 영상 프레임을 저장하기 위한 전체 큐 영역의 일부 영역에 저장되는 영상들 중, 병변을 예측하기 위한 모델을 통한 예측 확률값이 가장 높은 영상이고,
상기 전체 큐 영역의 상기 일부 영역은 상기 키 영상에 대응하는 키 인덱스와 동일한 값을 가지는 상기 영상들을 저장하기 위한 것인,
영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 방법.
In the method of detecting a user event through image analysis composed of image frames,
(a) receiving, by an image receiving apparatus, a current image frame from a medical imaging apparatus through a communication unit;
(b) calculating, by a controller, a difference value between the current image frame and a previous image frame;
(c) determining, by the controller, whether a first user event signal for capturing the current image frame is input to the medical imaging apparatus according to whether the difference value exceeds 0.005 or more and 0.02 or less; and
(d) when the controller determines that the first user event signal is input, capturing the current image frame;
(e) determining, by the controller, whether a second user event signal for storing the captured image obtained by performing the capturing of the current image frame is input; and
(f) when the control unit determines that the second user event signal is input, generating an index image corresponding to the captured image;
The step (f) is,
Further comprising; storing the captured image as a key image by the control unit;
The key image is an image having the highest prediction probability value through a model for predicting a lesion among images stored in a partial region of the entire cue region for storing the image frame,
The partial region of the entire queue region is for storing the images having the same value as the key index corresponding to the key image,
A method of detecting user events through image analysis composed of image frames.
삭제delete 삭제delete 제 1항에 있어서,
상기 (b) 단계는,
(b1) 제어부가 상기 현재 영상 프레임과 상기 이전 영상 프레임의 밝기의 차이를 채널별로 산출하는 단계;
(b2) 제어부가 상기 산출된 밝기의 차이가 15 이상 40 이하를 초과하였는지 여부에 따라 상기 채널별로 구성된 각 맵에 상이한 이진값을 할당하는 단계; 및
(b3) 제어부가 상기 이진값들의 합을 기초로 상기 차이값을 산출하는 단계;를 포함하는,
영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 방법.
The method of claim 1,
The step (b),
(b1) calculating, by the controller, a difference in brightness between the current image frame and the previous image frame for each channel;
(b2) assigning, by a controller, different binary values to each map configured for each channel according to whether the calculated difference in brightness exceeds 15 or more and 40 or less; and
(b3) calculating, by the control unit, the difference value based on the sum of the binary values;
A method of detecting user events through image analysis composed of image frames.
삭제delete 제 1항에 있어서,
상기 키 영상은 상기 영상 프레임을 저장하기 위한 전체 큐 영역의 일부 영역 중에서 첫번째로 입력된 것이고,
상기 전체 큐 영역의 상기 일부 영역은 상기 키 영상에 대응하는 키 인덱스와 동일한 값을 가지는 영상들을 저장하기 위한 것인,
영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 방법.
The method of claim 1,
The key image is first input among some regions of the entire cue region for storing the image frame,
The partial region of the entire queue region is for storing images having the same value as the key index corresponding to the key image,
A method of detecting user events through image analysis composed of image frames.
삭제delete 영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 장치에 있어서,
의료 영상 장치로부터 현재 영상 프레임을 수신하는 통신부; 및
상기 현재 영상 프레임과 이전 영상 프레임의 차이값을 산출하고, 상기 차이값이 0.005 이상 0.02 이하를 초과한 경우 상기 의료 영상 장치에 상기 현재 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력된 것으로 판단하여 상기 현재 영상 프레임에 대한 캡쳐를 수행하고, 상기 현재 영상 프레임에 대한 상기 캡쳐를 수행하여 획득된 캡쳐 이미지에 대한 저장을 수행하기 위한 제2 사용자 이벤트 신호가 입력되면 상기 캡쳐 이미지에 대응하는 인덱스 이미지를 생성하는 제어부;를 포함하고,
상기 제어부는 상기 캡쳐 이미지를 키 영상으로 저장하며,
상기 키 영상은 상기 영상 프레임을 저장하기 위한 전체 큐 영역의 일부 영역에 저장되는 영상들 중, 병변을 예측하기 위한 모델을 통한 예측 확률값이 가장 높은 영상이고,
상기 전체 큐 영역의 상기 일부 영역은 상기 키 영상에 대응하는 키 인덱스와 동일한 값을 가지는 상기 영상들을 저장하기 위한 것인,
영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 장치.
An apparatus for detecting user events through image analysis composed of image frames,
a communication unit configured to receive a current image frame from the medical imaging apparatus; and
A difference value between the current image frame and the previous image frame is calculated, and when the difference value exceeds 0.005 or more and 0.02 or less, a first user event signal for capturing the current image frame is input to the medical imaging apparatus When a second user event signal for performing the capture of the current image frame and storing the captured image obtained by performing the capturing on the current image frame is inputted, corresponding to the captured image Including; a control unit for generating an index image to
The control unit stores the captured image as a key image,
The key image is an image having the highest prediction probability value through a model for predicting a lesion among images stored in a partial region of the entire cue region for storing the image frame,
The partial area of the entire queue area is for storing the images having the same value as the key index corresponding to the key image,
A device for detecting user events through image analysis composed of image frames.
제 8항에 있어서,
상기 인덱스 이미지 및 상기 인덱스 이미지에 대응하여 목록화된 영상을 포함하는 화면을 함께 출력하는 디스플레이부;를 더 포함하는,
영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 장치.
The method of claim 8,
Further comprising; a display unit for outputting together the index image and a screen including an image listed in correspondence to the index image;
User event detection device through image analysis composed of image frames.
삭제delete
KR1020200153243A 2020-11-17 2020-11-17 User event detection method through image analysis and device performing the method KR102259797B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200153243A KR102259797B1 (en) 2020-11-17 2020-11-17 User event detection method through image analysis and device performing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200153243A KR102259797B1 (en) 2020-11-17 2020-11-17 User event detection method through image analysis and device performing the method

Publications (1)

Publication Number Publication Date
KR102259797B1 true KR102259797B1 (en) 2021-06-02

Family

ID=76372574

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200153243A KR102259797B1 (en) 2020-11-17 2020-11-17 User event detection method through image analysis and device performing the method

Country Status (1)

Country Link
KR (1) KR102259797B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100049307A (en) * 2008-11-03 2010-05-12 인하대학교 산학협력단 Method for processing image of capsule endoscopy using image characteristic analysis
KR101175065B1 (en) * 2011-11-04 2012-10-12 주식회사 아폴로엠 Method for bleeding scanning during operation using image processing apparatus for surgery
KR20160012758A (en) * 2014-07-25 2016-02-03 삼성전자주식회사 Apparatus and Method for aiding image diagnosis
KR20160028273A (en) * 2014-09-03 2016-03-11 삼성전자주식회사 Apparatus and method for interpolating lesion detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100049307A (en) * 2008-11-03 2010-05-12 인하대학교 산학협력단 Method for processing image of capsule endoscopy using image characteristic analysis
KR101175065B1 (en) * 2011-11-04 2012-10-12 주식회사 아폴로엠 Method for bleeding scanning during operation using image processing apparatus for surgery
KR20160012758A (en) * 2014-07-25 2016-02-03 삼성전자주식회사 Apparatus and Method for aiding image diagnosis
KR20160028273A (en) * 2014-09-03 2016-03-11 삼성전자주식회사 Apparatus and method for interpolating lesion detection

Similar Documents

Publication Publication Date Title
US10860930B2 (en) Learning method, image recognition device, and computer-readable storage medium
US10984252B2 (en) Apparatus and method for analyzing people flows in image
CN112041912A (en) Systems and methods for diagnosing gastrointestinal tumors
JP5784404B2 (en) Image processing apparatus, image processing method, and image processing program
US20100141810A1 (en) Bad Pixel Detection and Correction
JP5830295B2 (en) Image processing apparatus, operation method of image processing apparatus, and image processing program
US8861783B1 (en) System and method for detection of content in an image stream of the gastrointestinal tract
KR102600401B1 (en) Apparatus, method and computer program for anayzing medical image using classification and segmentation
WO2019064704A1 (en) Endoscopic image observation assistance system, endoscopic image observation assistance device, and endoscopic image observation assistance method
JP2020010805A (en) Specification device, program, specification method, information processing device, and specifier
JP2018054443A (en) Information processing device, information processing system and program
WO2014103673A1 (en) Information processing system, information processing method, and program
US10776666B2 (en) Apparatus and method for diagnosis of medical image
Majtner et al. A deep learning framework for autonomous detection and classification of Crohnʼs disease lesions in the small bowel and colon with capsule endoscopy
CN112466466A (en) Digestive tract auxiliary detection method and device based on deep learning and computing equipment
CN115170464A (en) Lung image processing method and device, electronic equipment and storage medium
US20170053172A1 (en) Image processing apparatus, and image processing method
US20230386033A1 (en) Image Processing Apparatus, Image Processing Method, and Program
US20210125334A1 (en) System and Method for Analyzing Three-Dimensional Image Data
KR102259797B1 (en) User event detection method through image analysis and device performing the method
JP6425868B1 (en) ENDOSCOPIC IMAGE OBSERVATION SUPPORT SYSTEM, ENDOSCOPIC IMAGE OBSERVATION SUPPORT DEVICE, AND ENDOSCOPIC IMAGE OBSERVATION SUPPORT METHOD
US20130158398A1 (en) Medical imaging diagnosis apparatus and medical imaging diagnosis method for providing diagnostic basis
KR20070091714A (en) Method and apparatus of diagnosis micro-calcification
Obukhova et al. Method of endoscopic images analysis for automatic bleeding detection and segmentation
US11742072B2 (en) Medical image diagnosis assistance apparatus and method using plurality of medical image diagnosis algorithms for endoscopic images

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant