KR102259797B1 - User event detection method through image analysis and device performing the method - Google Patents
User event detection method through image analysis and device performing the method Download PDFInfo
- Publication number
- KR102259797B1 KR102259797B1 KR1020200153243A KR20200153243A KR102259797B1 KR 102259797 B1 KR102259797 B1 KR 102259797B1 KR 1020200153243 A KR1020200153243 A KR 1020200153243A KR 20200153243 A KR20200153243 A KR 20200153243A KR 102259797 B1 KR102259797 B1 KR 102259797B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- image frame
- key
- frame
- user event
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B2018/00982—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body combined with or comprising means for visual or photographic inspections inside the body, e.g. endoscopes
Abstract
Description
본 발명은 영상 분석을 통한 사용자 이벤트 검출 방법 및 해당 방법을 수행하는 장치에 관한 것으로, 보다 구체적으로 영상 분석 결과만을 가지고도 의료 영상 장치에 사용자 이벤트가 발생하였는지 여부를 검출할 수 있도록 하는, 영상 분석을 통한 사용자 이벤트 검출 방법 및 해당 방법을 수행하는 장치에 관한 것이다.The present invention relates to a method for detecting a user event through image analysis and an apparatus for performing the method, and more particularly, to an image analysis that enables detection of whether a user event has occurred in a medical imaging apparatus even with only an image analysis result. It relates to a method for detecting a user event through and an apparatus for performing the method.
위에 생기는 악성 종양에는 위선암(gastric adenocarcinoma), 악성림프종(gastric lymphoma), 간질성 종양(gastrointestinal stromal tumor)등 여러 종류가 있으나 이 중 위선암이 가장 흔하다. 이때, 위암은 종양의 진행 정도에 따라, 조기 위암(early gastric cancer, EGC) 과 진행성 위암(advanced gastric cancer, AGC)으로 분류할 수 있다. There are several types of malignant tumors in the stomach, such as gastric adenocarcinoma, gastric lymphoma, and gastrointestinal stromal tumor, but of these, gastric adenocarcinoma is the most common. In this case, gastric cancer may be classified into early gastric cancer (EGC) and advanced gastric cancer (AGC) according to the degree of tumor progression.
보다 구체적으로, 조기 위암은 림프절로의 전이 유무에 관계없이 종양 세포가 위의 점막층 또는 점막 하층까지 침범한 경우이고, 진행성 위암은 종양 세포가 점막하층을 지나 근육층 이상을 뚫고 침범된 경우로 주변 장기로의 침습이 가능하다. More specifically, early gastric cancer is a case in which tumor cells have invaded the mucosal or submucosal layer of the stomach regardless of whether or not metastasis to the lymph nodes is present. invasion is possible.
위암의 진단 방법으로는, 위 내시경 검사가 가장 중요하다. 보다 구체적으로, 의료진은 내시경 스코프(scope)를 이용하여 위암 의심 개체에 대하여 촬영된 위 내시경 영상을 판독함으로써 위암을 진단하고, 이를 기초로 병변에 따른 치료를 제공할 수 있다. 한편, 내시경 영상에 기초한 진단 시스템은, 의료진 숙련도에 따른 진단의 편차가 있을 수 있다. 이러한 진단의 편차는, 오진, 치료 시점의 지연, 부적절한 치료가 수행되는 등의 의료 사고와도 연관이 있을 수 있다.Gastric endoscopy is the most important method for diagnosing gastric cancer. More specifically, a medical staff may diagnose gastric cancer by reading a gastroscopic image taken for an object suspected of gastric cancer using an endoscope scope, and provide treatment according to the lesion based thereon. Meanwhile, in a diagnosis system based on an endoscopic image, there may be a deviation in diagnosis according to the skill level of a medical staff. Such deviations in diagnosis may also be related to medical accidents such as misdiagnosis, delay in treatment timing, and improper treatment.
특히, 조기 위암의 경우 병소 부위가 매우 작게 존재하거나 정상 조직과의 구별이 어려울 수 있어, 의료진의 숙련도에 따른 진단의 편차가 보다 클 수 있다.In particular, in the case of early gastric cancer, the lesion site may be very small or it may be difficult to distinguish it from normal tissue, so that the diagnosis deviation according to the skill of the medical staff may be greater.
그리고, 의료 사고의 예방 및 의료 서비스의 향상 등을 위하여 진단의 정확성이 더욱 요구되고 있음에 따라, 질환 발병 여부 뿐만 아니라, 병변에 대한 위치를 제공할 수 있는 새로운 진단 방법의 개발이 지속적으로 요구되고 있는 실정이다.And, as the accuracy of diagnosis is more demanded for the prevention of medical accidents and improvement of medical services, the development of a new diagnostic method capable of providing the location of the lesion as well as the onset of the disease is continuously required. there is a situation.
한편, 종래 기술에 따르면, 병변의 위치를 검출하기 위해 의료 영상 장치에서 출력되는 영상을 영상 수신 장치에서 실시간으로 입력 받아 출력부를 통해 출력하는 과정에서, 의료 영상 장치를 조작하는 사용자에 의한 특정 이벤트(프로브 스위치 또는 풋 스위치 누름 등)가 발생했을 때, 게이트웨이를 통해 해당 특정 이벤트 감지와 이에 대응하는 영상 저장이 이루어져, 의료 영상 장치에 특정 이벤트가 발생하였는지 여부를 판별할 수 있었다.Meanwhile, according to the prior art, in the process of receiving an image output from the medical imaging apparatus in real time and outputting it through an output unit in order to detect the location of a lesion, a specific event ( When a probe switch or a foot switch is pressed, etc.), the specific event is detected and an image corresponding thereto is detected through the gateway, so that it can be determined whether a specific event has occurred in the medical imaging apparatus.
그러나, 게이트웨이에 이러한 이벤트 감지와 이에 대응하는 영상 저장과 같은 기능을 수행하는 펌웨어 등의 시스템이 구비되어 있지 않은 경우도 있어, 이러한 경우에도 의료 영상 장치에 발생한 특정 이벤트를 영상 수신 장치에서 제대로 인지해야 하는 니즈가 있다.However, there are cases where the gateway is not equipped with a system such as firmware that performs functions such as event detection and image storage corresponding thereto. Even in this case, a specific event occurring in the medical imaging device must be properly recognized by the image receiving device. there is a need to
본 발명은 전술한 필요성에 의해 도출된 것으로, 영상 수신 장치에서 직접 영상 프레임에 대한 변화 정보를 분석해서 해당 결과만을 가지고도 의료 영상 장치에 사용자에 의한 이벤트가 발생하였는지 여부를 판단할 수 있도록 하는 데에 그 목적이 있다. The present invention was derived from the above necessity, and is used to analyze change information on an image frame directly by an image receiving device and to determine whether an event by a user has occurred in a medical imaging apparatus even with only the corresponding result. has its purpose in
실시예에 따른 영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 방법은, (a) 영상 수신 장치가 통신부를 통해 의료 영상 장치로부터 현재 영상 프레임을 수신하는 단계; (b) 제어부가 상기 현재 영상 프레임과 이전 영상 프레임의 차이값을 산출하는 단계; (c) 제어부가 상기 차이값이 소정의 제1 임계치를 초과하였는지 여부에 따라 상기 의료 영상 장치에 상기 현재 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력되었는지 여부를 판단하는 단계; 및 (d) 제어부가 상기 제1 사용자 이벤트 신호가 입력된 것으로 판단한 경우, 상기 현재 영상 프레임에 대한 캡쳐를 수행하는 단계를 포함할 수 있다.According to an embodiment, a method for detecting a user event through image analysis composed of image frames includes: (a) receiving, by an image receiving apparatus, a current image frame from a medical imaging apparatus through a communication unit; (b) calculating, by a controller, a difference value between the current image frame and a previous image frame; (c) determining, by the controller, whether a first user event signal for capturing the current image frame is input to the medical imaging apparatus according to whether the difference value exceeds a first threshold; and (d) when the controller determines that the first user event signal is input, capturing the current image frame.
상기 검출 방법은, (e) 상기 현재 영상 프레임에 대한 상기 캡쳐를 수행하여 획득된 캡쳐 이미지에 대한 저장을 수행하기 위한 제2 사용자 이벤트 신호가 입력되었는지 여부를 판단하는 단계; 및 (f) 상기 제2 사용자 이벤트 신호가 입력된 것으로 판단한 경우, 상기 캡쳐 이미지에 대응하는 인덱스 이미지를 생성하는 단계;를 더 포함할 수 있다.The detection method may include: (e) determining whether a second user event signal for storing the captured image obtained by performing the capturing of the current image frame is input; and (f) generating an index image corresponding to the captured image when it is determined that the second user event signal is input.
상기 (f) 단계는, 상기 캡쳐 이미지를 키 영상으로 저장하는 단계를 더 포함할 수 있다.The step (f) may further include storing the captured image as a key image.
상기 (b) 단계는, (b1) 제어부가 상기 현재 영상 프레임과 상기 이전 영상 프레임의 밝기의 차이를 채널별로 산출하는 단계; (b2) 제어부가 상기 산출된 밝기의 차이가 소정의 제2 임계치를 초과하였는지 여부에 따라 상기 채널별로 구성된 각 맵에 상이한 이진값을 할당하는 단계; 및 (b3) 제어부가 상기 이진값들의 합을 기초로 상기 차이값을 산출하는 단계를 포함할 수 있다.The step (b) includes: (b1) calculating, by the controller, a difference in brightness between the current image frame and the previous image frame for each channel; (b2) allocating, by the controller, different binary values to each map configured for each channel according to whether the calculated difference in brightness exceeds a second predetermined threshold; and (b3) calculating, by the controller, the difference value based on the sum of the binary values.
상기 제1 임계치는 0.005 이상 0.02 이하이고 상기 제2 임계치는 15 이상 40 이하일 수 있다.The first threshold may be 0.005 or more and 0.02 or less, and the second threshold may be 15 or more and 40 or less.
상기 키 영상은 상기 영상 프레임을 저장하기 위한 전체 큐 영역의 일부 영역 중에서 첫번째로 입력된 것이고, 상기 전체 큐 영역의 상기 일부 영역은 상기 키 영상에 대응하는 키 인덱스와 동일한 값을 가지는 영상들을 저장하기 위한 것일 수 있다.The key image is first input among partial regions of the entire queue region for storing the image frame, and the partial region of the entire queue region stores images having the same value as the key index corresponding to the key image. it may be for
상기 키 영상은 상기 영상 프레임을 저장하기 위한 전체 큐 영역의 일부 영역에 저장되는 영상들 중, 병변을 예측하기 위한 모델을 통한 예측 확률값이 가장 높은 영상이고, 상기 전체 큐 영역의 상기 일부 영역은 상기 키 영상에 대응하는 키 인덱스와 동일한 값을 가지는 상기 영상들을 저장하기 위한 것일 수 있다.The key image is an image having the highest prediction probability value through a model for predicting a lesion among images stored in a partial region of the entire cue region for storing the image frame, and the partial region of the entire cue region is It may be for storing the images having the same value as the key index corresponding to the key image.
실시예에 따른 영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 장치는, 의료 영상 장치로부터 현재 영상 프레임을 수신하는 통신부; 및 상기 현재 영상 프레임과 이전 영상 프레임의 차이값을 산출하고, 상기 차이값이 소정의 임계치를 초과한 경우 상기 의료 영상 장치에 상기 현재 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력된 것으로 판단하여 상기 현재 영상 프레임에 대한 캡쳐를 수행하고, 상기 현재 영상 프레임에 대한 상기 캡쳐를 수행하여 획득된 캡쳐 이미지에 대한 저장을 수행하기 위한 제2 사용자 이벤트 신호가 입력되면 상기 캡쳐 이미지에 대응하는 인덱스 이미지를 생성하는 제어부;를 포함할 수 있다.According to an embodiment, an apparatus for detecting a user event through image analysis composed of an image frame includes: a communication unit configured to receive a current image frame from a medical imaging apparatus; and calculating a difference value between the current image frame and a previous image frame, and when the difference value exceeds a predetermined threshold, a first user event signal for capturing the current image frame is input to the medical imaging apparatus When a second user event signal for performing a capture on the current image frame and storing a captured image obtained by performing the capturing on the current image frame is inputted, corresponding to the captured image It may include; a control unit for generating an index image.
상기 장치는 상기 인덱스 이미지 및 상기 인덱스 이미지에 대응하여 목록화된 영상을 포함하는 화면을 함께 출력하는 디스플레이부;를 더 포함할 수 있다.The apparatus may further include a; a display unit for outputting together the index image and a screen including an image listed in correspondence to the index image.
상기 제어부는 상기 캡쳐 이미지를 키 영상으로 저장할 수 있다.The controller may store the captured image as a key image.
본 발명에 따르면, 영상 수신 장치에서 직접 영상 프레임에 대한 변화 정보를 분석해서 해당 결과만을 가지고도 의료 영상 장치에 사용자에 의한 이벤트가 발생하였는지 여부를 판단할 수 있게 된다. According to the present invention, it is possible to determine whether an event by a user has occurred in the medical imaging apparatus by directly analyzing change information on an image frame by the image receiving apparatus and using only the corresponding result.
도 1은 실시예에 따른 영상 처리 시스템을 설명하기 위한 개념도이다.
도 2는 실시예에 따른 영상 분석을 통한 사용자 이벤트 검출 방법을 설명하기 위한 흐름도이고 도 3은 도 2의 방법을 설명하기 위해 참조되는 흐름도이다.
도 4 내지 도 8은 도 2 및 도 3의 방법을 설명하기 위해 참조되는 도면이다.
도 9 및 도 10은 실시예에 따라 디스플레이부(124)에 출력되는 화면을 예시한다.
도 11은 실시예에 따른 신경망 모델(121a)의 구조를 나타내는 도면이다.1 is a conceptual diagram illustrating an image processing system according to an embodiment.
FIG. 2 is a flowchart illustrating a method of detecting a user event through image analysis according to an embodiment, and FIG. 3 is a flowchart referenced to describe the method of FIG. 2 .
4 to 8 are diagrams referenced to explain the method of FIGS. 2 and 3 .
9 and 10 illustrate a screen output to the
11 is a diagram illustrating a structure of a
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The detailed description of the present invention described below refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced. These embodiments are described in detail sufficient to enable a person skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different from each other, but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description to be described below is not intended to be taken in a limiting sense, and the scope of the present invention, if appropriately described, is limited only by the appended claims, along with all ranges equivalent to those claimed by the claims. Like reference numerals in the drawings refer to the same or similar functions over several aspects.
이하, 도면을 참조하여 본 발명의 구체적인 실시예에 대하여 설명한다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.
도 1은 실시예에 따른 영상 처리 시스템을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating an image processing system according to an embodiment.
도 1에 도시한 바와 같이, 의료 영상 장치(110)는 대상물을 촬영하여 획득된 영상 프레임을 영상 수신 장치(120)로 전송할 수 있다. 실시예에 따른 영상 프레임은 소화기 내시경 검사 장비 같은 의료 기기에서 획득된 영상일 수 있으나, 본 발명의 권리범위는 이에 제한되지 않고 초음파나 MRI 등의 다른 종류의 의료기기에도 동일/유사하게 적용될 수 있다.1 , the
영상 수신 장치(120)는 신경망 모델(121a)을 통한 병변 예측을 수행하여 입력 영상 프레임을 분석하기 위한 소프트웨어를 구동할 수 있는 PC, 노트북 등의 다양한 전자 기기를 포함할 수 있다. The
영상 수신 장치(120)는 통신부(122), 제어부(121), 메모리(123), 및 디스플레이부(124)를 포함할 수 있다.The
통신부(122)는 의료 영상 장치(110)로부터 영상 프레임을 수신하여 제어부(121)로 전송한다. The
제어부(121)는 영상 변화 감지 모듈(121b)을 이용하여 수신한 영상 프레임들 사이의 변화를 감지하고, 이를 기초로 의료 영상 장치(110)에 사용자 이벤트 신호가 입력되었는지 여부를 판별할 수 있다.The
제어부(121)는 신경망 모델(121a)를 이용한 병변 예측을 수행하여 입력 영상 프레임 상의 병변의 결과값(특성값 등)을 획득하고 이를 기초로 병변을 예측할 수 있다. The
메모리(123)는 제어부(121)로부터 획득한 결과값 등 제어부(121)의 처리가 수행된 다양한 종류의 데이터를 저장한다.The
제어부(121)의 제어 하에 메모리(123)에 저장된 결과값이나 이미지 등이 독출되면 디스플레이부(124)는 해당 데이터를 출력하여 사용자에게 제공할 수 있다. When a result value or an image stored in the
도 2는 실시예에 따른 영상 분석을 통한 사용자 이벤트 검출 방법을 설명하기 위한 흐름도이고 도 3은 도 2의 방법을 설명하기 위해 참조되는 흐름도이다. 다만, 본 발명의 각 단계는 해당 순서에만 구속되지 않는다.FIG. 2 is a flowchart illustrating a method of detecting a user event through image analysis according to an embodiment, and FIG. 3 is a flowchart referenced to describe the method of FIG. 2 . However, each step of the present invention is not limited only to the corresponding order.
도 2 및 도 3을 함께 참조하면, 영상 수신 장치(120)는 통신부(122)를 통해 의료 영상 장치(110)로부터 현재 영상 프레임을 수신할 수 있다(s210). 구체적으로, 영상 수신 장치(120)가 구동되어 영상에 대한 분석을 시작하고자 하면, 영상 분석 시작 시간을 측정하고 영상 프레임을 리딩할 수 있다(s310 내지 s312). 참고로, 본 발명에서 현재 영상 프레임은 현재 리딩하는 영상 프레임이고, 이전 영상 프레임은 바로 이전에 리딩한 영상 프레임으로 현재 영상 프레임과 인접한 영상 프레임일 수 있다. 이 때, 제어부(121)는 신경망 모델(121a)의 연산 속도(프레임 레이트)를 모니터링하며 의료 영상 장치(110)로부터 영상 프레임을 1 프레임씩 리딩할 수 있다. 실시예에 따라 하나의 영상 프레임을 처리하기 위한 복수의 신경망 모델(121a)에 대한 연산은 한번에 복수개의 분석이 가능하도록 병렬로 처리될 수도 있고, 직렬로 처리될 수도 있다. 2 and 3 together, the
제어부(121)는 영상 변화 감지 모듈(121b)을 이용하여 통신부(122)를 통해 수신한 영상 프레임의 변화를 감지할 수 있다. (s313)The
구체적으로, 영상 변화 감지 모듈(121b)은 현재 영상 프레임과 이전 영상 프레임의 차이값을 산출하고, 산출한 차이값이 소정의 제1 임계치를 초과하였는지 여부를 판단하여, 의료 영상 장치(110)에 현재 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력되었는지 여부를 판단할 수 있다. (s220 내지 s230). 즉, 차이값이 제 1 임계치를 초과하면, 현재 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력된 것으로 판단한 것으로, 이는 일종의 사용자의 의료 영상 장치(110)에 대한 'Freeze' 명령이 입력된 것이다. 특히, 영상 프레임들의 차이값 산출과 임계치와의 비교에 대해서는 도 6을 참조하여 뒤에서 자세하게 설명한다. In detail, the image
한편, 영상 변화 감지 모듈(121b)은 제1 사용자 이벤트 신호가 입력된 것으로 판단하면, 도 4의 (a)와 같이 현재 영상 프레임에 대한 캡쳐를 수행하고(s240), 현재 영상 프레임에 대응하는 인덱스()를 키 프레임 인덱스()로 저장할 수 있다(s314). 도 5a를 함께 참조하면, 현재 영상 프레임에 대응하는 인덱스()인 11을 키 프레임 인덱스()(A1)로 저장할 수 있다. On the other hand, if the image
그리고, 영상 변화 감지 모듈(121b)은 현재 영상 프레임에 대한 캡쳐를 수행하여 획득된 캡쳐 이미지(도 4의 (a))에 대한 저장을 수행하기 위한 제2 사용자 이벤트 신호가 입력되었는지 여부를 판단하여, 제2 사용자 이벤트 신호가 입력된 것으로 판단한 경우, 캡쳐 이미지에 대응하는 인덱스 이미지를 생성하고(도 4의 (b)), 캡쳐 이미지(도 4의 (c))를 키 영상으로 저장할 수 있다(s250 내지 s270). 참고로, 본 발명에서 인덱스 이미지는 캡쳐 이미지가 축소된 썸네일 형태로 디스플레이부(124)의 영상 화면의 모서리 부분에 표시될 수 있다.Then, the image
구체적으로, 영상 변화 감지 모듈(121b)은 상기 캡쳐 이미지가 출력된 상태에서, 영상을 저장하기 위한 제2 사용자 이벤트 신호가 입력된 경우, 즉, 사용자의 의료 영상 장치(110)에 대한 'Release' 명령이 입력된 경우, 캡쳐 이미지에 대응하는 인덱스 이미지를 출력하고, 캡쳐 이미지()를 키 영상()으로 저장할 수 있다(s316). 도 5a를 참조하면, 11번째 영상 프레임()을 키 영상()으로 저장할 수 있다. 이 때, 키 영상()은 인덱스 이미지에 대응하여 저장될 수 있다.Specifically, the image
한편, 영상 변화 감지 모듈(121b)은 인덱스 이미지가 변경되었는지 여부를 판단하여, 인덱스 이미지가 변경되었다고 판단한 경우, 변경된 인덱스 이미지를 키 인덱스 영상으로 선별하여 저장할 수 있다(s317, s318).Meanwhile, the image
그리고, 현재 영상 프레임(:11)에 이어서 다음 영상 프레임(:12)를 리딩하고(i=i+1), 다음 영상 프레임(:12)을 현재 영상 프레임으로 간주하여 전술한 과정을 반복 수행할 수 있다.And, the current video frame ( :11) followed by the next video frame ( :12) is read (i=i+1), and the next image frame ( :12) can be regarded as the current image frame and the above-described process can be repeated.
한편, 도 5a를 함께 참조하면, 다음 영상 프레임(:12)를 리딩(i=i+1)하여 다음 영상 프레임(:12)을 현재 영상 프레임으로 간주한 상태에서, 영상 변화 감지 모듈(121b)은 제1 사용자 이벤트 신호가 입력되지 않은 것으로 판단하면, 이전 영상 프레임에 대응하는 인덱스()인 11을 키 프레임 인덱스()(B1)로 저장할 수 있다. Meanwhile, referring to FIG. 5A together, the next image frame ( :12) is read (i=i+1) to the next video frame ( :12) as the current image frame and the image
참고로, 제1 사용자 이벤트 신호가 입력되지 않은 것으로 판단하는 것은, 현재 영상 프레임과 이전 영상 프레임의 차이값이 소정의 제1 임계치 미만인 것으로, 사용자에 의한 별도의 캡쳐 동작이 수행되지는 않고, 사용자에 의한 이전 캡쳐 동작 수행으로 인한 잔상이 발생하는 구간(C1)을 의미할 수 있다. 즉, 실제 제1 사용자 이벤트 신호가 입력된 바로 해당 시점에서 순간적으로 1 프레임 정도 정지가 되더라도, 일부의 미약한 움직임이 추가적으로 있을 수 있으므로, 이 구간을 의미할 수 있다. For reference, when it is determined that the first user event signal is not input, the difference between the current image frame and the previous image frame is less than a predetermined first threshold, and a separate capture operation by the user is not performed, and the user It may mean a section C1 in which an afterimage is generated due to a previous capture operation by . That is, even when the actual first user event signal is inputted, even if the frame is momentarily stopped for about one frame, since there may be additional weak motions, it may mean this section.
그리고, 다시 제1 사용자 이벤트 신호가 입력된 경우, 도 5a를 함께 참조하면, 현재 영상 프레임에 대응하는 인덱스()인 15를 키 프레임 인덱스() (A2)로 저장할 수 있다(s314).And, when the first user event signal is input again, with reference to FIG. 5A , the index corresponding to the current image frame ( ), which is 15, is the key frame index ( ) (A2) (s314).
그리고, 다음 영상 프레임(:16)를 리딩(i=i+1)하여 다음 영상 프레임(:16)을 현재 영상 프레임으로 간주한 상태에서, 영상 변화 감지 모듈(121b)은 제1 사용자 이벤트 신호가 입력되지 않은 것으로 판단하면, 이전 영상 프레임에 대응하는 인덱스()인 15를 키 프레임 인덱스()(B2)로 저장할 수 있다. Then, the next video frame ( :16) is read (i=i+1) and the next video frame ( :16) as the current image frame and the image
참고로, 제1 사용자 이벤트 신호가 입력되지 않은 것으로 판단하는 것은, 현재 영상 프레임과 이전 영상 프레임의 차이값이 소정의 제1 임계치 미만인 것으로, 사용자에 의한 별도의 캡쳐 동작이 수행되지는 않고, 사용자에 의한 이전 캡쳐 동작 수행으로 인한 잔상이 발생하는 구간(C2)을 의미할 수 있다. For reference, when it is determined that the first user event signal is not input, the difference between the current image frame and the previous image frame is less than a predetermined first threshold, and a separate capture operation by the user is not performed, and the user It may mean a section C2 in which an afterimage occurs due to performing a previous capture operation by .
한편, 도 5a에서 키 영상(:11, :15)은 각각 전체 큐(Queue) 영역의 일부 부분 영역들 중에서 각각 첫번째로 입력된 것이다. 즉, 키 영상(:11)은 전체 큐 영역의 제1 부분 영역(즉, 키 영상의 키 인덱스 11과 동일한 '11'을 가지는 영상들을 저장하기 위한 영역) 중에서 첫번째로 입력된 것이고, 키 영상(:15)은 전체 큐 영역의 제2 부분 영역(즉, 키 영상의 키 인덱스 15와 동일한 '15'를 가지는 영상들을 저장하기 위한 영역) 중에서 첫번째로 입력된 것이다. 큐의 각 부분 영역 중에서 첫번째로 입력된 것의 의미는, 본 발명에서 큐는 환형 큐를 이용할 수 있고, 이 때, 큐에 가장 먼저 입력되어 가장 오랫동안 머무른 영상을 키 영상으로 꺼낼 수 있음을 의미한다. On the other hand, in Figure 5a, the key image ( :11, :15) is input first among some partial areas of the entire queue area, respectively. That is, the key image ( :11) is the first input of the first partial area of the entire cue area (that is, an area for storing images having the same '11' as the
이로서, 영상 변화가 거의 없는 안정적인 프레임을 키 영상으로 저장할 수 있게 된다. As a result, it is possible to store a stable frame with almost no image change as a key image.
또는, 다른 실시예에 따라 도 5b를 참조하면, 키 영상은 영상 프레임을 저장하기 위한 전체 큐 영역의 일부 영역에 저장되는 영상들 중, 병변을 예측하기 위한 모델을 통한 예측 확률값이 가장 높은 영상일 수 있다. 구체적으로, 전체 큐 영역의 상기 일부 영역은 상기 키 영상에 대응하는 키 인덱스와 동일한 값을 가지는 상기 영상들을 저장하기 위한 것으로, 도 5a와 같이 전체 큐 영역의 제1 부분 영역(즉, 키 영상의 키 인덱스 11과 동일한 '11'을 가지는 영상들을 저장하기 위한 영역) 또는 전체 큐 영역의 제2 부분 영역(즉, 키 영상의 키 인덱스 15와 동일한 '15'를 가지는 영상들을 저장하기 위한 영역) 일 수 있다. 그리고, 제1 부분 영역을 예로 들면, 이 중, 신경망 모델(121a) 중 하나인 병변을 예측하기 위한 모델을 통한 예측 확률값(88)이 가장 높은 영상을 키 영상으로 저장할 수 있다. Or, referring to FIG. 5B according to another embodiment, the key image is an image having the highest prediction probability value through a model for predicting a lesion among images stored in a partial region of the entire cue region for storing image frames. can Specifically, the partial region of the entire queue region is for storing the images having the same value as the key index corresponding to the key image, and as shown in FIG. 5A , the first partial region of the entire queue region (ie, the key image) A region for storing images having the same '11' as the key index 11) or a second partial region of the entire cue region (that is, an area for storing images having the same '15' as the
즉, 각 입력 영상 프레임들()은 영상 변화 감지 모듈(121b)로 입력되면서 병변을 예측하기 위한 모델로도 입력되어 해당 모델을 통한 출력값의 정보를 함께 활용하여 키 영상을 선정할 수 있다. 이 때, 프레임 인덱스 정보, 키 프레임 인덱스 정보, 및 병변을 예측하기 위한 모델을 통한 예측 확률값 중 적어도 하나는 각 영상을 저장하기 위한 큐 영역에 1 대 1 대응하여 각각 저장 및/또는 관리될 수 있다. That is, each input image frame ( ) is input to the image
이로서, 영상 변화가 거의 없어 안정적이면서도 신경망 모델(121a)을 통한 출력값까지 반영되어 보다 병변 예측 확률이 높은 정확한 프레임을 키 영상으로 저장할 수 있게 된다. As a result, it is possible to store an accurate frame with a higher lesion prediction probability as a key image by reflecting the output value through the
도 6 및 도 7은 전술한 현재 영상 프레임과 이전 영상 프레임의 차이값을 산출하여 소정의 제1 임계치를 초과하였는지 여부를 판별하는 과정을 설명하기 위해 참조되는 도면이다. 6 and 7 are diagrams referenced to explain a process of determining whether a difference value between a current image frame and a previous image frame is calculated and a predetermined first threshold is exceeded.
구체적으로, (a) 도 6a와 같이 영상 변화 감지 모듈(121b)은 현재 영상 프레임과 이전 영상 프레임의 밝기의 차이를 채널별로 산출하고, 산출된 밝기의 차이가 소정의 제2 임계치를 초과하였는지 여부에 따라 (b) 도 6b와 같이 채널별로 구성된 각 맵( , )에 상이한 이진값을 할당하며, (c) 도 6c와 같이 이진값들의 합을 기초로 차이값(을 산출할 수 있다. Specifically, (a) as shown in FIG. 6A , the image
먼저, (a)와 (b)를 함께 살펴보면, 영상 변화 감지 모듈(121b)은 현재 영상 프레임과 이전 영상 프레임의 밝기의 차이의 절대값을 각 채널별(R,G,B)로 산출하고, 산출된 밝기의 차이의 절대값이 소정의 제2 임계치()를 초과한 경우, 각 맵( , )에 '1'을 할당하고, 그 밖의 경우에는 각 맵( , )에 '0'을 할당할 수 있다. 이러한 동작은 현재 영상 프레임과 이전 영상 프레임의 각 픽셀별 비교를 통해 수행될 수 있으며, 각 맵( , ) 역시 픽셀별로 구분되어 상기 할당된 이진값들을 저장할 수 있다. 그리고, (c)를 살펴보면, 모든 픽셀들에 할당된 각 이진값들의 총합을 각 채널에 대응하는 모든 픽셀들의 개수로 나누어 차이값(을 산출할 수 있다. 이러한 차이값(은 영상차를 나타내는 것으로, 각 픽셀별 평균 맵 변화율로도 정의될 수 있다. 또한, 차이값(이 소정의 제1 임계치()를 초과한 경우, 영상 변화 감지 모듈(121b)은 의료 영상 장치(110)의 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력되어 영상의 변화가 있는 것으로 판단할 수 있다.First, looking at (a) and (b) together, the image
실시예에 따라, 바람직하게, 제어부(121)는 제1 임계치()를 0.005 이상 0.02 이하로, 제2 임계치()를 15 이상 40 이하로 설정할 수 있다. 제1 임계치()는 영상의 변화를 판단하기 위한 임계치이고, 제2 임계치()는 맵 생성을 위한 임계치로 정의될 수 있다. According to the embodiment, preferably, the
한편, 도 7을 참조하면, 키 영상()이 정해지기 전의 인접한 영상 프레임들 사이의 영상 차이를 나타내며, (a): 제2 임계치()를 1로 설정한 경우 맵의 예를 나타내고, (b): 제2 임계치()를 15로 설정한 경우 맵의 예를 나타낸다. On the other hand, referring to Figure 7, the key image ( ) represents the image difference between adjacent image frames before being determined, (a): the second threshold ( ) shows an example of a map when set to 1, (b): the second threshold ( ) is set to 15, an example of a map is shown.
예를 들어, 인접한 영상 프레임들 사이의 영상 차이가 '7' 정도의 값으로 출력되는 경우, 제2 임계치()를 1로 설정하면 영상 차이를 식별하여 (a)와 같이 불균일한 영상이 출력되는 반면, 제2 임계치()를 15로 설정하면 (b)와 같이 영상 차이를 식별하지 않아 균일한 영상으로 출력될 수 있게 된다. For example, when the image difference between adjacent image frames is output as a value of about '7', the second threshold ( ) is set to 1, the image difference is identified and a non-uniform image is output as shown in (a), while the second threshold ( ) is set to 15, as in (b), image differences are not identified, so that a uniform image can be output.
즉, 실제 '7' 정도의 차이는 사용자 이벤트가 있을 경우 발생하는 차이가 아니면, (a)와 같은 상황은 노이즈만 야기시킬 수 있게 되므로, (b)의 상황이 보다 바람직하다. 따라서, 본 발명에서는 제2 임계치()를 15 이상 40 이하로 설정할 수 있다. That is, if the difference of about '7' is not a difference that occurs when there is a user event, the situation as in (a) can only cause noise, so the situation in (b) is more preferable. Therefore, in the present invention, the second threshold ( ) can be set to 15 or more and 40 or less.
한편, 도 8은 키 영상()이 정해진 후의 키 영상 및 키 영상과 인접한 영상 프레임 사이의 영상 차이를 나타내며, (a): 제2 임계치()를 1로 설정한 경우 맵의 예를 나타내고, (b): 제2 임계치()를 15로 설정한 경우 맵의 예를 나타낸다. On the other hand, Figure 8 is a key image ( ) represents the key image and the image difference between the key image and an adjacent image frame, (a): the second threshold ( ) shows an example of a map when set to 1, (b): the second threshold ( ) is set to 15, an example of a map is shown.
그리고, 도 8의 경우에도 도 7에서 전술한 기술적 특징이 동일/유사하게 적용될 수 있다. Also, in the case of FIG. 8, the technical features described above in FIG. 7 may be applied in the same/similar manner.
도 9 및 도 10은 실시예에 따라 디스플레이부(124)에 출력되는 화면을 예시한다. 도 9의 사용자 캡쳐 이미지는 병변 예측 부위에 해당하고, 도 10의 사용자 캡쳐 이미지는 실제 병변 발생 부위에 해당한다. 9 and 10 illustrate a screen output to the
우선, 도 9 및 도 10의 (a)를 참조하면, 디스플레이부(124)에 출력되는 화면은 1) 사용자 캡쳐 이미지, 2) 병변에 대한 신경망 모델(121a)을 통한 연산이 수행되면 출력가능한 결과값들에 대응하는 복수의 항목 이미지(분석 결과), 3) 히트맵 이미지, 4) 인덱스 이미지(저장 영상), 5) 기타 환자 정보, 환경 설정 정보, 의료 영상 장치(110)와의 연결 상태 등을 디스플레이부(124) 의 화면 상에 표시할 수 있다. 그리고 상기 각 정보들은 전체 디스플레이 화면 상에서 별도의 박스 영역안에 구분되어 표시될 수 있다. 2)와 관련하여, 제어부(121)는 각 결과값들(Lesion, Mucosa, SubMucosa, Differentiated, Undifferentiated)에 대응하는 복수의 항목을 상이한 크기, 무늬, 색상 등의 형태로 상이하게 표시할 수 있다. 3)과 관련하여, 히트맵은 영상 프레임에 포함되는 병변 영역을 파악하기 위한 지도로, 제어부(121)는 출력된 결과값을 기초로 히트맵을 생성하고, 히트맵에 임계값을 적용하여 히트맵으로부터 병변 영역을 추출(또는 분리)하여 추출된 이미지를 기초로 영상 프레임에 포함되는 병변 영역을 파악할 수 있다.First, referring to FIGS. 9 and 10 (a) , the screen output to the
그리고, 도 9 및 도 10의 (b)를 참조하면, 제어부(121)는 사용자 캡쳐 이미지에 대응하는 인덱스 이미지를 디스플레이부(124)의 화면 상에 더 표시할 수 있고, 이를 또한 저장 영상 목록 상에 추가할 수 있다. 또한, 도 9 및 도 10의 (c)를 참조하면, 인덱스 이미지에 대응한 키 영상을 메모리(123)에 저장할 수 있다. And, referring to FIGS. 9 and 10 (b), the
도 11은 실시예에 따른 신경망 모델(121a)의 구조를 나타내는 도면이다.11 is a diagram illustrating a structure of a
실시예에 따른 신경망 모델(121a)은 (a) 병변의 검출 모델, (b) 병변의 종류 판별 모델, (c) 영상 프레임 상의 상기 병변의 위치 정보 판별 모델, (d) 병변의 위치 정보에 대응하는 병변과 관련된 검사 진행 여부 판별 모델, (e) 권장 검사 시간 알림 모델, 및 (f) 병변 발생의 위험 알림 모델 중 어느 하나일 수 있다. 다만, 이는 일 실시예이고 병변 검출과 관련하여 구현된 모델이면 본 발명에 동일/유사하게 적용될 수 있으며, 상기 각 모델은 적어도 하나 이상 서로 조합되어 사용될 수 있다.The
도 11에서 NT개의 클래스(T1, T2, ... Tt, ... TNT)가 존재하고, 클래스 T1에는 2가지의 특성이 속하고, 클래스 T2에는 2가지의 특성이 속하고, 클래스 Tt에는 n가지의 특성이 속하고, 클래스 TNT에는 3가지의 특성이 속하는 것으로 가정하였다.In FIG. 11, NT classes (T 1 , T 2 , ... T t , ... T NT ) exist, class T 1 includes two characteristics, and class T 2 includes two characteristics. It is assumed that n properties belong to class T t , and three properties belong to class T NT .
도 11을 참조하면, 본 발명의 실시예에 따른 신경망 모델(121a)은, 입력 영상 (xi)에 대해 컨볼루션 연산을 수행하기 위한 컨볼루션층(10)과, 상기 컨볼루션층(10)의 출력(oconv)에 대해 풀링을 수행하기 위한 풀링층(20)과, 복합 특성이 분류되는 복수의 클래스에 각각 대응하며, 상기 풀링층(20)의 출력에 대해 클래스별 가중치(wfc(Tt))를 곱한 값을 출력하는 복수의 클래스별 완전결합층(30)을 포함한다. Referring to FIG. 11 , a
신경망 모델(121a)은, 상기 복수의 클래스별 완전결합층(30)에 각각 대응하며 각 클래스별 완전결합층(30)의 출력에 따라 클래스별 특성 확률을 연산하는 복수의 클래스별 분류기(40)를 더 포함할 수 있다. The
컨볼루션층(10)은 입력 영상에 대해 복수의 컨볼루션 필터를 이용하여 컨볼루션 연산을 수행함으로써 특징맵을 추출한다. 도 11에 도시된 바와 같이 컨볼루션 연산은 복수회 수행될 수 있다. 컨볼루션층(10)의 출력, 즉 특징맵(oconv)은 높이(H), 너비(W), 채널 수(C)를 갖는 것으로 가정하였다.The
풀링층(20)은 컨볼루션층(10)과 완전결합층(30)의 사이에 위치하며, 특징맵(oconv)의 크기를 감소시켜 후술하는 완전결합층(30)에서 필요한 연산을 감소시키고, 오버피팅을 방지하는 역할을 한다. 풀링층(20)은 특징맵(oconv)의 각 채널에 대해 평균값을 출력하는 전체 평균 풀링(Global Average Pooling)을 수행할 수 있다.The
클래스별 완전결합층(30)은 풀링층(20)의 출력에 클래스별 가중치(wfc(T1), wfc(T2), ... wfc(Tt), ... wfc(TNT))를 곱한 값을 출력한다. 이때, 클래스별 가중치(wfc(T1), wfc(T2), ... wfc(Tt), ... wfc(TNT))의 각각은 채널 수에 해당하는 복수의 값일 수 있다. The class-specific fully coupled
클래스별 분류기(40)는 클래스별 완전결합층(30)에 각각 대응하며, 클래스별 완전결합층(30)의 출력에 따라 클래스별 특성 확률을 연산한다. 도 11을 참조하면, 클래스 T1에 해당하는 분류기는 클래스 T1에 속하는 특성들 각각에 해당하는 확률(P1(T1), P2(T1))을 연산하고, 클래스 T2에 해당하는 분류기는 클래스 T2에 속하는 특성들 각각에 해당하는 확률(P1(T2), P2(T2))을 연산하고, 클래스 Tt에 해당하는 분류기는 클래스 Tt에 속하는 특성들 각각에 해당하는 확률(P1(Tt), P2(Tt), ... Pn(Tt))을 연산하고, 클래스 TNT에 해당하는 분류기는 클래스 TNT에 속하는 특성들 각각에 해당하는 확률(P1(TNT), P2(TNT), P3(TNT))을 연산한다. 클래스별 분류기(40)로서 예를 들어 Softmax 함수, Sigmoid 함수 등이 이용될 수 있다.The
이상 설명된 실시 형태는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터로 판독가능한 기록매체에 기록될 수 있다. 상기 컴퓨터로 판독가능한 기록매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The embodiments described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
컴퓨터로 판독가능한 기록매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 실행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of the computer-readable recording medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and DVD, and a magneto-optical medium such as a floppy disk. optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for carrying out the processing according to the present invention, and vice versa.
본 명세서의 양상들은 전체적으로 하드웨어, 전체적으로 소프트웨어 (펌웨어, 상주 소프트웨어, 마이크로 코드 등을 포함 함) 또는 컴퓨터 판독 가능 프로그램 코드가 구현 된 하나 이상의 컴퓨터 판독 가능 매체에 구현 된 컴퓨터 프로그램 제품의 형태를 취할 수 있다.Aspects herein may take the form of a computer program product embodied on one or more computer readable media embodied in hardware entirely, software entirely (including firmware, resident software, microcode, etc.) or computer readable program code. .
이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Features, structures, effects, etc. described in the above embodiments are included in one embodiment of the present invention, and are not necessarily limited to one embodiment. Furthermore, features, structures, effects, etc. illustrated in each embodiment can be combined or modified for other embodiments by those of ordinary skill in the art to which the embodiments belong. Therefore, contents related to such combinations and modifications should be construed as being included in the scope of the present invention.
Claims (10)
(a) 영상 수신 장치가 통신부를 통해 의료 영상 장치로부터 현재 영상 프레임을 수신하는 단계;
(b) 제어부가 상기 현재 영상 프레임과 이전 영상 프레임의 차이값을 산출하는 단계;
(c) 제어부가 상기 차이값이 0.005 이상 0.02 이하를 초과하였는지 여부에 따라 상기 의료 영상 장치에 상기 현재 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력되었는지 여부를 판단하는 단계; 및
(d) 제어부가 상기 제1 사용자 이벤트 신호가 입력된 것으로 판단한 경우, 상기 현재 영상 프레임에 대한 캡쳐를 수행하는 단계;
(e) 제어부가 상기 현재 영상 프레임에 대한 상기 캡쳐를 수행하여 획득된 캡쳐 이미지에 대한 저장을 수행하기 위한 제2 사용자 이벤트 신호가 입력되었는지 여부를 판단하는 단계; 및
(f) 제어부가 상기 제2 사용자 이벤트 신호가 입력된 것으로 판단한 경우, 상기 캡쳐 이미지에 대응하는 인덱스 이미지를 생성하는 단계;를 포함하고,
상기 (f) 단계는,
제어부가 상기 캡쳐 이미지를 키 영상으로 저장하는 단계;를 더 포함하며,
상기 키 영상은 상기 영상 프레임을 저장하기 위한 전체 큐 영역의 일부 영역에 저장되는 영상들 중, 병변을 예측하기 위한 모델을 통한 예측 확률값이 가장 높은 영상이고,
상기 전체 큐 영역의 상기 일부 영역은 상기 키 영상에 대응하는 키 인덱스와 동일한 값을 가지는 상기 영상들을 저장하기 위한 것인,
영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 방법.
In the method of detecting a user event through image analysis composed of image frames,
(a) receiving, by an image receiving apparatus, a current image frame from a medical imaging apparatus through a communication unit;
(b) calculating, by a controller, a difference value between the current image frame and a previous image frame;
(c) determining, by the controller, whether a first user event signal for capturing the current image frame is input to the medical imaging apparatus according to whether the difference value exceeds 0.005 or more and 0.02 or less; and
(d) when the controller determines that the first user event signal is input, capturing the current image frame;
(e) determining, by the controller, whether a second user event signal for storing the captured image obtained by performing the capturing of the current image frame is input; and
(f) when the control unit determines that the second user event signal is input, generating an index image corresponding to the captured image;
The step (f) is,
Further comprising; storing the captured image as a key image by the control unit;
The key image is an image having the highest prediction probability value through a model for predicting a lesion among images stored in a partial region of the entire cue region for storing the image frame,
The partial region of the entire queue region is for storing the images having the same value as the key index corresponding to the key image,
A method of detecting user events through image analysis composed of image frames.
상기 (b) 단계는,
(b1) 제어부가 상기 현재 영상 프레임과 상기 이전 영상 프레임의 밝기의 차이를 채널별로 산출하는 단계;
(b2) 제어부가 상기 산출된 밝기의 차이가 15 이상 40 이하를 초과하였는지 여부에 따라 상기 채널별로 구성된 각 맵에 상이한 이진값을 할당하는 단계; 및
(b3) 제어부가 상기 이진값들의 합을 기초로 상기 차이값을 산출하는 단계;를 포함하는,
영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 방법.
The method of claim 1,
The step (b),
(b1) calculating, by the controller, a difference in brightness between the current image frame and the previous image frame for each channel;
(b2) assigning, by a controller, different binary values to each map configured for each channel according to whether the calculated difference in brightness exceeds 15 or more and 40 or less; and
(b3) calculating, by the control unit, the difference value based on the sum of the binary values;
A method of detecting user events through image analysis composed of image frames.
상기 키 영상은 상기 영상 프레임을 저장하기 위한 전체 큐 영역의 일부 영역 중에서 첫번째로 입력된 것이고,
상기 전체 큐 영역의 상기 일부 영역은 상기 키 영상에 대응하는 키 인덱스와 동일한 값을 가지는 영상들을 저장하기 위한 것인,
영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 방법.
The method of claim 1,
The key image is first input among some regions of the entire cue region for storing the image frame,
The partial region of the entire queue region is for storing images having the same value as the key index corresponding to the key image,
A method of detecting user events through image analysis composed of image frames.
의료 영상 장치로부터 현재 영상 프레임을 수신하는 통신부; 및
상기 현재 영상 프레임과 이전 영상 프레임의 차이값을 산출하고, 상기 차이값이 0.005 이상 0.02 이하를 초과한 경우 상기 의료 영상 장치에 상기 현재 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력된 것으로 판단하여 상기 현재 영상 프레임에 대한 캡쳐를 수행하고, 상기 현재 영상 프레임에 대한 상기 캡쳐를 수행하여 획득된 캡쳐 이미지에 대한 저장을 수행하기 위한 제2 사용자 이벤트 신호가 입력되면 상기 캡쳐 이미지에 대응하는 인덱스 이미지를 생성하는 제어부;를 포함하고,
상기 제어부는 상기 캡쳐 이미지를 키 영상으로 저장하며,
상기 키 영상은 상기 영상 프레임을 저장하기 위한 전체 큐 영역의 일부 영역에 저장되는 영상들 중, 병변을 예측하기 위한 모델을 통한 예측 확률값이 가장 높은 영상이고,
상기 전체 큐 영역의 상기 일부 영역은 상기 키 영상에 대응하는 키 인덱스와 동일한 값을 가지는 상기 영상들을 저장하기 위한 것인,
영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 장치.
An apparatus for detecting user events through image analysis composed of image frames,
a communication unit configured to receive a current image frame from the medical imaging apparatus; and
A difference value between the current image frame and the previous image frame is calculated, and when the difference value exceeds 0.005 or more and 0.02 or less, a first user event signal for capturing the current image frame is input to the medical imaging apparatus When a second user event signal for performing the capture of the current image frame and storing the captured image obtained by performing the capturing on the current image frame is inputted, corresponding to the captured image Including; a control unit for generating an index image to
The control unit stores the captured image as a key image,
The key image is an image having the highest prediction probability value through a model for predicting a lesion among images stored in a partial region of the entire cue region for storing the image frame,
The partial area of the entire queue area is for storing the images having the same value as the key index corresponding to the key image,
A device for detecting user events through image analysis composed of image frames.
상기 인덱스 이미지 및 상기 인덱스 이미지에 대응하여 목록화된 영상을 포함하는 화면을 함께 출력하는 디스플레이부;를 더 포함하는,
영상 프레임으로 구성된 영상 분석을 통한 사용자 이벤트 검출 장치.
The method of claim 8,
Further comprising; a display unit for outputting together the index image and a screen including an image listed in correspondence to the index image;
User event detection device through image analysis composed of image frames.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200153243A KR102259797B1 (en) | 2020-11-17 | 2020-11-17 | User event detection method through image analysis and device performing the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200153243A KR102259797B1 (en) | 2020-11-17 | 2020-11-17 | User event detection method through image analysis and device performing the method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102259797B1 true KR102259797B1 (en) | 2021-06-02 |
Family
ID=76372574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200153243A KR102259797B1 (en) | 2020-11-17 | 2020-11-17 | User event detection method through image analysis and device performing the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102259797B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100049307A (en) * | 2008-11-03 | 2010-05-12 | 인하대학교 산학협력단 | Method for processing image of capsule endoscopy using image characteristic analysis |
KR101175065B1 (en) * | 2011-11-04 | 2012-10-12 | 주식회사 아폴로엠 | Method for bleeding scanning during operation using image processing apparatus for surgery |
KR20160012758A (en) * | 2014-07-25 | 2016-02-03 | 삼성전자주식회사 | Apparatus and Method for aiding image diagnosis |
KR20160028273A (en) * | 2014-09-03 | 2016-03-11 | 삼성전자주식회사 | Apparatus and method for interpolating lesion detection |
-
2020
- 2020-11-17 KR KR1020200153243A patent/KR102259797B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100049307A (en) * | 2008-11-03 | 2010-05-12 | 인하대학교 산학협력단 | Method for processing image of capsule endoscopy using image characteristic analysis |
KR101175065B1 (en) * | 2011-11-04 | 2012-10-12 | 주식회사 아폴로엠 | Method for bleeding scanning during operation using image processing apparatus for surgery |
KR20160012758A (en) * | 2014-07-25 | 2016-02-03 | 삼성전자주식회사 | Apparatus and Method for aiding image diagnosis |
KR20160028273A (en) * | 2014-09-03 | 2016-03-11 | 삼성전자주식회사 | Apparatus and method for interpolating lesion detection |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10860930B2 (en) | Learning method, image recognition device, and computer-readable storage medium | |
US10984252B2 (en) | Apparatus and method for analyzing people flows in image | |
CN112041912A (en) | Systems and methods for diagnosing gastrointestinal tumors | |
JP5784404B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US20100141810A1 (en) | Bad Pixel Detection and Correction | |
JP5830295B2 (en) | Image processing apparatus, operation method of image processing apparatus, and image processing program | |
US8861783B1 (en) | System and method for detection of content in an image stream of the gastrointestinal tract | |
KR102600401B1 (en) | Apparatus, method and computer program for anayzing medical image using classification and segmentation | |
WO2019064704A1 (en) | Endoscopic image observation assistance system, endoscopic image observation assistance device, and endoscopic image observation assistance method | |
JP2020010805A (en) | Specification device, program, specification method, information processing device, and specifier | |
JP2018054443A (en) | Information processing device, information processing system and program | |
WO2014103673A1 (en) | Information processing system, information processing method, and program | |
US10776666B2 (en) | Apparatus and method for diagnosis of medical image | |
Majtner et al. | A deep learning framework for autonomous detection and classification of Crohnʼs disease lesions in the small bowel and colon with capsule endoscopy | |
CN112466466A (en) | Digestive tract auxiliary detection method and device based on deep learning and computing equipment | |
CN115170464A (en) | Lung image processing method and device, electronic equipment and storage medium | |
US20170053172A1 (en) | Image processing apparatus, and image processing method | |
US20230386033A1 (en) | Image Processing Apparatus, Image Processing Method, and Program | |
US20210125334A1 (en) | System and Method for Analyzing Three-Dimensional Image Data | |
KR102259797B1 (en) | User event detection method through image analysis and device performing the method | |
JP6425868B1 (en) | ENDOSCOPIC IMAGE OBSERVATION SUPPORT SYSTEM, ENDOSCOPIC IMAGE OBSERVATION SUPPORT DEVICE, AND ENDOSCOPIC IMAGE OBSERVATION SUPPORT METHOD | |
US20130158398A1 (en) | Medical imaging diagnosis apparatus and medical imaging diagnosis method for providing diagnostic basis | |
KR20070091714A (en) | Method and apparatus of diagnosis micro-calcification | |
Obukhova et al. | Method of endoscopic images analysis for automatic bleeding detection and segmentation | |
US11742072B2 (en) | Medical image diagnosis assistance apparatus and method using plurality of medical image diagnosis algorithms for endoscopic images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |