KR102253398B1 - Method for providing user interface through artificial intelligence-based image processing and user events, and image receiving apparatus using the method - Google Patents

Method for providing user interface through artificial intelligence-based image processing and user events, and image receiving apparatus using the method Download PDF

Info

Publication number
KR102253398B1
KR102253398B1 KR1020200155180A KR20200155180A KR102253398B1 KR 102253398 B1 KR102253398 B1 KR 102253398B1 KR 1020200155180 A KR1020200155180 A KR 1020200155180A KR 20200155180 A KR20200155180 A KR 20200155180A KR 102253398 B1 KR102253398 B1 KR 102253398B1
Authority
KR
South Korea
Prior art keywords
image
result
lesion
user
receiving device
Prior art date
Application number
KR1020200155180A
Other languages
Korean (ko)
Inventor
김경남
Original Assignee
주식회사 웨이센
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 웨이센 filed Critical 주식회사 웨이센
Priority to KR1020200155180A priority Critical patent/KR102253398B1/en
Application granted granted Critical
Publication of KR102253398B1 publication Critical patent/KR102253398B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

According to an embodiment, provided is an image receiving device, which includes: a communication unit for receiving an image frame from a medical imaging device for photographing a digestive organ; a control unit for outputting result values by performing an operation using a neural network model on the image frame; and a display unit for outputting at least one of a first result in which image processing information generated from the result values is overlapped on the image frame and a second result obtained as a user event signal for the image frame.

Description

인공지능 기반의 영상 처리 및 사용자 이벤트를 통한 사용자 인터페이스 제공 방법 및 해당 방법을 이용하는 영상 수신 장치{Method for providing user interface through artificial intelligence-based image processing and user events, and image receiving apparatus using the method}TECHNICAL FIELD [Method for providing user interface through artificial intelligence-based image processing and user events, and image receiving apparatus using the method]

본 발명은 인공지능 기반의 영상 처리 및 사용자 이벤트를 통한 사용자 인터페이스 제공 방법 및 해당 방법을 이용하는 영상 수신 장치에 관한 것으로, 보다 구체적으로 사용자 이벤트가 발생한 영상과 신경망 모델을 통한 처리 결과를 함께 파악할 수 있는 UI를 제공하도록 하는, 인공지능 기반의 영상 처리 및 사용자 이벤트를 통한 사용자 인터페이스 제공 방법 및 해당 방법을 이용하는 영상 수신 장치에 관한 것이다. The present invention relates to a method for providing a user interface through artificial intelligence-based image processing and user events, and an image receiving apparatus using the method. More specifically, an image in which a user event occurs and a processing result through a neural network model can be recognized together. A method for providing a user interface through artificial intelligence-based image processing and user events to provide a UI, and an image receiving apparatus using the method.

위에 생기는 악성 종양에는 위선암(gastric adenocarcinoma), 악성림프종(gastric lymphoma), 간질성 종양(gastrointestinal stromal tumor)등 여러 종류가 있으나 이 중 위선암이 가장 흔하다. 이때, 위암은 종양의 진행 정도에 따라, 조기 위암(early gastric cancer, EGC) 과 진행성 위암(advanced gastric cancer, AGC)으로 분류할 수 있다. There are several types of malignant tumors that occur in the stomach, such as gastric adenocarcinoma, gastric lymphoma, and gastrointestinal stromal tumor. Among these, gastric adenocarcinoma is the most common. In this case, gastric cancer can be classified into early gastric cancer (EGC) and advanced gastric cancer (AGC) according to the degree of tumor progression.

보다 구체적으로, 조기 위암은 림프절로의 전이 유무에 관계없이 종양 세포가 위의 점막층 또는 점막 하층까지 침범한 경우이고, 진행성 위암은 종양 세포가 점막하층을 지나 근육층 이상을 뚫고 침범된 경우로 주변 장기로의 침습이 가능하다. More specifically, early gastric cancer is when tumor cells invade to the upper mucosa or submucosa regardless of metastasis to the lymph nodes, and advanced gastric cancer is when tumor cells pass through the submucosa and penetrate the muscle layer or not. Invasion of the furnace is possible.

위암의 진단 방법으로는, 위 내시경 검사가 가장 중요하다. 보다 구체적으로, 의료진은 내시경 스코프(scope)를 이용하여 위암 의심 개체에 대하여 촬영된 위 내시경 영상을 판독함으로써 위암을 진단하고, 이를 기초로 병변에 따른 치료를 제공할 수 있다. 한편, 내시경 영상에 기초한 진단 시스템은, 의료진 숙련도에 따른 진단의 편차가 있을 수 있다. 이러한 진단의 편차는, 오진, 치료 시점의 지연, 부적절한 치료가 수행되는 등의 의료 사고와도 연관이 있을 수 있다.As a method of diagnosing gastric cancer, gastroscopy is the most important. More specifically, the medical staff can diagnose gastric cancer by reading a gastroscopy image taken on an individual suspected of gastric cancer using an endoscope scope, and provide treatment according to a lesion based on this. Meanwhile, in the diagnosis system based on an endoscopic image, there may be deviations in diagnosis according to the skill level of a medical staff. Such deviations in diagnosis may also be related to medical accidents such as misdiagnosis, delay in treatment timing, and inappropriate treatment.

특히, 조기 위암의 경우 병소 부위가 매우 작게 존재하거나 정상 조직과의 구별이 어려울 수 있어, 의료진의 숙련도에 따른 진단의 편차가 보다 클 수 있다.In particular, in the case of early gastric cancer, the lesion site may be very small or it may be difficult to distinguish it from a normal tissue, and thus the deviation of diagnosis according to the skill level of the medical staff may be greater.

그리고, 의료 사고의 예방 및 의료 서비스의 향상 등을 위하여 진단의 정확성이 더욱 요구되고 있음에 따라, 질환 발병 여부 뿐만 아니라, 병변에 대한 위치를 제공할 수 있는 새로운 진단 방법의 개발이 지속적으로 요구되고 있는 실정이다.And, as the accuracy of diagnosis is more demanded for the prevention of medical accidents and improvement of medical services, the development of new diagnostic methods capable of providing not only the onset of disease but also the location of the lesion is continuously required. There is a situation.

특히, 사용자가 출력 영상을 확인할 때 진단의 정밀성을 보다 향상시켜 의료 사고를 예방하는 것도 중요하다.In particular, it is also important to prevent medical accidents by improving the precision of diagnosis when the user checks the output image.

본 발명은 전술한 필요성에 의해 도출된 것으로 병변의 위치를 전반적으로 확인함과 동시에 보다 정밀하게 확인할 수 있도록 하는 데에 그 목적이 있다.The present invention has been derived from the above-described necessity, and an object thereof is to allow the location of the lesion to be identified as a whole and more precisely at the same time.

또한, 사용자가 출력 영상을 확인할 때 보다 직관적으로 병변의 위치를 파악할 수 있는 UI를 제공하고자 하는 데에 그 목적이 있다. In addition, it is an object of the present invention to provide a UI that allows a user to more intuitively determine the location of a lesion when checking an output image.

특히, 사용자 이벤트가 발생한 영상과 신경망 모델을 통한 처리 결과를 함께 파악할 수 있는 UI를 제공하여 보다 정확하고 빠르게 병변을 파악할 수 있도록 하는 데에 그 목적이 있다.In particular, the purpose of this is to provide a UI that can grasp an image in which a user event has occurred and a processing result through a neural network model together so that a lesion can be identified more accurately and quickly.

실시예에 따른 영상 수신 장치는, 소화기관을 촬영하는 의료 영상 장치로부터 영상 프레임을 수신하는 통신부, 상기 영상 프레임에 대한 신경망 모델을 이용한 연산을 수행하여 결과값들을 출력하기 위한 제어부 및 상기 영상 프레임 상에 상기 결과값들로부터 생성된 이미지 가공 정보가 오버랩된 제1 결과 및 상기 영상 프레임에 대한 사용자 이벤트 신호로 획득되는 제2 결과 중 적어도 하나를 출력하는 디스플레이부를 포함할 수 있다.An image receiving apparatus according to an embodiment includes a communication unit for receiving an image frame from a medical imaging device for photographing a digestive organ, a control unit for outputting result values by performing an operation using a neural network model on the image frame, and an image frame image. And a display unit that outputs at least one of a first result in which the image processing information generated from the result values overlaps and a second result obtained as a user event signal for the image frame.

상기 제어부는, 상기 제1 결과와 상기 제2 결과를 포함한 셋트를 상기 디스플레이부의 화면 상에 행(row) 단위로 목록화하여 출력할 수 있다.The controller may list and output a set including the first result and the second result in a row unit on the screen of the display unit.

상기 제어부는, 상기 제1 결과와 상기 제2 결과를 포함한 셋트를 복수 개 생성하고, 상기 복수 개의 셋트 중 사용자에 의해 선택된 셋트를 상기 디스플레이부의 화면 상에 출력할 수 있다.The controller may generate a plurality of sets including the first result and the second result, and output a set selected by a user from among the plurality of sets on the screen of the display unit.

상기 제어부는 상기 사용자에 의해 선택된 셋트에 포함된 제1 결과 및 제2 결과 중 상기 사용자에 의해 선택된 어느 하나를 상기 디스플레이부의 화면 상에 확대하여 출력할 수 있다.The controller may enlarge and output any one selected by the user from among the first result and the second result included in the set selected by the user on the screen of the display unit.

상기 사용자 이벤트 신호는, 상기 영상 프레임에 대한 캡쳐를 수행하기 위한 것일 수 있다.The user event signal may be for capturing the image frame.

상기 제어부는 상기 사용자 이벤트 신호를 복수 개 입력받고, 상기 복수의 사용자 이벤트 신호 각각에 대응하는 제2 결과들을 상기 사용자 이벤트 신호별로 저장할 수 있다.The controller may receive a plurality of user event signals and store second results corresponding to each of the plurality of user event signals for each user event signal.

상기 제어부는 상기 제1 결과 및 상기 제2 결과 중 적어도 하나와 관련된 시간 정보를 상기 디스플레이부의 화면 상에 타임라인(time-line) 형태로 출력할 수 있다.The controller may output time information related to at least one of the first result and the second result in the form of a time-line on the screen of the display unit.

상기 신경망 모델은 복수 개이고, 상기 복수 개의 신경망 모델 각각을 이용한 상기 연산을 통해 서로 상이한 종류의 결과값들을 출력할 수 있다.There are a plurality of neural network models, and different types of result values may be output through the operation using each of the plurality of neural network models.

상기 복수 개의 신경망 모델 중 하나는 상기 소화기관의 병변의 위치를 검출하기 위한 모델이고, 상기 제어부는 상기 병변이 제거된 것으로 판단하면 상기 병변의 제거 상태를 메모리에 기록하고, 상기 병변의 위치를 검출하기 위한 모델을 통해 새로운 병변이 상기 소화기관의 상기 위치에 존재하는지 여부를 판별하지 않을 수 있다.One of the plurality of neural network models is a model for detecting the location of the lesion of the digestive tract, and the controller records the removal state of the lesion in memory when it is determined that the lesion has been removed, and detects the location of the lesion It may not be possible to determine whether a new lesion exists at the location of the digestive tract through the model to be described.

상기 제어부는 상기 소화기관의 전벽의 이미지 또는 후벽의 이미지 및 상기 소화기관이 절개된 형상의 이미지와 함께 상기 이미지 가공 정보에 대응하는 동일한 인디케이터를 두 개 생성하고, 상기 디스플레이부는 상기 전벽의 이미지 또는 상기 후벽의 이미지 상에 상기 두 개의 인디케이터 중 어느 하나를 표시하며, 상기 소화기관이 절개된 형상의 이미지 상에 상기 두 개의 인디케이터 중 다른 하나를 표시하는 것일 수 있다.The control unit generates two identical indicators corresponding to the image processing information together with an image of the front wall or the rear wall of the digestive tract and an image of a cutout shape of the digestive tract, and the display unit generates an image of the front wall or the image of the digestive tract. One of the two indicators may be displayed on the image of the rear wall, and the other one of the two indicators may be displayed on the image having the digestive tract cut out.

상기 제어부는 상기 제1 결과에 대응하는 인덱스 이미지 및 상기 제2 결과에 대응하는 인덱스 이미지 중 적어도 하나를 상기 디스플레이부의 화면 상에 출력할 수 있다.The controller may output at least one of an index image corresponding to the first result and an index image corresponding to the second result on the screen of the display unit.

실시예에 따르면, 결과값들로부터 생성된 이미지 가공 정보가 영상 프레임 상에 오버랩된 제1 결과와 영상 프레임에 대한 사용자 이벤트 신호로 획득되는 제2 결과를 함께 표시하여, 사용자가 직접 작업한 결과와 신경망 모델을 통해 분석한 결과를 서로 비교하여 판단할 수 있도록 함으로써, 보다 정확한 분석이 이루어질 수 있다는 장점이 있다. According to an embodiment, the first result of the image processing information generated from the result values overlapped on the image frame and the second result obtained as a user event signal for the image frame are displayed together, so that the result of the user's direct work and There is an advantage in that a more accurate analysis can be made by allowing the results of analysis through the neural network model to be compared and judged.

또한, 병변의 위치를 다양한 형태의 UI를 통해 확인함으로써 보다 정밀하게 확인할 수 있게 된다. 또한, 사용자가 출력 영상을 확인할 때 보다 직관적으로 병변의 위치를 파악할 수 있게 된다.In addition, it is possible to more precisely check the location of the lesion by checking the location of the lesion through various types of UI. In addition, when the user checks the output image, it is possible to more intuitively determine the location of the lesion.

더불어, 분석한 결과물에 대해 해부학적 구조에 나타내며, 동영상 파일로 제공할 수 있도록 하면서 또한 별도의 보고서를 제공하도록 하여 결과물 관리가 다양한 형태로 이루어지면서 보다 안전하게 저장할 수 있다는 이점이 있다.In addition, there is an advantage in that the analyzed result can be displayed in the anatomical structure and provided as a video file and a separate report is provided so that the result management can be carried out in various forms and more securely stored.

단순히, 병변의 위치를 나타낼 뿐 아니라, 천공과 같은 위험 요인이 있는 부위에 대한 정보까지 제공함으로써, 검사에 편의를 제공할 수 있다. In addition to simply indicating the location of the lesion, it is possible to provide convenience for the examination by providing information on a site with a risk factor such as perforation.

도 1은 실시예에 따른 영상 처리 시스템을 설명하기 위한 개념도이다.
도 2는 실시예에 따른 영상 수신 장치의 영상 처리 결과를 디스플레이부에 출력하기 위한 과정을 설명하기 위한 흐름도이다.
도 3 내지 도 10은 실시예에 따른 사용자 이벤트 신호가 반영된 영상과 신경망 모델을 통해 처리된 결과값의 UI 제공 화면을 설명하기 위해 참조되는 도면이다.
도 11은 실시예에 따라 복수의 신경망 모델을 이용해 영상 프레임 상에 결과값들로부터 생성된 이미지 가공 정보를 출력하는 과정을 설명하기 위해 참조되는 도면이다.
도 12는 본 발명의 실시예에 따른 신경망 모델의 구조를 나타내는 도면이다.
1 is a conceptual diagram illustrating an image processing system according to an exemplary embodiment.
2 is a flowchart illustrating a process of outputting an image processing result by an image receiving apparatus according to an exemplary embodiment to a display unit.
3 to 10 are diagrams referenced to describe a UI providing screen of an image in which a user event signal is reflected and a result value processed through a neural network model according to an exemplary embodiment.
11 is a diagram referred to for describing a process of outputting image processing information generated from result values on an image frame using a plurality of neural network models according to an embodiment.
12 is a diagram showing the structure of a neural network model according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The detailed description of the present invention described below refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced. These embodiments are described in detail sufficient to enable a person skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different from each other, but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description to be described below is not intended to be taken in a limiting sense, and the scope of the present invention, if appropriately described, is limited only by the appended claims, along with all ranges equivalent to those claimed by the claims. Like reference numerals in the drawings refer to the same or similar functions over several aspects.

이하, 도면을 참조하여 본 발명의 구체적인 실시예에 대하여 설명한다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.

도 1은 실시예에 따른 영상 처리 시스템을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating an image processing system according to an exemplary embodiment.

도 1에 도시한 바와 같이, 의료 영상 장치(110)는 대상물을 촬영하여 획득된 영상 프레임을 영상 수신 장치(120)로 전송할 수 있다. 실시예에 따른 영상 프레임은 소화기 내시경 검사 장비 같은 의료 기기에서 획득된 영상일 수 있으나, 본 발명의 권리범위는 이에 제한되지 않고 초음파나 MRI 등의 다른 종류의 의료기기에도 동일/유사하게 적용될 수 있다.1, the medical imaging apparatus 110 may transmit an image frame obtained by photographing an object to the image receiving apparatus 120. The image frame according to the embodiment may be an image obtained from a medical device such as a gastrointestinal endoscopy equipment, but the scope of the present invention is not limited thereto and may be applied to other types of medical devices such as ultrasound or MRI in the same or similar manner. .

영상 수신 장치(120)는 신경망 모델(121a)을 이용한 병변 예측을 수행하여 입력 영상 프레임을 분석하기 위한 소프트웨어를 구동할 수 있는 PC, 노트북, 태블릿 등의 다양한 전자 기기를 포함할 수 있다. The image receiving device 120 may include various electronic devices such as a PC, a laptop computer, and a tablet capable of running software for analyzing an input image frame by performing lesion prediction using the neural network model 121a.

영상 수신 장치(120)는 통신부(122), 제어부(121), 메모리(123), 및 디스플레이부(124)를 포함할 수 있다.The image receiving device 120 may include a communication unit 122, a control unit 121, a memory 123, and a display unit 124.

통신부(122)는 의료 영상 장치(110)로부터 영상 프레임을 수신하여 제어부(121)로 전송한다. The communication unit 122 receives an image frame from the medical imaging apparatus 110 and transmits it to the controller 121.

제어부(121)는 신경망 모델(121a)를 이용한 병변 예측을 수행하여 입력 영상 프레임 상의 병변의 결과값(특성값 등)을 획득하고 이를 기초로 병변을 예측할 수 있다. 또한, 제어부(121)는 영상 프레임에 대한 사용자 이벤트 신호를 기초로 특정 결과를 출력할 수 있다.The controller 121 may perform lesion prediction using the neural network model 121a to obtain a result value (a characteristic value, etc.) of a lesion on an input image frame, and predict a lesion based on this. Also, the controller 121 may output a specific result based on a user event signal for an image frame.

메모리(123)는 제어부(121)로부터 획득한 결과값 등 제어부(121)의 처리가 수행된 다양한 종류의 데이터를 저장한다.The memory 123 stores various types of data processed by the controller 121 such as result values obtained from the controller 121.

제어부(121)의 제어하에 메모리(123)에 저장된 결과값이나 이미지 등이 독출되면 디스플레이부(124)는 해당 데이터를 출력하여 사용자에게 제공할 수 있다.When a result value or image stored in the memory 123 is read under the control of the controller 121, the display unit 124 may output the corresponding data and provide it to the user.

한편, 이하에서는, 소화기관 중 특히 위에 대한 영상 촬영이 수행되어 해당 결과를 디스플레이 화면에 나타낼 때, 위의 전면/후면 또는 위를 절개한 해부학적 구조에 병변을 나타냄으로써, 병변의 위치를 보다 용이하게 식별하기 위한 사용자 인터페이스에 대하여 설명하고자 한다. 다만, 본 발명에서는 위 뿐 아니라, 대장, 십이지장 등 영상 촬영이 가능한 다양한 종류의 다른 소화기로부터 획득된 영상에 대해서도 동일/유사하게 적용될 수 있다.On the other hand, hereinafter, when imaging of the stomach, especially the stomach, of the digestive tract is performed and the result is displayed on the display screen, the lesion is displayed on the front/rear of the stomach or the anatomical structure of the stomach, making it easier to locate the lesion. The user interface to identify it will be described. However, in the present invention, the same/similar application may be applied not only to the stomach, but also to images obtained from various types of other digestive organs, such as the large intestine, duodenum, and the like.

도 2는 실시예에 따른 영상 수신 장치(120)의 영상 처리 결과를 디스플레이부(124)에 출력하기 위한 과정을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a process of outputting an image processing result of the image receiving apparatus 120 to the display unit 124 according to an exemplary embodiment.

도 2에 도시한 바와 같이, 제어부(121)는 통신부(122)를 통해 의료 영상 장치(110)로부터 영상 프레임을 수신할 수 있다(s210). 구체적으로, 영상 수신 장치(120)가 구동되어 영상에 대한 분석을 시작하고자 하면, 영상 분석 시작 시간을 측정하고 영상 프레임을 리딩할 수 있다. As shown in FIG. 2, the controller 121 may receive an image frame from the medical imaging apparatus 110 through the communication unit 122 (s210). Specifically, when the image receiving device 120 is driven to start analysis of an image, the image analysis start time may be measured and the image frame may be read.

이 때, 제어부(121)는 신경망 모델(121a)의 연산 속도(프레임 레이트)를 모니터링하며 의료 영상 장치(110)로부터 영상 프레임을 1 프레임씩 리딩할 수 있다. 실시예에 따라 하나의 영상 프레임을 처리하기 위한 복수의 신경망 모델(121a)에 대한 연산은 한번에 복수개의 분석이 가능하도록 병렬로 처리될 수도 있고, 직렬로 처리될 수도 있다.In this case, the controller 121 may monitor the computational speed (frame rate) of the neural network model 121a and read the image frames from the medical imaging apparatus 110 frame by frame. Depending on the embodiment, an operation on a plurality of neural network models 121a for processing one image frame may be processed in parallel or serially so as to enable a plurality of analyzes at a time.

제어부(121)는 영상 프레임에 대한 신경망 모델을 이용한 연산을 수행하여 결과값들을 출력할 수 있다(s220). 실시예에 따른 신경망 모델을 이용한 연산 수행 과정과 이에 따른 결과값들의 출력에 대해서는 도 11 및 도 12를 참조하여 후술한다. The controller 121 may output result values by performing an operation using a neural network model on an image frame (S220). A process of performing an operation using a neural network model according to an embodiment and output of result values thereof will be described later with reference to FIGS. 11 and 12.

제어부(121)는 영상 프레임 상에 상기 결과값들로부터 생성된 이미지 가공 정보가 오버랩된 제1 결과 및 상기 영상 프레임에 대한 사용자 이벤트 신호로 획득되는 제2 결과 중 적어도 하나를 출력할 수 있다(s230).The controller 121 may output at least one of a first result in which image processing information generated from the result values overlapped on an image frame and a second result obtained as a user event signal for the image frame (s230). ).

예를 들어, 도 3을 참조하면, (a) 결과값들로부터 생성된 이미지 가공 정보가 오버랩된 제1 결과와 (b) 영상 프레임에 대한 사용자 이벤트 신호로 획득되는 제2 결과가 함께 출력될 수 있다.For example, referring to FIG. 3, (a) a first result of overlapping image processing information generated from result values and (b) a second result obtained as a user event signal for an image frame may be output together. have.

(a)와 관련하여, 제어부(121)는 영상 프레임으로부터 신경망 모델(121a)을 이용한 연산을 수행하여 출력된 결과값들을 기초로 히트맵을 생성하고, 히트맵에 임계값을 적용하여 히트맵으로부터 병변 영역을 추출(또는 분리) 함으로써, 영상 프레임으로부터 병변 영역을 검출할 수 있다. 그리고, 검출된 병변 영역을 참조하여, 병변 영역의 경계 정보 및/또는 결과값들의 이미지 정보를 포함하는 이미지 가공 정보가 영상 프레임 상에 오버랩된 제1 결과를 디스플레이부(124)에 출력할 수 있다. 이에 대한 자세한 내용은 도 11에서 후술한다.Regarding (a), the controller 121 generates a heat map based on the result values output by performing an operation using the neural network model 121a from the image frame, and applying a threshold value to the heat map from the heat map. By extracting (or separating) the lesion area, it is possible to detect the lesion area from the image frame. In addition, with reference to the detected lesion area, the first result in which image processing information including image information of the boundary information and/or result values of the lesion area is overlapped on the image frame may be output to the display unit 124. . Details of this will be described later in FIG. 11.

(b)와 관련하여, 제어부(121)는 영상 프레임에 대한 캡쳐를 수행하기 위한 제1 사용자 이벤트 신호가 입력된 것으로 판단한 경우, 도 10의 (a)와 같이 상기 영상 프레임에 대한 캡쳐를 수행할 수 있다. 그리고, 상기 영상 프레임에 대한 상기 캡쳐로 생성된 캡쳐 이미지에 대한 저장을 수행하기 위한 제2 사용자 이벤트 신호가 입력된 것으로 판단한 경우, 상기 캡쳐 이미지에 대응하는 인덱스 이미지를 생성하고(도 10의 (b) 참조), 캡쳐 이미지를 제2 결과로 저장(도 10의 (c))하며 디스플레이부(124)에 출력할 수 있다. With respect to (b), when it is determined that the first user event signal for capturing the image frame is input, the controller 121 performs the capturing of the image frame as shown in FIG. 10A. I can. And, when it is determined that a second user event signal for storing the captured image generated by the capture of the video frame is input, an index image corresponding to the captured image is generated (Fig. )), the captured image is stored as a second result (FIG. 10(c)) and can be output to the display unit 124.

이로서, 영상 수신 장치(120)에서 직접 영상 프레임에 대한 변화 정보를 분석해서 해당 결과만을 가지고도 의료 영상 장치(110)에 사용자에 의한 이벤트가 발생하였는지 여부를 판단할 수 있게 된다. As a result, it is possible to determine whether an event by the user has occurred in the medical imaging device 110 by directly analyzing the change information on the image frame in the image receiving device 120 and using only the corresponding result.

이하, 도 3 내지 도 10을 참조하여 실시예에 따른 제1 결과 및 제2 결과의 출력에 대하여 기술한다. Hereinafter, the output of the first result and the second result according to the embodiment will be described with reference to FIGS. 3 to 10.

실시예에 따르면, 제어부(121)는 (a) 결과값들로부터 생성된 이미지 가공 정보가 영상 프레임 상에 오버랩된 제1 결과, (b) 영상 프레임에 대한 사용자 이벤트 신호로 획득되는 제2 결과, (c) 히트맵 이미지(c1,c2), (d) (b)의 동영상 정보, (e) 인덱스 이미지 및 기타 환자 정보, 환경 설정 정보, 의료 영상 장치(110)와의 연결 상태 등을 디스플레이부(124)의 화면 상에 표시할 수 있다. 그리고, 상기 각 정보들은 전체 디스플레이 화면 상에서 별도의 박스 영역안에 구분되어 표시될 수 있다. 그리고, 이 중 특히, (a)와 (b)는 테두리가 하이라이트 처리되어 사용자에게 제공될 수 있으며, (a)의 테두리 색상과 (b)의 테두리 색상을 다른 색으로 처리하여 이들을 서로 용이하게 식별할 수 있다. 또한, (b)의 테두리 색상을 통해 해당 영상이 권장하는 최소 검사 영상 항목에 해당하는 것을 사용자에게 알릴 수 있다. 예를 들어, 1번째 내지 3번째 행에 배치된 (b) 영상은 최소 검사 영상 항목에 해당하고 4번째 행에 배치된 (b) 영상은 최소 검사 영상 항목에 해당하지 않음을 알 수 있다. (c)와 관련하여 히트맵 이미지는 영상 프레임 상에 오버랩되어 표시될 수도 있고(c1), 영상 프레임과 별도의 단독 이미지로 표시될 수도 있다(c2).According to an embodiment, the control unit 121 includes (a) a first result of overlapping image processing information generated from result values on an image frame, (b) a second result obtained as a user event signal for the image frame, (c) Heat map image (c1,c2), (d) video information of (b), (e) index image and other patient information, environment setting information, connection status with the medical imaging device 110, etc. 124). In addition, each of the pieces of information may be divided and displayed in a separate box area on the entire display screen. And, in particular, in (a) and (b), the borders are highlighted and provided to the user, and the border colors of (a) and (b) are treated with different colors to easily identify them from each other. can do. In addition, it is possible to inform the user that the image corresponds to the recommended minimum inspection image item through the border color of (b). For example, it can be seen that (b) images arranged in the first to third rows correspond to the minimum examination image items, and (b) images arranged in the fourth row do not correspond to the minimum examination image items. Regarding (c), the heat map image may be displayed by overlapping on the image frame (c1), or may be displayed as a separate image separate from the image frame (c2).

그리고, 제어부(121)는 상기 제1 결과(a)와 상기 제2 결과(b)를 포함한 셋트를 상기 디스플레이부(124)의 화면 상에 행(row) 단위로 목록화하여 출력할 수 있다.In addition, the controller 121 may list and output a set including the first result (a) and the second result (b) on the screen of the display unit 124 in row units.

도 3의 경우, 제1 병변에 대응하는 제1 셋트가 제1 행에 배치되고, 제2 병변에 대응하는 제2 셋트가 제2 행에 배치된 것을 알 수 있다. In the case of FIG. 3, it can be seen that the first set corresponding to the first lesion is arranged in the first row, and the second set corresponding to the second lesion is arranged in the second row.

한편, (e)와 관련하여, 인덱스 이미지는 각 병변별로 생성될 수 있다. 또한, 각 병변별로 생성된 각 인덱스 이미지는 테두리를 서로 상이한 색상으로 구분하여 해당 인덱스 이미지가 권장하는 최소 검사 영상 항목인지 여부 및/또는 병변 영역에 해당하는지 여부를 식별할 수 있도록 한다. 예를 들어, (e1), (e2)의 경우, 해당 인덱스 이미지는 복수의 테두리를 서로 상이한 색상으로 나타냄으로써 해당 인덱스 이미지가 권장하는 최소 검사 영상 항목이면서 동시에 병변 영역에 해당함을 식별할 수 있게 된다. 또한, (e3)의 경우, 해당 인덱스 이미지는 하나의 테두리만 나타냄으로써 해당 인덱스 이미지가 권장하는 최소 검사 영상 항목에 해당함을 식별할 수 있게 된다.Meanwhile, with respect to (e), an index image may be generated for each lesion. In addition, each index image generated for each lesion distinguishes borders with different colors so that it is possible to identify whether the corresponding index image is a recommended minimum examination image item and/or whether it corresponds to a lesion area. For example, in the case of (e1) and (e2), the index image represents a plurality of borders in different colors, so that it is possible to identify that the index image is the recommended minimum examination image item and corresponds to the lesion area at the same time. . In addition, in the case of (e3), since the index image represents only one border, it is possible to identify that the index image corresponds to the recommended minimum inspection image item.

다른 실시예에 따르면, 해당 인덱스 이미지가 (a) 및/또는 (b)에 해당하는 것인지 여부에 따라 이에 대응하여 해당 인덱스 이미지의 테두리를 (a)의 테두리 및/또는 (b)의 테두리와 동일한 색상으로 하이라이트 처리하여 서로 식별되도록 할 수 있다. 실시예에 따라, 해당 병변이 (a)에도 해당하고 (b)에도 해당하는 경우 각 테두리를 인덱스 이미지에 함께 표시할 수 있다. 참고로, (b)는 권장하는 최소 검사 영상 항목으로도 식별될 수 있다. According to another embodiment, depending on whether the corresponding index image corresponds to (a) and/or (b), the border of the index image is the same as the border of (a) and/or (b). You can highlight them with color so they can be distinguished from each other. According to an embodiment, when the lesion corresponds to (a) and (b) as well, each border may be displayed together in the index image. For reference, (b) can also be identified as a recommended minimum inspection image item.

한편, 제어부(121)는 상기 소화기관의 전벽의 이미지 또는 후벽의 이미지(f1) 및 상기 소화기관이 절개된 형상의 이미지(f2)와 함께 상기 이미지 가공 정보에 대응하는 동일한 인디케이터를 두 개 생성하고, 상기 디스플레이부(124)는 상기 전벽의 이미지 또는 상기 후벽의 이미지 상에 상기 두 개의 인디케이터 중 어느 하나를 표시하며, 상기 소화기관이 절개된 형상의 이미지 상에 상기 두 개의 인디케이터 중 다른 하나를 표시할 수 있다. On the other hand, the control unit 121 generates two identical indicators corresponding to the image processing information together with an image of the front wall of the digestive tract or an image f1 of the rear wall of the digestive tract and an image f2 in which the digestive tract is cut. , The display unit 124 displays one of the two indicators on the image of the front wall or the image of the rear wall, and displays the other of the two indicators on the image of the digestive tract cut out. can do.

도 3에 따르면, 소화기관이 절개된 형상의 이미지만으로 해당 인디케이터의 병변이 전벽이나 후벽 중 어느 곳에서 발생한 것인지 정확하게 파악이 어려운 경우, 전벽의 이미지나 후벽의 이미지까지 함께 참조할 수 있도록 함으로써, 정확한 위치를 파악할 수 있게 된다. 또한, 각 인디케이터의 색상, 크기, 무늬 등의 형태를 상이하게 구현할 수도 있다.According to FIG. 3, when it is difficult to accurately determine whether the lesion of the indicator occurred in either the anterior wall or the posterior wall only with the image of the incision in the digestive tract, it is possible to refer to the anterior wall image or the posterior wall image together. You will be able to determine the location. In addition, it is possible to implement different shapes, such as color, size, and pattern, of each indicator.

도 3의 경우, 소화기관의 각 병변의 위치를 두 가지 종류의 상이한 이미지 형태로 확인하여, 보다 상세하고 정밀하게 확인할 수 있을 뿐 아니라, 보다 직관적으로 확인할 수 있게 된다.In the case of FIG. 3, by checking the location of each lesion of the digestive tract in the form of two different types of images, not only can it be confirmed in more detail and precisely, but also can be confirmed more intuitively.

실시예에 따르면, 제어부(121)는 상기 제1 결과와 상기 제2 결과를 포함한 셋트를 복수 개 생성하고, 상기 복수 개의 셋트 중 사용자에 의해 선택된 셋트만을 상기 디스플레이부(124)의 화면 상에 출력할 수 있다. 또한, 제어부(121)는 상기 사용자에 의해 선택된 셋트에 포함된 제1 결과 및 제2 결과 중 상기 사용자에 의해 선택된 어느 하나를 상기 디스플레이부(124)의 화면 상에 확대하여 출력할 수 있다. According to an embodiment, the control unit 121 generates a plurality of sets including the first result and the second result, and outputs only the set selected by the user among the plurality of sets on the screen of the display unit 124 can do. In addition, the controller 121 may enlarge and output any one selected by the user among the first result and the second result included in the set selected by the user on the screen of the display unit 124.

도 4a에 도시한 바와 같이, 제어부(121)는 제1 병변에 대한 셋트만을 디스플레이부(124)의 화면 상에 출력하고, 이 중 사용자에 의해 선택된 제1 결과를 확대하여 출력할 수 있다. 실시예에 따라 사용자에 의해 선택된 제1 결과 또는 제2 결과는 사용자 선택에 의해 동영상 재생이 가능하도록 구현될 수도 있다. As shown in FIG. 4A, the control unit 121 may output only a set for the first lesion on the screen of the display unit 124 and enlarge and output the first result selected by the user. According to an embodiment, the first result or the second result selected by the user may be implemented so that the video can be reproduced by the user selection.

다른 실시예에 따르면, 도 4b에 도시한 바와 같이, 사용자에 의해 선택된 제1 결과를 제외한 나머지 다른 항목들에 대해서는 블러 처리를 하거나 이미지가 축소되도록 하여 사용자에 의해 선택된 제1 결과만을 보다 선명하게 사용자에게 제공할 수 있다.According to another embodiment, as shown in FIG. 4B, the first result selected by the user is more clearly displayed by blurring or reducing the image for other items other than the first result selected by the user. Can be provided to.

한편, 도 4a 및 도 4b에 있어서, 이와 함께, 사용자에 의해 선택된 제1 병변에 대응하는 인덱스 이미지의 테두리 영역에 별도의 표식을 부가하여(예> 점선 박스) 해당 제1 병변이 선택된 것임을 사용자에게 알릴 수 있다. Meanwhile, in FIGS. 4A and 4B, a separate mark is added to the border area of the index image corresponding to the first lesion selected by the user (eg, a dotted box) to inform the user that the corresponding first lesion is selected. I can tell.

또한, 도 4a 및 도 4b에 있어서, 도 3과 같이 동일한 인디케이터를 소화기관의 전벽의 이미지 또는 후벽의 이미지 및 상기 소화기관이 절개된 형상의 이미지에 각각 표시함과 동시에, 병변 영상의 권장 촬영 위치에 해당하는 부분도 함께 인디케이터로 표시하여 사용자에게 제공할 수 있다. In addition, in FIGS. 4A and 4B, the same indicator as shown in FIG. 3 is displayed on the image of the anterior wall or the posterior wall of the digestive tract and the image of the digestive tract incision, respectively, and the recommended photographing position of the lesion image. The part corresponding to is also displayed as an indicator and can be provided to the user.

한편, 도 5에 도시한 바와 같이, 복수의 병변 중 사용자에 의해 선택된 병변에 해당하는 적어도 일부의 셋트를 병원 서버(미도시)로 업로드하거나 선택되지 않은 불필요한 영상은 삭제할 수도 있다. Meanwhile, as shown in FIG. 5, at least a part of a set corresponding to a lesion selected by a user among a plurality of lesions may be uploaded to a hospital server (not shown), or unnecessary images that are not selected may be deleted.

또한, 도 5에 있어서, 소화기관의 전벽의 이미지 또는 후벽의 이미지 및 상기 소화기관이 절개된 형상의 이미지 각각에 사용자에 의해 선택된 병변들에 대응하는 인디케이터들을 표시할 수 있다.In addition, in FIG. 5, indicators corresponding to lesions selected by a user may be displayed on an image of an anterior wall or a posterior wall of the digestive tract, and an image of a shape in which the digestive tract is cut.

도 6에 도시한 바와 같이, 도 3의 (d) 영상 프레임에 대한 사용자 이벤트 신호로 획득되는 제2 결과와 관련된 동영상 정보를 선택한 후 다양한 저장 매체를 통해(예> DVD) DICOM 표준에 맞도록 저장하여 환자에게 제공할 수 있다. 다만, 이는 일 실시예에 불과하며, 도 3의 (a) 내지 (c)중 적어도 하나, 또는 권장하는 최소 검사 영상 또는 검사 전체 동영상 등에 대해서도 저장 매체를 통해 환자에게 제공할 수 있다. As shown in Fig. 6, after selecting the moving picture information related to the second result obtained as the user event signal for the image frame of Fig. 3 (d) and storing it in accordance with the DICOM standard through various storage media (e.g., DVD) So it can be provided to the patient. However, this is only an exemplary embodiment, and at least one of FIGS. 3A to 3C, or a recommended minimum examination image or an entire examination video may be provided to a patient through a storage medium.

(a)는 병변이 발견된 영상의 경우, 해당 병변의 제1 결과 및 제2 결과와 함께, 병변의 발견 위치와 권장하는 최소 촬영 위치에 해당하는 부분을 소화기관의 전벽의 이미지 또는 후벽의 이미지 및 상기 소화기관이 절개된 형상의 이미지 각각에 인디케이터들로 표시한 것을 나타낸다. (a) is an image of the anterior wall or posterior wall of the digestive tract in the case of the image in which the lesion was found, along with the first and second results of the lesion, and the portion corresponding to the location of the lesion discovery and the recommended minimum imaging location. And it shows that the digestive tract is displayed with indicators on each of the cut-out image.

(b)는 병변이 발견되지 않은 영상의 경우, 해당 영상에 대한 제1 결과 및 제2 결과와 함께, 권장하는 최소 촬영 위치에 해당하는 부분을 소화기관의 전벽의 이미지 또는 후벽의 이미지 및/또는 상기 소화기관이 절개된 형상의 이미지에 인디케이터들로 표시한 것을 나타낸다. (b) is an image of the anterior wall or posterior wall of the digestive tract, along with the first and second results for the image, and the portion corresponding to the recommended minimum photographing position in the case of an image in which no lesion is found. It shows that the digestive tract is marked with indicators on the cut-out image.

도 7에 도시한 바와 같이, 검사 결과를 암호화된 디지털 문서로 저장 및 관리할 수 있으며, 해당 정보가 별도의 보고서 형태로 메모리(123)에 저장될 수 있다. As shown in FIG. 7, the test result may be stored and managed as an encrypted digital document, and the corresponding information may be stored in the memory 123 in the form of a separate report.

예를 들어, 해당 보고서는 환자 정보, 병변의 개수 및 위치 정보, 권장하는 최소 검사 부위 정보, 및 신경망 모델과 관련된 분석 소프트웨어 정보 중 적어도 하나를 포함할 수 있다. For example, the report may include at least one of patient information, information on the number and location of lesions, information on a recommended minimum examination site, and information on analysis software related to a neural network model.

특히, 도 3 내지 도 5에서 전술한 해당 병변의 제1 결과 및 제2 결과와 함께, 병변의 발견 위치와 권장하는 최소 촬영 위치에 해당하는 부분을 소화기관의 전벽의 이미지 또는 후벽의 이미지 및 상기 소화기관이 절개된 형상의 이미지 각각에 인디케이터들로 표시한 것도 함께 보고서에 제공할 수 있다.Particularly, in addition to the first and second results of the lesion described above in FIGS. 3 to 5, an image of the anterior wall of the digestive tract or an image of the posterior wall of the digestive tract and the above A report may also be provided with indicators on each image of the digestive tract incision.

도 3 내지 도 5에서 전술한 실시예에 따르면, 1) 실시간 제공된 내시경 영상 뿐 아니라 2) 기 저장된 내시경 영상에 대해서도 동일/유사하게 처리 및/또는 관리될 수 있다. According to the embodiments described above with reference to FIGS. 3 to 5, 1) not only an endoscope image provided in real time, but also 2) a pre-stored endoscope image may be processed and/or managed similarly.

예를 들어, 1) 실시간 내시경 영상을 제공하면서 제1 결과 및 제2 결과 중 적어도 하나를 획득할 수 있고, 사용자의 이벤트 정보와 함께 저장되어 추후 분석 과정에서 진단 보조에 도움이 되도록 할 수 있다. 그리고, 검사 결과로는, 사용자가 진행한 이벤트를 기반으로 (1) 검사정보, (2) 촬영 영상, (3) 검사장비의 촬영 시각, (4) 신경망 모델(121a)을 통한 예측 결과 (a.예측 확률, b.병변의 외곽선(stroke), c.활성화 맵(heat map), d.해부학적 구조에서의 위치, e.권장 영상 여부 등)와 같은 데이터를 획득하여 해당 데이터를 시간 정보를 연결하여 별도로 관리할 수 있는 파일로 저장할 수 있다. For example, 1) at least one of a first result and a second result may be obtained while providing a real-time endoscope image, and it may be stored together with the user's event information to aid in diagnosis in a later analysis process. And, as the test result, based on the event that the user proceeded, (1) the test information, (2) the captured image, (3) the time taken by the test equipment, and (4) the prediction result through the neural network model 121a (a Predicted probability, b. lesion stroke, c. activation map, d. position in anatomical structure, e. recommended image, etc.) It can be connected and saved as a file that can be managed separately.

다른 실시예에 따르면, 2) 기 저장된 내시경 영상을 독출하여 제1 결과 및 제2 결과 중 적어도 하나를 획득할 수 있고, 이 때에도, 사용자의 이벤트 정보와 함께 저장되어 추후 분석 과정에서 진단 보조에 도움이 되도록 할 수 있다. 그리고, 검사 결과로는 전술한 (1) 내지 (4)가 동일/유사하게 적용될 수 있다. According to another embodiment, 2) at least one of the first result and the second result may be obtained by reading a previously stored endoscope image, and even at this time, it is stored together with the user's event information to aid in diagnosis in a later analysis process. You can do this. And, as a result of the inspection, the above-described (1) to (4) may be applied in the same/similar manner.

상기 1) 및 2)에 있어서, 로컬 PC 뿐 아니라 클라우드 환경에서도 분석이 가능하고, 실시간 처리 보다 빠르게 (예를 들어, GPU를 사용하여 초당 30 frame 이상의 처리 속도) 처리할 수 있다. 또한, 분석이 일정 분량 진행되면, 결과를 확인하면서 분석을 동시에 진행하도록 할 수 있다. In the above 1) and 2), analysis can be performed not only in a local PC but also in a cloud environment, and processing can be performed faster than real-time processing (for example, a processing speed of 30 frames or more per second using a GPU). In addition, when a certain amount of analysis is performed, the analysis can be performed simultaneously while checking the results.

실시예에 따르면, 제어부(121)는 상기 사용자 이벤트 신호를 복수 개 입력 받고, 상기 복수의 사용자 이벤트 신호 각각에 대응하는 제2 결과들을 상기 사용자 이벤트 신호별로 저장할 수 있다.According to an embodiment, the controller 121 may receive a plurality of user event signals and store second results corresponding to each of the plurality of user event signals for each user event signal.

도 3 내지 도 7의 실시예에 따르면, 병변의 위치를 다양한 형태의 UI를 통해 확인함으로써 보다 정밀하게 확인할 수 있게 된다. 또한, 사용자가 출력 영상을 확인할 때 보다 직관적으로 병변의 위치를 파악할 수 있게 된다.According to the embodiments of FIGS. 3 to 7, it is possible to more accurately confirm the location of the lesion by checking the location of the lesion through various types of UI. In addition, when the user checks the output image, it is possible to more intuitively determine the location of the lesion.

특히, (a) 결과값들로부터 생성된 이미지 가공 정보가 영상 프레임 상에 오버랩된 제1 결과와 (b) 영상 프레임에 대한 사용자 이벤트 신호로 획득되는 제2 결과를 함께 표시하여, 사용자가 직접 작업한 결과와 신경망 모델을 통해 분석한 결과를 서로 비교하여 판단할 수 있도록 함으로써, 보다 정확한 분석이 이루어질 수 있다는 장점이 있다. In particular, (a) the first result in which the image processing information generated from the result values overlapped on the image frame and (b) the second result obtained as a user event signal for the image frame are displayed together, so that the user works directly. There is an advantage that a more accurate analysis can be made by allowing one result and the result analyzed through the neural network model to be compared and judged.

더불어, 분석한 결과물에 대해 (a)(b) 결과를 해부학적 구조에 나타내며, 동영상 파일로 제공할 수 있도록 하면서 또한 별도의 보고서를 제공하도록 하여 결과물 관리가 다양한 형태로 이루어지면서 보다 안전하게 저장할 수 있다는 이점이 있다.In addition, (a) (b) results of the analyzed results are displayed in the anatomical structure, and by providing a separate report while providing a video file, the result management can be carried out in various forms and can be stored more safely. There is an advantage.

단순히, 병변의 위치를 나타낼 뿐 아니라, 천공과 같은 위험 요인이 있는 부위에 대한 정보까지 제공함으로써, 검사에 편의를 제공할 수 있다. In addition to simply indicating the location of the lesion, it is possible to provide convenience for the examination by providing information on a site with a risk factor such as perforation.

실시예에 따르면, 제어부(121)는 상기 제1 결과 및 상기 제2 결과 중 적어도 하나와 관련된 시간 정보를 상기 디스플레이부(124)의 화면 상에 타임라인(time-line) 형태로 출력할 수 있다. According to an embodiment, the control unit 121 may output time information related to at least one of the first result and the second result in the form of a time-line on the screen of the display unit 124. .

도 8은 디스플레이부(124)의 화면 상에 출력되는 타임라인을 예시하기 위해 참조되는 도면으로, 도 3 내지 도 5에서 전술한 예가 동일/유사하게 적용될 수 있다.FIG. 8 is a diagram referenced to illustrate a timeline output on the screen of the display unit 124, and the examples described above in FIGS. 3 to 5 may be applied in the same/similar manner.

(a)는 영상 프레임 상에 결과값들로부터 생성된 이미지 가공 정보가 오버랩된 제1 결과를 나타내고, (b)는 영상 프레임에 대한 사용자 이벤트 신호로 획득되는 제2 결과를 나타낸다. (a) shows a first result of overlapping image processing information generated from result values on an image frame, and (b) shows a second result obtained as a user event signal for the image frame.

소화기관의 전벽의 이미지 또는 후벽의 이미지 및 상기 소화기관이 절개된 형상의 이미지 상에 표기된 인디케이터들 각각을 선택하면, 선택한 인디케이터에 대응하는 영상((a) 및 (b) 중 적어도 하나를 포함)을 출력할 수 있다. An image corresponding to the selected indicator (including at least one of (a) and (b)) when each of the indicators displayed on the image of the front wall or the back wall of the digestive tract and the image of the digestive tract is selected Can be printed.

또는, 해당 병변에 대응하는 인덱스 이미지를 선택하면 해당 병변에 대응하는 영상((a) 및 (b) 중 적어도 하나를 포함)을 출력할 수 있다.Alternatively, when an index image corresponding to the lesion is selected, an image (including at least one of (a) and (b)) corresponding to the lesion may be output.

(B1)은 선택한 인디케이터 및/또는 인덱스 이미지에 대응하는 영상을 포함하는 박스 영역으로, 해당 박스 영역은 동영상 재생 제어를 위한 버튼들(앞으로 감기, 뒤로 감기, 정지, 2배속 재생 등등)을 포함하여, 사용자의 해당 버튼에 대한 제어를 통해 박스 영역에 포함된 영상들의 재생 제어가 가능하다. 또한, (a)나 (b)에 대한 직접적인 선택을 통해 해당 영상에 대한 제어도 가능하다.(B 1 ) is a box area containing an image corresponding to the selected indicator and/or index image, and the box area includes buttons (forward-forward, rewind, stop, double-speed playback, etc.) for controlling video playback. Thus, it is possible to control the reproduction of images included in the box area through the user's control of the corresponding button. In addition, it is possible to control the image through direct selection of (a) or (b).

한편, 도 8을 참조하면, 박스 영역(B1)은 내시경 검사 장비가 검사하는 검사 시작 시각(s), 현재 시각(t1), 검사 시작(s)부터 경과한 시간(t2) 등의 시간 정보를 포함할 수 있다. 실시예에 따라, 해당 시각과 시간 정보들은 OCR(optical character recognition)과 같은 기술을 적용하여 확인할 수 있다.Meanwhile, referring to FIG. 8, the box area B 1 is time information such as a test start time (s), a current time (t1), and a time elapsed from the test start (s) (t2) that the endoscopy equipment inspects. It may include. Depending on the embodiment, the corresponding time and time information may be confirmed by applying a technique such as optical character recognition (OCR).

(B2)는 타임라인(T1, T2)을 포함하는 별도의 박스 영역으로, 타임라인(T1, T2)에 있는 슬라이드 라인(S)을 이동해가면서 (a) 및/또는 (b)의 출력 결과를 확인할 수 있다.(B2) is a separate box area including the timelines (T1, T2), and the output result of (a) and/or (b) is displayed while moving the slide line (S) in the timeline (T1, T2). I can confirm.

한편, 도 8을 참조하면, (T1)은 신경망 모델을 이용한 연산 및 사용자 이벤트 신호로 인한 영상 획득이 함께 수행된 경우의 타임라인을 나타내고 (T2)는 사용자 이벤트 신호 없이 신경망 모델을 이용한 연산만이 수행된 경우의 타임라인을 나타낸다. 그리고, 슬라이드 라인(S)은 현재 분석 화면의 위치를 가리킨다.On the other hand, referring to FIG. 8, (T1) represents a timeline when an operation using a neural network model and image acquisition due to a user event signal are performed together, and (T 2 ) is only an operation using a neural network model without a user event signal. Shows the timeline when this is performed. And, the slide line S indicates the position of the current analysis screen.

(T1)에 있어서, 타임라인의 하부에는 제1 병변에 대한 신경망 모델을 이용한 연산으로 획득되는 제1 결과가 해당 시점에 출력되는 것을 가리키는 막대바가 표시되고, 타임라인의 상부에는 제1 병변에 대한 사용자 이벤트 신호로 획득되는 제2 결과가 해당 시점에 출력되는 것을 가리키는 막대바가 표시될 수 있다. 전술한 바와 같이, 제1 결과는 권장하는 최소 검사 위치로도 식별될 수 있다.In (T 1 ), a bar bar indicating that the first result obtained by the operation using the neural network model for the first lesion is output at the time is displayed at the lower part of the timeline, and the first lesion is displayed at the upper part of the timeline. A bar bar indicating that a second result obtained as a user event signal is output at a corresponding time may be displayed. As described above, the first result can also be identified as a recommended minimum inspection position.

(T2)에 있어서, 타임라인의 하부에는 제1 병변에 대한 신경망 모델을 이용한 연산으로 획득되는 제1 결과가 해당 시점에 출력되는 것을 가리키는 막대바가 표시되고, 타임라인의 상부에는 상기 신경망 모델을 이용한 연산으로 획득되는 권장하는 최소 검사 위치가 표시될 수 있다.In (T 2 ), a bar bar indicating that the first result obtained by the operation using the neural network model for the first lesion is output at a corresponding time is displayed at the lower part of the timeline, and the neural network model is displayed at the upper part of the timeline. A recommended minimum inspection position obtained by the used calculation can be displayed.

(T1) 및 (T2)에 있어서, 막대바는 경과한 시간 구간에 따라 상이한 크기로 표시될 수 있다.In (T 1 ) and (T 2 ), the bar bars may be displayed in different sizes depending on the elapsed time interval.

한편, 도 8에서는 제1 병변에 해당하는 인덱스 이미지 및/또는 인디케이터를 선택하여 이에 대응하는 영상을 박스 영역에 출력하는 것을 예시하였으며, 해당 병변의 위치와 타임라인 상의 검사 시간 정보를 연동하여 함께 표시할 수 있다. Meanwhile, FIG. 8 illustrates that an index image and/or an indicator corresponding to the first lesion is selected and the corresponding image is output to the box area, and the location of the lesion and the examination time information on the timeline are interlocked and displayed together. can do.

실시예에 따르면, 신경망 모델(121a)은 복수 개이고, 복수 개의 신경망 모델 각각을 이용한 연산을 통해 서로 상이한 종류의 결과값들을 출력할 수 있다. 실시예에 따른 복수 개의 신경망 모델은 (a) 병변의 검출 모델, (b) 상기 병변의 종류 판별 모델, (c) 상기 영상 프레임 상의 상기 병변의 위치 정보 판별 모델, (d) 상기 병변의 위치 정보에 대응하는 상기 병변과 관련된 검사 진행 여부 판별 모델, (e) 권장 검사 시간 알림 모델, 및 (f) 상기 병변 발생의 위험 알림 모델 중 어느 하나일 수 있다. 다만, 이는 일 실시예이고 병변 검출과 관련하여 구현된 모델이면 본 발명에 동일/유사하게 적용될 수 있다.According to an embodiment, there are a plurality of neural network models 121a, and different types of result values may be output through an operation using each of the plurality of neural network models. A plurality of neural network models according to an embodiment include (a) a lesion detection model, (b) a lesion type determination model, (c) a location information determination model of the lesion on the image frame, and (d) location information of the lesion. It may be any one of a model for determining whether to proceed with a test related to the lesion, (e) a recommended test time notification model, and (f) a risk notification model of the lesion occurrence. However, this is an example and can be applied in the same/similar manner to the present invention if it is a model implemented in relation to lesion detection.

한편, (c) 영상 프레임 상의 병변의 위치 정보 판별 모델의 경우, 제어부(121)가 병변의 위치를 판단하기 위한 연산을 수행하여 해당 모델을 구동하는 과정에서, 만일 해당 병변이 제거된 것으로 판단하면, 상기 병변의 제거 상태를 메모리(123)에 기록하고, 새로운 병변에 대한 상기 모델을 통한 연산을 수행할 때는, 메모리(123)에 기록된 병변의 제거 상태 정보(위치 정보 포함)를 독출하여 새로운 병변이 상기 소화기관의 위치에 존재하는지 여부를 판별하지 않도록 제어할 수 있다.On the other hand, (c) in the case of a model for determining location information of a lesion on an image frame, if the control unit 121 determines that the lesion has been removed in the process of driving the model by performing an operation to determine the location of the lesion , When the removal state of the lesion is recorded in the memory 123, and when the operation is performed through the model for a new lesion, the lesion removal state information (including location information) recorded in the memory 123 is read and a new It can be controlled not to determine whether the lesion is present at the location of the digestive tract.

예를 들어, 위저부에 위치한 제1 병변이 삭제된 경우, 제2 병변에 대하여 해당 모델을 구동시 위저부에 있는지를 판별하지 않고 위체부에 있는지 또는 위전정부에 있는지 여부 등만을 판별하도록 해당 모델을 구현할 수 있다. For example, when the first lesion located in the stomach and bottom is deleted, the model does not determine whether it is in the stomach and in the stomach when driving the model for the second lesion, but only determines whether it is in the stomach or in the anterior portion of the stomach. Can be implemented.

이렇게 함으로써, 불필요한 연산을 줄여서 보다 빠르고 효율적인 연산이 가능해진다. By doing this, unnecessary calculations are reduced and faster and more efficient calculations are possible.

도 9는 실시예에 따라 병변이 제거된 소화기관의 영역을 표시한 디스플레이부(124)의 화면을 예시한다. 9 illustrates a screen of the display unit 124 displaying a region of a digestive tract from which a lesion has been removed according to an embodiment.

수술 등으로 병변이 제거된 경우, 병변이 제거된 소화기관의 부분은 나머지 정상 부분과 다르게 표시하여 서로 식별되도록 할 수 있다. 정상 부분과 제거 부분은 서로 상이한 색상 또는 무늬 등의 상이한 형태로 표시할 수 있다. 이 경우, 사용자는 제거된 소화기관의 부분을 용이하게 식별할 수 있게 된다. When the lesion is removed by surgery or the like, the portion of the digestive tract from which the lesion is removed may be marked differently from the rest of the normal portion to be identified from each other. The top portion and the removed portion may be displayed in different shapes such as different colors or patterns. In this case, the user can easily identify the portion of the digestive tract that has been removed.

도 11은 실시예에 따라 복수의 신경망 모델을 이용해 영상 프레임 상에 결과값들로부터 생성된 이미지 가공 정보를 출력하는 과정을 설명하기 위해 참조되는 도면이다. 11 is a diagram referred to for describing a process of outputting image processing information generated from result values on an image frame using a plurality of neural network models according to an embodiment.

도 11을 참조하면, 영상 프레임을 병변 검출 모델 또는 병변 판별 모델과 같은 신경망 모델(121a)의 입력 노드에 입력시키면, 신경망 모델(121a)에서 추론을 수행하여 출력 노드로부터 결과값(L,N,M,SM,D,UD)을 출력할 수 있다. 이외에도, 영상 프레임 상의 병변의 위치 정보 판별 모델, 병변의 위치 정보에 대응하는 병변과 관련된 검사 진행 여부 판별 모델, 권장 검사 시간 알림 모델, 및 상기 병변 발생의 위험 알림 모델 등 병변 검출과 관련하여 구현된 모델이면 본 발명에 동일/유사하게 적용될 수 있다. 참고로, 실시예에 따르면 복수의 신경망 모델(121a)이 동작하는 경우, 각 신경망 모델(121a)은 병렬로 동시에 처리될 수 있다. Referring to FIG. 11, when an image frame is input to an input node of a neural network model 121a such as a lesion detection model or a lesion determination model, inference is performed in the neural network model 121a and result values (L,N, M, SM, D, UD) can be output. In addition, a model for determining location information of a lesion on an image frame, a model for determining whether to perform an examination related to a lesion corresponding to the location information of the lesion, a recommended examination time notification model, and a risk notification model for the occurrence of the lesion are implemented in relation to lesion detection. If it is a model, the same/similar application can be applied to the present invention. For reference, according to an embodiment, when a plurality of neural network models 121a are operated, each neural network model 121a may be simultaneously processed in parallel.

또한, 도 11에서는 신경망 모델(121a)로 CNN(Convolutional Neural Network) 을 이용한 것을 예시하였으나, 본 발명은 이에 제한되지 않고, FCN, RNN, DNN, GNN 등 다양한 종류의 신경망으로부터 생성된 신경망 모델인 경우에도 동일/유사하게 적용될 수 있다.In addition, Fig. 11 illustrates that the neural network model 121a uses a convolutional neural network (CNN), but the present invention is not limited thereto, and a neural network model generated from various types of neural networks such as FCN, RNN, DNN, GNN, etc. The same/similar application can be applied to.

그리고, 영상 프레임으로부터 신경망 모델(121a)을 이용한 연산을 수행하여 출력된 결과값들을 기초로 히트맵을 생성하고, 히트맵에 임계값을 적용하여 히트맵으로부터 병변 영역을 추출(또는 분리) 함으로써, 영상 프레임으로부터 병변 영역을 검출할 수 있다. 그리고, 검출된 병변 영역을 참조하여, 병변 영역의 경계 정보 및/또는 결과값들의 이미지 정보를 포함하는 이미지 가공 정보가 영상 프레임 상에 오버랩되어 출력될 수 있다.And, by performing an operation using the neural network model 121a from the image frame, generating a heat map based on the output results, and extracting (or separating) the lesion area from the heat map by applying a threshold value to the heat map, The lesion area can be detected from the image frame. In addition, with reference to the detected lesion area, image processing information including image information of boundary information and/or result values of the lesion area may be overlapped and output on the image frame.

이하, 도 11의 신경망 모델에 대한 특징을 도 12과 함께 참조하여 기술한다. Hereinafter, features of the neural network model of FIG. 11 will be described with reference to FIG. 12.

도 11의 (1) 병변 검출 모델은 실시예에 따른 일대일 분류 모델을 나타내고, 도 11의 (2) 병변 판별 모델은 실시예에 따른 일대다 분류 모델을 나타낸다. The (1) lesion detection model of FIG. 11 represents a one-to-one classification model according to an embodiment, and the (2) lesion determination model of FIG. 11 represents a one-to-many classification model according to the embodiment.

도 11에서 M(Mucosa)과 SM(Submucosa)은 클래스 Ⅰ에 속하는 특성들(병변의 깊이)을 나타내고, D(Differentiated)와 UD(Undifferentiated)는 클래스 Ⅱ에 속하는 특성들(병변의 유형)을 나타낸다. 클래스 Ⅰ의 분류 기준과 클래스 Ⅱ의 분류 기준은 상이할 수 있다. 이와 같이 복수의 클래스에 속하는 특성들을 본 명세서에서는 복합 특성이라 칭한다. 복합 특성을 갖는 입력은 복수의 특성, 즉 각 클래스별로 특성을 가질 수 있다.In FIG. 11, M (Mucosa) and SM (Submucosa) represent characteristics belonging to class I (depth of lesion), and D (Differentiated) and UD (Undifferentiated) represent characteristics belonging to class II (type of lesion). . The classification criteria for Class I and Class II may be different. In this specification, characteristics belonging to a plurality of classes are referred to as complex characteristics. Inputs with complex characteristics may have a plurality of characteristics, that is, characteristics for each class.

도 11의 (2) 병변 판별 모델을 참조하면, 일대다 모델에서는 일부의 층, 즉 컨볼루션층과 풀링층이 클래스간에 공유되고, 완전결합층은 클래스별로 제공된다. 이때, 완전결합층이 클래스별로 제공되기 때문에, 특성 M과 SM의 예측 확률의 합은 100퍼센트이고, 특성 D와 UD의 예측 확률의 합은 100퍼센트이다. 따라서, 클래스 Ⅰ에서의 예측 결과와 클래스 Ⅱ에서의 예측 결과가 각각 제공되기 때문에 보다 정확한 예측 결과를 얻을 수 있다. 또한, 컨볼루션층이 클래스간에 공유되기 때문에 보다 계산량을 감소시키면서도 클래스간의 연관성을 반영시킬 수 있다.Referring to the lesion discrimination model of FIG. 11 (2), in the one-to-many model, some layers, that is, a convolutional layer and a pooling layer, are shared between classes, and a complete coupling layer is provided for each class. At this time, since the fully coupled layer is provided for each class, the sum of the predicted probabilities of the features M and SM is 100%, and the sum of the predicted probabilities of the features D and UD is 100%. Therefore, since the prediction result in class I and the prediction result in class II are provided respectively, a more accurate prediction result can be obtained. In addition, since the convolution layer is shared between classes, the correlation between classes can be reflected while further reducing the computational amount.

도 12는 본 발명의 실시예에 따른 신경망 모델(121a)의 구조를 나타내는 도면이다. 도 12에서 NT개의 클래스(T1, T2, ... Tt, ... TNT)가 존재하고, 클래스 T1에는 2가지의 특성이 속하고, 클래스 T2에는 2가지의 특성이 속하고, 클래스 Tt에는 n가지의 특성이 속하고, 클래스 TNT에는 3가지의 특성이 속하는 것으로 가정하였다.12 is a diagram showing the structure of a neural network model 121a according to an embodiment of the present invention. In FIG. 12, there are NT classes (T 1 , T 2 , ... T t , ... T NT ), class T 1 has two characteristics, and class T 2 has two characteristics. It was assumed that it belongs to, and n characteristics belong to class T t , and three characteristics belong to class T NT.

도 12를 참조하면, 본 발명의 실시예에 따른 신경망 모델(121a)은, 입력 영상 (xi)에 대해 컨볼루션 연산을 수행하기 위한 컨볼루션층(10)과, 상기 컨볼루션층(10)의 출력(oconv)에 대해 풀링을 수행하기 위한 풀링층(20)과, 복합 특성이 분류되는 복수의 클래스에 각각 대응하며, 상기 풀링층(20)의 출력에 대해 클래스별 가중치(wfc(Tt))를 곱한 값을 출력하는 복수의 클래스별 완전결합층(30)을 포함한다. Referring to FIG. 12, a neural network model 121a according to an embodiment of the present invention includes a convolutional layer 10 for performing a convolution operation on an input image xi, and the convolutional layer 10. Each corresponding to a pooling layer 20 for performing pooling on the output (oconv) and a plurality of classes into which complex characteristics are classified, and a weight for each class (w fc (T t)) for the output of the pooling layer 20 It includes a plurality of fully coupled layers 30 for each class outputting a value multiplied by )).

신경망 모델(121a)은, 상기 복수의 클래스별 완전결합층(30)에 각각 대응하며 각 클래스별 완전결합층(30)의 출력에 따라 클래스별 특성 확률을 연산하는 복수의 클래스별 분류기(40)를 더 포함할 수 있다. The neural network model 121a corresponds to each of the plurality of fully coupled layers 30 for each class and calculates a characteristic probability for each class according to the output of the fully coupled layer 30 for each class. It may further include.

컨볼루션층(10)은 입력 영상에 대해 복수의 컨볼루션 필터를 이용하여 컨볼루션 연산을 수행함으로써 특징맵을 추출한다. 도 12에 도시된 바와 같이 컨볼루션 연산은 복수회 수행될 수 있다. 컨볼루션층(10)의 출력, 즉 특징맵(oconv)은 높이(H), 너비(W), 채널 수(C)를 갖는 것으로 가정하였다.The convolution layer 10 extracts a feature map by performing a convolution operation on an input image using a plurality of convolution filters. As shown in FIG. 12, the convolution operation may be performed a plurality of times. It is assumed that the output of the convolutional layer 10, that is, the feature map (oconv), has a height (H), a width (W), and the number of channels (C).

풀링층(20)은 컨볼루션층(10)과 완전결합층(30)의 사이에 위치하며, 특징맵(oconv)의 크기를 감소시켜 후술하는 완전결합층(30)에서 필요한 연산을 감소시키고, 오버피팅을 방지하는 역할을 한다. 풀링층(20)은 특징맵(oconv)의 각 채널에 대해 평균값을 출력하는 전체 평균 풀링(Global Average Pooling)을 수행할 수 있다.The pooling layer 20 is located between the convolutional layer 10 and the fully coupled layer 30, and reduces the size of the feature map (oconv) to reduce the operation required in the fully coupled layer 30 to be described later, It serves to prevent overfitting. The pooling layer 20 may perform global average pooling in which an average value is output for each channel of the feature map oconv.

클래스별 완전결합층(30)은 풀링층(20)의 출력에 클래스별 가중치(wfc(T1), wfc(T2), ... wfc(Tt), ... wfc(TNT))를 곱한 값을 출력한다. 이때, 클래스별 가중치(wfc(T1), wfc(T2), ... wfc(Tt), ... wfc(TNT))의 각각은 채널 수에 해당하는 복수의 값일 수 있다. The class-specific fully coupled layer 30 has weights for each class (w fc (T 1 ), w fc (T 2 ), ... w fc (T t ), ... w fc) on the output of the pooling layer 20 (T NT )) multiplied by it. At this time, each of the weights for each class (w fc (T 1 ), w fc (T 2 ), ... w fc (T t ), ... w fc (T NT )) is a plurality of Can be a value.

클래스별 분류기(40)는 클래스별 완전결합층(30)에 각각 대응하며, 클래스별 완전결합층(30)의 출력에 따라 클래스별 특성 확률을 연산한다. 도 12를 참조하면, 클래스 T1에 해당하는 분류기는 클래스 T1에 속하는 특성들 각각에 해당하는 확률(P1(T1), P2(T1))을 연산하고, 클래스 T2에 해당하는 분류기는 클래스 T2에 속하는 특성들 각각에 해당하는 확률(P1(T2), P2(T2))을 연산하고, 클래스 Tt에 해당하는 분류기는 클래스 Tt에 속하는 특성들 각각에 해당하는 확률(P1(Tt), P2(Tt), ... Pn(Tt))을 연산하고, 클래스 TNT에 해당하는 분류기는 클래스 TNT에 속하는 특성들 각각에 해당하는 확률(P1(TNT), P2(TNT), P3(TNT))을 연산한다. 클래스별 분류기(40)로서 예를 들어 Softmax 함수, Sigmoid 함수 등이 이용될 수 있다.The classifiers 40 for each class correspond to each of the fully coupled layers 30 for each class, and calculate a characteristic probability for each class according to the output of the fully coupled layer 30 for each class. 12, the sorter for the class T 1 corresponds to the class T probability corresponding to the characteristic of belonging to the 1 (P 1 (T 1) , P 2 (T 1)) computing a, and class T 2 classifier to classifier for the class T 2 probability (P 1 (T 2), P 2 (T 2)) computing a, and class T t for the characteristics belonging to the each of the characteristics belongs to the class T t probability that corresponds to the sorter for calculating the (P 1 (T t), P 2 (T t), ... Pn (T t)) and corresponds to the class T NT is equivalent to each of the attributes belonging to the class T NT Calculate the probability (P 1 (T NT ), P 2 (T NT ), P 3 (T NT )). As the class-specific classifier 40, for example, a Softmax function, a Sigmoid function, or the like may be used.

이상 설명된 실시 형태는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터로 판독가능한 기록매체에 기록될 수 있다. 상기 컴퓨터로 판독가능한 기록매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The above-described embodiments may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.

컴퓨터로 판독가능한 기록매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 실행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. optical media), and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to execute the processing according to the present invention, and vice versa.

본 명세서의 양상들은 전체적으로 하드웨어, 전체적으로 소프트웨어 (펌웨어, 상주 소프트웨어, 마이크로 코드 등을 포함 함) 또는 컴퓨터 판독 가능 프로그램 코드가 구현 된 하나 이상의 컴퓨터 판독 가능 매체에 구현 된 컴퓨터 프로그램 제품의 형태를 취할 수 있다.Aspects of the present specification may take the form of hardware as a whole, software as a whole (including firmware, resident software, microcode, etc.), or a computer program product embodied in one or more computer-readable media in which computer-readable program code is implemented. .

이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Features, structures, effects, and the like described in the above embodiments are included in one embodiment of the present invention, and are not necessarily limited to only one embodiment. Furthermore, the features, structures, effects, and the like illustrated in each embodiment may be combined or modified for other embodiments by a person having ordinary knowledge in the field to which the embodiments belong. Therefore, contents related to such combinations and modifications should be construed as being included in the scope of the present invention.

Claims (11)

소화기관을 촬영하는 의료 영상 장치로부터 영상 프레임을 수신하는 통신부;
상기 영상 프레임에 대한 신경망 모델을 이용한 연산을 수행하여 결과값들을 출력하기 위한 제어부; 및
상기 영상 프레임 상에 상기 결과값들로부터 생성된 이미지 가공 정보가 오버랩된 제1 결과 및 상기 영상 프레임에 대한 사용자 이벤트 신호로 획득되는 제2 결과 중 적어도 하나를 출력하는 디스플레이부;를 포함하고,
상기 제어부는 상기 소화기관의 전벽의 이미지 또는 후벽의 이미지 및 상기 소화기관이 절개된 형상의 이미지와 함께 상기 이미지 가공 정보에 대응하는 동일한 인디케이터를 두 개 생성하고,
상기 디스플레이부는 상기 전벽의 이미지 또는 상기 후벽의 이미지 상에 상기 두 개의 인디케이터 중 어느 하나를 표시하며, 상기 소화기관이 절개된 형상의 이미지 상에 상기 두 개의 인디케이터 중 다른 하나를 표시하는,
영상 수신 장치.
A communication unit for receiving an image frame from a medical imaging device for photographing the digestive organs;
A control unit for outputting result values by performing an operation using a neural network model on the image frame; And
A display unit for outputting at least one of a first result in which image processing information generated from the result values overlapped on the image frame and a second result obtained as a user event signal for the image frame; and
The control unit generates two identical indicators corresponding to the image processing information together with an image of the front wall or the rear wall of the digestive tract and an image of a shape in which the digestive tract is cut,
The display unit displays any one of the two indicators on the image of the front wall or the image of the rear wall, and displays the other of the two indicators on the image of the digestive tract cut out,
Video receiving device.
제 1항에 있어서,
상기 제어부는,
상기 제1 결과와 상기 제2 결과를 포함한 셋트를 상기 디스플레이부의 화면 상에 행(row) 단위로 목록화하여 출력하는,
영상 수신 장치.
The method of claim 1,
The control unit,
Listing and outputting a set including the first result and the second result in row units on the screen of the display unit,
Video receiving device.
제 1항에 있어서,
상기 제어부는,
상기 제1 결과와 상기 제2 결과를 포함한 셋트를 복수 개 생성하고,
상기 복수 개의 셋트 중 사용자에 의해 선택된 셋트를 상기 디스플레이부의 화면 상에 출력하는,
영상 수신 장치.
The method of claim 1,
The control unit,
Generating a plurality of sets including the first result and the second result,
Outputting a set selected by a user from among the plurality of sets on the screen of the display unit,
Video receiving device.
제 3항에 있어서,
상기 제어부는 상기 사용자에 의해 선택된 셋트에 포함된 제1 결과 및 제2 결과 중 상기 사용자에 의해 선택된 어느 하나를 상기 디스플레이부의 화면 상에 확대하여 출력하는,
영상 수신 장치.
The method of claim 3,
The control unit enlarges and outputs any one selected by the user from among the first result and the second result included in the set selected by the user on the screen of the display unit,
Video receiving device.
제 1항에 있어서,
상기 사용자 이벤트 신호는,
상기 영상 프레임에 대한 캡쳐를 수행하기 위한 것인,
영상 수신 장치.
The method of claim 1,
The user event signal,
To perform the capture of the image frame,
Video receiving device.
제 1항에 있어서,
상기 제어부는 상기 사용자 이벤트 신호를 복수 개 입력받고,
상기 복수의 사용자 이벤트 신호 각각에 대응하는 제2 결과들을 상기 사용자 이벤트 신호별로 저장하는,
영상 수신 장치.
The method of claim 1,
The control unit receives a plurality of user event signals,
Storing second results corresponding to each of the plurality of user event signals for each user event signal,
Video receiving device.
제 1항에 있어서,
상기 제어부는 상기 제1 결과 및 상기 제2 결과 중 적어도 하나와 관련된 시간 정보를 상기 디스플레이부의 화면 상에 타임라인(time-line) 형태로 출력하는,
영상 수신 장치.
The method of claim 1,
The control unit outputs time information related to at least one of the first result and the second result in the form of a time-line on the screen of the display unit,
Video receiving device.
제 1항에 있어서,
상기 신경망 모델은 복수 개이고,
상기 복수 개의 신경망 모델 각각을 이용한 상기 연산을 통해 서로 상이한 종류의 결과값들을 출력하는,
영상 수신 장치.
The method of claim 1,
There are a plurality of neural network models,
Outputting different types of result values through the operation using each of the plurality of neural network models,
Video receiving device.
제 8항에 있어서,
상기 복수 개의 신경망 모델 중 하나는 상기 소화기관의 병변의 위치를 검출하기 위한 모델이고,
상기 제어부는 상기 병변이 제거된 것으로 판단하면 상기 병변의 제거 상태를 메모리에 기록하고, 상기 병변의 위치를 검출하기 위한 모델을 통해 새로운 병변이 상기 소화기관의 상기 위치에 존재하는지 여부를 판별하지 않는,
영상 수신 장치.
The method of claim 8,
One of the plurality of neural network models is a model for detecting the location of a lesion of the digestive tract,
When it is determined that the lesion has been removed, the control unit records the removal state of the lesion in the memory, and does not determine whether a new lesion exists at the location of the digestive tract through a model for detecting the location of the lesion. ,
Video receiving device.
삭제delete 제 1항에 있어서,
상기 제어부는 상기 제1 결과에 대응하는 인덱스 이미지 및 상기 제2 결과에 대응하는 인덱스 이미지 중 적어도 하나를 상기 디스플레이부의 화면 상에 출력하는,
영상 수신 장치.

The method of claim 1,
The controller outputs at least one of an index image corresponding to the first result and an index image corresponding to the second result on the screen of the display unit,
Video receiving device.

KR1020200155180A 2020-11-19 2020-11-19 Method for providing user interface through artificial intelligence-based image processing and user events, and image receiving apparatus using the method KR102253398B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200155180A KR102253398B1 (en) 2020-11-19 2020-11-19 Method for providing user interface through artificial intelligence-based image processing and user events, and image receiving apparatus using the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200155180A KR102253398B1 (en) 2020-11-19 2020-11-19 Method for providing user interface through artificial intelligence-based image processing and user events, and image receiving apparatus using the method

Publications (1)

Publication Number Publication Date
KR102253398B1 true KR102253398B1 (en) 2021-05-18

Family

ID=76158527

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200155180A KR102253398B1 (en) 2020-11-19 2020-11-19 Method for providing user interface through artificial intelligence-based image processing and user events, and image receiving apparatus using the method

Country Status (1)

Country Link
KR (1) KR102253398B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140024788A (en) * 2010-09-20 2014-03-03 보드 오브 리전츠, 더 유니버시티 오브 텍사스 시스템 Advanced multimedia structured reporting
JP2020089712A (en) * 2018-12-04 2020-06-11 Hoya株式会社 Information processing device, processor for endoscope, information processing method, and program
KR102149369B1 (en) * 2018-04-06 2020-08-31 주식회사 뷰노 Method for visualizing medical image and apparatus using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140024788A (en) * 2010-09-20 2014-03-03 보드 오브 리전츠, 더 유니버시티 오브 텍사스 시스템 Advanced multimedia structured reporting
KR102149369B1 (en) * 2018-04-06 2020-08-31 주식회사 뷰노 Method for visualizing medical image and apparatus using the same
JP2020089712A (en) * 2018-12-04 2020-06-11 Hoya株式会社 Information processing device, processor for endoscope, information processing method, and program

Similar Documents

Publication Publication Date Title
TWI793337B (en) Systems and methods for training generative adversarial networks and use of trained generative adversarial networks
JP7457699B2 (en) System and method for processing real-time video from medical imaging devices and detecting objects in the video
US8502861B2 (en) Image display apparatus
WO2017175282A1 (en) Learning method, image recognition device, and program
CN113015476A (en) System and method for generating and displaying studies of in vivo image flow
KR102531400B1 (en) Artificial intelligence-based colonoscopy diagnosis supporting system and method
JP2018054443A (en) Information processing device, information processing system and program
US20230206435A1 (en) Artificial intelligence-based gastroscopy diagnosis supporting system and method for improving gastrointestinal disease detection rate
CN116745861A (en) Control method, device and program of lesion judgment system obtained through real-time image
KR102253398B1 (en) Method for providing user interface through artificial intelligence-based image processing and user events, and image receiving apparatus using the method
US20220361739A1 (en) Image processing apparatus, image processing method, and endoscope apparatus
JP6425868B1 (en) ENDOSCOPIC IMAGE OBSERVATION SUPPORT SYSTEM, ENDOSCOPIC IMAGE OBSERVATION SUPPORT DEVICE, AND ENDOSCOPIC IMAGE OBSERVATION SUPPORT METHOD
KR100931947B1 (en) Method of display processing images in digest organs obtained by capsule endoscope
KR102270669B1 (en) An image receiving device that calculates an image including a plurality of lesions using artificial intelligence
KR102268771B1 (en) Method for providing a user interface using the data receiving apparatus based on the image processing of the AI and Apparatus for using the same
KR102259797B1 (en) User event detection method through image analysis and device performing the method
KR20220122312A (en) Artificial intelligence-based gastroscopy diagnosis supporting system and method
Cai et al. An improved automatic system for aiding the detection of colon polyps using deep learning
TWI842573B (en) Computer-implemented systems for processing real-time video
KR102572544B1 (en) An electronic device for providing information of a plurality of lesions by analyzing an endoscopic image, and an endoscopy system including the electronic device
RU2819619C2 (en) Systems and methods of training generative-adversarial networks, as well as use of trained generative-adversarial networks
KR102262684B1 (en) Image Processing Method based on Artificial Intelligence of Image Receiving Device
WO2023042273A1 (en) Image processing device, image processing method, and storage medium
JP2022179219A (en) Medical image processing system and operation method of the same
JP2024075635A (en) System and method for training a generative adversarial network and use of a trained generative adversarial network

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant