KR20220140924A - Deep-learning based colonoscopy image analysis method and using the same - Google Patents

Deep-learning based colonoscopy image analysis method and using the same Download PDF

Info

Publication number
KR20220140924A
KR20220140924A KR1020210046632A KR20210046632A KR20220140924A KR 20220140924 A KR20220140924 A KR 20220140924A KR 1020210046632 A KR1020210046632 A KR 1020210046632A KR 20210046632 A KR20210046632 A KR 20210046632A KR 20220140924 A KR20220140924 A KR 20220140924A
Authority
KR
South Korea
Prior art keywords
image
deep learning
information
colonoscopy
image analysis
Prior art date
Application number
KR1020210046632A
Other languages
Korean (ko)
Inventor
임우주
황인구
황정대
Original Assignee
임우주
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임우주 filed Critical 임우주
Priority to KR1020210046632A priority Critical patent/KR20220140924A/en
Publication of KR20220140924A publication Critical patent/KR20220140924A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Abstract

The present invention relates to a deep-learning-based colonoscopy image analysis method with increased accuracy of lesion diagnosis and an image analysis system using the same. The deep-learning-based colonoscopy image analysis system, according to one embodiment of the present invention, comprises: an endoscopy computer which receives an image taken by a colonoscopy device; a server which obtains the image transmitted to the endoscope computer through an application downloaded to the endoscope computer in a hooking manner, has a diagnosis algorithm that performs correction of the obtained image and diagnosis based on the corrected image through deep learning, and transmits diagnosis results derived through the corrected image and the diagnosis algorithm to the endoscope computer; and a display device which receives the corrected image and the diagnosis results from the endoscope computer and output the received corrected image and diagnosis results.

Description

딥러닝 기반의 대장내시경 영상분석방법 및 이를 이용한 영상분석시스템{Deep-learning based colonoscopy image analysis method and using the same}Deep-learning-based colonoscopy image analysis method and image analysis system using the same

본 발명은 병변 진단의 정확도를 높인 딥러닝 기반의 대장내시경 영상분석방법 및 이를 이용한 영상분석시스템에 관한 것이다.The present invention relates to a deep learning-based colonoscopy image analysis method with increased accuracy of lesion diagnosis and an image analysis system using the same.

인간의 몸을 구성하는 가장 작은 단위인 세포는 정상적일 때 세포 내 조절기능에 의해 분열, 성장, 사멸을 하며 세포 수 균형을 유지한다. 그러나 여러가지 이유로 증식과 억제가 조절되지 않는 비정상적인 세포들이 과다하게 증식하여 주위 조직에 침입하여 장기의 구조와 기능을 파괴하는 상태를 암(cancer)이라 한다.Cells, which are the smallest units of the human body, divide, grow, and die according to the intracellular regulatory function when normal, and maintain cell number balance. However, for various reasons, a condition in which abnormal cells whose proliferation and inhibition are not controlled proliferate excessively, invade surrounding tissues, and destroy the structure and function of organs is called cancer.

특히 서구화된 식습관과 진단기술의 발달로 대장암(colorectal cancer) 발생률은 매년 급격하게 증가하고 있다. 대장암의 95% 이상은 대장에 생긴 작은 종양인 폴립(선종)에서 시작한다. 따라서 대장내시경 검사를 통해 폴립을 조기에 발견해 제거한다면 대장암을 예방할 수 있다.In particular, the incidence of colorectal cancer is rapidly increasing every year due to the development of westernized dietary habits and diagnostic technology. More than 95% of colorectal cancers start with polyps (adenomas), small tumors in the colon. Therefore, early detection and removal of polyps through colonoscopy can prevent colorectal cancer.

그러나 대장내시경은 의사의 숙련도에 따라 폴립의 진단율에 큰 차이가 있다. 대장내시경중에 인공지능의 보조가 있다면 폴립 진단의 정확도에 큰 향상이 기대된다. 다수의 논문에서 딥러닝 인공지능 프로그램을 사용하여 숙련된 의사의 폴립진단율을 초과하는 정확도를 보고하고 있다. However, there is a big difference in the diagnosis rate of polyps in colonoscopy depending on the skill level of the doctor. If artificial intelligence assists during colonoscopy, it is expected that the accuracy of polyp diagnosis will be greatly improved. A number of papers have reported accuracy exceeding the polyp diagnosis rate of experienced doctors using deep learning artificial intelligence programs.

대장폴립은 악성으로 진행할 수 있는 종양성 폴립(선종)과 악성진행 가능성이 희박한 비종양성 폴립으로 구분한다. 딥러닝 프로그램으로 종양성 폴립과 비종양성 폴립을 정확히 구별한다면 불필요한 폴립절제술과 이에 따른 합병증을 피할 수 있을 것이다Colorectal polyps are divided into neoplastic polyps (adenomas), which can progress to malignancy, and non-neoplastic polyps, which are unlikely to progress to malignancy. If a deep learning program can accurately distinguish between oncological polyps and non-neoplastic polyps, unnecessary polypectomy and associated complications can be avoided.

또한 폴립은 크기에 따라 대장암으로의 발전 위험정도가 다르기 때문에 폴립의 정확한 크기의 측정이 중요하다. 특히 크기가 10mm 이상인 폴립은 대장암으로 발전할 위험이 높기 때문에 폴립 크기의 정확한 측정이 필요하다.In addition, it is important to accurately measure the size of a polyp because the risk of developing colorectal cancer varies according to the size of the polyp. In particular, polyps with a size of 10 mm or more have a high risk of developing colorectal cancer, so it is necessary to accurately measure the polyp size.

그러나 기존의 방식은 이미 두께를 알고 있는 생검겸자와 비교하여 의사가 육안으로 폴립의 크기를 재는 방식으로 이루어졌다. 따라서 판독자의 숙련도나 폴립의 위치에 따라 그 정확도가 달라질 수 있었다. However, in the existing method, the doctor visually measures the size of the polyp compared to the biopsy forceps of known thickness. Therefore, the accuracy could vary depending on the skill level of the reader or the location of the polyp.

이외에도 내시경 검사시 흔히 접할 수 있는 빛 반사 문제가 있는데 대장 내측의 점액질에 의해 빛 반사가 일어나 촬영된 이미지가 불분명한 경우에도 이미지 판독오류가 발생하여 오진이 발생할 수 있고 의사의 피로도를 높이는 경향이 있다. In addition, there is a light reflection problem that is commonly encountered during endoscopy. Even when the photographed image is unclear due to light reflection caused by the mucus inside the large intestine, an image reading error may occur, which tends to increase the doctor's fatigue. .

최근에는 이미지 보정 기능(고해상도 내시경, 협대역 내시경), 폴립을 자동 진단해주는 인공지능 내시경 등을 포함하여 정확도를 높인 대장내시경 시스템이 개발되고 있다. 그러나 아직까지 이러한 대장내시경은 대부분 고가로서 중소형 병원에서 구입하기에는 큰 부담이 되어 그 이용이 제한적이다. Recently, a colonoscopy system with improved accuracy has been developed, including image correction functions (high-resolution endoscopes, narrowband endoscopes) and artificial intelligence endoscopes that automatically diagnose polyps. However, most of these colonoscopy are still expensive, and their use is limited because it is a burden to purchase in small and medium-sized hospitals.

또한, 대장내시경 장비에 사용되는 컴퓨터는 대장내시경의 이미지 저장 및 처리 외에 다른 기능을 수행하기에 용량이 충분하지 않은 경우가 대부분이다. 이미지 정확도를 높이기 위한 타 프로그램을 사용하기 위해 컴퓨터를 교체하는 것도 상당한 비용이 소요될 수 있다.In addition, in most cases, the computer used for the colonoscopy equipment does not have sufficient capacity to perform functions other than image storage and processing of the colonoscopy. Replacing the computer to use other programs to improve image fidelity can also be costly.

본 발명의 일 실시예에 따르면, 윈도우 후킹 및 윈도우 오버레이 기술을 이용하여 촬영된 이미지를 실시간으로 처리하는 딥러닝 기반의 대장내시경 영상분석방법 및 이를 이용한 영상분석시스템을 제공한다.According to an embodiment of the present invention, there is provided a deep learning-based colonoscopy image analysis method and an image analysis system using the same for processing images taken in real time using window hooking and window overlay technology.

또한, 기학습된 정보를 이용하여 빛반사된 이미지를 보정하고, 새롭게 학습된 내용을 기억하는 딥러닝 기반의 대장내시경 영상분석방법 및 이를 이용한 영상분석시스템을 제공한다.In addition, a deep learning-based colonoscopy image analysis method for correcting a light-reflected image using previously learned information and memorizing newly learned contents, and an image analysis system using the same are provided.

또한, 기학습된 마커 정보를 이용하여 폴립의 정확한 크기를 제공하는 딥러닝 기반의 대장내시경 영상분석방법 및 이를 이용한 영상분석시스템을 제공한다.In addition, a deep learning-based colonoscopy image analysis method that provides an accurate size of a polyp using previously learned marker information and an image analysis system using the same are provided.

또한, 다수의 사용자들에 의한 병변 정보가 빅데이터화되어 저장되는 딥러닝 기반의 대장내시경 영상분석방법 및 이를 이용한 영상분석시스템을 제공한다.In addition, a deep learning-based colonoscopy image analysis method in which lesion information by a plurality of users is stored as big data and an image analysis system using the same are provided.

본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템은, 대장내시경 장치에 의해 촬영된 이미지를 전달받는 내시경 컴퓨터, 상기 내시경 컴퓨터에 다운로드된 어플리케이션을 통해 상기 내시경 컴퓨터로 전달되는 상기 이미지를 후킹 방식으로 획득하고, 상기 획득된 이미지의 보정 및 보정된 이미지를 바탕으로 한 진찰을 딥러닝 기반으로 실시하는 진단 알고리즘을 탑재하고, 상기 보정된 이미지와 상기 진단 알고리즘을 통해 도출된 진단 결과를 상기 내시경 컴퓨터로 전달하는 서버 및 상기 내시경 컴퓨터로부터 상기 보정된 이미지와 상기 진단 결과를 전달받아 출력하는 디스플레이 장치를 포함한다.The deep learning-based colonoscopy image analysis system according to an embodiment of the present invention includes an endoscope computer that receives an image captured by a colonoscopy device, and the image transferred to the endoscope computer through an application downloaded to the endoscope computer. is equipped with a diagnostic algorithm that acquires the obtained image in a hooking method and performs a diagnosis based on the correction of the acquired image and the corrected image based on deep learning, and the corrected image and the diagnosis result derived through the diagnosis algorithm and a server for transmitting to the endoscope computer and a display device for receiving and outputting the corrected image and the diagnosis result from the endoscope computer.

또한, 상기 어플리케이션은 윈도우 오버레이 방식으로 구동된다.In addition, the application is driven in a window overlay method.

또한, 딥러닝을 통해 학습된 정보는 상기 서버에 마련된 정보저장부에 저장되어 어플리케이션의 사용자에게 그 정보가 공유된다.In addition, information learned through deep learning is stored in an information storage unit provided in the server, and the information is shared with users of the application.

또한, 딥러닝을 통해 학습된 정보는 클라우드 데이터베이스에 저장되어 어플리케이션의 사용자에게 그 정보가 공유된다.In addition, information learned through deep learning is stored in a cloud database and the information is shared with users of the application.

또한, 상기 서버로 전달된 이미지는, 딥러닝된 정보를 기초로 색보정, 빛반사 보정의 처리 과정을 거친다.In addition, the image transmitted to the server is subjected to color correction and light reflection correction based on the deep-learning information.

또한, 상기 내시경 장치에 의해 촬영된 이미지는 RGB 레벨이 각각 170이상인 픽셀에 대해 빛반사가 있는 것으로 판단하고, 상기 서버는 딥러닝을 통해 빛반사 보정을 실행한다.In addition, it is determined that the image photographed by the endoscope device has light reflection for pixels each having an RGB level of 170 or more, and the server executes light reflection correction through deep learning.

또한, 상기 서버로 전달된 이미지에는 폴립의 이미지가 포함하고, 딥러닝을 통해 상기 폴립의 형상에 부합하는 테두리 라인이 형성되어 상기 디스플레이 장치에 표시된다.In addition, the image transmitted to the server includes an image of a polyp, and a border line matching the shape of the polyp is formed through deep learning and displayed on the display device.

본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석방법은, 내시경 장치에 의해 획득된 이미지가 내시경 컴퓨터에서 후킹되어 서버로 전달되는 단계;A deep learning-based colonoscopy image analysis method according to an embodiment of the present invention comprises the steps of: an image acquired by an endoscope device is hooked in an endoscope computer and transferred to a server;

딥러닝 기반으로 전달된 서버로 전달된 이미지를 보정하고 이미지 상의 병변에 대해 진단하고 학습하는 단계, 보정된 이미지 및 진단된 병변에 대한 정보가 내시경 컴퓨터로 전송되는 단계 및 상기 보정된 이미지 및 진단된 병변에 대한 정보가 디스플레이 장치에 표시되는 단계를 포함한다.Correcting the image delivered to the server delivered based on deep learning, diagnosing and learning about the lesion on the image, transmitting the corrected image and information about the diagnosed lesion to the endoscope computer, and the corrected image and the diagnosed lesion and displaying information on the lesion on a display device.

또한, 보정된 이미지 및 진단된 병변에 대한 정보는 어플리케이션 사용자에게 개방된 저장공간에 저장되는 단계를 더 포함한다.In addition, the method further includes the step of storing the corrected image and the information on the diagnosed lesion in a storage space open to the application user.

또한, 상기 서버로 전달된 이미지 상에 존재하는 폴립의 형태를 따라 테두리 라인을 형성하여 디스플레이 장치에 표시하는 단계를 더 포함한다.The method further includes forming a border line along the shape of a polyp present on the image transmitted to the server and displaying it on a display device.

본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석방법 및 이를 이용한 영상분석시스템에 의하면, 윈도우 후킹 방식으로 이미지를 불러들여 처리함으로써 제조사의 API(Application Programming Interface) 없이도 동작이 가능하다.According to the deep learning-based colonoscopy image analysis method and the image analysis system using the same according to an embodiment of the present invention, it is possible to operate without a manufacturer's API (Application Programming Interface) by fetching and processing images in a window hooking method.

또한, 빛반사에 의한 이미지를 보정하고 폴립의 크기를 정확하게 측정됨으로써 진단의 신뢰도를 향상시킬 수 있다. In addition, it is possible to improve the reliability of diagnosis by correcting the image due to light reflection and accurately measuring the size of the polyp.

또한, 고가의 장비를 교체할 필요가 없이 저렴한 비용으로 진단의 정확도를 높인 내시경 장치를 구현할 수 있다.In addition, it is possible to implement an endoscopic apparatus with improved diagnostic accuracy at a low cost without the need to replace expensive equipment.

또한, 다수의 사용자에 의해 수집된 병변에 대한 정보가 빅데이터화되어 모든 사용자가 사용할 수 있도록 개방됨으로써 사용자는 병변에 대해 더욱 정확한 정보를 제공받을 수 있다.In addition, the information on the lesion collected by a plurality of users is converted into big data and opened so that all users can use it, so that the user can be provided with more accurate information about the lesion.

도 1은 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템의 영상분석방법을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템의 영상분류방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템에 의해 폴립의 형태가 표시된 모습을 도시한 도면이다.
1 is a diagram illustrating a deep learning-based colonoscopy image analysis system according to an embodiment of the present invention.
2 is a diagram for explaining an image analysis method of a deep learning-based colonoscopy image analysis system according to an embodiment of the present invention.
3 is a view for explaining an image classification method of a deep learning-based colonoscopy image analysis system according to an embodiment of the present invention.
4 is a diagram illustrating a state in which the shape of a polyp is displayed by a deep learning-based colonoscopy image analysis system according to an embodiment of the present invention.

이하, 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석방법 및 이를 이용한 영상분석시스템에 관하여 도면을 참조하여 상세히 설명한다.Hereinafter, a deep learning-based colonoscopy image analysis method and an image analysis system using the same according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템을 도시한 도면이다.1 is a diagram illustrating a deep learning-based colonoscopy image analysis system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템(1)은, 딥러닝 학습 정보가 저장되는 서버(10), 환자의 신체 내부로 인입되는 대장내시경과 연결된 내시경 컴퓨터(20) 및 촬영된 이미지를 출력하는 디스플레이 장치(30)로 이루어진다. Referring to FIG. 1 , a deep learning-based colonoscopy image analysis system 1 according to an embodiment of the present invention includes a server 10 storing deep learning learning information, a colonoscope entering the patient's body, and It consists of a connected endoscope computer 20 and a display device 30 for outputting the photographed image.

서버(10)는 지도학습 방식으로 기저장된 정보 및 딥러닝을 통해 자율학습이 이루어진 정보가 모두 저장되는 정보저장부(100), 제공받은 정보를 이용하여 연산작업을 수행하는 제어부(101)를 포함한다. 서버(10)는 후술할 어플리케이션(50)이 활성화된 내시경 컴퓨터(20)와 촬영된 이미지에 대한 정보를 송수신할 수 있다. The server 10 includes an information storage unit 100 in which all information stored in advance in a supervised learning method and self-learning information through deep learning are stored, and a control unit 101 that performs a calculation operation using the received information. do. The server 10 may transmit/receive information about a photographed image to and from the endoscope computer 20 in which an application 50 to be described later is activated.

내시경 컴퓨터(20)는 서버(10)와 무선통신을 통해 연결되어 촬영된 이미지와 관련된 정보를 송수신할 수 있다. The endoscope computer 20 may be connected to the server 10 through wireless communication to transmit/receive information related to the photographed image.

디스플레이 장치(30)는 내시경 컴퓨터(20)와 유선통신 또는 무선통신 방식으로 연결되어 내시경 컴퓨터(20)로부터 이미지 정보를 전달받아 출력할 수 있다.The display device 30 may be connected to the endoscope computer 20 in a wired communication or wireless communication method to receive and output image information from the endoscope computer 20 .

대장내시경이 대장 내부로 인입되어 대장 내부를 촬영하면, 그 촬영된 이미지 정보는 내시경 컴퓨터로 전달되고, 내시경 컴퓨터는 그 이미지 정보를 디스플레이 장치(30)로 송신한다. 사용자는 디스플레이 장치(30)에 표시된 이미지를 보면서 대장 내부의 병변 여부를 확인할 수 있다.When the colonoscope is drawn into the large intestine to photograph the interior of the large intestine, the photographed image information is transmitted to the endoscope computer, and the endoscope computer transmits the image information to the display device 30 . The user may check whether there is a lesion inside the large intestine while looking at the image displayed on the display device 30 .

이때, 대장내시경을 통해 촬영된 이미지는 대장 내부의 점액질에 의해 빛반사가 일어나 그 이미지가 왜곡될 수 있다. 또한, 대장의 굴곡이나 주름진 형태에 의해 병변이 존재하더라도 그 이미지가 명확하게 표시되지 못하는 경우도 발생한다. 이러한 이미지 왜곡은 사용자가 병변에 대해 정확한 진단을 내리는 것을 방해한다.In this case, the image taken through the colonoscopy may be distorted due to light reflection caused by the mucus inside the large intestine. In addition, even if a lesion exists due to a curved or wrinkled shape of the large intestine, the image may not be clearly displayed. Such image distortion prevents the user from making an accurate diagnosis of the lesion.

따라서 사용자는 정확한 진단을 위해 불명확한 이미지를 보정하기 위한 셋톱박스를 내시경 컴퓨터(20)에 연결하여 사용하거나, 이미지 보정 기능이 있는 내시경 컴퓨터를 사용하기도 한다. 그러나 고사양의 이미지 보정 기능이 있는 내시경 컴퓨터는 고가이고 셋톱박스를 추가로 구입할 때에도 높은 비용이 소요된다. 따라서 중소형급 병원, 특히 의료환경이 상대적으로 낙후된 개발도상국가의 많은 병원들은 추가적으로 비용을 들이기가 부담스러워 고사양의 장비를 사용하기 꺼려할 수 있다.Therefore, for accurate diagnosis, the user connects and uses a set-top box for correcting an ambiguous image to the endoscope computer 20, or uses an endoscope computer with an image correction function. However, an endoscope computer with high-end image correction function is expensive, and it is also expensive to purchase an additional set-top box. Therefore, small and medium-sized hospitals, especially many hospitals in developing countries with relatively backward medical environments, may be reluctant to use high-end equipment because it is burdensome to incur additional costs.

본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템(1)은 저렴한 비용으로도 높은 정확도의 진단시스템을 구현하여 병변에 대한 정확한 진단이 가능하도록, 내시경 컴퓨터(20)에 이미지 보정 등의 기능을 작동시키는 어플리케이션(50, 가칭: ALEXIS1)을 다운로드하여 사용할 수 있다. The deep learning-based colonoscopy image analysis system 1 according to an embodiment of the present invention implements a high-accuracy diagnostic system at a low cost, and corrects the image in the endoscope computer 20 to enable accurate diagnosis of lesions. You can download and use an application (50, tentative name: ALEXIS1) that operates functions such as.

일례로, 어플리케이션(50)은 비투씨(B2C) 방식으로 의사, 병원에 직접 판매될 수 있다. 의사, 병원과 같은 사용자는 개발자가 배포한 어플리케이션(50)을 내시경 컴퓨터(20)에 다운로드하고, 어플리케이션(50) 구매 후 제공받은 핀번호를 입력하여 어플리케이션(50)을 활성화시킬 수 있다. As an example, the application 50 may be directly sold to doctors and hospitals in a B2C (B2C) method. A user such as a doctor or a hospital may download the application 50 distributed by the developer to the endoscope computer 20 and activate the application 50 by inputting the pin number provided after purchasing the application 50 .

다른 예로서, 어플리케이션(50)은 대장내시경 장치를 제조, 판매하는 기존의 기업들에게 비투비(B2B) 방식으로 판매되고, 사용자는 제품 구입시 대장내시경 장치의 옵션으로 선택하여 사용할 수도 있다.As another example, the application 50 is sold to existing companies that manufacture and sell the colonoscopy device in a B2B method, and the user may select and use it as an option of the colonoscopy device when purchasing the product.

사용자가 어플리케이션(50)을 구매, 활성화시키는 방법은 상기 기재된 바에 한정되지 않는다.A method for a user to purchase and activate the application 50 is not limited to the above description.

어플리케이션(50)은 촬영된 이미지에 대한 정보가 내시경 컴퓨터(20)로 전송되면, 윈도우 후킹, 윈도우 오버레이 방식으로 그 이미지를 불러들여 처리한다. When the information on the photographed image is transmitted to the endoscope computer 20, the application 50 retrieves and processes the image in a window hooking and window overlay method.

윈도우 후킹 이란, 운영체제나 소프트웨어 등의 각종 컴퓨터 프로그램에서 소프트웨어 구성 요소 간에 발생하는 함수호출, 메시지, 이벤트 등을 중간에서 바꾸거나 가로채는 명령, 방법, 기술이나 행위를 의미한다.Window hooking refers to commands, methods, techniques, or actions that intercept or intercept function calls, messages, and events occurring between software components in various computer programs such as operating systems or software.

윈도우 오버레이는, 프로그램 실행 중 그 시점에서 불필요해진 프로그램의 세그먼트(segment)가 로드(load)되었던 기억영역에 그 프로그램의 다른 구분을 로드하는 것을 의미한다. 컴퓨터 용량이 제한적일 때, 추가로 프로그램을 구동시킬 때 사용될 수 있는 방안으로서, 특정 루틴이 필요하지 않을 때 그 루틴에 관한 세그먼트를 외부 기억장치로 옮겨서 필요한 루틴과 치환하고 내부 기억장치의 같은 블록을 재사용할 수 있다.The window overlay means loading another division of the program into a storage area in which a segment of the program, which became unnecessary at that point during program execution, was loaded. As a method that can be used to run additional programs when the computer capacity is limited, when a specific routine is not needed, the segment related to the routine is moved to an external memory, replaced with the necessary routine, and the same block in the internal memory is reused can do.

따라서 추가로 프로그램을 구동시키고자 할 때, 컴퓨터의 사양이 충분하지 않은 경우, 이러한 후킹 방식과 윈도우 오버레이 방식을 통해 추가된 프로그램을 원활하게 구동시킬 수 있다. Therefore, when an additional program is to be driven and the specifications of the computer are not sufficient, the added program can be smoothly driven through the hooking method and the window overlay method.

본 발명에서는, 대장내시경 장치에서 촬영된 이미지를 후킹 방식을 통해 어플리케이션(50)에서 불러들여 그 이미지를 보정하는 작업을 수행하고 디스플레이 장치(30)를 통해 보정된 결과물을 출력할 수 있다. 이러한 어플리케이션(50)의 구동은 윈도우 오버레이 방식으로 이루어지므로, 내시경 컴퓨터(20)의 사양이 충분하지 않은 경우에도 이러한 어플리케이션(50)의 동작이 원활하게 수행될 수 있다.In the present invention, an image captured by the colonoscopy device may be retrieved from the application 50 through a hooking method, the image may be corrected, and the corrected result may be output through the display device 30 . Since the driving of the application 50 is performed in a window overlay method, the operation of the application 50 can be smoothly performed even when the specifications of the endoscope computer 20 are not sufficient.

어플리케이션(50)은 기존의 내시경 컴퓨터(20)에도 다운로드될 수 있도록 호환성을 갖는다. 어플리케이션(50)이 내시경 컴퓨터(20)에 다운로드되고, 활성화되면, 내시경 컴퓨터(20)은 어플리케이션(50)에 의해 촬영된 이미지에 대한 정보를 제공하게 되고 어플리케이션(50)은 딥러닝 및 영상처리를 통해 이미지 상의 정보를 분석한 후, 분석된 정보를 사용자가 확인할 수 있도록 디스플레이 장치(30)을 통해 출력한다.The application 50 has compatibility so that it can be downloaded to the existing endoscope computer 20 as well. When the application 50 is downloaded to the endoscope computer 20 and activated, the endoscope computer 20 provides information about the image taken by the application 50 and the application 50 performs deep learning and image processing. After analyzing the information on the image, the analyzed information is output through the display device 30 so that the user can check it.

어플리케이션(50)은 대장내시경 장치를 통해 촬영된 이미지에 대한 빛반사 등의 이미지 왜곡에 대한 보정을 수행할 수 있다. 이하에서는 딥러닝 기반의 대장내시경 영상분석시스템(1)의 영상분석방법을 설명한다.The application 50 may perform correction for image distortion such as light reflection on the image taken through the colonoscopy device. Hereinafter, an image analysis method of the deep learning-based colonoscopy image analysis system 1 will be described.

도 2는 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템의 영상분석방법을 설명하기 위한 도면이고, 도 3은 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템의 영상분류방법을 설명하기 위한 도면이다.2 is a diagram for explaining an image analysis method of a deep learning-based colonoscopy image analysis system according to an embodiment of the present invention, and FIG. 3 is a deep learning-based colonoscopy image analysis according to an embodiment of the present invention. It is a diagram for explaining the image classification method of the system.

도 2 및 도 3을 참조하면, 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템(1)은 딥러닝된 정보를 기초로 이미지 보정 및 병변에 대한 분류를 실시하고 이미지 정보를 학습할 수 있다.2 and 3, the deep learning-based colonoscopy image analysis system 1 according to an embodiment of the present invention performs image correction and classification of lesions based on the deep-learning information, and provides image information. can learn

본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템(1)은 촬영된 이미지로부터 대장 질환을 판독하기 위해 딥러닝 기술을 이용한다. 딥러닝(Deep learning)이란, 인공신경망(ANN: Artificial neural network)에서 발전한 형태의 인공지능으로서, 뇌의 뉴런과 유사한 정보 입출력 계층을 활용해 컴퓨터에게 사람의 사고방식을 가르치는 방법이다.The deep learning-based colonoscopy image analysis system 1 according to an embodiment of the present invention uses a deep learning technology to read a colon disease from a photographed image. Deep learning is a form of artificial intelligence developed from artificial neural networks (ANNs).

도 3에 도시된 바와 같이, 인공신경망은 입력레이어(input layer), 히든레이어(hidden layer) 및 출력레이어(output layer)를 포함할 수 있다.As shown in FIG. 3 , the artificial neural network may include an input layer, a hidden layer, and an output layer.

각각의 레이어는 복수의 노드(node)들을 포함하고, 각 레이어는 다음 레이어와 연결된다. 노드들은 웨이트(weight)를 가지고 서로 연결된다.Each layer includes a plurality of nodes, and each layer is connected to the next layer. Nodes are connected to each other with weights.

제1히든레이어에 속한 임의의 노드로부터의 출력은, 제2히든레이어에 속하는 적어도 하나의 노드로의 입력값이 된다. 이때, 각 노드의 입력은 이전 레이어의 노드의 출력에 웨이트(weight)가 적용된 값일 수 있다. 웨이트(weight)란, 노드 간의 연결강도를 의미한다. 딥러닝 과정은 적절한 웨이트(weight)를 찾아내는 과정으로도 볼 수 있다.An output from an arbitrary node belonging to the first hidden layer becomes an input value to at least one node belonging to the second hidden layer. In this case, the input of each node may be a value to which a weight is applied to the output of the node of the previous layer. A weight means the strength of a connection between nodes. The deep learning process can also be viewed as a process of finding an appropriate weight.

딥러닝을 보다 잘 이해하기 위해, 잘 알려진 얼굴인식 과정을 살펴보면, 컴퓨터는 입력 영상으로부터 픽셀의 밝기에 따라 밝은 픽셀과 어두운 픽셀을 구분하고, 테두리, 에지 등 단순한 형태를 구분한 후, 조금 더 복잡한 형태와 사물을 구분한다. 최종적으로 컴퓨터는 인간의 얼굴을 규정하는 형태를 파악할 수 있다. 이와 같이 특징을 구체화(인간 얼굴 형태의 규정)는 복수의 히든 레이어들을 거쳐 최종적으로 출력레이어에서 구해진다.In order to better understand deep learning, looking at the well-known face recognition process, the computer distinguishes between bright and dark pixels from the input image according to the brightness of the pixels, distinguishes simple shapes such as borders and edges, and then Distinguish between form and object. Finally, the computer can figure out the shape that defines the human face. In this way, the feature specification (regulation of the human face shape) is finally obtained from the output layer through a plurality of hidden layers.

서버(1)의 정보저장부(100)에는 병변의 양태, 심층신경망을 학습하기 위한 데이터, 심층신경망의 구조를 이루는 웨이트, 바이어스가 저장될 수 있다.The information storage unit 100 of the server 1 may store the aspect of the lesion, data for learning the deep neural network, weights constituting the structure of the deep neural network, and bias.

내시경 장치를 통해 대장 내부가 촬영되고 그 이미지에 대한 정보가 획득되면(S1), 이러한 이미지에 대한 정보는 어플리케이션(50)에 의해 딥러닝 연산작업을 수행하여 이미지를 보정한다(S2). 촬영된 이미지에 대한 데이터는 인풋데이터이고 다중의 히든레이어를 거쳐 보정된 이미지에 대한 데이터는 출력데이터이다. 노이즈가 제거된 보정된 출력데이터 이미지는 디스플레이 장치(30)에 표시된다.When the interior of the large intestine is photographed through the endoscope device and information about the image is obtained (S1), the information on the image is corrected by performing a deep learning operation by the application 50 (S2). Data for the captured image is input data, and data for the image corrected through multiple hidden layers is output data. The corrected output data image from which the noise is removed is displayed on the display device 30 .

이때의 이미지 보정은 빛반사에 의한 왜곡된 보정, 색 보정을 포함한다. 이미지 보정은 촬영된 이미지에 대해 전체적으로 이루어지거나, 사용자가 선택한 영역에 대해서만 이루어질 수도 있다. 예를 들어, 빛반사 보정의 경우, RGB 레벨이 각각 170 이상인 픽셀을 빛반사된 것으로 보고 빛반사 보정을 실행할 수 있다. 빛반사 보정, 색보정 방법은 종래의 방법이 적용될 수 있어 자세한 설명을 생략한다.In this case, image correction includes distortion correction due to light reflection and color correction. Image correction may be performed on the entire photographed image or only on a region selected by the user. For example, in the case of light reflection correction, it is possible to perform light reflection correction by considering pixels each having an RGB level of 170 or more as light reflection. A conventional method may be applied to the light reflection correction and color correction methods, and thus detailed descriptions thereof will be omitted.

보정된 이미지의 사례에 대해서는 딥러닝을 통해 학습되고(S3), 서버(10)의 정보저장부(100)에 학습된 정보가 저장된다.The case of the corrected image is learned through deep learning (S3), and the learned information is stored in the information storage unit 100 of the server 10.

사용자는 디스플레이부(30)에 표시된 이미지 상의 특정 관심영역을 지정하여(S4), 확대 관찰할 수 있다. 예를 들어, 비정상적인 것으로 의심되는 부위는 면밀히 살펴야 하기 때문에 확대하여 관찰할 수 있다. 관심영역으로 지정되어 확대된 이미지는 재차 빛반사 보정, 색보정이 이루어져 표시된다.The user may designate a specific region of interest on the image displayed on the display unit 30 ( S4 ), and observe enlarged. For example, areas suspected of being abnormal can be observed by magnifying them because they must be examined closely. The enlarged image designated as a region of interest is displayed after light reflection correction and color correction are performed again.

관심영역에 존재하는 병변에 대한 정보는 어플리케이션(50)을 통해 서버(1)로 전송되어 인풋데이터가 되고, 심층신경망을 거쳐 병변에 대한 정보가 추출된다(S5). 여기서, 병변에 대한 정보는 폴립(polyp)의 종류에 대한 것일 수 있다. 추출된 폴립에 대한 정보는 관심영역에 존재하는 폴립이 암으로 발전할 수 있는 비정상적인 것인지 여부, 악성종양으로의 발전 가능성, 폴립의 사이즈, 깊이, 위치 등을 포함한다.Information on the lesion existing in the region of interest is transmitted to the server 1 through the application 50 to become input data, and information on the lesion is extracted through the deep neural network (S5). Here, the information about the lesion may be about the type of polyp. The information about the extracted polyp includes whether the polyp present in the region of interest is abnormal that can develop into cancer, the possibility of developing into a malignant tumor, the size, depth, and location of the polyp.

병변에 대해서서는 딥러닝된 정보를 기초로 '하행결장에 위치한 5mm 이하의 선종형 용종으로서 암으로의 발전 가능성이 90%, 정상일 가능성이 10%'와 같은 방식으로 그 정보가 추출될 수 있다. 병변에 대해 추출된 정보는 디스플레이 장치(30)를 통해 출력되고, 사용자는 디스플레이 장치(30)를 통해 출력된 정보의 도움을 받아 병변에 대한 보다 정확한 진단을 내릴 수 있다.For lesions, based on the deep-learning information, the information can be extracted in the same way as 'adenomatous polyps of 5 mm or less located in the descending colon have a 90% chance of developing into cancer and a 10% chance of being normal'. The information extracted on the lesion is output through the display device 30 , and the user can make a more accurate diagnosis of the lesion with the help of the information output through the display device 30 .

딥러닝을 통해 업데이트된 병변에 대한 정보는 학습되어 서버(1)의 정보저장부(100)에 저장된다(S7). 상기 정보저장부(100)는 물리적인 서버(1)에 포함될 수도 있고, 클라우드 데이터베이스의 방식으로 마련될 수도 있다. 클라우드 데이터베이스에 업데이트된 정보가 저장되는 경우, 서버(10)는 클라우드 데이터베이스에 저장된 정보들을 이용하여 딥러닝의 연산작업을 실행할 수 있다.The information on the lesion updated through deep learning is learned and stored in the information storage unit 100 of the server 1 (S7). The information storage unit 100 may be included in the physical server 1 or may be provided in the form of a cloud database. When the updated information is stored in the cloud database, the server 10 may execute an operation of deep learning using the information stored in the cloud database.

병변에 대한 학습된 정보는 빅데이터화되어 정보저장부(100)에 저장되고 어플리케이션(50)의 사용자들은 누구나 그 정보에 접근할 수 있다. 즉, 사용자는 본인이 대장내시경 검사를 수행한 케이스뿐만 아니라, 어플리케이션(50)을 사용하는 제3자가 수행한 케이스에 대한 정보까지 모두 이용할 수 있어, 보다 많은 데이터를 기반으로 병변에 대한 정보를 더욱 정확하게 제공 받을 수 있게 된다.The learned information about the lesion is converted into big data and stored in the information storage unit 100 , and any user of the application 50 can access the information. That is, the user can use not only the case in which the colonoscopy was performed by the user, but also information about the case performed by a third party using the application 50, so that the information on the lesion can be further improved based on more data. can be provided accurately.

상기에서는 사용자가 직접 관심영역을 지정하여 그 관심영역에 대한 정보를 획득하는 방법에 관하여 설명했으나, 촬영된 이미지에서 병변으로 의심되는 부위를 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템이 딥러닝 정보를 이용하여 스스로 발견해서 사용자에게 그 정보를 전달하는 것도 가능하다.In the above description, a method for obtaining information on a region of interest by a user directly designating a region of interest has been described. It is also possible for the analysis system to discover itself using deep learning information and deliver the information to the user.

도 4는 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템에 의해 폴립의 형태가 표시된 모습을 도시한 도면이다.4 is a diagram illustrating a state in which the shape of a polyp is displayed by a deep learning-based colonoscopy image analysis system according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템(1)은 폴립의 크기 및 형태를 파악하기 쉽도록 폴립 부위의 형태를 테두리 라인을 형성해줄 수 있다. 테두리 라인을 형성하기 전, 상기에서 설명한 색보정, 빛반사 보정이 우선적으로 이루어질 수 있다.Referring to FIG. 4 , the deep learning-based colonoscopy image analysis system 1 according to an embodiment of the present invention may form a border line around the shape of the polyp so that the size and shape of the polyp can be easily identified. Before forming the edge line, the above-described color correction and light reflection correction may be performed preferentially.

딥러닝 정보를 기초로 폴립의 테두리 라인이 형성되면, 사용자는 폴립의 형태와 크기에 대한 정보를 용이하게 파악할 수 있다. When the border line of the polyp is formed based on the deep learning information, the user can easily grasp information on the shape and size of the polyp.

일반적으로 폴립의 형태 및 크기에 따라 대장암으로의 발전가능성이 달라질 수 있어, 폴립의 형태와 크기를 정확하게 파악하는 것이 중요하다. 본 발명의 일 실시예에 따르면, 폴립의 테두리 라인의 형성을 통해 폴립의 형태와 크기가 명확하게 파악될 수 있고, 나아가, 딥러닝을 기초로 폴립의 성격에 따른 분류 정보가 제공되므로, 사용자의 경험치에 의존하지 않고도 병변에 대한 정확한 진단을 내릴 수 있다.In general, the possibility of developing colorectal cancer may vary depending on the shape and size of the polyp, so it is important to accurately identify the shape and size of the polyp. According to an embodiment of the present invention, the shape and size of the polyp can be clearly identified through the formation of the border line of the polyp, and further, classification information according to the nature of the polyp is provided based on deep learning, so that the user's It is possible to make an accurate diagnosis of a lesion without relying on experience.

본 발명의 일 실시예에 따른 딥러닝 기반의 대장내시경 영상분석시스템 및 영상분석방법에 의하면, 기존의 대장내시경 장치 또는 내시경 컴퓨터를 교체할 필요가 없고, 추가적으로 이미지 보정을 위한 추가 장비를 구입할 필요 없이, 어플리케이션을 다운로드하여 높은 수준의 영상분석정보를 획득할 수 있어 비용상 유리하다. According to the deep learning-based colonoscopy image analysis system and image analysis method according to an embodiment of the present invention, there is no need to replace the existing colonoscopy device or endoscope computer, and there is no need to purchase additional equipment for image correction. , it is advantageous in terms of cost because it is possible to obtain high-level image analysis information by downloading the application.

상대적으로 낮은 비용으로 높은 수준이 이미지 보정 및 분석이 이루어져 사용자의 경험치와 무관하게 정확한 진단이 가능하므로, 중소형 병원이나 개발도상국가에서도 쉽게 높은 품질의 의료서비스를 제공받을 수 있고, 의료 서비스의 계층화가 심화되는 것을 방지할 수 있다.Since high-level image correction and analysis are performed at a relatively low cost and accurate diagnosis is possible regardless of the user's experience level, high-quality medical services can be easily provided even in small and medium-sized hospitals and developing countries, and the stratification of medical services is deepened. can be prevented from becoming

또한, 사용자 본인 뿐만 아니라 제3자에 의해 딥러닝된 병변에 대한 정보가 모두 데이터 풀(pool)에 저장되어 모든 사용자가 데이터 풀에 저장된 정보를 이용할 수 있어, 많은 사용자가 더욱 많은 케이스들에 본 발명을 사용할수록 사용자는 병변에 대해 더욱 정확한 정보를 제공받을 수 있게 된다.In addition, not only the user himself but also the information about the lesion deep-learned by a third party is stored in the data pool, so all users can use the information stored in the data pool, so many users see more cases in more cases. The more the invention is used, the more accurate information about the lesion can be provided to the user.

1: 딥러닝 기반의 대장내시경 영상분석시스템
10: 서버
20: 내시경 컴퓨터
30: 디스플레이 장치
50: 어플리케이션
100: 정보저장부
101: 제어부
1: Deep learning-based colonoscopy image analysis system
10: Server
20: endoscope computer
30: display device
50: application
100: information storage unit
101: control unit

Claims (10)

대장내시경 장치에 의해 촬영된 이미지를 전달받는 내시경 컴퓨터;
상기 내시경 컴퓨터에 다운로드된 어플리케이션을 통해 상기 내시경 컴퓨터로 전달되는 상기 이미지를 후킹 방식으로 획득하고, 상기 획득된 이미지의 보정 및 보정된 이미지를 바탕으로 한 진찰을 딥러닝 기반으로 실시하는 진단 알고리즘을 탑재하고, 상기 보정된 이미지와 상기 진단 알고리즘을 통해 도출된 진단 결과를 상기 내시경 컴퓨터로 전달하는 서버; 및
상기 내시경 컴퓨터로부터 상기 보정된 이미지와 상기 진단 결과를 전달받아 출력하는 디스플레이 장치;를 포함하는 딥러닝 기반의 대장내시경 영상분석시스템.
Endoscopy computer receiving the image taken by the colonoscopy device;
It is equipped with a diagnostic algorithm that acquires the image transmitted to the endoscope computer through an application downloaded to the endoscope computer in a hooking method, and performs correction of the acquired image and a diagnosis based on the corrected image based on deep learning and a server that transmits the corrected image and a diagnosis result derived through the diagnosis algorithm to the endoscope computer; and
A deep learning-based colonoscopy image analysis system including a; a display device for receiving and outputting the corrected image and the diagnosis result from the endoscope computer.
제1항에 있어서,
상기 어플리케이션은 윈도우 오버레이 방식으로 구동되는 것을 특징으로 하는 딥러닝 기반의 대장내시경 영상분석시스템.
According to claim 1,
The application is a deep learning-based colonoscopy image analysis system, characterized in that driven in a window overlay method.
제1항에 있어서,
딥러닝을 통해 학습된 정보는 상기 서버에 마련된 정보저장부에 저장되어 상기 어플리케이션의 사용자 간에 그 정보가 공유되는 딥러닝 기반의 대장내시경 영상분석시스템.
According to claim 1,
The information learned through deep learning is stored in the information storage unit provided in the server, and the information is shared among users of the application.
제1항에 있어서,
딥러닝을 통해 학습된 정보는 클라우드 데이터베이스에 저장되어 상기 어플리케이션의 사용자 간에 그 정보가 공유되는 딥러닝 기반의 대장내시경 영상분석시스템.
According to claim 1,
A deep learning-based colonoscopy image analysis system in which information learned through deep learning is stored in a cloud database and the information is shared between users of the application.
제1항에 있어서,
상기 서버로 전달된 이미지는, 딥러닝된 정보를 기초로 색보정, 빛반사 보정의 처리 과정을 거치는 것을 특징으로 하는 딥러닝 기반의 대장내시경 영상분석시스템.
According to claim 1,
The image transmitted to the server is a deep learning-based colonoscopy image analysis system, characterized in that it undergoes a process of color correction and light reflection correction based on the deep-learned information.
제1항에 있어서,
상기 내시경 장치에 의해 촬영된 이미지는 RGB 레벨이 각각 170이상인 픽셀에 대해 빛반사가 있는 것으로 판단하고, 상기 서버는 딥러닝을 통해 빛반사 보정을 실행하는 딥러닝 기반의 대장내시경 영상분석시스템.
According to claim 1,
A deep learning-based colonoscopy image analysis system that determines that the image taken by the endoscope device has light reflection for pixels having an RGB level of 170 or more, and the server executes light reflection correction through deep learning.
제1항에 있어서,
상기 서버로 전달된 이미지에는 폴립의 이미지가 포함하고, 딥러닝을 통해 상기 폴립의 형상에 부합하는 테두리 라인이 형성되어 상기 디스플레이 장치에 표시되는 딥러닝 기반의 대장내시경 영상분석시스템.
According to claim 1,
The image transmitted to the server includes an image of a polyp, and a border line matching the shape of the polyp is formed through deep learning and displayed on the display device.
내시경 장치에 의해 획득된 이미지가 내시경 컴퓨터에서 후킹되어 서버로 전달되는 단계;
딥러닝 기반으로 전달된 서버로 전달된 이미지를 보정하고 이미지 상의 병변에 대해 진단하고 학습하는 단계;
보정된 이미지 및 진단된 병변에 대한 정보가 내시경 컴퓨터로 전송되는 단계; 및
상기 보정된 이미지 및 진단된 병변에 대한 정보가 디스플레이 장치에 표시되는 단계;를 포함하는 딥러닝 기반의 대장내시경 영상분석방법.
An image acquired by the endoscope device is hooked in the endoscope computer and transferred to a server;
calibrating the image delivered to the server delivered based on deep learning and diagnosing and learning the lesion on the image;
transmitting the corrected image and information on the diagnosed lesion to the endoscope computer; and
Displaying the corrected image and information on the diagnosed lesion on a display device; Deep learning-based colonoscopy image analysis method comprising a.
제8항에 있어서,
보정된 이미지 및 진단된 병변에 대한 정보는 어플리케이션 사용자에게 개방된 저장공간에 저장되는 단계를 더 포함하는 딥러닝 기반의 대장내시경 영상분석방법.
9. The method of claim 8,
The information on the corrected image and the diagnosed lesion is a deep learning-based colonoscopy image analysis method further comprising the step of storing the information in a storage space open to the application user.
제8항에 있어서,
상기 서버로 전달된 이미지 상에 존재하는 폴립의 형태를 따라 테두리 라인을 형성하여 디스플레이 장치에 표시하는 단계를 더 포함하는 딥러닝 기반의 대장내시경 영상분석방법.
9. The method of claim 8,
Deep learning-based colonoscopy image analysis method further comprising the step of forming a border line along the shape of the polyp present on the image transmitted to the server and displaying it on a display device.
KR1020210046632A 2021-04-09 2021-04-09 Deep-learning based colonoscopy image analysis method and using the same KR20220140924A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210046632A KR20220140924A (en) 2021-04-09 2021-04-09 Deep-learning based colonoscopy image analysis method and using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210046632A KR20220140924A (en) 2021-04-09 2021-04-09 Deep-learning based colonoscopy image analysis method and using the same

Publications (1)

Publication Number Publication Date
KR20220140924A true KR20220140924A (en) 2022-10-19

Family

ID=83804592

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210046632A KR20220140924A (en) 2021-04-09 2021-04-09 Deep-learning based colonoscopy image analysis method and using the same

Country Status (1)

Country Link
KR (1) KR20220140924A (en)

Similar Documents

Publication Publication Date Title
US10803582B2 (en) Image diagnosis learning device, image diagnosis device, image diagnosis method, and recording medium for storing program
KR101887194B1 (en) Method for facilitating dignosis of subject based on medical imagery thereof, and apparatus using the same
CN109523522B (en) Endoscopic image processing method, device, system and storage medium
CN110600122B (en) Digestive tract image processing method and device and medical system
US9445713B2 (en) Apparatuses and methods for mobile imaging and analysis
KR101874348B1 (en) Method for facilitating dignosis of subject based on chest posteroanterior view thereof, and apparatus using the same
JPWO2018225448A1 (en) Diagnosis support method for diseases by endoscopic image of digestive organs, diagnosis support system, diagnosis support program, and computer-readable recording medium storing the diagnosis support program
WO2018165620A1 (en) Systems and methods for clinical image classification
US20120166211A1 (en) Method and apparatus for aiding imaging diagnosis using medical image, and image diagnosis aiding system for performing the method
JP2022033126A (en) Detection of pathologies in ocular images
EP2397990B1 (en) Image processing apparatus, image processing method, and image processing program
US20210161363A1 (en) Endoscope processor, information processing device, and program
CN110326024A (en) Method and apparatus for handling the histology picture by medical imaging apparatus capture
US20210151171A1 (en) Apparatus and method for medical image reading assistant providing representative image based on medical use artificial neural network
JP2007151645A (en) Medical diagnostic imaging support system
US20230206435A1 (en) Artificial intelligence-based gastroscopy diagnosis supporting system and method for improving gastrointestinal disease detection rate
US20240062904A1 (en) Tumor diagnosis system and construction method thereof, terminal device and storage medium
KR20220140924A (en) Deep-learning based colonoscopy image analysis method and using the same
KR20230118054A (en) Method and system for predicting biomarker expression in medical image
CN112862746B (en) Tissue lesion identification method and system based on artificial neural network
JP2022132180A (en) Artificial intelligence-based gastroscopy video diagnosis supporting system and method
JP7346600B2 (en) Cervical cancer automatic diagnosis system
KR20180133091A (en) Health diagnostic system and method using tongue
US20230386660A1 (en) System and method for detecting gastrointestinal disorders
KR102527778B1 (en) Apparatus and method for generating learning data

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application