KR20230171799A - Cervical image diagnosis preprocessing system - Google Patents

Cervical image diagnosis preprocessing system Download PDF

Info

Publication number
KR20230171799A
KR20230171799A KR1020220072389A KR20220072389A KR20230171799A KR 20230171799 A KR20230171799 A KR 20230171799A KR 1020220072389 A KR1020220072389 A KR 1020220072389A KR 20220072389 A KR20220072389 A KR 20220072389A KR 20230171799 A KR20230171799 A KR 20230171799A
Authority
KR
South Korea
Prior art keywords
image
cervical
images
cervix
reading
Prior art date
Application number
KR1020220072389A
Other languages
Korean (ko)
Inventor
정재훈
Original Assignee
주식회사 아이도트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이도트 filed Critical 주식회사 아이도트
Priority to KR1020220072389A priority Critical patent/KR20230171799A/en
Publication of KR20230171799A publication Critical patent/KR20230171799A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/43Detecting, measuring or recording for evaluating the reproductive systems
    • A61B5/4306Detecting, measuring or recording for evaluating the reproductive systems for evaluating the female reproductive systems, e.g. gynaecological evaluations
    • A61B5/4318Evaluation of the lower reproductive system
    • A61B5/4331Evaluation of the lower reproductive system of the cervix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Gynecology & Obstetrics (AREA)
  • Reproductive Health (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 판독에 적합하지 않은 자궁경부 영상도 판독 가능한 영상으로 대체하여 판독하는 자궁경부 영상 판독 전처리 시스템에 관한 것으로, 입력되는 자궁경부 영상을 판독 적합 혹은 판독 부적합 영상으로 분류하는 자궁경부 영상 분류모델과; 상기 자궁경부 영상 분류모델로부터 입력되는 판독 부적합 영상을 판독 적합한 자궁경부 영상으로 대체하여 복원하는 영상 복원 모델과; 상기 자궁경부 영상 분류모델과 상기 영상 복원 모델로부터 각각 입력되는 자궁경부 영상에 대해 자궁경부 병변을 판독해 그 결과를 출력하는 자궁경부 판독모델;을 포함함을 특징으로 한다.The present invention relates to a cervical image reading pre-processing system that replaces cervical images that are not suitable for reading with readable images, and a cervical image classification model that classifies input cervical images as suitable or unsuitable for reading. class; an image restoration model that replaces and restores unreadable images input from the cervix image classification model with readable cervix images; and a cervix reading model that reads cervical lesions for the cervix images input from the cervix image classification model and the image restoration model and outputs the results.

Figure P1020220072389
Figure P1020220072389

Description

자궁경부 영상 판독 전처리 시스템{Cervical image diagnosis preprocessing system}Cervical image diagnosis preprocessing system

본 발명은 자궁경부 영상의 자동 판독 시스템에 관한 것으로, 특히 판독에 적합하지 않은 자궁경부 영상도 판독 가능한 영상으로 대체하여 판독하는 자궁경부 영상 판독 전처리 시스템에 관한 것이다.The present invention relates to an automatic interpretation system for cervical images, and in particular, to a cervical image interpretation pre-processing system that replaces cervical images that are not suitable for interpretation with readable images.

자궁경부를 진단하는 방법중 하나로서 자궁경부를 카메라로 촬영하여 관찰하고 위험도를 진단하는 자궁경부 촬영술이 있다. 진일보한 형태로서 카메라로 촬영된 자궁경부 영상에 대해 딥러닝 기반의 신경망(인공 신경망)을 통해 위험도를 자동 진단하는 시스템들도 소개되고 있다.One of the methods of diagnosing the cervix is cervix imaging, which involves taking pictures of the cervix with a camera, observing them, and diagnosing the risk. As an advanced form, systems that automatically diagnose the risk of cervical images captured with a camera using a deep learning-based neural network (artificial neural network) are also being introduced.

상기 예시한 방법들에 있어서, 카메라를 통해 얻어지는 자궁경부 영상 이미지에는 다양한 형태의 판독 방해요소가 존재한다. 판독 방해요소는 카메라의 성능이나 촬영방식의 차이, 촬영자의 의도에 따라 발생할 수 있다. 판독 방해요소가 존재하는 영상으로는 너무 밝은 영상 이미지, 흔들린 영상 이미지(Blur), 그린 필터를 사용한 영상 이미지, 모니터나 종이에 인쇄된 자궁경부를 찍은 영상 이미지를 예로 들 수 있다.In the above-described methods, various types of reading interference elements exist in the cervix image obtained through the camera. Interference with reading may occur depending on camera performance, differences in shooting method, or photographer's intention. Examples of images that may interfere with reading include images that are too bright, blurred images, images using a green filter, and images of the cervix printed on a monitor or paper.

실제 임상에서도 전문의들은 판독 방해요소가 존재하는 영상(이하 판독 부적합 영상이라 함) 이미지들을 판독 불가능한 이미지로 처리하여 판독 진행하지 않는 것이 일반적이다. 인공 신경망 모델을 이용해 자궁경부의 위험도를 자동 판독(진단)하는 시스템에서도 판독 방해요소가 존재하는 영상 이미지들에 대해서는 정상적인 판독 결과를 얻을 수 없다.Even in actual clinical trials, it is common for specialists to treat images with elements that interfere with reading (hereinafter referred to as unreadable images) as unreadable images and not proceed with reading them. Even in systems that automatically read (diagnose) the risk of the cervix using an artificial neural network model, normal reading results cannot be obtained for video images that have elements that interfere with reading.

따라서 자궁경부 영상에 대한 판독의 신뢰성을 향상시키기 위해서는 판독 방해요소가 존재하는 영상 이미지를 사전에 제거하거나 판독 가능한 영상으로 대체하여 판독하는 것이 필요하다.Therefore, in order to improve the reliability of interpretation of cervical images, it is necessary to remove images that interfere with interpretation in advance or replace them with readable images.

대한민국 등록특허공보 제10-2316557호Republic of Korea Patent Publication No. 10-2316557

이에 본 발명은 상술한 필요성에 따라 창안한 발명으로서, 본 발명의 주요 목적은 판독 방해요소가 존재하는 자궁경부 영상 이미지를 사전에 분류하고 이를 판독 가능한 영상 이미지로 대체하여 판독함으로써 판독결과의 신뢰성을 향상시킬 수 있는 자궁경부 영상 판독 전처리 시스템을 제공함에 있다.Accordingly, the present invention is an invention created in response to the above-mentioned need, and the main purpose of the present invention is to classify in advance cervix images with reading interference elements and replace them with readable images to improve the reliability of the reading results. The goal is to provide a cervical image interpretation preprocessing system that can be improved.

전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 자궁경부 영상 판독 전처리 시스템은 컴퓨터 시스템의 메모리에 설치되어 실행되는 시스템으로서,The cervical image reading pre-processing system according to an embodiment of the present invention to achieve the above-described object is a system installed and executed in the memory of a computer system,

입력되는 자궁경부 영상을 판독 적합 혹은 판독 부적합 영상으로 분류하는 자궁경부 영상 분류모델과;A cervix image classification model that classifies the input cervix image into an image suitable for reading or an image unsuitable for reading;

상기 자궁경부 영상 분류모델로부터 입력되는 판독 부적합 영상을 판독 적합한 자궁경부 영상으로 대체하여 복원하는 영상 복원 모델과;an image restoration model that replaces and restores unreadable images input from the cervix image classification model with readable cervix images;

상기 자궁경부 영상 분류모델과 상기 영상 복원 모델로부터 각각 입력되는 자궁경부 영상에 대해 자궁경부 병변을 판독해 그 결과를 출력하는 자궁경부 판독모델;을 포함함을 특징으로 한다.and a cervix reading model that reads cervical lesions for the cervix images input from the cervix image classification model and the image restoration model and outputs the results.

더 나아가 상술한 구성을 포함하는 자궁경부 영상 판독 전처리 시스템에 있어서, 상기 자궁경부 영상 분류모델은,Furthermore, in the cervical image reading pre-processing system including the above-described configuration, the cervical image classification model is,

사전 학습된 상기 자궁경부 판독모델의 웨이트(weight)들을 공유하여 학습진행하되, 그린필터 적용된 자궁경부 영상, 흔들림 반영(blur)된 자궁경부 영상, 모니터나 종이에 표시되어 촬영된 자궁경부 영상, 임계치 이상의 밝기를 가지는 자궁경부 영상 중 적어도 하나 이상을 판독 부적합 영상으로 분류함을 특징으로 한다.Learning is carried out by sharing the weights of the pre-trained cervix interpretation model, including the cervix image with a green filter applied, the cervix image with blur reflected, the cervix image displayed and captured on a monitor or paper, and the threshold value. It is characterized by classifying at least one of the cervix images with the brightness above or above as an unreadable image.

아울러 상기 영상 복원 모델은,In addition, the image restoration model is,

추론시에 상기 자궁경부 영상 분류모델로부터 입력되는 판독 부적합 영상에 대해 판독 적합한 자궁경부 영상의 특징이 추출되도록 사전 학습된 인코더와,An encoder pre-trained to extract features of a cervical image suitable for reading from an unreadable image input from the cervical image classification model during inference;

상기 인코더에서 추출된 자궁경부 영상의 특징이 포함된 컨텐트(content) 맵을 입력받아 판독 적합한 자궁경부 영상으로 대체하여 복원 출력하는 디코더부;를 포함함을 특징으로 한다.and a decoder unit that receives a content map containing the features of the cervical image extracted from the encoder, replaces it with a cervical image suitable for reading, and outputs the reconstruction.

또한 상술한 자궁경부 영상 판독 전처리 시스템의 인코더는,In addition, the encoder of the cervical image reading preprocessing system described above is,

사전 학습된 상기 자궁경부 영상 분류모델의 웨이트들을 공유하여 사전 학습진행함을 특징으로 하며,It is characterized by pre-learning by sharing the weights of the pre-trained cervical image classification model,

상기 인코더는 학습모드에서 상기 자궁경부 영상 분류모델로부터 입력되는 판독 부적합 영상에 대해 판독 적합한 자궁경부 영상의 특징, 그린필터 적용된 자궁경부 영상의 특징, 흔들림 반영(blur)된 자궁경부 영상의 특징, 모니터나 종이에 표시되어 촬영된 자궁경부 영상의 특징, 임계치 이상의 밝기를 가지는 자궁경부 영상의 특징 중 어느 하나의 특징이 포함된 컨텐트 맵을 출력함을 특징으로 한다.In the learning mode, the encoder monitors the features of the cervical image suitable for reading, the characteristics of the cervical image to which a green filter is applied, the characteristics of the cervical image to which shaking is reflected (blur), for the unreadable image input from the cervical image classification model in the learning mode. It is characterized by outputting a content map containing any one of the features of the cervical image displayed on paper and captured, and the characteristics of the cervical image with brightness above a threshold.

상술한 기술적 과제 해결 수단에 따르면, 본 발명의 실시예에 따른 자궁경부 영상 판독 전처리 시스템은 판독 방해요소가 존재하는 자궁경부 영상 이미지를 분류하여 이를 판독 가능한 깨끗한 영상으로 대체하여 자궁경부 판독함으로써, 결과적으로 자궁경부 영상에 대한 판독의 신뢰성을 향상시키는 효과를 제공한다.According to the means for solving the technical problem described above, the cervix image reading pre-processing system according to an embodiment of the present invention classifies the cervix image images in which reading interference elements exist, replaces them with clear readable images, and reads the cervix, resulting in This provides the effect of improving the reliability of interpretation of cervical images.

도 1은 본 발명의 실시예에 따른 자궁경부 영상 판독 전처리 시스템의 구성 예시도.
도 2는 도 1 중 영상 복원 모델의 구성 예시도.
도 3은 도 1에 도시한 영상 복원 모델의 학습시의 동작을 부연 설명하기 위한 도면.
도 4는 도 1에 도시한 영상 복원 모델의 추론시의 동작을 부연 설명하기 위한 도면.
1 is an exemplary configuration diagram of a cervical image reading pre-processing system according to an embodiment of the present invention.
Figure 2 is an example configuration of the image restoration model in Figure 1.
FIG. 3 is a diagram for further explaining the operation during learning of the image restoration model shown in FIG. 1.
FIG. 4 is a diagram for further explaining the operation during inference of the image restoration model shown in FIG. 1.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.The detailed description of the present invention described below refers to the accompanying drawings, which show by way of example specific embodiments in which the present invention may be practiced to make clear the objectives, technical solutions and advantages of the present invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention.

그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐 '학습'은 절차에 따라 기계 학습(deep learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다. 또한 본 발명의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 구성 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.In addition, the term 'learning' throughout the detailed description and claims of the present invention refers to performing machine learning (deep learning) according to procedures, and is not intended to refer to mental operations such as human educational activities. will be understandable. Also, throughout the detailed description and claims of the present invention, the word 'comprise' and its variations are not intended to exclude other technical features, attachments, components or steps. Other objects, advantages and features of the invention will appear to those skilled in the art, partly from this description and partly from practice of the invention. The examples and drawings below are provided by way of example and are not intended to limit the invention. Moreover, the present invention encompasses all possible combinations of the embodiments shown herein. It should be understood that the various embodiments of the invention are different from one another but are not necessarily mutually exclusive. For example, features and features described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description that follows is not intended to be taken in a limiting sense, and the scope of the invention is limited only by the appended claims, together with all equivalents to what those claims assert, if properly described. Similar reference numbers in the drawings refer to identical or similar functions across various aspects.

본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In this specification, unless otherwise indicated or clearly contradictory to the context, items referred to in the singular include plural unless the context otherwise requires. Additionally, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.

참고적으로 본 발명에 이용되는 기계 학습 모델(machine learning model) 중 하나인 CNN(convolutional neural network; 합성곱 신경망) 모델은 인공 신경망을 다층으로 쌓은 형태로 간략하게 설명할 수 있다. 즉, 이는 깊은 구조의 네트워크라는 의미로 심층 신경망(deep neural network; 딥 뉴럴 네트워크)이라고 표현되며, 통상 다층의 네트워크로 이루어진 구조에서 다량의 데이터를 학습시킴으로써 각각의 이미지의 특징을 자동으로 학습하고, 이를 통하여 목적 함수의 에러(error)를 최소화시키는 방법으로 네트워크를 학습시켜 나아가는 형태이다. 이는, 일견 인간 두뇌의 신경세포 간의 연결로도 표현이 되는바, 이에 따라 인공지능의 대표격으로 자리잡고 있다. 특히, CNN은 이미지와 같은 2차원 이미지의 분류에 적합한 모델로서, 이미지의 각 영역을 복수의 필터를 이용하여 특징 지도(feature map)를 만들어내는 합성층(convolution layer)과 특징 지도의 크기를 줄여 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 풀링층(pooling layer; sub-sampling layer)을 반복함으로써 점, 선, 면 등의 저 수준의 특징에서부터 복잡하고 의미 있는 고 수준의 특징까지 다양한 수준의 특징을 추출할 수 있게 되며, 최종적으로 완전 연결층(fully-connected layer)를 통하여 추출된 특징을 기존 모델의 입력값으로서 이용하면 더 높은 정확도의 분류 모델을 구축할 수 있는 장점이 있다.For reference, the CNN (convolutional neural network) model, one of the machine learning models used in the present invention, can be briefly described as a multi-layered artificial neural network. In other words, it is expressed as a deep neural network (deep neural network) in the sense that it is a network with a deep structure. It automatically learns the characteristics of each image by learning a large amount of data in a structure consisting of a multi-layer network, Through this, the network is trained in a way that minimizes the error of the objective function. At first glance, this can be expressed as a connection between nerve cells in the human brain, and thus is established as a representative example of artificial intelligence. In particular, CNN is a model suitable for classifying two-dimensional images such as images. It uses a convolution layer that creates a feature map by using multiple filters for each area of the image and reduces the size of the feature map. By repeating the pooling layer (sub-sampling layer), which allows extracting features that are invariant to changes in position or rotation, from low-level features such as points, lines, and surfaces to complex and meaningful high-level features. Features at various levels can be extracted, and ultimately, there is an advantage in building a classification model with higher accuracy by using the features extracted through a fully-connected layer as input to an existing model. .

이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, in order to enable those skilled in the art to easily practice the present invention, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 실시예에 따른 자궁경부 영상 판독 전처리 시스템의 구성도를 예시한 것이며, 도 2는 도 1 중 영상 복원 모델(150)의 구성도를 각각 예시한 것이다.FIG. 1 illustrates a configuration diagram of a cervical image reading pre-processing system according to an embodiment of the present invention, and FIG. 2 illustrates a configuration diagram of the image restoration model 150 in FIG. 1 .

본 발명의 실시예에 따른 자궁경부 영상 판독 전처리 시스템은 본원 출원인에 의해 선출원되어 등록된 시스템, 예를 들면 자궁경부 영상 획득기에 임베디드 시스템으로 구현 가능함은 물론, 전문의(진단자)의 컴퓨터 시스템에 설치되어 컴퓨터 시스템의 메인 프로세서에 의해 실행 가능한 프로그램 데이터들의 집합체(응용 프로그램)로 구현 가능하다.The cervical image reading pre-processing system according to an embodiment of the present invention can be implemented as an embedded system in a system previously applied and registered by the applicant, for example, a cervical image acquisition device, as well as in the computer system of a specialist (diagnostician). It can be implemented as a collection of program data (application program) that is installed and executable by the main processor of a computer system.

도 1에서는 전문의의 컴퓨터 시스템에 설치되어 있는 자궁경부 영상 판독 전처리 시스템을 도시한 것으로, 상기 자궁경부 영상 판독 전처리 시스템은,Figure 1 shows a cervical image reading pre-processing system installed in a specialist's computer system. The cervical image reading pre-processing system includes,

입력되는 자궁경부 영상을 판독 적합 혹은 판독 부적합 영상으로 분류하는 자궁경부 영상 분류모델(100)을 포함한다.It includes a cervix image classification model 100 that classifies the input cervix image into a suitable or unreadable image.

판독 적합 영상이란 자궁경부 영상을 판독하기에 적합한 영상으로서 clear and fine 파인 상태의 영상인 것으로 가정한다. 이에 반하여 판독 부적합 영상은 그린필터 적용된 자궁경부 영상, 흔들림 반영(blur)된 자궁경부 영상, 모니터나 종이에 표시되어 촬영된 자궁경부 영상, 임계치 이상의 밝기를 가지는 자궁경부 영상인 것으로 가정한다. 이러한 판독 부적합 영상은 예시일 뿐, 전문의에 의해 판독 부적합한 영상으로 지정된 모든 영상이 판독 부적합 영상으로 간주될 수 있다.An image suitable for reading is an image suitable for reading a cervical image and is assumed to be an image in a clear and fine state. In contrast, images that are unsuitable for interpretation are assumed to be a cervical image with a green filter applied, a cervical image with blur, a cervical image captured while displayed on a monitor or paper, and a cervical image with brightness above the threshold. These unreadable images are only examples, and all images designated as unreadable by a specialist may be considered unreadable images.

자궁경부 영상 판독 전처리 시스템은 상기 자궁경부 영상 분류모델(100)로부터 입력되는 판독 부적합 영상을 판독 적합한 자궁경부 영상으로 대체하여 복원하는 영상 복원 모델(150)과,The cervical image interpretation pre-processing system includes an image restoration model (150) that replaces and restores an image that is unsuitable for interpretation input from the cervical image classification model (100) with a cervical image that is suitable for interpretation;

상기 자궁경부 영상 분류모델(100)과 상기 영상 복원 모델(150)로부터 각각 입력되는 자궁경부 영상에 대해 자궁경부 병변을 판독해 그 결과를 출력하는 자궁경부 판독모델(200)을 포함한다.It includes a cervix reading model 200 that reads cervical lesions for the cervix images input from the cervix image classification model 100 and the image restoration model 150 and outputs the results.

상술한 자궁경부 영상 분류모델(100), 영상 복원 모델(150), 자궁경부 판독 모델(200) 각각은 학습모드(transfer Learning)와 추론모드를 가지는 심층 신경망, 특히 합성곱 신경망(Convolution Neural Network:CNN)으로 구현 가능하며, 후술할 상기 영상 복원 모델(150)을 구성하는 인코더와 디코더부 역시 합성곱 신경망을 사용하여 구체화될 수 있다.Each of the above-described cervical image classification model (100), image restoration model (150), and cervical reading model (200) is a deep neural network with a learning mode (transfer learning) and an inference mode, especially a convolution neural network: CNN), and the encoder and decoder units that make up the image restoration model 150, which will be described later, can also be implemented using a convolutional neural network.

참고적으로 상기 자궁경부 영상 분류모델(100)은 사전 학습된 자궁경부 판독모델(200)의 웨이트(weight)들을 공유하여 학습 진행하되, 그린필터 적용된 자궁경부 영상, 흔들림 반영(blur)된 자궁경부 영상, 모니터나 종이에 표시되어 촬영된 자궁경부 영상, 임계치 이상의 밝기를 가지는 자궁경부 영상 중 적어도 하나 이상을 판독 부적합 영상으로 분류할 수 있도록 학습 진행한다. 이에 자궁경부 영상 분류모델(100)은 추론단계에서 그린필터 적용된 자궁경부 영상, 흔들림 반영(blur)된 자궁경부 영상, 모니터나 종이에 표시되어 촬영된 자궁경부 영상, 임계치 이상의 밝기를 가지는 자궁경부 영상 중 하나 이상을 판독 부적합 영상으로 분류할 수 있다.For reference, the cervix image classification model 100 is trained by sharing the weights of the pre-trained cervix interpretation model 200, but the cervix image with a green filter applied and the cervix with blurred cervix are used for learning. Training is conducted to classify at least one of the images, cervical images displayed on a monitor or paper and captured, and cervical images with brightness above the threshold as unreadable images. Accordingly, the cervical image classification model 100 includes a cervical image with a green filter applied in the inference stage, a cervical image with blur reflected, a cervical image captured and displayed on a monitor or paper, and a cervical image with brightness above the threshold. One or more of the images may be classified as unreadable images.

한편, 영상 복원 모델(150)은 추론시에 상기 자궁경부 영상 분류모델(100)로부터 입력되는 판독 부적합 영상에 대해 판독 적합(clear and fine)한 자궁경부 영상의 특징이 추출되도록 사전 학습된 인코더(152)와,Meanwhile, the image restoration model 150 uses an encoder ( 152) Wow,

상기 인코더(152)에서 추출된 자궁경부 영상의 특징이 포함된 컨텐트(content) 맵을 입력받아 판독 적합한 자궁경부 영상으로 대체하여 복원 출력하는 디코더부(153)를 포함한다. 여기서의 복원은 자궁경부 영상의 특징을 가지는 컨텐트 맵을 다시 이미지 레벨(이미지 원본 크기와 clear and fine 특징을 가지는 이미지)로 복원한다는 의미이며, 판독을 위해 시스템에 입력되는 자궁경부 영상을 고려해 보면, 디코더(154)에서 복원된 영상은 결과적으로 입력 영상을 대체하는 영상으로 간주될 수 있다.It includes a decoder unit 153 that receives a content map containing the characteristics of the cervical image extracted from the encoder 152, replaces it with a cervical image suitable for reading, and outputs the reconstructed image. Restoration here means restoring the content map with the characteristics of the cervical image back to the image level (an image with the original image size and clear and fine features). Considering the cervical image input to the system for interpretation, The image restored in the decoder 154 may be regarded as an image that ultimately replaces the input image.

상기 인코더(152) 역시 도 1에 도시한 바와 같이 사전 학습된 자궁경부 영상 분류모델(100)의 웨이트들을 공유하여 사전 학습 진행함으로써, 추론시 도 2에 도시한 바와 같이 그린필터 적용된 자궁경부 영상의 특징, 흔들림 반영(blur)된 자궁경부 영상의 특징, 모니터나 종이에 표시되어 촬영된 자궁경부 영상의 특징, 임계치 이상의 밝기를 가지는 자궁경부 영상의 특징(Feature Maps) 중 하나 이상의 특징을 추출할 수 있다.As shown in FIG. 1, the encoder 152 also performs pre-training by sharing the weights of the pre-trained cervical image classification model 100, so that during inference, the green filter-applied cervical image is used as shown in FIG. 2. One or more features can be extracted among features, features of a cervical image reflected by blur (blur), features of a cervical image captured and displayed on a monitor or paper, and features of a cervical image with brightness above the threshold (Feature Maps). there is.

한편, 디코더부(153)는 도 3에 도시한 바와 같이 임계치 이상의 밝기(Brightness) 특징을 가지되 clear and fine 특징도 가지는 자궁경부 영상을 복원하는 디코더(153-1)와, 그린필터 적용된 특징을 가지되 clear and fine 특징도 가지는 자궁경부 영상을 복원하는 디코더(153-2), 모니터나 종이에 표시되어 촬영된 자궁경부 영상의 특징을 가지되 clear and fine 특징도 가지는 자궁경부 영상을 복원하는 디코더(153-3)와, 흔들림 반영(blur)된 특징과 clear and fine 특징을 가지는 자궁경부 영상을 복원하는 디코더(153-4) 및, clear and fine 특징 즉 판독 적합한 특징을 가지는 자궁경부 영상을 복원하는 디코더(153-5)를 포함한다.Meanwhile, as shown in FIG. 3, the decoder unit 153 includes a decoder 153-1 that restores a cervical image that has brightness characteristics above the threshold but also has clear and fine characteristics, and a green filter applied feature. A decoder (153-2) that restores a cervical image that has the characteristics of a cervical image that is displayed on a monitor or paper and has clear and fine features, but also restores a cervical image that has clear and fine features (153-3) and a decoder (153-4) that restores a cervical image with blurred features and clear and fine features, and restores a cervical image with clear and fine features, that is, features suitable for reading. It includes a decoder (153-5) that does.

자궁경부 판독 모델(200)은 학습모드에서 전문의 등에 의해 설정된 학습데이터의 특징을 학습하는 기계학습모델을 포함하며, 추론모드에서 상기 기계학습모델은 앞단에서 전처리되어 복원되거나 적합한 영상으로 분류된 자궁경부 영상에 대해 자궁경부암의 발병 여부에 관한 판독 정보를 생성하여 유저 인터페이스 화면을 통해 출력한다.The cervix interpretation model 200 includes a machine learning model that learns the characteristics of learning data set by a specialist, etc. in a learning mode, and in an inference mode, the machine learning model is preprocessed at the front end and restored or classified into an appropriate image. For cervical images, readout information regarding the occurrence of cervical cancer is generated and output through the user interface screen.

이하 도 1에 도시한 자궁경부 영상 판독 전처리 시스템의 동작을 첨부 도면을 참조하여 부연 설명하기로 한다.Hereinafter, the operation of the cervix image reading pre-processing system shown in FIG. 1 will be further explained with reference to the accompanying drawings.

도 3은 도 1에 도시한 영상 복원 모델(150)의 학습시의 동작을 부연 설명하기 위한 도면을 도시한 것이며, 도 4는 도 1에 도시한 영상 복원 모델(150)의 추론시의 동작을 부연 설명하기 위한 도면을 도시한 것이다.FIG. 3 is a diagram for further explaining the operation of the image restoration model 150 shown in FIG. 1 during learning, and FIG. 4 illustrates the operation of the image restoration model 150 shown in FIG. 1 during inference. A drawing is shown for further explanation.

우선 본 발명의 실시예에서는 딥러닝 모델 학습시 많이 사용하는 방식으로, 특징 추출 역할을 하는 백본 네트워크의 사전 학습된 웨이트(weight)를 공유하여 다른 립러닝 모델의 학습 초기 단계에 사용한다. 즉, 자궁경부 판독 모델(200)의 자궁경부 학습 데이터(그린필터 적용된 자궁경부 영상 데이터, 흔들림 반영(blur)된 자궁경부 영상 데이터, 모니터나 종이에 표시되어 촬영된 자궁경부 영상 데이터, 임계치 이상의 밝기를 가지는 자궁경부 영상 데이터, clear and fine 특징을 가지는 자궁경부 영상 데이터)에 대해 사전 학습된 웨이트를 자궁경부 영상 분류 모델(100) 학습시에 공유받아 학습을 진행한다. 아울러 영상 복원 모델(150)의 인코더(152) 학습시에도 자궁경부 영상 분류모델(100)에서 사전 학습된 웨이트를 공유받아 학습을 진행한다.First, in an embodiment of the present invention, a method commonly used when learning a deep learning model is used in the initial stage of learning of another lip learning model by sharing the pre-trained weight of the backbone network that plays the role of feature extraction. That is, the cervix learning data of the cervix reading model 200 (cervix image data with green filter applied, cervix image data with blur reflected, cervix image data captured and displayed on a monitor or paper, brightness above the threshold) When learning the cervical image classification model (100), pre-learned weights for cervical image data (cervical image data with clear and fine features) are shared and learning is performed. In addition, when learning the encoder 152 of the image restoration model 150, the pre-trained weights from the cervical image classification model 100 are shared and learned.

이와 같이 학습모드에서 자궁경부 영상 판독 전처리 시스템의 전처리부에 해당하는 합성곱 신경망 모델들에서 타 모델에서 사전 학습된 웨이트들을 공유하게 되면, 예를 들어 자궁경부 영상 분류모델(100)에서는 부적합한 자궁경부 영상으로서, 그린필터 적용된 자궁경부 영상, 흔들림 반영(blur)된 자궁경부 영상, 모니터나 종이에 표시되어 촬영된 자궁경부 영상, 임계치 이상의 밝기를 가지는 자궁경부 영상들을 부적합 영상으로 보다 더 잘 분류할 수 있으며, 영상 복원 모델(150)내의 인코더(152)는 자궁경부 영상의 부적합한 특징, 예를 들면, 그린필터 적용된 자궁경부 영상의 특징, 흔들림 반영(blur)된 자궁경부 영상의 특징, 모니터나 종이에 표시되어 촬영된 자궁경부 영상의 특징, 임계치 이상의 밝기를 가지는 자궁경부 영상의 특징과, 판독 적합한 clear and fine의 자궁경부 영상 특징을 더 잘 추출할 수 있다. 판독 적합한 clear and fine의 자궁경부 영상 역시 인코더(152)를 학습시키기 위한 데이터 셋에 포함된다.In this way, in the learning mode, if the convolutional neural network models corresponding to the preprocessing part of the cervix image interpretation preprocessing system share pre-trained weights from other models, for example, the cervix image classification model 100 may generate an unsuitable cervix. As images, cervical images with a green filter applied, cervical images with blur reflected, cervical images captured while displayed on a monitor or paper, and cervical images with brightness above the threshold can be better classified as inappropriate images. In addition, the encoder 152 in the image restoration model 150 is used to detect inappropriate features of the cervical image, for example, characteristics of the cervical image to which a green filter is applied, characteristics of the cervical image to which shaking is reflected (blur), and It is possible to better extract the features of the displayed and captured cervical image, the features of the cervical image with brightness above the threshold, and the clear and fine cervical image features suitable for reading. Cervical images of clear and fine that are suitable for reading are also included in the data set for training the encoder 152.

다만, 인코더(152)가 추론시에 상기 자궁경부 영상 분류모델(100)로부터 입력되는 어떠한 판독 부적합 영상에 대해서도 판독 적합한(clear and fine) 자궁경부 영상의 특징이 추출되도록 사전 학습되어야 한다.However, the encoder 152 must be pre-trained so that features of the cervical image suitable for reading (clear and fine) are extracted for any unreadable image input from the cervical image classification model 100 during inference.

이를 위해 상기 인코더(152)에서 추출된 자궁경부 영상의 특징이 포함된 컨텐트(content) 맵을 입력받아 판독 적합한 자궁경부 영상으로 복원 출력하는 디코더부(154)는 임계치 이상의 밝기(Brightness) 특징과 clear and fine 특징을 가지는 컨텐트 맵을 입력하여 임계치 이상의 밝기 특징과 clear and fine 특징을 가지는 자궁경부 영상(a)을 복원하는 디코더(153-1)와, 그린필터 적용된 특징을 가지되 clear and fine 특징도 가지는 자궁경부 영상(b)을 복원하는 디코더(153-2)와, 모니터나 종이에 표시되어 촬영된 자궁경부 영상의 특징을 가지되 clear and fine 특징도 가지는 자궁경부 영상(c)을 복원하는 디코더(153-3)와, 흔들림 반영(blur)된 특징과 clear and fine 특징을 가지는 자궁경부 영상(d)을 복원하는 디코더(153-4)와, clear and fine 특징만을 가지는 자궁경부 영상(e)을 복원하는 디코더(153-5)를 포함한다.For this purpose, the decoder unit 154, which receives the content map containing the features of the cervical image extracted from the encoder 152 and restores and outputs it as a readable cervical image, provides brightness characteristics above a threshold and clear A decoder (153-1) that inputs a content map with and fine features and restores a cervical image (a) with brightness features above a threshold and clear and fine features, and a decoder (153-1) that has green filter applied features but also has clear and fine features. It has a decoder 153-2 that restores the cervix image (b), and a decoder that restores a cervix image (c) that has the characteristics of a cervix image displayed and captured on a monitor or paper, but also has clear and fine features. (153-3), a decoder (153-4) that restores a cervical image (d) with blurred features and clear and fine features, and a cervical image (e) with only clear and fine features. It includes a decoder 153-5 that restores.

상술한 바와 같이 5개의 디코더를 포함하는 디코더부(153)는 학습모드에서 clear and fine 이미지를 기반으로 상기 4가지의 부적합한 자궁경부 영상의 특징이 포함된 영상을 생성하며, 생성된 영상들을 학습 과정의 하나인 배치(batch)에 병렬로 설정하면 생성된 영상 각각이 인코더(152)와 디코더(153-1,2,3,4,)의 결합모델로 입력되고, 각 디코더(153-1,2,3,4)에서 나온 출력 영상에 대해서 입력 영상과의 로스(loss)가 최소가 되는 방향으로 학습을 진행시킨다.As described above, the decoder unit 153, which includes five decoders, generates images containing the characteristics of the four inappropriate cervical images based on clear and fine images in the learning mode, and performs the learning process on the generated images. When set in parallel in a batch, each of the generated images is input to the combined model of the encoder 152 and the decoder 153-1, 2, 3, 4, and each decoder 153-1, 2 For the output images from ,3,4), learning is conducted in a direction that minimizes the loss with the input images.

이러한 학습이 진행 완료되면, 추론시에 인코더(152)는 도 4에 도시한 바와 같이 clear and fine, 밝기(brightness), 그린필터, blur 특징이 포함된 어떠한 자궁경부 영상이 입력되더라도 clear and fine 특징을 가지는 컨텐트 맵을 출력한다. 이에 디코더(153-5)는 상기 인코더(152)에서 추출된 자궁경부 영상의 특징(clear and fine)이 포함된 컨텐트(content) 맵을 입력받아 깨끗한 자궁경부 영상을 복원해 자궁경부 판독 모델(200)로 출력한다.Once this learning is completed, at the time of inference, the encoder 152 generates clear and fine features no matter which cervix image including clear and fine, brightness, green filter, and blur features is input, as shown in FIG. Outputs a content map with . Accordingly, the decoder 153-5 receives a content map containing the features (clear and fine) of the cervical image extracted from the encoder 152, restores a clear cervical image, and creates a cervical reading model (200 ) is output.

즉, 본 발명의 실시예에 따른 자궁경부 영상 판독 전처리 시스템의 영상 복원 모델(150)은 추론시에 자궁경부 영상 분류모델(100)로부터 입력되는 판독 부적합 영상에 대해 판독 적합한 자궁경부 영상의 특징이 추출되도록 사전 학습된 인코더(152)와, 상기 인코더(152)에서 추출된 자궁경부 영상의 특징이 포함된 컨텐트(content) 맵을 입력받아 판독 적합한 자궁경부 영상으로 복원 출력하는 디코더부(153)를 포함함으로써, 판독 방해요소가 존재하는 자궁경부 영상 이미지를 단순히 판독 가능한 깨끗한 영상으로 대체하여 자궁경부 영상에 대한 판독의 신뢰성을 향상시키는 효과를 제공한다.That is, the image restoration model 150 of the cervical image reading pre-processing system according to an embodiment of the present invention has characteristics of a cervical image suitable for reading for an image unsuitable for reading input from the cervical image classification model 100 at the time of inference. An encoder 152 pre-trained to be extracted, and a decoder unit 153 that receives a content map containing the characteristics of the cervical image extracted from the encoder 152 and restores and outputs a cervical image suitable for reading. By including it, it provides the effect of improving the reliability of the interpretation of the cervical image by replacing the cervical imaging image in which there are elements interfering with the interpretation with a clear image that can be simply read.

이상은 도면에 도시된 실시예들을 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.The above has been described with reference to the embodiments shown in the drawings, but these are merely examples, and those skilled in the art will understand that various modifications and other equivalent embodiments are possible. Therefore, the true technical protection scope of the present invention should be determined only by the appended claims.

Claims (5)

입력되는 자궁경부 영상을 판독 적합 혹은 판독 부적합 영상으로 분류하는 자궁경부 영상 분류모델과;
상기 자궁경부 영상 분류모델로부터 입력되는 판독 부적합 영상을 판독 적합한 자궁경부 영상으로 대체하여 복원하는 영상 복원 모델과;
상기 자궁경부 영상 분류모델과 상기 영상 복원 모델로부터 각각 입력되는 자궁경부 영상에 대해 자궁경부 병변을 판독해 그 결과를 출력하는 자궁경부 판독모델;을 포함함을 특징으로 하는 자궁경부 영상 판독 전처리 시스템.
A cervix image classification model that classifies the input cervix image into a suitable or unreadable image;
an image restoration model that replaces and restores unreadable images input from the cervix image classification model with readable cervix images;
A cervical image reading pre-processing system comprising: a cervical reading model that reads cervical lesions for the cervical images input from the cervical image classification model and the image restoration model and outputs the results.
청구항 1에 있어서, 상기 자궁경부 영상 분류모델은,
사전 학습된 상기 자궁경부 판독모델의 웨이트(weight)들을 공유하여 학습진행하되, 그린필터 적용된 자궁경부 영상, 흔들림 반영(blur)된 자궁경부 영상, 모니터나 종이에 표시되어 촬영된 자궁경부 영상, 임계치 이상의 밝기를 가지는 자궁경부 영상 중 적어도 하나 이상을 판독 부적합 영상으로 분류함을 특징으로 하는 자궁경부 영상 판독 전처리 시스템.
The method of claim 1, wherein the cervical image classification model is:
Learning is carried out by sharing the weights of the pre-trained cervix interpretation model, including the cervix image with a green filter applied, the cervix image with blur reflected, the cervix image displayed and captured on a monitor or paper, and the threshold value. A pre-processing system for interpreting cervical images, characterized in that classifying at least one of the cervical images with a brightness above or equal to an unreadable image.
청구항 1 또는 청구항 2에 있어서, 상기 영상 복원 모델은,
추론시에 상기 자궁경부 영상 분류모델로부터 입력되는 판독 부적합 영상에 대해 판독 적합한 자궁경부 영상의 특징이 추출되도록 사전 학습된 인코더와,
상기 인코더에서 추출된 자궁경부 영상의 특징이 포함된 컨텐트(content) 맵을 입력받아 판독 적합한 자궁경부 영상으로 대체하여 복원하는 디코더부;를 포함함을 특징으로 하는 자궁경부 영상 판독 전처리 시스템.
The method of claim 1 or claim 2, wherein the image restoration model is:
An encoder pre-trained to extract features of a cervical image suitable for reading from an unreadable image input from the cervical image classification model during inference;
A pre-processing system for interpreting cervical images comprising a decoder unit that receives a content map containing features of the cervical image extracted from the encoder and restores the content by replacing it with a cervical image suitable for reading.
청구항 3에 있어서, 상기 인코더는,
사전 학습된 상기 자궁경부 영상 분류모델의 웨이트들을 공유하여 사전 학습진행함을 특징으로 하는 자궁경부 영상 판독 전처리 시스템.
The method of claim 3, wherein the encoder,
A pre-processing system for interpreting cervical images, characterized in that pre-learning is performed by sharing the weights of the pre-trained cervical image classification model.
청구항 3에 있어서, 상기 인코더는,
학습모드에서 상기 자궁경부 영상 분류모델로부터 입력되는 판독 부적합 영상에 대해 판독 적합한 자궁경부 영상의 특징, 그린필터 적용된 자궁경부 영상의 특징, 흔들림 반영(blur)된 자궁경부 영상의 특징, 모니터나 종이에 표시되어 촬영된 자궁경부 영상의 특징, 임계치 이상의 밝기를 가지는 자궁경부 영상의 특징 중 어느 하나의 특징이 포함된 컨텐트 맵을 출력함을 특징으로 하는 자궁경부 영상 판독 전처리 시스템.
The method of claim 3, wherein the encoder,
In the learning mode, the characteristics of the cervical image suitable for reading for the unreadable image input from the cervical image classification model, the characteristics of the cervical image with a green filter applied, and the characteristics of the cervical image with blur reflected, are displayed on a monitor or paper. A pre-processing system for reading cervical images, characterized in that it outputs a content map containing any one of the characteristics of the displayed and captured cervical image and the characteristics of the cervical image having a brightness above a threshold.
KR1020220072389A 2022-06-14 2022-06-14 Cervical image diagnosis preprocessing system KR20230171799A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220072389A KR20230171799A (en) 2022-06-14 2022-06-14 Cervical image diagnosis preprocessing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220072389A KR20230171799A (en) 2022-06-14 2022-06-14 Cervical image diagnosis preprocessing system

Publications (1)

Publication Number Publication Date
KR20230171799A true KR20230171799A (en) 2023-12-21

Family

ID=89320801

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220072389A KR20230171799A (en) 2022-06-14 2022-06-14 Cervical image diagnosis preprocessing system

Country Status (1)

Country Link
KR (1) KR20230171799A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102316557B1 (en) 2019-06-04 2021-10-25 주식회사 아이도트 Cervical cancer diagnosis system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102316557B1 (en) 2019-06-04 2021-10-25 주식회사 아이도트 Cervical cancer diagnosis system

Similar Documents

Publication Publication Date Title
KR102058884B1 (en) Method of analyzing iris image for diagnosing dementia in artificial intelligence
CN107665491B (en) Pathological image identification method and system
CN109284738B (en) Irregular face correction method and system
Niemeijer et al. Image structure clustering for image quality verification of color retina images in diabetic retinopathy screening
WO2020260936A1 (en) Medical image segmentation using an integrated edge guidance module and object segmentation network
Tennakoon et al. Image quality classification for DR screening using convolutional neural networks
CN117690128B (en) Embryo cell multi-core target detection system, method and computer readable storage medium
KR20190087681A (en) A method for determining whether a subject has an onset of cervical cancer
CN111275686A (en) Method and device for generating medical image data for artificial neural network training
KR20220118288A (en) Method and system for detecting region of interest in pathological slide image
KR20200139606A (en) Cervical cancer diagnosis system
Cui et al. Exploring resolution and degradation clues as self-supervised signal for low quality object detection
JP2024504958A (en) Method for generating tissue specimen images and computing system for performing the same
WO2019082202A1 (en) A fundus image quality assessment system
Chao et al. Instance-aware image dehazing
KR20230171799A (en) Cervical image diagnosis preprocessing system
WO2021246013A1 (en) Diagnostic imaging method, diagnostic imaging assisting device, and computer system
Khalid et al. FGR-Net: interpretable fundus image gradeability classification based on deep reconstruction learning
CN112949585A (en) Identification method and device for blood vessels of fundus image, electronic equipment and storage medium
de Almeida Simões Image Quality Improvement of Medical Images Using Deep Learning for Computer-Aided Diagnosis
Yamsaniwar et al. Glaucoma and Cataract Hybrid Classifier
Kanwal et al. Extract, detect, eliminate: Enhancing reliability and performance of computational pathology through artifact processing pipelines
CN114332844B (en) Intelligent classification application method, device, equipment and storage medium of medical image
CN117079008A (en) Abnormality detection method, device, equipment and storage medium based on distillation learning
Reddy et al. Image Quality Enhancement System for Medical Management Applications

Legal Events

Date Code Title Description
E902 Notification of reason for refusal