KR102316557B1 - Cervical cancer diagnosis system - Google Patents

Cervical cancer diagnosis system Download PDF

Info

Publication number
KR102316557B1
KR102316557B1 KR1020190109333A KR20190109333A KR102316557B1 KR 102316557 B1 KR102316557 B1 KR 102316557B1 KR 1020190109333 A KR1020190109333 A KR 1020190109333A KR 20190109333 A KR20190109333 A KR 20190109333A KR 102316557 B1 KR102316557 B1 KR 102316557B1
Authority
KR
South Korea
Prior art keywords
cervical cancer
information
learning
diagnosis
classification
Prior art date
Application number
KR1020190109333A
Other languages
Korean (ko)
Other versions
KR20200139606A (en
KR102316557B9 (en
Inventor
정재훈
Original Assignee
주식회사 아이도트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이도트 filed Critical 주식회사 아이도트
Priority to PCT/KR2019/017679 priority Critical patent/WO2020246676A1/en
Priority to BR112021024432A priority patent/BR112021024432A2/en
Priority to JP2021572002A priority patent/JP7346600B2/en
Priority to US17/616,336 priority patent/US20220328186A1/en
Priority to CN201980036662.5A priority patent/CN112334990A/en
Publication of KR20200139606A publication Critical patent/KR20200139606A/en
Application granted granted Critical
Publication of KR102316557B1 publication Critical patent/KR102316557B1/en
Publication of KR102316557B9 publication Critical patent/KR102316557B9/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

본 발명은 자궁경부암을 자동 진단하기 위해 필요한 자궁경부 데이터를 정확한 기준에 따라 분류하여 기계학습하고 그 기계학습에 기초하여 자궁경부암을 자동 진단하는 자궁경부암 자동 진단 시스템에 관한 것으로,
학습모드에서 외부장치 혹은 저장부로부터 전달된 자궁경부에 대한 미분류 촬영 영상 데이터를 다단계 분류기준 조합에 따라 분류하여 새로운 분류기준별 학습데이터로 생성하는 학습 데이터 생성부와; 자궁경부 촬영 영상을 전처리하는 촬영 영상 전처리부와; 학습모드에서 상기 분류기준별로 생성된 학습데이터의 특징을 학습하는 자궁경부암에 대한 기계학습모델을 포함하며, 상기 기계학습모델은 진단모드에서 상기 전처리된 자궁경부 촬영 영상에 대해 자궁경부암의 발병 여부에 관한 진단 정보를 생성하는 자궁경부암 진단부와; 상기 진단 정보를 표시하고 판독의에 의한 평가정보를 입력할 수 있는 유저 인터페이스 화면을 표시 출력하는 화면 표시 제어부와; 상기 유저 인터페이스 화면을 통해 입력된 평가 정보 중 재학습시 필요한 정보를 추출해 상기 기계학습모델의 재학습을 요청하는 재학습 데이터 생성부와; 상기 자궁경부암의 발병 여부에 관한 진단 정보와 상기 유저 인터페이스 화면을 통해 입력된 평가 정보를 저장하는 진단 및 평가정보 저장부;를 포함함을 특징으로 한다.
The present invention relates to an automatic cervical cancer diagnosis system that categorizes cervical data required for automatic diagnosis of cervical cancer according to accurate criteria, performs machine learning, and automatically diagnoses cervical cancer based on the machine learning,
a learning data generator for classifying unclassified photographed image data for the cervix transmitted from an external device or storage unit in a learning mode according to a combination of multi-level classification criteria and generating new learning data for each classification criterion; A photographed image pre-processing unit for pre-processing a cervical photographed image; A machine learning model for cervical cancer that learns the characteristics of the learning data generated by the classification criteria in a learning mode, wherein the machine learning model determines whether or not cervical cancer occurs with respect to the pre-processed image of the cervix in the diagnosis mode. a cervical cancer diagnosis unit for generating diagnosis information about the cervical cancer; a screen display control unit for displaying and outputting a user interface screen for displaying the diagnosis information and inputting evaluation information by a reader; a re-learning data generator for requesting re-learning of the machine learning model by extracting information necessary for re-learning from among the evaluation information input through the user interface screen; and a diagnosis and evaluation information storage unit for storing diagnosis information regarding the occurrence of cervical cancer and evaluation information input through the user interface screen.

Figure R1020190109333
Figure R1020190109333

Description

자궁경부암 자동 진단 시스템{CERVICAL CANCER DIAGNOSIS SYSTEM}Cervical cancer automatic diagnosis system {CERVICAL CANCER DIAGNOSIS SYSTEM}

본 발명은 자궁경부암 자동 진단 시스템에 관한 것으로, 특히 자궁경부암을 자동 진단하기 위해 필요한 자궁경부 데이터를 정확한 기준에 따라 분류하여 기계학습하고 그 기계학습에 기초하여 자궁경부암을 자동 진단하는 자궁경부암 자동 진단 시스템에 관한 것이다.The present invention relates to an automatic cervical cancer diagnosis system, and in particular, automatic diagnosis of cervical cancer in which cervical data required for automatic diagnosis of cervical cancer is classified according to accurate criteria, machine learning, and automatic diagnosis of cervical cancer based on the machine learning It's about the system.

자궁경부암은 대한민국 여성들이 가장 두려워하는 암 순위 중 1위를 차지하고 있는바, 이는 자궁 적출로 인해 임신, 출산에 대한 영향을 받을 수 있고, 여성으로서의 상실감을 겪을 우려가 있기 때문이다.Cervical cancer ranks first among the cancers most feared by Korean women because hysterectomy can affect pregnancy and childbirth, and cause a sense of loss as a woman.

2013년 통계에 따르면 대한민국 국내의 자궁경부암 환자 수는 26,207명으로 여성암 중에서 4위를 차지하고 있다(보건복지부 자료). 또한, 자궁경부암은 국내에서 검진을 권고하는 7대 암에 속하며, 1999년 국가 암 검진 사업에 포함되면서 조기 진단의 비율이 증가하고 있는 추세이다. 최근에는 자궁경부 '0기' 암이라 불리는 자궁경부 상피내암(전암 단계)도 증가 추세에 있는바, 성경험이 있는 여성에게 매년 검진을 받도록 권고하고 있는 실정이다.According to 2013 statistics, the number of cervical cancer patients in Korea was 26,207, ranking fourth among female cancers (data from the Ministry of Health and Welfare). In addition, cervical cancer is one of the seven major cancers recommended for screening in Korea, and as it was included in the national cancer screening program in 1999, the rate of early diagnosis is increasing. Recently, cervical carcinoma in situ (precancerous stage), also known as 'stage 0' cancer of the cervix, is also on the rise.

그 검진에 관한 시장의 현황을 살펴보면, 우선 젊은 여성의 자궁경부 상피내암의 비율이 증가하고 있어 2016년부터 검진 대상이 30세에서 20세로 하향 조정되었다. 특히, 다른 암과 달리 자궁경부 세포 검사 검진에 관한 검진 비용의 300%에 대하여 건강보험 혜택이 적용된다. 그런데, 검진의 위음성률(즉, 오진율)이 최대 55%에 달하고 있어 그 보완책으로 자궁경부 확대 촬영 검사를 병행할 것이 권고되고 있는바, 2013년 기준으로 세계 자궁경부암 검진 시장은 약 6.86조 원 규모로서, 이 중 자궁경부 확대촬영 검사는 30%를 차지하여 약 2조 원의 규모에 달한다.Looking at the current state of the market for the screening, the rate of cervical carcinoma in situ among young women is increasing, and from 2016, the screening target was lowered from 30 years old to 20 years old. In particular, unlike other cancers, health insurance benefits are applied to 300% of the cost of cervical cytology screening. However, as the false-negative rate (ie, false-diagnosis rate) of the screening is up to 55%, it is recommended to perform cervical magnification as a supplementary measure. As of 2013, the global cervical cancer screening market was worth about 6.86 trillion won In terms of scale, of these, cervical magnification examinations account for 30% of the total, amounting to approximately KRW 2 trillion.

도 1은 종래에 자궁경부암을 진단하기 위하여 시행되던 자궁경부 세포 검사 및 자궁경부 확대 촬영 검진의 방식을 개략적으로 도시한 개념도 인바, 도 1의 하단을 참조하면, 여성 피검체의 질 외부에서 소정의 촬영 장치(예컨대 도 1에 도시된 자궁경부 확대경)를 통하여 자궁경부에 대한 촬영 영상이 획득되면, 이를 분석하여 그 결과를 이용함으로써 자궁경부암에 대한 검진의 오진율을 낮출 수 있게 된다.1 is a conceptual diagram schematically illustrating a method of a cervical cell examination and a cervical magnification examination, which have been conventionally performed for diagnosing cervical cancer. Referring to the bottom of FIG. When a photographed image of the cervix is acquired through a photographing device (eg, a cervical magnifying glass illustrated in FIG. 1 ), the result is analyzed and the result is used to reduce the false diagnosis rate of cervical cancer screening.

그런데, 종래의 자궁경부 확대경을 활용할 때, 의료진은 교육과 경험에 비추어 해당 자궁경부의 영상에 대하여 자궁경부암의 발병 여부를 확인하는데, 이와 같은 방식은 반복적이고 애매한 경우가 많아서 숙련된 의사에게도 시간이 오래 걸리고 정확도도 함께 떨어질 수 있다.However, when using a conventional cervical magnifying glass, medical staff check the occurrence of cervical cancer on the image of the cervix in light of education and experience. It may take a long time and the accuracy may decrease as well.

이러한 단점을 극복하기 위해 자궁경부에 대한 촬영 영상을 획득하고, 획득된 자궁경부 영상으로부터 자궁경부암에 대한 기계학습모델에 기초하여 피검체의 자궁경부암 발병 여부에 관한 분석 정보를 생성하여 제공하는 자궁경부암 발병 여부 판정장치들도 소개되고 있다.In order to overcome this disadvantage, a photographed image of the cervix is acquired, and from the obtained cervix image, based on a machine learning model for cervical cancer, analysis information on whether or not a subject has cervical cancer is generated and provided. An outbreak determination device is also being introduced.

이러한 판정장치들의 성능을 평가하기 위한 주요 요소는 학습에 사용될 영상을 정확하게 분류 정리하여 학습을 진행해야 한다는 점이다. 이러한 데이터 분류 정리가 정확하고도 명확하게 이루어지지 않는다면 자궁경부암 발병 여부에 관한 분석 정확도가 떨어질 수밖에 없다. 보통 자궁경부암 질경검사(colposcopy) 영상은 촬영 환경 및 촬영자에 따라서 일반 의료 영상과는 다르게 다양한 형태로 나타난다. 따라서 자궁경부암의 발병 여부를 판정하는 장치들에서는 학습에 사용될 영상을 보다 명확하고도 엄격한 기준에 따라 분류하여 학습 진행할 필요가 있다.The main factor for evaluating the performance of these judgment devices is that the learning should proceed by accurately classifying the images to be used for learning. If this sort of data classification is not done accurately and clearly, the analysis accuracy regarding the occurrence of cervical cancer is bound to decrease. In general, colposcopy images for cervical cancer appear in various forms differently from general medical images depending on the shooting environment and the photographer. Therefore, in devices for determining whether cervical cancer occurs, it is necessary to classify images to be used for learning according to clearer and stricter standards and proceed with learning.

또한 명확하고도 엄격한 기준에 따라 학습 데이터를 분류하여 기계학습을 수행하였더라도 그 진단(분석) 결과에 오진이 발생할 수 있으므로, 이러한 경우 전문의에 의한 평가가 이루어질 수 있도록 하여 기계학습에 기초해 자궁경부암을 자동 진단하는 분석 장치들의 신뢰성을 높이거나 진단 성능을 보조할 수 있는 시스템의 도입이 절실히 요구되는 바이다.In addition, even if machine learning is performed by classifying the learning data according to clear and strict criteria, the diagnosis (analysis) result may be misdiagnosed. It is urgently required to introduce a system capable of increasing the reliability of analysis devices for automatic diagnosis or supporting the diagnosis performance.

대한민국 등록특허공보 제10-0850347호Republic of Korea Patent Publication No. 10-0850347 대한민국 공개특허공보 제10-2016-0047720호Republic of Korea Patent Publication No. 10-2016-0047720

이에 본 발명은 상술한 필요성에 따라 창안된 발명으로서, 본 발명의 주요 목적은 자궁경부암을 자동 진단하기 위해 필요한 학습용 자궁경부 데이터를 정확한 기준에 따라 분류하여 기계학습하고 그 기계학습에 기초하여 자궁경부암을 자동 진단하는 자궁경부암 자동 진단 시스템을 제공함에 있으며,Accordingly, the present invention is an invention devised in response to the above-mentioned necessity, and the main object of the present invention is to classify and machine learning cervical cancer data for learning necessary for automatic diagnosis of cervical cancer according to accurate criteria, and based on the machine learning, cervical cancer To provide an automatic cervical cancer diagnosis system that automatically diagnoses

더 나아가 본 발명의 또 다른 목적은 특정 형태의 자궁경부 영상에 대해서만 과도한 학습이 진행되거나 반대로 특정 종류의 영상에 대해서 학습이 이루어지지 않는 현상이 발생하지 않도록 하여 자궁경부의 정확한 진단이 이루어질 수 있도록 유도하는 자궁경부암 자동 진단 시스템을 제공함에 있다.Further, another object of the present invention is to induce an accurate diagnosis of the cervix by preventing the occurrence of excessive learning only for a specific type of image of the cervix or, conversely, no learning for a specific type of image. To provide an automatic cervical cancer diagnosis system.

또한 본 발명의 다른 목적은 기계학습모델에 기초하여 자동 분석된 여러 정보들을 판독의(전문가)에게 제공하여 판독의 편의성을 제공함은 물론, 판독의에 의해 평가된 입력정보가 실시간 재학습에 이용될 수 있도록 유저 인터페이스 화면을 구성해 기계학습모델의 성능이 지속적으로 개선될 수 있도록 하는 자궁경부암 자동 진단 시스템을 제공함에 있다.Another object of the present invention is to provide convenience of reading by providing various information automatically analyzed based on a machine learning model to a reading doctor (expert), and input information evaluated by a reading physician can be used for real-time re-learning. The goal is to provide an automatic cervical cancer diagnosis system that configures the user interface screen to continuously improve the performance of the machine learning model.

전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 자궁경부암 자동 진단 시스템은,An automatic cervical cancer diagnosis system according to an embodiment of the present invention for achieving the above object,

학습모드에서 외부장치 혹은 저장부로부터 전달된 자궁경부에 대한 미분류 촬영 영상 데이터를 다단계 분류기준 조합에 따라 분류하여 새로운 분류기준별 학습데이터로 생성하는 학습 데이터 생성부와;a learning data generation unit for classifying unclassified photographed image data of the cervix transmitted from an external device or storage unit in a learning mode according to a combination of multi-level classification criteria and generating new learning data for each classification criterion;

자궁경부 촬영 영상을 전처리하는 촬영 영상 전처리부와;A photographed image pre-processing unit for pre-processing a cervical photographed image;

학습모드에서 상기 분류기준별로 생성된 학습데이터의 특징을 학습하는 자궁경부암에 대한 기계학습모델을 포함하며, 상기 기계학습모델은 진단모드에서 상기 전처리된 자궁경부 촬영 영상에 대해 자궁경부암의 발병 여부에 관한 진단 정보를 생성하는 자궁경부암 진단부와;A machine learning model for cervical cancer that learns the characteristics of the learning data generated by the classification criteria in a learning mode, wherein the machine learning model determines whether or not cervical cancer occurs with respect to the pre-processed image of the cervix in the diagnosis mode. a cervical cancer diagnosis unit for generating diagnosis information about the cervical cancer;

상기 진단 정보를 표시하고 판독의에 의한 평가정보를 입력할 수 있는 유저 인터페이스 화면을 표시 출력하는 화면 표시 제어부와;a screen display control unit for displaying and outputting a user interface screen for displaying the diagnosis information and inputting evaluation information by a reader;

상기 유저 인터페이스 화면을 통해 입력된 평가 정보 중 재학습시 필요한 정보를 추출해 상기 기계학습모델의 재학습을 요청하는 재학습 데이터 생성부와;a re-learning data generator for requesting re-learning of the machine learning model by extracting information necessary for re-learning from among the evaluation information input through the user interface screen;

상기 자궁경부암의 발병 여부에 관한 진단 정보와 상기 유저 인터페이스 화면을 통해 입력된 평가 정보를 저장하는 진단 및 평가정보 저장부;를 포함함을 특징으로 한다.and a diagnosis and evaluation information storage unit for storing diagnosis information regarding the occurrence of cervical cancer and evaluation information input through the user interface screen.

상술한 시스템 구성에 있어서, 상기 학습 데이터 생성부는 분류기준별 학습데이터의 수적 밸런스를 조정하기 위해 상기 분류기준별 학습데이터에 대해 미러링 혹은 크롭핑 적용하여 추가 학습데이터를 더 생성함을 또 다른 특징으로 하며,In the above-described system configuration, the learning data generator further generates additional learning data by applying mirroring or cropping to the learning data for each classification criterion in order to adjust the numerical balance of the learning data for each classification criterion. and

더 나아가 상기 학습 데이터 생성부는,Further, the learning data generation unit,

컬러를 분류기준으로 하는 1단계 분류기준과, 촬영 영상 데이터 내의 자궁경부 크기를 분류기준으로 하는 2단계 분류기준과, 자궁경부 영상 데이터 내의 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준과, 노출과 초점을 분류기준으로 하는 4단계 분류기준 중 적어도 두 개 이상의 분류기준 조합을 이용해 분류함을 또 다른 특징으로 한다.A first-stage classification criterion based on color, a second-stage classification criterion based on the size of the cervix in the photographed image data, a three-stage classification criterion based on the combination of color and shape in the cervical image data, and Another feature is that it is classified using a combination of at least two classification criteria among the four classification criteria based on , exposure and focus.

경우에 따라서는, 상기 학습 데이터 생성부는,In some cases, the learning data generation unit,

컬러를 분류기준으로 하는 1단계 분류기준에 따라 상기 자궁경부에 대한 미분류 촬영 영상 데이터를 1차 분류하고, 상기 1차 분류된 미분류 촬영 영상 데이터 내의 자궁경부 크기를 분류기준으로 하는 2단계 분류기준에 따라 2차 분류하고, 상기 2차 분류된 미분류 촬영 영상 데이터 내의 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준에 따라 자궁경부에 대한 미분류 촬영 영상 데이터를 3차 분류함을 특징으로 한다.According to the first-stage classification criterion based on color, the unclassified image data for the cervix is first classified, and the cervix size in the primary classified unclassified image data is the second-stage classification criterion as the classification criterion. According to the secondary classification, the unclassified image data for the cervix is thirdly classified according to the three-stage classification criterion based on the combination of color and shape in the secondary classified unclassified photographed image data.

한편, 상술한 자궁경부암 자동 진단 시스템에 있어서, 상기 1단계 분류기준은 아세트산 반응 영상, 루골용액반응 영상, 그린필터 영상, 일반 영상을 각각 식별하기 위한 컬러값을 분류기준 값으로 포함하며,On the other hand, in the automatic cervical cancer diagnosis system described above, the first-stage classification criterion includes a color value for identifying each of an acetic acid reaction image, a Lugol solution reaction image, a green filter image, and a general image as a classification criterion value,

상기 3단계 분류기준은 자궁경부 영상 데이터 내에서 혈액, 점액, 루프, 질확대경, 치료흔적, 수술도구 중 어느 하나 이상을 식별하기 위한 컬러값과 형태의 조합을 분류기준 값으로 포함함을 또 다 특징으로 한다.The three-step classification criterion includes a combination of color values and shapes for identifying any one or more of blood, mucus, loops, colposcopy, treatment traces, and surgical tools as a classification criterion value in the cervical image data. characterized.

더 나아가 상기 자궁경부암 진단부는 상기 기계학습모델에 기초하여 피검체의 자궁경부 촬영 영상에 대해 자궁경부암에 대한 음성, 비정형, 양성 및 악성 여부에 관한 분류 정보와, 그 분류 정보의 정확성 정보와, 음양성 판정정보와 형태학적 소견 정보를 포함하는 진단 정보를 생성함을 특징으로 하며,Furthermore, the cervical cancer diagnosis unit includes classification information on whether negative, atypical, benign and malignant for cervical cancer with respect to a cervical imaging image of a subject based on the machine learning model, accuracy information of the classification information, and negative It is characterized in that diagnostic information including positive determination information and morphological findings information is generated,

상기 화면 표시 제어부는 피검체의 자궁경부 촬영 영상의 전부 또는 일부 표시 영역, 동일 피검체에 대하여 이전에 촬영된 타 영상의 이력 정보 표시영역, 피검체 정보 노출 영역, 음양성 판정 정보 입력 영역, 형태학적 소견 정보 입력 영역, 촬영 영상의 품질에 관한 기술적 결함 정보 입력 영역, 상기 기계학습모델에 기초하여 도출된 상기 진단 정보 출력 영역, 판독의 소견 입력 영역으로 분할되는 화면을 상기 유저 인터페이스 화면으로 표시 출력함을 특징으로 한다.The screen display control unit includes a display area for all or part of a cervical photographed image of the subject, a history information display area for other images previously photographed for the same subject, a subject information exposure area, a negative/positive determination information input area, and a shape A screen divided into a medical observation information input area, a technical defect information input area related to the quality of the captured image, the diagnostic information output area derived based on the machine learning model, and an observation input area for reading is displayed and output as the user interface screen It is characterized by

상술한 기술적 과제 해결 수단에 따르면, 본 발명의 실시예에 따른 자궁경부암 자동 진단 시스템은 다단계의 분류기준 조합에 따라 자궁경부에 대한 미분류 촬영 영상 데이터를 분류하여 기계학습모델과 같은 인공지능망을 학습시키게 되면, 단순히 하나(컬러, 모양, 밝기 등)의 특성만을 가지는 분류기준을 이용해 분류된 데이터를 활용해 학습시키는 것보다 더 다양한 특성을 가지는 영상 데이터에 대해 학습이 이루어질 수 있어 보다 정확한 병변 진단이 이루어질 수 있는 장점이 있다.According to the above-described technical problem solving means, the automatic cervical cancer diagnosis system according to an embodiment of the present invention classifies unclassified imaging image data for the cervix according to a combination of multi-stage classification criteria to train an artificial intelligence network such as a machine learning model. In this case, more accurate diagnosis of lesions can be made because learning can be made on image data having more diverse characteristics than learning using data classified using a classification criterion having only one characteristic (color, shape, brightness, etc.) There are advantages that can be

또한 본 발명은 분류기준별 학습 데이터의 수적(數的) 밸런스를 조정하기 위한 추가 학습 데이터를 더 생성하여 학습에 이용토록 함으로써, 특정 형태의 자궁경부(암) 영상 데이터에서 대해서만 과도한 학습이 진행되거나, 반대로 특정 형태(혹은 종류)의 영상에 대해서 학습이 진행되지 않는 현상이 발생하지 않도록 함으로써, 자궁경부에 대한 병변 유무를 정확히 진단해 낼 수 있는 효과를 제공한다.In addition, the present invention further generates additional learning data for adjusting the numerical balance of the learning data for each classification criterion and uses it for learning, so that excessive learning is carried out only for a specific type of cervical (cancer) image data, or , on the contrary, it provides an effect of accurately diagnosing the presence or absence of a lesion on the cervix by preventing a phenomenon in which learning does not proceed with respect to a specific type (or type) of an image.

더 나아가 본 발명은 기계학습모델에 기초하여 자궁경부암에 대한 병변 여부를 자동 진단하고 그 결과를 유저 인터페이스 화면을 통해 외부에 표시하되, 상기 유저 인터페이스 화면에 판독의가 평가 정보를 입력하도록 유도하고 그 평가 정보 중 일부를 추출하여 기계학습모델의 재학습에 활용함으로써, 기계학습모델의 성능을 지속적으로 업그레이드시킬 수 있는 이점이 있다.Furthermore, the present invention automatically diagnoses whether there is a lesion for cervical cancer based on a machine learning model and displays the result externally through a user interface screen, and induces a reader to input evaluation information on the user interface screen, and the By extracting some of the evaluation information and using it for re-learning of the machine learning model, there is an advantage that the performance of the machine learning model can be continuously upgraded.

도 1은 종래에 자궁경부암을 진단하기 위하여 시행되던 자궁경부 세포 검사 및 자궁경부 확대 촬영 검진의 방식을 개략적으로 도시한 개념도.
도 2는 본 발명의 실시예에 따른 자궁경부암 자동 진단 시스템의 구성 예시도.
도 3은 본 발명의 실시예에 따른 자궁경부 학습 데이터 분류방법을 설명하기 위한 도면.
도 4는 본 발명의 실시예에 따른 자궁경부 학습 데이터 생성을 위한 다단계 분류기준을 보다 상세히 설명하기 위한 도면.
도 5는 본 발명의 실시예에 따른 자궁경부암 자동 진단 과정을 설명하기 위한 도면.
도 6a 내지 6e는 본 발명의 실시예에 따른 자궁경부암 자동 진단 과정에서 제공되는 유저 인터페이스(UI; user interface) 화면 예시도.
도 7은 악성의 비정형 혈관(Atypical Vessels) 예시도.
1 is a conceptual diagram schematically illustrating a method of a cervical cell examination and a cervical magnification examination performed to diagnose cervical cancer in the prior art.
2 is an exemplary configuration diagram of an automatic cervical cancer diagnosis system according to an embodiment of the present invention;
3 is a view for explaining a method for classifying cervical learning data according to an embodiment of the present invention.
4 is a view for explaining in more detail the multi-stage classification criteria for generating cervical learning data according to an embodiment of the present invention.
5 is a view for explaining an automatic cervical cancer diagnosis process according to an embodiment of the present invention.
6A to 6E are exemplary views of a user interface (UI) screen provided in an automatic cervical cancer diagnosis process according to an embodiment of the present invention;
7 is an exemplary view of malignant atypical vessels.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description of the present invention refers to the accompanying drawings, which show by way of illustration a specific embodiment in which the present invention may be practiced, in order to clarify the objects, technical solutions and advantages of the present invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention.

그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐 '학습'은 절차에 따라 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다. 또한 본 발명의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.And those skilled in the art that 'learning' throughout the detailed description and claims of the present invention is a term referring to performing machine learning according to a procedure, and is not intended to refer to a mental action such as human educational activity. will be able to understand Also throughout this description and claims, the word 'comprise' and variations thereof are not intended to exclude other technical features, additions, components or steps. Other objects, advantages and characteristics of the present invention will appear to a person skilled in the art, in part from this description, and in part from practice of the present invention. The following illustrations and drawings are provided by way of illustration and are not intended to limit the invention. Moreover, the invention encompasses all possible combinations of the embodiments indicated herein. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description set forth below is not intended to be taken in a limiting sense, and the scope of the invention, if properly described, is limited only by the appended claims, along with all scope equivalents to those claimed. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects.

본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Unless otherwise indicated herein or otherwise clearly contradicted by context, items referred to in the singular encompass the plural unless the context requires otherwise. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, in order to enable those skilled in the art to easily practice the present invention, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

참고적으로 본 발명에 이용되는 기계 학습 모델(machine learning model) 중 하나인 CNN(convolutional neural network; 합성 신경망) 모델은 인공 신경망을 다층으로 쌓은 형태로 간략하게 설명할 수 있다. 즉, 이는 깊은 구조의 네트워크라는 의미로 깊은 신경망(deep neural network; 딥 뉴럴 네트워크)이라고 표현되며, 통상 다층의 네트워크로 이루어진 구조에서 다량의 데이터를 학습시킴으로써 각각의 이미지의 특징을 자동으로 학습하고, 이를 통하여 목적 함수의 에러(error)를 최소화시키는 방법으로 네트워크를 학습시켜 나아가는 형태이다. 이는, 일견 인간 두뇌의 신경세포 간의 연결로도 표현이 되는바, 이에 따라 인공지능의 대표격으로 자리잡고 있다. 특히, CNN은 이미지와 같은 2차원 이미지의 분류에 적합한 모델로서, 이미지의 각 영역을 복수의 필터를 이용하여 특징 지도(feature map)를 만들어내는 합성층(convolution layer)과 특징 지도의 크기를 줄여 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 풀링층(pooling layer; sub-sampling layer)을 반복함으로써 점, 선, 면 등의 저 수준의 특징에서부터 복잡하고 의미 있는 고 수준의 특징까지 다양한 수준의 특징을 추출할 수 있게 되며, 최종적으로 완전 연결층(fully-connected layer)를 통하여 추출된 특징을 기존 모델의 입력값으로서 이용하면 더 높은 정확도의 분류 모델을 구축할 수 있는 장점이 있다.For reference, a convolutional neural network (CNN) model, which is one of the machine learning models used in the present invention, may be briefly described in the form of a multi-layered artificial neural network. That is, it is expressed as a deep neural network (deep neural network) in the sense of a network of a deep structure, and it automatically learns the characteristics of each image by learning a large amount of data from a structure consisting of a multi-layered network, This is a form of learning the network in a way that minimizes the error of the objective function. At first glance, this can be expressed as a connection between nerve cells in the human brain, and accordingly, it is positioned as a representative of artificial intelligence. In particular, CNN is a model suitable for classification of two-dimensional images such as images. It reduces the size of a convolution layer that creates a feature map using a plurality of filters for each region of the image and the size of the feature map. By repeating the pooling layer (sub-sampling layer) that allows the extraction of features that are invariant to changes in position or rotation, from low-level features such as points, lines, and planes to complex and meaningful high-level features It is possible to extract features at various levels, and finally, if the features extracted through the fully-connected layer are used as input values for the existing model, there is an advantage in that a classification model with higher accuracy can be built. .

도 2는 본 발명의 실시예에 따른 자궁경부암 자동 진단 시스템의 구성도를 예시한 것이다. 본 발명의 실시예에 따른 자궁경부암 자동 진단 시스템(200)은 도시된 바와 같이 영상촬영장치(100), 저장매체(300), 통신부(400), 표시부(500)와 연결되어 동작 가능한 하나의 컴퓨터 시스템 혹은 서버 컴퓨터 시스템일 수 있으며, 컴퓨터 시스템의 메모리에 설치되어 실행 가능한 실행 가능한 코드 데이터들의 집합체(응용 프로그램의 형태)로 구현될 수도 있다.2 is a diagram illustrating the configuration of an automatic cervical cancer diagnosis system according to an embodiment of the present invention. As shown, the automatic cervical cancer diagnosis system 200 according to an embodiment of the present invention is connected to the imaging device 100 , the storage medium 300 , the communication unit 400 , and the display unit 500 , and is a single computer operable It may be a system or a server computer system, and may be implemented as an aggregate (in the form of an application program) of executable code data that is installed and executable in the memory of the computer system.

도 2를 참조하면, 본 발명의 실시예에 따른 자궁경부암 자동 진단 시스템(200)은 통신부(400)를 통하여 원격지에 위치한 판독의의 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다. 물론 판독의는 표시부(500)에 표시된 유저 인터페이스 화면을 통해 후술할 평가 정보를 직접 입력(키보드, 마우스 이용)할 수도 있다.Referring to FIG. 2 , the automatic cervical cancer diagnosis system 200 according to an embodiment of the present invention may communicate directly or indirectly with a computing device (not shown) of a doctor located at a remote location through the communication unit 400 . Of course, the reader may directly input (using a keyboard or mouse) evaluation information to be described later through the user interface screen displayed on the display unit 500 .

영상촬영장치(100)는 진단모드에서 피검체의 자궁경부 촬영 영상을 획득하여 후술할 자궁경부암 자동 진단 시스템(200)으로 전달하며, 저장 매체(300)는 후술할 기계 학습 모델이 학습할 자궁경부에 대한 미분류 촬영 영상 데이터를 저장한다.The imaging apparatus 100 acquires an image of the cervix of the subject in the diagnosis mode and transmits it to the automatic cervical cancer diagnosis system 200 to be described later, and the storage medium 300 stores the cervix to be learned by a machine learning model to be described later. Save the unclassified captured image data for

이하 자궁경부암 자동 진단 시스템(200)의 구성을 도 2를 참조하여 부연 설명하면, 본 발명의 실시예에 따른 자궁경부암 자동 진단 시스템(200)은,Hereinafter, the configuration of the automatic cervical cancer diagnosis system 200 will be described in detail with reference to FIG. 2 . The automatic cervical cancer diagnosis system 200 according to an embodiment of the present invention includes:

학습모드에서 외부장치 혹은 저장부(저장매체,300)로부터 전달된 자궁경부에 대한 미분류 촬영 영상 데이터를 다단계 분류기준 조합에 따라 분류하여 새로운 분류기준별 학습데이터로 생성하는 학습 데이터 생성부(210)와,Learning data generation unit 210 that classifies unclassified photographed image data of the cervix transmitted from an external device or storage unit (storage medium, 300) in the learning mode according to a combination of multi-level classification criteria and generates new learning data for each classification criterion. Wow,

자궁경부 촬영 영상을 전처리(화질 개선, 블러링, 노이즈 처리)하는 촬영 영상 전처리부(220)와,A photographed image pre-processing unit 220 for pre-processing (improving image quality, blurring, and noise processing) of a cervical photographed image;

학습모드에서 상기 분류기준별로 생성된 학습데이터의 특징을 학습하는 자궁경부암에 대한 기계학습모델을 포함하며, 상기 기계학습모델은 진단모드에서 상기 전처리된 자궁경부 촬영 영상에 대해 자궁경부암의 발병 여부에 관한 진단 정보를 생성하는 자궁경부암 진단부(260)와,A machine learning model for cervical cancer that learns the characteristics of the learning data generated by the classification criteria in a learning mode, wherein the machine learning model determines whether or not cervical cancer occurs with respect to the pre-processed image of the cervix in the diagnosis mode. A cervical cancer diagnosis unit 260 that generates diagnostic information related to;

상기 진단 정보를 표시하고 판독의에 의한 평가정보를 입력할 수 있는 유저 인터페이스 화면을 표시 출력하는 화면 표시 제어부(250)와,a screen display control unit 250 for displaying and outputting a user interface screen for displaying the diagnostic information and inputting evaluation information by a reader;

상기 유저 인터페이스 화면을 통해 입력된 평가 정보 중 재학습시 필요한 정보를 추출해 상기 기계학습모델의 재학습을 요청하는 재학습 데이터 생성부(230)와,a re-learning data generation unit 230 for requesting re-learning of the machine learning model by extracting information necessary for re-learning among the evaluation information input through the user interface screen;

상기 자궁경부암의 발병 여부에 관한 진단 정보와 상기 유저 인터페이스 화면을 통해 입력된 평가 정보를 저장하는 진단 및 평가정보 저장부(240)를 포함한다.and a diagnosis and evaluation information storage unit 240 for storing diagnosis information regarding the occurrence of cervical cancer and evaluation information input through the user interface screen.

참고적으로 상기 다단계 분류기준, 피검체에 대한 진단 정보와 평가 정보는 저장매체(300)에 저장될 수 있다.For reference, the multi-level classification criteria, diagnostic information and evaluation information on the subject may be stored in the storage medium 300 .

학습 데이터 생성부(210)는 학습모드에서 생성된 분류기준별 학습데이터의 수적(數的) 밸런스를 조정하기 위해 상기 분류기준별 학습데이터에 대해 상하 혹은 좌우 미러링 혹은 크롭핑 기술을 적용하여 추가 학습데이터를 더 생성함으로써, 특정 형태의 자궁경부(암) 영상 데이터에서 대해서만 과도한 학습이 진행되거나, 반대로 특정 형태(혹은 종류)의 영상에 대해서 정상적인 학습이 진행되지 않는 현상이 발생하지 않도록 한다.The learning data generator 210 applies up/down or left/right mirroring or cropping technology to the learning data for each classification criterion to adjust the numerical balance of the learning data for each classification criterion generated in the learning mode to further learn By generating more data, excessive learning only for a specific type of cervical (cancer) image data or, conversely, a phenomenon in which normal learning does not proceed with respect to a specific type (or type) image is prevented from occurring.

한편, 학습 데이터 생성부(210)는 학습모드에서 자궁경부에 대한 미분류 촬영 영상 데이터를 분류함에 있어, 컬러를 분류기준으로 하는 1단계 분류기준과, 촬영 영상 데이터 내의 자궁경부 크기를 분류기준으로 하는 2단계 분류기준과, 자궁경부 영상 데이터 내의 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준과, 노출과 초점을 분류기준으로 하는 4단계 분류기준 중 적어도 두 개 이상의 분류기준 조합을 이용해 분류함을 특징으로 한다.On the other hand, the learning data generator 210 classifies the unclassified photographed image data for the cervix in the learning mode, the first-stage classification criterion using color as the classification criterion, and the cervix size in the photographed image data as the classification criterion. Classification using a combination of at least two of two-stage classification criteria, three-stage classification criteria based on the combination of color and shape in cervical image data, and four-stage classification criteria based on exposure and focus It is characterized by

구체적인 구현 방법에 있어서 학습 데이터 생성부(210)는,In a specific implementation method, the learning data generation unit 210 includes:

컬러를 분류기준으로 하는 1단계 분류기준에 따라 자궁경부에 대한 미분류 촬영 영상 데이터를 1차 분류하고, 상기 1차 분류된 미분류 촬영 영상 데이터 내의 자궁경부 크기를 분류기준으로 하는 2단계 분류기준에 따라 2차 분류하고, 상기 2차 분류된 미분류 촬영 영상 데이터 내의 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준에 따라 상기 자궁경부에 대한 미분류 촬영 영상 데이터를 3차 분류할 수 있다.First-class classification of unclassified imaging image data for the cervix according to the first-stage classification criterion based on color, and the second-stage classification criterion based on the cervix size in the primary classified unclassified image data. Secondary classification may be performed, and the unclassified photographed image data for the cervix may be thirdly classified according to a three-step classification criterion based on a combination of colors and shapes in the secondly classified unclassified photographed image data.

또한 학습 데이터 생성부(210)는 상기 3차 분류된 자궁경부에 대한 미분류 촬영 영상 데이터를 노출과 초점을 분류기준으로 하는 4단계 분류기준에 따라 4차 분류할 수도 있다. 이러한 4단계 분류기준은 1단계 분류기준에 앞서 최우선적으로 적용되어 진단 불가(병변이 식별되지 않는)한 촬영 영상 데이터를 필터링하기 위한 학습 데이터로 활용될 수 있다. 예를 들어 노출이 부족/과다할 경우 히스토그램이 한 쪽에 극단적으로 치우치기 때문에 이를 이용해 분류할 수 있고, 초점이 맞지 않는 경우 에지(edge:경계선) 검출이 되지 않거나 색의 대비가 모호하게 나타나므로 이러한 특성을 이용해 분류(4차 분류)할 수 있다.In addition, the learning data generator 210 may fourthly classify the unclassified captured image data for the tertiary-classified cervix according to the four-stage classification criteria using exposure and focus as classification criteria. These four-stage classification criteria are applied first before the first-stage classification criteria, and thus can be used as learning data for filtering the captured image data that cannot be diagnosed (no lesions are identified). For example, in the case of underexposure/overexposure, the histogram is extremely biased to one side, so it can be used for classification. It can be classified (quaternary classification) using characteristics.

부가적으로 상기 학습 데이터 생성부(210)는 컬러를 분류기준으로 하는 1단계 분류기준에 따라 상기 자궁경부에 대한 미분류 촬영 영상 데이터를 1차 분류하되, 상기 1단계 분류기준은 아세트산 반응 영상, 루골용액반응 영상, 그린필터 영상, 일반 영상 중 어느 하나 이상을 각각 식별하기 위한 컬러값을 분류기준 값으로 포함한다.Additionally, the learning data generation unit 210 first classifies the unclassified photographed image data for the cervix according to the first-stage classification criterion using color as the classification criterion, but the first-stage classification criterion is an acetic acid reaction image, Lugol A color value for identifying one or more of a solution reaction image, a green filter image, and a general image is included as a classification reference value.

또한 학습 데이터 생성부(210)는 상기 1차 분류된 미분류 촬영 영상 데이터 내의 자궁경부 크기, 예를 들면 영상 내의 자궁경부 크기 150%, 100%, 80%, 50%, 확대경 및 이외 부분 포함과 같은 크기를 분류기준으로 2차 분류한다.In addition, the learning data generation unit 210 may include the size of the cervix in the first classified unclassified captured image data, for example, 150%, 100%, 80%, 50% of the size of the cervix in the image, including a magnifying glass and other parts. Secondary classification based on size.

더 나아가 학습 데이터 생성부(210)는 2차 분류된 자궁경부에 대한 미분류 촬영 영상 데이터에서 자궁경부 영상 데이터 내의 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준에 따라 상기 자궁경부에 대한 미분류 촬영 영상 데이터를 3차 분류하되, 상기 3단계 분류기준은 자궁경부 영상 데이터 내에서 적어도 혈액, 점액, 루프, 질확대경, 치료흔적, 수술도구 중 어느 하나 이상을 식별하기 위한 컬러값과 형태의 조합을 분류기준 값으로 포함하여 자궁경부에 영향을 주는 이물질들을 분류한다.Furthermore, the learning data generation unit 210 is configured to unclassify the cervix according to the three-stage classification criterion based on the combination of color and shape in the cervix image data in the secondly classified unclassified photographed image data for the cervix. A tertiary classification of the photographed image data, wherein the three-stage classification criterion is a combination of color values and shapes for identifying at least any one or more of blood, mucus, loops, colposcopy, treatment traces, and surgical tools in the cervical image data is included as a classification standard value to classify foreign substances affecting the cervix.

예를 들어 혈액은 주로 자궁경부 중앙에서 아래로 흐르는 붉은색의 형태로 나타나며, 점액은 주로 자궁경부 중앙에서 아래로 흐르는 엷은 노란색의 형태로 나타나며, 루프는 자궁경부의 중앙에 주로 위치하며 일반적으로 부메랑 형태의 철사가 명확히 나타난다. 질 확대경 및 기타 수술도구는 핑크색의 자궁경부와는 다른 색상(은색, 푸른색,..)으로 나타나기에 각 이물질들의 컬러와 형태의 조합 특성을 이용하면 상기 예시한 바와 같이 자궁경부에 영향을 주는 이물질들을 분류할 수 있다.For example, blood usually appears as a reddish color that flows down from the center of the cervix, mucus appears mainly as a pale yellow color that flows down from the center of the cervix, and the loop is located mainly in the center of the cervix and is usually a boomerang. The shape of the wire is clearly visible. Colposcopy and other surgical instruments appear in different colors (silver, blue,...) from the pink cervix. Foreign substances can be classified.

예시한 1차 내지 4차 분류과정에서는 딥러닝 기법인 CNN을 사용하여 각각의 분류를 진행할 수 있다. 1차와 2차 및 4차 분류에서는 추출할 피처(feature)가 명확하기 때문에 적은 레이어(layer)의 구성으로도 높은 정확도의 분류가 가능하며, 3차 분류에서는 추출할 피처가 많기 때문에 깊은 레이어로 구성하여 정확도를 높일 수 있다.In the illustrated 1st to 4th classification process, each classification can be performed using CNN, which is a deep learning technique. In the 1st, 2nd, and 4th classification, high-accuracy classification is possible even with a small number of layers because the features to be extracted are clear. can be configured to increase accuracy.

이하 도 3과 도 4를 참조하여 본 발명의 실시예에 따른 자궁경부암 자동 진단 시스템(200)의 학습 데이터 분류방법을 보다 구체적으로 설명하기로 한다.Hereinafter, the learning data classification method of the automatic cervical cancer diagnosis system 200 according to an embodiment of the present invention will be described in more detail with reference to FIGS. 3 and 4 .

우선 도 3은 본 발명의 실시예에 따른 자궁경부 학습 데이터 분류방법을 설명하기 위한 도면을 도시한 것이며, 도 4는 본 발명의 실시예에 따른 자궁경부 학습 데이터 생성을 위한 다단계 분류기준을 보다 상세히 설명하기 위한 도면을 도시한 것이다.First, FIG. 3 is a diagram for explaining a method for classifying cervical learning data according to an embodiment of the present invention, and FIG. 4 is a multi-stage classification criterion for generating cervical learning data according to an embodiment of the present invention in more detail. A drawing for explanation is shown.

도 3을 참조하면, 우선 자궁경부에 대한 미분류 촬영 영상 데이터들에 대한 학습을 진행하기에 앞서 저장매체(300)에는 영상촬영장치(100) 혹은 외부 장치로부터 전달된 자궁경부에 대한 미분류 촬영 영상 데이터들이 저장(S100단계)되거나 저장되어 있는 것으로 가정한다.Referring to FIG. 3 , before proceeding with learning of unclassified photographed image data for the cervix, unclassified photographed image data for the cervix transmitted from the imaging apparatus 100 or an external device is stored in the storage medium 300 . It is assumed that they are stored (step S100) or stored.

이러한 가정하에 관리자로부터 학습모드의 실행명령이 있으면, 학습 데이터 생성부(210)는 자궁경부에 대한 미분류 촬영 영상 데이터 각각에 대해 CNN과 같은 신경망 알고리즘에 기반하여 분류하되, 복수의 다단계 분류기준 조합에 따라 분류하여 우선 저장(S200단계)한다.Under this assumption, if there is an execution command of the learning mode from the manager, the learning data generation unit 210 classifies each unclassified captured image data for the cervix based on a neural network algorithm such as CNN, but in a combination of a plurality of multi-level classification criteria. They are sorted and stored first (step S200).

예를 들어 학습 데이터 생성부(210)는 컬러를 분류기준으로 하는 1단계 분류기준에 따라 상기 자궁경부에 대한 미분류 촬영 영상 데이터를 우선적으로 1차 분류한다.For example, the learning data generator 210 first classifies the unclassified photographed image data of the cervix according to the first-stage classification criterion using color as the classification criterion.

1차 분류를 위해 학습 데이터 생성부(210)는 아세트산 반응 영상, 루골용액반응 영상, 그린필터 영상, 일반 영상 각각 식별하기 위한 컬러값을 분류기준 값으로 포함함으로서, 위 4가지의 영상을 분류할 수 있다.For the primary classification, the learning data generation unit 210 includes a color value for identifying each of the acetic acid reaction image, Lugol solution reaction image, green filter image, and general image as a classification reference value to classify the above four images. can

구체적으로, 아세트산 반응 영상은 흰색의 얼룩이 자궁경부에 나타나기 때문에 핑크색의 자궁경부 및 질과 구분이 가능하다. 루골용액 반응 영상은 갈색 또는 진한 주황색 컬러가 나타나며, 그린필터 영상은 영상 전반에 걸쳐 그린이 강하게 나타나기 때문에 이러한 각 영상의 특징을 나타내는 컬러값을 분류기준 값으로 활용해 자궁경부에 대한 미분류 촬영 영상 데이터를 분류할 수 있다.Specifically, the acetic acid reaction image can be distinguished from the pink cervix and vagina because white stains appear on the cervix. Lugol solution reaction images show brown or dark orange color, and green filter images show strong green throughout the image. can be classified.

1차 분류가 완료되면 학습 데이터 생성부(210)는 상기 1차 분류된 촬영 영상 데이터 내의 자궁경부 크기를 분류기준으로 하는 2단계 분류기준에 따라 2차 분류한다.When the primary classification is completed, the learning data generation unit 210 performs secondary classification according to the second-stage classification criterion using the size of the cervix in the primary classified captured image data as the classification criterion.

자궁경부는 500원 주화 크기의 원형으로 보통 영상 내에서 중앙 부분에 위치한다. 따라서 영상 내의 자궁경부 크기(150%, 100%, 80% 등)를 기준으로 자궁경부만 확대한 영상, 자궁경부 전체가 나온 영상, 자궁경부가 영상의 80% 정도만 나온 영상, 자궁경부가 영상의 50% 정도만 나온 영상, 자궁경부+확대경+이외부분 포함된 영상과 같이 2차 분류할 수 있다.The cervix is a circle the size of a 500 won coin and is usually located in the center of the image. Therefore, based on the size of the cervix in the image (150%, 100%, 80%, etc.), only the cervix is enlarged, the entire cervix is shown, the cervix is only 80% of the image, and the cervix is 50% of the image. Secondary classification is possible, such as an image that only shows the degree, or an image that includes the cervix + magnifying glass + other parts.

이후 학습 데이터 생성부(210)는 상기 2차 분류된 자궁경부 영상 데이터 내의 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준에 따라 자궁경부에 영향을 주는 이물질들을 3차 분류한다.Thereafter, the learning data generation unit 210 tertiarily classifies foreign substances affecting the cervix according to a three-step classification criterion based on a combination of color and shape in the second classified cervical image data.

앞서 언급한 바와 같이 혈액은 주로 자궁경부 중앙에서 아래로 흐르는 붉은색의 형태로 나타나며, 점액은 주로 자궁경부 중앙에서 아래로 흐르는 엷은 노란색의 형태로 나타나며, 루프는 자궁경부의 중앙에 주로 위치하며 일반적으로 부메랑 형태의 철사가 명확히 나타난다. 질 확대경 및 기타 수술도구는 핑크색의 자궁경부와는 다른 색상(은색, 푸른색,..)으로 나타나기에 각 이물질들의 컬러와 형태의 조합 특성을 이용하면 상기 예시한 바와 같이 자궁경부에 영향을 주는 이물질들을 분류할 수 있다.As mentioned earlier, blood mainly appears in the form of red flowing down from the center of the cervix, and mucus is mainly in the form of pale yellow flowing down from the center of the cervix. A boomerang-shaped wire appears clearly. Colposcopy and other surgical instruments appear in different colors (silver, blue,...) from the pink cervix. Foreign substances can be classified.

이상에서 설명한 바와 같이 다단계 분류기준 조합에 따라 분류된 분류기준별 촬영 영상 데이터는 저장매체(300) 혹은 시스템(200) 내부의 메모리에 일시 저장될 수 있다.As described above, the captured image data for each classification criterion classified according to the multi-level classification criterion combination may be temporarily stored in the storage medium 300 or the internal memory of the system 200 .

미분류 촬영 영상 데이터의 분류가 완료되면 학습 데이터 생성부(210)는 상기 분류기준별로 분류된 자궁경부에 대한 촬영 영상 데이터를 분류기준별 학습 데이터로 생성하여 저장매체(300)에 저장(S300단계)한다. 이러한 학습 데이터 생성과정에서 학습 데이터 생성부(210)는 분류기준별 학습 데이터의 수적 밸런스를 조정하기 위해 추가 학습 데이터를 더 생성할 수 있는데, 추가 학습 데이터는 각 분류기준별 학습 데이터에 기반하여 생성하는 것이 바람직하다.When the classification of the unclassified captured image data is completed, the learning data generating unit 210 generates the captured image data for the cervix classified by the classification criterion as learning data for each classification criterion and stores it in the storage medium 300 (step S300) do. In this learning data generation process, the learning data generator 210 may further generate additional learning data to adjust the numerical balance of the learning data for each classification criterion, and the additional learning data is generated based on the learning data for each classification criterion. It is preferable to do

추가 학습 데이터를 생성하기 위한 방법으로는 미러링을 이용하여 좌우가 바뀌는 수직 미러링과 상하가 바뀌는 수평 미러링을 사용할 수 있으며, 크롭핑을 이용하여 원본보다 작은 크기로 상/하/좌/우 기준으로 크롭핑을 실행하여 추가 학습 데이터를 생성할 수 있다. 또한 미러링과 크롭핑을 같이 사용하면 최대 16배의 추가 학습 데이터의 생성이 가능하다.As a method to generate additional training data, vertical mirroring that changes left and right and horizontal mirroring that changes up and down using mirroring can be used. You can generate additional training data by running a ping. In addition, if mirroring and cropping are used together, it is possible to generate up to 16 times the additional training data.

참고적으로 상기 예에서는 1단계 분류기준, 2단계 분류기준, 3단계 분류기준 조합을 적용하여 학습 데이터를 생성하였으나, 1단계 및 2단계 분류기준 조합, 1단계 및 3단계 분류기준 조합, 2단계 및 3단계 분류 기준 조합을 적용하여 학습 데이터를 생성할 수 있으며, 단순히 도 4에 도시한 바와 같이 1단계 내지 3단계 분류기준을 각각 적용하여 자궁경부에 대한 미분류 촬영 영상 데이터를 분류하여 분류기준별 학습 데이터로 사용할 수도 있을 것이다.For reference, in the above example, the training data was generated by applying the first-stage classification criterion, the second-stage classification criterion, and the three-stage classification criterion combination. And it is possible to generate learning data by applying a combination of three-stage classification criteria, and simply as shown in FIG. 4, by applying stage 1 to stage 3 classification criteria, respectively, classifying unclassified image data for the cervix by classification criteria It can also be used as training data.

이상과 같이 다단계 분류기준 조합에 따라 자궁경부에 대한 미분류 촬영 영상 데이터가 분류되어 학습 데이터가 생성되면, 자궁경부에 대한 기계 학습 모델(262)은 분류기분별로 생성된 학습 데이터의 특징에 대해 학습과 검증을 실행(S400단계)한다. 만약, 자궁경부에 대한 미분류 촬영 영상 데이터가 추가적으로 확보되면 상술한 학습모드를 재차 수행한다.As described above, when the unclassified imaging image data for the cervix is classified according to the multi-level classification criterion combination and learning data is generated, the machine learning model 262 for the cervix learns about the characteristics of the learning data generated for each classification mood. Execute verification (step S400). If unclassified imaging image data for the cervix is additionally secured, the above-described learning mode is performed again.

이상에서 살펴본 바와 같이 본 발명의 실시예에 따른 자궁경부암 자동 진단 시스템(200)은 다단계의 분류기준 조합에 따라 자궁경부에 대한 미분류 촬영 영상 데이터를 분류하여 학습 데이터를 생성하기 때문에 학습 데이터의 분류 수가 많아지고, 학습 데이터의 분류 수가 많아지면 많아질수록 다양한 특성을 가지는 영상 데이터에 대해 학습이 이루어져 결국 병변 유무를 보다 정확하게 진단할 수 있는 효과를 얻을 수 있다.As described above, the automatic cervical cancer diagnosis system 200 according to the embodiment of the present invention classifies unclassified imaging image data for the cervix according to a combination of multi-stage classification criteria to generate learning data. As the number of classifications of the learning data increases, learning is performed on image data having various characteristics, resulting in an effect of more accurately diagnosing the presence or absence of a lesion.

또한 본 발명은 분류기준별 학습 데이터의 수적(數的) 밸런스를 조정하기 위한 추가 학습 데이터를 더 생성하여 학습에 이용토록 함으로써, 특정 형태의 자궁경부(암) 영상 데이터에 대해서만 과도한 학습이 진행되거나, 반대로 특정 형태(혹은 종류)의 영상에 대해서 학습이 진행되지 않는 현상이 발생하지 않도록 함으로써, 자궁경부에 대한 병변 유무를 정확히 진단해 낼 수 있는 효과를 제공한다.In addition, the present invention further generates additional learning data for adjusting the numerical balance of learning data for each classification criterion and uses it for learning, so that excessive learning is carried out only for a specific type of cervical (cancer) image data, or , on the contrary, it provides an effect of accurately diagnosing the presence or absence of a lesion on the cervix by preventing a phenomenon in which learning does not proceed with respect to a specific type (or type) of an image.

이하 상술한 다단계의 분류기준 조합에 따라 자궁경부에 대한 미분류 촬영 영상 데이터를 분류하여 생성된 학습 데이터를 이용해 기계학습모델(262)을 학습시킨 자궁경부암 자동 진단 시스템(200)의 자궁경부암 자동 진단 과정을 설명하기로 한다.Hereinafter, the automatic cervical cancer diagnosis process of the cervical cancer automatic diagnosis system 200 in which the machine learning model 262 is trained using the learning data generated by classifying the unclassified imaging image data for the cervix according to the above-described multi-step classification criterion combination. to be explained.

도 5는 본 발명의 실시예에 따른 자궁경부암 자동 진단 과정을 설명하기 위한 도면을 도시한 것이며, 도 6a 내지 6e는 본 발명의 실시예에 따른 자궁경부암 자동 진단 과정에서 제공되는 유저 인터페이스(UI; user interface) 화면을 예시한 것이다.5 is a diagram illustrating an automatic cervical cancer diagnosis process according to an embodiment of the present invention, and FIGS. 6A to 6E are user interfaces (UIs) provided in the automatic cervical cancer diagnosis process according to an embodiment of the present invention; user interface) screen.

도 5를 참조하면, 우선 진단모드에서 자궁경부암 자동 진단 시스템(200)은 피검체의 자궁경부에 대한 촬영 영상을 획득(S410단계)한다. 피검체의 자궁경부에 대한 촬영 영상은 영상촬영장치(100)로부터 획득될 수도 있고, 통신부(400) 혹은 저장매체를 통해 외부로부터 획득될 수도 있다. 이와 같이 획득된 자궁경부에 대한 촬영 영상(514)은 화면 표시 제어부(250)에 의해 도 6a에 도시한 바와 같이 유저 인터페이스 화면에 표시된다. 상기 촬영 영상(514)과 함께 환자인 피검체 정보가 도 6a에 도시한 바와 같이 피검체 정보 입력 영역(510)을 통하여 표시될 수 있도록 유저 인터페이스 화면을 구성할 수 있다.Referring to FIG. 5 , first, in the diagnosis mode, the automatic cervical cancer diagnosis system 200 acquires a photographed image of the cervix of the subject (step S410 ). The photographed image of the cervix of the subject may be obtained from the imaging apparatus 100 or may be obtained from the outside through the communication unit 400 or a storage medium. The captured image 514 of the cervix obtained in this way is displayed on the user interface screen by the screen display controller 250 as shown in FIG. 6A . The user interface screen may be configured so that information about the subject, which is a patient, together with the captured image 514 may be displayed through the subject information input area 510 as shown in FIG. 6A .

획득된 피검체의 자궁경부에 대한 촬영 영상을 유저 인터페이스 화면에 표시하기에 앞서 보다 정확한 진단 정보를 생성하기 위하여 촬영영상 전처리부(220)는 상기 자궁경부 촬영 영상에 대하여 전처리를 수행하는 것이 바람직하다. 여기에서 전처리는, 상기 촬영 영상의 조도 및 노이즈에 강건하도록 하기 위한 RGB-HSV 변환, 히스토그램 평활화 등을 통한 영상 화질 개선, 블러링(blurring) 및 노이즈 처리 중 적어도 하나를 포함할 수 있다.In order to generate more accurate diagnostic information before displaying the acquired image of the cervix of the subject on the user interface screen, it is preferable that the photographed image pre-processing unit 220 performs pre-processing on the photographed image of the cervix. . Here, the pre-processing may include at least one of RGB-HSV conversion for robustness to illuminance and noise of the captured image, image quality improvement through histogram smoothing, and blurring and noise processing.

다시 도 5를 참조하면, 피검체의 자궁경부에 대한 촬영 영상을 획득하여 전처리 완료되면 자궁경부암 진단부(260)의 기계학습모델(262)은 상기 전처리된 자궁경부 촬영 영상에 대해 자궁경부암의 발병 여부에 관한 진단 정보를 생성(S420단계)한다.Referring back to FIG. 5 , when the pre-processing is completed by acquiring a photographed image of the cervix of the subject, the machine learning model 262 of the cervical cancer diagnosis unit 260 determines the onset of cervical cancer with respect to the pre-processed image of the cervix. It generates diagnostic information on whether or not (step S420).

상기 기계학습모델(262)은 미리 입력된 다수의 훈련용 정보, 즉, (i)다단계 분류기준 조합에 따른 분류기준별 학습 데이터, (ii) 그 다수의 학습 데이터 영상에 자궁경부암의 병변이 존재하는지 여부의 데이터, 및 만약 병변이 존재한다면 (iii) 해당 영상의 어떤 부분에 그 병변이 존재하는지를 표시한 데이터를 포함하는 정보를 이용하여 자궁경부암의 발병 여부에 관한 진단 정보를 생성한다. 참고적으로 상기 기계학습모델(262)은 CNN(convolutional neural network; 합성 신경망) 모델일 수 있으며 CNN과 SVM(support vector machine)을 결합한 모델일 수 있다.The machine learning model 262 has a plurality of pre-input training information, that is, (i) learning data for each classification criterion according to a combination of multi-stage classification criteria, and (ii) cervical cancer lesions in the plurality of learning data images. Diagnosis information regarding the occurrence of cervical cancer is generated using information including data indicating whether or not the lesion exists, and (iii) data indicating in which part of the image the lesion is present, if there is a lesion. For reference, the machine learning model 262 may be a convolutional neural network (CNN) model or a model combining CNN and a support vector machine (SVM).

기계학습모델(262)의 정확도와 신뢰도를 높이기 위하여 다량의 훈련용 학습 데이터가 필요하며, 훈련용 학습 데이터가 많으면 많을수록 기계학습모델의 정확도 및 신뢰도는 향상될 수 있다.A large amount of training data is required in order to increase the accuracy and reliability of the machine learning model 262 , and the more the training data is, the more the accuracy and reliability of the machine learning model can be improved.

한편, 상기 진단 정보는 자궁경부암에 대한 음성(negative), 비정형(atypical), 양성(positive) 및 악성 여부에 관한 분류 정보를 포함할 수 있다. 또한 상기 분류 정보는 그 분류가 얼마나 정확한지를 나타내는 확률 정보를 포함할 수 있다.Meanwhile, the diagnostic information may include classification information on whether the cervical cancer is negative, atypical, positive, and malignant. Also, the classification information may include probability information indicating how accurate the classification is.

더 구체적으로, 상기 진단 정보는 음성인지 여부, 양성이라면 그 위험성이 높은지 낮은지 여부(low cancer risk vs. high cancer risk)에 관한 정보인 음양성 판정 정보를 포함할 수 있으며, Acetowhite Epithelium, Mosaic, Erosion or ulceration, Irregular surface contour, Punctation, Atypical Vessels, Discolaration 등의 형태학적 소견 정보를 더 포함할 수도 있다.More specifically, the diagnostic information may include negative-positive determination information, which is information on whether or not the diagnosis is negative, and whether the risk is high or low (low cancer risk vs. high cancer risk) if positive, Acetowhite Epithelium, Mosaic, Morphological findings such as erosion or ulceration, irregular surface contour, puncture, atypical vessels, and discolaration may be further included.

상기 진단 정보는 화면 표시 제어부(250)에 의해 도 6b에 도시한 바와 같이 다수의 촬영 영상(514)에 대응되도록 목록화되어 제공될 수 있다. 도 6b에 도시한 유저 인터페이스 화면에는 피검체 정보(520), 입력 시점 정보(522), 기계학습모델(262)에 의해 산출된 분류 정보 및 확률 정보에 따라 자궁경부암의 발병이 의심되는지 여부를 나타내는 정보('suspicious'로 표시됨; 524)가 표시된다. 더 나아가 도 6b에 도시된 유저 인터페이스 화면에는 S420단계에 이어지는 후속 단계들을 계속 수행할 수 있도록 특정 촬영 영상에 대응되는 'Evaluation' 버튼(526)들이 도시되어 있다.As shown in FIG. 6B , the diagnostic information may be listed and provided to correspond to a plurality of captured images 514 by the screen display controller 250 . The user interface screen shown in FIG. 6B indicates whether the onset of cervical cancer is suspected according to the subject information 520 , the input time information 522 , the classification information and the probability information calculated by the machine learning model 262 . Information (marked 'suspicious'; 524) is displayed. Furthermore, on the user interface screen shown in FIG. 6B , 'Evaluation' buttons 526 corresponding to a specific captured image are shown so that subsequent steps following step S420 can be continuously performed.

상기 'Evaluation' 버튼(526)을 통해 판독의는 기계학습모델에 기초하여 자동 진단된 자궁경부암의 발병 여부를 판독하고 평가 정보를 입력할 수 있다. 즉, 'Evaluation' 버튼(526)의 조작이 있으면, 화면 표시 제어부(250)는 자궁경부암의 발병 여부를 판독할 수 있도록 여러 화면을 지원한다.Through the 'Evaluation' button 526, the reading doctor can read whether or not the cervical cancer is diagnosed automatically based on the machine learning model and input evaluation information. That is, when the 'Evaluation' button 526 is manipulated, the screen display control unit 250 supports several screens to read whether cervical cancer has occurred.

예를 들어 도 6c에 도시한 바와 같이, 촬영 영상의 전부 또는 일부를 유저 인터페이스 화면상에 제공함으로써, 판독의는 의학적으로 특이한 영역이 있는지 여부를 판단하면서 도구창을 이용해 필요한 여러 가지 표시를 할 수 있다(예컨대, 사각형, 화살표, 텍스트 입력 등).For example, as shown in FIG. 6C , by providing all or part of the captured image on the user interface screen, the reader can make various necessary displays using the tool window while determining whether there is a medically unusual area. There are (eg, rectangles, arrows, text input, etc.).

또한 화면 표시 제어부(250)는 유저 인터페이스 화면을 통해 입력되는 판독의 명령에 대응하는 진단 정보를 표시해 줄 수 있으며 판독의에 의한 평가정보를 입력할 수 있도록 지원(S430단계)한다.In addition, the screen display control unit 250 may display diagnostic information corresponding to a reading command input through the user interface screen, and supports input of evaluation information by a reader (step S430).

평가 정보라고 함은, 제공되는 진단 정보가 정확한 것인지, 즉 진단 정보에 포함된 발병 여부가 옳은지 그른지에 관한 정보, 및 상기 진단 정보에 포함된 분류 정보가 옳은지 그른지, 그르다면, 어떠한 분류가 옳은 것인지에 관한 정보를 포함할 수 있다.The evaluation information refers to whether the diagnostic information provided is accurate, that is, information on whether the onset included in the diagnostic information is correct or not, and whether the classification information included in the diagnostic information is correct or incorrect. It may contain information about

또한 상기 평가 정보는, 촬영 영상에 관한 품질에 관한 정보, 예컨대 촬영 영상의 기술적 결함에 관한 정보를 포함할 수도 있다. 예컨대, 그러한 기술적 결함은, 촬영 영상에 점액(mucus)이나 혈액이 과다하여 그 촬영 영상에 대한 정확한 판정이 어렵다거나 촬영 영상의 각도나 촬영된 부위의 위치 때문에 자궁경부암의 발병 여부를 확인하기 어려운 것일 수도 있고, 아세트산 반응이 있어야 하는데도 그 아세트산 반응이 불충분하다거나(insufficient acetic acid reaction) 초점 불분명(out of focus), 과노출, 과소노출에 해당하는 영상의 문제일 수도 있다.In addition, the evaluation information may include information on quality of the captured image, for example, information on technical defects of the captured image. For example, such a technical defect is that it is difficult to accurately determine the captured image due to excessive mucus or blood in the photographed image, or it is difficult to determine whether cervical cancer occurs due to the angle of the photographed image or the location of the photographed area. It may also be an acetic acid reaction that should be present, but the acetic acid reaction is insufficient, or it may be a problem with the image corresponding to out of focus, overexposure or underexposure.

도 6d에는 화면 표시 제어부(250)에 의해 표시되는 유저 인터페이스 화면을 도시한 것으로, 촬영 영상의 전부 또는 일부(540)가 표시되는 영역, 동일 피검체에 대하여 이전에 촬영된 타 영상의 이력 정보(541)가 표시되는 영역, 도 6a에 예시한 바와 같이 피검체 정보 노출 영역(542), 음양성 판정 정보가 입력될 수 있는 음양성 판정 정보 입력 영역(543), 판독의에 의해 형태학적 소견 정보가 입력될 수 있는 형태학적 소견 정보 입력 영역(544), 촬영 영상(540)의 기술적 결함에 관한 정보가 입력될 수 있는 기술적 결함 정보 입력 영역(545), 상기 기계학습모델(262)에 의하여 도출된 진단 정보를 나타내는 인공지능 진단 정보 출력 영역(546) 및 판독의가 상기 촬영 영상에 기초한 소견을 입력할 수 있는 사용자 소견 입력 영역(547)이 유저 인터페이스 화면상에 표시되는바, 이로써 자동 진단 정보에 대응되는 자궁경부암의 발병 여부를 판독의가 평가하는 것이 용이해진다.FIG. 6D shows a user interface screen displayed by the screen display control unit 250, in which all or part of the captured image 540 is displayed, and history information of other images previously captured for the same subject ( The area 541 is displayed, the subject information exposure area 542 as illustrated in FIG. 6A , the negative/positive determination information input area 543 into which negative/positive determination information can be input, and morphological observation information by the reader Derived by the morphological observation information input area 544 into which can be inputted, the technical defect information input area 545 into which information on technical defects of the photographed image 540 can be input, and the machine learning model 262 An artificial intelligence diagnostic information output area 546 indicating the acquired diagnostic information and a user opinion input area 547 in which the reader can input an opinion based on the captured image are displayed on the user interface screen, whereby automatic diagnosis information It makes it easier for the reader to evaluate whether or not the corresponding cervical cancer has occurred.

한편 판독의는 도 6에 도시된 유저 인터페이스 화면을 통해 피검체 자궁경부에 대한 촬영 영상과 기계학습모델(262)에 기초하여 분석된 진단 정보에 대한 평가 정보를 입력하면, 진단 및 평가정보 저장부(240)는 자궁경부암의 발병 여부에 관한 진단 정보와 상기 유저 인터페이스 화면을 통해 입력된 판독의의 평가 정보를 저장매체(300)에 저장(S440단계)하거나 관리자 혹은 판독의 요청시 표시부(500)에 출력하여 준다.On the other hand, when the reading doctor inputs the evaluation information for the diagnosis information analyzed based on the captured image of the cervix of the subject and the machine learning model 262 through the user interface screen shown in FIG. 6, the diagnosis and evaluation information storage unit (240) stores the diagnosis information on the occurrence of cervical cancer and the evaluation information of the reading intention input through the user interface screen in the storage medium 300 (step S440) or the display unit 500 when an administrator or a reading request is made output it to

한편, 상기 유저 인터페이스 화면을 통해 평가 정보가 입력되면, 재학습 데이터 생성부(230)는 유저 인터페이스 화면을 통해 입력된 평가 정보 중 재학습시 필요한 정보, 예를 들면 음양성 판정 정보, 기술적 결함 정보 등을 추출해 기계학습모델(262)의 재학습을 요청할 수 있다.On the other hand, when the evaluation information is input through the user interface screen, the re-learning data generation unit 230 is information necessary for re-learning among the evaluation information input through the user interface screen, for example, yin-positive determination information, technical defect information It is possible to request re-learning of the machine learning model 262 by extracting and so forth.

또한 상술한 평가 정보는 의료 결과 레포트의 형식으로 가공되어 제공될 수도 있는바, 예컨대, 이를 위하여 제공되는 유저 인터페이스는 도 6e에 잘 나타나 있으며, 의료 결과 레포트(550)는 자궁경부암의 발병 여부, 분류 정보 등을 포함할 수 있다. 이러한 의료 결과 레포트는 촬영 영상을 최초 획득한 장소(즉, 촬영지), 촬영 영상의 판독이 수행된 장소로부터 멀리 떨어진 곳에 위치한 타 장치를 통하여 제공될 수도 있다.In addition, the above-described evaluation information may be processed and provided in the form of a medical result report. For example, a user interface provided for this purpose is well shown in FIG. 6E , and the medical result report 550 indicates whether cervical cancer occurs, classification information may be included. Such a medical result report may be provided through another device located far from the place where the captured image was initially obtained (ie, the filming location) and the place where the captured image was read.

이상의 실시예에서는 자궁경부암 자동 진단 시스템(200)에 판독의가 위치하여 평가 정보를 입력하는 경우를 가정하여 설명하였으나, 별다른 변형 없이 촬영 영상, 진단 정보들을 통신부(400)를 통해 원격지에 위치한 판독의로 전송하여 평가 정보가 입력되도록 할 수 있다.In the above embodiment, it is assumed that a doctor is located in the automatic cervical cancer diagnosis system 200 to input evaluation information. It can be transmitted to so that evaluation information can be input.

이상에서 설명한 본 발명의 실시예에 따르면, 미리 학습된 기계학습모델(262)에 기초하여 자궁경부암에 대한 발병 여부를 자동 진단할 수 있기 때문에, 의료진이 자궁경부 확대경을 통하여 획득된 자궁경부 촬영 영상을 직접 보고 교육과 경험에 기초하여 일일이 자궁경부의 상태를 확인하는 종전 방식에 비해 보다 빠르고 정확하게 자궁경부암의 발병 여부를 자동 진단할 수 있는 장점이 있다.According to the embodiment of the present invention described above, since it is possible to automatically diagnose the onset of cervical cancer based on the machine learning model 262 learned in advance, a cervical imaging image obtained by a medical staff through a cervical magnifying glass It has the advantage of being able to automatically diagnose the onset of cervical cancer faster and more accurately than the previous method of checking the condition of the cervix one by one based on education and experience.

또한 본 발명은 평가 정보를 다시 상기 기계학습모델에 대한 재학습의 자료로 활용할 수 있어 더 정확한 판독을 수행할 수 있는 장점이 있다.In addition, the present invention has the advantage that more accurate reading can be performed because the evaluation information can be used again as data for re-learning for the machine learning model.

한편 상술한 실시예에서는 컬러를 분류기준으로 하는 1단계 분류기준과, 촬영 영상 데이터 내의 자궁경부 크기를 분류기준으로 하는 2단계 분류기준과, 자궁경부 영상 데이터 내의 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준과, 노출과 초점을 분류기준으로 하는 4단계 분류기준을 예시하였으나, 학습 데이터 생성부(210)는 도 7에 도시한 바와 같은 악성의 비정형 혈관(Atypical Vessels) 패턴을 분류기준으로 하는 5단계 분류기준을 더 추가하여 5단계 분류기준 단독 혹은 5단계 분류기준과 앞서 예시한 타 분류기준의 조합에 따라 자궁경부에 대한 미분류 촬영 영상 데이터를 분류하여 학습 데이터를 생성할 수도 있다.Meanwhile, in the above-described embodiment, the first-stage classification criterion based on color, the second-stage classification criterion based on the size of the cervix in the photographed image data, and the combination of color and shape in the cervical image data are used as the classification criterion. Although the three-step classification criteria and the four-step classification criteria based on exposure and focus have been exemplified, the learning data generator 210 classifies the malignant atypical vessel pattern as shown in FIG. 7 as the classification criteria. Learning data can also be generated by classifying the unclassified image data of the cervix according to the 5-stage classification criterion alone or the combination of the 5-stage classification criterion and other classification criteria exemplified above by adding additional 5-stage classification criteria.

도 7에 도시한 악성의 비정형 혈관 패턴에 대한 학습이 이루어지면 자궁경부암 진단부(260)는 학습된 기계학습모델에 기초하여 악성의 비정형 혈관 패턴을 나타내는 자궁경부암의 발병 여부에 대한 진단을 생성할 수 있을 것이다.When the learning of the malignant atypical vascular pattern shown in FIG. 7 is performed, the cervical cancer diagnosis unit 260 generates a diagnosis on whether cervical cancer showing the malignant atypical vascular pattern occurs based on the learned machine learning model. will be able

위 실시예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명이 소프트웨어 및 하드웨어의 결합을 통하여 달성되거나 하드웨어만으로 달성될 수 있다는 점을 명확하게 이해할 수 있다. 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다.Based on the description of the above embodiments, those skilled in the art can clearly understand that the present invention can be achieved through a combination of software and hardware or can be achieved only with hardware. The objects of the technical solution of the present invention or parts contributing to the prior art may be implemented in the form of program instructions that can be executed through various computer components and recorded in a machine-readable recording medium. The machine-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the machine-readable recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software.

기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 CPU나 GPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고 받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.Examples of the machine-readable recording medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and DVD, and a magneto-optical medium such as a floppy disk. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present invention, and vice versa. The hardware device may include a processor, such as a CPU or GPU, coupled with a memory such as ROM/RAM for storing program instructions and configured to execute instructions stored in the memory, and may send and receive signals to and from an external device. It may include a communication unit. In addition, the hardware device may include a keyboard, a mouse, and other external input devices for receiving commands written by developers.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다. 따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.In the above, the present invention has been described with specific matters such as specific components and limited embodiments and drawings, but these are provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , a person of ordinary skill in the art to which the present invention pertains can make various modifications and variations from these descriptions. Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and not only the claims described below, but also all modifications equivalently or equivalently to the claims described below belong to the scope of the spirit of the present invention. will do it

Claims (9)

학습모드에서 컬러를 분류기준으로 하는 1단계 분류기준과 촬영 영상 데이터 내의 자궁경부 크기를 분류기준으로 하는 2단계 분류기준과 자궁경부 영상 데이터 내의 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준과 노출과 초점을 분류기준으로 하는 4단계 분류기준 중 어느 하나 이상의 분류기준과, 악성의 비정형 혈관 패턴을 분류 기준으로 하는 5단계 분류기준을 포함하는 다단계 분류기준 조합에 따라 외부장치 혹은 저장부로부터 전달된 자궁경부에 대한 미분류 촬영 영상 데이터를 분류하되, 상기 다단계 분류기준 조합을 구성하는 하나의 분류기준을 우선 적용해 선 분류하고, 선 분류된 촬영 영상 데이터에 대하여 나머지 분류기준을 순차 적용해 분류하는 방식으로 상기 자궁경부에 대한 미분류 촬영 영상 데이터를 분류하여 새로운 분류기준별 학습데이터로 생성하는 학습 데이터 생성부와;
자궁경부 촬영 영상을 전처리하는 촬영 영상 전처리부와;
학습모드에서 상기 분류기준별로 생성된 학습데이터의 특징을 학습하는 자궁경부암에 대한 기계학습모델을 포함하며, 상기 기계학습모델은 진단모드에서 상기 전처리된 자궁경부 촬영 영상에 대해 자궁경부암의 발병 여부에 관한 진단 정보를 생성하는 자궁경부암 진단부와;
상기 진단 정보를 표시하고 판독의에 의한 평가정보를 입력할 수 있는 유저 인터페이스 화면을 표시 출력하는 화면 표시 제어부와;
상기 유저 인터페이스 화면을 통해 입력된 평가 정보 중 재학습시 필요한 정보를 추출해 상기 기계학습모델의 재학습을 요청하는 재학습 데이터 생성부와;
상기 자궁경부암의 발병 여부에 관한 진단 정보와 상기 유저 인터페이스 화면을 통해 입력된 평가 정보를 저장하는 진단 및 평가정보 저장부;를 포함하되,
상기 학습 데이터 생성부는 각 분류기준별 학습데이터의 수적 밸런스를 조정하기 위해 상기 분류기준별 학습데이터에 대해 미러링 혹은 크롭핑 적용하여 추가 학습데이터를 더 생성함을 특징으로 하는 자궁경부암 자동 진단 시스템.
In the learning mode, the first-stage classification criterion is based on color, the second-stage classification criterion is based on the size of the cervix in the photographed image data, and the third-stage classification criterion is based on the combination of color and shape in the cervical image data. According to a combination of multi-level classification criteria including any one or more of the four-stage classification criteria based on overexposure and focus, and the five-stage classification criterion based on the classification of malignant atypical vascular patterns, Classify the unclassified image data for the delivered cervix, first apply one classification criterion constituting the multi-level classification criterion combination to pre-classify, and sequentially apply the remaining classification criteria to the pre-classified image data for classification a learning data generator for classifying the unclassified photographed image data for the cervix in such a manner as to generate new learning data for each classification criterion;
A photographed image pre-processing unit for pre-processing a cervical photographed image;
A machine learning model for cervical cancer that learns the characteristics of the learning data generated by the classification criteria in a learning mode, wherein the machine learning model determines whether or not cervical cancer occurs with respect to the pre-processed image of the cervix in the diagnosis mode. a cervical cancer diagnosis unit for generating diagnosis information about the cervical cancer;
a screen display control unit for displaying and outputting a user interface screen for displaying the diagnosis information and inputting evaluation information by a reader;
a re-learning data generator for requesting re-learning of the machine learning model by extracting information necessary for re-learning from among the evaluation information input through the user interface screen;
A diagnosis and evaluation information storage unit for storing diagnosis information regarding the occurrence of cervical cancer and evaluation information input through the user interface screen;
and the learning data generator further generates additional learning data by applying mirroring or cropping to the learning data for each classification criterion in order to adjust the numerical balance of the learning data for each classification criterion.
삭제delete 삭제delete 삭제delete 청구항 1에 있어서, 상기 1단계 분류기준은 아세트산 반응 영상, 루골용액반응 영상, 그린필터 영상, 일반 영상을 각각 식별하기 위한 컬러값을 분류기준 값으로 포함하며,
상기 3단계 분류기준은 자궁경부 영상 데이터 내에서 혈액, 점액, 루프, 질확대경, 치료흔적, 수술도구 중 어느 하나 이상을 식별하기 위한 컬러값과 형태의 조합을 분류기준 값으로 포함함을 특징으로 하는 자궁경부암 자동 진단 시스템.
The method according to claim 1, wherein the first-stage classification criterion includes a color value for identifying each of an acetic acid reaction image, a Lugol solution reaction image, a green filter image, and a general image as a classification criterion value,
The three-step classification criterion includes a combination of color values and shapes for identifying any one or more of blood, mucus, loops, colposcopy, treatment traces, and surgical tools in the cervical image data as a classification criterion value. Cervical cancer automatic diagnosis system.
청구항 1에 있어서, 상기 자궁경부암 진단부는,
상기 기계학습모델에 기초하여 피검체의 자궁경부 촬영 영상에 대해 자궁경부암에 대한 음성, 비정형, 양성 및 악성 여부에 관한 분류 정보와, 그 분류 정보의 정확성 정보와, 음양성 판정정보와 형태학적 소견 정보를 포함하는 진단 정보를 생성함을 특징으로 하는 자궁경부암 자동 진단 시스템.
The method according to claim 1, The cervical cancer diagnosis unit,
Based on the machine learning model, classification information on whether negative, atypical, benign and malignant for cervical cancer on a cervical imaging image of a subject, accuracy information of the classification information, yin-positive determination information, and morphological findings A cervical cancer automatic diagnosis system, characterized in that generating diagnostic information including the information.
청구항 1에 있어서, 상기 화면 표시 제어부는,
피검체의 자궁경부 촬영 영상의 전부 또는 일부 표시 영역, 동일 피검체에 대하여 이전에 촬영된 타 영상의 이력 정보 표시영역, 피검체 정보 노출 영역, 음양성 판정 정보 입력 영역, 형태학적 소견 정보 입력 영역, 촬영 영상의 품질에 관한 기술적 결함 정보 입력 영역, 상기 기계학습모델에 기초하여 도출된 상기 진단 정보 출력 영역, 판독의 소견 입력 영역으로 분할되는 화면을 상기 유저 인터페이스 화면으로 표시 출력함을 특징으로 하는 자궁경부암 자동 진단 시스템.
The method according to claim 1, wherein the screen display control unit,
Display area of all or part of the cervical imaging image of the subject, history information display area of other images taken previously for the same subject, subject information exposure area, yin-positive determination information input area, morphological observation information input area , a screen divided into a technical defect information input area related to the quality of the captured image, the diagnostic information output area derived based on the machine learning model, and an observation input area of reading, as the user interface screen, characterized in that it is displayed and output Cervical cancer automatic diagnosis system.
삭제delete 삭제delete
KR1020190109333A 2019-06-04 2019-09-04 Cervical cancer diagnosis system KR102316557B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/KR2019/017679 WO2020246676A1 (en) 2019-06-04 2019-12-13 System for automatic diagnosis of uterine cervical cancer
BR112021024432A BR112021024432A2 (en) 2019-06-04 2019-12-13 Automatic cervical cancer diagnosis system
JP2021572002A JP7346600B2 (en) 2019-06-04 2019-12-13 Cervical cancer automatic diagnosis system
US17/616,336 US20220328186A1 (en) 2019-06-04 2019-12-13 Automatic cervical cancer diagnosis system
CN201980036662.5A CN112334990A (en) 2019-06-04 2019-12-13 Automatic cervical cancer diagnosis system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190066163 2019-06-04
KR1020190066163 2019-06-04

Publications (3)

Publication Number Publication Date
KR20200139606A KR20200139606A (en) 2020-12-14
KR102316557B1 true KR102316557B1 (en) 2021-10-25
KR102316557B9 KR102316557B9 (en) 2023-05-11

Family

ID=73779726

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190109333A KR102316557B1 (en) 2019-06-04 2019-09-04 Cervical cancer diagnosis system

Country Status (2)

Country Link
KR (1) KR102316557B1 (en)
CN (1) CN112334990A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023128284A1 (en) * 2021-12-28 2023-07-06 가천대학교 산학협력단 Method for providing information about diagnosis of cervical cancer and device for providing information about diagnosis of cervical cancer by using same
KR20230171799A (en) 2022-06-14 2023-12-21 주식회사 아이도트 Cervical image diagnosis preprocessing system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113256627B (en) * 2021-07-05 2022-06-07 深圳科亚医疗科技有限公司 Apparatus and method for analysis management of cervical images, apparatus and storage medium
KR20230131687A (en) * 2022-03-07 2023-09-14 한양대학교 에리카산학협력단 System and method for colposcopy by using a deep learning model

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013526930A (en) 2010-05-03 2013-06-27 エスティーアイ・メディカル・システムズ・エルエルシー Image analysis for cervical neoplasm detection and diagnosis
WO2019098415A1 (en) * 2017-11-16 2019-05-23 주식회사 버즈폴 Method for determining whether subject has developed cervical cancer, and device using same
KR102041402B1 (en) 2018-08-09 2019-11-07 주식회사 버즈폴 Cervical learning data generation system

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100850347B1 (en) 2007-10-30 2008-08-05 문정숙 Sysmtem and method for integration medical diagnosis
US8483454B2 (en) * 2008-10-10 2013-07-09 Sti Medical Systems, Llc Methods for tissue classification in cervical imagery
JP2010204966A (en) * 2009-03-03 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> Sampling device, sampling method, sampling program, class distinction device and class distinction system
KR20130012297A (en) * 2011-07-25 2013-02-04 삼성전자주식회사 Apparatus for detecting lesion, method for detecting lesion and lesion diagnosis apparatus
KR20140104946A (en) * 2011-10-05 2014-08-29 시레카 테라노스틱스, 엘엘씨 Method and system for analyzing biological specimens by spectral imaging
KR101682604B1 (en) 2014-10-23 2016-12-05 전북대학교산학협력단 Automated cervical cancer diagnosis system
GB2566369B (en) * 2016-03-17 2021-08-25 Avigilon Corp System and method for training object classifier by machine learning
JPWO2018221689A1 (en) * 2017-06-01 2020-04-02 株式会社ニデック Medical information processing system
CN107220975B (en) * 2017-07-31 2018-03-09 合肥工业大学 Uterine neck image intelligent auxiliary judgment system and its processing method
CN108288506A (en) * 2018-01-23 2018-07-17 雨声智能科技(上海)有限公司 A kind of cancer pathology aided diagnosis method based on artificial intelligence technology
CN108281183A (en) * 2018-01-30 2018-07-13 重庆大学 Cervical smear image diagnostic system based on convolutional neural networks and transfer learning
CN108647731A (en) * 2018-05-14 2018-10-12 宁波江丰生物信息技术有限公司 Cervical carcinoma identification model training method based on Active Learning
CN109410196A (en) * 2018-10-24 2019-03-01 东北大学 Cervical cancer tissues pathological image diagnostic method based on Poisson annular condition random field
KR102237696B1 (en) * 2019-04-29 2021-04-08 계명대학교 산학협력단 A artificial intelligence computer aided diagnosis system for automated analysis of cervical cancer cell image and its control method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013526930A (en) 2010-05-03 2013-06-27 エスティーアイ・メディカル・システムズ・エルエルシー Image analysis for cervical neoplasm detection and diagnosis
WO2019098415A1 (en) * 2017-11-16 2019-05-23 주식회사 버즈폴 Method for determining whether subject has developed cervical cancer, and device using same
KR102041402B1 (en) 2018-08-09 2019-11-07 주식회사 버즈폴 Cervical learning data generation system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023128284A1 (en) * 2021-12-28 2023-07-06 가천대학교 산학협력단 Method for providing information about diagnosis of cervical cancer and device for providing information about diagnosis of cervical cancer by using same
KR20230171799A (en) 2022-06-14 2023-12-21 주식회사 아이도트 Cervical image diagnosis preprocessing system

Also Published As

Publication number Publication date
KR20200139606A (en) 2020-12-14
CN112334990A (en) 2021-02-05
KR102316557B9 (en) 2023-05-11

Similar Documents

Publication Publication Date Title
KR102316557B1 (en) Cervical cancer diagnosis system
US11276497B2 (en) Diagnosis assistance system and control method thereof
US20200349710A1 (en) System and method for automated funduscopic image analysis
CN110197493B (en) Fundus image blood vessel segmentation method
JP5054252B1 (en) Similar case search device, similar case search method, operation method and program of similar case search device
KR20200005407A (en) Diagnostic auxiliary image providing device based on eye image
TWI743544B (en) Method and system for automatic tumor detection and classification
CN111712186A (en) Method and device for assisting in the diagnosis of cardiovascular diseases
CN110348541A (en) Optical fundus blood vessel image classification method, device, equipment and storage medium
KR102333670B1 (en) Diagnostic auxiliary image providing device based on eye image
KR102301058B1 (en) Diagnosis assistance system and control method thereof
KR20190087681A (en) A method for determining whether a subject has an onset of cervical cancer
US11721023B1 (en) Distinguishing a disease state from a non-disease state in an image
KR102041402B1 (en) Cervical learning data generation system
Tolentino et al. Detection of circulatory diseases through fingernails using artificial neural network
JP7346600B2 (en) Cervical cancer automatic diagnosis system
KR102360615B1 (en) Medical image diagnosis assistance apparatus and method using a plurality of medical image diagnosis algorithm for endoscope images
KR20200018360A (en) Cervical learning data generation system
CN116798611B (en) Device, method, equipment and medium for predicting benign and malignant quality of liver cirrhosis nodule
Kukar et al. Multi-resolution image parametrization in stepwise diagnostics of coronary artery disease
WO2022115777A2 (en) System and methods of predicting parkinson&#39;s disease based on retinal images using machine learning
KR20230099995A (en) Method for providing information of diagnosing cervical cancer and device for providing information diagnosing cervical cancer using the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]