KR102044525B1 - Method and apparatus for generating graft rejection detection model - Google Patents

Method and apparatus for generating graft rejection detection model Download PDF

Info

Publication number
KR102044525B1
KR102044525B1 KR1020170167620A KR20170167620A KR102044525B1 KR 102044525 B1 KR102044525 B1 KR 102044525B1 KR 1020170167620 A KR1020170167620 A KR 1020170167620A KR 20170167620 A KR20170167620 A KR 20170167620A KR 102044525 B1 KR102044525 B1 KR 102044525B1
Authority
KR
South Korea
Prior art keywords
ptc
region
neural network
samples
size
Prior art date
Application number
KR1020170167620A
Other languages
Korean (ko)
Other versions
KR20190067560A (en
Inventor
김남국
김영곤
고현정
최규헌
Original Assignee
울산대학교 산학협력단
재단법인 아산사회복지재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산대학교 산학협력단, 재단법인 아산사회복지재단 filed Critical 울산대학교 산학협력단
Priority to KR1020170167620A priority Critical patent/KR102044525B1/en
Publication of KR20190067560A publication Critical patent/KR20190067560A/en
Application granted granted Critical
Publication of KR102044525B1 publication Critical patent/KR102044525B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Abstract

본 발명의 일 실시예에 따른 이식 거부반응 판별 모델 생성 방법은 병리 영상을 입력 받아 병리 영상에 대해 각각 소정의 비율 이상의 조직 영역을 포함하고 제1 크기를 갖는 복수의 검출 대상 영역을 선정하여 출력하는 제1 신경망을 학습시키는 단계 및 각 검출 대상 영역 별로 검출 대상 영역 내에 포함된 PTC+ 영역, PTC- 영역 및 non-PTC 영역을 판별하는 제2 신경망을 학습시키는 단계를 포함한다. According to an embodiment of the present invention, a method for generating a transplant rejection determination model according to an embodiment of the present invention receives a pathological image and selects and outputs a plurality of detection target regions each having a predetermined size or more and having a first size for the pathological image. Training a first neural network; and training a second neural network for determining the PTC + region, the PTC- region, and the non-PTC region included in each region to be detected.

Description

이식 거부반응 판별 모델 생성 방법 및 장치{METHOD AND APPARATUS FOR GENERATING GRAFT REJECTION DETECTION MODEL}METHOD AND APPARATUS FOR GENERATING GRAFT REJECTION DETECTION MODEL}

본 발명은 이식 거부반응 판별 모델 생성 방법 및 장치에 관한 것으로서, 보다 자세하게는 병리 영상 내에서 이식 거부반응의 진단에 사용되는 영역을 특정하여 장기를 이식 받은 환자의 거부반응의 발생 여부 및 거부반응의 종류를 진단하는 이식 거부반응 판별 모델 생성 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for generating a transplant rejection discrimination model, and more particularly, to determine whether a rejection reaction occurs in a patient transplanted with an organ by specifying a region used for diagnosing the transplant rejection in a pathological image. The present invention relates to a method and apparatus for generating a transplant rejection determination model for diagnosing types.

최근 전세계적으로 장기 기증자의 수가 증가함에 따라 장기를 이식 받는 환자의 수도 증가하고 있다. 이때 환자에게 장기를 이식한 후 거부반응이 나타나는 경우 환자는 강력한 면역억제치료 또는 혈장교환술 등의 시술을 받아야 하기 때문에 많은 비용이 발생할 뿐만 아니라 거부반응이 심각한 경우 사망에 이를 수 있다. 이에 따라, 환자가 이식 받은 장기에서 거부 반응이 발생한 경우 즉각적으로 적절한 치료를 해야만 이식 실패를 최소화 할 수 있다. 따라서 거부반응이 발생함에 따라 적절한 치료 방법을 결정하기 위해서는 필수적으로 환자의 이식 받은 장기에서 채취한 조직의 관찰을 통한 정확한 병리진단이 선행되어야 한다. As the number of organ donors has recently increased worldwide, the number of patients receiving organ transplants has increased. In this case, if a rejection reaction occurs after transplanting the organ to the patient, the patient needs to undergo a strong immunosuppressive treatment or plasma exchange procedure, and thus, a lot of costs may be incurred, and death may be severe if the rejection reaction is severe. Accordingly, in case of rejection in the transplanted organ, the patient should be treated immediately and appropriately to minimize the graft failure. Therefore, in order to determine the appropriate treatment method as the rejection occurs, it is essential to accurately diagnose the pathology by observing the tissue collected from the transplanted organ of the patient.

현재, 이러한 이식 거부반응에 대한 병리 진단은 병리 영상에 대한 의사의 시각적 평가에 의존하고 있는데, 병리 영상은 일반적으로 10기가 바이트 이상의 용량으로 매우 크고 각각의 조직학적 구성요소에 대한 정량적 평가를 개별적으로 수행해야 한다. 또한, 한 명의 환자에 대해 이식 거부반응을 진단하기 위해서는 거부반응에 대해 전문적인 훈련을 받은 일부의 병리 의사만 거부반응에 대한 진단이 가능하며 그 조차도 매우 많은 시간이 소요된다. 이와 같이, 이식 거부반응의 진단에 대한 최종 판단은 의사의 시각적 평가에 좌우되기 때문에 진단의 재현성과 정확성이 높지 않은 경향이 있다. 따라서, 이식 거부반응 진단의 재현성과 정확성 확보를 위해, 객관적인 수단을 이용하여 이식 거부반응을 진단하기 위한 기술이 요구된다Currently, pathological diagnosis of such graft rejection relies on physician visual assessment of pathological images, which are typically very large, at doses of more than 10 gigabytes, and individually for quantitative evaluation of each histological component. Should be done. In addition, only a few pathologists who have specialized training in rejection can diagnose it, even a very long time is needed to diagnose transplant rejection in one patient. As such, the final judgment on the diagnosis of graft rejection depends on the physician's visual assessment and thus tends to be less reproducible and accurate in diagnosis. Therefore, in order to secure the reproducibility and accuracy of diagnosis of graft rejection, a technique for diagnosing graft rejection using objective means is required.

한국등록특허 제10-1754291호 (2017년 06월 29일 등록)Korean Patent Registration No. 10-1754291 (registered June 29, 2017)

본 발명의 실시예에서 해결하고자 하는 과제는 기계 학습 신경망 기술을 이용하여 이식편에 발현되는 특정한 요소를 특정하여 이식 거부반응을 진단하는 기술을 제공하는 것이다. The problem to be solved in the embodiments of the present invention is to provide a technique for diagnosing a transplant rejection by specifying a specific element expressed in the graft using machine learning neural network technology.

다만, 본 발명의 실시예가 이루고자 하는 기술적 과제는 이상에서 언급한 과제로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제가 도출될 수 있다.However, the technical problem to be achieved by the embodiment of the present invention is not limited to the above-mentioned problem, various technical problems can be derived within the scope apparent to those skilled in the art from the following description.

본 발명의 일 실시예에 따른 이식 거부반응 판별 모델 생성 방법은 병리 영상을 입력 받아, 상기 병리 영상에 대해 각각 소정의 비율 이상의 조직 영역을 포함하고 제1 크기를 갖는 복수의 검출 대상 영역을 선정하여 출력하는 제1 신경망을 학습시키는 단계 및 각 검출 대상 영역 별로 상기 검출 대상 영역 내에 포함된 PTC+(positive peritubular capillary) 영역, PTC-(negative peritubular capillary) 영역 및 non-PTC(non-peritubular capillary) 영역을 판별하는 제2 신경망을 학습시키는 단계를 포함한다. In the method for generating a transplant rejection determination model according to an embodiment of the present invention, a pathological image is input, and a plurality of detection target regions each having a predetermined size and a first size are selected for the pathological image. Training the first neural network to be output, and for each detection target region, a positive peritubular capillary (PTC +) region, a negative peritubular capillary (PTC-) region, and a non-peritubular capillary (non-PTC) region included in the detection target region. Training the second neural network to determine.

이때 상기 병리 영상은 상기 조직 영역 이외의 영역에 포함된 정보가 제거된 영상일 수 있다. In this case, the pathological image may be an image from which information included in an area other than the tissue area is removed.

또한 상기 제1 신경망을 학습시키는 단계는 조직 영역을 포함하는 학습용 병리 영상을 입력받는 단계, 상기 학습용 병리 영상 내에서 상기 제1 크기를 갖는 다수의 제1 샘플을 선정하는 단계, 상기 다수의 제1 샘플 각각에 대해 상기 검출 대상 영역으로 선정할 것인지 비선정할 것인지 여부를 레이블링하는 단계 및 상기 레이블 및 상기 다수의 제1 샘플을 기초로 상기 제1 신경망을 학습하여 상기 소정 비율을 결정하는 단계를 포함할 수 있다. The training of the first neural network may include receiving a learning pathology image including a tissue region, selecting a plurality of first samples having the first size within the learning pathology image, and the plurality of first pathologies. Labeling each sample to be selected or not selected as the detection target region, and learning the first neural network based on the label and the plurality of first samples to determine the predetermined ratio. can do.

더불어 상기 제2 신경망을 학습시키는 단계는 상기 제1 크기를 갖는 다수의 제2 샘플 및 상기 다수의 제2 샘플이 포함하는 PTC+, PTC-, non-PTC에 대한 마스킹 정보를 입력 받는 단계, 상기 마스킹 정보를 기초로 상기 다수의 제2 샘플 내의 PTC+, PTC-, non-PTC를 특정하는 단계, 상기 특정된 PTC+, PTC-에 최종 주변 영역을 포함시켜 각각 PTC+ 영역, PTC- 영역으로 레이블링 하고, 상기 특정된 non-PTC에 대해 non-PTC 영역으로 레이블링하는 단계 및 상기 레이블 및 상기 다수의 제2 샘플을 기초로 상기 제2 신경망을 학습시키는 단계를 포함할 수 있다. In addition, the training of the second neural network may include receiving masking information on the plurality of second samples having the first size and the PTC +, PTC-, and non-PTCs included in the plurality of second samples. Specifying PTC +, PTC-, non-PTC in the plurality of second samples based on the information, including the final peripheral region in the specified PTC +, PTC- and labeling them with PTC + region, PTC- region respectively; Labeling a non-PTC region for a specified non-PTC and training the second neural network based on the label and the plurality of second samples.

아울러 상기 레이블링하는 단계는 상기 검출된 PTC+, PTC-에 제1 주변 영역을 포함시켜 각각 제1 PTC+ 영역, 제1 PTC- 영역으로 레이블링한 제1 레이블링 정보를 기초로 제1 테스트 신경망을 생성하고, 상기 검출된 PTC+, PTC-에 제1 주변 영역과 다른 크기의 제2 주변 영역을 포함시켜 각각 제2 PTC+영역, 제2 PTC- 영역, 제2 non-PTC 영역으로 레이블링한 제2 레이블링 정보를 기초로 제2 테스트 신경망을 생성하는 단계, PTC+ 영역, PCT- 영역, non-PTC 영역이 각각 정해져 있는 테스트 샘플을 입력 받는 단계, 상기 테스트 샘플을 각각 상기 제1 테스트 신경망 및 상기 제2 테스트 신경망에 입력하여 상기 테스트 샘플 내의 PTC+, PTC-, non-PTC 영역을 판별하도록 하는 단계 및 상기 정해져 있는 상기 테스트 샘플 내의 PTC+ 영역, PTC- 영역, non-PTC 영역과, 상기 판별된 상기 테스트 샘플 내의 PTC+ 영역, PTC- 영역, non-PTC 영역의 비교를 통해, 상기 제1 테스트 신경망과 상기 제2 테스트 신경망 중 정확도가 더 높은 신경망에 사용된 주변 영역의 크기를 상기 최종 주변 영역으로 결정하는 단계를 포함할 수 있다. In addition, the labeling may include generating a first test neural network based on the first labeling information labeled with the first PTC + region and the first PTC- region by including a first peripheral region in the detected PTC + and PTC-, respectively. Based on the second labeling information labeled with the second PTC + region, the second PTC- region, and the second non-PTC region by including a second peripheral region having a different size from the first peripheral region in the detected PTC + and PTC-, respectively. Generating a second test neural network, receiving a test sample having a PTC + region, a PCT- region, and a non-PTC region respectively, and inputting the test samples to the first test neural network and the second test neural network, respectively. Determining a PTC +, PTC-, non-PTC region in the test sample, and determining the PTC + region, PTC- region, non-PTC region in the predetermined test sample and the determined test sample. Comparing the PTC + region, the PTC- region, and the non-PTC region, determining the size of the peripheral region used for the more accurate neural network among the first test neural network and the second test neural network as the final peripheral region. It may include.

더하여 상기 레이블링하는 단계는 상기 특정된 non-PTC의 영역보다 소정의 비율로 축소시킨 영역을 상기 non-PTC 영역으로 레이블링하는 단계를 포함할 수 있다. In addition, the labeling may include labeling the non-PTC region with a region reduced in a predetermined ratio than the specified non-PTC region.

이때 상기 최종 주변 영역의 크기는 30 pixel 이상 50 pixel 이하의 영역을 포함할 수 있다. In this case, the size of the final peripheral area may include an area of 30 pixels or more and 50 pixels or less.

또한 상기 non-PTC는 상기 다수의 제2 샘플 중의 일부를 통해 테스트 신경망을 생성하고 상기 다수의 제2 샘플 중의 나머지 일부로 상기 테스트 신경망에 입력하였을 때 PTC+ 영역으로 잘못 판별된 위치, 세뇨관(tubular) 및 사구체(glomerulus) 중 적어도 하나를 포함할 수 있다. The non-PTC may also generate a test neural network through some of the plurality of second samples and incorrectly identify the PTC + region when entering the test neural network as the rest of the plurality of second samples, tubular and It may comprise at least one of glomerulus.

본 발명의 일 실시예에 따른 이식 거부반응 판별 방법은 상기 제1 신경망 및 상기 제2 신경망에 의해 수행되며, 상기 제1 신경망이 타겟 병리 영상을 입력받아 소정의 크기를 갖는 복수의 검출 대상 영역을 출력하는 단계, 상기 제2 신경망이 상기 제1 신경망이 출력한 상기 복수의 검출 대상 영역을 입력 받아 상기 복수의 검출 대상 영역 내의 PTC+ 영역, PTC- 영역 및 non-PTC 영역을 판별하는 단계 및 상기 판별된 상기 PTC+ 영역 및 상기 PTC- 영역의 개수를 기초로 상기 타겟 병리 영상의 C4d 점수를 계산하는 단계를 포함한다. The method for determining a graft rejection response according to an embodiment of the present invention is performed by the first neural network and the second neural network, and the first neural network receives a target pathological image to detect a plurality of detection target regions having a predetermined size. Outputting, the second neural network receiving the plurality of detection target regions output by the first neural network, and determining PTC + regions, PTC-regions, and non-PTC regions within the plurality of detection target regions; Calculating a C4d score of the target pathological image based on the number of the PTC + region and the PTC- region.

본 발명의 실시예에 따르면, 의사가 병리 영상의 특정 영역에 레이블을 표시할 수 있는 소정 크기로 분할된 샘플을 학습에 사용하므로 진단의 재현율 및 정확성을 향상시킬 수 있다.According to an embodiment of the present invention, since the doctor uses a sample divided into a predetermined size for labeling a specific area of the pathological image for learning, the reproducibility and accuracy of the diagnosis may be improved.

또한 PTC+ 영역 및 PTC- 영역만을 특정할 수 있도록 모델을 학습시키는 것이 아니라, non-PTC 영역까지 구분할 수 있도록 모델을 학습시킴으로써 모델이 병리 영상 내에 존재하는 PTC+ 영역 및 PTC- 영역을 보다 잘 구분하도록 학습시킬 수 있다. In addition, the model is trained not only to identify PTC + regions and PTC- regions but also to distinguish non-PTC regions so that the model can better distinguish PTC + regions and PTC- regions within pathological images. You can.

더불어 병리 영상에 포함된 PTC+ 영역, PTC- 영역 및 non-PTC 영역의 각각에 레이블을 설정하기 위한 최적의 크기를 결정함으로써 재현율 및 정확성을 향상시킬 수 있다.In addition, the reproducibility and accuracy can be improved by determining the optimal size for labeling each of the PTC + region, PTC- region and non-PTC region included in the pathological image.

이에 따라, 본 발명의 실시예는 이식 거부반응에 대한 진단을 보다 신속하고 정확하게 판단할 수 있게 하여, 진단에 소요되는 시간과 노동력을 크게 절감할 수 있을 뿐만 아니라 의사 및 환자 모두에게 진단의 편의성 및 안전성을 증가시킬 수 있다. Accordingly, the embodiment of the present invention enables a faster and more accurate determination of the diagnosis of the graft rejection reaction, which can greatly reduce the time and labor required for the diagnosis, as well as the convenience of diagnosis to both the doctor and the patient. Can increase safety.

도 1은 본 발명의 일 실시예에 따른 이식 거부반응 판별 모델 생성 방법의 프로세스를 도시하는 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 마스킹 정보를 기초로 제2 샘플 내의 특정 위치에 레이블링하는 것을 설명하기 위한 예시도이다.
도 3은 PTC+, PTC- 및 non-PTC 각각에 대해 그 주변 영역을 일정 부분 포함하도록 레이블링 함에 따라 학습되는 모델의 정확도가 달라지는 것을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 이식 거부반응 판별 방법의 프로세스를 도시하는 흐름도이다.
1 is a flowchart illustrating a process of a method for generating a transplant rejection determination model according to an embodiment of the present invention.
FIG. 2 is an exemplary diagram for describing labeling at a specific position in a second sample based on masking information according to an embodiment of the present invention.
FIG. 3 is an exemplary diagram for explaining that the accuracy of a trained model is changed by labeling each of PTC +, PTC-, and non-PTC to include a portion of a peripheral area thereof.
4 is a flowchart illustrating a process of a transplant rejection determination method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.  그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various forms. The present embodiments merely make the disclosure of the present invention complete, and have the ordinary knowledge in the art to which the present invention pertains. It is provided to fully inform the scope of the invention, and the scope of the invention is defined only by the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다.  그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.  그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, detailed descriptions of well-known functions or configurations will be omitted unless they are actually necessary in describing the embodiments of the present invention. In addition, terms to be described below are terms defined in consideration of functions in the embodiments of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the contents throughout the specification.

도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.The functional blocks shown in the figures and described below are only examples of possible implementations. Other functional blocks may be used in other implementations without departing from the spirit and scope of the detailed description. Also, while one or more functional blocks of the present invention are represented by separate blocks, one or more of the functional blocks of the present invention may be a combination of various hardware and software configurations that perform the same function.

또한 어떤 구성 요소들을 포함한다는 표현은 개방형의 표현으로서 해당 구성 요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성 요소들을 배제하는 것으로 이해되어서는 안 된다.In addition, the expression "comprising" certain components merely refers to the existence of the corresponding components as an open expression, and should not be understood as excluding additional components.

나아가 어떤 구성 요소가 다른 구성 요소에 연결되어 있다거나 접속되어 있다고 언급될 때에는, 그 다른 구성 요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 한다. Furthermore, when a component is referred to as being connected or connected to another component, it is to be understood that although the component may be directly connected or connected to the other component, there may be other components in between.

또한 '제1, 제2' 등과 같은 표현은 복수의 구성들을 구분하기 위한 용도로만 사용된 표현으로써, 구성들 사이의 순서나 기타 특징들을 한정하지 않는다. In addition, an expression such as 'first' and 'second' is used only for distinguishing a plurality of components, and does not limit the order or other features between the components.

본 발명의 실시예는 병리 영상 내에서 거부반응의 진단에 사용되는 영역을 판별하는 이식 거부반응 판별 모델을 생성 및 사용한다. 여기서, 병리 영상이란 병의 원인, 발생, 경과 등을 판단하기 위한 정보를 포함하고 있는 영상을 의미한다. 예를 들어, 병리 영상은 환자에게 장기를 이식한 후 거부반응이 발생하는지 진단하기 위해, 환자가 이식 받은 장기로부터 채취한 조직에 대한 정보를 포함하는 영상일 수 있다. 다만, 병리 영상이 이러한 예시에 한정되는 것은 아니다.Embodiments of the present invention generate and use a transplant rejection discrimination model for determining regions used for diagnosis of rejection in pathological images. Here, the pathological image refers to an image including information for determining the cause, occurrence, and progress of the disease. For example, the pathology image may be an image including information about tissues collected from the organs in which the patient is transplanted in order to diagnose whether rejection occurs after transplanting the organs to the patient. However, pathological images are not limited to these examples.

이를 위해, 이식 거부반응 판별 모델이 병리 영상 내에서 특정 영역을 인식할 수 있도록 학습시키기 위한 학습용 데이터가 필요하다. 한편, 병리 영상은 적어도 10기가 바이트 이상의 용량으로 매우 크기 때문에 병리 영상 자체에 특정 영역을 모두 레이블링(labeling)하는 것은 어려운 측면이 있다. 따라서, 본 발명의 실시예는 의사가 시각적으로 이식 거부반응을 진단할 때 관찰하는 크기(예: 1024 x 1024 pixel)로 병리 영상을 분할한 검출 대상 영역 내의 특정 위치를 레이블링하여 모델을 학습시킨다. To this end, training data for training a graft rejection determination model to recognize a specific region in a pathological image is required. On the other hand, since the pathological image is very large with a capacity of at least 10 gigabytes or more, it is difficult to label all the specific areas on the pathological image itself. Accordingly, an embodiment of the present invention trains a model by labeling a specific position in a detection target region in which a pathological image is segmented by a size observed by a doctor visually when diagnosing a graft rejection (eg, 1024 x 1024 pixels).

이와 같이, 본 발명의 실시예는 이식 거부반응을 진단할 때 관찰하는 크기의 검출 대상 영역을 기초로 모델을 학습시키기 때문에, 이식 거부반응을 확인할 병리 영상 또한 학습에 사용된 검출 대상 영역의 크기와 동일한 크기를 갖도록 분할한 후 사용되어야 한다. As described above, since the exemplary embodiment of the present invention trains the model based on the detection target region of the size observed when diagnosing the graft rejection response, the pathological image to confirm the graft rejection response also includes the size of the detection target region used in the training. Should be used after dividing to have the same size.

이에 따라, 본 발명의 실시예에 따른 이식 거부반응 판별 모델은 이식 거부반응 진단에 사용될 타겟 병리 영상을 학습에 사용된 검출 대상 영역의 크기와 동일한 크기로 분할하여 출력하는 제1 신경망과, 이러한 제1 신경망을 통해 출력된 각 검출 대상 영역 내에 이식 거부반응을 진단하는 데에 사용되는 특정 영역을 판별하는 제2 신경망을 사용한다. Accordingly, the transplant rejection determination model according to an embodiment of the present invention comprises a first neural network for dividing and outputting a target pathological image to be used for diagnosing the transplant rejection into the same size as the size of the detection target region used for learning; A second neural network is used to determine a specific region used for diagnosing transplant rejection within each detection target region output through the neural network.

한편, 본 발명의 도면 및 실시예는 이해의 편의를 위해 신이식편의 병리 영상을 사용하여 신이식 거부반응을 진단하는 것을 예시하여 설명하지만, 본 발명의 실시예는 신이식편 뿐만 아니라 다양한 병리 영상에 활용될 수 있는 기술로서 신이식편 거부반응의 진단에 한정되는 것은 아니다. 먼저, 도 1 내지 도 3과 함께 본 발명의 일 실시예에 따른 이식 거부반응 판별 모델을 구성하는 제1 신경망 및 제2 신경망을 학습시키는 방법을 설명한 이후, 도 4와 함께 학습된 모델을 사용하는 이식 거부반응 판별 방법을 설명한다.On the other hand, the drawings and embodiments of the present invention for explaining the diagnosis of renal transplant rejection using a pathological image of the renal graft for convenience of understanding, but the embodiment of the present invention is not only renal graft but also various pathological images As a technique that can be utilized, it is not limited to the diagnosis of renal transplant rejection. First, the method of learning the first neural network and the second neural network constituting the transplant rejection determination model according to an embodiment of the present invention in conjunction with FIGS. 1 to 3, and then using the trained model with FIG. Describe how to determine transplant rejection.

도 1은 본 발명의 일 실시예에 따른 이식 거부반응 판별 모델 생성 방법의 프로세스를 도시하는 흐름도이다. 도 1에 따른 이식 거부반응 판별 모델 생성 방법의 각 단계는 하나 이상의 프로세서에 의해 수행될 수 있으며, 각 단계를 설명하면 다음과 같다.1 is a flowchart illustrating a process of a method for generating a transplant rejection determination model according to an embodiment of the present invention. Each step of the method for generating a transplant rejection determination model according to FIG. 1 may be performed by one or more processors, which will be described below.

우선, 병리 영상으로부터 소정의 비율 이상의 조직 영역을 포함하고 제1 크기를 갖는 복수의 검출 대상 영역을 선정하여 출력하는 제1 신경망을 학습시킨다(S110). First, a first neural network including a tissue area having a predetermined ratio or more from a pathology image and selecting and outputting a plurality of detection target areas having a first size is trained (S110).

한편, 제1 신경망에 입력될 병리 영상은 오츠의 임계화 방법(Otsu's thresholding method)를 통해 조직 영역 이외의 영역에 포함된 정보가 제거된 병리 영상일 수 있다. 이에 따라, 병리 영상은 환자의 조직에 해당하는 부분과 조직이 아닌 부분(오츠의 임계화 방법을 사용한 경우 정보가 제거된 부분)이 나뉘어져 있다. 이때 조직이 아닌 부분은 이식 거부반응을 판단하기 위한 영역을 포함하고 있지 않기 때문에 제2 신경망의 학습 데이터 또는 입력 데이터로 쓰일 필요가 없으며, 조직이 아닌 영역을 포함하는 영상을 제2 신경망에 입력하게 될 경우 모델의 전체적인 속도를 저하시킬 가능성이 있다. 이러한 점을 방지하기 위해, 제1 크기(예: 1024 x 1024 pixel) 내에 소정 비율 이상으로 병리 영상의 조직 영역을 포함하는 영역을 검출 대상 영역으로 선정하도록 학습시킬 수 있다. The pathological image to be input to the first neural network may be a pathological image from which information included in a region other than the tissue region is removed through Otsu's thresholding method. Accordingly, the pathological image is divided into a portion corresponding to the tissue of the patient and a non-tissue portion (a portion from which information is removed when using Otsu's thresholding method). In this case, since the non-tissue part does not include an area for determining a transplant rejection response, it does not need to be used as learning data or input data of the second neural network, and inputs an image including the non-tissue area to the second neural network. If so, there is a possibility of slowing down the overall speed of the model. In order to prevent this, a region including a tissue region of the pathological image may be trained to be selected as a detection target region within a first size (eg, 1024 x 1024 pixels) at a predetermined ratio or more.

이를 위해, 프로세서는 조직 영역을 포함하는 학습용 병리 영상을 입력 받아 학습용 병리 영상 내에서 제1 크기를 갖는 다수의 제1 샘플을 선정하는 동작을 수행할 수 있다. 예를 들어, 제1 크기의 창을 통해 학습용 병리 영상 전체를 지그재그로 스캔하면서 다수의 제1 샘플을 추출하거나, 제1 크기의 창이 병리 영상 중 임의의 영역을 캡쳐하여 다수의 제1 샘플을 추출할 수 있다. To this end, the processor may receive a learning pathology image including a tissue region and select a plurality of first samples having a first size in the learning pathology image. For example, a plurality of first samples may be extracted while zigzag scanning the entire learning pathology image through a window of a first size, or a plurality of first samples may be extracted by capturing an arbitrary area of the pathological image. can do.

이후, 다수의 제1 샘플 각각에 대해 검출 대상 영역으로 선정할 것인지 비선정할 것인지 여부를 레이블링한다. 예를 들어, 의사가 다수의 제1 샘플 각각에 대해, 제1 신경망이 검출 대상 영역으로 선정하도록 할 것인지 선정하게 하지 않을 것인지 학습 정보를 입력시키기 위해 레이블을 입력하거나, 기존에 알려진 영상 판별 알고리즘을 통하여 복수의 제1 샘플 중 소정 비율 이상(예: 50% 이상)으로 병리 영상의 조직 영역을 포함하는 제1 샘플에 출력을 의미하는 레이블을 설정하고, 소정의 크기 내에 소정 비율 미만(예: 50% 미만)으로 병리 영상의 조직 영역을 포함하는 제1 샘플에 비출력을 의미하는 레이블을 설정한 후, 다수의 제1 샘플과 이에 각각 설정된 레이블을 기초로 제1 신경망을 학습시킬 수 있다. Then, whether each of the plurality of first samples is selected as a detection target region or not is selected. For example, a doctor may input a label for each of the plurality of first samples to input learning information whether or not to select the first neural network as a detection target region, or use a known image discrimination algorithm. A label representing an output is set to a first sample including a tissue region of a pathology image at a predetermined ratio or more (for example, 50% or more) of the plurality of first samples, and less than a predetermined ratio (for example, 50) within a predetermined size. After setting a label meaning non-output to the first sample including the tissue region of the pathological image (%), the first neural network may be trained based on the plurality of first samples and labels respectively set therein.

이에 따라, 제1 신경망은 제1 크기 내에 소정 비율 이상으로 병리 영상의 조직 영역을 포함하는 검출 대상 영역을 선정하여 출력하도록 학습될 수 있다. Accordingly, the first neural network may be trained to select and output the detection subject region including the tissue region of the pathological image at a predetermined ratio or more within the first size.

더하여, 다수의 제1 샘플 중 제1 크기 내에 2개 이상의 명확한 PTC(peritubular capillary)를 포함하는 제1 샘플, 소정의 크기 내에 세뇨관(tubular)과 혈관(vessel)의 구분이 명확한 영역을 포함하는 제1 샘플, 소정의 크기 내에 온전한 세뇨관(tubular) 영역을 50% 이상 포함하는 제1 샘플 중 적어도 하나에 대해 출력을 의미하는 레이블을 설정하거나, 다수의 제1 샘플 중 소정의 크기 내에 빈공간을 70% 이상 포함하는 제1 샘플에 대해 비출력을 의미하는 레이블을 설정하여, 다양한 방식으로 제1 신경망이 출력할 검출 대상 영역의 특징을 결정할 수 있다. In addition, a first sample comprising two or more specific peritubular capillary (PTC) in a first size of the plurality of first samples, the first sample including an area in which tubular and vessels can be clearly distinguished within a predetermined size A label representing an output is set for at least one of one sample, a first sample including 50% or more of an intact tubular region within a predetermined size, or a blank space within a predetermined size of the plurality of first samples. By setting a label meaning non-output for the first sample including% or more, the characteristic of the detection target region to be output by the first neural network may be determined in various ways.

다음으로, 제1 신경망을 통해 출력된 각 검출 대상 영역 내에 이식 거부반응을 진단하는 데에 사용되는 특정 영역을 판별하는 제2 신경망을 학습시킨다(S120).Next, a second neural network is trained to determine a specific region used to diagnose a transplant rejection in each detection target region output through the first neural network (S120).

예를 들어, 사용되는 학습 데이터가 신이식편의 병리 영상인 경우, 제2 신경망은 병리 영상이 포함하는 PTC(peritubular capillary, 세뇨관 주위 모세혈관), 가령, PTC+(positive peritubular capillary) 영역 및 PTC-(negative peritubular capillary) 영역을 특정하도록 학습될 수 있다. For example, if the training data used is a pathological image of a renal graft, the second neural network may be a peritubular capillary (PTC) that the pathological image contains, such as a positive peritubular capillary (PTC +) region and a PTC- ( negative peritubular capillary).

이를 위해, 프로세서는 제1 크기(예: 1024 x 1024 pixel)를 갖는 다수의 제2 샘플을 입력 받는 동작을 수행할 수 있다. To this end, the processor may perform an operation of receiving a plurality of second samples having a first size (for example, 1024 x 1024 pixels).

이때 제2 샘플은 의사가 시각적으로 이식 거부반응을 진단할 때 관찰하는 기존 데이터이거나, 상술한 제1 신경망에 병리 영상을 입력하여 출력한 검출 대상 영역일 수 있다. In this case, the second sample may be existing data observed when the doctor visually diagnoses the graft rejection reaction, or may be a detection target region outputted by inputting a pathological image to the first neural network.

또한 프로세서는 다수의 제2 샘플이 포함하는 PTC+, PTC-, non-PTC에 대한 마스킹 정보를 입력 받는 동작을 수행할 수 있다. 마스킹 정보는 제2 샘플 내의 PTC+, PTC-, non-PTC 위치를 레이블링하기 위한 정보이다. 프로세서는 이러한 마스킹 정보를 기초로 다수의 제2 샘플 내의 PTC+, PTC-, non-PTC를 특정하여 레이블링하고, 이러한 다수의 제2 샘플 및 제2 샘플에 레이블링된 정보를 기초로 제2 신경망을 학습시킬 수 있다. In addition, the processor may perform an operation of receiving masking information on PTC +, PTC-, and non-PTC included in the plurality of second samples. The masking information is information for labeling PTC +, PTC-, non-PTC positions in the second sample. The processor specifies and labels PTC +, PTC-, and non-PTCs in the plurality of second samples based on this masking information, and learns a second neural network based on the information labeled in the plurality of second samples and the second sample. You can.

도 2는 본 발명의 일 실시예에 따른 마스킹 정보를 기초로 제2 샘플 내의 특정 위치에 레이블링하는 것을 설명하기 위한 예시도이다. FIG. 2 is an exemplary diagram for describing labeling at a specific position in a second sample based on masking information according to an embodiment of the present invention.

도 2를 참조하면, 마스킹 정보는 제2 샘플과 동일한 크기를 갖고 제2 샘플의 특정 영역과 대응되는 위치에 마스킹되어 있다. 프로세서는 제2 샘플과 마스킹 정보의 비교를 통하여 제2 샘플 내에서 마스킹 위치와 대응되는 위치를 포함하는 사각형의 영역 내부가 특정 영역을 지칭하는 것임을 의미하는 것으로 레이블링할 수 있다. 예를 들어, 마스킹 정보에 제2 샘플 내의 세뇨관(tubular) 영역과 대응되는 위치에 마스킹 되어있다면, 제2 샘플에서 마스킹된 위치를 포함하는 사각형 내부가 non-PTC 영역임을 의미하도록 레이블링할 수 있다. 또한, PTC+ 및 PTC-도 위 예시와 같은 방식을 통해 그 위치를 레이블링할 수 있다. Referring to FIG. 2, the masking information has the same size as the second sample and is masked at a position corresponding to a specific region of the second sample. By comparing the masking information with the second sample, the processor may label it as meaning that the inside of the rectangular area including the position corresponding to the masking position in the second sample refers to a specific area. For example, if the masking information is masked at a position corresponding to a tubular region in the second sample, the masking information may be labeled to mean that the inside of the rectangle including the masked position in the second sample is a non-PTC region. PTC + and PTC- can also be labeled in the same manner as in the example above.

이때 PTC+ 및 PTC- 만을 포함하는 최소 크기의 사각형 영역을 레이블로 설정하여 학습된 모델은 PTC+ 영역 및 PTC- 영역의 판별 정확도가 높지 않음을 확인할 수 있었다. 본 발명의 실시예에서는 이러한 이유를 PTC+ 및 PTC- 만을 포함하는 최소 크기의 사각형 영역을 레이블로 설정하는 경우, PTC+ 및 PTC-가 존재하는 위치와 그 주변 영역과의 관계가 고려되지 않기 때문임을 가정하여, 도 3의 실시예와 같이 판별을 위한 영역과 그 주변 영역까지 포함시켜 레이블을 설정하는 경우 모델의 판별 정확도가 달라지는 것을 확인할 수 있었다. At this time, it was confirmed that the trained model did not have high discrimination accuracy between the PTC + region and the PTC- region by setting a rectangular area having a minimum size including only PTC + and PTC- as a label. In the embodiment of the present invention, it is assumed that this is because, when labeling a rectangular area having a minimum size including only PTC + and PTC- as a label, the relationship between the positions where PTC + and PTC- are present and the surrounding area thereof is not considered. As shown in the embodiment of FIG. 3, when the label is set to include the area for discrimination and its surrounding area, it is confirmed that the discrimination accuracy of the model is changed.

도 3은 PTC+ 및 PTC- 각각에 대해 그 주변 영역을 일정 부분 포함하도록 레이블링 함에 따라 학습되는 모델의 정확도가 달라지는 것을 설명하기 위한 예시도이다. FIG. 3 is an exemplary diagram for explaining that the accuracy of the trained model is changed by labeling each of PTC + and PTC- to include a portion of a peripheral area thereof.

도 3을 참조하면, 제2 신경망을 학습시키는 경우 마스킹을 포함하는 사각형의 크기가 PTC+ 및 PTC-의 주변 영역까지 포함하도록 크기를 다양하게 변화시켜 레이블링 정보를 생성할 수 있다. Referring to FIG. 3, when the second neural network is trained, labeling information may be generated by varying the size of the rectangle including the masking to include PTC + and PTC- surrounding areas.

예를 들어, 마스킹 정보를 기초로 제2 샘플에서 특정된 PTC+ 및 PTC-에 제1 주변 영역을 포함시켜 각각 제1 PTC+ 영역 및 제1 PTC- 영역으로 레이블링한 제1 레이블링 정보를 기초로 제1 테스트 신경망을 생성하고, 검출된 PTC+ 및 PTC- 에 제1 주변 영역과 다른 크기의 제2 주변 영역을 포함시켜 각각 제2 PTC+영역, 제2 PTC- 영역으로 레이블링한 제2 레이블링 정보를 기초로 제2 테스트 신경망을 생성할 수 있다. For example, the first peripheral region is included in the PTC + and PTC- specified in the second sample based on the masking information, and the first peripheral region is labeled based on the first labeling information labeled with the first PTC + region and the first PTC- region, respectively. A test neural network is generated, and based on the second labeling information labeled with the second PTC + region and the second PTC-region, respectively, by including the second peripheral region having a different size from the first peripheral region in the detected PTC + and PTC- 2 Generate test neural networks.

이후, PTC+ 영역, PCT- 영역 및 non-PTC 영역이 각각 정해져 있는 테스트 샘플을 입력 받아, 테스트 샘플을 각각 제1 테스트 신경망 및 상기 제2 테스트 신경망에 입력하여 테스트 샘플 내의 PTC+, PTC-, non-PTC 영역을 판별하고, 이미 정해져 있는 정답으로서의 테스트 샘플 내의 PTC+ 영역, PTC- 영역, non-PTC 영역과, 신경망을 통해 판별된 테스트 샘플 내의 PTC+ 영역, PTC- 영역, non-PTC 영역의 비교하여, 제1 테스트 신경망과 제2 테스트 신경망 중 정확도가 더 높은 신경망에 사용된 주변 영역의 크기를 제2 신경망의 최종 학습에 사용할 최종 주변 영역으로 결정할 수 있다. Subsequently, a test sample having a PTC + region, a PCT- region, and a non-PTC region is input thereto, and the test samples are input to the first test neural network and the second test neural network, respectively, and then PTC +, PTC-, and non- Determine the PTC region and compare the PTC + region, the PTC- region, the non-PTC region in the test sample as a predetermined answer with the PTC + region, the PTC- region, and the non-PTC region in the test sample determined through the neural network, The size of the peripheral region used for the higher accuracy neural network among the first test neural network and the second test neural network may be determined as the final peripheral region to be used for the final learning of the second neural network.

도 3의 경우, PTC+ 및 PTC-를 포함하는 최소 크기의 사각형으로서 주변 영역을 포함하지 않는 경우, PTC+ 및 PTC-를 포함하는 최소 크기의 사각형에 더하여 주변 영역을 각각 10 pixel, 20 pixel, 30 pixel, 40 pixel 및 50 pixel 포함하는 경우에 대하여, 6개의 모델을 생성하고 PTC 영역에 대한 정답을 알고 있는 테스트 샘플을 입력하여 정확도를 비교하였다. 이러한 경우, PTC+를 판별하는 정확도는 레이블이 주변 영역을 40 pixel 포함하는 경우가 가장 높았고, PTC-를 판별하는 정확도는 레이블이 주변 영역을 30 pixel 포함하는 경우가 가장 높았으며, PTC+, PTC-, non-PTC를 전체적으로 판별하는 정확도는 레이블이 주변 영역을 50 pixel 포함하는 경우가 가장 높았다. In the case of FIG. 3, when the rectangle is the smallest size containing PTC + and PTC- and does not include the peripheral area, the peripheral area is added to the pixel of the minimum size including PTC + and PTC- in addition to 10 pixel, 20 pixel, and 30 pixel, respectively. For the case of including, 40 pixels and 50 pixels, six models were generated and the test samples for knowing the correct answer for the PTC region were inputted to compare the accuracy. In this case, the accuracy of determining PTC + was highest when the label included 40 pixels in the surrounding area, and the accuracy of determining PTC- was highest when the label included 30 pixels in the surrounding area, and the PTC +, PTC-, The accuracy of discriminating non-PTC as a whole was highest when the label included 50 pixels of the surrounding area.

이에 따라, PTC+, PTC- 및 non-PTC에 대한 특정의 정확도를 향상시키기 위해서 30 pixel이상 50 pixel 이하의 주변 영역을 포함하여 레이블링하는 경우, 학습되는 모델의 정확도가 가장 높다는 것을 확인할 수 있다. 이때, 신이식편의 이식 거부반응을 진단하는 C4d 스코어링 방법에 있어서는 PTC+의 개수를 정확하게 파악하는 것이 중요하므로 주변 영역을 40 pixel 포함하도록 레이블을 설정하는 경우 효율적임을 확인할 수 있다. 따라서 병리 영상으로부터 PTC+의 특정 정확도, PTC-의 특정 정확도, 또는 전체 정확도의 목적에 따라, 최종 주변 영역의 크기가 30 pixel 이상 50 pixel 이하의 영역을 포함하도록 설정할 수 있다.Accordingly, in order to improve the specific accuracy of PTC +, PTC- and non-PTC, when the label including the peripheral area of 30 pixels or more and 50 pixels or less, it can be confirmed that the accuracy of the trained model is the highest. In this case, in the C4d scoring method for diagnosing transplant rejection of renal grafts, it is important to accurately determine the number of PTC +. Therefore, it may be confirmed that the label is set to include 40 pixels of the surrounding area. Therefore, according to the purpose of the specific accuracy of PTC +, the specific accuracy of PTC-, or the overall accuracy from the pathological image, the size of the final peripheral region may be set to include an area of 30 pixels or more and 50 pixels or less.

한편, 본 발명의 실시예는 제2 신경망에 입력된 제2 샘플 내에 포함된 PTC+ 및 PTC- 을 판별하도록 학습시킬 뿐만 아니라, 추가적으로 판별의 정확도를 향상시키기 위해 PTC+/PTC-를 포함하지 않는 영역으로서 non-PTC(non-peritubular capillary)의 클래스까지 3가지 클래스를 판별하여 출력하도록 제2 신경망을 학습시킨다. Meanwhile, the embodiment of the present invention not only learns to discriminate PTC + and PTC- included in the second sample input to the second neural network, but also additionally includes PTC + / PTC- as an area for improving the accuracy of the discrimination. The second neural network is trained to identify and output three classes, including non-peritubular capillary (PTC) classes.

이때 non-PTC는 PTC를 포함하지 않는 세뇨관(tubular), PTC를 포함하지 않는 사구체(glomerulus)를 non-PTC에 해당하는 것으로 정의할 수 있다. 더하여 non-PTC는 제2 신경망의 학습에 사용되는 제2 샘플 중의 일부로 테스트 신경망을 학습시키고 제2 샘플 중의 나머지 일부를 테스트 신경망에 입력하였을 때 PTC+ 영역으로 잘못 판별된 영역을 non-PTC으로 특정하여 모호한 부분의 판단을 제외시켜 정확도를 향상시킬 수 있다. In this case, the non-PTC may be defined as a non-PTC tubular and a glomerulus that does not include PTC. In addition, non-PTC trains a test neural network with a part of a second sample used for learning a second neural network, and specifies a non-PTC region that is incorrectly determined as a PTC + area when the other part of the second sample is input to the test neural network. Accuracy can be improved by eliminating ambiguity.

이때 non-PTC의 경우 도 2에 도시된 바와 같이, PTC+ 및 PTC-에 비해 상대적으로 마스킹되는 영역이 클 수 있기 때문에 non-PTC를 특정하기 위한 마스킹 영역 내부에 PTC+ 또는 PTC-가 포함되어 학습이 잘못될 가능성이 있다. 따라서, 본 발명의 실시예는 non-PTC를 레이블링하는 경우, non-PTC로서 마스킹된 영역에 비해 소정의 비율 또는 소정의 픽셀만큼 축소된 영역을 non-PTC 영역으로서 레이블링한 후, 마스킹 영역의 크기에 비해 축소시켜 레이블링한 non-PTC 영역을 학습에 사용함으로써 모델의 정확도를 향상시킬 수 있다. 예를 들면, 도 2에서 마스킹을 포함하는 사각형의 크기의 70%~80% 비율로 축소시킨 사각형의 영역을 non-PTC 영역임을 특정하도록 레이블링할 수 있으나, 이러한 축소 비율은 예시일 뿐이며 마스킹된 영역을 축소시켜 레이블링하는 소정의 비율의 범위가 이러한 예시에 한정되는 것은 아니다. In the case of non-PTC, as shown in FIG. 2, since the masked area may be relatively large compared to PTC + and PTC-, PTC + or PTC- is included in the masking area for specifying non-PTC. It could be wrong. Therefore, in the embodiment of the present invention, when labeling a non-PTC, the size of the masking area is labeled after the non-PTC area is labeled as a non-PTC area, which is reduced by a predetermined ratio or a predetermined pixel, compared to the area masked as the non-PTC. The accuracy of the model can be improved by using reduced and labeled non-PTC regions for training. For example, in FIG. 2, the area of the rectangle reduced in the ratio of 70% to 80% of the size of the rectangle including the masking may be labeled to specify that the area is a non-PTC area. The range of a predetermined ratio for labeling by reducing the size is not limited to this example.

한편, 본 명세서에서 사용하는 신경망이란, 인간의 뇌가 패턴을 인식하는 방식을 모사하여 구현한 알고리즘을 의미한다. 이에 따라, 제1 신경망 및 제2 신경망은 복수 개의 레이어를 포함하면서, 이때 하나의 레이어는 하나 이상의 노드로 이루어질 수 있다. 이때 신경망의 각 노드는 학습 알고리즘을 통해 학습된 가중치 및 바이어스 값을 기초로 입력 데이터에 대해 연산을 수행하여 분류 및 군집화를 수행할 수 있다. 다만, 신경망의 구성은 매우 다양하게 구현할 수 있으며 이를 구현하기 위한 공지된 알고리즘이 매우 다양하므로 이에 대해 자세한 설명은 생략한다. 따라서, 제1 신경망 및 제2 신경망의 학습 알고리즘은 Faster R-CNN, SDD, Yolo 등의 다양한 알고리즘을 사용할 수 있으며 어느 하나에 한정되지 않고, 제1 신경망 및 제2 신경망을 구성하는 레이어 또한 다양한 방식으로 구현할 수 있다. Meanwhile, the neural network used in the present specification means an algorithm implemented by simulating the manner in which the human brain recognizes a pattern. Accordingly, while the first neural network and the second neural network include a plurality of layers, one layer may consist of one or more nodes. At this time, each node of the neural network may perform classification and clustering by performing an operation on input data based on weights and bias values learned through a learning algorithm. However, the configuration of the neural network can be implemented in a variety of ways, and a variety of known algorithms for implementing this, so a detailed description thereof will be omitted. Accordingly, the learning algorithms of the first neural network and the second neural network may use various algorithms such as Faster R-CNN, SDD, and Yolo, and are not limited to any one, and the layers constituting the first and second neural networks are also various. Can be implemented.

상술한 실시예에 따라 학습이 완료된 제1 신경망 및 제2 신경망을 포함하는 이식 거부반응 판별 모델은 아래 도 4에 도시된 바와 같이 실제 이식 거부반응의 진단에 사용될 수 있다. The transplant rejection determination model including the first neural network and the second neural network, which has been learned according to the above-described embodiment, may be used to diagnose the actual transplant rejection as shown in FIG. 4 below.

도 4는 본 발명의 일 실시예에 따른 이식 거부반응 판별 방법의 프로세스를 도시하는 흐름도이다. 도 4에 도시된 이식 거부반응 판별 방법은 상술한 실시예에 따라 생성된 제1 신경망, 제2 신경망 및 프로세서에 의해 수행될 수 있다. 이때 제1 신경망 및 제2 신경망은 이를 저장하는 메모리 및 마이크로프로세서를 포함하는 연산 장치에 동작이 수행될 수 있다. 도 4에 도시된 이식 거부반응 판별 방법의 각 단계를 설명하면 다음과 같다. 4 is a flowchart illustrating a process of a transplant rejection determination method according to an embodiment of the present invention. The transplant rejection determination method shown in FIG. 4 may be performed by a first neural network, a second neural network, and a processor generated according to the above-described embodiment. In this case, the first neural network and the second neural network may be operated by a computing device including a memory and a microprocessor storing the same. Referring to each step of the transplant rejection determination method shown in Figure 4 as follows.

우선, 본 발명의 일 실시예에 따라 학습된 제1 신경망은 타겟 병리 영상을 입력받아 소정의 크기를 갖는 복수의 검출 대상 영역을 출력한다(S410). First, the first neural network learned according to an embodiment of the present invention receives a target pathological image and outputs a plurality of detection target regions having a predetermined size (S410).

이때 제1 신경망은 소정의 크기(예: 1024 x 1024 pixel)를 갖고 전체 영역 중 소정 비율 이상(예: 50% 이상)으로 타겟 병리 영상의 조직 영역을 포함하는 복수의 검출 대상 영역을 출력할 수 있다. In this case, the first neural network may output a plurality of detection target regions including a tissue region of the target pathology image having a predetermined size (for example, 1024 x 1024 pixels) and having a predetermined ratio or more (for example, 50% or more) of the entire region. have.

다음으로, 본 발명의 실시예에 따라 학습된 제2 신경망은 복수의 검출 대상 영역을 입력받아 각각의 검출 대상 영역 내에 포함된 PTC+ 영역, PTC- 영역 및 non-PTC(non-peritubular capillary) 영역을 판별한다(S420). Next, the second neural network learned according to an embodiment of the present invention receives a plurality of detection target regions and receives a PTC + region, a PTC- region, and a non-peritubular capillary (PTC) region included in each detection target region. Determine (S420).

이후, 프로세서는 제2 신경망에 의해 판별된 PTC+ 영역 및 PTC- 영역의 개수를 기초로 타겟 병리 영상의 C4d 점수를 계산한다(S430). 예를 들면, PTC+ 영역 개수와 PTC- 영역 개수의 합에 대한 PTC+ 영역 개수를 통해 C4d 점수를 계산할 수 있다. 이때 C4d 점수를 계산하는 알고리즘은 Banff criteria scoring 알고리즘에 기초하여 계산될 수 있다. 따라서 본 실시예를 통해 사용자는 병리 영상으로부터 바로 C4d 점수를 확인할 수 있으므로 이식 거부반응을 신속하고 간편하게 진단할 수 있다. Thereafter, the processor calculates a C4d score of the target pathological image based on the number of PTC + regions and PTC- regions determined by the second neural network (S430). For example, the C4d score can be calculated from the number of PTC + regions for the sum of the number of PTC + regions and the number of PTC- regions. At this time, the algorithm for calculating the C4d score may be calculated based on the Banff criteria scoring algorithm. Therefore, through the present embodiment, the user can check the C4d score directly from the pathological image, thereby quickly and easily diagnosing the transplant rejection.

상술한 실시예에 따르면, 의사가 병리 영상의 특정 영역에 레이블을 표시할 수 있는 소정 크기로 분할된 샘플을 학습에 사용하므로 진단의 재현율 및 정확성을 향상시킬 수 있다. According to the embodiment described above, since the doctor uses a sample divided into a predetermined size that can display a label on a specific area of the pathological image for learning, it is possible to improve the reproducibility and accuracy of the diagnosis.

또한 PTC+ 영역 및 PTC- 영역만을 특정할 수 있도록 모델을 학습시키는 것이 아니라, non-PTC 영역까지 구분할 수 있도록 모델을 학습시킴으로써 모델이 병리 영상 내에 존재하는 PTC+ 영역 및 PTC- 영역을 보다 잘 구분하도록 학습시킬 수 있다. In addition, the model is trained not only to identify PTC + regions and PTC- regions but also to distinguish non-PTC regions so that the model can better distinguish PTC + regions and PTC- regions within pathological images. You can.

더불어 병리 영상에 포함된 PTC+ 영역, PTC- 영역 및 non-PTC 영역의 각각에 레이블을 설정하기 위한 최적의 크기를 결정함으로써 재현율 및 정확성을 향상시킬 수 있다.In addition, the reproducibility and accuracy can be improved by determining the optimal size for labeling each of the PTC + region, PTC- region and non-PTC region included in the pathological image.

이에 따라, 본 발명의 실시예는 이식 거부반응에 대한 진단을 보다 신속하고 정확하게 판단할 수 있게 하여, 진단에 소요되는 시간과 노동력을 크게 절감할 수 있을 뿐만 아니라 의사 및 환자 모두에게 진단의 편의성 및 안전성을 증가시킬 수 있다. Accordingly, the embodiment of the present invention enables a faster and more accurate determination of the diagnosis of the transplant rejection, which can greatly reduce the time and labor required for the diagnosis, as well as the convenience of diagnosis to both the doctor and the patient. Can increase safety.

상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.Embodiments of the present invention described above may be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 응용 주문형 집적회로(ASICs, Application Specific Integrated Circuits), 디지털 신호 처리기(DSPs, Digital Signal Processors), 디지털 신호 처리 소자(DSPDs, Digital Signal Processing Devices), 프로그램가능 논리 소자(PLDs, Programmable Logic Devices), 필드 프로그램가능 게이트 어레이(FPGAs, Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of a hardware implementation, the method according to embodiments of the present invention may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing elements (DSPs). Digital Signal Processing Devices (DSPs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드 등이 기록된 컴퓨터 프로그램은 컴퓨터 판독 가능 기록 매체 또는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 메모리 유닛은 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The computer program in which the software code or the like is recorded may be stored in a computer readable recording medium or a memory unit and driven by a processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor by various known means.

또한 본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.In addition, the combination of each block of the block diagram and each step of the flowchart attached to the present invention may be performed by computer program instructions. These computer program instructions may be embedded in an encoding processor of a general purpose computer, special purpose computer, or other programmable data processing equipment such that the instructions executed by the encoding processor of the computer or other programmable data processing equipment are not included in each block or block diagram. It will create means for performing the functions described in each step of the flowchart. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in each block or flowchart of each step of the block diagram. Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions that perform processing equipment may also provide steps for performing the functions described in each block of the block diagram and in each step of the flowchart.

더불어 각 블록 또는 각 단계는 특정된 논리적 기능을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또한 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block or step may represent a portion of a module, segment or code that includes one or more executable instructions for executing a specified logical function. It should also be noted that in some alternative embodiments the functions noted in the blocks or steps may occur out of order. For example, the two blocks or steps shown in succession may in fact be executed substantially concurrently or the blocks or steps may sometimes be performed in the reverse order, depending on the functionality involved.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. As such, those skilled in the art will appreciate that the present invention can be implemented in other specific forms without changing the technical spirit or essential features thereof. Therefore, the above-described embodiments are to be understood as illustrative in all respects and not as restrictive. The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. .

Claims (12)

하나 이상의 프로세서에 의해 수행되는 이식 거부반응 판별 모델 생성 방법에 있어서,
병리 영상을 입력 받아, 상기 병리 영상에 대해 각각 소정의 비율 이상의 조직 영역을 포함하고 제1 크기를 갖는 복수의 검출 대상 영역을 선정하여 출력하는 제1 신경망을 학습시키는 단계; 및
각 검출 대상 영역 별로 상기 검출 대상 영역 내에 포함된 PTC+(positive peritubular capillary) 영역, PTC-(negative peritubular capillary) 영역 및 non-PTC(non-peritubular capillary) 영역을 판별하는 제2 신경망을 학습시키는 단계를 포함하는
이식 거부반응 판별 모델 생성 방법.
In the method for generating a transplant rejection determination model performed by one or more processors,
Training a first neural network that receives a pathological image and selects and outputs a plurality of detection target regions each having a first size and having a tissue area more than a predetermined ratio with respect to the pathological image; And
Training a second neural network for determining a positive peritubular capillary (PTC +) region, a negative peritubular capillary (PTC-) region, and a non-peritubular capillary (non-PTC) region included in each detection target region; Containing
How to Create a Graft Rejection Identification Model.
제1항에 있어서,
상기 병리 영상은,
상기 조직 영역 이외의 영역에 포함된 정보가 제거된 영상인
이식 거부반응 판별 모델 생성 방법.
The method of claim 1,
The pathological image,
An image from which information included in an area other than the tissue area is removed.
How to Create a Graft Rejection Identification Model.
제1항에 있어서,
상기 제1 신경망을 학습시키는 단계는,
조직 영역을 포함하는 학습용 병리 영상을 입력받는 단계;
상기 학습용 병리 영상 내에서 상기 제1 크기를 갖는 다수의 제1 샘플을 선정하는 단계;
상기 다수의 제1 샘플 각각에 대해 상기 검출 대상 영역으로 선정할 것인지 비선정할 것인지 여부를 레이블링하여 레이블을 설정하는 단계; 및
상기 레이블 및 상기 다수의 제1 샘플을 기초로 상기 제1 신경망을 학습하여 상기 소정의 비율을 결정하는 단계를 포함하는
이식 거부반응 판별 모델 생성 방법.
The method of claim 1,
Learning the first neural network,
Receiving a learning pathology image including a tissue region;
Selecting a plurality of first samples having the first size in the learning pathology image;
Labeling each of the plurality of first samples to set whether to be selected as the detection subject region or not to select a label; And
Learning the first neural network based on the label and the plurality of first samples to determine the predetermined ratio.
How to Create a Graft Rejection Identification Model.
제1항에 있어서,
상기 제2 신경망을 학습시키는 단계는,
상기 제1 크기를 갖는 다수의 제2 샘플 및 상기 다수의 제2 샘플이 포함하는 PTC+, PTC-, non-PTC에 대한 마스킹 정보를 입력 받는 단계;
상기 마스킹 정보를 기초로 상기 다수의 제2 샘플 내의 PTC+, PTC-, non-PTC를 특정하는 단계;
상기 특정된 PTC+, PTC-에 최종 주변 영역을 포함시켜 각각 PTC+ 영역, PTC- 영역으로 레이블링 하고, 상기 특정된 non-PTC에 대해 non-PTC 영역으로 레이블링하여 레이블을 설정하는 단계; 및
상기 레이블 및 상기 다수의 제2 샘플을 기초로 상기 제2 신경망을 학습시키는 단계를 포함하는
이식 거부반응 판별 모델 생성 방법.
The method of claim 1,
Learning the second neural network,
Receiving masking information on the plurality of second samples having the first size and the PTC +, PTC-, and non-PTCs included in the plurality of second samples;
Specifying PTC +, PTC-, non-PTC in the plurality of second samples based on the masking information;
Labeling the specified PTC + and PTC- areas with a final peripheral region and labeling the PTC + region and the PTC- region, respectively, and labeling the specified non-PTC with a non-PTC region; And
Training the second neural network based on the label and the plurality of second samples.
How to Create a Graft Rejection Identification Model.
제4항에 있어서,
상기 레이블을 설정하는 단계는,
상기 특정된 PTC+, PTC- 에 제1 주변 영역을 포함시켜 각각 제1 PTC+ 영역, 제1 PTC- 영역으로 레이블링한 제1 레이블링 정보를 기초로 제1 테스트 신경망을 생성하고, 상기 특정된 PTC+, PTC- 에 제1 주변 영역과 다른 크기의 제2 주변 영역을 포함시켜 각각 제2 PTC+ 영역, 제2 PTC- 영역으로 레이블링한 제2 레이블링 정보를 기초로 제2 테스트 신경망을 생성하는 단계;
PTC+ 영역, PCT- 영역, non-PTC 영역이 각각 정해져 있는 테스트 샘플을 입력 받는 단계;
상기 테스트 샘플을 각각 상기 제1 테스트 신경망 및 상기 제2 테스트 신경망에 입력하여 상기 테스트 샘플 내의 PTC+, PTC-, non-PTC 영역을 판별하도록 하는 단계; 및
상기 정해져 있는 상기 테스트 샘플 내의 PTC+ 영역, PTC- 영역, non-PTC 영역과, 상기 판별된 상기 테스트 샘플 내의 PTC+ 영역, PTC- 영역, non-PTC 영역의 비교를 통해, 상기 제1 테스트 신경망과 상기 제2 테스트 신경망 중 정확도가 더 높은 신경망에 사용된 주변 영역의 크기를 상기 최종 주변 영역으로 결정하는 단계를 포함하는
이식 거부반응 판별 모델 생성방법.
The method of claim 4, wherein
Setting the label,
Including the first peripheral region in the specified PTC +, PTC- to generate a first test neural network based on the first labeling information labeled with the first PTC + region and the first PTC- region, respectively, and the specified PTC +, PTC -Including a second peripheral region of a different size from the first peripheral region to generate a second test neural network based on second labeling information labeled with the second PTC + region, the second PTC- region, respectively;
Receiving a test sample in which a PTC + region, a PCT- region, and a non-PTC region are respectively defined;
Inputting the test sample into the first test neural network and the second test neural network, respectively, to determine PTC +, PTC-, and non-PTC regions within the test sample; And
The comparison between the first test neural network and the PTC + region, the PTC- region, and the non-PTC region in the determined test sample and the PTC + region, the PTC- region, and the non-PTC region in the determined test sample is performed. Determining the size of the peripheral region used for the higher accuracy neural network among the second test neural networks as the final peripheral region.
How to create a model for determining transplant rejection.
제4항에 있어서,
상기 레이블을 설정하는 단계는,
상기 특정된 non-PTC 영역보다 소정의 비율로 축소시킨 영역을 상기 non-PTC 영역으로 레이블링하여 레이블을 설정하는 단계를 포함하는
이식 거부반응 판별 모델 생성 방법.
The method of claim 4, wherein
Setting the label,
Labeling the non-PTC region by narrowing the region reduced by a predetermined ratio than the specified non-PTC region to set a label.
How to Create a Graft Rejection Identification Model.
제4항에 있어서,
상기 최종 주변 영역의 크기는,
30 pixel 이상 50 pixel 이하를 포함하는
이식 거부반응 판별 모델 생성 방법.
The method of claim 4, wherein
The size of the final peripheral area,
30 pixels or more and 50 pixels or less
How to Create a Graft Rejection Identification Model.
제4항에 있어서,
상기 non-PTC는,
상기 다수의 제2 샘플 중의 일부를 통해 테스트 신경망을 생성하고 상기 다수의 제2 샘플 중의 나머지 일부로 상기 테스트 신경망에 입력하였을 때 PTC+ 영역으로 잘못 판별된 위치, 세뇨관(tubular) 및 사구체(glomerulus) 중 적어도 하나를 포함하는
이식 거부반응 판별 모델 생성 방법.
The method of claim 4, wherein
The non-PTC,
At least one of a location, tubular and glomerulus that was incorrectly identified as a PTC + region when a test neural network was generated through some of the plurality of second samples and entered into the test neural network as the remaining portion of the plurality of second samples Containing one
How to Create a Graft Rejection Identification Model.
제1항 내지 제8항 중 어느 한 항의 방법을 수행하는 프로세서를 포함하는 장치.
An apparatus comprising a processor for performing the method of any one of claims 1 to 8.
제1항 내지 제8항 중 어느 한 항의 방법을 프로세서가 수행하게 하는 명령어를 포함하는 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능 기록매체.
A computer-readable recording medium having recorded thereon a computer program comprising instructions for causing a processor to perform the method of any one of claims 1 to 8.
제1항 내지 제8항 중 어느 한 항의 방법을 프로세서가 수행하도록 하는 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer readable recording medium for causing a processor to perform the method of any one of claims 1 to 8.
제1항 내지 제8항 중 어느 한 항의 방법에 따라 학습된 상기 제1 신경망 및 상기 제2 신경망에 의해 수행되는 이식 거부반응 판별 방법에 있어서,
상기 제1 신경망이 타겟 병리 영상을 입력받아 소정의 크기를 갖는 복수의 검출 대상 영역을 출력하는 단계;
상기 제2 신경망이 상기 제1 신경망이 출력한 상기 복수의 검출 대상 영역을 입력 받아 상기 복수의 검출 대상 영역 내의 PTC+(positive peritubular capillary) 영역, PTC-(negative peritubular capillary) 영역 및 non-PTC(non-peritubular capillary) 영역을 판별하는 단계; 및
상기 판별된 상기 PTC+ 영역 및 상기 PTC- 영역의 개수를 기초로 상기 타겟 병리 영상의 C4d 점수를 계산하는 단계를 포함하는
이식 거부반응 판별 방법.
In the method for determining a transplant rejection response performed by the first neural network and the second neural network learned according to any one of claims 1 to 8,
Receiving, by the first neural network, a target pathological image and outputting a plurality of detection target regions having a predetermined size;
The second neural network receives the plurality of detection target regions output by the first neural network, and includes a PTC + (positive peritubular capillary) region, a PTC- (negative peritubular capillary) region, and a non-PTC (non-PTC) region within the plurality of detection target regions. determining a peritubular capillary) area; And
Calculating a C4d score of the target pathological image based on the determined PTC + region and the number of PTC- regions.
How to determine transplant rejection.
KR1020170167620A 2017-12-07 2017-12-07 Method and apparatus for generating graft rejection detection model KR102044525B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170167620A KR102044525B1 (en) 2017-12-07 2017-12-07 Method and apparatus for generating graft rejection detection model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170167620A KR102044525B1 (en) 2017-12-07 2017-12-07 Method and apparatus for generating graft rejection detection model

Publications (2)

Publication Number Publication Date
KR20190067560A KR20190067560A (en) 2019-06-17
KR102044525B1 true KR102044525B1 (en) 2019-11-14

Family

ID=67064619

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170167620A KR102044525B1 (en) 2017-12-07 2017-12-07 Method and apparatus for generating graft rejection detection model

Country Status (1)

Country Link
KR (1) KR102044525B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011137780A (en) 2010-01-04 2011-07-14 Nec Corp Image diagnosis method, image diagnosis device, and image diagnosis program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2921665A1 (en) * 2013-09-20 2015-03-26 Transmural Biotech, S. L. Image analysis techniques for diagnosing diseases
KR101754291B1 (en) 2017-04-04 2017-07-06 이현섭 Medical image processing system and method for personalized brain disease diagnosis and status determination

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011137780A (en) 2010-01-04 2011-07-14 Nec Corp Image diagnosis method, image diagnosis device, and image diagnosis program

Also Published As

Publication number Publication date
KR20190067560A (en) 2019-06-17

Similar Documents

Publication Publication Date Title
Khan et al. Residual connection-based encoder decoder network (RCED-Net) for retinal vessel segmentation
JP6619732B2 (en) Method and system for classifying and identifying individual cells in a microscopic image
WO2020182710A1 (en) Multiple instance learner for prognostic tissue pattern identification
KR20180025093A (en) A method and apparatus for machine learning based on weakly supervised learning
CN110852316A (en) Image tampering detection and positioning method adopting convolution network with dense structure
Xia et al. A multi-scale segmentation-to-classification network for tiny microaneurysm detection in fundus images
JP2021535484A (en) System for automatic tumor detection and classification
Erciyas et al. An effective method for detecting and classifying diabetic retinopathy lesions based on deep learning
Zhou et al. A vegetable disease recognition model for complex background based on region proposal and progressive learning
CN108629378A (en) Image-recognizing method and equipment
JP2024500938A (en) Automatic annotation of state features in medical images
CN115210779A (en) Systematic characterization of objects in biological samples
Zhang et al. Modeling false positive error making patterns in radiology trainees for improved mammography education
Aurangzeb et al. An efficient and light weight deep learning model for accurate retinal vessels segmentation
Thomas et al. Grading and classification of retinal images for detecting diabetic retinopathy using convolutional neural network
Foucart et al. Artifact identification in digital pathology from weak and noisy supervision with deep residual networks
KR102044525B1 (en) Method and apparatus for generating graft rejection detection model
Sandhya et al. Pixel-boundary-dependent segmentation method for early detection of diabetic retinopathy
Gunasinghe et al. Domain generalisation for glaucoma detection in retinal images from unseen fundus cameras
CN114818844A (en) Parameter sharing-based pulmonary embolism identification device, terminal equipment and storage medium
Mercaldo et al. Blood cells counting and localisation through deep learning object detection
Deng et al. Mlff: Multiple low-level features fusion model for retinal vessel segmentation
Shetty et al. Self-Sequential Attention Layer based DenseNet for Thoracic Diseases Detection.
CN110019900B (en) Structure labeling method and device for fundus image
Niaz et al. Evaluating the effectiveness of CNN-based models for diabetic retinopathy detection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right