KR102390347B1 - Method for assisting in generation of pathology report from pathology image and apparatus using the same - Google Patents

Method for assisting in generation of pathology report from pathology image and apparatus using the same Download PDF

Info

Publication number
KR102390347B1
KR102390347B1 KR1020190168010A KR20190168010A KR102390347B1 KR 102390347 B1 KR102390347 B1 KR 102390347B1 KR 1020190168010 A KR1020190168010 A KR 1020190168010A KR 20190168010 A KR20190168010 A KR 20190168010A KR 102390347 B1 KR102390347 B1 KR 102390347B1
Authority
KR
South Korea
Prior art keywords
anatomical object
lesion
pathology
computing device
predetermined lesion
Prior art date
Application number
KR1020190168010A
Other languages
Korean (ko)
Other versions
KR20200059183A (en
Inventor
박정혁
김영원
Original Assignee
주식회사 뷰노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180143469A external-priority patent/KR102078393B1/en
Application filed by 주식회사 뷰노 filed Critical 주식회사 뷰노
Priority to KR1020190168010A priority Critical patent/KR102390347B1/en
Publication of KR20200059183A publication Critical patent/KR20200059183A/en
Application granted granted Critical
Publication of KR102390347B1 publication Critical patent/KR102390347B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

본 개시서에는 병리 영상으로부터 병리 보고서의 생성을 보조하는 방법 및 이를 이용한 컴퓨팅 장치가 개시된다. 구체적으로, 본 발명에 따른 방법에 의하면, 컴퓨팅 장치가, 판독 대상인 병리 영상을 획득하고, 상기 병리 영상에 포함된 소정 병변을 판정하도록 구성된 제1 판단부를 통하여 상기 병리 영상으로부터 상기 소정 병변의 구획을 산출하는 한편, 상기 병리 영상에 포함된 해부학적 객체를 판정하도록 구성된 제2 판단부를 통하여 상기 병리 영상으로부터 상기 해부학적 객체의 구획을 산출하며, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하고, 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공한다.Disclosed herein are a method of assisting in generation of a pathology report from a pathology image and a computing device using the same. Specifically, according to the method according to the present invention, a computing device acquires a pathological image to be read, and divides the predetermined lesion from the pathological image through a first determination unit configured to determine a predetermined lesion included in the pathological image On the other hand, the division of the anatomical object is calculated from the pathological image through a second determination unit configured to determine the anatomical object included in the pathological image, and includes between the division of the predetermined lesion and the division of the anatomical object. Analysis of the pathology report for the given lesion by reflecting at least one of a relationship, a dimension of a section of the given lesion, a number of sections of the given lesion, a dimension of a section of the anatomical object, and a number of sections of the anatomical object A result is generated, and the result of the analysis of the generated pathology report is provided to an external entity.

Description

병리 영상으로부터 병리 보고서의 생성을 보조하는 방법 및 이를 이용한 장치{METHOD FOR ASSISTING IN GENERATION OF PATHOLOGY REPORT FROM PATHOLOGY IMAGE AND APPARATUS USING THE SAME}Method for assisting in the generation of a pathology report from pathology images and a device using the same

본 개시서에는 병리 영상으로부터 병리 보고서의 생성을 보조하는 방법 및 이를 이용한 컴퓨팅 장치가 개시된다. 구체적으로, 본 발명에 따른 방법에 의하면, 컴퓨팅 장치가, 판독 대상인 병리 영상을 획득하고, 상기 병리 영상에 포함된 소정 병변을 판정하도록 구성된 제1 판단부를 통하여 상기 병리 영상으로부터 상기 소정 병변의 구획을 산출하는 한편, 상기 병리 영상에 포함된 해부학적 객체를 판정하도록 구성된 제2 판단부를 통하여 상기 병리 영상으로부터 상기 해부학적 객체의 구획을 산출하며, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하고, 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공한다.Disclosed herein are a method of assisting in generation of a pathology report from a pathology image and a computing device using the same. Specifically, according to the method according to the present invention, a computing device acquires a pathological image to be read, and divides the predetermined lesion from the pathological image through a first determination unit configured to determine a predetermined lesion included in the pathological image On the other hand, the division of the anatomical object is calculated from the pathological image through a second determination unit configured to determine the anatomical object included in the pathological image, and includes between the division of the predetermined lesion and the division of the anatomical object. Analysis of the pathology report for the given lesion by reflecting at least one of a relationship, a dimension of a section of the given lesion, a number of sections of the given lesion, a dimension of a section of the anatomical object, and a number of sections of the anatomical object A result is generated, and the result of the analysis of the generated pathology report is provided to an external entity.

세포, 조직을 포함하는 신체 장기의 절편을 올린 전체 슬라이드 이미지(whole slide image) 혹은 현미경을 통한 병리학적 진단은 환자에 대한 치료 방법의 결정과 예후의 예측에 있어 결정적인 역할을 한다. 이러한 진단은 주로 조직과 세포의 형태를 고려하여 이루어진다. 이 병리학적 진단은 동일 국가 내의 의료인들 사이에서뿐만 아니라 국가 간에도 차이가 있을 정도로 난이도가 높은 문제 중의 하나이다. 세부적인 진단은 다양한 암종 및 클래스(class)로 나뉘는데, 샘플 간 특징의 편차가 크기 때문에 진단에 참고할 만한 대상 영상을 찾는 것은 매우 난이도가 높은 일이다. 이 진단의 난이도는 병리학자의 경험과 직감에 크게 좌우되는데, 실제 임상에서는 경험이 많은 병리학자도 혼자서 진단을 내리기 모호한 경우가 빈번하다. 이는 의사 간 진단의 불일치와 자문, 재판독 등 의료 서비스의 낭비를 발생하게 하는 주요 원인 중의 하나이다.Pathological diagnosis through a microscope or a whole slide image of a section of a body organ including cells and tissues plays a decisive role in determining a treatment method for a patient and predicting the prognosis. These diagnoses are mainly made by considering the types of tissues and cells. Diagnosis of this pathology is one of the problems with a high degree of difficulty to the extent that there are differences between countries as well as among medical personnel within the same country. Detailed diagnosis is divided into various carcinomas and classes, and since there is a large variation in characteristics between samples, it is very difficult to find a target image that can be used as a reference for diagnosis. The difficulty of this diagnosis largely depends on the experience and intuition of the pathologist, and in actual clinical practice, it is often ambiguous for even an experienced pathologist to make a diagnosis alone. This is one of the main causes of inconsistency in diagnosis among doctors and waste of medical services such as consultation and re-reading.

병리학적 진단 중 병변, 특히 암의 진단에 있어, 암 세포가 퍼진 정도를 확인하는 것은 향후 치료 계획의 설정에 있어 하나의 중요한 지표가 된다. 이를 암의 병기라고 부르며, 이러한 병기를 결정하는 데에는 일반적으로 TNM법을 이용한다. TNM에서 T(tumor; 종양)는 원발기관에서 원발종양의 크기와 침윤정도를, N(node; 림프절)은 원발종양에서 주위 림프절로 얼마나 퍼졌는지를, M(metastasis; 전이)은 몸의 다른 장기로 암이 퍼졌는지 여부를 의미한다. TNM법에 의한 암의 상태가 결정이 되면 1기, 2기, 3기, 4기로 진행단계를 간단히 요약일 수 있는데, 일반적으로는 치료 결과의 개념을 포함하여 조기암, 진행암, 말기암이란 분류도 사용한다.In pathological diagnosis of lesions, particularly cancer, determining the extent to which cancer cells have spread is an important indicator in setting future treatment plans. This is called the stage of cancer, and the TNM method is generally used to determine this stage. In TNM, T (tumor) is the size and invasion of the primary tumor in the primary organ, N (node; lymph node) is how far it has spread from the primary tumor to the surrounding lymph nodes, and M (metastasis; metastasis) is other organs in the body. indicates whether the cancer has spread. When the cancer status is determined by the TNM method, the stages of progression to stage 1, 2, 3, and 4 can be simply summarized. Classification is also used.

이와 같이 TNM법을 이용한 병기의 계산에는 암을 포함하는 림프절의 개수를 산출하는 일이 필요하다. 림프절에서 암을 확인하고 림프절을 계수하는 작업에는 많은 시간이 소요되며, 일반적으로 판독자 간에도 일치도가 높지 않다는 문제점이 있다.In this way, in calculating the stage using the TNM method, it is necessary to calculate the number of lymph nodes containing cancer. Identifying cancer in lymph nodes and counting lymph nodes takes a lot of time, and generally there is a problem that there is not high agreement among readers.

이에 따라 본 개시서에서는 인공지능 기술로써 림프절 슬라이스 영상과 같은 병리 영상의 국소 영역에 대하여 암과 같은 소정 병변의 여부를 판정할 수 있도록 구성된 제1 판단부, 예컨대, 학습된 제1 심층 신경망 모듈과, 병리 영상에서 림프절과 같은 해부학적 객체를 찾아내어 해부학적 객체의 영역과 개수를 도출할 수 있는 제2 판단부, 예컨대, 제2 심층 신경망 모듈을 이용하여 병리 영상으로부터 소정 병변에 해당하는 해부학적 객체의 개수와 소정 병변에 해당하지 않는 해부학적 객체의 개수를 산출하고, 이를 통하여 병리 보고서의 작성을 보조할 수 있게 하는 방법을 제안하고자 한다. Accordingly, in the present disclosure, a first determination unit, for example, a learned first deep neural network module, configured to determine whether a predetermined lesion is present, such as cancer, with respect to a local area of a pathological image such as a lymph node slice image with artificial intelligence technology; , a second determination unit capable of deriving the area and number of anatomical objects by finding anatomical objects such as lymph nodes in the pathological image, for example, using a second deep neural network module, anatomically corresponding to a predetermined lesion from the pathological image. The present invention proposes a method of calculating the number of objects and the number of anatomical objects that do not correspond to a predetermined lesion, and thereby assisting in the preparation of a pathology report.

KRKR 10-187434810-1874348 BB

본 발명은 종래 방식의 병변 여부 판정 방식보다 더 편리하고 효율적으로 병기를 계산하는 등 병리 보고서의 작성을 보조할 수 있게 하는 것을 목적으로 한다.An object of the present invention is to make it possible to assist in the preparation of a pathology report, such as calculating the stage more conveniently and efficiently than the conventional method for determining whether a lesion exists.

또한, 본 발명은 병변에 의하여 해부학적 객체의 형태가 변형되어 해부학적 객체를 검출하는 알고리즘의 성능 한계를 극복하기 위한 방안으로서, 자동으로 산출된 해부학적 객체의 구획에 대하여 사용자가 그 구획을 수정할 수 있도록 하는 사용자 인터페이스도 제공하는 것을 목적으로 한다.In addition, the present invention is a method for overcoming the performance limitation of an algorithm for detecting an anatomical object by deforming the shape of an anatomical object due to a lesion. It is also intended to provide a user interface that allows

구체적으로, 본 발명은 병리 영상에 근거하여 정확하게 병기를 계산함으로서 환자에 대한 적절한 치료에 기여하는 것을 목적으로 한다.Specifically, an object of the present invention is to contribute to an appropriate treatment for a patient by accurately calculating a stage based on a pathological image.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic configuration of the present invention for achieving the object of the present invention as described above and for realizing the characteristic effects of the present invention to be described later is as follows.

본 발명의 일 태양에 따르면, 병리 영상으로부터 병리 보고서의 생성을 보조하는 방법이 제공되는바, 그 방법은, (a) 컴퓨팅 장치가, 판독 대상인 병리 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 상기 병리 영상을 획득하도록 지원하는 단계; (b) 상기 컴퓨팅 장치가, (i) 상기 병리 영상으로부터 소정 병변을 구획하는 프로세스; 및 (ii) 상기 병리 영상으로부터 해부학적 객체를 구획하는 프로세스를 수행하거나 상기 타 장치로 하여금 수행하도록 지원하는 단계; (c) 상기 컴퓨팅 장치가, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 단계; 및 (d) 상기 컴퓨팅 장치가, 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계를 포함한다.According to one aspect of the present invention, there is provided a method of assisting in generation of a pathology report from a pathology image, the method comprising: (a) a computing device acquiring a pathology image to be read or another device interworking with the computing device assisting to acquire the pathological image; (b), by the computing device, (i) a process of segmenting a predetermined lesion from the pathological image; and (ii) performing a process of segmenting an anatomical object from the pathological image or supporting the other device to perform; (c) in the computing device, an inclusion relationship between a partition of the predetermined lesion and a partition of the anatomical object, a dimension of a partition of the predetermined lesion, the number of partitions of the predetermined lesion, a dimension of a partition of the anatomical object, and the generating an analysis result of a pathology report on the predetermined lesion by reflecting at least one of the number of sections of an anatomical object or supporting the other device to generate; and (d) providing, by the computing device, the generated pathology report analysis result to an external entity or supporting the other device to provide it.

본 발명의 다른 태양에 따르면, 본 발명에 따른 방법을 수행하도록 구현된 인스트럭션들(instructions)을 포함하는 컴퓨터 프로그램도 제공된다.According to another aspect of the present invention, there is also provided a computer program comprising instructions embodied for performing a method according to the present invention.

본 발명의 또 다른 태양에 따르면, 병리 영상으로부터 병리 보고서의 생성을 보조하는 컴퓨팅 장치가 제공되는바, 그 컴퓨팅 장치는, 판독 대상인 병리 영상을 획득하는 통신부; 및 (A) 상기 병리 영상으로부터 소정 병변을 구획하는 프로세스; 및 (B) 상기 병리 영상으로부터 해부학적 객체를 구획하는 프로세스를 수행하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 수행하도록 지원하는 프로세서를 포함하고, 상기 프로세서는, (i) 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하는 프로세스, 및 (ii) 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공하는 프로세스를 수행하거나 상기 타 장치로 하여금 수행하도록 지원한다.According to another aspect of the present invention, there is provided a computing device that assists in generating a pathology report from a pathology image, the computing device comprising: a communication unit configured to acquire a pathology image to be read; and (A) a process of segmenting a predetermined lesion from the pathology image; and (B) a processor that performs a process of segmenting an anatomical object from the pathological image or supports another device interlocked through the communication unit to perform, wherein the processor comprises: (i) segmentation of the predetermined lesion; By reflecting at least one of the inclusion relationship between the compartments of the anatomical object, the dimensions of the compartments of the predetermined lesion, the number of compartments of the predetermined lesion, the dimensions of the compartments of the anatomical object, and the number of compartments of the anatomical object. A process of generating an analysis result of a pathology report for a predetermined lesion, and (ii) a process of providing the generated pathology report analysis result to an external entity are performed or supported by the other device to perform.

*본 개시서의 예시적인 실시 예에 따르면, 종래에 판독자, 예컨대, 의료 전문가들 사이에서도 불일치가 있었던 림프절의 계수와 같은 해부학적 객체의 계수에 관한 일정한 기준을 제시할 수 있어, 판독자 간의 불일치도를 낮출 수 있는 효과가 있다.*According to an exemplary embodiment of the present disclosure, it is possible to present certain criteria regarding counts of anatomical objects, such as counts of lymph nodes, which have conventionally been inconsistent even among readers, for example, medical professionals, so that the degree of discrepancy between readers has the effect of lowering

따라서 예시적인 실시 예에 의하면, 단순히 해부학적 객체에 대한 진단을 용이하게 할 뿐만 아니라 소정 병변의 영역과 해부학적 객체의 영역을 표시하여 데이터화하는 작업을 촉진할 수 있는바, 의료 관련 인공지능 기술의 발전에 양의 피드백으로서 이바지할 수 있는 효과가 있다.Therefore, according to an exemplary embodiment, it is possible to not only easily diagnose an anatomical object, but also to display the area of a predetermined lesion and the area of an anatomical object to facilitate the data conversion. There is an effect that can contribute as positive feedback to development.

따라서, 특정한 질환을 진단하기 위한 의료진의 시간이 절약되며, 더 많은 환자에 대한 안전이 확보될 수 있는 효과가 있다.Accordingly, the time of medical staff for diagnosing a specific disease is saved, and safety for more patients can be secured.

이와 같은 본 발명의 실시 예에 따른 효과는 특정 형식(modality)의 병리 영상뿐만 아니라 널리 다양한 형식의 2차원 영상 또는 3차원 영상들에 적용될 수 있는바, 본 발명의 방법이 특정 형식이나 플랫폼에 종속되지 않음은 물론이다.Such an effect according to an embodiment of the present invention can be applied not only to pathological images of a specific modality but also to 2D or 3D images of various types, so that the method of the present invention is dependent on a specific format or platform. of course it won't.

본 발명의 실시 예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시 예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 사람(이하 "통상의 기술자"라 함)에게 있어서는 신규한 발명에 이르는 노력 없이도 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명의 일 실시 예에 따라 병리 영상으로부터 병리 보고서의 생성을 보조하는 방법(이하 "병리 보고서 생성 보조 방법"이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 2는 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.
도 3은 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 예시적으로 나타낸 흐름도이다.
도 4는 본 발명에 따른 병리 보고서 생성 보조 방법의 제1 판단부 및 제2 판단부에서 이용될 수 있는 심층 신경망의 예로서 특정 심층 신경망 아키텍처를 개념적으로 나타낸 도면이다.
도 5a 및 도 5b는 각각 본 발명의 병리 보고서 생성 보조 방법의 실시 예들에 따라 제공되는 사용자 인터페이스 요소를 예시적으로 나타낸 개념도이다.
The accompanying drawings for use in the description of the embodiments of the present invention are only a part of the embodiments of the present invention, and for those of ordinary skill in the art (hereinafter referred to as "those of ordinary skill") to which the present invention pertains, Other drawings may be obtained based on these drawings without an effort to arrive at a novel invention.
1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device performing a method of assisting in generation of a pathology report from a pathology image (hereinafter referred to as a “pathology report generation assistance method”) according to an embodiment of the present invention. .
2 is a conceptual diagram exemplarily illustrating a hardware and software architecture of a computing device performing a pathology report generation assistance method according to an embodiment of the present invention.
3 is a flowchart exemplarily illustrating a pathology report generation assistance method according to an embodiment of the present invention.
4 is a diagram conceptually illustrating a specific deep neural network architecture as an example of a deep neural network that can be used in the first and second judgment units of the pathology report generation assistance method according to the present invention.
5A and 5B are conceptual views exemplarily illustrating user interface elements provided according to embodiments of the method for assisting pathology report generation according to the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description of the present invention refers to the accompanying drawings, which show by way of illustration a specific embodiment in which the present invention may be practiced, in order to clarify the objects, technical solutions and advantages of the present invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. In the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.

실시 예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시 예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to the specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected to” another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, but one or more other features, number, step , it should be understood that it does not preclude the possibility of the existence or addition of an operation, a component, a part, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not

본 발명의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상", "이미지", "영상 데이터" 또는 "이미지 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭하며, 달리 말하자면, (예컨대, 비디오 화면에 표시된) 눈으로 볼 수 있는 대상 또는 (예컨대, 픽셀 혹은 복셀 출력에 대응되는 파일과 같은) 그 대상의 디지털 표현물을 지칭하는 용어이다.The term "image", "image", "image data" or "image data" as used throughout the present description and claims refers to discrete image elements (eg, pixels in a two-dimensional image, a three-dimensional image refers to multidimensional data composed of voxels), in other words a visible object (eg displayed on a video screen) or a digital representation of that object (eg, a file corresponding to a pixel or voxel output). It is a term that refers to

예를 들어 "영상"은 현미경 영상의 촬영과 같이 본 발명의 기술분야에서 공지된 임의의 영상 촬영 방식에 따라 수집된 피검체(subject)의 영상일 수 있다. 그러나 그 영상이 반드시 의료적 맥락에서 제공되어야 하는 것은 아니다.For example, "image" may be an image of a subject collected according to any imaging method known in the art, such as taking a microscope image. However, the image does not necessarily have to be presented in a medical context.

설명의 편의를 위하여 예시적인 일부의 영상 형식(modality)을 가정할 수 있으나 통상의 기술자는 본 발명의 다양한 실시 예에서 이용되는 영상 형식들이 현미경 촬영 영상에만 한정되지 않는다는 점을 이해할 수 있을 것이다.For convenience of description, some exemplary image modality may be assumed, but a person skilled in the art will understand that the image formats used in various embodiments of the present invention are not limited to microscopic images.

또한, 본 개시서의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다.In addition, throughout the detailed description and claims of the present disclosure, 'learning' or 'learning' is a term referring to performing machine learning through computing according to a procedure, It will be understood by those of ordinary skill in the art that it is not intended to refer to an action.

본 개시서에서 언급되는 사용자는 단수만을 지칭하는 것이 아니라 영상, 특히 병리 영상 및 그 관련 데이터를 풍부하고 중첩적으로 획득하기 위한 목적의 복수 사용자를 지칭할 수도 있는바, 이에는 영상의 훈련(학습) 또는 실제 사용에 있어서 영상의 무결성(integrity)을 확보하기 위한 목적이 있을 수 있다.A user referred to in this disclosure does not refer to a singular, but may refer to a plurality of users for the purpose of acquiring images, particularly pathological images and related data, abundantly and superimposed, which includes training (learning) of images. ) or for the purpose of securing the integrity of the image in actual use.

더욱이 본 발명은 본 명세서에 표시된 실시 예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. Moreover, the invention encompasses all possible combinations of the embodiments indicated herein. It should be understood that various embodiments of the present invention are different but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it should be understood that the position or arrangement of individual components in each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description set forth below is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scope equivalents as those claimed. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects.

본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In this specification, unless indicated otherwise or clearly contradicted by context, items referred to in the singular encompass the plural unless the context requires otherwise. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시 예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, in order to enable those skilled in the art to easily practice the present invention, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device performing a pathology report generation assistance method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.Referring to FIG. 1 , a computing device 100 according to an embodiment of the present invention includes a communication unit 110 and a processor 120 , and is directly or indirectly connected to an external computing device (not shown) through the communication unit 110 . can communicate effectively.

구체적으로, 상기 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터, 프로세서, 메모리, 스토리지(storage), 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다. 상기 스토리지는 하드 디스크, USB(universal serial bus) 메모리와 같은 기억 장치뿐만 아니라 클라우드 서버와 같은 네트워크 연결 기반의 저장 장치의 형태를 포함할 수 있다.Specifically, the computing device 100 may include typical computer hardware (eg, a computer, a processor, a memory, storage, an input device and an output device, a device that may include other components of a conventional computing device; a router; , electronic communication devices such as switches, etc.; electronic information storage systems such as network-attached storage (NAS) and storage area networks (SANs)) and computer software (ie, enabling the computing device to operate in a specific way). to achieve the desired system performance by using a combination of instructions that make it function as The storage may include a storage device such as a hard disk and a universal serial bus (USB) memory, as well as a storage device based on a network connection such as a cloud server.

이와 같은 컴퓨팅 장치의 통신부(110)는 연동되는 타 컴퓨팅 장치와의 사이에서 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는 바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다.The communication unit 110 of such a computing device may transmit and receive a request and a response between the interworking computing device and the other computing device. As an example, such a request and a response are transmitted by the same transmission control protocol (TCP) session. It may be made, but is not limited thereto, and may be transmitted/received as, for example, a user datagram protocol (UDP) datagram.

구체적으로, 통신부(110)는 통신 인터페이스를 포함하는 통신 모듈의 형태로 구현될 수 있다. 이를테면, 통신 인터페이스는 WLAN(wireless LAN), WiFi(wireless fidelity) Direct, DLNA(digital living network alliance), Wibro(wireless broadband), Wimax(world interoperability for microwave access), HSDPA(high speed downlink packet access) 등의 무선 인터넷 인터페이스와 블루투스(Bluetooth™), RFID(radio frequency identification), 적외선 통신(infrared data association; IrDA), UWB(ultra-wideband), ZigBee, NFC(near field communication) 등의 근거리 통신 인터페이스를 포함할 수 있다. 뿐만 아니라, 통신 인터페이스는 외부와 통신을 수행할 수 있는 모든 인터페이스(예를 들어, 유선 인터페이스)를 나타낼 수 있다.Specifically, the communication unit 110 may be implemented in the form of a communication module including a communication interface. For example, the communication interface is wireless LAN (WLAN), wireless fidelity (WiFi) Direct, digital living network alliance (DLNA), wireless broadband (Wibro), world interoperability for microwave access (Wimax), high speed downlink packet access (HSDPA), etc. Including wireless Internet interface of wireless Internet interface and short-distance communication interface such as Bluetooth™, radio frequency identification (RFID), infrared data association (IrDA), ultra-wideband (UWB), ZigBee, and near field communication (NFC) can do. In addition, the communication interface may indicate any interface (eg, a wired interface) capable of performing communication with the outside.

예를 들어, 통신부(110)는 이와 같이 적합한 통신 인터페이스를 통해 외부 장치로부터 판독 대상인 병리 영상 등을 획득할 수 있다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력 장치, 인쇄 장치, 디스플레이, 기타 외부 출력 장치를 포함하거나 이들과 연동될 수 있다.For example, the communication unit 110 may acquire a pathological image to be read from an external device through an appropriate communication interface as described above. In addition, in a broad sense, the communication unit 110 may include or interwork with a keyboard, a mouse, other external input devices, printing devices, displays, and other external output devices for receiving commands or instructions.

또한, 컴퓨팅 장치의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit), NPU(neural processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the processor 120 of the computing device includes a micro processing unit (MPU), a central processing unit (CPU), a graphics processing unit (GPU), a neural processing unit (NPU) or a tensor processing unit (TPU), and a cache memory. ), and may include a hardware configuration such as a data bus. In addition, the operating system may further include a software configuration of an application for performing a specific purpose.

도 2는 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.2 is a conceptual diagram exemplarily illustrating a hardware and software architecture of a computing device performing a pathology report generation assistance method according to an embodiment of the present invention.

도 2를 참조하여 본 발명에 따른 방법 및 장치의 구성을 간략히 개관하면, 컴퓨팅 장치(100)는 그 구성요소로서 영상 획득 모듈(210)을 포함할 수 있다. 이 영상 획득 모듈(210)은 본 발명에 따른 방법이 적용되는 병리 영상을 획득하도록 구성된다. 상기 영상은, 예를 들어, 통신부(110)를 통하여 연동되는 타 영상 촬영 장치(미도시)로부터 획득되는 것일 수 있다. A brief overview of the configuration of the method and apparatus according to the present invention with reference to FIG. 2 , the computing device 100 may include an image acquisition module 210 as a component thereof. This image acquisition module 210 is configured to acquire a pathological image to which the method according to the present invention is applied. The image may be obtained from, for example, another image capturing apparatus (not shown) that is linked through the communication unit 110 .

획득된 영상의 일부 또는 전부는 병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230)에 각기 전달될 수 있다. 일 실시 예로서, 병변 영역 구획 모듈(220)은 소정의 인스트럭션들을 실행하는 프로세서에 의해 구현될 수 있다. 구체적으로, 병변 영역 구획 모듈(220)은 상기 병리 영상으로부터 소정 병변을 구획하도록 구성된 제1 판단부(혹은 병변 판정 모듈), 예컨대, 훈련된 제1 심층 신경망 모듈을 포함할 수 있다. 이 실시 예와 양립 가능한 다른 실시 예로서, 해부학적 객체 영역 구획 모듈(230)은 소정의 인스트럭션들을 실행하는 프로세서에 의해 구현될 수 있다. 구체적으로, 해부학적 객체 영역 구획 모듈(230)은 상기 병리 영상으로부터 해부학적 객체를 구획하도록 구성된 제2 판단부(혹은 해부학적 객체 판정 모듈), 예컨대, 훈련된 제2 심층 신경망 모듈을 포함할 수 있다. 앞서 설명된 병변 영역 구획 모듈(220)과 해부학적 객체 영역 구획 모듈(230)을 구현하는 프로세서에 관한 설명은 도 1과 함께 기재된 프로세서(120)에 대한 설명이 그대로 적용될 수 있으므로, 중복되는 설명은 생략하기로 한다.Part or all of the acquired image may be transmitted to the lesion region partitioning module 220 and the anatomical object region partitioning module 230 , respectively. As an embodiment, the lesion region partitioning module 220 may be implemented by a processor executing predetermined instructions. Specifically, the lesion region partitioning module 220 may include a first determination unit (or a lesion determination module) configured to partition a predetermined lesion from the pathological image, for example, a trained first deep neural network module. As another embodiment compatible with this embodiment, the anatomical object region partitioning module 230 may be implemented by a processor executing predetermined instructions. Specifically, the anatomical object region partitioning module 230 may include a second determination unit (or anatomical object determination module) configured to partition an anatomical object from the pathological image, for example, a trained second deep neural network module. there is. The description of the processor implementing the lesion region partitioning module 220 and the anatomical object region partitioning module 230 described above can be applied as it is with the description of the processor 120 described with FIG. 1 , so the overlapping description is to be omitted.

예시적으로 제1 심층 신경망 모듈 및 제2 심층 신경망 모듈 각각은 심층 신경망 모델뿐만 아니라 이를 이용하여 특징값(feature value; feature vector)을 생성하는 특징값 층 및 특징값을 통하여 영상을 픽셀 또는 복셀 단위로 분류하는 분류기를 포함할 수 있다. 특징값 층은, 전형적으로, 전결합층(fully-connected layer)일 수 있다. 병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230)에 의한 병리 영상에 대한 구획은 상세히 후술하기로 한다. 또한, 병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230)에 포함되는 제1 심층 신경망 모듈 및 제2 심층 신경망 모듈에 대한 설명은 이해를 돕기 위한 예시적 기재일 뿐, 다른 실시 예를 제한하거나 한정하는 것으로 해석되어서는 안될 것이다.Illustratively, each of the first deep neural network module and the second deep neural network module converts an image into a pixel or voxel unit through a feature value layer and feature values that generate a feature value (feature vector) by using the deep neural network model as well as the deep neural network model. It may include a classifier that classifies as The feature layer may typically be a fully-connected layer. The segmentation of the pathological image by the lesion area segmentation module 220 and the anatomical object area segmentation module 230 will be described later in detail. In addition, the description of the first deep neural network module and the second deep neural network module included in the lesion region partitioning module 220 and the anatomical object region partitioning module 230 are only exemplary descriptions for better understanding, and other embodiments It should not be construed as limiting or limiting.

병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230) 중 적어도 하나는 사용자 인터페이스 모듈(240)과 연동될 수 있는데, 이는 병변 영역 구획 모듈(220)의 경우 제1 판단부에 의한 잘못된 소정 병변의 구획 산출을 바로잡기 위한 것인 한편, 해부학적 객체 영역 구획 모듈(230)의 경우 제2 판단부에 의한 잘못된 해부학적 객체의 구획 산출을 바로잡기 위한 것이다. 사용자 인터페이스 모듈(240)은 사용자에게 소정의 사용자 인터페이스 요소들을 제공함으로써 사용자로 하여금 병변 영역 구획 모듈(220) 및/또는 해부학적 객체 영역 구획 모듈(230)의 오류를 바로잡을 수 있도록 지원하는 기능을 할 수 있다. 소정의 사용자 인터페이스 모듈(240)에 의하여 제공될 수 있는 사용자 인터페이스는 도 5a 및 도 5b를 참조하여 후술하기로 한다.At least one of the lesion region partitioning module 220 and the anatomical object region partitioning module 230 may be linked with the user interface module 240 , which may be erroneous by the first determination unit in the case of the lesion zone partitioning module 220 . This is to correct the division calculation of a predetermined lesion, while in the case of the anatomical object region division module 230 , it is to correct the division calculation of an erroneous anatomical object by the second determination unit. The user interface module 240 provides a user with predetermined user interface elements to provide a function to support the user to correct errors of the lesion area segmentation module 220 and/or the anatomical object area segmentation module 230 . can do. A user interface that can be provided by a predetermined user interface module 240 will be described later with reference to FIGS. 5A and 5B .

다음으로, 병변 영역 구획 모듈(220)에 의하여 산출된 소정 병변의 구획 및 해부학적 객체 영역 구획 모듈(230)에 의하여 산출된 해부학적 객체의 구획을 반영하여 병리 보고서 생성 모듈(250)은 그 소정 병변에 관한 병리 보고서의 분석 결과를 생성할 수 있다. 예를 들어, 병변이 암에 해당하고, 해부학적 객체가 림프절인 경우, 림프절의 개수 및 암으로 판정된 림프절의 개수를 이용하여 암의 병기가 결정될 수 있으며, 상기 병리 보고서의 분석 결과에는 그러한 림프절의 개수, 암으로 판정된 림프절의 개수, 그렇지 않은 림프절의 개수, 그 사이의 비율 및 이를 토대로 한 암의 병기에 관한 정보가 포함되도록 생성될 수 있다.Next, the pathology report generation module 250 reflects the division of the predetermined lesion calculated by the lesion area division module 220 and the division of the anatomical object calculated by the anatomical object area division module 230 to generate the predetermined It is possible to generate an analysis result of a pathology report regarding the lesion. For example, when the lesion corresponds to cancer and the anatomical object is a lymph node, the stage of cancer may be determined using the number of lymph nodes and the number of lymph nodes determined to be cancerous, and the analysis result of the pathology report includes such lymph nodes may be generated to include information about the number of lymph nodes, the number of lymph nodes determined to be cancerous, the number of non-cancerous lymph nodes, the ratio therebetween, and the stage of cancer based thereon.

생성된 병리 보고서의 분석 결과는 출력 모듈(260)에 의하여 외부 엔티티(external entity)에 제공될 수 있는데, 이를 위하여 출력 모듈(260)은 디스플레이 장치(미도시)를 포함할 수 있다. 여기에서 외부 엔티티라고 함은, 상기 컴퓨팅 장치(100)의 사용자, 관리자 등을 포함하나, 이 이외에도 그 병리 보고서의 분석 결과를 필요로 하는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다. 외부 엔티티는 상기 정보를 이용하는 인공지능 주체(artificial intelligence entity)일 수도 있으며, 그 정보를 저장하기 위한 저장 장치일 수도 있다. 외부 엔티티가 인간인 때에는 출력 모듈(260)은 소정의 출력 장치, 예컨대 디스플레이에 표시된 사용자 인터페이스를 통하여 예측 결과를 외부 엔티티에 제공할 수 있다.The analysis result of the generated pathology report may be provided to an external entity by the output module 260 . For this purpose, the output module 260 may include a display device (not shown). Here, the external entity includes a user, an administrator, and the like of the computing device 100 , but should be understood to include any subject as long as it requires an analysis result of the pathology report in addition to this. The external entity may be an artificial intelligence entity using the information, or a storage device for storing the information. When the external entity is a human, the output module 260 may provide the prediction result to the external entity through a predetermined output device, for example, a user interface displayed on a display.

일 실시 예에서는 도 2에 도시된 구성요소 외에 갱신 모듈 및 학습 모듈(270; 미도시)이 더 포함될 수 있는데, 이 갱신 모듈 및 학습 모듈은 사용자에 의한 수정 등 조작에 기초하여, 제1 판단부 및 제2 판단부 중 적어도 하나를 갱신하는 기능을 한다.In one embodiment, an update module and a learning module 270 (not shown) may be further included in addition to the components shown in FIG. 2 , and the update module and the learning module are based on a manipulation such as modification by the user, the first determination unit and updating at least one of the second determination unit.

이와 같이 도 2에 도시된 모듈들은, 예컨대, 컴퓨팅 장치(100)에 포함된 통신부(110)나 프로세서(120), 또는 상기 통신부(110) 및 프로세서(120)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이며, 아래에서 그 기능 및 효과 등에 관하여 더 상세하게 설명될 것이다.As such, the modules shown in FIG. 2 may be implemented by, for example, the communication unit 110 or the processor 120 included in the computing device 100, or the interworking of the communication unit 110 and the processor 120. Those of ordinary skill in the art will be able to understand, and will be described in more detail with respect to its functions and effects, etc. below.

이제 본 발명에 따른 병리 보고서 생성 보조 방법을 도 3을 참조하여 구체적으로 설명하기로 한다. 도 3은 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 예시적으로 나타낸 흐름도이다.A method of assisting pathology report generation according to the present invention will now be described in detail with reference to FIG. 3 . 3 is a flowchart exemplarily illustrating a pathology report generation assistance method according to an embodiment of the present invention.

도 3을 참조하면, 본 발명에 따른 병리 보고서 생성 보조 방법은, 우선, 컴퓨팅 장치(100)의 통신부(110)에 의하여 구현되는 영상 획득 모듈(210)이, 판독 대상인 병리 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치(미도시)로 하여금 상기 병리 영상을 획득하도록 지원하는 단계(S100)를 포함한다. Referring to FIG. 3 , in the pathology report generation assistance method according to the present invention, first, the image acquisition module 210 implemented by the communication unit 110 of the computing device 100 acquires a pathological image to be read or the computing device 100 . and a step (S100) of supporting another device (not shown) interworking with the device to acquire the pathological image.

다음으로, 본 발명에 따른 병리 보고서 생성 보조 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 병변 영역 구획 모듈(220)이 상기 병리 영상으로부터 소정 병변을 구획하거나 상기 타 장치로 하여금 상기 소정 병변을 구획하도록 지원하는 프로세스(S200a; 미도시) 및 컴퓨팅 장치(100)에 의하여 구현되는 해부학적 객체 영역 구획 모듈(230)이 상기 병리 영상으로부터 해부학적 객체를 구획하거나 상기 타 장치로 하여금 상기 해부학적 객체를 구획하도록 지원하는 프로세스(S200b; 미도시)를 수행하는 단계(S200)를 더 포함한다.Next, in the pathology report generation assistance method according to the present invention, the lesion region partitioning module 220 implemented by the computing device 100 partitions a predetermined lesion from the pathological image or allows the other device to partition the predetermined lesion The anatomical object region partitioning module 230 implemented by the process (S200a; not shown) and the computing device 100 for supporting It further includes a step (S200) of performing a process (S200b; not shown) to support partitioning.

구체적으로, 프로세스(S200a)에서는 상기 병리 영상에 포함된 상기 소정 병변을 판정하도록 구성된 제1 판단부를 통하여 상기 병리 영상으로부터 상기 소정 병변의 구획이 산출될 수 있다. 또한, 구체적으로, 프로세스(S200b)에서는 상기 병리 영상에 포함된 상기 해부학적 객체를 판정하도록 구성된 제2 판단부를 통하여 상기 병리 영상으로부터 상기 해부학적 객체의 구획이 산출될 수 있다.Specifically, in the process S200a, the division of the predetermined lesion may be calculated from the pathological image through the first determination unit configured to determine the predetermined lesion included in the pathological image. Also, specifically, in the process S200b, the division of the anatomical object may be calculated from the pathological image through the second determination unit configured to determine the anatomical object included in the pathological image.

도 4는 본 발명에 따른 병리 보고서 생성 보조 방법의 제1 판단부 및 제2 판단부에서 이용될 수 있는 심층 신경망의 예로서 특정 심층 신경망 아키텍처를 개념적으로 나타낸 도면이다.4 is a diagram conceptually illustrating a specific deep neural network architecture as an example of a deep neural network that can be used in the first and second decision units of the pathology report generation assistance method according to the present invention.

본 발명에서 소정 병변 및 해부학적 객체 중 적어도 하나를 구획하는 데 심층 신경망이 이용될 수 있는데, 심층 신경망은 이를 이루는 층의 수가 많으면 많을수록 그 효과가 뛰어나다는 점은 통상의 기술자에게 알려진 바와 같다. 다만 종래에 인공 신경망에 기울기 소실 문제(vanishing gradient problem)로 인하여 역전파 수행시에 모델의 가중치가 제대로 반영되지 못하는 단점이 있었는데, 근래 나온 이에 대한 해법은 그 기울기를 보존할 수 있도록 심층 신경망을 구성하는 방안이다.In the present invention, a deep neural network may be used to partition at least one of a predetermined lesion and an anatomical object, and it is known to those skilled in the art that the effect of the deep neural network increases as the number of layers forming the deep neural network increases. However, due to the vanishing gradient problem in the conventional artificial neural network, the model weights were not properly reflected when performing backpropagation. is a way to

특히, 도 4에 예시된 심층 신경망 아키텍처는 Inception V3이라고 통칭하는 합성곱 인공 신경망(convolutional artificial neural network; CNN)이다. 벡터로 표현된 특징값{즉, 특징 벡터(feature vector)}은, 도시된 예시에서와 같이 8x8x2048를 이용하거나, 8x8 크기의 영역에 대하여 평균을 취하는 전역 평균 풀링(GAP; global average pooling) 등을 이용하여 2048 차원의 벡터를 이용할 수 있다. 이와 같은 심층 신경망 모델은 입력되는 영상 패치(영상 조각)에 대하여 다양한 분류를 수행하는 문제를 해결하도록 훈련된다.In particular, the deep neural network architecture illustrated in FIG. 4 is a convolutional artificial neural network (CNN) commonly referred to as Inception V3. A feature value expressed as a vector {i.e., a feature vector} uses 8x8x2048 as in the illustrated example, or global average pooling (GAP) that takes an average over an 8x8 sized area. 2048 dimensional vector can be used. Such a deep neural network model is trained to solve the problem of performing various classifications on input image patches (image fragments).

예를 들어, 입력된 영상에서 어떤 특정 속성을 가진 영역을 구획하는 것은 그 구획에 속하는 픽셀 또는 복셀들을 "{포함됨, 포함되지 않음}" 중 어느 하나의 클래스로 분류하는 것이라 할 수 있다. For example, partitioning a region having a specific property in an input image may be classified as one of "{included, not included}" class of pixels or voxels belonging to the partition.

따라서, 암과 같은 병변을 검출하기 위한 심층 신경망 모델은 병변에 해당하는 픽셀 또는 복셀들을 그렇지 않은 픽셀 또는 복셀들과 구분 및 분류하도록 학습되고, 림프절과 같은 해부학적 객체를 검출하기 위한 심층 신경망 모델은 해부학적 객체에 해당하는 픽셀 또는 복셀들을 그렇지 않은 픽셀 또는 복셀들과 구분 및 분류하도록 학습될 수 있다. 이 경우, 검출된 림프절 구획은 픽셀 또는 복셀간의 연관성(pixel connectivity or voxel connectivity) 등을 이용하여 그 개수를 정할 수도 있을 것이다.Therefore, the deep neural network model for detecting a lesion such as cancer is trained to distinguish and classify pixels or voxels corresponding to the lesion from pixels or voxels that do not, and the deep neural network model for detecting an anatomical object such as lymph nodes is It may be learned to distinguish and classify pixels or voxels corresponding to anatomical objects from pixels or voxels that do not. In this case, the number of detected lymph node divisions may be determined using pixel or voxel connectivity or the like.

다만, 통상의 기술자는 이와 같은 Inception V3 외에도 훈련용 데이터, 즉 병리 영상 및 이에 대응되는 레이블링 데이터, 즉 구획에 관한 정보를 이용한 훈련을 통하여 입력되는 영상에 대한 분류, 즉 구획을 수행할 수 있는 다양한 종류의 심층 신경망 알고리즘이 있을 수 있으며, 도 4에 예시된 특정된 구조의 심층 신경망에 한정되지 않음을 이해할 수 있을 것이다. 예컨대, U-Net 유사 구조를 이용하는 등의 타 방법이 존재한다.However, in addition to Inception V3, a person of ordinary skill in the art can classify an image input through training using training data, that is, a pathological image and corresponding labeling data, that is, information about the partition, that is, a variety of methods that can perform partitioning. It will be appreciated that there may be many kinds of deep neural network algorithms, and are not limited to the deep neural network of the specific structure illustrated in FIG. 4 . For example, there are other methods such as using a U-Net-like structure.

한편, 병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230) 각각이 제1 심층 신경망 모듈 및 제2 심층 신경망 모듈을 이용하는 때에, 이들 심층 신경망 모듈에 의한 잘못된 구획 산출의 오류가 있을 수 있는바, 이를 바로잡을 필요가 있다. On the other hand, when the lesion region partitioning module 220 and the anatomical object region partitioning module 230 each use the first deep neural network module and the second deep neural network module, there may be errors in the calculation of incorrect partitions by these deep neural network modules. There is, it needs to be rectified.

오류를 바로잡을 필요뿐만 아니라 사용자에 의한 구획이 직접 이루어지도록 구성할 필요도 있으므로, 이를 위하여, 단계(S200)의 일 실시 예에서는, 컴퓨팅 장치(100)가, 프로세스(S200a)에서의 소정 병변의 구획 및 프로세스(S200b)에서의 해부학적 객체의 구획 중 적어도 하나에 대한 사용자의 입력, 변경 및 삭제 중 적어도 하나를 지원하기 위한 사용자 인터페이스 요소들을 제공하거나 상기 타 장치로 하여금 제공하도록 지원하고, 그 사용자 인터페이스 요소에 대한 조작에 응하여, 상기 소정 병변의 구획 및 상기 해부학적 객체의 구획 중 적어도 하나를 입력, 변경 또는 삭제하거나 상기 타 장치로 하여금 입력, 변경 또는 삭제하도록 지원할 수 있다.In addition to the need to correct the error, it is also necessary to configure the division by the user directly. For this purpose, in an embodiment of step S200 , the computing device 100 performs Provide user interface elements for supporting at least one of input, change, and deletion of a user for at least one of a section and a section of an anatomical object in the section and process S200b, or support the other device to provide, and the user In response to manipulation of the interface element, at least one of the partition of the predetermined lesion and the partition of the anatomical object may be input, changed, or deleted, or the other device may support input, change, or deletion.

도 5a 및 도 5b는 각각 본 발명의 병리 보고서 생성 보조 방법의 실시 예들에 따라 제공되는 사용자 인터페이스 요소를 예시적으로 나타낸 개념도이다. 도 5a 및 도 5b에는 암이 소정 병변의 일 예시로서, 림프절이 해부학적 객체의 일 예시로서 도시되어 있다.5A and 5B are conceptual diagrams exemplarily illustrating user interface elements provided according to embodiments of the method for assisting pathology report generation according to the present invention. 5A and 5B illustrate cancer as an example of a predetermined lesion, and lymph nodes as an example of an anatomical object.

도 5a를 참조하면, 림프절 슬라이스 영상(510), 병변 영역 구획 모듈의 산출 결과(520), 해부학적 객체 영역 구획 모듈의 산출 결과(530) 등이 예시되어 있고, 림프절(540, 550)과 림프절이 아닌 객체(560)가 각각 도시되어 있다. 병변 영역 구획 모듈의 산출 결과(520), 림프절(540)에는 암 영역(540a)이 표시되어 있으며, 해부학적 객체 영역 구획 모듈의 산출 결과(530), 림프절(540)과 림프절(550) 각각에 그 각각이 림프절에 해당함을 보이는 구획들(540b, 550b)이 표시되어 있다.Referring to FIG. 5A , a lymph node slice image 510 , a calculation result 520 of the lesion region division module, a calculation result 530 of the anatomical object region division module, etc. are exemplified, and lymph nodes 540 and 550 and lymph nodes are illustrated. Objects 560 that are not each are shown. The cancer region 540a is displayed in the calculation result 520 and the lymph node 540 of the lesion area division module, and the calculation result 530 of the anatomical object area division module, the lymph node 540 and the lymph node 550, respectively. Sections 540b and 550b are marked, each showing that it corresponds to a lymph node.

도 5b를 참조하면, 림프절 영역(540b, 550b)은 정상적으로 구획된 것이지만, 영역(560b)은 림프절에 해당되지 않는데 잘못 구획된 것이고, 림프절 영역(550b')는 실제보다 작게 구획된 것이므로 이를 바로잡을 필요가 있다. 즉, 잘못 구획된 것은 삭제하고, 실제보다 작게 구획된 것은 수정하여야 할 것이다. Referring to FIG. 5B , the lymph node regions 540b and 550b are normally partitioned, but the region 560b does not correspond to a lymph node and is incorrectly partitioned. There is a need. That is, erroneously partitioned ones should be deleted and those partitioned smaller than actual ones should be corrected.

또한, 림프절의 실제 형태는 강낭콩과 유사하여, 절편상으로는 2개로 분리되더라도 실제는 1개의 림프절일 수 있다. 즉, 동일한 영상에 나타난 림프절이 판독자에 따라 1개로 계수되거나 2개로 계수될 수 있으므로, 잘못 계수된 구획은 삭제하여야 할 필요도 있다. 이와 반대로, 1개로 계수된 구획을 2개 이상의 구획으로 나누어야 하거나, 구획되지 않은 영역을 새롭게 구획할 필요도 있다.In addition, the actual shape of the lymph node is similar to that of a kidney bean, so even if it is sectioned into two, it may actually be one lymph node. That is, since lymph nodes appearing in the same image may be counted as one or two depending on the reader, it is also necessary to delete the incorrectly counted section. Conversely, it may be necessary to divide a partition counted by one into two or more partitions, or to newly partition an undivided area.

이를 위하여 사용자는 제공되는 사용자 인터페이스 상의 사용자 인터페이스 요소, 예컨대, 통상의 기술자에게 널리 알려진 예시로서 브러시 또는 지우개 혹은 이와 유사한 도구에 상응하는 요소(570)를 이용하여 원하는 구획을 임의로 조절할 수 있다.To this end, the user may arbitrarily adjust the desired section by using a user interface element on the provided user interface, for example, an element 570 corresponding to a brush or an eraser or a similar tool as an example well known to those skilled in the art.

계속해서 도 3을 참조하면, 본 발명에 따른 병리 보고서 생성 보조 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 병리 보고서 생성 모듈(250)이, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 단계(S300)를 더 포함한다. Continuing to refer to FIG. 3 , in the pathology report generation assistance method according to the present invention, the pathology report generation module 250 implemented by the computing device 100 is configured to provide a space between a section of the predetermined lesion and a section of the anatomical object. of the pathology report on the predetermined lesion by reflecting at least one of the inclusion relationship, the dimensions of the compartments of the predetermined lesion, the number of compartments of the predetermined lesion, the dimensions of the compartments of the anatomical object, and the number of compartments of the anatomical object. The method further includes generating an analysis result or supporting the other device to generate it (S300).

예를 들어, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계는, 특정의 해부학적 객체, 예컨대 림프절의 구획 내에 특정의 소정 병변, 예컨대 암의 구획이 포함되어야 하는 관계일 수 있는바, 이는 림프절에 대한 암의 전이에 관한 병리 보고서의 기초 자료가 될 수 있기 때문이다.For example, the inclusion relationship between the compartment of the predetermined lesion and the compartment of the anatomical object may be a relationship in which a compartment of a specific predetermined lesion, eg, cancer, should be included within a compartment of a specific anatomical object, eg, a lymph node. , because it can serve as a basis for pathological reports on metastasis of cancer to lymph nodes.

구체적으로, 단계(S300)의 일 실시 예에서, 병리 보고서 생성 모듈(250)은, 병변으로 진단된 해부학적 객체의 개수와 병변이 아닌 해부학적 객체의 개수를 산출한 결과로부터 병리 보고서의 분석 결과를 생성할 수 있는바, 즉, 상기 해부학적 객체에 상기 소정 병변이 포함되는 비율에 기초하여 상기 병리 보고서의 분석 결과를 생성할 수 있다. Specifically, in an embodiment of step S300 , the pathology report generation module 250 analyzes the pathology report from the result of calculating the number of anatomical objects diagnosed as lesions and the number of anatomical objects that are not lesions. can be generated, that is, the analysis result of the pathology report may be generated based on a ratio in which the predetermined lesion is included in the anatomical object.

예를 들어, 도 5a를 참조하면, 병리 영상(림프절 슬라이스 영상)(510)으로부터 병변(암) 영역 구획 모듈이 산출한 구획(520) 및 해부학적 객체(림프절) 영역 구획 모듈이 산출한 구획(530)의 결과에 기초하여 병리 보고서 생성 모듈(250)은 "전체 림프절 2개 중 암 1개 (1/2)"라는 병리 보고서의 분석 결과를 생성할 수 있다.For example, referring to FIG. 5A , a partition 520 calculated by the lesion (cancer) area partitioning module from a pathological image (lymph node slice image) 510 and a partition calculated by the anatomical object (lymph node) area partitioning module ( Based on the result of 530), the pathology report generation module 250 may generate an analysis result of the pathology report, "cancer 1 out of 2 lymph nodes (1/2)".

다시 도 3을 참조하면, 본 발명에 따른 병리 보고서 생성 보조 방법은, 상기 프로세서(120)에 의하여 구현되는 출력 모듈(260)이, 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 상기 병리 보고서 분석 결과를 상기 외부 엔티티에 제공하도록 지원하는 단계(S400)를 더 포함한다. Referring back to FIG. 3 , in the pathology report generation assistance method according to the present invention, the output module 260 implemented by the processor 120 provides the generated pathology report analysis result to an external entity or The method further includes supporting the other device to provide the pathology report analysis result to the external entity (S400).

한편, 본 발명에 따른 병리 보고서 생성 보조 방법의 수행에 앞서, 활용되는 제1 판단부 및 제2 판단부, 예컨대, 심층 신경망 모듈들이 미리 학습되는 단계(S050)를 거쳐야 할 필요가 있는바, 이를 위한 갱신 및 학습 모듈, 혹은 학습 모듈(270; 미도시)이 상기 프로세서(120)에 의하여 실행될 수 있다.On the other hand, prior to performing the pathology report generation assistance method according to the present invention, it is necessary to go through a step (S050) in which the utilized first and second determination units, for example, deep neural network modules, are trained in advance. An update and learning module or a learning module 270 (not shown) for this purpose may be executed by the processor 120 .

예를 들어, 제1 판단부의 학습을 위하여, 학습 모듈(270)은 다수의 피검체에 대한 병리 영상 및 그 병리 영상에 나타난 소정 병변을 표시(마킹; marking)한 레이블링 데이터를 훈련용 데이터로 이용할 수 있으며, 제2 판단부의 학습을 위하여, 학습 모듈(270)은 다수의 피검체에 대한 병리 영상 및 그 병리 영상에 나타난 해부학적 객체를 표시한 레이블링 데이터를 훈련용 데이터로 이용할 수 있다. 이를 위한 훈련용 데이터는 실질적으로 전술한 사용자 인터페이스에 의하여 준비될 수 있음을 이해할 수 있을 것이다.For example, for the learning of the first judgment unit, the learning module 270 uses, as training data, pathological images of a plurality of subjects and labeling data indicating (marking) predetermined lesions appearing in the pathological images. In addition, for learning of the second determination unit, the learning module 270 may use, as training data, pathological images of a plurality of subjects and labeling data indicating anatomical objects appearing in the pathological images. It will be appreciated that training data for this may be substantially prepared by the user interface described above.

본 개시서에 첨부된 도면들에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치에서 실현되는 것으로 예시되었으나, 본 발명의 방법을 수행하는 컴퓨팅 장치(100)는 복수개의 장치들이 서로 연동된 것으로 구성될 수도 있으며, 이는 본 개시서에 첨부된 청구범위에 의하여 망라될 수 있다는 점이 이해될 것이다. 따라서 전술한 본 발명 방법의 각 단계는, 하나의 컴퓨팅 장치가 직접 수행하거나 상기 하나의 컴퓨팅 장치가 상기 하나의 컴퓨팅 장치에 연동되는 타 컴퓨팅 장치로 하여금 수행하도록 지원함으로써 수행될 수 있음이 자명하다.Although the components shown in the accompanying drawings in the present disclosure are exemplified as being realized in one computing device for convenience of description, the computing device 100 for performing the method of the present invention may be configured as a plurality of devices interworking with each other. It is to be understood that this may be encompassed by the claims appended to this disclosure. Therefore, it is obvious that each step of the method of the present invention described above can be performed by one computing device directly or by supporting another computing device linked to the one computing device to perform the one computing device.

이와 같이 본 발명에 따른 병리 보고서 생성 보조 방법은, 파악된 소정 병변과 해부학적 객체에 기초하여 병리 보고서의 분석 결과를 생성할 수 있는바, 그 소정 병변과 해부학적 객체의 구획을 추가, 편집, 삭제한 정보 등을 다시 제1 판단부 및 제2 판단부에 대한 갱신 혹은 추가 학습의 자료로 활용한다면, 이들 판단부가 더 정확한 구획을 수행하도록 할 수 있는 장점이 있으므로, 이러한 장점을 취하기 위한 본 발명에 따른 병리 보고서 생성 보조 방법은, 상기 프로세서(120)가, 상기 사용자 인터페이스 요소에 대한 조작에 기초하여, 상기 병리 영상에 포함된 상기 소정 병변을 판정하도록 훈련된 제1 판단부 및 상기 병리 영상에 포함된 상기 해부학적 객체를 판정하도록 훈련된 제2 판단부 중 적어도 하나를 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 단계(S500)를 더 포함할 수 있다. 이때, 이전의 훈련 내지 학습 때에는 고려되지 않았던 데이터가 추가로 고려되고, 이전의 학습 때에 있었던 오류를 바로잡을 수 있기 때문에 상기 제1 판단부 및 제2 판단부의 정확도가 향상되는바, 데이터가 쌓일수록 그 성능이 지속적으로 향상되는 장점이 있다.As described above, the pathology report generation assistance method according to the present invention can generate the analysis result of the pathology report based on the identified predetermined lesion and anatomical object, and can add, edit, If the deleted information is used again as data for updating or additional learning for the first and second determination units, there is an advantage in that these determination units perform more accurate division, so the present invention for taking these advantages In the pathology report generation assistance method according to The method may further include updating at least one of the second determination units trained to determine the included anatomical object or supporting the other device to update (S500). At this time, since data not taken into account during previous training or learning is additionally considered, and errors made during previous learning can be corrected, the accuracy of the first and second determination units is improved. It has the advantage of continuously improving its performance.

여기에서 상기 사용자 인터페이스 요소에 대하여 조작을 시행하는 주체는 상기 의료 전문가 등의 외부 엔티티일 수 있다.Here, the subject performing the manipulation on the user interface element may be an external entity such as the medical professional.

이와 같이 본 발명은 전술한 모든 실시 예들에 걸쳐, 더 편리하고 효율적으로 병변 및 이와 관련된 해부학적 객체를 계수할 수 있는 효과가 있다.As such, the present invention has the effect of more conveniently and efficiently counting lesions and related anatomical objects across all the above-described embodiments.

상기 실시 예들로써 여기에서 설명된 기술의 이점은, 하루에도 많은 진단 자료에 기초하여 정확히 판정 내지 예측하여야 하는 바쁜 의료 환경에 놓인 의료 전문가들의 부담을 크게 덜어줄 수 있는 한편, 림프절의 계수와 같은 해부학적 객체의 계수에 관한 일정한 기준을 제시할 수 있어 판독자 간의 불일치도를 낮추어 관련 질환에 관한 더 정확한 판정이 가능해진다는 점이다. 요컨대, 소정 병변의 영역과 해부학적 객체의 영역을 표시하여 데이터화하는 작업을 촉진할 수 있는바, 의료 관련 인공지능 기술의 발전에 양의 피드백으로서 이바지할 수 있다.The advantage of the technology described herein as the above embodiments is that it can greatly relieve the burden of medical professionals in a busy medical environment who have to make accurate decisions or predictions based on a lot of diagnostic data every day, while anatomy such as counting lymph nodes The point is that it is possible to suggest a certain standard for the count of enemy objects, thereby reducing the degree of inconsistency among readers and making more accurate judgments about related diseases. In other words, it is possible to promote the data conversion by displaying the area of a predetermined lesion and the area of an anatomical object, thereby contributing as positive feedback to the development of medical-related artificial intelligence technology.

이상, 본 개시서의 다양한 실시 예들에 관한 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 프로세서, 예컨대, 마이크로프로세서, 컨트롤러, 예컨대, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 마이크로컴퓨터, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 예컨대, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 예컨대, FPGA(field programmable gate array), PLU(programmable logic unit) 혹은 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 기타 명령어(instruction)를 실행하고 응답할 수 있는 임의의 다른 장치, 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.Above, based on the description of various embodiments of the present disclosure, those of ordinary skill in the art will recognize that the method and/or processes of the present invention, and the steps thereof, are hardware, software, or hardware and software suitable for a specific application. It can be clearly understood that they can be realized in any combination. The hardware may include general purpose computers and/or dedicated computing devices or specific computing devices or special features or components of specific computing devices. The processes may include one or more processors, eg, microprocessors, controllers, eg, microcontrollers, embedded microcontrollers, microcomputers, arithmetic logic units (ALUs), digital signal processors, with internal and/or external memory. , for example, by a programmable digital signal processor or other programmable device. In addition, or as an alternative, the processes may include application specific integrated circuits (ASICs), programmable gate arrays, such as field programmable gate arrays (FPGAs), programmable logic units (PLUs) or programmable array logic. (Programmable Array Logic; PAL) or any other device capable of executing and responding to instructions, any other device or combination of devices that can be configured to process electronic signals. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령어(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령어 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 기계 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more machine-readable recording media.

더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능 매체에 기록될 수 있다. 기계 판독 가능 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD, Blu-ray와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는 바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다. Moreover, the objects of the technical solution of the present invention or parts contributing to the prior arts may be implemented in the form of program instructions that can be executed through various computer components and recorded in a machine-readable medium. The machine-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the machine-readable recording medium may be specially designed and configured for the embodiment, or may be known and used by those skilled in the art of computer software. Examples of the machine-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs, DVDs, and Blu-rays, and floppy disks. ), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include any one of the devices described above, as well as heterogeneous combinations of processors, processor architectures, or combinations of different hardware and software, or stored and compiled or interpreted for execution on a machine capable of executing any other program instructions. machine code, which may be created using a structured programming language such as C, an object-oriented programming language such as C++ This includes not only bytecode, but also high-level language code that can be executed by a computer using an interpreter or the like.

따라서 본 발명에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 개시서의 범위 내에 속하도록 의도된 것이다.Accordingly, in one aspect according to the present invention, when the above-described method and combinations thereof are performed by one or more computing devices, the methods and combinations of methods may be implemented as executable code for performing respective steps. In another aspect, the method may be implemented as systems performing the steps, the methods may be distributed in various ways across devices or all functions may be integrated into one dedicated, standalone device or other hardware. In another aspect, the means for performing the steps associated with the processes described above may include any of the hardware and/or software described above. All such sequential combinations and combinations are intended to fall within the scope of this disclosure.

예를 들어, 상기된 하드웨어 장치는 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력 장치를 포함할 수 있다.For example, the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa. The hardware device may include a processor, such as an MPU, CPU, GPU, TPU, coupled with a memory such as ROM/RAM for storing program instructions and configured to execute instructions stored in the memory, an external device and a signal It may include a communication unit that can send and receive. In addition, the hardware device may include a keyboard, a mouse, and other external input devices for receiving commands written by developers.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시 예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described with specific matters such as specific components and limited embodiments and drawings, but these are provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments, Those of ordinary skill in the art to which the present invention pertains can devise various modifications and variations from these descriptions.

따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니되며, 본 개시서에 첨부된 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and not only the claims appended to the present disclosure, but also all modifications equivalently or equivalently to the claims attached to the present disclosure are the spirit of the present invention will fall into the category of For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인 바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.Such equivalent or equivalent modifications will include, for example, logically equivalent methods capable of producing the same results as practiced by the methods according to the present invention, the spirit and spirit of the present invention. The scope should not be limited by the above examples, and should be understood in the broadest sense permitted by law.

Claims (10)

병리 영상으로부터 병리 보고서의 생성을 보조하는 방법에 있어서,
컴퓨팅 장치가, 판독 대상인 병리 영상을 획득하는 단계;
상기 컴퓨팅 장치가, 심층 신경망을 기반으로 상기 병리 영상으로부터 소정 병변의 구획 및 해부학적 객체의 구획을 수행하는 단계;
상기 컴퓨팅 장치가, 상기 병리 영상에 나타난 상기 소정 병변의 구획과 상기 병리 영상에 나타난 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하는 단계; 및
상기 컴퓨팅 장치가, 생성된 상기 병리 보고서의 분석 결과를 외부 엔티티(entity)에게 제공하는 단계
를 포함하되,
상기 병리 보고서의 분석 결과는,
상기 소정 병변의 구획의 개수 및 상기 해부학적 객체의 구획의 개수를 이용하여 결정되는 상기 소정 병변의 병기에 관한 정보; 및
상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계에 기반한 상기 해부학적 객체에 상기 소정 병변이 포함되는 비율을 포함하는,
병리 보고서 생성 보조 방법.
A method of assisting in generating a pathology report from pathology images, comprising:
acquiring, by the computing device, a pathological image to be read;
performing, by the computing device, segmentation of a predetermined lesion and segmentation of an anatomical object from the pathological image based on a deep neural network;
The computing device determines, by the computing device, an inclusion relationship between a partition of the predetermined lesion displayed in the pathological image and a partition of the anatomical object displayed in the pathological image, a dimension of a partition of the predetermined lesion, the number of partitions of the predetermined lesion, and the anatomical generating an analysis result of a pathology report on the predetermined lesion by reflecting at least one of a dimension of a compartment of an object and a number of compartments of the anatomical object; and
providing, by the computing device, an analysis result of the generated pathology report to an external entity
including,
The analysis result of the pathology report is,
information on the stage of the predetermined lesion determined using the number of divisions of the predetermined lesion and the number of divisions of the anatomical object; and
including a ratio in which the predetermined lesion is included in the anatomical object based on an inclusion relationship between the partitions of the predetermined lesion and the partitions of the anatomical object,
Auxiliary method for generating pathology reports.
삭제delete 제 1 항에 있어서,
상기 컴퓨팅 장치가, 상기 소정 병변의 구획에 대한 사용자의 입력, 변경 및 삭제 중 적어도 하나를 지원하기 위한 적어도 하나의 사용자 인터페이스 요소를 제공하는 단계; 및
상기 사용자 인터페이스 요소에 대한 조작에 응하여, 상기 컴퓨팅 장치가, 상기 소정 병변의 구획을 입력, 변경 또는 삭제하는 단계
를 더 포함하는 병리 보고서 생성 보조 방법.
The method of claim 1,
providing, by the computing device, at least one user interface element for supporting at least one of a user's input, change, and deletion of the partition of the predetermined lesion; and
In response to the manipulation of the user interface element, the computing device inputting, changing, or deleting a section of the predetermined lesion.
An auxiliary method for generating a pathology report further comprising:
삭제delete 제 1 항에 있어서,
상기 컴퓨팅 장치가, 상기 해부학적 객체의 구획에 대한 사용자의 입력, 변경 및 삭제 중 적어도 하나를 지원하기 위한 적어도 하나의 사용자 인터페이스 요소를 제공하는 단계; 및
상기 사용자 인터페이스 요소에 대한 조작에 응하여, 상기 컴퓨팅 장치가, 상기 해부학적 객체의 구획을 입력, 변경 또는 삭제하는 단계
를 더 포함하는 병리 보고서 생성 보조 방법.
The method of claim 1,
providing, by the computing device, at least one user interface element for supporting at least one of a user's input, change, and deletion of the partition of the anatomical object; and
in response to manipulation of the user interface element, inputting, changing, or deleting, by the computing device, a section of the anatomical object;
An auxiliary method for generating a pathology report further comprising:
삭제delete 컴퓨팅 장치로 하여금, 제 1 항, 제 3 항 및 제 5 항 중 어느 한 항의 방법을 수행하도록 구현된 인스트럭션들(instructions)을 포함하는, 매체에 저장된 컴퓨터 프로그램.A computer program stored on a medium comprising instructions implemented to cause a computing device to perform the method of any one of claims 1, 3 and 5. 병리 영상으로부터 병리 보고서의 생성을 보조하는 컴퓨팅 장치에 있어서,
판독 대상인 병리 영상을 획득하는 통신부; 및
상기 병리 영상으로부터 소정 병변의 구획 및 해부학적 객체의 구획을 수행하고, 상기 병리 영상에 나타난 상기 소정 병변의 구획과 상기 병리 영상에 나타난 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하는 프로세스, 및 상기 생성된 상기 병리 보고서의 분석 결과를 외부 엔티티(entity)에게 제공하는 프로세스를 수행하는 프로세서
를 포함하되,
상기 병리 보고서의 분석 결과는,
상기 소정 병변의 구획의 개수 및 상기 해부학적 객체의 구획의 개수를 이용하여 결정되는 상기 소정 병변의 병기에 관한 정보; 및
상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계에 기반한 상기 해부학적 객체에 상기 소정 병변이 포함되는 비율을 포함하는,
병리 보고서 생성 장치.
A computing device that assists in generating a pathology report from a pathology image, comprising:
a communication unit that acquires a pathological image to be read; and
A segmentation of a predetermined lesion and a segmentation of an anatomical object are performed from the pathology image, and an inclusion relationship between the segmentation of the prescribed lesion shown in the pathological image and the segment of the anatomical object shown in the pathology image, the segmentation of the prescribed lesion a process of generating an analysis result of a pathology report regarding the predetermined lesion by reflecting at least one of a dimension, a number of compartments of the predetermined lesion, a dimension of a compartment of the anatomical object, and a number of compartments of the anatomical object; and A processor performing a process of providing an analysis result of the generated pathology report to an external entity
including,
The analysis result of the pathology report is,
information on the stage of the predetermined lesion determined using the number of divisions of the predetermined lesion and the number of divisions of the anatomical object; and
including a ratio in which the predetermined lesion is included in the anatomical object based on an inclusion relationship between the partitions of the predetermined lesion and the partitions of the anatomical object,
Pathology report generation device.
삭제delete 삭제delete
KR1020190168010A 2018-11-20 2019-12-16 Method for assisting in generation of pathology report from pathology image and apparatus using the same KR102390347B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190168010A KR102390347B1 (en) 2018-11-20 2019-12-16 Method for assisting in generation of pathology report from pathology image and apparatus using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180143469A KR102078393B1 (en) 2018-11-20 2018-11-20 Method for assisting in generation of pathology report from pathology image and apparatus using the same
KR1020190168010A KR102390347B1 (en) 2018-11-20 2019-12-16 Method for assisting in generation of pathology report from pathology image and apparatus using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180143469A Division KR102078393B1 (en) 2018-11-20 2018-11-20 Method for assisting in generation of pathology report from pathology image and apparatus using the same

Publications (2)

Publication Number Publication Date
KR20200059183A KR20200059183A (en) 2020-05-28
KR102390347B1 true KR102390347B1 (en) 2022-04-25

Family

ID=81451696

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190168010A KR102390347B1 (en) 2018-11-20 2019-12-16 Method for assisting in generation of pathology report from pathology image and apparatus using the same

Country Status (1)

Country Link
KR (1) KR102390347B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008079770A (en) * 2006-09-27 2008-04-10 Gifu Univ Diagnostic reading support apparatus, diagnostic reading support method and program
JP2011514227A (en) * 2008-03-17 2011-05-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Perfusion imaging

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101874348B1 (en) 2017-11-21 2018-07-09 주식회사 뷰노 Method for facilitating dignosis of subject based on chest posteroanterior view thereof, and apparatus using the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008079770A (en) * 2006-09-27 2008-04-10 Gifu Univ Diagnostic reading support apparatus, diagnostic reading support method and program
JP2011514227A (en) * 2008-03-17 2011-05-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Perfusion imaging

Also Published As

Publication number Publication date
KR20200059183A (en) 2020-05-28

Similar Documents

Publication Publication Date Title
Napel et al. Quantitative imaging of cancer in the postgenomic era: Radio (geno) mics, deep learning, and habitats
Jang et al. Applications of deep learning for the analysis of medical data
US11423540B2 (en) Segmentation of anatomical regions and lesions
Bi et al. Dual-path adversarial learning for fully convolutional network (FCN)-based medical image segmentation
KR101943011B1 (en) Method for facilitating medical image reading and apparatus using the same
US11929174B2 (en) Machine learning method and apparatus, program, learned model, and discrimination apparatus using multilayer neural network
US10853449B1 (en) Report formatting for automated or assisted analysis of medical imaging data and medical diagnosis
US10734107B2 (en) Image search device, image search method, and image search program
Mohammed et al. Artificial neural networks for automatic segmentation and identification of nasopharyngeal carcinoma
US20170042495A1 (en) Medical image information system, medical image information processing method, and program
US10699434B2 (en) Determination of result data on the basis of medical measurement data from various measurements
EP3893198A1 (en) Method and system for computer aided detection of abnormalities in image data
Sudheer Kumar et al. Medical image analysis using deep learning: a systematic literature review
CN112529834A (en) Spatial distribution of pathological image patterns in 3D image data
US20190035075A1 (en) Method and apparatus for classifying a data point in imaging data
Lanjewar et al. Lung cancer detection from CT scans using modified DenseNet with feature selection methods and ML classifiers
US20210082567A1 (en) Method for supporting viewing of images and apparatus using same
CN112396606A (en) Medical image segmentation method, system and device based on user interaction
KR102078393B1 (en) Method for assisting in generation of pathology report from pathology image and apparatus using the same
Dong et al. An improved supervoxel 3D region growing method based on PET/CT multimodal data for segmentation and reconstruction of GGNs
KR102390347B1 (en) Method for assisting in generation of pathology report from pathology image and apparatus using the same
KR102222816B1 (en) Method for generating future image of progressive lesion and apparatus using the same
JPWO2019208130A1 (en) Medical document creation support devices, methods and programs, trained models, and learning devices, methods and programs
Levenson et al. Advancing precision medicine: algebraic topology and differential geometry in radiology and computational pathology
KR20200059182A (en) Method for assisting in generation of pathology report from pathology image and apparatus using the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant