KR102390347B1 - Method for assisting in generation of pathology report from pathology image and apparatus using the same - Google Patents
Method for assisting in generation of pathology report from pathology image and apparatus using the same Download PDFInfo
- Publication number
- KR102390347B1 KR102390347B1 KR1020190168010A KR20190168010A KR102390347B1 KR 102390347 B1 KR102390347 B1 KR 102390347B1 KR 1020190168010 A KR1020190168010 A KR 1020190168010A KR 20190168010 A KR20190168010 A KR 20190168010A KR 102390347 B1 KR102390347 B1 KR 102390347B1
- Authority
- KR
- South Korea
- Prior art keywords
- anatomical object
- lesion
- pathology
- computing device
- predetermined lesion
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H15/00—ICT specially adapted for medical reports, e.g. generation or transmission thereof
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Epidemiology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
본 개시서에는 병리 영상으로부터 병리 보고서의 생성을 보조하는 방법 및 이를 이용한 컴퓨팅 장치가 개시된다. 구체적으로, 본 발명에 따른 방법에 의하면, 컴퓨팅 장치가, 판독 대상인 병리 영상을 획득하고, 상기 병리 영상에 포함된 소정 병변을 판정하도록 구성된 제1 판단부를 통하여 상기 병리 영상으로부터 상기 소정 병변의 구획을 산출하는 한편, 상기 병리 영상에 포함된 해부학적 객체를 판정하도록 구성된 제2 판단부를 통하여 상기 병리 영상으로부터 상기 해부학적 객체의 구획을 산출하며, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하고, 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공한다.Disclosed herein are a method of assisting in generation of a pathology report from a pathology image and a computing device using the same. Specifically, according to the method according to the present invention, a computing device acquires a pathological image to be read, and divides the predetermined lesion from the pathological image through a first determination unit configured to determine a predetermined lesion included in the pathological image On the other hand, the division of the anatomical object is calculated from the pathological image through a second determination unit configured to determine the anatomical object included in the pathological image, and includes between the division of the predetermined lesion and the division of the anatomical object. Analysis of the pathology report for the given lesion by reflecting at least one of a relationship, a dimension of a section of the given lesion, a number of sections of the given lesion, a dimension of a section of the anatomical object, and a number of sections of the anatomical object A result is generated, and the result of the analysis of the generated pathology report is provided to an external entity.
Description
본 개시서에는 병리 영상으로부터 병리 보고서의 생성을 보조하는 방법 및 이를 이용한 컴퓨팅 장치가 개시된다. 구체적으로, 본 발명에 따른 방법에 의하면, 컴퓨팅 장치가, 판독 대상인 병리 영상을 획득하고, 상기 병리 영상에 포함된 소정 병변을 판정하도록 구성된 제1 판단부를 통하여 상기 병리 영상으로부터 상기 소정 병변의 구획을 산출하는 한편, 상기 병리 영상에 포함된 해부학적 객체를 판정하도록 구성된 제2 판단부를 통하여 상기 병리 영상으로부터 상기 해부학적 객체의 구획을 산출하며, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하고, 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공한다.Disclosed herein are a method of assisting in generation of a pathology report from a pathology image and a computing device using the same. Specifically, according to the method according to the present invention, a computing device acquires a pathological image to be read, and divides the predetermined lesion from the pathological image through a first determination unit configured to determine a predetermined lesion included in the pathological image On the other hand, the division of the anatomical object is calculated from the pathological image through a second determination unit configured to determine the anatomical object included in the pathological image, and includes between the division of the predetermined lesion and the division of the anatomical object. Analysis of the pathology report for the given lesion by reflecting at least one of a relationship, a dimension of a section of the given lesion, a number of sections of the given lesion, a dimension of a section of the anatomical object, and a number of sections of the anatomical object A result is generated, and the result of the analysis of the generated pathology report is provided to an external entity.
세포, 조직을 포함하는 신체 장기의 절편을 올린 전체 슬라이드 이미지(whole slide image) 혹은 현미경을 통한 병리학적 진단은 환자에 대한 치료 방법의 결정과 예후의 예측에 있어 결정적인 역할을 한다. 이러한 진단은 주로 조직과 세포의 형태를 고려하여 이루어진다. 이 병리학적 진단은 동일 국가 내의 의료인들 사이에서뿐만 아니라 국가 간에도 차이가 있을 정도로 난이도가 높은 문제 중의 하나이다. 세부적인 진단은 다양한 암종 및 클래스(class)로 나뉘는데, 샘플 간 특징의 편차가 크기 때문에 진단에 참고할 만한 대상 영상을 찾는 것은 매우 난이도가 높은 일이다. 이 진단의 난이도는 병리학자의 경험과 직감에 크게 좌우되는데, 실제 임상에서는 경험이 많은 병리학자도 혼자서 진단을 내리기 모호한 경우가 빈번하다. 이는 의사 간 진단의 불일치와 자문, 재판독 등 의료 서비스의 낭비를 발생하게 하는 주요 원인 중의 하나이다.Pathological diagnosis through a microscope or a whole slide image of a section of a body organ including cells and tissues plays a decisive role in determining a treatment method for a patient and predicting the prognosis. These diagnoses are mainly made by considering the types of tissues and cells. Diagnosis of this pathology is one of the problems with a high degree of difficulty to the extent that there are differences between countries as well as among medical personnel within the same country. Detailed diagnosis is divided into various carcinomas and classes, and since there is a large variation in characteristics between samples, it is very difficult to find a target image that can be used as a reference for diagnosis. The difficulty of this diagnosis largely depends on the experience and intuition of the pathologist, and in actual clinical practice, it is often ambiguous for even an experienced pathologist to make a diagnosis alone. This is one of the main causes of inconsistency in diagnosis among doctors and waste of medical services such as consultation and re-reading.
병리학적 진단 중 병변, 특히 암의 진단에 있어, 암 세포가 퍼진 정도를 확인하는 것은 향후 치료 계획의 설정에 있어 하나의 중요한 지표가 된다. 이를 암의 병기라고 부르며, 이러한 병기를 결정하는 데에는 일반적으로 TNM법을 이용한다. TNM에서 T(tumor; 종양)는 원발기관에서 원발종양의 크기와 침윤정도를, N(node; 림프절)은 원발종양에서 주위 림프절로 얼마나 퍼졌는지를, M(metastasis; 전이)은 몸의 다른 장기로 암이 퍼졌는지 여부를 의미한다. TNM법에 의한 암의 상태가 결정이 되면 1기, 2기, 3기, 4기로 진행단계를 간단히 요약일 수 있는데, 일반적으로는 치료 결과의 개념을 포함하여 조기암, 진행암, 말기암이란 분류도 사용한다.In pathological diagnosis of lesions, particularly cancer, determining the extent to which cancer cells have spread is an important indicator in setting future treatment plans. This is called the stage of cancer, and the TNM method is generally used to determine this stage. In TNM, T (tumor) is the size and invasion of the primary tumor in the primary organ, N (node; lymph node) is how far it has spread from the primary tumor to the surrounding lymph nodes, and M (metastasis; metastasis) is other organs in the body. indicates whether the cancer has spread. When the cancer status is determined by the TNM method, the stages of progression to stage 1, 2, 3, and 4 can be simply summarized. Classification is also used.
이와 같이 TNM법을 이용한 병기의 계산에는 암을 포함하는 림프절의 개수를 산출하는 일이 필요하다. 림프절에서 암을 확인하고 림프절을 계수하는 작업에는 많은 시간이 소요되며, 일반적으로 판독자 간에도 일치도가 높지 않다는 문제점이 있다.In this way, in calculating the stage using the TNM method, it is necessary to calculate the number of lymph nodes containing cancer. Identifying cancer in lymph nodes and counting lymph nodes takes a lot of time, and generally there is a problem that there is not high agreement among readers.
이에 따라 본 개시서에서는 인공지능 기술로써 림프절 슬라이스 영상과 같은 병리 영상의 국소 영역에 대하여 암과 같은 소정 병변의 여부를 판정할 수 있도록 구성된 제1 판단부, 예컨대, 학습된 제1 심층 신경망 모듈과, 병리 영상에서 림프절과 같은 해부학적 객체를 찾아내어 해부학적 객체의 영역과 개수를 도출할 수 있는 제2 판단부, 예컨대, 제2 심층 신경망 모듈을 이용하여 병리 영상으로부터 소정 병변에 해당하는 해부학적 객체의 개수와 소정 병변에 해당하지 않는 해부학적 객체의 개수를 산출하고, 이를 통하여 병리 보고서의 작성을 보조할 수 있게 하는 방법을 제안하고자 한다. Accordingly, in the present disclosure, a first determination unit, for example, a learned first deep neural network module, configured to determine whether a predetermined lesion is present, such as cancer, with respect to a local area of a pathological image such as a lymph node slice image with artificial intelligence technology; , a second determination unit capable of deriving the area and number of anatomical objects by finding anatomical objects such as lymph nodes in the pathological image, for example, using a second deep neural network module, anatomically corresponding to a predetermined lesion from the pathological image. The present invention proposes a method of calculating the number of objects and the number of anatomical objects that do not correspond to a predetermined lesion, and thereby assisting in the preparation of a pathology report.
본 발명은 종래 방식의 병변 여부 판정 방식보다 더 편리하고 효율적으로 병기를 계산하는 등 병리 보고서의 작성을 보조할 수 있게 하는 것을 목적으로 한다.An object of the present invention is to make it possible to assist in the preparation of a pathology report, such as calculating the stage more conveniently and efficiently than the conventional method for determining whether a lesion exists.
또한, 본 발명은 병변에 의하여 해부학적 객체의 형태가 변형되어 해부학적 객체를 검출하는 알고리즘의 성능 한계를 극복하기 위한 방안으로서, 자동으로 산출된 해부학적 객체의 구획에 대하여 사용자가 그 구획을 수정할 수 있도록 하는 사용자 인터페이스도 제공하는 것을 목적으로 한다.In addition, the present invention is a method for overcoming the performance limitation of an algorithm for detecting an anatomical object by deforming the shape of an anatomical object due to a lesion. It is also intended to provide a user interface that allows
구체적으로, 본 발명은 병리 영상에 근거하여 정확하게 병기를 계산함으로서 환자에 대한 적절한 치료에 기여하는 것을 목적으로 한다.Specifically, an object of the present invention is to contribute to an appropriate treatment for a patient by accurately calculating a stage based on a pathological image.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic configuration of the present invention for achieving the object of the present invention as described above and for realizing the characteristic effects of the present invention to be described later is as follows.
본 발명의 일 태양에 따르면, 병리 영상으로부터 병리 보고서의 생성을 보조하는 방법이 제공되는바, 그 방법은, (a) 컴퓨팅 장치가, 판독 대상인 병리 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 상기 병리 영상을 획득하도록 지원하는 단계; (b) 상기 컴퓨팅 장치가, (i) 상기 병리 영상으로부터 소정 병변을 구획하는 프로세스; 및 (ii) 상기 병리 영상으로부터 해부학적 객체를 구획하는 프로세스를 수행하거나 상기 타 장치로 하여금 수행하도록 지원하는 단계; (c) 상기 컴퓨팅 장치가, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 단계; 및 (d) 상기 컴퓨팅 장치가, 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계를 포함한다.According to one aspect of the present invention, there is provided a method of assisting in generation of a pathology report from a pathology image, the method comprising: (a) a computing device acquiring a pathology image to be read or another device interworking with the computing device assisting to acquire the pathological image; (b), by the computing device, (i) a process of segmenting a predetermined lesion from the pathological image; and (ii) performing a process of segmenting an anatomical object from the pathological image or supporting the other device to perform; (c) in the computing device, an inclusion relationship between a partition of the predetermined lesion and a partition of the anatomical object, a dimension of a partition of the predetermined lesion, the number of partitions of the predetermined lesion, a dimension of a partition of the anatomical object, and the generating an analysis result of a pathology report on the predetermined lesion by reflecting at least one of the number of sections of an anatomical object or supporting the other device to generate; and (d) providing, by the computing device, the generated pathology report analysis result to an external entity or supporting the other device to provide it.
본 발명의 다른 태양에 따르면, 본 발명에 따른 방법을 수행하도록 구현된 인스트럭션들(instructions)을 포함하는 컴퓨터 프로그램도 제공된다.According to another aspect of the present invention, there is also provided a computer program comprising instructions embodied for performing a method according to the present invention.
본 발명의 또 다른 태양에 따르면, 병리 영상으로부터 병리 보고서의 생성을 보조하는 컴퓨팅 장치가 제공되는바, 그 컴퓨팅 장치는, 판독 대상인 병리 영상을 획득하는 통신부; 및 (A) 상기 병리 영상으로부터 소정 병변을 구획하는 프로세스; 및 (B) 상기 병리 영상으로부터 해부학적 객체를 구획하는 프로세스를 수행하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 수행하도록 지원하는 프로세서를 포함하고, 상기 프로세서는, (i) 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하는 프로세스, 및 (ii) 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공하는 프로세스를 수행하거나 상기 타 장치로 하여금 수행하도록 지원한다.According to another aspect of the present invention, there is provided a computing device that assists in generating a pathology report from a pathology image, the computing device comprising: a communication unit configured to acquire a pathology image to be read; and (A) a process of segmenting a predetermined lesion from the pathology image; and (B) a processor that performs a process of segmenting an anatomical object from the pathological image or supports another device interlocked through the communication unit to perform, wherein the processor comprises: (i) segmentation of the predetermined lesion; By reflecting at least one of the inclusion relationship between the compartments of the anatomical object, the dimensions of the compartments of the predetermined lesion, the number of compartments of the predetermined lesion, the dimensions of the compartments of the anatomical object, and the number of compartments of the anatomical object. A process of generating an analysis result of a pathology report for a predetermined lesion, and (ii) a process of providing the generated pathology report analysis result to an external entity are performed or supported by the other device to perform.
*본 개시서의 예시적인 실시 예에 따르면, 종래에 판독자, 예컨대, 의료 전문가들 사이에서도 불일치가 있었던 림프절의 계수와 같은 해부학적 객체의 계수에 관한 일정한 기준을 제시할 수 있어, 판독자 간의 불일치도를 낮출 수 있는 효과가 있다.*According to an exemplary embodiment of the present disclosure, it is possible to present certain criteria regarding counts of anatomical objects, such as counts of lymph nodes, which have conventionally been inconsistent even among readers, for example, medical professionals, so that the degree of discrepancy between readers has the effect of lowering
따라서 예시적인 실시 예에 의하면, 단순히 해부학적 객체에 대한 진단을 용이하게 할 뿐만 아니라 소정 병변의 영역과 해부학적 객체의 영역을 표시하여 데이터화하는 작업을 촉진할 수 있는바, 의료 관련 인공지능 기술의 발전에 양의 피드백으로서 이바지할 수 있는 효과가 있다.Therefore, according to an exemplary embodiment, it is possible to not only easily diagnose an anatomical object, but also to display the area of a predetermined lesion and the area of an anatomical object to facilitate the data conversion. There is an effect that can contribute as positive feedback to development.
따라서, 특정한 질환을 진단하기 위한 의료진의 시간이 절약되며, 더 많은 환자에 대한 안전이 확보될 수 있는 효과가 있다.Accordingly, the time of medical staff for diagnosing a specific disease is saved, and safety for more patients can be secured.
이와 같은 본 발명의 실시 예에 따른 효과는 특정 형식(modality)의 병리 영상뿐만 아니라 널리 다양한 형식의 2차원 영상 또는 3차원 영상들에 적용될 수 있는바, 본 발명의 방법이 특정 형식이나 플랫폼에 종속되지 않음은 물론이다.Such an effect according to an embodiment of the present invention can be applied not only to pathological images of a specific modality but also to 2D or 3D images of various types, so that the method of the present invention is dependent on a specific format or platform. of course it won't.
본 발명의 실시 예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시 예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 사람(이하 "통상의 기술자"라 함)에게 있어서는 신규한 발명에 이르는 노력 없이도 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명의 일 실시 예에 따라 병리 영상으로부터 병리 보고서의 생성을 보조하는 방법(이하 "병리 보고서 생성 보조 방법"이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 2는 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.
도 3은 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 예시적으로 나타낸 흐름도이다.
도 4는 본 발명에 따른 병리 보고서 생성 보조 방법의 제1 판단부 및 제2 판단부에서 이용될 수 있는 심층 신경망의 예로서 특정 심층 신경망 아키텍처를 개념적으로 나타낸 도면이다.
도 5a 및 도 5b는 각각 본 발명의 병리 보고서 생성 보조 방법의 실시 예들에 따라 제공되는 사용자 인터페이스 요소를 예시적으로 나타낸 개념도이다.The accompanying drawings for use in the description of the embodiments of the present invention are only a part of the embodiments of the present invention, and for those of ordinary skill in the art (hereinafter referred to as "those of ordinary skill") to which the present invention pertains, Other drawings may be obtained based on these drawings without an effort to arrive at a novel invention.
1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device performing a method of assisting in generation of a pathology report from a pathology image (hereinafter referred to as a “pathology report generation assistance method”) according to an embodiment of the present invention. .
2 is a conceptual diagram exemplarily illustrating a hardware and software architecture of a computing device performing a pathology report generation assistance method according to an embodiment of the present invention.
3 is a flowchart exemplarily illustrating a pathology report generation assistance method according to an embodiment of the present invention.
4 is a diagram conceptually illustrating a specific deep neural network architecture as an example of a deep neural network that can be used in the first and second judgment units of the pathology report generation assistance method according to the present invention.
5A and 5B are conceptual views exemplarily illustrating user interface elements provided according to embodiments of the method for assisting pathology report generation according to the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description of the present invention refers to the accompanying drawings, which show by way of illustration a specific embodiment in which the present invention may be practiced, in order to clarify the objects, technical solutions and advantages of the present invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. In the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.
실시 예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시 예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to the specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected to” another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, but one or more other features, number, step , it should be understood that it does not preclude the possibility of the existence or addition of an operation, a component, a part, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not
본 발명의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상", "이미지", "영상 데이터" 또는 "이미지 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭하며, 달리 말하자면, (예컨대, 비디오 화면에 표시된) 눈으로 볼 수 있는 대상 또는 (예컨대, 픽셀 혹은 복셀 출력에 대응되는 파일과 같은) 그 대상의 디지털 표현물을 지칭하는 용어이다.The term "image", "image", "image data" or "image data" as used throughout the present description and claims refers to discrete image elements (eg, pixels in a two-dimensional image, a three-dimensional image refers to multidimensional data composed of voxels), in other words a visible object (eg displayed on a video screen) or a digital representation of that object (eg, a file corresponding to a pixel or voxel output). It is a term that refers to
예를 들어 "영상"은 현미경 영상의 촬영과 같이 본 발명의 기술분야에서 공지된 임의의 영상 촬영 방식에 따라 수집된 피검체(subject)의 영상일 수 있다. 그러나 그 영상이 반드시 의료적 맥락에서 제공되어야 하는 것은 아니다.For example, "image" may be an image of a subject collected according to any imaging method known in the art, such as taking a microscope image. However, the image does not necessarily have to be presented in a medical context.
설명의 편의를 위하여 예시적인 일부의 영상 형식(modality)을 가정할 수 있으나 통상의 기술자는 본 발명의 다양한 실시 예에서 이용되는 영상 형식들이 현미경 촬영 영상에만 한정되지 않는다는 점을 이해할 수 있을 것이다.For convenience of description, some exemplary image modality may be assumed, but a person skilled in the art will understand that the image formats used in various embodiments of the present invention are not limited to microscopic images.
또한, 본 개시서의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다.In addition, throughout the detailed description and claims of the present disclosure, 'learning' or 'learning' is a term referring to performing machine learning through computing according to a procedure, It will be understood by those of ordinary skill in the art that it is not intended to refer to an action.
본 개시서에서 언급되는 사용자는 단수만을 지칭하는 것이 아니라 영상, 특히 병리 영상 및 그 관련 데이터를 풍부하고 중첩적으로 획득하기 위한 목적의 복수 사용자를 지칭할 수도 있는바, 이에는 영상의 훈련(학습) 또는 실제 사용에 있어서 영상의 무결성(integrity)을 확보하기 위한 목적이 있을 수 있다.A user referred to in this disclosure does not refer to a singular, but may refer to a plurality of users for the purpose of acquiring images, particularly pathological images and related data, abundantly and superimposed, which includes training (learning) of images. ) or for the purpose of securing the integrity of the image in actual use.
더욱이 본 발명은 본 명세서에 표시된 실시 예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. Moreover, the invention encompasses all possible combinations of the embodiments indicated herein. It should be understood that various embodiments of the present invention are different but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it should be understood that the position or arrangement of individual components in each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description set forth below is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scope equivalents as those claimed. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects.
본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In this specification, unless indicated otherwise or clearly contradicted by context, items referred to in the singular encompass the plural unless the context requires otherwise. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.
이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시 예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, in order to enable those skilled in the art to easily practice the present invention, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device performing a pathology report generation assistance method according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.Referring to FIG. 1 , a
구체적으로, 상기 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터, 프로세서, 메모리, 스토리지(storage), 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다. 상기 스토리지는 하드 디스크, USB(universal serial bus) 메모리와 같은 기억 장치뿐만 아니라 클라우드 서버와 같은 네트워크 연결 기반의 저장 장치의 형태를 포함할 수 있다.Specifically, the
이와 같은 컴퓨팅 장치의 통신부(110)는 연동되는 타 컴퓨팅 장치와의 사이에서 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는 바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다.The
구체적으로, 통신부(110)는 통신 인터페이스를 포함하는 통신 모듈의 형태로 구현될 수 있다. 이를테면, 통신 인터페이스는 WLAN(wireless LAN), WiFi(wireless fidelity) Direct, DLNA(digital living network alliance), Wibro(wireless broadband), Wimax(world interoperability for microwave access), HSDPA(high speed downlink packet access) 등의 무선 인터넷 인터페이스와 블루투스(Bluetooth™), RFID(radio frequency identification), 적외선 통신(infrared data association; IrDA), UWB(ultra-wideband), ZigBee, NFC(near field communication) 등의 근거리 통신 인터페이스를 포함할 수 있다. 뿐만 아니라, 통신 인터페이스는 외부와 통신을 수행할 수 있는 모든 인터페이스(예를 들어, 유선 인터페이스)를 나타낼 수 있다.Specifically, the
예를 들어, 통신부(110)는 이와 같이 적합한 통신 인터페이스를 통해 외부 장치로부터 판독 대상인 병리 영상 등을 획득할 수 있다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력 장치, 인쇄 장치, 디스플레이, 기타 외부 출력 장치를 포함하거나 이들과 연동될 수 있다.For example, the
또한, 컴퓨팅 장치의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit), NPU(neural processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the
도 2는 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.2 is a conceptual diagram exemplarily illustrating a hardware and software architecture of a computing device performing a pathology report generation assistance method according to an embodiment of the present invention.
도 2를 참조하여 본 발명에 따른 방법 및 장치의 구성을 간략히 개관하면, 컴퓨팅 장치(100)는 그 구성요소로서 영상 획득 모듈(210)을 포함할 수 있다. 이 영상 획득 모듈(210)은 본 발명에 따른 방법이 적용되는 병리 영상을 획득하도록 구성된다. 상기 영상은, 예를 들어, 통신부(110)를 통하여 연동되는 타 영상 촬영 장치(미도시)로부터 획득되는 것일 수 있다. A brief overview of the configuration of the method and apparatus according to the present invention with reference to FIG. 2 , the
획득된 영상의 일부 또는 전부는 병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230)에 각기 전달될 수 있다. 일 실시 예로서, 병변 영역 구획 모듈(220)은 소정의 인스트럭션들을 실행하는 프로세서에 의해 구현될 수 있다. 구체적으로, 병변 영역 구획 모듈(220)은 상기 병리 영상으로부터 소정 병변을 구획하도록 구성된 제1 판단부(혹은 병변 판정 모듈), 예컨대, 훈련된 제1 심층 신경망 모듈을 포함할 수 있다. 이 실시 예와 양립 가능한 다른 실시 예로서, 해부학적 객체 영역 구획 모듈(230)은 소정의 인스트럭션들을 실행하는 프로세서에 의해 구현될 수 있다. 구체적으로, 해부학적 객체 영역 구획 모듈(230)은 상기 병리 영상으로부터 해부학적 객체를 구획하도록 구성된 제2 판단부(혹은 해부학적 객체 판정 모듈), 예컨대, 훈련된 제2 심층 신경망 모듈을 포함할 수 있다. 앞서 설명된 병변 영역 구획 모듈(220)과 해부학적 객체 영역 구획 모듈(230)을 구현하는 프로세서에 관한 설명은 도 1과 함께 기재된 프로세서(120)에 대한 설명이 그대로 적용될 수 있으므로, 중복되는 설명은 생략하기로 한다.Part or all of the acquired image may be transmitted to the lesion
예시적으로 제1 심층 신경망 모듈 및 제2 심층 신경망 모듈 각각은 심층 신경망 모델뿐만 아니라 이를 이용하여 특징값(feature value; feature vector)을 생성하는 특징값 층 및 특징값을 통하여 영상을 픽셀 또는 복셀 단위로 분류하는 분류기를 포함할 수 있다. 특징값 층은, 전형적으로, 전결합층(fully-connected layer)일 수 있다. 병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230)에 의한 병리 영상에 대한 구획은 상세히 후술하기로 한다. 또한, 병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230)에 포함되는 제1 심층 신경망 모듈 및 제2 심층 신경망 모듈에 대한 설명은 이해를 돕기 위한 예시적 기재일 뿐, 다른 실시 예를 제한하거나 한정하는 것으로 해석되어서는 안될 것이다.Illustratively, each of the first deep neural network module and the second deep neural network module converts an image into a pixel or voxel unit through a feature value layer and feature values that generate a feature value (feature vector) by using the deep neural network model as well as the deep neural network model. It may include a classifier that classifies as The feature layer may typically be a fully-connected layer. The segmentation of the pathological image by the lesion
병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230) 중 적어도 하나는 사용자 인터페이스 모듈(240)과 연동될 수 있는데, 이는 병변 영역 구획 모듈(220)의 경우 제1 판단부에 의한 잘못된 소정 병변의 구획 산출을 바로잡기 위한 것인 한편, 해부학적 객체 영역 구획 모듈(230)의 경우 제2 판단부에 의한 잘못된 해부학적 객체의 구획 산출을 바로잡기 위한 것이다. 사용자 인터페이스 모듈(240)은 사용자에게 소정의 사용자 인터페이스 요소들을 제공함으로써 사용자로 하여금 병변 영역 구획 모듈(220) 및/또는 해부학적 객체 영역 구획 모듈(230)의 오류를 바로잡을 수 있도록 지원하는 기능을 할 수 있다. 소정의 사용자 인터페이스 모듈(240)에 의하여 제공될 수 있는 사용자 인터페이스는 도 5a 및 도 5b를 참조하여 후술하기로 한다.At least one of the lesion
다음으로, 병변 영역 구획 모듈(220)에 의하여 산출된 소정 병변의 구획 및 해부학적 객체 영역 구획 모듈(230)에 의하여 산출된 해부학적 객체의 구획을 반영하여 병리 보고서 생성 모듈(250)은 그 소정 병변에 관한 병리 보고서의 분석 결과를 생성할 수 있다. 예를 들어, 병변이 암에 해당하고, 해부학적 객체가 림프절인 경우, 림프절의 개수 및 암으로 판정된 림프절의 개수를 이용하여 암의 병기가 결정될 수 있으며, 상기 병리 보고서의 분석 결과에는 그러한 림프절의 개수, 암으로 판정된 림프절의 개수, 그렇지 않은 림프절의 개수, 그 사이의 비율 및 이를 토대로 한 암의 병기에 관한 정보가 포함되도록 생성될 수 있다.Next, the pathology
생성된 병리 보고서의 분석 결과는 출력 모듈(260)에 의하여 외부 엔티티(external entity)에 제공될 수 있는데, 이를 위하여 출력 모듈(260)은 디스플레이 장치(미도시)를 포함할 수 있다. 여기에서 외부 엔티티라고 함은, 상기 컴퓨팅 장치(100)의 사용자, 관리자 등을 포함하나, 이 이외에도 그 병리 보고서의 분석 결과를 필요로 하는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다. 외부 엔티티는 상기 정보를 이용하는 인공지능 주체(artificial intelligence entity)일 수도 있으며, 그 정보를 저장하기 위한 저장 장치일 수도 있다. 외부 엔티티가 인간인 때에는 출력 모듈(260)은 소정의 출력 장치, 예컨대 디스플레이에 표시된 사용자 인터페이스를 통하여 예측 결과를 외부 엔티티에 제공할 수 있다.The analysis result of the generated pathology report may be provided to an external entity by the
일 실시 예에서는 도 2에 도시된 구성요소 외에 갱신 모듈 및 학습 모듈(270; 미도시)이 더 포함될 수 있는데, 이 갱신 모듈 및 학습 모듈은 사용자에 의한 수정 등 조작에 기초하여, 제1 판단부 및 제2 판단부 중 적어도 하나를 갱신하는 기능을 한다.In one embodiment, an update module and a learning module 270 (not shown) may be further included in addition to the components shown in FIG. 2 , and the update module and the learning module are based on a manipulation such as modification by the user, the first determination unit and updating at least one of the second determination unit.
이와 같이 도 2에 도시된 모듈들은, 예컨대, 컴퓨팅 장치(100)에 포함된 통신부(110)나 프로세서(120), 또는 상기 통신부(110) 및 프로세서(120)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이며, 아래에서 그 기능 및 효과 등에 관하여 더 상세하게 설명될 것이다.As such, the modules shown in FIG. 2 may be implemented by, for example, the
이제 본 발명에 따른 병리 보고서 생성 보조 방법을 도 3을 참조하여 구체적으로 설명하기로 한다. 도 3은 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 예시적으로 나타낸 흐름도이다.A method of assisting pathology report generation according to the present invention will now be described in detail with reference to FIG. 3 . 3 is a flowchart exemplarily illustrating a pathology report generation assistance method according to an embodiment of the present invention.
도 3을 참조하면, 본 발명에 따른 병리 보고서 생성 보조 방법은, 우선, 컴퓨팅 장치(100)의 통신부(110)에 의하여 구현되는 영상 획득 모듈(210)이, 판독 대상인 병리 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치(미도시)로 하여금 상기 병리 영상을 획득하도록 지원하는 단계(S100)를 포함한다. Referring to FIG. 3 , in the pathology report generation assistance method according to the present invention, first, the
다음으로, 본 발명에 따른 병리 보고서 생성 보조 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 병변 영역 구획 모듈(220)이 상기 병리 영상으로부터 소정 병변을 구획하거나 상기 타 장치로 하여금 상기 소정 병변을 구획하도록 지원하는 프로세스(S200a; 미도시) 및 컴퓨팅 장치(100)에 의하여 구현되는 해부학적 객체 영역 구획 모듈(230)이 상기 병리 영상으로부터 해부학적 객체를 구획하거나 상기 타 장치로 하여금 상기 해부학적 객체를 구획하도록 지원하는 프로세스(S200b; 미도시)를 수행하는 단계(S200)를 더 포함한다.Next, in the pathology report generation assistance method according to the present invention, the lesion
구체적으로, 프로세스(S200a)에서는 상기 병리 영상에 포함된 상기 소정 병변을 판정하도록 구성된 제1 판단부를 통하여 상기 병리 영상으로부터 상기 소정 병변의 구획이 산출될 수 있다. 또한, 구체적으로, 프로세스(S200b)에서는 상기 병리 영상에 포함된 상기 해부학적 객체를 판정하도록 구성된 제2 판단부를 통하여 상기 병리 영상으로부터 상기 해부학적 객체의 구획이 산출될 수 있다.Specifically, in the process S200a, the division of the predetermined lesion may be calculated from the pathological image through the first determination unit configured to determine the predetermined lesion included in the pathological image. Also, specifically, in the process S200b, the division of the anatomical object may be calculated from the pathological image through the second determination unit configured to determine the anatomical object included in the pathological image.
도 4는 본 발명에 따른 병리 보고서 생성 보조 방법의 제1 판단부 및 제2 판단부에서 이용될 수 있는 심층 신경망의 예로서 특정 심층 신경망 아키텍처를 개념적으로 나타낸 도면이다.4 is a diagram conceptually illustrating a specific deep neural network architecture as an example of a deep neural network that can be used in the first and second decision units of the pathology report generation assistance method according to the present invention.
본 발명에서 소정 병변 및 해부학적 객체 중 적어도 하나를 구획하는 데 심층 신경망이 이용될 수 있는데, 심층 신경망은 이를 이루는 층의 수가 많으면 많을수록 그 효과가 뛰어나다는 점은 통상의 기술자에게 알려진 바와 같다. 다만 종래에 인공 신경망에 기울기 소실 문제(vanishing gradient problem)로 인하여 역전파 수행시에 모델의 가중치가 제대로 반영되지 못하는 단점이 있었는데, 근래 나온 이에 대한 해법은 그 기울기를 보존할 수 있도록 심층 신경망을 구성하는 방안이다.In the present invention, a deep neural network may be used to partition at least one of a predetermined lesion and an anatomical object, and it is known to those skilled in the art that the effect of the deep neural network increases as the number of layers forming the deep neural network increases. However, due to the vanishing gradient problem in the conventional artificial neural network, the model weights were not properly reflected when performing backpropagation. is a way to
특히, 도 4에 예시된 심층 신경망 아키텍처는 Inception V3이라고 통칭하는 합성곱 인공 신경망(convolutional artificial neural network; CNN)이다. 벡터로 표현된 특징값{즉, 특징 벡터(feature vector)}은, 도시된 예시에서와 같이 8x8x2048를 이용하거나, 8x8 크기의 영역에 대하여 평균을 취하는 전역 평균 풀링(GAP; global average pooling) 등을 이용하여 2048 차원의 벡터를 이용할 수 있다. 이와 같은 심층 신경망 모델은 입력되는 영상 패치(영상 조각)에 대하여 다양한 분류를 수행하는 문제를 해결하도록 훈련된다.In particular, the deep neural network architecture illustrated in FIG. 4 is a convolutional artificial neural network (CNN) commonly referred to as Inception V3. A feature value expressed as a vector {i.e., a feature vector} uses 8x8x2048 as in the illustrated example, or global average pooling (GAP) that takes an average over an 8x8 sized area. 2048 dimensional vector can be used. Such a deep neural network model is trained to solve the problem of performing various classifications on input image patches (image fragments).
예를 들어, 입력된 영상에서 어떤 특정 속성을 가진 영역을 구획하는 것은 그 구획에 속하는 픽셀 또는 복셀들을 "{포함됨, 포함되지 않음}" 중 어느 하나의 클래스로 분류하는 것이라 할 수 있다. For example, partitioning a region having a specific property in an input image may be classified as one of "{included, not included}" class of pixels or voxels belonging to the partition.
따라서, 암과 같은 병변을 검출하기 위한 심층 신경망 모델은 병변에 해당하는 픽셀 또는 복셀들을 그렇지 않은 픽셀 또는 복셀들과 구분 및 분류하도록 학습되고, 림프절과 같은 해부학적 객체를 검출하기 위한 심층 신경망 모델은 해부학적 객체에 해당하는 픽셀 또는 복셀들을 그렇지 않은 픽셀 또는 복셀들과 구분 및 분류하도록 학습될 수 있다. 이 경우, 검출된 림프절 구획은 픽셀 또는 복셀간의 연관성(pixel connectivity or voxel connectivity) 등을 이용하여 그 개수를 정할 수도 있을 것이다.Therefore, the deep neural network model for detecting a lesion such as cancer is trained to distinguish and classify pixels or voxels corresponding to the lesion from pixels or voxels that do not, and the deep neural network model for detecting an anatomical object such as lymph nodes is It may be learned to distinguish and classify pixels or voxels corresponding to anatomical objects from pixels or voxels that do not. In this case, the number of detected lymph node divisions may be determined using pixel or voxel connectivity or the like.
다만, 통상의 기술자는 이와 같은 Inception V3 외에도 훈련용 데이터, 즉 병리 영상 및 이에 대응되는 레이블링 데이터, 즉 구획에 관한 정보를 이용한 훈련을 통하여 입력되는 영상에 대한 분류, 즉 구획을 수행할 수 있는 다양한 종류의 심층 신경망 알고리즘이 있을 수 있으며, 도 4에 예시된 특정된 구조의 심층 신경망에 한정되지 않음을 이해할 수 있을 것이다. 예컨대, U-Net 유사 구조를 이용하는 등의 타 방법이 존재한다.However, in addition to Inception V3, a person of ordinary skill in the art can classify an image input through training using training data, that is, a pathological image and corresponding labeling data, that is, information about the partition, that is, a variety of methods that can perform partitioning. It will be appreciated that there may be many kinds of deep neural network algorithms, and are not limited to the deep neural network of the specific structure illustrated in FIG. 4 . For example, there are other methods such as using a U-Net-like structure.
한편, 병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230) 각각이 제1 심층 신경망 모듈 및 제2 심층 신경망 모듈을 이용하는 때에, 이들 심층 신경망 모듈에 의한 잘못된 구획 산출의 오류가 있을 수 있는바, 이를 바로잡을 필요가 있다. On the other hand, when the lesion
오류를 바로잡을 필요뿐만 아니라 사용자에 의한 구획이 직접 이루어지도록 구성할 필요도 있으므로, 이를 위하여, 단계(S200)의 일 실시 예에서는, 컴퓨팅 장치(100)가, 프로세스(S200a)에서의 소정 병변의 구획 및 프로세스(S200b)에서의 해부학적 객체의 구획 중 적어도 하나에 대한 사용자의 입력, 변경 및 삭제 중 적어도 하나를 지원하기 위한 사용자 인터페이스 요소들을 제공하거나 상기 타 장치로 하여금 제공하도록 지원하고, 그 사용자 인터페이스 요소에 대한 조작에 응하여, 상기 소정 병변의 구획 및 상기 해부학적 객체의 구획 중 적어도 하나를 입력, 변경 또는 삭제하거나 상기 타 장치로 하여금 입력, 변경 또는 삭제하도록 지원할 수 있다.In addition to the need to correct the error, it is also necessary to configure the division by the user directly. For this purpose, in an embodiment of step S200 , the
도 5a 및 도 5b는 각각 본 발명의 병리 보고서 생성 보조 방법의 실시 예들에 따라 제공되는 사용자 인터페이스 요소를 예시적으로 나타낸 개념도이다. 도 5a 및 도 5b에는 암이 소정 병변의 일 예시로서, 림프절이 해부학적 객체의 일 예시로서 도시되어 있다.5A and 5B are conceptual diagrams exemplarily illustrating user interface elements provided according to embodiments of the method for assisting pathology report generation according to the present invention. 5A and 5B illustrate cancer as an example of a predetermined lesion, and lymph nodes as an example of an anatomical object.
도 5a를 참조하면, 림프절 슬라이스 영상(510), 병변 영역 구획 모듈의 산출 결과(520), 해부학적 객체 영역 구획 모듈의 산출 결과(530) 등이 예시되어 있고, 림프절(540, 550)과 림프절이 아닌 객체(560)가 각각 도시되어 있다. 병변 영역 구획 모듈의 산출 결과(520), 림프절(540)에는 암 영역(540a)이 표시되어 있으며, 해부학적 객체 영역 구획 모듈의 산출 결과(530), 림프절(540)과 림프절(550) 각각에 그 각각이 림프절에 해당함을 보이는 구획들(540b, 550b)이 표시되어 있다.Referring to FIG. 5A , a lymph
도 5b를 참조하면, 림프절 영역(540b, 550b)은 정상적으로 구획된 것이지만, 영역(560b)은 림프절에 해당되지 않는데 잘못 구획된 것이고, 림프절 영역(550b')는 실제보다 작게 구획된 것이므로 이를 바로잡을 필요가 있다. 즉, 잘못 구획된 것은 삭제하고, 실제보다 작게 구획된 것은 수정하여야 할 것이다. Referring to FIG. 5B , the
또한, 림프절의 실제 형태는 강낭콩과 유사하여, 절편상으로는 2개로 분리되더라도 실제는 1개의 림프절일 수 있다. 즉, 동일한 영상에 나타난 림프절이 판독자에 따라 1개로 계수되거나 2개로 계수될 수 있으므로, 잘못 계수된 구획은 삭제하여야 할 필요도 있다. 이와 반대로, 1개로 계수된 구획을 2개 이상의 구획으로 나누어야 하거나, 구획되지 않은 영역을 새롭게 구획할 필요도 있다.In addition, the actual shape of the lymph node is similar to that of a kidney bean, so even if it is sectioned into two, it may actually be one lymph node. That is, since lymph nodes appearing in the same image may be counted as one or two depending on the reader, it is also necessary to delete the incorrectly counted section. Conversely, it may be necessary to divide a partition counted by one into two or more partitions, or to newly partition an undivided area.
이를 위하여 사용자는 제공되는 사용자 인터페이스 상의 사용자 인터페이스 요소, 예컨대, 통상의 기술자에게 널리 알려진 예시로서 브러시 또는 지우개 혹은 이와 유사한 도구에 상응하는 요소(570)를 이용하여 원하는 구획을 임의로 조절할 수 있다.To this end, the user may arbitrarily adjust the desired section by using a user interface element on the provided user interface, for example, an
계속해서 도 3을 참조하면, 본 발명에 따른 병리 보고서 생성 보조 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 병리 보고서 생성 모듈(250)이, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 단계(S300)를 더 포함한다. Continuing to refer to FIG. 3 , in the pathology report generation assistance method according to the present invention, the pathology
예를 들어, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계는, 특정의 해부학적 객체, 예컨대 림프절의 구획 내에 특정의 소정 병변, 예컨대 암의 구획이 포함되어야 하는 관계일 수 있는바, 이는 림프절에 대한 암의 전이에 관한 병리 보고서의 기초 자료가 될 수 있기 때문이다.For example, the inclusion relationship between the compartment of the predetermined lesion and the compartment of the anatomical object may be a relationship in which a compartment of a specific predetermined lesion, eg, cancer, should be included within a compartment of a specific anatomical object, eg, a lymph node. , because it can serve as a basis for pathological reports on metastasis of cancer to lymph nodes.
구체적으로, 단계(S300)의 일 실시 예에서, 병리 보고서 생성 모듈(250)은, 병변으로 진단된 해부학적 객체의 개수와 병변이 아닌 해부학적 객체의 개수를 산출한 결과로부터 병리 보고서의 분석 결과를 생성할 수 있는바, 즉, 상기 해부학적 객체에 상기 소정 병변이 포함되는 비율에 기초하여 상기 병리 보고서의 분석 결과를 생성할 수 있다. Specifically, in an embodiment of step S300 , the pathology
예를 들어, 도 5a를 참조하면, 병리 영상(림프절 슬라이스 영상)(510)으로부터 병변(암) 영역 구획 모듈이 산출한 구획(520) 및 해부학적 객체(림프절) 영역 구획 모듈이 산출한 구획(530)의 결과에 기초하여 병리 보고서 생성 모듈(250)은 "전체 림프절 2개 중 암 1개 (1/2)"라는 병리 보고서의 분석 결과를 생성할 수 있다.For example, referring to FIG. 5A , a
다시 도 3을 참조하면, 본 발명에 따른 병리 보고서 생성 보조 방법은, 상기 프로세서(120)에 의하여 구현되는 출력 모듈(260)이, 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 상기 병리 보고서 분석 결과를 상기 외부 엔티티에 제공하도록 지원하는 단계(S400)를 더 포함한다. Referring back to FIG. 3 , in the pathology report generation assistance method according to the present invention, the
한편, 본 발명에 따른 병리 보고서 생성 보조 방법의 수행에 앞서, 활용되는 제1 판단부 및 제2 판단부, 예컨대, 심층 신경망 모듈들이 미리 학습되는 단계(S050)를 거쳐야 할 필요가 있는바, 이를 위한 갱신 및 학습 모듈, 혹은 학습 모듈(270; 미도시)이 상기 프로세서(120)에 의하여 실행될 수 있다.On the other hand, prior to performing the pathology report generation assistance method according to the present invention, it is necessary to go through a step (S050) in which the utilized first and second determination units, for example, deep neural network modules, are trained in advance. An update and learning module or a learning module 270 (not shown) for this purpose may be executed by the
예를 들어, 제1 판단부의 학습을 위하여, 학습 모듈(270)은 다수의 피검체에 대한 병리 영상 및 그 병리 영상에 나타난 소정 병변을 표시(마킹; marking)한 레이블링 데이터를 훈련용 데이터로 이용할 수 있으며, 제2 판단부의 학습을 위하여, 학습 모듈(270)은 다수의 피검체에 대한 병리 영상 및 그 병리 영상에 나타난 해부학적 객체를 표시한 레이블링 데이터를 훈련용 데이터로 이용할 수 있다. 이를 위한 훈련용 데이터는 실질적으로 전술한 사용자 인터페이스에 의하여 준비될 수 있음을 이해할 수 있을 것이다.For example, for the learning of the first judgment unit, the learning module 270 uses, as training data, pathological images of a plurality of subjects and labeling data indicating (marking) predetermined lesions appearing in the pathological images. In addition, for learning of the second determination unit, the learning module 270 may use, as training data, pathological images of a plurality of subjects and labeling data indicating anatomical objects appearing in the pathological images. It will be appreciated that training data for this may be substantially prepared by the user interface described above.
본 개시서에 첨부된 도면들에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치에서 실현되는 것으로 예시되었으나, 본 발명의 방법을 수행하는 컴퓨팅 장치(100)는 복수개의 장치들이 서로 연동된 것으로 구성될 수도 있으며, 이는 본 개시서에 첨부된 청구범위에 의하여 망라될 수 있다는 점이 이해될 것이다. 따라서 전술한 본 발명 방법의 각 단계는, 하나의 컴퓨팅 장치가 직접 수행하거나 상기 하나의 컴퓨팅 장치가 상기 하나의 컴퓨팅 장치에 연동되는 타 컴퓨팅 장치로 하여금 수행하도록 지원함으로써 수행될 수 있음이 자명하다.Although the components shown in the accompanying drawings in the present disclosure are exemplified as being realized in one computing device for convenience of description, the
이와 같이 본 발명에 따른 병리 보고서 생성 보조 방법은, 파악된 소정 병변과 해부학적 객체에 기초하여 병리 보고서의 분석 결과를 생성할 수 있는바, 그 소정 병변과 해부학적 객체의 구획을 추가, 편집, 삭제한 정보 등을 다시 제1 판단부 및 제2 판단부에 대한 갱신 혹은 추가 학습의 자료로 활용한다면, 이들 판단부가 더 정확한 구획을 수행하도록 할 수 있는 장점이 있으므로, 이러한 장점을 취하기 위한 본 발명에 따른 병리 보고서 생성 보조 방법은, 상기 프로세서(120)가, 상기 사용자 인터페이스 요소에 대한 조작에 기초하여, 상기 병리 영상에 포함된 상기 소정 병변을 판정하도록 훈련된 제1 판단부 및 상기 병리 영상에 포함된 상기 해부학적 객체를 판정하도록 훈련된 제2 판단부 중 적어도 하나를 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 단계(S500)를 더 포함할 수 있다. 이때, 이전의 훈련 내지 학습 때에는 고려되지 않았던 데이터가 추가로 고려되고, 이전의 학습 때에 있었던 오류를 바로잡을 수 있기 때문에 상기 제1 판단부 및 제2 판단부의 정확도가 향상되는바, 데이터가 쌓일수록 그 성능이 지속적으로 향상되는 장점이 있다.As described above, the pathology report generation assistance method according to the present invention can generate the analysis result of the pathology report based on the identified predetermined lesion and anatomical object, and can add, edit, If the deleted information is used again as data for updating or additional learning for the first and second determination units, there is an advantage in that these determination units perform more accurate division, so the present invention for taking these advantages In the pathology report generation assistance method according to The method may further include updating at least one of the second determination units trained to determine the included anatomical object or supporting the other device to update (S500). At this time, since data not taken into account during previous training or learning is additionally considered, and errors made during previous learning can be corrected, the accuracy of the first and second determination units is improved. It has the advantage of continuously improving its performance.
여기에서 상기 사용자 인터페이스 요소에 대하여 조작을 시행하는 주체는 상기 의료 전문가 등의 외부 엔티티일 수 있다.Here, the subject performing the manipulation on the user interface element may be an external entity such as the medical professional.
이와 같이 본 발명은 전술한 모든 실시 예들에 걸쳐, 더 편리하고 효율적으로 병변 및 이와 관련된 해부학적 객체를 계수할 수 있는 효과가 있다.As such, the present invention has the effect of more conveniently and efficiently counting lesions and related anatomical objects across all the above-described embodiments.
상기 실시 예들로써 여기에서 설명된 기술의 이점은, 하루에도 많은 진단 자료에 기초하여 정확히 판정 내지 예측하여야 하는 바쁜 의료 환경에 놓인 의료 전문가들의 부담을 크게 덜어줄 수 있는 한편, 림프절의 계수와 같은 해부학적 객체의 계수에 관한 일정한 기준을 제시할 수 있어 판독자 간의 불일치도를 낮추어 관련 질환에 관한 더 정확한 판정이 가능해진다는 점이다. 요컨대, 소정 병변의 영역과 해부학적 객체의 영역을 표시하여 데이터화하는 작업을 촉진할 수 있는바, 의료 관련 인공지능 기술의 발전에 양의 피드백으로서 이바지할 수 있다.The advantage of the technology described herein as the above embodiments is that it can greatly relieve the burden of medical professionals in a busy medical environment who have to make accurate decisions or predictions based on a lot of diagnostic data every day, while anatomy such as counting lymph nodes The point is that it is possible to suggest a certain standard for the count of enemy objects, thereby reducing the degree of inconsistency among readers and making more accurate judgments about related diseases. In other words, it is possible to promote the data conversion by displaying the area of a predetermined lesion and the area of an anatomical object, thereby contributing as positive feedback to the development of medical-related artificial intelligence technology.
이상, 본 개시서의 다양한 실시 예들에 관한 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 프로세서, 예컨대, 마이크로프로세서, 컨트롤러, 예컨대, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 마이크로컴퓨터, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 예컨대, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 예컨대, FPGA(field programmable gate array), PLU(programmable logic unit) 혹은 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 기타 명령어(instruction)를 실행하고 응답할 수 있는 임의의 다른 장치, 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.Above, based on the description of various embodiments of the present disclosure, those of ordinary skill in the art will recognize that the method and/or processes of the present invention, and the steps thereof, are hardware, software, or hardware and software suitable for a specific application. It can be clearly understood that they can be realized in any combination. The hardware may include general purpose computers and/or dedicated computing devices or specific computing devices or special features or components of specific computing devices. The processes may include one or more processors, eg, microprocessors, controllers, eg, microcontrollers, embedded microcontrollers, microcomputers, arithmetic logic units (ALUs), digital signal processors, with internal and/or external memory. , for example, by a programmable digital signal processor or other programmable device. In addition, or as an alternative, the processes may include application specific integrated circuits (ASICs), programmable gate arrays, such as field programmable gate arrays (FPGAs), programmable logic units (PLUs) or programmable array logic. (Programmable Array Logic; PAL) or any other device capable of executing and responding to instructions, any other device or combination of devices that can be configured to process electronic signals. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령어(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령어 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 기계 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more machine-readable recording media.
더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능 매체에 기록될 수 있다. 기계 판독 가능 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD, Blu-ray와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는 바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다. Moreover, the objects of the technical solution of the present invention or parts contributing to the prior arts may be implemented in the form of program instructions that can be executed through various computer components and recorded in a machine-readable medium. The machine-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the machine-readable recording medium may be specially designed and configured for the embodiment, or may be known and used by those skilled in the art of computer software. Examples of the machine-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs, DVDs, and Blu-rays, and floppy disks. ), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include any one of the devices described above, as well as heterogeneous combinations of processors, processor architectures, or combinations of different hardware and software, or stored and compiled or interpreted for execution on a machine capable of executing any other program instructions. machine code, which may be created using a structured programming language such as C, an object-oriented programming language such as C++ This includes not only bytecode, but also high-level language code that can be executed by a computer using an interpreter or the like.
따라서 본 발명에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 개시서의 범위 내에 속하도록 의도된 것이다.Accordingly, in one aspect according to the present invention, when the above-described method and combinations thereof are performed by one or more computing devices, the methods and combinations of methods may be implemented as executable code for performing respective steps. In another aspect, the method may be implemented as systems performing the steps, the methods may be distributed in various ways across devices or all functions may be integrated into one dedicated, standalone device or other hardware. In another aspect, the means for performing the steps associated with the processes described above may include any of the hardware and/or software described above. All such sequential combinations and combinations are intended to fall within the scope of this disclosure.
예를 들어, 상기된 하드웨어 장치는 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력 장치를 포함할 수 있다.For example, the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa. The hardware device may include a processor, such as an MPU, CPU, GPU, TPU, coupled with a memory such as ROM/RAM for storing program instructions and configured to execute instructions stored in the memory, an external device and a signal It may include a communication unit that can send and receive. In addition, the hardware device may include a keyboard, a mouse, and other external input devices for receiving commands written by developers.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시 예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described with specific matters such as specific components and limited embodiments and drawings, but these are provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments, Those of ordinary skill in the art to which the present invention pertains can devise various modifications and variations from these descriptions.
따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니되며, 본 개시서에 첨부된 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and not only the claims appended to the present disclosure, but also all modifications equivalently or equivalently to the claims attached to the present disclosure are the spirit of the present invention will fall into the category of For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인 바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.Such equivalent or equivalent modifications will include, for example, logically equivalent methods capable of producing the same results as practiced by the methods according to the present invention, the spirit and spirit of the present invention. The scope should not be limited by the above examples, and should be understood in the broadest sense permitted by law.
Claims (10)
컴퓨팅 장치가, 판독 대상인 병리 영상을 획득하는 단계;
상기 컴퓨팅 장치가, 심층 신경망을 기반으로 상기 병리 영상으로부터 소정 병변의 구획 및 해부학적 객체의 구획을 수행하는 단계;
상기 컴퓨팅 장치가, 상기 병리 영상에 나타난 상기 소정 병변의 구획과 상기 병리 영상에 나타난 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하는 단계; 및
상기 컴퓨팅 장치가, 생성된 상기 병리 보고서의 분석 결과를 외부 엔티티(entity)에게 제공하는 단계
를 포함하되,
상기 병리 보고서의 분석 결과는,
상기 소정 병변의 구획의 개수 및 상기 해부학적 객체의 구획의 개수를 이용하여 결정되는 상기 소정 병변의 병기에 관한 정보; 및
상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계에 기반한 상기 해부학적 객체에 상기 소정 병변이 포함되는 비율을 포함하는,
병리 보고서 생성 보조 방법.A method of assisting in generating a pathology report from pathology images, comprising:
acquiring, by the computing device, a pathological image to be read;
performing, by the computing device, segmentation of a predetermined lesion and segmentation of an anatomical object from the pathological image based on a deep neural network;
The computing device determines, by the computing device, an inclusion relationship between a partition of the predetermined lesion displayed in the pathological image and a partition of the anatomical object displayed in the pathological image, a dimension of a partition of the predetermined lesion, the number of partitions of the predetermined lesion, and the anatomical generating an analysis result of a pathology report on the predetermined lesion by reflecting at least one of a dimension of a compartment of an object and a number of compartments of the anatomical object; and
providing, by the computing device, an analysis result of the generated pathology report to an external entity
including,
The analysis result of the pathology report is,
information on the stage of the predetermined lesion determined using the number of divisions of the predetermined lesion and the number of divisions of the anatomical object; and
including a ratio in which the predetermined lesion is included in the anatomical object based on an inclusion relationship between the partitions of the predetermined lesion and the partitions of the anatomical object,
Auxiliary method for generating pathology reports.
상기 컴퓨팅 장치가, 상기 소정 병변의 구획에 대한 사용자의 입력, 변경 및 삭제 중 적어도 하나를 지원하기 위한 적어도 하나의 사용자 인터페이스 요소를 제공하는 단계; 및
상기 사용자 인터페이스 요소에 대한 조작에 응하여, 상기 컴퓨팅 장치가, 상기 소정 병변의 구획을 입력, 변경 또는 삭제하는 단계
를 더 포함하는 병리 보고서 생성 보조 방법.The method of claim 1,
providing, by the computing device, at least one user interface element for supporting at least one of a user's input, change, and deletion of the partition of the predetermined lesion; and
In response to the manipulation of the user interface element, the computing device inputting, changing, or deleting a section of the predetermined lesion.
An auxiliary method for generating a pathology report further comprising:
상기 컴퓨팅 장치가, 상기 해부학적 객체의 구획에 대한 사용자의 입력, 변경 및 삭제 중 적어도 하나를 지원하기 위한 적어도 하나의 사용자 인터페이스 요소를 제공하는 단계; 및
상기 사용자 인터페이스 요소에 대한 조작에 응하여, 상기 컴퓨팅 장치가, 상기 해부학적 객체의 구획을 입력, 변경 또는 삭제하는 단계
를 더 포함하는 병리 보고서 생성 보조 방법.The method of claim 1,
providing, by the computing device, at least one user interface element for supporting at least one of a user's input, change, and deletion of the partition of the anatomical object; and
in response to manipulation of the user interface element, inputting, changing, or deleting, by the computing device, a section of the anatomical object;
An auxiliary method for generating a pathology report further comprising:
판독 대상인 병리 영상을 획득하는 통신부; 및
상기 병리 영상으로부터 소정 병변의 구획 및 해부학적 객체의 구획을 수행하고, 상기 병리 영상에 나타난 상기 소정 병변의 구획과 상기 병리 영상에 나타난 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하는 프로세스, 및 상기 생성된 상기 병리 보고서의 분석 결과를 외부 엔티티(entity)에게 제공하는 프로세스를 수행하는 프로세서
를 포함하되,
상기 병리 보고서의 분석 결과는,
상기 소정 병변의 구획의 개수 및 상기 해부학적 객체의 구획의 개수를 이용하여 결정되는 상기 소정 병변의 병기에 관한 정보; 및
상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계에 기반한 상기 해부학적 객체에 상기 소정 병변이 포함되는 비율을 포함하는,
병리 보고서 생성 장치.
A computing device that assists in generating a pathology report from a pathology image, comprising:
a communication unit that acquires a pathological image to be read; and
A segmentation of a predetermined lesion and a segmentation of an anatomical object are performed from the pathology image, and an inclusion relationship between the segmentation of the prescribed lesion shown in the pathological image and the segment of the anatomical object shown in the pathology image, the segmentation of the prescribed lesion a process of generating an analysis result of a pathology report regarding the predetermined lesion by reflecting at least one of a dimension, a number of compartments of the predetermined lesion, a dimension of a compartment of the anatomical object, and a number of compartments of the anatomical object; and A processor performing a process of providing an analysis result of the generated pathology report to an external entity
including,
The analysis result of the pathology report is,
information on the stage of the predetermined lesion determined using the number of divisions of the predetermined lesion and the number of divisions of the anatomical object; and
including a ratio in which the predetermined lesion is included in the anatomical object based on an inclusion relationship between the partitions of the predetermined lesion and the partitions of the anatomical object,
Pathology report generation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190168010A KR102390347B1 (en) | 2018-11-20 | 2019-12-16 | Method for assisting in generation of pathology report from pathology image and apparatus using the same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180143469A KR102078393B1 (en) | 2018-11-20 | 2018-11-20 | Method for assisting in generation of pathology report from pathology image and apparatus using the same |
KR1020190168010A KR102390347B1 (en) | 2018-11-20 | 2019-12-16 | Method for assisting in generation of pathology report from pathology image and apparatus using the same |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180143469A Division KR102078393B1 (en) | 2018-11-20 | 2018-11-20 | Method for assisting in generation of pathology report from pathology image and apparatus using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200059183A KR20200059183A (en) | 2020-05-28 |
KR102390347B1 true KR102390347B1 (en) | 2022-04-25 |
Family
ID=81451696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190168010A KR102390347B1 (en) | 2018-11-20 | 2019-12-16 | Method for assisting in generation of pathology report from pathology image and apparatus using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102390347B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008079770A (en) * | 2006-09-27 | 2008-04-10 | Gifu Univ | Diagnostic reading support apparatus, diagnostic reading support method and program |
JP2011514227A (en) * | 2008-03-17 | 2011-05-06 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Perfusion imaging |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101874348B1 (en) | 2017-11-21 | 2018-07-09 | 주식회사 뷰노 | Method for facilitating dignosis of subject based on chest posteroanterior view thereof, and apparatus using the same |
-
2019
- 2019-12-16 KR KR1020190168010A patent/KR102390347B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008079770A (en) * | 2006-09-27 | 2008-04-10 | Gifu Univ | Diagnostic reading support apparatus, diagnostic reading support method and program |
JP2011514227A (en) * | 2008-03-17 | 2011-05-06 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Perfusion imaging |
Also Published As
Publication number | Publication date |
---|---|
KR20200059183A (en) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Napel et al. | Quantitative imaging of cancer in the postgenomic era: Radio (geno) mics, deep learning, and habitats | |
Jang et al. | Applications of deep learning for the analysis of medical data | |
US11423540B2 (en) | Segmentation of anatomical regions and lesions | |
Bi et al. | Dual-path adversarial learning for fully convolutional network (FCN)-based medical image segmentation | |
KR101943011B1 (en) | Method for facilitating medical image reading and apparatus using the same | |
US11929174B2 (en) | Machine learning method and apparatus, program, learned model, and discrimination apparatus using multilayer neural network | |
US10853449B1 (en) | Report formatting for automated or assisted analysis of medical imaging data and medical diagnosis | |
US10734107B2 (en) | Image search device, image search method, and image search program | |
Mohammed et al. | Artificial neural networks for automatic segmentation and identification of nasopharyngeal carcinoma | |
US20170042495A1 (en) | Medical image information system, medical image information processing method, and program | |
US10699434B2 (en) | Determination of result data on the basis of medical measurement data from various measurements | |
EP3893198A1 (en) | Method and system for computer aided detection of abnormalities in image data | |
Sudheer Kumar et al. | Medical image analysis using deep learning: a systematic literature review | |
CN112529834A (en) | Spatial distribution of pathological image patterns in 3D image data | |
US20190035075A1 (en) | Method and apparatus for classifying a data point in imaging data | |
Lanjewar et al. | Lung cancer detection from CT scans using modified DenseNet with feature selection methods and ML classifiers | |
US20210082567A1 (en) | Method for supporting viewing of images and apparatus using same | |
CN112396606A (en) | Medical image segmentation method, system and device based on user interaction | |
KR102078393B1 (en) | Method for assisting in generation of pathology report from pathology image and apparatus using the same | |
Dong et al. | An improved supervoxel 3D region growing method based on PET/CT multimodal data for segmentation and reconstruction of GGNs | |
KR102390347B1 (en) | Method for assisting in generation of pathology report from pathology image and apparatus using the same | |
KR102222816B1 (en) | Method for generating future image of progressive lesion and apparatus using the same | |
JPWO2019208130A1 (en) | Medical document creation support devices, methods and programs, trained models, and learning devices, methods and programs | |
Levenson et al. | Advancing precision medicine: algebraic topology and differential geometry in radiology and computational pathology | |
KR20200059182A (en) | Method for assisting in generation of pathology report from pathology image and apparatus using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |