KR20200059183A - Method for assisting in generation of pathology report from pathology image and apparatus using the same - Google Patents

Method for assisting in generation of pathology report from pathology image and apparatus using the same Download PDF

Info

Publication number
KR20200059183A
KR20200059183A KR1020190168010A KR20190168010A KR20200059183A KR 20200059183 A KR20200059183 A KR 20200059183A KR 1020190168010 A KR1020190168010 A KR 1020190168010A KR 20190168010 A KR20190168010 A KR 20190168010A KR 20200059183 A KR20200059183 A KR 20200059183A
Authority
KR
South Korea
Prior art keywords
pathology
image
anatomical object
section
computing device
Prior art date
Application number
KR1020190168010A
Other languages
Korean (ko)
Other versions
KR102390347B1 (en
Inventor
박정혁
김영원
Original Assignee
주식회사 뷰노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180143469A external-priority patent/KR102078393B1/en
Application filed by 주식회사 뷰노 filed Critical 주식회사 뷰노
Priority to KR1020190168010A priority Critical patent/KR102390347B1/en
Publication of KR20200059183A publication Critical patent/KR20200059183A/en
Application granted granted Critical
Publication of KR102390347B1 publication Critical patent/KR102390347B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

According to the present invention, disclosed are a method for assisting in the creation of a pathology report from a pathological image, and a computing device using the same. Specifically, according to the method of the present invention, the computing device acquires a pathological image to be read; calculates a section of a predetermined lesion from the pathological image through a first determination unit configured to determine the predetermined lesion included in the pathological image; calculates a section of an anatomical object from the pathological image through a second determination unit configured to determine the anatomical object included in the pathological image; generates an analysis result of a pathology report for the predetermined lesion by reflecting at least one of an inclusion relationship between the section of the predetermined lesion and the section of the anatomical object, the dimension of the section of the predetermined lesion, the number of sections of the predetermined lesion, the dimension of the section of the anatomical object, and the number of sections of the anatomical object; and provides the generated analysis result of the pathology report to an external entity. According to the present invention, a clinical stage can be more conveniently and efficiently calculated.

Description

병리 영상으로부터 병리 보고서의 생성을 보조하는 방법 및 이를 이용한 장치{METHOD FOR ASSISTING IN GENERATION OF PATHOLOGY REPORT FROM PATHOLOGY IMAGE AND APPARATUS USING THE SAME}A method for assisting in the generation of a pathology report from pathology images and a device using the same {METHOD FOR ASSISTING IN GENERATION OF PATHOLOGY REPORT FROM PATHOLOGY IMAGE AND APPARATUS USING THE SAME}

본 개시서에는 병리 영상으로부터 병리 보고서의 생성을 보조하는 방법 및 이를 이용한 컴퓨팅 장치가 개시된다. 구체적으로, 본 발명에 따른 방법에 의하면, 컴퓨팅 장치가, 판독 대상인 병리 영상을 획득하고, 상기 병리 영상에 포함된 소정 병변을 판정하도록 구성된 제1 판단부를 통하여 상기 병리 영상으로부터 상기 소정 병변의 구획을 산출하는 한편, 상기 병리 영상에 포함된 해부학적 객체를 판정하도록 구성된 제2 판단부를 통하여 상기 병리 영상으로부터 상기 해부학적 객체의 구획을 산출하며, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하고, 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공한다.The present disclosure discloses a method for assisting the generation of a pathology report from a pathology image, and a computing device using the method. Specifically, according to the method according to the present invention, the computing device acquires a pathology image to be read, and partitions the predetermined lesion from the pathology image through a first determination unit configured to determine a predetermined lesion included in the pathology image. Meanwhile, on the other hand, a section of the anatomical object is calculated from the pathological image through a second determination unit configured to determine an anatomical object included in the pathological image, and the section between the section of the predetermined lesion and the section of the anatomical object is included. Analysis of a pathology report on a given lesion by reflecting at least one of a relationship, the dimensions of the compartments of the given lesion, the number of compartments of the given lesion, the dimensions of the compartments of the anatomical object, and the number of compartments of the anatomical object A result is generated, and the result of analyzing the generated pathology report is provided to an external entity.

세포, 조직을 포함하는 신체 장기의 절편을 올린 전체 슬라이드 이미지(whole slide image) 혹은 현미경을 통한 병리학적 진단은 환자에 대한 치료 방법의 결정과 예후의 예측에 있어 결정적인 역할을 한다. 이러한 진단은 주로 조직과 세포의 형태를 고려하여 이루어진다. 이 병리학적 진단은 동일 국가 내의 의료인들 사이에서뿐만 아니라 국가 간에도 차이가 있을 정도로 난이도가 높은 문제 중의 하나이다. 세부적인 진단은 다양한 암종 및 클래스(class)로 나뉘는데, 샘플 간 특징의 편차가 크기 때문에 진단에 참고할 만한 대상 영상을 찾는 것은 매우 난이도가 높은 일이다. 이 진단의 난이도는 병리학자의 경험과 직감에 크게 좌우되는데, 실제 임상에서는 경험이 많은 병리학자도 혼자서 진단을 내리기 모호한 경우가 빈번하다. 이는 의사 간 진단의 불일치와 자문, 재판독 등 의료 서비스의 낭비를 발생하게 하는 주요 원인 중의 하나이다.Whole slide images or microscopic pathological diagnosis of sections of body organs, including cells and tissues, play a decisive role in determining treatment options and predicting prognosis for patients. The diagnosis is mainly made by considering tissue and cell morphology. This pathological diagnosis is one of the problems of high degree of difficulty that differs not only between medical workers in the same country but also between countries. The detailed diagnosis is divided into various carcinomas and classes, and it is very difficult to find a target image that can be used as a reference for diagnosis because of large variation in characteristics between samples. The difficulty of this diagnosis is highly dependent on the pathologist's experience and intuition, and in practice, it is often ambiguous for an experienced pathologist to make the diagnosis by himself. This is one of the main causes of the mismatch of diagnosis between doctors and the waste of medical services such as consultation and re-reading.

병리학적 진단 중 병변, 특히 암의 진단에 있어, 암 세포가 퍼진 정도를 확인하는 것은 향후 치료 계획의 설정에 있어 하나의 중요한 지표가 된다. 이를 암의 병기라고 부르며, 이러한 병기를 결정하는 데에는 일반적으로 TNM법을 이용한다. TNM에서 T(tumor; 종양)는 원발기관에서 원발종양의 크기와 침윤정도를, N(node; 림프절)은 원발종양에서 주위 림프절로 얼마나 퍼졌는지를, M(metastasis; 전이)은 몸의 다른 장기로 암이 퍼졌는지 여부를 의미한다. TNM법에 의한 암의 상태가 결정이 되면 1기, 2기, 3기, 4기로 진행단계를 간단히 요약일 수 있는데, 일반적으로는 치료 결과의 개념을 포함하여 조기암, 진행암, 말기암이란 분류도 사용한다.In the diagnosis of lesions, especially cancer, among pathological diagnosis, confirming the degree of spread of cancer cells is an important indicator in the future treatment plan setting. This is called the stage of cancer, and TNM is generally used to determine the stage. In TNM, T (tumor) is the size and degree of infiltration of the primary tumor in the primary organ, N (node; lymph node) is how far it has spread from the primary tumor to surrounding lymph nodes, and M (metastasis) is another organ in the body. It means whether the cancer has spread. When the condition of cancer by TNM is determined, the stages of stage 1, stage 2, stage 3, and stage 4 can be briefly summarized. In general, early cancer, advanced cancer, and late stage cancer are included, including the concept of treatment results. Classification is also used.

이와 같이 TNM법을 이용한 병기의 계산에는 암을 포함하는 림프절의 개수를 산출하는 일이 필요하다. 림프절에서 암을 확인하고 림프절을 계수하는 작업에는 많은 시간이 소요되며, 일반적으로 판독자 간에도 일치도가 높지 않다는 문제점이 있다.As described above, it is necessary to calculate the number of lymph nodes including cancer in the calculation of the stage using the TNM method. The operation of identifying cancer in the lymph nodes and counting the lymph nodes takes a long time, and there is a problem in that there is generally no high agreement among readers.

이에 따라 본 개시서에서는 인공지능 기술로써 림프절 슬라이스 영상과 같은 병리 영상의 국소 영역에 대하여 암과 같은 소정 병변의 여부를 판정할 수 있도록 구성된 제1 판단부, 예컨대, 학습된 제1 심층 신경망 모듈과, 병리 영상에서 림프절과 같은 해부학적 객체를 찾아내어 해부학적 객체의 영역과 개수를 도출할 수 있는 제2 판단부, 예컨대, 제2 심층 신경망 모듈을 이용하여 병리 영상으로부터 소정 병변에 해당하는 해부학적 객체의 개수와 소정 병변에 해당하지 않는 해부학적 객체의 개수를 산출하고, 이를 통하여 병리 보고서의 작성을 보조할 수 있게 하는 방법을 제안하고자 한다. Accordingly, in this disclosure, a first determination unit configured to determine whether or not a predetermined lesion such as cancer is present in a local area of a pathological image such as a lymph node slice image using artificial intelligence technology, such as a learned first deep neural network module and , Anatomy corresponding to a predetermined lesion from a pathology image using a second determination unit, for example, a second deep neural network module, capable of finding an anatomical object such as a lymph node from the pathology image and deriving the area and number of anatomical objects It is intended to propose a method for calculating the number of objects and the number of anatomical objects that do not correspond to a predetermined lesion, and thereby assisting in the preparation of a pathology report.

KRKR 10-187434810-1874348 BB

본 발명은 종래 방식의 병변 여부 판정 방식보다 더 편리하고 효율적으로 병기를 계산하는 등 병리 보고서의 작성을 보조할 수 있게 하는 것을 목적으로 한다.An object of the present invention is to make it possible to assist in the preparation of a pathology report, such as calculating the stage more conveniently and efficiently than the conventional method for determining whether a lesion is present.

또한, 본 발명은 병변에 의하여 해부학적 객체의 형태가 변형되어 해부학적 객체를 검출하는 알고리즘의 성능 한계를 극복하기 위한 방안으로서, 자동으로 산출된 해부학적 객체의 구획에 대하여 사용자가 그 구획을 수정할 수 있도록 하는 사용자 인터페이스도 제공하는 것을 목적으로 한다.In addition, the present invention is a method for overcoming the performance limitations of an algorithm for detecting an anatomical object by changing the shape of the anatomical object by a lesion, and the user can modify the compartment for the automatically calculated anatomical object segment. It aims to provide a user interface that enables the user.

구체적으로, 본 발명은 병리 영상에 근거하여 정확하게 병기를 계산함으로서 환자에 대한 적절한 치료에 기여하는 것을 목적으로 한다.Specifically, the present invention aims to contribute to proper treatment for a patient by accurately calculating stages based on pathological images.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic configuration of the present invention for achieving the objects of the present invention as described above and realizing the characteristic effects of the present invention described below is as follows.

본 발명의 일 태양에 따르면, 병리 영상으로부터 병리 보고서의 생성을 보조하는 방법이 제공되는바, 그 방법은, (a) 컴퓨팅 장치가, 판독 대상인 병리 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 상기 병리 영상을 획득하도록 지원하는 단계; (b) 상기 컴퓨팅 장치가, (i) 상기 병리 영상으로부터 소정 병변을 구획하는 프로세스; 및 (ii) 상기 병리 영상으로부터 해부학적 객체를 구획하는 프로세스를 수행하거나 상기 타 장치로 하여금 수행하도록 지원하는 단계; (c) 상기 컴퓨팅 장치가, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 단계; 및 (d) 상기 컴퓨팅 장치가, 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for assisting the generation of a pathology report from a pathological image, the method comprising: (a) a computing device acquires a pathological image to be read, or another device linked to the computing device Supporting a user to acquire the pathology image; (b) the computing device comprising: (i) a process of partitioning a predetermined lesion from the pathological image; And (ii) performing a process of partitioning an anatomical object from the pathological image, or assisting the other device to perform the process; (c) the computing device includes an inclusion relationship between a section of the predetermined lesion and a section of the anatomical object, a dimension of the section of the predetermined lesion, a number of sections of the predetermined lesion, a dimension of the section of the anatomical object, and the Generating an analysis result of a pathology report on the predetermined lesion by reflecting at least one of the number of sections of the anatomical object, or assisting the other device to generate the analysis result; And (d) the computing device providing the generated pathology report analysis result to an external entity or assisting the other device to provide the result.

본 발명의 다른 태양에 따르면, 본 발명에 따른 방법을 수행하도록 구현된 인스트럭션들(instructions)을 포함하는 컴퓨터 프로그램도 제공된다.According to another aspect of the present invention, a computer program comprising instructions implemented to perform the method according to the present invention is also provided.

본 발명의 또 다른 태양에 따르면, 병리 영상으로부터 병리 보고서의 생성을 보조하는 컴퓨팅 장치가 제공되는바, 그 컴퓨팅 장치는, 판독 대상인 병리 영상을 획득하는 통신부; 및 (A) 상기 병리 영상으로부터 소정 병변을 구획하는 프로세스; 및 (B) 상기 병리 영상으로부터 해부학적 객체를 구획하는 프로세스를 수행하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 수행하도록 지원하는 프로세서를 포함하고, 상기 프로세서는, (i) 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하는 프로세스, 및 (ii) 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공하는 프로세스를 수행하거나 상기 타 장치로 하여금 수행하도록 지원한다.According to another aspect of the present invention, a computing device for assisting in the generation of a pathology report from a pathological image is provided, the computing device comprising: a communication unit for obtaining a pathological image to be read; And (A) a process of partitioning a predetermined lesion from the pathological image. And (B) a processor that performs a process of partitioning an anatomical object from the pathological image or assists another device interlocked through the communication unit to perform the process, wherein the processor comprises: (i) a partition of the predetermined lesion; Reflecting at least one of the inclusion relationship between the sections of the anatomical object, the dimensions of the sections of the predetermined lesion, the number of sections of the predetermined lesion, the dimensions of the sections of the anatomical object, and the number of sections of the anatomical object A process of generating an analysis result of a pathology report on a given lesion, and (ii) performing a process of providing the generated result of the analysis of the pathology report to an external entity or assisting the other device to perform the process.

*본 개시서의 예시적인 실시 예에 따르면, 종래에 판독자, 예컨대, 의료 전문가들 사이에서도 불일치가 있었던 림프절의 계수와 같은 해부학적 객체의 계수에 관한 일정한 기준을 제시할 수 있어, 판독자 간의 불일치도를 낮출 수 있는 효과가 있다.* According to an exemplary embodiment of the present disclosure, it is possible to present a certain criterion regarding the counting of anatomical objects, such as the count of lymph nodes, which has previously been inconsistent among readers, e.g., medical professionals, so that the inconsistency between readers It has the effect of lowering.

따라서 예시적인 실시 예에 의하면, 단순히 해부학적 객체에 대한 진단을 용이하게 할 뿐만 아니라 소정 병변의 영역과 해부학적 객체의 영역을 표시하여 데이터화하는 작업을 촉진할 수 있는바, 의료 관련 인공지능 기술의 발전에 양의 피드백으로서 이바지할 수 있는 효과가 있다.Therefore, according to an exemplary embodiment, it is possible not only to facilitate the diagnosis of an anatomical object, but also to facilitate the task of displaying and dataating a region of a predetermined lesion and an anatomical object. It has the effect of contributing as positive feedback to development.

따라서, 특정한 질환을 진단하기 위한 의료진의 시간이 절약되며, 더 많은 환자에 대한 안전이 확보될 수 있는 효과가 있다.Therefore, the time of the medical staff for diagnosing a specific disease is saved, and there is an effect that safety for more patients can be secured.

이와 같은 본 발명의 실시 예에 따른 효과는 특정 형식(modality)의 병리 영상뿐만 아니라 널리 다양한 형식의 2차원 영상 또는 3차원 영상들에 적용될 수 있는바, 본 발명의 방법이 특정 형식이나 플랫폼에 종속되지 않음은 물론이다.Such an effect according to an embodiment of the present invention can be applied not only to pathology images of a specific format (modality) but also to 2D images or 3D images of various formats, and the method of the present invention depends on a specific format or platform. Of course not.

본 발명의 실시 예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시 예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 사람(이하 "통상의 기술자"라 함)에게 있어서는 신규한 발명에 이르는 노력 없이도 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명의 일 실시 예에 따라 병리 영상으로부터 병리 보고서의 생성을 보조하는 방법(이하 "병리 보고서 생성 보조 방법"이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 2는 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.
도 3은 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 예시적으로 나타낸 흐름도이다.
도 4는 본 발명에 따른 병리 보고서 생성 보조 방법의 제1 판단부 및 제2 판단부에서 이용될 수 있는 심층 신경망의 예로서 특정 심층 신경망 아키텍처를 개념적으로 나타낸 도면이다.
도 5a 및 도 5b는 각각 본 발명의 병리 보고서 생성 보조 방법의 실시 예들에 따라 제공되는 사용자 인터페이스 요소를 예시적으로 나타낸 개념도이다.
The following drawings attached for use in the description of the embodiments of the present invention are only some of the embodiments of the present invention, and for those of ordinary skill in the art to which the present invention pertains (hereinafter referred to as "ordinary technicians") Other drawings can be obtained based on these drawings without effort leading to a new invention.
1 is a conceptual diagram schematically showing an exemplary configuration of a computing device that performs a method of assisting in the generation of a pathology report from a pathology image (hereinafter referred to as "pathology report generation assistance method") according to an embodiment of the present invention. .
2 is a conceptual diagram exemplarily showing a hardware and software architecture of a computing device that performs a pathology report generation assist method according to an embodiment of the present invention.
3 is a flowchart exemplarily showing a method for assisting in generating a pathology report according to an embodiment of the present invention.
4 is a diagram conceptually illustrating a specific deep neural network architecture as an example of a deep neural network that can be used in the first and second determination units of the method for generating a pathology report according to the present invention.
5A and 5B are conceptual diagrams exemplarily showing user interface elements provided according to embodiments of the method for generating a pathology report according to the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.For a detailed description of the present invention to be described later, reference is made to the accompanying drawings that illustrate, by way of illustration, specific embodiments in which the invention may be practiced in order to clarify the objects, technical solutions and advantages of the invention. These embodiments are described in detail enough to enable a person skilled in the art to practice the present invention. In the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of reference numerals, and redundant descriptions thereof will be omitted.

실시 예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시 예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be implemented in various forms. Therefore, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes modifications, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from other components. For example, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When an element is said to be "connected" to another element, it should be understood that other elements may be present, either directly connected to or connected to the other element.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as “include” or “have” are intended to designate the existence of a described feature, number, step, action, component, part, or combination thereof, and one or more other features, numbers, or steps. It should be understood that it does not preclude the existence or addition possibility of the operation, components, parts or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined herein. Does not.

본 발명의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상", "이미지", "영상 데이터" 또는 "이미지 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭하며, 달리 말하자면, (예컨대, 비디오 화면에 표시된) 눈으로 볼 수 있는 대상 또는 (예컨대, 픽셀 혹은 복셀 출력에 대응되는 파일과 같은) 그 대상의 디지털 표현물을 지칭하는 용어이다.The terms "image", "image", "image data" or "image data" used throughout the description and claims of the present invention are discrete image elements (eg, pixels in a 2D image, 3D images) Refers to multi-dimensional data composed of voxels, or, in other words, an object that can be seen with the eye (eg, displayed on a video screen) or a digital representation of the object (eg, a file corresponding to a pixel or voxel output). It is a term to refer to.

예를 들어 "영상"은 현미경 영상의 촬영과 같이 본 발명의 기술분야에서 공지된 임의의 영상 촬영 방식에 따라 수집된 피검체(subject)의 영상일 수 있다. 그러나 그 영상이 반드시 의료적 맥락에서 제공되어야 하는 것은 아니다.For example, the “image” may be an image of a subject collected according to any imaging method known in the art, such as imaging of a microscope image. However, the image is not necessarily provided in a medical context.

설명의 편의를 위하여 예시적인 일부의 영상 형식(modality)을 가정할 수 있으나 통상의 기술자는 본 발명의 다양한 실시 예에서 이용되는 영상 형식들이 현미경 촬영 영상에만 한정되지 않는다는 점을 이해할 수 있을 것이다.For convenience of description, some exemplary image modalities may be assumed, but a person skilled in the art will understand that the image formats used in various embodiments of the present invention are not limited to microscopic images.

또한, 본 개시서의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다.In addition, throughout the detailed description and claims of the present disclosure, 'learning' or 'learning' is a term referring to performing machine learning through computing according to a procedure, and is a mental such as human educational activity. Those skilled in the art will understand that it is not intended to refer to action.

본 개시서에서 언급되는 사용자는 단수만을 지칭하는 것이 아니라 영상, 특히 병리 영상 및 그 관련 데이터를 풍부하고 중첩적으로 획득하기 위한 목적의 복수 사용자를 지칭할 수도 있는바, 이에는 영상의 훈련(학습) 또는 실제 사용에 있어서 영상의 무결성(integrity)을 확보하기 위한 목적이 있을 수 있다.The user referred to in the present disclosure may not only refer to a singular number, but may also refer to a plurality of users for the purpose of acquiring richly and overlapping images, particularly pathological images and related data, including training of images (learning ) Or in actual use, there may be a purpose for securing the integrity of the image.

더욱이 본 발명은 본 명세서에 표시된 실시 예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. Moreover, the present invention encompasses all possible combinations of the embodiments indicated herein. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, the specific shapes, structures, and properties described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in relation to one embodiment. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment can be changed without departing from the spirit and scope of the invention. Therefore, the following detailed description is not intended to be taken in a limiting sense, and the scope of the present invention, if appropriately described, is limited only by the appended claims, along with all ranges equivalent to those claimed. In the drawings, similar reference numerals refer to the same or similar functions throughout several aspects.

본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Unless otherwise indicated or clearly contradicted by context in this specification, items referred to as singular encompass a plurality of things unless otherwise required in that context. In addition, in describing the present invention, when it is determined that detailed descriptions of related well-known structures or functions may obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.

이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시 예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to enable a person skilled in the art to easily implement the present invention.

도 1은 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device that performs a pathology report generation assist method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.Referring to FIG. 1, the computing device 100 according to an embodiment of the present invention includes a communication unit 110 and a processor 120, and directly or indirectly with an external computing device (not shown) through the communication unit 110. Can communicate with the enemy.

구체적으로, 상기 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터, 프로세서, 메모리, 스토리지(storage), 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다. 상기 스토리지는 하드 디스크, USB(universal serial bus) 메모리와 같은 기억 장치뿐만 아니라 클라우드 서버와 같은 네트워크 연결 기반의 저장 장치의 형태를 포함할 수 있다.Specifically, the computing device 100 may include typical computer hardware (eg, a computer, a processor, memory, storage, an input device and an output device, other devices that may include components of an existing computing device; a router) , Electronic communication devices such as switches, electronic information storage systems such as network-attached storage (NAS) and storage area networks (SAN), and computer software (ie, computing devices in a particular way) It may be to achieve the desired system performance by using a combination of commands). The storage may include a storage device such as a hard disk and a universal serial bus (USB) memory, as well as a storage device based on a network connection such as a cloud server.

이와 같은 컴퓨팅 장치의 통신부(110)는 연동되는 타 컴퓨팅 장치와의 사이에서 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는 바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다.The communication unit 110 of the computing device can transmit and receive requests and responses between other interlocked computing devices. As an example, such requests and responses are performed by the same transmission control protocol (TCP) session. It may be, but is not limited to, for example, may be transmitted and received as a user datagram protocol (UDP) datagram.

구체적으로, 통신부(110)는 통신 인터페이스를 포함하는 통신 모듈의 형태로 구현될 수 있다. 이를테면, 통신 인터페이스는 WLAN(wireless LAN), WiFi(wireless fidelity) Direct, DLNA(digital living network alliance), Wibro(wireless broadband), Wimax(world interoperability for microwave access), HSDPA(high speed downlink packet access) 등의 무선 인터넷 인터페이스와 블루투스(Bluetooth™), RFID(radio frequency identification), 적외선 통신(infrared data association; IrDA), UWB(ultra-wideband), ZigBee, NFC(near field communication) 등의 근거리 통신 인터페이스를 포함할 수 있다. 뿐만 아니라, 통신 인터페이스는 외부와 통신을 수행할 수 있는 모든 인터페이스(예를 들어, 유선 인터페이스)를 나타낼 수 있다.Specifically, the communication unit 110 may be implemented in the form of a communication module including a communication interface. For example, the communication interface includes wireless LAN (WLAN), wireless fidelity (WiFi) Direct, digital living network alliance (DLNA), wireless broadband (Wibro), world interoperability for microwave access (Wimax), high speed downlink packet access (HSDPA), etc. Includes wireless internet interface and short-range communication interfaces such as Bluetooth ™, radio frequency identification (RFID), infrared data association (IrDA), ultra-wideband (UWB), ZigBee, and near field communication (NFC). can do. In addition, the communication interface may represent any interface (eg, a wired interface) capable of communicating with the outside.

예를 들어, 통신부(110)는 이와 같이 적합한 통신 인터페이스를 통해 외부 장치로부터 판독 대상인 병리 영상 등을 획득할 수 있다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력 장치, 인쇄 장치, 디스플레이, 기타 외부 출력 장치를 포함하거나 이들과 연동될 수 있다.For example, the communication unit 110 may acquire a pathology image or the like to be read from an external device through a suitable communication interface. In addition, in a broad sense, the communication unit 110 may include or be interlocked with a keyboard, a mouse, other external input devices, a printing device, a display, and other external output devices for receiving commands or instructions.

또한, 컴퓨팅 장치의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit), NPU(neural processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the processor 120 of the computing device is a micro processing unit (MPU), a central processing unit (CPU), a graphics processing unit (GPU), a neural processing unit (NPU) or a tensor processing unit (TPU), a cache memory ), And a data bus. Also, it may further include a software configuration of an operating system and an application performing a specific purpose.

도 2는 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.2 is a conceptual diagram exemplarily showing a hardware and software architecture of a computing device that performs a pathology report generation assist method according to an embodiment of the present invention.

도 2를 참조하여 본 발명에 따른 방법 및 장치의 구성을 간략히 개관하면, 컴퓨팅 장치(100)는 그 구성요소로서 영상 획득 모듈(210)을 포함할 수 있다. 이 영상 획득 모듈(210)은 본 발명에 따른 방법이 적용되는 병리 영상을 획득하도록 구성된다. 상기 영상은, 예를 들어, 통신부(110)를 통하여 연동되는 타 영상 촬영 장치(미도시)로부터 획득되는 것일 수 있다. Referring briefly to the configuration of the method and apparatus according to the present invention with reference to FIG. 2, the computing device 100 may include an image acquisition module 210 as a component thereof. The image acquisition module 210 is configured to acquire a pathological image to which the method according to the present invention is applied. The image may be, for example, obtained from another image capturing device (not shown) that is linked through the communication unit 110.

획득된 영상의 일부 또는 전부는 병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230)에 각기 전달될 수 있다. 일 실시 예로서, 병변 영역 구획 모듈(220)은 소정의 인스트럭션들을 실행하는 프로세서에 의해 구현될 수 있다. 구체적으로, 병변 영역 구획 모듈(220)은 상기 병리 영상으로부터 소정 병변을 구획하도록 구성된 제1 판단부(혹은 병변 판정 모듈), 예컨대, 훈련된 제1 심층 신경망 모듈을 포함할 수 있다. 이 실시 예와 양립 가능한 다른 실시 예로서, 해부학적 객체 영역 구획 모듈(230)은 소정의 인스트럭션들을 실행하는 프로세서에 의해 구현될 수 있다. 구체적으로, 해부학적 객체 영역 구획 모듈(230)은 상기 병리 영상으로부터 해부학적 객체를 구획하도록 구성된 제2 판단부(혹은 해부학적 객체 판정 모듈), 예컨대, 훈련된 제2 심층 신경망 모듈을 포함할 수 있다. 앞서 설명된 병변 영역 구획 모듈(220)과 해부학적 객체 영역 구획 모듈(230)을 구현하는 프로세서에 관한 설명은 도 1과 함께 기재된 프로세서(120)에 대한 설명이 그대로 적용될 수 있으므로, 중복되는 설명은 생략하기로 한다.A part or all of the acquired image may be transmitted to the lesion region compartment module 220 and the anatomical object region compartment module 230, respectively. In one embodiment, the lesion region partition module 220 may be implemented by a processor that executes certain instructions. Specifically, the lesion region partition module 220 may include a first determination unit (or lesion determination module) configured to partition a predetermined lesion from the pathology image, for example, a trained first deep neural network module. As another example compatible with this embodiment, the anatomical object region partitioning module 230 may be implemented by a processor executing predetermined instructions. Specifically, the anatomical object region partitioning module 230 may include a second determination unit (or anatomical object determination module) configured to partition an anatomical object from the pathological image, for example, a trained second deep neural network module. have. Since the description of the processor implementing the lesion region compartment module 220 and the anatomical object region compartment module 230 described above may be applied to the processor 120 described with reference to FIG. 1, the duplicate description is It will be omitted.

예시적으로 제1 심층 신경망 모듈 및 제2 심층 신경망 모듈 각각은 심층 신경망 모델뿐만 아니라 이를 이용하여 특징값(feature value; feature vector)을 생성하는 특징값 층 및 특징값을 통하여 영상을 픽셀 또는 복셀 단위로 분류하는 분류기를 포함할 수 있다. 특징값 층은, 전형적으로, 전결합층(fully-connected layer)일 수 있다. 병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230)에 의한 병리 영상에 대한 구획은 상세히 후술하기로 한다. 또한, 병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230)에 포함되는 제1 심층 신경망 모듈 및 제2 심층 신경망 모듈에 대한 설명은 이해를 돕기 위한 예시적 기재일 뿐, 다른 실시 예를 제한하거나 한정하는 것으로 해석되어서는 안될 것이다.For example, each of the first deep neural network module and the second deep neural network module may perform an image in a pixel or voxel unit through a deep neural network model as well as a feature value layer and feature value generating a feature value (feature vector) using the same. It may include a classifier classified as. The feature value layer may typically be a fully-connected layer. The segmentation of the pathology image by the lesion area segmentation module 220 and the anatomical object area segmentation module 230 will be described later in detail. In addition, the descriptions of the first deep neural network module and the second deep neural network module included in the lesion region compartment module 220 and the anatomical object region compartment module 230 are merely exemplary descriptions to help understanding, and other embodiments It should not be construed as limiting or limiting.

병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230) 중 적어도 하나는 사용자 인터페이스 모듈(240)과 연동될 수 있는데, 이는 병변 영역 구획 모듈(220)의 경우 제1 판단부에 의한 잘못된 소정 병변의 구획 산출을 바로잡기 위한 것인 한편, 해부학적 객체 영역 구획 모듈(230)의 경우 제2 판단부에 의한 잘못된 해부학적 객체의 구획 산출을 바로잡기 위한 것이다. 사용자 인터페이스 모듈(240)은 사용자에게 소정의 사용자 인터페이스 요소들을 제공함으로써 사용자로 하여금 병변 영역 구획 모듈(220) 및/또는 해부학적 객체 영역 구획 모듈(230)의 오류를 바로잡을 수 있도록 지원하는 기능을 할 수 있다. 소정의 사용자 인터페이스 모듈(240)에 의하여 제공될 수 있는 사용자 인터페이스는 도 5a 및 도 5b를 참조하여 후술하기로 한다.At least one of the lesion region partition module 220 and the anatomical object region partition module 230 may be interlocked with the user interface module 240, which is incorrect by the first determination unit in the case of the lesion region partition module 220 In order to correct the calculation of the partition of a predetermined lesion, the anatomical object region partition module 230 is for correcting the calculation of the wrong anatomical object by the second determination unit. The user interface module 240 provides a user with certain user interface elements to provide a function to assist the user in correcting errors in the lesion region compartment module 220 and / or the anatomical object region compartment module 230. can do. The user interface that can be provided by the predetermined user interface module 240 will be described later with reference to FIGS. 5A and 5B.

다음으로, 병변 영역 구획 모듈(220)에 의하여 산출된 소정 병변의 구획 및 해부학적 객체 영역 구획 모듈(230)에 의하여 산출된 해부학적 객체의 구획을 반영하여 병리 보고서 생성 모듈(250)은 그 소정 병변에 관한 병리 보고서의 분석 결과를 생성할 수 있다. 예를 들어, 병변이 암에 해당하고, 해부학적 객체가 림프절인 경우, 림프절의 개수 및 암으로 판정된 림프절의 개수를 이용하여 암의 병기가 결정될 수 있으며, 상기 병리 보고서의 분석 결과에는 그러한 림프절의 개수, 암으로 판정된 림프절의 개수, 그렇지 않은 림프절의 개수, 그 사이의 비율 및 이를 토대로 한 암의 병기에 관한 정보가 포함되도록 생성될 수 있다.Next, the pathology report generation module 250 reflects the section of the predetermined lesion calculated by the lesion region section module 220 and the section of the anatomical object calculated by the anatomical object region section module 230, and the pathology report generation module 250 Analysis of pathology reports on lesions can be generated. For example, if the lesion corresponds to cancer, and the anatomical object is a lymph node, the stage of cancer may be determined using the number of lymph nodes and the number of lymph nodes determined to be cancer, and the analysis result of the pathology report shows that the lymph node It can be generated to include information on the number of lymph nodes, the number of lymph nodes that are determined to be cancer, the number of lymph nodes that are not, the ratio therebetween, and the cancer stage based thereon.

생성된 병리 보고서의 분석 결과는 출력 모듈(260)에 의하여 외부 엔티티(external entity)에 제공될 수 있는데, 이를 위하여 출력 모듈(260)은 디스플레이 장치(미도시)를 포함할 수 있다. 여기에서 외부 엔티티라고 함은, 상기 컴퓨팅 장치(100)의 사용자, 관리자 등을 포함하나, 이 이외에도 그 병리 보고서의 분석 결과를 필요로 하는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다. 외부 엔티티는 상기 정보를 이용하는 인공지능 주체(artificial intelligence entity)일 수도 있으며, 그 정보를 저장하기 위한 저장 장치일 수도 있다. 외부 엔티티가 인간인 때에는 출력 모듈(260)은 소정의 출력 장치, 예컨대 디스플레이에 표시된 사용자 인터페이스를 통하여 예측 결과를 외부 엔티티에 제공할 수 있다.The result of analysis of the generated pathology report may be provided to an external entity by the output module 260, for which the output module 260 may include a display device (not shown). Here, the external entity includes a user, an administrator, and the like of the computing device 100, but it should be understood that any other subject that needs an analysis result of the pathology report is included. The external entity may be an artificial intelligence entity that uses the information, or a storage device for storing the information. When the external entity is a human, the output module 260 may provide the prediction result to the external entity through a predetermined output device, for example, a user interface displayed on a display.

일 실시 예에서는 도 2에 도시된 구성요소 외에 갱신 모듈 및 학습 모듈(270; 미도시)이 더 포함될 수 있는데, 이 갱신 모듈 및 학습 모듈은 사용자에 의한 수정 등 조작에 기초하여, 제1 판단부 및 제2 판단부 중 적어도 하나를 갱신하는 기능을 한다.In one embodiment, in addition to the components shown in FIG. 2, an update module and a learning module 270 (not shown) may be further included. The update module and the learning module may include a first determination unit based on manipulation such as modification by a user. And updating at least one of the second determination unit.

이와 같이 도 2에 도시된 모듈들은, 예컨대, 컴퓨팅 장치(100)에 포함된 통신부(110)나 프로세서(120), 또는 상기 통신부(110) 및 프로세서(120)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이며, 아래에서 그 기능 및 효과 등에 관하여 더 상세하게 설명될 것이다.As described above, the modules illustrated in FIG. 2 may be implemented by, for example, a communication unit 110 or a processor 120 included in the computing device 100, or by interworking the communication unit 110 and the processor 120. Those skilled in the art will understand, and will be described in more detail with respect to its functions and effects below.

이제 본 발명에 따른 병리 보고서 생성 보조 방법을 도 3을 참조하여 구체적으로 설명하기로 한다. 도 3은 본 발명의 일 실시 예에 따른 병리 보고서 생성 보조 방법을 예시적으로 나타낸 흐름도이다.Now, a method for assisting in generating a pathology report according to the present invention will be described in detail with reference to FIG. 3. 3 is a flowchart exemplarily showing a method for assisting in generating a pathology report according to an embodiment of the present invention.

도 3을 참조하면, 본 발명에 따른 병리 보고서 생성 보조 방법은, 우선, 컴퓨팅 장치(100)의 통신부(110)에 의하여 구현되는 영상 획득 모듈(210)이, 판독 대상인 병리 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치(미도시)로 하여금 상기 병리 영상을 획득하도록 지원하는 단계(S100)를 포함한다. Referring to FIG. 3, in the method for assisting in generating a pathology report according to the present invention, first, the image acquisition module 210 implemented by the communication unit 110 of the computing device 100 acquires the pathology image to be read, or the computing And supporting another device (not shown) linked to the device to obtain the pathology image (S100).

다음으로, 본 발명에 따른 병리 보고서 생성 보조 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 병변 영역 구획 모듈(220)이 상기 병리 영상으로부터 소정 병변을 구획하거나 상기 타 장치로 하여금 상기 소정 병변을 구획하도록 지원하는 프로세스(S200a; 미도시) 및 컴퓨팅 장치(100)에 의하여 구현되는 해부학적 객체 영역 구획 모듈(230)이 상기 병리 영상으로부터 해부학적 객체를 구획하거나 상기 타 장치로 하여금 상기 해부학적 객체를 구획하도록 지원하는 프로세스(S200b; 미도시)를 수행하는 단계(S200)를 더 포함한다.Next, in the method for assisting in generating a pathology report according to the present invention, the lesion area partitioning module 220 implemented by the computing device 100 partitions a predetermined lesion from the pathology image or causes the other device to partition the predetermined lesion The process (S200a; not shown) and the anatomical object region partitioning module 230 implemented by the computing device 100 partition the anatomical object from the pathology image or allow the other device to detect the anatomical object. Further comprising the step of performing a process (S200b; not shown) to support the partition (S200).

구체적으로, 프로세스(S200a)에서는 상기 병리 영상에 포함된 상기 소정 병변을 판정하도록 구성된 제1 판단부를 통하여 상기 병리 영상으로부터 상기 소정 병변의 구획이 산출될 수 있다. 또한, 구체적으로, 프로세스(S200b)에서는 상기 병리 영상에 포함된 상기 해부학적 객체를 판정하도록 구성된 제2 판단부를 통하여 상기 병리 영상으로부터 상기 해부학적 객체의 구획이 산출될 수 있다.Specifically, in the process S200a, a partition of the predetermined lesion may be calculated from the pathological image through a first determination unit configured to determine the predetermined lesion included in the pathological image. In addition, specifically, in the process S200b, a section of the anatomical object may be calculated from the pathological image through a second determination unit configured to determine the anatomical object included in the pathological image.

도 4는 본 발명에 따른 병리 보고서 생성 보조 방법의 제1 판단부 및 제2 판단부에서 이용될 수 있는 심층 신경망의 예로서 특정 심층 신경망 아키텍처를 개념적으로 나타낸 도면이다.4 is a diagram conceptually illustrating a specific deep neural network architecture as an example of a deep neural network that can be used in the first and second determination units of the pathology report generation assist method according to the present invention.

본 발명에서 소정 병변 및 해부학적 객체 중 적어도 하나를 구획하는 데 심층 신경망이 이용될 수 있는데, 심층 신경망은 이를 이루는 층의 수가 많으면 많을수록 그 효과가 뛰어나다는 점은 통상의 기술자에게 알려진 바와 같다. 다만 종래에 인공 신경망에 기울기 소실 문제(vanishing gradient problem)로 인하여 역전파 수행시에 모델의 가중치가 제대로 반영되지 못하는 단점이 있었는데, 근래 나온 이에 대한 해법은 그 기울기를 보존할 수 있도록 심층 신경망을 구성하는 방안이다.In the present invention, a deep neural network may be used to partition at least one of a predetermined lesion and an anatomical object. It is known to those skilled in the art that the greater the number of layers constituting this, the better the effect. However, there has been a disadvantage in that the weight of the model is not properly reflected when performing the back propagation due to the vanishing gradient problem in the artificial neural network, but the solution to this recently constitutes a deep neural network to preserve the gradient. Is the way to do it.

특히, 도 4에 예시된 심층 신경망 아키텍처는 Inception V3이라고 통칭하는 합성곱 인공 신경망(convolutional artificial neural network; CNN)이다. 벡터로 표현된 특징값{즉, 특징 벡터(feature vector)}은, 도시된 예시에서와 같이 8x8x2048를 이용하거나, 8x8 크기의 영역에 대하여 평균을 취하는 전역 평균 풀링(GAP; global average pooling) 등을 이용하여 2048 차원의 벡터를 이용할 수 있다. 이와 같은 심층 신경망 모델은 입력되는 영상 패치(영상 조각)에 대하여 다양한 분류를 수행하는 문제를 해결하도록 훈련된다.In particular, the deep neural network architecture illustrated in FIG. 4 is a convolutional artificial neural network (CNN) commonly referred to as Inception V3. Feature values expressed in vectors (i.e., feature vectors) use 8x8x2048 as in the illustrated example, or global average pooling (GAP) that averages over 8x8-sized regions. You can use a 2048-dimensional vector. This deep neural network model is trained to solve the problem of performing various classifications on the input image patch (image fragment).

예를 들어, 입력된 영상에서 어떤 특정 속성을 가진 영역을 구획하는 것은 그 구획에 속하는 픽셀 또는 복셀들을 "{포함됨, 포함되지 않음}" 중 어느 하나의 클래스로 분류하는 것이라 할 수 있다. For example, it can be said that partitioning an area having a specific attribute in an input image is a class of any one of "{included, not included}" pixels or voxels belonging to the partition.

따라서, 암과 같은 병변을 검출하기 위한 심층 신경망 모델은 병변에 해당하는 픽셀 또는 복셀들을 그렇지 않은 픽셀 또는 복셀들과 구분 및 분류하도록 학습되고, 림프절과 같은 해부학적 객체를 검출하기 위한 심층 신경망 모델은 해부학적 객체에 해당하는 픽셀 또는 복셀들을 그렇지 않은 픽셀 또는 복셀들과 구분 및 분류하도록 학습될 수 있다. 이 경우, 검출된 림프절 구획은 픽셀 또는 복셀간의 연관성(pixel connectivity or voxel connectivity) 등을 이용하여 그 개수를 정할 수도 있을 것이다.Accordingly, the deep neural network model for detecting a lesion such as cancer is trained to distinguish and classify pixels or voxels corresponding to the lesion from pixels or voxels that do not, and the deep neural network model for detecting anatomical objects such as lymph nodes It may be learned to distinguish and classify pixels or voxels corresponding to an anatomical object from pixels or voxels that are not. In this case, the number of detected lymph node segments may be determined by using pixel connectivity or voxel connectivity.

다만, 통상의 기술자는 이와 같은 Inception V3 외에도 훈련용 데이터, 즉 병리 영상 및 이에 대응되는 레이블링 데이터, 즉 구획에 관한 정보를 이용한 훈련을 통하여 입력되는 영상에 대한 분류, 즉 구획을 수행할 수 있는 다양한 종류의 심층 신경망 알고리즘이 있을 수 있으며, 도 4에 예시된 특정된 구조의 심층 신경망에 한정되지 않음을 이해할 수 있을 것이다. 예컨대, U-Net 유사 구조를 이용하는 등의 타 방법이 존재한다.However, in addition to the Inception V3 as described above, the ordinary technician can classify the training input, that is, the pathology image and the corresponding labeling data, that is, the classification of the input image through training using the information on the partition, that is, various sections There may be a kind of deep neural network algorithm, and it will be understood that it is not limited to the deep neural network of the specified structure illustrated in FIG. 4. For example, other methods exist, such as using a U-Net-like structure.

한편, 병변 영역 구획 모듈(220) 및 해부학적 객체 영역 구획 모듈(230) 각각이 제1 심층 신경망 모듈 및 제2 심층 신경망 모듈을 이용하는 때에, 이들 심층 신경망 모듈에 의한 잘못된 구획 산출의 오류가 있을 수 있는바, 이를 바로잡을 필요가 있다. On the other hand, when each of the lesion region partition module 220 and the anatomical object region partition module 230 uses the first deep neural network module and the second deep neural network module, there may be an error in incorrect partition calculation by these deep neural network modules. As it is, it needs to be corrected.

오류를 바로잡을 필요뿐만 아니라 사용자에 의한 구획이 직접 이루어지도록 구성할 필요도 있으므로, 이를 위하여, 단계(S200)의 일 실시 예에서는, 컴퓨팅 장치(100)가, 프로세스(S200a)에서의 소정 병변의 구획 및 프로세스(S200b)에서의 해부학적 객체의 구획 중 적어도 하나에 대한 사용자의 입력, 변경 및 삭제 중 적어도 하나를 지원하기 위한 사용자 인터페이스 요소들을 제공하거나 상기 타 장치로 하여금 제공하도록 지원하고, 그 사용자 인터페이스 요소에 대한 조작에 응하여, 상기 소정 병변의 구획 및 상기 해부학적 객체의 구획 중 적어도 하나를 입력, 변경 또는 삭제하거나 상기 타 장치로 하여금 입력, 변경 또는 삭제하도록 지원할 수 있다.In addition to the need to correct the error, it is also necessary to configure the compartment to be made by the user directly. To this end, in one embodiment of step S200, the computing device 100, the predetermined lesion in the process (S200a) Provide user interface elements for supporting at least one of user input, change, and deletion of at least one of the sections of the anatomical object in the section and process S200b, or assist the other device to provide, and the user In response to manipulation of the interface element, at least one of the compartment of the predetermined lesion and the compartment of the anatomical object may be input, changed, or deleted, or may be supported by the other device to be input, changed, or deleted.

도 5a 및 도 5b는 각각 본 발명의 병리 보고서 생성 보조 방법의 실시 예들에 따라 제공되는 사용자 인터페이스 요소를 예시적으로 나타낸 개념도이다. 도 5a 및 도 5b에는 암이 소정 병변의 일 예시로서, 림프절이 해부학적 객체의 일 예시로서 도시되어 있다.5A and 5B are conceptual diagrams exemplarily showing user interface elements provided according to embodiments of the method for generating a pathology report according to the present invention. 5A and 5B, cancer is illustrated as an example of a predetermined lesion, and lymph nodes are illustrated as an example of an anatomical object.

도 5a를 참조하면, 림프절 슬라이스 영상(510), 병변 영역 구획 모듈의 산출 결과(520), 해부학적 객체 영역 구획 모듈의 산출 결과(530) 등이 예시되어 있고, 림프절(540, 550)과 림프절이 아닌 객체(560)가 각각 도시되어 있다. 병변 영역 구획 모듈의 산출 결과(520), 림프절(540)에는 암 영역(540a)이 표시되어 있으며, 해부학적 객체 영역 구획 모듈의 산출 결과(530), 림프절(540)과 림프절(550) 각각에 그 각각이 림프절에 해당함을 보이는 구획들(540b, 550b)이 표시되어 있다.Referring to FIG. 5A, a lymph node slice image 510, a calculation result 520 of a lesion region section module, and a calculation result 530 of an anatomical object region section module are illustrated, and the lymph nodes 540, 550 and lymph nodes Non-objects 560 are shown, respectively. The calculation result 520 of the lesion region compartment module and the cancer region 540a are displayed on the lymph node 540, and the calculation result 530 of the anatomical object region compartment module 530, the lymph node 540, and the lymph node 550 are respectively shown. Sections 540b and 550b are shown, each of which corresponds to a lymph node.

도 5b를 참조하면, 림프절 영역(540b, 550b)은 정상적으로 구획된 것이지만, 영역(560b)은 림프절에 해당되지 않는데 잘못 구획된 것이고, 림프절 영역(550b')는 실제보다 작게 구획된 것이므로 이를 바로잡을 필요가 있다. 즉, 잘못 구획된 것은 삭제하고, 실제보다 작게 구획된 것은 수정하여야 할 것이다. 5B, the lymph node regions 540b and 550b are normally partitioned, but the region 560b does not correspond to the lymph nodes and is incorrectly partitioned, and the lymph node regions 550b 'are partitioned smaller than they are, so correct them. There is a need. In other words, the wrongly partitioned ones should be deleted, and the smaller ones must be corrected.

또한, 림프절의 실제 형태는 강낭콩과 유사하여, 절편상으로는 2개로 분리되더라도 실제는 1개의 림프절일 수 있다. 즉, 동일한 영상에 나타난 림프절이 판독자에 따라 1개로 계수되거나 2개로 계수될 수 있으므로, 잘못 계수된 구획은 삭제하여야 할 필요도 있다. 이와 반대로, 1개로 계수된 구획을 2개 이상의 구획으로 나누어야 하거나, 구획되지 않은 영역을 새롭게 구획할 필요도 있다.In addition, the actual shape of the lymph node is similar to kidney beans, and even if it is divided into two sections, it may be one lymph node. That is, since the lymph nodes shown in the same image may be counted as one or two according to the reader, it is necessary to delete the incorrectly counted section. On the contrary, it is necessary to divide a section counted as one into two or more sections, or to newly divide an unpartitioned area.

이를 위하여 사용자는 제공되는 사용자 인터페이스 상의 사용자 인터페이스 요소, 예컨대, 통상의 기술자에게 널리 알려진 예시로서 브러시 또는 지우개 혹은 이와 유사한 도구에 상응하는 요소(570)를 이용하여 원하는 구획을 임의로 조절할 수 있다.To this end, the user may arbitrarily adjust the desired section using a user interface element on the provided user interface, for example, a brush or eraser or similar tool 570 as an example well known to those skilled in the art.

계속해서 도 3을 참조하면, 본 발명에 따른 병리 보고서 생성 보조 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 병리 보고서 생성 모듈(250)이, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 단계(S300)를 더 포함한다. 3, the pathology report generation assist method according to the present invention includes a pathology report generation module 250 implemented by the computing device 100 between the section of the predetermined lesion and the section of the anatomical object. Of the pathology report for the given lesion by reflecting at least one of the inclusion relationship, the dimensions of the compartments of the given lesion, the number of compartments of the given lesion, the dimensions of the compartments of the anatomical object, and the number of compartments of the anatomical object Further comprising the step (S300) of generating an analysis result or supporting the other device to generate.

예를 들어, 상기 소정 병변의 구획과 상기 해부학적 객체의 구획 간의 포함 관계는, 특정의 해부학적 객체, 예컨대 림프절의 구획 내에 특정의 소정 병변, 예컨대 암의 구획이 포함되어야 하는 관계일 수 있는바, 이는 림프절에 대한 암의 전이에 관한 병리 보고서의 기초 자료가 될 수 있기 때문이다.For example, the inclusion relationship between the compartment of the predetermined lesion and the compartment of the anatomical object may be a relationship in which a specific predetermined lesion, such as a compartment of cancer, should be included in a compartment of a specific anatomical object, such as a lymph node. This is because it can serve as a basis for pathological reports on cancer metastasis to lymph nodes.

구체적으로, 단계(S300)의 일 실시 예에서, 병리 보고서 생성 모듈(250)은, 병변으로 진단된 해부학적 객체의 개수와 병변이 아닌 해부학적 객체의 개수를 산출한 결과로부터 병리 보고서의 분석 결과를 생성할 수 있는바, 즉, 상기 해부학적 객체에 상기 소정 병변이 포함되는 비율에 기초하여 상기 병리 보고서의 분석 결과를 생성할 수 있다. Specifically, in one embodiment of step S300, the pathology report generation module 250 analyzes the pathology report from the results of calculating the number of anatomical objects diagnosed as lesions and the number of anatomical objects other than lesions In other words, the analysis result of the pathology report may be generated based on a ratio in which the predetermined lesion is included in the anatomical object.

예를 들어, 도 5a를 참조하면, 병리 영상(림프절 슬라이스 영상)(510)으로부터 병변(암) 영역 구획 모듈이 산출한 구획(520) 및 해부학적 객체(림프절) 영역 구획 모듈이 산출한 구획(530)의 결과에 기초하여 병리 보고서 생성 모듈(250)은 "전체 림프절 2개 중 암 1개 (1/2)"라는 병리 보고서의 분석 결과를 생성할 수 있다.For example, referring to FIG. 5A, a section 520 calculated by a lesion (cancer) region section module from a pathology image (lymph node slice image) 510 and a section calculated by an anatomical object (lymph node) region section module ( Based on the results of 530, the pathology report generation module 250 may generate an analysis result of a pathology report called “one cancer (1/2) out of two total lymph nodes”.

다시 도 3을 참조하면, 본 발명에 따른 병리 보고서 생성 보조 방법은, 상기 프로세서(120)에 의하여 구현되는 출력 모듈(260)이, 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 상기 병리 보고서 분석 결과를 상기 외부 엔티티에 제공하도록 지원하는 단계(S400)를 더 포함한다. Referring back to FIG. 3, in the method for generating a pathology report according to the present invention, the output module 260 implemented by the processor 120 provides the result of analyzing the generated pathology report to an external entity or Further comprising the step (S400) for supporting the other device to provide the pathology report analysis results to the external entity.

한편, 본 발명에 따른 병리 보고서 생성 보조 방법의 수행에 앞서, 활용되는 제1 판단부 및 제2 판단부, 예컨대, 심층 신경망 모듈들이 미리 학습되는 단계(S050)를 거쳐야 할 필요가 있는바, 이를 위한 갱신 및 학습 모듈, 혹은 학습 모듈(270; 미도시)이 상기 프로세서(120)에 의하여 실행될 수 있다.On the other hand, prior to performing the pathology report generation auxiliary method according to the present invention, it is necessary to go through the step (S050) in which the first and second determination units utilized, for example, deep neural network modules are previously learned (S050). An update and learning module for learning, or a learning module 270 (not shown) may be executed by the processor 120.

예를 들어, 제1 판단부의 학습을 위하여, 학습 모듈(270)은 다수의 피검체에 대한 병리 영상 및 그 병리 영상에 나타난 소정 병변을 표시(마킹; marking)한 레이블링 데이터를 훈련용 데이터로 이용할 수 있으며, 제2 판단부의 학습을 위하여, 학습 모듈(270)은 다수의 피검체에 대한 병리 영상 및 그 병리 영상에 나타난 해부학적 객체를 표시한 레이블링 데이터를 훈련용 데이터로 이용할 수 있다. 이를 위한 훈련용 데이터는 실질적으로 전술한 사용자 인터페이스에 의하여 준비될 수 있음을 이해할 수 있을 것이다.For example, in order to learn the first determination unit, the learning module 270 may use pathology images for a plurality of subjects and labeling data marking (marking) predetermined lesions shown in the pathology images as training data. In order to learn the second determination unit, the learning module 270 may use pathological images for a plurality of subjects and labeling data indicating anatomical objects represented in the pathological images as training data. It will be appreciated that training data for this can be prepared substantially by the user interface described above.

본 개시서에 첨부된 도면들에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치에서 실현되는 것으로 예시되었으나, 본 발명의 방법을 수행하는 컴퓨팅 장치(100)는 복수개의 장치들이 서로 연동된 것으로 구성될 수도 있으며, 이는 본 개시서에 첨부된 청구범위에 의하여 망라될 수 있다는 점이 이해될 것이다. 따라서 전술한 본 발명 방법의 각 단계는, 하나의 컴퓨팅 장치가 직접 수행하거나 상기 하나의 컴퓨팅 장치가 상기 하나의 컴퓨팅 장치에 연동되는 타 컴퓨팅 장치로 하여금 수행하도록 지원함으로써 수행될 수 있음이 자명하다.Components shown in the accompanying drawings in this disclosure are illustrated as being realized in one computing device for convenience of description, but the computing device 100 performing the method of the present invention may be configured as a plurality of devices interlocked with each other. It will be understood that this may be covered by the claims appended to this disclosure. Accordingly, it is obvious that each step of the above-described method of the present invention can be performed by directly performing one computing device or supporting another computing device that is connected to the one computing device to perform one computing device.

이와 같이 본 발명에 따른 병리 보고서 생성 보조 방법은, 파악된 소정 병변과 해부학적 객체에 기초하여 병리 보고서의 분석 결과를 생성할 수 있는바, 그 소정 병변과 해부학적 객체의 구획을 추가, 편집, 삭제한 정보 등을 다시 제1 판단부 및 제2 판단부에 대한 갱신 혹은 추가 학습의 자료로 활용한다면, 이들 판단부가 더 정확한 구획을 수행하도록 할 수 있는 장점이 있으므로, 이러한 장점을 취하기 위한 본 발명에 따른 병리 보고서 생성 보조 방법은, 상기 프로세서(120)가, 상기 사용자 인터페이스 요소에 대한 조작에 기초하여, 상기 병리 영상에 포함된 상기 소정 병변을 판정하도록 훈련된 제1 판단부 및 상기 병리 영상에 포함된 상기 해부학적 객체를 판정하도록 훈련된 제2 판단부 중 적어도 하나를 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 단계(S500)를 더 포함할 수 있다. 이때, 이전의 훈련 내지 학습 때에는 고려되지 않았던 데이터가 추가로 고려되고, 이전의 학습 때에 있었던 오류를 바로잡을 수 있기 때문에 상기 제1 판단부 및 제2 판단부의 정확도가 향상되는바, 데이터가 쌓일수록 그 성능이 지속적으로 향상되는 장점이 있다.As described above, in the method for assisting in generating a pathology report according to the present invention, an analysis result of a pathology report can be generated based on the identified predetermined lesions and anatomical objects. If the deleted information and the like are used as data for updating or additional learning of the first and second judgment units again, there is an advantage that these judgment units can perform more accurate division, and thus the present invention for taking these advantages According to the method for generating a pathology report according to the method, the processor 120 may include a first determination unit and a pathology image trained to determine the predetermined lesion included in the pathology image based on manipulation of the user interface element. The method may further include updating at least one of the second determination units trained to determine the included anatomical object or supporting the other device to update (S500). At this time, the data that was not considered in the previous training or learning is additionally considered, and since the errors in the previous training can be corrected, the accuracy of the first and second determination units is improved. There is an advantage that the performance is continuously improved.

여기에서 상기 사용자 인터페이스 요소에 대하여 조작을 시행하는 주체는 상기 의료 전문가 등의 외부 엔티티일 수 있다.Here, an entity that performs manipulation on the user interface element may be an external entity such as the medical professional.

이와 같이 본 발명은 전술한 모든 실시 예들에 걸쳐, 더 편리하고 효율적으로 병변 및 이와 관련된 해부학적 객체를 계수할 수 있는 효과가 있다.As described above, the present invention has an effect capable of more conveniently and efficiently counting lesions and related anatomical objects over all the above-described embodiments.

상기 실시 예들로써 여기에서 설명된 기술의 이점은, 하루에도 많은 진단 자료에 기초하여 정확히 판정 내지 예측하여야 하는 바쁜 의료 환경에 놓인 의료 전문가들의 부담을 크게 덜어줄 수 있는 한편, 림프절의 계수와 같은 해부학적 객체의 계수에 관한 일정한 기준을 제시할 수 있어 판독자 간의 불일치도를 낮추어 관련 질환에 관한 더 정확한 판정이 가능해진다는 점이다. 요컨대, 소정 병변의 영역과 해부학적 객체의 영역을 표시하여 데이터화하는 작업을 촉진할 수 있는바, 의료 관련 인공지능 기술의 발전에 양의 피드백으로서 이바지할 수 있다.The advantages of the technique described herein as the above embodiments can greatly relieve the burden of medical professionals placed in a busy medical environment that must be accurately determined or predicted based on a lot of diagnostic data even a day, while anatomy, such as lymph node counting It is possible to provide a certain criterion regarding the counting of enemy objects, thereby lowering the degree of disagreement among readers, thereby enabling more accurate determination of related diseases. In short, it is possible to promote the task of displaying and dataating a region of a predetermined lesion and an anatomical object, thereby contributing positively to the development of medical-related AI technology.

이상, 본 개시서의 다양한 실시 예들에 관한 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 프로세서, 예컨대, 마이크로프로세서, 컨트롤러, 예컨대, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 마이크로컴퓨터, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 예컨대, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 예컨대, FPGA(field programmable gate array), PLU(programmable logic unit) 혹은 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 기타 명령어(instruction)를 실행하고 응답할 수 있는 임의의 다른 장치, 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.As described above, based on the description of various embodiments of the present disclosure, a person skilled in the art, the method and / or processes of the present invention, and the steps of the hardware and software suitable for a specific application of hardware, software, or software It can be clearly understood that it can be realized in any combination. The hardware may include general purpose computers and / or dedicated computing devices or specific computing devices or special features or components of a particular computing device. The processes include one or more processors having internal and / or external memory, such as microprocessors, controllers, such as microcontrollers, embedded microcontrollers, microcomputers, arithmetic logic units (ALUs), digital signal processors (digital signal processors) For example, it may be realized by a programmable digital signal processor or other programmable device. In addition, or alternatively, the processes may include application specific integrated circuits (ASICs), programmable gate arrays (eg, field programmable gate arrays (FPGAs), programmable logic units (PLUs) or programmable array logics). (Programmable Array Logic; PAL) or any other device capable of executing and responding to any other instruction, or any other device or combination of devices that can be configured to process electronic signals. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령어(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령어 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 기계 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored on one or more machine-readable recording media.

더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능 매체에 기록될 수 있다. 기계 판독 가능 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD, Blu-ray와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는 바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다. Moreover, the objects of the technical solution of the present invention or parts contributing to the prior art may be implemented in the form of program instructions that can be executed through various computer components and recorded in a machine-readable medium. The machine-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded in the machine-readable recording medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in the computer software field. Examples of machine-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and Blu-rays, and floptical disks. And magneto-optical media such as), and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions are stored and compiled or interpreted to be executed on a machine capable of executing a heterogeneous combination of processors, processor architectures, or combinations of different hardware and software, or any other program instructions, as well as any of the devices described above. Can be made using structured programming languages such as C, object-oriented programming languages like C ++, or advanced or low-level programming languages (assemblies, hardware description languages and database programming languages and techniques), machine code, This includes not only bytecode, but also high-level language code that can be executed by a computer using an interpreter.

따라서 본 발명에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 개시서의 범위 내에 속하도록 의도된 것이다.Thus, in one aspect according to the present invention, when the above-described method and combinations thereof are performed by one or more computing devices, the combination of the method and method may be implemented as executable code that performs each step. In another aspect, the method can be implemented as systems that perform the steps, and the methods can be distributed in various ways across devices or all functions can be integrated into one dedicated, standalone device or other hardware. In another aspect, means for performing the steps associated with the processes described above may include any hardware and / or software described above. All such sequential combinations and combinations are intended to fall within the scope of this disclosure.

예를 들어, 상기된 하드웨어 장치는 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력 장치를 포함할 수 있다.For example, the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa. The hardware device may include a processor such as an MPU, CPU, GPU, TPU, which is combined with a memory such as ROM / RAM for storing program instructions and is configured to execute instructions stored in the memory, and an external device and a signal. It may include a communication unit for sending and receiving. In addition, the hardware device may include a keyboard, a mouse, and other external input devices for receiving commands written by developers.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시 예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described by specific embodiments such as specific components and limited embodiments and drawings, but this is provided only to help the overall understanding of the present invention, and the present invention is not limited to the above embodiments, Any person having ordinary skill in the art to which the present invention pertains may seek various modifications and variations from these descriptions.

따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니되며, 본 개시서에 첨부된 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Therefore, the spirit of the present invention is not limited to the above-described embodiment, and should not be determined, and all claims that are equally or equivalently modified with the claims appended to the present disclosure are the spirit of the present invention. It would be said to belong to the category of. For example, the described techniques are performed in a different order than the described method, and / or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if substituted or substituted by equivalents, appropriate results can be achieved.

그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인 바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.Such an equivalent or equivalent modification will include a method that is logically equivalent, which can produce the same results as, for example, the method according to the present invention. The scope should not be limited by the examples described above, but should be understood in the broadest sense acceptable by law.

Claims (10)

병리 영상으로부터 병리 보고서의 생성을 보조하는 방법에 있어서,
(a) 컴퓨팅 장치가, 판독 대상인 병리 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 상기 병리 영상을 획득하도록 지원하는 단계;
(c) 상기 컴퓨팅 장치가, 상기 병리 영상에 나타난 소정 병변의 구획과 상기 병리 영상에 나타난 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 단계; 및
(d) 상기 컴퓨팅 장치가, 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계
를 포함하는 병리 보고서 생성 보조 방법.
A method for assisting in the generation of a pathology report from a pathology image,
(a) the computing device acquiring a pathology image to be read, or assisting another device linked to the computing device to acquire the pathology image;
(c) the computing device includes an inclusion relationship between a section of a predetermined lesion shown in the pathology image and a section of an anatomical object shown in the pathology image, a dimension of the section of the predetermined lesion, the number of sections of the predetermined lesion, and the anatomy Generating an analysis result of a pathology report on the predetermined lesion by reflecting at least one of a dimension of a section of an enemy object and a number of sections of the anatomical object, or assisting the other device to generate the analysis result; And
(d) providing, by the computing device, the generated pathology report analysis result to an external entity or assisting the other device to provide the result.
Method for generating a pathology report comprising a.
제1항에 있어서,
상기 (c) 단계 전에,
(b1) 상기 컴퓨팅 장치가, 상기 병리 영상으로부터 상기 소정 병변을 구획하거나 상기 타 장치로 하여금 구획하도록 지원하는 단계
를 더 포함하는 병리 보고서 생성 보조 방법.
According to claim 1,
Before step (c),
(b1) the computing device partitioning the predetermined lesion from the pathological image or supporting the other device to partition
Method for generating a pathology report further comprising a.
제2항에 있어서,
상기 (b1) 단계는,
상기 컴퓨팅 장치가, 상기 소정 병변의 구획에 대한 사용자의 입력, 변경 및 삭제 중 적어도 하나를 지원하기 위한 적어도 하나의 사용자 인터페이스 요소를 제공하거나 상기 타 장치로 하여금 상기 사용자 인터페이스를 제공하도록 지원하는 단계; 및
상기 사용자 인터페이스 요소에 대한 조작에 응하여, 상기 컴퓨팅 장치가, 상기 소정 병변의 구획을 입력, 변경 또는 삭제하거나 상기 타 장치로 하여금 상기 소정 병변의 구획을 입력, 변경 또는 삭제하도록 지원하는 단계
를 포함하는 것을 특징으로 하는 병리 보고서 생성 보조 방법.
According to claim 2,
Step (b1) is,
Providing, by the computing device, at least one user interface element to support at least one of a user's input, change, and deletion of the partition of the predetermined lesion or assisting the other device to provide the user interface; And
In response to manipulation of the user interface element, the computing device inputting, changing, or deleting a section of the predetermined lesion or assisting the other device to input, change, or delete a section of the predetermined lesion.
A method for generating a pathology report, characterized in that it comprises a.
제1항에 있어서,
상기 (c) 단계 전에,
(b2) 상기 컴퓨팅 장치가, 상기 병리 영상으로부터 상기 해부학적 객체를 구획하거나 상기 타 장치로 하여금 구획하도록 지원하는 단계
를 더 포함하는 병리 보고서 생성 보조 방법.
According to claim 1,
Before step (c),
(b2) the computing device partitioning the anatomical object from the pathological image or supporting the other device to partition
Method for generating a pathology report further comprising a.
제4항에 있어서,
상기 (b2) 단계는,
상기 컴퓨팅 장치가, 상기 해부학적 객체의 구획에 대한 사용자의 입력, 변경 및 삭제 중 적어도 하나를 지원하기 위한 적어도 하나의 사용자 인터페이스 요소를 제공하거나 상기 타 장치로 하여금 상기 사용자 인터페이스를 제공하도록 지원하는 단계; 및
상기 사용자 인터페이스 요소에 대한 조작에 응하여, 상기 컴퓨팅 장치가, 상기 해부학적 객체의 구획을 입력, 변경 또는 삭제하거나 상기 타 장치로 하여금 상기 해부학적 객체의 구획을 입력, 변경 또는 삭제하도록 지원하는 단계
를 포함하는 것을 특징으로 하는 병리 보고서 생성 보조 방법.
The method of claim 4,
Step (b2) is,
Providing, by the computing device, at least one user interface element to support at least one of a user's input, change, and deletion of a section of the anatomical object, or assisting the other device to provide the user interface; ; And
In response to manipulation of the user interface element, the computing device entering, changing, or deleting a segment of the anatomical object, or assisting the other device to enter, change, or delete a segment of the anatomical object
A method for generating a pathology report, characterized in that it comprises a.
제1항에 있어서,
상기 (c) 단계는,
상기 해부학적 객체에 상기 소정 병변이 포함되는 비율에 기초하여 상기 병리 보고서의 분석 결과가 생성되는 것을 특징으로 하는 병리 보고서 생성 보조 방법.
According to claim 1,
Step (c) is,
A method of generating a pathology report, characterized in that an analysis result of the pathology report is generated based on a ratio in which the predetermined lesion is included in the anatomical object.
컴퓨팅 장치로 하여금, 제1항 내지 제6항 중 어느 한 항의 방법을 수행하도록 구현된 인스트럭션들(instructions)을 포함하는, 매체에 저장된 컴퓨터 프로그램.A computer program stored on a medium comprising instructions implemented to cause a computing device to perform the method of claim 1. 병리 영상으로부터 병리 보고서의 생성을 보조하는 컴퓨팅 장치에 있어서,
판독 대상인 병리 영상을 획득하는 통신부; 및
(ii) 상기 병리 영상에 나타난 소정 병변의 구획과 상기 병리 영상에 나타난 해부학적 객체의 구획 간의 포함 관계, 상기 소정 병변의 구획의 치수, 상기 소정 병변의 구획의 개수, 상기 해부학적 객체의 구획의 치수 및 상기 해부학적 객체의 구획의 개수 중 적어도 하나를 반영하여 상기 소정 병변에 관한 병리 보고서의 분석 결과를 생성하는 프로세스, 및 (iii) 생성된 상기 병리 보고서 분석 결과를 외부 엔티티(entity)에게 제공하는 프로세스를 수행하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 수행하도록 지원하는 프로세서
를 포함하는, 병리 보고서 생성 장치.
In the computing device to assist in the generation of a pathology report from the pathology image,
A communication unit that acquires a pathology image to be read; And
(ii) the inclusion relationship between a section of the lesion indicated in the pathological image and a section of the anatomical object indicated in the pathological image, the dimension of the section of the predetermined lesion, the number of sections of the predetermined lesion, and the section of the section of the anatomical object A process of generating an analysis result of a pathology report on the predetermined lesion by reflecting at least one of a dimension and the number of sections of the anatomical object, and (iii) providing the generated result of analysis of the pathology report to an external entity A processor that performs a process or supports other devices interlocked through the communication unit to perform
A pathology report generating device comprising a.
제8항에 있어서,
상기 프로세서는,
상기 (ii) 프로세스 전에,
(i1) 상기 병리 영상으로부터 소정 병변을 구획하는 프로세스
를 더 수행하거나 상기 타 장치로 하여금 더 수행하도록 지원하는 것을 특징으로 하는 병리 보고서 생성 장치.
The method of claim 8,
The processor,
Before the (ii) process,
(i1) Process of partitioning a predetermined lesion from the pathological image
Pathological report generating device characterized in that to further perform or to support the other device to perform more.
제8항에 있어서,
상기 프로세서는,
상기 (ii) 프로세스 전에,
(i2) 상기 병리 영상으로부터 해부학적 객체를 구획하는 프로세스
를 더 수행하거나 상기 타 장치로 하여금 더 수행하도록 지원하는 것을 특징으로 하는 병리 보고서 생성 장치.
The method of claim 8,
The processor,
Before the (ii) process,
(i2) Process of partitioning an anatomical object from the pathological image
Pathological report generating device characterized in that to further perform or to support the other device to perform more.
KR1020190168010A 2018-11-20 2019-12-16 Method for assisting in generation of pathology report from pathology image and apparatus using the same KR102390347B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190168010A KR102390347B1 (en) 2018-11-20 2019-12-16 Method for assisting in generation of pathology report from pathology image and apparatus using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180143469A KR102078393B1 (en) 2018-11-20 2018-11-20 Method for assisting in generation of pathology report from pathology image and apparatus using the same
KR1020190168010A KR102390347B1 (en) 2018-11-20 2019-12-16 Method for assisting in generation of pathology report from pathology image and apparatus using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180143469A Division KR102078393B1 (en) 2018-11-20 2018-11-20 Method for assisting in generation of pathology report from pathology image and apparatus using the same

Publications (2)

Publication Number Publication Date
KR20200059183A true KR20200059183A (en) 2020-05-28
KR102390347B1 KR102390347B1 (en) 2022-04-25

Family

ID=81451696

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190168010A KR102390347B1 (en) 2018-11-20 2019-12-16 Method for assisting in generation of pathology report from pathology image and apparatus using the same

Country Status (1)

Country Link
KR (1) KR102390347B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008079770A (en) * 2006-09-27 2008-04-10 Gifu Univ Diagnostic reading support apparatus, diagnostic reading support method and program
JP2011514227A (en) * 2008-03-17 2011-05-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Perfusion imaging
KR101874348B1 (en) 2017-11-21 2018-07-09 주식회사 뷰노 Method for facilitating dignosis of subject based on chest posteroanterior view thereof, and apparatus using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008079770A (en) * 2006-09-27 2008-04-10 Gifu Univ Diagnostic reading support apparatus, diagnostic reading support method and program
JP2011514227A (en) * 2008-03-17 2011-05-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Perfusion imaging
KR101874348B1 (en) 2017-11-21 2018-07-09 주식회사 뷰노 Method for facilitating dignosis of subject based on chest posteroanterior view thereof, and apparatus using the same

Also Published As

Publication number Publication date
KR102390347B1 (en) 2022-04-25

Similar Documents

Publication Publication Date Title
US10282588B2 (en) Image-based tumor phenotyping with machine learning from synthetic data
US10853449B1 (en) Report formatting for automated or assisted analysis of medical imaging data and medical diagnosis
US11037070B2 (en) Diagnostic test planning using machine learning techniques
US10085707B2 (en) Medical image information system, medical image information processing method, and program
CN114503213B (en) Detection of disease from weakly annotated rolled medical images using convolved long-term and short-term memory
EP3547252A1 (en) Multi-modal image processing system and method
Habuza et al. AI applications in robotics, diagnostic image analysis and precision medicine: Current limitations, future trends, guidelines on CAD systems for medicine
US10699434B2 (en) Determination of result data on the basis of medical measurement data from various measurements
US20220172844A1 (en) Machine learning system and method, integration server, information processing apparatus, program, and inference model creation method
US11043295B2 (en) Method and providing unit for providing a virtual tomographic stroke follow-up examination image
Singh et al. Topological data analysis in medical imaging: current state of the art
Zheng et al. Integrating semi-supervised and supervised learning methods for label fusion in multi-atlas based image segmentation
Jiang et al. Abdominal adipose tissues extraction using multi-scale deep neural network
Lin et al. Intelligent oncology: the convergence of artificial intelligence and oncology
An et al. A deep learning-based fully automatic and clinical-ready framework for regional myocardial segmentation and myocardial ischemia evaluation
KR102078393B1 (en) Method for assisting in generation of pathology report from pathology image and apparatus using the same
JP7007469B2 (en) Medical document creation support devices, methods and programs, trained models, and learning devices, methods and programs
KR102390347B1 (en) Method for assisting in generation of pathology report from pathology image and apparatus using the same
Narasimhamurthy An overview of machine learning in medical image analysis: Trends in health informatics
KR20200059182A (en) Method for assisting in generation of pathology report from pathology image and apparatus using the same
US11537826B2 (en) Determining a processing sequence for processing an image
Sajjanar et al. Advancements in hybrid approaches for brain tumor segmentation in MRI: a comprehensive review of machine learning and deep learning techniques
KR102627874B1 (en) Method and system for quantitative analysis of brain imaging based on ct images
US20240071621A1 (en) Method and system for predicting risk of occurrence of lesions
EP4273881A2 (en) Method and system for predicting risk of occurrence of lesion

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant