KR20230087331A - Method and apparatus for bottom-up segmentation of instance - Google Patents

Method and apparatus for bottom-up segmentation of instance Download PDF

Info

Publication number
KR20230087331A
KR20230087331A KR1020220009374A KR20220009374A KR20230087331A KR 20230087331 A KR20230087331 A KR 20230087331A KR 1020220009374 A KR1020220009374 A KR 1020220009374A KR 20220009374 A KR20220009374 A KR 20220009374A KR 20230087331 A KR20230087331 A KR 20230087331A
Authority
KR
South Korea
Prior art keywords
instance
sigma
pixel
instances
segmentation
Prior art date
Application number
KR1020220009374A
Other languages
Korean (ko)
Inventor
박상현
아세베도 미구엘 안드레스 루나
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to PCT/KR2022/011515 priority Critical patent/WO2023106546A1/en
Publication of KR20230087331A publication Critical patent/KR20230087331A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

상향식 인스턴스 세분화 방법 및 장치가 개시된다. 본 개시의 일 실시 예에 따른 상향식 인스턴스 세분화 방법은, 이미지를 획득하는 단계와, 기 학습된 상향식 세분화 모델을 기반으로 이미지를 시드맵 및 복수의 시그마맵으로 인코딩하여 각 인스턴스의 경계 및 인스턴스간의 공유 픽셀을 식별하는 단계와, 각 인스턴스의 경계 및 인스턴스간의 공유 픽셀을 기반으로 이미지 내 객체에 대한 세분화 이미지를 출력하는 단계를 포함할 수 있다.A bottom-up instance segmentation method and apparatus are disclosed. A bottom-up instance segmentation method according to an embodiment of the present disclosure includes the steps of acquiring an image, encoding the image into a seed map and a plurality of sigma maps based on a pre-learned bottom-up segmentation model, and sharing boundaries of each instance and between instances. The method may include identifying pixels and outputting a segmented image of an object in the image based on a boundary of each instance and a shared pixel between instances.

Figure P1020220009374
Figure P1020220009374

Description

상향식 인스턴스 세분화 방법 및 장치{METHOD AND APPARATUS FOR BOTTOM-UP SEGMENTATION OF INSTANCE}Bottom-up instance segmentation method and apparatus {METHOD AND APPARATUS FOR BOTTOM-UP SEGMENTATION OF INSTANCE}

본 개시는 조직병리학 이미지에서 인스턴스의 형태학적 특징을 유지하기 위한 공간 임베딩으로 그룹화된 픽셀을 클러스터링 하여, 반투명 중첩 및 폐색이 있는 세포나 핵들의 아모달(amodal) 인스턴스 세분화를 수행하는 상향식 인스턴스 세분화 방법 및 장치에 관한 것이다.The present disclosure provides a bottom-up instance segmentation method for performing amodal instance segmentation of cells or nuclei with translucent overlap and occlusion by clustering grouped pixels with spatial embedding to maintain morphological features of the instance in a histopathology image. and devices.

핵을 세분화 하는 것은 질병의 정량적 평가 또는 암 등급화를 위한 예후 지표를 위하여 수행되는 공간 분포의 추가 연구를 용이하게 한다. Segmenting the nuclei facilitates further studies of the spatial distribution performed for quantitative assessment of disease or prognostic indicators for cancer grading.

일반적으로 자동화된 핵 세분화 방법은 주로 조직 구조와 핵 형태를 드러내는 기능으로 인해 H&E(Haematoxylin and Eosin) 염색 조직학 슬라이드를 사용하며 최근 딥 러닝의 발전으로 크게 혁신되었다. In general, automated nuclear segmentation methods mainly use Haematoxylin and Eosin (H&E) stained histology slides due to their ability to reveal tissue architecture and nuclear morphology, and have been greatly innovated with recent advances in deep learning.

그러나 핵 세분화의 경우 데이터가 부족하고 특히 라벨링 및 수집 비용이 만만치 않기 때문에, 딥 러닝 수행 시 세부 구조화된 주석이 필요한 경우가 많다. 동시에 수동 묘사(manual delineation)는 관찰자 내 및 관찰자 간 변동성으로 인해 어려움을 겪을 수도 있다. 따라서 재현 가능하고 확장 가능한 대안이 선호된다.However, in the case of nuclear segmentation, detailed structured annotations are often required when performing deep learning due to the lack of data and especially the high cost of labeling and collection. At the same time, manual delineation may suffer from intra- and inter-observer variability. Therefore reproducible and scalable alternatives are preferred.

종래에는 각 픽셀을 고유한 예측 인스턴스에 할당하여 핵을 감지하는 모달(modal) 방식으로 세분화를 수행한다. 그러나 겹치는 클러스터에서 인스턴스의 정확한 묘사와 분리는 대부분의 종래 방법에 고유한 문제를 제기할 수 있다. 또한, 핵의 크기와 모양이 다양하게 분포되어 있기 때문에 겹침과 폐색으로 인해 공간적 분산이 더 복잡해진다.Conventionally, segmentation is performed in a modal manner by assigning each pixel to a unique prediction instance to detect nuclei. However, accurate delineation and separation of instances in overlapping clusters can pose challenges inherent to most conventional methods. In addition, overlapping and occluding complicate spatial dispersion due to the diverse distribution of nuclei in size and shape.

한편, 일반적인 아모달 세분화는, 인스턴스가 될 객체를 찾은 후 세분화를 수행하는 하향식(top-down)으로 수행된다. 이러한 하향식 방법은 모달 데이터에서 인상적인 성능을 보여주었지만, 단일 조직병리학 이미지와 같이 많은 수의 인스턴스가 있는 데이터이 세분화에 있어서 추론 시간이 느려져 효과적이지 않다.On the other hand, general amodal segmentation is performed in a top-down fashion in which segmentation is performed after finding an object to be an instance. Although these top-down methods have shown impressive performance on modal data, they are not effective due to slow inference time in segmentation of data with a large number of instances, such as a single histopathology image.

또한 바운딩 박스 제안 방법은, 일반 이미지에서의 세분화에는 적합하지만, 작은 크기의 핵들로 구성된 조직병리학 이미지에는 적합하지 않을 수 있다.In addition, the proposed bounding box method is suitable for segmentation in general images, but may not be suitable for histopathology images composed of small-sized nuclei.

따라서 핵 세분화에 있어서는 상향식(bottom-up) 방식이 선호된다. 이러한 상향식 전략에 따라 아모달 분할을 수행하기 위해 객체의 단일 중심을 예측하는 데 일반적으로 사용되는 공간 임베딩을 재정의하고 이를 확장하여 인스턴스가 소유한 공유 경계만큼 많은 어트랙션 중심을 예측할 수 있다. Therefore, a bottom-up method is preferred for nuclear segmentation. Following this bottom-up strategy, we redefine the spatial embedding commonly used to predict a single centroid of an object to perform amodal segmentation, and extend it to predict as many attraction centroids as the shared boundaries an instance possesses.

이러한 상향식 전략을 사용하면 셀 모양이 둥근 경향이 있고 타원형 마진을 통해 분리할 수 있는 기본 데이터를 모델링 할 수 있다. 그러나 중심 목표 손실은 픽셀의 오프셋과 마진이 단일 중심까지의 거리를 줄여 인스턴스가 픽셀을 공유하지 못하도록 한다. This bottom-up strategy allows us to model primitive data that tend to have round cell shapes and can be separated by elliptical margins. However, center target loss causes the pixel's offset and margin to reduce the distance to a single centroid, preventing instances from sharing pixels.

즉 상술한 상향식 방식도 반투명 중첩 및 폐색이 있는 세포나 핵들의 아모달 인스턴스가 많은 핵 인스턴스 클러스터에 바람직하지 않을 수 있다.That is, the bottom-up method described above may also be undesirable for cells with translucent overlapping and occlusion or nuclear instance clusters with many amodal instances of nuclei.

따라서, 일반화된 손실 목표를 제안하고 보다 완전한 인스턴스를 얻기 위한 세분화 메커니즘을 통해, 크기나 모양에 관계없이 세그먼트 간에 픽셀을 공유할 수 있는 방법이 요구된다.Therefore, there is a need for a way to share pixels between segments regardless of size or shape through a subdivision mechanism to propose a generalized loss target and obtain a more complete instance.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The foregoing background art is technical information that the inventor possessed for derivation of the present invention or acquired during the derivation process of the present invention, and cannot necessarily be said to be known art disclosed to the general public prior to filing the present invention.

선행기술 1: Davy Neven, Bert De Brabandere, Marc Proesmans, and Luc Van Gool. Instance segmentation by jointly optimizing spatial embeddings and clustering bandwidth. In CVPR, pages 88378845, 2019. 2, 3, 4Prior Art 1: Davy Neven, Bert De Brabandere, Marc Proesmans, and Luc Van Gool. Instance segmentation by jointly optimizing spatial embeddings and clustering bandwidth. In CVPR, pages 88378845, 2019. 2, 3, 4 선행기술 2: Jiaqian Yu and Matthew Blaschko. Learning submodular losses with the lovasz hinge. In International Conference on Machine Learning, pages 16231631. PMLR, 2015. 4Prior Art 2: Jiaqian Yu and Matthew Blaschko. Learning submodular losses with the lovasz hinge. In International Conference on Machine Learning, pages 16231631. PMLR, 2015. 4 선행기술 3: Simon Graham, Quoc Dang Vu, Shan E Ahmed Raza, Ayesha Azam, Yee Wah Tsang, Jin Tae Kwak, and Nasir Rajpoot. Hover-net: Simultaneous segmentation and classification of nuclei in multi-tissue histology images. Medical Image Analysis, 58:101563, 2019. 1, 2, 3, 5, 7, 8Prior Art 3: Simon Graham, Quoc Dang Vu, Shan E Ahmed Raza, Ayesha Azam, Yee Wah Tsang, Jin Tae Kwak, and Nasir Rajpoot. Hover-net: Simultaneous segmentation and classification of nuclei in multi-tissue histology images. Medical Image Analysis, 58:101563, 2019. 1, 2, 3, 5, 7, 8

본 개시의 실시 예의 일 과제는, 조직병리학 이미지에서 인스턴스의 형태학적 특징을 유지하기 위한 공간 임베딩으로 그룹화된 픽셀을 클러스터링 하여, 반투명 중첩 및 폐색이 있는 세포나 핵들의 아모달 인스턴스 세분화의 정확도를 향상시키고자 하는데 있다.An object of an embodiment of the present disclosure is to cluster pixels grouped by spatial embedding to maintain the morphological characteristics of the instance in a histopathology image, thereby improving the accuracy of segmentation of submodal instances of cells or nuclei with translucent overlap and occlusion. I want to do it.

본 개시의 실시 예의 일 과제는, 다양한 크기와 패턴에 적응할 수 있는 유연한 가우시안 마진을 활용하여 공간 임베딩으로 그룹화된 픽셀을 클러스터링 하고 완전한 인스턴스 마스크를 구성하고자 하는데 있다.An object of an embodiment of the present disclosure is to construct a complete instance mask by clustering pixels grouped by spatial embedding by utilizing a flexible Gaussian margin capable of adapting to various sizes and patterns.

본 개시의 실시 예의 일 과제는, 핵 세분화에 사용되는 공통 메트릭을 업데이트한 고유한 매칭 알고리즘을 통해, 아모달 예측을 정확하게 평가하고 과도한 페널티가 없도록 하는데 있다. An object of an embodiment of the present disclosure is to accurately evaluate amodal prediction and avoid excessive penalty through a unique matching algorithm that updates a common metric used for nuclear segmentation.

본 개시의 실시예의 목적은 이상에서 언급한 과제에 한정되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 알 수 있을 것이다.The purpose of the embodiments of the present disclosure is not limited to the above-mentioned tasks, and other objects and advantages of the present invention not mentioned above can be understood by the following description and will be more clearly understood by the embodiments of the present invention. will be. It will also be seen that the objects and advantages of the present invention may be realized by means of the instrumentalities and combinations indicated in the claims.

본 개시의 일 실시 예에 따른 상향식 인스턴스 세분화 방법은, 조직병리학 이미지를 획득하는 단계와, 기 학습된 상향식 세분화 모델을 기반으로 조직병리학 이미지를 시드맵 및 복수의 시그마맵으로 인코딩하여 각 인스턴스의 경계 및 인스턴스간의 공유 픽셀을 식별하는 단계와, 각 인스턴스의 경계 및 인스턴스간의 공유 픽셀을 기반으로 조직병리학 이미지 내 세포핵에 대한 세분화 이미지를 출력하는 단계를 포함할 수 있다.A bottom-up instance segmentation method according to an embodiment of the present disclosure includes obtaining a histopathology image, encoding the histopathology image into a seed map and a plurality of sigma maps based on a pre-learned bottom-up segmentation model, and encoding the boundaries of each instance. and identifying shared pixels between instances, and outputting a segmented image of cell nuclei in the histopathology image based on boundaries of each instance and shared pixels between instances.

이 외에도, 본 개시의 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램이 저장된 컴퓨터로 판독 가능한 기록매체가 더 제공될 수 있다.In addition to this, another method for implementing the present disclosure, another system, and a computer readable recording medium storing a computer program for executing the method may be further provided.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features and advantages other than those described above will become apparent from the following drawings, claims and detailed description of the invention.

본 개시의 실시 예에 의하면, 조직병리학 이미지에서 인스턴스의 형태학적 특징을 유지하기 위한 공간 임베딩으로 그룹화된 픽셀을 클러스터링 함으로써, 반투명 중첩 및 폐색이 있는 세포나 핵들의 아모달 인스턴스 세분화의 정확도를 향상시킬 수 있다.According to an embodiment of the present disclosure, by clustering pixels grouped by spatial embedding to maintain morphological characteristics of instances in a histopathology image, accuracy of segmentation of amodal instances of cells or nuclei with translucent overlapping and occlusion can be improved. can

또한, 다양한 크기와 패턴에 적응할 수 있는 유연한 가우시안 마진을 활용하여 공간 임베딩으로 그룹화된 픽셀을 클러스터링 하고 완전한 인스턴스 마스크를 구성할 수 있다.In addition, by utilizing a flexible Gaussian margin that can adapt to various sizes and patterns, it is possible to cluster pixels grouped by spatial embedding and construct a complete instance mask.

또한, 핵 세분화에 사용되는 공통 메트릭을 업데이트한 고유한 매칭 알고리즘을 적용함으로써, 아모달 예측을 정확하게 평가하고 과도한 페널티가 없도록 하여, 복잡한 핵 클러스터의 모호한 경계/폐쇄의 식별 정확도를 향상시킬 수 있다.In addition, by applying a unique matching algorithm that updates the common metric used for nuclear segmentation, it is possible to accurately evaluate amodal predictions and avoid excessive penalties, improving the identification accuracy of ambiguous boundaries/closures of complex nuclear clusters.

본 개시의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present disclosure are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 일 실시 예에 따른 상향식 인스턴스 세분화 시스템을 개략적으로 도시한 도면이다.
도 2는 일 실시 예에 따른 핵 클러스터 세분화를 설명하기 위한 도면이다.
도 3은 일 실시 예에 따른 상향식 인스턴스 세분화 장치를 개략적으로 나타낸 블록도이다.
도 4는 일 실시 예에 따른 상향식 세분화 모델의 네트워크 구조를 개략적으로 나타낸 도면이다.
도 5는 일 실시 예에 따른 클러스터 마진을 설명하기 위한 예시도이다.
도 6은 일 실시 예에 따른 아모달 예측 매칭 평가를 위한 메트릭을 설명하기 위한 예시도이다.
도 7은 일 실시 예에 따른 생성 데이터 세트의 공간 임베딩을 설명하기 위한 예시도이다.
도 8은 일 실시 예에 따른 상향식 세분화 모델의 정성적 결과를 나타낸 예시도이다.
도 9는 일 실시 예에 따른 상향식 인스턴스 세분화 방법을 설명하기 위한 흐름도이다.
1 is a diagram schematically illustrating a bottom-up instance subdivision system according to an exemplary embodiment.
2 is a diagram for explaining nuclear cluster segmentation according to an exemplary embodiment.
3 is a block diagram schematically illustrating a bottom-up instance segmentation apparatus according to an exemplary embodiment.
4 is a diagram schematically illustrating a network structure of a bottom-up segmentation model according to an embodiment.
5 is an exemplary diagram for explaining a cluster margin according to an exemplary embodiment.
6 is an exemplary diagram for explaining a metric for evaluating amodal prediction matching according to an embodiment.
7 is an exemplary diagram for explaining spatial embedding of a generated data set according to an exemplary embodiment.
8 is an exemplary diagram illustrating qualitative results of a bottom-up segmentation model according to an embodiment.
9 is a flowchart illustrating a bottom-up instance segmentation method according to an exemplary embodiment.

본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시 예들을 참조하면 명확해질 것이다.Advantages and features of the present disclosure, and methods of achieving them, will become clear with reference to the detailed description of embodiments in conjunction with the accompanying drawings.

그러나 본 개시는 아래에서 제시되는 실시 예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 개시의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시 예들은 본 개시가 완전하도록 하며, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 개시의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 개시를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.However, it should be understood that the present disclosure is not limited to the embodiments presented below, but may be implemented in a variety of different forms, and includes all conversions, equivalents, and substitutes included in the spirit and technical scope of the present disclosure. . The embodiments presented below are provided to complete the present disclosure and to fully inform those skilled in the art of the scope of the disclosure. In describing the present disclosure, if it is determined that a detailed description of related known technologies may obscure the gist of the present disclosure, the detailed description will be omitted.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present disclosure. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded. Terms such as first and second may be used to describe various components, but components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

이하, 본 개시에 따른 실시 예들을 첨부된 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments according to the present disclosure will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same or corresponding components are assigned the same reference numerals, and overlapping descriptions thereof are omitted. I'm going to do it.

도 1은 일 실시 예에 따른 상향식 인스턴스 세분화 시스템을 개략적으로 도시한 도면이고, 도 2는 일 실시 예에 따른 핵 클러스터 세분화를 설명하기 위한 도면이다.FIG. 1 is a diagram schematically illustrating a bottom-up instance subdivision system according to an embodiment, and FIG. 2 is a diagram for explaining nuclear cluster subdivision according to an embodiment.

도 1을 참조하면, 상향식 인스턴스 세분화 시스템(1)은 상향식 인스턴스 세분화 장치(100), 사용자 단말(200), 서버(300) 및 네트워크(400)를 포함할 수 있다.Referring to FIG. 1 , a bottom-up instance segmentation system 1 may include a bottom-up instance segmentation device 100, a user terminal 200, a server 300, and a network 400.

조직병리학 이미지는 기본 3차원 구조를 가지고 있으며 서로 접촉하고 겹치는 핵을 찾는 것이 일반적이다. 그러나 현재의 핵 분할 전략은 예측이 부자연스러운 분할 마스크를 생성하고 종종 클러스터된 핵의 경계를 올바르게 묘사하지 못하는 모달 분할로 제한된다. 반면에, 아모달 분할은 실제 경계 정보를 유지할 가능성이 있지만 일반적으로 조직병리학 데이터에 적합하지 않은 하향식 분할 네트워크로 제한된다.Histopathology images have a basic three-dimensional structure and it is common to find nuclei that are in contact with each other and overlap. However, current nuclei segmentation strategies are limited to modal segmentation, whose prediction produces unnatural segmentation masks and often does not correctly delineate the boundaries of clustered nuclei. On the other hand, submodal segmentation has the potential to retain true boundary information, but is generally limited to top-down segmentation networks that are not suitable for histopathology data.

이러한 문제를 해결하기 위해, 일 실시 예의 상향식 인스턴스 세분화 시스템(1)은, 인스턴스 중심 주변의 타원형 클러스터링 마진과 함께 완전한 인스턴스를 얻을 수 있는 공간 임베딩을 사용하여 아모달 분할을 수행할 수 있다. 도 2에 도시된 것과 같이, 아모달 공간 임베딩을 구성하기 위해 학습된 피쳐(feature)는 클러스터 핵에서 모호한 경계와 폐색을 해결하는 핵심 구성 요소이다.To solve this problem, the bottom-up instance segmentation system 1 of an embodiment may perform amodal segmentation using spatial embedding that can obtain complete instances together with an elliptical clustering margin around the instance center. As shown in Figure 2, the features learned to construct the amodal space embedding are key components to resolve ambiguous boundaries and occlusions in cluster nuclei.

다시 말해, 상향식 인스턴스 세분화 시스템(1)은 보다 정확한 정량적 연구를 위해, 분할된 핵의 대부분의 형태학적 특징을 유지할 수 있도록 공간 임베딩을 사용하는 상향식 모델을 사용할 수 있다.In other words, the bottom-up instance segmentation system 1 can use a bottom-up model that uses spatial embedding to retain most of the morphological features of segmented nuclei for more accurate quantitative studies.

이러한 상향식 모델은 다양한 크기와 패턴에 적응할 수 있는 유연한 가우시안 마진을 활용하여 공간 임베딩으로 그룹화된 픽셀을 클러스터링하고 완전한 인스턴스 마스크를 구성할 수 있다. These bottom-up models utilize flexible Gaussian margins that can adapt to different sizes and patterns to cluster pixels grouped into spatial embeddings and construct complete instance masks.

또한 일 실시 예의 상향식 모델은 핵 세분화에 사용되는 공통 메트릭을 업데이트하여 아모달 예측을 정확하게 평가하고 과도한 페널티가 없도록 고유한 매칭 알고리즘을 적용할 수 있다. In addition, the bottom-up model of an embodiment may update a common metric used for nuclear segmentation to accurately evaluate amodal predictions and apply a unique matching algorithm so that there is no excessive penalty.

이를 통해 조직병리학 샘플에서 기본 세포 분포를 보다 사실적으로 표현할 수 있으며 암 조직의 등급 및 기타 연구와 관련된 모양 및 크기와 같은 형태학적 특징에 대한 보다 정확한 정량적 평가가 가능할 수 있다. 또한, 아모달 마스크를 활용하여 핵의 잘리고 부자연스러운 특징을 학습하는 것을 방지할 수 있다.This may allow a more realistic representation of the underlying cell distribution in histopathology samples and allow for more accurate quantitative evaluation of morphological features such as shape and size related to the grade of cancer tissue and other studies. In addition, learning of truncated and unnatural features of the nucleus can be prevented by utilizing an amodal mask.

한편 일 실시 예에서는, 사용자들이 사용자 단말(200)에서 구현되는 어플리케이션 또는 웹사이트에 접속하여, 상향식 인스턴스 세분화 장치(100)의 네트워크를 생성 및 학습하는 등의 과정을 수행할 수 있다. Meanwhile, in an embodiment, users may access an application or website implemented in the user terminal 200 and perform processes such as creating and learning a network of the bottom-up instance segmentation device 100 .

이러한 사용자 단말(200)은 사용자가 조작하는 데스크 탑 컴퓨터, 스마트폰, 노트북, 태블릿 PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 가전기기 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. The user terminal 200 includes a desktop computer, a smart phone, a laptop computer, a tablet PC, a smart TV, a mobile phone, a personal digital assistant (PDA), a laptop computer, a media player, a micro server, and a global positioning system (GPS) device operated by a user. , e-book readers, digital broadcast terminals, navigation devices, kiosks, MP3 players, digital cameras, home appliances, and other mobile or non-mobile computing devices, but are not limited thereto.

또한, 사용자 단말(200)은 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지 등의 웨어러블 단말기 일 수 있다. 사용자 단말(200)은 상술한 내용에 제한되지 아니하며, 웹 브라우징이 가능한 단말기는 제한 없이 차용될 수 있다.In addition, the user terminal 200 may be a wearable terminal such as a watch, glasses, hair band, and ring having a communication function and a data processing function. The user terminal 200 is not limited to the above, and a terminal capable of web browsing may be borrowed without limitation.

일 실시 예에서, 상향식 인스턴스 세분화 시스템(1)은 상향식 인스턴스 세분화 장치(100) 및/또는 서버(300)에 의해 구현될 수 있다.In one embodiment, the bottom-up instance segmentation system 1 may be implemented by the bottom-up instance segmentation device 100 and/or the server 300 .

일 실시 예에서, 상향식 인스턴스 세분화 장치(100)는 서버(300)에서 구현될 수 있는데, 이때 서버(300)는 상향식 인스턴스 세분화 장치(100)가 포함되는 상향식 인스턴스 세분화 시스템(1)을 운용하기 위한 서버이거나 상향식 인스턴스 세분화 장치(100)의 일부분 또는 전 부분을 구현하는 서버일 수 있다. In one embodiment, the bottom-up instance segmentation device 100 may be implemented in the server 300, where the server 300 is configured to operate the bottom-up instance segmentation system 1 including the bottom-up instance segmentation device 100. It may be a server or a server implementing all or part of the bottom-up instance segmentation device 100 .

일 실시 예에서, 서버(300)는 핵 세분화를 위한 아모달 공간 임베딩(Amodal Spatial Embeddings, ASense)을 통해 타원 여백으로 클러스터링 하고 인스턴스가 픽셀을 공유할 수 있도록 여러 중심에 걸쳐 픽셀 그룹을 생성하여 상향식 아모달 세분화를 수행하며, 반투명 중첩 및 폐색이 있는 세포나 핵들의 인스턴스 간에 공통적인 병리 이미지에서 3차원 구조를 캡쳐하기 위해 아모달 핵 인스턴스 세분화를 수행하는 전반의 프로세스에 대한 상향식 인스턴스 세분화 장치(100)의 동작을 제어하는 서버일 수 있다.In one embodiment, the server 300 clusters with elliptical margins through Amodal Spatial Embeddings (ASense) for nuclear segmentation and creates pixel groups across multiple centers so that instances can share pixels, resulting in bottom-up A bottom-up instance segmentation device (100 ) may be a server that controls the operation of

또한, 서버(300)는 상향식 인스턴스 세분화 장치(100)를 동작시키는 데이터를 제공하는 데이터베이스 서버일 수 있다. 그 밖에 서버(300)는 웹 서버 또는 어플리케이션 서버 또는 딥러닝 네트워크 제공 서버를 포함할 수 있다.Also, the server 300 may be a database server that provides data for operating the bottom-up instance segmentation device 100 . In addition, the server 300 may include a web server, an application server, or a deep learning network providing server.

그리고 서버(300)는 각종 인공 지능 알고리즘을 적용하는데 필요한 빅데이터 서버 및 AI 서버, 각종 알고리즘의 연산을 수행하는 연산 서버 등을 포함할 수 있다.In addition, the server 300 may include a big data server and an AI server required to apply various artificial intelligence algorithms, a calculation server that performs calculations of various algorithms, and the like.

또한 본 실시 예에서, 서버(300)는 상술하는 서버들을 포함하거나 이러한 서버들과 네트워킹 할 수 있다. 즉, 본 실시 예에서, 서버(300)는 상기의 웹 서버 및 AI 서버를 포함하거나 이러한 서버들과 네트워킹 할 수 있다.Also, in this embodiment, the server 300 may include the aforementioned servers or network with these servers. That is, in this embodiment, the server 300 may include or network with the above web server and AI server.

상향식 인스턴스 세분화 시스템(1)에서 상향식 인스턴스 세분화 장치(100) 및 서버(300)는 네트워크(400)에 의해 연결될 수 있다. 이러한 네트워크(400)는 예컨대 LANs(local area networks), WANs(Wide area networks), MANs(metropolitan area networks), ISDNs(integrated service digital networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 개시의 범위가 이에 한정되는 것은 아니다. 또한 네트워크(400)는 근거리 통신 및/또는 원거리 통신을 이용하여 정보를 송수신할 수 있다.In the bottom-up instance segmentation system 1 , the bottom-up instance segmentation device 100 and the server 300 may be connected by a network 400 . Such a network 400 may be wired networks such as LANs (local area networks), WANs (wide area networks), MANs (metropolitan area networks), ISDNs (integrated service digital networks), wireless LANs, CDMA, Bluetooth, satellite communication However, the scope of the present disclosure is not limited thereto. In addition, the network 400 may transmit and receive information using short-range communication and/or long-distance communication.

또한, 네트워크(400)는 허브, 브리지, 라우터, 스위치 및 게이트웨이와 같은 네트워크 요소들의 연결을 포함할 수 있다. 네트워크(400)는 인터넷과 같은 공용 네트워크 및 안전한 기업 사설 네트워크와 같은 사설 네트워크를 비롯한 하나 이상의 연결된 네트워크들, 예컨대 다중 네트워크 환경을 포함할 수 있다. 네트워크(400)에의 액세스는 하나 이상의 유선 또는 무선 액세스 네트워크들을 통해 제공될 수 있다. 더 나아가 네트워크(400)는 사물 등 분산된 구성 요소들 간에 정보를 주고받아 처리하는 IoT(Internet of Things, 사물인터넷) 망 및/또는 5G 통신을 지원할 수 있다.Also, the network 400 may include connections of network elements such as hubs, bridges, routers, switches, and gateways. Network 400 may include one or more connected networks, such as a multiple network environment, including a public network such as the Internet and a private network such as a secure enterprise private network. Access to network 400 may be provided through one or more wired or wireless access networks. Furthermore, the network 400 may support an Internet of Things (IoT) network and/or 5G communication in which information is exchanged and processed between distributed components such as things.

도 3은 일 실시 예에 따른 상향식 인스턴스 세분화 장치를 개략적으로 나타낸 블록도이다.3 is a block diagram schematically illustrating a bottom-up instance segmentation apparatus according to an exemplary embodiment.

도 3을 참조하면, 상향식 인스턴스 세분화 장치(100)는 통신부(110), 사용자 인터페이스(120), 메모리(130) 및 프로세서(140)를 포함할 수 있다.Referring to FIG. 3 , the bottom-up instance segmentation apparatus 100 may include a communication unit 110, a user interface 120, a memory 130, and a processor 140.

통신부(110)는 네트워크(400)와 연동하여 외부 장치간의 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공할 수 있다. 또한 통신부(110)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.The communication unit 110 may provide a communication interface required to provide a transmission/reception signal between external devices in the form of packet data in conjunction with the network 400 . In addition, the communication unit 110 may be a device including hardware and software necessary for transmitting and receiving signals such as control signals or data signals to and from other network devices through wired or wireless connections.

즉, 프로세서(140)는 통신부(110)를 통해 연결된 외부 장치로부터 각종 데이터 또는 정보를 수신할 수 있으며, 외부 장치로 각종 데이터 또는 정보를 전송할 수도 있다. That is, the processor 140 may receive various data or information from an external device connected through the communication unit 110 and may transmit various data or information to the external device.

일 실시 예에서, 사용자 인터페이스(120)는 상향식 인스턴스 세분화 장치(100)의 동작(예컨대, 네트워크의 파라미터 변경, 네트워크의 학습 조건 변경 등)을 제어하기 위한 사용자 요청 및 명령들이 입력되는 입력 인터페이스를 포함할 수 있다.In one embodiment, the user interface 120 includes an input interface into which user requests and commands for controlling the operation of the bottom-up instance segmentation device 100 (eg, network parameter change, network learning condition change, etc.) are input. can do.

그리고 일 실시 예에서, 사용자 인터페이스(120)는 인스턴스 세분화 결과를 출력하는 출력 인터페이스를 포함할 수 있다. 즉, 사용자 인터페이스(120)는 사용자 요청 및 명령에 따른 결과를 출력할 수 있다. 이러한 사용자 인터페이스(120)의 입력 인터페이스와 출력 인터페이스는 동일한 인터페이스에서 구현될 수 있다.In one embodiment, the user interface 120 may include an output interface outputting a result of instance segmentation. That is, the user interface 120 may output results according to user requests and commands. An input interface and an output interface of the user interface 120 may be implemented in the same interface.

메모리(130)는 상향식 인스턴스 세분화 장치(100)의 동작의 제어(연산)에 필요한 각종 정보들을 저장하고, 제어 소프트웨어를 저장할 수 있는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. The memory 130 may store various types of information required for operation control (operation) of the bottom-up instance segmentation apparatus 100 and may store control software, and may include a volatile or non-volatile recording medium.

메모리(130)는 하나 이상의 프로세서(140)와 전기적 또는 내부 통신 인터페이스로 연결되고, 프로세서(140)에 의해 실행될 때, 프로세서(140)로 하여금 이미지 복원 장치(100)를 제어하도록 야기하는(cause) 코드들을 저장할 수 있다.The memory 130 is connected to one or more processors 140 by an electrical or internal communication interface and, when executed by the processor 140, causes the processor 140 to control the image restoration device 100 (cause) Codes can be saved.

여기서, 메모리(130)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media) 등의 비 일시적 저장매체이거나 램(RAM) 등의 일시적 저장매체를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 이러한 메모리(130)는 내장 메모리 및/또는 외장 메모리를 포함할 수 있으며, DRAM, SRAM, 또는 SDRAM 등과 같은 휘발성 메모리, OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, NAND 플래시 메모리, 또는 NOR 플래시 메모리 등과 같은 비휘발성 메모리, SSD. CF(compact flash) 카드, SD 카드, Micro-SD 카드, Mini-SD 카드, Xd 카드, 또는 메모리 스틱(memory stick) 등과 같은 플래시 드라이브, 또는 HDD와 같은 저장 장치를 포함할 수 있다. Here, the memory 130 may include non-temporary storage media such as magnetic storage media or flash storage media, or temporary storage media such as RAM, but the scope of the present invention is not limited thereto. The memory 130 may include built-in memory and/or external memory, and may include volatile memory such as DRAM, SRAM, or SDRAM, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, Non-volatile memory such as NAND flash memory, or NOR flash memory, SSD. It may include a compact flash (CF) card, a flash drive such as an SD card, a Micro-SD card, a Mini-SD card, an Xd card, or a memory stick, or a storage device such as an HDD.

그리고, 메모리(130)에는 본 개시에 따른 학습을 수행하기 위한 알고리즘에 관련된 정보가 저장될 수 있다. 그 밖에도 본 개시의 목적을 달성하기 위한 범위 내에서 필요한 다양한 정보가 메모리(130)에 저장될 수 있으며, 메모리(130)에 저장된 정보는 서버 또는 외부 장치로부터 수신되거나 사용자에 의해 입력됨에 따라 갱신될 수도 있다.Also, information related to an algorithm for performing learning according to the present disclosure may be stored in the memory 130 . In addition, various information necessary within the scope of achieving the object of the present disclosure may be stored in the memory 130, and the information stored in the memory 130 may be updated as received from a server or an external device or input by a user. may be

프로세서(140)는 상향식 인스턴스 세분화 장치(100)의 전반적인 동작을 제어할 수 있다. 구체적으로, 프로세서(140)는 메모리(130)를 포함하는 상향식 인스턴스 세분화 장치(100)의 구성과 연결되며, 메모리(130)에 저장된 적어도 하나의 명령을 실행하여 상향식 인스턴스 세분화 장치(100)의 동작을 전반적으로 제어할 수 있다. The processor 140 may control overall operations of the bottom-up instance segmentation device 100 . Specifically, the processor 140 is connected to the configuration of the bottom-up instance segmentation apparatus 100 including the memory 130, and executes at least one command stored in the memory 130 to operate the bottom-up instance segmentation apparatus 100. can be controlled overall.

프로세서(140)는 다양한 방식으로 구현될 수 있다. 예를 들어, 프로세서(140)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 임베디드 프로세서, 마이크로 프로세서, 하드웨어 컨트롤 로직, 하드웨어 유한 상태 기계(Hardware Finite State Machine, FSM), 디지털 신호 프로세서(Digital Signal Processor, DSP) 중 적어도 하나로 구현될 수 있다. Processor 140 can be implemented in a variety of ways. For example, the processor 140 may include an application specific integrated circuit (ASIC), an embedded processor, a microprocessor, hardware control logic, a hardware finite state machine (FSM), a digital signal processor Processor, DSP) may be implemented as at least one.

프로세서(140)는 일종의 중앙처리장치로서 메모리(130)에 탑재된 제어 소프트웨어를 구동하여 이미지 복원 장치(100)의 동작을 제어할 수 있다. 프로세서(140)는 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령어로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. The processor 140, as a kind of central processing unit, may control the operation of the image restoration device 100 by driving control software loaded in the memory 130. The processor 140 may include any type of device capable of processing data. Here, a 'processor' may refer to a data processing device embedded in hardware having a physically structured circuit to perform functions expressed by codes or instructions included in a program, for example.

이하에서는, 프로세서(140)에서의 구체적인 상향식 인스턴스 세분화 과정에 대해서 도 4, 도 5 및 수학식 1 내지 7을 참조하여 설명한다.Hereinafter, a bottom-up instance segmentation process in the processor 140 will be described with reference to FIGS. 4 and 5 and Equations 1 to 7.

도 4는 일 실시 예에 따른 상향식 세분화 모델의 네트워크 구조를 개략적으로 나타낸 도면이다.4 is a diagram schematically illustrating a network structure of a bottom-up segmentation model according to an embodiment.

일 실시 예에서, 프로세서(140)는 클러스터된 핵 영역에서 인스턴스의 자연스러운 모양을 유지할 수 있는 아모달 핵 분할을 수행할 수 있다.In one embodiment, processor 140 may perform submodal nuclear segmentation that may retain the natural shape of the instances in the clustered nucleus region.

도 4에 도시된 바와 같이, 일 실시 예의 상향식 세분화 모델은 인코더(예를 들어, CNN)를 통해 이미지를 일련의 맵으로 인코딩하여 인스턴스의 경계를 결정하고 아모달 세분화를 위한 공유 픽셀도 식별하도록 구성될 수 있다.As shown in Figure 4, the bottom-up segmentation model of one embodiment is configured to encode an image into a series of maps via an encoder (eg, CNN) to determine the boundaries of instances and also identify shared pixels for submodal segmentation. It can be.

상향식 세분화 모델과 같은 아모달 세분화를 수행하기 위한 상향식 접근 방식의 경우, 어트랙션(attraction)의 중심과 클러스터 마진과 관련하여 공유 픽셀에 대해 설명해야 한다. For a bottom-up approach to performing amodal segmentation, such as the bottom-up segmentation model, we need to account for shared pixels in terms of the center of attraction and the cluster margin.

이러한 공간 임베딩을 구성하는 간단한 방법은 각 아모달 GT(ground truth) 마스크를 하위 구성요소로 나누고 각 세그먼트에 대한 고유한 어트랙션 중심을 개별적으로 직접 회귀하는 것이다. 그러나 이는 클러스터 마진 추정에서 공간 임베딩 작업을 분리하므로 추가 후처리가 필요하다. 이러한 후처리는 여러 인스턴스 크기에서 최적이 아닐 수 있다. A simple way to construct such a spatial embedding is to divide each amodal ground truth (GT) mask into subcomponents and directly regress the unique attraction centroids for each segment individually. However, it separates the spatial embedding task from the cluster margin estimation and requires additional post-processing. This post-processing may not be optimal for different instance sizes.

이에, 프로세서(140)는 공간 임베딩과 마진 추정을 단일 작업으로 통합함으로써 크고 작은 인스턴스를 클러스터링 하는 최적의 피쳐를 학습할 수 있다. Accordingly, the processor 140 may learn an optimal feature for clustering large and small instances by integrating spatial embedding and margin estimation into a single task.

따라서, 프로세서(140)는 항상 완전한 인스턴스 마스크를 고려하는 공간 임베딩 및 마진을 구성하고, 핵의 기본 특성을 설명하는 피쳐를 학습하며, 잘린(truncated) 샘플의 사용을 피할 수 있다. 이는 밀집된 영역에서 핵을 정확하게 식별하고 분할하는 핵심 속성이다.Thus, processor 140 can construct spatial embeddings and margins that always take full instance masks into account, learn features that describe the basic properties of nuclei, and avoid the use of truncated samples. This is a key property to accurately identify and segment nuclei in dense regions.

즉 일 실시 예에서는, 인스턴스 세분화를 픽셀 할당 문제로 취급할 수 있으며, 픽셀을 올바른 객체와 연결하려고 할 수 있다. 이를 위해 프로세서(140)는 객체의 중심을 가리키는 각 픽셀의 오프셋 벡터를 학습할 수 있다. 여기서 객체는 세포핵일 수 있다.That is, in one embodiment, you can treat instance segmentation as a pixel assignment problem, and try to associate a pixel with the correct object. To this end, the processor 140 may learn an offset vector of each pixel indicating the center of the object. Here, the object may be a cell nucleus.

따라서, 일 실시 예에서는, 표준 회귀 접근 방식과 달리 각 객체에 대한 최적의 클러스터링 영역을 학습함으로써 중심에서 멀리 떨어진 픽셀에 대한 손실을 완화할 수 있다. 그리고 일 실시 예에서는, 객체의 중심을 찾기 위해 각 의미 클래스에 대한 시드 맵을 학습할 수 있다. 이에 대한 구체적인 설명은 후술하도록 한다.Therefore, in one embodiment, unlike the standard regression approach, loss for pixels far from the center can be mitigated by learning an optimal clustering area for each object. In an embodiment, a seed map for each semantic class may be learned to find the center of an object. A detailed description of this will be described later.

프로세서(140)는 객체의 중심

Figure pat00001
에 대한 최적 오프셋
Figure pat00002
와 주변 마진
Figure pat00003
을 간접적으로 학습하여, 픽셀
Figure pat00004
를 인스턴스
Figure pat00005
로 클러스터링 하는 프레임워크를 수행할 수 있다. 여기서,
Figure pat00006
는 각 픽셀
Figure pat00007
에 대한 오프셋 벡터이다. 여기서
Figure pat00008
는 (
Figure pat00009
,
Figure pat00010
)와 같이 x 좌표 및 y 좌표를 가지는 2차원 좌표일 수 있다.The processor 140 is the center of the object
Figure pat00001
Optimal offset for
Figure pat00002
and margin around
Figure pat00003
By learning indirectly, the pixel
Figure pat00004
instance
Figure pat00005
You can perform a framework that clusters with . here,
Figure pat00006
is each pixel
Figure pat00007
is the offset vector for here
Figure pat00008
Is (
Figure pat00009
,
Figure pat00010
), it may be a two-dimensional coordinate having an x coordinate and a y coordinate.

일 실시 예의 프로세서(140)는 상기와 같은 상향식 인스턴스 세분화 접근 방식을 통해 서로 부정적인 영향을 미치지 않으면서 크고 작은 인접 객체를 클러스터링 할 수 있다. The processor 140 according to an embodiment may cluster large and small adjacent objects without adversely affecting each other through the bottom-up instance segmentation approach.

특히, 프로세서(140)는 가우스 함수

Figure pat00011
를 사용하여 예측 픽셀의 오프셋과 인스턴스 중심 사이의 거리를 해당 인스턴스에 속하는 확률로 변환할 수 있다. 가우스 함수
Figure pat00012
는 다음 수학식 1과 같이 나타낼 수 있다.In particular, the processor 140 is a Gaussian function
Figure pat00011
can be used to convert the distance between the offset of the predicted pixel and the center of the instance into a probability of belonging to that instance. Gaussian function
Figure pat00012
can be expressed as in Equation 1 below.

Figure pat00013
Figure pat00013

이때 높은 확률 값은 인스턴스 중심에 더 근접함을 의미할 수 있고, 낮은 확률은 배경 픽셀로 적용될 수 있다. In this case, a high probability value may mean closer to the center of the instance, and a low probability value may be applied to the background pixel.

인스턴스 중심에서 픽셀이 허용되는 거리의 마진이 가우스 함수의 시그마 값에 의해 제어될 수 있다. 이 마진은 각 인스턴스에 고유하므로, 큰 객체일수록 인스턴스 중심과 픽셀 사이에 더 큰 거리를 가질 수 있다.The margin of the allowed distance of a pixel from the instance center can be controlled by the sigma value of the Gaussian function. Since this margin is unique to each instance, larger objects can have a larger distance between the center of the instance and the pixel.

예를 들어, 가우스 함수

Figure pat00014
> 0.5이면 위치
Figure pat00015
에서 해당 픽셀보다 인스턴스 k에 할당될 수 있다.For example, the Gaussian function
Figure pat00014
Position if > 0.5
Figure pat00015
may be assigned to instance k rather than the corresponding pixel in .

따라서 가우스 함수의 시그마 매개변수를 수정하여 다음 수학식 2와 같은 마진을 제어할 수 있다.Accordingly, the margin as shown in Equation 2 can be controlled by modifying the sigma parameter of the Gaussian function.

Figure pat00016
Figure pat00016

시그마가 크면 마진이 커지고 시그마가 작으면 마진이 작아진다. 이를 위해서는 상향식 세분화 모델이 각 픽셀 위치에서

Figure pat00017
를 출력해야 한다. 다음 수학식 3과 같이,
Figure pat00018
를 인스턴스 k에 속하는 모든
Figure pat00019
의 평균으로 정의할 수 있다.The larger the sigma, the larger the margin, and the smaller the sigma, the smaller the margin. To do this, a bottom-up segmentation model is used at each pixel location.
Figure pat00017
should output As shown in Equation 3 below,
Figure pat00018
all belonging to instance k
Figure pat00019
can be defined as the average of

Figure pat00020
Figure pat00020

각 인스턴스 k에 대해 가우스 함수는 전경/배경 확률 맵을 출력하므로 각 인스턴스의 이진 전경/배경 맵을 실측으로 사용하여 이진 분류 손실을 사용하여 최적화할 수 있다. For each instance k, the Gaussian function outputs a foreground/background probability map, so it can be optimized using binary classification loss, using the binary foreground/background map of each instance as ground truth.

일 실시 예에서는, 표준 교차 엔트로피 손실 함수를 사용하는 것과 달리 힌지 손실(hinge loss)을 대신 사용할 수 있다. In one embodiment, instead of using the standard cross entropy loss function, a hinge loss may be used instead.

힌지 손실은 분류기, 특히 SVM을 훈련하는 데 사용되는 손실 함수로, x 축은 단일 인스턴스의 경계로부터의 거리를 나타내고 y 축은 거리에 따라 함수가 발생하는 손실 크기 또는 페널티를 나타낸다. 올바르게 분류된 포인트는 손실 크기가 작거나 없는 반면 잘못 분류된 인스턴스는 손실 크기가 높다. 경계에서 음의 거리는 높은 힌지 손실을 초래하며, 이것은 본질적으로 인스턴스가 경계의 잘못된 쪽에 있으며, 인스턴스가 잘못 분류된다는 것을 의미한다. 양의 거리는 힌지 손실이 적거나 힌지 손실이 전혀 발생하지 않으며, 양의 방향으로 경계에서 멀어 질수록 힌지 손실이 낮아진다.Hinge loss is a loss function used to train classifiers, especially SVMs, where the x-axis represents the distance from the boundary of a single instance and the y-axis represents the loss magnitude or penalty the function suffers over distance. Correctly classified points have small or no loss magnitude, whereas incorrectly classified instances have high loss magnitude. A negative distance from the boundary results in high hinge loss, which essentially means that the instance is on the wrong side of the boundary and the instance is misclassified. A positive distance results in little or no hinge loss, and the further away from the boundary in the positive direction, the lower the hinge loss.

이 힌지 손실은 Jaccard 손실에 대한(조각별 선형) convex surrogate이므로 각 인스턴스의 교집합을 직접 최적화할 수 있다. 따라서 전경과 배경 사이의 클래스 불균형을 설명할 필요가 없다. 여기서 Jaccard 손실은 Metric으로 쓰이는 Jaccard Index의 성능을 직접적으로 높이기 위해 이를 손실 함수로 변환한 것이다.Since this hinge loss is a (piecewise linear) convex surrogate for the Jaccard loss, we can directly optimize the intersection of each instance. Therefore, there is no need to account for the class imbalance between foreground and background. Here, the Jaccard loss is converted into a loss function to directly improve the performance of the Jaccard index used as a metric.

일 실시 예의 상향식 세분화 모델은 표준 회귀 손실과 같이 시그마 및 오프셋 벡터 출력에 대한 직접적인 감독이 없다. 대신 힌지 손실과 가우스 함수를 통해 역전파(backpropagation)로 기울기를 수신하여 각 인스턴스 마스크의 교집합을 최대화하도록 공동으로 최적화될 수 있다.The bottom-up segmentation model of one embodiment has no direct oversight of the sigma and offset vector outputs like the standard regression loss. Instead, it can be jointly optimized to maximize the intersection of each instance mask by receiving the gradient with backpropagation through a hinge loss and a Gaussian function.

일 실시 예의 상향식 세분화 모델은, 시그마가 고정되어 있지 않고 학습 가능한 매개변수이다. 따라서 상향식 세분화 모델은 시그마를 수정하여 손실을 보다 효율적으로 최소화할 수 있다. In the bottom-up segmentation model of an embodiment, sigma is not fixed and is a learnable parameter. Therefore, the bottom-up segmentation model can more efficiently minimize the loss by modifying the sigma.

즉 상향식 세분화 모델은, 인스턴스 중심 주변의 (일반적으로 작은) 영역 내의 인스턴스 픽셀을 당기고 이 영역 외부의 배경 픽셀을 밀어내는 것 외에도 영역의 크기가 해당 특정 인스턴스에 더 적합하도록 시그마를 수정할 수 있다. That is, a bottom-up segmentation model, in addition to pulling instance pixels within a (typically small) region around the center of an instance and pushing background pixels outside this region, can modify the sigma to make the size of the region better suited to that particular instance.

직관적으로 이것은 큰 객체의 경우 중심 주변 영역을 더 크게 만들기 위해 시그마를 적용하여 더 많은 인스턴스 픽셀이 영역 내부를 가리킬 수 있고, 작은 객체가 더 작은 영역을 선택하여 배경에 더 쉽게 적용하여 픽셀이 영역 외부를 가리킬 수 있음을 의미할 수 있다.Intuitively, this means that for large objects, apply sigma to make the area around the center larger so that more instance pixels can point inside the area, and for small objects to select a smaller area and apply it to the background more easily so that the pixels are outside the area. It can mean that it can point to .

도 5는 일 실시 예에 따른 클러스터 마진을 설명하기 위한 예시도이다.5 is an exemplary diagram for explaining a cluster margin according to an exemplary embodiment.

시그마에 대한 스칼라 값이 있는 상기 수학식 1은 원형 마진을 생성할 수 있다. 그리고 수학식 1은 2차원 시그마를 사용하도록 확장되어, 다음 수학식 4와 같이 자연 이미지의 길쭉한 객체에 더 적합한 타원형 마진을 학습할 수 있다.Equation 1 above with a scalar value for sigma can produce a circular margin. In addition, Equation 1 can be extended to use 2-dimensional sigma, and as shown in Equation 4 below, an elliptical margin more suitable for elongated objects in natural images can be learned.

Figure pat00021
Figure pat00021

일 실시 예에서, 타원형의 마진은 세포나 핵의 규칙적인 형태와 매우 유사한 형태를 가지기 때문에 바람직할 수 있다. 또한, 조직병리학 이미지에서 흔히 볼 수 있는 모양과 패턴으로 인해 원형 마진은 밀도가 높은 영역에서 아모달 마스크를 클러스터링 하는 데 적합하지 않을 수 있다. In one embodiment, an elliptical margin may be desirable as it has a shape very similar to the regular shape of a cell or nucleus. Also, due to the shapes and patterns commonly seen in histopathology images, circular margins may not be suitable for clustering amodal masks in dense areas.

도 5의 1 시그마 맵을 참조하면, 작은 마진은 공유 픽셀을 버릴 수 있지만 더 큰 마진은 인스턴스의 기울기 및 연장으로 인해 인스턴스 경계를 넘어 픽셀을 클러스터링 할 수 있다. Referring to the 1 sigma map in Fig. 5, small margins can discard shared pixels, while larger margins can cluster pixels across instance boundaries due to the tilt and elongation of instances.

상기 수학식 4는 보행자나 기차와 같은 물체를 설명할 수 있지만 핵의 다양한 모양을 설명할 수 없다. 결과적으로, 일 실시 예에서는, 2차원 가우스 함수를 확장하여 회전을 설명하기 위해 3개의 "시그마 맵"을 사용할 수 있다. Equation 4 above can explain an object such as a pedestrian or a train, but cannot explain various shapes of the nucleus. As a result, in one embodiment, a 2D Gaussian function can be extended to use three “sigma maps” to describe the rotation.

즉 일 실시 예에서는, 가능한 모든 모양 변형을 캡쳐 할 수 있도록 상향식 세분화 모델을 구성할 수 있다. 이는 다음 수학식 5와 같이 가우스 함수를 표현할 수 있다.That is, in an embodiment, a bottom-up segmentation model may be configured to capture all possible shape deformations. This can express a Gaussian function as shown in Equation 5 below.

Figure pat00022
Figure pat00022

여기서 계수

Figure pat00023
,
Figure pat00024
Figure pat00025
(도 4의 시그마 맵)는 시그마 값
Figure pat00026
Figure pat00027
, 그리고 회전 각도
Figure pat00028
로 정의될 수 있다. 즉,
Figure pat00029
,
Figure pat00030
Figure pat00031
와 같이 나타낼 수 있으며, 행렬은 수학식 6과 같으며, 이 행렬은 양의 정 부호(positive-definite) 행렬이다.
Figure pat00032
Figure pat00033
는 객체 또는 대응 인스턴스 중심의 좌표 중 x 좌표 및 y 좌표를 의미할 수 있다.where the coefficient
Figure pat00023
,
Figure pat00024
and
Figure pat00025
(Sigma map in Fig. 4) is the sigma value
Figure pat00026
and
Figure pat00027
, and the angle of rotation
Figure pat00028
can be defined as in other words,
Figure pat00029
,
Figure pat00030
and
Figure pat00031
It can be expressed as, and the matrix is as in Equation 6, and this matrix is a positive-definite matrix.
Figure pat00032
and
Figure pat00033
may mean the x coordinate and the y coordinate among the coordinates of the center of the object or corresponding instance.

Figure pat00034
Figure pat00034

일 실시 예에서, 상향식 세분화 모델의 네트워크는 수렴을 보장하기 위해 회전 인수를 최적화 하지 않고 초기화로 몇 가지 훈련 단계가 필요할 수 있다.In one embodiment, a network of bottom-up segmentation models may require several training steps as an initialization without optimizing the rotation factor to ensure convergence.

최적화 함수의 주요 목적은 공간 임베딩에서 인스턴스 중심까지의 거리를 가능한 0에 가깝게 줄이는 것이다. 이것은 또한 크기를 줄이기 위해 마진을 적용할 수 있다. The main purpose of the optimization function is to reduce the distance from the spatial embedding to the instance centroid as close to zero as possible. It can also apply margins to reduce size.

그러나 아모달 마스크를 재구성하기 위해, 상향식 세분화 모델은 공유 영역의 픽셀이 더 작은 오프셋 값을 가질 수 있는 유연성과 중심 근처 및 겹치는 영역의 픽셀을 덮기에 충분히 큰 마진을 가져야 한다. 이를 통해, 이미 이 제한을 초과한 픽셀에 영향을 미치지 않는 확률 임계값(

Figure pat00035
)으로 힌지 손실을 완화할 수 있다. However, in order to reconstruct the amodal mask, the bottom-up segmentation model must have the flexibility for pixels in shared regions to have smaller offset values, and margins large enough to cover pixels near the center and in overlapping regions. This allows a probability threshold (
Figure pat00035
) to mitigate the hinge loss.

구체적으로, 수학식 5의 가우스 함수

Figure pat00036
가 상기 확률 임계값보다 크면, 가우스 함수
Figure pat00037
를 1로 간주할 수 있다. 따라서 공유 영역의 픽셀은 터치(touching) 인스턴스 간에 강제로 분할되지 않고, 대신 전체 그룹을 한번에 획득하여 클러스터링 프로세스를 단순화하는 가까운 다른 중심으로 그룹화하는 경향이 있다. 예를 들어, 확률 임계값(
Figure pat00038
)은 0.8로 설정될 수 있다. Specifically, the Gaussian function of Equation 5
Figure pat00036
is greater than the probability threshold, the Gaussian function
Figure pat00037
can be considered as 1. Therefore, the pixels in the shared area are not forced to be split between touching instances, but instead tend to group into different nearby centers which simplifies the clustering process by obtaining the entire group at once. For example, the probability threshold (
Figure pat00038
) may be set to 0.8.

추론 시, 각 객체는 공간 임베딩 및 추정된 마진을 사용하여 클러스터링 될 수 있다. 이 단계에서, 프로세서(140)는 시드 맵을 사용하여 각 객체를 샘플링 할 수 있다. 도 5를 참조하여 클러스터링이 마진의 크기와 모양, 그리고 세분화 마스크에 미치는 영향을 확인할 수 있다.In inference, each object can be clustered using spatial embedding and estimated margins. At this stage, the processor 140 may sample each object using the seed map. Referring to FIG. 5 , the effect of clustering on the size and shape of the margin and the segmentation mask can be confirmed.

프로세서(140)는 추론할 때 각 객체의 중심 주위에 클러스터링 해야 한다. 상기의 손실 함수는 공간 임베딩 픽셀이 객체의 중심에 가깝게 놓이도록 하기 때문에 좋은 공간 임베딩 픽셀을 샘플링하고 해당 위치를 인스턴스 중심으로 사용할 수 있다. Processor 140 must cluster around the center of each object when inferring. Since the above loss function ensures that the spatial embedding pixels lie close to the center of the object, we can sample a good spatial embedding pixel and use that location as the instance center.

따라서 각 공간 임베딩 픽셀에 대해 인스턴스 중심에서 얼마나 멀리 배치되었는지 학습할 수 있다. 인스턴스 중심에 매우 가깝게 배치된 공간 임베딩 픽셀은 시드 맵에서 높은 점수를 받고 인스턴스 중심에서 멀리 떨어진 공간 임베딩 픽셀은 시드 맵에서 낮은 점수를 받는다. 이렇게 하면 추론 시 높은 시드 점수를 가진 공간 임베딩 픽셀을 선택할 수 있다. 이는 임베딩이 객체의 중심에 매우 가깝다는 것을 나타낸다.So, for each spatial embedding pixel, we can learn how far it was placed from the center of the instance. Spatial embedding pixels placed very close to the instance center score high in the seed map, and spatial embedding pixels far from the instance center score low in the seed map. This allows inference to select spatial embedding pixels with high seed scores. This indicates that the embedding is very close to the center of the object.

실질적으로, 공간 임베딩 픽셀의 씨드니스 점수(seediness score)는 임베딩과 인스턴스 중심 사이의 거리를 근접 점수로 변환하기 때문에 가우스 함수의 출력과 같아야 한다. 즉 임베딩이 중앙에 가까울수록 출력은 1에 가까워진다.In practice, the seediness score of the spatial embedding pixel should equal the output of the Gaussian function since it converts the distance between the embedding and the instance centroid into a proximity score. That is, the closer the embedding is to the center, the closer the output is to 1.

따라서 회귀 손실 함수를 사용하여 시드 맵을 훈련할 수 있다. 배경 픽셀은 0으로 회귀하고 전경 픽셀은 가우스 출력으로 회귀할 수 있다.So we can train the seed map using the regression loss function. Background pixels can regress to 0 and foreground pixels can regress to a Gaussian output.

일 실시 예에서는, 다음 수학식 7과 같은 손실 함수를 사용하여 각 의미 클래스에 대한 시드 맵을 훈련할 수 있다.In an embodiment, a seed map for each semantic class may be trained using a loss function as shown in Equation 7 below.

Figure pat00039
Figure pat00039

Figure pat00040
는 상향식 세분화 모델의 픽셀 i의 시드 출력이다. 이때 가우스 함수
Figure pat00041
를 스칼라로 간주할 수 있으며, 기울기는
Figure pat00042
에 대해서만 계산될 수 있다.
Figure pat00040
is the seed output of pixel i of the bottom-up segmentation model. In this case, the Gaussian function
Figure pat00041
can be considered as a scalar, and the slope is
Figure pat00042
can be calculated only for

이하에서는, 도 6 내지 도 8을 참조하여, 상향식 세분화 모델의 구현 성능에 대한 실험 결과를 설명한다.Hereinafter, with reference to FIGS. 6 to 8 , experimental results on implementation performance of the bottom-up segmentation model will be described.

도 6은 일 실시 예에 따른 아모달 예측 매칭 평가를 위한 메트릭을 설명하기 위한 예시도이고, 도 7은 일 실시 예에 따른 생성 데이터 세트의 공간 임베딩을 설명하기 위한 예시도이며, 도 8은 일 실시 예에 따른 상향식 세분화 모델의 정성적 결과를 나타낸 예시도이다.6 is an exemplary view for explaining a metric for evaluating amodal prediction matching according to an embodiment, FIG. 7 is an example view for explaining spatial embedding of a generated data set according to an embodiment, and FIG. It is an exemplary view showing qualitative results of the bottom-up segmentation model according to the embodiment.

실제 조직병리학 데이터는 낮은 획득 품질, 노이즈, 다양한 수명 단계의 세포 및 전문가 의견의 차이로 이어질 수 있는 기타 변형의 영향을 받을 수 있다. Actual histopathology data may be subject to low acquisition quality, noise, cells of different life stages, and other variations that may lead to differences in expert opinion.

따라서 일 실시 예에서는, 도 7에 도시된 바와 같이, 색상과 질감(texture)에 독립적인 셀룰러(cellular) 인스턴스를 나타내는 타원이 있는 이미지를 포함하는 Toy 데이터 세트(이하, 합성 데이터 세트)를 생성하여 실험을 수행할 수 있다. Therefore, in one embodiment, as shown in FIG. 7, a Toy data set (hereinafter referred to as a synthetic data set) including an image with an ellipse representing a cellular instance independent of color and texture is generated by You can do an experiment.

일 실시 예에서는, 합성 데이터 세트를 통해, 잘 정의된 경계가 있는 다양한 패턴, 크기 및 공유 영역에서, 상향식 세분화 모델이 어떻게 수행되는지 평가할 수 있다. In one embodiment, a synthetic data set can be used to evaluate how bottom-up segmentation models perform in different patterns, sizes, and shared domains with well-defined boundaries.

합성 데이터 세트에는 배경과 전경 모두에 대해 임의의 색상이 있는 여러 인스턴스가 포함되며 공유 영역은 반투명 개체의 존재를 시뮬레이션 하기 위해 혼합될 수 있다. 합성 데이터 세트에는 완전한 폐색(solid occlusion)이 포함되지 않으므로, 상향식 세분화 모델에 환각(hallucination) 이미지는 필요하지 않다.The synthetic data set contains multiple instances with random colors for both background and foreground, and the shared regions can be blended to simulate the presence of translucent objects. Since the synthetic data set does not contain solid occlusion, hallucination images are not required for bottom-up segmentation models.

또한 일 실시 예에서는, 핵 세분화 연구를 위해 공개적으로 사용 가능한 벤치마크 데이터 세트(MoNuSeg Dataset)를 이용하여 실험을 수행할 수 있다. 상기 벤치마크 데이터 세트(이하, 공개 데이터 세트)의 원시 주석(raw annotation)은 아모달이며, 훈련 데이터에는 단일 클래스 핵 경계 주석이 있는 30개의 조직 이미지가 포함될 수 있다. In addition, in one embodiment, an experiment may be performed using a publicly available benchmark data set (MoNuSeg Dataset) for nuclear segmentation research. The raw annotations of the benchmark data set (hereinafter referred to as the public data set) are amodal, and the training data may include 30 tissue images with single-class nuclear boundary annotations.

이미지는 40x, 즉 슬라이드당 단일 이미지로 캡처된 H&E 전체 슬라이드 이미지(whole slide image, WSI)에서 추출될 수 있다. 각 WSI는 단일 환자의 유방, 간, 신장, 전립선, 방광, 결장 및 위의 7개 장기에서 샘플을 채취한 것으로, 양성 조직과 질병 조직을 모두 포함할 수 있다. Images can be extracted from H&E whole slide images (WSI) captured at 40x, i.e. a single image per slide. Each WSI is a sample taken from seven organs of a single patient: breast, liver, kidney, prostate, bladder, colon, and stomach, and may contain both benign and diseased tissue.

공개 데이터 세트의 테스트 데이터에는 신장, 폐, 결장, 유방, 방광, 전립선 및 뇌의 7개 장기에서의 14개의 이미지가 포함될 수 있다. 폐 및 뇌 조직은 테스트 세트에서만 사용할 수 있다.Test data from the public data set may include 14 images from 7 organs: kidney, lung, colon, breast, bladder, prostate and brain. Lung and brain tissues are only available in the test set.

한편, 핵 인스턴스 세분화 성능은 좋은 마스크 예측에 대한 보상(reward)과 거짓 긍정(false positive) 및 부정(negative)에 대한 페널티(penalty)를 목표로 다양한 메트릭을 사용할 수 있다. On the other hand, nuclear instance segmentation performance can use various metrics to target reward for good mask prediction and penalty for false positives and negatives.

이러한 핵 인스턴스 세분화 성능 최적화를 위한 알고리즘에는 초기 쌍(initial pair) 매칭 단계가 있으며, 그 다음 단계에서는 GT와 예측 모두에 대해 일치하는 부분과 일치하지 않는 부분의 점수를 계산할 수 있다.The algorithm for optimizing the performance of this nuclear instance segmentation has an initial pair matching step, after which the matching and non-matching scores can be calculated for both GT and prediction.

이와 같이 점수를 계산하기 위한 메트릭에는, 앙상블 주사위 계수(Ensemble Dice coefficient, DICE_2), 조정된 자카드 지수 방법(Adjusted Jaccard Index, AJI), 패놉틱 품질(Panoptic Quality, PQ) 방법 등이 있을 수 있다.Metrics for calculating scores in this way may include an Ensemble Dice coefficient (DICE_2), an Adjusted Jaccard Index (AJI) method, a Panoptic Quality (PQ) method, and the like.

이러한 모든 메트릭은 쌍 세트를 정의하고 예측과 레이블 간의 일치 정도를 평가하여 인스턴스 외부의 픽셀, 누락된 예측 및 일치하는 쌍이 없는 세그먼트에 각각 페널티를 부과할 수 있다.All of these metrics define a set of pairs and evaluate the degree of agreement between predictions and labels so that pixels outside of an instance, missing predictions, and segments without matching pairs can each be penalized.

보다 구체적으로, 앙상블 주사위 계수 방법은, GT 세그먼트와 겹치는 모든 가능한 예측 세그먼트를 일치시키고 겹치는 영역과 그 영역의 합을 모두 누적하여 평균 Dice 계수를 계산하는 것이다. 앙상블 주사위 계수 방법은, 도 6의 예측 A와 같이, 일치하지 않는 세그먼트를 무시하고 과도한 페널티가 부여될 수 있다.More specifically, the ensemble dice counting method calculates the average Dice coefficient by matching all possible prediction segments that overlap with a GT segment and accumulating both the overlapping area and the sum of the areas. In the ensemble dice counting method, as shown in prediction A of FIG. 6, segments that do not match may be ignored and an excessive penalty may be imposed.

조정된 자카드 지수 방법은, 앙상블 주사위 계수 방법과 유사한 메트릭으로, IoU(Intersection Over Union)를 대신 사용하고 평균 IoU를 계산하기 전에 Intersections Union을 누적한다. 조정된 자카드 지수 방법은, 잠재적으로 둘 이상의 GT 세그먼트의 예측된 세그먼트를 사용할 수 있으며, 도 6의 예측 A와 같이, 더 나은 일치 항목이 없는 부분적으로 겹치는 영역의 경우 과도한 페널티를 초래할 수도 있다.The adjusted Jacquard exponential method, a metric similar to the Ensemble dice counting method, uses Intersections Over Union (IoU) instead and accumulates the Intersections Union before calculating the average IoU. The adjusted Jacquard exponential method can potentially use predicted segments of more than one GT segment, and may result in excessive penalties for partially overlapping regions where there is no better match, such as prediction A in Fig. 6.

패놉틱 품질 방법은, 보다 정확한 정량화 및 해석을 가능하게 하기 위한 핵 인스턴스 세분화 평가를 위해 도입된 것으로, 분석을 위한 통찰력을 제공하기 위해 검출 품질(DQ) 및 분할 품질(SQ)로 분해될 수 있다. 패놉틱 품질 방법은 IoU > 0.5인 쌍만 허용하여 일치 문제를 해결하고 고유한 일치를 생성하는 것으로 수학적으로 입증되었다.The panoptic quality method, introduced for evaluation of nuclear instance segmentation to enable more accurate quantification and interpretation, can be decomposed into detection quality (DQ) and segmentation quality (SQ) to provide insight for analysis. . It has been mathematically proven that the panoptic quality method solves the matching problem by accepting only pairs with IoU > 0.5 and produces unique matches.

그러나, 아모달 예측의 품질을 올바르게 평가하기 위해서는 상기의 메트릭만으로는 측정항목이 제한적이며 겹치는 영역의 공유 픽셀을 설명하기 위해 확장이 필요하다. However, in order to correctly evaluate the quality of amodal prediction, the above metric alone has limited metrics and needs to be extended to account for shared pixels in overlapping regions.

아모달 마스크의 경우, 조건 IoU > 0.5에서는 폐색이 있는 경우 고유성을 나타내지 않는다. 따라서, 일 실시 예에서는, PQ에서 영감을 받아 고유한 일치(aDICE_2, aAJI 및 aPQ)를 기반으로 하는 아모달 세분화 대한 이전 메트릭을 확장할 수 있다. For the amodal mask, the condition IoU > 0.5 indicates no uniqueness in the presence of occlusion. Thus, in one embodiment, we can extend the previous metrics for amodal segmentation based on unique matches (aDICE_2, aAJI and aPQ) inspired by PQ.

즉, 일 실시 예에서는, 먼저 각 GT 세그먼트에 대해 가장 높은 IoU를 보고하는 예측을 식별하고 동시에 각 예측 세그먼트에 대해 가장 높은 IoU를 가진 레이블을 식별할 수 있다. That is, in one embodiment, it is possible to first identify the prediction reporting the highest IoU for each GT segment and at the same time identify the label with the highest IoU for each prediction segment.

따라서 일 실시 예의 확장된 메트릭은 모든 IoU 조건에서 동일한 쌍이 있는 레이블 및 예측에 대해 고유한 일치로 간주할 수 있다(도 6의 예측 A 및 B 참조).Thus, the extended metric of one embodiment can be considered a unique match for labels and predictions that have the same pair in all IoU conditions (see predictions A and B in FIG. 6).

즉 일 실시 예의 확장된 메트릭은 이전 구현에 존재하는 과도한 페널티 문제를 해결하고 도 6의 A, B, C 및 D와 같은 유사한 예측을 평가할 때 보다 일관된 측정값을 산출할 수 있다. 예측 C 및 D는 모달 및 아모달 사례 간의 일관성을 나타낼 수 있다.That is, the extended metric of one embodiment can solve the excessive penalty problem present in previous implementations and yield more consistent measures when evaluating similar predictions such as A, B, C and D in FIG. 6 . Predictions C and D can indicate consistency between modal and submodal cases.

일 실시 예의 확장된 메트릭은 모달 및 아모달 작업에 모두 적용 가능하지만(도 6의 예측 C 및 D 참조), DICE_2 및 AJI(도 6의 예측 A 참조)에서 과도한 페널티를 제거할 수 있다. The extended metric of one embodiment is applicable to both modal and amodal tasks (see predictions C and D in FIG. 6 ), but can remove excessive penalties from DICE_2 and AJI (see prediction A in FIG. 6 ).

일 실시 예에서는, 여전히 앞서 언급한 메트릭의 공통 요소(denominator)에서 일치하지 않는 세그먼트, GT 및 예측에 페널티를 적용할 수 있다. In one embodiment, it is still possible to apply a penalty to segments, GTs and predictions that do not match in the denominator of the aforementioned metric.

따라서 재정의된 aDICE_2 및 aAJI 점수는 이전 구현과 직접 비교할 수 없지만 고유한 일치를 사용하면 PQ에 이미 존재하는 베네핏이 추가될 수 있다.Thus, the overridden aDICE_2 and aAJI scores cannot be directly compared to previous implementations, but using unique matches may add to the already existing benefits of PQ.

한편, 조직병리학 이미지에 적용되는 일반적인 데이터 증강 기술에는 무작위 이미지 뒤집기(random image flip), 회전(rotation), 가우시안 블러(Gaussian blur) 또는 선명화(sharpening), 대비(contrast) 및 밝기(brightness)의 변화, 가우시안 노이즈 추가(addition of Gaussian noise)가 포함될 수 있다. On the other hand, common data augmentation techniques applied to histopathology images include random image flipping, rotation, Gaussian blur or sharpening, contrast and brightness. change, an addition of Gaussian noise may be included.

그러나 이러한 변환만으로는 실험실 간 차이를 설명하기에 충분하지 않을 수 있다. 일반적으로 사용되는 색상 정규화 방법과 달리, 염색 변형(staining variation)은 보이지 않는 데이터로 일반화하는 CNN의 능력을 증가시키는 핵심 구성 요소일 수 있다. However, these conversions alone may not be sufficient to account for differences between laboratories. Unlike commonly used color normalization methods, staining variation may be a key component in increasing a CNN's ability to generalize to unseen data.

일 실시 예에서는, 훈련 동안 원본 이미지의 무작위 채널별 믹싱(random channel-wise mixing)을 수행할 수 있으며, 이는 정규화되고 회색조(grayscale) 버전일 수 있다. 이를 통해 여러 염색 조합으로 더 큰 이미지 세트를 생성할 수 있다. In one embodiment, random channel-wise mixing of the original images may be performed during training, which may be a normalized, grayscale version. This allows the creation of larger sets of images with different staining combinations.

또한 일 실시 예에서는, 상향식 세분화 모델을 다양한 수준의 이미지 품질에 대해 견고하게 만들기 위해 훈련 중에 양자화 수준(quantization level)의 수를 수정할 수 있다. 이미지는 종종 8비트 인코딩으로 인해 256개의 양자화 수준을 가지므로 사용 가능한 양자화 수준을 10에서 256으로 무작위로 변경하여, 상향식 세분화 모델이 극도로 낮은 품질의 이미지에서도 핵과 그 경계를 식별하는 방법을 학습할 수 있도록 할 수 있다.Also, in one embodiment, the number of quantization levels may be modified during training to make the bottom-up segmentation model robust to various levels of image quality. Images often have 256 quantization levels due to the 8-bit encoding, so by randomly changing the available quantization levels from 10 to 256, the bottom-up segmentation model can learn to identify nuclei and their boundaries, even in extremely low-quality images. can make it possible

일 실시 예에서는, 훈련을 위해 256 X 256의 무작위 자르기를 수행하고, 잘린 이미지를 확대할 수 있으며, 이미지 가장자리에서 불완전한 인스턴스의 레이블은 무시할 수 있다. 이러한 인스턴스는 다른 크롭에서 완료될 것이기 때문에 무시할 수 있다. In one embodiment, random cropping of 256 X 256 may be performed for training, cropped images may be enlarged, and labels of imperfect instances at image edges may be ignored. These instances can be ignored as they will be completed in other crops.

따라서 상향식 세분화 모델이 전체 크기 인스턴스에만 집중할 수 있고 잠재적으로 학습 프로세스에서 인공물 생성을 피할 수 있다. This allows the bottom-up segmentation model to focus only on full-size instances and potentially avoids creating artefacts in the learning process.

추론하는 동안 완전한 인스턴스에 대해서만 유효한 예측을 하기 위해 스트라이드(stride)가 128인 동일한 크기의 슬라이딩 윈도우를 사용할 수 있다. 여러 크롭에 대한 병합 과정은 중심점을 중심으로 128 X 128 영역의 예측된 인스턴스만을 사용하여 수행될 수 있다. 겹치는 영역은 추론 및 병합 단계에서 감지되므로 전체 프로세스 동안 모든 인스턴스가 완전한 상태로 유지될 수 있다. During inference, we can use a sliding window of the same size with a stride of 128 to make valid predictions only for complete instances. The merging process for multiple crops can be performed using only the predicted instances of the 128 X 128 area centered on the center point. Overlapping regions are detected during the inferencing and merging stages so that all instances can remain intact throughout the entire process.

일 실시 예에서는, 예를 들어, 가벼운 ERFNet을 CNN 백본 네트워크로 사용할 수 있다. 모든 실험은 RTX 2080 Ti가 장착된 머신에서 GPU 가속 기능이 있는 PyTorch 딥 러닝 라이브러리를 사용하여 수행될 수 있다. Adam 최적화 프로그램은 합성 데이터의 경우 100 에포크 및 병리학 데이터의 경우 2000 에포크 동안 지수 감쇠(exponential decay)가

Figure pat00043
까지 감소하는
Figure pat00044
의 초기 학습률로 적용될 수 있다.In one embodiment, for example, a lightweight ERFNet can be used as a CNN backbone network. All experiments can be performed using the PyTorch deep learning library with GPU acceleration on a machine with an RTX 2080 Ti. The Adam optimizer has an exponential decay over 100 epochs for synthetic data and 2000 epochs for pathology data.
Figure pat00043
decreasing to
Figure pat00044
can be applied as an initial learning rate of

일 실시 예에서는, 인공 데이터를 통해 상향식 세분화 모델이 조직 병리학 이미지에서 볼 수 있는 일반적인 인스턴스 패턴을 처리할 수 있는지 여부를 평가할 수 있었지만, 정확한 레이블을 사용하였다.In one embodiment, the artificial data allowed us to evaluate whether the bottom-up segmentation model could handle common instance patterns seen in histopathology images, but with precise labels.

그림 7을 참조하여, 주기적인 마진을 가진 클러스터링이 어떻게 아모달 분할을 수행할 수 없는지, 그리고 결과적으로 공유 경계에서 인스턴스가 잘릴 수 있음을 확인할 수 있다. 여기서, 클러스터는 마진의 크기를 줄일 수 있다. 이는 공간 임베딩을 인스턴스당 단일 중심으로 가져오는 손실 목표 때문이다. Referring to Figure 7, we can see how clustering with periodic margins cannot perform amodal partitioning, and as a result instances can be truncated at shared boundaries. Here, the cluster can reduce the size of the margin. This is due to the lossy goal of bringing the spatial embedding to a single centroid per instance.

즉 도 7을 참조하면, 공간 임베딩은 교차점에서 세분화 결과에 큰 영향을 미친다. 확장된 마진이 있는 모델은 클러스터가 겹치는 영역(노란색 화살표)에서 픽셀을 공유할 수 있도록 오프셋을 생성한다. 그러나 회전의 자유가 있는 타원형 마진(3 시그마 맵)만이 성공적인 아모달 세분화를 위해 활용될 수 있다. Mask R-CNN은 대체적으로 합성 데이터 세트의 이미지에서 인스턴스 세분화를 잘 수행했지만, 혼잡한 영역(파란색 화살표)에서 작은 인스턴스를 감지하지 못함을 확인할 수 있다.That is, referring to FIG. 7 , spatial embedding has a great influence on the segmentation result at the intersection. Models with extended margins create offsets that allow clusters to share pixels in areas of overlap (yellow arrows). However, only elliptical margins (3 sigma maps) with freedom of rotation can be exploited for successful amodal segmentation. It can be seen that Mask R-CNN generally performed well on instance segmentation in the images of the synthetic data set, but failed to detect small instances in congested areas (blue arrows).

주기적인 마진이 있는 결과는 공간 임베딩에서 인스턴스당 단일 중심을 보여주고 색상 차이를 기반으로 다른 인스턴스와 겹치는 영역에서 날카로운 경계를 식별할 수 있다. 따라서 주기적인 마진을 사용하는 것은 아모달 분할에 적합하지 않고 부자연스러운 분할 마스크로 이어질 수 있다. Results with periodic margins show a single centroid per instance in the spatial embedding and sharp boundaries can be identified in areas overlapping with other instances based on color differences. Therefore, using a periodic margin is not suitable for amodal segmentation and may lead to an unnatural segmentation mask.

반면에 확장된 마진은 교차점에서 공간 임베딩을 수정하여 픽셀 공유를 허용하고 클러스터가 여러 중심을 캡쳐하여 완전한 인스턴스 마스크를 구성할 수 있도록 한다. 또한 화살표는 모든 유형의 마진 모양이 유사한 임베딩을 생성한다는 것을 보여주지만 회전의 자유가 있는 확장된 타원형 마진이 더 강력함을 확인할 수 있다(도 7의 노란색 화살표 참조).On the other hand, the extended margin modifies the spatial embedding at the intersection, allowing pixel sharing and allowing clusters to capture multiple centroids to construct complete instance masks. The arrows also show that all types of margin shapes produce similar embeddings, but the expanded elliptical margins with freedom of rotation are more robust (see yellow arrows in Fig. 7).

Figure pat00045
Figure pat00045

표 1은 합성 데이터 세트를 이용한 상향식 세분화 모델 학습 결과를 나타낸 것이다. 세분화 품질 메트릭은 교차를 정확하게 분할하기 위해 마진이 확장된 3 시그마 맵의 중요성을 보여준다. Mask R-CNN은 바운딩 박스 정렬 불량과 낮은 해상도 및 마스크로 인해 더 낮은 점수를 갖는다. 여기서,

Figure pat00046
는 시그마 맵, (ext-m)은 확장 마진을 나타낸다.Table 1 shows the bottom-up segmentation model training results using the synthetic data set. The segmentation quality metric shows the importance of a 3-sigma map with extended margins to correctly segment intersections. Mask R-CNN has a lower score due to bounding box misalignment and lower resolution and mask. here,
Figure pat00046
is the sigma map, and (ext-m) represents the expansion margin.

표 1을 참조하면, 제안된 3개의 시그마 맵과 확장된 마진이 있는 제안된 타원 마진(Ours)이 이전 방법보다 크게 향상되었음을 확인할 수 있다. Mask RCNN은 자연 이미지에서 아모달 분할에 사용할 수 있고 합리적인 성능을 보여주지만 모델이 혼잡한 영역에서 작은 인스턴스를 분할하는 데 제한이 있음을 확인할 수 있다(도 7의 파란색 화살표 참조). 이러한 이유로 하나의 시그마 맵만 사용하는 상향식 기법에 비해 더 낮은 결과를 얻었다.Referring to Table 1, it can be seen that the proposed three sigma maps and the proposed ellipse margin (Ours) with extended margins are significantly improved over the previous method. Mask RCNN can be used for amodal segmentation in natural images and shows reasonable performance, but it can be seen that the model has limitations in segmenting small instances in congested regions (see blue arrow in Fig. 7). For this reason, we obtained lower results compared to the bottom-up technique using only one sigma map.

훈련 중 아모달 마스크를 사용하면 모델이 클러스터링된 영역에서 핵을 분할하는 방법을 더 잘 학습할 수 있다(공개 데이터 세트 사용). 도 8을 참조하여, 일 실시 예의 상향식 세분화 모델이 다양한 크기와 모양의 핵을 가진 다양한 조직 유형을 성공적으로 분할할 수 있음을 확인할 수 있다. Using an amodal mask during training allows the model to better learn how to segment nuclei in clustered regions (using public data sets). Referring to FIG. 8 , it can be seen that the bottom-up segmentation model of an embodiment can successfully segment various tissue types having nuclei of various sizes and shapes.

예를 들어, 상향식 세분화 모델(Ours)은 매우 작은 클러스터 핵의 끝 부분에 대해서도 성공적인 결과를 출력하는 반면, 다른 방법들은 인스턴스를 분리하거나 완전히 놓치는 데 실패하였다. Mask R-CNN과 같은 하향식 방법은 작은 인스턴스를 감지하지 못하거나 바운딩 박스를 통해 정확한 묘사를 수행하지 못하기 때문이다. HoVer-Net은 작은 핵을 합리적으로 감지할 수 있지만 결과는 실제 핵 특성을 정확하게 반영하지 못한다. 즉, 일부 핵의 모양이 타원형이 아니거나 불규칙하지 않다.For example, a bottom-up segmentation model (Ours) outputs successful results even for the tips of very small cluster nuclei, whereas other methods fail to isolate or miss instances entirely. This is because top-down methods such as Mask R-CNN do not detect small instances or perform accurate delineation through bounding boxes. The HoVer-Net can reasonably detect small nuclei, but the results do not accurately reflect the real nucleus properties. That is, the shape of some nuclei is not elliptical or irregular.

Figure pat00047
Figure pat00047

표 2는 공개 데이터 세트(예를 들어, MoNuSeg)를 이용한 상향식 세분화 모델 학습 결과를 나타낸 것이다. 즉 표 2에서는 종래의 방법에 대한 경쟁 점수를 나타낸다. 일 실시 예의 상향식 세분화 모델은 아모달 공간 임베딩(Amodal Spatial Embedding)이 사용되는 것으로, 이하에서는 상향식 세분화 모델(ASense)로 표기하도록 한다.Table 2 shows the bottom-up segmentation model training results using a public data set (eg, MoNuSeg). That is, Table 2 shows the competition scores for the conventional method. A bottom-up segmentation model of an embodiment uses Amodal Spatial Embedding, and will be described below as a bottom-up segmentation model (ASense).

표 2의 상단의 참조 결과(마름모 표시)는 업데이트된 메트릭을 사용하지 않았기 때문에 직접 비교할 수 없으며 실제 전경 마스크는 경계에서 몇 픽셀만큼 다를 수 있다. 즉, 자체 알고리즘을 사용하여 원시 주석에서 직접 아모달 마스크를 추출했다. The reference results at the top of Table 2 (marked with diamonds) are not directly comparable as they do not use updated metrics and the actual foreground mask may differ by a few pixels at the border. That is, we extracted the amodal mask directly from the raw annotation using our own algorithm.

이러한 이유로 일 실시 예에서는, 동일한 데이터에 대한 메트릭 및 레이블을 사용하여 공식 HoVer-Net 사전 훈련된 모델을 재평가했다. 표에 표시된 (*), (

Figure pat00048
) 및 (
Figure pat00049
)는 각각 다른 데이터가 사용되었음을 나타낸다. For this reason, in one embodiment, we re-evaluated the official HoVer-Net pretrained model using metrics and labels on the same data. (*), ( shown in the table
Figure pat00048
) and (
Figure pat00049
) indicates that different data were used.

대부분의 경우 Mask R-CNN 점수가 상향식 세분화 모델(ASense)보다 낮았다. (*) 데이터 세트에서 HoVer-Net은 더 나은 aDICE_2 및 aAJI를 달성하지만 더 큰 인스턴스와 더 작은 인스턴스에 대한 성능 차이로 인해 더 낮은 aSQ를 보고한다. 즉, 작은 핵에서 결과가 더 좋았다. 그러나 (

Figure pat00050
) 데이터 세트에서 상향식 세분화 모델(ASense)은 더 정확하게 분할할 수 있었던 추가 장기 조직의 존재로 인해 우수한 성능을 보여준다. 마지막으로 (
Figure pat00051
) 데이터 세트에서 상향식 세분화 모델(ASense)은 다른 비교 방법들 대비 더 많은 개선 사항을 보여준다.In most cases, Mask R-CNN scores were lower than bottom-up segmentation models (ASense). (*) On our dataset, HoVer-Net achieves better aDICE_2 and aAJI, but reports lower aSQ due to the difference in performance for larger and smaller instances. That is, the results were better in small nuclei. however (
Figure pat00050
) in the data set, a bottom-up segmentation model (ASense) shows superior performance due to the presence of additional organ tissues that could have been segmented more precisely. finally (
Figure pat00051
) in the data set, the bottom-up segmentation model (ASense) shows more improvement over other comparison methods.

Figure pat00052
Figure pat00052

표 3은 추론 시간을 나타낸 것이다. 1000 X 1000 픽셀 크기의 공개 데이터 세트에 있는 30개의 H&E 이미지는 모두 단일 GPU가 있는 워크스테이션에서 추론될 수 있다.Table 3 shows the inference time. All 30 H&E images in the 1000 X 1000 pixel public dataset can be inferred on a workstation with a single GPU.

표 3을 참조하면, 일 실시 예의 상향식 세분화 모델(ASense)은 HoVer-Net보다 훨씬 빠르게 추론을 수행하며 성숙하고 최적화된 방법인 Mask R-CNN과 비슷하다.Referring to Table 3, the bottom-up segmentation model (ASense) of an embodiment performs inference much faster than HoVer-Net and is similar to Mask R-CNN, which is a mature and optimized method.

클러스터링 및 아모달 집계 마스크의 추가 최적화는, 상향식 세분화 모델(ASense)의 CNN 순방향 패스가 상당히 더 짧은 실행 시간을 필요로 하기 때문에 잠재적으로 프로세스 속도를 높일 수 있다.Further optimization of the clustering and amodal aggregation mask can potentially speed up the process as the CNN forward pass of bottom-up segmentation model (ASense) requires significantly shorter running time.

즉, 일 실시 예에서는, 아모달 세분화를 위한 공간 임베딩을 직접 최적화하는 가우스 함수로 객체를 클러스터링 하는 상향식 전략을 사용함으로써, 조직병리학 이미지에서 핵 인스턴스 세분화의 품질을 개선할 수 있다.That is, in one embodiment, by using a bottom-up strategy of clustering objects with a Gaussian function that directly optimizes spatial embedding for amodal segmentation, the quality of nuclear instance segmentation in a histopathology image can be improved.

상기 실험 결과에서도 확인할 수 있는 것처럼, 일 실시 예의 상향식 인스턴스 세분화 장치(100)는 중첩되는 부분이 있는 까다로운 영역의 경우 고품질 묘사를 위해 핵의 자연스러운 위치와 아모달 마스크를 캡쳐 할 수 있다. As can be seen from the above experimental results, the bottom-up instance segmentation apparatus 100 according to an embodiment can capture natural positions of nuclei and amodal masks for high-quality rendering in the case of difficult regions with overlapping portions.

또한 상향식 인스턴스 세분화 장치(100)는 기존 핵 세분화 메트릭을 확장하여 아모달 레이블 및 예측을 처리할 뿐만 아니라 더 안정적으로 만들어, 종래의 과도한 페널티 문제를 제거할 수 있다. In addition, the bottom-up instance segmentation apparatus 100 extends the existing nuclear segmentation metric to process amodal labels and predictions, as well as to make them more stable, thereby eliminating the conventional excessive penalty problem.

또한 일 실시 예에서는, 합성 데이터 세트와 공개 데이터 세트 모두에 대해 상향식 인스턴스 세분화 장치(100)의 광범위한 평가를 수행함으로써, 경쟁력 있는 성능과 적용 가능성을 검증할 수 있다.In addition, in one embodiment, competitive performance and applicability can be verified by performing extensive evaluation of the bottom-up instance segmentation apparatus 100 on both the synthetic data set and the public data set.

도 9는 일 실시 예에 따른 상향식 인스턴스 세분화 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a bottom-up instance segmentation method according to an exemplary embodiment.

도 9를 참조하면, S100단계에서, 프로세서(140)는 조직병리학 이미지를 획득한다.Referring to FIG. 9 , in step S100, the processor 140 acquires a histopathology image.

S200단계에서, 프로세서(140)는 기 학습된 상향식 세분화 모델을 기반으로 조직병리학 이미지를 시드맵 및 복수의 시그마맵으로 인코딩하여 각 인스턴스의 경계 및 인스턴스간의 공유 픽셀을 식별한다.In step S200, the processor 140 encodes the histopathology image into a seed map and a plurality of sigma maps based on the pre-learned bottom-up segmentation model to identify boundaries of each instance and shared pixels between instances.

이때, 기 학습된 상향식 세분화 모델은, 객체의 중심에 대한 최적 오프셋을 기반으로 각 픽셀을 인스턴스로 클러스터링 하도록 학습된 학습 모델이다. 최적 오프셋은 각 픽셀의 좌표와 해당 픽셀에 대한 오프셋 벡터를 합한 것이다.In this case, the pre-learned bottom-up segmentation model is a learning model learned to cluster each pixel into an instance based on an optimal offset with respect to the center of the object. The optimal offset is the sum of each pixel's coordinates and the offset vector for that pixel.

이러한 기 학습된 상향식 세분화 모델은, 가우스 함수(수학식 5 참조)를 기반으로 조직병리학 이미지의 공간 임베딩 및 마진을 비지도 학습하고, 각 인스턴스 중심 주위에 클러스터링 할 수 있도록 시드맵 기반 샘플링을 수행하여, 조직병리학 이미지의 각 픽셀의 경계 및 공유 픽셀을 추론하도록 구성될 수 있다.This pre-learned bottom-up segmentation model unsupervisedly learns the spatial embedding and margin of the histopathology image based on the Gaussian function (see Equation 5), and performs seedmap-based sampling to cluster around the center of each instance. , can be configured to infer the boundaries and shared pixels of each pixel of the histopathology image.

프로세서(140)는 각 인스턴스의 경계 및 인스턴스간의 공유 픽셀을 식별하기 위해, 조직병리학 이미지에 대한 픽셀별 공간 임베딩을 수행하고, 공간 임베딩 결과를 기반으로 각 픽셀 및 인스턴스간의 공유 픽셀을 그룹화 할 수 있다.The processor 140 may perform spatial embedding for each pixel on the histopathology image in order to identify boundaries of each instance and shared pixels between instances, and group each pixel and shared pixels between instances based on the spatial embedding result. .

그리고 프로세서(140)는 복수의 시그마맵을 기반으로, 각 인스턴스 중심에서 공간 임베딩 픽셀이 대응되는 인스턴스로 허용되는 거리인 마진을 추정할 수 있다.Further, the processor 140 may estimate a margin, which is a distance allowed to an instance corresponding to a spatial embedding pixel from the center of each instance, based on the plurality of sigma maps.

여기서, 복수의 시그마맵은, 각 인스턴스의 x축 방향, y축 방향 및 회전 방향의 마진을 추정하는 3 개의 시그마맵을 포함하여 구성된 것이다.Here, the plurality of sigma maps include three sigma maps for estimating margins in the x-axis direction, the y-axis direction, and the rotation direction of each instance.

그리고 복수의 시그마맵은, 공간 임베딩 픽셀과 대응 인스턴스 중심 사이의 거리를 기반으로, 공간 임베딩 픽셀이 대응 인스턴스에 속하는 확률로 변환하는 가우스 함수

Figure pat00053
의 각 계수
Figure pat00054
,
Figure pat00055
Figure pat00056
로 도출될 수 있다(수학식 5 참조).And the plurality of sigma maps, based on the distance between the spatial embedding pixel and the center of the corresponding instance, a Gaussian function that converts the spatial embedding pixel into a probability that the corresponding instance belongs
Figure pat00053
Each coefficient of
Figure pat00054
,
Figure pat00055
and
Figure pat00056
It can be derived as (see Equation 5).

이때 각 계수

Figure pat00057
,
Figure pat00058
Figure pat00059
는, x 시그마 값(
Figure pat00060
), y 시그마 값(
Figure pat00061
) 및 회전 각도에 기반하여 도출될 수 있다. At this time, each coefficient
Figure pat00057
,
Figure pat00058
and
Figure pat00059
is the x sigma value (
Figure pat00060
), y sigma value (
Figure pat00061
) and the rotation angle.

그리고 프로세서(140)는 가우스 함수의 시그마 매개변수를 기반으로 각 인스턴스의 마진을 추정할 수 있다. 이때 시그마 매개변수는, 각 계수

Figure pat00062
,
Figure pat00063
Figure pat00064
의 x 시그마 값(
Figure pat00065
), y 시그마 값(
Figure pat00066
) 및 회전 각도를 포함할 수 있다.Also, the processor 140 may estimate the margin of each instance based on the sigma parameter of the Gaussian function. At this time, the sigma parameter is each coefficient
Figure pat00062
,
Figure pat00063
and
Figure pat00064
x sigma value of (
Figure pat00065
), y sigma value (
Figure pat00066
) and rotation angle.

즉 프로세서(140)는 각 인스턴스의 크기 및 형태에 따른 시그마 매개변수에 기반하여 마진의 크기 및 형태를 추정할 수 있다. 즉 일 실시 예에서는, 가능한 모든 모양 변형을 캡쳐 할 수 있다.That is, the processor 140 may estimate the size and shape of the margin based on the sigma parameter according to the size and shape of each instance. That is, in one embodiment, all possible shape deformations can be captured.

이때 프로세서(140)는 가우스 함수의 값이 기 설정된 확률 임계값 이상이면 가우스 함수의 값이 1이 되도록 시그마 매개변수를 학습할 수 있다. 이는, 공유 영역의 픽셀이 더 작은 오프셋 값을 가질 수 있는 유연성과 중심 근처 및 겹치는 영역의 픽셀을 덮기에 충분히 큰 마진을 가져야 하기 때문이다. 따라서 공유 영역의 픽셀은 중첩된 인스턴스 간에 강제로 분할되지 않을 수 있다.In this case, the processor 140 may learn the sigma parameter so that the value of the Gaussian function becomes 1 when the value of the Gaussian function is greater than or equal to a preset probability threshold. This is because pixels in the shared area must have the flexibility to have smaller offset values and a margin large enough to cover pixels in the near-center and overlapping areas. Therefore, the pixels of the shared area may not be forcibly divided between overlapping instances.

한편, 프로세서(140)는 추정된 마진을 기반으로 클러스터링 영역을 결정하고, 결정한 클러스터링 영역을 기반으로 각 인스턴스에 공유 픽셀이 포함되는지 여부를 판단할 수 있다.Meanwhile, the processor 140 may determine a clustering area based on the estimated margin, and determine whether each instance includes a shared pixel based on the determined clustering area.

그리고 프로세서(140)는 시드맵을 기반으로, 각 인스턴스 중심을 결정하기 위한 공간 임베딩 픽셀을 샘플링 할 수 있다. 시드맵은 사용 가능한 전경 영역이 소진될 때까지 샘플링 순서를 제어할 수 있다.Further, the processor 140 may sample spatial embedding pixels for determining the center of each instance based on the seed map. The seedmap can control the sampling order until the available foreground area is exhausted.

S300단계에서, 프로세서(140)는 각 인스턴스의 경계 및 인스턴스간의 공유 픽셀을 기반으로 조직병리학 이미지 내 세포핵에 대한 세분화 이미지를 출력한다.In step S300, the processor 140 outputs a segmented image of cell nuclei in the histopathology image based on the boundaries of each instance and shared pixels between instances.

이상 설명된 본 개시에 따른 실시 예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.Embodiments according to the present disclosure described above may be implemented in the form of a computer program that can be executed on a computer through various components, and such a computer program may be recorded on a computer-readable medium. At this time, the medium is a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and a DVD, a magneto-optical medium such as a floptical disk, and a ROM hardware devices specially configured to store and execute program instructions, such as RAM, flash memory, and the like.

한편, 상기 컴퓨터 프로그램은 본 개시를 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specially designed and configured for the purpose of the present disclosure, or may be known and available to those skilled in the art in the field of computer software. An example of a computer program may include not only machine language code generated by a compiler but also high-level language code that can be executed by a computer using an interpreter or the like.

본 개시의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 개시에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다.In the specification of the present disclosure (particularly in the claims), the use of the term "above" and similar indicating terms may correspond to both singular and plural. In addition, when a range is described in the present disclosure, as including the invention to which individual values belonging to the range are applied (unless otherwise stated), each individual value constituting the range is described in the detailed description of the invention Same as

본 개시에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다. 본 개시에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다. 또한, 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.Unless an order is explicitly stated or stated to the contrary for steps comprising a method according to the present disclosure, the steps may be performed in any suitable order. The present disclosure is not necessarily limited to the order of description of the steps. The use of all examples or exemplary terms (eg, etc.) in this disclosure is simply to explain the present disclosure in detail, and the scope of the present disclosure is limited due to the examples or exemplary terms unless limited by the claims. it is not going to be In addition, those skilled in the art can appreciate that various modifications, combinations and changes can be made according to design conditions and factors within the scope of the appended claims or equivalents thereof.

따라서, 본 개시의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 개시의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present disclosure should not be limited to the above-described embodiments, and not only the claims to be described later, but also all ranges equivalent to or equivalent to these claims are within the scope of the spirit of the present disclosure. will be said to belong to

1 : 상향식 인스턴스 세분화 시스템
100 : 상향식 인스턴스 세분화 장치
110 : 통신부
120 : 사용자 인터페이스
130 : 메모리
140 : 프로세서
200 : 사용자 단말
300 : 서버
400 : 네트워크
1: Bottom-Up Instance Subdivision System
100: bottom-up instance segmentation device
110: Communication Department
120: user interface
130: memory
140: processor
200: user terminal
300: server
400: network

Claims (20)

각 단계의 적어도 일부가 프로세서에 의해 수행되는, 상향식 인스턴스 세분화 방법으로서,
이미지를 획득하는 단계;
기 학습된 상향식 세분화 모델을 기반으로 상기 이미지를 시드맵 및 복수의 시그마맵으로 인코딩하여 각 인스턴스의 경계 및 인스턴스간의 공유 픽셀을 식별하는 단계; 및
상기 각 인스턴스의 경계 및 상기 인스턴스간의 공유 픽셀을 기반으로 상기 이미지 내 객체에 대한 세분화 이미지를 출력하는 단계를 포함하는,
상향식 인스턴스 세분화 방법.
A bottom-up instance segmentation method, wherein at least a portion of each step is performed by a processor, comprising:
acquiring an image;
encoding the image into a seed map and a plurality of sigma maps based on a pre-learned bottom-up segmentation model to identify boundaries of each instance and shared pixels between instances; and
Outputting a segmented image of an object in the image based on a boundary of each instance and a shared pixel between the instances,
A bottom-up instance segmentation method.
제 1 항에 있어서,
상기 기 학습된 상향식 세분화 모델은,
객체의 중심에 대한 최적 오프셋을 기반으로 각 픽셀을 인스턴스로 클러스터링 하도록 학습된 학습 모델인,
상향식 인스턴스 세분화 방법.
According to claim 1,
The pre-learned bottom-up segmentation model,
A learning model learned to cluster each pixel into instances based on the optimal offset to the center of the object,
A bottom-up instance segmentation method.
제 1 항에 있어서,
상기 각 인스턴스의 경계 및 상기 인스턴스간의 공유 픽셀을 식별하는 단계는,
상기 이미지에 대한 픽셀별 공간 임베딩을 수행하는 단계; 및
상기 공간 임베딩 결과를 기반으로 각 픽셀 및 상기 인스턴스간의 공유 픽셀을 그룹화 하는 단계를 포함하는,
상향식 인스턴스 세분화 방법.
According to claim 1,
Identifying a boundary of each instance and a shared pixel between the instances,
performing pixel-by-pixel spatial embedding on the image; and
Grouping each pixel and shared pixels between the instances based on the spatial embedding result,
A bottom-up instance segmentation method.
제 3 항에 있어서,
상기 각 인스턴스의 경계 및 상기 인스턴스간의 공유 픽셀을 식별하는 단계는,
상기 복수의 시그마맵을 기반으로, 각 인스턴스 중심에서 상기 공간 임베딩 픽셀이 대응되는 인스턴스로 허용되는 거리인 마진을 추정하는 단계를 포함하고,
상기 복수의 시그마맵은, 각 인스턴스의 x축 방향, y축 방향 및 회전 방향의 마진을 추정하는 3 개의 시그마맵을 포함하여 구성된,
상향식 인스턴스 세분화 방법.
According to claim 3,
Identifying a boundary of each instance and a shared pixel between the instances,
estimating a margin, which is a distance allowed from the center of each instance to an instance corresponding to the spatial embedding pixel, based on the plurality of sigma maps;
The plurality of sigma maps include three sigma maps for estimating margins in the x-axis direction, the y-axis direction, and the rotation direction of each instance,
A bottom-up instance segmentation method.
제 4 항에 있어서,
상기 복수의 시그마맵은,
상기 공간 임베딩 픽셀과 대응 인스턴스 중심 사이의 거리를 기반으로, 상기 공간 임베딩 픽셀이 상기 대응 인스턴스에 속하는 확률로 변환하는 가우스 함수
Figure pat00067
의 각 계수
Figure pat00068
,
Figure pat00069
Figure pat00070
로 도출되며,
상기 각 계수
Figure pat00071
,
Figure pat00072
Figure pat00073
는, x 시그마 값(
Figure pat00074
), y 시그마 값(
Figure pat00075
) 및 회전 각도에 기반하여 도출되는,
상향식 인스턴스 세분화 방법.
[가우스 함수
Figure pat00076
]
Figure pat00077
According to claim 4,
The plurality of sigma maps,
Based on the distance between the spatial embedding pixel and the center of the corresponding instance, a Gaussian function for converting the spatial embedding pixel into a probability belonging to the corresponding instance
Figure pat00067
Each coefficient of
Figure pat00068
,
Figure pat00069
and
Figure pat00070
is derived as,
Each coefficient above
Figure pat00071
,
Figure pat00072
and
Figure pat00073
is the x sigma value (
Figure pat00074
), y sigma value (
Figure pat00075
) and derived based on the rotation angle,
A bottom-up instance segmentation method.
[Gaussian function
Figure pat00076
]
Figure pat00077
제 5 항에 있어서,
상기 마진을 추정하는 단계는,
상기 가우스 함수의 시그마 매개변수를 기반으로 상기 각 인스턴스의 마진을 추정하는 단계를 포함하며,
상기 시그마 매개변수는, 상기 각 계수
Figure pat00078
,
Figure pat00079
Figure pat00080
의 x 시그마 값(
Figure pat00081
), y 시그마 값(
Figure pat00082
) 및 회전 각도를 포함하는,
상향식 인스턴스 세분화 방법.
According to claim 5,
In the step of estimating the margin,
Estimating a margin of each instance based on a sigma parameter of the Gaussian function;
The sigma parameter is each coefficient
Figure pat00078
,
Figure pat00079
and
Figure pat00080
x sigma value of (
Figure pat00081
), y sigma value (
Figure pat00082
) and rotation angle,
A bottom-up instance segmentation method.
제 6 항에 있어서,
상기 마진을 추정하는 단계는,
상기 각 인스턴스의 크기 및 형태에 따른 상기 시그마 매개변수에 기반하여 상기 마진의 크기 및 형태를 추정하는 단계를 포함하는,
상향식 인스턴스 세분화 방법.
According to claim 6,
In the step of estimating the margin,
Estimating the size and shape of the margin based on the sigma parameter according to the size and shape of each instance,
A bottom-up instance segmentation method.
제 6 항에 있어서,
상기 마진을 추정하는 단계는,
상기 가우스 함수의 값이 기 설정된 확률 임계값 이상이면 상기 가우스 함수의 값이 1이 되도록 상기 시그마 매개변수를 학습하는 단계를 더 포함하는,
상향식 인스턴스 세분화 방법.
According to claim 6,
In the step of estimating the margin,
Further comprising the step of learning the sigma parameter so that the value of the Gaussian function becomes 1 when the value of the Gaussian function is equal to or greater than a preset probability threshold.
A bottom-up instance segmentation method.
제 4 항에 있어서,
상기 각 인스턴스의 경계 및 상기 인스턴스간의 공유 픽셀을 식별하는 단계는,
상기 추정된 마진을 기반으로 클러스터링 영역을 결정하는 단계; 및
상기 클러스터링 영역을 기반으로 각 인스턴스에 공유 픽셀이 포함되는지 여부를 판단하는 단계를 포함하는,
상향식 인스턴스 세분화 방법.
According to claim 4,
Identifying a boundary of each instance and a shared pixel between the instances,
determining a clustering area based on the estimated margin; and
Determining whether a shared pixel is included in each instance based on the clustering area,
A bottom-up instance segmentation method.
제 9 항에 있어서,
상기 각 인스턴스의 경계 및 상기 인스턴스간의 공유 픽셀을 식별하는 단계는,
상기 시드맵을 기반으로, 각 인스턴스 중심을 결정하기 위한 공간 임베딩 픽셀을 샘플링하는 단계를 포함하는,
상향식 인스턴스 세분화 방법.
According to claim 9,
Identifying a boundary of each instance and a shared pixel between the instances,
Based on the seed map, sampling a spatial embedding pixel for determining the center of each instance,
A bottom-up instance segmentation method.
적어도 하나의 프로세서에 의해 실행될 때, 상기 적어도 하나의 프로세서로 하여금 제 1 항 내지 제 10 항 중 어느 하나의 항의 방법을 수행하게 하는 프로그램이 기록된, 컴퓨터에서 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program that, when executed by at least one processor, causes the at least one processor to perform the method of any one of claims 1 to 10. 상향식 인스턴스 세분화 장치로서,
메모리; 및
상기 메모리와 연결되고, 상기 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는,
이미지를 획득하는 동작,
기 학습된 상향식 세분화 모델을 기반으로 상기 이미지를 시드맵 및 복수의 시그마맵으로 인코딩하여 각 인스턴스의 경계 및 인스턴스간의 공유 픽셀을 식별하는 동작, 및
상기 각 인스턴스의 경계 및 상기 인스턴스간의 공유 픽셀을 기반으로 상기 이미지 내 객체에 대한 세분화 이미지를 출력하는 동작을 수행하도록 설정된,
상향식 인스턴스 세분화 장치.
As a bottom-up instance segmentation device,
Memory; and
a processor coupled with the memory and configured to execute computer readable instructions contained in the memory;
The at least one processor,
the operation of acquiring an image;
Encoding the image into a seed map and a plurality of sigma maps based on a pre-learned bottom-up segmentation model to identify boundaries of each instance and shared pixels between instances, and
Set to perform an operation of outputting a segmented image for an object in the image based on a boundary of each instance and a shared pixel between the instances,
Bottom-up instance segmentation device.
제 12 항에 있어서,
상기 기 학습된 상향식 세분화 모델은,
객체의 중심에 대한 최적 오프셋을 기반으로 각 픽셀을 인스턴스로 클러스터링 하도록 학습된 학습 모델인,
상향식 인스턴스 세분화 장치.
According to claim 12,
The pre-learned bottom-up segmentation model,
A learning model learned to cluster each pixel into instances based on the optimal offset to the center of the object,
Bottom-up instance segmentation device.
제 12 항에 있어서,
상기 각 인스턴스의 경계 및 상기 인스턴스간의 공유 픽셀을 식별하는 동작은,
상기 이미지에 대한 픽셀별 공간 임베딩을 수행하는 동작, 및
상기 공간 임베딩 결과를 기반으로 각 픽셀 및 상기 인스턴스간의 공유 픽셀을 그룹화 하는 동작을 포함하는,
상향식 인스턴스 세분화 장치.
According to claim 12,
The operation of identifying the boundary of each instance and the shared pixel between the instances,
An operation of performing pixel-by-pixel spatial embedding of the image; and
Grouping each pixel and shared pixels between the instances based on the spatial embedding result,
Bottom-up instance segmentation device.
제 14 항에 있어서,
상기 각 인스턴스의 경계 및 상기 인스턴스간의 공유 픽셀을 식별하는 동작은,
상기 복수의 시그마맵을 기반으로, 각 인스턴스 중심에서 상기 공간 임베딩 픽셀이 대응되는 인스턴스로 허용되는 거리인 마진을 추정하는 동작을 포함하고,
상기 복수의 시그마맵은, 각 인스턴스의 x축 방향, y축 방향 및 회전 방향의 마진을 추정하는 3 개의 시그마맵을 포함하여 구성된,
상향식 인스턴스 세분화 장치.
15. The method of claim 14,
The operation of identifying the boundary of each instance and the shared pixel between the instances,
Based on the plurality of sigma maps, estimating a margin, which is a distance allowed from the center of each instance to an instance corresponding to the spatial embedding pixel,
The plurality of sigma maps include three sigma maps for estimating margins in the x-axis direction, the y-axis direction, and the rotation direction of each instance,
Bottom-up instance segmentation device.
제 15 항에 있어서,
상기 복수의 시그마맵은,
상기 공간 임베딩 픽셀과 대응 인스턴스 중심 사이의 거리를 기반으로, 상기 공간 임베딩 픽셀이 상기 대응 인스턴스에 속하는 확률로 변환하는 가우스 함수
Figure pat00083
의 각 계수
Figure pat00084
,
Figure pat00085
Figure pat00086
로 도출되며,
상기 각 계수
Figure pat00087
,
Figure pat00088
Figure pat00089
는, x 시그마 값(
Figure pat00090
), y 시그마 값(
Figure pat00091
) 및 회전 각도에 기반하여 도출되는,
상향식 인스턴스 세분화 장치.
[가우스 함수
Figure pat00092
]
Figure pat00093
According to claim 15,
The plurality of sigma maps,
Based on the distance between the spatial embedding pixel and the center of the corresponding instance, a Gaussian function for converting the spatial embedding pixel into a probability belonging to the corresponding instance
Figure pat00083
Each coefficient of
Figure pat00084
,
Figure pat00085
and
Figure pat00086
is derived as,
Each coefficient above
Figure pat00087
,
Figure pat00088
and
Figure pat00089
is the x sigma value (
Figure pat00090
), y sigma value (
Figure pat00091
) and derived based on the rotation angle,
Bottom-up instance segmentation device.
[Gaussian function
Figure pat00092
]
Figure pat00093
제 16 항에 있어서,
상기 마진을 추정하는 동작은,
상기 가우스 함수의 시그마 매개변수를 기반으로 상기 각 인스턴스의 마진을 추정하는 동작을 포함하되,
상기 각 인스턴스의 크기 및 형태에 따른 상기 시그마 매개변수에 기반하여 상기 마진의 크기 및 형태를 추정하며,
상기 시그마 매개변수는, 상기 각 계수
Figure pat00094
,
Figure pat00095
Figure pat00096
의 x 시그마 값(
Figure pat00097
), y 시그마 값(
Figure pat00098
) 및 회전 각도를 포함하는,
상향식 인스턴스 세분화 장치.
17. The method of claim 16,
The operation of estimating the margin,
Including the operation of estimating the margin of each instance based on the sigma parameter of the Gaussian function,
Estimating the size and shape of the margin based on the sigma parameter according to the size and shape of each instance;
The sigma parameter is each coefficient
Figure pat00094
,
Figure pat00095
and
Figure pat00096
x sigma value of (
Figure pat00097
), y sigma value (
Figure pat00098
) and rotation angle,
Bottom-up instance segmentation device.
제 17 항에 있어서,
상기 마진을 추정하는 동작은,
상기 가우스 함수의 값이 기 설정된 확률 임계값 이상이면 상기 가우스 함수의 값이 1이 되도록 상기 시그마 매개변수를 학습하는 동작을 더 포함하는,
상향식 인스턴스 세분화 장치.
18. The method of claim 17,
The operation of estimating the margin,
Further comprising the operation of learning the sigma parameter such that the value of the Gaussian function becomes 1 when the value of the Gaussian function is equal to or greater than a preset probability threshold.
Bottom-up instance segmentation device.
제 15 항에 있어서,
상기 각 인스턴스의 경계 및 상기 인스턴스간의 공유 픽셀을 식별하는 동작은,
상기 추정된 마진을 기반으로 클러스터링 영역을 결정하는 동작, 및
상기 클러스터링 영역을 기반으로 각 인스턴스에 공유 픽셀이 포함되는지 여부를 판단하는 동작을 포함하는,
상향식 인스턴스 세분화 장치.
According to claim 15,
The operation of identifying the boundary of each instance and the shared pixel between the instances,
An operation of determining a clustering area based on the estimated margin, and
Including an operation of determining whether a shared pixel is included in each instance based on the clustering area,
Bottom-up instance segmentation device.
제 19 항에 있어서,
상기 각 인스턴스의 경계 및 상기 인스턴스간의 공유 픽셀을 식별하는 동작은,
상기 시드맵을 기반으로, 각 인스턴스 중심을 결정하기 위한 공간 임베딩 픽셀을 샘플링하는 동작을 포함하는,
상향식 인스턴스 세분화 장치.
According to claim 19,
The operation of identifying the boundary of each instance and the shared pixel between the instances,
Based on the seed map, sampling a spatial embedding pixel for determining the center of each instance,
Bottom-up instance segmentation device.
KR1020220009374A 2021-12-09 2022-01-21 Method and apparatus for bottom-up segmentation of instance KR20230087331A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/011515 WO2023106546A1 (en) 2021-12-09 2022-08-04 Bottom-up instance segmentation method and device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210175492 2021-12-09
KR20210175492 2021-12-09

Publications (1)

Publication Number Publication Date
KR20230087331A true KR20230087331A (en) 2023-06-16

Family

ID=86948179

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220009374A KR20230087331A (en) 2021-12-09 2022-01-21 Method and apparatus for bottom-up segmentation of instance

Country Status (1)

Country Link
KR (1) KR20230087331A (en)

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
선행기술 1: Davy Neven, Bert De Brabandere, Marc Proesmans, and Luc Van Gool. Instance segmentation by jointly optimizing spatial embeddings and clustering bandwidth. In CVPR, pages 88378845, 2019. 2, 3, 4
선행기술 2: Jiaqian Yu and Matthew Blaschko. Learning submodular losses with the lovasz hinge. In International Conference on Machine Learning, pages 16231631. PMLR, 2015. 4
선행기술 3: Simon Graham, Quoc Dang Vu, Shan E Ahmed Raza, Ayesha Azam, Yee Wah Tsang, Jin Tae Kwak, and Nasir Rajpoot. Hover-net: Simultaneous segmentation and classification of nuclei in multi-tissue histology images. Medical Image Analysis, 58:101563, 2019. 1, 2, 3, 5, 7, 8

Similar Documents

Publication Publication Date Title
CN109840531B (en) Method and device for training multi-label classification model
US11741750B2 (en) Methods and systems for face alignment
US20220207745A1 (en) Segmenting objects using scale-diverse segmentation neural networks
WO2019100724A1 (en) Method and device for training multi-label classification model
ES2680678T3 (en) Detection of the edges of a core using image analysis
WO2022001623A1 (en) Image processing method and apparatus based on artificial intelligence, and device and storage medium
CN109492627B (en) Scene text erasing method based on depth model of full convolution network
CN114787876A (en) System and method for image pre-processing
WO2023185785A1 (en) Image processing method, model training method, and related apparatuses
CN109522908A (en) Image significance detection method based on area label fusion
WO2018052586A1 (en) Method and system for multi-scale cell image segmentation using multiple parallel convolutional neural networks
Zheng et al. Application of transfer learning and ensemble learning in image-level classification for breast histopathology
Yang et al. T-AutoML: Automated machine learning for lesion segmentation using transformers in 3d medical imaging
KR102645698B1 (en) Method and apparatus for face recognition robust to alignment shape of the face
CN112132827A (en) Pathological image processing method and device, electronic equipment and readable storage medium
CN111127360A (en) Gray level image transfer learning method based on automatic encoder
CN114897782B (en) Gastric cancer pathological section image segmentation prediction method based on generation type countermeasure network
WO2023014789A1 (en) System and method for pathology image analysis using a trained neural network and active learning framework
Qi et al. Curriculum feature alignment domain adaptation for epithelium-stroma classification in histopathological images
CN111429414B (en) Artificial intelligence-based focus image sample determination method and related device
KR20230087331A (en) Method and apparatus for bottom-up segmentation of instance
CN115512207A (en) Single-stage target detection method based on multipath feature fusion and high-order loss sensing sampling
Hassan et al. Salient object detection based on CNN fusion of two types of saliency models
CN113837236A (en) Method and device for identifying target object in image, terminal equipment and storage medium
CN112802010A (en) Cancer cell detection method, system and medium based on deep learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal