KR102639140B1 - Method for biopsy and apparatus for biopsy - Google Patents

Method for biopsy and apparatus for biopsy Download PDF

Info

Publication number
KR102639140B1
KR102639140B1 KR1020200102808A KR20200102808A KR102639140B1 KR 102639140 B1 KR102639140 B1 KR 102639140B1 KR 1020200102808 A KR1020200102808 A KR 1020200102808A KR 20200102808 A KR20200102808 A KR 20200102808A KR 102639140 B1 KR102639140 B1 KR 102639140B1
Authority
KR
South Korea
Prior art keywords
tissue
data
amount
analysis
learning
Prior art date
Application number
KR1020200102808A
Other languages
Korean (ko)
Other versions
KR20220021805A (en
Inventor
정문재
임형순
Original Assignee
연세대학교 산학협력단
더 제너럴 하스피탈 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단, 더 제너럴 하스피탈 코포레이션 filed Critical 연세대학교 산학협력단
Priority to KR1020200102808A priority Critical patent/KR102639140B1/en
Priority to PCT/US2021/046174 priority patent/WO2022036328A1/en
Publication of KR20220021805A publication Critical patent/KR20220021805A/en
Application granted granted Critical
Publication of KR102639140B1 publication Critical patent/KR102639140B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/04Endoscopic instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • A61B10/0283Pointed or sharp biopsy instruments with vacuum aspiration, e.g. caused by retractable plunger or by connected syringe
    • G01N15/01
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B2010/009Various features of diagnostic instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/04Endoscopic instruments
    • A61B2010/045Needles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N2015/1006Investigating individual particles for cytology
    • G01N2015/1021
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]

Abstract

본 발명은 조직 검사 방법에 관한 것으로, 세침 흡인으로 조직을 추출하는 단계; 조직 분석 장치에 상기 조직을 제공하는 단계; 및 하나 이상의 컴퓨터에 의해, 제1 딥러닝 학습 모델을 이용하여, 상기 조직의 분석을 통해 상기 조직이 조직 검사를 수행하기 적합한지 적합성 검사를 수행하는 단계;를 포함한다.The present invention relates to a tissue examination method, comprising the steps of extracting tissue by fine needle aspiration; providing the tissue to a tissue analysis device; and performing a suitability test to determine whether the tissue is suitable for performing a biopsy through analysis of the tissue, using a first deep learning learning model, by one or more computers.

Description

조직 검사 방법 및 조직 검사 장치{METHOD FOR BIOPSY AND APPARATUS FOR BIOPSY}Biopsy method and biopsy apparatus {METHOD FOR BIOPSY AND APPARATUS FOR BIOPSY}

본 발명은 조직 검사 방법 및 조직 검사 장치에 관한 것이다.The present invention relates to a tissue examination method and tissue examination device.

조직 검사는 조직을 검사하여 환자의 상태를 검사하는 방법이다. 조직을 추출하는 방법은 FNA (Fine Needle Aspiration) 방식과 비 FNA 방식으로 구별할 수 있다. 비 FNA 방식의 경우, 조직을 충분히 얻어낼 수 있거나 쉽게 다시 조직 추출 과정을 수행할 수 있다. 다만, 내시경 시술 중에 조직을 추출해야하는 FNA 방식은 조직의 양이 충분하지 않은 경우, 다시 내시경을 수행하여야 하는 불편이 있다. A biopsy is a method of examining a patient's condition by examining tissue. Methods for extracting tissue can be divided into FNA (Fine Needle Aspiration) methods and non-FNA methods. In the case of non-FNA methods, sufficient tissue can be obtained or the tissue extraction process can be easily performed again. However, the FNA method, which requires tissue extraction during an endoscopic procedure, has the inconvenience of having to perform endoscopy again if the amount of tissue is not sufficient.

FNA 방식을 통해 얻어진 조직이 조직 검사를 수행하기에 충분한 양인지를 판단하기 위해서는 임상병리과 전문의를 통해 조직이 검사하기 충분한 양인지 판단하는 ROSE (Rapid On-Site Cytological Evaluation) 과정을 거쳐야 하나, 내시경 검사실에 임상병리과 전문의가 항시 상주하기 어려운 현실이다. 이에 따라, 내시경 시술 후에 며칠이 경과된 후, 임상병리과 전문의가 조직이 검사하기 충분한 양인지 판단하고, 양이 충분하지 않을 경우 다시 내시경 시술을 통해 조직을 얻어야하는 번거로움이 있다.In order to determine whether the tissue obtained through the FNA method is in sufficient quantity to perform a biopsy, a ROSE (Rapid On-Site Cytological Evaluation) process must be performed through a clinical pathologist to determine whether the tissue is a sufficient amount for examination, or an endoscopy laboratory The reality is that it is difficult to have a clinical pathologist on staff at all times. Accordingly, a few days after the endoscopic procedure, the clinical pathologist must determine whether the amount of tissue is sufficient for examination, and if the amount is not sufficient, there is the inconvenience of having to obtain the tissue again through the endoscopic procedure.

이에 따라, FNA로 얻어낸 조직이 조직 검사를 수행하기 충분한 양인지 실시간으로 판단할 수 있는 장치 및 방법의 필요성이 대두되고 있다.Accordingly, there is a need for devices and methods that can determine in real time whether the amount of tissue obtained through FNA is sufficient to perform a biopsy.

미국 등록특허공보 제10025271 호, 2018.07.17.US Patent Publication No. 10025271, 2018.07.17.

본 발명이 해결하고자 하는 과제는 FNA로 얻어낸 조직이 조직 검사를 수행하기 충분한 양인지 실시간으로 판단할 수 있는 조직 검사 방법 및 조직 검사 장치을 제공하는 것이다.The problem to be solved by the present invention is to provide a tissue examination method and a tissue examination device that can determine in real time whether the amount of tissue obtained by FNA is sufficient to perform a tissue examination.

본 발명이 해결하고자 하는 과제는 FNA로 얻어낸 조직이 조직 검사를 수행하기 충분한 양인지 딥러닝 기술로 판단할 수 있는 조직 검사 방법 및 조직 검사 장치을 제공하는 것이다.The problem to be solved by the present invention is to provide a tissue examination method and a tissue examination device that can determine using deep learning technology whether the amount of tissue obtained by FNA is sufficient to perform a tissue examination.

본 발명이 해결하고자 하는 과제는 FNA로 얻어낸 조직을 딥러닝 기술로 조직 검사할 수 있는 조직 검사 방법 및 조직 검사 장치을 제공하는 것이다.The problem to be solved by the present invention is to provide a biopsy method and a biopsy device that can biopsy tissue obtained by FNA using deep learning technology.

본 발명의 목적은 세침 흡인으로 조직을 추출하는 단계; 조직 분석 장치에 상기 조직을 제공하는 단계; 및 하나 이상의 컴퓨터에 의해, 제1 딥러닝 학습 모델을 이용하여, 상기 조직의 분석을 통해 상기 조직이 조직 검사를 수행하기 적합한지 적합성 검사를 수행하는 단계를 포함하는 조직 검사 방법에 의해 달성될 수 있다.The object of the present invention is to extract tissue by fine needle aspiration; providing the tissue to a tissue analysis device; and performing, by one or more computers, a suitability test to determine whether the tissue is suitable for performing a biopsy through analysis of the tissue, using a first deep learning learning model. there is.

본 발명의 목적은 하드웨어인 컴퓨터와 결합되어, 상기 조직 검사 방법을 실행시키기 위하여 매체에 저장된, 조직 검사 장치에 의해 달성될 수 있다.The object of the present invention can be achieved by a tissue examination device coupled with a computer as hardware and stored in a medium for executing the tissue examination method.

본 발명에 따르면, FNA로 얻어낸 조직이 조직 검사를 수행하기 충분한 양인지 실시간으로 판단할 수 있는 조직 검사 방법 및 조직 검사 장치을 제공할 수 있다.According to the present invention, it is possible to provide a tissue examination method and a tissue examination device that can determine in real time whether the amount of tissue obtained by FNA is sufficient to perform a tissue examination.

본 발명에 따르면, FNA로 얻어낸 조직이 조직 검사를 수행하기 충분한 양인지 딥러닝 기술로 판단할 수 있는 조직 검사 방법 및 조직 검사 장치을 제공할 수 있다.According to the present invention, it is possible to provide a tissue examination method and a tissue examination device that can determine using deep learning technology whether the amount of tissue obtained by FNA is sufficient to perform a tissue examination.

본 발명에 따르면, FNA로 얻어낸 조직을 딥러닝 기술로 조직 검사할 수 있는 조직 검사 방법 및 조직 검사 장치을 제공할 수 있다.According to the present invention, it is possible to provide a biopsy method and a biopsy device that can biopsy tissue obtained by FNA using deep learning technology.

도 1은 본 발명의 일 실시예에 따른 조직 검사 장치를 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 조직 검사 방법을 개략적으로 나타낸 순서도이다.
Figure 1 is a block diagram schematically showing a tissue examination device according to an embodiment of the present invention.
Figure 2 is a flowchart schematically showing a tissue examination method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로, 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms. The present embodiments are merely intended to make the disclosure of the present invention complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform those skilled in the art of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be a second component within the technical spirit of the present invention.

본 명세서에서 컴퓨터는 연산처리를 수행하여 사용자에게 결과를 시각적으로 제시할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 컴퓨터는 의료영상을 획득하거나 관찰하는 의료장비도 해당될 수 있다. 또한, 컴퓨터는 다양한 클라이언트 컴퓨터와 연결되는 서버 컴퓨터가 해당될 수 있다.In this specification, a computer includes all various devices that can perform computational processing and visually present the results to the user. For example, computers include not only desktop PCs and laptops (Note Books), but also smart phones, tablet PCs, cellular phones, PCS phones (Personal Communication Service phones), and synchronous/asynchronous computers. This may also include IMT-2000 (International Mobile Telecommunication-2000) mobile terminals, Palm Personal Computers (Palm PCs), and personal digital assistants (PDAs). Additionally, computers may also refer to medical equipment that acquires or observes medical images. Additionally, the computer may be a server computer connected to various client computers.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 조직 검사 장치를 개략적으로 나타낸 블록도이다.Figure 1 is a block diagram schematically showing a tissue examination device according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 조직 검사 장치(10)는 분석 서버(100), 조직 분석 장치(200), 및 출력 장치(300)를 포함할 수 있다.Referring to FIG. 1, the tissue examination device 10 according to an embodiment of the present invention may include an analysis server 100, a tissue analysis device 200, and an output device 300.

본 발명의 일 실시예에 따른 조직 검사 장치(10)는 세침 흡인(FNA: Fine Needle Aspiration)으로 추출된 조직의 양이 조직 검사를 수행하기 충분한지, 제1 딥러닝 학습 모델(Deep Neural Network; DNN)(110)로 판단할 수 있다.The tissue examination device 10 according to an embodiment of the present invention determines whether the amount of tissue extracted by fine needle aspiration (FNA) is sufficient to perform a tissue examination, using a first deep learning learning model (Deep Neural Network; DNN) (110).

세침 흡인으로 추출된 조직은 조직 분석 장치에 제공된다. 조직은 별도의 처리 없이 제공될 수도 있고, 도말(smearing) 및 H&E (헤마톡실린&에오신) 염색(staining) 처리하여 제공될 수도 있다. Tissue extracted by fine needle aspiration is provided to a tissue analysis device. The tissue may be provided without any additional processing, or may be provided after smearing and H&E (hematoxylin & eosin) staining.

도말은 현미경을 이용하여, 조직 내의 세포를 관찰하는 것을 의미한다. H&E 염색은 염기성 물감인 헤마톡실린으로 핵을 염색하고, 산성 물감인 에오신으로 나머지를 염색하는 것을 의미한다.A smear refers to observing cells in a tissue using a microscope. H&E staining means staining the nucleus with hematoxylin, a basic dye, and staining the rest with eosin, an acidic dye.

일 실시예로, 세침 흡인으로 추출된 조직은 영상 기기 등으로 촬영되어, 영상 데이터 형태로 조직 분석 장치(200)에 제공될 수도 있다.In one embodiment, tissue extracted through fine needle aspiration may be photographed with an imaging device or the like and provided to the tissue analysis device 200 in the form of image data.

본 발명의 일 실시예에 따른 조직 검사 장치(10)는 하나 이상의 컴퓨터에 의해, 제1 딥러닝 학습 모델(110)을 이용하여, 조직이 조직 검사를 수행하기 적합한지 적합성 검사를 수행할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 조직 검사 장치(10)는 하나 이상의 컴퓨터에 의해, 제1 딥러닝 학습 모델(110)을 이용하여, 조직의 양이 조직 검사를 수행하기 적합한 양인지 검사할 수 있다.The tissue examination device 10 according to an embodiment of the present invention can perform a suitability test to determine whether the tissue is suitable for performing a tissue examination using the first deep learning learning model 110 by one or more computers. . For example, the tissue examination device 10 according to an embodiment of the present invention determines whether the amount of tissue is suitable for performing a tissue examination by using the first deep learning model 110 by one or more computers. can be inspected.

이하에서는 제1 딥러닝 학습 모델(110)에 대하여 설명한다.Below, the first deep learning learning model 110 will be described.

분석 서버(100)는 하나 이상의 컴퓨터로 구성되어 제1 딥러닝 학습 모델(110)을 형성하여, 세침 흡인으로 추출된 조직의 양이 조직 검사를 수행하기 충분한 양인지 판단하는 역할을 수행한다.The analysis server 100 is composed of one or more computers to form a first deep learning learning model 110, and serves to determine whether the amount of tissue extracted through fine needle aspiration is sufficient to perform a biopsy.

본 발명의 실시예들에 따른 제1 딥러닝 학습 모델(110)은, 하나 이상의 컴퓨터 내에 하나 이상의 레이어(Layer)를 구축하여 복수의 데이터를 바탕으로 판단을 수행하는 시스템 또는 네트워크를 의미한다. 예를 들어, 제1 딥러닝 학습 모델(110)은 컨볼루션 풀링층(Convolutional Pooling Layer), 로컬 접속층(a locally-connected layer) 및 완전 연결층(fully-connected layer)을 포함하는 층들의 세트로 구현될 수 있다. 컨볼루션 풀링층 또는 로컬 접속층은 영상 내 특징들을 추출하도록 구성 될 수 있다. 완전 연결층은 영상의 특징 간의 상관 관계를 결정할 수 있다. 일부 실시예에서, 제1 딥러닝 학습 모델(110)의 전체적인 구조는 컨볼루션 풀링층에 로컬 접속층이 이어지고, 로컬 접속층에 완전 연결층이 이러지는 형태로 이루어질 수 있다. 제1 딥러닝 학습 모델(110)은 다양한 판단 기준(즉, 파라미터(Parameter))를 포함할 수 있고, 입력되는 영상 분석을 통해 새로운 판단 기준(즉, 파라미터)를 추가할 수 있다. 파라미터들은 예를 들어, 세포질(Cellularity), 표본 적합도(Adequacy of specimen), 혈액량(Amount of blood), 진단(Diagnosis)을 포함할 수 있다.The first deep learning learning model 110 according to embodiments of the present invention refers to a system or network that builds one or more layers in one or more computers and makes decisions based on a plurality of data. For example, the first deep learning model 110 is a set of layers including a convolutional pooling layer, a locally-connected layer, and a fully-connected layer. It can be implemented as: A convolutional pooling layer or local connection layer can be configured to extract features within the image. The fully connected layer can determine correlations between features of the image. In some embodiments, the overall structure of the first deep learning model 110 may be a convolutional pooling layer followed by a local connection layer, and a local connection layer followed by a fully connected layer. The first deep learning model 110 may include various judgment standards (i.e., parameters), and new judgment standards (i.e., parameters) may be added through analysis of input images. Parameters may include, for example, cellularity, adequacy of specimen, amount of blood, and diagnosis.

세포질은 예를 들어 슬라이드당 세포들의 개수로 판단될 수 있다. 예를 들어, 슬라이드당 세포들의 개수가 100개 미만이면 부적합, 100 개 이상 1000 개 미만이면 양호, 1000 개 이상이면 적합으로 판단될 수 있다. 세포질은 예를 들어, 정상 췌장 세포주와 췌장암 세포주의 혼합 비율을 조절하면서 학습할 수 있다. 또한, 슬라이드에 배치되는 세포들 중 도말되는 세포들의 개수를 조절하면서 학습할 수도 있다.Cytoplasm can be judged, for example, by the number of cells per slide. For example, if the number of cells per slide is less than 100, it can be judged as inadequate, if the number of cells per slide is more than 100 but less than 1,000, it can be judged as good, and if it has more than 1,000, it can be judged as suitable. Cytoplasm can be learned, for example, by adjusting the mixing ratio of normal pancreatic cell lines and pancreatic cancer cell lines. Additionally, learning can be done by controlling the number of cells smeared among the cells placed on the slide.

표본의 적합도는 예를 들어, 부족, 적합 등으로 판단될 수 있다. 표본의 적합도는 예를 들어, 정상 췌장 세포주와 췌장암 세포주의 혼합 비율을 조절하면서 학습할 수 있다. 또한, 슬라이드에 배치되는 세포들 중 도말되는 세포들의 개수를 조절하면서 학습할 수도 있다.The suitability of the sample can be judged, for example, as insufficient or adequate. The suitability of the sample can be learned by, for example, adjusting the mixing ratio of normal pancreatic cell lines and pancreatic cancer cell lines. Additionally, learning can be done by controlling the number of cells smeared among the cells placed on the slide.

혈액량은 예를 들어, 부족, 양호 등으로 판단될 수 있다. 혈액량은 예를 들어, 적혈구 수치로 학습할 수 있다.Blood volume can be judged as insufficient, good, etc., for example. Blood volume can be learned from, for example, red blood cell count.

진단은 예를 들어, 양성(Benign), 비정형(atypical) 종양 의심(Suspicious for malignancy), 종양(Malignancy), 판단 불가(Inadequate for reporting)로 판단될 수 있다. 진단은 예를 들어, 조직의 병변과 정상 부분을 라벨링하여 학습할 수 있다.Diagnosis can be determined as, for example, benign, atypical tumor, suspicious for malignancy, malignancy, or inadequate for reporting. Diagnosis can be learned, for example, by labeling lesions and normal parts of tissue.

본 발명의 실시예들에 따른 제1 딥러닝 학습 모델(110)은 영상 분석에 적합한 콘볼루셔널 신경망이라고 부르는 구조로서, 주어진 영상 데이터들로부터 가장 분별력(Discriminative Power)가 큰 특징을 스스로 학습하는 특징 추출층(Feature Extraction Layer)와 추출된 특징을 기반으로 가장 높은 예측 성능을 내도록 예측 모델을 학습하는 예측층(Prediction Layer)이 통합된 구조로 구성될 수 있다. The first deep learning learning model 110 according to embodiments of the present invention is a structure called a convolutional neural network suitable for image analysis, and has the characteristic of automatically learning the features with the greatest discriminative power from given image data. It can be composed of an integrated structure of an extraction layer (Feature Extraction Layer) and a prediction layer that learns a prediction model to produce the highest prediction performance based on the extracted features.

특징 추출층은 영상의 각 영역에 대해 복수의 필터를 적용하여 특징 지도(Feature Map)를 만들어 내는 콘볼루션층(Convolution Layer)과 특징 지도를 공간적으로 통합함으로써 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 통합층(Pooling Layer)을 번갈아 수 차례 반복하는 구조로 형성될 수 있다. 이를 통해, 점, 선, 면 등의 낮은 수준의 특징에서부터 복잡하고 의미 있는 높은 수준의 특징까지 다양한 수준의 특징을 추출해낼 수 있다. The feature extraction layer is a convolution layer that creates a feature map by applying multiple filters to each area of the image and spatially integrates the feature map to extract features that are invariant to changes in position or rotation. It can be formed in a structure in which the pooling layer that allows extraction is alternately repeated several times. Through this, various levels of features can be extracted, from low-level features such as points, lines, and surfaces to complex and meaningful high-level features.

콘볼루션층은 입력 영상의 각 패치에 대하여 필터와 국지 수용장(Local Receptive Field)의 내적에 비선형 활성 함수(Activation Function)을 취함으로 서 특징 지도(Feature Map)를 구하게 되는데, 다른 네트워크 구조와 비교하여, CNN은 희소한 연결성 (Sparse Connectivity)과 공유된 가중치(Shared Weights)를 가진 필터를 사용하는 특징이 있다. 이러한 연결 구조는 학습할 모수의 개수를 줄여주고, 역전파 알고리즘을 통한 학습을 효율적으로 만들어 결과적으로 예측 성능을 향상 시킨다. The convolution layer obtains a feature map by taking a non-linear activation function as the inner product of the filter and the local receptive field for each patch of the input image, and compares it with other network structures. Therefore, CNN is characterized by using filters with sparse connectivity and shared weights. This connection structure reduces the number of parameters to learn, makes learning through the backpropagation algorithm efficient, and ultimately improves prediction performance.

통합층(Pooling Layer 또는 Sub-sampling Layer)은 이전 콘볼루션층에서 구해진 특징 지도의 지역 정보를 활용하여 새로운 특징 지도를 생성한다. 일반적으로 통합층에 의해 새로 생성된 특징 지도는 원래의 특징 지도보다 작은 크기로 줄어드는데, 대표적인 통합 방법으로는 특징 지도 내 해당 영역의 최대값을 선택하는 최대 통합(Max Pooling)과 특징 지도 내 해당 영역의 평균값을 구하는 평균 통합(Average Pooling) 등이 있다. 통합층의 특징 지도는 일반적으로 이전층의 특징 지도보다 입력 영상에 존재하는 임의의 구조나 패턴의 위치에 영향을 적게 받을 수 있다. 즉, 통합층은 입력 영상 혹은 이전 특징 지도에서의 노이즈나 왜곡과 같은 지역적 변화에 보다 강인한 특징을 추출할 수 있게 되고, 이러한 특징은 분류 성능에 중요한 역할을 할 수 있다. 또 다른 통합층의 역할은, 깊은 구조상에서 상위의 학습층으로 올라갈수록 더 넓은 영역의 특징을 반영할 수 있게 하는 것으로서, 특징 추출층이 쌓이면서, 하위층에서는 지역적인 특징을 반영하고 상위층으로 올라 갈수록 보다 추상적인 전체 영상의 특징을 반영하는 특징 생성할 수 있다.The integration layer (Pooling Layer or Sub-sampling Layer) creates a new feature map using the local information of the feature map obtained from the previous convolution layer. In general, the feature map newly created by the integration layer is reduced to a smaller size than the original feature map. Representative integration methods include max pooling, which selects the maximum value of the corresponding area within the feature map, and There is average pooling, which calculates the average value of an area. The feature map of the integrated layer is generally less affected by the location of arbitrary structures or patterns present in the input image than the feature map of the previous layer. In other words, the integration layer can extract features that are more robust to local changes such as noise or distortion in the input image or previous feature map, and these features can play an important role in classification performance. Another role of the integration layer is to reflect the characteristics of a wider area as you go up to the higher learning layer in the deep structure. As the feature extraction layer accumulates, regional characteristics are reflected in the lower layers, and as you go up to the upper layer, you can reflect the characteristics of a wider area. Features that reflect the characteristics of the entire abstract image can be generated.

이와 같이, 콘볼루션층과 통합층의 반복을 통해 최종적으로 추출된 특징은 다중 신경망(MLP: Multi-layer Perception)이나 서포트 벡터 머신(SVM: Support Vector Machine)과 같은 분류 모델이 완전 연결층(Fully-connected Layer)의 형태로 결합되어 분류 모델 학습 및 예측에 사용될 수 있다.In this way, the features finally extracted through repetition of the convolutional layer and the integration layer are classified into fully connected layers such as a classification model such as a multi-layer perception (MLP) or a support vector machine (SVM). -connected layer) and can be used for classification model learning and prediction.

다만, 본 발명의 실시예들에 따른 제1 딥러닝 학습 모델(110)의 구조는 이에 한정되지 아니하고, 다양한 구조의 신경망으로 형성될 수 있다.However, the structure of the first deep learning model 110 according to embodiments of the present invention is not limited to this, and may be formed of a neural network of various structures.

클라이언트는 조직을 제공받는 조직 분석 장치(200) 및 출력 장치(300) 중 적어도 하나를 포함할 수 있다. 조직 분석 장치(200) 및 출력 장치(300)는 하나의 장치로 구현될 수도 있고, 서로 별개의 장치로 구현될 수도 있다. The client may include at least one of a tissue analysis device 200 and an output device 300 that receive tissue. The tissue analysis device 200 and the output device 300 may be implemented as one device or may be implemented as separate devices.

조직 분석 장치(200)는 세침 흡인으로 추출된 조직을 제공받아, 조직 양 데이터를 분석 서버(100)로 전송하는 장치일 수 있다. The tissue analysis device 200 may be a device that receives tissue extracted through fine needle aspiration and transmits tissue amount data to the analysis server 100.

출력 장치(300)는 분석 서버(100)의 조직의 양 판단 결과를 수신하여, 다양한 방식으로 사용자에게 판단 결과를 제공할 수 있다. 예를 들어, 출력 장치(300)는 디스플레이부를 구비하여, 조직의 양 판단 결과를 시각적으로 표시하여 사용자에게 제공할 수 있다. 또한, 조직의 양이 부족하다는 판단 결과를 수신하는 경우, 출력 장치(300)는 진동을 발생하여 사용자에게 조직의 양이 부족함을 알릴 수도 있다. 다만, 출력 장치(300)가 사용자에게 조직의 양 판단 결과를 제공하는 방식은 이에 한정되지 아니하고, 음향 출력 등의 사용자에게 제공할 수 있는 다양한 출력 방식을 활용할 수 있다. 또한, 본 발명의 일실시예에 따른 출력 장치(300)는 이동 단말기를 포함할 수 있다.The output device 300 may receive the determination result of the amount of tissue from the analysis server 100 and provide the determination result to the user in various ways. For example, the output device 300 may include a display unit to visually display the result of determining the amount of tissue and provide it to the user. Additionally, when receiving a determination result that the amount of tissue is insufficient, the output device 300 may generate vibration to inform the user that the amount of tissue is insufficient. However, the method by which the output device 300 provides the user with the result of determining the amount of tissue is not limited to this, and various output methods that can be provided to the user, such as audio output, can be utilized. Additionally, the output device 300 according to an embodiment of the present invention may include a mobile terminal.

본 발명의 일 실시예에 따른 조직 검사 장치(10)는 하나 이상의 컴퓨터에 의해, 제2 딥러닝 학습 모델(120)을 이용하여, 세침 흡인으로 추출된 조직을 분석할 수 있다.The tissue examination device 10 according to an embodiment of the present invention can analyze tissue extracted by fine needle aspiration using the second deep learning model 120 by one or more computers.

이하에서는 제2 딥러닝 학습 모델(120)에 대하여 설명한다. 이하에서는 제2 딥러닝 학습 모델(120)과 제1 딥러닝 학습 모델(110)의 차이점에 대해서 중점적으로 설명하고, 설명하지 않은 부분은 제1 딥러닝 학습 모델(110)에서 설명된 부분과 동일할 수 있다.Below, the second deep learning learning model 120 will be described. Below, we will focus on explaining the differences between the second deep learning model 120 and the first deep learning model 110, and the parts not explained are the same as those explained in the first deep learning model 110. can do.

분석 서버(100)는 하나 이상의 컴퓨터로 구성되어 제2 딥러닝 학습 모델(120)을 형성하여, 세침 흡인으로 추출된 조직이 정상인지 분석하는 역할을 수행한다. 제2 딥러닝 학습 모델(120)의 분석 서버는 제1 딥러닝 학습 모델(110)의 분석 서버와 하나의 서버로 구현될 수 있고, 서로 별개의 서버로 구현될 수도 있다.The analysis server 100 is composed of one or more computers to form a second deep learning learning model 120, and performs the role of analyzing whether the tissue extracted through fine needle aspiration is normal. The analysis server of the second deep learning model 120 may be implemented as one server with the analysis server of the first deep learning model 110, or may be implemented as separate servers.

본 발명의 실시예들에 따른 제2 딥러닝 학습 모델(120)은, 하나 이상의 컴퓨터 내에 하나 이상의 레이어(Layer)를 구축하여 복수의 데이터를 바탕으로 판단을 수행하는 시스템 또는 네트워크를 의미한다. 예를 들어, 제1 딥러닝 학습 모델은 컨볼루션 풀링층(Convolutional Pooling Layer), 로컬 접속층(a locally-connected layer) 및 완전 연결층(fully-connected layer)을 포함하는 층들의 세트로 구현될 수 있다.The second deep learning learning model 120 according to embodiments of the present invention refers to a system or network that builds one or more layers in one or more computers and makes decisions based on a plurality of data. For example, a first deep learning learning model may be implemented as a set of layers including a convolutional pooling layer, a locally-connected layer, and a fully-connected layer. You can.

제2 딥러닝 학습 모델(120)은 다양한 판단 기준(즉, 파라미터(Parameter))를 포함할 수 있고, 입력되는 영상 분석을 통해 새로운 판단 기준(즉, 파라미터)를 추가할 수 있다.The second deep learning model 120 may include various judgment standards (i.e., parameters), and new judgment standards (i.e., parameters) may be added through analysis of input images.

예를 들어, 제2 딥러닝 학습 모델(120)은 파라미터들로, 췌장 정상 세포주 (HPDE6c6) 및 췌장암 세포주 (Capan-1, Panc-1, MIA-PaCa2, HPAC cell line)로의 구분, 정상 조직으로부터 채취한 아스피래이션(aspiration) 샘플의 이상 여부 등을 포함할 수 있다.For example, the second deep learning model 120 has parameters that distinguish pancreatic normal cell lines (HPDE6c6) and pancreatic cancer cell lines (Capan-1, Panc-1, MIA-PaCa2, HPAC cell line) from normal tissues. This may include whether there are any abnormalities in the collected aspiration sample.

클라이언트는 조직을 제공받는 조직 분석 장치(200) 또는 출력 장치(300)를 포함할 수 있다. 조직 분석 장치(200) 및 출력 장치(300)는 하나의 장치로 구현될 수도 있고, 서로 별개의 장치로 구현될 수도 있다. The client may include a tissue analysis device 200 or an output device 300 that receives tissue. The tissue analysis device 200 and the output device 300 may be implemented as one device or may be implemented as separate devices.

조직 분석 장치(200)는 세침 흡인으로 추출된 조직을 제공받아, 조직 양 데이터를 분석 서버(100)로 전송하는 장치일 수 있다. 조직 분석 장치(200)는 한 개일 수도 있고, 복수 개일 수도 있다.The tissue analysis device 200 may be a device that receives tissue extracted through fine needle aspiration and transmits tissue amount data to the analysis server 100. There may be one tissue analysis device 200 or there may be multiple tissue analysis devices 200.

출력 장치(300)는 분석 서버(100)의 조직의 양 판단 결과를 수신하여, 다양한 방식으로 사용자에게 판단 결과를 제공할 수 있다. 제2 딥러닝 학습 모델(120)의 출력 장치는 제1 딥러닝 학습 모델(110)의 출력 장치와 하나의 장치로 구현될 수 있고, 서로 별개의 장치로 구현될 수도 있다.The output device 300 may receive the determination result of the amount of tissue from the analysis server 100 and provide the determination result to the user in various ways. The output device of the second deep learning model 120 may be implemented as one device and the output device of the first deep learning model 110, or may be implemented as separate devices.

출력 장치(300)는 한 개일 수도 있고, 복수 개일 수도 있다.There may be one output device 300 or there may be multiple output devices 300.

이하에서는 본 발명의 일 실시예에 따른 조직 검사 방법에 대하여 설명한다. 이하에서는 앞서 언급한 본 발명의 일 실시예에 따른 조직 검사 장치와의 차이점에 대하여 구체적으로 설명하고, 설명하지 않은 부분은 본 발명의 일 실시예에 따른 조직 검사 장치와 동일할 수 있다.Hereinafter, a tissue examination method according to an embodiment of the present invention will be described. Hereinafter, differences from the tissue examination device according to an embodiment of the present invention mentioned above will be described in detail, and parts not described may be the same as the tissue examination device according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 조직 검사 방법을 개략적으로 나타낸 순서도이다.Figure 2 is a flowchart schematically showing a tissue examination method according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 조직 검사 방법은 조직 추출 단계(S100), 조직 제공 단계(S200), 및 적합성 검사 단계(S300)를 포함한다.Referring to Figures 1 and 2, the tissue examination method according to an embodiment of the present invention includes a tissue extraction step (S100), a tissue provision step (S200), and a compatibility test step (S300).

세침 흡인(FNA: Fine Needle Aspiration)으로 조직을 추출한다(S100). 세침 흡인은 예를 들어, 주사 바늘로 수행될 수 있다. 세침 흡인은 환자의 병소 부위에서 수행될 수 있다.Tissue is extracted using fine needle aspiration (FNA) (S100). Fine needle aspiration can be performed, for example, with a syringe needle. Fine needle aspiration may be performed at the patient's lesion site.

추출된 조직은 조직 분석 장치(200)에 제공된다. 조직은 별도의 처리 없이 조직 분석 장치(200)에 제공될 수도 있고, 도말(smearing) 및 H&E (헤마톡실린&에오신) 염색(staining) 처리하여 제공될 수도 있다. 조직은 조직 분석 장치(200)에 제공된 후, 도말 및 H&E 염색 처리될 수도 있다.The extracted tissue is provided to the tissue analysis device 200. The tissue may be provided to the tissue analysis device 200 without any additional processing, or may be provided after being smeared and H&E (hematoxylin & eosin) staining. The tissue may be provided to the tissue analysis device 200 and then subjected to smearing and H&E staining.

일 실시예로, 세침 흡인으로 추출된 조직은 영상 기기 등으로 촬영되어, 영상 데이터 형태로 조직 분석 장치(200)에 제공될 수도 있다.In one embodiment, tissue extracted through fine needle aspiration may be photographed with an imaging device or the like and provided to the tissue analysis device 200 in the form of image data.

하나 이상의 컴퓨터에 의해, 제1 딥러닝 학습 모델(110)을 이용하여, 조직이 조직 검사를 수행하기 적합한지 적합성 검사를 수행한다(S300).A suitability test is performed by one or more computers to determine whether the tissue is suitable for performing a biopsy using the first deep learning learning model 110 (S300).

일 실시예로, 적합성 검사를 수행하는 단계(S300)는 분석 서버(100)가 조직 분석 장치(200)에 의해 획득된 조직의 양에 대응하는 조직 양 데이터를 수신하는 단계, 및 분석 서버(100)가 분석한 조직 양의 상태를 출력 장치(300)에 제공하는 단계를 포함할 수 있다. 출력 장치(300)는 조직 분석 장치(200)와 하나의 장치로 구현될 수도 있고, 서로 별개의 장치로 구현될 수도 있다.In one embodiment, the step of performing a suitability test (S300) includes the analysis server 100 receiving tissue amount data corresponding to the amount of tissue obtained by the tissue analysis device 200, and the analysis server 100 ) may include providing the status of the analyzed amount of tissue to the output device 300. The output device 300 and the tissue analysis device 200 may be implemented as one device or may be implemented as separate devices.

예를 들어, 조직 검사를 수행하기에 추출된 조직의 양이 부족함을 인식하면, 출력 장치(300)에 알림이 전송될 수 있다. 알림은 예를 들어, 시각, 청각, 촉각 등 사용자가 인식할 수 있는 다양한 형태를 의미할 수 있다.For example, when it is recognized that the amount of extracted tissue is insufficient to perform a biopsy, a notification may be sent to the output device 300. Notifications may refer to various forms that the user can perceive, such as visual, auditory, tactile, etc.

일 실시예로, 적합성 검사를 수행하는 단계(S300)는 하나 이상의 조직 분석 장치로부터 제공받은 조직의 조직 양 데이터를 누적하여, 학습 조직 양 데이터를 생성하는 단계를 포함할 수 있다. 학습 조직 양 데이터의 분석을 통해 조직 검사에 필요한 조직의 최소량을 산출할 수 있다. 조직 분석 장치(200)에 제공된 조직의 양이, 조직 검사에 필요한 조직의 최소량 이상인지를 판단할 수 있다. 최소량 미만일 경우, 출력 장치(300)에 알림을 전송할 수 있다.In one embodiment, the step of performing a suitability test (S300) may include accumulating tissue amount data of the tissue provided from one or more tissue analysis devices to generate learning tissue amount data. Through analysis of learning tissue volume data, the minimum amount of tissue required for biopsy can be calculated. It can be determined whether the amount of tissue provided to the tissue analysis device 200 is more than the minimum amount of tissue required for tissue examination. If the amount is less than the minimum amount, a notification can be sent to the output device 300.

제1 딥러닝 학습 모델(110)에 의해, 조직 분석 장치(200)에 제공된 조직의 양이 조직 검사에 필요한 조직의 최소량 미만으로 판단될 경우, 세침 흡인으로 조직을 더 추출할 수 있다.If it is determined by the first deep learning learning model 110 that the amount of tissue provided to the tissue analysis device 200 is less than the minimum amount of tissue required for tissue examination, additional tissue may be extracted through fine needle aspiration.

본 발명의 일 실시예에 따른 조직 검사 방법은 하나 이상의 컴퓨터에 의해, 제2 딥러닝 학습 모델(120)을 이용하여, 조직을 검사하는 단계를 더 포함할 수 있다. 예를 들어, 제1 딥러닝 학습 모델(110)에 의해, 조직 분석 장치(200)에 제공된 조직의 양이 조직 검사에 필요한 조직의 최소량 이상으로 판단될 경우, 제2 딥러닝 학습 모델을 이용하여, 조직을 검사할 수 있다.The tissue examination method according to an embodiment of the present invention may further include the step of examining the tissue using the second deep learning model 120 by one or more computers. For example, when it is determined that the amount of tissue provided to the tissue analysis device 200 is more than the minimum amount of tissue required for tissue examination by the first deep learning learning model 110, using the second deep learning learning model , the tissue can be examined.

조직을 검사하는 단계는 조직의 이상을 인식하여, 출력 장치에 알림을 전송할 수 있다. 조직의 이상 여부는 앞서 언급한 제1 딥러닝 학습 모델(110) 및 제2 딥러닝 학습 모델(120)의 파라미터들로 판단될 수 있다.In the step of examining the tissue, abnormalities in the tissue may be recognized and a notification may be sent to the output device. Whether there is an abnormality in the organization can be determined based on the parameters of the first deep learning model 110 and the second deep learning model 120 mentioned above.

일 실시예로, 조직을 검사하는 단계는 하나 이상의 조직 분석 장치(200)로부터 제공받은 조직에 대응하는 조직 데이터를 누적하여, 학습 조직 데이터를 생성하는 단계를 포함할 수 있다. 학습 조직 데이터의 분석을 통해 정상 조직 데이터를 산출한다. 조직 데이터가 정상 조직 데이터를 기준으로 형성된 특정 범위를 초과하였는지 판단할 수 있다.In one embodiment, the step of examining a tissue may include accumulating tissue data corresponding to the tissue provided from one or more tissue analysis devices 200 to generate learning tissue data. Normal organization data is calculated through analysis of learning organization data. It can be determined whether the tissue data exceeds a specific range formed based on normal tissue data.

일 실시예로, 조직을 검사하는 단계는 하나 이상의 조직 분석 장치(200)로부터 제공받은 조직에 대응하는 조직 데이터를 누적하여, 학습 조직 데이터를 생성하는 단계를 포함할 수 있다. 학습 조직 데이터에서 조직의 이상 특징 정보를 추출할 수 있다.In one embodiment, the step of examining a tissue may include accumulating tissue data corresponding to the tissue provided from one or more tissue analysis devices 200 to generate learning tissue data. Information on abnormal organizational characteristics can be extracted from learning organization data.

일 실시예로, 조직을 검사하는 단계는 특정한 상황 데이터를 이상 특징 정보에 매칭하여 누적하는 단계를 포함할 수 있다. 이상 특징 정보란 예를 들어, 세포질(Cellularity), 표본 적합도(Adequacy of specimen), 혈액량(Amount of blood) 등을 기준으로 정상의 범위에 미치지 못하는 값을 갖는 것을 의미할 수 있다. 조직 데이터 내에서 특정한 이상 특징 정보를 인식할 수 있다. 인식된 이상 특징 정보에 상응하는 상황 데이터를 클라이언트로 전송할 수 있다.In one embodiment, the step of examining a tissue may include matching specific situation data to abnormal characteristic information and accumulating it. Abnormal characteristic information may mean, for example, having a value that falls below the normal range based on cellularity, adequacy of specimen, amount of blood, etc. Specific abnormal characteristic information can be recognized within organizational data. Situation data corresponding to the recognized abnormal feature information can be transmitted to the client.

본 발명의 일 실시예에 따른 조직 검사 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 조직 검사 장치에 포함되는 매체에 저장될 수 있다.The tissue examination method according to an embodiment of the present invention may be implemented as a program (or application) to be executed in conjunction with a hardware computer and stored in a medium included in the tissue examination device.

프로그램은, 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 방법들을 실행시키기 위하여, 컴퓨터의 프로세서(CPU)가 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 기능들을 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 기능들을 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 컴퓨터의 프로세서가 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. A program is a code coded in a computer language such as C, C++, JAVA, or machine language that the computer's processor (CPU) can read through the computer's device interface in order for the computer to read the program and execute the methods implemented in the program. (Code) may be included. These codes may include functional codes related to functions that define the necessary functions for executing methods, and may include control codes related to execution procedures necessary for the computer's processor to execute the functions according to predetermined procedures. . In addition, these codes may further include memory reference-related codes that indicate from which location (address address) in the computer's internal or external memory additional information or media required for the computer's processor to execute functions should be referenced. Additionally, if the computer's processor needs to communicate with any other remote computer or server to execute functions, how should the code communicate with any other remote computer or server using the computer's communication module? , It may further include communication-related codes regarding what information or media should be transmitted and received during communication.

저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 프로그램은 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.A storage medium is not a medium that stores data for a short period of time, such as a register, cache, or memory, but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of storage media include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. That is, the program can be stored in various recording media on various servers that the computer can access or in various recording media on the user's computer. Additionally, the medium may be distributed across computer systems connected to a network, and computer-readable code may be stored in a distributed manner.

본 발명의 일 실시예에 따른 조직 검사 방법 및 조직 검사 장치는 FNA로 얻어낸 조직이 조직 검사를 수행하기 충분한 양인지 실시간으로 판단할 수 있다. 본 발명의 일 실시예에 따른 조직 검사 방법 및 조직 검사 장치는 FNA로 얻어낸 조직이 조직 검사를 수행하기 충분한 양인지 딥러닝 기술로 판단할 수 있다.The tissue examination method and tissue examination device according to an embodiment of the present invention can determine in real time whether the amount of tissue obtained by FNA is sufficient to perform a tissue examination. The tissue examination method and tissue examination device according to an embodiment of the present invention can determine whether the amount of tissue obtained by FNA is sufficient to perform a tissue examination using deep learning technology.

본 발명의 일 실시예에 따른 조직 검사 방법 및 조직 검사 장치는 FNA로 얻어낸 조직을 딥러닝 기술로 조직 검사할 수 있다.The biopsy method and biopsy apparatus according to an embodiment of the present invention can biopsy tissue obtained by FNA using deep learning technology.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로, 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Above, embodiments of the present invention have been described with reference to the attached drawings, but those skilled in the art will understand that the present invention can be implemented in other specific forms without changing its technical idea or essential features. You will understand that it exists. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

10: 조직 검사 장치
100: 분석 서버
110: 제1 딥러닝 학습 모델
120: 제2 딥러닝 학습 모델
200: 조직 분석 장치
300: 출력 장치
10: Biopsy device
100: Analysis server
110: First deep learning learning model
120: Second deep learning learning model
200: tissue analysis device
300: output device

Claims (10)

분석 서버가 조직 분석 장치로부터 세침 흡인(FNA: Fine Needle Aspiration)으로 추출된 조직에 대응하는 조직 양 데이터 및 조직 데이터를 수신하는 단계;
하나 이상의 컴퓨터에 의해, 제1 딥러닝 학습 모델을 이용하여, 상기 조직 양 데이터의 분석을 통해 상기 조직이 조직 검사를 수행하기에 적합한 양인지에 대한 적합성 검사를 수행하는 단계; 및
상기 조직이 상기 조직 검사를 수행하기에 적합한 양인 것으로 판단되면, 상기 하나 이상의 컴퓨터에 의해, 제2 딥러닝 학습 모델을 이용하여, 상기 조직 데이터의 분석을 통해 상기 조직의 이상을 검사하는 단계;를 포함하고,
상기 조직의 이상을 검사하는 단계는
하나 이상의 상기 조직 분석 장치로부터 수신된 조직 데이터를 누적하여 학습 조직 데이터를 생성하는 단계;
상기 학습 조직 데이터의 분석을 통해 정상 조직 데이터 및 조직의 이상 특징 정보를 추출하는 단계;
상기 조직 데이터가 상기 정상 조직 데이터를 기준으로 형성된 특정 범위를 초과하였는지 판단하는 단계; 및
특정한 상황 데이터를 상기 이상 특징 정보에 매칭하고, 상기 매칭된 결과에 기초하여 상기 조직 데이터 내에서 특정한 이상 특징 정보가 인식되면, 상기 인식된 이상 특징 정보에 상응하는 상황 데이터를 클라이언트로 전송하는 단계;를 포함하고,
상기 제1 딥러닝 학습 모델은, 세포질, 표본 적합도, 혈액량 및 진단을 파라미터로 활용하고,
상기 세포질 및 상기 표본 적합도에 대한 학습은, 정상 세포주와 암 세포주의 혼합 비율을 조절하면서 학습이 수행되고, 슬라이드에 배치되는 세포들 중 도말되는 세포들의 개수를 조절하면서 학습이 수행되고,
상기 혈액량에 대한 학습은, 적혈구 수치를 기준으로 학습이 수행되고,
상기 진단에 대한 학습은, 조직의 병변과 정상 부분을 라벨링하여 학습이 수행되는 조직 검사 방법.
A step of the analysis server receiving tissue amount data and tissue data corresponding to tissue extracted by fine needle aspiration (FNA) from the tissue analysis device;
Performing a suitability test on whether the tissue is a suitable amount for performing a biopsy through analysis of the tissue amount data, using a first deep learning learning model, by one or more computers; and
When it is determined that the tissue is in a suitable amount for performing the tissue examination, examining the tissue for abnormalities through analysis of the tissue data using a second deep learning learning model by the one or more computers; Contains,
The step of examining abnormalities in the tissue is
generating learning tissue data by accumulating tissue data received from one or more of the tissue analysis devices;
extracting normal tissue data and abnormal tissue characteristic information through analysis of the learning tissue data;
determining whether the tissue data exceeds a specific range formed based on the normal tissue data; and
Matching specific situation data to the abnormal characteristic information, and when specific abnormal characteristic information is recognized in the organization data based on the matching result, transmitting situation data corresponding to the recognized abnormal characteristic information to a client; Including,
The first deep learning model uses cytoplasm, specimen suitability, blood volume, and diagnosis as parameters,
Learning about the cytoplasm and the specimen suitability is performed by controlling the mixing ratio of normal cell lines and cancer cell lines, and learning is performed by controlling the number of cells smeared among the cells placed on the slide,
Learning about the blood volume is performed based on the red blood cell count,
A biopsy method in which learning about the diagnosis is performed by labeling lesions and normal parts of tissue.
제1항에 있어서,
상기 적합성 검사를 수행하는 단계는
상기 분석 서버가 분석한 상기 조직의 양의 적합 여부를 출력 장치에 제공하는 단계;를 포함하는 조직 검사 방법.
According to paragraph 1,
The steps for performing the conformity test are
A tissue examination method comprising: providing to an output device whether the amount of tissue analyzed by the analysis server is appropriate.
제1항에 있어서,
상기 적합성 검사를 수행하는 단계는
상기 조직 검사를 수행하기에 상기 조직의 양이 부족함을 인식하여, 출력 장치에 알림을 전송하는 단계를 포함하는 조직 검사 방법.
According to paragraph 1,
The steps for performing the conformity test are
A tissue examination method comprising recognizing that the amount of tissue is insufficient to perform the tissue examination, and transmitting a notification to an output device.
제1항에 있어서,
상기 적합성 검사를 수행하는 단계는
하나 이상의 상기 조직 분석 장치로부터 수신된 조직 양 데이터를 누적하여 학습 조직 양 데이터를 생성하는 단계;
상기 학습 조직 양 데이터의 분석을 통해 상기 조직 검사에 필요한 조직의 최소량을 산출하는 단계; 및
상기 조직 양 데이터에 포함된 상기 조직의 양이, 상기 조직의 최소량 이상인지를 판단하는 단계;를 포함하는 조직 검사 방법.
According to paragraph 1,
The steps for performing the conformity test are
generating learning tissue volume data by accumulating tissue volume data received from one or more of the tissue analysis devices;
calculating the minimum amount of tissue required for the tissue examination through analysis of the learned tissue amount data; and
A tissue examination method comprising: determining whether the amount of tissue included in the tissue amount data is greater than or equal to the minimum amount of tissue.
삭제delete 제1항에 있어서,
상기 조직의 이상을 검사하는 단계는
상기 조직의 이상을 인식하여, 출력 장치로 알림을 전송하는 단계를 포함하는 조직 검사 방법.
According to paragraph 1,
The step of examining abnormalities in the tissue is
A tissue examination method comprising recognizing abnormalities in the tissue and transmitting a notification to an output device.
삭제delete 삭제delete 삭제delete 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제4항 및 제6항 중 어느 한 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 프로그램.
A program combined with a hardware computer and stored in a computer-readable recording medium to execute the method of any one of claims 1 to 4 and 6.
KR1020200102808A 2020-08-14 2020-08-14 Method for biopsy and apparatus for biopsy KR102639140B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200102808A KR102639140B1 (en) 2020-08-14 2020-08-14 Method for biopsy and apparatus for biopsy
PCT/US2021/046174 WO2022036328A1 (en) 2020-08-14 2021-08-16 Method and apparatus for biopsy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200102808A KR102639140B1 (en) 2020-08-14 2020-08-14 Method for biopsy and apparatus for biopsy

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020240022530A Division KR20240046124A (en) 2024-02-16 Method for determining in real time whether the amount of tissue extracted by fine needle aspiration is sufficient

Publications (2)

Publication Number Publication Date
KR20220021805A KR20220021805A (en) 2022-02-22
KR102639140B1 true KR102639140B1 (en) 2024-02-20

Family

ID=80247403

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200102808A KR102639140B1 (en) 2020-08-14 2020-08-14 Method for biopsy and apparatus for biopsy

Country Status (2)

Country Link
KR (1) KR102639140B1 (en)
WO (1) WO2022036328A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090162853A1 (en) 2007-10-24 2009-06-25 Biomarker Strategies, Llc Methods and devices for cellular analysis
WO2010102632A2 (en) 2009-03-12 2010-09-16 Rigshospitalet Improved rna purification method
WO2018140014A1 (en) 2017-01-25 2018-08-02 Athelas, Inc. Classifying biological samples using automated image analysis
CN111489833A (en) 2019-12-19 2020-08-04 上海杏脉信息科技有限公司 Lung cell pathology rapid on-site evaluation system and method and computer readable storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2798610B2 (en) 1994-08-10 1998-09-17 品川白煉瓦株式会社 Immersion nozzle installation and removal device
JPH10197522A (en) * 1997-01-14 1998-07-31 Mitsubishi Electric Corp Pathological tissue diagnosis support device
JP6309019B2 (en) * 2012-11-27 2018-04-11 ポンティフィシア・ウニベルシダッド・カトリカ・デ・チレPontificia Universidad Catolica de Chile Compositions and methods for diagnosing thyroid tumors
US11419499B2 (en) * 2018-01-19 2022-08-23 The Regents Of The University Of California Optical coherence tomography for cancer screening and triage

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090162853A1 (en) 2007-10-24 2009-06-25 Biomarker Strategies, Llc Methods and devices for cellular analysis
WO2010102632A2 (en) 2009-03-12 2010-09-16 Rigshospitalet Improved rna purification method
WO2018140014A1 (en) 2017-01-25 2018-08-02 Athelas, Inc. Classifying biological samples using automated image analysis
CN111489833A (en) 2019-12-19 2020-08-04 上海杏脉信息科技有限公司 Lung cell pathology rapid on-site evaluation system and method and computer readable storage medium

Also Published As

Publication number Publication date
KR20220021805A (en) 2022-02-22
WO2022036328A1 (en) 2022-02-17

Similar Documents

Publication Publication Date Title
JP4496943B2 (en) Pathological diagnosis support apparatus, pathological diagnosis support program, operation method of pathological diagnosis support apparatus, and pathological diagnosis support system
CN116189179B (en) Circulating tumor cell scanning analysis equipment
CN110473186B (en) Detection method based on medical image, model training method and device
CN111462036A (en) Pathological image processing method based on deep learning, model training method and device
Dov et al. Thyroid cancer malignancy prediction from whole slide cytopathology images
KR101955919B1 (en) Method and program for providing tht region-of-interest in image by deep-learing algorithm
CN110796199A (en) Image processing method and device and electronic medical equipment
CN109460717A (en) Alimentary canal Laser scanning confocal microscope lesion image-recognizing method and device
KR20230166054A (en) Diabetes development risk prediction system using deep learning model, method, and program
CN113261012B (en) Method, device and system for processing image
WO2024074921A1 (en) Distinguishing a disease state from a non-disease state in an image
CN116580394A (en) White blood cell detection method based on multi-scale fusion and deformable self-attention
Saidi et al. Technology insight: will systems pathology replace the pathologist?
Xiang et al. A novel weight pruning strategy for light weight neural networks with application to the diagnosis of skin disease
KR102639140B1 (en) Method for biopsy and apparatus for biopsy
CN111339899B (en) Catheter feature acquisition method, device, equipment, medium and intelligent microscope
CN115359066B (en) Focus detection method and device for endoscope, electronic device and storage medium
EP4318497A1 (en) Training method for training artificial neural network for determining breast cancer lesion area, and computing system performing same
CN116740435A (en) Breast cancer ultrasonic image classifying method based on multi-mode deep learning image group science
KR20240046124A (en) Method for determining in real time whether the amount of tissue extracted by fine needle aspiration is sufficient
CN110348326A (en) The family health care information processing method of the identification of identity-based card and the access of more equipment
KR20230121326A (en) Method and apparatus for biopsy and apparatus for cytotechnology
CN113705595A (en) Method, device and storage medium for predicting degree of abnormal cell metastasis
Krishna et al. An interpretable decision-support model for breast cancer diagnosis using histopathology images
CN114693703A (en) Skin mirror image segmentation model training and skin mirror image recognition method and device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant