KR102622542B1 - 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지를 프로세싱하기 위한 방법 및 장치 - Google Patents

의료 이미징 디바이스에 의해 캡처된 조직학적 이미지를 프로세싱하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR102622542B1
KR102622542B1 KR1020197027374A KR20197027374A KR102622542B1 KR 102622542 B1 KR102622542 B1 KR 102622542B1 KR 1020197027374 A KR1020197027374 A KR 1020197027374A KR 20197027374 A KR20197027374 A KR 20197027374A KR 102622542 B1 KR102622542 B1 KR 102622542B1
Authority
KR
South Korea
Prior art keywords
histological
image
sample
images
target
Prior art date
Application number
KR1020197027374A
Other languages
English (en)
Other versions
KR20190112170A (ko
Inventor
케니스 마크 설리번
강진만
Original Assignee
주식회사 고영테크놀러지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 고영테크놀러지 filed Critical 주식회사 고영테크놀러지
Publication of KR20190112170A publication Critical patent/KR20190112170A/ko
Application granted granted Critical
Publication of KR102622542B1 publication Critical patent/KR102622542B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/40ICT specially adapted for the handling or processing of patient-related medical or healthcare data for data related to laboratory analysis, e.g. patient specimen analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

의료 이미징 디바이스에 의해 캡처된 하나 이상의 조직학적 이미지를 프로세싱하기 위한 방법이 개시된다. 이 방법에서, 조직학적 이미지가 수신되고, 각각이 후보 조직 유형에 대응하는 타깃 영역들이 하나 이상의 샘플 조직학적 이미지를 하나 이상의 샘플 타깃 조직학적 이미지와 연관시키는 예측 모델에 기초하여 식별된다. 식별된 적어도 하나의 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성이 조직학적 이미지에 적용된다.

Description

의료 이미징 디바이스에 의해 캡처된 조직학적 이미지를 프로세싱하기 위한 방법 및 장치
본 출원은 2017년 2월 21일자로 출원된 선행 미국 가특허 출원 제62/461,490호, 및 2017년 9월 27일자로 출원된 미국 가특허 출원 제62/563,751호에 기초하고 이로부터 우선권의 이익을 주장하며, 이 미국 출원들의 전체 내용은 참고로 본 명세서에 포함된다.
본 개시는 일반적으로 디스플레이를 위해 조직학적 이미지(histological image)를 프로세싱하는 것에 관한 것으로서, 보다 구체적으로는, 준지도 학습 모델(semi-supervised learning model)을 사용하여 조직학적 이미지의 수정된 이미지를 생성하는 것에 관한 것이다.
조직학에서, H&E(헤마톡실린 및 에오신) 염색이 의료 진단에 널리 사용되어 왔다. 예를 들면, 환자의 신체에서 암과 같은 의심되는 병변을 검사하기 위해, 의사는 의심되는 병변의 샘플을 획득하고 H&E 염색의 현미경 사진을 생성하기 위한 미리 결정된 절차를 수행할 수 있다. 의사는 이어서 환자의 질병을 진단하기 위해 현미경으로 H&E 염색의 현미경 사진을 볼 수 있다. H&E 염색의 현미경 사진을 획득하기 위해, 환자로부터의 의심되는 병변의 샘플은 전형적으로 조직학 실험실로 보내진다. 또한, H&E 염색의 현미경 사진을 생성하기 위해 일련의 미리 결정된 절차들이 수행된다. 그러한 절차들은 H&E 염색의 현미경 사진을 획득하는 데 보통 하루 이상이 소요된다. 일부 경우들에서, 질병의 적시 치료를 제공하기 위해, 외과 수술 동안 질병의 신속한 진단이 요구될 수 있다. 그렇지만, 상기 절차들에 따르면, 의심되는 병변에 대한 질병이 수술 동안 즉시 진단되지 않을 수 있다.
한편, CT(Computer Tomography), MRI(Magnetic Resonance Imaging) 현미경 사진들 등과 같은 이미지들이 캡처되어 잠재적 환자를 확실하게 진단하는 데 사용될 수 있다. 그렇지만, 그러한 현미경 사진 이미지를 캡처하는 것은 잠재적 환자에게 상대적으로 비용이 많이 들 수 있다. 또한, 그러한 CT 및 MRI 디바이스들은 너무 거대하여 수술 동안 인체의 일 부분을 캡처하는 데 사용될 수 없다. 즉, 이 디바이스들은 수술 동안 수술실에 위치되거나 수술실로 이동하기에 적합하지 않을 수 있다.
즉각적이고 신속한 진단을 위해, OCT(Optical Coherence Tomography) 디바이스와 같은 의료 이미징 디바이스에 의해 캡처된 상대적으로 낮은 품질을 갖는 이미지들이 환자에서의 의심되는 병변을 위치확인하기 위해 사용되어 왔다. 그러한 이미지는 CT 및/또는 MRI 현미경 사진들보다 저렴하게 획득될 수 있고 H&E 염색의 현미경 사진들보다 신속하게 생성될 수 있다. 그렇지만, 그러한 이미지는 이미지에서 하나 이상의 조직 유형의 질병을 정확하게 진단하기에 적합한 가시성(visibility)을 갖추지 못할 수 있다.
본 개시에 기재된 실시예들은 준지도 학습 모델일 수 있는 예측 모델을 사용하여 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지의 수정된 이미지를 생성하는 것에 관한 것이다.
본 개시의 일 양태에 따르면, 의료 이미징 디바이스에 의해 캡처된 하나 이상의 조직학적 이미지를 프로세싱하기 위해, 컴퓨터에 의해, 수행되는 방법이 개시된다. 이 방법에서, 적어도 하나의 조직 유형을 포함하는 조직학적 이미지들 각각이 수신되고, 조직학적 이미지들 각각에서의 적어도 하나의 후보 조직 유형이 제1 오토인코더(autoencoder)에 의해 결정된다. 조직학적 이미지에서의 적어도 하나의 후보 조직 유형에 대응하는 적어도 하나의 타깃 영역이 제1 오토인코더에 의해 식별된다. 조직학적 이미지들 각각에서의 타깃 영역에 대응하는 적어도 하나의 타깃 조직학적 이미지는 하나 이상의 샘플 조직학적 이미지를 하나 이상의 샘플 타깃 조직학적 이미지와 연관시키는 예측 모델에 기초하여 식별된다. 식별된 타깃 조직학적 이미지 또는 이미지들과 연관된 하나 이상의 디스플레이 특성이 조직학적 이미지에 적용된다. 본 개시는 이 방법에 관련된 디바이스 및 컴퓨터 판독가능 매체를 또한 설명한다.
본 개시의 일 양태는 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지를 프로세싱하기 위해, 컴퓨터에 의해, 수행되는 방법에 관한 것이며, 이 방법은: 적어도 하나의 조직 유형을 포함하는 조직학적 이미지를 수신하는 단계; 제1 오토인코더에 의해, 조직학적 이미지에서의 후보 조직 유형을 결정하는 단계; 제1 오토인코더에 의해, 조직학적 이미지에서의 후보 조직 유형에 대응하는 타깃 영역을 식별하는 단계; 하나 이상의 샘플 조직학적 이미지를 하나 이상의 샘플 타깃 조직학적 이미지와 연관시키는 예측 모델에 기초하여 조직학적 이미지에서의 타깃 영역에 대응하는 적어도 하나의 타깃 조직학적 이미지를 식별하는 단계; 및 식별된 적어도 하나의 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성을 조직학적 이미지에 적용하는 단계를 포함한다. 이 방법은 적용된 디스플레이 특성들을 포함하는 조직학적 이미지의 수정된 이미지를 생성하는 단계를 더 포함할 수 있다.
일 실시예에서, 예측 모델은 샘플 조직학적 이미지들 각각에서의 제1 패치 세트 및 샘플 타깃 조직학적 이미지들 각각에서의 제2 패치 세트를 포함할 수 있고, 예측 모델에서 제1 패치 세트는 제2 패치 세트와 연관되며, 하나 이상의 디스플레이 특성을 적용하는 단계는 식별된 적어도 하나의 타깃 조직학적 이미지에서의 제2 패치 세트에 기초하여 수신된 조직학적 이미지에서의 복수의 패치들을 수정하는 단계를 포함한다.
일 실시예에서, 후보 조직 유형에 대응하는 타깃 영역을 식별하는 단계는 조직학적 이미지에서의 타깃 영역을 포함하는 복수의 영역들을 식별하는 단계를 포함할 수 있고, 예측 모델은 샘플 조직학적 이미지들 각각에서의 제1 영역 세트 및 샘플 타깃 조직학적 이미지들 각각에서의 제2 영역 세트를 포함하며, 예측 모델에서 제1 영역 세트는 제2 영역 세트와 연관되고, 하나 이상의 디스플레이 특성을 적용하는 단계는 식별된 적어도 하나의 타깃 조직학적 이미지에서의 제2 영역 세트에 기초하여 수신된 조직학적 이미지에서의 복수의 영역들을 수정하는 단계를 포함한다.
일 실시예에서, 제1 비지도 학습 모델은 제1 샘플 조직학적 이미지 세트에 기초하여 제1 오토인코더를 트레이닝하는 것에 의해 생성될 수 있다. 일 실시예에서, 예측 모델은 제1 비지도 학습 모델 및 제2 비지도 학습 모델에 기초하여 생성될 수 있고, 제2 비지도 학습 모델은 제2 샘플 타깃 조직학적 이미지 세트를 트레이닝하는 것에 의해 생성될 수 있다. 일 실시예에서, 제1 샘플 조직학적 이미지 세트에서의 M개의 샘플 조직학적 이미지의 하나 이상의 해부학적 위치는 제2 샘플 타깃 조직학적 이미지 세트에서의 N개의 샘플 타깃 조직학적 이미지의 하나 이상의 해부학적 위치와 매칭하도록 정렬될 수 있으며, M 및 N은 양의 정수들이다. 일 실시예에서, 예측 모델은 하나 이상의 디스플레이 특성을 나타내는 하나 이상의 특징에 관한 데이터를 포함할 수 있고, N개의 샘플 타깃 조직학적 이미지로부터의 하나 이상의 특징을 M개의 샘플 조직학적 이미지로부터의 하나 이상의 특징과 연관시키는 것에 의해 트레이닝된다.
일 실시예에서, 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지는 타깃 구조체의 하나 이상의 조직학적 이미지를 포함할 수 있고, 타깃 구조체는 가시 표면으로부터 2 내지 4 mm의 깊이를 가질 수 있다. 일 실시예에서, 제1 비지도 학습 모델은 조직학적 이미지에서의 타깃 영역과 연관된 하나 이상의 특징에 기초하여 트레이닝될 수 있다. 일 실시예에서, 제1 비지도 학습 모델, 제2 비지도 학습 모델, 및 예측 모델 각각은 인공 신경 네트워크의 하나 이상의 모델 하이퍼파라미터(model hyperparameters) 및 하나 이상의 가중치에 의해 정의된 다층 모델(multilayer model)을 포함할 수 있다.
본 개시의 일 양태는 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지를 프로세싱하기 위한 이미지 프로세싱 디바이스에 관한 것이며, 이 디바이스는: 적어도 하나의 조직 유형을 포함하는 조직학적 이미지를 수신하고, 조직학적 이미지에서의 후보 조직 유형을 결정하며, 조직학적 이미지에서의 후보 조직 유형에 대응하는 타깃 영역을 식별하도록 구성된 제1 오토인코더; 및 하나 이상의 샘플 조직학적 이미지를 하나 이상의 샘플 타깃 조직학적 이미지와 연관시키는 예측 모델에 기초하여 조직학적 이미지에서의 타깃 영역에 대응하는 적어도 하나의 타깃 조직학적 이미지를 식별하고, 식별된 적어도 하나의 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성을 조직학적 이미지에 적용하도록 구성된 이미지 생성 유닛을 포함한다.
일 실시예에서, 이미지 생성 유닛은 적용된 디스플레이 특성들을 포함하는 조직학적 이미지의 수정된 이미지를 생성하도록 더 구성될 수 있다. 일 실시예에서, 제1 오토인코더는 조직학적 이미지에서의 타깃 영역을 포함하는 복수의 영역들을 식별하도록 더 구성될 수 있고, 예측 모델은 샘플 조직학적 이미지들 각각에서의 제1 영역 세트 및 샘플 타깃 조직학적 이미지들 각각에서의 제2 영역 세트를 포함하며, 예측 모델에서 제1 영역 세트는 제2 영역 세트와 연관되고, 이미지 생성 유닛은 식별된 적어도 하나의 타깃 조직학적 이미지에서의 제2 영역 세트에 기초하여 수신된 조직학적 이미지에서의 복수의 영역들을 수정하도록 더 구성된다.
일 실시예에서, 제1 비지도 학습 모델은 제1 샘플 조직학적 이미지 세트에 기초하여 제1 오토인코더를 트레이닝하는 것에 의해 생성될 수 있다. 일 실시예에서, 예측 모델은 제1 비지도 학습 모델 및 제2 비지도 학습 모델에 기초하여 생성될 수 있고, 제2 비지도 학습 모델은 제2 샘플 타깃 조직학적 이미지 세트를 트레이닝하는 것에 의해 생성될 수 있다. 일 실시예에서, 제1 샘플 조직학적 이미지 세트에서의 M개의 샘플 조직학적 이미지의 하나 이상의 해부학적 위치는 제2 샘플 타깃 조직학적 이미지 세트에서의 N개의 샘플 타깃 조직학적 이미지의 하나 이상의 해부학적 위치와 매칭하도록 정렬될 수 있으며, M 및 N은 양의 정수들이다.
본 개시의 일 양태는 조직학적 이미지를 프로세싱하기 위한 명령어들을 포함하는 비일시적 컴퓨터 판독가능 저장 매체에 관한 것이며, 이 명령어들은 컴퓨터의 프로세서로 하여금 동작들을 수행하게 하며, 이 동작들은: 적어도 하나의 조직 유형을 포함하는 조직학적 이미지를 수신하는 동작; 조직학적 이미지에서의 후보 조직 유형을 결정하는 동작; 조직학적 이미지에서의 후보 조직 유형에 대응하는 타깃 영역을 식별하는 동작; 하나 이상의 샘플 조직학적 이미지를 하나 이상의 샘플 타깃 조직학적 이미지와 연관시키는 예측 모델에 기초하여 조직학적 이미지에서의 타깃 영역에 대응하는 적어도 하나의 타깃 조직학적 이미지를 식별하는 동작; 및 식별된 적어도 하나의 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성을 조직학적 이미지에 적용하는 동작을 포함한다.
일 실시예에서, 후보 조직 유형에 대응하는 타깃 영역을 식별하는 동작은 조직학적 이미지에서의 타깃 영역을 포함하는 복수의 영역들을 식별하는 동작을 포함할 수 있고, 여기서 예측 모델은 샘플 조직학적 이미지들 각각에서의 제1 영역 세트 및 샘플 타깃 조직학적 이미지들 각각에서의 제2 영역 세트를 포함하며, 여기서 예측 모델에서 제1 영역 세트는 제2 영역 세트와 연관되고, 여기서 하나 이상의 디스플레이 특성을 적용하는 동작은 식별된 적어도 하나의 타깃 조직학적 이미지에서의 제2 영역 세트에 기초하여 수신된 조직학적 이미지에서의 복수의 영역들을 수정하는 동작을 포함한다.
일 실시예에서, 예측 모델은 복수의 디스플레이 특성들을 나타내는 하나 이상의 특징을 포함할 수 있고, 제2 샘플 타깃 조직학적 이미지 세트에서의 N개의 샘플 타깃 조직학적 이미지로부터의 하나 이상의 특징을 제1 샘플 조직학적 이미지 세트에서의 M개의 샘플 조직학적 이미지로부터의 하나 이상의 특징과 연관시키는 것에 의해 트레이닝될 수 있으며, M 및 N은 양의 정수들이다.
본 개시의 발명 양태들의 실시예들은, 첨부 도면들과 관련하여 읽을 때, 하기의 상세한 설명을 참조하여 이해될 것이다.
도 1은 본 개시의 일 실시예에 따른, 의료 이미징 디바이스가 의료 수술 동안 작동하고 있으며 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지의 수정된 이미지가 디스플레이 유닛 상에 디스플레이되는 수술실 환경을 나타내고 있다.
도 2는 본 개시의 일 실시예에 따른, 예측 모델에 기초하여 조직학적 이미지에서의 타깃 영역에 대응하는 적어도 하나의 타깃 조직학적 이미지를 식별하고, 적어도 하나의 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성을 조직학적 이미지에 적용하는 것에 의해 조직학적 이미지의 수정된 이미지를 생성하기 위한 흐름도이다.
도 3은 본 개시의 일 실시예에 따른, 제1 오토인코더, 제2 오토인코더, 및 지도 연관 학습기(supervised association learner)를 트레이닝하는 것에 의해 예측 모델을 생성하고 제1 오토인코더 및 예측 모델에 기초하여 조직학적 이미지를 프로세싱하도록 구성된 이미지 프로세싱 디바이스의 블록도를 예시하고 있다.
도 4는 본 개시의 일 실시예에 따른, 조직학적 이미지들의 제1 샘플 이미지 데이터베이스에서의 샘플 조직학적 이미지들에 기초하여 제1 오토인코더를 트레이닝하는 것에 의해 생성될 수 있는 제1 비지도 학습 모델의 블록도를 나타내고 있다.
도 5는 본 개시의 일 실시예에 따른, 타깃 조직학적 이미지들의 제2 샘플 이미지 데이터베이스에서의 샘플 타깃 조직학적 이미지들에 기초하여 제2 오토인코더를 트레이닝하는 것에 의해 생성될 수 있는 제2 비지도 학습 모델의 블록도를 예시하고 있다.
도 6은 본 개시의 일 실시예에 따른, 매칭하는 이미지들의 골든 세트(golden set)에 기초하여 제2 비지도 학습 모델을 제1 비지도 학습 모델과 연관시키는 것에 의해 예측 모델을 생성하도록 구성된 이미지 프로세싱 디바이스 내의 지도 연관 학습기를 도시하고 있다.
도 7은 본 개시의 일 실시예에 따른, 예측 모델에 기초하여 조직학적 이미지의 수정된 이미지를 생성하기 위해 사용되는 프로세서 내의 이미지 생성 유닛 및 제1 오토인코더의 블록도를 나타내고 있다.
도 8은 본 개시의 일 실시예에 따른, 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지를 수신하고 제1 오토인코더 및 예측 모델을 사용하여 조직학적 이미지의 수정된 이미지를 생성하기 위한 방법의 플로우차트이다.
도 9는 본 개시의 일 실시예에 따른, 제1 및 제2 비지도 학습 모델들을 생성하기 위해 제1 및 제2 오토인코더들을 트레이닝하고 매칭하는 이미지들의 골든 세트에 기초하여 제2 비지도 학습 모델을 제1 비지도 학습 모델과 연관시키는 것에 의해 예측 모델을 생성하기 위한 방법의 플로우차트이다.
다양한 실시예들에 대해 이제 상세히 언급할 것이고, 실시예들의 예들은 첨부 도면들에 예시되어 있다. 하기의 상세한 설명에서, 본 주제의 완전한 이해를 제공하기 위해 수많은 특정 세부사항들이 기재되어 있다. 그렇지만, 본 주제가 이 특정 세부사항들을 사용하지 않고 실시될 수 있음이 본 기술분야의 통상의 기술자에게는 명백할 것이다. 다른 경우들에서, 널리 공지된 방법들, 절차들, 시스템들, 및 컴포넌트들이 다양한 실시예들의 양태들을 불필요하게 모호하게 하지 않기 위해 상세히 설명되지 않았다.
도 1은 본 개시의 일 실시예에 따른, 의료 이미징 디바이스(100)가 의료 수술 동안 작동하고 있으며 의료 이미징 디바이스(100)에 의해 캡처된 조직학적 이미지의 수정된 이미지(120)가 디스플레이 디바이스(110) 상에 디스플레이되는 수술실 환경을 예시하고 있다. 예시된 바와 같은 수술실에서, 의사들(10 및/또는 20)은 베드(40) 상에 누워 있는 환자(30)를 수술할 수 있다. 본 실시예에서, 의사들(10 및/또는 20)은 수술 동안 환자(30)의 질병 또는 질환을 진단하기 위해 의료 이미징 디바이스(100)를 사용할 수 있다. 예를 들면, 의료 이미징 디바이스(100)는, OCT 디바이스, X-선 방사선 검사(X-ray radiography) 디바이스, MRI 디바이스, CT 디바이스, 초음파 검사(ultrasonography) 또는 초음파 디바이스, 내시경 검사(endoscopy) 디바이스, 촉각 이미징 디바이스, 서모그래피 디바이스, 핵의학 기능 이미징(nuclear medicine functional imaging) 디바이스, 또는 이와 유사한 것과 같은, 신체 부위의 2차원 또는 3차원 조직학적 이미지를 캡처하도록 구성되는 임의의 유형의 이미지 캡처 디바이스일 수 있다.
의료 이미징 디바이스(100)는 환자(30)의 신체 부위에서의 적어도 하나의 조직 유형을 포함하는 조직학적 이미지(예컨대, M2TM OCT 이미징 시스템의 OCT 디바이스에 의해 캡처된 M2TM 이미지)를 캡처하거나 생성하도록 구성될 수 있다. 예를 들면, 조직학적 이미지가 OCT 디바이스에 의해 캡처되면, 조직학적 이미지는 그레이 스케일 이미지일 수 있다. 비록 본 실시예에서 의료 이미징 디바이스(100)가 베드(40)에 고정되어 설치된 것으로 예시되어 있지만, 의료 이미징 디바이스(100)가 환자(30)의 신체 부위의 이미지를 캡처할 수 있도록 의료 이미징 디바이스(100)는 수술실의 임의의 부분에 고정되어 설치되도록 구성될 수 있다. 대안적으로, 의료 이미징 디바이스(100)는 의사(10 및/또는 20)에 의해 환자(30)의 관심 부위 근방에 위치될 수 있도록 탈부착형(detachable) 및/또는 휴대형(portable)이도록 구성될 수 있다.
일 실시예에 따르면, 의료 이미징 디바이스(100)가 OCT 디바이스이면, 의료 이미징 디바이스(100)는 광 소스를 사용하여 환자(30)의 신체 부위에 광(예컨대, 레이저 또는 저 코히런스(low-coherence) 광)을 조사하고, 환자(30)의 신체 부위에서 후방 산란되는 광을 수집하여, 의료 이미징 디바이스(100)에 의해 캡처되는 후방 산란된 광의 에코 시간 지연을 측정할 수 있다. 또한, 의료 이미징 디바이스(100)는 수집된 광의 광학 코히런스를 식별하도록 구성될 수 있다. 의료 이미징 디바이스(100)는, 예를 들면, 에코 시간 지연을 측정함으로써 및/또는 광의 광학 코히런스를 결정함으로써 신체 부위에서의 적어도 하나의 조직 유형을 나타내는 하나 이상의 2차원 조직학적 이미지(예컨대, 수직 슬라이스들의 이미지들) 및/또는 3차원 조직학적 이미지(예컨대, 3차원 단층 사진)를 생성할 수 있다. 하나 이상의 조직 유형을 포함하는 2차원 조직학적 이미지들 또는 3차원 조직학적 이미지들은 가시 표면(visible surface)으로부터 미리 결정된 깊이(예컨대, 약 2 내지 4 mm)를 갖는 타깃 구조체를 가질 수 있다. 일 실시예에서, 의료 이미징 디바이스(100)는 하나 이상의 3차원 조직학적 이미지를 임의의 방향으로 크로핑(cropping)하거나 슬라이싱하는 것에 의해 타깃 구조체의 일 부분을 나타내는 2차원 조직학적 이미지들을 생성하도록 구성될 수 있다. 일 실시예에서, 의료 이미징 디바이스(100)는 2차원 조직학적 이미지들에 기초하여 환자(30)에서의 신체 부위의 하나 이상의 3차원 조직학적 이미지를 생성하도록 구성될 수 있다.
환자(30)에서의 신체 부위에 대한 3차원 조직학적 이미지들 또는 2차원 조직학적 이미지들이 생성되면, 생성된 조직학적 이미지는, 도 3을 참조하여 나중에 상세히 기술될, 이미지 프로세싱 디바이스(도시되지 않음)에 제공될 수 있다. 이미지 프로세싱 디바이스는 복수의 유형들의 조직을 포함하는 조직학적 이미지를 수신 및/또는 프로세싱하도록 구성될 수 있다. 일 실시예에서, 의료 이미징 디바이스(100)로부터 조직학적 이미지가 수신되면, 이미지 프로세싱 디바이스는 조직학적 이미지를 프로세싱하여 조직학적 이미지의 수정된 이미지(120)를 생성할 수 있다.
도 2는 본 개시의 일 실시예에 따른, 의료 이미징 디바이스(100)에 의해 캡처된 조직학적 이미지(210)에서의 타깃 영역에 대응하는 적어도 하나의 타깃 조직학적 이미지를 식별하고 조직학적 이미지(210)의 수정된 이미지(120)를 생성하기 위한 흐름도이다. 의료 이미징 디바이스(100)는 환자(30)의 신체 부위의 조직학적 이미지(210)(예컨대, 2차원 조직학적 이미지)를 캡처하거나 생성하여 이를 이미지 프로세싱 디바이스에 제공할 수 있다. 예를 들면, 도 2에 도시된 바와 같이, 조직학적 이미지(210)는 환자(30)의 유방에서의 적어도 하나의 조직 유형을 포함할 수 있다.
일 실시예에서, 이미지 프로세싱 디바이스는 조직학적 이미지(210)에서의 후보 조직 유형을 결정하고 조직학적 이미지(210)에서의 후보 조직 유형에 대응하는 타깃 영역을 식별하기 위해 조직학적 이미지(210)를 제1 오토인코더에 입력하도록 구성될 수 있다. 제1 오토인코더는 효율적인 코딩들의 비지도 학습을 위해 사용되는 임의의 유형의 인공 신경 네트워크일 수 있다. 또한, 제1 오토인코더는, 도 4를 참조하여 나중에 상세히 설명될 바와 같이, 제1 비지도 학습 모델을 생성하기 위해 트레이닝될 수 있다. 후보 조직 유형은 조직학적 이미지(210)에서의 임의의 의미있는 또는 의심스러운 위치들을 포함할 수 있다. 예를 들면, 후보 조직 유형은 세포핵, 종양, 또는 이와 유사한 것일 수 있다.
조직학적 이미지(210)에서 타깃 영역이 식별되면, 이미지 프로세싱 디바이스는 하나 이상의 조직학적 이미지를 하나 이상의 타깃 조직학적 이미지와 연관시키는 예측 모델에 기초하여 조직학적 이미지에서의 타깃 영역에 대응되는 적어도 하나의 타깃 조직학적 이미지를 식별할 수 있다. 일 실시예에서, 타깃 조직학적 이미지는 캡처된 조직학적 이미지의 가시성 또는 식별성(discernibility)을 개선시키기 위해 의료 이미징 디바이스(100)에 의해 캡처된 조직학적 이미지로부터 수정될 수 있는 임의의 조직학적 이미지일 수 있다. 적어도 하나의 타깃 조직학적 이미지는 그의 디스플레이 특성들에 기초하여 캡처된 이미지를 수정하는 데 사용될 수 있다. 예를 들면, 조직학적 이미지가 OCT 디바이스에 의해 캡처되면, 적어도 하나의 타깃 조직학적 이미지는 H&E 염색의 하나 이상의 이미지일 수 있다. 일 실시예에 따르면, 예측 모델은 제1 비지도 학습 모델의 확장으로서 생성될 수 있고, 효율적인 코딩들의 준지도 학습을 위한 임의의 유형의 인공 신경 네트워크일 수 있다. 예를 들면, 준지도 머신 러닝 기술이라고 지칭될 수 있는, 비지도 머신 러닝 기술과 지도 머신 러닝 기술 모두를 사용하는 것이, 도 6을 참조하여 나중에 상세히 설명될 바와 같이, 예측 모델을 생성하는 데 적용될 수 있다.
조직학적 이미지(210)에서의 타깃 영역에 대응하는 적어도 하나의 타깃 조직학적 이미지가 식별되면, 이미지 프로세싱 디바이스는 적어도 하나의 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성을 조직학적 이미지(210)에 적용할 수 있다. 예를 들면, 하나 이상의 디스플레이 특성은 조직학적 이미지 및 타깃 조직학적 이미지에서 유사한 특성들을 갖는 포인트들 또는 패치들의 컬러들, 형상들, 및/또는 선명도(sharpness), 포인트들 또는 패치들의 배열, 분포 및/또는 밀도와 같은 하나 이상의 특징을 포함할 수 있다. 패치는 이미지를 프로세싱하기 위한 단위 또는 윈도우(예컨대, 8x8 픽셀들)일 수 있는 조직학적 이미지에서의 구역(area) 또는 영역(region)일 수 있다. 타깃 조직학적 이미지는 그러한 단위 또는 윈도우에 기초하여 세그먼트화될 수 있다. 일 실시예에 따르면, 이미지 프로세싱 디바이스는 식별된 조직학적 이미지의 하나 이상의 디스플레이 특성에 기초하여 조직학적 이미지(210)의 하나 이상의 디스플레이 특성을 변경할 수 있다. 이 프로세스에서, 임의의 적합한 스타일 전달 기술들이 조직학적 이미지(210)를 식별된 타깃 조직학적 이미지의 스타일로 변경하는데 채택될 수 있다. 예를 들면, 조직학적 이미지, 예컨대, 이미지(210)가 OCT 디바이스에 의해 캡처되면, 이는 H&E 염색, 예컨대, 도 2에 도시된 바와 같은 이미지(120)의 형태로 보이도록 수정될 수 있다.
일 실시예에 따르면, 이미지 프로세싱 디바이스는 식별된 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성을 포함하는 수정된 이미지(120)를 생성할 수 있다. 예를 들면, 이미지 프로세싱 디바이스는 타깃 영역 내의 각 픽셀의 컬러 성분들의 값들(예컨대, 적색(R), 녹색(G), 청색(B) 값들) 및 선명도의 값을 변경할 수 있다. 조직학적 이미지(210)로부터 수정된 이미지(120)에 보여지는 바와 같이, 적색(예컨대, 진홍색) 컬러의 음영들이 타깃 영역에 할당될 수 있고, 타깃 영역의 중심 주위의 한 부분은 타깃 영역의 가시성을 개선시키기 위해 조정된다. 따라서, 고품질의 가시성을 갖는 수정된 이미지(120)는 의사들(10 및/또는 20)이 디바이스(100)에 의해 최초로 캡처된 조직학적 이미지(210)를 사용하는 것보다 환자(30)를 더 정확하게 진단할 수 있게 해줄 수 있다. 일부 실시예들에서, 의사들(10 및/또는 20)이 수술 동안에도 수정된 이미지(120)를 쉽게 제공받을 수 있도록, 이미지 프로세싱 디바이스는 조직학적 이미지(210)를 프로세싱하여 수정된 이미지(120)를 생성할 수 있다. 이와 유사하게, 의료 이미징 디바이스(100)에 의해 캡처된 3차원 조직학적 이미지가 이미지 프로세싱 디바이스에 제공되고 타깃 조직학적 이미지의 스타일로 수정될 수 있다. 이 경우에, 3차원 조직학적 이미지의 수정된 이미지가 디스플레이 디바이스(110) 상에 디스플레이될 수 있다. 또한, 의사들(10 및/또는 20)이 3차원 조직학적 이미지의 일 부분을 선택할 수 있다면, 선택된 부분에 대응하는 2차원 조직학적 이미지의 수정된 이미지가 디스플레이 디바이스(110) 상에 디스플레이될 수 있다.
도 3은 본 개시의 일 실시예에 따른, 제1 오토인코더(310), 제2 오토인코더(320), 및 지도 연관 학습기(330)를 트레이닝하는 것에 의해 예측 모델을 생성하고 제1 오토인코더(310) 및 예측 모델에 기초하여 조직학적 이미지를 프로세싱하도록 구성된 이미지 프로세싱 디바이스(300)의 블록도를 예시하고 있다. 이미지 프로세싱 디바이스(300)는 프로세서(305), 통신 유닛(340), 및/또는 저장 유닛(350)을 포함할 수 있다. 이미지 프로세싱 디바이스(300)에서의 프로세서(305)는 제1 오토인코더(310), 제2 오토인코더(320), 지도 연관 학습기(330), 및/또는 이미지 생성 유닛(360)을 포함할 수 있다.
이미지 프로세싱 디바이스(300)는 통신 네트워크(370)를 거쳐 통신 유닛(340)을 통해 의료 이미징 디바이스(100)와 통신하도록 구성된다. 일부 실시예들에서, 이미지 프로세싱 디바이스(300)는 전기 데이터 케이블 및, 블루투스, 지그비(ZigBee), 적외선 전송 등과 같은, 단거리 무선 네트워크를 포함하지만 이들로 제한되지 않는, 임의의 유형의 유선/무선 접속을 통해 의료 이미징 디바이스(100)와 통신할 수 있다. 비록 이미지 프로세싱 디바이스(300)가 의료 이미징 디바이스(100)와 별개의 디바이스인 것으로 도 3에 도시되어 있지만, 일부 실시예들에서, 의료 이미징 디바이스(100)와 이미지 프로세싱 디바이스(300)는 단일 디바이스 내에 통합될 수 있다.
프로세서(305)에서의 제1 오토인코더(310)는 저장 유닛(350)으로부터 복수의 조직학적 이미지들 및 복수의 샘플 조직학적 이미지들을 수신하도록 구성될 수 있다. 또한, 제1 오토인코더(310)는 수신된 조직학적 이미지들 및 복수의 샘플 조직학적 이미지들에 기초하여 트레이닝될 수 있고, 그에 의해 제1 비지도 학습 모델을 생성할 수 있다. K-평균 클러스터링(K-means clustering) 등을 포함하지만 이로 제한되지 않는 임의의 적합한 비지도 학습 기술이 제1 오토인코더(310)를 트레이닝하는 데 이용될 수 있다. 이와 유사하게, 프로세서(305)에서의 제2 오토인코더(320)는 저장 유닛(350)으로부터 복수의 타깃 조직학적 이미지들 및 복수의 샘플 타깃 조직학적 이미지들을 수신하고, 수신된 타깃 조직학적 이미지들 및 복수의 샘플 타깃 조직학적 이미지들에 기초하여 트레이닝되어, 제2 비지도 학습 모델을 생성하도록 구성될 수 있다. 제1 오토인코더(310)는 조직학적 이미지들의 효율적인 코딩의 비지도 학습을 위해 사용되는 인공 신경 네트워크를 포함할 수 있는 반면, 제2 오토인코더(320)는 타깃 조직학적 이미지들의 효율적인 코딩의 비지도 학습을 위해 사용되는 인공 신경 네트워크를 포함할 수 있다. 일부 실시예들에서, 제1 오토인코더(310) 및 제2 오토인코더(320)는, 적층 오토인코더들(stacked autoencoders), 다층 컨볼루션 오토인코더들(multi-layer convolutional autoencoders) 등을 포함한, 다층 오토인코더들을 포함할 수 있다. 비록 오토인코더들이 비지도 학습 유닛 또는 방법의 일 예로서 예시되어 있지만, GAN들(generative adversarial networks), SOM(self-organizing map), ART(adaptive resonance theory), k-평균 클러스터링, 및/또는 EM(expectation-maximization) 알고리즘을 포함하지만, 이들로 제한되지 않는, 임의의 다른 적합한 유형의 비지도 머신 러닝 방법이 그러한 유닛에 대해 사용될 수 있다. 또한, 비록 조직학적 이미지들, 샘플 조직학적 이미지들, 타깃 조직학적 이미지들, 및/또는 샘플 타깃 조직학적 이미지들이 저장 유닛(350)에 저장된 것으로 예시되어 있지만, 이미지들 중 적어도 일부는 하나 이상의 외부 저장 유닛에 저장될 수 있다.
프로세서(305)는 제1 비지도 학습 모델을 생성하기 위해 복수의 샘플 조직학적 이미지들에 기초하여 제1 오토인코더(310)를 트레이닝하도록 구성될 수 있다. 제1 비지도 학습 모델은 저장 유닛(350)에 저장될 수 있거나 제1 오토인코더(310) 내에 통합될 수 있다. 일 실시예에서, 제1 오토인코더(310)는 샘플 조직학적 이미지들 각각에서 시맨틱 세그먼트화(semantic segmentation)를 수행하도록(예컨대, 타깃 영역을 식별하도록) 트레이닝될 수 있다. 시맨틱 세그먼트화 동안, 제1 오토인코더(310)는 샘플 조직학적 이미지들 각각에서의 후보 조직 유형을 결정하고 샘플 조직학적 이미지에서의 후보 조직 유형에 대응하는 타깃 영역을 식별하도록 트레이닝될 수 있다. 이 프로세스에서, 제1 오토인코더(310)는 샘플 조직학적 이미지로부터 특징들을 추출하고 샘플 조직학적 이미지를, 샘플 조직학적 이미지로부터의 특징들과 유사한, 특징들을 갖는 그룹으로 분류하도록 구성될 수 있다. 예를 들면, 제1 오토인코더(310)는 샘플 조직학적 이미지로부터의 특징들과 제1 비지도 학습 모델에서의 특징들 또는 파라미터들 각각(예컨대, 인공 신경 네트워크의 은닉 계층) 간의 유사도(예컨대, 거리 또는 확률)를 결정하고, 제1 비지도 학습 모델에서의 특징들 또는 파라미터들로부터 샘플 조직학적 이미지에 대해 가장 큰 유사도(similarity)(예컨대, 가장 작은 거리)를 갖는 특징들 또는 파라미터들의 세트를 선택할 수 있다. 이 경우에, 제1 비지도 학습 모델에서의 특징들 또는 파라미터들은 하나 이상의 샘플 조직학적 이미지에서 추출된 특징들에 기초하여 생성될 수 있고, 네트워크의 토폴로지(예컨대, 계층들의 수 및 폭, 필터 사이즈들 등), 활성화 함수들 등 및 그 네트워크의 학습된 가중치들 및 바이어스들과 같은 모델 하이퍼파라미터들로서 표현될 수 있다.
샘플 조직학적 이미지에 대해 가장 큰 유사도를 갖는 특징들 또는 파라미터들의 세트가 선택되면, 샘플 조직학적 이미지는 제1 비지도 학습 모델에서의 선택된 특징들 또는 파라미터들의 세트에 대응하도록 결정될 수 있다. 제1 오토인코더(310)는 이어서 샘플 조직학적 이미지에서의 후보 조직 유형을 결정하고 제1 비지도 학습 모델에서의 선택된 특징들 또는 파라미터들의 세트에 기초하여 후보 조직 유형에 대응하는 타깃 영역을 식별할 수 있다. 이 프로세스에서, 제1 오토인코더(310)는 선택된 특징들 또는 파라미터들의 세트에 기초하여 샘플 조직학적 이미지에서의 타깃 영역을 포함한 복수의 영역들을 식별할 수 있다. 예를 들면, 복수의 영역들은 제1 비지도 학습 모델에서의 선택된 특징들 또는 파라미터들과 연관된 복수의 영역들에 대응할 수 있다. 이 경우에, 복수의 영역들은 하나 이상의 조직 세포, 공기 등을 나타낼 수 있다.
프로세서(305)는 샘플 조직학적 이미지들 각각에서 시맨틱 세그먼트화를 수행하는 것에 의해 제1 비지도 학습 모델을 생성하도록 제1 오토인코더(310)를 트레이닝할 수 있다. 일 실시예에서, 제1 오토인코더(310)는 샘플 조직학적 이미지를 샘플 조직학적 이미지의 특징들에 대응하는 선택된 특징들 또는 파라미터들의 세트를 갖는 그룹으로 분류할 수 있다. 이 프로세스에서, 그룹과 연관된 파라미터들은 조직학적 이미지에서의 식별된 타깃 영역 또는 식별된 복수의 영역들에 대한 추출된 특징들에 기초하여 업데이트되거나 조정된다. 조직학적 이미지에서의 후보 조직 유형에 대응하는, 타깃 영역을 포함한 식별된 복수의 영역들이 식별되고 조직학적 이미지의 수정된 이미지를 생성하기 위해 이미지 생성 유닛(360)에 제공될 수 있다. 일부 실시예에서, 제1 오토인코더(310)는 의료 이미징 디바이스(100)에 의해 캡처된 조직학적 이미지를 수신할 수 있고, 샘플 조직학적 이미지들과 유사한 방식으로 조직학적 이미지에서 시맨틱 세그먼트화를 수행하도록 트레이닝될 수 있다.
제2 오토인코더(320)는 제2 비지도 학습 모델을 생성하기 위해 수신된 타깃 조직학적 이미지들 및 샘플 타깃 조직학적 이미지들에 기초하여 트레이닝될 수 있다. 제2 비지도 학습 모델은 저장 유닛(350)에 저장될 수 있거나 제2 오토인코더(320) 내에 통합될 수 있다. 일 실시예에 따르면, 제2 오토인코더(320)는 제2 비지도 학습 모델을 생성하기 위해 제1 오토인코더(310)와 유사한 방식으로 트레이닝될 수 있다. 이 프로세스에서, 제2 오토인코더(320)는 수신된 타깃 조직학적 이미지들 및 샘플 타깃 조직학적 이미지들 각각으로부터 하나 이상의 특징을 추출할 수 있다. 이어서, 제2 비지도 학습 모델은 추출된 특징들에 기초하여 제1 비지도 학습 모델의 것들과 유사한 방식으로 타깃 조직학적 이미지들 및 샘플 타깃 조직학적 이미지들을 그룹화하여 제2 비지도 학습 모델을 생성할 수 있다. 생성된 제2 지도 학습 모델은 프로세서(305)에서의 지도 연관 학습기(330)에 의해 액세스될 수 있다.
지도 연관 학습기(330)는, 도 6을 참조하여 상세히 설명될 바와 같이, 본 개시의 일 실시예에 따른, 매칭하는 이미지들의 골든 세트에 기초하여 제2 비지도 학습 모델을 제1 비지도 학습 모델과 연관시키는 것에 의해 예측 모델을 생성하도록 구성될 수 있다. 매칭하는 이미지들의 골든 세트는, 하나 이상의 샘플 조직학적 이미지 및 샘플 조직학적 이미지들에 대응하는 하나 이상의 샘플 타깃 조직학적 이미지를 포함할 수 있는, 임의의 이미지 세트를 나타낼 수 있다. 매칭하는 이미지의 골든 세트에서, 샘플 조직학적 이미지들 각각은 샘플 타깃 조직학적 이미지들 각각의 것과 동일한 인체 내의 조직 또는 해부학적 위치들을 포함할 수 있다. 예를 들면, 지도 연관 학습기(330)는 제1 비지도 학습 모델에서의 특정 조직 유형에 대응하는 타깃 영역을 포함하는 조직학적 이미지 내의 복수의 영역들을 조직학적 이미지에 대응하는 샘플 타깃 조직학적 이미지 내의 복수의 영역들의 하나 이상의 디스플레이 특성을 나타내는 특징들과 연관시킬 수 있다. 일 실시예에서, 예측 모델은 네트워크의 토폴로지(예컨대, 계층들의 수 및 폭, 필터 사이즈들 등), 활성화 함수들 등 및 그 네트워크의 학습된 가중치들 및 바이어스들과 같은 모델 하이퍼파라미터들과 같은 파라미터들에 의해 정의될 수 있는 딥 러닝 신경 네트워크 기반 구조로서 표현될 수 있다. 예를 들면, 예측 모델의 파라미터들은 복수의 디스플레이 특성들을, 예를 들면, 타깃 조직학적 이미지들, 샘플 타깃 조직학적 이미지들, 조직학적 이미지들, 및 샘플 조직학적 이미지들과 연관시키기 위한 매핑 또는 전달 함수들을 표현할 수 있다.
이미지 프로세싱 디바이스(300)에서의 저장 유닛(350)은 의료 이미징 디바이스(100)에 의해 캡처된 샘플 조직학적 이미지들의 제1 데이터베이스 및/또는 적어도 하나의 미리 결정된 조직 염색의 적어도 하나의 이미지를 포함하는 샘플 타깃 조직학적 이미지들의 제2 데이터베이스를 저장하도록 구성된다. 예를 들면, 제2 데이터베이스는 H&E 염색의 샘플 조직학적 이미지들을 포함할 수 있다. 일 실시예에서, 저장 유닛(350)은 제1 오토인코더(310)에 의해 생성된 제1 비지도 학습 모델 및 제2 오토인코더(320)에 의해 생성된 제2 비지도 학습 모델을 포함할 수 있다. 비록 저장 유닛(350)이 본 실시예에서 이미지 프로세싱 디바이스(300)의 일부인 것으로 예시되어 있지만, 저장 유닛(350)은 이미지 프로세싱 디바이스(300)와 통신하도록 구성될 수 있는 외부 디바이스에 적어도 부분적으로 포함될 수 있다. 저장 유닛(350)은 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리, EEPROM(Electrically Erasable Programmable Read Only Memory) 등과 같은 임의의 적합한 저장 또는 메모리 디바이스를 사용하여 구현될 수 있다.
저장 유닛(350)은 샘플 조직학적 이미지들의 제1 데이터베이스 내의 미리 결정된 수(예컨대, 양의 정수 M)의 샘플 조직학적 이미지들 및 샘플 타깃 조직학적 이미지들의 제2 데이터베이스 내의 미리 결정된 수(예컨대, 양의 정수 N)의 샘플 타깃 조직학적 이미지들을 포함하는 매칭하는 이미지들의 골든 세트를 또한 저장할 수 있다. 제1 데이터베이스 내의 M개의 샘플 조직학적 이미지들의 하나 이상의 특징(예컨대, 해부학적 위치)은 제2 데이터베이스 내의 N개의 샘플 타깃 조직학적 이미지의 하나 이상의 특징(예컨대, 해부학적 위치)과 매칭하도록 연관되거나 정렬될 수 있다. 예를 들면, M개의 샘플 조직학적 이미지 각각에서의 복셀들 또는 픽셀들은 N개의 샘플 조직학적 이미지 각각에서의 그것들과 동일한 위치들을 갖는다.
이미지 프로세싱 디바이스(300)에서의 이미지 생성 유닛(360)은 제1 오토인코더(310)로부터 조직학적 이미지에 대한 타깃 영역을 수신하고, 타깃 영역의 가시성을 개선시키기 위해 조직학적 이미지를 수정하도록 구성된다. 일 실시예에 따르면, 이미지 생성 유닛(360)은 예측 모델에 기초하여 조직학적 이미지에서의 타깃 영역에 대응하는 적어도 하나의 타깃 조직학적 이미지를 식별할 수 있다. 이미지 생성 유닛(360)은 이어서 적어도 하나의 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성을 조직학적 이미지에 적용할 수 있다. 일 실시예에 따르면, 적어도 하나의 타깃 조직학적 이미지에서의 복수의 영역들 각각에 대한 하나 이상의 디스플레이 특성은 조직학적 이미지에서의 대응하는 영역들 각각에 적용될 수 있다. 이 경우에, 디스플레이 특성들은 적어도 하나의 타깃 조직학적 이미지와 연관된 이미지 스타일을 나타낼 수 있고, 예를 들어, 적어도 하나의 타깃 조직학적 이미지에서 유사한 특성들을 갖는 포인트들 또는 패치들의 컬러들, 형상들, 및/또는 선명도, 포인트들 또는 패치들의 배열, 분포 및/또는 밀도와 같은 하나 이상의 특징 또는 파라미터를 포함할 수 있다. 적어도 하나의 타깃 조직학적 이미지에 대한 디스플레이 특성들을 조직학적 이미지에 적용하는 것에 의해, 조직학적 이미지의 이미지 스타일이 적어도 하나의 타깃 조직학적 이미지의 이미지 스타일에 전달될 수 있다. 적용된 디스플레이 특성들을 포함하는 조직학적 이미지의 수정된 이미지가 생성되고, 수정된 이미지를 의사와 같은 사용자에게 디스플레이하기 위해 디스플레이 유닛에 제공될 수 있다.
도 4는 본 개시의 일 실시예에 따른, 제1 샘플 이미지 데이터베이스(410) 내의 샘플 조직학적 이미지들 및 조직학적 이미지(420)에 기초하여 제1 비지도 학습 모델(430)을 생성하도록 트레이닝되도록 구성된 제1 오토인코더(310)의 블록도를 나타내고 있다. 제1 오토인코더(310)는 구역 세그먼트화 유닛(440), 특징 추출 유닛(450), 조직 유형 결정 유닛(460), 타깃 영역 식별 유닛(470), 및 모델 생성 유닛(480)을 포함할 수 있다. 제1 샘플 이미지 데이터베이스(410)는 의료 이미징 디바이스(100)(예컨대, OCT 디바이스)에 의해 캡처된 샘플 조직학적 이미지들을 포함할 수 있다. 비록 조직학적 이미지(420)가 제1 오토인코더(310)에 입력되는 것으로 예시되어 있지만, 제1 오토인코더(310)를 트레이닝하기 위해 복수의 조직학적 이미지들이 제1 오토인코더(310)에 입력될 수 있음이 인식될 것이다.
제1 오토인코더(310)에서의 구역 세그먼트화 유닛(440)은 제1 샘플 이미지 데이터베이스(410)로부터 3차원 또는 2차원 샘플 조직학적 이미지들을 수신하고 샘플 조직학적 이미지들 각각에서의 하나 이상의 구역을 세그먼트화하도록 구성된다. 일 실시예에서, 구역 세그먼트화 유닛(440)은 샘플 조직학적 이미지에서의 복수의 패치들을 세그먼트화할 수 있다. 다른 실시예들에 따르면, 샘플 조직학적 이미지에서의 하나 이상의 구역은 밝기, 포인트들의 위치들 등과 같은 하나 이상의 유사한 특성을 갖는 하나 이상의 블로브(blobs)를 결정하는 것에 의해 세그먼트화될 수 있다. 샘플 조직학적 이미지에서의 블로브들이 결정되면, 구역 세그먼트화 유닛(440)은 패치 클러스터링 동작에서 블로브들을 클러스터링할 수 있다. 예를 들면, 미리 결정된 밝기 값 범위 내에 있는 밝기 값들을 갖고 근접하여 위치되는 복수의 블로브들이 블로브 클러스터에 클러스터링될 수 있다. 세그먼트화된 구역들은 제1 오토인코더(310)에서의 특징 추출 유닛(450)에 제공될 수 있다.
특징 추출 유닛(450)은 구역 세그먼트화 유닛(440)으로부터의 샘플 조직학적 이미지에서의 세그먼트화된 구역들로부터 하나 이상의 특징을 추출하도록 구성된다. 일 실시예에서, 특징 추출 유닛(450)은 패턴, 포인트들의 밀도, 포인트들의 분포 또는 공간 등과 같은 구역들을 특징짓는 특징들을 추출할 수 있다. 예를 들면, 특징들은 스케일-불변 특징 변환 기술, 템플릿 매칭 기술, 또는 이와 유사한 것과 같은 임의의 적합한 특징 추출 기술들을 사용하는 것에 의해 구역들로부터 추출될 수 있다. 이 경우에, 특징들은, 숫자들의 세트를 포함할 수 있는, 특징 벡터로서 표현될 수 있다. 추출된 특징들은 제1 오토인코더(310)에서의 조직 유형 결정 유닛(460)에 제공될 수 있다.
조직 유형 결정 유닛(460)은 특징 추출 유닛(450)으로부터 샘플 조직학적 이미지에 대한 하나 이상의 특징을 수신하고 샘플 조직학적 이미지에서의 적어도 하나의 후보 조직 유형을 결정하도록 구성된다. 이 프로세스에서, 조직 유형 결정 유닛(460)은 샘플 조직학적 이미지에 대한 특징들과 유사한 제1 비지도 학습 모델(430)에서의 하나 이상의 특징 또는 파라미터의 세트를 선택할 수 있다. 샘플 조직학적 이미지에서의 적어도 하나의 후보 조직 유형은 선택된 파라미터들 또는 특징들의 세트에 기초하여 결정될 수 있다. 예를 들면, 조직 유형들은 임의의 정상 세포들 또는 종양, 암 등과 같은 비정상 세포들을 특징지울 수 있는 임의의 조직 유형을 포함할 수 있다. 결정된 후보 조직 유형들 및 선택된 파라미터들 또는 특징들의 세트는 제1 오토인코더(310)에서의 타깃 영역 식별 유닛(470)에 제공될 수 있다.
타깃 영역 식별 유닛(470)은 조직 유형 결정 유닛(460)으로부터 샘플 조직학적 이미지에서의 후보 조직 유형들 및/또는 선택된 그룹의 파라미터들 또는 특징들을 수신하고, 선택된 파라미터들 또는 특징들의 세트에 기초하여 샘플 조직학적 이미지에서의 영역들로부터 후보 조직 유형에 대응하는 타깃 영역을 식별하도록 구성된다. 일 실시예에 따르면, 샘플 조직학적 이미지에서의 타깃 영역은 제1 비지도 학습 모델(430)의 선택된 파라미터들 또는 특징들의 세트에 의해 정의되는 결정된 후보 조직 유형들을 갖는 영역에 대응하는 타깃 영역을 검출하는 것에 의해 식별될 수 있다. 또한, 타깃 영역 식별 유닛(470)은 제1 비지도 학습 모델(430)에서의 선택된 파라미터들 또는 특징들의 세트에 기초하여 샘플 조직학적 이미지에서의 타깃 영역을 포함하는 복수의 영역들을 식별할 수 있다. 이 경우에, 선택된 파라미터들 또는 특징들의 세트는 샘플 조직학적 이미지에서의 타깃 영역 및 하나 이상의 주변 영역을 나타낼 수 있다. 샘플 조직학적 이미지에서의 타깃 영역을 포함하는 식별된 영역들에 대한 특징들은 모델 생성 유닛(480)에 제공될 수 있다.
모델 생성 유닛(480)은 샘플 조직학적 이미지에서의 식별된 영역들에 대한 특징들을 수신하고 제1 오토인코더(310)를 트레이닝하는 것에 의해 제1 비지도 학습 모델(430)을 생성하고, 트레이닝하며 그리고/또는 조정하도록 구성될 수 있다. 일 실시예에 따르면, 모델 생성 유닛(480)은 샘플 조직학적 이미지에서의 타깃 영역을 포함하는 식별된 영역들에 대한 특징들에 기초하여 샘플 조직학적 이미지에 대한 선택된 파라미터들 또는 특징들의 세트를 업데이트하거나 조정할 수 있다. 샘플 조직학적 이미지에 대한 파라미터들 또는 특징들의 세트가 선택되지 않은 경우, 샘플 조직학적 이미지로부터 추출된 특징들이 제1 비지도 학습 모델(430)에서 새로 분류된 그룹을 정의하는 데 사용될 수 있다. 비록 본 실시예에서 복수의 샘플 조직학적 이미지들이 제1 오토인코더(310)를 트레이닝하는 데 사용되는 것으로 예시되어 있지만, 의료 이미징 디바이스(100)에 의해 캡처된 복수의 조직학적 이미지들은 샘플 조직학적 이미지들과 유사한 방식으로 제1 오토인코더(310)를 트레이닝하는 데 사용될 수 있다. 비록 제1 오토인코더(310)가 개별 유닛들(440, 450, 460, 470, 및 480)인 것으로 예시되어 있지만, 제1 오토인코더(310)는 단일 유닛 또는 개별 유닛들(440, 450, 460, 470, 및/또는 480)의 임의의 조합으로서 구현될 수 있다. 또한, 비록 샘플 조직학적 이미지들이 시맨틱 세그먼트화를 수행하고 제1 오토인코더(310)를 트레이닝하는 데 사용되는 것으로 예시되어 있지만, 조직학적 이미지(420)는 샘플 조직학적 이미지들과 유사한 방식으로 시맨틱 세그먼트화를 수행하고 그리고/또는 제1 오토인코더(310)를 트레이닝하는 데 사용될 수 있다. 생성된 또는 업데이트된 제1 비지도 학습 모델(430)은, 도 6을 참조하여 설명될 바와 같이, 예측 모델(620)을 생성하는 데 사용될 수 있다.
도 5는 본 개시의 일 실시예에 따른, 제2 샘플 이미지 데이터베이스(510) 내의 샘플 조직학적 이미지들 및 입력 타깃 조직학적 이미지들(520)에 기초하여 제2 비지도 학습 모델(530)을 생성하도록 트레이닝되도록 구성된 제2 오토인코더(310)의 블록도를 예시하고 있다. 제2 오토인코더(310)는 구역 세그먼트화 유닛(540), 특징 추출 유닛(550), 조직 유형 결정 유닛(560), 타깃 영역 식별 유닛(570), 및 모델 생성 유닛(580)을 포함할 수 있다. 일 실시예에 따르면, 제2 샘플 이미지 데이터베이스(510)는 적어도 하나의 미리 결정된 조직 염색의 적어도 하나의 이미지(예컨대, H&E 염색의 이미지들)를 포함하는 샘플 타깃 조직학적 이미지들을 포함할 수 있다. 비록 타깃 조직학적 이미지(520)가 제2 오토인코더(320)에 입력되는 것으로 예시되어 있지만, 제2 오토인코더(310)를 트레이닝하기 위해 복수의 타깃 조직학적 이미지들이 제2 오토인코더(310)에 입력될 수 있음이 인식될 것이다.
제2 오토인코더(320)는 샘플 타깃 조직학적 이미지들 및 타깃 조직학적 이미지들에 시맨틱 세그먼트화를 수행하고 제2 비지도 학습 모델(530)을 생성하며, 트레이닝하고 그리고/또는 업데이트하도록 구성될 수 있다. 이를 위해, 제2 오토인코더(320)에서의 영역 세그먼트화 유닛(540), 특징 추출 유닛(550), 조직 유형 결정 유닛(560), 타깃 영역 식별 유닛(570), 및 모델 생성 유닛(580)은, 각각, 영역 세그먼트화 유닛(440), 특징 추출 유닛(450), 조직 유형 결정 유닛(460), 타깃 영역 식별 유닛(470), 및 모델 생성 유닛(480)과 유사한 기능들 또는 동작들을 수행할 수 있다. 생성된 또는 업데이트된 제2 비지도 학습 모델(530)은, 도 6을 참조하여 설명될 바와 같이, 예측 모델(620)을 생성하는 데 사용될 수 있다.
도 6은 본 개시의 일 실시예에 따른, 매칭하는 이미지들의 골든 세트(610)에 기초하여 제2 비지도 학습 모델(530)을 제1 비지도 학습 모델(430)과 연관시키는 것에 의해 예측 모델(620)을 생성하도록 구성된 이미지 프로세싱 디바이스(300)에서의 지도 연관 학습기(330)를 도시하고 있다. 일 실시예에서, 예측 모델은 딥 러닝 신경 네트워크 기반 구조를 나타낼 수 있다. 예측 모델은 네트워크의 토폴로지(예컨대, 계층들의 수 및 폭, 필터 사이즈들 등), 활성화 함수들 등 및 그 네트워크의 학습된 가중치들 및 바이어스들과 같은 모델 하이퍼파라미터들에 의해 정의될 수 있는 복수의 파라미터들을 포함할 수 있다. 예측 모델(620)에서의 파라미터들은 조직학적 이미지들 및 타깃 조직학적 이미지들 각각에 대한 하나 이상의 디스플레이 특성을 나타내는 하나 이상의 특징을 포함할 수 있다.
일 실시예에서, 예측 모델(620)은 조직학적 이미지들 각각에서의 제1 패치 세트 및 타깃 조직학적 이미지들 각각에서의 제2 패치 세트를 포함할 수 있고, 여기서 예측 모델에서 제1 패치 세트는 제2 패치 세트와 연관된다. 이미지 생성 유닛(360)은 적어도 하나의 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성을 적용하고 그리고/또는 식별된 적어도 하나의 타깃 조직학적 이미지에서의 제2 패치 세트에 기초하여 수신된 조직학적 이미지에서의 복수의 패치들을 수정하는 것에 의해 수정된 이미지(720)를 생성할 수 있다.
매칭하는 이미지들의 골든 세트(610)는 제1 샘플 이미지 데이터베이스(410) 내의 하나 이상의 샘플 조직학적 이미지 및 제2 샘플 이미지 데이터베이스(510) 내의 하나 이상의 샘플 타깃 조직학적 이미지를 포함할 수 있으며, 여기서 샘플 조직학적 이미지들은 샘플 타깃 조직학적 이미지들의 해부학적 위치들과 매칭하도록 정렬된다. 일 실시예에 따르면, 샘플 조직학적 이미지는 하나 이상의 샘플 타깃 조직학적 이미지 각각의 해부학적 위치와 동일한 해부학적 위치를 가질 수 있다. 이와 유사하게, 샘플 타깃 조직학적 이미지는 하나 이상의 샘플 조직학적 이미지 각각의 해부학적 위치와 동일한 해부학적 위치를 가질 수 있다.
지도 연관 학습기(330)는 매칭하는 이미지들의 골든 세트(610) 내의 샘플 타깃 조직학적 이미지로부터 추출되는 하나 이상의 디스플레이 특성을 나타내는 적어도 하나의 특징을 매칭하는 이미지들의 골든 세트(610) 내의 하나 이상의 샘플 조직학적 이미지와 연관시키도록 구성된다. 이 프로세스에서, 샘플 타깃 조직학적 이미지들로부터의 적어도 하나의 특징은 제2 비지도 학습 모델(530)에 포함될 수 있는 샘플 조직학적 이미지들 각각에서의 복수의 영역들에 상관될 수 있다. 이에 따라, 제2 비지도 학습 모델(530)에서의 샘플 타깃 조직학적 이미지(예컨대, H&E 염색의 이미지)로부터의 적어도 하나의 특징에 대응하는 기존의 또는 알려진 디스플레이 특성들이 제1 비지도 학습 모델(430)에서의 샘플 조직학적 이미지들(예컨대, M2TM 이미지들) 각각에서의 복수의 영역들로부터의 특징들에 전달될 수 있다. 예측 모델(620)은 이어서 샘플 타깃 조직학적 이미지(즉, H&E 염색의 이미지)로부터의 적어도 하나의 특징을 샘플 조직학적 이미지(예컨대, M2TM 이미지들)와 연관시키는 것에 의해 생성되거나 트레이닝될 수 있다. 예를 들면, 예측 모델은 제1 및 제2 비지도 학습 모델들에 대한 유사도 메트릭을 생성하도록 트레이닝될 수 있다.
지도 연관 학습기(330)는 예측 모델(620)을 트레이닝 및/또는 업데이트하기 위해 매칭하는 이미지들의 골든 세트(610)에서의 하나 이상의 샘플 타깃 조직학적 이미지 각각에 대해 하나 이상의 라벨을 사용하도록 구성된다. 라벨들은 샘플 타깃 조직학적 이미지에서의 하나 이상의 영역을 식별해주는 임의의 데이터 또는 정보(예컨대, 세포핵, 종양 등)를 나타낼 수 있다. 샘플 타깃 조직학적 이미지에서의 영역들에 대한 라벨들은 실험자 또는 사용자에 의해 입력될 수 있는 샘플 타깃 조직학적 이미지에 대한 데이터 또는 정보에 기초하여 결정될 수 있다. 지도 연관 학습기(330)는 예측 모델(620)을 트레이닝하기 위해 제2 샘플 이미지 데이터베이스(510)의 샘플 타깃 조직학적 이미지에 대한 라벨들을 대응하는 샘플 조직학적 이미지에 할당할 수 있다.
일 실시예에서, 제1 비지도 학습 모델(430), 제2 비지도 학습 모델(530), 및 예측 모델(620) 각각은 인공 신경 네트워크의 하나 이상의 모델 하이퍼파라미터 및/또는 하나 이상의 가중치에 의해 정의된 다층 모델을 포함할 수 있다.
도 7은 본 개시의 일 실시예에 따른, 예측 모델(620)에 기초하여 조직학적 이미지(710)의 수정된 이미지(720)를 생성하기 위해 사용되는 프로세서(305)에서의 이미지 생성 유닛(360) 및 제1 오토인코더(310)의 블록도를 나타내고 있다. 프로세서(305)는 임의의 의료 이미징 디바이스(예컨대, 의료 이미징 디바이스(100))에 의해 캡처될 수 있는 조직학적 이미지(710)를 수신하고, 조직학적 이미지(710)의 가시성을 개선시키기 위해 조직학적 이미지(710)의 수정된 이미지(720)를 생성할 수 있다. 이 프로세스에서, 프로세서(305)는 조직학적 이미지(710)를 수정하기 위해 예측 모델(620)에 액세스할 수 있다.
프로세서(305)에서의 제1 오토인코더(310)는 수신된 조직학적 이미지에 시맨틱 세그먼트화를 수행할 수 있다. 일 실시예에 따르면, 제1 오토인코더(310)는 조직학적 이미지에서 세그먼트화를 수행하고 조직학적 이미지로부터 하나 이상의 특징을 추출할 수 있다. 특징들에 기초하여, 제1 오토인코더(310)는 조직학적 이미지를 추출된 특징들과 유사한 특징들 또는 파라미터들을 갖는 그룹으로 분류할 수 있다. 그룹의 특징들 또는 파라미터들에 기초하여, 조직학적 이미지에서의 후보 조직 유형이 결정될 수 있고, 후보 조직 유형에 대응하는 타깃 영역이 식별될 수 있다. 이 프로세스에서, 타깃 영역을 포함하는 복수의 영역들은 추출된 특징들을 그룹의 선택된 특징들 또는 파라미터들과 비교하는 것에 의해 식별될 수 있다. 타깃 영역을 포함하는 식별된 영역들은 이어서 프로세서(305)에서의 이미지 생성 유닛(360)에 제공될 수 있다.
이미지 생성 유닛(360)은 조직학적 이미지에서의 식별된 영역들을 수신하고 예측 모델(620)에 기초하여 수정된 이미지(720)를 생성하도록 구성될 수 있다. 일 실시예에 따르면, 이미지 생성 유닛(360)은 예측 모델(620)에서 타깃 영역에 대한 특징들에 대응하는 적어도 하나의 타깃 조직학적 이미지에 대한 하나 이상의 디스플레이 특성을 나타내는 특징을 식별하도록 구성될 수 있다. 예를 들면, 이미지 생성 유닛(360)은 식별된 영역들의 특징들과 유사한 하나 이상의 조직학적 이미지에 대한 그룹의 특징들을 검출하고 조직학적 이미지들에 대한 그룹에 상관되는 적어도 하나의 타깃 조직학적 이미지에 대한 그룹의 특징들을 식별할 수 있다. 적어도 하나의 타깃 조직학적 이미지에 대한 그룹의 특징들과 연관된 하나 이상의 디스플레이 특성이 조직학적 이미지(710)의 식별된 영역들 각각에 적용될 수 있다. 예를 들면, 하나 이상의 디스플레이 특성은 적어도 하나의 타깃 조직학적 이미지에 대한 그룹에서의 패치들(예컨대, n x n 픽셀들, 여기서 n은 양의 정수임) 등의 컬러들, 형상, 배열, 분포, 밀도, 선명도와 같은 복수의 특징들과 연관된다. 일 실시예에 따르면, 이미지 프로세싱 디바이스는 적어도 하나의 타깃 조직학적 이미지에 대한 그룹의 하나 이상의 디스플레이 특성에 기초하여 조직학적 이미지(710)의 하나 이상의 디스플레이 특성을 변경할 수 있다. 이 프로세스에서, 조직학적 이미지(710)를 적어도 하나의 타깃 조직학적 이미지에 대한 그룹의 스타일로 변경하기 위해 임의의 적합한 스타일 전달 기술들이 채택될 수 있다. 일 실시예에 따르면, 이미지 생성 유닛(360)은 적어도 하나의 타깃 조직학적 이미지의 그룹과 연관된 특징들에 기초하여 조직학적 이미지(710)에서 조직학적 이미지(710)의 식별된 영역들을 수정하는 것에 의해 수정된 이미지(720)를 생성할 수 있다. 수정된 이미지(720)는 이어서 수정된 이미지(720)로부터 식별될 수 있는 질병 또는 질환을 진단하기 위해 디스플레이 유닛(예컨대, 디스플레이 디바이스(110)) 상에 디스플레이될 수 있다.
일 실시예에서, 이미지 생성 유닛(360)은, CycleGAN 기술에 의해 구현될 수 있는, 사이클 일관성있는 적대 네트워크들(cycle-consistent adversarial networks)과 같은 하나 이상의 알려진 생성적 네트워크(generative networks)를 사용하여 조직학적 이미지(710)의 수정된 이미지(720)를 생성할 수 있다. 이 경우에, 예측 모델(620)은 사이클 일관성있는 적대 네트워크들에 의해 트레이닝될 수 있다. 이 프로세스에서, 제1 매핑 함수 G와 제1 적대 판별기(adversarial discriminator) Dx는 하나 이상의 샘플 타깃 조직학적 이미지에 기초하여 하나 이상의 샘플 조직학적 이미지를 변환(translate) 및/또는 수정하는 데 사용될 수 있는 반면, 제2 매핑 함수 F와 제2 적대 판별기 Dy는 샘플 조직학적 이미지들에 기초하여 샘플 타깃 조직학적 이미지들을 변환 및/또는 수정하는 데 사용될 수 있다. 그러한 매핑들을 조절하기 위해, 샘플 조직학적 이미지들이 제1 매핑 함수 및 제1 적대 판별기를 사용하여 샘플 타깃 조직학적 이미지들로 변환될 때 제1 사이클 일관성 손실(cycle consistency loss)이 결정될 수 있다. 이와 유사하게, 샘플 타깃 조직학적 이미지들이 제2 매핑 함수 및 제2 적대 판별기를 사용하여 샘플 조직학적 이미지들로 변환될 때 제2 사이클 일관성 손실이 결정될 수 있다. 샘플 조직학적 이미지들 및 샘플 타깃 조직학적 이미지들에 대한 예측 모델은 제1 및 제2 매핑 함수들, 제1 및 제2 적대 판별기들, 및/또는 제1 및 제2 사이클 일관성 손실들에 기초하여 생성될 수 있다. CycleGAN 기술에 의해 생성된 예측 모델에 기초하여, 조직학적 이미지(710)(예컨대, M2TM 이미지)는 이미지(720)(예컨대, H&E 염색의 이미지)로 수정될 수 있다.
도 8은 본 개시의 일 실시예에 따른, 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지를 수신하고, 예를 들어, 제1 오토인코더(예컨대, 제1 오토인코더(310)) 및 예측 모델(예컨대, 예측 모델(620))을 사용하여 조직학적 이미지의 수정된 이미지를 생성하기 위한 방법(800)의 플로우차트를 나타내고 있다. 방법(800)은 컴퓨터, 프로세서, 의료 디바이스, 이미지 프로세싱 디바이스, 또는 의료 디바이스의 일부인 모듈에 의해 수행될 수 있다. 일 실시예에서, 비일시적 컴퓨터 판독가능 저장 매체는 하나 이상의 조직학적 이미지를 프로세싱하기 위한 명령어들을 포함할 수 있으며, 이 명령어들은 컴퓨터의 프로세서로 하여금 방법(800)을 수행하게 한다. 처음에, 이미지 프로세싱 디바이스(예컨대, 이미지 프로세싱 디바이스(300))는, 810에서, 적어도 하나의 조직 유형을 포함하는 조직학적 이미지를 수신할 수 있다. 820에서, 이미지 프로세싱 디바이스에서의 제1 오토인코더는 수신된 조직학적 이미지에서의 후보 조직 유형을 결정할 수 있다. 830에서, 제1 오토인코더는 조직학적 이미지에서의 후보 조직 유형에 대응하는 타깃 영역을 식별할 수 있다.
840에서, 모델 생성 유닛(예컨대, 모델 생성 유닛(480))은 예측 모델에 기초하여 조직학적 이미지에서의 타깃 영역에 대응하는 적어도 하나의 타깃 조직학적 이미지를 식별할 수 있다. 예측 모델은 비지도 딥 러닝 기술 및 지도 딥 러닝 기술의 임의의 적합한 조합에 기초하여 생성될 수 있다. 850에서, 이미지 생성 유닛(예컨대, 이미지 생성 유닛(360))은 조직학적 이미지를 수정하기 위해, 식별된 적어도 하나의 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성을 조직학적 이미지에 적용할 수 있다. 수정된 이미지는 타깃 영역의 가시성을 개선시킬 수 있다.
도 9는 본 개시의 일 실시예에 따른, 제1 및 제2 비지도 학습 모델들을 생성하기 위해 제1 및 제2 오토인코더들(예컨대, 제1 및 제2 오토인코더들(310 및 320))을 트레이닝하고 매칭하는 이미지들의 골든 세트에 기초하여 제2 비지도 학습 모델을 제1 비지도 학습 모델과 연관시키는 것에 의해 예측 모델(예컨대, 예측 모델(620))을 생성하기 위한 방법(900)의 플로우차트이다. 방법(900)은 컴퓨터, 프로세서, 의료 디바이스, 이미지 프로세싱 디바이스, 또는 의료 디바이스의 일부인 모듈에 의해 수행될 수 있다. 일 실시예에서, 비일시적 컴퓨터 판독가능 저장 매체는 하나 이상의 조직학적 이미지를 프로세싱하기 위한 명령어들을 포함할 수 있으며, 이 명령어들은 컴퓨터의 프로세서로 하여금 방법(900)을 수행하게 한다. 처음에, 프로세서(예컨대, 프로세서(305))는, 910에서, 제1 비지도 학습 모델을 생성하기 위해 제1 샘플 조직학적 이미지 세트에 기초하여 제1 오토인코더(예컨대, 제1 오토인코더(310))를 트레이닝할 수 있다. 920에서, 프로세서는 제2 비지도 학습 모델을 생성하기 위해 제2 샘플 타깃 조직학적 이미지 세트에 기초하여 제2 오토인코더(예컨대, 제2 오토인코더(320))를 트레이닝할 수 있다. 지도 연관 학습기(예컨대, 지도 연관 학습기(330))는, 930에서, 매칭하는 이미지들의 골든 세트에 기초하여 제1 비지도 학습 모델을 제2 비지도 학습 모델과 연관시킬 수 있다. 940에서, 예측 모델(620)은 의료 이미징 디바이스(예컨대, 의료 이미징 디바이스(100))에 의해 캡처된 입력 조직학적 이미지를 프로세싱하기 위해 생성 및/또는 트레이닝되고 사용될 수 있다.
본 개시의 사상 또는 범위를 벗어남이 없이 본 개시에 다양한 수정들 및 변형이 행해질 수 있다는 것이 본 기술분야의 통상의 기술자에게는 명백할 것이다. 따라서, 본 개시의 수정들 및 변형들이 첨부된 청구항들 및 그 등가물들의 범위 내에 있기만 한다면, 본 개시가 그러한 수정들 및 변형들을 커버하는 것으로 의도된다.

Claims (20)

  1. 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지를 프로세싱하기 위해, 컴퓨터에 의해 수행되는 방법으로서,
    적어도 하나의 조직 유형을 포함하는 상기 조직학적 이미지를 수신하는 단계;
    제1 오토인코더에 의해, 상기 조직학적 이미지에서 후보 조직 유형을 결정하는 단계;
    상기 제1 오토인코더에 의해, 상기 조직학적 이미지에서 상기 후보 조직 유형에 대응하는 타깃 영역을 식별하는 단계;
    하나 이상의 샘플 조직학적 이미지를 하나 이상의 샘플 타깃 조직학적 이미지와 연관시키는 예측 모델에 기초하여, 상기 조직학적 이미지에서 상기 타깃 영역에 대응하는 적어도 하나의 타깃 조직학적 이미지를 식별하는 단계;
    상기 식별된 적어도 하나의 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성을 상기 조직학적 이미지에 적용하는 단계; 및
    상기 적용된 하나 이상의 디스플레이 특성을 포함하는 상기 조직학적 이미지의 수정된 이미지를 생성하는 단계;
    를 포함하고,
    제1 샘플 조직학적 이미지 세트에 기초하여 상기 제1 오토 인코더를 트레이닝하는 것에 의해 제1 비지도 학습 모델이 생성되고,
    제2 샘플 타깃 조직학적 이미지 세트를 기초하여 제2 오토 인코더를 트레이닝하는 것에 의해 제2 비지도 학습 모델이 생성되고,
    상기 예측 모델은 상기 제1 비지도 학습 모델 및 상기 제2 비지도 학습 모델에 기초하여 생성되고,
    상기 제1 샘플 조직학적 이미지 세트에서의 M개의 샘플 조직학적 이미지의 하나 이상의 해부학적 위치는 상기 제2 샘플 타깃 조직학적 이미지 세트에서의 N개의 샘플 타깃 조직학적 이미지의 하나 이상의 해부학적 위치와 매칭하도록 정렬되며 - M 및 N은 양의 정수들임 -,
    상기 예측 모델은 하나 이상의 디스플레이 특성을 나타내는 하나 이상의 특징에 관한 데이터를 포함하고, 상기 N개의 샘플 타깃 조직학적 이미지로부터의 하나 이상의 특징을 상기 M개의 샘플 조직학적 이미지로부터의 하나 이상의 특징과 연관시키는 것에 의해 트레이닝되는, 방법.
  2. 삭제
  3. 제1항에 있어서, 상기 예측 모델은 상기 샘플 조직학적 이미지 각각에서의 제1 패치 세트 및 상기 샘플 타깃 조직학적 이미지 각각에서의 제2 패치 세트를 포함하며,
    상기 예측 모델에서 상기 제1 패치 세트는 상기 제2 패치 세트와 연관되며,
    상기 하나 이상의 디스플레이 특성을 적용하는 단계는 상기 식별된 적어도 하나의 타깃 조직학적 이미지에서의 상기 제2 패치 세트에 기초하여 상기 수신된 조직학적 이미지에서의 복수의 패치들을 수정하는 단계를 포함하는 방법.
  4. 제1항에 있어서, 상기 후보 조직 유형에 대응하는 상기 타깃 영역을 식별하는 단계는 상기 조직학적 이미지에서 상기 타깃 영역을 포함하는 복수의 영역들을 식별하는 단계를 포함하고,
    상기 예측 모델은 상기 샘플 조직학적 이미지 각각에서의 제1 영역 세트 및 상기 샘플 타깃 조직학적 이미지 각각에서의 제2 영역 세트를 포함하며,
    상기 예측 모델에서 상기 제1 영역 세트는 상기 제2 영역 세트와 연관되고,
    상기 하나 이상의 디스플레이 특성을 적용하는 단계는 상기 식별된 적어도 하나의 타깃 조직학적 이미지에서의 상기 제2 영역 세트에 기초하여 상기 수신된 조직학적 이미지에서의 상기 복수의 영역들을 수정하는 단계를 포함하는 방법.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 제1항에 있어서, 상기 제1 비지도 학습 모델은 상기 조직학적 이미지에서의 상기 타깃 영역과 연관된 하나 이상의 특징에 기초하여 트레이닝되는, 방법.
  10. 삭제
  11. 제1항에 있어서, 상기 제1 비지도 학습 모델, 상기 제2 비지도 학습 모델, 및 상기 예측 모델 각각은 인공 신경 네트워크의 하나 이상의 모델 하이퍼파라미터(model hyperparameters) 및 하나 이상의 가중치에 의해 정의된 다층 모델(multilayer model)을 포함하는 방법.
  12. 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지를 프로세싱하기 위한 이미지 프로세싱 디바이스로서,
    적어도 하나의 조직 유형을 포함하는 상기 조직학적 이미지를 수신하고, 상기 조직학적 이미지에서 후보 조직 유형을 결정하며, 상기 조직학적 이미지에서 상기 후보 조직 유형에 대응하는 타깃 영역을 식별하도록 구성된 제1 오토인코더; 및
    하나 이상의 샘플 조직학적 이미지를 하나 이상의 샘플 타깃 조직학적 이미지와 연관시키는 예측 모델에 기초하여 상기 조직학적 이미지에서 상기 타깃 영역에 대응하는 적어도 하나의 타깃 조직학적 이미지를 식별하고, 상기 식별된 적어도 하나의 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성을 상기 조직학적 이미지에 적용하고, 상기 적용된 하나 이상의 디스플레이 특성을 포함하는 상기 조직학적 이미지의 수정된 이미지를 생성하도록 구성된 이미지 생성 유닛
    을 포함하고,
    제1 샘플 조직학적 이미지 세트에 기초하여 상기 제1 오토 인코더를 트레이닝하는 것에 의해 제1 비지도 학습 모델이 생성되고,
    제2 샘플 타깃 조직학적 이미지 세트를 기초하여 제2 오토 인코더를 트레이닝하는 것에 의해 제2 비지도 학습 모델이 생성되고,
    상기 예측 모델은 상기 제1 비지도 학습 모델 및 상기 제2 비지도 학습 모델에 기초하여 생성되고,
    상기 제1 샘플 조직학적 이미지 세트에서의 M개의 샘플 조직학적 이미지의 하나 이상의 해부학적 위치는 상기 제2 샘플 타깃 조직학적 이미지 세트에서의 N개의 샘플 타깃 조직학적 이미지의 하나 이상의 해부학적 위치와 매칭하도록 정렬되며 - M 및 N은 양의 정수들임 -,
    상기 예측 모델은 하나 이상의 디스플레이 특성을 나타내는 하나 이상의 특징에 관한 데이터를 포함하고, 상기 N개의 샘플 타깃 조직학적 이미지로부터의 하나 이상의 특징을 상기 M개의 샘플 조직학적 이미지로부터의 하나 이상의 특징과 연관시키는 것에 의해 트레이닝되는, 이미지 프로세싱 디바이스.
  13. 삭제
  14. 제12항에 있어서, 상기 제1 오토인코더는 상기 조직학적 이미지에서 상기 타깃 영역을 포함하는 복수의 영역들을 식별하도록 더 구성되고,
    상기 예측 모델은 상기 샘플 조직학적 이미지 각각에서의 제1 영역 세트 및 상기 샘플 타깃 조직학적 이미지 각각에서의 제2 영역 세트를 포함하며,
    상기 예측 모델에서 상기 제1 영역 세트는 상기 제2 영역 세트와 연관되고,
    상기 이미지 생성 유닛은 상기 식별된 적어도 하나의 타깃 조직학적 이미지에서의 상기 제2 영역 세트에 기초하여 상기 수신된 조직학적 이미지에서의 상기 복수의 영역들을 수정하도록 더 구성되는, 이미지 프로세싱 디바이스.
  15. 삭제
  16. 삭제
  17. 삭제
  18. 조직학적 이미지를 프로세싱하기 위한 명령어들을 포함하는 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 명령어들은 컴퓨터의 프로세서로 하여금 동작들을 수행하게 하며, 상기 동작들은:
    적어도 하나의 조직 유형을 포함하는 상기 조직학적 이미지를 수신하는 동작;
    상기 조직학적 이미지에서 후보 조직 유형을 결정하는 동작;
    상기 조직학적 이미지에서 상기 후보 조직 유형에 대응하는 타깃 영역을 식별하는 동작;
    하나 이상의 샘플 조직학적 이미지를 하나 이상의 샘플 타깃 조직학적 이미지와 연관시키는 예측 모델에 기초하여, 상기 조직학적 이미지에서 상기 타깃 영역에 대응하는 적어도 하나의 타깃 조직학적 이미지를 식별하는 동작;
    상기 식별된 적어도 하나의 타깃 조직학적 이미지와 연관된 하나 이상의 디스플레이 특성을 상기 조직학적 이미지에 적용하는 동작; 및
    상기 적용된 하나 이상의 디스플레이 특성을 포함하는 상기 조직학적 이미지의 수정된 이미지를 생성하는 동작;
    을 포함하고,
    제1 샘플 조직학적 이미지 세트에 기초하여 제1 오토 인코더를 트레이닝하는 것에 의해 제1 비지도 학습 모델이 생성되고,
    제2 샘플 타깃 조직학적 이미지 세트를 기초하여 제2 오토 인코더를 트레이닝하는 것에 의해 제2 비지도 학습 모델이 생성되고,
    상기 예측 모델은 상기 제1 비지도 학습 모델 및 상기 제2 비지도 학습 모델에 기초하여 생성되고,
    상기 제1 샘플 조직학적 이미지 세트에서의 M개의 샘플 조직학적 이미지의 하나 이상의 해부학적 위치는 상기 제2 샘플 타깃 조직학적 이미지 세트에서의 N개의 샘플 타깃 조직학적 이미지의 하나 이상의 해부학적 위치와 매칭하도록 정렬되며 - M 및 N은 양의 정수들임 -,
    상기 예측 모델은 하나 이상의 디스플레이 특성을 나타내는 하나 이상의 특징에 관한 데이터를 포함하고, 상기 N개의 샘플 타깃 조직학적 이미지로부터의 하나 이상의 특징을 상기 M개의 샘플 조직학적 이미지로부터의 하나 이상의 특징과 연관시키는 것에 의해 트레이닝되는, 저장 매체.
  19. 제18항에 있어서, 상기 후보 조직 유형에 대응하는 상기 타깃 영역을 식별하는 동작은 상기 조직학적 이미지에서 상기 타깃 영역을 포함하는 복수의 영역들을 식별하는 동작을 포함하고,
    상기 예측 모델은 상기 샘플 조직학적 이미지 각각에서의 제1 영역 세트 및 상기 샘플 타깃 조직학적 이미지 각각에서의 제2 영역 세트를 포함하며,
    상기 예측 모델에서 상기 제1 영역 세트는 상기 제2 영역 세트와 연관되고,
    상기 하나 이상의 디스플레이 특성을 적용하는 동작은 상기 식별된 적어도 하나의 타깃 조직학적 이미지에서의 상기 제2 영역 세트에 기초하여 상기 수신된 조직학적 이미지에서의 상기 복수의 영역들을 수정하는 동작을 포함하는 저장 매체.
  20. 삭제
KR1020197027374A 2017-02-21 2018-02-21 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지를 프로세싱하기 위한 방법 및 장치 KR102622542B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762461490P 2017-02-21 2017-02-21
US62/461,490 2017-02-21
US201762563751P 2017-09-27 2017-09-27
US62/563,751 2017-09-27
PCT/KR2018/002118 WO2018155898A1 (en) 2017-02-21 2018-02-21 Method and apparatus for processing histological image captured by medical imaging device

Publications (2)

Publication Number Publication Date
KR20190112170A KR20190112170A (ko) 2019-10-02
KR102622542B1 true KR102622542B1 (ko) 2024-01-10

Family

ID=63252850

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197027374A KR102622542B1 (ko) 2017-02-21 2018-02-21 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지를 프로세싱하기 위한 방법 및 장치

Country Status (6)

Country Link
US (1) US11984217B2 (ko)
EP (1) EP3586306A4 (ko)
JP (1) JP7226895B2 (ko)
KR (1) KR102622542B1 (ko)
CN (1) CN110326024B (ko)
WO (1) WO2018155898A1 (ko)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117456023A (zh) * 2018-03-07 2024-01-26 威里利生命科学有限责任公司 对组织切片图像的虚拟染色
JP7181001B2 (ja) * 2018-05-24 2022-11-30 日本電子株式会社 生物組織画像処理システム及び機械学習方法
JP6981940B2 (ja) * 2018-08-29 2021-12-17 富士フイルム株式会社 画像診断支援装置、方法及びプログラム
US20220058839A1 (en) * 2018-12-31 2022-02-24 Oregon Health & Science University Translation of images of stained biological material
CN113498323A (zh) * 2019-02-26 2021-10-12 富士胶片株式会社 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及程序
EP3953863A4 (en) * 2019-04-10 2023-01-11 The Board of Trustees of the Leland Stanford Junior University HIGH RESOLUTION 3D IMAGING ALIGNMENT WITH 2D IMAGING
US10996306B2 (en) * 2019-04-25 2021-05-04 General Electric Company MRI system and method using neural network for detection of patient motion
JP2021029258A (ja) * 2019-08-13 2021-03-01 ソニー株式会社 手術支援システム、手術支援方法、情報処理装置、及び情報処理プログラム
US11633145B2 (en) * 2019-10-21 2023-04-25 The Trustees Of Dartmouth College Specimen imaging with x-ray and optical measurement
US10733325B1 (en) 2019-11-15 2020-08-04 Capital One Services, Llc Securing user-entered text in-transit
KR102306658B1 (ko) * 2019-12-24 2021-09-30 아주대학교산학협력단 이종 도메인 데이터 간의 변환을 수행하는 gan의 학습 방법 및 장치
US11508169B2 (en) * 2020-01-08 2022-11-22 Palo Alto Research Center Incorporated System and method for synthetic image generation with localized editing
CN113378118B (zh) * 2020-03-10 2023-08-22 百度在线网络技术(北京)有限公司 处理图像数据的方法、装置、电子设备和计算机存储介质
WO2021186592A1 (ja) * 2020-03-17 2021-09-23 株式会社村田製作所 診断支援装置及びモデル生成装置
KR102447341B1 (ko) * 2020-04-10 2022-09-26 주식회사 뷰웍스 유방 촬영 장치 및 방법
JPWO2021206076A1 (ko) * 2020-04-10 2021-10-14
CN111539883B (zh) * 2020-04-20 2023-04-14 福建帝视信息科技有限公司 基于强可逆对抗网络的数字病理图像h&e染色复原方法
US11449994B2 (en) * 2020-06-02 2022-09-20 Memorial Sloan Kettering Cancer Center Machine learning model for analyzing pathology data from metastatic sites
KR102261475B1 (ko) * 2020-06-05 2021-06-07 주식회사 딥바이오 중증도 판단용 뉴럴 네트워크 학습 방법 및 시스템
KR102196874B1 (ko) * 2020-08-07 2020-12-31 주식회사 환경과학기술 위성 이미지 생성 학습 장치, 위성 이미지 생성 학습 방법, 위성 이미지 생성 장치 및 위성 이미지 생성 방법
CN112908451B (zh) * 2021-04-16 2023-12-26 千乘镜像(北京)科技有限公司 图像处理方法、装置和存储介质
CN113781366B (zh) * 2021-11-03 2023-06-23 四川大学 一种基于深度学习的眼部oct图像清晰化方法
WO2023092081A1 (en) * 2021-11-19 2023-05-25 Verily Life Sciences Llc Segmentation generation for image-related functions
US20230301510A1 (en) * 2022-03-24 2023-09-28 Worcester Polytechnic Institute Robotic-assisted optical coherence tomography (oct)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011104016A (ja) * 2009-11-13 2011-06-02 Olympus Corp 画像処理装置、電子機器、内視鏡システム及びプログラム
US20130317369A1 (en) 2012-03-19 2013-11-28 Genetic Innovations, Inc. Devices, systems, and methods for virtual staining
WO2016092394A1 (en) * 2014-12-10 2016-06-16 Koninklijke Philips N.V. Systems and methods for translation of medical imaging using machine learning

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7545965B2 (en) 2003-11-10 2009-06-09 The University Of Chicago Image modification and detection using massive training artificial neural networks (MTANN)
WO2009058915A1 (en) * 2007-10-29 2009-05-07 The Trustees Of The University Of Pennsylvania Computer assisted diagnosis (cad) of cancer using multi-functional, multi-modal in-vivo magnetic resonance spectroscopy (mrs) and imaging (mri)
US8488863B2 (en) 2008-11-06 2013-07-16 Los Alamos National Security, Llc Combinational pixel-by-pixel and object-level classifying, segmenting, and agglomerating in performing quantitative image analysis that distinguishes between healthy non-cancerous and cancerous cell nuclei and delineates nuclear, cytoplasm, and stromal material objects from stained biological tissue materials
US9025850B2 (en) * 2010-06-25 2015-05-05 Cireca Theranostics, Llc Method for analyzing biological specimens by spectral imaging
ES2711196T3 (es) * 2010-07-30 2019-04-30 Fund D Anna Sommer Champalimaud E Dr Carlos Montez Champalimaud Sistemas y procedimientos para la segmentación y el procesamiento de imágenes de tejidos y extracción de características de estos para tratar, diagnosticar o predecir afecciones médicas
WO2012123718A1 (en) 2011-03-14 2012-09-20 The University Of Warwick Histology analysis
US8948522B2 (en) * 2011-08-04 2015-02-03 Seiko Epson Corporation Adaptive threshold for object detection
US9317781B2 (en) * 2013-03-14 2016-04-19 Microsoft Technology Licensing, Llc Multiple cluster instance learning for image classification
US9786050B2 (en) * 2013-03-15 2017-10-10 The Board Of Trustees Of The University Of Illinois Stain-free histopathology by chemical imaging
US9668699B2 (en) * 2013-10-17 2017-06-06 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
US20150269314A1 (en) * 2014-03-20 2015-09-24 Rudjer Boskovic Institute Method and apparatus for unsupervised segmentation of microscopic color image of unstained specimen and digital staining of segmented histological structures
US10283221B2 (en) * 2016-10-27 2019-05-07 International Business Machines Corporation Risk assessment based on patient similarity determined using image analysis

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011104016A (ja) * 2009-11-13 2011-06-02 Olympus Corp 画像処理装置、電子機器、内視鏡システム及びプログラム
US20130317369A1 (en) 2012-03-19 2013-11-28 Genetic Innovations, Inc. Devices, systems, and methods for virtual staining
WO2016092394A1 (en) * 2014-12-10 2016-06-16 Koninklijke Philips N.V. Systems and methods for translation of medical imaging using machine learning

Also Published As

Publication number Publication date
CN110326024A (zh) 2019-10-11
KR20190112170A (ko) 2019-10-02
WO2018155898A1 (en) 2018-08-30
JP7226895B2 (ja) 2023-02-21
US20200035350A1 (en) 2020-01-30
JP2020508536A (ja) 2020-03-19
EP3586306A1 (en) 2020-01-01
US11984217B2 (en) 2024-05-14
CN110326024B (zh) 2023-11-03
EP3586306A4 (en) 2020-12-30

Similar Documents

Publication Publication Date Title
KR102622542B1 (ko) 의료 이미징 디바이스에 의해 캡처된 조직학적 이미지를 프로세싱하기 위한 방법 및 장치
JP4310099B2 (ja) 肺疾患検出のための方法及びシステム
CN109523522B (zh) 内窥镜图像的处理方法、装置、系统及存储介质
CN107624192B (zh) 通过内窥镜组织分化的外科引导和术中病理的系统和方法
CN110473186B (zh) 一种基于医学图像的检测方法、模型训练的方法及装置
CN110458883A (zh) 一种医疗影像的处理系统、方法、装置和设备
US11935215B2 (en) System and method for the visualization and characterization of objects in images
CN114129240B (zh) 一种引导信息生成方法、系统、装置及电子设备
Sinha et al. Medical image processing
BR112020023281A2 (pt) classificação de tecido biológico por computador
CN109493325A (zh) 基于ct影像的肿瘤异质性分析系统
Du et al. Identification of COPD from multi-view snapshots of 3D lung airway tree via deep CNN
CN112699869A (zh) 基于深度学习的肋骨骨折辅助检测方法及图像识别方法
CN114332132A (zh) 图像分割方法、装置和计算机设备
JP2006346094A (ja) 検出情報の出力方法及び医用画像処理システム
US20220092786A1 (en) Method and arrangement for automatically localizing organ segments in a three-dimensional image
US20210125334A1 (en) System and Method for Analyzing Three-Dimensional Image Data
CN113539476A (zh) 基于人工智能的胃内窥活检拉曼图像辅助诊断方法和系统
CN112750519A (zh) 医学图像数据的匿名化
Cao et al. Deep learning based lesion detection for mammograms
ALOUPOGIANNI et al. Binary malignancy classification of skin tissue using reflectance and texture features from macropathology multi-spectral images
CN111862014A (zh) 一种基于左右侧脑室分割的alvi自动测量方法及装置
CN115132357B (zh) 基于医学影像图预测目标疾病指标状态的装置
TWI778759B (zh) 醫療影像處理方法和設備、及其電腦儲存介質和電腦程式產品
CN116344001B (zh) 一种基于人工智能的医疗信息可视化管理系统及方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right