KR20230103394A - Slide imaging device including focus restoration function and method therefor - Google Patents

Slide imaging device including focus restoration function and method therefor Download PDF

Info

Publication number
KR20230103394A
KR20230103394A KR1020210194268A KR20210194268A KR20230103394A KR 20230103394 A KR20230103394 A KR 20230103394A KR 1020210194268 A KR1020210194268 A KR 1020210194268A KR 20210194268 A KR20210194268 A KR 20210194268A KR 20230103394 A KR20230103394 A KR 20230103394A
Authority
KR
South Korea
Prior art keywords
slide
focus
image
photographing
network
Prior art date
Application number
KR1020210194268A
Other languages
Korean (ko)
Inventor
박안진
김정호
최장훈
Original Assignee
한국광기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국광기술원 filed Critical 한국광기술원
Priority to KR1020210194268A priority Critical patent/KR20230103394A/en
Priority to CN202210465518.7A priority patent/CN116413900A/en
Publication of KR20230103394A publication Critical patent/KR20230103394A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/34Microscope slides, e.g. mounting specimens on microscope slides
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/361Optical details, e.g. image relay to the camera or image sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

The present invention provides a slide imaging device including a focus restoration function and a method therefor. The slide imaging method comprises the steps of: moving an XY stage to an initial position; photographing a slide or sample; restoring an out-of-focus area of the photographed image using a focus restoration network; moving the XY stage to a next position and determining whether slide photographing ends; returning to the step of photographing the slide or sample if the slide photographing has not ended; and matching the images to generate an entire slide image when the slide photographing is completed. Thus, the present invention can resolve problems related to out-of-focus images without Z-axis scanning to reduce scan time and storage space.

Description

초점 복원 기능을 포함하는 슬라이드 이미징 장치 및 그 방법{Slide imaging device including focus restoration function and method therefor}Slide imaging device including focus restoration function and method therefor

본 발명은 스캔 시간과 저장공간을 줄이기 위해 Z축 스캔없이 아웃-포커스 이미지를 해결하는 방법에 관한 것이다.The present invention relates to a method for resolving an out-of-focus image without Z-axis scanning in order to reduce scan time and storage space.

병리학(pathology)은 특정 부위의 세포 또는 조직을 검사하여 병의 원인을 밝히는 분야이며, 일반적으로 채취한 세포 또는 조직을 병리 슬라이드에 도포한 후 광학 현미경으로 병리 슬라이드를 정밀 검사하여 병의 원인을 밝힌다. Pathology is a field that identifies the cause of a disease by examining cells or tissues in a specific area. In general, the collected cells or tissues are applied to a pathology slide and the pathology slide is closely examined under an optical microscope to determine the cause of the disease. .

광학 현미경은 10배 이상의 고배율 대물 렌즈를 사용하기 때문에 세포 또는 조직을 확대해서 보여주며, 사용자(의사, 병리사 등)는 접안 렌즈를 통해 확대된 세포 또는 조직을 관찰하고 정밀 검사하여 병의 유무를 진단할 수 있다. 광학 현미경은 세포 또는 조직의 정밀 검사를 가능하게 하지만, 고배율 대물 렌즈의 시야각(FOV: field of view) 문제로 인해 세포 또는 조직의 일부분만을 관찰할 수 밖에 없는 한계도 존재한다. Since an optical microscope uses a 10x or higher magnification objective lens, cells or tissues are enlarged and displayed, and users (doctors, pathologists, etc.) observe the enlarged cells or tissues through the eyepiece and diagnose the presence or absence of disease by inspecting them closely. can do. Optical microscopy enables precise examination of cells or tissues, but there is a limitation in that only a part of cells or tissues can be observed due to a field of view (FOV) problem of a high-magnification objective lens.

세포 또는 조직을 검사하기 위해 사용하는 공학 현미경은 시야각 문제를 해결하기 위해 병리 슬라이드를 4방향(동서남북)으로 움직일 수 있는 XY 스테이지와 스테이지 조절 손잡이(knob)를 제공하지만, 조절 손잡이를 통해 수동으로 병리 슬라이드 전체 영역을 관찰해야 하기 때문에 병변을 놓치는 경우가 발생할 수 있다. 수동으로 전체 영역을 관찰함으로 인해 발생하는 오진(misdiagnosis)을 줄이기 위해 슬라이드 전체 영역을 자동으로 스캔하는 전체 슬라이드 이미징(WSI: whole slide imaging) 장치에 대한 다양한 제품들이 최근 소개되고 있다.Engineering microscopes used to examine cells or tissues provide an XY stage and a stage knob that can move the pathology slide in four directions (east, west, north, south) to solve the problem of the viewing angle, but pathology is manually performed through the knob. Since the entire area of the slide must be observed, lesions may be missed. In order to reduce misdiagnosis caused by manually observing the entire area, various products for a whole slide imaging (WSI) device that automatically scans the entire area of a slide have recently been introduced.

전체 슬라이드 이미징 장치는 XY 스테이지로 전체 슬라이드 영역을 자동 스캔한고 스캔된 이미지들을 정합(stitching)하여 한 장의 초고해상도/고분해능 디지털 이미지로 변환한 후 사용자에게 제공한다. 전체 슬라이드 이미징 장치는 병리 슬라이드 전체 영역의 초고해상도 디지털 이미지를 제공하기 때문에 병리학 분야를 아날로그에서 디지털로 전환하는 핵심 기술 중 하나로 손꼽히고 있다. 하지만, 세포 또는 조직의 두께가 두꺼운 샘플들은 흐릿하게 촬영되는 아웃-포커스 영역이 발생하며, 해당 영역의 세포 또는 조직을 직관적으로 확인할 수 없기 때문에 병변을 제대로 검진하지 못하는 문제가 발생한다. 이는 고배율 대물 렌즈의 초점 심도(DoF: depth of field)가 마이크로 미터(μm) 단위로 매우 좁기 때문에 발생하는 문제이며, 세포 또는 조직의 두께가 초점 심도를 벗어날 경우 초점이 맞지 않는 아웃-포커스(OOF: out-of-focus) 영역이 촬영된다.The entire slide imaging device automatically scans the entire slide area with an XY stage, stitches the scanned images, converts them into a super high resolution/high resolution digital image, and then provides the image to the user. Whole-slide imaging devices provide super-resolution digital images of the entire area of a pathology slide, making them one of the key technologies for converting the field of pathology from analog to digital. However, samples with thick cells or tissues have an out-of-focus area that is blurry, and since cells or tissues in the area cannot be intuitively identified, a problem in that the lesion cannot be properly screened occurs. This is a problem that occurs because the depth of field (DoF) of high-magnification objective lenses is very narrow on the order of micrometers (μm), and if the thickness of a cell or tissue exceeds the depth of focus, out-of-focus (OOF) : An out-of-focus area is captured.

일반 광학 현미경은 세포 또는 조직의 두께가 초점 심도를 벗어날 경우(초점이 맞지 않는 경우)를 대비하여 초점을 수동으로 조절할 수 있는 초점 조절 손잡이(focusing knob)를 제공한다. 전체 슬라이드 이미징 장치는 전체 영역을 자동으로 스캔하기 때문에, 초점 역시 자동으로 제어할 수 있는 기능이 필요로 한다. General optical microscopes provide a focusing knob to manually adjust the focus in preparation for cases where the thickness of a cell or tissue is outside the depth of focus (out of focus). Since the entire slide imaging device automatically scans the entire area, a function capable of automatically controlling the focus is required.

일부 상용화된 전체 슬라이드 이미징 장치에서 초점 심도 문제 해결을 위해 “Z-Stack” 기능을 제공한다. “Z-Stack”은 Z축 스캐닝을 이용하여 특정 초점 범위를 등 간격으로 이동하며 촬영한 N개의 전체 슬라이드 이미지를 사용자에게 제공하는 기능이며, N개의 이미지를 Z축으로 쌓아 올린(stacking) 3차원 볼륨 이미지 형태로 전체 슬라이드 이미지를 저장한다. 저장된 3차원 볼륨 형태의 전체 슬라이드 이미지는 해당 제품에서 제공하는 자체 이미지 뷰어 소프트웨어를 통해 확인할 수 있으며, 특히 3차원 볼륨 이미지는 서로 다른 초점 위치에서 촬영한 이미지를 포함하고 있기 때문에 광학 현미경과 유사하게 초점을 변경할 수 있다.Some commercially available whole-slide imaging devices provide a “Z-Stack” function to solve the depth-of-focus problem. “Z-Stack” is a function that provides the user with N total slide images taken while moving a specific focus range at equal intervals using Z-axis scanning, and provides a 3-dimensional image by stacking N images in the Z-axis. Save the entire slide image in the form of a volume image. The entire slide image in the form of a 3D volume can be checked through the image viewer software provided by the product. In particular, since the 3D volume image includes images taken at different focal positions, it is similar to an optical microscope. can be changed.

Z-Stack 기능은 초점문제(아웃-포커스 영역) 해결에 효과적이지만, Z-Stack 기능을 제공하지 않는 제품과 비교해서 Z축 스캔 범위(Z축 스캔 이미지 수)에 비례해서 스캔 시간과 파일 용량(저장공간)이 증가하는 문제점을 가지고 있다. 스캔 시간 증가는 시간 당 스캔할 수 있는 슬라이드 수가 줄어들기때문에 생산성이 떨어지는 결과를 초래하며, 파일 용량 증가는 슬라이드 하나 당 차지하는 데이터 공간이 늘어나기 때문에 데이터 유지비용이 증가하는 결과를 초래한다. The Z-Stack function is effective in resolving the focus problem (out-of-focus area), but compared to products that do not provide the Z-Stack function, the scan time and file capacity ( storage space) is increasing. An increase in scan time results in a decrease in productivity because the number of slides that can be scanned per hour decreases, and an increase in file size results in an increase in data maintenance costs because the data space occupied per slide increases.

결론적으로 아웃-포커스 문제, 스캔 시간 및 저장 공간 문제를 동시에 해결할 수 있는 방법이 필요하다.In conclusion, we need a way to solve the out-focus problem, scan time and storage space problems at the same time.

본 발명은 스캔 시간과 저장공간을 줄이기 위해 Z축 스캔없이 아웃-포커스 이미지를 해결하는 방법에 관한 것으로, 다양한 슬라이드에 대해 인-포커스 이미지와 아웃-포커스 이미지 쌍으로 구성된 학습데이터를 구축하고, 구축된 학습데이터를 기반으로 아웃-포커스 이미지를 인-포커스 이미지로 복원하는 초점 복원 네트워크를 학습한 후 학습된 네트워크를 통해 전체 슬라이드 영역 스캔 과정에서 촬영된 이미지의 아웃-포커스 영역을 인-포커스 영역으로 복원하는 방법을 제공한다.The present invention relates to a method for solving out-of-focus images without Z-axis scanning in order to reduce scanning time and storage space, and constructs training data consisting of pairs of in-focus images and out-of-focus images for various slides. After learning a focus restoration network that restores an out-focus image to an in-focus image based on the learned training data, the out-focus area of the image captured in the process of scanning the entire slide area is converted into an in-focus area through the learned network. Provides a way to restore it.

전술한 종래 기술의 문제점을 해결하기 위해, 본 발명의 일 실시예에 따른 슬라이드 이미징 방법은 XY 스테이지를 초기 위치로 이동하는 단계; 슬라이드 또는 샘플을 촬영하는 단계; 초점 복원 네트워크를 이용하여 상기 촬영한 이미지의 아웃-포커스 영역을 복원하는 단계; 상기 XY 스테이지를 다음 위치로 이동하고 슬라이드 촬영이 종료하는 지를 판단하는 단계; 슬라이드 촬영이 종료하지 않았으면 상기 슬라이드 또는 샘플을 촬영하는 단계로 되돌아가는 단계; 및 상기 슬라이드 촬영이 종료하였으면, 이미지들의 정합을 수행하여 전체 슬라이드 이미지를 생성하는 단계를 포함할 수 있다.In order to solve the problems of the prior art described above, the slide imaging method according to an embodiment of the present invention includes moving the XY stage to an initial position; photographing slides or samples; Restoring an out-of-focus area of the photographed image using a focus restoration network; moving the XY stage to the next position and determining whether slide shooting is to end; returning to the step of photographing the slide or sample if the photographing of the slide has not ended; and generating an entire slide image by matching the images when the slide shooting is finished.

상기 초점 복원 네트워크는 아웃-포커스 이미지가 입력되는 입력층, 인-포커스 이미지가 출력되는 출력층, 복원 정보를 계산하는 복원 블록, 및 상기 복원 블록의 출력값과 상기 입력층의 입력값을 합산하는 합산부를 포함할 수 있다.The focus restoration network includes an input layer inputting an out-focus image, an output layer outputting an in-focus image, a restoration block calculating restoration information, and a summing unit summing the output value of the restoration block and the input value of the input layer. can include

상기 복원 블록은 복수개의 서브 블록으로 이루어지며, 상기 각 서브 블록은 제1 콘볼루션(convolution) 연산부, 제1 배치 정규화(Batch Normalization) 연산부, ReLU(Rectified Linear Unit) 연산부, 제2 콘볼루션 연산부, 제2 배치 정규화 연산부 및 제2 배치 정규화 연산부의 결과값과 해당 서브 블록의 입력값을 픽셀 단위로 합하는 합산부를 포함할 수 있다.The reconstruction block is composed of a plurality of sub-blocks, each of which includes a first convolution operation unit, a first batch normalization operation unit, a Rectified Linear Unit (ReLU) operation unit, a second convolution operation unit, It may include a second batch normalization calculator and a summing unit that sums the resultant value of the second batch normalization calculator and the input value of the corresponding sub-block in units of pixels.

상기 초점 복원 네트워크는 학습데이터를 통해 제1 및 제2 콘볼루션 연산부의 가중치(weight)를 조정하는 네트워크 학습(training) 과정을 거칠 수 있다.The focus restoration network may undergo a network training process of adjusting weights of the first and second convolution operators through training data.

상기 학습 데이터는 아웃-포커스 이미지와 상기 아웃-포커스 이미지와 동일한 위치에서 촬영한 인-포커스 이미지의 쌍(pair)으로 구성되며, 상기 학습 데이터의 입력값 또는 입력 이미지는 상기 아웃-포커스 이미지이며, 상기 학습 데이터의 출력값 또는 출력 이미지는 상기 인-포커스 이미지일 수 있다.The training data consists of a pair of an out-focus image and an in-focus image taken at the same location as the out-focus image, and the input value or input image of the training data is the out-focus image, The output value or output image of the training data may be the in-focus image.

상기 인-포커스 이미지는 Z축 스캐너를 통해 초점 위치를 순차적으로 이동하며 촬영한 N개의 초점면 이미지로부터 모든 초점 영역이 포함된 다초점(all-in-focus) 이미지를 생성함으로써 획득될 수 있다.The in-focus image may be obtained by generating an all-in-focus image including all focal areas from N focal plane images captured by sequentially moving a focal position through a Z-axis scanner.

상기 슬라이드 이미징 방법은 상기 촬영한 이미지의 아웃-포커스 영역을 복원한 후에 판별 네트워크를 통해 상기 초점 복원 네트워크의 출력 이미지가 상기 학습 데이터의 출력 이미지인지 상기 초점 복원 네트워크에 의해 생성된 출력 이미지인지를 구분하는 값을 출력하는 단계를 더 포함할 수 있다.The slide imaging method distinguishes whether an output image of the focus restoration network is an output image of the training data or an output image generated by the focus restoration network through a discrimination network after restoring an out-of-focus region of the captured image. It may further include the step of outputting a value that is.

본 발명의 일 실시예에 따른 슬라이드 이미징 장치는 대물렌즈; X축 및 Y축으로 상기 슬라이드를 선형 이동하도록 구동되는 XY 스테이지; Z축으로 상기 대물렌즈를 선형 이동하도록 구동되는 Z축 스캐너; 슬라이드 이미징 방법을 수행하기 위한 하나 이상의 루틴을 저장하는 메모리; 및 상기 메모리 내에 저장된 하나 이상의 루틴을 실행하도록 구성된 처리 구성요소를 포함하고, 상기 하나 이상의 루틴은 상기 처리 구성요소에 의해 실행될 때, 상기 XY 스테이지를 초기 위치로 이동하는 동작, 슬라이드 또는 샘플을 촬영하는 동작, 초점 복원 네트워크를 이용하여 상기 촬영한 이미지의 아웃-포커스 영역을 복원하는 동작, 상기 XY 스테이지를 다음 위치로 이동하고 슬라이드 촬영이 종료하는 지를 판단하는 동작, 슬라이드 촬영이 종료하지 않았으면 상기 슬라이드 또는 샘플을 촬영하는 단계로 되돌아가는 동작, 및 상기 슬라이드 촬영이 종료하였으면, 이미지들의 정합을 수행하여 전체 슬라이드 이미지를 생성하는 동작이 수행되도록 할 수 있다.A slide imaging device according to an embodiment of the present invention includes an objective lens; an XY stage driven to linearly move the slide in the X and Y axes; a Z-axis scanner driven to linearly move the objective lens in the Z-axis; a memory storing one or more routines for performing a slide imaging method; and a processing component configured to execute one or more routines stored in the memory, wherein the one or more routines, when executed by the processing component, include moving the XY stage to an initial position, photographing a slide or sample. An operation of restoring an out-of-focus area of the photographed image using a focus restoration network, an operation of moving the XY stage to the next position and determining whether slide shooting is to end, if the slide shooting has not ended, the slide Alternatively, an operation of returning to the step of photographing the sample and, when the photographing of the slide is finished, an operation of generating an entire slide image by matching images may be performed.

본 발명에 따르면, Z축 스캐너 사용 없이 단일 스캔만으로 아웃-포커스 없는 고분해능 이미지를 촬영할 수 있는 슬라이드 이미징 장치 및 방법을 제공할 수 있다. 본 발명에 따른 슬라이드 이미징 장치 및 방법는 초점 문제뿐만 아니라 Z축 스캐닝을 수행하지 않기 때문에 스캔 시간, 저장 공간을 줄일 수 있는 효과가 있다. 즉, 기존 문제점인 아웃-포커스 문제를 해결함과 동시에 스캔 시간(생산성 향상)과 저장공간(데이터 유지비용 감소)을 줄일 수 있다.According to the present invention, it is possible to provide a slide imaging device and method capable of taking a high-resolution image without out-of-focus using only a single scan without using a Z-axis scanner. Since the slide imaging device and method according to the present invention do not perform Z-axis scanning as well as a focus problem, there is an effect of reducing scan time and storage space. That is, it is possible to solve the out-of-focus problem, which is an existing problem, while reducing scan time (productivity improvement) and storage space (data maintenance cost reduction).

도 1은 본 발명에 따른 선택적 Z축 스캐닝을 포함하는 전체 슬라이드 이미징 장치의 기본 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 이미지 변환 네트워크(network)을 나타낸 도면이다.
도 3은 본 발명에 따른 학습 데이터의 구성예를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 판별 네트워크의 개략도(schematic drawing)을 도시한다.
도 5은 초점 복원 네트워크에 판별 네트워크를 추가한 전체 학습 흐름도를 도시한다.
도 6은 본 발명의 일 실시예에 따른 슬라이드 이미지 생성 방법의 흐름도를 도시한다.
도 7은 본 발명의 슬라이드 이미지 생성 방법을 이용하여 아웃-포커스 이미지를 복원한 결과 이미지를 도시한다.
1 is a diagram showing the basic configuration of an entire slide imaging device including selective Z-axis scanning according to the present invention.
2 is a diagram illustrating an image conversion network according to an embodiment of the present invention.
3 is a diagram showing an example of the configuration of learning data according to the present invention.
4 shows a schematic drawing of a discriminating network according to one embodiment of the present invention.
Fig. 5 shows the overall learning flow chart in which a discriminant network is added to a focus recovery network.
6 shows a flowchart of a slide image generating method according to an embodiment of the present invention.
7 shows an image resulting from restoring an out-focus image using the slide image generating method of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만, 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다.The following merely illustrates the principles of the present invention. Therefore, those skilled in the art will be able to invent various devices that embody the principles of the present invention and fall within the spirit and scope of the present invention, even if not explicitly described or shown herein.

또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.In addition, all conditional terms and embodiments listed in this specification are, in principle, expressly intended only for the purpose of understanding the concept of the present invention, and should be understood not to be limited to such specifically listed embodiments and conditions. do.

본 발명을 설명함에 있어서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되지 않을 수 있다.In describing the present invention, terms such as first and second may be used to describe various components, but the components may not be limited by the terms.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.

어떤 구성요소가 다른 구성요소에 연결되어 있다거나 접속되어 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다.When a component is referred to as being connected or connected to another component, it may be directly connected or connected to the other component, but it may be understood that another component may exist in the middle. .

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention, and singular expressions may include plural expressions unless the context clearly dictates otherwise.

본 명세서에서, 포함하다 또는 구비하다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In this specification, the terms include or include are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features or numbers, It can be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.

이하, 첨부된 도면을 바탕으로 본 발명에 의한 코인 적립 시스템의 바람직한 실시예에 대해 설명한다.Hereinafter, a preferred embodiment of the coin earning system according to the present invention will be described based on the accompanying drawings.

도 1은 본 발명에 따른 선택적 Z축 스캐닝을 포함하는 전체 슬라이드 이미징 장치의 기본 구성을 나타낸 도면이다.1 is a diagram showing the basic configuration of an entire slide imaging device including selective Z-axis scanning according to the present invention.

슬라이드 이미징 장치(100)는 슬라이드 상에 배치된 샘플(세포 또는 조직)의 하나 이상의 이미지를 생성할 수 있다. The slide imaging device 100 may generate one or more images of a sample (cell or tissue) disposed on a slide.

도 1을 참조하면, 슬라이드 이미징 장치(100)는 대물렌즈(110), XY 스테이지(120), Z축 스캐너(130)로 구성된다. 또한, 슬라이드 이미징 장치(100)는 본 발명의 슬라이드 이미징 방법을 수행하기 위한 하나 이상의 루틴을 저장하는 메모리 및 상기 메모리 내에 저장된 하나 이상의 루틴을 실행하도록 구성된 처리 구성요소를 포함할 수 있다.Referring to FIG. 1 , a slide imaging device 100 includes an objective lens 110 , an XY stage 120 , and a Z-axis scanner 130 . In addition, the slide imaging apparatus 100 may include a memory for storing one or more routines for performing the slide imaging method of the present invention and a processing component configured to execute the one or more routines stored in the memory.

대물렌즈(objective lens, 110)는 마이크로 미터(μm) 단위의 고분해능으로 조직 또는 세포 등의 샘플을 촬영하기 위해 사용된다. 대물렌즈(110)는 이미징된 샘플 특징의 용례 및 크기와 같은 고려 사항에 기초하여 배율이 다양할 수도 있다. 일 실시예에서, 대물 렌즈(110)는 20x 이상의 배율을 제공하고, 0.5 또는 0.5 초과의 개구수 를 갖는(작은 초점 깊이) 고배율 대물 렌즈일 수도 있다. 이해될 수 있는 바와 같이, 다른 실시예에서, 대물 렌즈(110)는 상이한 정도의 배율을 제공할 수도 있고 그리고/또는 더 크거나 작은 개구수를 가질 수도 있다. 예로서, 일 실시예에서, 대물 렌즈(110)는 약 200 미크론 내지 약 수 밀리미터의 범위의 거리만큼 Z-방향으로 슬라이드(140)로부터 이격될 수도 있고, 초점 평면에서 750 μ x 750 μ의 시야로부터 광을 집광할 수도 있다.An objective lens (110) is used to photograph samples such as tissues or cells with high resolution in micrometer (μm) units. Objective lens 110 may vary in magnification based on considerations such as application and size of imaged sample features. In one embodiment, objective lens 110 may be a high magnification objective lens that provides a magnification of 20x or greater and has a numerical aperture of 0.5 or greater than 0.5 (small focal depth). As can be appreciated, in other embodiments, objective lens 110 may provide different degrees of magnification and/or may have a larger or smaller numerical aperture. By way of example, in one embodiment, objective lens 110 may be spaced from slide 140 in the Z-direction by a distance ranging from about 200 microns to about a few millimeters and has a field of view of 750 μ×750 μ at the focal plane. Light can be condensed from

XY 스테이지(120)는 X축 및 Y축으로 슬라이드를 선형 이동하도록 구동될 수 있다. Z축 스캐너(130)는 Z축으로 대물렌즈(110)를 선형 이동하도록 구동될 수 있다.The XY stage 120 can be driven to linearly move the slide in the X and Y axes. The Z-axis scanner 130 may be driven to linearly move the objective lens 110 in the Z-axis.

특정 실시예에서, 샘플은 병리학 또는 조직학 기술을 사용하여 분석을 위한 조직 샘플과 같은 생물학적 샘플일 수도 있다. 다른 경우에, 샘플은 집적 회로칩 또는 마이크로전기기계 시스템(MEMS)과 같은 산업용 물품일 수도 있다. 예로서, 이러한 샘플은 약 5 미크론 내지 약 7 미크론으로 평균화하는 두께를 가질 수도 있고, 수 미크론만큼 변동할 수도 있다. 이러한 샘플의 예는 또한 대략 15 mm×15 mm의 측면 표면적을 가질 수 도 있다.In certain embodiments, the sample may be a biological sample, such as a tissue sample for analysis using pathology or histology techniques. In other cases, the sample may be an industrial item such as an integrated circuit chip or microelectromechanical system (MEMS). As an example, such samples may have a thickness averaging from about 5 microns to about 7 microns, and may vary by several microns. An example of such a sample may also have a lateral surface area of approximately 15 mm by 15 mm.

또한, 슬라이드 이미징 장치(100)는 도시되지 않았지만, 슬라이드 상에 위치한 샘플의 이미지를 생성하는 이미지 센서 또는 카메라 및 Z축 스캐너(130) 및 XY 스테이지(140)의 위치를 조정하는 위치 제어기 또는 구동부를 포함할 수 있다.In addition, although not shown in the slide imaging device 100, an image sensor or camera for generating an image of a sample placed on a slide and a position controller or driver for adjusting the positions of the Z-axis scanner 130 and the XY stage 140 can include

이미지 센서 또는 카메라는 이미지가 취득될 때에 각각의 시야에 대응하는 샘플의 하나 이상의 이미지를 생성한다. 특정 실시예에서, 이미지 센서는 상업적으로 입수 가능한 전하 결합 소자(CCD)와 같은 임의의 적합한 디지털 이미징 장치일 수도 있다.An image sensor or camera creates one or more images of the sample corresponding to each field of view as images are acquired. In certain embodiments, the image sensor may be any suitable digital imaging device, such as a commercially available charge coupled device (CCD).

위치 제어기는 샘플과 관련하여 다수의 이미지의 순차적인 취득을 허용하기 위해, 압전 액추에이터로 구현될 수 있다. 위치 제어기는 미세한 모터 제어를 가지며 대물렌즈(110)에 대한 신속한 작은 시야 조정을 제공하고 그리고/또는 슬라이드 또는 슬라이드가 위치되는 XY 스테이지의 위치를 조정할 수 있다. 또한, 위치 제어기는 Z축으로 대물렌즈(110)의 위치를 조정할 수 있다.The position controller may be implemented with a piezoelectric actuator, to allow sequential acquisition of multiple images with respect to the sample. The position controller has fine motor control and can provide quick small field of view adjustments to the objective 110 and/or adjust the position of the slide or the XY stage on which the slide is positioned. In addition, the position controller may adjust the position of the objective lens 110 in the Z axis.

일 실시예에서, 대물렌즈(110)는 약 200 미크론 내지 약 수 밀리미터의 범위의 거리만큼 Z-방향으로 샘플로부터 이격될 수도 있다. 이해될 수 있는 바와 같이, 용례에 따라, 작업 거리, 시야, 및 초점 평면은 슬라이드 이미징 장치(100)의 구성 및/또는 이미징된 샘플의 특성에 따라 다양할 수도 있다. In one embodiment, objective lens 110 may be spaced from the sample in the Z-direction by a distance ranging from about 200 microns to about a few millimeters. As can be appreciated, depending on the application, the working distance, field of view, and focal plane may vary depending on the configuration of the slide imaging device 100 and/or characteristics of the imaged sample.

샘플은 커버 슬립과 슬라이드 사이에 배치될 수 있다. 샘플, 커버 슬립, 및 슬라이드는 XY 스테이지(120) 상에 위치된다. 커버 슬립 및 슬라이드는 유리와 같은 투명 재료로 제조될 수도 있다. 특정 실시예에서, 슬라이드 이미징 장치(100)는 자동화 슬라이드 스캔 시스템의 부분일 수도 있고, 이미징을 위해 슬라이드를 이송하여 로딩하는 것이 가능한 자동화 슬라이드 이송기를 포함할 수도 있다.A sample may be placed between a cover slip and a slide. Samples, cover slips, and slides are placed on the XY stage 120. Cover slips and slides may be made of a transparent material such as glass. In certain embodiments, slide imaging device 100 may be part of an automated slide scanning system or may include an automated slide transporter capable of transporting and loading slides for imaging.

한편, 슬라이드 이미징 장치(100)는 고속 이미징 장치로서 구성될 수도 있다. 이러한 고속 이미징 장치는 샘플의 더 많은 수의 디지털 이미지를 신속하게 캡처하도록 구성될 수도 있고, 각각의 이미지는 샘플의 특정 시야에 대응한다. 특정 용례에서, 이미지와 연계된 특정 시야는 전체 샘플의 단지 제한된 분율만을 표현할 수도 있다. 또한, 이미지의 시퀀스와 연계된 각각의 시야는 서로 인접할 수도 있고 또는 서로 중첩할 수도 있다. 이러한 실시예의 예에서, 슬라이드(28)는 인접한 또는 중첩하는 영역에서 반복적으로 이미징되고 또는 이미지 취득 영역, 즉 시야를 통해 주사 스윕(scanning sweep)으로 통과된다. 이러한 실시예에서, 이미지가 취득되고, XY 스테이지(120)는 인접한 또는 중첩 영역이 시야 내로 이동되는 위치로 X 및 Y방향으로 진행되고, 다른 이미지가 취득될 수 있다.Meanwhile, the slide imaging device 100 may be configured as a high-speed imaging device. Such high-speed imaging devices may be configured to rapidly capture a larger number of digital images of the sample, each image corresponding to a specific field of view of the sample. In certain applications, a particular field of view associated with an image may represent only a limited fraction of the total sample. Also, each field of view associated with a sequence of images may be adjacent to each other or may overlap each other. In an example of this embodiment, slide 28 is repeatedly imaged in adjacent or overlapping regions or passed in a scanning sweep through the image acquisition region, i.e., the field of view. In this embodiment, an image is acquired, the XY stage 120 is advanced in the X and Y directions to a position where adjacent or overlapping regions are moved into the field of view, and another image can be acquired.

구체적으로, XY 스테이지(120)는 대물렌즈의 한계점 중 하나인 시야각을 확장하기 위해 사용하며, 슬라이드 전체 영역을 자동으로 스캔하기 위해 세포 또는 조직이 도포된 병리 슬라이드를 X축 또는 Y축으로 이동하는 역할을 수행한다. Z축 스캐너(130)는 고배율 대물렌즈의 한계점인 초점 범위 확장을 위해 사용하며, 대물렌즈의 초점 위치를 이동하는 역할을 수행한다.Specifically, the XY stage 120 is used to extend the viewing angle, which is one of the limitations of the objective lens, and moves the pathology slide coated with cells or tissues in the X or Y axis to automatically scan the entire area of the slide. play a role The Z-axis scanner 130 is used to expand the focal range, which is the limit of the high-magnification objective lens, and serves to move the focal position of the objective lens.

슬라이드 이미징 장치(100)는 전체 슬라이드 영역(140)에 대해 자동으로 고분해능 디지털 이미지를 촬영할 수 있지만, 고배율 대물렌즈의 초점심도(DoF: depth of field)가 매우 좁기 때문에 샘플의 두께가 초점심도보다 두꺼운 영역에서 아웃-포커스 이미지가 촬영된다. The slide imaging device 100 can automatically take a high-resolution digital image of the entire slide area 140, but since the depth of field (DoF) of the high magnification objective lens is very narrow, the thickness of the sample is thicker than the depth of focus. An out-of-focus image is taken in the area.

본 발명은 기존 Z-Stack 기법의 스캔시간, 저장공간 문제의 원인이 되는 Z축 스캐너를 사용하지 않는 방법을 제안하며, 좀 더 구체적으로 아웃-포커스 영역을 인-포커스 영역으로 복원하는 이미지 변환 네트워크(network) 기반 초점 복원 방법을 제공한다.The present invention proposes a method that does not use a Z-axis scanner, which causes scan time and storage space problems of the existing Z-Stack technique, and more specifically, an image conversion network that restores an out-of-focus area to an in-focus area. (network) based focus restoration method is provided.

도 2는 본 발명의 일 실시예에 따른 이미지 변환 네트워크(network)을 나타낸 도면이다.2 is a diagram illustrating an image conversion network according to an embodiment of the present invention.

본 발명에 따라, 아웃-포커스 영역을 인-포커스 영역으로 복원하는데 사용되는 이미지 변환 네트워크(network)가 도 2에 도시되어 있다.According to the present invention, an image conversion network used to restore an out-focus area to an in-focus area is shown in FIG. 2 .

아웃-포커스 이미지와 인-포커스 이미지 사이의 관계는 수학식 1과 같이 표현될 수 있다. 즉, 수학식 1은 아웃-포커스 이미지 X와 인-포커스 이미지 Y 사이의 관계식을 보여준다. The relationship between the out-focus image and the in-focus image can be expressed as Equation 1. That is, Equation 1 shows the relationship between the out-focus image X and the in-focus image Y.

Figure pat00001
Figure pat00001

여기서 F(X)는 아웃-포커스 이미지 X와 인-포커스 이미지 Y의 차이, 즉 아웃-포커스에서 인-포커스로 복원하기 위해 필요한 값(복원 정보)를 나타낸다. 도 2를 참조하면, 수학식 1에 기반하여 구성한 본 발명에서 제안하는 포커스 복원 네트워크(200)는 크게 아웃-포커스 이미지 X가 입력될 입력층(210), 인-포커스 이미지 Y가 출력될 출력층(220), 복원 정보를 계산하는 복원 블록(230), 및 복원 블록(230)의 출력값과 입력층(210)의 입력값을 합산하는 합산부(260)으로 구성된다. Here, F(X) represents the difference between the out-focus image X and the in-focus image Y, that is, a value (reconstruction information) required for restoring from out-focus to in-focus. Referring to FIG. 2, the focus restoration network 200 proposed in the present invention constructed based on Equation 1 includes an input layer 210 where an out-focus image X is input and an output layer where an in-focus image Y is output ( 220), a restoration block 230 that calculates restoration information, and a summing unit 260 that adds the output value of the restoration block 230 and the input value of the input layer 210.

복원 블록(230)은 복수개의 서브 블록(240)으로 구성되며, 각 서브 블록(240)은 5개의 연산부 및 서브 블록(240)의 입력값과 5개의 연산부중 마지막 연산부의 출력값을 합산하는 합산부를 포함한다. 5개의 연산부는 제1 콘볼루션(convolution)(Conv) 연산부, 제1 배치 정규화(Batch Normalization)(BN) 연산부, ReLU(Rectified Linear Unit) 연산부, 제2 콘볼루션 연산부, 제2 배치 정규화 연산부로 구성된다. 합산부는 제2 배치 정규화 연산부의 결과값과 해당 서브 블록의 입력값을 픽셀 단위로 합한 결과값을 다음 블록으로 전달한다. The restoration block 230 is composed of a plurality of sub-blocks 240, and each sub-block 240 has five operation units and a summing unit for summing the input value of the sub-block 240 and the output value of the last operation unit among the five operation units. include The five operation units consist of a first convolution (Conv) operation unit, a first batch normalization (BN) operation unit, a Rectified Linear Unit (ReLU) operation unit, a second convolution operation unit, and a second batch normalization operation unit. do. The summing unit transmits a result value obtained by summing the result value of the second batch normalization operation unit and the input value of the corresponding sub block in units of pixels to the next block.

N개의 블록을 순차적으로 계산 후 출력된 결과는 입력층을 통해 입력된 이미지와 픽셀 합을 수행하며, 이는 수학식 1의 X+F(X)를 나타낸다. The output result after sequentially calculating N blocks performs pixel summing with the image input through the input layer, which represents X+F(X) in Equation 1.

초점 복원 네트워크 입력층을 통해 아웃-포커스 영역(210, 270)을 포함하는 이미지를 전달하면, 각 블록의 연산을 순차적으로 계산한 후 출력층으로 인-포커스 영역(220, 280)으로 복원된 결과 이미지를 출력하는 것이 본 발명에서 제안하는 초점 복원 네트워크의 목적이다. 출력층을 통해 아웃-포커스(210, 270)에 대한 인-포커스 이미지(220, 280)를 출력하기 위해서는 학습데이터를 통해 제1 및 제2 콘볼루션 연산의 가중치(weight)를 조정하는 네트워크 학습(training) 과정을 진행해야 한다.When an image including the out-focus areas 210 and 270 is passed through the focus restoration network input layer, the result image restored to the in-focus areas 220 and 280 to the output layer after sequentially calculating the operation of each block It is the purpose of the focus recovery network proposed in the present invention to output . In order to output the in-focus images 220 and 280 for the out-focus 210 and 270 through the output layer, network training is performed to adjust the weights of the first and second convolution operations through training data. ) process should be performed.

네트워크 학습을 진행하기 위해서는 먼저 학습데이터를 수집해야 하며, 아웃-포커스가 포함된 이미지와 같은 위치에서 촬영한 인-포커스 이미지 쌍(pair)으로 학습데이터를 구성한다. 학습데이터의 출력 값인 인-포커스 이미지를 획득하기 위해 Z축 스캐너(130)를 활용하며, 본 발명은 학습데이터 수집 목적으로 만 Z축 스캐너(130)를 이용한다. In order to proceed with network learning, first, training data must be collected, and training data is composed of an in-focus image pair taken at the same location as an out-of-focus image. The Z-axis scanner 130 is used to acquire an in-focus image, which is an output value of learning data, and the present invention uses the Z-axis scanner 130 only for the purpose of collecting learning data.

먼저, Z축 스캐너로 초점 위치를 순차적으로 이동하며 촬영한 N개의 초점면 이미지를 촬영한 후 N개의 초점 이미지로부터 모든 초점 영역이 포함된 한 장의 다초점(all-in-focus) 이미지를 생성한다. 다초점 생성을 위한 일 실시예로 이미지 퓨전(image fusion) 방법을 이용하며, 이미지 퓨전 방법은 최근 다양한 방법들이 소개되고 있으며 일 예로 [Y. Liu et al., “Multi-focus Image Fusion: A Survey of the State of the Art,” Information Fusion, 64, 71-91, 2020] 등이 있다. 본 발명은 종래 퓨전 방법들 중 하나를 이용할 수 있다.First, N focal plane images taken by sequentially moving the focal position with a Z-axis scanner are taken, and then an all-in-focus image including all focal areas is created from the N focal images. . An image fusion method is used as an embodiment for multifocal generation, and various image fusion methods have recently been introduced. For example, [Y. Liu et al., “Multi-focus Image Fusion: A Survey of the State of the Art,” Information Fusion, 64, 71-91, 2020]. The present invention may utilize one of the conventional fusion methods.

생성된 한 장의 다초점 이미지는 모든 초점 영역을 포함하기 때문에 학습데이터의 출력값인 인-포커스 이미지로 사용된다. 또한, 한 장의 다초점 이미지를 생성하기 위해 촬영한 N개의 초점면 이미지들은 모든 이미지들은 아니지만 아웃-포커스 영역을 포함하기 때문에 학습데이터의 입력값이 아웃-포커스 이미지로 사용한다. Since the generated multifocal image includes all focal regions, it is used as an in-focus image, which is an output value of training data. In addition, N focal plane images taken to create one multi-focal image are not all images but include an out-focus area, so the input value of training data is used as an out-focus image.

도 3은 본 발명에 따른 학습 데이터의 구성예를 나타낸 도면이다.3 is a diagram showing an example of the configuration of learning data according to the present invention.

도 3을 참조하면, 3장의 초점면 이미지들로부터 생성된 학습 데이터 입력(310)과 출력(320) 쌍의 예를 보여준다. 전술한 바와 같이, 복수개의 초점면 이미지들로부터 하나의 다초점 이미지가 생성된다. 다초점 이미지는 하나의 인-포커스 이미지가 되며, 복수개의 초점면 이미지들은 아웃-포커스 이미지들이 된다. 하나의 인-포커스 이미지와 3개의 아웃-포커스 이미지들이 매칭되어 3쌍의 학습데이터를 구축할 수 있다.Referring to FIG. 3 , an example of a pair of training data input 310 and output 320 generated from three focal plane images is shown. As described above, one multifocal image is generated from a plurality of focal plane images. A multifocal image becomes one in-focus image, and a plurality of focal plane images become out-of-focus images. Three pairs of training data can be constructed by matching one in-focus image and three out-of-focus images.

다양한 슬라이드 샘플에 대해 충분한 학습데이터를 수집한 후 초점 복원 네트워크 학습을 진행한다. 학습은 학습 데이터 중 입력 이미지(아웃-포커스 이미지)를 입력층에 전달하면 출력층이 입력 이미지에 대한 인-포커스 이미지를 출력할 수 있게 네트워크 가중치를 미세 조정하는 과정이다. 일반적으로 학습은 네트워크의 출력 이미지와 학습 데이터의 출력 이미지의 차이(예: 픽셀 차이 평균)를 계산한 후 계산된 차이를 기반으로 각 블록의 가중치를 역순으로 미세 조정한다. After collecting sufficient training data for various slide samples, focus restoration network training is performed. Learning is a process of fine-tuning network weights so that an output layer can output an in-focus image for an input image when an input image (out-focus image) of training data is passed to the input layer. In general, training calculates the difference between the output image of the network and the output image of the training data (e.g. pixel difference average), and then fine-tunes the weight of each block in reverse order based on the calculated difference.

두 이미지(네트워크 출력 이미지와 학습데이터의 출력 이미지)의 차이만으로 학습을 진행할 경우, 학습이 완료된 초점 복원 네트워크를 통해 아웃-포커스 이미지를 복원하면 전체적으로 흐릿한 이미지를 출력하는 경향이 있다. When learning is performed with only the difference between the two images (the output image of the network and the output image of the training data), an out-focus image tends to be output as a whole when the out-focus image is restored through the focus restoration network that has been trained.

본 발명의 목적은 흐릿한 아웃-포커스 영역을 선명한 인-포커스 영역으로 복원하는 것이기 때문에 네트워크 출력 이미지가 전체적으로 흐릿해지는 문제를 해결해야 하며, 이를 위해 학습 과정에 추가적인 네트워크를 도입하였다.Since the object of the present invention is to restore a blurry out-focus area to a sharp in-focus area, it is necessary to solve the problem that the network output image is blurred as a whole, and for this purpose, an additional network is introduced in the learning process.

추가적으로 도입된 네트워크는 초점 복원 네트워크의 출력 이미지인지 학습 데이터 출력 이미지인지를 판별하는 역할을 수행할 수 있다. 학습 데이터 출력 이미지와 구분할 수 없을 정도의 이미지를 출력할 수 있게 초점 복원 네트워크의 성능을 향상하는 것이 추가 도입된 네트워크의 목적이다. 추가 도입된 네트워크의 역할이 판별이기 때문에 본 발명에서는 판별 네트워크라 부른다. The additionally introduced network may serve to determine whether the image is an output image of the focus restoration network or an output image of training data. The purpose of the additionally introduced network is to improve the performance of the focus recovery network so that it can output an image that is indistinguishable from the training data output image. Since the role of the additionally introduced network is discrimination, it is called a discrimination network in the present invention.

도 4는 본 발명의 일 실시예에 따른 판별 네트워크의 개략도(schematic drawing)을 도시한다. 4 shows a schematic drawing of a discriminating network according to an embodiment of the present invention.

도 4를 참조하면, 판별 네트워크(400)는 이미지 분류에 사용되는 합성곱 신경망(CNN: convolutional neural networks)와 유사한 구조를 가진다. 판별 네트워크(400)는 크게 입력층(410)과 출력층(420) 그리고 N개의 콘볼루션 블록(430)으로 구성된다.Referring to FIG. 4 , the discrimination network 400 has a structure similar to a convolutional neural network (CNN) used for image classification. The discrimination network 400 largely consists of an input layer 410, an output layer 420, and N convolution blocks 430.

각각의 콘볼루션 블록(440)은 콘볼루션 연산(Conv), 배치 정규화(Batch Normalization)(BN) 연산, ReLU(Rectified Linear Unit) 연산으로 구성된다. 판별 네트워크(400)는 복원 네트워크의 출력 이미지(411) 또는 학습 데이터의 출력 이미지(412)를 입력층을 통해 입력 받고, 입력 이미지가 학습 데이터의 출력 이미지(411)인지 복원 네트워크에 의해 생성된 출력 이미지인지를 구분하는 값(421)을 출력층(420)을 통해 출력한다.Each convolution block 440 is composed of a convolution operation (Conv), a batch normalization (BN) operation, and a Rectified Linear Unit (ReLU) operation. The discrimination network 400 receives the output image 411 of the restoration network or the output image 412 of the training data through the input layer, and determines whether the input image is the output image 411 of the training data or the output generated by the restoration network. A value 421 for distinguishing whether it is an image is output through the output layer 420 .

출력층(420)을 통해 출력되는 값은 NxM 크기의 행렬이며, 행렬의 각 요소는 입력 이미지의 일부 영역이 학습 데이터의 출력 이미지인지를 나타내는 값을 출력한다. 도 4를 예를 들어 출력층(420)을 설명하면 2x2 크기의 행렬이 출력되며, 입력층(410)으로 입력된 이미지를 4등분했을 때 좌상단, 우상단, 좌하단, 우하단 각각의 영역이 실제 이미지인지 네트워크를 통해 출력된 이미지인지를 판단한 결과를 출력한다.A value output through the output layer 420 is an NxM matrix, and each element of the matrix outputs a value indicating whether a partial region of the input image is an output image of training data. Referring to FIG. 4 as an example, the output layer 420 outputs a 2x2 size matrix, and when the image input to the input layer 410 is divided into 4 parts, each of the upper left, upper right, lower left, and lower right regions is a real image. Outputs the result of determining whether the image is output through the cognitive network.

도 5은 초점 복원 네트워크에 판별 네트워크를 추가한 전체 학습 흐름도를 도시한다. Fig. 5 shows the overall learning flow chart in which a discriminant network is added to a focus restoration network.

도 5를 참조하면, 초점 복원 네트워크(510)는 판별 네트워크(520)가 구분하지 못할 정도의 이미지를 출력할 수 있게 학습을 진행하고, 판별 네트워크(520)는 초점 복원 네트워크(610)의 출력 이미지가 가짜라고 판별할 수 있게 학습을 진행한다. 이런 경쟁 학습을 통해 초점 복원 네트워크는 학습 데이터의 출력 이미지와 유사한 흐릿하지 않은 이미지를 출력한다.Referring to FIG. 5 , the focus recovery network 510 proceeds with learning to output an image that the discrimination network 520 cannot distinguish, and the discrimination network 520 outputs an image of the focus recovery network 610. Proceed with learning so that it can be determined that is fake. Through this competitive learning, the focus restoration network outputs a non-blurred image similar to the output image of the training data.

판별 네트워크는 학습 과정에서만 사용하며, 스캔과정에서는 초점 복원 네트워크(650) 만을 이용하여 입력 이미지를 인-포커스 이미지로 복원한다. The discrimination network is used only in the learning process, and in the scanning process, the input image is restored to an in-focus image using only the focus recovery network 650.

도 6은 본 발명의 일 실시예에 따른 슬라이드 이미지 생성 방법의 흐름도를 도시한다.6 shows a flowchart of a slide image generating method according to an embodiment of the present invention.

슬라이드 상에 배치된 샘플 또는 슬라이드의 전체 영역을 촬영하기 위해, 단계 610에서 대물렌즈(110)를 통해 샘플 또는 슬라이드의 초기 위치를 촬영할 수 있게 XY 스테이지(140)를 이동한다. 초기 위치의 일예는 슬라이드의 좌상단 또는 우상단이 될 수 있다. In order to photograph the sample placed on the slide or the entire area of the slide, in step 610, the XY stage 140 is moved so that the initial position of the sample or slide can be photographed through the objective lens 110. An example of an initial location could be the top left or top right of the slide.

이어서, 단계 620에서 초기 위치에서 샘플 또는 슬라이드를 촬영한다. 그런 다음, 단계 630에서 해당 이미지에 대해 초점 복원을 수행한다. 즉, 본 발명의 초점 복원 네트워크를 이용하여 입력 이미지 즉, 촬영한 이미지의 아웃-포커스 영역을 복원한다. 이미지의 초점 복원은 도 2에 도시된 바와 같은 초점 복원 네트워크(200)를 통해 이루어질 수 있다. 즉, 아웃-포커스 이미지는 초점 복원 네트워크(200)를 통해 인-포커스 이미지로 복원될 수 있다.Next, in step 620, the sample or slide is photographed at the initial location. Then, in step 630, focus restoration is performed on the corresponding image. That is, the out-focus area of the input image, that is, the captured image, is restored using the focus restoration network of the present invention. Focus restoration of an image may be performed through a focus restoration network 200 as shown in FIG. 2 . That is, an out-focus image may be restored to an in-focus image through the focus restoration network 200 .

이어서, 단계 640에서 대물렌즈(110)를 통해 샘플 또는 슬라이드의 다음 위치를 촬영할 수 있게 XY 스테이지(140)를 이동한다. 그에 따라, XY 스테이지(140) 상의 슬라이드가 이동하여, 샘플의 다음 위치를 촬영할 수 있게 된다.Subsequently, in step 640, the XY stage 140 is moved so that the next position of the sample or slide can be photographed through the objective lens 110. Accordingly, the slide on the XY stage 140 moves, so that the next position of the sample can be photographed.

단계 645에서 샘플에 대한 촬영이 종료되는 지를 판단하고, 촬영이 종료되지 않았으면 단계 620로 되돌아가 샘플의 이미지를 촬영한다.In step 645, it is determined whether the photographing of the sample is finished, and if the photographing is not finished, the process returns to step 620 to capture an image of the sample.

이러한 방식으로 전체 슬라이드 영역을 촬영할 수 있도록 촬영이 종료될 때까지 XY 스테이지(140)의 이동(단계 640)과 슬라이드의 촬영(단계 620)을 반복적으로 수행한다. 만약 슬라이드 전체 영역에 대한 촬영이 완료되면 단계 220로 진행한다.In this way, the movement of the XY stage 140 (step 640) and the photographing of the slide (step 620) are repeatedly performed until the photographing ends so that the entire slide area can be photographed. If the photographing of the entire area of the slide is completed, step 220 is performed.

슬라이드 전체 영역에 대한 촬영이 완료되면 단계 650에서 이미지들의 정합이 수행되며, 그에 따라 단계 660에서 전체 슬라이드 이미지가 생성될 수 있다.When the photographing of the entire area of the slide is completed, the images are matched in step 650, and accordingly, the entire slide image can be generated in step 660.

도 7은 본 발명의 슬라이드 이미지 생성 방법을 이용하여 아웃-포커스 이미지(710)를 복원한 결과 이미지(720)를 도시한다.7 shows an image 720 resulting from restoring an out-focus image 710 using the slide image generating method of the present invention.

도 7을 참조하면, 아웃-포커스 이미지(710)은 본 발명에 따른 초점 복원 네트워크를 통해 인-포커스 이미지(720)로 복원될 수 있다. Referring to FIG. 7 , an out-of-focus image 710 may be restored to an in-focus image 720 through a focus restoration network according to the present invention.

이와 같이, 본 발명은 Z축 스캐너 사용 없이 단일 스캔만으로 아웃-포커스 없는 고분해능 이미지를 촬영할 수 있는 슬라이드 이미징 장치를 개시한다. 본 발명에 따른 슬라이드 이미징 장치는 초점 문제뿐만 아니라 Z축 스캐닝을 수행하지 않기 때문에 스캔 시간, 저장 공간을 줄일 수 있는 효과가 있다. 즉, 기존 문제점인 아웃-포커스 문제를 해결함과 동시에 스캔 시간(생산성 향상)과 저장공간(데이터 유지비용 감소)을 줄일 수 있다.As such, the present invention discloses a slide imaging device capable of taking out-of-focus high-resolution images with only a single scan without using a Z-axis scanner. Since the slide imaging device according to the present invention does not perform Z-axis scanning as well as a focus problem, it has an effect of reducing scan time and storage space. That is, it is possible to solve the out-of-focus problem, which is an existing problem, while reducing scan time (productivity improvement) and storage space (data maintenance cost reduction).

본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art to which the present invention pertains will be able to understand that the present invention may be embodied in other specific forms without changing its technical spirit or essential features. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

100: 슬라이드 이미징 장치
110: 대물 렌즈
120: XY 스테이지
130: Z축 스캐너
100: slide imaging device
110: objective lens
120: XY stage
130: Z-axis scanner

Claims (8)

XY 스테이지를 초기 위치로 이동하는 단계
슬라이드 또는 샘플을 촬영하는 단계;
초점 복원 네트워크를 이용하여 상기 촬영한 이미지의 아웃-포커스 영역을 복원하는 단계;
상기 XY 스테이지를 다음 위치로 이동하고 슬라이드 촬영이 종료하는 지를 판단하는 단계;
슬라이드 촬영이 종료하지 않았으면 상기 슬라이드 또는 샘플을 촬영하는 단계로 되돌아가는 단계;
상기 슬라이드 촬영이 종료하였으면, 이미지들의 정합을 수행하여 전체 슬라이드 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 슬라이드 이미징 방법.
Steps to move the XY stage to the initial position
photographing slides or samples;
Restoring an out-of-focus area of the photographed image using a focus restoration network;
moving the XY stage to the next position and determining whether slide shooting is to end;
returning to the step of photographing the slide or sample if the photographing of the slide has not ended;
And if the photographing of the slide is finished, generating an entire slide image by matching the images.
제1항에 있어서,
상기 초점 복원 네트워크는
아웃-포커스 이미지가 입력되는 입력층,
인-포커스 이미지가 출력되는 출력층,
복원 정보를 계산하는 복원 블록, 및
상기 복원 블록의 출력값과 상기 입력층의 입력값을 합산하는 합산부를 포함하는 것을 특징으로 하는 슬라이드 이미징 방법.
According to claim 1,
The focus restoration network is
An input layer into which an out-of-focus image is input,
An output layer where an in-focus image is output,
A restoration block for calculating restoration information; and
and a summing unit summing the output value of the restoration block and the input value of the input layer.
제2항에 있어서,
상기 복원 블록은 복수개의 서브 블록으로 이루어지며,
상기 각 서브 블록은 제1 콘볼루션(convolution) 연산부, 제1 배치 정규화(Batch Normalization) 연산부, ReLU(Rectified Linear Unit) 연산부, 제2 콘볼루션 연산부, 제2 배치 정규화 연산부 및 제2 배치 정규화 연산부의 결과값과 해당 서브 블록의 입력값을 픽셀 단위로 합하는 합산부를 포함하는 것을 특징으로 하는 슬라이드 이미징 방법.
According to claim 2,
The reconstruction block is composed of a plurality of sub-blocks,
Each of the sub-blocks includes a first convolution operation unit, a first batch normalization operation unit, a Rectified Linear Unit (ReLU) operation unit, a second convolution operation unit, a second batch normalization operation unit, and a second batch normalization operation unit. A slide imaging method comprising a summing unit for summing the result value and the input value of the corresponding sub-block in units of pixels.
제2항에 있어서,
상기 초점 복원 네트워크는 학습데이터를 통해 제1 및 제2 콘볼루션 연산부의 가중치(weight)를 조정하는 네트워크 학습(training) 과정을 거치는 것을 특징으로 하는 슬라이드 이미징 방법.
According to claim 2,
Slide imaging method, characterized in that the focus restoration network undergoes a network training process of adjusting weights of the first and second convolution operators through learning data.
제4항에 있어서,
상기 학습 데이터는 아웃-포커스 이미지와 상기 아웃-포커스 이미지와 동일한 위치에서 촬영한 인-포커스 이미지의 쌍(pair)으로 구성되며,
상기 학습 데이터의 입력값 또는 입력 이미지는 상기 아웃-포커스 이미지이며, 상기 학습 데이터의 출력값 또는 출력 이미지는 상기 인-포커스 이미지인 것을 특징으로 하는 슬라이드 이미징 방법.
According to claim 4,
The learning data consists of a pair of an out-focus image and an in-focus image taken at the same location as the out-focus image,
The slide imaging method, characterized in that the input value or input image of the training data is the out-focus image, and the output value or output image of the training data is the in-focus image.
제5항에 있어서, 상기 인-포커스 이미지는 Z축 스캐너를 통해 초점 위치를 순차적으로 이동하며 촬영한 N개의 초점면 이미지로부터 모든 초점 영역이 포함된 다초점(all-in-focus) 이미지를 생성함으로써 획득되는 것을 특징으로 하는 슬라이드 이미징 방법.The method of claim 5, wherein the in-focus image generates an all-in-focus image including all focal areas from N focal plane images taken by sequentially moving a focal position through a Z-axis scanner. Slide imaging method, characterized in that obtained by doing. 제5항에 있어서,
상기 촬영한 이미지의 아웃-포커스 영역을 복원한 후에 판별 네트워크를 통해 상기 초점 복원 네트워크의 출력 이미지가 상기 학습 데이터의 출력 이미지인지 상기 초점 복원 네트워크에 의해 생성된 출력 이미지인지를 구분하는 값을 출력하는 단계를 더 포함하는 것을 특징으로 하는 슬라이드 이미징 방법.
According to claim 5,
After restoring the out-focus area of the captured image, a value for distinguishing whether an output image of the focus restoration network is an output image of the training data or an output image generated by the focus restoration network is output through a discrimination network Slide imaging method further comprising the step.
슬라이드 이미징 장치에 있어서,
대물렌즈;
X축 및 Y축으로 상기 슬라이드를 선형 이동하도록 구동되는 XY 스테이지;
Z축으로 상기 대물렌즈를 선형 이동하도록 구동되는 Z축 스캐너;
슬라이드 이미징 방법을 수행하기 위한 하나 이상의 루틴을 저장하는 메모리; 및
상기 메모리 내에 저장된 하나 이상의 루틴을 실행하도록 구성된 처리 구성요소를 포함하고,
상기 하나 이상의 루틴은 상기 처리 구성요소에 의해 실행될 때,
상기 XY 스테이지를 초기 위치로 이동하는 동작;
슬라이드 또는 샘플을 촬영하는 동작;
초점 복원 네트워크를 이용하여 상기 촬영한 이미지의 아웃-포커스 영역을 복원하는 동작;
상기 XY 스테이지를 다음 위치로 이동하고 슬라이드 촬영이 종료하는 지를 판단하는 동작;
슬라이드 촬영이 종료하지 않았으면 상기 슬라이드 또는 샘플을 촬영하는 단계로 되돌아가는 동작; 및
상기 슬라이드 촬영이 종료하였으면, 이미지들의 정합을 수행하여 전체 슬라이드 이미지를 생성하는 동작이 수행되도록 하는 슬라이드 이미징 장치.
In the slide imaging device,
objective lens;
an XY stage driven to linearly move the slide in the X and Y axes;
a Z-axis scanner driven to linearly move the objective lens in the Z-axis;
a memory storing one or more routines for performing a slide imaging method; and
a processing component configured to execute one or more routines stored within the memory;
When the one or more routines are executed by the processing component,
moving the XY stage to an initial position;
photographing a slide or sample;
restoring an out-of-focus region of the photographed image using a focus restoration network;
an operation of moving the XY stage to the next position and determining whether slide shooting is to end;
returning to the step of photographing the slide or sample if the photographing of the slide has not ended; and
A slide imaging device for performing an operation of generating an entire slide image by performing matching of images when the photographing of the slide is finished.
KR1020210194268A 2021-12-31 2021-12-31 Slide imaging device including focus restoration function and method therefor KR20230103394A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210194268A KR20230103394A (en) 2021-12-31 2021-12-31 Slide imaging device including focus restoration function and method therefor
CN202210465518.7A CN116413900A (en) 2021-12-31 2022-04-29 Slide imaging device including focus recovery function and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210194268A KR20230103394A (en) 2021-12-31 2021-12-31 Slide imaging device including focus restoration function and method therefor

Publications (1)

Publication Number Publication Date
KR20230103394A true KR20230103394A (en) 2023-07-07

Family

ID=87052079

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210194268A KR20230103394A (en) 2021-12-31 2021-12-31 Slide imaging device including focus restoration function and method therefor

Country Status (2)

Country Link
KR (1) KR20230103394A (en)
CN (1) CN116413900A (en)

Also Published As

Publication number Publication date
CN116413900A (en) 2023-07-11

Similar Documents

Publication Publication Date Title
US10330906B2 (en) Imaging assemblies with rapid sample auto-focusing
EP1336888B1 (en) Microscopy imaging system and data acquisition method
US7723662B2 (en) Microscopy arrangements and approaches
US6816606B2 (en) Method for maintaining high-quality focus during high-throughput, microscopic digital montage imaging
US7689024B2 (en) Systems and methods for creating and viewing three dimensional virtual slides
EP2273302B1 (en) Image acquiring apparatus, image acquiring method and image acquiring program
RU2734447C2 (en) System for forming a synthesized two-dimensional image of a biological sample with high depth of field
CN102053051A (en) Body fluid analysis system as well as image processing device and method for body fluid analysis
US10613313B2 (en) Microscopy system, microscopy method, and computer-readable recording medium
US10721413B2 (en) Microscopy system, microscopy method, and computer readable recording medium
WO2015155212A1 (en) An optical arrangement and method for imaging a sample
CN112070887A (en) Depth learning-based full-slice digital imaging depth of field extension method
US10475198B2 (en) Microscope system and specimen observation method
KR20230103394A (en) Slide imaging device including focus restoration function and method therefor
US7476831B2 (en) Microscopic imaging system having an optical correcting element
CN112053304A (en) Rapid focusing restoration method for single shooting of full-slice digital imaging
KR20230103393A (en) Slide imaging apparatus and method including selective Z-axis scanning
JP2022121167A (en) Image processing device, control method of image processing device, and program
JP4346888B2 (en) Microscope equipment
KR20230073005A (en) Device and method for generating whole slide image having z axis scanning
CN115914786A (en) Image acquisition apparatus and image acquisition method using the same
CN112037154A (en) High-precision quasi-focus restoration method for full-slice digital imaging and double photographing
JP4231915B2 (en) Specimen inspection method and system
CN112037152A (en) Full-slice digital imaging two-step quasi-focus restoration method based on deep learning
CN113933984A (en) Method and microscope for generating an image composed of a plurality of microscope subimages

Legal Events

Date Code Title Description
E902 Notification of reason for refusal