KR102357212B1 - Method and Apparatus for Auto-focusing Based on Random Forest - Google Patents

Method and Apparatus for Auto-focusing Based on Random Forest Download PDF

Info

Publication number
KR102357212B1
KR102357212B1 KR1020200008984A KR20200008984A KR102357212B1 KR 102357212 B1 KR102357212 B1 KR 102357212B1 KR 1020200008984 A KR1020200008984 A KR 1020200008984A KR 20200008984 A KR20200008984 A KR 20200008984A KR 102357212 B1 KR102357212 B1 KR 102357212B1
Authority
KR
South Korea
Prior art keywords
image
focal length
auto
optical microscope
classification model
Prior art date
Application number
KR1020200008984A
Other languages
Korean (ko)
Other versions
KR20210095310A (en
Inventor
전명근
이대종
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020200008984A priority Critical patent/KR102357212B1/en
Publication of KR20210095310A publication Critical patent/KR20210095310A/en
Application granted granted Critical
Publication of KR102357212B1 publication Critical patent/KR102357212B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/361Optical details, e.g. image relay to the camera or image sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/021Mountings, adjusting means, or light-tight connections, for optical elements for lenses for more than one lens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

랜덤 포레스트(random forest) 기반의 오토포커싱(auto-focusing) 장치 및 방법을 개시한다.
본 실시예는, 유리 기판에 대한 초점거리를 조절할 수 있는 광학시스템 및 사전에 학습된 랜덤 포레스트(random forest) 기반 분류모델(classification model)을 이용하여 입력 이미지에 대한 초점거리(focal length)를 자동으로 추정 및 조절하는 오토포커싱 장치 및 방법을 제공한다.
Disclosed are a random forest-based auto-focusing apparatus and method.
This embodiment automatically adjusts the focal length of the input image using an optical system capable of adjusting the focal length of the glass substrate and a previously learned random forest-based classification model. To provide an autofocusing apparatus and method for estimating and adjusting the

Description

랜덤 포레스트 기반의 오토포커싱 장치 및 방법{Method and Apparatus for Auto-focusing Based on Random Forest}{Method and Apparatus for Auto-focusing Based on Random Forest}

본 발명은 랜덤 포레스트(random forest) 기반의 오토포커싱(auto-focusing) 장치 및 방법에 관한 것이다. 더욱 상세하게는, 유리 기판의 결함 검출에 사용되는 검사 장비에 탑재되기 위한 랜덤 포레스트 기반의 오토포커싱 장치 및 방법에 관한 것이다.The present invention relates to a random forest-based auto-focusing apparatus and method. More particularly, it relates to a random forest-based auto-focusing apparatus and method for being mounted on inspection equipment used for defect detection of a glass substrate.

이하에 기술되는 내용은 단순히 본 발명과 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다. The content described below merely provides background information related to the present invention and does not constitute the prior art.

디스플레이(display) 산업은 TV 또는 컴퓨터의 보급과 함께 본격적으로 성장한 산업으로서 평판 디스플레이를 거쳐 차세대 디스플레이로 전환이 이루어지고 있다. 디스플레이의 대형화, 고화질화에 상응하여 원자재인 유리 기판(glass plate) 및 플라스틱 기판의 크기는 더욱 커지고 있고 두께도 더욱 얇아지고 있어, 이에 따라 유리 기판에 존재할 수 있는 미세결함의 검출 난이도도 증가하고 있다.The display industry is an industry that has grown in earnest along with the spread of TVs or computers, and is being converted to next-generation displays through flat panel displays. As the size of the raw material glass plate and plastic substrate is getting bigger and thinner in accordance with the enlargement and high quality of the display, the difficulty of detecting micro-defects that may exist in the glass substrate is also increasing accordingly.

고배율(high magnification) 렌즈를 탑재한 검사 장비를 사용하여 미세 결함을 검출하는 경우, 얇은 대형 유리 기판의 평탄도(flatness)에 따라서 렌즈의 심도(depth of field) 문제가 발생하여 렌즈의 초점이 맞지 않을 수 있다. 이러한 상황에서 고정 포커스(fixed focus) 방식이 이용된다면, 맞지 않는 초점으로 인하여 흐릿한 이미지가 획득될 수 있으므로, 결함을 검출하기 어렵다. When detecting micro-defects using inspection equipment equipped with a high magnification lens, a lens depth of field problem occurs depending on the flatness of a large thin glass substrate, and the lens is not in focus. it may not be In such a situation, if a fixed focus method is used, a blurred image may be obtained due to an incorrect focus, so that it is difficult to detect a defect.

한편 기존의 오토포커싱(auto-focusing) 방식은 렌즈의 위치에 부합하는 초점값(focus value)을 산정한 후, 이를 이용하여 정초점(in focus)의 위치를 검색한다. 이러한 방식은 정확하기는 하나, 연산량 증가로 인한 처리속도의 감소 때문에 검출을 위한 공정 시간이 증가되는 문제가 있다. Meanwhile, in the conventional auto-focusing method, a focus value corresponding to the position of the lens is calculated, and the position of the in-focus is searched using this. Although this method is accurate, there is a problem in that the processing time for detection increases due to a decrease in processing speed due to an increase in the amount of computation.

따라서 유리 기판 상의 결함 검출을 위한, 신속하면서도 정확하게 초점을 조절하는 것이 가능한 오토포커싱 장치가 요구된다.Accordingly, there is a need for an autofocusing apparatus capable of quickly and accurately controlling a focus for detecting defects on a glass substrate.

비특허문헌 1: Genuer. R, J. Poggi, C. Tuleau-Malot, N. Vialaneix, "Random Forests for Big Data", Big Data Research, Vol. 9, pp. 28-46, 2017.Non-Patent Document 1: Genuer. R, J. Poggi, C. Tuleau-Malot, N. Vialaneix, "Random Forests for Big Data", Big Data Research, Vol. 9, pp. 28-46, 2017.

본 개시는, 유리 기판에 대한 초점거리를 조절할 수 있는 광학시스템 및 사전에 학습된 랜덤 포레스트(random forest) 기반 분류모델(classification model)을 이용하여 입력 이미지에 대한 초점거리(focal length)를 자동으로 추정 및 조절하는 오토포커싱 장치 및 방법을 제공하는 데 주된 목적이 있다.The present disclosure automatically calculates a focal length for an input image using an optical system capable of adjusting a focal length for a glass substrate and a pre-trained random forest-based classification model. The main object is to provide an autofocusing apparatus and method for estimating and adjusting.

본 발명의 실시예에 따르면, 피사체에 대한 관심영역(Region of Interest: ROI)의 이미지를 광학현미경으로부터 획득하여 초점거리(focal length)를 추정하는 랜덤 포레스트(random forest) 기반의 분류모델(classification model); 상기 초점거리와 정초점(in focus) 간의 거리 차를 감소시키는 방향으로 상기 광학현미경의 위치를 조절하기 위한 제어 신호를 생성하는 제어부; 및 상기 제어 신호를 이용하여 상기 광학현미경의 위치를 조절하는 Z축 구동부를 포함하는 것을 특징으로 하는 오토포커싱(auto-focusing) 장치를 제공한다. According to an embodiment of the present invention, a random forest-based classification model for estimating a focal length by acquiring an image of a region of interest (ROI) for a subject from an optical microscope ); a control unit generating a control signal for adjusting a position of the optical microscope in a direction to reduce a distance difference between the focal length and an in focus; and a Z-axis driver for adjusting the position of the optical microscope by using the control signal.

본 발명의 다른 실시예에 따르면, 오토포커싱(auto-focusing) 장치가 이용하는 오토포커싱 방법에 있어서, 광학현미경으로부터 피사체에 대한 관심영역(Region of Interest: ROI)의 이미지를 획득하는 과정; 상기 관심영역에 대한 이미지를 사전에 학습된 랜덤 포레스트(random forest) 기반 분류모델(classification model)에 입력하여 초점거리(focal length)를 추정하는 과정; 상기 초점거리와 정초점(in focus) 간의 거리 차이를 감소시키는 방향으로 상기 광학현미경의 위치를 조절하기 위한 제어 신호를 생성 하는 과정; 및 상기 제어 신호를 이용하여 상기 광학현미경의 수직 위치를 조절하는 과정을 포함하는 것을 특징으로 하는 오토포커싱 방법을 제공한다. According to another embodiment of the present invention, in an auto-focusing method used by an auto-focusing device, the process of acquiring an image of a region of interest (ROI) for a subject from an optical microscope; estimating a focal length by inputting the image of the region of interest into a previously learned random forest-based classification model; generating a control signal for adjusting a position of the optical microscope in a direction to reduce a distance difference between the focal length and an in focus; and adjusting the vertical position of the optical microscope by using the control signal.

본 발명의 다른 실시예에 따르면, 오토포커싱 방법이 포함하는 각 단계를 실행시키기 위하여 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터프로그램을 제공한다. According to another embodiment of the present invention, there is provided a computer program stored in a computer-readable recording medium in order to execute each step included in the auto-focusing method.

이상에서 설명한 바와 같이 본 실시예에 따르면, 유리 기판에 대한 초점거리를 조절할 수 있는 광학시스템 및 사전에 학습된 랜덤 포레스트(random forest) 기반 분류모델(classification model)을 이용하여 입력 이미지에 대한 초점거리(focal length)를 추정 및 조절하는 오토포커싱 장치 및 방법을 제공함으로써, 정초점(in focus)으로부터 일정 거리 이내에서 획득된 영상에 대한 초점을 신속하게 맞추는 것이 가능해지는 효과가 있다.As described above, according to this embodiment, the focal length of the input image using an optical system capable of adjusting the focal length of the glass substrate and a previously learned random forest-based classification model. By providing an autofocusing apparatus and method for estimating and adjusting a focal length, it is possible to quickly focus an image acquired within a predetermined distance from an in focus.

또한 본 실시예에 따르면, 정초점으로부터 일정 거리 외곽에서 획득된 영상에 대해서는, 랜덤 포레스트 기반 분류모델을 반복 적용함으로써, 초점거리에 대한 인식률을 증가시키는 것이 가능해지는 효과가 있다. Also, according to the present embodiment, by repeatedly applying a random forest-based classification model to an image acquired at a distance from the original focal point, it is possible to increase the recognition rate of the focal length.

도 1은 본 발명의 일 실시예에 따른 오토포커싱 장치의 예시도이다.
도 2는 본 발명의 일 실시예에 따른 광학현미경의 개념도이다.
도 3은 본 발명의 일 실시예에 따른 랜덤 포레스트 기반 분류모델에 대한 개념도이다.
도 4는 본 발명의 일 실시예에 따른 오토포커싱 방법의 순서도이다.
도 5는 본 발명의 일 실시예에 따른 전체 영상 및 관심영역의 영상이다.
도 6은 본 발명의 일 실시예에 따른 검증용 세트 2에 대한 검증 결과를 나타낸 그래프이다.
도 7은 본 발명의 일 실시예에 따른 검증용 세트 3에 대한 검증 결과를 나타낸 그래프이다.
도 8은 초점 검출 알고리즘의 종류인 전역 검색 및 힐 클라이밍 검색에 대한 개념도이다.
1 is an exemplary diagram of an auto-focusing apparatus according to an embodiment of the present invention.
2 is a conceptual diagram of an optical microscope according to an embodiment of the present invention.
3 is a conceptual diagram of a random forest-based classification model according to an embodiment of the present invention.
4 is a flowchart of an autofocusing method according to an embodiment of the present invention.
5 is an image of an entire image and a region of interest according to an embodiment of the present invention.
6 is a graph illustrating a verification result for the verification set 2 according to an embodiment of the present invention.
7 is a graph illustrating a verification result for the verification set 3 according to an embodiment of the present invention.
8 is a conceptual diagram for global search and hill climbing search, which are types of focus detection algorithms.

이하, 본 발명의 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 실시예들의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in the description of the present embodiments, if it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present embodiments, the detailed description thereof will be omitted.

또한, 본 실시예들의 구성요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성요소를 다른 구성요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 '포함', '구비'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 '…부', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Also, in describing the components of the present embodiments, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. Throughout the specification, when a part 'includes' or 'includes' a certain element, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. . In addition, the '... Terms such as 'unit' and 'module' mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.

첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.DETAILED DESCRIPTION The detailed description set forth below in conjunction with the appended drawings is intended to describe exemplary embodiments of the present invention and is not intended to represent the only embodiments in which the present invention may be practiced.

본 실시예는 랜덤 포레스트(random forest) 기반의 오토포커싱(auto-focusing) 장치 및 방법에 대한 내용을 개시한다. 보다 자세하게는, 유리 기판에 대한 초점거리를 조절할 수 있는 광학시스템 및 사전에 학습된 랜덤 포레스트(random forest) 기반 분류모델(classification model)을 이용하여 입력 이미지에 대한 초점거리(focal length)를 추정(estimation) 및 조절(control)하는 오토포커싱 장치 및 방법을 제공한다.This embodiment discloses a random forest-based auto-focusing apparatus and method. In more detail, the focal length of the input image is estimated using an optical system capable of adjusting the focal length of the glass substrate and a pre-trained random forest-based classification model ( An autofocusing apparatus and method for estimating and controlling are provided.

랜덤 포레스트를 이용하는 머신학습(machine learning) 모델은, 범주(category)를 구분하는 분류모델(classification model) 또는 특정 종속 변수에 대한 값을 추론하는 회귀모델(regression model)로서 이용될 수 있다. 기 저장된 초점거리 별 영상 중에 입력 이미지와 유사한 영상을 찾는 과정으로 오토포커싱을 위한 초점거리를 추정하는 문제를 가정하여, 본 실시예는 랜덤 포레스트 기반 분류모델을 이용한다.A machine learning model using a random forest may be used as a classification model for classifying categories or a regression model for inferring values for a specific dependent variable. Assuming the problem of estimating the focal length for autofocusing as a process of finding an image similar to the input image among previously stored images for each focal length, this embodiment uses a random forest-based classification model.

본 발명에 있어서, 피사체(subject)는 패턴이 없는(patternless) 유리 기판(glass plate)인 것으로 가정한다.In the present invention, it is assumed that the subject is a patternless glass plate.

오토포커싱에는 능동 방식과 수동 방식이 있다. 능동 방식은 초점거리 측정을 위해 카메라가 적외선(또는 초음파)을 방출하여 피사체로부터 반사되어 돌아오는 신호의 시간을 측정하고, 이를 이용하여 거리를 계산하는 방식이다. 능동 방식은 광량과 무관하게 빛이 부족한 곳에서도 사용될 수 있다는 장점이 있다. 반면 카메라와 피사체 사이에 투명한 유리 등이 있는 경우 또는 적외선(또는 초음파)이 도달할 수 있는 거리 한계를 벗어나는 원거리에 피사체가 있는 경우, 초점 조절이 어려울 수 있다. Autofocusing has an active method and a passive method. In the active method, the camera emits infrared (or ultrasonic) to measure the focal length, measures the time of the signal reflected from the subject, and calculates the distance using this. The active method has the advantage that it can be used in places where there is insufficient light regardless of the amount of light. On the other hand, if there is a transparent glass between the camera and the subject, or if there is a subject at a far distance beyond the range limit that infrared (or ultrasonic) can reach, it may be difficult to adjust the focus.

수동 방식은 피사체로부터 반사된 빛을 이용하여 초점을 조절하는 방식으로, 위상차(phase difference) 검출 방식과 대비(contrast) 검출 방식이 있다. The manual method is a method of adjusting focus using light reflected from a subject, and there are a phase difference detection method and a contrast detection method.

위상차 검출 방식은 대부분의 SLR(Single Lens Reflex) 카메라에서 사용되는 방식으로 렌즈를 통과해 들어오는 빛을 둘로 나누어 두 영상 간의 파형을 비교한다. 위상차 검출 방식은, 오토포커싱 검출 센서 내의 렌즈를 사용하여, 렌즈를 통과한 피사체의 화상 정보로부터 2 개의 상(image)을 만든 후, 두 상 간의 간격, 즉 위상(phase)을 측정하여 초점이 어긋난 정도를 계산한다. 위상차 검출 방식은 대비 검출 방식보다 초점 조절이 신속하나, 대비나 광량이 적은 경우 초점 조절이 어렵고, 위상차를 측정하기 위한 별도의 장치를 필요로 한다는 단점이 있다.The phase difference detection method, which is used in most single lens reflex (SLR) cameras, divides the light that passes through the lens into two and compares the waveforms between the two images. The phase difference detection method uses a lens in an autofocusing detection sensor to make two images from image information of a subject that has passed through the lens, then measures the distance between the two phases, that is, the phase Calculate the extent The phase difference detection method allows for faster focusing than the contrast detection method, but has disadvantages in that it is difficult to adjust the focus when the contrast or the amount of light is small, and a separate device for measuring the phase difference is required.

대비 검출 방식은 렌즈를 움직이면서 피사체 일부의 초점값을 이용하여 대비를 반복 계산하여 대비가 최대가 되는 지점을 초점이 맞는 지점으로 판단한다. 카메라가 획득한 영상을 이용하여 대비를 계산하기 때문에 영상처리형 오토포커싱 방식으로도 명칭된다. 대비 검출 방식은 컴팩트 디지털 카메라 및 미러리스(mirrorless) 카메라 등에서 주로 이용되는데, 광량이 부족할 경우 초점 조절이 어렵고, 렌즈를 움직이면서 대비를 반복 계산하므로 위상차 검출 방식과 비교하여 속도가 느리다는 단점이 있다. 그러나 대비 검출 방식은 광량이 확보되는 상황에서는 오토포커싱 성능이 우수하고, 위상차를 측정하기 위한 별도의 장치를 필요로 하지 않으므로 구성이 간단하다는 장점이 있다. In the contrast detection method, the contrast is repeatedly calculated using the focus value of a part of the subject while the lens is moved, and the point at which the contrast is maximized is determined as the point of focus. Since the contrast is calculated using the image acquired by the camera, it is also called an image processing type autofocusing method. The contrast detection method is mainly used in compact digital cameras and mirrorless cameras, etc. However, when the amount of light is insufficient, it is difficult to adjust the focus, and since the contrast is repeatedly calculated while moving the lens, the speed is slow compared to the phase difference detection method. However, the contrast detection method has advantages in that the autofocusing performance is excellent in a situation where the amount of light is secured, and a separate device for measuring the phase difference is not required, so the configuration is simple.

한편, 초점 검색(focus search) 알고리즘으로는 전역 검색(global search) 및 힐 클라이밍(hill climbing) 검색이 있다. 대비 검출 방식에서 이용되는 가장 일반적인 초점 탐색 알고리즘인 전역 검색은 검사 구간 내 모든 렌즈 위치 영역에 대하여 초점값을 계산한 후 초점값이 최대가 되는 지점을 정초점으로 결정한다. 도 8의 (a)에 도시된 바와 같이, 전역 검색 방식은 검사 구간 내 모든 렌즈 위치 영역에 대하여 초점값을 계산하므로 극대값(local maximum)을 갖는 초점값에 대한 오류 확인은 가능하나, 검색 소요 시간이 길다는 단점이 있다.Meanwhile, as a focus search algorithm, there are a global search and a hill climbing search. Global search, which is the most common focus search algorithm used in the contrast detection method, calculates a focus value for all lens position areas within an inspection section, and then determines a point at which the focus value is maximum as the in-focus point. As shown in (a) of FIG. 8 , the global search method calculates the focus values for all lens position regions within the inspection section, so it is possible to check an error with respect to the focus value having a local maximum, but the search time required There is a downside to this length.

한편, 도 8의 (b)에 도시된 바와 같이, 힐 클라이밍 검색은 초점값의 그래프가 언덕의 형태로 분포한다는 사실을 이용한다. 이 방법은 전역 검색과 비교하여 소요 시간의 단축이 가능하나, 시작점이 잘못 설정된 경우 극대값을 정초점으로 오판할 수 있다는 단점이 있다.On the other hand, as shown in (b) of Figure 8, the hill climbing search uses the fact that the graph of the focus value is distributed in the form of a hill. This method can reduce the time required compared to the global search, but has a disadvantage in that, if the starting point is set incorrectly, the maximum value may be misjudged as the original focus.

이하 본 실시예는 랜덤 포레스트 기반 분류모델의 학습 단계에서 전역 검색에 기반하는 대비 검출 방식을 이용한다.Hereinafter, this embodiment uses a contrast detection method based on global search in the learning stage of the random forest-based classification model.

도 1은 본 발명의 일 실시예에 따른 오토포커싱 장치의 예시도이다. 본 발명의 실시예에 있어서, 오토포커싱(auto-focusing) 장치(100)는 사전에 학습된 랜덤 포레스트(random forest) 기반 분류모델(classification model)을 이용하여 입력 이미지에 대한 초점거리(focus position)를 추정 및 조절한다. 1 is an exemplary diagram of an auto-focusing apparatus according to an embodiment of the present invention. In an embodiment of the present invention, the auto-focusing apparatus 100 uses a pre-trained random forest-based classification model to determine a focus position for an input image. Estimate and adjust

오토포커싱 장치(100)는 광학부(103), 분류모델(classification model, 104), 제어부(105) 및 Z축 구동부(106)의 전부 또는 일부를 포함한다. 여기서, 본 실시예에 따른 오토포커싱 장치(100)에 포함되는 구성요소가 반드시 이에 한정되는 것은 아니다. 예컨대, 오토포커싱 장치(100) 상에 피사체로부터 분류모델(104)에 대한 입력 이미지를 획득하기 위한 대물 렌즈(101) 및 카메라(102)를 추가로 구비할 수 있다. 즉 피사체의 관심영역(Region of Interest: ROI)에 대한 이미지는 대물 렌즈(object lens, 101)를 통과한 후, 카메라(102)의 촬상소자(image sensor)에 의하여 촬영되어, 분류모델(104) 측으로 전달된다. 또한 오토포커싱 장치(100) 상에 분류모델(104)의 학습을 위한 트레이닝부(미도시)를 추가로 구비하거나, 외부의 트레이닝부와 연동되는 형태로 구현될 수 있다.The auto-focusing apparatus 100 includes all or a part of an optical unit 103 , a classification model 104 , a control unit 105 , and a Z-axis driving unit 106 . Here, the components included in the auto-focusing apparatus 100 according to the present embodiment are not necessarily limited thereto. For example, the auto-focusing apparatus 100 may further include an objective lens 101 and a camera 102 for acquiring an input image for the classification model 104 from the subject. That is, the image for the region of interest (ROI) of the subject is taken by the image sensor of the camera 102 after passing through the object lens 101, and the classification model 104. transmitted to the side. In addition, a training unit (not shown) for learning the classification model 104 may be additionally provided on the auto-focusing apparatus 100 , or may be implemented in the form of interworking with an external training unit.

패턴이 있는(patterned) 유리의 경우, 초점 상태에 따라 패턴 경계부분의 시야(field of view)의 대비차를 이용하여 초점값의 산정이 가능하다. 패턴이 없는 유리 기판의 경우, 초점이 맞는 상태와 맞지 않는 상태 간의 대비차가 존재하지 않으므로 대비차를 이용하는 초점값 계산이 어렵다. 패턴이 없는 유리 기판에 대해 오토포커싱을 수행하기 위해서는, 관심영역의 이미지가 초점의 상태에 따른 경계의 대비를 포함할 수 있어야 한다. In the case of patterned glass, it is possible to calculate the focus value by using the contrast difference of the field of view at the boundary of the pattern according to the focus state. In the case of a glass substrate without a pattern, it is difficult to calculate a focus value using the contrast difference because there is no contrast difference between the focused state and the non-focused state. In order to perform autofocusing on a glass substrate without a pattern, the image of the region of interest should be able to include the contrast of the boundary according to the state of focus.

광학현미경(optical microscope)은 확대 관측을 위한 결상(image formation) 렌즈인 대물 렌즈, 관측 대상에 빛을 조사하는 광원 및 조명용 렌즈로 구성된다. 광학현미경에서 사용하는 조명 방식으로 쾰러 조명(Kohler illumination)이 있다. 쾰러 조명은 피사체의 전체 영역에서 밝고 균일한 조명을 구현하기 위한 방법으로서, 조명 광원도 광학계 내부에서 결상을 하게 된다. 조명의 상(image)이 대물 렌즈의 후(rear) 초점면에 결상되도록 유도되고, 피사체 전체에 균일한 조명이 조사되는 것이 가능해짐으로써, 광학현미경은 대부분 쾰러 조명을 채택하고 있다. An optical microscope is composed of an objective lens that is an image formation lens for magnification observation, a light source irradiating light to an observation object, and a lens for illumination. used in light microscopy The illumination method is Kohler illumination. Kohler illumination is a method for realizing bright and uniform illumination in the entire area of the subject, and the illumination light source also forms an image inside the optical system. An image of illumination is induced to form an image on the rear focal plane of the objective lens, and it becomes possible to irradiate the entire subject with uniform illumination, so that most optical microscopes employ Kohler illumination.

본 실시예에 따른 광학부(103)는 피사체에 대하여 쾰러 조명을 제공한다. The optical unit 103 according to the present embodiment provides Kohler illumination to the subject.

도 2는 본 발명의 일 실시예에 따른 광학현미경의 개념도이다. 2 is a conceptual diagram of an optical microscope according to an embodiment of the present invention.

도 2에 도시된 바와 같이 피사체는 렌즈를 통하여 촬상 소자에 확대 또는 축소되는데 이를 결상이라 한다. 피사체 및 촬상 소자의 위치뿐만 아니라 시야 조리개의 위치 또한 결상의 위치이기 때문에, 시야 조리개(field stopper 또는 field diaphragm)는 촬상되는 피사체의 범위를 결정한다. 즉 시야 조리개에 물체를 위치시키면 촬상 소자에서 피사체를 확인하는 것이 가능하다. 도 2의 도시에서 개구 조리개(aperture diaphragm)는 렌즈에 입사되는 빛의 양을 조절하여 영상의 밝기 및 심도를 결정한다. As shown in FIG. 2 , the subject is enlarged or reduced in the image pickup device through the lens, which is referred to as imaging. Since the position of the field stop as well as the position of the subject and the image pickup device is the image forming position, the field stopper (field diaphragm) determines the range of the subject to be imaged. That is, if the object is positioned on the field stop, it is possible to identify the object in the image pickup device. 2 , an aperture diaphragm determines the brightness and depth of an image by controlling the amount of light incident on the lens.

쾰러 조명을 채택한 현미경의 경우, 시야 조리개를 축소시킨 후, 시야 조리개의 날(blade)이 선명하게 보일 때까지 집광기(condenser)를 상하로 움직임으로써 사용자가 수동으로 초점을 조절할 수 있다. 이러한 방법을 응용하여, 본 실시예에 따른 오토포커싱 장치(100)는 랜덤 포레스트 기반 분류모델(104)의 학습 및 검증에 시야 조리개의 날이 포함된 영역을 관심영역으로 사용한다. 즉, 시야 조리개의 날이 제공하는 대비를 기반으로 분류모델(104)의 학습 및 검증을 실행한다.In the case of a microscope employing Kohler illumination, after reducing the field stop, the user can manually adjust the focus by moving the condenser up and down until the blade of the field stop is clearly visible. By applying this method, the autofocusing apparatus 100 according to the present embodiment uses the region including the blade of the field stop as the region of interest in learning and verifying the random forest-based classification model 104 . That is, learning and verification of the classification model 104 are executed based on the contrast provided by the blade of the field stop.

본 실시예에 따른 랜덤 포레스트 기반 분류모델(104)은 획득된 관심영역 이미지를 이용하여 초점거리를 추정한다. 오토포커싱 장치(100)는 시야 조리개의 날 영역의 이미지를 사전에 학습된 분류모델(104)이 포함하는 M(M은 자연수) 개의 결정트리(decision tree)에 입력하여 피사체에 대한 초점거리를 추정할 수 있다.The random forest-based classification model 104 according to the present embodiment estimates a focal length using the obtained ROI image. The autofocusing apparatus 100 estimates the focal length of the subject by inputting the image of the blade region of the field stop to M (M is a natural number) decision tree included in the pre-trained classification model 104 . can do.

랜덤 포레스트 방법은 분류 문제 및 회귀 문제에 폭넓게 사용될 수 있으며, 몇 개의 파라미터 조정만으로도 뛰어난 성능을 나타낸다(비특허문헌 1 참조). 랜덤 포레스트 방법은 여러 개의 독립적인 트리를 기반으로 하기 때문에 병렬구조를 이용하여 처리 속도를 증대시키는 것이 가능하다. 그러나 각 트리에 대한 부트스트랩(bootstrap) 샘플의 크기가 큰 경우, 트리에 대한 직접적인 병렬 학습의 실행이 어려울 수 있다. 또한 랜덤 포레스트는 중복 샘플링(repeated sampling)을 포함하므로, 병렬 처리 외에도 대규모 온라인 상황에 맞게 조정된 부트스트랩 방식이 고려될 수 있다.The random forest method can be widely used for classification problems and regression problems, and shows excellent performance with only a few parameter adjustments (see Non-Patent Document 1). Since the random forest method is based on several independent trees, it is possible to increase the processing speed by using a parallel structure. However, if the size of the bootstrap sample for each tree is large, it may be difficult to directly execute parallel learning on the tree. In addition, since the random forest includes repeated sampling, a bootstrap method adapted for a large-scale online situation in addition to parallel processing may be considered.

본 실시예에 따른 랜덤 포레스트 기반 분류모델(104)이 포함하는 M 개의 결정트리는 학습용 이미지를 이용하여 초점거리를 추정하도록 사전에 학습될 수 있다. 학습 과정에 대한 자세한 사항은 추후에 기술하기로 한다.M decision trees included in the random forest-based classification model 104 according to the present embodiment may be trained in advance to estimate the focal length using the training image. Details of the learning process will be described later.

본 실시예에 따른 제어부(105)는 추정된 초점거리와 정초점 간의 거리 차이를 감소시키는 방향으로 광학현미경의 위치를 조절하기 위한 제어 신호를 생성하여 Z축 구동부(106)에 제공한다. 또한 제어부(105)는 광학부(103)가 제공하는 쾰러 조명의 세기를 제어하기 위한 조명 조절 신호를 생성한 후, Z축 구동부(106)를 이용하여 광학현미경에 전달한다. 여기서, 대물 렌즈(101), 카메라(102) 및 광학부(103)를 포함하는 광학현미경은 Z축 구동부(106)에 부착되는 것으로 가정한다.The controller 105 according to the present embodiment generates a control signal for adjusting the position of the optical microscope in a direction to reduce the difference between the estimated focal length and the in-focus distance, and provides it to the Z-axis driving unit 106 . In addition, the control unit 105 generates an illumination control signal for controlling the intensity of the Kohler illumination provided by the optical unit 103 and transmits it to the optical microscope using the Z-axis driving unit 106 . Here, it is assumed that the optical microscope including the objective lens 101 , the camera 102 , and the optical unit 103 is attached to the Z-axis driving unit 106 .

본 실시예에 따른 Z축 구동부(106)는 광학현미경의 수직 위치를 조절함으로써, 피사체에 대한 최종적인 오토포커싱 기능을 실행한다. 이를 위하여 Z축 구동부(106)은 수직 위치 조절을 위한 모터 및 모터 구동부를 포함할 수 있다.The Z-axis driving unit 106 according to the present embodiment executes a final autofocusing function on the subject by adjusting the vertical position of the optical microscope. To this end, the Z-axis driving unit 106 may include a motor and a motor driving unit for vertical position adjustment.

도 1의 도시는 본 실시예에 따른 예시적인 구성이며, 피사체의 고정 방법, 대물 렌즈, 카메라, 광학부, 분류모델, 제어부 및/또는 Z축 구동부의 형태에 따라 다른 구성요소 또는 구성요소 간의 다른 연결을 포함하는 구현이 가능하다. 1 is an exemplary configuration according to the present embodiment, and other components or differences between the components according to the fixing method of the subject, the objective lens, the camera, the optical unit, the classification model, the control unit and/or the Z-axis driving unit are different. Implementations involving connections are possible.

본 실시예에 따른 오토포커싱 장치(100)는 프로그램가능 시스템에 탑재되는 것으로 가정한다. 프로그램가능 시스템은 대물 렌즈, 카메라 및 광학부 등으로 구성된 광학현미경으로부터 유선 또는 무선 전송방식을 이용하여 입력 이미지에 대한 데이터를 획득하는 것으로 가정한다.It is assumed that the auto-focusing apparatus 100 according to the present embodiment is mounted on a programmable system. It is assumed that the programmable system acquires data for an input image from an optical microscope including an objective lens, a camera, and an optical unit using a wired or wireless transmission method.

이하, 랜덤 포레스트 기반 분류모델(104)에 대한 학습 과정을 기술한다.Hereinafter, a learning process for the random forest-based classification model 104 will be described.

도 3은 본 발명의 일 실시예에 따른 랜덤 포레스트 기반 분류모델에 대한 개념도이다. 3 is a conceptual diagram of a random forest-based classification model according to an embodiment of the present invention.

도 3에 도시된 바와 같이 트레이닝부는 전체 학습용 이미지 데이터세트로부터 n(n은 자연수) 개의 데이터를 무작위로 중복 샘플링하여 부트스트랩 그룹을 구성하되, M 개의 그룹을 생성한다. 각 부트스트랩 그룹에 대하여 임의의 이진(binary) 결정트리를 학습시킨 후, 트레이닝부는 최종 단계에서 전체 M 개의 트리에 대한 결합을 진행한다.As shown in FIG. 3 , the training unit constructs a bootstrap group by randomly and redundantly sampling n (n is a natural number) data from the entire training image dataset, but generates M groups. After learning a random binary decision tree for each bootstrap group, the training unit proceeds to combine all M trees in the final step.

학습용 이미지 데이터세트는 정초점 근처의 검색 범위를 전역 검색하여 생성할 수 있다. 또한 각 학습용 이미지는 시야 조리개의 날을 포함하여, 시야 조리개의 날이 제공하는 대비(contrast)를 결정트리의 학습에 이용할 수 있도록 한다.The training image dataset can be created by global searching the search range near the focal point. In addition, each training image includes the blade of the field stop so that the contrast provided by the blade of the field stop can be used for learning the decision tree.

M 개의 트리로 구성된 랜덤 포레스트 기반 분류모델(104)에서 입력 이미지 x에 대한 j 번째 트리의 예측값을

Figure 112020007895319-pat00001
로 나타낸다. 여기서
Figure 112020007895319-pat00002
은 M 개의 트리 각각에 대한 독립 랜덤 변수이다. 각 트리를 생성하기 전, 중복 샘플링을 실행하여 학습용 데이터세트로부터 j 번째 부트스트랩 그룹을 생성하기 위해 변수
Figure 112020007895319-pat00003
가 이용될 수 있다. In the random forest-based classification model 104 composed of M trees, the predicted value of the j-th tree for the input image x is
Figure 112020007895319-pat00001
is indicated by here
Figure 112020007895319-pat00002
is an independent random variable for each of the M trees. Before creating each tree, we run redundant sampling to create the j-th bootstrap group from the training dataset.
Figure 112020007895319-pat00003
can be used

Figure 112020007895319-pat00004
은 학습용 데이터로서,
Figure 112020007895319-pat00005
는 독립 랜덤 변수에 기반하여 생성될 수 있는 i 번째 영상의 특징(feature)으로써 특징의 개수는 영상의 해상도(resolution)와 동일하다.
Figure 112020007895319-pat00006
는 i 번째 영상의 초점거리이다.
Figure 112020007895319-pat00004
is data for learning,
Figure 112020007895319-pat00005
is a feature of the i-th image that can be generated based on an independent random variable, and the number of features is equal to the resolution of the image.
Figure 112020007895319-pat00006
is the focal length of the i-th image.

트레이닝부는 입력 이미지 x에 대한 추정값을 추정하도록 수학식 1에 따라 j 번째 트리를 학습시킬 수 있다.The training unit may train the j-th tree according to Equation 1 to estimate the estimated value of the input image x.

Figure 112020007895319-pat00007
Figure 112020007895319-pat00007

여기서

Figure 112020007895319-pat00008
는 트리 형성 전에 선택된 데이터세트를 의미하며,
Figure 112020007895319-pat00009
은 x를 포함하는 전체 집합이고,
Figure 112020007895319-pat00010
Figure 112020007895319-pat00011
에 해당하는 픽셀의 수를 의미한다. 수학식 1에 따르면, 트레이닝부는 입력 이미지의 특징과 j 번째 트리의 학습에 이용된 부트스트랩 그룹의 각 구성요소 간의 유사 확률을 산정한 후, 각 구성요소 별로 산정된 확률과 각 구성요소에 대응되는 초점거리의 곱을 결합하여, j 번째 트리의 예측값을 추정한다. here
Figure 112020007895319-pat00008
means the dataset selected before tree formation,
Figure 112020007895319-pat00009
is the whole set containing x,
Figure 112020007895319-pat00010
silver
Figure 112020007895319-pat00011
is the number of pixels corresponding to . According to Equation 1, after calculating the similarity probability between the features of the input image and each component of the bootstrap group used for learning the j-th tree, the training unit calculates the probability calculated for each component and the corresponding probability for each component. By combining the products of focal lengths, the predicted value of the j-th tree is estimated.

전체 M 개의 트리에 대하여 수학식 1에 따른 각 트리의 추정값을 수학식 2와 같이 결합하여, 분류모델(104)은 초점거리를 추정할 수 있다.For all M trees, by combining the estimated values of each tree according to Equation 1 as in Equation 2, the classification model 104 can estimate the focal length.

Figure 112020007895319-pat00012
Figure 112020007895319-pat00012

도 4는 본 발명의 일 실시예에 따른 오토포커싱 방법의 순서도이다. 4 is a flowchart of an autofocusing method according to an embodiment of the present invention.

본 발명의 실시예에 따른 오토포커싱 장치(100)는 광학현미경으로부터 피사체에 대한 관심영역(Region of Interest: ROI)의 이미지를 획득한다(S401). 오토포커싱 장치(100)는 관심영역으로서 시야 조리개(field stopper 또는 field diaphragm)의 날(blade) 영역을 이용한다. 광학현미경은 쾰러 조명(Kohler illumination)을 이용하여 관심영역의 이미지를 생성할 수 있다.The autofocusing apparatus 100 according to an embodiment of the present invention acquires an image of a region of interest (ROI) for a subject from an optical microscope (S401). The autofocusing apparatus 100 uses a blade region of a field stopper or field diaphragm as a region of interest. An optical microscope may generate an image of a region of interest using Kohler illumination.

오토포커싱 장치(100)는 관심영역의 이미지를 랜덤 포레스트 기반 분류모델에 입력하여 초점거리를 추정한다(S402). 오토포커싱 장치(100)는 시야 조리개의 날 영역의 이미지를 사전에 학습된 분류모델(104)이 포함하는 M(M은 자연수) 개의 결정트리(decision tree)에 입력하여 피사체에 대한 초점거리(focal length)를 추정할 수 있다.The auto-focusing apparatus 100 estimates a focal length by inputting the image of the ROI into a random forest-based classification model (S402). The autofocusing apparatus 100 inputs the image of the blade region of the field stop to M (M is a natural number) decision tree including the pre-trained classification model 104, and the focal length of the subject length) can be estimated.

오토포커싱 장치(100)는 추정된 초점거리를 이용하여 광학현미경의 Z축 위치를 조절하기 위한 제어 신호를 생성한다(S403). 오토포커싱 장치(100)는 추정된 초점거리와 정초점(in focus) 간의 거리 차를 감소시키는 방향으로 광학현미경의 Z축 위치를 조절하기 위한 제어 신호를 생성할 수 있다. 또한 오토포커싱 장치(100)는 쾰러 조명의 세기를 제어하기 위한 조명 조절 신호를 광학현미경에 제공한다. The autofocusing apparatus 100 generates a control signal for adjusting the Z-axis position of the optical microscope using the estimated focal length (S403). The autofocusing apparatus 100 may generate a control signal for adjusting the Z-axis position of the optical microscope in a direction to reduce the difference between the estimated focal length and the in-focus distance. In addition, the autofocusing device 100 provides an illumination control signal for controlling the intensity of Kohler illumination to the optical microscope.

오토포커싱 장치(100)는 Z축 위치 조절하기 위한 제어 신호를 기반으로 광학현미경의 수직 위치를 조절한다(S404). The autofocusing apparatus 100 adjusts the vertical position of the optical microscope based on the control signal for adjusting the Z-axis position (S404).

오토포커싱 장치(100)는 산정된 초점거리가 심도 허용 범위 내로 추정된 것인지를 확인한다(S405). 광학현미경의 심도(depth of field) 허용 범위 내로 추정된 경우, 오토포커싱 장치(100)는 오토포커싱 과정을 종료한다. The auto-focusing apparatus 100 checks whether the calculated focal length is estimated within the allowable depth range ( S405 ). When it is estimated that the depth of field of the optical microscope is within the allowable range, the autofocusing apparatus 100 ends the autofocusing process.

반면, 심도 허용 범위 내로 추정되지 않은 경우, 오토포커싱 장치(100)는 S401부터 S404까지의 단계를 반복 실행한다. 반복적으로 오토포커싱 과정을 실행함으로써, 추정된 초점거리와 정초점 간의 차를 심도 허용 범위 내로 감소시키는 것이 가능하다.On the other hand, when the depth is not estimated within the allowable range, the autofocusing apparatus 100 repeats steps S401 to S404. By iteratively executing the autofocusing process, it is possible to reduce the difference between the estimated focal length and the in-focus range to within the allowable depth of field.

이하 본 실시예에 따른 오토포커싱 장치(100)의 성능을 보이기 위한 실험예에 대하여 설명한다.Hereinafter, an experimental example for showing the performance of the auto-focusing apparatus 100 according to the present embodiment will be described.

실험예에서, 영상 획득을 위한 카메라로는 Sentech STC- CMB2MPOE를 사용하였다. 이 카메라는 이더넷(ethernet) 인터페이스 기반의 카메라로서, 카메라를 컴퓨터 측으로 직접 연결하여 오토포커싱 장치(100)가 영상을 획득하는 것이 가능하다. 렌즈는 Mitutoyo 사의 대물 렌즈인 M Plan APO 5X 렌즈를 사용하였다. 광원은 백색 LED(Light Emitting Diode) 동축 낙사 스팟(coaxial box spot) 조명을 사용하고, 조명 밝기 제어를 위해 255 단계로 제어가 되는 LED 조명 제어기를 사용하였다. Z축 동작 제어를 위해 Fastech 사의 Ezi-Servo Plus-R 모터 구동부 및 EzM42 시리즈 모터를 사용하였다. In the experimental example, a Sentech STC-CMB2MPOE was used as a camera for image acquisition. This camera is an Ethernet interface-based camera, and it is possible for the autofocusing apparatus 100 to acquire an image by directly connecting the camera to the computer side. As a lens, an M Plan APO 5X lens, an objective lens of Mitutoyo, was used. As a light source, white LED (Light Emitting Diode) coaxial box spot lighting was used, and an LED lighting controller controlled in 255 steps for lighting brightness control was used. For Z-axis motion control, Fastech's Ezi-Servo Plus-R motor driver and EzM42 series motor were used.

사용된 이더넷 카메라의 셀 크기는 5.5 ㎛이며, 영상 확대를 위해 5 배율 대물 렌즈의 개구 조리개 값을 17.86으로 설정할 경우, 획득 영상의 심도는 47.15 ㎛이다. 본 실험예에서는 10 ㎛ 단위로 이동하면서 영상이 획득되었으므로 심도 범위인 -20 ㎛부터 +20 ㎛ 구간을 오토포커싱 목표로 설정하였다. 정초점(0 ㎛)에서 획득한 영상과 심도 범위 내인 -20 ㎛, -10 ㎛, +10 ㎛, +20 ㎛에서 촬영된 영상 간의 선명도 차이는 크지 않았다. 따라서 정초점에서

Figure 112020007895319-pat00013
㎛ 내에 위치하는 경우 오토포커싱이 되었다고 가정한다. The cell size of the used Ethernet camera is 5.5 μm, and when the aperture stop value of the 5 magnification objective is set to 17.86 for image magnification, the depth of the acquired image is 47.15 μm. In this experimental example, since images were acquired while moving in units of 10 μm, a depth range of -20 μm to +20 μm was set as the autofocusing target. There was no significant difference in sharpness between images acquired at the in-focus (0 μm) and images taken at -20 μm, -10 μm, +10 μm, and +20 μm within the depth range. So, at the starting point
Figure 112020007895319-pat00013
It is assumed that auto-focusing is performed when it is located within μm.

정인식률은 각 초점거리 별로 구성된 데이터에 대해서 목표값과 추정값이 일치한 영상 개수의 비율로 정의한다. 또한

Figure 112020007895319-pat00014
㎛,
Figure 112020007895319-pat00015
㎛,
Figure 112020007895319-pat00016
㎛ 범위 인식률은 목표값과 추정값 간의 차이가 각각 허용 범위 내로 인식된 영상 개수의 비율로 정의한다. 실험예에서는 각 초점거리별로 구성된 데이터에 대해서 정 인식률,
Figure 112020007895319-pat00017
㎛ 범위 인식률,
Figure 112020007895319-pat00018
㎛ 범위 인식률,
Figure 112020007895319-pat00019
㎛ 범위 인식률로 구분하여 본 실시예의 성능이 평가되었다.The static recognition rate is defined as the ratio of the number of images in which the target value and the estimated value coincide with respect to the data configured for each focal length. Also
Figure 112020007895319-pat00014
μm,
Figure 112020007895319-pat00015
μm,
Figure 112020007895319-pat00016
The μm range recognition rate is defined as the ratio of the number of images in which the difference between the target value and the estimated value is within an acceptable range, respectively. In the experimental example, the positive recognition rate,
Figure 112020007895319-pat00017
μm range recognition rate,
Figure 112020007895319-pat00018
μm range recognition rate,
Figure 112020007895319-pat00019
The performance of this example was evaluated by dividing by the recognition rate in the μm range.

실험예에서는, 유리 기판에 대하여 정초점(0 ㎛)으로부터 -100 ㎛에서 +100 ㎛까지의 검색 범위에 대하여 10 ㎛ 단위로 이동하면서 1 세트 당 21 장의 영상이 획득되었다. 도 5의 (a)에 도시된 바와 같은 전체 영상에서, 도 5의 (b)에 도시된 바와 같은 시야 조리개의 날 영역이 관심영역으로 선정되어 학습 및 검증에 사용되었다. 동일한 위치라도 조명 변화 및 기구부 변동에 따라 이미지에 미세한 변화가 발생할 수 있으므로, 본 실험예에서는 동일한 위치의 영상이 여러 차례 획득되어 랜덤 포레스트 기반 분류모델(104)의 학습에 사용되었다. In the experimental example, 21 images were acquired per set while moving in increments of 10 µm over the search range from -100 µm to +100 µm from the in-focus (0 µm) on the glass substrate. In the entire image as shown in Fig. 5 (a), the blade region of the field stop as shown in Fig. 5 (b) was selected as the region of interest and used for learning and verification. Even at the same location, fine changes may occur in the image due to changes in lighting and mechanical changes, so in this experimental example, images of the same location were acquired several times and used for learning the random forest-based classification model 104 .

표 1은 학습 및 검증에 사용된 데이터세트의 구성을 나타낸다.Table 1 shows the composition of the dataset used for training and validation.

Figure 112020007895319-pat00020
Figure 112020007895319-pat00020

표 1에 나타내 바와 같이 학습용 데이터세트는 검색 범위에서 초점거리 별로 이동하면서 500 번 반복 획득하여 총 500 세트를 생성하였다. 또한 분류모델(104)의 성능 분석을 위하여 학습용 데이터를 획득한 위치에서 학습에 사용하지 않은 영상 및 근처 다른 위치에서 영상을 획득하여 검증용 데이터세트가 생성되었다. 검증용 세트 1은 학습용 데이터와 동일한 위치에서 획득한 영상 데이터이고, 검증용 세트 2 및 세트 3은 학습용 데이터와 다른 위치에서 획득한 영상을 포함한다.As shown in Table 1, the training dataset was repeatedly acquired 500 times while moving by focal length in the search range to generate a total of 500 sets. In addition, for the performance analysis of the classification model 104, an image not used for learning and an image from another nearby location were obtained at the location where the training data was obtained, and a verification dataset was generated. The verification set 1 is image data obtained at the same location as the training data, and the verification sets 2 and 3 include images obtained at a different location from the training data.

전술한 바와 같이 각 초점거리 별 500 개씩, 전체 21 개의 위치에 대하여 총 10,500 개의 관심영역 영상이 학습용 데이터로 사용되었다. 각각의 관심영역 영상은 해상도가 80x40으로서, 3,200 개의 특징 요소를 생성할 수 있다. 학습 과정에서 트리를 성장시킬 때 트리의 깊이(depth)가 최대 5를 넘지 않도록 정지 기준이 설정되었고, 분리 노드(node)에 도달하는 최소 학습 영상은 10 개 이상이 되도록 제한되었다. 실험예에서는, 500 세트의 학습 데이터세트를 이용하여 학습을 실행한 결과, 전체 63 개의 트리가 생성되었다.As described above, a total of 10,500 ROI images for a total of 21 positions, 500 for each focal length, were used as training data. Each region of interest image has a resolution of 80x40, and 3,200 feature elements can be generated. When the tree is grown in the learning process, the stopping criterion is set so that the depth of the tree does not exceed a maximum of 5, and the minimum number of learning images reaching a separation node is limited to be more than 10. In the experimental example, as a result of executing training using 500 training datasets, a total of 63 trees were generated.

본 실시예에 따른 랜덤 포레스트 기반 분류모델(104)에 대하여 입력 영상에 대한 초점거리를 목표값으로 설정하여 학습이 진행되었다. 새로운 영상이 입력되면 사전에 학습된 분류모델(104)은 초점거리 추정값을 산출할 수 있다. 따라서, 초점거리 추정값에서 정초점까지의 거리 차만큼 광학현미경을 이동시키면 정초점에 위치시킬 수 있다. For the random forest-based classification model 104 according to the present embodiment, learning was performed by setting the focal length of the input image as a target value. When a new image is input, the pre-trained classification model 104 may calculate a focal length estimation value. Therefore, if the optical microscope is moved by the difference in distance from the estimated focal length to the in-focus, it can be positioned in the in-focus.

학습용 데이터와 동일한 위치에서 획득하였지만 학습에 사용하지 않은 세트 1에 대한 검증이 실행되었다. 100 세트로 구성된 2,100 장의 영상을 이용하여 검증한 결과, 전체 구간에 대한 정인식률이 100 %였다. 따라서 랜덤 포레스트 기반 분류모델(104)의 재현성이 높음이 확인되었다. Validation was performed on set 1, which was acquired from the same location as the training data but was not used for training. As a result of verification using 2,100 images composed of 100 sets, the recognition rate for the entire section was 100%. Therefore, it was confirmed that the reproducibility of the random forest-based classification model 104 is high.

도 6은 본 발명의 일 실시예에 따른 검증용 세트 2에 대한 검증 결과를 나타낸 그래프이다.6 is a graph illustrating a verification result for the verification set 2 according to an embodiment of the present invention.

100 세트로 구성된 검증용 세트 2의 2,100 장의 영상을 이용하여 검증이 실행되었다. 도 6에 도시된 바와 같이 전체 구간에 대한 정인식률은 51.05 %로서 낮은 비율이었으나, 초점거리 -70 ㎛ ∼ +70 ㎛ 구간을 고려하는 경우,

Figure 112020007895319-pat00021
㎛ 범위 내로 추정된 인식률은 100 %였다. 이는 심도 허용 범위 이내이므로, 해당 초점거리 구간에서는 본 실시예에 따른 오토포커싱 장치(100)의 초점거리 추정 성능이 우수함이 확인되었다.Verification was performed using 2,100 images of set 2 for verification, which consists of 100 sets. As shown in FIG. 6, the recognition rate for the entire section was 51.05%, which was a low ratio, but considering the focal length -70 μm to +70 μm section,
Figure 112020007895319-pat00021
The recognition rate estimated within the μm range was 100%. Since this is within the allowable depth range, it was confirmed that the focal length estimation performance of the autofocusing apparatus 100 according to the present embodiment was excellent in the corresponding focal length section.

도 7은 본 발명의 일 실시예에 따른 검증용 세트 3에 대한 검증 결과를 나타낸 그래프이다.7 is a graph illustrating a verification result for the verification set 3 according to an embodiment of the present invention.

100 세트로 구성된 검증용 세트 3의 2,100장의 영상을 이용하여 검증이 실행되었다. 도 7에 도시된 바와 같이 전체 구간에 대한 정인식률은 33.86 %로서 낮은 비율이었으나, 초점거리 -70 ㎛ ∼ +70 ㎛ 구간을 고려하는 경우,

Figure 112020007895319-pat00022
㎛ 범위 내로 추정된 인식률은 100 %였다. 이는 심도 허용 범위 이내이므로, 해당 초점거리 구간에서는 본 실시예에 따른 오토포커싱 장치(100)의 초점거리 추정 성능이 우수함이 확인되었다. Verification was performed using 2,100 images of set 3 for verification consisting of 100 sets. As shown in FIG. 7, the recognition rate for the entire section was 33.86%, which was a low ratio, but considering the focal length -70 μm to +70 μm section,
Figure 112020007895319-pat00022
The recognition rate estimated within the μm range was 100%. Since this is within the allowable depth range, it was confirmed that the focal length estimation performance of the autofocusing apparatus 100 according to the present embodiment was excellent in the corresponding focal length section.

이상에서 설명한 바와 같이 본 실시예에 따르면, 유리 기판에 대한 초점거리를 조절할 수 있는 광학시스템 및 사전에 학습된 랜덤 포레스트(random forest) 기반 분류모델(classification model)을 이용하여 입력 이미지에 대한 초점거리(focal length)를 추정 및 조절하는 오토포커싱 장치 및 방법을 제공함으로써, 정초점(in focus)으로부터 일정 거리 이내에서 획득된 영상에 대한 초점을 신속하게 맞추는 것이 가능해지는 효과가 있다.As described above, according to this embodiment, the focal length of the input image using an optical system capable of adjusting the focal length of the glass substrate and a previously learned random forest-based classification model. By providing an autofocusing apparatus and method for estimating and adjusting a focal length, it is possible to quickly focus an image acquired within a predetermined distance from an in focus.

또한 본 실시예에 따르면, 정초점으로부터 일정 거리 외곽에서 획득된 영상에 대해서는, 랜덤 포레스트 기반 분류모델을 반복 적용함으로써, 초점거리에 대한 인식률을 증가시키는 것이 가능해지는 효과가 있다. Also, according to the present embodiment, by repeatedly applying a random forest-based classification model to an image acquired at a distance from the original focal point, it is possible to increase the recognition rate of the focal length.

본 실시예에 따른 각 순서도에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 순서도에 기재된 과정을 변경하여 실행하거나 하나 이상의 과정을 병렬적으로 실행하는 것이 적용 가능할 것이므로, 순서도는 시계열적인 순서로 한정되는 것은 아니다.Although it is described that each process is sequentially executed in each flowchart according to the present embodiment, the present invention is not limited thereto. In other words, since it may be applicable to change and execute the processes described in the flowchart or to execute one or more processes in parallel, the flowchart is not limited to a time-series order.

본 명세서에 설명되는 시스템들 및 기법들의 다양한 구현예들은, 디지털 전자 회로, 집적 회로, FPGA(field programmable gate array), ASIC(application specific integrated circuit), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합으로 실현될 수 있다. 이러한 다양한 구현예들은 프로그래밍가능 시스템 상에서 실행가능한 하나 이상의 컴퓨터 프로그램들로 구현되는 것을 포함할 수 있다. 프로그래밍가능 시스템은, 저장 시스템, 적어도 하나의 입력 디바이스, 그리고 적어도 하나의 출력 디바이스로부터 데이터 및 명령들을 수신하고 이들에게 데이터 및 명령들을 전송하도록 결합되는 적어도 하나의 프로그래밍가능 프로세서(이것은 특수 목적 프로세서일 수 있거나 혹은 범용 프로세서일 수 있음)를 포함한다. 컴퓨터 프로그램들(이것은 또한 프로그램들, 소프트웨어, 소프트웨어 애플리케이션들 혹은 코드로서 알려져 있음)은 프로그래밍가능 프로세서에 대한 명령어들을 포함하며 "컴퓨터가 읽을 수 있는 기록매체"에 저장된다. Various implementations of the systems and techniques described herein may be implemented in digital electronic circuitry, integrated circuitry, field programmable gate array (FPGA), application specific integrated circuit (ASIC), computer hardware, firmware, software, and/or combination can be realized. These various implementations may include being implemented in one or more computer programs executable on a programmable system. The programmable system includes at least one programmable processor (which may be a special purpose processor) coupled to receive data and instructions from, and transmit data and instructions to, a storage system, at least one input device, and at least one output device. or may be a general-purpose processor). Computer programs (also known as programs, software, software applications or code) contain instructions for a programmable processor and are stored on a "computer-readable recording medium".

본 명세서에 설명되는 시스템들 및 기법들의 다양한 구현예들은, 프로그램가능 컴퓨터에 의하여 구현될 수 있다. 여기서, 컴퓨터는 프로그램가능 프로세서, 데이터 저장 시스템(휘발성 메모리, 비휘발성 메모리, 또는 다른 종류의 저장 시스템이거나 이들의 조합을 포함함) 및 적어도 한 개의 커뮤니케이션 인터페이스를 포함한다. 예컨대, 프로그램가능 컴퓨터는 서버, 네트워크 기기, 셋탑 박스, 내장형 장치, 컴퓨터 확장 모듈, 개인용 컴퓨터, 랩탑, PDA(Personal Data Assistant), 클라우드 컴퓨팅 시스템 또는 모바일 장치 중 하나일 수 있다.Various implementations of the systems and techniques described herein may be implemented by a programmable computer. Here, the computer includes a programmable processor, a data storage system (including volatile memory, non-volatile memory, or other types of storage systems or combinations thereof), and at least one communication interface. For example, a programmable computer may be one of a server, a network appliance, a set-top box, an embedded device, a computer expansion module, a personal computer, a laptop, a Personal Data Assistant (PDA), a cloud computing system, or a mobile device.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and a person skilled in the art to which this embodiment belongs may make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present embodiment.

100: 오토포커싱 장치 101: 대물 렌즈
102: 카메라 103: 광학부
104: 분류모델 105: 제어부
106: Z축 구동부
100: autofocusing device 101: objective lens
102: camera 103: optical unit
104: classification model 105: control unit
106: Z-axis driving unit

Claims (14)

피사체에 대한 관심영역(Region of Interest: ROI)의 이미지를 광학현미경으로부터 획득하여 초점거리(focal length)를 추정하는 랜덤 포레스트(random forest) 기반의 분류모델(classification model), 여기서, 상기 분류 모델은 복수의 결정트리(decision tree)를 포함함;
상기 초점거리와 정초점(in focus) 간의 거리 차를 감소시키는 방향으로 상기 광학현미경의 위치를 조절하기 위한 제어 신호를 생성하는 제어부; 및
상기 제어 신호를 이용하여 상기 광학현미경의 위치를 조절하는 Z축 구동부
를 포함하되,
상기 분류 모델은,
상기 관심영역의 이미지와 학습용 영상 간의 유사 확률을 산정하고, 상기 유사 확률과 상기 학습용 영상에 대응되는 초점거리 간의 곱을 이용하여, 상기 복수의 결정트리 각각의 추정값을 생성하는 것을 특징으로 하는 오토포커싱(auto-focusing) 장치.
A random forest-based classification model that estimates a focal length by acquiring an image of a region of interest (ROI) for a subject from an optical microscope, where the classification model is contains a plurality of decision trees;
a control unit generating a control signal for adjusting a position of the optical microscope in a direction to reduce a distance difference between the focal length and an in focus; and
Z-axis driving unit for adjusting the position of the optical microscope by using the control signal
including,
The classification model is
Autofocusing, comprising calculating a similarity probability between the image of the region of interest and a training image, and generating an estimate value of each of the plurality of decision trees by using a product between the similarity probability and a focal length corresponding to the training image ( auto-focusing) devices.
제1항에 있어서,
상기 광학현미경은,
상기 피사체의 이미지를 통과시키는 대물 렌즈;
상기 관심영역의 이미지를 생성하는 카메라; 및
광원, 조명용 렌즈, 개구 조리개(aperture diaphragm) 및 시야 조리개(field diaphragm)를 포함하여 쾰러 조명(Kohler illumination)을 제공하는 광학부
를 포함하는 것을 특징으로 하는 오토포커싱 장치.
According to claim 1,
The optical microscope is
an objective lens passing the image of the subject;
a camera that generates an image of the region of interest; and
Optics providing Kohler illumination including light source, illumination lens, aperture diaphragm and field diaphragm
Auto-focusing device comprising a.
제1항에 있어서,
상기 광학현미경은 상기 Z축 구동부에 부착되어 수직 방향으로 위치가 조절되는 것을 특징으로 하는 오토포커싱 장치
According to claim 1,
The optical microscope is attached to the Z-axis driving unit, auto-focusing device, characterized in that the position is adjusted in the vertical direction
제2항에 있어서,
상기 관심영역은,
상기 시야 조리개의 날(blade)을 포함하는 영역인 것을 특징으로 하는 오토포커싱 장치.
3. The method of claim 2,
The area of interest is
Auto-focusing device, characterized in that the area including the blade (blade) of the field stop.
제2항에 있어서,
상기 제어부는,
상기 쾰러 조명의 세기를 조절하기 위한 조명 조절 신호를 추가로 생성하고, 상기 Z축 구동부를 이용하여 상기 조명 조절 신호를 상기 광학현미경에 제공하는 것을 특징으로 하는 오토포커싱 장치.
3. The method of claim 2,
The control unit is
Auto-focusing apparatus, characterized in that further generating an illumination control signal for adjusting the intensity of the Kohler illumination, and providing the illumination control signal to the optical microscope using the Z-axis driving unit.
제2항에 있어서,
상기 분류모델은,
상기 학습용 영상을 기반으로 상기 복수의 결정트리가 사전에 학습되는 것을 특징으로 하는 오토포커싱 장치.
3. The method of claim 2,
The classification model is
Auto-focusing apparatus, characterized in that the plurality of decision trees are learned in advance based on the learning image.
제6항에 있어서,
상기 분류모델은,
상기 복수의 결정트리 각각의 추정값을 평균하여 상기 초점거리를 추정하는 것을 특징으로 하는 오토포커싱 장치.
7. The method of claim 6,
The classification model is
Auto-focusing apparatus, characterized in that the focal length is estimated by averaging the estimated values of each of the plurality of decision trees.
삭제delete 제6항에 있어서,
상기 학습용 영상은,
상기 관심영역과 동일한 영역의 이미지로 구성되되, 상기 정초점 근처의 검색 범위에서 전역 검색 방식에 기반하여 수집되는 것을 특징으로 하는 오토포커싱 장치.
7. The method of claim 6,
The learning video is
The autofocusing apparatus, comprising images of the same region as the region of interest, and being collected based on a global search method in a search range near the focal point.
제6항에 있어서,
상기 분류모델은,
상기 시야 조리개의 날이 제공하는 대비(contrast)를 이용하여 상기 초점 거리를 추정하도록 사전에 학습되는 것을 특징으로 하는 오토포커싱 장치.
7. The method of claim 6,
The classification model is
Autofocusing apparatus, characterized in that it is learned in advance to estimate the focal length by using the contrast (contrast) provided by the blade of the field stop.
오토포커싱(auto-focusing) 장치가 이용하는 오토포커싱 방법에 있어서,
광학현미경으로부터 피사체에 대한 관심영역(Region of Interest: ROI)의 이미지를 획득하는 과정;
상기 관심영역의 이미지를 사전에 학습된 랜덤 포레스트(random forest) 기반 분류모델(classification model)에 입력하여 초점거리(focal length)를 추정하는 과정, 여기서, 상기 분류 모델은 복수의 결정트리(decision tree)를 포함함;
상기 초점거리와 정초점(in focus) 간의 거리 차이를 감소시키는 방향으로 상기 광학현미경의 위치를 조절하기 위한 제어 신호를 생성하는 과정; 및
상기 제어 신호를 이용하여 상기 광학현미경의 수직 위치를 조절하는 과정
을 포함하되,
상기 초점거리를 추정하는 과정은,
상기 관심영역의 이미지와 학습용 영상 간의 유사 확률을 산정하고, 상기 유사 확률과 상기 학습용 영상에 대응되는 초점거리 간의 곱을 이용하여, 상기 복수의 결정트리 각각의 추정값을 생성하는 것을 특징으로 하는 오토포커싱 방법.
In the auto-focusing method used by the auto-focusing device,
a process of acquiring an image of a region of interest (ROI) for a subject from an optical microscope;
A process of estimating a focal length by inputting the image of the region of interest into a pre-trained random forest-based classification model, wherein the classification model includes a plurality of decision trees ) including;
generating a control signal for adjusting a position of the optical microscope in a direction to reduce a distance difference between the focal length and an in focus; and
The process of adjusting the vertical position of the optical microscope using the control signal
including,
The process of estimating the focal length is,
Autofocusing method comprising calculating a similarity probability between the image of the region of interest and a training image, and generating an estimate value of each of the plurality of decision trees by using a product between the similarity probability and a focal length corresponding to the training image .
제11항에 있어서,
상기 초점거리가 상기 광학현미경의 심도(depth of field) 허용 범위 내로 추정되지 않은 이미지인 경우, 상기 오토포커싱 방법을 반복하여 수행하는 것을 특징으로 하는 오토포커싱 방법.
12. The method of claim 11,
When the focal length is an image that is not estimated within an allowable depth of field range of the optical microscope, the autofocusing method is repeatedly performed.
제11항에 있어서,
상기 광학현미경에서 이용하는 쾰러 조명(Kohler illumination)의 세기를 조절하기 위한 조명 조절 신호를 생성하여 상기 광학현미경 측으로 전달하는 과정을 더 포함하는 것을 특징으로 하는 오토포커싱 방법.
12. The method of claim 11,
Autofocusing method, characterized in that it further comprises the step of generating an illumination control signal for controlling the intensity of Kohler illumination used in the optical microscope and transmitting the signal to the optical microscope.
제11항 내지 제13항 중 어느 한 항에 따른 오토포커싱 방법이 포함하는 각 단계를 실행시키기 위하여 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터프로그램.
A computer program stored in a computer-readable recording medium to execute each step included in the auto-focusing method according to any one of claims 11 to 13.
KR1020200008984A 2020-01-23 2020-01-23 Method and Apparatus for Auto-focusing Based on Random Forest KR102357212B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200008984A KR102357212B1 (en) 2020-01-23 2020-01-23 Method and Apparatus for Auto-focusing Based on Random Forest

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200008984A KR102357212B1 (en) 2020-01-23 2020-01-23 Method and Apparatus for Auto-focusing Based on Random Forest

Publications (2)

Publication Number Publication Date
KR20210095310A KR20210095310A (en) 2021-08-02
KR102357212B1 true KR102357212B1 (en) 2022-01-27

Family

ID=77315711

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200008984A KR102357212B1 (en) 2020-01-23 2020-01-23 Method and Apparatus for Auto-focusing Based on Random Forest

Country Status (1)

Country Link
KR (1) KR102357212B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017040219A1 (en) 2015-08-31 2017-03-09 Kla-Tencor Corporation Model-based metrology using images
WO2017178833A1 (en) 2016-04-14 2017-10-19 Micromass Uk Limited Spectrometric analysis of plants
US20180284737A1 (en) 2016-05-09 2018-10-04 StrongForce IoT Portfolio 2016, LLC Methods and systems for detection in an industrial internet of things data collection environment with large data sets
WO2019102043A1 (en) 2017-11-27 2019-05-31 Deciphex Automated screening of histopathology tissue samples via analysis of a normal model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017040219A1 (en) 2015-08-31 2017-03-09 Kla-Tencor Corporation Model-based metrology using images
WO2017178833A1 (en) 2016-04-14 2017-10-19 Micromass Uk Limited Spectrometric analysis of plants
US20180284737A1 (en) 2016-05-09 2018-10-04 StrongForce IoT Portfolio 2016, LLC Methods and systems for detection in an industrial internet of things data collection environment with large data sets
WO2019102043A1 (en) 2017-11-27 2019-05-31 Deciphex Automated screening of histopathology tissue samples via analysis of a normal model

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Machine-learning models for analyzing TSOM images of nanostructures, optics express. Vol. 27, No.23, 11 Nov. 2019*

Also Published As

Publication number Publication date
KR20210095310A (en) 2021-08-02

Similar Documents

Publication Publication Date Title
US10705326B2 (en) Autofocus system for a computational microscope
US10477097B2 (en) Single-frame autofocusing using multi-LED illumination
CN112415735A (en) Real-time automatic focusing system for microscope
US20180120687A1 (en) Ranging method, automatic focusing method and device
US10379329B2 (en) Microscope system and setting value calculation method
US10534164B2 (en) Digital microscope and focusing method thereof
TWI811758B (en) Deep learning model for auto-focusing microscope systems, method of automatically focusing a microscope system, and non-transitory computer readable medium
CN211627931U (en) Real-time automatic focusing system for microscope
JP2008146060A (en) Automatic focus device and method thereof
Aslantas et al. Depth from automatic defocusing
US9485407B2 (en) Method of capturing images and obtaining information of the images
JP2016161721A (en) In-focus position detection device, in-focus position detection method, and in-focus position detection computer program
KR102357212B1 (en) Method and Apparatus for Auto-focusing Based on Random Forest
JP7205013B1 (en) Feature output model generation system, feature output model generation method, feature output model generation program, and feature output model
US9658444B2 (en) Autofocus system and autofocus method for focusing on a surface
Cao et al. Autofocusing imaging system based on laser ranging and a retina-like sample
WO2023002678A1 (en) Feature output model generation system, feature output model generation method, feature output model generation program, and feature output model
Tao et al. Wavelet power spectrum-based autofocusing algorithm for time delayed and integration charge coupled device space camera
Ojdanić et al. High-speed telescope autofocus for UAV detection and tracking
JP7291303B1 (en) Focus Position Estimation System, Focus Position Estimation Method, Focus Position Estimation Program, Semiconductor Inspection System, and Living Body Observation System
JP2015210396A (en) Aligment device, microscope system, alignment method and alignment program
US20230186483A1 (en) Method for determining boundaries of a z-stack of images of an object, corresponding optical instrument and computer program therefor
WO2023186886A1 (en) System and method for identifying points of interest using artificial intelligence
JP2023125282A (en) Analysis method and analysis apparatus
RU2528582C1 (en) Automatic focusing method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant