KR20110030275A - Method and apparatus for image generation - Google Patents

Method and apparatus for image generation Download PDF

Info

Publication number
KR20110030275A
KR20110030275A KR1020100042303A KR20100042303A KR20110030275A KR 20110030275 A KR20110030275 A KR 20110030275A KR 1020100042303 A KR1020100042303 A KR 1020100042303A KR 20100042303 A KR20100042303 A KR 20100042303A KR 20110030275 A KR20110030275 A KR 20110030275A
Authority
KR
South Korea
Prior art keywords
image
partial image
partial
determined
stage
Prior art date
Application number
KR1020100042303A
Other languages
Korean (ko)
Inventor
히로시 나이키
Original Assignee
올림푸스 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 올림푸스 가부시키가이샤 filed Critical 올림푸스 가부시키가이샤
Publication of KR20110030275A publication Critical patent/KR20110030275A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

PURPOSE: A method and a device for creating images are provided to remove the need for the control of an overlapping probability by a user and to ensure a desired composite image. CONSTITUTION: A method for creating images is as follows. A first partial image is taken on a target, which is observed by a microscope(50). A characteristic point is extracted from the first partial image. An overlapping probability of the first partial image and a second partial image is determined. A composite image is obtained by synthesizing the first and second partial images.

Description

화상 생성 방법 및 화상 생성 장치{METHOD AND APPARATUS FOR IMAGE GENERATION}Image generating method and image generating device {METHOD AND APPARATUS FOR IMAGE GENERATION}

본 발명은, 피사체를 복수의 부분 화상으로 분할하여 촬상하고, 부분 화상을 접합하여 피사체의 전체 화상을 생성하는 화상 생성 방법에 관한 것이다.The present invention relates to an image generating method of dividing a subject into a plurality of partial images to capture an image, and joining the partial images to generate a whole image of the subject.

오늘날, FPD(평판 디스플레이) 기판이나 PDP(플라즈마 디스플레이) 기판, 반도체 웨이퍼 등을 검사·수정하기 위한 공업용도의 현미경이나 검사 장치에 있어서는, 기판의 기능상 문제가 되는 결함을 검사·식별하는 방법으로서, 화상을 이용한 방법이 일반적으로 행해지고 있다.Today, in industrial microscopes and inspection apparatuses for inspecting and correcting FPD (flat display) substrates, PDP (plasma display) substrates, semiconductor wafers, and the like, as a method of inspecting and identifying defects that cause functional problems of the substrate, The method using an image is generally performed.

상기 기판의 결함을 검사·식별하는 방법에 있어서, 기판 등의 패턴 형성 등에 영향을 주는 미세한 결함을 높은 정밀도로 검사·식별하기 위해서는, 검사 등의 대상이 되는 패턴을 정상적인 기준 패턴과 비교할 필요가 있다. 그러므로, 낮은 배율로 피사체 전체를 커버하는 화상뿐만 아니라, 보다 높은 배율로 피사체 전체를 커버할 수 있는 고정밀 화상(고해상도 화상)도 필요한 케이스가 많아지고 있다.In the method of inspecting and identifying a defect of the substrate, in order to inspect and identify fine defects affecting pattern formation of a substrate or the like with high accuracy, it is necessary to compare a pattern to be inspected with a normal reference pattern. . Therefore, not only the image which covers the whole subject at low magnification but also the high-definition image (high resolution image) which can cover the whole subject at higher magnification is increasing in many cases.

그러나, 피사체의 크기에 따라서는, 한번에 피사체 전체의 고정밀 화상을 취득할 수 없다. 그러므로, 고정밀 화상을 취득하는 기술로서, 취득할 고정밀 화상 전체를 복수의 영역으로 분할하고, 이들 분할된 영역 각각에 대하여 고해상도로 촬상을 행하고, 촬상에 의해 얻어진 부분 화상을 서로 접합함으로써, 원하는 고정밀 화상을 얻는 방법이 널리 알려져 있다. 이와 같은 고정밀 화상을 얻는 방법에 있어서는, 먼저, 저배율의 전체 화상을 기초로 하여, 고배율의 부분 화상을 촬상하고, 촬상된 부분 화상을 접합시킨다. 이와 같은 방법은, 공업용도로 한정되지 않고, 각종 분야에, 또한 다양한 응용에 이용되고 있다.However, depending on the size of the subject, a high-precision image of the entire subject cannot be acquired at once. Therefore, as a technique for acquiring a high-definition image, a desired high-definition image is obtained by dividing the entire high-precision image to be obtained into a plurality of regions, imaging each of these divided regions at high resolution, and joining the partial images obtained by the imaging to each other. Methods of obtaining are well known. In the method of obtaining such a high-precision image, first, a high magnification partial image is imaged based on the low magnification whole image, and the picked up partial image is bonded. Such a method is not limited to industrial use, but is used in various fields and for various applications.

부분 화상을 접합시키는 기술로서, 저배율로 촬상한 전체 화상 내에서 접합에 적절한 개소를 탐색하여, 탐색 결과를 기초로 하여, 고배율로 촬상한 부분 화상을 접합하여, 고정밀 화상을 생성하는 방법이 제공되고 있다(예를 들면, 특허 문헌 1).As a technique for joining partial images, there is provided a method of searching for a location suitable for joining in an entire image photographed at a low magnification, and joining a partial image photographed at a high magnification based on a search result to generate a high precision image. (For example, patent document 1).

[특허 문헌 1] 일본 공표 특허 공보: 일본 특허출원 공표번호 2006-006525호 공보[Patent Document 1] Japanese Patent Application Publication: Japanese Patent Application Publication No. 2006-006525

예를 들면, 상기 특허 문헌 1에 기재되어 있는 방법에 의해 부분 화상의 접합을 행할 경우, 접합에 적절한 개소를 탐색하기 위해 이용하는 저배율의 전체 화상 내에 대해서는, 촬상하고자 하는 범위, 즉 피사체 전체가 들어갈 필요가 있다. 피사체의 크기에 따라서는, 보다 낮은 배율로 전환하여 전체 화상을 촬상하거나, 또는 배율을 낮추어도 피사체 전체가 들어가는 전체 화상을 촬상할 수 없는 경우에는, 접합 불가능으로 판단하는 것 등이 필요한 상황이 된다.For example, when joining partial images by the method described in Patent Document 1, in the whole low-magnification image used for searching for a suitable location for joining, it is necessary to enter the range to be captured, that is, the entire subject. There is. Depending on the size of the subject, it may be necessary to switch to a lower magnification to capture the entire image, or to determine that the image cannot be joined if the entire image into which the entire subject enters even if the magnification is lowered. .

또한, 저배율과 고배율은, 서로 다르게 보이므로, 저배율의 전체 화상에서 탐색하여 취득한 개소가, 반드시 고배율의 부분 화상의 접합에 적절하다고는 볼 수 없다. 경우에 따라서는, 탐색으로 얻어진 개소에서 시도해도 접합할 수 없고, 전체 화상에 대한 탐색 처리부터 다시 행함으로써 타임 로스가 발생하거나, 또는 접합이 잘 되지 않고 원하는 화상을 얻을 수 없는 등의 결과가 될 수 있다.In addition, since the low magnification and the high magnification look different from each other, the point obtained by searching in the whole low magnification image is not necessarily suitable for joining the high magnification partial images. In some cases, even if it is attempted at a point obtained by searching, the joining cannot be performed, resulting in a time loss or re-joining from the search process for the entire image, or inability to obtain a desired image. Can be.

또한, 상기 접합을 행할 때는, 부분 화상끼리를 접합할 때의 풀칠(중첩) 부분, 즉 부분 화상의 「중복률」의 설정이 중요하다. 중복률을 크게 설정할수록, 보다 많은 부분 화상을 촬상해야 하기 때문에, 처리 시간이 길어진다. 한편, 중복률을 작게 설정할수록, 부분 화상 중 접합에 이용하는 영역이 작아져서, 접합하기 곤란하게 된다. 중복률의 최적값은, 검사 등의 대상(기판의 검사 등의 경우에는 패턴)에 따라 상이하므로, 사용자가 육안 관찰에 의해 조정하기 위해서는 숙련이 필요한 과제가 있다.In addition, when performing the said joining, it is important to set the "overlapping rate" of the pasting (overlapping) part at the time of joining partial images, ie, a partial image. The larger the overlap rate is set, the longer the processing time is, because more partial images have to be captured. On the other hand, the smaller the overlap rate is set, the smaller the area used for joining in the partial image, and the more difficult it is to join. Since the optimum value of the overlap rate differs according to the object (pattern in the case of inspection of a board | substrate etc.), such as an inspection, there exists a subject which requires a skill for a user to adjust by visual observation.

본 발명은, 전술한 문제점을 감안하여 이루어진 것이며, 전체 화상 및 사용자에 의한 중복률의 조정이 불필요하면서, 원하는 합성 화상을 얻을 수 있는 기술을 제공하는 것을 목적으로 한다.This invention is made | formed in view of the above-mentioned problem, and an object of this invention is to provide the technique which can obtain a desired composite image, without adjusting the overlapping ratio by an entire image and a user.

전술한 문제점을 해결하기 위하여, 본 발명에 따른 화상 생성 방법은, 현미경으로 관찰되는 촬상 대상물을 소정의 해상도로 촬상한 제1 부분 화상을 취득하고, 상기 제1 부분 화상으로부터 추출한 특징점에 기초하여, 상기 제1 부분 화상과 합성하는 제2 부분 화상과의 중복률을 결정하고, 상기 제1 부분 화상과, 결정된 상기 중복률에 기초하여 상기 현미경의 스테이지를 이동시켜 취득한 상기 제2 부분 화상을 합성하여 얻어지는 합성 화상을 취득하는 구성으로 한다.In order to solve the above-mentioned problems, the image generating method according to the present invention obtains a first partial image obtained by capturing an image to be observed under a microscope with a predetermined resolution, and based on feature points extracted from the first partial image, The overlapping ratio of the second partial image to be synthesized with the first partial image is determined, and the second partial image obtained by moving the stage of the microscope based on the determined overlapping ratio is synthesized. It is set as the structure which acquires the synthesized image obtained.

본 발명에 의하면, 전체 화상 및 사용자에 의한 중복률의 조정이 불필요하면서, 원하는 합성 화상을 얻을 수 있다.According to the present invention, a desired composite image can be obtained while adjusting the overlapping ratio by the entire image and the user is unnecessary.

도 1은 실시예에 따른 현미경 시스템의 구성도이다.
도 2는 실시예에 따른 화상 처리부의 기능 블록도이다.
도 3은 촬상 대상물의 예를 나타낸 도면이다.
도 4는 화상 내의 특징점을 이용하여 화상의 접합을 행하는 방법에 대하여 설명하는 제1 도면이다.
도 5는 화상 내의 특징점을 이용하여 화상의 접합을 행하는 방법에 대하여 설명하는 제2 도면이다.
도 6은 접합의 중복률을 결정하는 방법을 설명하는 제1 도면이다.
도 7a는 접합의 중복률을 결정하는 방법을 설명하는 제2 도면이다.
도 7b는 접합의 중복률을 결정하는 방법을 설명하는 제3 도면이다.
도 8은 스테이지의 이동 방법을 설명하는 도면이다.
도 9는 화상의 중첩을 행하는 방법을 설명하는 도면이다.
도 10은 실시예에 따른 현미경 시스템에 의한 고정밀 화상의 생성 처리를 나타낸 흐름도이다.
1 is a block diagram of a microscope system according to an embodiment.
2 is a functional block diagram of an image processing unit according to an embodiment.
3 is a diagram illustrating an example of an imaging object.
4 is a first diagram for explaining a method of bonding images using feature points in the image.
FIG. 5 is a second diagram for explaining a method of bonding images using feature points in the image. FIG.
6 is a first diagram illustrating a method of determining the overlap rate of a junction.
7A is a second diagram illustrating a method of determining the overlap rate of a junction.
FIG. 7B is a third diagram illustrating a method of determining the overlap rate of a junction. FIG.
8 is a diagram for explaining a method of moving a stage.
9 is a view for explaining a method of superimposing images.
10 is a flowchart showing a process of generating a high precision image by the microscope system according to the embodiment.

이하, 본 발명의 실시예에 대하여 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은, 본 실시예에 따른 현미경 시스템의 구성도이다. 도 1에 나타내는 현미경 시스템(100)은, 현미경(50), 스테이지 제어부(6), 현미경 Z축 제어부(8), 화상 처리부(5) 및 시스템 제어부(7)를 포함하고, 현미경(50)은, 스테이지(4), 경통(1), 대물 렌즈(2) 및 카메라(3)를 포함하고, 소정의 배율로 기판 등의 촬상 대상물을 관찰한다.1 is a configuration diagram of a microscope system according to the present embodiment. The microscope system 100 shown in FIG. 1 includes a microscope 50, a stage control unit 6, a microscope Z-axis control unit 8, an image processing unit 5, and a system control unit 7. And the stage 4, the barrel 1, the objective lens 2, and the camera 3, and an imaging object such as a substrate is observed at a predetermined magnification.

스테이지(4)는, X축 방향 및 Y축 방향(도 1에 있어서는 좌우 방향 및 깊이 방향)으로 구동하는 2축 이동 기구를 가지고, 촬상 대상물에 대하여 상대 이동한다. 경통(1)은, 스테이지(4)에 탑재된 촬상 대상물의 상부에 위치하고, 스테이지(4) 측에는 대물 렌즈(2)가 장착되어 있다. 경통(1)은, 도시하지 않은 상하 구동 기구에 의해, Z축 방향(도 1에 있어서는 상하 방향)으로 구동된다.The stage 4 has a biaxial movement mechanism which drives in the X-axis direction and the Y-axis direction (left-right direction and depth direction in FIG. 1), and moves relatively with respect to an imaging object. The barrel 1 is located above the imaging object mounted on the stage 4, and the objective lens 2 is attached to the stage 4 side. The barrel 1 is driven in the Z axis direction (up and down direction in FIG. 1) by a vertical drive mechanism not shown.

경통(1)의 대물 렌즈(2)에 관하여 다른 단 측에는, 카메라(3)가 설치되어 있다. 카메라(3)는, CCD(Charge Coupled Device) 카메라로 이루어지고, 스테이지(4)에 탑재되어 있는 촬상 대상물을 소정의 해상도로 촬상하고, 취득한 영상 신호 또는 화상 신호를 출력하여 화상 처리부(5)에 전송한다. CCD 카메라는, 예를 들면 RGB 대응 화소마다의 계조도(휘도) 데이터를 화상 정보로서 출력한다.On the other end side with respect to the objective lens 2 of the barrel 1, the camera 3 is provided. The camera 3 is a CCD (Charge Coupled Device) camera, which picks up an image to be mounted on the stage 4 at a predetermined resolution, outputs the acquired video signal or image signal to the image processing unit 5. send. The CCD camera outputs, for example, grayscale (luminance) data for each pixel corresponding to RGB as image information.

시스템 제어부(7)는, 필요에 따라 스테이지 제어부(6), 현미경 Z축 이동 제어부(8) 및 화상 처리부(5) 각각을 제어한다. 또한, 화상 사이즈, 화상의 생성 범위(하한값) 및 화소 분해능 등의 입력을 받아, 복수의 화상을 합성할 필요성에 대한 판단 등의 처리를 행한다.The system control part 7 controls each of the stage control part 6, the microscope Z-axis movement control part 8, and the image processing part 5 as needed. In addition, inputs such as an image size, an image generation range (lower limit value), pixel resolution, and the like are received, and processing such as determination of the necessity of combining a plurality of images is performed.

스테이지 제어부(6)는, 시스템 제어부(7)로부터의 명령에 따라, 스테이지(4)의 X축 및 Y축의 2축 방향에 대한 이동 제어를 행하고, 대물 렌즈(2)와 촬상 대상물과의 상대 위치를 조정한다.The stage control part 6 performs the movement control with respect to the biaxial direction of the X-axis and the Y-axis of the stage 4 according to the instruction | command from the system control part 7, and the relative position of the objective lens 2 and the imaging object Adjust it.

현미경 Z축 이동 제어부(8)는, 시스템 제어부(7)로부터의 명령에 따라, 상기 상하 구동 기구를 제어하여 경통(1)을 상하(Z축 방향)로 이동시켜서, 스테이지(4)에 탑재된 촬상 대상물에 대한 핀트 조정을 행한다.The microscope Z-axis movement control unit 8 controls the vertical drive mechanism in accordance with an instruction from the system control unit 7 to move the barrel 1 up and down (Z-axis direction), and is mounted on the stage 4. The focus adjustment is performed on the imaging object.

화상 처리부(5)는, 카메라(3)로부터 전송되어 온 영상 신호나 화상 신호에 대하여, 각종 화상 처리를 실행한다.The image processing unit 5 executes various image processings on the video signal and the image signal transmitted from the camera 3.

도 1에 나타내는 현미경 시스템(100) 중, 화상 처리부(5)의 구성에 대하여, 도 2를 참조하여 상세하게 설명한다.The structure of the image processing part 5 among the microscope system 100 shown in FIG. 1 is demonstrated in detail with reference to FIG.

도 2는, 본 실시예에 따른 화상 처리부(5)의 기능 블록도이다. 도 2에 나타내는 화상 처리부(5)는, 촬상 제어부(9), 쉐이딩·왜곡·휘도 보정 처리부(이하에 있어서는 "보정 처리부"로 약칭함)(10), 화상 데이터 기억 버퍼부(11), 특징점 추출 처리부(12), 화상 생성 처리부(13) 및 이동량 결정부(14)를 포함한다.2 is a functional block diagram of the image processing unit 5 according to the present embodiment. The image processing unit 5 illustrated in FIG. 2 includes an imaging control unit 9, a shading, distortion, and luminance correction processing unit (hereinafter abbreviated as "correction processing unit") 10, an image data storage buffer unit 11, and feature points An extraction processing unit 12, an image generation processing unit 13, and a movement amount determination unit 14 are included.

촬상 제어부(9)는, 시스템 제어부(7)의 제어에 의해, 현미경 Z축 이동 제어부(8)에 의해 핀트 조정을 행하고, 대물 렌즈(2)를 통해 카메라(3)에 의해 촬상된 화상 정보를, 보정 처리부(10)에 출력한다.The imaging control unit 9 performs the focus adjustment by the microscope Z-axis movement control unit 8 under the control of the system control unit 7, and performs image information captured by the camera 3 through the objective lens 2. Output to the correction processing unit 10.

보정 처리부(10)는, 촬상 제어부(9)로부터 입력된 화상 정보에 포함되는, 촬상계에 의한 쉐이딩, 왜곡, 휘도의 불균일 등의 보정을 행하여, 화상 데이터 기억 버퍼부(11)에 기억시킨다.The correction processing unit 10 corrects shading, distortion, unevenness in luminance, etc. by the imaging system included in the image information input from the imaging control unit 9, and stores the image data storage buffer 11 in the image data storage buffer 11.

화상 데이터 기억 버퍼부(11)는, 촬상한 화상과, 최종적으로 얻어지는 화상 등을 생성할 때까지의 과정에 있어서 생성되는 중간 화상을 기억한다. 중간 화상은, 화상 생성 처리의 도중의 단계에서 합성을 행한 화상을 일컫는다.The image data storage buffer unit 11 memorizes the captured image and the intermediate image generated in the process until generating the finally obtained image or the like. The intermediate image refers to an image which has been synthesized in the middle of the image generation process.

특징점 추출 처리부(12)는, 화상 데이터 기억 버퍼부(11)로부터 중간 화상과, 중간 화상에 합성시키는 화상을 판독하고, 판독된 화상으로부터 특징점을 추출한다. 중간 화상에 합성시키는 화상은, 최종적으로 취득할 화상의 일부를 구성하는 것이며, 이하에 있어서는, 「부분 화상」이라고 한다. 그리고, 특징점 추출 알고리즘으로서는, 예를 들면, 해리스 오퍼레이터(Harris operator)나 SOJKA 오퍼레이터 등의 공지의 기술을 이용한다.The feature point extraction processing unit 12 reads the intermediate image and the image synthesized from the image data storage buffer unit 11 into the intermediate image, and extracts the feature point from the read image. The image synthesized into the intermediate image constitutes a part of the image to be finally acquired, and hereinafter referred to as "partial image". And as a feature point extraction algorithm, well-known techniques, such as a Harris operator and an SOJKA operator, are used, for example.

이동량 결정부(14)는, 화상 데이터 기억 버퍼부(11)로부터 부분 화상을 판독하여, 특징점 추출 처리부(12)에 있어서 얻은 특징점에 대한 정보에 기초하여, 스테이지(4)의 이동량을 결정한다. 그리고, 결정된 스테이지(4)의 이동량을 시스템 제어부(7)에 출력한다. 시스템 제어부(7)는, 이동량 결정부(14)로부터 입력된 이동량을 사용하여, 스테이지(4)의 X축 방향 및 Y축 방향의 이동을 제어하고, 다음으로 부분 화상을 취득할 개소로 이동시키도록 스테이지 제어부(6)에 지시한다.The movement amount determination unit 14 reads the partial image from the image data storage buffer unit 11 and determines the movement amount of the stage 4 based on the information about the feature points obtained by the feature point extraction processing unit 12. Then, the determined movement amount of the stage 4 is output to the system control unit 7. The system control unit 7 controls the movement in the X-axis direction and the Y-axis direction of the stage 4 by using the movement amount input from the movement amount determining unit 14, and then moves the partial image to a location to acquire a partial image. The stage control section 6 is instructed.

화상 생성 처리부(13)는, 처리 대상의 화상(부분 화상과 중간 화상 중, 부분 화상과 중복되는 영역의 화상)마다, 특징점 추출 처리부(12)에 있어서 얻은 특징점에 대한 정보에 기초하여, 화상 사이에서 가장 양호하게 대응하는 점을 검출하고, 변환 행렬을 작성한다. 그리고, 작성된 변환 행렬을 이용하여, 화상간의 합성 처리를 실행한다. 변환 행렬을 작성하는 알고리즘으로서는, 예를 들면 RANSAC(RANdom Sample Consensus) 알고리즘 등의 공지의 기술을 이용한다.The image generation processing unit 13 performs the inter-images on the basis of the information on the feature points obtained by the feature point extraction processing unit 12 for each image (the image of the region overlapping with the partial image among the partial image and the intermediate image). Detect the best corresponding point in, and create the transformation matrix. Then, using the created transformation matrix, the composition processing between the images is executed. As an algorithm for creating a transformation matrix, for example, a known technique such as a RANSAC (RANdom Sample Consensus) algorithm is used.

도 2에 나타내는 화상 처리부(5)는, 필요한 화상을 출력하기 위하여 복수의 부분 화상을 합성할 필요가 있는 경우에는, 특징점 추출 처리부(12)에 있어서 추출한 특징점을 이용하여 부분 화상의 합성을 실행한다. 중간 화상에 합성할 부분 화상을 취득할 때는, 특징점의 추출 상황에 기초하여, 그 부분 화상을 중간 화상과 얼마나 중복시킬 것인가(중복률)를 결정하고, 결정된 중복률에 대응시켜 스테이지(4)를 이동시키고, 부분 화상을 취득한다. 취득된 부분 화상을, 결정된 중복률에 따라 중간 화상과 합성시켜 감으로써, 최종적으로 취득할 화상을 얻는다.When it is necessary to synthesize a plurality of partial images in order to output a necessary image, the image processing unit 5 shown in FIG. 2 performs the synthesis of partial images using the feature points extracted by the feature point extraction processing unit 12. . When acquiring the partial image to be synthesized into the intermediate image, based on the extraction situation of the feature points, it is determined how much of the partial image to overlap with the intermediate image (duplicate rate), and the stage 4 is made to correspond to the determined overlap rate. It moves and acquires a partial image. The obtained partial image is synthesized with the intermediate image according to the determined overlap ratio to obtain an image to be finally obtained.

이하의 설명에 있어서는, 특징점을 이용하여 화상을 합성하는 처리를, 「접합」처리로 한다.In the following description, the process of synthesizing an image using the feature point is referred to as a "bonding" process.

도 3은, 촬상 대상물의 예를 나타낸 도면이다. 이하, 도 3에 나타내는 회로 패턴을 구비하는 FPD 기판을 촬상 대상물로 하여, 고정밀 화상을 취득하는 경우에 있어서의 접합 화상의 생성 방법에 대하여 설명한다.3 is a diagram illustrating an example of an imaging object. Hereinafter, the method of generating a bonded image in the case of acquiring a high-definition image using the FPD board | substrate provided with the circuit pattern shown in FIG. 3 as an imaging object is demonstrated.

도 1에 나타내는 현미경 시스템(100)은, 도 3에 나타내는 촬상 대상물에 대하여 고정밀 화상을 생성할 때, 카메라(3)의 시야 사이즈와 고정밀 화상의 범위로부터, 화상의 접합 처리의 필요성을 판단한다.The microscope system 100 shown in FIG. 1 determines the necessity of the image bonding process from the range of the visual field size and the high precision image of the camera 3, when generating the high precision image with respect to the imaging object shown in FIG.

구체적으로는, 시야 사이즈 V, 고정밀 화상의 범위를 P로 하면, P=V/2의 조건식을 만족시키는 경우에는, 접합 처리는 불필요하다고 판단한다. 한편, P>V/2의 조건식을 만족시키는 경우에는, 접합 처리가 필요하다고 판단하여, 본 실시예에 따른 고정밀 화상의 생성 방법을 실행한다.Specifically, when the range of the visual field size V and the high-precision image is set to P, it is determined that the bonding process is unnecessary when the conditional expression of P = V / 2 is satisfied. On the other hand, when the conditional expression of P> V / 2 is satisfied, it is determined that the bonding process is necessary, and the high precision image generation method according to the present embodiment is executed.

그리고, 시야 사이즈 V 및 고정밀 화상의 범위 P에 대해서는, 모두 X 성분 및 Y 성분으로 이루어지고, 성분마다, 전술한 조건식을 이용하여 접합 처리의 필요와 불필요를 판단한다. 시야 사이즈 및 고정밀 화상의 범위에 대해서는, 이동 오차 등을 고려하는 등에 의해, 실제 값에 대하여 여유를 갖게 하여 설정하도록 해도 된다.And about the visual field size V and the range P of a high-precision image, it consists of X component and Y component all, and judges the necessity and unnecessary of a joining process using the above-mentioned conditional expression for every component. The visual field size and the range of the high-precision image may be set so as to have a margin with respect to the actual value by considering a moving error or the like.

이하, 접합이 필요하다고 판단된 경우에 있어서의 고정밀 화상 생성 처리를 상세하게 설명한다.The high-precision image generation processing in the case where it is determined that the bonding is necessary will be described in detail below.

도 4 및 도 5는, 화상 내의 특징점을 이용하여 화상의 접합을 행하는 방법에 대하여 설명하는 도면이다. 도 4에 나타내는 기판 내에서, 2개의 영역 RA 및 RB는, 각각 현미경의 시야 범위를 나타내고, 영역 RA 및 RB에 대하여 취득한 화상이, 도 5에 나타내는 부분 화상 A 및 B이다. 여기서는, 부분 화상 A에 대해서는 이미 접합 처리가 실행되어 중간 화상의 일부로 되어 있고, 여기에 부분 화상 B를 접합시키는 경우에 대하여 설명한다. 또한, 여기서는, 부분 화상 A와 부분 화상 B의 중복률을 50%로 한다.4 and 5 are diagrams for explaining a method of bonding images using feature points in the image. In the board | substrate shown in FIG. 4, two area | regions RA and RB represent the microscope visual field range, respectively, and the image acquired with respect to area | region RA and RB is partial image A and B shown in FIG. Here, for the partial image A, the bonding process has already been performed to become a part of the intermediate image, and the case where the partial image B is joined is described. In this case, the overlap ratio between the partial image A and the partial image B is 50%.

도 5에 나타낸 바와 같이, 중복률이 50%인 경우에는, 2개의 부분 화상 A 및 B의 중복 개소는, 부분 화상 A의 상측 절반, 부분 화상 B의 하측 절반의 영역이 된다. 부분 화상 A로부터는, P1a∼P4a의 4개의 특징점이 추출되고, 부분 화상 B로부터는, P1b∼P4b의 4개의 특징점이 추출된다. 화상 생성 처리부(13)는, 특징점 추출 처리부(12)에 있어서 추출된 특징점의 대응 관계를 탐색하고, 각각 P1a=P1b, P2a=P2b, P3a=P3b 및 P4a=P4b의 관계를 만족시키는 변환 행렬을 구한다. 구해진 변환 행렬을 사용하여, 부분 화상 B를 부분 화상 A(를 포함하는 중간 화상)와 접합하고, 중간 화상 M을 얻는다.As shown in Fig. 5, when the overlap ratio is 50%, the overlapping portions of the two partial images A and B become areas of the upper half of the partial image A and the lower half of the partial image B. From the partial image A, four feature points of P1a to P4a are extracted, and from the partial image B, four feature points of P1b to P4b are extracted. The image generation processing unit 13 searches for a correspondence relationship between the feature points extracted by the feature point extraction processing unit 12, and generates a transformation matrix that satisfies the relationship of P1a = P1b, P2a = P2b, P3a = P3b, and P4a = P4b, respectively. Obtain Using the obtained transformation matrix, the partial image B is joined with the partial image A (the intermediate image containing), and an intermediate image M is obtained.

도 4 및 도 5에 있어서는, 중복률이 50%인 경우에 대하여 예시하지만, 본 실시예에 따른 현미경 시스템(100)은, 특징점 추출 처리부(12)에 있어서의 특징점의 추출 상황에 따라, 부분 화상 A 및 부분 화상 B를 접합시킬 때의 중복률을 결정한다. 다음으로, 중복률의 결정 방법에 대하여 설명한다.In FIG. 4 and FIG. 5, the case where the overlap ratio is 50% is illustrated, but the microscope system 100 which concerns on a present Example is a partial image according to the extraction situation of the feature point in the feature point extraction processing part 12. FIG. The overlap rate at the time of joining A and partial image B is determined. Next, a method of determining the overlap rate will be described.

도 6, 도 7a 및 도 7b는, 접합의 중복률을 결정하는 방법을 설명하는 도면이다. 도 6의 부분 화상 A에 대하여 중복률을 결정하고, 결정된 중복률에 기초하여 카메라(3)의 시야를 도 6의 화살표 방향으로 이동시키고, 이동 후의 위치에서 취득한 부분 화상을 부분 화상 A와 접합시키는 경우를 예를 들어 설명한다.6, 7A, and 7B are diagrams for explaining a method for determining the overlap ratio of a junction. The overlapping rate is determined for the partial image A in FIG. 6, and the field of view of the camera 3 is shifted in the direction of the arrow in FIG. 6 based on the determined overlapping rate, and the partial image acquired at the position after the movement is joined to the partial image A. An example is demonstrated.

도 7a에 나타낸 바와 같이 중복률을 20%로 설정한 경우에는, 특징점의 추출의 대상외가 되는 영역 RO(화상의 위로부터 20∼100%의 영역, 도 7a의 빗금친 영역)에만 특징점이 있기 때문에, 위로부터 20%의 영역에서는 특징점이 검출되지 않는다. 이 경우에는, 중복률의 값이 적절하게 설정되어 있지 않다고 판단하여, 보다 큰 값으로 변경하여, 특징점의 재추출을 행한다.As shown in Fig. 7A, when the overlap ratio is set to 20%, the feature points exist only in the region RO (20-100% region from the top of the image, hatched regions in Fig. 7A) which are not subject to feature point extraction. In the region of 20% from above, no feature point is detected. In this case, it is judged that the value of the overlap rate is not set appropriately, changes to a larger value, and re-extracts the feature point.

도 7b에 나타낸 바와 같이. 중복률을 50%로 설정한 경우에는, 특징점 추출의 대상 영역으로부터는, 4개의 특징점 P를 검출할 수 있다. 이 경우에는, 중복률 50%이면, 접합 가능한 것으로 판단한다. 접합 처리에 충분한 특징점의 수에 대해서는, 사용자가 적절하게 설정할 수 있는 구성으로 하는 것이 바람직하다.As shown in FIG. 7B. When the overlap rate is set to 50%, four feature points P can be detected from the region of interest for feature point extraction. In this case, it is judged that joining is possible if the overlap ratio is 50%. It is preferable to set it as the structure which a user can set suitably about the number of the characteristic points sufficient for the bonding process.

전술한 바와 같이, 부분 화상으로부터의 특징점의 추출 상황에 따라 중복률을 결정하고, 중복률에 따라 스테이지(4)의 이동량을 결정한다. 결정된 이동량에 따라 스테이지(4)를 이동시켜 카메라(3)의 시야 방향을 이동시키면, 이동 후의 위치에서 부분 화상을 촬상하여 중간 화상에 접합을 행하여 간다.As described above, the overlap ratio is determined in accordance with the extraction situation of the feature points from the partial image, and the amount of movement of the stage 4 is determined in accordance with the overlap ratio. When the stage 4 is moved in accordance with the determined movement amount, and the viewing direction of the camera 3 is moved, the partial image is picked up at the position after the movement and bonding is performed to the intermediate image.

도 8은, 스테이지(4)의 이동 방법을 설명하는 도면이다. 촬상 대상물의 기판 패턴에 대하여, 범위 R에 대하여 고정밀 화상을 필요로 하고 있는 경우를 예시하고 있다.8 is a diagram illustrating a method of moving the stage 4. The case where the high-precision image is needed about the range R with respect to the board | substrate pattern of an imaging object is illustrated.

실시예에서는, 도 8에 나타내는 순서로 스테이지(4)를 이동시키고, P1, P2, …, P6의 순서로 부분 화상을 취득해 간다. 도면의 가로 방향을 X축 방향(행 방향), 세로 방향을 Y축 방향(열 방향)으로 하면, 도 8에 나타낸 바와 같이, 행 방향 및 열 방향을 교대로 스테이지(4) 이동시킴으로써, 중간 화상과 새로 취득한 부분 화상과의 접합을 위한 변환 행렬의 작성을 간결화시켜, 화상 접합을 위한 일련의 처리가 복잡하게 이루어지는 것을 피할 수 있다.In the embodiment, the stage 4 is moved in the order shown in Fig. 8, and P1, P2,... , The partial image is acquired in the order of P6. When the horizontal direction in the drawing is the X-axis direction (row direction) and the vertical direction is the Y-axis direction (column direction), as shown in FIG. 8, the intermediate image is moved by alternately moving the stage 4 in the row direction and the column direction. And the creation of a transformation matrix for concatenation with the newly acquired partial image can be simplified, and a complicated process for image consolidation can be avoided.

전술한 방법에 의하면, 2개의 화상 각각으로부터 특징점을 추출하여, 특징점에 기초하여 2개의 화상의 접합을 행하고 있지만, 예를 들면 기판의 패턴에 따라서는, 부분 화상으로부터 접합에 필요한 수의 특징점을 추출할 수 없는 경우도 생길 수 있다. 이와 같은 경우에도, 고정밀 화상의 생성 처리를 가능하게 하기 위하여, 이하의 패턴 매칭을 채용하는 구성으로 해도 된다.According to the above method, the feature points are extracted from each of the two images, and the two images are bonded based on the feature points. However, depending on the pattern of the substrate, for example, the number of feature points necessary for the bonding is extracted from the partial images. It can happen if you can't. Even in such a case, the following pattern matching may be adopted in order to enable the generation of a high-precision image.

도 9는, 화상의 중첩을 행하는 방법을 설명하는 도면이다. 전술한 바와 같이, 특징점을 이용하여 합성 화상을 얻는 방법을, 화상의 「접합」으로 정의하고 있는 것에 대하여, 이하에 설명하는 바와 같은 패턴 매칭을 이용하여 합성 화상을 얻는 방법을, 화상의 「중첩」으로 정의한다.9 is a view for explaining a method of superimposing images. As described above, the method of obtaining a synthesized image using a feature point is defined as "joining" of an image, and the method of obtaining a synthesized image using pattern matching as described below is referred to as "overlapping of images." It is defined as ".

화상의 중첩 처리에 관해서는, 화상 생성 처리부(13)는, 형상 서치 등의 패턴 매칭 알고리즘을 사용한다. 예를 들면, 도 9에 나타내는 부분 화상 A 및 B와 같이, 특징점을 추출할 수 없는 경우에, 패턴 매칭 알고리즘에 의해, 부분 화상 A 및 B로부터 에지를 탐색한다. 그리고, 탐색 영역은, 화상의 접합 처리와 마찬가지로, 앞서 화상의 합성에 사용한 중복률, 또는 초기값에 의해 결정된다.Regarding the image superimposition processing, the image generation processing unit 13 uses a pattern matching algorithm such as shape search. For example, when the feature points cannot be extracted as in the partial images A and B shown in FIG. 9, the edges are searched from the partial images A and B by the pattern matching algorithm. And the search area is determined by the overlap rate or initial value previously used for image | video composition similarly to the image bonding process.

도 9에 나타낸 예에서는, 화상 가로 방향으로 탐색을 행한 결과, 부분 화상 A로부터는 에지 E1a 및 에지 E2a가, 부분 화상 B로부터는 에지 E1b 및 에지 E2b가 추출된다. 가로 방향에 대해서는, 이들 추출된 에지를 이용하여, 화상의 중첩을 행한다.In the example shown in FIG. 9, as a result of searching in the image horizontal direction, edge E1a and edge E2a are extracted from partial image A, and edge E1b and edge E2b are extracted from partial image B. As shown in FIG. In the horizontal direction, images are superimposed using these extracted edges.

한편, 화상 세로 방향에 대해서는, 에지는 추출되지 않는다. 그러나, 이와 같은 경우에도, 부분 화상 B는, 부분 화상 A로부터 중복률만큼 세로 방향으로 스테이지(4)를 이동시켜 취득한 화상이다. 이를 이용하여, 세로 방향에 대해서는, 스테이지(4)의 이동량을 화상의 이동량으로 파악하여 부분 화상 A 및 부분 화상 B 사이에서 세로 방향의 중첩을 행한다. 이로써, 도 9에 나타내는 중간 화상 M을 얻는다. 에지 E1a 및 에지 E1b를 중첩시킨 부분의 에지가 E1, 에지 E2a 및 에지 E2b를 중첩시킨 부분의 에지가 E2에 상당한다.On the other hand, in the image vertical direction, the edge is not extracted. However, even in such a case, the partial image B is an image acquired by moving the stage 4 in the vertical direction by the overlap ratio from the partial image A. Using this, in the vertical direction, the movement amount of the stage 4 is regarded as the movement amount of the image, and the vertical direction is superposed between the partial image A and the partial image B. FIG. Thereby, the intermediate image M shown in FIG. 9 is obtained. The edge of the part which overlapped the edge E1a and the edge E1b corresponds to E2, and the edge of the part which overlapped E1, the edge E2a, and the edge E2b.

도 9에 있어서는 가로 방향의 에지를 추출할 수 있는 경우의 예를 나타내고 있지만, 이 외에는, 세로 방향의 에지 만이 추출되는 경우나, 가로 방향 및 세로 방향의 어디에서도 에지를 추출할 수 없는 경우도 고려할 수 있다. 이들 경우에는, 원하는 에지, 즉 매칭을 취할 위치를 얻을 수 없었던 방향에 대해서는 어떤 위치에서도 중첩을 행해도 된다고 판단하여, 스테이지(4)의 이동량을 화상의 이동량으로 간주함으로써, 중첩을 행할 수 있다.9 shows an example of the case where the edge in the horizontal direction can be extracted, but in addition to this, the case where only the edge in the vertical direction is extracted or the case in which the edge cannot be extracted in either the horizontal direction or the vertical direction can be considered. Can be. In these cases, the superposition can be performed by judging that the desired edge, i.e., the direction in which the position for matching cannot be obtained, may be superimposed at any position, and the movement amount of the stage 4 is regarded as the movement amount of the image.

도 9에 나타내는 방법으로 화상의 「중첩」을 행함으로써, 화상으로부터 접합에 적절한 특징점이 추출되지 않는 경우에도, 본 실시예에 따른 고정밀 화상 생성 처리의 실행을 계속시킬 수 있다.By performing "overlapping" of the image by the method shown in FIG. 9, even if the feature point suitable for joining is not extracted from an image, execution of the high precision image generation process which concerns on this embodiment can be continued.

도 10은, 본 실시예에 따른 현미경 시스템(100)에 의한 고정밀 화상의 생성 처리를 나타낸 흐름도이다. 도 10에 나타내는 처리는, 도 1에 있어서는 도시하지 않은 입력 장치를 통하여, 고정밀 화상 생성 처리를 개시하는 취지의 명령이 입력된 것을 계기로 하여 개시된다.10 is a flowchart showing a process of generating a high precision image by the microscope system 100 according to the present embodiment. The process shown in FIG. 10 is started based on the input of the instruction which starts the high precision image generation process via the input device which is not shown in FIG.

먼저, 단계 S1에서, 시스템 제어부(7)는, 사용자가 상기 입력 장치를 통하여 입력한 파라미터값에 기초하여, 필요로 하는 고정밀 화상의 범위를 설정한다. 그리고, 도 10에 있어서는, 카메라(3)의 시야 사이즈와 단계 S1에서 설정된 고정밀 화상의 범위에 기초하여, 접합 처리가 필요하다고 판단되는 경우의 처리를 단계 S2 이후에 나타내고 있다.First, in step S1, the system control part 7 sets the range of the high definition image required based on the parameter value input by the user through the said input device. And in FIG. 10, the process in the case where it is determined that a bonding process is needed based on the visual field size of the camera 3 and the range of the high precision image set in step S1 is shown after step S2.

단계 S2에서, 시스템 제어부(7)의 명령에 의해, 화상 처리부(5)의 촬상 제어부(9)는, 대물 렌즈(2)를 지정 배율로 전환하고, 현미경 Z축 제어부(8)는, 경통(1)을 상하로 이동시켜서 핀트 조작을 행하면, 촬상 제어부(9)는, 카메라(3)로 부분 화상을 촬상한다. 도 10에 있어서는, 스테이지(4)에 대해서는, 미리 촬상 개시 위치로 이동한 상태에서 고정밀 화상 생성 처리를 개시하는 경우의 처리를 예시하지만, 고정밀 화상의 생성 처리를 개시한 시점에서는, 스테이지(4)는 임의의 위치에 있는 구성으로 해도 된다. 이 경우에는, 단계 S2에 있어서, 스테이지 제어부(6)가, 고정밀 화상의 범위에 따라 결정되는 촬상 개시 위치에 스테이지(4)를 이동시킨다.In step S2, by the command of the system control unit 7, the imaging control unit 9 of the image processing unit 5 switches the objective lens 2 to the designated magnification, and the microscope Z-axis control unit 8 transmits the barrel ( When the focusing operation is performed by moving 1) up and down, the imaging control unit 9 captures a partial image with the camera 3. In FIG. 10, the stage 4 is exemplified as a process in the case where the high-precision image generation process is started in the state of moving to the imaging start position in advance, but at the time when the generation process of the high-definition image is started, the stage 4 May be a configuration at any position. In this case, in step S2, the stage control part 6 moves the stage 4 to the imaging start position determined according to the range of a high definition image.

보정 처리부(10)는, 입력된 화상에 쉐이딩, 왜곡, 휘도의 보정 등을 행하고, 보정에 의해 얻어진 화상 데이터를 1개의 부분 화상으로서 화상 데이터 기억 버퍼부(11)에 기억시킨다. 취득한 부분 화상을 기억시키면, 시스템 제어부(7)는, 접합 방향을 파라미터로 하여, 기억된 부분 화상에 대하여 접합을 개시하는 취지의 명령을 출력한다.The correction processing unit 10 corrects shading, distortion, luminance, and the like to the input image, and stores the image data obtained by the correction in the image data storage buffer unit 11 as one partial image. When the acquired partial image is stored, the system control unit 7 outputs a command to start joining the stored partial image with the joining direction as a parameter.

단계 S3에서, 시스템 제어부(7)로부터의 명령을 받은 특징점 추출부(12)는, 단계 S2에 있어서 화상 데이터 버퍼부(11)에 기억시킨 부분 화상을 취득하고, 부분 화상 내에서 소정 범위의 영역으로부터 특징점의 추출을 행한다. 그리고, 특징점을 추출하는 소정 범위의 초기값에 대해서는, 미리 설정되어 있는 기준 중복률에 기초하여 결정한다.In step S3, the feature point extraction unit 12 which received the command from the system control unit 7 acquires the partial image stored in the image data buffer unit 11 in step S2, and the area of the predetermined range in the partial image. The feature point is extracted from the image. And the initial value of the predetermined range which extracts a feature point is determined based on the reference redundancy rate set previously.

단계 S4에서, 추출된 특징점의 수가 소정수 이상인지의 여부를 판정한다. 특징점의 수가 소정수 이상인 경우에는, 단계 S5로 진행하여, 화상의 「접합」처리를 개시한다.In step S4, it is determined whether the number of extracted feature points is a predetermined number or more. If the number of feature points is more than a predetermined number, the flow advances to step S5 to start the "bonding" process of the image.

단계 S5에서, 접합의 중복률을 결정한다. 중복률의 결정 방법은, 앞서 도 6, 도 7a 및 도 7b를 참조하여 설명한 바와 같다. 단계 S6에서, 스테이지 이동부(6)는, 단계 S5에 있어서 결정된 중복률과, 상기 단계 S2에 있어서 이동량 결정부(14)에 입력된 접합 방향으로부터, 소정의 위치에 스테이지(4)를 이동시킨다.In step S5, the overlapping rate of the junction is determined. The method of determining the overlap rate is as described above with reference to FIGS. 6, 7A, and 7B. In step S6, the stage moving part 6 moves the stage 4 to a predetermined position from the overlap ratio determined in step S5 and the joining direction input to the movement amount determining part 14 in said step S2. .

단계 S7에서, 촬상 제어부(9)는, 이동 후의 스테이지(4)의 위치에서 부분 화상을 취득하여, 화상 데이터 기억 버퍼부(11)에 기억시킨다. 단계 S8에서, 화상 생성 처리부(13)가, 화상 데이터 기억 버퍼부(11)로부터 단계 S7에서 취득한 부분 화상과 중간 화상을 판독하여, 접합을 행하고, 단계 S9로 진행한다. 단계 S8의 접합 방법에 대해서는, 도 4 및 도 5를 참조하여 설명한 바와 같다. 그리고, 초기값에 있어서는, 단계 S7에서 취득한 부분 화상과 접합하는 화상은, 중간 화상이 아니라, 단계 S2에서 취득한 부분 화상이 된다.In step S7, the imaging control unit 9 acquires the partial image at the position of the stage 4 after the movement, and stores it in the image data storage buffer unit 11. In step S8, the image generating processing unit 13 reads the partial image and the intermediate image acquired in step S7 from the image data storage buffer unit 11, performs the joining, and proceeds to step S9. The bonding method of step S8 is as described with reference to FIGS. 4 and 5. And in the initial value, the image joined with the partial image acquired in step S7 becomes a partial image acquired in step S2 instead of an intermediate image.

한편, 단계 S4에 있어서, 특징점의 수가 소정수에 도달하지 않았다고 판정한 경우에는, 단계 S10로 진행하여, 화상의 「중첩」처리를 개시한다.On the other hand, if it is determined in step S4 that the number of feature points has not reached the predetermined number, the flow advances to step S10 to start the "overlapping" process of the image.

단계 S10에서, 스테이지 제어부(6)는, 스테이지(4)를 미리 준비되어 있는 중복률을 사용하여 산출된 소정량만큼 이동시켜서 시야를 이동하고, 단계 S11에서, 촬상 제어부(9)는, 이동 후의 스테이지(4)의 위치에서 부분 화상을 취득하여, 화상 데이터 기억 버퍼부(11)에 기억시킨다. 단계 S12에서, 화상 생성 처리부(13)가, 화상 데이터 기억 버퍼부(11)로부터 단계 S11에서 취득한 부분 화상과 중간 화상을 판독하여, 중첩을 행하고, 단계 S9로 진행한다. 중첩 방법에 대해서는, 도 9를 참조하여 설명한 바와 같다. 초기값에 있어서는, 단계 S11에서 취득한 부분 화상과 중첩을 행하는 화상은, 중간 화상이 아니라, 단계 S2에서 취득한 부분 화상이 된다.In step S10, the stage control unit 6 moves the stage 4 by a predetermined amount calculated using the overlap ratio prepared in advance, and in step S11, the imaging control unit 9 moves the image after the movement. The partial image is acquired at the position of the stage 4 and stored in the image data storage buffer unit 11. In step S12, the image generation processing unit 13 reads the partial image and the intermediate image acquired in step S11 from the image data storage buffer unit 11, superimposes, and proceeds to step S9. The overlapping method is as described with reference to FIG. 9. In an initial value, the image which overlaps with the partial image acquired in step S11 becomes a partial image acquired in step S2 instead of an intermediate image.

단계 S9에서, 단계 S8 또는 단계 S12에 있어서 생성한 중간 화상의 범위는, 단계 S1에서 설정한 고정밀 화상의 범위를 만족시키는지의 여부를 판정한다. 설정한 고정밀 화상의 범위를 만족시키지 못한다고 판정한 경우에는, 단계 S3으로 되돌아와서, 동일한 처리를 반복한다. 단계 S9에 있어서, 생성한 중간 화상의 범위가 단계 S1에서 설정한 고정밀 화상의 범위를 만족시킨다고 판단하면, 그 중간 화상을 최종적으로 생성할 고정밀 화상으로서 출력하고, 처리를 종료한다.In step S9, the range of the intermediate image generated in step S8 or step S12 determines whether or not the range of the high precision image set in step S1 is satisfied. If it is determined that the set high definition image is not satisfied, the process returns to step S3 and the same processing is repeated. In step S9, if it is determined that the range of the generated intermediate image satisfies the range of the high definition image set in step S1, the intermediate image is output as the high definition image to be finally generated, and the process ends.

이상 설명한 바와 같이, 본 실시예에 따른 고정밀 화상 생성 방법에 의하면, 부분 화상의 특징점을 이용하여 부분 화상을 합성하므로, 저배율의 전체 화상이 불필요하게 된다. 이와 함께, 추출된 특징점의 수를 이용하여 중복률을 결정하기 때문에, 사용자에 의한 중복률의 조정이 불필요하게 된다.As described above, according to the high-precision image generation method according to the present embodiment, since the partial images are synthesized using the feature points of the partial images, the entire image with low magnification becomes unnecessary. In addition, since the overlap rate is determined using the number of extracted feature points, it is unnecessary to adjust the overlap rate by the user.

그리고, 전술한 바에 있어서는 촬상 대상물에 대하여 고정밀 화상을 취득하는 경우를 예로 들어 설명하고 있지만, 이것으로 한정되지 않는다. 특징점을 이용하여 복수의 화상을 합성하여 1개의 화상을 생성하는 방법이라면, 본 발명에 포함된다.In addition, although the case where the high precision image is acquired about the imaging object as an example was demonstrated as above, it is not limited to this. Any method of generating one image by synthesizing a plurality of images using feature points is included in the present invention.

1: 경통 2: 대물 렌즈
3: 카메라 4: 스테이지
5: 화상 처리부 6: 스테이지 제어부
7: 시스템 제어부 8: 현미경 Z축 제어부
9: 촬상 제어부
10: 쉐이딩·왜곡·휘도 보정 처리부(보정 처리부)
11: 화상 데이터 기억 버퍼부 12: 특징점 추출 처리부
13: 화상 생성 처리부 14: 이동량 결정부
50: 현미경 100: 현미경 시스템
1: barrel 2: objective lens
3: camera 4: stage
5: image processing unit 6: stage control unit
7: System control unit 8: Microscope Z-axis control unit
9: imaging controller
10: shading, distortion, luminance correction processing unit (correction processing unit)
11: Image data storage buffer unit 12: Feature point extraction processing unit
13: Image generation processing unit 14: Movement amount determining unit
50: microscope 100: microscope system

Claims (9)

현미경으로 관찰되는 촬상 대상물을 소정의 해상도로 촬상한 제1 부분 화상을 취득하고,
상기 제1 부분 화상으로부터 추출한 특징점에 기초하여, 상기 제1 부분 화상과 합성하는 제2 부분 화상과의 중복률을 결정하고,
상기 제1 부분 화상과, 결정된 상기 중복률에 기초하여 상기 현미경의 스테이지를 이동시켜 취득한 상기 제2 부분 화상을 합성하여 얻어지는 합성 화상을 취득하는
처리를 포함하는, 화상 생성 방법.
Obtaining the 1st partial image which image | photographed the imaging object observed with a microscope with predetermined | prescribed resolution,
Based on the feature points extracted from the first partial image, the overlapping ratio with the second partial image synthesized with the first partial image is determined,
Acquiring a composite image obtained by combining the first partial image and the second partial image obtained by moving the stage of the microscope based on the determined overlap ratio.
An image generation method comprising a process.
제1항에 있어서,
상기 특징점은 미리 설정되어 있는 기준 중복률에 기초하여 추출되는, 화상 생성 방법.
The method of claim 1,
And the feature point is extracted based on a preset reference overlap ratio.
제2항에 있어서,
상기 기준 중복률에 기초하여 상기 특징점이 추출되지 않으면, 상기 기준 중복률을 변경하여 특징점을 재추출하는, 화상 생성 방법.
The method of claim 2,
And if the feature point is not extracted based on the reference overlap rate, re-extracting the feature point by changing the reference overlap rate.
제3항에 있어서,
상기 재추출을 행하는 경우에는, 상기 기준 중복률을 보다 큰 값으로 변경하는, 화상 생성 방법.
The method of claim 3,
When the re-extraction is performed, the reference overlap ratio is changed to a larger value.
제1항에 있어서,
상기 제1 부분 화상으로부터 추출한 특징점의 수가 소정수 이상인지의 여부를 판정하고, 상기 소정수에 도달하지 않았다고 판정한 경우에는, 미리 준비되어 있는 중복률을 상기 제2 부분 화상과의 중복률로서 결정하는, 화상 생성 방법.
The method of claim 1,
It is determined whether the number of feature points extracted from the first partial image is equal to or larger than a predetermined number, and when it is determined that the predetermined number has not been reached, the overlapping rate prepared in advance is determined as the overlapping ratio with the second partial image. Image generation method to do.
제5항에 있어서,
상기 미리 준비되어 있는 중복률에 기초하여, 상기 제1 부분 화상과 상기 제2 부분 화상의 에지를 탐색하고, 추출된 상기 에지를 이용하여 합성 화상을 취득하는, 화상 생성 방법.
The method of claim 5,
An image generating method for searching for edges of the first partial image and the second partial image and acquiring a composite image using the extracted edges, based on the overlap ratio prepared in advance.
제1항에 있어서,
상기 제1 부분 화상으로부터 추출한 특징점의 수가 소정수 이상인지의 여부를 판정하고, 상기 소정수에 도달하지 않았다고 판정한 경우에는, 상기 현미경의 스테이지의 이동량을 상기 제1 부분 화상 및 상기 제2 부분 화상의 이동량으로 간주하여 합성 화상을 취득하는, 화상 생성 방법.
The method of claim 1,
It is determined whether the number of feature points extracted from the first partial image is a predetermined number or more, and when it is determined that the predetermined number has not been reached, the amount of movement of the stage of the microscope is determined by the first partial image and the second partial image. The image generating method which acquires a composite image by considering it as the movement amount of.
제1항에 있어서,
상기 제2 부분 화상에 대하여, 특징점을 추출하여, 상기 소정수 이상의 특징점이 상기 제2 부분 화상에 포함되는지의 여부를 판정하고, 상기 제2 부분 화상에 포함되는 특징점의 수에 따라, 상기 제2 부분 화상의 특징점에 기초하여 결정하는 중복률, 또는 상기 미리 준비되어 있는 중복률을 사용하여, 상기 제1 부분 화상 및 상기 2 부분 화상을 합성하여 얻어진 상기 합성 화상과, 상기 중복률에 기초하여 상기 현미경의 스테이지를 이동시켜 취득한 제3 부분 화상을 합성하여 새로 합성 화상을 생성하고,
상기 촬상 대상물의 전체 화상을 취득할 때까지, 전술한 처리를 반복하는, 화상 생성 방법.
The method of claim 1,
Feature points are extracted with respect to the second partial image to determine whether or not the predetermined number or more of feature points are included in the second partial image, and according to the number of feature points included in the second partial image, the second The composite image obtained by synthesizing the first partial image and the two partial images using an overlap ratio determined based on a feature point of the partial image, or the overlap ratio prepared in advance, and based on the overlap ratio Synthesize the third partial image acquired by moving the stage of the microscope to generate a new composite image,
The above-mentioned process is repeated until the whole image of the said imaging object is acquired.
촬상 대상물을 소정의 배율로 관찰하는 현미경과, 상기 촬상 대상물에 대하여 상대 이동하는 스테이지를 구비하는 현미경 시스템으로서,
상기 현미경의 상기 관찰상을 상기 소정의 해상도로 촬상한 제1 부분 화상을 취득하는 촬상부;
상기 제1 부분 화상으로부터 추출한 특징점에 기초하여, 상기 제1 부분 화상과 합성하는 제2 부분 화상과의 중복률을 결정하고, 상기 중복률에 기초하여 상기 스테이지의 이동량을 결정하는 이동량 결정부; 및
상기 제1 부분 화상과, 결정된 상기 이동량에 따라 상기 스테이지를 이동시켜 취득한 상기 제2 부분 화상을 합성하여 얻어지는 합성 화상을 취득하는 화상 생성부
를 포함하는, 현미경 시스템.
A microscope system comprising a microscope for observing an imaging object at a predetermined magnification and a stage relatively moving with respect to the imaging object,
An imaging unit for acquiring a first partial image of the observation image of the microscope at the predetermined resolution;
A movement amount determining unit determining an overlapping ratio with the second partial image synthesized with the first partial image based on the feature points extracted from the first partial image, and determining a movement amount of the stage based on the overlapping ratio; And
An image generation unit for acquiring a composite image obtained by synthesizing the first partial image and the second partial image acquired by moving the stage according to the determined movement amount;
Including, the microscope system.
KR1020100042303A 2009-09-16 2010-05-06 Method and apparatus for image generation KR20110030275A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009214813A JP2011065371A (en) 2009-09-16 2009-09-16 Image generation method and image generating device
JPJP-P-2009-214813 2009-09-16

Publications (1)

Publication Number Publication Date
KR20110030275A true KR20110030275A (en) 2011-03-23

Family

ID=43864723

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100042303A KR20110030275A (en) 2009-09-16 2010-05-06 Method and apparatus for image generation

Country Status (4)

Country Link
JP (1) JP2011065371A (en)
KR (1) KR20110030275A (en)
CN (1) CN102023167A (en)
TW (1) TW201123029A (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014006964A1 (en) 2012-07-04 2014-01-09 ソニー株式会社 Information processing device, information processing method, program, and microscope system
US9986155B2 (en) * 2014-09-05 2018-05-29 Htc Corporation Image capturing method, panorama image generating method and electronic apparatus
CN105472232B (en) * 2014-09-05 2018-10-19 宏达国际电子股份有限公司 Image acquisition method and electronic device
TWI599793B (en) 2015-11-23 2017-09-21 財團法人金屬工業研究發展中心 Image scanning system for tissue slides
US10770034B2 (en) * 2016-09-23 2020-09-08 Sakai Display Products Corporation Generation system, generation method, and storage medium
JP6120037B1 (en) * 2016-11-30 2017-04-26 国際航業株式会社 Inspection device and inspection method
CN109752835B (en) * 2019-03-25 2021-03-19 南京泰立瑞信息科技有限公司 X, Y axis positioning control method and system for microscope local visual field
CN113344835A (en) * 2021-06-11 2021-09-03 北京房江湖科技有限公司 Image splicing method and device, computer readable storage medium and electronic equipment

Also Published As

Publication number Publication date
CN102023167A (en) 2011-04-20
JP2011065371A (en) 2011-03-31
TW201123029A (en) 2011-07-01

Similar Documents

Publication Publication Date Title
KR20110030275A (en) Method and apparatus for image generation
JP5154392B2 (en) Imaging device
JP5096303B2 (en) Imaging device
JP5096301B2 (en) Imaging device
JP2003254748A (en) Stereo image characteristic inspection system
JP2010134374A (en) Microscope system and method of operation thereof
JP2011081211A (en) Microscope system
JP2009157543A (en) Method and apparatus for creating image
JP2010141698A (en) Imaging apparatus
JP2007251143A (en) Visual inspection system
JP5091099B2 (en) Imaging device
KR100888235B1 (en) Image processing device and method
KR20080003718A (en) Semiconductor substrate defects correction device
JP5209099B2 (en) Imaging device
JP5209100B2 (en) Imaging device
JP5149984B2 (en) Imaging device
JP7042361B2 (en) Imaging device
JP5730696B2 (en) Image processing apparatus and image display system
JP5718012B2 (en) Scanning laser microscope
JPH11287618A (en) Image processing device
JP2005181250A (en) Method and device for inspecting liquid crystal display panel
JP2013034208A (en) Imaging apparatus
JP2011129458A (en) Scanning electron microscope, and imaging method of scanning electron microscope
JP2011221280A (en) Virtual slide creating device and virtual slide creating method
JP5209098B2 (en) Imaging device

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination