KR102578312B1 - Hologram-based object three-dimensional mesurement device and method - Google Patents

Hologram-based object three-dimensional mesurement device and method Download PDF

Info

Publication number
KR102578312B1
KR102578312B1 KR1020210144499A KR20210144499A KR102578312B1 KR 102578312 B1 KR102578312 B1 KR 102578312B1 KR 1020210144499 A KR1020210144499 A KR 1020210144499A KR 20210144499 A KR20210144499 A KR 20210144499A KR 102578312 B1 KR102578312 B1 KR 102578312B1
Authority
KR
South Korea
Prior art keywords
image
dimensional
hologram
interest
depth
Prior art date
Application number
KR1020210144499A
Other languages
Korean (ko)
Other versions
KR20230060149A (en
Inventor
김경범
임수현
Original Assignee
(주) 큐빅셀
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 큐빅셀 filed Critical (주) 큐빅셀
Priority to KR1020210144499A priority Critical patent/KR102578312B1/en
Publication of KR20230060149A publication Critical patent/KR20230060149A/en
Application granted granted Critical
Publication of KR102578312B1 publication Critical patent/KR102578312B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02041Interferometers characterised by particular imaging or detection techniques
    • G01B9/02047Interferometers characterised by particular imaging or detection techniques using digital holographic imaging, e.g. lensless phase imaging without hologram in the reference path
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/22Processes or apparatus for obtaining an optical image from holograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T5/004
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 홀로그램 기반 대상체 3차원 계측 장치 및 방법에 관한 것으로, 상기 장치는 적어도 하나의 촬영 대상체에 관한 홀로그램을 2차원 영상으로 생성하는 2차원 영상 생성부; 상기 2차원 영상에서 상기 적어도 하나의 촬영 대상체 중 관심 대상체를 세그멘테이션(segmentation) 하여 상기 관심 대상체에 관한 2차원 복원 영상을 추출하는 영상 세그멘테이션부; 상기 2차원 복원 영상의 깊이 위치를 결정하는 깊이 위치 결정부; 및 상기 2차원 복원 영상 및 상기 깊이 위치를 기초로 상기 관심 대상체에 관하여 3차원 계측을 수행하는 3차원 계측부;를 포함한다.The present invention relates to a hologram-based three-dimensional object measurement device and method, the device comprising: a two-dimensional image generator that generates a hologram of at least one object to be captured as a two-dimensional image; an image segmentation unit configured to segment an object of interest among the at least one photographed object in the two-dimensional image and extract a two-dimensional reconstructed image of the object of interest; a depth position determination unit that determines a depth position of the two-dimensional reconstructed image; and a 3D measurement unit that performs 3D measurement on the object of interest based on the 2D reconstructed image and the depth position.

Description

홀로그램 기반 대상체 3차원 계측 장치 및 방법{HOLOGRAM-BASED OBJECT THREE-DIMENSIONAL MESUREMENT DEVICE AND METHOD}Hologram-based object 3D measurement device and method {HOLOGRAM-BASED OBJECT THREE-DIMENSIONAL MESUREMENT DEVICE AND METHOD}

본 발명은 홀로그램 기반 대상체 3차원 계측 기술에 관한 것으로, 더욱 상세하게는 촬영 대상체의 홀로그램을 촬영하고 이를 수치적 방법으로 처리하여 물체의 깊이 분포를 획득함으로써 3차원 계측 및 시각화를 제공하는 홀로그램 기반 대상체 3차원 계측 장치에 관한 것이다.The present invention relates to a hologram-based object 3D measurement technology. More specifically, a hologram-based object that provides 3D measurement and visualization by photographing a hologram of an object and processing it with a numerical method to obtain the depth distribution of the object. It relates to 3D measuring devices.

종래에 홀로그램을 분석해서 대상체의 깊이를 알아내는 방법은 홀로그램의 영역을 나누어 각 영역에서 초점 맺은 위치를 찾아 해당영역의 깊이 위치를 추출하는 방식으로 수행되었다.Conventionally, the method of analyzing a hologram to determine the depth of an object was performed by dividing the hologram into areas, finding the focus position in each area, and extracting the depth position of the area.

하지만, 이와 같은 종래의 방법은 나누어진 영역 내에 서로 다른 깊이 위치에 해당하는 물체가 포함되는 경우 물체의 깊이 위치가 정확하게 도출되지 않을 뿐 아니라 분석 대상체의 3차원 정보를 획득하기 위해서는 나누어진 전 영역들에서 깊이 위치를 각각 찾아야만 하는 불편함이 존재하였다.However, in this conventional method, when objects corresponding to different depth positions are included in the divided area, the depth position of the object is not accurately derived, and in order to obtain three-dimensional information of the analysis object, all divided areas must be used. There was the inconvenience of having to find each depth location.

한국등록특허 제10-1304695(2013.08.30)호Korean Patent No. 10-1304695 (2013.08.30)

본 발명의 일 실시예는 홀로그램을 복원하여 2차원 영상을 획득하고 세분화된 2차원 영상의 내부 영역에 대해 전부 또는 일부를 기초로 초점 맺은 깊이 위치를 추출하여 세분화된 영역의 깊이를 특정함으로써 대상체의 3차원 분포를 획득할 수 있는 홀로그램 기반 대상체 3차원 계측 장치 및 방법을 제공하고자 한다.One embodiment of the present invention restores a hologram to obtain a two-dimensional image, extracts the in-focus depth position based on all or part of the inner area of the segmented two-dimensional image, and specifies the depth of the segmented area to determine the depth of the object. The objective is to provide a hologram-based 3D measurement device and method that can obtain 3D distribution.

실시예들 중에서, 홀로그램 기반 대상체 3차원 계측 장치는 적어도 하나의 촬영 대상체에 관한 홀로그램을 2차원 영상으로 생성하는 2차원 영상 생성부; 상기 2차원 영상에서 상기 적어도 하나의 촬영 대상체 중 관심 대상체를 세그멘테이션(segmentation) 하여 상기 관심 대상체에 관한 2차원 복원 영상을 추출하는 영상 세그멘테이션부; 상기 2차원 복원 영상의 깊이 위치를 결정하는 깊이 위치 결정부; 및 상기 2차원 복원 영상 및 상기 깊이 위치를 기초로 상기 관심 대상체에 관하여 3차원 계측을 수행하는 3차원 계측부;를 포함한다.Among embodiments, a hologram-based 3D object measuring apparatus includes: a 2D image generator that generates a hologram of at least one object to be captured as a 2D image; an image segmentation unit configured to segment an object of interest among the at least one photographed object in the two-dimensional image and extract a two-dimensional reconstructed image of the object of interest; a depth position determination unit that determines a depth position of the two-dimensional reconstructed image; and a 3D measurement unit that performs 3D measurement on the object of interest based on the 2D reconstructed image and the depth position.

상기 2차원 영상 생성부는 아래의 수학식을 통해 상기 홀로그램을 상기 2차원 영상으로 복원할 수 있다.The two-dimensional image generator can restore the hologram into the two-dimensional image through the equation below.

[수학식][Equation]

여기에서, iR은 복원된 홀로그램 2차원 영상이며, 은 홀로그램을 나타내며, zr은 복원 거리를 나타냄Here, i R is the restored holographic two-dimensional image, represents the hologram, and z r represents the reconstruction distance.

상기 2차원 영상 생성부는 상기 zr을 조절해 특정 높이에 해당하는 2차원 복원 영상을 획득하고 상기 zr = -z 로 설정하여 초점맺은 2차원 영상을 획득할 수 있다.The 2D image generator may adjust z r to obtain a 2D reconstructed image corresponding to a specific height and set z r = -z to obtain a focused 2D image.

상기 영상 세그멘테이션부는 상기 2차원 복원 영상의 영상 용량을 검출하고, 상기 영상 용량이 특정 기준 이상인 경우에는 상기 2차원 복원 영상에 관한 다운 샘플링(down sampling)을 수행하여 상기 2차원 복원 영상을 리사이즈(resize)할 수 있다.The image segmentation unit detects the image capacity of the 2D reconstructed image, and when the image capacity is greater than a certain standard, performs down sampling on the 2D reconstructed image and resizes the 2D reconstructed image. )can do.

상기 영상 세그멘테이션부는 상기 2차원 복원 영상 또는 상기 리사이즈된 2차원 복원 영상에 관한 가우시안 필터(Gaussian Filer) 기반의 블러링(blurring)을 통한 잡음제거, 원본영상 및 잡음제거영상 간의 차이에 관한 언샤프 마스크 필터링(unsharp mask filtering)을 통해 에지 보존을 순차적으로 수행하여 상기 2차원 복원 영상 또는 상기 리사이즈된 2차원 복원 영상의 선명성을 각각 증가시킬 수 있다.The image segmentation unit removes noise through blurring based on a Gaussian filter on the 2D reconstructed image or the resized 2D reconstructed image, and performs an unsharp mask on the difference between the original image and the noise-removed image. Edge preservation can be sequentially performed through filtering (unsharp mask filtering) to increase the sharpness of the 2D reconstructed image or the resized 2D reconstructed image, respectively.

상기 영상 세그멘테이션부는 상기 선명성이 증가된 2차원 복원 영상에 관해 영상 이진화를 수행하여 상기 관심 대상체의 영역을 특정하고, 상기 특정된 관심 대상체에 대한 형태학 처리를 수행하여 상기 관심 대상체를 구별할 수 있다.The image segmentation unit may perform image binarization on the two-dimensional reconstructed image with increased clarity to specify a region of the object of interest, and may perform morphological processing on the specified object of interest to distinguish the object of interest.

상기 깊이 위치 결정부는 상기 2차원 영상의 타무라 계수(Tamura coefficient)를 획득하고 상기 타무라 계수가 최대인 깊이의 2차원 영상을 결정하여 상기 깊이 위치를 결정할 수 있다.The depth position determination unit may determine the depth position by obtaining a Tamura coefficient of the two-dimensional image and determining a two-dimensional image at a depth where the Tamura coefficient is maximum.

상기 3차원 계측부는 상기 2차원 복원 영상들을 해당 깊이 위치에 배치하여 3차원 깊이 매트릭스를 생성하고 상기 3차원 깊이 매트릭스를 기초로 상기 관심 대상체를 계측할 수 있다.The 3D measurement unit may generate a 3D depth matrix by placing the 2D reconstructed images at corresponding depth positions and measure the object of interest based on the 3D depth matrix.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technology can have the following effects. However, since it does not mean that a specific embodiment must include all of the following effects or only the following effects, the scope of rights of the disclosed technology should not be understood as being limited thereby.

본 발명의 일 실시예에 따른 홀로그램 기반 대상체 3차원 계측 장치 및 방법은 홀로그램을 복원하여 2차원 영상을 획득하고 세분화된 2차원 영상의 내부 영역에 대해 전부 또는 일부를 기초로 초점 맺은 깊이 위치를 추출하여 세분화된 영역의 깊이를 특정함으로써 대상체의 3차원 분포를 획득할 수 있다.A hologram-based 3D object measuring device and method according to an embodiment of the present invention restores a hologram to obtain a 2D image and extracts a focused depth position based on all or part of the inner region of the segmented 2D image. By specifying the depth of the segmented area, the three-dimensional distribution of the object can be obtained.

도 1은 본 발명에 따른 홀로그램 기반 대상체 3차원 계측 시스템의 구성을 설명하는 도면이다.
도 2는 도 1에 있는 대상체 3차원 계측 장치의 시스템 구성을 설명하는 도면이다.
도 3은 도 1에 있는 대상체 3차원 계측 장치의 기능적 구성을 설명하는 블록도이다.
도 4는 본 발명에 따른 홀로그램 기반 대상체 3차원 계측 과정을 설명하는 순서도이다.
도 5는 촬영 대상체의 홀로그램 촬영을 설명하는 도면이다.
도 6은 침식 연산과 팽창 연산의 일 실시예 설명하는 도면이다.
도 7은 본 발명에 따른 깊이 위치 추출 방법을 설명하는 도면이다.
도 8a 및 8b는 본 발명에 따른 3차원 계측 방법을 설명하는 도면이다.
1 is a diagram explaining the configuration of a hologram-based 3D object measurement system according to the present invention.
FIG. 2 is a diagram explaining the system configuration of the 3D object measurement device shown in FIG. 1.
FIG. 3 is a block diagram illustrating the functional configuration of the 3D object measurement device shown in FIG. 1.
Figure 4 is a flowchart explaining the hologram-based 3D measurement process of an object according to the present invention.
Figure 5 is a diagram explaining holographic photography of an object to be photographed.
Figure 6 is a diagram explaining an embodiment of an erosion operation and an expansion operation.
Figure 7 is a diagram explaining the depth position extraction method according to the present invention.
8A and 8B are diagrams explaining the 3D measurement method according to the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Since the description of the present invention is only an example for structural or functional explanation, the scope of the present invention should not be construed as limited by the examples described in the text. In other words, since the embodiments can be modified in various ways and can have various forms, the scope of rights of the present invention should be understood to include equivalents that can realize the technical idea. In addition, the purpose or effect presented in the present invention does not mean that a specific embodiment must include all or only such effects, so the scope of the present invention should not be understood as limited thereby.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of the terms described in this application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as “first” and “second” are used to distinguish one component from another component, and the scope of rights should not be limited by these terms. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected to the other component, but that other components may exist in between. On the other hand, when a component is referred to as being “directly connected” to another component, it should be understood that there are no other components in between. Meanwhile, other expressions that describe the relationship between components, such as "between" and "immediately between" or "neighboring" and "directly neighboring" should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly indicates otherwise, and terms such as “comprise” or “have” refer to implemented features, numbers, steps, operations, components, parts, or them. It is intended to specify the existence of a combination, and should be understood as not excluding in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.For each step, identification codes (e.g., a, b, c, etc.) are used for convenience of explanation. The identification codes do not explain the order of each step, and each step clearly follows a specific order in context. Unless specified, events may occur differently from the specified order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the opposite order.

본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치, HDD, SSD 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be implemented as computer-readable code on a computer-readable recording medium, and the computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. . Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, HDD, and SSD. Additionally, the computer-readable recording medium can be distributed across computer systems connected to a network, so that computer-readable code can be stored and executed in a distributed manner.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein, unless otherwise defined, have the same meaning as commonly understood by a person of ordinary skill in the field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as consistent with the meaning they have in the context of the related technology, and cannot be interpreted as having an ideal or excessively formal meaning unless clearly defined in the present application.

도 1은 본 발명에 따른 홀로그램 기반 대상체 3차원 계측 시스템의 구성을 설명하는 도면이다.1 is a diagram explaining the configuration of a hologram-based 3D object measurement system according to the present invention.

도 1을 참조하면, 홀로그램 기반 대상체 3차원 계측 시스템(100)은 홀로그램 카메라(110), 대상체 3차원 계측 장치(130) 및 데이터베이스(150)를 포함할 수 있다.Referring to FIG. 1 , the hologram-based 3D object measurement system 100 may include a hologram camera 110, a 3D object measurement device 130, and a database 150.

홀로그램 카메라(110)는 대물판에 위치한 검사 대상체의 홀로그램을 촬영할 수 있는 장치에 해당할 수 있다. 홀로그램 카메라(110)는 대상체 3차원 계측 장치(130)와 네트워크를 통해 연결될 수 있고, 복수의 홀로그램 카메라(110)들은 대상체 3차원 계측 장치(130)와 동시에 연결될 수 있다.The hologram camera 110 may correspond to a device that can capture a hologram of an inspection object located on an objective plate. The hologram camera 110 may be connected to the 3D object measurement device 130 through a network, and a plurality of hologram cameras 110 may be simultaneously connected to the 3D object measurement device 130.

일 실시예에서, 홀로그램 카메라(110)는 대상체 3차원 계측 장치(130)의 일 구성요소로 포함되어 구현될 수 있고, 이 경우 홀로그램 카메라(110)는 대상체의 홀로그램을 촬영하는 동작을 수행하는 독립된 모듈에 해당할 수 있다.In one embodiment, the hologram camera 110 may be included and implemented as a component of the object 3D measurement device 130. In this case, the hologram camera 110 is an independent device that performs the operation of photographing a hologram of the object. It may correspond to a module.

일 실시예에서, 홀로그램 카메라(110)는 전자기파를 발생시키는 광원, 전자기파를 분할하는 분할수단, 분할된 전자기파에 의해 형성되는 간섭 빔을 이용하여 대상체를 스캔하는 스캔수단 및 대상체로부터 반사, 형광 또는 투과된 빔을 검출하는 광 검출수단을 포함할 수 있다.In one embodiment, the holographic camera 110 includes a light source that generates electromagnetic waves, a splitting means that splits the electromagnetic waves, a scanning means that scans the object using an interference beam formed by the split electromagnetic waves, and reflection, fluorescence, or transmission from the object. It may include light detection means for detecting the beam.

광원은 전자기파의 발생이 가능한 레이저 발생기, LED(Light Emitting Diode), 결맞음 길이(coherence length)가 짧은 헬로겐 광처럼 가간섭성(Coherence)이 낮은 빔 등의 다양한 수단을 포함할 수 있다.The light source may include various means such as a laser generator capable of generating electromagnetic waves, a light emitting diode (LED), and a beam with low coherence such as heliogen light with a short coherence length.

분할수단은 광원에서 발생된 전자기파, 예를 들어 레이저 빔을 제1 빔과 제2 빔으로 분할할 수 있다. 일 실시예에서, 분할수단은 광 섬유 커플러(optical fiber coupler), 빔 스플리터(beam splitter), 기하위상렌즈(geometric phase lens)를 포함할 수 있고, 자유 공간을 도파하여 빔을 외부로 전달하는 방식으로 구현될 수 있을 뿐 아니라, 상기 기하위상렌즈 등 공축상(in-line)에서 빔을 분할할 수 있는 수단을 이용해서는 공축상에서 제1 빔과 제2 빔으로 분할할 수 있다.The splitting means may split an electromagnetic wave generated from a light source, for example, a laser beam, into a first beam and a second beam. In one embodiment, the splitting means may include an optical fiber coupler, a beam splitter, and a geometric phase lens, and transmits the beam to the outside by guiding free space. In addition, it can be divided into a first beam and a second beam on the co-axis using a means that can split the beam on the co-axis (in-line), such as the geometric phase lens.

스캔수단은 분할된 전자기파에 의해 형성되는 간섭 빔(또는 간섭 패턴)을 이용하여 촬영 대상물을 스캔할 수 있다. 스캔수단은 거울 스캐너에 해당할 수 있으나, 반드시 이에 한정되지 않고, 공지된 다양한 스캔수단으로 대체될 수 있다. 예를 들어, 스캔수단은 프레넬 윤대판(Fresnel zone plate)을 촬영 대상물을 가로질러 이동시킴으로써 촬영 대상물을 스캐닝할 수 있다. 이 경우, 스캔수단은 제어 신호에 따라 스캐닝 위치를 조절할 수 있다. 또한, 스캔수단은 촬영대상물을 대물판 위에 위치시키고 대물판을 수평 이동하여 촬영대상물을 스캐닝할 수 있다.The scanning means may scan an object to be photographed using an interference beam (or interference pattern) formed by divided electromagnetic waves. The scanning means may correspond to a mirror scanner, but is not necessarily limited thereto, and may be replaced with various known scanning means. For example, the scanning means may scan the object by moving a Fresnel zone plate across the object. In this case, the scanning means can adjust the scanning position according to the control signal. Additionally, the scanning means can place the object to be photographed on the objective plate and scan the object by horizontally moving the object plate.

광 검출수단은 빔을 검출하여 전류신호로 변환할 수 있다. 이 경우, 광 검출수단은 검출된 빔의 세기에 따라 전류를 생성할 수 있다. 광 검출수단은 광 다이오드를 사용하여 구현될 수 있으나, 반드시 이에 한정되지 않고, 광증배관(photo-multiplier tube) 등 다양한 광 검출수단을 포함할 수 있다. 또한, 광 검출수단은 촬영 대상물로부터 반사, 형광 또는 투과된 빔을 집광하는 집광기를 포함하여 구현될 수 있다.The light detection means can detect the beam and convert it into a current signal. In this case, the light detection means may generate a current according to the intensity of the detected beam. The light detection means may be implemented using a photodiode, but is not necessarily limited thereto, and may include various light detection means such as a photo-multiplier tube. Additionally, the light detection means may be implemented by including a concentrator that focuses the beam reflected, fluorescent, or transmitted from the object to be photographed.

대상체 3차원 계측 장치(130)는 대상체의 홀로그램을 촬영하고 수치적 방법으로 처리하여 물체의 깊이 분포를 획득함으로써 대상체를 3차원 계측할 수 있는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 대상체 3차원 계측 장치(130)는 독립된 동작을 수행하는 외부 시스템(도 1에 미도시함)과 블루투스, WiFi, 통신망 등을 통해 무선으로 연결될 수 있고, 네트워크를 통해 외부 시스템과 데이터를 주고받을 수 있다.The 3D measurement device 130 may be implemented as a server corresponding to a computer or program that can measure an object in 3D by photographing a hologram of the object and processing it using a numerical method to obtain the depth distribution of the object. The object 3D measurement device 130 can be wirelessly connected to an external system (not shown in FIG. 1) that performs an independent operation through Bluetooth, WiFi, a communication network, etc., and can exchange data with the external system through the network. there is.

일 실시예에서, 대상체 3차원 계측 장치(130)는 데이터베이스(150)와 연동하여 자동광학검사 과정에서 필요한 정보를 저장할 수 있다. 한편, 대상체 3차원 계측 장치(130)는 도 1과 달리, 데이터베이스(150)를 내부에 포함하여 구현될 수 있다.In one embodiment, the object 3D measurement device 130 may store information necessary for the automatic optical inspection process in conjunction with the database 150. Meanwhile, unlike FIG. 1, the object 3D measurement device 130 may be implemented by including a database 150 therein.

데이터베이스(150)는 본 발명에 따른 홀로그램 기반 대상체 3차원 계측 방법을 수행하는 과정에서 필요한 다양한 정보들을 저장하는 저장장치에 해당할 수 있다. 데이터베이스(150)는 홀로그램 카메라(110)로부터 획득한 대상체의 홀로그램에 관한 정보를 저장할 수 있고, 대상체의 2차원 영상과 깊이 위치에 관한 정보를 저장할 수 있으며, 반드시 이에 한정되지 않고, 대상체 3차원 계측 장치(130)가 물체의 깊이 분포를 획득함으로써 대상체를 3차원으로 계측하는 과정에서 다양한 형태로 수집 또는 가공된 정보들을 저장할 수 있다.The database 150 may correspond to a storage device that stores various information required in the process of performing the hologram-based 3D measurement method for an object according to the present invention. The database 150 can store information about the hologram of the object obtained from the hologram camera 110, and can store information about the two-dimensional image and depth position of the object, but is not necessarily limited thereto, and can be used for three-dimensional measurement of the object. The device 130 can store information collected or processed in various forms in the process of measuring the object in three dimensions by acquiring the depth distribution of the object.

도 2는 도 1에 있는 대상체 3차원 계측 장치의 시스템 구성을 설명하는 도면이다.FIG. 2 is a diagram illustrating the system configuration of the 3D object measurement device shown in FIG. 1.

도 2를 참조하면, 대상체 3차원 계측 장치(130)는 프로세서(210), 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)를 포함할 수 있다.Referring to FIG. 2 , the 3D object measurement device 130 may include a processor 210, a memory 230, a user input/output unit 250, and a network input/output unit 270.

프로세서(210)는 본 발명의 실시예에 따른 홀로그램 기반 대상체 3차원 계측 프로시저를 실행할 수 있고, 이러한 과정에서 읽혀지거나 작성되는 메모리(230)를 관리할 수 있으며, 메모리(230)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄 할 수 있다. 프로세서(210)는 대상체 3차원 계측 장치(130)의 동작 전반을 제어할 수 있고, 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(210)는 대상체 3차원 계측 장치(130)의 CPU(Central Processing Unit)로 구현될 수 있다.The processor 210 can execute a hologram-based object 3D measurement procedure according to an embodiment of the present invention, manage the memory 230 that is read or written in this process, and volatile memory in the memory 230. You can schedule the synchronization time between and non-volatile memory. The processor 210 can control the overall operation of the object 3D measurement device 130 and is electrically connected to the memory 230, the user input/output unit 250, and the network input/output unit 270 to facilitate data flow between them. You can control it. The processor 210 may be implemented as a central processing unit (CPU) of the object 3D measurement device 130.

메모리(230)는 SSD(Solid State Disk) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 대상체 3차원 계측 장치(130)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다. 또한, 메모리(230)는 전기적으로 연결된 프로세서(210)에 의해 실행됨으로써 본 발명에 따른 홀로그램 기반 대상체 3차원 계측 방법을 실행하는 명령들의 집합을 저장할 수 있다.The memory 230 may be implemented as a non-volatile memory such as a solid state disk (SSD) or a hard disk drive (HDD) and may include an auxiliary memory device used to store all data required for the object 3D measurement device 130. and may include a main memory implemented as volatile memory such as RAM (Random Access Memory). Additionally, the memory 230 can store a set of instructions for executing the hologram-based 3D measurement method of an object according to the present invention by being executed by the electrically connected processor 210.

사용자 입출력부(250)은 사용자 입력을 수신하기 위한 환경 및 사용자에게 특정 정보를 출력하기 위한 환경을 포함하고, 예를 들어, 터치 패드, 터치 스크린, 화상 키보드 또는 포인팅 장치와 같은 어댑터를 포함하는 입력장치 및 모니터 또는 터치 스크린과 같은 어댑터를 포함하는 출력장치를 포함할 수 있다. 일 실시예에서, 사용자 입출력부(250)은 원격 접속을 통해 접속되는 컴퓨팅 장치에 해당할 수 있고, 그러한 경우, 대상체 3차원 계측 장치(130)는 독립적인 서버로서 수행될 수 있다.The user input/output unit 250 includes an environment for receiving user input and an environment for outputting specific information to the user, and includes an input adapter such as, for example, a touch pad, a touch screen, an on-screen keyboard, or a pointing device. It may include an output device including a device and an adapter such as a monitor or touch screen. In one embodiment, the user input/output unit 250 may correspond to a computing device connected through a remote connection, and in such case, the object 3D measurement device 130 may be performed as an independent server.

네트워크 입출력부(270)은 네트워크를 통해 홀로그램 카메라(110) 또는 외부 시스템과 연결되기 위한 통신 환경을 제공하고, 예를 들어, LAN(Local Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network) 및 VAN(Value Added Network) 등의 통신을 위한 어댑터를 포함할 수 있다. 또한, 네트워크 입출력부(270)는 데이터의 무선 전송을 위해 WiFi, 블루투스 등의 근거리 통신 기능이나 4G 이상의 무선 통신 기능을 제공하도록 구현될 수 있다.The network input/output unit 270 provides a communication environment for connection with the hologram camera 110 or an external system through a network, for example, LAN (Local Area Network), MAN (Metropolitan Area Network), WAN (Wide Area Network) Network) and VAN (Value Added Network) may include adapters for communication. Additionally, the network input/output unit 270 may be implemented to provide short-range communication functions such as WiFi and Bluetooth or wireless communication functions of 4G or higher for wireless transmission of data.

도 3은 도 1에 있는 대상체 3차원 계측 장치의 기능적 구성을 설명하는 블록도이다.FIG. 3 is a block diagram illustrating the functional configuration of the 3D object measurement device shown in FIG. 1.

도 3을 참조하면, 대상체 3차원 계측 장치(130)는 2차원 영상 생성부(310), 영상 세그멘테이션부(330), 깊이 위치 결정부(350), 3차원 계측부(370) 및 제어부(390)를 포함할 수 있다.Referring to FIG. 3, the three-dimensional object measurement device 130 includes a two-dimensional image generator 310, an image segmentation unit 330, a depth position determination unit 350, a three-dimensional measurement unit 370, and a control unit 390. may include.

2차원 영상 생성부(310)는 적어도 하나의 촬영 대상체에 관한 홀로그램을 2차원 영상으로 생성할 수 있다. 여기에서, 촬영 대상체는 3차원 계측의 대상이 되는 물체에 해당할 수 있다. 2차원 영상 생성부(310)는 홀로그램 카메라(110)와 연동하여 대물판 위에 존재하는 촬영 대상체의 홀로그램을 촬영할 수 있다. 즉, 2차원 영상 생성부(310)는 홀로그램 카메라(110)에 의해 촬영된 홀로그램을 수신하여 데이터베이스(150)에 저장할 수 있으며, 데이터베이스(150)에 저장된 홀로그램을 독출하여 이를 기반으로 2차원 영상을 생성할 수 있다. 한편, 2차원 영상 생성부(310)는 홀로그램 카메라(110)와 연동하여 동작하는 독립된 모듈을 포함하여 구현될 수 있으며, 해당 모듈은 홀로그램 카메라(110)를 통해 대물판 상의 촬영 대상에의 홀로그램을 수집할 수 있다. 이하, 해당 모듈은 홀로그램 촬영모듈이라 하고, 구체적인 동작에 관하여 설명한다.The 2D image generator 310 may generate a hologram of at least one object to be captured as a 2D image. Here, the photographing object may correspond to an object that is the target of 3D measurement. The two-dimensional image generator 310 can capture a hologram of the object to be photographed on the objective plate in conjunction with the hologram camera 110. That is, the two-dimensional image generator 310 can receive a hologram captured by the hologram camera 110 and store it in the database 150, and read the hologram stored in the database 150 to create a two-dimensional image based on it. can be created. Meanwhile, the two-dimensional image generator 310 may be implemented by including an independent module that operates in conjunction with the hologram camera 110, and the module generates a hologram of the object to be photographed on the objective plate through the hologram camera 110. It can be collected. Hereinafter, the module will be referred to as a hologram imaging module, and specific operations will be described.

보다 구체적으로, 홀로그램 촬영모듈은 광 스캐닝 기반의 홀로그램 촬영 방법을 이용하여 촬영 대상체의 홀로그램을 촬영할 수 있다. 일 실시예에서, 홀로그램 촬영모듈은 촬영 대상체에 대한 촬영의 결과로서 복소수 홀로그램을 생성할 수 있다.More specifically, the hologram photographing module can photograph a hologram of an object to be photographed using a hologram photographing method based on optical scanning. In one embodiment, the hologram photographing module may generate a complex hologram as a result of photographing a photographing object.

또한, 홀로그램 촬영모듈은 도 5의 구성으로 홀로그램 카메라(510)를 이용하여 촬영 대상체(550)의 홀로그램을 촬영할 수 있다. 이때, 홀로그램 카메라(510)는 광 스캐닝 기반의 홀로그램 촬영이 가능하도록 구현될 수 있다. 한편, 도 5에서 홀로그램 카메라(510)는 촬영 대상체(550)로부터 반사 또는 형광되는 빔을 검출하는 것으로 도시하였으나 광 검출기를 대물면(530)의 하단에 위치시키는 방법으로 촬영 대상체(550)로부터 투과된 빔을 검출하도록 구현될 수 있음은 물론이다. 이 경우, 대물면(530)은 투명한 유리 또는 촬영 대상체(550)의 바디(body) 부분은 뚫려 있는 것이 바람직하다.Additionally, the hologram photographing module can photograph a hologram of the photographing object 550 using the hologram camera 510 in the configuration shown in FIG. 5 . At this time, the hologram camera 510 may be implemented to enable hologram photography based on optical scanning. Meanwhile, in FIG. 5, the holographic camera 510 is shown as detecting a beam reflected or fluorescent from the object 550, but the light transmits from the object 550 by placing the photo detector at the bottom of the objective surface 530. Of course, it can be implemented to detect the beam. In this case, it is preferable that the objective surface 530 is made of transparent glass or that the body of the photographing object 550 is open.

홀로그램 촬영모듈은 홀로그램 카메라(510)를 통해 촬영한 홀로그램을 다음의 수학식 1 내지 5와 같이 표현할 수 있다.The hologram imaging module can express the hologram captured through the hologram camera 510 as shown in the following equations 1 to 5.

[수학식 1][Equation 1]

여기에서, O(x0,y0;z)는 대상체의 반사율(reflectance)의 3차원 분포로서 대상체의 3차원 영상이고, 는 콘볼루션(convolution) 연산이다. 그리고, (x,y)는 스캔수단에 의해 지정되는 스캔빔의 스캔 위치이고, z는 대상체의 깊이 위치로서 구면파의 초점에서부터 대상체까지의 거리에 해당된다.Here, O(x 0 ,y 0 ;z) is the 3-dimensional distribution of the reflectance of the object and is the 3-dimensional image of the object, is a convolution operation. And, (x,y) is the scan position of the scan beam designated by the scanning means, and z is the depth position of the object and corresponds to the distance from the focus of the spherical wave to the object.

[수학식 2][Equation 2]

여기에서, d는 제1 구면파의 초점과 제2 구면파의 초점 사이의 거리이다. 홀로그램은 d를 조정하여 축소 및 확대에 따른 왜곡을 보정할 수 있다. D를 조정하는 방법으로는 렌즈의 이미징 법칙에 따라 렌즈의 위치와 초점거리를 변경하여 조정할 수 있다.Here, d is the distance between the focus of the first spherical wave and the focus of the second spherical wave. Holograms can correct distortion due to reduction and enlargement by adjusting d. D can be adjusted by changing the position and focal length of the lens according to the imaging law of the lens.

[수학식 3][Equation 3]

[수학식 4][Equation 4]

[수학식 5][Equation 5]

여기에서, Mimg는 편광 감응형 렌즈(기하 위상 렌즈) 면의 패턴을 대상체 영역의 면으로 이미징 시 제1 렌즈에 의한 상의 축소 또는 확대 비율, zimg는 제2 구면파의 초점위치로부터 대상물까지의 거리, 2M2 imgfgp는 조정된 제1 및 제2 구면파의 각 초점 간의 거리이다.Here, M img is the reduction or enlargement ratio of the image by the first lens when imaging the pattern of the surface of the polarization-sensitive lens (geometric phase lens) as the surface of the object area, and z img is the distance from the focus position of the second spherical wave to the object. The distance, 2M 2 img f gp , is the distance between each focus of the first and second adjusted spherical waves.

일 실시예에서, 2차원 영상 생성부(310)는 다음의 수학식 6을 통해 홀로그램을 2차원 영상으로 복원할 수 있다. 즉, 홀로그램 카메라(110)에 의해 촬영된 홀로그램은 복원 과정을 거쳐 2차원 영상으로 복원될 수 있다.In one embodiment, the 2D image generator 310 may restore the hologram into a 2D image using Equation 6 below. That is, the hologram captured by the hologram camera 110 can be restored into a two-dimensional image through a restoration process.

[수학식 6][Equation 6]

여기에서, iR은 복원된 홀로그램 2차원 영상이고, 은 상기 수학식 1 내지 5와 같이 표현되는 홀로그램을 나타내며, zr은 복원 거리를 나타낸다. 일 실시예에서, 2차원 영상 생성부(310)는 상기 수학식 6의 zr을 조절하여 특정 높이에 해당하는 2차원 복원 영상을 획득할 수 있다. 또한, 2차원 영상 생성부(310)는 zr = -z 로 설정하여 초점 맺은 2차원 영상을 획득할 수 있다. 홀로그램 카메라(110)를 통해 촬영된 홀로그램은 소정의 과정을 통해 세분화(segmentation)될 수 있고, 해당 영역의 깊이 정보를 추출하거나 3차원 계측을 위해 사용될 수 있다. 한편, 2차원 영상 생성부(310)에 의해 생성되는 초점을 맺을 2차원 복원 영상을 기초로도 세분화(segmentation) 동작이 수행될 수 있다.Here, i R is the restored hologram 2D image, represents a hologram expressed as shown in Equations 1 to 5 above, and z r represents the restoration distance. In one embodiment, the 2D image generator 310 may obtain a 2D reconstructed image corresponding to a specific height by adjusting z r in Equation 6 above. Additionally, the 2D image generator 310 may obtain a focused 2D image by setting z r = -z. The hologram captured through the hologram camera 110 may be segmented through a predetermined process and used to extract depth information of the corresponding area or for 3D measurement. Meanwhile, a segmentation operation may be performed based on the 2D reconstructed image to be in focus generated by the 2D image generator 310.

영상 세그멘테이션부(330)는 홀로그램의 2차원 영상에서 적어도 하나의 촬영 대상체 중 관심 대상체를 세그멘테이션(segmentation) 하여 관심 대상체에 관한 2차원 복원 영상을 추출할 수 있다. 2차원 영상 속에는 촬영 대상체가 포함될 수 있으며, 촬영 대상체의 개수는 경우에 따라 1개이거나 또는 복수개일 수 있다. 2차원 영상에 대한 세그멘테이션 동작은 촬영 대상체 별로 독립된 2차원 복원 영상을 생성하는 동작에 해당할 수 있으며, 촬영 대상체마다 독립된 2차원 복원 영상이 생성될 수 있다.The image segmentation unit 330 may extract a 2D restored image of the object of interest by segmenting the object of interest among at least one photographed object in the 2D image of the hologram. A two-dimensional image may include an object to be photographed, and the number of objects to be photographed may be one or multiple objects depending on the case. The segmentation operation for a 2D image may correspond to an operation of generating an independent 2D restored image for each object, and an independent 2D restored image may be generated for each object.

즉, 영상 세그멘테이션부(330)는 복수의 촬영 대상체들을 포함하는 홀로그램의 2차원 영상을 세그멘테이션 하여 촬영 대상체 별로 독립된 2차원 복원 영상을 생성하고, 복수의 촬영 대상체들 중에서 관심 대상체를 선별하여 결정할 수 있다. 한편, 하나의 관심 대상체에 대해 하나의 2차원 복원 영상이 생성될 수 있으나, 반드시 이에 한정되지 않으며, 하나의 관심 대상에 대해 복수의 2차원 복원 영상들이 생성될 수 있음은 물론이다.That is, the image segmentation unit 330 can segment a two-dimensional image of a hologram containing a plurality of objects to be captured, generate an independent two-dimensional reconstructed image for each object, and select and determine an object of interest from among the plurality of objects. . Meanwhile, one 2D restored image may be generated for one object of interest, but the present invention is not necessarily limited thereto, and of course, a plurality of 2D restored images may be generated for one object of interest.

일 실시예에서, 영상 세그멘테이션부(330)는 2차원 복원 영상의 영상 용량을 검출하고, 영상 용량이 특정 기준 이상인 경우에는 2차원 복원 영상에 관한 다운 샘플링(down sampling)을 수행하여 2차원 복원 영상을 리사이즈(resize)할 수 있다. 즉, 영상 세그멘테이션부(330)는 2차원 복원 영상의 영상 용량이 너무 큰 경우 소정의 전처리(pre-processing) 동작을 수행하여 영상 용량을 줄일 수 있다. 영상 세그멘테이션부(330)는 전처리 동작을 위해 영상 용량에 관한 기준값(threshold)을 사전에 설정할 수 있다.In one embodiment, the image segmentation unit 330 detects the image capacity of the 2D reconstructed image, and when the image capacity is greater than a certain standard, performs down sampling on the 2D reconstructed image to obtain a 2D reconstructed image. You can resize. That is, if the image capacity of the 2D reconstructed image is too large, the image segmentation unit 330 may perform a pre-processing operation to reduce the image capacity. The image segmentation unit 330 may set a threshold for image capacity in advance for a preprocessing operation.

또한, 영상 세그멘테이션부(330)는 영상 용량을 줄이기 위한 전처리 동작으로서 다운 샘플링 또는 회선 처리 기법을 사용할 수 있다. 먼저, 다운 샘플링의 경우 최대값 풀링을 통해 영상 용량을 줄일 수 있다. 예를 들어, 입력 영상이 4×4인 경우, 영상 세그멘테이션부(330)는 입력 영상을 2×2 크기 갖는 영역들로 분할할 수 있고, 각 영역에 대해 가장 큰 값을 선택하여 2×2 크기를 갖는 출력 영상을 생성할 수 있다.Additionally, the image segmentation unit 330 may use down sampling or convolution processing techniques as a preprocessing operation to reduce image capacity. First, in the case of downsampling, image capacity can be reduced through maximum value pooling. For example, if the input image is 4×4, the image segmentation unit 330 may divide the input image into regions having a size of 2×2, and select the largest value for each region to create a 2×2 size. An output image having can be generated.

또한, 회선 처리의 경우 평균값 필터(average filter)를 통해 영상 용량을 줄일 수 있다. 즉, 영상 세그멘테이션부(330)는 입력 영상 내에서 필터를 이동시켜 가면서 필터와 중첩되는 영역을 대상으로 평균 값을 산출하는 방식으로 출력 영상을 생성할 수 있다. 예를 들어, 3×3 크기를 갖는 필터의 경우, 해당 필터와 중첩되는 영역의 값들의 총 합이 27인 경우, 해당 필터의 위치에 대응되는 출력 값은 27/9 = 3으로 결정될 수 있다.Additionally, in the case of convolution processing, image capacity can be reduced through an average filter. That is, the image segmentation unit 330 can generate an output image by moving the filter within the input image and calculating an average value for the area overlapping with the filter. For example, in the case of a filter with a size of 3×3, if the total sum of values in the area overlapping with the filter is 27, the output value corresponding to the position of the filter may be determined as 27/9 = 3.

일 실시예에서, 영상 세그멘테이션부(330)는 2차원 복원 영상 또는 리사이즈된 2차원 복원 영상에 관한 가우시안 필터(Gaussian Filer) 기반의 블러링(blurring)을 통한 잡음제거, 원본영상 및 잡음제거영상 간의 차이에 관한 언샤프 마스크 필터링(unsharp mask filtering)을 통해 에지 보존을 순차적으로 수행하여 2차원 복원 영상 또는 리사이즈된 2차원 복원 영상의 선명성을 각각 증가시킬 수 있다.In one embodiment, the image segmentation unit 330 removes noise through blurring based on a Gaussian filter on a 2D reconstructed image or a resized 2D reconstructed image, and performs noise removal between the original image and the noise-removed image. Edge preservation can be sequentially performed through unsharp mask filtering on differences to increase the sharpness of the 2D restored image or the resized 2D restored image, respectively.

보다 구체적으로, 영상 세그멘테이션부(330)는 2차원 복원 영상 또는 리사이즈된 2차원 복원 영상에 관한 가우시안 필터(Gaussian Filer) 기반의 블러링(blurring)을 통한 잡음제거(noise filtering)를 수행할 수 있다. 여기에서, 블러링(blurring)은 저역 통과 필터링을 통해 영상의 윤곽선 부분의 고주파 성분을 제거하는 동작에 해당할 수 있다. 영상 내에서 고주파 성분은 화소값의 변화율이 상대적으로 큰 영상 성분에 해당할 수 있으며, 영상 세그멘테이션부(330)는 블러링을 위해 가우시안 필터를 사용할 수 있다. 가우시안 필터는 수학적으로 정의된 가우시안 함수(Gaussian function)를 기초로 생성될 수 있으며, 가우시안 함수의 σ을 통해 잡음제거에 따른 고주파량과 저주파량을 조절할 수 있다. 즉, σ값이 작을수록 적은 저주파 성분만 통과시킬 수 있으며, σ값이 클수록 많은 저주파 성분을 통과시킬 수 있다. 일 실시예에서, 영상 세그멘테이션부(330)는 잡음의 정도가 심한 경우, 블러링을 수행하기 전 단계에서 미디언 필터를 미리 적용하여 블러링의 효과를 극대화할 수 있다.More specifically, the image segmentation unit 330 can perform noise filtering through Gaussian filter-based blurring on a 2-dimensional reconstructed image or a resized 2-dimensional reconstructed image. . Here, blurring may correspond to an operation of removing high-frequency components of the outline portion of the image through low-pass filtering. The high-frequency component within the image may correspond to an image component with a relatively large change rate of pixel value, and the image segmentation unit 330 may use a Gaussian filter for blurring. A Gaussian filter can be created based on a mathematically defined Gaussian function, and the amount of high and low frequencies according to noise removal can be adjusted through σ of the Gaussian function. In other words, the smaller the σ value, the less low-frequency components can be passed, and the larger the σ value, the more low-frequency components can be passed. In one embodiment, when the level of noise is severe, the image segmentation unit 330 may maximize the effect of blurring by applying a median filter in advance at a stage before performing blurring.

또한, 영상 세그멘테이션부(330)는 원본영상 및 잡음제거영상 간의 차이를 통한 언샤프 마스크 필터링(unsharp mask filtering)을 통한 에지 보존을 수행할 수 있다. 여기에서, 에지 보존은 샤프닝(sharpening)을 통해 영상의 윤곽선 부분을 선명하게 하는 영상 강화 동작에 해당할 수 있다. 이때, 샤프닝은 블러링과 반대로 영상의 고주파에 해당하는 성분을 더 강조하여 대비 효과를 증가시킬 수 있으며, 흐린 영상을 개선하여 선명한 영상을 생성할 수 있다.Additionally, the image segmentation unit 330 may perform edge preservation through unsharp mask filtering using the difference between the original image and the noise-removed image. Here, edge preservation may correspond to an image enhancement operation that sharpens the outline portion of the image through sharpening. At this time, sharpening, as opposed to blurring, can increase the contrast effect by emphasizing components corresponding to the high frequencies of the image, and can improve a blurry image to create a clear image.

결과적으로, 영상 세그멘테이션부(330)는 원본영상을 기초로 블러링(blurring)을 통해 잡음제거영상을 획득할 수 있고, 원본영상과 잡음제거영상의 차이에 관한 함수를 획득할 수 있다. 영상 세그멘테이션부(330)는 원본영상에 해당 함수를 더한 결과로서 최종적으로 선명성이 증가한 영상을 획득할 수 있다. 한편, 영상 세그멘테이션부(330)는 필요에 따라 양방향 필터(Bilateral filter)를 통해 잡음 제거와 에지 보존을 병행적으로 수행할 수도 있다.As a result, the image segmentation unit 330 can obtain a noise-removed image through blurring based on the original image and obtain a function regarding the difference between the original image and the noise-removed image. The image segmentation unit 330 can ultimately obtain an image with increased clarity as a result of adding the corresponding function to the original image. Meanwhile, the image segmentation unit 330 may simultaneously perform noise removal and edge preservation through a bilateral filter, if necessary.

일 실시예에서, 영상 세그멘테이션부(330)는 선명성이 증가된 2차원 복원 영상에 관해 영상 이진화를 수행하여 관심 대상체의 영역을 특정하고, 특정된 관심 대상체에 대한 형태학 처리를 수행하여 관심 대상체를 구별할 수 있다.In one embodiment, the image segmentation unit 330 performs image binarization on a two-dimensional reconstructed image with increased clarity to specify the area of the object of interest, and performs morphological processing on the specified object of interest to distinguish the object of interest. can do.

보다 구체적으로, 영상 세그멘테이션부(330)는 특정 임계값을 설정하고 임계값을 기준으로 영상 내 각 픽셀을 흑과 백으로 이진화하는 영상 이진화(Binarization)를 통해 영상 내에서 배경과 목표 객체를 분류할 수 있다. 또한, 영상 세그멘테이션부(330)는 촬영 환경에 견고한 적응형 이진화(Adaptive Binarization) 기법을 사용하여 주변 값들과 비교 후 픽셀 별로 최적의 임계값을 적용하여 관심 대상체의 영역을 특정할 수 있다.More specifically, the image segmentation unit 330 sets a specific threshold and classifies the background and target object in the image through image binarization, which binarizes each pixel in the image into black and white based on the threshold. You can. In addition, the image segmentation unit 330 can specify the area of the object of interest by applying an optimal threshold value to each pixel after comparing it with surrounding values using an adaptive binarization technique that is robust to the shooting environment.

이후, 영상 세그멘테이션부(330)는 이진화되어 특정된 관심 대상체의 영역에 대해 형태학(morphology) 기반의 침식(erosion)과 팽창(dilation) 연산을 수행하여 남은 잡음(noise)을 제거하고 객체의 영역을 확고히 할 수 있다(도 6 참조).Afterwards, the image segmentation unit 330 performs morphology-based erosion and dilation operations on the binarized and specified area of the object of interest to remove remaining noise and define the area of the object. It can be firmed (see Figure 6).

예를 들어, 도 6의 그림 (a)에서, 침식(erosion) 연산은 이미지(즉, 영상)을 깎아 내는 연산에 해당할 수 있으며, 0과 1로 구성된 구조화 요소 커널(structuring element kernel)(610)이 적용될 수 있다. 또한, 구조화 요소 커널(610)은 1이 채워진 모양에 따라 사각형, 타원형, 십자형 등으로 분류될 수 있다. 영상 세그멘테이션부(330)는 구조화 요소 커널(610)을 영상 위에 적용하여 각 픽셀 위치에서 구조화 요소 커널(610)의 1로 채워진 영역이 온전히 포함되지 않는 경우 해당 픽셀의 값을 0으로 변경하는 방식으로 침식 연산을 수행할 수 있다.For example, in figure (a) of FIG. 6, the erosion operation may correspond to an operation that cuts off the image (i.e., video), and a structuring element kernel consisting of 0 and 1 (610) ) can be applied. Additionally, the structuring element kernel 610 may be classified into a square, oval, cross, etc. depending on the shape filled with 1s. The image segmentation unit 330 applies the structuring element kernel 610 to the image and changes the value of the pixel to 0 if the area filled with 1 of the structuring element kernel 610 is not completely included at each pixel location. Erosion operations can be performed.

또한, 도 6의 그림 (b)에서, 팽창(dilation) 연산은 이미지를 확장하는 연산에 해당할 수 있으며, 구조화 요소 커널(610)을 이용하여 침식 연산과 반대되는 방식으로 동작할 수 있다. 즉, 영상 세그멘테이션부(330)는 구조화 요소 커널(610)을 영상 위에 적용하여 각 픽셀 위치에서 구조화 요소 커널(610)의 1로 채워진 영역이 온전히 포함되지 않는 경우 해당 픽셀의 값을 1로 변경하는 방식으로 팽창 연산을 수행할 수 있다.Additionally, in figure (b) of FIG. 6, the dilation operation may correspond to an operation that expands the image and may operate in a manner opposite to the erosion operation using the structuring element kernel 610. That is, the image segmentation unit 330 applies the structuring element kernel 610 to the image and changes the value of the pixel to 1 if the area filled with 1 of the structuring element kernel 610 is not completely included at each pixel location. The expansion operation can be performed using this method.

깊이 위치 결정부(350)는 관심 대상체에 관한 2차원 복원 영상의 깊이 위치를 결정할 수 있다. 깊이 위치 결정부(350)는 세분화(segmented)된 영역으로부터 깊이 위치를 추출하기 위하여 소정의 기준에 따라 해당 영역의 2차원 복원 영상이 초점 영상인지 아닌지를 판별할 수 있다.The depth position determination unit 350 may determine the depth position of the 2D reconstructed image of the object of interest. In order to extract the depth position from the segmented area, the depth position determination unit 350 may determine whether the 2D reconstructed image of the corresponding area is a focus image or not according to a predetermined standard.

일 실시예에서, 깊이 위치 결정부(350)는 2차원 복원 영상의 타무라 계수(Tamura coefficient)를 획득하고 타무라 계수가 최대인 깊이의 2차원 복원 영상을 결정하여 깊이 위치를 결정할 수 있다. 즉, 깊이 위치 결정부(350)는 타무라 계수를 기준으로 2차원 복원 영상을 결정할 수 있다. 이때, 타무라 계수는 자동 초점 알고리즘에 사용되는 선명도 함수(Sharpness function) 중 하나에 해당할 수 있으며, 다음의 수학식 7과 같이 표현될 수 있다.In one embodiment, the depth position determination unit 350 may determine the depth position by obtaining the Tamura coefficient of the 2D reconstructed image and determining the 2D reconstructed image at the depth with the maximum Tamura coefficient. That is, the depth position determination unit 350 may determine the 2D reconstructed image based on the Tamura coefficient. At this time, the Tamura coefficient may correspond to one of the sharpness functions used in the autofocus algorithm and can be expressed as Equation 7 below.

[수학식 7][Equation 7]

여기에서, C는 타무라 계수이고, 은 2차원 복원 영상의 평균 값(mean)이며, 은 표준편차(Standard deviation)이다.Here, C is the Tamura coefficient, is the average value (mean) of the 2D reconstructed image, is the standard deviation.

3차원 계측부(370)는 2차원 복원 영상 및 깊이 위치를 기초로 관심 대상체에 관하여 3차원 계측을 수행할 수 있다. 3차원 계측 동작은 홀로그램을 세그멘테이션하고, 세분화된 홀로그램들의 깊이 정보를 수집한 다음, 깊이 정보와 세분화된 홀로그램의 영역을 매칭시키는 과정을 통해 수행될 수 있다. 즉, 3차원 계측부(370)는 세분화된 홀로그램들의 2차원 복원 영상을 해당 깊이에 배치한 다음 이를 통합하여 전체적인 3차원 정보를 도출할 수 있다. The 3D measurement unit 370 may perform 3D measurement on the object of interest based on the 2D reconstructed image and depth position. The 3D measurement operation can be performed through the process of segmenting the hologram, collecting depth information of the segmented holograms, and then matching the depth information with the area of the segmented hologram. That is, the 3D measurement unit 370 can place the 2D restored images of segmented holograms at the corresponding depth and then integrate them to derive overall 3D information.

일 실시예에서, 3차원 계측부(370)는 2차원 복원 영상들을 해당 깊이 위치에 배치하여 3차원 깊이 매트릭스를 생성하고 3차원 깊이 매트릭스를 기초로 관심 대상체를 계측할 수 있다. 3차원 깊이 매트릭스는 깊이 위치와 홀로그램의 2차원 복원 영상 간의 매칭 관계를 포함할 수 있다. 3차원 계측 방법에 대해서는 도 8에서 보다 자세히 설명한다.In one embodiment, the 3D measurement unit 370 may generate a 3D depth matrix by placing 2D reconstructed images at corresponding depth positions and measure the object of interest based on the 3D depth matrix. The 3D depth matrix may include a matching relationship between the depth position and the 2D reconstructed image of the hologram. The 3D measurement method is explained in more detail in FIG. 8.

제어부(390)는 대상체 3차원 계측 장치(130)의 전체적인 동작을 제어하고, 2차원 영상 생성부(310), 영상 세그멘테이션부(330), 깊이 위치 결정부(350) 및 3차원 계측부(370) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.The control unit 390 controls the overall operation of the object 3D measurement device 130 and includes a 2D image generator 310, an image segmentation unit 330, a depth position determination unit 350, and a 3D measurement unit 370. You can manage control flow or data flow between

도 4는 본 발명에 따른 홀로그램 기반 대상체 3차원 계측 과정을 설명하는 순서도이다.Figure 4 is a flowchart explaining the hologram-based 3D measurement process of an object according to the present invention.

도 4를 참조하면, 대상체 3차원 계측 장치(130)는 본 발명에 따른 홀로그램 기반 대상체 3차원 계측 방법을 처리하기 위하여 복수의 단계들을 순차적으로 수행할 수 있다. 보다 구체적으로, 대상체 3차원 계측 장치(130)는 2차원 영상 생성부(310)를 통해 적어도 하나의 촬영 대상체에 관한 홀로그램을 2차원 영상으로 생성할 수 있다(단계 S410).Referring to FIG. 4 , the 3D object measurement device 130 may sequentially perform a plurality of steps to process the hologram-based 3D object measurement method according to the present invention. More specifically, the 3D object measuring device 130 may generate a hologram of at least one photographed object as a 2D image through the 2D image generator 310 (step S410).

또한, 대상체 3차원 계측 장치(130)는 영상 세그멘테이션부(330)를 통해 2차원 영상에서 적어도 하나의 촬영 대상체 중 관심 대상체를 세그멘테이션(segmentation) 하여 관심 대상체에 관한 2차원 복원 영상을 추출할 수 있다(단계 S430). 대상체 3차원 계측 장치(130)는 깊이 위치 결정부(350)를 통해 2차원 복원 영상의 깊이 위치를 결정할 수 있으며(단계 S450), 3차원 계측부(370)를 통해 2차원 복원 영상 및 깊이 위치를 기초로 관심 대상체에 관하여 3차원 계측을 수행할 수 있다(단계 S470).In addition, the 3D object measurement device 130 may segment an object of interest among at least one photographed object in a 2D image through the image segmentation unit 330 and extract a 2D restored image of the object of interest. (Step S430). The three-dimensional object measurement device 130 can determine the depth position of the two-dimensional reconstructed image through the depth position determination unit 350 (step S450), and determine the two-dimensional restored image and depth position through the three-dimensional measurement unit 370. Based on this, 3D measurement can be performed on the object of interest (step S470).

도 7은 본 발명에 따른 깊이 위치 추출 방법을 설명하는 도면이다.Figure 7 is a diagram explaining the depth position extraction method according to the present invention.

도 7을 참조하면, 대상체 3차원 계측 장치(130)는 깊이 위치 결정부(350)를 통해 2차원 복원 영상의 깊이 위치를 결정할 수 있다. 이를 위해, 대상체 3차원 계측 장치(130)는 홀로그램 카메라(110)를 통해 적어도 하나의 촬영 대상체들에 관한 홀로그램을 획득하고 홀로그램에 관한 2차원 영상을 생성할 수 있다(그림 (a) 및 (b)).Referring to FIG. 7 , the 3D object measurement device 130 may determine the depth position of the 2D reconstructed image through the depth position determination unit 350. To this end, the object 3D measurement device 130 may acquire a hologram of at least one photographed object through the hologram camera 110 and generate a two-dimensional image of the hologram (Figures (a) and (b) )).

이후, 대상체 3차원 계측 장치(130)는 홀로그램 내의 관심 대상체를 중심으로 세그멘테이션을 수행할 수 있으며, 세그멘테이션을 통해 세분화된(segmented) 홀로그램에 관한 2차원 복원 영상을 생성할 수 있다(그림 ⓒ). 마지막으로, 대상체 3차원 계측 장치(130)는 2차원 복원 영상을 기초로 타무라 계수(C)를 산출할 수 있으며, 타무라 계수가 최대값을 갖는 깊이 위치(z1)를 결정할 수 있다(그림 (d)).Afterwards, the 3D object measurement device 130 can perform segmentation centered on the object of interest in the hologram, and generate a 2D restored image of the segmented hologram through segmentation (Figure ⓒ). Finally, the object 3D measurement device 130 can calculate the Tamura coefficient (C) based on the 2D reconstructed image and determine the depth position (z 1 ) where the Tamura coefficient has the maximum value (Figure ( d)).

대상체 3차원 계측 장치(130)는 홀로그램에 관한 2차원 영상을 세그멘테이션하여 복수의 세분화된(segmented) 홀로그램들을 생성할 수 있으며, 세분화된 홀로그램들의 2차원 복원 영상들에 대한 초점 메트릭(예를 들어, 타무라 계수)을 기초로 깊이 위치를 독립적으로 결정할 수 있다.The object 3D measurement device 130 may generate a plurality of segmented holograms by segmenting a two-dimensional image of the hologram, and may use a focus metric (e.g., The depth position can be independently determined based on the Tamura coefficient).

또한, 대상체 3차원 계측 장치(130)는 2차원 복원 영상의 적어도 하나의 영역에 대한 초점 메트릭을 기초로 해당 영역에서의 깊이 위치를 각각 결정할 수 있으며, 각 영역에서의 깊이 위치를 기초로 2차원 복원 영상에 대한 깊이 위치를 결정할 수 있다.Additionally, the 3D object measurement device 130 may determine the depth position in each region based on the focus metric for at least one region of the 2D reconstructed image, and determine the depth position in each region based on the depth position in each region. The depth position for the restored image can be determined.

도 8a 및 8b는 본 발명에 따른 3차원 계측 방법을 설명하는 도면이다.8A and 8B are diagrams explaining the 3D measurement method according to the present invention.

도 8a 및 8b를 참조하면, 대상체 3차원 계측 장치(130)는 촬영 대상체에 관한 홀로그램을 생성하고 세그멘테이션을 수행할 수 있다. 이후, 대상체 3차원 계측 장치(130)는 세분화된(segmented) 홀로그램들의 깊이를 각각 타무라 계수(Tamura Coeffiecient)를 통해 추출할 수 있다. 다음으로, 대상체 3차원 계측 장치(130)는 추출된 깊이 정보와 세분화된 홀로그램의 영역을 상호 매칭시켜 해당 깊이에 해당하는 세분화된 홀로그램의 2차원 복원 영상을 획득할 수 있다. 마지막으로, 대상체 3차원 계측 장치(130)는 해당 2차원 복원 영상들을 복원 깊이와 같이 엮어 3차원 행렬(즉,3차원 깊이 매트릭스)을 생성할 수 있고, 이를 기초로 촬영 대상체들에 대한 3차원 계측을 수행할 수 있다.Referring to FIGS. 8A and 8B , the 3D object measurement device 130 may generate a hologram for a photographing object and perform segmentation. Thereafter, the object 3D measurement device 130 may extract the depth of each segmented hologram through Tamura coefficient (Tamura Coeffiecient). Next, the object 3D measurement device 130 may match the extracted depth information with the area of the segmented hologram to obtain a 2D restored image of the segmented hologram corresponding to the depth. Finally, the 3D object measurement device 130 can create a 3D matrix (i.e., 3D depth matrix) by combining the 2D restored images with the restored depth, and based on this, create a 3D matrix for the photographed objects. Measurements can be performed.

또한, 대상체 3차원 계측 장치(130)는 추출된 깊이정보를 잘 알려진 계측기를 기준으로 보정(Calibration)하여 상대적인 깊이를 실제 물리적 깊이 정보로 변환할 수 있으며, 이를 통해 대상체의 3차원 정보를 모두 획득함으로써 대상체에 관한 3차원 분석을 수행할 수 있다.In addition, the object 3D measurement device 130 is capable of converting the relative depth into actual physical depth information by calibrating the extracted depth information based on a well-known measuring instrument, through which all 3D information of the object can be obtained. By doing so, three-dimensional analysis of the object can be performed.

도 8a에서, 대상체 3차원 계측 장치(130)는 대상체 1 및 2에 대한 세분화된 홀로그램을 각각 생성할 수 있고, 각 세분화된 홀로그램의 타무라 계수가 최대가 되는 Z1 및 Z2를 각각 깊이 위치로서 산출할 수 있다.In FIG. 8A, the object 3D measurement device 130 can generate segmented holograms for objects 1 and 2, respectively, and Z 1 and Z 2 , where the Tamura coefficients of each segmented hologram are maximized, are used as depth positions, respectively. It can be calculated.

도 8b에서, 대상체 3차원 계측 장치(130)는 깊이 위치에 따라 해당 세분화된 홀로그램의 2차원 복원 영상을 배치하여 대상체에 관한 3차원 행렬을 구축할 수 있다. 이때, 깊이 위치는 xy 평면에 수직한 방향, 즉 Zr 방향으로 기준으로 정의될 수 있으며, 대상체 3차원 계측 장치(130)는 Zr 축 상에서 Z1 및 Z2 위치에 해당 2차원 복원 영상을 배치할 수 있다.In FIG. 8B, the object 3D measurement device 130 may construct a 3D matrix regarding the object by arranging the 2D restored image of the segmented hologram according to the depth position. At this time, the depth position may be defined based on the direction perpendicular to the xy plane, that is, the Z r direction, and the object 3D measurement device 130 generates the corresponding two-dimensional restored images at the Z 1 and Z 2 positions on the Z r axis. It can be placed.

본 발명에 따른 대상체 3차원 계측 장치(130)는 다양한 깊이 위치들에서 2차원 복원 영상을 배치하여 촬영 대상체들에 관한 3차원 계측을 수행할 수 있다. 또한, 대상체 3차원 계측 장치(130)는 촬영 대상체들 중에서 관심 대상체를 선택할 수 있으며, 관심 대상체에 대해 복수의 2차원 복원 영상들을 세그멘테이션하고, 세분화된 2차원 복원 영상들을 이용하여 해당 관심 대상체에 관한 3차원 계측을 선택적으로 수행할 수 있다.The 3D object measuring device 130 according to the present invention can perform 3D measurement of photographed objects by arranging 2D reconstructed images at various depth positions. In addition, the 3D object measuring device 130 can select an object of interest from among photographed objects, segment a plurality of 2D restored images for the object of interest, and use the segmented 2D restored images to determine the object of interest. 3D measurement can be optionally performed.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to preferred embodiments, those skilled in the art may make various modifications and changes to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can do it.

100: 홀로그램 기반 대상체 3차원 계측 시스템
110: 홀로그램 카메라 130: 대상체 3차원 계측 장치
150: 데이터베이스
510: 홀로그램 카메라 530: 대물면
550: 촬영 대상체
610: 구조화 요소 커널
100: Hologram-based object 3D measurement system
110: Hologram camera 130: 3D measurement device for object
150: database
510: Hologram camera 530: Objective surface
550: Shooting object
610: Structured element kernel

Claims (8)

적어도 하나의 촬영 대상체에 관한 홀로그램을 생성하고 상기 홀로그램을 2차원 영상으로 생성하는 2차원 영상 생성부;
상기 2차원 영상에서 상기 적어도 하나의 촬영 대상체 중 관심 대상체를 세그멘테이션(segmentation) 하여 상기 관심 대상체 별로 독립된 2차원 복원 영상을 추출하는 과정에서, 상기 2차원 복원 영상의 영상 용량을 검출한 결과 상기 영상 용량이 특정 기준 이상인 경우에는 상기 2차원 복원 영상에 관한 다운 샘플링(down sampling)을 수행하여 상기 2차원 복원 영상을 리사이즈(resize)하며, 상기 리사이즈된 2차원 복원 영상에 관한 가우시안 필터(Gaussian Filer) 기반의 블러링(blurring)을 통한 잡음제거, 원본영상 및 잡음제거영상 간의 차이에 관한 언샤프 마스크 필터링(unsharp mask filtering)을 통해 에지 보존을 순차적으로 수행하여 상기 리사이즈된 2차원 복원 영상의 선명성을 증가시키고, 상기 선명성이 증가된 리사이즈된 2차원 복원 영상에 관해 영상 이진화를 수행하여 상기 관심 대상체의 영역을 특정한 다음 상기 특정된 관심 대상체에 대한 형태학 기반의 침식(erosion)과 팽창(dilation) 연산을 수행하여 상기 관심 대상체를 구별하는 영상 세그멘테이션부;
상기 2차원 복원 영상의 타무라 계수(Tamura coefficient)를 획득하고 상기 관심 대상체 별로 상기 타무라 계수가 최대인 깊이를 깊이 위치로서 결정하는 깊이 위치 결정부; 및
상기 관심 대상체 별로 상기 깊이 위치에 따라 해당 2차원 복원 영상을 배치하여 상기 깊이 위치와 상기 홀로그램의 2차원 복원 영상 간의 매칭 관계에 관한3차원 깊이 매트릭스를 생성하고 상기 3차원 깊이 매트릭스를 기초로 상기 관심 대상체에 관하여 3차원 계측을 수행하는 3차원 계측부;를 포함하되,
상기 2차원 영상 생성부는 아래의 수학식을 통해 상기 홀로그램을 상기 2차원 영상으로 복원하는 과정에서 zr을 조절해 특정 높이에 해당하는 2차원 복원 영상을 획득하고 상기 zr = -z 로 설정하여 초점 맺은 2차원 영상을 획득하는 것을 특징으로 하는 홀로그램 기반 대상체 3차원 계측 장치.
[수학식]


(여기에서, iR은 복원된 홀로그램 2차원 영상이며, 은 홀로그램을 나타내며, zr은 복원 거리를 나타냄)
a two-dimensional image generator that generates a hologram of at least one object to be photographed and generates the hologram as a two-dimensional image;
In the process of extracting an independent 2D reconstructed image for each object of interest by segmenting an object of interest among the at least one photographed object in the 2D image, the image capacity of the 2D restored image is detected and the image capacity is obtained. If it exceeds this specific standard, down sampling is performed on the 2D reconstructed image to resize the 2D reconstructed image, and a Gaussian filter based on the resized 2D reconstructed image is used. Increases the clarity of the resized 2D restored image by sequentially performing edge preservation through noise removal through blurring and unsharp mask filtering on the difference between the original image and the noise-removed image. perform image binarization on the resized two-dimensional reconstructed image with increased clarity to specify the area of the object of interest, and then perform morphology-based erosion and dilation operations on the specified object of interest. an image segmentation unit that distinguishes the object of interest;
a depth position determination unit that obtains a Tamura coefficient of the two-dimensional reconstructed image and determines a depth at which the Tamura coefficient is maximum for each object of interest as a depth position; and
For each object of interest, the corresponding 2-dimensional reconstructed image is arranged according to the depth position to generate a 3-dimensional depth matrix regarding the matching relationship between the depth position and the 2-dimensional restored image of the hologram, and the interest is based on the 3-dimensional depth matrix. Includes a 3D measurement unit that performs 3D measurement on the object,
In the process of restoring the hologram to the two-dimensional image through the equation below, the two-dimensional image generator adjusts z r to obtain a two-dimensional restored image corresponding to a specific height and sets z r = -z. A hologram-based three-dimensional object measurement device characterized by acquiring a focused two-dimensional image.
[Equation]


(Here, i R is the restored holographic two-dimensional image, represents the hologram, z r represents the reconstruction distance)
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020210144499A 2021-10-27 2021-10-27 Hologram-based object three-dimensional mesurement device and method KR102578312B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210144499A KR102578312B1 (en) 2021-10-27 2021-10-27 Hologram-based object three-dimensional mesurement device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210144499A KR102578312B1 (en) 2021-10-27 2021-10-27 Hologram-based object three-dimensional mesurement device and method

Publications (2)

Publication Number Publication Date
KR20230060149A KR20230060149A (en) 2023-05-04
KR102578312B1 true KR102578312B1 (en) 2023-09-15

Family

ID=86379618

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210144499A KR102578312B1 (en) 2021-10-27 2021-10-27 Hologram-based object three-dimensional mesurement device and method

Country Status (1)

Country Link
KR (1) KR102578312B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120007946A1 (en) 2010-06-30 2012-01-12 Sony Dadc Corporation Hologram reproduction image processing apparatus and processing method
JP2013004147A (en) 2011-06-17 2013-01-07 Hitachi Consumer Electronics Co Ltd Optical information playback device and optical information playback method
KR101706934B1 (en) * 2015-04-15 2017-02-15 연세대학교 산학협력단 3D Measurement Method for Micro-optical Structure Using Digital Holography Data, and Inspection Machine Operated Thereby
KR102129071B1 (en) * 2019-06-05 2020-07-01 세종대학교산학협력단 Method and apparatus of automatic optical inspection using scanning holography
KR102267509B1 (en) 2018-08-29 2021-06-21 연세대학교 원주산학협력단 The method for measuring microcirculation in cochlea and the apparatus thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101304695B1 (en) 2012-01-06 2013-09-06 세종대학교산학협력단 Hologram recording apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120007946A1 (en) 2010-06-30 2012-01-12 Sony Dadc Corporation Hologram reproduction image processing apparatus and processing method
JP2013004147A (en) 2011-06-17 2013-01-07 Hitachi Consumer Electronics Co Ltd Optical information playback device and optical information playback method
KR101706934B1 (en) * 2015-04-15 2017-02-15 연세대학교 산학협력단 3D Measurement Method for Micro-optical Structure Using Digital Holography Data, and Inspection Machine Operated Thereby
KR102267509B1 (en) 2018-08-29 2021-06-21 연세대학교 원주산학협력단 The method for measuring microcirculation in cochlea and the apparatus thereof
KR102129071B1 (en) * 2019-06-05 2020-07-01 세종대학교산학협력단 Method and apparatus of automatic optical inspection using scanning holography

Also Published As

Publication number Publication date
KR20230060149A (en) 2023-05-04

Similar Documents

Publication Publication Date Title
US10608002B2 (en) Method and system for object reconstruction
US10241471B2 (en) Autofocus system and method in digital holography
JP6752212B2 (en) Image system and how to use it
US9460515B2 (en) Processing of light fields by transforming to scale and depth space
KR101928391B1 (en) Method and apparatus for data fusion of multi spectral image and radar image
US20160173849A1 (en) Processing of Light Fields by Transforming to Scale and Depth Space
JP2016505185A (en) Image processor having edge selection function
KR20190033037A (en) Method for determining a point spread function of an imaging system
CN110363734B (en) Thick sample microscopic fluorescence image reconstruction method and system
US10867374B2 (en) Auto-focusing system and method by determining contrast difference between adjacent pixels using sobel filter
JP2014132433A (en) Image creating device and image creating method
KR102578312B1 (en) Hologram-based object three-dimensional mesurement device and method
KR101829386B1 (en) Apparatus and method for detecting target
US20160162753A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN110286464B (en) Automatic focusing method based on area criterion
KR102452192B1 (en) Method for filtering image of object for identifying animal and apparatus thereof
CN117292405A (en) High-precision three-dimensional gesture recognition method and system based on single light field camera
Tiwari et al. A review on estimation of defocus blur from a single image
Muniraj et al. Space-variant defocused content removal in Photon-counted volumetric datasets
LY et al. i (75) Inventors/Applicants (/or US only): ZALEVSKY, Zeev GN, GQ, GW, ML, MR, NE, SN, TD, TGl
CN117890285A (en) Irregular particle three-dimensional measurement method based on double-angle defocusing interference image
AU2004201109A1 (en) Method and apparatus for producing a phase image of an object
CN118018862A (en) Method for reducing transmission delay based on low-light night vision product

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant