KR20210065030A - Method and apparatus for reconstructing three-dimensional image via a diffraction grating - Google Patents

Method and apparatus for reconstructing three-dimensional image via a diffraction grating Download PDF

Info

Publication number
KR20210065030A
KR20210065030A KR1020200127456A KR20200127456A KR20210065030A KR 20210065030 A KR20210065030 A KR 20210065030A KR 1020200127456 A KR1020200127456 A KR 1020200127456A KR 20200127456 A KR20200127456 A KR 20200127456A KR 20210065030 A KR20210065030 A KR 20210065030A
Authority
KR
South Korea
Prior art keywords
plane
image
virtual
parallax
diffraction grating
Prior art date
Application number
KR1020200127456A
Other languages
Korean (ko)
Other versions
KR102317836B1 (en
Inventor
유훈
장재영
Original Assignee
상명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상명대학교산학협력단 filed Critical 상명대학교산학협력단
Priority to US17/104,107 priority Critical patent/US11480917B2/en
Publication of KR20210065030A publication Critical patent/KR20210065030A/en
Application granted granted Critical
Publication of KR102317836B1 publication Critical patent/KR102317836B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/44Grating systems; Zone plate systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/416Exact reconstruction

Abstract

The present invention provides a method for reconstructing a three-dimensional image using the diffraction grating, which comprises the steps of: extracting parallax images from a raw image of an object photographed using a diffraction grating; and reconstructing a three-dimensional image from an extracted parallax image array using a virtual pinholes model.

Description

회절 격자를 이용한 3차원 이미지 재구성 방법 및 장치{METHOD AND APPARATUS FOR RECONSTRUCTING THREE-DIMENSIONAL IMAGE VIA A DIFFRACTION GRATING}Method and apparatus for reconstructing a three-dimensional image using a diffraction grating {METHOD AND APPARATUS FOR RECONSTRUCTING THREE-DIMENSIONAL IMAGE VIA A DIFFRACTION GRATING}

본 발명은 3차원 이미지 재구성 방법(또는 3차원 이미지 복원 방법)에 관한 것으로, 특히 회절 격자(diffraction grating)를 이용한 3차원 이미지 재구성 방법에 관한 것이다.The present invention relates to a three-dimensional image reconstruction method (or a three-dimensional image reconstruction method), and more particularly, to a three-dimensional image reconstruction method using a diffraction grating.

실제 3 차원 (real three-dimensional, 3-D 객체(objects)를 위한 시차 이미지 어레이(Parallax Image Array, PIA)는 3-D 객체에 대한 많은 다시점 정보(perspective information)가 포함되어 있기 때문에, 3D 이미징(3-D imaging), 처리(processing) 및 디스플레이(display)에 가장 효과적인 형태 중하나이다.Since a Parallax Image Array (PIA) for real three-dimensional (3-D objects) contains a lot of perspective information about 3-D objects, 3D It is one of the most effective forms for imaging (3-D imaging), processing (processing) and display (display).

캡처 된(captured) 시차 이미지 어레이 (PIA)는 렌즈 어레이(lens array)를 사용하여 실제 3D 공간을 표시하는 데 사용되며 재구성 프로세스(a computational reconstruction process)를 사용하여 일련의 깊이 분할 이미지(depth-sliced images)로 변환된다. 따라서, 시차 이미지 어레이(PIA)의 획득은 3-D 이미징 분야(3-D imaging of the field)의 필수 부분(an essential part)이다.A captured parallax image array (PIA) is used to display the real 3D space using a lens array and a series of depth-sliced images using a computational reconstruction process. images) are converted to Accordingly, the acquisition of a parallax image array (PIA) is an essential part of 3-D imaging of the field.

일반적으로(Usually), 카메라 어레이(camera array) 또는 렌즈 어레이(lens array)을 사용하는 것(using)은 3-D 장면(3-D scene)에 대한 PIA를 선택(pick up)하기 위한 방법 중 하나이다. In general, using a camera array or a lens array is one of the methods for picking up a PIA for a 3-D scene. one

또한, 이러한 광학적 방법을 통해(through those optical methods) 시차 이미지 어레이(Parallax Image Array, PIA)를 캡쳐(capturing)하는 것은 집적 영상(integral imaging) 및 라이트 필드 분석(light field analysis) 분야에서 활발히 논의되고 있는 주제(active topic)이다. In addition, through those optical methods, capturing a Parallax Image Array (PIA) is actively discussed in the field of integral imaging and light field analysis. It is an active topic.

카메라 어레이(camera array)를 사용하여 캡쳐한(capturing) 시차 이미지 어레이(Parallax Image Array, PIA)는, 렌즈 어레이(lens array)를 사용하여 캡쳐한 시차 이미지 어레이(Parallax Image Array, PIA)와 비교할 때, 고해상도 시차 이미지들(high-resolution parallax images)의 이점을 제공한다.Parallax Image Array (PIA) captured using a camera array compared to Parallax Image Array (PIA) captured using a lens array , which provides the advantage of high-resolution parallax images.

고해상도 이미지들(higher resolution images)은 계산적 및 광학적 재구성 방법(computational and optical reconstruction methods)으로부터 재구성된다. Higher resolution images are reconstructed from computational and optical reconstruction methods.

고해상도 시차 이미지들(high-resolution parallax images)은 높은 깊이 해상도와 같은 특정 기능에서 중요한 부분으로 역할을 한다(the high-resolution parallax images play a crucial part in a specific function such as high depth resolution.).The high-resolution parallax images play a crucial part in a specific function such as high depth resolution.

그러나(However), 카메라 어레이(camera array)는, 카메라가 장착된 렌즈 어레이(lens array with a camera) 또는 전기 기계 제어 시스템이 장착된 이동 카메라(moving camera with an electro-mechanical control system)와 같은 다른 시스템과 비교할 때, 고비용 및 복잡한 이미징 시스템(a high-cost and complicated imaging system)이다. However, the camera array may be used in other applications, such as a lens array with a camera or a moving camera with an electro-mechanical control system. Compared to the system, it is a high-cost and complicated imaging system.

또한 시차 이미지 어레이 (PIA)를 픽업하기 전후에 카메라 보정(camera calibration) 및 사후 처리(post-processing)가 필요한 경우도 있다(Also, it sometimes requires the camera calibration and post-processing before and after picking up a PIA.).Also, it sometimes requires the camera calibration and post-processing before and after picking up a PIA.).

이동 카메라(moving camera)는 카메라 어레이의 대안이 될 수 있지만 고정 3D 장면(stationary 3-D scene)에 사용하도록 제한된다.A moving camera can be an alternative to a camera array, but is limited to use in stationary 3-D scenes.

렌즈 어레이는 비교적 저렴한 광학 시스템이만, 많은 수의 단일 렌즈로 구성되어 있기 때문에 광학 수차(optical aberrations) 및 배럴 왜곡(barrel distortion)과 같은 문제가 있다. Lens arrays are relatively inexpensive optical systems, but because they consist of a large number of single lenses, they suffer from problems such as optical aberrations and barrel distortion.

따라서, 3D 이미징 산업을 위한 저비용 및 고해상도의 이점을 갖는 PIA를 픽업하는 이미징 시스템을 개발할 필요가 있다(Therefore, it deserves to develop an imaging system of picking up a PIA having advantages of low-cost and high-resolution for the 3-D imaging industry).Therefore, it deserves to develop an imaging system of picking up a PIA having advantages of low-cost and high-resolution for the 3D imaging industry. for the 3-D imaging industry).

최근에, 회절 격자(a diffraction grating)를 통한 새로운 방법이 시차 이미지 어레이(PIA)를 획득하기 위해 제안된 바 있다. 이 방법은 회절 격자 플레이트(a diffraction grating plate)와 카메라로 구성된다.Recently, a new method through a diffraction grating has been proposed to acquire a parallax image array (PIA). This method consists of a diffraction grating plate and a camera.

상기 방법에 따른 회절 격자와 카메라를 이용한 PIA-획득 시스템(PIA-acquiring system)의 구조는 카메라를 갖는 렌즈 어레이를 이용한 시스템의 구조와 유사하다(The structure of the PIA-acquiring system using a diffraction grating with a camera is similar to that of a system using a lens array with a camera.).The structure of the PIA-acquiring system using a diffraction grating and a camera according to the above method is similar to that of a system using a lens array having a camera (The structure of the PIA-acquiring system using a diffraction grating with a camera is similar to that of a system using a lens array with a camera.).

또한, 상기 회절 격자를 이용한 상기 PIA-획득 시스템의 광학 구조(optical structure)는 렌즈 어레이 기반 시스템(the lens array-based system)보다 저렴하고 덜 복잡하다.In addition, the optical structure of the PIA-acquisition system using the diffraction grating is cheaper and less complex than the lens array-based system.

무엇보다도, 얇은 회절 격자(a thin diffraction grating)는 상기 렌즈 어레이 기반 시스템에서의 문제를 야기하지 않는다(Moreover, a thin diffraction grating does not suffer from the problems in a lens array-based system.).Above all, a thin diffraction grating does not suffer from the problems in a lens array-based system.

또한, 회절 격자를 통한 시차 이미지(parallax images)는 고해상도(high-resolution)이다. 그러므로, 회절 격자 기반 이미징 시스템(a diffraction grating-based imaging system)은 3-D 이미징(3-D imaging)에서 유망한 기술 중 하나 일 수 있다. Also, the parallax images through the diffraction grating are high-resolution. Therefore, a diffraction grating-based imaging system may be one of the promising technologies in 3-D imaging.

그러나, 회절 격자를 통한 3-D 이미징에 관한 연구는 광학적으로 PIA를 획득하는 데 집중되어왔고, 회절 격자를 이용한 재구성(computational reconstruction)에 관한 연구는 아직 논의되고 있지 않다.However, research on 3-D imaging using a diffraction grating has been focused on optically acquiring PIA, and research on computational reconstruction using a diffraction grating has not yet been discussed.

상기한 바와 같은 문제점을 해결하기 위한 본 발명은 회절 격자를 이용한 3-D 영상 재구성 방법 및 장치를 제공하는 데 그 목적이 있다.An object of the present invention for solving the above problems is to provide a 3-D image reconstruction method and apparatus using a diffraction grating.

본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부된 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.The above and other objects, advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.

상술한 목적을 달성하기 위한 본 발명의 회절 격자를 이용한 3차원 이미지 재구성 방법은, 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 방법으로서, 회절 격자에 의해 회절된 시차 이미지들을 이미징 렌즈를 이용하여 캡쳐하는 단계, 상기 이미징 렌즈에 의해 캡쳐된 시차 이미지들을 픽업 평면 상에 픽업하는 단계, 상기 픽업 평면 상에 픽업한 시차 이미지들을 가상 이미지 평면에 재배치하는 단계 및 상기 가상 이미지 평면에 재배한 시차 이미지들을 재구성 평면(Reconstruction plane)에 역-투영(back-projection)하여, 상기 실제 객체에 대한 3차원 이미지가 제구성하는 단계를 포함한다.The three-dimensional image reconstruction method using the diffraction grating of the present invention for achieving the above object is a method performed by a computing device including a processor, and captures parallax images diffracted by the diffraction grating using an imaging lens. Step, picking up the parallax images captured by the imaging lens on a pickup plane, rearranging the parallax images picked up on the pickup plane on a virtual image plane, and reconstructing the parallax images grown on the virtual image plane on a reconstruction plane and reconstructing a three-dimensional image of the real object by back-projection to a reconstruction plane.

본 발명에 의하면, 회절 격자를 통해 시차 이미지 어레이를 획득함으로써, 카메라 어레이 또는 렌즈 어레이를 사용하는 방식과 비교할 때, 저렴하고 덜 복잡한 시차 이미지 어레이 획득 시스템의 개발이 가능하다.According to the present invention, by acquiring a parallax image array through a diffraction grating, it is possible to develop an inexpensive and less complex parallax image array acquisition system as compared to a method using a camera array or a lens array.

또한, 본 발명에 따라 생성된 시차 이미지 어레이는 가상 핀홀의 위치 및 각각의 요소 영상의 위치 정보 및 크기 정보가 잘 정의되어 있기 때문에 기존에 알려져 있는 CIIR 방법으로 3차원 이미지 재구성이 가능하다.In addition, in the parallax image array generated according to the present invention, since the position of the virtual pinhole and the position information and size information of each element image are well defined, it is possible to reconstruct a 3D image using the known CIIR method.

또한, 유효 객체 영역 (EOA), 픽업된 PI 영역, 가상 핀홀 및 최소 이미지 영역 (MIA) 간의 기하학적 관계를 정의함으로써, 기존에 논의되고 있지 않은 회절 격자를 이용한 3차원 이미지 재구성 방법을 최초로 제안한 점에서 그 기술적 의의가 있다.In addition, by defining the geometrical relationship between the effective object area (EOA), the picked-up PI area, the virtual pinhole, and the minimum image area (MIA), a three-dimensional image reconstruction method using a diffraction grating, which has not been discussed previously, was proposed for the first time. It has technical significance.

.도 1a는 본 발명과 관련된 카메라 어레이(camera array)를 이용한 PIA 캡쳐 시스템(PIA capturing)의 광학 구조를 나타내는 도면.
도 1b는 본 발명과 관련된 렌즈 어레이(lens array)를 이용한 PIA 캡쳐 시스템(PIA capturing)의 광학 구조를 나타내는 도면.
도 1c는 본 발명에 적용될 수 있는 회절 격자(diffraction grating)를 이용한 PIA 캡쳐 시스템(PIA capturing)의 광학 구조를 나타내는 도면.
도 2는 본 발명의 실시 예에 따른 회절 격자 이미징 시스템에서 수행되는 픽업 프로세스(pickup process)와 재구성 프로세스 간의 관계의 개략도.
도 3은 본 발명의 실시 예에 따른 포인트 객체, 시차 이미지 평면(parallax image plane: PI plane) 상에서 포인트 객체의 시차 이미지들 및 이미징 렌즈에 의한 캡처된 시차 이미지들 간의 2 차원 기하학적 관계(two-dimensional(2-D) geometric relationships)를 보여주는 도면.
도 4는 본 발명의 실시 예에 따른 포인트 객체로부터 나오는(coming from) 주요 광선(chief ray)의 경로와 시차 이미지로부터 나오는(coming from) 가상 광선들(virtual rays)의 경로 사이의 기하학적 관계(geometric relationship)를 보여주는 도면.
도 5는 본 발명의 실시 예에서 포인트 객체, 가상 핀홀(Virtual Pinhole, VP), 가상 이미지(virtual image) 평면(VI plane) 및 I(x1st, yO, zO) 간의 기하학적 관계(Geometrical relationship)를 나타내는 도면.
도 6a는 본 발명의 실시 예에서 유효 객체 영역(EOA), 시차 이미지 영역, 픽업된 PI 영역(picked up PI regions), 가상 핀홀(virtual pinholes) 및 최소 이미지 영역(half of the minimum image area: MIA) 간의 기하학적 관계(geometrical relationship)를 보여주는 도면.
도 6b는 본 발명의 실시 예에서 실제 3 차원 공간에서 원 객체의 시차 이미지가 재구성을 위해 시차 이미지 어레이로 어떻게 변환되는지 보여주기 위한 도면.
도 7은 본 발명의 실시 예에 따른 시차 이미지 어레이(PIA)를 이용하여 재구성 평면으로 역-투영(back-projection)하는 과정을 보여주는 도면.
도 8은 본 발명의 실시 예에 따른 회절 격자를 이용한 3차원 이미지 재구성 방법을 나타내는 흐름도.
1A is a diagram showing an optical structure of a PIA capturing system using a camera array according to the present invention;
1B is a view showing an optical structure of a PIA capturing system using a lens array according to the present invention;
1C is a diagram showing an optical structure of a PIA capturing system using a diffraction grating that can be applied to the present invention.
2 is a schematic diagram of a relationship between a pickup process and a reconstruction process performed in a diffraction grating imaging system according to an embodiment of the present invention;
3 is a two-dimensional geometrical relationship between a point object, parallax images of a point object on a parallax image plane (PI plane) and parallax images captured by an imaging lens according to an embodiment of the present invention; A drawing showing (2-D) geometric relationships.
4 is a geometrical relationship between the path of a chief ray coming from a point object and the path of virtual rays coming from a parallax image according to an embodiment of the present invention; A drawing showing the relationship.
5 is a geometrical relationship between a point object, a virtual pinhole (VP), a virtual image plane (VI plane) and I(x 1st , y O , z O ) in an embodiment of the present invention; ) showing the drawing.
6A illustrates an effective object area (EOA), a parallax image area, picked up PI regions, virtual pinholes and half of the minimum image area (MIA) in an embodiment of the present invention; ) A diagram showing the geometrical relationship between
6B is a diagram showing how a parallax image of an original object is converted into a parallax image array for reconstruction in an actual three-dimensional space in an embodiment of the present invention;
7 is a diagram illustrating a process of back-projection to a reconstruction plane using a parallax image array (PIA) according to an embodiment of the present invention.
8 is a flowchart illustrating a 3D image reconstruction method using a diffraction grating according to an embodiment of the present invention.

본 발명이 구현되는 양상을 이하의 바람직한 각 실시예를 들어 설명한다. 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 본 발명의 기술적 사상의 범주 내에서 그 외의 다른 다양한 형태로 구현될 수 있음은 자명하다. 본 명세서에서 사용된 용어 역시 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 요소가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 요소의 존재 또는 추가됨을 배제하지 않는다.The aspect in which the present invention is implemented will be described with reference to each preferred embodiment below. It is obvious that the present invention is not limited to the embodiments disclosed below, but may be implemented in other various forms within the scope of the technical spirit of the present invention. The terminology used herein is also for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprise” and/or “comprising” means that the stated component, step, action and/or element is the presence of one or more other components, steps, actions and/or elements. or added.

본 발명에서는 회절 격자 영상에서 바로 얻어진 원시 이미지(a raw image)를 이용한 재구성 방법(computational reconstruction method)을 제공한다.The present invention provides a computational reconstruction method using a raw image directly obtained from a diffraction grating image.

본 발명에 따른 재구성 방법은 원시 이미지(raw image)에서 각 시차 이미지(each parallax image)를 지역화(localize)하는 광학 분석(optical analysis)과 추출된 시차 이미지에서 볼륨(volume)을 재구성하는 역 투영 방법(back-projection method)으로 구성될 수 있다.The reconstruction method according to the present invention includes an optical analysis for localizing each parallax image from a raw image and a reverse projection method for reconstructing a volume from an extracted parallax image. (back-projection method) can be configured.

도 1a는 본 발명과 관련된 카메라 어레이(camera array)를 이용한 PIA 캡쳐 시스템(PIA capturing)의 광학 구조를 나타내는 도면이고, 도 1b는 본 발명과 관련된 렌즈 어레이(lens array)를 이용한 PIA 캡쳐 시스템(PIA capturing)의 광학 구조를 나타내는 도면이다. 그리고, 도 1c는 본 발명에 적용될 수 있는 회절 격자(diffraction grating)를 이용한 PIA 캡쳐 시스템(PIA capturing)의 광학 구조를 나타내는 도면이다.1A is a view showing an optical structure of a PIA capturing system using a camera array related to the present invention, and FIG. 1B is a PIA capturing system (PIA) using a lens array related to the present invention. It is a diagram showing the optical structure of capturing). And, FIG. 1C is a diagram illustrating an optical structure of a PIA capturing system using a diffraction grating that can be applied to the present invention.

본 발명에 따른 회절 격자를 이용한 광학 구조(optical structure of diffraction grating imaging)는, 도 1a 내지 1c에 도시된 바와 같이, 카메라 어레이(camera array) 또는 렌즈 어레이(lens array) 기반의 광학 구조와 상이하다. An optical structure of diffraction grating imaging using a diffraction grating according to the present invention is different from an optical structure based on a camera array or a lens array, as shown in FIGS. 1A to 1C . .

도 1a에 도시된 바와 같이, 카메라 어레이(11, camera array)를 이용한 광학 구조에서는 카메라들의 분리 가능한 구조(separable structure)로 인해 픽업 평면(12, pickup plane)에 픽업된 시차 이미지들(parallax images)의 추출(extracting)이 불필요하다.As shown in FIG. 1A , in an optical structure using a camera array 11, parallax images picked up on a pickup plane 12 due to a separable structure of the cameras. extraction is not necessary.

도 1b에 도시된 바와 같이, 렌즈 어레이(13, lens array)를 이용한 광학 구조에서는, 픽업 평면(14, pickup plane)에 픽업된 시차 이미지들(parallax image)의 분할(segmentation)을 위해 렌즈 패턴(lens pattern)의 검출 기술(detection technique)이 요구되며, 이는 공지된 문헌에서 많이 논의된 바 있다.As shown in FIG. 1B, in the optical structure using a lens array 13, a lens pattern (for segmentation) of parallax images picked up on a pickup plane 14 A detection technique of the lens pattern is required, which has been widely discussed in the known literature.

도 1c에 도시된 바와 같이, 회절 격자(15)를 이용한 광학 구조에서는, 회절 격자(15)가 투명하고 검출할 패턴이 없기 때문에, 회절 격자(15)에 의해 픽업 평면(16, pickup plane)에 픽업된 시차 이미지들(parallax images)의 지역화(localization)가 쉽지 않다. 여기서, 시차 이미지들의 지역화는 시차 이미지들의 분할(segmentation)을 의미한다.As shown in Fig. 1C, in the optical structure using the diffraction grating 15, since the diffraction grating 15 is transparent and there is no pattern to be detected, it is located on the pickup plane 16 by the diffraction grating 15. Localization of the picked up parallax images is not easy. Here, the localization of the parallax images means segmentation of the parallax images.

이 문제를 극복하기 위해, 본 발명은 회절 격자 이미징(diffraction grating imaging)에서 시차 이미지들(parallax images)의 기하학적 정보(geometrical information)의 이론적 분석(theoretical analysis)에 기반한 3 차원 재구성(3-D computational reconstruction) 방법을 제안한다.To overcome this problem, the present invention provides 3-D computational reconstruction based on theoretical analysis of geometrical information of parallax images in diffraction grating imaging. reconstruction) method is proposed.

도 2는 본 발명의 실시 예에 따른 회절 격자 이미징 시스템(diffraction grating imaging system)에서 픽업 프로세스(pickup process)와 재구성 프로세스(reconstruction process) 간의 관계(relationship)의 개략도이다.2 is a schematic diagram of a relationship between a pickup process and a reconstruction process in a diffraction grating imaging system according to an embodiment of the present invention.

도 2에서, 'PI'는 시차 이미지(Parallax Image)를 나타내고, 'VP'는 가상 핀홀(Virtual Pinhole)를 나타내고, 'EOA'는 유효 객체 영역(Effective Object Area)을 나타낸다. 그리고 'MIA'는 최소 이미지 영역(Minimum Image Area)을 나타낸다.In FIG. 2 , 'PI' denotes a parallax image, 'VP' denotes a virtual pinhole, and 'EOA' denotes an effective object area. And 'MIA' represents a minimum image area.

도 2를 참조하면, 본 발명의 실시 예에 따른 회절 격자 이미징 시스템은 픽업 프로세스(pickup process)와 재구성 프로세스(reconstruction process)를 수행한다.Referring to FIG. 2 , the diffraction grating imaging system according to an embodiment of the present invention performs a pickup process and a reconstruction process.

회절 격자 이미징 시스템은은 픽업 프로세스를 수행하기 위한 회절 격자(41)와 이미징 렌즈(43, imaging lens)를 포함하고, 회절 격자(41)와 이미징 렌즈(43)를 통해 픽업 평면에 픽업된 시차 이미지들과 상기 픽업된 시차 이미지들을 재구성하기 위한 컴퓨팅 연산을 수행하는 컴퓨팅 장치를 더 포함하도록 구성된다.The diffraction grating imaging system includes a diffraction grating 41 and an imaging lens 43 for performing a silver pickup process, and a parallax image picked up on a pickup plane through the diffraction grating 41 and the imaging lens 43 and a computing device that performs a computing operation to reconstruct the picked-up parallax images.

컴퓨팅 장치는, 프로세서, 메모리, 저장 매체, 통신부 및 이들을 연결하는 시스템 버스를 포함하도록 구성될 수 있으며, 이들 중에서 픽업 프로세스와 재구성 프로세스와 관련된 알고리즘을 실행하고, 실행된 알고리즘에 따라 다양한 연산을 수행하는 주체는 프로세서일 수 있다. The computing device may be configured to include a processor, a memory, a storage medium, a communication unit, and a system bus connecting them, and executes an algorithm related to a pickup process and a reconfiguration process among them, and performs various operations according to the executed algorithm The subject may be a processor.

프로세서는 하나 이상의 범용 마이크로프로세서들, 디지털 신호 프로세서들(DSP들), 하드웨어 코어들, ASIC들(application specific integrated circuits), FPGA들(field programmable gate arrays), 그래픽 프로세서들(GPUs) 또는 이들의 임의의 결합에 의해서 구현될 수 있다. A processor may include one or more general purpose microprocessors, digital signal processors (DSPs), hardware cores, application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs), graphics processors (GPUs), or any thereof. It can be implemented by the combination of

저장 매체는 프로세서에 의해 실행되는 알고리즘 및 이러한 알고리즘의 실행에 따라 수행된 다양한 연산과정으로부터 획득된 중간데이터(중간값) 및/또는 결과 데이터(결과값) 등을 일시적 또는 영구적으로 저장하거나, 픽업 프로세스와 재구성 프로세스를 수행하기 위한 공지의 다양한 알고리즘을 저장하거나, 알고리즘의 실행 공간을 제공하는 것일 수 있다. The storage medium temporarily or permanently stores an algorithm executed by the processor and intermediate data (intermediate value) and/or result data (result value) obtained from various operation processes performed according to the execution of the algorithm, or the like, or a pickup process It may be to store various known algorithms for performing the and reconfiguration process, or to provide an execution space for the algorithm.

저장 매체는, 컴퓨터-판독가능 매체로 지칭될 수도 있으며, 컴퓨터-판독가능 매체는 SDRAM(synchronous dynamic random access memory)과 같은 RAM(random access memory), ROM(read-onlymemory), NVRAM(non-volatile random access memory), EEPROM(electrically erasable programmable read-only memory), FLASH 메모리, 하드 디스크 등을 포함할 수 있다.A storage medium may also be referred to as a computer-readable medium, which includes a random access memory (RAM), such as a synchronous dynamic random access memory (SDRAM), a read-only memory (ROM), and a non-volatile (NVRAM) random access memory), electrically erasable programmable read-only memory (EEPROM), FLASH memory, a hard disk, and the like.

회절 격자(diffraction grating)를 이용한 3-D 객체들(3-D objects)에 대한 상기 픽업 프로세서(pickup process)의 분석(analysis)에서는, 광원(light source)의 파장(wavelength), 회절 격자(41)의 공간 분해능(spatial resolution), 및 회절격자(41) 및 이미징 렌즈(43)의 위치(positions)와 같은 시스템 파라미터(system parameters)가 정의한다.In the analysis of the pickup process for 3-D objects using a diffraction grating, the wavelength of the light source, the diffraction grating 41 ), and system parameters such as the positions of the diffraction grating 41 and the imaging lens 43 .

재구성 프로세스는 역-투영(back-projection)에 기반한다. 여기서, 시차 이미지들(parallax images)을 3-D 재구성 공간(3-D reconstruction space)으로 투영하기 위해 가상 핀홀들(VPs: Virtual Pinholes)이 정의된다. 가상 핀홀(VP)은 가상의 카메라를 표현한 것이다.The reconstruction process is based on back-projection. Here, virtual pinholes (VPs) are defined to project parallax images into a 3-D reconstruction space. The virtual pinhole VP represents a virtual camera.

본 발명의 실시 예에 따른 회절 격자 이미징 시스템에서는 픽업된 이미지에서 3D 객체가 서로 겹치지 않고 존재할 수 있는 최대 영역(maximum area)을 유효 객체 영역(EOA)으로 정의되고, 획득된 이미지들에서 유효 객체 영역(EOA)를 검출(detecting)하는 것은 회절 격자 이미징에서 재구성에 필수적이다. In the diffraction grating imaging system according to an embodiment of the present invention, the maximum area in which 3D objects can exist without overlapping each other in the picked-up image is defined as the effective object area (EOA), and the effective object area in the acquired images Detecting (EOA) is essential for reconstruction in diffraction grating imaging.

또한 재구성 프로세스에서는, 각 가상 핀홀의 최소 시야각(minimum field of view) 인 최소 이미지 영역 (MIA, minimum image area)이 정의된다. Also in the reconstruction process, a minimum image area (MIA) which is the minimum field of view of each virtual pinhole is defined.

또한, 재구성(computational reconstruction)을 위해, 유효 객체 영역(EOA)과 최소 이미지 영역(MIA) 간의 매핑(mapping)이 필요하고, 이와 관련된 수학식이 아래에서 설명된다.In addition, for computational reconstruction, mapping between the effective object area EOA and the minimum image area MIA is required, and a related equation will be described below.

회절 격자 이미징에서 3D 객체들의 픽업 프로세스Pickup process of 3D objects in diffraction grating imaging

회절 격자(41)는 3-D 객체로부터 발산하는(emanating) 광선을 회절 시킨다. 이미징 렌즈(43)로 회절 격자(41)를 통해 객체를 관찰하는 것(observing)은 회절 격자 이미징에서 픽업 프로세스의 기본 개념이다. The diffraction grating 41 diffracts rays emanating from the 3-D object. Observing an object through a diffraction grating 41 with an imaging lens 43 is a basic concept of the pickup process in diffraction grating imaging.

회절 격자(41)에 의해 회절된 광선(diffracted light rays)은 상기 3-D 객체의 투시 이미지들(perspective images)로서 관찰된다. 회절 격자(41)를 통해 객체 공간(object space)을 관찰하면, 회절 격자(41)의 후면 상에 객체의 가상 이미지들(virtual images)이 생성되는 것으로 보인다. Diffracted light rays by the diffraction grating 41 are observed as perspective images of the 3-D object. When the object space is observed through the diffraction grating 41 , it appears that virtual images of the object are generated on the rear surface of the diffraction grating 41 .

가상 이미지들은 3-D 객체에 대한 시차들(parallaxes)을 가지며, 이미징 렌즈(43)와 같은 캡처 장치(capturing device)에 의해 시차 이미지 어레이 (PIA)로서 저장된다. 여기서, 가상 객체의 이미징 깊이(imaging depth)와 크기(size)는 원래의 3-D 객체(original 3-D object)와 동일하다.The virtual images have parallaxes for the 3-D object and are stored as a parallax image array (PIA) by a capturing device, such as an imaging lens 43 . Here, the imaging depth and size of the virtual object are the same as those of the original 3-D object.

도 3은 본 발명의 실시 예에 따른 포인트 객체, 시차 이미지 평면(parallax image plane: PI plane) 상에서 포인트 객체의 시차 이미지들 및 이미징 렌즈에 의한 캡처된 시차 이미지들 간의 2 차원 기하학적 관계(two-dimensional(2-D) geometric relationships)를 보여주는 도면이다.3 is a two-dimensional geometrical relationship between a point object, parallax images of a point object on a parallax image plane (PI plane) and parallax images captured by an imaging lens according to an embodiment of the present invention; (2-D) It is a diagram showing geometric relationships.

도 3을 참조하면, 회절 격자(41)가 x-y 평면에서 이미징 렌즈(43)로부터 거리 d에 있고, 포인트 객체(P1)는 (xO, yO, zO)로 가정한다. 여기서, 포인트 객체는 시차 이미지에 포함된 객체를 포인트로 표현한 것이고, 모든 시차 이미지의 z 좌표(the z-coordinates)는 회절 격자 이미징(diffraction grating imaging)에 따라 zO로서 동일하고, zO는 이미징 렌즈(43)로부터 시차 이미지 평면(PI plane)까지의 거리로 해석될 수도 있다.Referring to FIG. 3 , it is assumed that the diffraction grating 41 is at a distance d from the imaging lens 43 in the xy plane, and the point object P1 is (x O , y O , z O ). Here, the point object will image the objects included in the differential image to the point, z coordinates of all the differential image (the z -coordinates) are the same as z O in accordance with the diffraction grating imaging (diffraction grating imaging) and, z is O Imaging It may be interpreted as a distance from the lens 43 to the parallax image plane (PI plane).

도 3에 도시 된 바와 같이, -1차 시차 이미지(PI(x-1st, yO, zO)) 및 +1차 시차 이미지(PI(x1st, yO, zO))는 회절 격자(41)에 의해 포인트 객체의 ± 1 차(± 1st order) 회절(diffraction)에 의해 생성된다. (xO, yO, zO)에서의 포인트 객체는 0 차 시차 이미지로 사용된다., The negative first order differential image (PI (x -1st, O y, O z)) and + 1st-order differential image (PI (x 1st, O y, O z)) as shown in Figure 3 is a diffraction grating ( 41) ± 1 order of the point object (± 1 st order) by is generated by the diffraction (diffraction). The point object at (x O , y O , z O ) is used as the zero-order parallax image.

1차 시차 이미지(PI(x1st, yO, zO))와 0차 시차 이미지(PI(xO, yO, zO))들 사이의 회절각(θ)은 θ= sin-1(λ/a)로 계산되며, 여기서 λ는 광원(light source)의 파장(wavelength)이고, a는 회절 격자의 개구폭(aperture width)이다.The diffraction angle (θ) between first-order parallax images (PI(x 1st , y O , z O )) and zero-order parallax images (PI(x O , y O , z O )) is θ= sin -1 ( λ/a), where λ is the wavelength of the light source and a is the aperture width of the diffraction grating.

회절 차수(diffraction order)와 포인트 객체(point object)의 위치를 고려하면, 시차 이미지(parallax images)의 x 좌표는 아래의 수학식 1과 같다.Considering the diffraction order and the position of the point object, the x-coordinate of the parallax images is expressed by Equation 1 below.

Figure pat00001
Figure pat00001

여기서, m은 -1, 0 및 1이다. 시차 이미지(parallax image)의 y 좌표(yO)는 수학식 1에서 xO를 yO로 대체하여 획득된다. 픽업 평면(16, pickup plane)상의 이미징 포인트(imaging point) I(xmth, ynth, zO)는 아래의 수학식 2와 같다.where m is -1, 0 and 1. The y coordinate (y O ) of the parallax image is obtained by replacing x O with y O in Equation 1 . An imaging point I(x mth , y nth , z O ) on the pickup plane 16 is expressed by Equation 2 below.

Figure pat00002
Figure pat00002

여기 m과 n은 -1, 0, 1이며 zI는 픽업 평면의 z 좌표를 나타낸다.Here m and n are -1, 0, 1, and z I represents the z-coordinate of the pickup plane.

회절 격자(41)는 객체의 z-좌표와 시차 이미지가 동일한 공간에서 시차 이미지를 생성한다(a diffraction grating generates parallax images in the space where the z-coordinate of the object and parallax images are the same).The diffraction grating 41 generates a diffraction grating generates parallax images in the space where the z-coordinate of the object and parallax images are the same.

픽업 평면에서 I(x1th, yO, zO)에 도달하는 광선이 PI (x1th, yO, zO)에서 나온 것처럼 보이지만, 포인트 객체에서 발산하는(emanating) 광선만이 실제이다(the ray reaching I(x1th, yO, zO) in the pick-up plane seems to come from PI(x1th, yO, zO), only the rays emanating from the point object are real).Although the ray arriving at I(x 1th , y O , z O ) in the pickup plane appears to come from PI (x 1th , y O , z O ), only the ray emanating from the point object is real (the ray reaching I(x 1th , y O , z O ) in the pick-up plane seems to come from PI(x 1th , y O , z O ), only the rays emanating from the point object are real).

따라서, 각 시차 이미지(each parallax image)의 시점(viewpoint)은 이미징 렌즈(43)의 광학 중심(20, optical center)을 통과하는(passing through) 가상 포인트 객체들(P2, P3)로부터의 가상 광선들(21, 22)과 포인트 객체(P1)로부터의 실제 광선(23)과의 관계(relationship)에 의해 설명될 수 있다.Thus, the viewpoint of each parallax image is a virtual ray from the virtual point objects P2 and P3 passing through the optical center 20 of the imaging lens 43 . It can be described by the relationship between the rays 21 , 22 and the actual ray 23 from the point object P1 .

도 4는 본 발명의 실시 예에 따른 포인트 객체로부터 나오는(coming from) 주요 광선(chief ray)의 경로와 가상 포인트 객체로부터 나오는(coming from) 가상 광선들(virtual rays)의 경로 사이의 기하학적 관계(geometric relationship)를 나타내는 도면이다.4 is a geometrical relationship between the path of a chief ray coming from a point object and the path of virtual rays coming from a virtual point object according to an embodiment of the present invention; It is a diagram showing geometric relationship.

도 4를 참조하면, ±1 차 시차 이미지(±1st order parallax images)에서 이미징 렌즈(43)의 광학 중심(20)으로의 가상 광선들(21, 22)은 위치 함수(position function) G(xmth, ynth, zO)에 의해 정의되는 지점에서 회절 격자(41)를 만난다. Referring to FIG. 4 , the imaginary rays 21 and 22 to the optical center 20 of the imaging lens 43 in ±1 st order parallax images have a position function G ( It meets the diffraction grating 41 at a point defined by x mth , y nth , z O ).

포인트 G(xmth, ynth, zO)에서, 회절 격자(41)는 포인트 객체(P1)로부터 이미징 렌즈(43)의 광학 중심(20)으로의 실제 광선(23)의 경로를 변화시킨다. 점 G(xmth, ynth, zO)는 아래의 수학식 3과 같다.At point G(x mth , y nth , z O ), the diffraction grating 41 changes the path of the actual ray 23 from the point object P1 to the optical center 20 of the imaging lens 43 . The point G(x mth , y nth , z O ) is expressed by Equation 3 below.

Figure pat00003
Figure pat00003

여기서 m 및 n은 -1, 0 및 1이다.where m and n are -1, 0 and 1.

이하, 본 발명의 실시 예에 따른 재구성 프로세스의 중요한 부분(crucial part)에 해당하는 회절 격자 이미징에서 역-투영(back-projection)을 위한 가상 핀홀(virtual pinholes)에 대해 설명하기로 한다.Hereinafter, virtual pinholes for back-projection in diffraction grating imaging corresponding to a critical part of the reconstruction process according to an embodiment of the present invention will be described.

시차 이미지의 가상 핀홀(virtual pinholes) 및 매핑 위치Virtual pinholes and mapping locations in parallax images

가상 핀홀(virtual pinholes)은 카메라 어레이(camera array)로 간주될 수 있다. 본 발명은, 3차원 이미지 재구성 방법을 구현하기 위해, 시차 이미지들에 대응하는 가상 핀홀의 위치(position of the virtual pinholes)에 대한 공식과 시차 이미지들(parallax images)과 가상 핀홀들(virtual pinholes: VPs) 사이의 매핑(mapping)을 위한 공식이 제공된다.Virtual pinholes may be considered a camera array. The present invention provides a formula for the position of the virtual pinholes corresponding to the parallax images and parallax images and virtual pinholes to implement a three-dimensional image reconstruction method: A formula for mapping between VPs is provided.

도 4에 도시 된 바와 같이, Ψ의 각도에서 포인트 객체(P2)로부터 방출하는(radiating) 광선은 (x1st, yO, zO)에 위치한 1 차 시차 이미지(PI(x1st, yO, zO))로부터의 광선으로 결정된다. PI(x1st, yO, zO)에서 이미징 렌즈(43)를 통해 이미징 포인트 I(x1st, yO, zO)로 입사하는 광선은 Ψ의 각도와 동일하다.As shown in Fig. 4, the ray radiating from the point object P2 at an angle of Ψ is a first-order parallax image (PI(x 1st , y O ) located at (x 1st , y O , z O ). z O ))). A ray incident from PI(x 1st , y O , z O ) through the imaging lens 43 to the imaging point I(x 1st , y O , z O ) is equal to the angle of Ψ.

이미징 포인트 I(x1st, yO, zO)는 포인트 객체(P1)로부터 방출되는 광선에 대해 각도 Ψ의 시차 이미지로 간주된다. 픽업 평면 상에서 zI 깊이의 다른 포인트를 가정하면, 이미지 I(x1st, yO, zO)와 동일한 시차를 가지며 포인트 객체를 통과하는 선(line)과 포인트 G(x1st, yO, zO)는 픽업 평면과 만난다.The imaging point I(x 1st , y O , z O ) is regarded as a parallax image of angle Ψ with respect to the ray emitted from the point object P1. Assuming another point of depth z I on the pickup plane, a line passing through the point object with the same parallax as image I(x 1st , y O , z O ) and point G(x 1st , y O , z O ) meets the pickup plane.

도 5는 본 발명의 실시 예에서 포인트 객체, 가상 핀홀(Virtual Pinhole, VP), 가상 이미지(virtual image) 평면(VI plane) 및 I(x1st, yO, zO) 간의 기하학적 관계(Geometrical relationship)를 나타내는 도면이다.5 is a geometrical relationship between a point object, a virtual pinhole (VP), a virtual image plane (VI plane), and I(x 1st , y O , z O ) in an embodiment of the present invention; ) is a diagram showing

도 5에 도시된 바와 같이, x 축의 한 지점에 위치한 가상 핀홀(51)의 광학 중심을 위치 함수(position function) VP (xmth, ynth, z0)로 가정할 때, 수학식 1과 3을 이용하면, VP(xmth, ynth, zO)는 아래의 수학식 4와 같이 계산된다.5, assuming that the optical center of the virtual pinhole 51 located at a point on the x-axis is a position function VP (x mth , y nth , z 0 ), Equations 1 and 3 Using , VP(x mth , y nth , z O ) is calculated as in Equation 4 below.

Figure pat00004
Figure pat00004

여기서 m과 n은 -1, 0, 1이다. where m and n are -1, 0, 1.

상기 수학식 4는 대응하는 시차 이미지의 차수(order)가 동일하면, 각 가상 핀홀의 위치는 객체의 위치에 관계없이 고유한 값(unique value)임을 의미한다. Equation 4 above means that when the orders of the corresponding parallax images are the same, the position of each virtual pinhole is a unique value regardless of the position of the object.

그러나 수학식 4는 객체의 깊이(the depth of the object)가 증가함에 따라 각 가상 핀홀의 위치가 x 및 y 방향으로 증가함을 의미하고, 이미징 렌즈(43)는 제 0 가상 핀홀(the 0th virtual pinhole)로 간주될 수 있다.However, Equation 4 means that the position of each virtual pinhole increases in the x and y directions as the depth of the object increases, and the imaging lens 43 is the 0th virtual pinhole (the 0 th). can be considered as a virtual pinhole).

이하, 가상 이미지가 존재하는 가상 이미지 평면(VI plane)에 대한 설명한다. Hereinafter, a virtual image plane (VI plane) in which a virtual image exists will be described.

가상 이미지들은 픽업 평면(PI pickup plane)의 이미지 I(xmth, ynth, zO)를 가상 이미지 평면(VI plane)에 재배치한 이미지들이다. 가상 이미지의 위치 함수는 VI(xmth, ynth, zO) = (x, y, zI)로 주어진다. 여기서 m과 n은 -1, 0 및 1이다. The virtual images are images obtained by rearranging the image I(x mth , y nth , z O ) of the pickup plane on the virtual image plane (VI plane). The position function of the virtual image is given by VI(x mth , y nth , z O ) = (x, y, z I ). where m and n are -1, 0 and 1.

가상 이미지의 x 좌표는 아래의 수학식 5와 같다.The x-coordinate of the virtual image is as shown in Equation 5 below.

Figure pat00005
Figure pat00005

수학식 5에서 xO와 xmth를 yO와 ymth로 대체하면, 가상 이미지의 y 좌표 yO가 된다. If x O and x mth are replaced with y O and y mth in Equation 5, the y-coordinate y O of the virtual image is obtained.

가상 이미지(VI(xmth, ynth, zO))는 본 발명에 따른 재구성 방법(computation reconstruction)에 이용된다. The virtual image VI(x mth , y nth , z O ) is used for the reconstruction method according to the present invention.

이들 이미지들은 매핑 팩터(Δxmapping)를 갖는 픽업된 시차 이미지 I(xmth, ynth, zO)의 이동 버전(shift version)이다. These images are shift versions of the picked up parallax image I(x mth , y nth , z O ) with a mapping factor Δx mapping .

수학식 2와 5를 이용하면 시차 이미지I(xmth, ynth, zO)와 가상 이미지(VI(xmth, ynth, zO)) 사이의 이동량을 나타내는 매핑 팩터(Δxmapping)는 아래의 수학식 6으로 계산될 수 있다.Using Equations 2 and 5, the mapping factor (Δx mapping ) representing the amount of movement between the parallax image I(x mth , y nth , z O ) and the virtual image (VI(x mth , y nth , z O )) is below It can be calculated by Equation 6 of

Figure pat00006
Figure pat00006

시차 이미지 분할 및 재구성 방법Parallax Image Segmentation and Reconstruction Methods

시차 이미지(parallax image)를 분할(segment)하기 위해, 이미지 영역(image area)을 사용하여 각 가상 핀홀의 시야각(field of view)을 결정한다.To segment a parallax image, the image area is used to determine the field of view of each virtual pinhole.

회절 격자(41)에 의해 캡처 된 원시 이미지(raw image)로부터 개별 시차 이미지(individual parallax images)를 분할(segmenting)하는 것은 렌즈 어레이 또는 카메라 어레이에 의해 픽업된 원시 이미지와는 다르게 투명 회절 격자(transparent diffraction grating)로 인해 어렵다. Segmenting individual parallax images from the raw image captured by the diffraction grating 41 is different from the raw image picked up by the lens array or camera array, which is transparent to the diffraction grating (transparent). difficult due to diffraction grating).

더욱이, 회절 격자 이미징(diffraction grating imaging)은 객체의 크기(size)가 특정 한계(specific limit)를 초과할 때 시차 이미지가 서로 중첩되기도 한다.Moreover, in diffraction grating imaging, parallax images are superimposed on each other when the size of an object exceeds a specific limit.

시차 이미지들의 중첩 문제(The overlapping problem of parallax images)는 객체의 크기 및 객체와 회절 격자 사이의 거리에 의해 설명될 수 있다. The overlapping problem of parallax images can be explained by the size of the object and the distance between the object and the diffraction grating.

중첩 문제를 피하기 위해, 객체의 최대 크기(the maximum size)인 유효 객체 영역(Effective Object Area: EOA)이 정의될 필요가 있다.In order to avoid the overlapping problem, an Effective Object Area (EOA), which is the maximum size of an object, needs to be defined.

편의상 유효 객체 영역(Effective Object Area: EOA)의 중심은 이미징 렌즈(43)의 광축(optical axis)에 정렬된다고 가정한다.For convenience, it is assumed that the center of the Effective Object Area (EOA) is aligned with the optical axis of the imaging lens 43 .

도 6a는 본 발명의 실시 예에서 유효 객체 영역(EOA), 시차 이미지 영역, 픽업된 PI 영역(picked up PI regions), 가상 핀홀(virtual pinholes) 및 최소 이미지 영역(the Minimum Image Area: MIA)의 절반(half) 간의 기하학적 관계(geometrical relationship)를 보여주는 도면이고, 도 6b는 본 발명의 실시 예에서 실제 3 차원 공간에서 원 객체의 시차 이미지가 재구성을 위해 시차 이미지 어레이로 어떻게 변환되는지 보여주기 위한 도면이다.6A is a diagram of an effective object area (EOA), a parallax image area, picked up PI regions, virtual pinholes, and the Minimum Image Area (MIA) in an embodiment of the present invention; It is a diagram showing a geometrical relationship between half (half), and FIG. 6B is a diagram for showing how a parallax image of an original object in an actual three-dimensional space is converted into a parallax image array for reconstruction in an embodiment of the present invention to be.

먼저, 도 6a를 참조하면, 유효 객체 영역(EOA)을 정의하면, 시차 이미지의 영역이 정의된다. First, referring to FIG. 6A , when the effective object area EOA is defined, the area of the parallax image is defined.

도 6a에서 유효 객체 영역(EOA)의 1차 PI 영역(1st order PI region)과 -1차 PI 영역(-1st order PI region)은 각각 적색 및 녹색으로 표기되어 있다. In FIG. 6A , a first order PI region and a -1st order PI region of the effective object area EOA are marked in red and green, respectively.

픽업된 PI 영역들(picked-up PI regions) 사이의 경계(boundary)는 수학식 2를 사용하여 결정된다. 따라서, 픽업된 평면(picked-up plane)에서 시차 이미지의 분할(segmentation of the parallax images)이 가능하다. The boundary between the picked-up PI regions is determined using Equation (2). Accordingly, segmentation of the parallax images in a picked-up plane is possible.

상기 수학식 6을 이용해서 픽업 평면 상의 픽업된 시차 이미지의 영역을 가상 이미지 평면(VI plane)의 최소 이미지 영역(MIA)으로 매핑한 후, 최소 이미지 영역(MIA)의 반경(Half of MIA)은 가상 핀홀(VP)의 광축(60)으로부터 가상 이미지 평면(VI plane)으로 매핑된 상기 픽업된 시차 이미지 영역(PI region)의 가장자리까지의 거리로부터 획득된다.After mapping the area of the picked up parallax image on the pickup plane to the minimum image area MIA of the virtual image plane VI plane using Equation 6, the radius of the minimum image area MIA (Half of MIA) is It is obtained from the distance from the optical axis 60 of the virtual pinhole VP to the edge of the picked-up parallax image region PI region mapped to the virtual image plane VI plane.

유효 객체 영역(EOA)의 크기는 포인트 객체가 광축에 놓일 때 ±1st PI 영역의 크기와 같다. 크기 Δx는 광축상의 포인트 xOC에 의존한다. Δx를 변경하면 1 차 PI(1st order PI)의 중심(xOC1st)dmf 기준으로 1차 PI 영역(1st order PI region)의 크기가 변경된다.최대 Δx, 즉 유효 객체 영역(EOA)은 아래의 수학식 7과 같다.The size of the effective object area (EOA) is equal to the size of the ±1st PI area when the point object is placed on the optical axis. The magnitude Δx depends on the point x OC on the optical axis. Changing the Δx primary PI (1 st order PI) center (x OC1st) the size of the dmf standard primary PI region (1 st order PI region) is changed up to Δx, i.e. the effective object area (EOA) is the Equation 7 below.

Figure pat00007
Figure pat00007

여기서 λ는 광원의 파장이고, a는 회절 격자의 개구 폭(aperture width)이다. where λ is the wavelength of the light source, and a is the aperture width of the diffraction grating.

유효 객체 영역(EOA)(또는 EOA의 크기)은 객체와 회절 격자 사이의 거리(|z0 - d|)에 비례함을 상기 수학식 7로부터 알 수 있다. 최소 이미지 영역 (MIA)의 절반, Δr은 식 (4), 식 (5) 및 식 (7)를 통해 아래의 수학식 8에 의해 계산된다.It can be seen from Equation 7 that the effective object area EOA (or the size of the EOA ) is proportional to the distance (|z 0 - d|) between the object and the diffraction grating. Half of the minimum image area (MIA), Δr, is calculated by Equation (8) below through Equations (4), (5) and (7).

Figure pat00008
Figure pat00008

도 6b에서는 실제 3차원 공간(3-D space)에서 원형 객체(circle object)의 시차 이미지가 재구성(computational reconstruction)을 위해 시차 이미지 어레이(parallax image array)로 어떻게 변환되는지를 보여준다.6B shows how a parallax image of a circle object is converted into a parallax image array for computational reconstruction in an actual 3-D space.

도 6b의 왼쪽에 있는 원형 객체(circle object)에 대해 유효 객체 영역(EOA)이 전술한 수학식 7에 의해 얻어지면, 도 6b의 중간에 보이듯이, 이미징 렌즈(43)에 의해 픽업된 원시 시차 이미지(raw parallax images)의 영역을 결정할 수 있다. If the effective object area EOA for the circle object on the left side of Fig. 6b is obtained by Equation 7 described above, then, as shown in the middle of Fig. 6b, the raw parallax picked up by the imaging lens 43 It is possible to determine the area of the raw parallax images.

도 6b의 오른쪽에 도시 된 바와 같이, 가상 핀홀 및 최소 이미지 영역 (MIA)에 기초한 제안된 맵핑 방법을 통해서 3차원 재구성을 위해 가상 평면에서 시차 이미지 어레이(PIA)가 생성된다. As shown on the right side of Fig. 6b, a parallax image array (PIA) is generated in the virtual plane for 3D reconstruction through the proposed mapping method based on the virtual pinhole and the minimum image area (MIA).

도 7은 본 발명의 실시 예에 따른 시차 이미지 어레이(PIA)를 이용하여 재구성 평면(reconstruction plane)으로 역-투영(back-projection)하는 과정을 보여주는 도면이다.7 is a diagram illustrating a process of back-projection to a reconstruction plane using a parallax image array (PIA) according to an embodiment of the present invention.

도 7을 참조하면, 각각의 시차 이미지가 있는 각각의 MIA는 가상 핀홀을 통과하는 3D 공간에서 역 투영된다. 역 투영되는 과정은 각각의 시차 이미지의 이동된 버전이 재구성 평면에서 겹쳐지는 과정으로 설명할 수 있다. 여기서 각 시차 이미지를 정확하게 찾는 것은 전술한 수학식 6에 의해 얻을 수 있다.Referring to FIG. 7 , each MIA with each parallax image is back-projected in 3D space passing through a virtual pinhole. The back-projection process can be described as a process in which the moved versions of each parallax image are superimposed on the reconstruction plane. Here, it is possible to accurately find each parallax image by Equation 6 described above.

또한 최소 이미지 영역 (MIA)은 도 7에서 파란색과 주황색으로 강조된 것처럼 서로 겹칠 수 있다. 모든 최소 이미지 영역(MIA)의 역 투영은 재구성 평면에서 오브젝트 이미지에 초점을 정확히 맞추는 깊이 정보를 제공할 수 있다. 여기서 재구성 평면의 깊이는 오브젝트의 위치와 동일하다. 따라서, 회절 격자 이미징을 통한 본 발명의 재구성 방법은 최소 이미지 영역(MIA)을 결정하고, 최소 이미지 영역(MIA)에서 캡처된 시차 이미지를 찾고, 최소 이미지 영역(MIA)를 역 투영하는 것으로 구성된다. Also, the minimum image area MIA may overlap each other as highlighted in blue and orange in FIG. 7 . The inverse projection of all minimal image areas (MIA) can provide depth information that accurately focuses the object image in the reconstruction plane. Here, the depth of the reconstruction plane is equal to the position of the object. Thus, the reconstruction method of the present invention via diffraction grating imaging consists of determining the minimum image area (MIA), finding the parallax image captured in the minimum image area (MIA), and inversely projecting the minimum image area (MIA). .

본 발명에 따른 방법으로 생성된 PIA는 가상 핀홀의 위치 및 각각의 요소 영상의 위치 정보 및 크기 정보가 잘 정의되어 있기 때문에 기존에 알려져 있는 CIIR 방법으로 3차원 영상 재구성(복원)이 가능하다.In the PIA generated by the method according to the present invention, since the location of the virtual pinhole and location information and size information of each element image are well defined, a three-dimensional image reconstruction (reconstruction) is possible by the known CIIR method.

도 8은 본 발명의 실시 예에 따른 회절 격자를 이용한 3차원 이미지 재구성 방법을 나타내는 흐름도로서, 아래의 각 단계의 수행 주체는 컴퓨팅 장치 내의 프로세서일 수 있다. 8 is a flowchart illustrating a 3D image reconstruction method using a diffraction grating according to an embodiment of the present invention, and a subject performing each of the following steps may be a processor in the computing device.

도 8을 참조하면, 먼저, S610에서, 회절 격자에 의해 회절된 시차 이미지들이 이미징 렌즈를 에 의해 캡쳐되어, 시차 이미지 어레이로서 컴퓨팅 장치 내의 메모리에 저장되는 과정이 수행된다. Referring to FIG. 8 , first, in S610 , a process in which parallax images diffracted by the diffraction grating are captured by an imaging lens and stored in a memory in the computing device as a parallax image array is performed.

여기서, 상기 회절된 시차 이미지들은, 실제 객체(P1)를 포함하는 제1 시차 이미지(PI(x0, y0, z0))와 상기 실제 객체의 가상 객체(P2, P3)를 포함하는 제2 시차 이미지(PI(x1st, y0, z0), PI(x-1st, y0, z0))를 포함하고, 상기 제2 시차 이미지는 상기 제1 시차 이미지에 대해 상기 실제 객체로부터 발산되는 광선의 파장과 상기 회절 격자의 개구폭에 의해 결정된 회절각으로 회절된 것일 수 있다.Here, the diffracted parallax images include a first parallax image (PI(x 0 , y 0 , z 0 )) including a real object P1 and a first parallax image including virtual objects P2 and P3 of the real object. 2 parallax images PI(x 1st , y 0 , z 0 ), PI(x -1st , y 0 , z 0 ), wherein the second parallax image is derived from the real object for the first parallax image It may be diffracted at a diffraction angle determined by the wavelength of the emitted light and the aperture width of the diffraction grating.

이어, S620에서, 상기 이미징 렌즈에 의해 캡쳐된 시차 이미지들이 픽업 평면 상에 픽업되는 과정이 수행된다. Next, in S620 , a process in which the parallax images captured by the imaging lens are picked up on a pickup plane is performed.

이어, S630에서, 상기 픽업 평면 상에 픽업된 시차 이미지들이 가상 이미지 평면에 재배치되는(매핑되는) 과정이 수행된다.Next, in S630, a process of relocating (mapped) the parallax images picked up on the pickup plane to a virtual image plane is performed.

여기서, 상기 단계 S630은, 상기 이미징 렌즈와 동일 평면 상에 정의된 가상 핀홀과 상기 가상 이미지 평면과의 기하학적 관계를 기반으로, 상기 픽업 평면 상에 픽업한 시차 이미지들을 분할한 후, 상기 분할된 시차 이미지들을 매핑 팩터(

Figure pat00009
xmapping)에 따라 상기 가상 이미지 평면(VI plane)에 매핑하는 것일 수 있다.Here, in the step S630, the disparity images picked up on the pickup plane are divided based on a geometric relationship between a virtual pinhole defined on the same plane as the imaging lens and the virtual image plane, and then the divided parallax The images are mapped to the mapping factor (
Figure pat00009
x mapping ) may be mapped to the virtual image plane (VI plane).

상기 매핑 팩터는, 상기 회절된 시차 이미지들은 실제 객체를 포함하는 제1 시차 이미지와 상기 실제 객체의 가상 객체를 포함하는 제2 시차 이미지를 포함하고, xyz 축으로 표현가능한 3차원 공간에서 상기 이미징 렌즈가 z 좌표를 0으로 하는 xy평면에 위치하고, 상기 픽업 평면이 z 좌표를 zI로 하는 xy평면에 위치할 때, 상기 제2 시차 이미지를 상기 픽업 평면 상에서 이미징 포인트로 표현할 때, 상기 가상 이미지 평면 상에서 상기 이미징 포인트가 x축 방향으로 이동한 이동량일 수 있다.The mapping factor may include, wherein the diffracted disparity images include a first disparity image including a real object and a second disparity image including a virtual object of the real object, and the imaging lens in a three-dimensional space expressible by an xyz axis. When is located in the xy plane having the z coordinate as 0, the pickup plane is located in the xy plane having the z coordinate as z I , when the second parallax image is expressed as an imaging point on the pickup plane, the virtual image plane It may be the amount of movement of the imaging point in the x-axis direction.

상기 매핑 팩터는 전술한 수학식 6에 의해 계산될 수 있고, 상기 수학식 6에서, x0는 상기 이미징 렌즈의 x 좌표이고, xmth는 회절된 시차 이미지의 x 좌표이고, zo는 상기 실제 객체의 z 좌표이고, d는 상기 이미징 렌즈로부터 상기 회절 격자까지의 거리이다.The mapping factor may be calculated by Equation 6 above, where x 0 is the x-coordinate of the imaging lens, x mth is the x-coordinate of the diffracted parallax image, and z o is the actual is the object's z-coordinate, and d is the distance from the imaging lens to the diffraction grating.

또한, 상기 단계 S630은, 상기 픽업한 시차 이미지들을 상기 가상 이미지 평면에 정의한 최소 이미지 영역들에 각각 매핑하는 단계이고, 상기 최소 이미지 영역들 각각은, 상기 이미징 렌즈와 동일 평면 상에 정의된 가상 핀홀들 각각의 시야각에 의해 결정되는 것일 수 있다. 이때, 상기 픽업한 시차 이미지들은 상기 최소 이미지 영역들 내에서 가장 자리에 매핑될 수 있다. In addition, the step S630 is a step of mapping the picked up parallax images to the minimum image regions defined in the virtual image plane, respectively, Each of the minimum image areas may be determined by a viewing angle of each of the virtual pinholes defined on the same plane as the imaging lens. In this case, the picked up parallax images may be mapped to edges within the minimum image regions.

이어, S640에서, 상기 가상 이미지 평면에 재배치된 시차 이미지들이 재구성 평면(Reconstruction plane)에 역-투영(back-projection)되어, 상기 실제 객체에 대한 3차원 이미지가 재구성되는 과정이 수행된다.Subsequently, in S640 , the disparity images rearranged in the virtual image plane are back-projected onto a reconstruction plane, and a 3D image of the real object is reconstructed.

이제까지 본 발명을 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양하게 변경 또는 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명을 위한 예시적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at mainly in the embodiments. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in variously changed or modified forms without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments are to be considered in terms of illustrative rather than restrictive views. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within an equivalent scope should be construed as being included in the present invention.

Claims (7)

프로세서에 의해 수행되는 3차원 이미지를 재구성하는 방법에서,
회절 격자에 의해 회절된 시차 이미지들을 이미징 렌즈를 이용하여 캡쳐하는 단계;
상기 이미징 렌즈에 의해 캡쳐된 시차 이미지들을 픽업 평면 상에 픽업하는 단계;
상기 픽업 평면 상에 픽업한 시차 이미지들을 가상 이미지 평면에 재배치하는 단계; 및
상기 가상 이미지 평면에 재배치한 시차 이미지들을 재구성 평면(Reconstruction plane)에 역-투영(back-projection)하여, 상기 실제 객체에 대한 3차원 이미지가 재구성하는 단계
를 포함하는 회절 격자를 이용한 3차원 이미지 재구성 방법.
In a method of reconstructing a three-dimensional image performed by a processor,
capturing parallax images diffracted by the diffraction grating using an imaging lens;
picking up parallax images captured by the imaging lens on a pickup plane;
relocating the parallax images picked up on the pickup plane to a virtual image plane; and
Reconstructing a three-dimensional image of the real object by back-projecting the disparity images rearranged on the virtual image plane onto a reconstruction plane.
A three-dimensional image reconstruction method using a diffraction grating comprising a.
제1항에서,
상기 회절된 시차 이미지들은,
실제 객체를 포함하는 제1 시차 이미지와 상기 실제 객체의 가상 객체를 포함하는 제2 시차 이미지를 포함하고,
상기 제2 시차 이미지는 상기 제1 시차 이미지에 대해 상기 실제 객체로부터 발산되는 광선의 파장과 상기 회절 격자의 개구폭에 의해 결정된 회절각으로 회절된 것인 3차원 이미지 재구성 방법.
In claim 1,
The diffracted parallax images are
A first parallax image including a real object and a second parallax image including a virtual object of the real object,
Wherein the second parallax image is diffracted with respect to the first parallax image at a diffraction angle determined by a wavelength of a light ray emitted from the real object and an aperture width of the diffraction grating.
제1항에서,
상기 픽업 평면 상에 픽업한 시차 이미지들을 가상 이미지 평면에 재배치하는 단계는,
상기 이미징 렌즈와 동일 평면 상에 정의된 가상 핀홀과 상기 가상 이미지 평면과의 기하학적 관계를 기반으로, 상기 픽업 평면 상에 픽업한 시차 이미지들을 분할한 후, 상기 분할된 시차 이미지들을 매핑 팩터(Δxmapping)에 따라 상기 가상 이미지 평면(VI plane)에 매핑하는 단계이고,
상기 가상 핀홀은 상기 이미징 렌즈와 동일 평면 상에 정의된 가상의 카메라인 것인 3차원 이미지 재구성 방법.
In claim 1,
Relocating the parallax images picked up on the pickup plane to a virtual image plane comprises:
After dividing the disparity images picked up on the pickup plane based on the geometric relationship between the virtual pinhole and the virtual image plane defined on the same plane as the imaging lens, the divided disparity images are mapped by a mapping factor (Δx mapping). ) according to the step of mapping to the virtual image plane (VI plane),
The virtual pinhole is a three-dimensional image reconstruction method that is a virtual camera defined on the same plane as the imaging lens.
제3항에서,
상기 회절된 시차 이미지들은 실제 객체를 포함하는 제1 시차 이미지와 상기 실제 객체의 가상 객체를 포함하는 제2 시차 이미지를 포함하고, xyz 축으로 표현가능한 3차원 공간에서 상기 이미징 렌즈가 z 좌표를 0으로 하는 xy평면에 위치하고, 상기 픽업 평면이 z 좌표를 zI로 하는 xy평면에 위치할 때,
상기 매핑 팩터(Δxmapping)는,
상기 제2 시차 이미지를 상기 픽업 평면 상에서 이미징 포인트로 표현할 때, 상기 가상 이미지 평면 상에서 상기 이미징 포인트가 x축 방향으로 이동한 이동량인 것인 3차원 이미지 재구성 방법.
In claim 3,
The diffracted parallax images include a first parallax image including a real object and a second parallax image including a virtual object of the real object, and the imaging lens sets the z coordinate to 0 in a three-dimensional space expressible on the xyz axis. When the pickup plane is located in the xy plane with z coordinates as z I and the pickup plane is located in the xy plane with z I ,
The mapping factor (Δx mapping ) is,
When the second parallax image is expressed as an imaging point on the pickup plane, the three-dimensional image reconstruction method is the amount of movement of the imaging point in the x-axis direction on the virtual image plane.
제3항에서,
상기 회절된 시차 이미지들은 실제 객체를 포함하는 제1 시차 이미지와 상기 실제 객체의 가상 객체를 포함하는 제2 시차 이미지를 포함하고, xyz축으로 표현가능한 3차원 공간에서 상기 이미징 렌즈가 z 좌표를 0으로 하는 xy평면에 위치하고, 상기 픽업 평면이 z 좌표를 zI로 하는 xy평면에 위치할 때,
상기 매핑 팩터(Δxmapping)는,
Figure pat00010
에 의해 계산되고,
여기서, x0는 상기 이미징 렌즈의 x 좌표이고, xmth는 회절된 시차 이미지의 x 좌표이고, zo는 상기 실제 객체의 z 좌표이고, d는 상기 이미징 렌즈로부터 상기 회절 격자까지의 거리인 것인 3차원 이미지 재구성 방법.
In claim 3,
The diffracted parallax images include a first parallax image including a real object and a second parallax image including a virtual object of the real object. When the pickup plane is located in the xy plane with z coordinates as z I and the pickup plane is located in the xy plane with z I ,
The mapping factor (Δx mapping ) is,
Figure pat00010
is calculated by
where x 0 is the x-coordinate of the imaging lens, x mth is the x-coordinate of the diffracted parallax image, z o is the z-coordinate of the real object, and d is the distance from the imaging lens to the diffraction grating 3D image reconstruction method.
제1항에서,
상기 픽업 평면 상에 픽업한 시차 이미지들을 가상 이미지 평면에 재배치하는 단계는,
상기 픽업한 시차 이미지들을 상기 가상 이미지 평면에 정의한 최소 이미지 영역들에 각각 매핑하는 단계이고,
상기 최소 이미지 영역들 각각은,
상기 이미징 렌즈와 동일 평면 상에 정의된 가상 핀홀들 각각의 시야각에 의해 결정되고,
상기 가상 핀홀들은 가상의 카메라들인 것인 3차원 이미지 재구성 방법.
In claim 1,
Relocating the parallax images picked up on the pickup plane to a virtual image plane comprises:
mapping the picked up parallax images to minimum image regions defined in the virtual image plane, respectively;
Each of the minimum image areas is
It is determined by the viewing angle of each of the virtual pinholes defined on the same plane as the imaging lens,
wherein the virtual pinholes are virtual cameras.
제6항에서,
상기 픽업한 시차 이미지들은 상기 최소 이미지 영역들 내에서 가장 자리에 매핑되는 것인 3차원 이미지 재구성 방법.
In claim 6,
wherein the picked up parallax images are mapped to edges within the minimum image regions.
KR1020200127456A 2019-11-26 2020-09-29 Method and apparatus for reconstructing three-dimensional image via a diffraction grating KR102317836B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/104,107 US11480917B2 (en) 2019-11-26 2020-11-25 Method and apparatus for reconstructing three-dimensional image by using diffraction grating

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190153740 2019-11-26
KR1020190153740 2019-11-26

Publications (2)

Publication Number Publication Date
KR20210065030A true KR20210065030A (en) 2021-06-03
KR102317836B1 KR102317836B1 (en) 2021-10-27

Family

ID=76396728

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200127456A KR102317836B1 (en) 2019-11-26 2020-09-29 Method and apparatus for reconstructing three-dimensional image via a diffraction grating

Country Status (1)

Country Link
KR (1) KR102317836B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102499494B1 (en) * 2021-09-27 2023-02-13 상명대학교산학협력단 A diffraction grating imaging system for reconstructing a 3D image using laser light sources having different wavelengths
KR102619003B1 (en) * 2022-11-22 2023-12-28 상명대학교산학협력단 3d imaging system based on diffraction grating and operation method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090072907A (en) * 2007-12-29 2009-07-02 강원대학교산학협력단 System for acquiring 3D image
JP2011182237A (en) * 2010-03-02 2011-09-15 Osaka Univ Compound-eye imaging device, and image processing method in the same
JP2014093646A (en) * 2012-11-02 2014-05-19 Canon Inc Optical instrument

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090072907A (en) * 2007-12-29 2009-07-02 강원대학교산학협력단 System for acquiring 3D image
JP2011182237A (en) * 2010-03-02 2011-09-15 Osaka Univ Compound-eye imaging device, and image processing method in the same
JP2014093646A (en) * 2012-11-02 2014-05-19 Canon Inc Optical instrument

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102499494B1 (en) * 2021-09-27 2023-02-13 상명대학교산학협력단 A diffraction grating imaging system for reconstructing a 3D image using laser light sources having different wavelengths
WO2023048338A1 (en) * 2021-09-27 2023-03-30 상명대학교 산학협력단 Diffraction grating imaging system for reconstructing 3-dimensional image by using laser beam sources having different wavelengths
KR102619003B1 (en) * 2022-11-22 2023-12-28 상명대학교산학협력단 3d imaging system based on diffraction grating and operation method thereof

Also Published As

Publication number Publication date
KR102317836B1 (en) 2021-10-27

Similar Documents

Publication Publication Date Title
JP6855587B2 (en) Devices and methods for acquiring distance information from a viewpoint
JP6375619B2 (en) Reconstruction of 3D scenes from bright-field images conscious of occlusion
CA2650557C (en) System and method for three-dimensional object reconstruction from two-dimensional images
US8773508B2 (en) 3D imaging system
US8433157B2 (en) System and method for three-dimensional object reconstruction from two-dimensional images
US20150146032A1 (en) Light field processing method
JP6490197B2 (en) Apparatus and method for generating a three-dimensional image of a subject
JP5011528B2 (en) 3D distance measurement sensor and 3D distance measurement method
US20150117756A1 (en) Processing of Light Fields by Transforming to Scale and Depth Space
KR102317836B1 (en) Method and apparatus for reconstructing three-dimensional image via a diffraction grating
JP2001194114A (en) Image processing apparatus and method and program providing medium
US20130272600A1 (en) Range image pixel matching method
WO2015074718A1 (en) A light field processing method
US20140300941A1 (en) Method and apparatus for generating hologram based on multi-view image
JP2007074079A (en) Image input device
WO2018209703A1 (en) Method and system for snapshot multi-spectral light field imaging
Martínez-Usó et al. Depth estimation in integral imaging based on a maximum voting strategy
KR101399274B1 (en) multi 3-DIMENSION CAMERA USING MULTI PATTERN BEAM AND METHOD OF THE SAME
JP6968895B2 (en) Method and optical system to acquire tomographic distribution of electromagnetic field crest
KR101293576B1 (en) System of depth control in three-dimensional integral imaging display
US11480917B2 (en) Method and apparatus for reconstructing three-dimensional image by using diffraction grating
JP6867645B2 (en) Image processing equipment, methods, and programs
Shin et al. 3D visualization of partially occluded objects using axially distributed sensing
KR102499494B1 (en) A diffraction grating imaging system for reconstructing a 3D image using laser light sources having different wavelengths
JP4091455B2 (en) Three-dimensional shape measuring method, three-dimensional shape measuring apparatus, processing program therefor, and recording medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant