KR101614121B1 - Apparatus and method for displaying integrated image - Google Patents

Apparatus and method for displaying integrated image Download PDF

Info

Publication number
KR101614121B1
KR101614121B1 KR1020140188655A KR20140188655A KR101614121B1 KR 101614121 B1 KR101614121 B1 KR 101614121B1 KR 1020140188655 A KR1020140188655 A KR 1020140188655A KR 20140188655 A KR20140188655 A KR 20140188655A KR 101614121 B1 KR101614121 B1 KR 101614121B1
Authority
KR
South Korea
Prior art keywords
image
lens array
optical field
light field
cropped
Prior art date
Application number
KR1020140188655A
Other languages
Korean (ko)
Inventor
이병호
김종현
정재현
정영모
홍기훈
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020140188655A priority Critical patent/KR101614121B1/en
Application granted granted Critical
Publication of KR101614121B1 publication Critical patent/KR101614121B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/315Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being time-variant

Abstract

Provided are an apparatus for displaying an integrated image and a method for displaying an integrated image. The apparatus for displaying an integrated image of the present invention includes: a light field microscope obtaining a light field image in which pieces of different viewpoint information of an object are recorded by using a first lens array and an object lens; a second lens array; a processor cropping the light field image into a predetermined size based on an F-number of the object lens and an F-number of the second lens array and generating an elemental image from the cropped light field image; and a display panel spatially displaying a three-dimensional integrated image showing the object by causing the elemental image to pass through the second lens array.

Description

집적 영상 표시 방법 및 장치{Apparatus and method for displaying integrated image}[0001] Apparatus and method for displaying integrated images [

본 개시는 광 필드 이미지를 이용하여 요소 영상을 생성하고, 생성된 요소 영상에 기초하여 집적 영상을 표시하는 방법 및 장치에 관한 것이다.The present disclosure relates to a method and apparatus for generating an elemental image using an optical field image and displaying the integrated image based on the generated elemental image.

최근, 영화, 게임, 광고, 의료영상, 교육, 군사 등 여러 분야에서, 보다 사실적이고 효과적으로 영상을 표현할 수 있는 3차원 영상 디스플레이 장치가 크게 요구되고 있다. 이에 따라 3차원 영상을 표시하기 위한 다양한 기술이 제안되고 있으며, 다양한 3차원 영상 디스플레이 장치가 이미 상용화되어 있다.Recently, there has been a great demand for a three-dimensional image display device capable of realizing images more effectively and effectively in various fields such as movies, games, advertisements, medical images, education, and military. Accordingly, various techniques for displaying three-dimensional images have been proposed, and various types of three-dimensional image display devices have already been commercialized.

3차원 영상 디스플레이 장치에는 예를 들어 안경 방식과 무안경 방식이 있다. 또한, 안경 방식에는 편광 안경 방식과 셔터 안경 방식이 있으며, 무안경 방식 중에서 스테레오스코피(stereoscopy) 방식에는 다수의 실린드리컬 렌즈 어레이를 이용하는 렌티큘러 방식과 다수의 배리어와 개구를 갖는 패럴랙스 배리어 방식이 있다. For example, the three-dimensional image display device includes a spectacle method and a non-spectacle method. In the stereoscopic method, there are a lenticular method using a plurality of cylindrical lens arrays and a parallax barrier method having a plurality of openings and openings. have.

뇌에서 인식하는 깊이감과 눈의 초점이 일치하고 완전 시차(full parallax)를 제공할 수 있는 3차원 영상 디스플레이 방식으로서 집적 영상 방식이 제안되고 있다. An integrated image method has been proposed as a three-dimensional image display method in which the depth perception recognized by the brain matches the focal point of the eye and can provide full parallax.

집적 영상(integral imaging) 기법은, 무 안경식 삼차원 디스플레이의 한 방법으로, 렌즈 어레이(lens-array)를 이용하여 상하와 좌우 시차를 모두 제공하여 특별한 안경 등의 기구 없이도 시청자에게 삼차원 영상을 제공할 수 있는 방법이다. 렌즈 어레이를 구성하는 각각의 요소렌즈들은, 특별하게 제작된 요소영상의 광 정보 분포를 조절하여, 집적 영상 디스플레이 앞이나 뒤에 삼차원의 가상영상을 표시할 수 있다.The integral imaging technique is a method of non-spectacular three-dimensional display, which provides both vertical and horizontal parallax using a lens-array to provide three-dimensional images to viewers without special glasses There is a way. Each element lens constituting the lens array can display a three-dimensional virtual image before or after the integrated image display by adjusting the optical information distribution of the specially produced element image.

본 실시예들에 따르면, 객체의 서로 다른 시점 정보들이 기록된 광 필드 이미지에 크로핑을 수행하여 3차원 집적 영상을 공간 상에 표시하는 방법 및 장치를 제공한다.According to the present embodiments, there is provided a method and apparatus for displaying a three-dimensional integrated image on a space by performing cropping on an optical field image in which different viewpoint information of an object is recorded.

제 1 측면에 따른 집적 영상 표시 장치는, 제 1 렌즈 어레이 및 대물 렌즈를 이용하여, 객체(Object)의 서로 다른 시점(viewpoint) 정보들이 기록된 광 필드 이미지(light field image)를 획득하는 광 필드 현미경; 제 2 렌즈 어레이; 대물 렌즈의 F-수(F-number) 및 제 2 렌즈 어레이의 F-수에 기초하여, 광 필드 이미지를 소정의 크기로 크로핑(cropping)하고, 크로핑된 광 필드 이미지로부터 요소 영상(elemental image)을 생성하는 프로세서; 및 요소 영상을 제 2 렌즈 어레이에 통과시켜, 객체를 나타내는 3차원 집적 영상(Integrated Image)을 공간 상에 표시하는 디스플레이 패널;을 포함할 수 있다.The integrated image display device according to the first aspect includes an optical element for acquiring a light field image in which different viewpoint information of an object is recorded using a first lens array and an objective lens, microscope; A second lens array; Based on the F-number of the objective lens and the F-number of the second lens array, the optical field image is cropped to a predetermined size, and the elemental image is extracted from the cropped optical field image. image; And a display panel for passing the elemental image through the second lens array and displaying a three-dimensional integrated image representing the object on a space.

또한, 프로세서는, 크로핑된 광 필드 이미지에 소정의 픽셀 매핑(pixel mapping)을 수행하여 요소 영상을 생성할 수 있다.In addition, the processor can perform a predetermined pixel mapping on the cropped optical field image to generate an element image.

또한, 소정의 픽셀 매핑은, 크로핑된 광 필드 이미지를 180도 회전 시키는 것일 수 있다.Also, the predetermined pixel mapping may be to rotate the cropped light field image 180 degrees.

또한, 프로세서는, 요소 영상의 해상도에 따라, 크로핑된 광 필드 이미지의 크기를 조절할 수 있다.The processor can also adjust the size of the cropped light field image according to the resolution of the elemental image.

또한, 요소 영상의 해상도는, 디스플레이 패널 내의 픽셀의 피치(pitch) 크기와 제 2 렌즈 어레이 내의 일 렌즈의 피치 크기에 의해 결정될 수 있다.Further, the resolution of the element image can be determined by the pitch size of the pixels in the display panel and the pitch size of one lens in the second lens array.

또한, 광 필드 현미경은, 소정의 광 필드를 객체에 조사하는 광원; 객체를 통과한 광 필드를 포커싱하는 대물렌즈; 포커싱된 광 필드를 수광하는 제 1 렌즈 어레이; 및 제 1 렌즈 어레이를 통과한 광 필드를 검출하여, 광 필드 이미지를 획득하는 센서;를 포함할 수 있다.Further, the optical field microscope includes: a light source for irradiating an object with a predetermined light field; An objective lens for focusing an optical field passing through the object; A first lens array for receiving a focused optical field; And a sensor for detecting an optical field passing through the first lens array and obtaining an optical field image.

또한, 프로세서는, 소정의 주기마다 객체에 대한 복수의 요소 영상들을 생성하고, 디스플레이 패널은, 복수의 요소 영상들을 순차적으로 제 2 렌즈 어레이에 통과시켜, 객체의 변화를 반영하는 집적 영상을 동영상으로써 표시할 수 있다.In addition, the processor generates a plurality of element images for the object at predetermined intervals, and the display panel sequentially passes the plurality of element images to the second lens array, and displays the integrated image reflecting the change of the object as a moving image Can be displayed.

다른 측면에 따른, 직접 영상 표시 방법은, 제 1 렌즈 어레이 및 대물 렌즈를 이용하여, 객체(Object)의 서로 다른 시점(viewpoint) 정보들이 기록된 광 필드 이미지(light field image)를 획득하는 단계; 대물 렌즈의 F-수(F-number) 및 제 2 렌즈 어레이의 F-수에 기초하여, 광 필드 이미지를 소정의 크기로 크로핑(cropping)하고, 크로핑된 광 필드 이미지로부터 요소 영상(elemental image)을 생성하는 단계; 및 요소 영상을 제 2 렌즈 어레이에 통과시켜, 객체를 나타내는 3차원 집적 영상(Integrated Image)을 공간 상에 표시하는 단계를 포함할 수 있다.According to another aspect, a direct image display method includes: obtaining a light field image in which different viewpoint information of an object is recorded using a first lens array and an objective lens; Based on the F-number of the objective lens and the F-number of the second lens array, the optical field image is cropped to a predetermined size, and the elemental image is extracted from the cropped optical field image. image; And displaying the three-dimensional integrated image representing the object on the space by passing the element image through the second lens array.

본 발명의 실시 예들에 따르면, 본 개시에 따른 집적 영상 표시 장치는 광 필드 현미경(light field microscope)을 이용하여, 객체의 집적 영상을 실시간으로 표시할 수 있다.According to embodiments of the present invention, the integrated video display device according to the present disclosure can display an integrated image of an object in real time using a light field microscope.

또한, 본 발명의 실시 예들에 따르면, 집적 영상 표시 장치는 객체의 집적 영상을 왜곡 없이 공간 상에 표시할 수 있다.In addition, according to embodiments of the present invention, the integrated image display device can display an integrated image of an object on a space without distortion.

또한, 본 발명의 실시 예들에 따르면, 집적 영상 표시 장치는 획득된 광 필드 이미지에 크로핑 또는 픽셀 매핑과 같은 간단한 이미지 처리를 수행하는 바, 객체의 집적 영상을 위한 요소 영상을 생성하는 속도를 높일 수 있다.In addition, according to embodiments of the present invention, the integrated image display device performs simple image processing such as cropping or pixel mapping on the obtained optical field image, thereby increasing the speed of generating an element image for an integrated image of the object .

본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 본 개시에 따른 집적 영상(Integrated Image) 표시 장치를 설명하기 위한 도면이다.
도 2는 일 실시예에 따라, 광 필드 현미경이 객체의 광 필드 이미지를 획득하는 보다 구체적인 실시예를 설명하기 위한 도면이다.
도 3은 프로세서가 수행하는 크로핑 및 픽셀 매핑의 일 실시예를 설명하기 위한 도면이다.
도 4는 일 실시예에 따라, 프로세서가 수행하는 크로핑의 일 실시예를 설명하기 위한 도면이다.
도 5는 일 실시예에 따라, 프로세서가 요소 영상을 생성하는 일 실시예를 나타내는 도면이다.
도 6은, 디스플레이 패널이 집적 영상을 표시하는 일 실시예를 설명하기 위한 도면이다.
도 7은, 집적 영상 표시 장치가 객체의 집적 영상을 표시하는 일 실시예를 설명하기 위한 도면이다.
도 8은, 일 실시예에 따라, 집적 영상 표시 장치가 수행하는 집적 영상 표시 방법을 설명하기 위한 도면이다.
The present invention may be readily understood by reference to the following detailed description and the accompanying drawings, in which reference numerals refer to structural elements.
1 is a view for explaining an integrated image display device according to the present disclosure.
2 is a diagram for explaining a more specific embodiment in which an optical field microscope acquires an optical field image of an object, according to an embodiment.
3 is a diagram for explaining an embodiment of a cropping and pixel mapping performed by a processor.
4 is a diagram for explaining an embodiment of a cropping performed by a processor according to an embodiment.
5 is a diagram illustrating an embodiment in which a processor generates an elemental image, according to one embodiment.
6 is a diagram for explaining an embodiment in which the display panel displays an integrated image.
7 is a view for explaining an embodiment in which an integrated video display device displays an integrated image of an object.
8 is a view for explaining an integrated image display method performed by the integrated image display device according to an embodiment.

이하 첨부된 도면을 참조하면서 오로지 예시를 위한 실시예에 의해 발명을 상세히 설명하기로 한다. 하기 실시예는 발명을 구체화하기 위한 것일 뿐 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 상세한 설명 및 실시예로부터 발명이 속하는 기술분야의 전문가가 용이하게 유추할 수 있는 것은 발명의 권리범위에 속하는 것으로 해석된다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The following examples are intended to illustrate the invention and are not intended to limit or limit the scope of the invention. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements as well, without departing from the spirit or scope of the present invention.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. In order to clearly explain the present invention in the drawings, parts not related to the description will be omitted.

도 1은 본 개시에 따른 집적 영상(Integrated Image) 표시 장치(100)를 설명하기 위한 도면이다.1 is a view for explaining an integrated image display device 100 according to the present disclosure.

집적 영상 표시 장치(100)는, 일 실시예에 따라, 제 1 렌즈 어레이(112) 및 대물 렌즈(114)를 이용하는 광 필드 현미경(light field microscope)(110), 프로세서(120), 제 2 렌즈 어레이(140) 및 디스플레이 패널(130)을 포함할 수 있다. 도 1 에 도시된 집적 영상 표시 장치(100)는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.The integrated image display device 100 according to an embodiment includes a light field microscope 110 using a first lens array 112 and an objective lens 114, a processor 120, An array 140 and a display panel 130. The integrated video display device 100 shown in Fig. 1 shows only the components related to the present embodiment. Therefore, it will be understood by those skilled in the art that other general-purpose components other than the components shown in FIG. 1 may be further included.

광 필드 현미경(110)은, 일 실시예에 따라, 제 1 렌즈 어레이(112) 및 대물 렌즈(114)를 이용하여, 객체(Object)의 서로 다른 시점(viewpoint) 정보들이 기록된 광 필드 이미지(light field image)를 획득할 수 있다. 일 실시예에 따라, 광 필드 현미경(110)은 객체를 통과한 광 필드를 캡쳐(capture)하여, 광 필드 이미지를 획득할 수 있다. 광 필드는, 빛이 공간 상에서 분포하는 상태를 광선의 분포를 통해 표현하는 개념이다. 이 개념에 따라, 사물에서 반사되거나 발생한 빛은 공간 속을 직진하여 사람의 눈에 들어오는 것으로 정의되며, 3차원 공간은 무수히 많은 광 필드로 구성될 수 있다. 개별적인 광 필드를 수학적으로 표현하는 예시로는 5차원 플레옵틱(Pleoptic) 함수가 사용될 수 있는데, 공간 상의 특정 평면 상에서 광선이 평면을 지나는 점의 3차원 공간 좌표(x,y,z)와 광선이 향하는 공간 방향각 (θ,Φ)에 대한 휘도로 표기할 수 있다. 따라서, 광 필드 현미경(110)은 객체를 통과한 광 필드의 플레옵틱 함수값을 정보화 함으로써 획득할 수 있다. 예를 들어, 광 필드 현미경(110)은 공간 좌표 (x,y,z) 각각에 대하여 객체를 통과한 광 필드의 (θ,Φ) 별 휘도값을 획득할 수 있다. The optical field microscope 110 may be configured to provide an optical field image (e.g., an optical field image) in which different viewpoint information of an object is recorded, using the first lens array 112 and the objective lens 114, light field image. According to one embodiment, the optical field microscope 110 may capture an optical field through an object to obtain an optical field image. The light field is a concept of expressing the state of light distribution in space through the distribution of light rays. According to this concept, the light reflected or generated in an object is defined as going straight into space and entering the human eye, and the three-dimensional space can be composed of a myriad of optical fields. An example of a mathematical representation of an individual optical field may be a 5-dimensional Pleoptic function, where three-dimensional spatial coordinates (x, y, z) of a point through which a ray passes through a plane on a particular plane in space, Can be represented by the luminance with respect to the spatial direction angles ([theta], [phi]). Thus, the optical field microscope 110 can be obtained by informing the pleofoptic function value of the optical field passing through the object. For example, the optical field microscope 110 can obtain the luminance values of (?,?) Of the optical field passing through the object with respect to each of the spatial coordinates (x, y, z).

광 필드 현미경(110)에 대한 보다 구체적인 내용은 이하 도 2에서 설명하기로 한다.
More specifically, the optical field microscope 110 will be described below with reference to FIG.

도 2는 일 실시예에 따라, 광 필드 현미경이 객체의 광 필드 이미지를 획득하는 보다 구체적인 실시예를 설명하기 위한 도면이다.2 is a diagram for explaining a more specific embodiment in which an optical field microscope acquires an optical field image of an object, according to an embodiment.

광 필드 현미경(110)은 일 실시예에 따라, 광원(202), 대물 렌즈(114), 제 1 렌즈 어레이(112) 및 센서(206)를 포함할 수 있다. 도 2에 도시된 광 필드 현미경(110)은 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.The optical field microscope 110 may include a light source 202, an objective lens 114, a first lens array 112, and a sensor 206, according to one embodiment. The optical field microscope 110 shown in Fig. 2 shows only the components related to the present embodiment. Accordingly, it will be understood by those skilled in the art that other general-purpose components other than the components shown in FIG. 2 may be further included.

광원(202)은 일 실시예에 따라, 소정의 광 필드를 객체(204)를 향해 조사할 수 있다. 객체는 육안의 가시한계를 넘어선 0.1 mm 이하의 크기인 미세한 생물이 될 수 있으며, 일 예로 예쁜꼬마선충(Caenorhabditis elegans)이 될 수 있다. 광원(202)은 일 실시예에 따라, 비 간섭성(incoherent) 광원이 될 수 있다.Light source 202 may illuminate a given light field toward object 204, according to one embodiment. The object can be a microscopic organism with a size of less than 0.1 mm beyond the visible limit of the naked eye, and can be, for example, a pretty nematode (Caenorhabditis elegans). Light source 202 may be an incoherent light source, according to one embodiment.

대물 렌즈(114)는 일 실시예에 따라, 객체(204)를 통과한 광 필드를 포커싱(focusing)할 수 있다. 광 필드 현미경(110)은 대물 렌즈(114)가 높은 분해능(resolving power)을 갖도록 설계할 수 있다. 또한, 광 필드 현미경(110)은 대물 렌즈(114)의 개구수(NA:Numerical Aperture)를 조절하여 높은 분해능을 갖도록 설계할 수 있다.Objective lens 114 may focus an optical field through object 204, according to one embodiment. The optical field microscope 110 can be designed so that the objective lens 114 has a high resolving power. In addition, the optical field microscope 110 can be designed to have a high resolution by adjusting the numerical aperture (NA) of the objective lens 114.

제 1 렌즈 어레이(112)는 대물 렌즈(114)에 의해 포커싱된 광 필드를 수광할 수 있다. 제 1 렌즈 어레이(112)는 마이크로 크기 단위의 복수의 렌즈들이 2차원 배열로 구성될 수 있다. 일 실시예에 따라, 제 1 렌즈 어레이(112)는 대물 렌즈(114)에 의해 포커싱된 지점에 위치할 수 있다. The first lens array 112 can receive the optical field focused by the objective lens 114. The first lens array 112 may comprise a plurality of lenses in a micro-sized unit in a two-dimensional array. According to one embodiment, the first lens array 112 may be located at a point focused by the objective lens 114.

센서(206)는 제 1 렌즈 어레이(112)를 통과한 광 필드를 검출할 수 있다. 또한, 센서(206)는 제 1 렌즈 어레이(112)를 통과한 광 필드를 캡쳐하여, 객체(204)에 대한 광 필드 이미지를 획득할 수 있다. 센서(206)는 일 실시예에 따라, CCD(charge-coupled device)나 CMOS(complementary metal oxide semiconductor)와 같은 이미지 센서가 될 수 있다.The sensor 206 can detect the light field that has passed through the first lens array 112. [ The sensor 206 may also capture an optical field through the first lens array 112 to obtain an optical field image for the object 204. The sensor 206 may be an image sensor, such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), according to one embodiment.

도 2에서는 설명의 편의를 위해, 객체(204)의 소정의 지점(208)을 통과한 광 필드를 예시로 하여, 객체(204)의 소정의 지점(208)의 시점(viewpoint) 정보를 포함하는 광 필드(209)를 나타내었지만, 객체(204)의 다른 지점에도 마찬가지의 적용이 가능하다. 따라서, 광 필드 현미경(110)은 객체의 서로 다른 시점 정보를 포함하는 광 필드를 캡쳐하여, 객체에 대한 광 필드 이미지를 획득할 수 있다.In FIG. 2, for convenience of explanation, the light field that has passed through a predetermined point 208 of the object 204 is illustrated as an example, and the viewpoint information of the predetermined point 208 of the object 204 Although the optical field 209 is shown, it is equally applicable to other points in the object 204. Thus, the optical field microscope 110 can capture an optical field containing different viewpoint information of an object, thereby obtaining an optical field image for the object.

도 2의 영상(210)은 광 필드 현미경에 의해 획득된 광 필드 이미지의 일부를 나타낸다. The image 210 of FIG. 2 represents a portion of the optical field image acquired by the optical field microscope.

영상(210)은 제 1 렌즈 어레이(112) 중에 2ⅹ2 렌즈 어레이 영역을 기준으로 센서(206) 내에 캡쳐된 광 필드를 나타낸다. 즉, 영상(210)은 광 필드 이미지의 일부를 나타낸다. 영상(210)은, 대물 렌즈(114)의 F-수(F-number)와 제 1 렌즈 어레이(112)의 F-수가 서로 매칭되지 않기 때문에, 객체의 광 필드가 동그라미 영역(212) 내에 캡쳐될 수 있다. 즉, 대물 렌즈(114) 내의 구경 조리개(aperture stop)가 동그라미 영역(212)을 형성할 수 있다. 또한, 동그라미 영역(212) 내의 네모 영역은 이하 도 3에서 설명할 크로핑을 수행할 영역을 나타낸다.
The image 210 represents the optical field captured in the sensor 206 relative to the 2 x 2 lens array region in the first lens array 112. That is, the image 210 represents a part of the optical field image. Since the image 210 does not match the F-number of the objective lens 114 and the F-number of the first lens array 112, the optical field of the object is captured in the circle area 212 . That is, an aperture stop in the objective lens 114 can form a circle area 212. In addition, the square area in the circle area 212 indicates an area to be subjected to cropping, which will be described later with reference to FIG.

도 1의 프로세서(120)는, 광 필드 현미경(110)에 의해 획득된 광 필드 이미지를 소정의 크기로 크로핑하고, 크로핑된 이미지로부터 객체의 집적 영상(integrated image)을 표시하기 위한 요소 영상(elemental image)을 생성할 수 있다. 일반적으로, 대물 렌즈(114)의 F-수와 제 2 렌즈 어레이(112)의 F-수는 서로 매칭되지 않아, 광 필드 현미경(110)에 의해 획득된 광 필드 이미지로부터 곧바로 생성된 집적 영상은 객체의 3차원 이미지를 왜곡시킬 수 있다. The processor 120 of FIG. 1 includes an image processor 120 for cropping the optical field image acquired by the optical field microscope 110 to a predetermined size, and for displaying an integrated image of the object from the cropped image an elemental image can be generated. Generally, the F-number of the objective lens 114 and the F-number of the second lens array 112 do not match each other, so that an integrated image generated directly from the optical field image acquired by the optical field microscope 110 It is possible to distort the three-dimensional image of the object.

따라서, 집적 영상의 왜곡을 방지하기 위해, 프로세서(120)는 대물 렌즈(114)의 F-수 및 제 2 렌즈 어레이(112)의 F-수에 기초하여, 광 필드 현미경(110)에 의해 획득된 광 필드 이미지를 소정의 크기로 크로핑할 수 있다. Therefore, in order to prevent distortion of the integrated image, the processor 120 obtains the F-number by the optical field microscope 110 based on the F-number of the objective lens 114 and the F-number of the second lens array 112 It is possible to crop the optical field image to a predetermined size.

크로핑이란, 소정의 이미지 중 일부 영역을 잘라 내어, 원하는 크기에 맞도록 소정의 이미지의 사이즈를 조절하는 것을 의미한다. 또한, F-수는 하기 수학식 1과 같이 정의될 수 있다.Cropping refers to cropping a portion of a predetermined image to adjust the size of a predetermined image to fit the desired size. Further, the F-number can be defined by the following equation (1).

Figure 112014125882241-pat00001
Figure 112014125882241-pat00001

상기 수학식 1에서, N은 f-number를 의미하고, f는 초점 거리(focal length), p는 렌즈의 직경 길이를 나타내는 피치(pitch), NA는 개구수(Numerical Aperture)를 나타낸다. 프로세서(120)가 광 필드 이미지를 크로핑하는 구체적인 실시예는 도 3 및 도 4에서 살펴보기로 한다.In Equation (1), N denotes f-number, f denotes a focal length, p denotes a pitch indicating the diameter of the lens, and NA denotes a numerical aperture. A specific embodiment in which the processor 120 crops the optical field image will be described with reference to FIGS. 3 and 4. FIG.

프로세서(120)는, 일 실시예에 따라, 요소 영상의 해상도에 따라, 광 필드 이미지 또는 크로핑된 광 필드 이미지의 크기를 조절할 수 있다. 일 실시예에 따라, 요소 영상의 해상도는 디스플레이 패널(130) 내의 픽셀의 피치 크기와 제 2 렌즈 어레이(140)에 포함된 일 렌즈의 피치 크기에 따라 결정될 수 있다. 구체적인 실시예로, 디스플레이 패널(130)의 피치 크기가 125μm이고, 제 2 렌즈 어레이(140)에 포함된 일 렌즈의 피치 크기가 1mm이면, 요소 영상의 해상도는 8ⅹ8로 결정된다. 따라서, 광 필드 이미지의 해상도가 31ⅹ31이고, 요소 영상의 해상도가 8ⅹ8인 경우, 프로세서(120)는 광 필드 이미지의 해상도를 8ⅹ8로 맞추기 위해, 광 필드 이미지 또는 크로핑된 광 필드 이미지의 크기를 리사이징(resizing)할 수 있다. 리사이징의 예로는 언더샘플링(undersampling)이 있다.The processor 120 may adjust the size of the light field image or the cropped light field image according to the resolution of the elemental image, according to one embodiment. According to one embodiment, the resolution of the elemental image may be determined according to the pitch size of the pixels in the display panel 130 and the pitch size of one lens included in the second lens array 140. As a specific example, if the pitch size of the display panel 130 is 125 μm and the pitch size of one lens included in the second lens array 140 is 1 mm, the resolution of the element image is determined to be 8 × 8. Accordingly, when the resolution of the optical field image is 31 × 31 and the resolution of the elementary image is 8 × 8, the processor 120 resizes the size of the optical field image or the cropped optical field image to 8 × 8, (resizing). An example of resizing is undersampling.

프로세서(120)는, 일 실시예에 따라, 광 필드 이미지 또는 크로핑된 광 필드 이미지에 소정의 픽셀 매핑(pixel mapping)을 수행할 수 있다. 픽셀 매핑이란, 이미지를 구성하는 픽셀들의 2차원 행렬 내에서, 픽셀의 위치를 변경하거나 픽셀의 소정의 수치를 변경하는 것을 의미한다. 프로세서(120)는, 일 실시예에 따라, 광 필드 이미지로부터 생성되는 집적 영상의 슈도스코픽(pseudoscopic) 문제를 해결하기 위해, 광 필드 이미지 또는 크로핑된 광 필드 이미지에 소정의 픽셀 매핑을 수행할 수 있다. 슈도스코픽 문제란, 객체의 집적 영상이 공간 상에서 표시될 때, 관측자가 객체의 집적 영상을 관측하는 모습이, 관측자가 객체를 직접 관측하는 모습과는 정반대의 원근 관계로 나타나는 것을 의미한다. Processor 120 may perform predetermined pixel mapping on an optical field image or a cropped optical field image, according to one embodiment. Pixel mapping refers to changing the position of a pixel or changing a predetermined value of a pixel within a two-dimensional matrix of pixels constituting an image. Processor 120 may perform predetermined pixel mapping on an optical field image or a cropped optical field image to solve the pseudoscopic problem of the integrated image generated from the optical field image, . The pseudoscopic problem means that when an integrated image of an object is displayed on a space, an observer observes an integrated image of the object appears in a perspective relationship that is opposite to that of an observer directly observing the object.

일 실시예에 따라, 프로세서(120)는 하기의 수학식 2를 이용하여, 픽셀 매핑을 수행하여 슈도스코픽 문제를 해결할 수 있다.According to one embodiment, the processor 120 may perform pixel mapping to solve the pseudoscopic problem using Equation (2) below.

Figure 112014125882241-pat00002
Figure 112014125882241-pat00002

상기 수학식 2에서, (i, j, s, t)는 제 1 렌즈 어레이(112)의 (i,j) 위치에 해당하는 렌즈 영역을 기준으로 (s,t) 위치에 해당하는 센서(206) 내의 픽셀 좌표값을 의미하고, (i', j', s',t')는 제 2 렌즈 어레이(140)의 (i',j') 위치에 해당하는 렌즈 영역을 기준으로 (s',t') 위치에 해당하는 디스플레이 패널(130) 내의 픽셀 좌표값을 의미한다. 또한, k는 관찰자가 객체의 집적 영상을 보는 거리감을 나타내는 수치이다. 즉, k=0일 때, 집적 영상이 관찰자로부터 제일 가까운 위치에 표시되고, k가 커질수록 집적 영상이 관찰자로부터 더 먼 위치에 표시된다. 또한, n은 제 1 렌즈 어레이 또는 제 2 렌즈 어레이 내의 어느 하나의 렌즈 영역 영역을 기준으로 센서(206) 내의 픽셀의 개수를 나타낸다. 일 실시예에 따라, 프로세서(120)는 상기 수학식 2에서 k=0을 설정할 수 있다. (I, j, t) corresponding to the (s, t) position with respect to the lens region corresponding to the (i, j) position of the first lens array 112, (I ', j', s ', t') is a pixel coordinate value in the second lens array 140 (s ', j' , t ') position of the display panel 130. [0060] As shown in FIG. Also, k is a numerical value indicating the distance that an observer views an integrated image of an object. That is, when k = 0, the integrated image is displayed at the position closest to the observer, and as the value of k increases, the integrated image is displayed at a position farther from the observer. Also, n represents the number of pixels in the sensor 206 with reference to any one of the lens area areas in the first lens array or the second lens array. According to one embodiment, the processor 120 may set k = 0 in Equation (2).

일 실시예에 따라, 프로세서(120)는 광 필드 이미지 또는 크로핑된 광 필드 이미지를 180도 회전시켜 픽셀 매핑을 수행할 수 있다.According to one embodiment, the processor 120 may rotate the optical field image or the cropped optical field image 180 degrees to perform pixel mapping.

따라서, 프로세서(120)는 광 필드 현미경(110)에 의해 획득된 광 필드 이미지를 소정의 크기로 크로핑하여, 객체(204)의 집적 영상을 표시하기 위한 요소 영상을 생성할 수 있다. 또한, 프로세서(120)는, 요소 영상의 해상도에 따라, 광 필드 이미지 또는 크로핑된 광 필드 이미지의 크기를 조절하여, 요소 영상을 생성할 수 있다. 또한, 프로세서(120)는, 광 필드 이미지 또는 크로핑된 광 필드 이미지에 소정의 픽셀 매핑을 수행하여, 요소 영상을 생성할 수 있다.
Accordingly, the processor 120 may crop an optical field image obtained by the optical field microscope 110 to a predetermined size, thereby generating an element image for displaying an integrated image of the object 204. [ In addition, the processor 120 may generate the element image by adjusting the size of the optical field image or the cropped optical field image according to the resolution of the elementary image. In addition, the processor 120 may perform predetermined pixel mapping on the light field image or the cropped light field image to generate an element image.

도 1의 디스플레이 패널(130)은 일 실시예에 따라, 프로세서(120)에 의해 생성된 요소 영상을 제 2 렌즈 어레이(140)에 통과 시켜, 객체를 나타내는 집적 영상을 공간 상에 표시할 수 있다. 제 2 렌즈 어레이(140)는 마이크로 크기 단위의 복수의 렌즈들이 2차원 배열로 구성될 수 있으며, 요소 영상을 수광하여 집적 영상을 표시할 수 있다. 즉 제 2 렌즈 어레이(140)는, 일 실시예에 따라, 3차원 집적 영상을 표시하기 위해, 오토스테레오스코픽(autostereoscopic) 3차원 이미지를 위한 광학 소자로써 기능할 수 있다. 디스플레이 패널(130)은 일 실시예에 따라 평판 표시 패널(Flat Display Panel)이 될 수 있다. 디스플레이 패널(130)이 객체의 집적 영상을 표시하는 구체적인 내용은 도 6에서 살펴보기로 한다.The display panel 130 of Figure 1 may pass an elemental image generated by the processor 120 to the second lens array 140 to display an integrated image representing the object in space, according to one embodiment . The second lens array 140 may include a plurality of lenses in a unit of micro size and may be configured in a two-dimensional array, and may receive an element image to display an integrated image. The second lens array 140 may function as an optical element for an autostereoscopic three-dimensional image, in order to display a three-dimensional integrated image, according to one embodiment. The display panel 130 may be a flat display panel according to an embodiment. The details of display of the integrated image of the object by the display panel 130 will be described with reference to FIG.

일 실시예에 따라, 집적 영상 표시 장치(100)는 광 필드 현미경(110)으로부터 획득된 광 필드 이미지에 크로핑 또는 픽셀 매핑과 같은 간단한 이미지 처리를 수행하는 바, 복수의 요소 영상들을 생성하는 속도를 높일 수 있고, 결과적으로 복수의 요소 영상들을 짧은 주기마다 또는 실시간으로 생성할 수 있다. 즉, 객체의 위치 또는 상태가 변화하는 경우, 집적 영상 표시 장치(100)는 실시간으로 생성된 복수의 요소 영상들을 제 2 렌즈 어레이에 순차적으로 통과시켜, 객체의 변화를 실시간으로 반영한 집적 영상을 동영상으로써 표시할 수 있다.
According to one embodiment, the integrated image display device 100 performs simple image processing such as cropping or pixel mapping on the optical field image obtained from the optical field microscope 110, And as a result, a plurality of elementary images can be generated every short period or in real time. That is, when the position or state of the object changes, the integrated image display device 100 sequentially passes a plurality of element images generated in real time to the second lens array, As shown in FIG.

도 3은 프로세서(120)가 수행하는 크로핑 및 픽셀 매핑의 일 실시예를 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining an embodiment of cropping and pixel mapping performed by the processor 120. FIG.

광 필드 이미지(310)는 제 1 렌즈 어레이(112)를 구성하는 복수의 렌즈들 각각에 대응되는 영역을 기준으로 서로 다른 시점 정보를 포함하는 캡쳐된 광 필드를 나타낸다. The light field image 310 represents a captured light field that includes different viewpoint information with respect to an area corresponding to each of the plurality of lenses constituting the first lens array 112. [

프로세서(120)는 광 필드 이미지(310)의 각 영역마다 소정의 크기의 영역(315)을 크로핑할 수 있고, 크로핑된 광 필드 이미지(320)를 생성할 수 있다.The processor 120 may crop a region 315 of a predetermined size for each region of the optical field image 310 and generate a cropped optical field image 320. [

또한, 프로세서(120)는 일 실시예에 따라 크로핑된 광 필드 이미지(320)에 픽셀 매핑을 수행할 수 있다. 예를 들어, 프로세서(120)는 크로핑된 광 필드 이미지(320)를 180도 회전시키는 픽셀 매핑을 수행할 수 있다.In addition, the processor 120 may perform pixel mapping on the cropped optical field image 320 according to one embodiment. For example, the processor 120 may perform pixel mapping to rotate the cropped light field image 320 180 degrees.

따라서, 프로세서(120)는 크로핑된 광 필드 이미지(320)에 픽셀 매핑을 수행하여, 요소 영상(330)을 생성할 수 있다.
Thus, the processor 120 may perform pixel mapping on the cropped light field image 320 to generate the element image 330.

도 4는 일 실시예에 따라, 프로세서(120)가 수행하는 크로핑의 일 실시예를 설명하기 위한 도면이다.4 is a diagram for explaining an embodiment of a cropping performed by the processor 120, according to an embodiment.

도 4에 도시된 표(410)는 제 1 렌즈 어레이(112), 대물 렌즈(114) 및 제 2 렌즈 어레이(140)의 사양(specification)을 나타낸다.The table 410 shown in FIG. 4 shows the specifications of the first lens array 112, the objective lens 114, and the second lens array 140.

프로세서(120)는, 일 실시예에 따라, 제 1 렌즈 어레이(112) 중 어느 하나의 렌즈 영역을 기준으로 캡쳐된 광 필드 이미지(420) 중 영역(425)을 크로핑할 수 있다. 프로세서(120)는, 대물 렌즈(114)의 F-수와 제 2 렌즈 어레이(112)의 F-수의 비율에 기초하여, 광 필드 이미지(420) 중 영역(425)을 크로핑할 수 있다. 보다 구체적으로, 기 전술한 수학식 1에 의하면, 대물 렌즈(114)의 F-수는 '1'이라는 값이 계산되고, 제 2 렌즈 어레이(112)의 F-수는 '2'라는 값이 계산된다. 따라서, 프로세서(120)는 대물 렌즈(114)의 F-수의 값과 제 2 렌즈 어레이(112)의 F-수의 값의 비율인 1:2에 따라, 100ⅹ100의 픽셀로 이루어진 광 필드 이미지(420) 중 50ⅹ50의 픽셀로 이루어진 영역(425)을 크로핑할 수 있다. 따라서, 프로세서(120)는 제 1 렌즈 어레이(112)에 포함된 복수의 렌즈 영역들 각각에 대해 영역(425)의 크기만큼 크로핑을 수행할 수 있고, 이에 기초하여 요소 영상을 생성할 수 있다.
The processor 120 may crop the region 425 of the captured optical field image 420 relative to the lens region of either of the first lens arrays 112, according to one embodiment. The processor 120 may crop the region 425 of the optical field image 420 based on the ratio of the F-number of the objective lens 114 to the F-number of the second lens array 112 . More specifically, according to Equation 1 described above, a value of '1' is calculated for the F-number of the objective lens 114 and a value of '2' is calculated for the F-number of the second lens array 112 . Accordingly, the processor 120 calculates the optical field image (100 x 100 pixels) based on the ratio of the F-number of the objective lens 114 and the F-number of the second lens array 112, The area 425 composed of 50 x 50 pixels can be cropped. Thus, the processor 120 can perform cropping by the size of the region 425 for each of the plurality of lens regions included in the first lens array 112, and generate an elemental image based thereon .

도 5는 일 실시예에 따라, 프로세서(120)가 요소 영상을 생성하는 일 실시예를 나타내는 도면이다.5 is a diagram illustrating an embodiment in which processor 120 generates an elemental image, in accordance with one embodiment.

광 필드 현미경(110)은 초점면(focal plane)에 위치한 글자 'N', 초점면보다 25μm 아래에 위치한 글자 'S' 및 초점면보다 25μm위에 위치한 글자 'U'로 이루어진 객체에 대한 광 필드 이미지(510)를 획득할 수 있다. 즉, 광 필드 현미경(110)은 150 μm 크기의 글자 'S', 'N', 'U'로 이루어진 객체에 대한 서로 다른 시점 정보들이 기록된 광 필드 이미지(510)를 획득할 수 있다. The optical field microscope 110 includes an optical field image 510 for an object consisting of a letter 'N' located on the focal plane, a letter 'S' located 25 μm below the focal plane and a letter 'U' Can be obtained. That is, the optical field microscope 110 can acquire an optical field image 510 in which different viewpoint information about an object made up of characters 'S', 'N', and 'U' having a size of 150 μm is recorded.

프로세서(120)는 대물 렌즈(114)의 F-수 및 제 2 렌즈 어레이(112)의 F-수에 기초하여, 광 필드 이미지(510)를 소정의 크기로 크로핑하여, 크로핑된 광 필드 이미지(520)를 생성할 수 있다. 일 실시예에 따라, 프로세서(120)는 크로핑된 광 필드 이미지(520)의 크기를 리사이징하기 위해 언더샘플링(undersampling)을 수행할 수 있다.The processor 120 crops the optical field image 510 to a predetermined size based on the F-number of the objective lens 114 and the F-number of the second lens array 112, An image 520 may be generated. According to one embodiment, the processor 120 may perform undersampling to resize the size of the cropped optical field image 520. [

프로세서(120)는 크로핑된 광 필드 이미지(520)에 소정의 픽셀 매핑을 수행할 수 있다. 일 실시예에 따라, 프로세서(120)는 크로핑된 광 필드 이미지를 180도 회전시켜 픽셀 매핑을 수행하여, 객체의 요소 영상(530)을 생성할 수 있다.
The processor 120 may perform predetermined pixel mapping on the cropped light field image 520. [ According to one embodiment, the processor 120 may rotate the cropped light field image 180 degrees to perform pixel mapping to generate an elemental image 530 of the object.

도 6은, 디스플레이 패널(130)이 집적 영상을 표시하는 일 실시예를 설명하기 위한 도면이다.6 is a view for explaining an embodiment in which the display panel 130 displays an integrated image.

디스플레이 패널(130)은 프로세서(120)에 의해 생성된 요소 영상을 제 2 렌즈 어레이(140)에 조사할 수 있다. 디스플레이 패널(130)은 요소 영상을 제 2 렌즈 어레이(140)를 통과시켜 객체(204)를 나타내는 3차원 집적 영상(610)을 공간 상에 표시할 수 있다. 따라서, 관찰자(620)는 객체(204)의 실제 크기보다 확대된 집적 영상(610)을 3차원 공간 상에서 관찰할 수 있다.
The display panel 130 may irradiate the second lens array 140 with the element image generated by the processor 120. [ The display panel 130 can display the three-dimensional integrated image 610 representing the object 204 in space by passing the elemental image through the second lens array 140. Accordingly, the observer 620 can observe the integrated image 610 that is larger than the actual size of the object 204 in the three-dimensional space.

도 7은, 집적 영상 표시 장치(100)가 객체의 집적 영상을 표시하는 일 실시예를 설명하기 위한 도면이다.7 is a view for explaining an embodiment in which the integrated image display device 100 displays an integrated image of an object.

광 필드 현미경(110)은 일 실시예에 따라, 객체의 서로 다른 시점 정보들이 기록된 광 필드 이미지(710)를 획득할 수 있다.The optical field microscope 110 may obtain an optical field image 710 in which different viewpoint information of an object is recorded, according to one embodiment.

프로세서(120)는 광 필드 이미지(710)를 소정의 크기로 크로핑할 수 있고, 크로핑된 광 필드 이미지로부터 객체의 집적 영상을 표시하기 위한 요소 영상을 생성할 수 있다.The processor 120 may crop the optical field image 710 to a predetermined size and generate an elemental image for displaying an integrated image of the object from the cropped optical field image.

따라서, 디스플레이 패널(130)은 요소 영상을 제 2 렌즈 어레이(140)에 통과 시켜, 객체의 집적 영상을 공간 상에 표시할 수 있다. Accordingly, the display panel 130 can pass the elemental image to the second lens array 140, and display the integrated image of the object on the space.

영상(720)은 공간 상에 표시되는 집적 영상을 나타낸다. 영상(720)은 3차원 영상이 표시된다는 것을 나타내기 위해 5개의 관찰자 위치(위(Top), 중앙(Center), 오른쪽(Right), 왼쪽(Left), 밑(Bottom))에서 바라본 모습들을 나타낸다. 따라서, 영상(720)에서 볼 수 있듯이, 각 모습들마다 시차가 존재한다는 점에서, 3차원 영상이 표시된다는 것을 확인할 수 있다.
The image 720 represents an integrated image displayed on the space. The image 720 represents the views viewed from the five observer positions (Top, Center, Right, Left, and Bottom) to indicate that the three-dimensional image is displayed . Accordingly, as can be seen from the image 720, it can be confirmed that a three-dimensional image is displayed in that a parallax exists for each of the images.

도 8은, 일 실시예에 따라, 집적 영상 표시 장치(100)(이하, 장치(100)라고 한다.)가 수행하는 집적 영상 표시 방법을 설명하기 위한 도면이다. 8 is a view for explaining an integrated video display method performed by the integrated video display device 100 (hereinafter referred to as the device 100) according to an embodiment.

도 8에 도시된 방법은, 도 1의 장치(100)의 각 구성요소에 의해 수행될 수 있고, 중복되는 내용에 대해서는 설명을 생략한다.The method shown in FIG. 8 can be performed by each component of the apparatus 100 of FIG. 1, and redundant descriptions are omitted.

단계 S810에서, 장치(100)는 제 1 렌즈 어레이 및 대물 렌즈를 이용하여, 객체(Object)의 서로 다른 시점(viewpoint) 정보들이 기록된 광 필드 이미지(light field image)를 획득할 수 있다. 일 실시예에 따라, 장치(100)는 객체를 통과한 광 필드를 캡쳐(capture)하여, 광 필드 이미지를 획득할 수 있다. 보다 구체적으로, 장치(100)는 소정의 광 필드를 객체를 향해 조사할 수 있고, 객체를 통과한 광 필드를 제 1 렌즈 어레이가 있는 지점으로 포커싱할 수 있다. 이어서, 장치(100)는 제 1 렌즈 어레이를 통과한 광 필드를 검출하여, 광 필드 이미지를 획득할 수 있다.In step S810, the apparatus 100 may acquire a light field image in which different viewpoint information of the object Object is recorded, using the first lens array and the objective lens. According to one embodiment, the apparatus 100 may capture an optical field through an object to obtain an optical field image. More specifically, the apparatus 100 can illuminate a given light field towards the object and focus the light field through the object to the point where the first lens array is located. The device 100 may then detect the light field that has passed through the first lens array to obtain an optical field image.

단계 S820에서, 장치(100)는 대물 렌즈의 F-수(F-number) 및 제 2 렌즈 어레이의 F-수에 기초하여, 광 필드 이미지를 소정의 크기로 크로핑(cropping)하고, 크로핑된 광 필드 이미지로부터 요소 영상(elemental image)을 생성할 수 있다. In step S820, the apparatus 100 crops the optical field image to a predetermined size based on the F-number of the objective lens and the F-number of the second lens array, An elemental image can be generated from the extracted optical field image.

장치(100)는 일 실시예에 따라, 요소 영상의 해상도에 따라, 광 필드 이미지 또는 크로핑된 광 필드 이미지의 크기를 조절할 수 있다. 따라서, 광 필드 이미지의 해상도가 31ⅹ31이고, 요소 영상의 해상도가 8ⅹ8인 경우, 프로세서(120)는 광 필드 이미지의 해상도를 8ⅹ8로 맞추기 위해, 광 필드 이미지 또는 크로핑된 광 필드 이미지의 크기를 리사이징(resizing)할 수 있다. 리사이징의 예로는 언더샘플링(undersampling)이 있다.The apparatus 100 may adjust the size of the optical field image or the cropped optical field image according to the resolution of the elemental image, according to one embodiment. Accordingly, when the resolution of the optical field image is 31 × 31 and the resolution of the elementary image is 8 × 8, the processor 120 resizes the size of the optical field image or the cropped optical field image to 8 × 8, (resizing). An example of resizing is undersampling.

장치(100)는 일 실시예에 따라, 광 필드 이미지 또는 크로핑된 광 필드 이미지에 소정의 픽셀 매핑(pixel mapping)을 수행할 수 있다. 장치(100)는 일 실시예에 따라, 광 필드 이미지로부터 생성되는 집적 영상의 슈도스코픽(pseudoscopic) 문제를 해결하기 위해, 광 필드 이미지 또는 크로핑된 광 필드 이미지에 소정의 픽셀 매핑을 수행할 수 있다. 일 실시예에 따라, 장치(100)는 광 필드 이미지 또는 크로핑된 광 필드 이미지를 180도 회전시켜 픽셀 매핑을 수행할 수 있다.The apparatus 100 may perform predetermined pixel mapping on an optical field image or a cropped optical field image, according to one embodiment. Device 100 may perform a predetermined pixel mapping on an optical field image or a cropped optical field image to solve the pseudoscopic problem of the integrated image generated from the optical field image, have. According to one embodiment, the apparatus 100 may rotate the optical field image or the cropped optical field image 180 degrees to perform pixel mapping.

따라서, 장치(100)는 광 필드 이미지를 소정의 크기로 크로핑하여, 객체의 3차원 집적 영상을 표시하기 위한 요소 영상을 생성할 수 있다. 또한, 장치(100)는, 요소 영상의 해상도에 따라, 광 필드 이미지 또는 크로핑된 광 필드 이미지의 크기를 조절하여, 요소 영상을 생성할 수 있다. 또한, 장치(100)는, 광 필드 이미지 또는 크로핑된 광 필드 이미지에 소정의 픽셀 매핑을 수행하여, 요소 영상을 생성할 수 있다.Accordingly, the apparatus 100 can crop an optical field image to a predetermined size, and generate an element image for displaying a three-dimensional integrated image of the object. In addition, the apparatus 100 may generate an elementary image by adjusting the size of the optical field image or the cropped optical field image according to the resolution of the elementary image. In addition, the apparatus 100 may perform predetermined pixel mapping on an optical field image or a cropped optical field image to generate an elemental image.

단계 S830에서, 장치(100)는 요소 영상을 제 2 렌즈 어레이에 통과시켜, 객체를 나타내는 3차원 집적 영상(Integrated Image)을 공간 상에 표시할 수 있다.
In step S830, the apparatus 100 passes the elemental image through the second lens array, and can display a three-dimensional integrated image representing the object in space.

본 발명에 따른 집적 영상 표시 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The integrated image display apparatus and method according to the present invention are not limited to the configuration and the method of the embodiments described above, but the embodiments may be modified so that all or some of the embodiments may be modified Or may be selectively combined.

본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다.  The specific implementations described in this embodiment are illustrative and do not in any way limit the scope of the invention. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections.

본 명세서(특히 특허청구범위에서)에서 "상기" 의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In this specification (particularly in the claims), the use of the terms "above" and similar indication words may refer to both singular and plural. In addition, when a range is described, it includes the individual values belonging to the above range (unless there is a description to the contrary), and the individual values constituting the above range are described in the detailed description. Finally, if there is no explicit description or contradiction to the steps constituting the method, the steps may be performed in an appropriate order. It is not necessarily limited to the description order of the above steps. The use of all examples or exemplary terms (e. G., The like) is merely intended to be illustrative of technical ideas and is not to be limited in scope by the examples or the illustrative terminology, except as by the appended claims. It will also be appreciated by those skilled in the art that various modifications, combinations, and alterations may be made depending on design criteria and factors within the scope of the appended claims or equivalents thereof.

Claims (13)

제 1 렌즈 어레이 및 대물 렌즈를 이용하여, 객체(Object)의 서로 다른 시점(viewpoint) 정보들이 기록된 광 필드 이미지(light field image)를 획득하는 광 필드 현미경;
제 2 렌즈 어레이;
상기 대물 렌즈의 F-수(F-number) 및 상기 제 2 렌즈 어레이의 F-수에 기초하여, 상기 광 필드 이미지를 소정의 크기로 크로핑(cropping)하고, 상기 크로핑된 광 필드 이미지로부터 요소 영상(elemental image)을 생성하는 프로세서; 및
상기 요소 영상을 상기 제 2 렌즈 어레이에 통과시켜, 상기 객체를 나타내는 3차원 집적 영상(Integrated Image)을 공간 상에 표시하는 디스플레이 패널;을 포함하고,
상기 광 필드 이미지는
상기 제 1 렌즈 어레이를 구성하는 복수의 렌즈들 각각에 대응되는 영역들을 포함하고,
상기 프로세서는,
상기 대물 렌즈의 F-수 및 상기 제 2 렌즈 어레이의 F-수의 비율에 기초하여, 상기 영역들 내에서 크로핑할 영역의 크기를 결정하고, 상기 결정된 크기에 따라 상기 영역들 각각을 크로핑하고, 상기 크로핑된 영역들로부터 상기 요소 영상을 생성하는, 집적 영상 표시 장치.
A light field microscope for acquiring a light field image in which different viewpoint information of an object is recorded using a first lens array and an objective lens;
A second lens array;
The optical field image is cropped to a predetermined size based on the F-number of the objective lens and the F-number of the second lens array, A processor for generating an elemental image; And
And a display panel for passing the elemental image through the second lens array and displaying a three-dimensional integrated image representing the object on a space,
The light field image
Wherein the first lens array includes regions corresponding to each of the plurality of lenses constituting the first lens array,
The processor comprising:
Determining a size of an area to be cropped in the areas based on a ratio of an F-number of the objective lens and an F-number of the second lens array, and cropping each of the areas according to the determined size And generates the elemental image from the cropped regions.
제 1 항에 있어서,
상기 프로세서는,
상기 크로핑된 영역들에 소정의 픽셀 매핑(pixel mapping)을 수행하여 상기 요소 영상을 생성하는, 집적 영상 표시 장치.
The method according to claim 1,
The processor comprising:
And performing predetermined pixel mapping on the cropped regions to generate the elementary image.
제 2 항에 있어서,
상기 소정의 픽셀 매핑은,
상기 크로핑된 영역들을 180도 회전 시키는 것인, 집적 영상 표시 장치.
3. The method of claim 2,
Wherein the predetermined pixel mapping comprises:
And rotates the cropped regions by 180 degrees.
제 1 항에 있어서,
상기 프로세서는,
상기 요소 영상의 해상도에 따라, 상기 크로핑된 영역들의 크기를 조절하는, 집적 영상 표시 장치.
The method according to claim 1,
The processor comprising:
And adjusts the size of the cropped regions according to the resolution of the elementary image.
제 4 항에 있어서,
상기 요소 영상의 해상도는, 상기 디스플레이 패널 내의 픽셀의 피치(pitch) 크기와 상기 제 2 렌즈 어레이 내의 일 렌즈의 피치 크기에 의해 결정되는, 집적 영상 표시 장치.
5. The method of claim 4,
Wherein the resolution of the elementary image is determined by a pitch size of pixels in the display panel and a pitch size of one lens in the second lens array.
제 1 항에 있어서,
상기 광 필드 현미경은,
소정의 광 필드를 상기 객체에 조사하는 광원;
상기 객체를 통과한 광 필드를 포커싱하는 상기 대물 렌즈;
상기 포커싱된 광 필드를 수광하는 상기 제 1 렌즈 어레이; 및
상기 제 1 렌즈 어레이를 통과한 광 필드를 검출하여, 상기 광 필드 이미지를 획득하는 센서;를 포함하는, 집적 영상 표시 장치.
The method according to claim 1,
In the optical field microscope,
A light source for irradiating the object with a predetermined light field;
The objective lens focusing the light field passing through the object;
The first lens array receiving the focused optical field; And
And a sensor for detecting the light field passing through the first lens array and obtaining the light field image.
제 1 항에 있어서,
상기 프로세서는,
소정의 주기마다 상기 객체에 대한 복수의 요소 영상들을 생성하고,
상기 디스플레이 패널은,
상기 복수의 요소 영상들을 순차적으로 상기 제 2 렌즈 어레이에 통과시켜, 상기 객체의 변화를 반영하는 집적 영상을 동영상으로써 표시하는, 집적 영상 표시 장치.
The method according to claim 1,
The processor comprising:
Generating a plurality of element images for the object every predetermined period,
The display panel includes:
And sequentially passes the plurality of elemental images through the second lens array to display an integrated image reflecting a change of the object as a moving image.
제 1 렌즈 어레이 및 대물 렌즈를 이용하여, 객체(Object)의 서로 다른 시점(viewpoint) 정보들이 기록된 광 필드 이미지(light field image)를 획득하는 단계;
상기 대물 렌즈의 F-수(F-number) 및 제 2 렌즈 어레이의 F-수에 기초하여, 상기 광 필드 이미지를 소정의 크기로 크로핑(cropping)하고, 상기 크로핑된 광 필드 이미지로부터 요소 영상(elemental image)을 생성하는 단계; 및
상기 요소 영상을 상기 제 2 렌즈 어레이에 통과시켜, 상기 객체를 나타내는 3차원 집적 영상(Integrated Image)을 공간 상에 표시하는 단계를 포함하고,
상기 광 필드 이미지는
상기 제 1 렌즈 어레이를 구성하는 복수의 렌즈들 각각에 대응되는 영역들을 포함하고,
상기 요소 영상을 생성하는 단계는,
상기 대물 렌즈의 F-수 및 상기 제 2 렌즈 어레이의 F-수의 비율에 기초하여, 상기 영역들 내에서 크로핑할 영역의 크기를 결정하고, 상기 결정된 크기에 따라 상기 영역들 각각을 크로핑하고, 상기 크로핑된 영역들로부터 상기 요소 영상을 생성하는, 집적 영상 표시 방법.
Using a first lens array and an objective lens, obtaining a light field image in which different viewpoint information of an object is recorded;
The method comprising: cropping the optical field image to a predetermined size based on an F-number of the objective lens and an F-number of the second lens array; Generating an elemental image; And
Passing the elemental image through the second lens array and displaying a three-dimensional integrated image representing the object on a space,
The light field image
Wherein the first lens array includes regions corresponding to each of the plurality of lenses constituting the first lens array,
Wherein the step of generating the elementary image comprises:
Determining a size of an area to be cropped in the areas based on a ratio of an F-number of the objective lens and an F-number of the second lens array, and cropping each of the areas according to the determined size And generating the elemental image from the cropped regions.
제 8 항에 있어서,
상기 요소 영상을 생성하는 단계는,
상기 크로핑된 영역들에 소정의 픽셀 매핑(pixel mapping)을 수행하는 단계를 더 포함하는, 집적 영상 표시 방법.
9. The method of claim 8,
Wherein the step of generating the elementary image comprises:
Further comprising performing predetermined pixel mapping on the cropped regions. ≪ Desc / Clms Page number 13 >
제 9 항에 있어서,
상기 소정의 픽셀 매핑은,
상기 크로핑된 영역들을 180도 회전 시키는 것인, 집적 영상 표시 방법.
10. The method of claim 9,
Wherein the predetermined pixel mapping comprises:
And rotating the cropped regions by 180 degrees.
제 8 항에 있어서,
상기 요소 영상을 생성하는 단계는,
상기 요소 영상의 해상도에 따라, 상기 크로핑된 영역들의 크기를 조절하는 단계를 더 포함하는, 집적 영상 표시 방법.
9. The method of claim 8,
Wherein the step of generating the elementary image comprises:
Further comprising adjusting the size of the cropped regions according to the resolution of the elemental image.
제 8 항에 있어서,
상기 광 필드 이미지를 획득하는 단계는,
소정의 광 필드를 상기 객체에 조사하는 단계;
상기 객체를 통과한 광 필드를 검출하여, 상기 광 필드 이미지를 획득하는 단계;를 포함하는, 집적 영상 표시 방법.
9. The method of claim 8,
Wherein obtaining the light field image comprises:
Irradiating the object with a predetermined light field;
And detecting an optical field passing through the object to obtain the optical field image.
제 8 항에 있어서,
소정의 주기마다 상기 객체에 대한 복수의 요소 영상들을 생성하는 단계; 및
상기 복수의 요소 영상들을 순차적으로 상기 제 2 렌즈 어레이에 통과시켜, 상기 객체의 변화를 반영하는 집적 영상을 동영상으로써 표시하는 단계를 더 포함하는, 집적 영상 표시 방법.
9. The method of claim 8,
Generating a plurality of element images for the object at every predetermined period; And
Further comprising the step of sequentially passing the plurality of elemental images through the second lens array and displaying an integrated image reflecting a change of the object as a moving image.
KR1020140188655A 2014-12-24 2014-12-24 Apparatus and method for displaying integrated image KR101614121B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140188655A KR101614121B1 (en) 2014-12-24 2014-12-24 Apparatus and method for displaying integrated image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140188655A KR101614121B1 (en) 2014-12-24 2014-12-24 Apparatus and method for displaying integrated image

Publications (1)

Publication Number Publication Date
KR101614121B1 true KR101614121B1 (en) 2016-04-20

Family

ID=55917692

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140188655A KR101614121B1 (en) 2014-12-24 2014-12-24 Apparatus and method for displaying integrated image

Country Status (1)

Country Link
KR (1) KR101614121B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019112096A1 (en) * 2017-12-07 2019-06-13 전자부품연구원 Viewpoint image mapping method for integrated imaging system using hexagonal lens
KR102199071B1 (en) * 2019-09-24 2021-01-06 상명대학교산학협력단 Method and apparatus for reconstructing 4D image based on integrated image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
M. LEVOY et al., "Recording and controlling the 4D light field in a microscope using microlens arrays", Journal of Microscopy, Vol. 235, Issue 2, pages 144-162, August 2009.*

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019112096A1 (en) * 2017-12-07 2019-06-13 전자부품연구원 Viewpoint image mapping method for integrated imaging system using hexagonal lens
KR102199071B1 (en) * 2019-09-24 2021-01-06 상명대학교산학협력단 Method and apparatus for reconstructing 4D image based on integrated image
US11348215B2 (en) 2019-09-24 2022-05-31 Sangmyung University Industry-Academy Cooperation Foundation Method and apparatus for reconstructing 4D image based on integral imaging

Similar Documents

Publication Publication Date Title
JP5224124B2 (en) Imaging device
US10397545B2 (en) 3-D light field camera and photography method
EP3232248A1 (en) Transmissive augmented reality near-eye display
US11612317B2 (en) Ophthalmic surgery using light-field microscopy
JP2020510241A5 (en)
TWI520574B (en) 3d image apparatus and method for displaying images
JP2020514811A5 (en)
US20180033157A1 (en) Image processing method and apparatus for determining depth within an image
JP2013026844A (en) Image generation method and device, program, recording medium, and electronic camera
EP2787735A1 (en) Image processing device, image processing method and program
JP2020514810A5 (en)
JP2010181826A (en) Three-dimensional image forming apparatus
EP2512146A1 (en) 3-d video processing device and 3-d video processing method
JP2016225811A (en) Image processing apparatus, image processing method, and program
KR101614121B1 (en) Apparatus and method for displaying integrated image
CN107659772B (en) 3D image generation method and device and electronic equipment
US20180131921A1 (en) Three-dimensional video image display processing device, video information recording medium, video information providing server, and recording medium storing a program
JP2006267767A (en) Image display device
CN201060370Y (en) Naked eye three-dimensional display with sweep function
JP2013009864A (en) Three-dimensional image processing device
JP2007199226A (en) Stereoscopic image observation apparatus
EP2553526A1 (en) Aperture for increasing the parallax in a single lens three dimensional camera
KR101831978B1 (en) Generation method of elemental image contents for display system with rotated lenticular sheet
US20240040220A1 (en) Camera having imaging lenses with varied inter-lens spacings
Takaki Next-generation 3D display and related 3D technologies

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant