KR101614121B1 - Apparatus and method for displaying integrated image - Google Patents
Apparatus and method for displaying integrated image Download PDFInfo
- Publication number
- KR101614121B1 KR101614121B1 KR1020140188655A KR20140188655A KR101614121B1 KR 101614121 B1 KR101614121 B1 KR 101614121B1 KR 1020140188655 A KR1020140188655 A KR 1020140188655A KR 20140188655 A KR20140188655 A KR 20140188655A KR 101614121 B1 KR101614121 B1 KR 101614121B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- lens array
- optical field
- light field
- cropped
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/307—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
- H04N13/315—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being time-variant
Abstract
Description
본 개시는 광 필드 이미지를 이용하여 요소 영상을 생성하고, 생성된 요소 영상에 기초하여 집적 영상을 표시하는 방법 및 장치에 관한 것이다.The present disclosure relates to a method and apparatus for generating an elemental image using an optical field image and displaying the integrated image based on the generated elemental image.
최근, 영화, 게임, 광고, 의료영상, 교육, 군사 등 여러 분야에서, 보다 사실적이고 효과적으로 영상을 표현할 수 있는 3차원 영상 디스플레이 장치가 크게 요구되고 있다. 이에 따라 3차원 영상을 표시하기 위한 다양한 기술이 제안되고 있으며, 다양한 3차원 영상 디스플레이 장치가 이미 상용화되어 있다.Recently, there has been a great demand for a three-dimensional image display device capable of realizing images more effectively and effectively in various fields such as movies, games, advertisements, medical images, education, and military. Accordingly, various techniques for displaying three-dimensional images have been proposed, and various types of three-dimensional image display devices have already been commercialized.
3차원 영상 디스플레이 장치에는 예를 들어 안경 방식과 무안경 방식이 있다. 또한, 안경 방식에는 편광 안경 방식과 셔터 안경 방식이 있으며, 무안경 방식 중에서 스테레오스코피(stereoscopy) 방식에는 다수의 실린드리컬 렌즈 어레이를 이용하는 렌티큘러 방식과 다수의 배리어와 개구를 갖는 패럴랙스 배리어 방식이 있다. For example, the three-dimensional image display device includes a spectacle method and a non-spectacle method. In the stereoscopic method, there are a lenticular method using a plurality of cylindrical lens arrays and a parallax barrier method having a plurality of openings and openings. have.
뇌에서 인식하는 깊이감과 눈의 초점이 일치하고 완전 시차(full parallax)를 제공할 수 있는 3차원 영상 디스플레이 방식으로서 집적 영상 방식이 제안되고 있다. An integrated image method has been proposed as a three-dimensional image display method in which the depth perception recognized by the brain matches the focal point of the eye and can provide full parallax.
집적 영상(integral imaging) 기법은, 무 안경식 삼차원 디스플레이의 한 방법으로, 렌즈 어레이(lens-array)를 이용하여 상하와 좌우 시차를 모두 제공하여 특별한 안경 등의 기구 없이도 시청자에게 삼차원 영상을 제공할 수 있는 방법이다. 렌즈 어레이를 구성하는 각각의 요소렌즈들은, 특별하게 제작된 요소영상의 광 정보 분포를 조절하여, 집적 영상 디스플레이 앞이나 뒤에 삼차원의 가상영상을 표시할 수 있다.The integral imaging technique is a method of non-spectacular three-dimensional display, which provides both vertical and horizontal parallax using a lens-array to provide three-dimensional images to viewers without special glasses There is a way. Each element lens constituting the lens array can display a three-dimensional virtual image before or after the integrated image display by adjusting the optical information distribution of the specially produced element image.
본 실시예들에 따르면, 객체의 서로 다른 시점 정보들이 기록된 광 필드 이미지에 크로핑을 수행하여 3차원 집적 영상을 공간 상에 표시하는 방법 및 장치를 제공한다.According to the present embodiments, there is provided a method and apparatus for displaying a three-dimensional integrated image on a space by performing cropping on an optical field image in which different viewpoint information of an object is recorded.
제 1 측면에 따른 집적 영상 표시 장치는, 제 1 렌즈 어레이 및 대물 렌즈를 이용하여, 객체(Object)의 서로 다른 시점(viewpoint) 정보들이 기록된 광 필드 이미지(light field image)를 획득하는 광 필드 현미경; 제 2 렌즈 어레이; 대물 렌즈의 F-수(F-number) 및 제 2 렌즈 어레이의 F-수에 기초하여, 광 필드 이미지를 소정의 크기로 크로핑(cropping)하고, 크로핑된 광 필드 이미지로부터 요소 영상(elemental image)을 생성하는 프로세서; 및 요소 영상을 제 2 렌즈 어레이에 통과시켜, 객체를 나타내는 3차원 집적 영상(Integrated Image)을 공간 상에 표시하는 디스플레이 패널;을 포함할 수 있다.The integrated image display device according to the first aspect includes an optical element for acquiring a light field image in which different viewpoint information of an object is recorded using a first lens array and an objective lens, microscope; A second lens array; Based on the F-number of the objective lens and the F-number of the second lens array, the optical field image is cropped to a predetermined size, and the elemental image is extracted from the cropped optical field image. image; And a display panel for passing the elemental image through the second lens array and displaying a three-dimensional integrated image representing the object on a space.
또한, 프로세서는, 크로핑된 광 필드 이미지에 소정의 픽셀 매핑(pixel mapping)을 수행하여 요소 영상을 생성할 수 있다.In addition, the processor can perform a predetermined pixel mapping on the cropped optical field image to generate an element image.
또한, 소정의 픽셀 매핑은, 크로핑된 광 필드 이미지를 180도 회전 시키는 것일 수 있다.Also, the predetermined pixel mapping may be to rotate the cropped light field image 180 degrees.
또한, 프로세서는, 요소 영상의 해상도에 따라, 크로핑된 광 필드 이미지의 크기를 조절할 수 있다.The processor can also adjust the size of the cropped light field image according to the resolution of the elemental image.
또한, 요소 영상의 해상도는, 디스플레이 패널 내의 픽셀의 피치(pitch) 크기와 제 2 렌즈 어레이 내의 일 렌즈의 피치 크기에 의해 결정될 수 있다.Further, the resolution of the element image can be determined by the pitch size of the pixels in the display panel and the pitch size of one lens in the second lens array.
또한, 광 필드 현미경은, 소정의 광 필드를 객체에 조사하는 광원; 객체를 통과한 광 필드를 포커싱하는 대물렌즈; 포커싱된 광 필드를 수광하는 제 1 렌즈 어레이; 및 제 1 렌즈 어레이를 통과한 광 필드를 검출하여, 광 필드 이미지를 획득하는 센서;를 포함할 수 있다.Further, the optical field microscope includes: a light source for irradiating an object with a predetermined light field; An objective lens for focusing an optical field passing through the object; A first lens array for receiving a focused optical field; And a sensor for detecting an optical field passing through the first lens array and obtaining an optical field image.
또한, 프로세서는, 소정의 주기마다 객체에 대한 복수의 요소 영상들을 생성하고, 디스플레이 패널은, 복수의 요소 영상들을 순차적으로 제 2 렌즈 어레이에 통과시켜, 객체의 변화를 반영하는 집적 영상을 동영상으로써 표시할 수 있다.In addition, the processor generates a plurality of element images for the object at predetermined intervals, and the display panel sequentially passes the plurality of element images to the second lens array, and displays the integrated image reflecting the change of the object as a moving image Can be displayed.
다른 측면에 따른, 직접 영상 표시 방법은, 제 1 렌즈 어레이 및 대물 렌즈를 이용하여, 객체(Object)의 서로 다른 시점(viewpoint) 정보들이 기록된 광 필드 이미지(light field image)를 획득하는 단계; 대물 렌즈의 F-수(F-number) 및 제 2 렌즈 어레이의 F-수에 기초하여, 광 필드 이미지를 소정의 크기로 크로핑(cropping)하고, 크로핑된 광 필드 이미지로부터 요소 영상(elemental image)을 생성하는 단계; 및 요소 영상을 제 2 렌즈 어레이에 통과시켜, 객체를 나타내는 3차원 집적 영상(Integrated Image)을 공간 상에 표시하는 단계를 포함할 수 있다.According to another aspect, a direct image display method includes: obtaining a light field image in which different viewpoint information of an object is recorded using a first lens array and an objective lens; Based on the F-number of the objective lens and the F-number of the second lens array, the optical field image is cropped to a predetermined size, and the elemental image is extracted from the cropped optical field image. image; And displaying the three-dimensional integrated image representing the object on the space by passing the element image through the second lens array.
본 발명의 실시 예들에 따르면, 본 개시에 따른 집적 영상 표시 장치는 광 필드 현미경(light field microscope)을 이용하여, 객체의 집적 영상을 실시간으로 표시할 수 있다.According to embodiments of the present invention, the integrated video display device according to the present disclosure can display an integrated image of an object in real time using a light field microscope.
또한, 본 발명의 실시 예들에 따르면, 집적 영상 표시 장치는 객체의 집적 영상을 왜곡 없이 공간 상에 표시할 수 있다.In addition, according to embodiments of the present invention, the integrated image display device can display an integrated image of an object on a space without distortion.
또한, 본 발명의 실시 예들에 따르면, 집적 영상 표시 장치는 획득된 광 필드 이미지에 크로핑 또는 픽셀 매핑과 같은 간단한 이미지 처리를 수행하는 바, 객체의 집적 영상을 위한 요소 영상을 생성하는 속도를 높일 수 있다.In addition, according to embodiments of the present invention, the integrated image display device performs simple image processing such as cropping or pixel mapping on the obtained optical field image, thereby increasing the speed of generating an element image for an integrated image of the object .
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 본 개시에 따른 집적 영상(Integrated Image) 표시 장치를 설명하기 위한 도면이다.
도 2는 일 실시예에 따라, 광 필드 현미경이 객체의 광 필드 이미지를 획득하는 보다 구체적인 실시예를 설명하기 위한 도면이다.
도 3은 프로세서가 수행하는 크로핑 및 픽셀 매핑의 일 실시예를 설명하기 위한 도면이다.
도 4는 일 실시예에 따라, 프로세서가 수행하는 크로핑의 일 실시예를 설명하기 위한 도면이다.
도 5는 일 실시예에 따라, 프로세서가 요소 영상을 생성하는 일 실시예를 나타내는 도면이다.
도 6은, 디스플레이 패널이 집적 영상을 표시하는 일 실시예를 설명하기 위한 도면이다.
도 7은, 집적 영상 표시 장치가 객체의 집적 영상을 표시하는 일 실시예를 설명하기 위한 도면이다.
도 8은, 일 실시예에 따라, 집적 영상 표시 장치가 수행하는 집적 영상 표시 방법을 설명하기 위한 도면이다.The present invention may be readily understood by reference to the following detailed description and the accompanying drawings, in which reference numerals refer to structural elements.
1 is a view for explaining an integrated image display device according to the present disclosure.
2 is a diagram for explaining a more specific embodiment in which an optical field microscope acquires an optical field image of an object, according to an embodiment.
3 is a diagram for explaining an embodiment of a cropping and pixel mapping performed by a processor.
4 is a diagram for explaining an embodiment of a cropping performed by a processor according to an embodiment.
5 is a diagram illustrating an embodiment in which a processor generates an elemental image, according to one embodiment.
6 is a diagram for explaining an embodiment in which the display panel displays an integrated image.
7 is a view for explaining an embodiment in which an integrated video display device displays an integrated image of an object.
8 is a view for explaining an integrated image display method performed by the integrated image display device according to an embodiment.
이하 첨부된 도면을 참조하면서 오로지 예시를 위한 실시예에 의해 발명을 상세히 설명하기로 한다. 하기 실시예는 발명을 구체화하기 위한 것일 뿐 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 상세한 설명 및 실시예로부터 발명이 속하는 기술분야의 전문가가 용이하게 유추할 수 있는 것은 발명의 권리범위에 속하는 것으로 해석된다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The following examples are intended to illustrate the invention and are not intended to limit or limit the scope of the invention. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements as well, without departing from the spirit or scope of the present invention.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. In order to clearly explain the present invention in the drawings, parts not related to the description will be omitted.
도 1은 본 개시에 따른 집적 영상(Integrated Image) 표시 장치(100)를 설명하기 위한 도면이다.1 is a view for explaining an integrated
집적 영상 표시 장치(100)는, 일 실시예에 따라, 제 1 렌즈 어레이(112) 및 대물 렌즈(114)를 이용하는 광 필드 현미경(light field microscope)(110), 프로세서(120), 제 2 렌즈 어레이(140) 및 디스플레이 패널(130)을 포함할 수 있다. 도 1 에 도시된 집적 영상 표시 장치(100)는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.The integrated
광 필드 현미경(110)은, 일 실시예에 따라, 제 1 렌즈 어레이(112) 및 대물 렌즈(114)를 이용하여, 객체(Object)의 서로 다른 시점(viewpoint) 정보들이 기록된 광 필드 이미지(light field image)를 획득할 수 있다. 일 실시예에 따라, 광 필드 현미경(110)은 객체를 통과한 광 필드를 캡쳐(capture)하여, 광 필드 이미지를 획득할 수 있다. 광 필드는, 빛이 공간 상에서 분포하는 상태를 광선의 분포를 통해 표현하는 개념이다. 이 개념에 따라, 사물에서 반사되거나 발생한 빛은 공간 속을 직진하여 사람의 눈에 들어오는 것으로 정의되며, 3차원 공간은 무수히 많은 광 필드로 구성될 수 있다. 개별적인 광 필드를 수학적으로 표현하는 예시로는 5차원 플레옵틱(Pleoptic) 함수가 사용될 수 있는데, 공간 상의 특정 평면 상에서 광선이 평면을 지나는 점의 3차원 공간 좌표(x,y,z)와 광선이 향하는 공간 방향각 (θ,Φ)에 대한 휘도로 표기할 수 있다. 따라서, 광 필드 현미경(110)은 객체를 통과한 광 필드의 플레옵틱 함수값을 정보화 함으로써 획득할 수 있다. 예를 들어, 광 필드 현미경(110)은 공간 좌표 (x,y,z) 각각에 대하여 객체를 통과한 광 필드의 (θ,Φ) 별 휘도값을 획득할 수 있다. The
광 필드 현미경(110)에 대한 보다 구체적인 내용은 이하 도 2에서 설명하기로 한다.
More specifically, the
도 2는 일 실시예에 따라, 광 필드 현미경이 객체의 광 필드 이미지를 획득하는 보다 구체적인 실시예를 설명하기 위한 도면이다.2 is a diagram for explaining a more specific embodiment in which an optical field microscope acquires an optical field image of an object, according to an embodiment.
광 필드 현미경(110)은 일 실시예에 따라, 광원(202), 대물 렌즈(114), 제 1 렌즈 어레이(112) 및 센서(206)를 포함할 수 있다. 도 2에 도시된 광 필드 현미경(110)은 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.The
광원(202)은 일 실시예에 따라, 소정의 광 필드를 객체(204)를 향해 조사할 수 있다. 객체는 육안의 가시한계를 넘어선 0.1 mm 이하의 크기인 미세한 생물이 될 수 있으며, 일 예로 예쁜꼬마선충(Caenorhabditis elegans)이 될 수 있다. 광원(202)은 일 실시예에 따라, 비 간섭성(incoherent) 광원이 될 수 있다.Light source 202 may illuminate a given light field toward object 204, according to one embodiment. The object can be a microscopic organism with a size of less than 0.1 mm beyond the visible limit of the naked eye, and can be, for example, a pretty nematode (Caenorhabditis elegans). Light source 202 may be an incoherent light source, according to one embodiment.
대물 렌즈(114)는 일 실시예에 따라, 객체(204)를 통과한 광 필드를 포커싱(focusing)할 수 있다. 광 필드 현미경(110)은 대물 렌즈(114)가 높은 분해능(resolving power)을 갖도록 설계할 수 있다. 또한, 광 필드 현미경(110)은 대물 렌즈(114)의 개구수(NA:Numerical Aperture)를 조절하여 높은 분해능을 갖도록 설계할 수 있다.
제 1 렌즈 어레이(112)는 대물 렌즈(114)에 의해 포커싱된 광 필드를 수광할 수 있다. 제 1 렌즈 어레이(112)는 마이크로 크기 단위의 복수의 렌즈들이 2차원 배열로 구성될 수 있다. 일 실시예에 따라, 제 1 렌즈 어레이(112)는 대물 렌즈(114)에 의해 포커싱된 지점에 위치할 수 있다. The
센서(206)는 제 1 렌즈 어레이(112)를 통과한 광 필드를 검출할 수 있다. 또한, 센서(206)는 제 1 렌즈 어레이(112)를 통과한 광 필드를 캡쳐하여, 객체(204)에 대한 광 필드 이미지를 획득할 수 있다. 센서(206)는 일 실시예에 따라, CCD(charge-coupled device)나 CMOS(complementary metal oxide semiconductor)와 같은 이미지 센서가 될 수 있다.The sensor 206 can detect the light field that has passed through the
도 2에서는 설명의 편의를 위해, 객체(204)의 소정의 지점(208)을 통과한 광 필드를 예시로 하여, 객체(204)의 소정의 지점(208)의 시점(viewpoint) 정보를 포함하는 광 필드(209)를 나타내었지만, 객체(204)의 다른 지점에도 마찬가지의 적용이 가능하다. 따라서, 광 필드 현미경(110)은 객체의 서로 다른 시점 정보를 포함하는 광 필드를 캡쳐하여, 객체에 대한 광 필드 이미지를 획득할 수 있다.In FIG. 2, for convenience of explanation, the light field that has passed through a
도 2의 영상(210)은 광 필드 현미경에 의해 획득된 광 필드 이미지의 일부를 나타낸다. The
영상(210)은 제 1 렌즈 어레이(112) 중에 2ⅹ2 렌즈 어레이 영역을 기준으로 센서(206) 내에 캡쳐된 광 필드를 나타낸다. 즉, 영상(210)은 광 필드 이미지의 일부를 나타낸다. 영상(210)은, 대물 렌즈(114)의 F-수(F-number)와 제 1 렌즈 어레이(112)의 F-수가 서로 매칭되지 않기 때문에, 객체의 광 필드가 동그라미 영역(212) 내에 캡쳐될 수 있다. 즉, 대물 렌즈(114) 내의 구경 조리개(aperture stop)가 동그라미 영역(212)을 형성할 수 있다. 또한, 동그라미 영역(212) 내의 네모 영역은 이하 도 3에서 설명할 크로핑을 수행할 영역을 나타낸다.
The
도 1의 프로세서(120)는, 광 필드 현미경(110)에 의해 획득된 광 필드 이미지를 소정의 크기로 크로핑하고, 크로핑된 이미지로부터 객체의 집적 영상(integrated image)을 표시하기 위한 요소 영상(elemental image)을 생성할 수 있다. 일반적으로, 대물 렌즈(114)의 F-수와 제 2 렌즈 어레이(112)의 F-수는 서로 매칭되지 않아, 광 필드 현미경(110)에 의해 획득된 광 필드 이미지로부터 곧바로 생성된 집적 영상은 객체의 3차원 이미지를 왜곡시킬 수 있다. The
따라서, 집적 영상의 왜곡을 방지하기 위해, 프로세서(120)는 대물 렌즈(114)의 F-수 및 제 2 렌즈 어레이(112)의 F-수에 기초하여, 광 필드 현미경(110)에 의해 획득된 광 필드 이미지를 소정의 크기로 크로핑할 수 있다. Therefore, in order to prevent distortion of the integrated image, the
크로핑이란, 소정의 이미지 중 일부 영역을 잘라 내어, 원하는 크기에 맞도록 소정의 이미지의 사이즈를 조절하는 것을 의미한다. 또한, F-수는 하기 수학식 1과 같이 정의될 수 있다.Cropping refers to cropping a portion of a predetermined image to adjust the size of a predetermined image to fit the desired size. Further, the F-number can be defined by the following equation (1).
상기 수학식 1에서, N은 f-number를 의미하고, f는 초점 거리(focal length), p는 렌즈의 직경 길이를 나타내는 피치(pitch), NA는 개구수(Numerical Aperture)를 나타낸다. 프로세서(120)가 광 필드 이미지를 크로핑하는 구체적인 실시예는 도 3 및 도 4에서 살펴보기로 한다.In Equation (1), N denotes f-number, f denotes a focal length, p denotes a pitch indicating the diameter of the lens, and NA denotes a numerical aperture. A specific embodiment in which the
프로세서(120)는, 일 실시예에 따라, 요소 영상의 해상도에 따라, 광 필드 이미지 또는 크로핑된 광 필드 이미지의 크기를 조절할 수 있다. 일 실시예에 따라, 요소 영상의 해상도는 디스플레이 패널(130) 내의 픽셀의 피치 크기와 제 2 렌즈 어레이(140)에 포함된 일 렌즈의 피치 크기에 따라 결정될 수 있다. 구체적인 실시예로, 디스플레이 패널(130)의 피치 크기가 125μm이고, 제 2 렌즈 어레이(140)에 포함된 일 렌즈의 피치 크기가 1mm이면, 요소 영상의 해상도는 8ⅹ8로 결정된다. 따라서, 광 필드 이미지의 해상도가 31ⅹ31이고, 요소 영상의 해상도가 8ⅹ8인 경우, 프로세서(120)는 광 필드 이미지의 해상도를 8ⅹ8로 맞추기 위해, 광 필드 이미지 또는 크로핑된 광 필드 이미지의 크기를 리사이징(resizing)할 수 있다. 리사이징의 예로는 언더샘플링(undersampling)이 있다.The
프로세서(120)는, 일 실시예에 따라, 광 필드 이미지 또는 크로핑된 광 필드 이미지에 소정의 픽셀 매핑(pixel mapping)을 수행할 수 있다. 픽셀 매핑이란, 이미지를 구성하는 픽셀들의 2차원 행렬 내에서, 픽셀의 위치를 변경하거나 픽셀의 소정의 수치를 변경하는 것을 의미한다. 프로세서(120)는, 일 실시예에 따라, 광 필드 이미지로부터 생성되는 집적 영상의 슈도스코픽(pseudoscopic) 문제를 해결하기 위해, 광 필드 이미지 또는 크로핑된 광 필드 이미지에 소정의 픽셀 매핑을 수행할 수 있다. 슈도스코픽 문제란, 객체의 집적 영상이 공간 상에서 표시될 때, 관측자가 객체의 집적 영상을 관측하는 모습이, 관측자가 객체를 직접 관측하는 모습과는 정반대의 원근 관계로 나타나는 것을 의미한다.
일 실시예에 따라, 프로세서(120)는 하기의 수학식 2를 이용하여, 픽셀 매핑을 수행하여 슈도스코픽 문제를 해결할 수 있다.According to one embodiment, the
상기 수학식 2에서, (i, j, s, t)는 제 1 렌즈 어레이(112)의 (i,j) 위치에 해당하는 렌즈 영역을 기준으로 (s,t) 위치에 해당하는 센서(206) 내의 픽셀 좌표값을 의미하고, (i', j', s',t')는 제 2 렌즈 어레이(140)의 (i',j') 위치에 해당하는 렌즈 영역을 기준으로 (s',t') 위치에 해당하는 디스플레이 패널(130) 내의 픽셀 좌표값을 의미한다. 또한, k는 관찰자가 객체의 집적 영상을 보는 거리감을 나타내는 수치이다. 즉, k=0일 때, 집적 영상이 관찰자로부터 제일 가까운 위치에 표시되고, k가 커질수록 집적 영상이 관찰자로부터 더 먼 위치에 표시된다. 또한, n은 제 1 렌즈 어레이 또는 제 2 렌즈 어레이 내의 어느 하나의 렌즈 영역 영역을 기준으로 센서(206) 내의 픽셀의 개수를 나타낸다. 일 실시예에 따라, 프로세서(120)는 상기 수학식 2에서 k=0을 설정할 수 있다. (I, j, t) corresponding to the (s, t) position with respect to the lens region corresponding to the (i, j) position of the
일 실시예에 따라, 프로세서(120)는 광 필드 이미지 또는 크로핑된 광 필드 이미지를 180도 회전시켜 픽셀 매핑을 수행할 수 있다.According to one embodiment, the
따라서, 프로세서(120)는 광 필드 현미경(110)에 의해 획득된 광 필드 이미지를 소정의 크기로 크로핑하여, 객체(204)의 집적 영상을 표시하기 위한 요소 영상을 생성할 수 있다. 또한, 프로세서(120)는, 요소 영상의 해상도에 따라, 광 필드 이미지 또는 크로핑된 광 필드 이미지의 크기를 조절하여, 요소 영상을 생성할 수 있다. 또한, 프로세서(120)는, 광 필드 이미지 또는 크로핑된 광 필드 이미지에 소정의 픽셀 매핑을 수행하여, 요소 영상을 생성할 수 있다.
Accordingly, the
도 1의 디스플레이 패널(130)은 일 실시예에 따라, 프로세서(120)에 의해 생성된 요소 영상을 제 2 렌즈 어레이(140)에 통과 시켜, 객체를 나타내는 집적 영상을 공간 상에 표시할 수 있다. 제 2 렌즈 어레이(140)는 마이크로 크기 단위의 복수의 렌즈들이 2차원 배열로 구성될 수 있으며, 요소 영상을 수광하여 집적 영상을 표시할 수 있다. 즉 제 2 렌즈 어레이(140)는, 일 실시예에 따라, 3차원 집적 영상을 표시하기 위해, 오토스테레오스코픽(autostereoscopic) 3차원 이미지를 위한 광학 소자로써 기능할 수 있다. 디스플레이 패널(130)은 일 실시예에 따라 평판 표시 패널(Flat Display Panel)이 될 수 있다. 디스플레이 패널(130)이 객체의 집적 영상을 표시하는 구체적인 내용은 도 6에서 살펴보기로 한다.The
일 실시예에 따라, 집적 영상 표시 장치(100)는 광 필드 현미경(110)으로부터 획득된 광 필드 이미지에 크로핑 또는 픽셀 매핑과 같은 간단한 이미지 처리를 수행하는 바, 복수의 요소 영상들을 생성하는 속도를 높일 수 있고, 결과적으로 복수의 요소 영상들을 짧은 주기마다 또는 실시간으로 생성할 수 있다. 즉, 객체의 위치 또는 상태가 변화하는 경우, 집적 영상 표시 장치(100)는 실시간으로 생성된 복수의 요소 영상들을 제 2 렌즈 어레이에 순차적으로 통과시켜, 객체의 변화를 실시간으로 반영한 집적 영상을 동영상으로써 표시할 수 있다.
According to one embodiment, the integrated
도 3은 프로세서(120)가 수행하는 크로핑 및 픽셀 매핑의 일 실시예를 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining an embodiment of cropping and pixel mapping performed by the
광 필드 이미지(310)는 제 1 렌즈 어레이(112)를 구성하는 복수의 렌즈들 각각에 대응되는 영역을 기준으로 서로 다른 시점 정보를 포함하는 캡쳐된 광 필드를 나타낸다. The
프로세서(120)는 광 필드 이미지(310)의 각 영역마다 소정의 크기의 영역(315)을 크로핑할 수 있고, 크로핑된 광 필드 이미지(320)를 생성할 수 있다.The
또한, 프로세서(120)는 일 실시예에 따라 크로핑된 광 필드 이미지(320)에 픽셀 매핑을 수행할 수 있다. 예를 들어, 프로세서(120)는 크로핑된 광 필드 이미지(320)를 180도 회전시키는 픽셀 매핑을 수행할 수 있다.In addition, the
따라서, 프로세서(120)는 크로핑된 광 필드 이미지(320)에 픽셀 매핑을 수행하여, 요소 영상(330)을 생성할 수 있다.
Thus, the
도 4는 일 실시예에 따라, 프로세서(120)가 수행하는 크로핑의 일 실시예를 설명하기 위한 도면이다.4 is a diagram for explaining an embodiment of a cropping performed by the
도 4에 도시된 표(410)는 제 1 렌즈 어레이(112), 대물 렌즈(114) 및 제 2 렌즈 어레이(140)의 사양(specification)을 나타낸다.The table 410 shown in FIG. 4 shows the specifications of the
프로세서(120)는, 일 실시예에 따라, 제 1 렌즈 어레이(112) 중 어느 하나의 렌즈 영역을 기준으로 캡쳐된 광 필드 이미지(420) 중 영역(425)을 크로핑할 수 있다. 프로세서(120)는, 대물 렌즈(114)의 F-수와 제 2 렌즈 어레이(112)의 F-수의 비율에 기초하여, 광 필드 이미지(420) 중 영역(425)을 크로핑할 수 있다. 보다 구체적으로, 기 전술한 수학식 1에 의하면, 대물 렌즈(114)의 F-수는 '1'이라는 값이 계산되고, 제 2 렌즈 어레이(112)의 F-수는 '2'라는 값이 계산된다. 따라서, 프로세서(120)는 대물 렌즈(114)의 F-수의 값과 제 2 렌즈 어레이(112)의 F-수의 값의 비율인 1:2에 따라, 100ⅹ100의 픽셀로 이루어진 광 필드 이미지(420) 중 50ⅹ50의 픽셀로 이루어진 영역(425)을 크로핑할 수 있다. 따라서, 프로세서(120)는 제 1 렌즈 어레이(112)에 포함된 복수의 렌즈 영역들 각각에 대해 영역(425)의 크기만큼 크로핑을 수행할 수 있고, 이에 기초하여 요소 영상을 생성할 수 있다.
The
도 5는 일 실시예에 따라, 프로세서(120)가 요소 영상을 생성하는 일 실시예를 나타내는 도면이다.5 is a diagram illustrating an embodiment in which
광 필드 현미경(110)은 초점면(focal plane)에 위치한 글자 'N', 초점면보다 25μm 아래에 위치한 글자 'S' 및 초점면보다 25μm위에 위치한 글자 'U'로 이루어진 객체에 대한 광 필드 이미지(510)를 획득할 수 있다. 즉, 광 필드 현미경(110)은 150 μm 크기의 글자 'S', 'N', 'U'로 이루어진 객체에 대한 서로 다른 시점 정보들이 기록된 광 필드 이미지(510)를 획득할 수 있다. The
프로세서(120)는 대물 렌즈(114)의 F-수 및 제 2 렌즈 어레이(112)의 F-수에 기초하여, 광 필드 이미지(510)를 소정의 크기로 크로핑하여, 크로핑된 광 필드 이미지(520)를 생성할 수 있다. 일 실시예에 따라, 프로세서(120)는 크로핑된 광 필드 이미지(520)의 크기를 리사이징하기 위해 언더샘플링(undersampling)을 수행할 수 있다.The
프로세서(120)는 크로핑된 광 필드 이미지(520)에 소정의 픽셀 매핑을 수행할 수 있다. 일 실시예에 따라, 프로세서(120)는 크로핑된 광 필드 이미지를 180도 회전시켜 픽셀 매핑을 수행하여, 객체의 요소 영상(530)을 생성할 수 있다.
The
도 6은, 디스플레이 패널(130)이 집적 영상을 표시하는 일 실시예를 설명하기 위한 도면이다.6 is a view for explaining an embodiment in which the
디스플레이 패널(130)은 프로세서(120)에 의해 생성된 요소 영상을 제 2 렌즈 어레이(140)에 조사할 수 있다. 디스플레이 패널(130)은 요소 영상을 제 2 렌즈 어레이(140)를 통과시켜 객체(204)를 나타내는 3차원 집적 영상(610)을 공간 상에 표시할 수 있다. 따라서, 관찰자(620)는 객체(204)의 실제 크기보다 확대된 집적 영상(610)을 3차원 공간 상에서 관찰할 수 있다.
The
도 7은, 집적 영상 표시 장치(100)가 객체의 집적 영상을 표시하는 일 실시예를 설명하기 위한 도면이다.7 is a view for explaining an embodiment in which the integrated
광 필드 현미경(110)은 일 실시예에 따라, 객체의 서로 다른 시점 정보들이 기록된 광 필드 이미지(710)를 획득할 수 있다.The
프로세서(120)는 광 필드 이미지(710)를 소정의 크기로 크로핑할 수 있고, 크로핑된 광 필드 이미지로부터 객체의 집적 영상을 표시하기 위한 요소 영상을 생성할 수 있다.The
따라서, 디스플레이 패널(130)은 요소 영상을 제 2 렌즈 어레이(140)에 통과 시켜, 객체의 집적 영상을 공간 상에 표시할 수 있다. Accordingly, the
영상(720)은 공간 상에 표시되는 집적 영상을 나타낸다. 영상(720)은 3차원 영상이 표시된다는 것을 나타내기 위해 5개의 관찰자 위치(위(Top), 중앙(Center), 오른쪽(Right), 왼쪽(Left), 밑(Bottom))에서 바라본 모습들을 나타낸다. 따라서, 영상(720)에서 볼 수 있듯이, 각 모습들마다 시차가 존재한다는 점에서, 3차원 영상이 표시된다는 것을 확인할 수 있다.
The
도 8은, 일 실시예에 따라, 집적 영상 표시 장치(100)(이하, 장치(100)라고 한다.)가 수행하는 집적 영상 표시 방법을 설명하기 위한 도면이다. 8 is a view for explaining an integrated video display method performed by the integrated video display device 100 (hereinafter referred to as the device 100) according to an embodiment.
도 8에 도시된 방법은, 도 1의 장치(100)의 각 구성요소에 의해 수행될 수 있고, 중복되는 내용에 대해서는 설명을 생략한다.The method shown in FIG. 8 can be performed by each component of the
단계 S810에서, 장치(100)는 제 1 렌즈 어레이 및 대물 렌즈를 이용하여, 객체(Object)의 서로 다른 시점(viewpoint) 정보들이 기록된 광 필드 이미지(light field image)를 획득할 수 있다. 일 실시예에 따라, 장치(100)는 객체를 통과한 광 필드를 캡쳐(capture)하여, 광 필드 이미지를 획득할 수 있다. 보다 구체적으로, 장치(100)는 소정의 광 필드를 객체를 향해 조사할 수 있고, 객체를 통과한 광 필드를 제 1 렌즈 어레이가 있는 지점으로 포커싱할 수 있다. 이어서, 장치(100)는 제 1 렌즈 어레이를 통과한 광 필드를 검출하여, 광 필드 이미지를 획득할 수 있다.In step S810, the
단계 S820에서, 장치(100)는 대물 렌즈의 F-수(F-number) 및 제 2 렌즈 어레이의 F-수에 기초하여, 광 필드 이미지를 소정의 크기로 크로핑(cropping)하고, 크로핑된 광 필드 이미지로부터 요소 영상(elemental image)을 생성할 수 있다. In step S820, the
장치(100)는 일 실시예에 따라, 요소 영상의 해상도에 따라, 광 필드 이미지 또는 크로핑된 광 필드 이미지의 크기를 조절할 수 있다. 따라서, 광 필드 이미지의 해상도가 31ⅹ31이고, 요소 영상의 해상도가 8ⅹ8인 경우, 프로세서(120)는 광 필드 이미지의 해상도를 8ⅹ8로 맞추기 위해, 광 필드 이미지 또는 크로핑된 광 필드 이미지의 크기를 리사이징(resizing)할 수 있다. 리사이징의 예로는 언더샘플링(undersampling)이 있다.The
장치(100)는 일 실시예에 따라, 광 필드 이미지 또는 크로핑된 광 필드 이미지에 소정의 픽셀 매핑(pixel mapping)을 수행할 수 있다. 장치(100)는 일 실시예에 따라, 광 필드 이미지로부터 생성되는 집적 영상의 슈도스코픽(pseudoscopic) 문제를 해결하기 위해, 광 필드 이미지 또는 크로핑된 광 필드 이미지에 소정의 픽셀 매핑을 수행할 수 있다. 일 실시예에 따라, 장치(100)는 광 필드 이미지 또는 크로핑된 광 필드 이미지를 180도 회전시켜 픽셀 매핑을 수행할 수 있다.The
따라서, 장치(100)는 광 필드 이미지를 소정의 크기로 크로핑하여, 객체의 3차원 집적 영상을 표시하기 위한 요소 영상을 생성할 수 있다. 또한, 장치(100)는, 요소 영상의 해상도에 따라, 광 필드 이미지 또는 크로핑된 광 필드 이미지의 크기를 조절하여, 요소 영상을 생성할 수 있다. 또한, 장치(100)는, 광 필드 이미지 또는 크로핑된 광 필드 이미지에 소정의 픽셀 매핑을 수행하여, 요소 영상을 생성할 수 있다.Accordingly, the
단계 S830에서, 장치(100)는 요소 영상을 제 2 렌즈 어레이에 통과시켜, 객체를 나타내는 3차원 집적 영상(Integrated Image)을 공간 상에 표시할 수 있다.
In step S830, the
본 발명에 따른 집적 영상 표시 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The integrated image display apparatus and method according to the present invention are not limited to the configuration and the method of the embodiments described above, but the embodiments may be modified so that all or some of the embodiments may be modified Or may be selectively combined.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. The specific implementations described in this embodiment are illustrative and do not in any way limit the scope of the invention. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections.
본 명세서(특히 특허청구범위에서)에서 "상기" 의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In this specification (particularly in the claims), the use of the terms "above" and similar indication words may refer to both singular and plural. In addition, when a range is described, it includes the individual values belonging to the above range (unless there is a description to the contrary), and the individual values constituting the above range are described in the detailed description. Finally, if there is no explicit description or contradiction to the steps constituting the method, the steps may be performed in an appropriate order. It is not necessarily limited to the description order of the above steps. The use of all examples or exemplary terms (e. G., The like) is merely intended to be illustrative of technical ideas and is not to be limited in scope by the examples or the illustrative terminology, except as by the appended claims. It will also be appreciated by those skilled in the art that various modifications, combinations, and alterations may be made depending on design criteria and factors within the scope of the appended claims or equivalents thereof.
Claims (13)
제 2 렌즈 어레이;
상기 대물 렌즈의 F-수(F-number) 및 상기 제 2 렌즈 어레이의 F-수에 기초하여, 상기 광 필드 이미지를 소정의 크기로 크로핑(cropping)하고, 상기 크로핑된 광 필드 이미지로부터 요소 영상(elemental image)을 생성하는 프로세서; 및
상기 요소 영상을 상기 제 2 렌즈 어레이에 통과시켜, 상기 객체를 나타내는 3차원 집적 영상(Integrated Image)을 공간 상에 표시하는 디스플레이 패널;을 포함하고,
상기 광 필드 이미지는
상기 제 1 렌즈 어레이를 구성하는 복수의 렌즈들 각각에 대응되는 영역들을 포함하고,
상기 프로세서는,
상기 대물 렌즈의 F-수 및 상기 제 2 렌즈 어레이의 F-수의 비율에 기초하여, 상기 영역들 내에서 크로핑할 영역의 크기를 결정하고, 상기 결정된 크기에 따라 상기 영역들 각각을 크로핑하고, 상기 크로핑된 영역들로부터 상기 요소 영상을 생성하는, 집적 영상 표시 장치.A light field microscope for acquiring a light field image in which different viewpoint information of an object is recorded using a first lens array and an objective lens;
A second lens array;
The optical field image is cropped to a predetermined size based on the F-number of the objective lens and the F-number of the second lens array, A processor for generating an elemental image; And
And a display panel for passing the elemental image through the second lens array and displaying a three-dimensional integrated image representing the object on a space,
The light field image
Wherein the first lens array includes regions corresponding to each of the plurality of lenses constituting the first lens array,
The processor comprising:
Determining a size of an area to be cropped in the areas based on a ratio of an F-number of the objective lens and an F-number of the second lens array, and cropping each of the areas according to the determined size And generates the elemental image from the cropped regions.
상기 프로세서는,
상기 크로핑된 영역들에 소정의 픽셀 매핑(pixel mapping)을 수행하여 상기 요소 영상을 생성하는, 집적 영상 표시 장치.The method according to claim 1,
The processor comprising:
And performing predetermined pixel mapping on the cropped regions to generate the elementary image.
상기 소정의 픽셀 매핑은,
상기 크로핑된 영역들을 180도 회전 시키는 것인, 집적 영상 표시 장치.3. The method of claim 2,
Wherein the predetermined pixel mapping comprises:
And rotates the cropped regions by 180 degrees.
상기 프로세서는,
상기 요소 영상의 해상도에 따라, 상기 크로핑된 영역들의 크기를 조절하는, 집적 영상 표시 장치.The method according to claim 1,
The processor comprising:
And adjusts the size of the cropped regions according to the resolution of the elementary image.
상기 요소 영상의 해상도는, 상기 디스플레이 패널 내의 픽셀의 피치(pitch) 크기와 상기 제 2 렌즈 어레이 내의 일 렌즈의 피치 크기에 의해 결정되는, 집적 영상 표시 장치.5. The method of claim 4,
Wherein the resolution of the elementary image is determined by a pitch size of pixels in the display panel and a pitch size of one lens in the second lens array.
상기 광 필드 현미경은,
소정의 광 필드를 상기 객체에 조사하는 광원;
상기 객체를 통과한 광 필드를 포커싱하는 상기 대물 렌즈;
상기 포커싱된 광 필드를 수광하는 상기 제 1 렌즈 어레이; 및
상기 제 1 렌즈 어레이를 통과한 광 필드를 검출하여, 상기 광 필드 이미지를 획득하는 센서;를 포함하는, 집적 영상 표시 장치.The method according to claim 1,
In the optical field microscope,
A light source for irradiating the object with a predetermined light field;
The objective lens focusing the light field passing through the object;
The first lens array receiving the focused optical field; And
And a sensor for detecting the light field passing through the first lens array and obtaining the light field image.
상기 프로세서는,
소정의 주기마다 상기 객체에 대한 복수의 요소 영상들을 생성하고,
상기 디스플레이 패널은,
상기 복수의 요소 영상들을 순차적으로 상기 제 2 렌즈 어레이에 통과시켜, 상기 객체의 변화를 반영하는 집적 영상을 동영상으로써 표시하는, 집적 영상 표시 장치. The method according to claim 1,
The processor comprising:
Generating a plurality of element images for the object every predetermined period,
The display panel includes:
And sequentially passes the plurality of elemental images through the second lens array to display an integrated image reflecting a change of the object as a moving image.
상기 대물 렌즈의 F-수(F-number) 및 제 2 렌즈 어레이의 F-수에 기초하여, 상기 광 필드 이미지를 소정의 크기로 크로핑(cropping)하고, 상기 크로핑된 광 필드 이미지로부터 요소 영상(elemental image)을 생성하는 단계; 및
상기 요소 영상을 상기 제 2 렌즈 어레이에 통과시켜, 상기 객체를 나타내는 3차원 집적 영상(Integrated Image)을 공간 상에 표시하는 단계를 포함하고,
상기 광 필드 이미지는
상기 제 1 렌즈 어레이를 구성하는 복수의 렌즈들 각각에 대응되는 영역들을 포함하고,
상기 요소 영상을 생성하는 단계는,
상기 대물 렌즈의 F-수 및 상기 제 2 렌즈 어레이의 F-수의 비율에 기초하여, 상기 영역들 내에서 크로핑할 영역의 크기를 결정하고, 상기 결정된 크기에 따라 상기 영역들 각각을 크로핑하고, 상기 크로핑된 영역들로부터 상기 요소 영상을 생성하는, 집적 영상 표시 방법.Using a first lens array and an objective lens, obtaining a light field image in which different viewpoint information of an object is recorded;
The method comprising: cropping the optical field image to a predetermined size based on an F-number of the objective lens and an F-number of the second lens array; Generating an elemental image; And
Passing the elemental image through the second lens array and displaying a three-dimensional integrated image representing the object on a space,
The light field image
Wherein the first lens array includes regions corresponding to each of the plurality of lenses constituting the first lens array,
Wherein the step of generating the elementary image comprises:
Determining a size of an area to be cropped in the areas based on a ratio of an F-number of the objective lens and an F-number of the second lens array, and cropping each of the areas according to the determined size And generating the elemental image from the cropped regions.
상기 요소 영상을 생성하는 단계는,
상기 크로핑된 영역들에 소정의 픽셀 매핑(pixel mapping)을 수행하는 단계를 더 포함하는, 집적 영상 표시 방법.9. The method of claim 8,
Wherein the step of generating the elementary image comprises:
Further comprising performing predetermined pixel mapping on the cropped regions. ≪ Desc / Clms Page number 13 >
상기 소정의 픽셀 매핑은,
상기 크로핑된 영역들을 180도 회전 시키는 것인, 집적 영상 표시 방법.10. The method of claim 9,
Wherein the predetermined pixel mapping comprises:
And rotating the cropped regions by 180 degrees.
상기 요소 영상을 생성하는 단계는,
상기 요소 영상의 해상도에 따라, 상기 크로핑된 영역들의 크기를 조절하는 단계를 더 포함하는, 집적 영상 표시 방법.9. The method of claim 8,
Wherein the step of generating the elementary image comprises:
Further comprising adjusting the size of the cropped regions according to the resolution of the elemental image.
상기 광 필드 이미지를 획득하는 단계는,
소정의 광 필드를 상기 객체에 조사하는 단계;
상기 객체를 통과한 광 필드를 검출하여, 상기 광 필드 이미지를 획득하는 단계;를 포함하는, 집적 영상 표시 방법.9. The method of claim 8,
Wherein obtaining the light field image comprises:
Irradiating the object with a predetermined light field;
And detecting an optical field passing through the object to obtain the optical field image.
소정의 주기마다 상기 객체에 대한 복수의 요소 영상들을 생성하는 단계; 및
상기 복수의 요소 영상들을 순차적으로 상기 제 2 렌즈 어레이에 통과시켜, 상기 객체의 변화를 반영하는 집적 영상을 동영상으로써 표시하는 단계를 더 포함하는, 집적 영상 표시 방법.9. The method of claim 8,
Generating a plurality of element images for the object at every predetermined period; And
Further comprising the step of sequentially passing the plurality of elemental images through the second lens array and displaying an integrated image reflecting a change of the object as a moving image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140188655A KR101614121B1 (en) | 2014-12-24 | 2014-12-24 | Apparatus and method for displaying integrated image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140188655A KR101614121B1 (en) | 2014-12-24 | 2014-12-24 | Apparatus and method for displaying integrated image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101614121B1 true KR101614121B1 (en) | 2016-04-20 |
Family
ID=55917692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140188655A KR101614121B1 (en) | 2014-12-24 | 2014-12-24 | Apparatus and method for displaying integrated image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101614121B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019112096A1 (en) * | 2017-12-07 | 2019-06-13 | 전자부품연구원 | Viewpoint image mapping method for integrated imaging system using hexagonal lens |
KR102199071B1 (en) * | 2019-09-24 | 2021-01-06 | 상명대학교산학협력단 | Method and apparatus for reconstructing 4D image based on integrated image |
-
2014
- 2014-12-24 KR KR1020140188655A patent/KR101614121B1/en active IP Right Grant
Non-Patent Citations (1)
Title |
---|
M. LEVOY et al., "Recording and controlling the 4D light field in a microscope using microlens arrays", Journal of Microscopy, Vol. 235, Issue 2, pages 144-162, August 2009.* |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019112096A1 (en) * | 2017-12-07 | 2019-06-13 | 전자부품연구원 | Viewpoint image mapping method for integrated imaging system using hexagonal lens |
KR102199071B1 (en) * | 2019-09-24 | 2021-01-06 | 상명대학교산학협력단 | Method and apparatus for reconstructing 4D image based on integrated image |
US11348215B2 (en) | 2019-09-24 | 2022-05-31 | Sangmyung University Industry-Academy Cooperation Foundation | Method and apparatus for reconstructing 4D image based on integral imaging |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5224124B2 (en) | Imaging device | |
US10397545B2 (en) | 3-D light field camera and photography method | |
EP3232248A1 (en) | Transmissive augmented reality near-eye display | |
US11612317B2 (en) | Ophthalmic surgery using light-field microscopy | |
JP2020510241A5 (en) | ||
TWI520574B (en) | 3d image apparatus and method for displaying images | |
JP2020514811A5 (en) | ||
US20180033157A1 (en) | Image processing method and apparatus for determining depth within an image | |
JP2013026844A (en) | Image generation method and device, program, recording medium, and electronic camera | |
EP2787735A1 (en) | Image processing device, image processing method and program | |
JP2020514810A5 (en) | ||
JP2010181826A (en) | Three-dimensional image forming apparatus | |
EP2512146A1 (en) | 3-d video processing device and 3-d video processing method | |
JP2016225811A (en) | Image processing apparatus, image processing method, and program | |
KR101614121B1 (en) | Apparatus and method for displaying integrated image | |
CN107659772B (en) | 3D image generation method and device and electronic equipment | |
US20180131921A1 (en) | Three-dimensional video image display processing device, video information recording medium, video information providing server, and recording medium storing a program | |
JP2006267767A (en) | Image display device | |
CN201060370Y (en) | Naked eye three-dimensional display with sweep function | |
JP2013009864A (en) | Three-dimensional image processing device | |
JP2007199226A (en) | Stereoscopic image observation apparatus | |
EP2553526A1 (en) | Aperture for increasing the parallax in a single lens three dimensional camera | |
KR101831978B1 (en) | Generation method of elemental image contents for display system with rotated lenticular sheet | |
US20240040220A1 (en) | Camera having imaging lenses with varied inter-lens spacings | |
Takaki | Next-generation 3D display and related 3D technologies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |