KR20210151474A - Ultrathin camera device using microlens array, and Multi-functional imaging method using the same - Google Patents
Ultrathin camera device using microlens array, and Multi-functional imaging method using the same Download PDFInfo
- Publication number
- KR20210151474A KR20210151474A KR1020200068343A KR20200068343A KR20210151474A KR 20210151474 A KR20210151474 A KR 20210151474A KR 1020200068343 A KR1020200068343 A KR 1020200068343A KR 20200068343 A KR20200068343 A KR 20200068343A KR 20210151474 A KR20210151474 A KR 20210151474A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- array
- microlens
- camera device
- images
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
- G03B17/12—Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/001—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
- G02B13/0085—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing wafer level optics
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
- G02B21/365—Control or image processing arrangements for digital or video microscopes
- G02B21/367—Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/02—Stereoscopic photography by sequential recording
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H04N5/2254—
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B3/00—Simple or compound lenses
- G02B3/0006—Arrays
- G02B3/0037—Arrays characterized by the distribution or form of lenses
Abstract
Description
본 개시는 이미징 기술에 관한 것이다.This disclosure relates to imaging technology.
최근 비전 기술 분야에서, 획득한 이미지를 이용하여 다양한 어플리케이션을 개발하는 연구들이 수행되고 있다. 하지만 단일 렌즈 또는 듀얼 렌즈로 제공 가능한 어플리케이션에 한계가 있다. Recently, in the field of vision technology, studies are being conducted to develop various applications using acquired images. However, there is a limit to the applications that can be provided with a single lens or a dual lens.
기존의 렌즈는 근거리 물체의 결상면보다 긴 초점거리를 가지고 있어서, 초점 이탈 문제가 있다. 따라서, 기존 카메라는 원거리 이미징과 근거리 이미징을 동시에 수행하는데 한계가 있다. 이를 보완하여, 서로 다른 초점거리를 가지는 마이크로 렌즈를 이용하여 근거리, 중거리, 원거리, 이미징을 할 수 있으나, 각 렌즈에서 획득하는 이미지의 시야각 등이 달라져 이미지 재구성 시 해상도가 낮아지는 문제가 있다. The conventional lens has a longer focal length than the imaging plane of a near object, so there is a problem of out of focus. Therefore, the existing camera has a limitation in performing both long-distance imaging and near-field imaging at the same time. To compensate for this, short-distance, medium-distance, and long-distance imaging can be performed using micro lenses having different focal lengths, but there is a problem in that the resolution is lowered when reconstructing images due to different viewing angles of images acquired from each lens.
기존 카메라는 롤링셔터 효과에 의해 이미지 왜곡이 발생할 수 있다. 한편 글로벌 셔터 이미지 센서는 롤링셔터 이미지 센서보다 픽셀 레벨 메모리가 필요하고, 포토다이오드의 필 펙터가 낮아 어두운 영역에서 이미징 시 노이즈가 증가하며, 구조가 복잡하여 제작 가격이 비싸다.In conventional cameras, image distortion may occur due to the rolling shutter effect. On the other hand, global shutter image sensors require pixel-level memory than rolling shutter image sensors, have a low fill factor of photodiodes, increase noise during imaging in dark areas, and are expensive to manufacture due to their complex structure.
해결하고자 하는 과제는, 매우 짧은 초점거리를 가지는 마이크로렌즈 어레이(Microlens array)를 이용하여 서로 다른 거리의 다중 평면에 위치한 물체들을 동시에 이미징하고, 획득된 어레이 이미지들을 다양하게 처리하여 다양한 어플리케이션들을 제공하는 초박형 카메라 장치 장치를 제공하는 것이다.The task to be solved is to provide various applications by simultaneously imaging objects located in multiple planes at different distances using a microlens array having a very short focal length, and variously processing the acquired array images. To provide an ultra-thin camera device device.
해결하고자 하는 과제는, 근거리 이미징, 중거리 이미징, 그리고 원거리 이미징을 제공하는 초박형 카메라 장치를 이용하여 현미경 이미지(microscopic image), 3D 깊이 이미지(3D depth image), 고해상도 이미지(high dynamic range(HDR) image) 등을 생성하는 다기능 이미징 방법을 제공하는 것이다.The problem to be solved is a microscopic image, a 3D depth image, and a high dynamic range (HDR) image using an ultra-thin camera device that provides near-field imaging, intermediate-range imaging, and far-field imaging. ), etc. to provide a multifunctional imaging method.
해결하고자 하는 과제는, 롤링셔터 방식의 이미지센서와 마이크로렌즈 어레이를 이용하여 서로 다른 순간의 이미지를 획득하고 이들을 결합하여 하이 프레임레이트 이미지들/고속 이미지들(high-speed images)을 생성하는 초박형 카메라 장치를 제공하는 것이다. The task to be solved is an ultra-thin camera that uses a rolling shutter-type image sensor and a microlens array to acquire images of different instants and combines them to generate high-frame rate images/high-speed images to provide the device.
한 실시예에 따른 카메라 장치로서, 마이크로렌즈들이 배열된 마이크로렌즈 어레이를 포함하는 광학 모듈, 상기 마이크로렌즈 어레이를 통해 들어온 빛을 센싱하여 전기적인 이미지 신호들을 출력하는 이미지 센서, 상기 광학 모듈과 상기 이미지 센서를 이격하여 초점거리를 형성하는 스페이서들, 그리고 상기 이미지 신호들로 생성된 어레이 이미지들을, 물체가 위치한 거리에 따라 지정된 이미징 방법으로 재구성하여 최종 이미지를 출력하는 프로세서를 포함한다. 각 마이크로렌즈는 상기 이미지 센서를 향하여 볼록하게 돌출된 형상이다.As a camera device according to an embodiment, an optical module including a microlens array in which microlenses are arranged, an image sensor sensing light entering through the microlens array and outputting electrical image signals, the optical module and the image A processor for outputting a final image by reconstructing the spacers to form a focal length by separating the sensor, and an imaging method designated according to the distance at which the object is located, the array images generated by the image signals. Each microlens is convexly protruded toward the image sensor.
상기 광학 모듈은 투명 기판, 상기 투명 기판을 통해 들어오는 빛을 투명 소재로 채워진 핀홀들을 통해 상기 마이크로렌즈 어레이로 전달하는 핀홀 어레이 레이어, 그리고 상기 핀홀 어레이 레이어의 핀홀들에 대응하여 배열된 상기 마이크로렌즈 어레이를 포함할 수 있다.The optical module includes a transparent substrate, a pinhole array layer that transmits light entering through the transparent substrate to the microlens array through pinholes filled with a transparent material, and the microlens array arranged to correspond to the pinholes of the pinhole array layer may include.
각 스페이서는 접착제가 도포된 미세 기둥으로서, 일단이 상기 이미지 센서에 고정되고 다른 일단이 상기 광학 모듈에 고정될 수 있다.Each spacer is a micro-pole to which an adhesive is applied, and one end may be fixed to the image sensor and the other end may be fixed to the optical module.
상기 프로세서는 근거리 평면에서 캡쳐된 상기 어레이 이미지들을 스티칭 연결하여 현미경 이미지를 생성할 수 있다.The processor may generate a microscope image by stitching the array images captured in the near plane.
상기 프로세서는 중거리 평면에서 캡쳐된 상기 어레이 이미지들의 시차를 기초로 깊이를 추정하여 3D 깊이 이미지를 생성할 수 있다.The processor may generate a 3D depth image by estimating a depth based on a parallax of the array images captured in a mid-range plane.
상기 프로세서는 원거리 평면에서 캡쳐된 상기 어레이 이미지들을 중첩하여 고해상도 이미지를 생성할 수 있다.The processor may generate a high-resolution image by superimposing the array images captured in a distant plane.
상기 프로세서는 서로 다른 순간에 캡쳐된 상기 어레이 이미지들을 결합하여 하이 프레임레이트 이미지들을 생성할 수 있다.The processor may combine the array images captured at different moments to produce high frame rate images.
상기 프로세서는 상기 마이크로렌즈들에서 보이는 시각 차이를 이용하여 물체가 위치한 거리 평면을 결정할 수 있다.The processor may determine a distance plane in which the object is located by using a visual difference seen by the microlenses.
상기 프로세서는 두 마이크로렌즈 간 거리, 마이크로렌즈의 초점거리, 그리고 상기 시각 차이를 이용하여 계산된 거리가 한 마이크로렌즈의 이미징 범위 이내인 경우, 근거리 평면에 물체가 위한 것으로 판단할 수 있다.When the distance between the two microlenses, the focal length of the microlens, and the distance calculated using the visual difference are within the imaging range of one microlens, the processor may determine that the object is for the near plane.
한 실시예에 따른 프로세서의 다기능 이미징 방법으로서, 평면에 배열된 마이크로렌즈들을 통해 캡쳐된 어레이 이미지들을 획득하는 단계, 그리고 상기 어레이 이미지들을 재구성하여 현미경 이미지, 3D 깊이 이미지, 고해상도 이미지 그리고 하이 프레임레이트 이미지들 중 적어도 하나를 생성하는 단계를 포함한다.A multifunctional imaging method of a processor according to an embodiment, comprising: acquiring array images captured through microlenses arranged in a plane; and reconstructing the array images to obtain a microscope image, a 3D depth image, a high-resolution image, and a high-frame rate image generating at least one of them.
상기 적어도 하나를 생성하는 단계는 적어도 일부의 마이크로렌즈들을 통해 물체의 부분 영역들이 캡쳐된 경우, 상기 어레이 이미지들을 스티칭 연결하여 상기 현미경 이미지를 생성하거나, 각 마이크로렌즈를 통해 보이는 물체의 시야 방향이 다른 경우, 상기 어레이 이미지들의 시차를 기초로 깊이를 추정하여 상기 3D 깊이 이미지를 생성하거나, 각 마이크로렌즈를 통해 보이는 물체의 시야 방향이 동일한 경우, 상기 어레이 이미지들을 중첩하여 상기 고해상도 이미지를 생성할 수 있다.In the generating of the at least one, when partial regions of an object are captured through at least some microlenses, the array images are stitched and connected to generate the microscopic image, or the viewing direction of the object viewed through each microlens is different. In this case, the 3D depth image is generated by estimating the depth based on the parallax of the array images, or when the viewing directions of objects seen through each microlens are the same, the high-resolution image can be generated by overlapping the array images .
상기 적어도 하나를 생성하는 단계는 각 마이크로렌즈를 통해 서로 다른 순간에 캡쳐된 상기 어레이 이미지들을 결합하여 상기 하이 프레임레이트 이미지들을 생성할 수 있다.The generating of the at least one may generate the high frame rate images by combining the array images captured at different moments through each microlens.
상기 적어도 하나를 생성하는 단계는 상기 마이크로렌즈들에서 보이는 시각 차이를 이용하여 물체가 위치한 거리 평면을 결정하고, 결정된 거리 평면에 지정된 이미징 방법으로 상기 어레이 이미지들을 재구성하여 최종 이미지를 생성할 수 있다.In the generating of the at least one, a distance plane on which an object is located is determined using a visual difference seen by the microlenses, and the array images are reconstructed by an imaging method specified in the determined distance plane to generate a final image.
상기 어레이 이미지들은, 초점거리가 고정된 상기 마이크로렌즈들을 통해 캡쳐되고, 상기 마이크로렌즈들에서 보이는 시각 차이에 따라 상기 어레이 이미지들의 재구성 방법이 달라질 수 있다.The array images are captured through the microlenses having a fixed focal length, and a method of reconstructing the array images may vary according to a visual difference seen from the microlenses.
상기 마이크로렌즈들은 투명 소재로 채워진 핀홀들이 형성된 핀홀 어레이 레이어에서 상기 핀홀들에 맞춰 형성되고, 상기 핀홀들을 통해 들어오는 빛을 굴절하여 이미지 센서에 초점을 형성할 수 있다.The microlenses may be formed to match the pinholes in a pinhole array layer in which pinholes filled with a transparent material are formed, and may refract light entering through the pinholes to form a focus on the image sensor.
실시예에 따르면, 초박형 카메라 장치를 이용하여 다중 평면에 위치한 물체들을 동시에 이미징할 수 있고, 매우 빠르게 움직이는 물체를 서로 다른 순간에 이미징할 수 있어서, 근거리의 현미경 이미징, 중거리의 3차원 이미징, 원거리의 고해상도 이미징, 그리고 고속 이미징 등의 다기능 어플리케이션들을 제공할 수 있다.According to an embodiment, the ultra-thin camera device can be used to simultaneously image objects located in multiple planes, and to image a very fast moving object at different instants, so that microscopic imaging at a short distance, three-dimensional imaging at a medium distance, and three-dimensional imaging at a distance It can provide multifunctional applications such as high-resolution imaging and high-speed imaging.
실시예에 따르면, 초박형 카메라 장치는 매우 짧은 초점거리를 가지고 있어서, 원거리 이미징뿐만 아니라, 매우 가까운 물체를 초점 이탈 없이 이미징할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 지문 인식, 피부 촬영과 같이 다양한 용도의 근접 촬영이 가능하고, 현미경 이미지를 생성할 수 있다. According to an embodiment, the ultra-thin camera device has a very short focal length, so that not only long-distance imaging but also very close objects can be imaged without defocusing. According to an embodiment, the ultra-thin camera device may perform close-up photography for various uses, such as fingerprint recognition and skin imaging, and may generate a microscope image.
실시예에 따르면, 초박형 카메라 장치는 동일한 시야각과 동일한 피치(pitch)를 가지고 있어서 물체의 위치에 따라 중첩되는 정도를 통하여 물체의 거리를 예측할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 물체의 거리 정보를 기초로 이미지들을 재구성하여 3D 이미지를 생성할 수 있다.According to an embodiment, since the ultra-thin camera device has the same viewing angle and the same pitch, the distance of the object may be predicted through the degree of overlap depending on the location of the object. According to an embodiment, the ultra-thin camera device may generate a 3D image by reconstructing the images based on the distance information of the object.
실시예에 따르면, 초박형 카메라 장치는 렌즈들로부터 획득된 이미지들을 중첩하여 고해상도 이미지를 생성할 수 있다.According to an embodiment, the ultra-thin camera device may generate a high-resolution image by superimposing images obtained from lenses.
실시예에 따르면, 초박형 카메라 장치는 롤링셔터 효과에 의한 이미지 왜곡을 줄이면서, 매우 빠르게 움직이는 물체를 순간 캡쳐하여 하이 프레임레이트 이미지들을 생성할 수 있다.According to an embodiment, the ultra-thin camera device may generate high frame rate images by momentarily capturing a very fast moving object while reducing image distortion caused by the rolling shutter effect.
실시예에 따르면, 초박형 카메라 장치는 초박형으로 제작되기 때문에, 스마트폰, 드론 등 초소형 기기에 탑재될 수 있다.According to an embodiment, since the ultra-thin camera device is manufactured to be ultra-thin, it may be mounted on a micro device such as a smartphone or a drone.
도 1은 한 실시예에 따른 초박형 카메라 장치의 구성도이다.
도 2는 한 실시예에 따른 초박형 카메라 장치의 다기능 어플리케이션을 설명하는 도면이다.
도 3은 한 실시예에 따른 마이크로렌즈 어레이를 이용하여 다중 평면의 거리 범위를 결정하는 방법을 설명하는 도면이다.
도 4는 한 실시예에 따른 초박형 카메라 장치의 근거리 이미징을 설명하는 도면이다.
도 5는 한 실시예에 따른 초박형 카메라 장치의 근거리 이미징 결과를 설명하는 도면이다.
도 6과 도 7은 한 실시예에 따른 초박형 카메라 장치의 중거리 이미징 결과를 설명하는 도면이다.
도 8은 한 실시예에 따른 초박형 카메라 장치의 원거리 이미징 결과를 설명하는 도면이다.
도 9는 롤링셔터 현상을 설명하는 도면이다.
도 10과 도 11 각각은 한 실시예에 따른 초박형 카메라 장치의 하이 프레임 레이트 이미징 결과를 설명하는 도면이다.
도 12는 한 실시예에 따른 초박형 카메라 장치의 패키징 방법을 설명하는 도면이다.
도 13은 한 실시예에 따른 초박형 카메라 장치의 다기능 이미징 방법의 흐름도이다.1 is a configuration diagram of an ultra-thin camera device according to an embodiment.
2 is a view for explaining a multi-function application of the ultra-thin camera device according to an embodiment.
3 is a view for explaining a method of determining a distance range of a multi-plane using a microlens array according to an embodiment.
4 is a view for explaining short-distance imaging of an ultra-thin camera device according to an embodiment.
5 is a view for explaining a short-distance imaging result of the ultra-thin camera device according to an exemplary embodiment.
6 and 7 are diagrams for explaining a mid-range imaging result of the ultra-thin camera device according to an exemplary embodiment.
8 is a view for explaining a long-distance imaging result of the ultra-thin camera device according to an embodiment.
9 is a view for explaining the rolling shutter phenomenon.
10 and 11 are diagrams for explaining a high frame rate imaging result of the ultra-thin camera device according to an exemplary embodiment.
12 is a view for explaining a packaging method of an ultra-thin camera device according to an embodiment.
13 is a flowchart of a multi-function imaging method of an ultra-thin camera device according to an embodiment.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part "includes" a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as “…unit”, “…group”, and “module” described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. have.
도 1은 한 실시예에 따른 초박형 카메라 장치의 구성도이다.1 is a configuration diagram of an ultra-thin camera device according to an embodiment.
도 1을 참고하면, 초박형 카메라 장치(100)는 마이크로렌즈 어레이(Microlens array)를 이용하여 서로 다른 거리의 다중 평면에 위치한 물체들을 동시에 이미징하고, 다중 평면 이미징을 통하여 획득된 어레이 이미지들을 다양하게 처리하여 다양한 어플리케이션들을 제공할 수 있다. 초박형 카메라 장치(100)는 예를 들면, 근거리 이미징을 통해 생성한 현미경 이미지(microscopic image), 중거리 이미징을 통해 생성한 3D 깊이 이미지(3D depth image), 원거리 이미징을 통해 생성한 고해상도 이미지(high dynamic range(HDR) image) 등을 제공할 수 있고, 서로 다른 순간에 캡쳐된 이미지들로 구성된 하이 프레임레이트 이미지들(고속 이미지들)을 제공할 수 있다.Referring to FIG. 1 , the
이러한 초박형 카메라 장치(100)는 투명 기판(glass wafer)(110) 및 마이크로렌즈 어레이(120)를 포함하는 광학 모듈, 마이크로렌즈 어레이(120)를 통해 들어온 빛을 센싱하여 전기적인 이미지 신호를 출력하는 이미지 센서(image sensor)(130), 그리고 광학 모듈과 이미지 센서(130)를 이격하여 초점거리를 형성하는 스페이서(140)를 포함한다. 초박형 카메라 장치(100)는 이미지 센서(130)에서 센싱된 이미지 신호들을 처리하는 프로세서(200)를 더 포함할 수 있다. 편의상 마이크로렌즈 어레이(120)를 포함하는 광학 모듈, 이미지 센서(image sensor)(130), 그리고 스페이서(140)는 패키징된 카메라 모듈이라고 부른다. 초박형 카메라 장치(100)는 이미지 신호 및 이미지를 저장하는 메모리를 더 포함할 수 있다.This
초박형 카메라 장치(100)의 광학 모듈은 투명 기판(110)을 통해 들어오는 빛을 마이크로렌즈 어레이(120)로 전달하는 핀홀 어레이 레이어(Pinhole array layer)(150)를 더 포함할 수 있다. 핀홀 어레이 레이어(150)는 빛을 흡수하는 소재의 흡수 레이어에, 투명 소재로 채워진 핀홀이 마이크로렌즈 어레이(120)의 패턴에 대응하여 형성된다. 투명 소재의 핀홀로만 빛이 통과하고, 핀홀 이외에서는 빛을 흡수하여 마이크로렌즈 어레이(120)로 전달되는 빛이 차단(block)된다. 핀홀 어레이 레이어(150)는 빛을 흡수하는 흡수 레이어와 빛을 통과시키는 투명 레이어가 교대로 적층된 멀티레이어 구조로 제작될 수 있다. 이때, 흡수 레이어는 마이크로렌즈 어레이(120)의 패턴에 대응하여 제작된 마스크 패턴에 의해 개구부가 형성될 수 있다. 핀홀은 카메라의 조리개(aperture) 역할을 할 수 있다.The optical module of the
투명 기판(110)은 빛을 통과시킬 수 있는 투명한 유리 소재로 제작된 기판일 수 있다. The
마이크로렌즈 어레이(120)는 마이크로 스케일의 마이크로렌즈(121)가 복수 개 배열된 구조로서, 예를 들면, 평면 격자 패턴으로 배열된 마이크로렌즈들을 포함할 수 있다. 각 마이크로렌즈(121)는 핀홀 어레이 레이어(150)의 핀홀에 맞춰 형성(align)되고, 볼록하게 돌출된 형상을 가진다. 마이크로렌즈(121)는 투명 기판(110)을 통해 들어오는 빛을 굴절시켜서 이미지 센서(130)에 초점을 형성하는데, 핀홀 어레이 레이어(150)의 핀홀을 통해 들어오는 빛만 수신할 수 있다. 이때, 마이크로렌즈(121)는 매우 짧은 초점거리를 가지기 때문에 초박형의 카메라가 제작될 수 있다. The
마이크로렌즈 어레이(120)는 마이크로렌즈(121)의 볼록면이 이미지 센서(130)를 향하도록 패키징된다. 이를 통해, 마이크로렌즈 어레이(120)는 핀홀 어레이 레이어(150)를 통해 들어오는 빛을 이미지 센서(130)로 집광할 수 있다.The
이미지 센서(130)는 스페이서(140)에 의해 핀홀 어레이 레이어(150)와 이격되고, 마이크로렌즈 어레이(120)를 통과한 빛을 수신한다. 이미지 센서(130)는 예를 들면, CMOS 이미지 센서일 수 있으나, 이미지 센서의 종류는 다양할 수 있다. 이미지 센서(130)는 마이크로렌즈 어레이(120)를 통해 들어오는 빛을 전기 신호로 변환하는 장치로서, RGB 컬러 필터를 통해, 적색 채널, 녹색 채널, 청색 채널에 해당하는 빛을 감지하여 해당 색상의 세기를 나타내는 신호를 출력할 수 있다.The
스페이서(140)는 마이크로렌즈 어레이(120)를 포함하는 광학 모듈과 이미지 센서(130)를 초점거리만큼 이격하여 결합한다. 스페이서(140)는 미세 기둥으로 제작되고, 에폭시 접착제(Epoxy Adhesive)를 통해 미세 기둥의 양단이 이미지 센서(130)와 광학 모듈에 부착될 수 있다. 이를 통해, 초박형 카메라 장치 패키징이 가능할 수 있다. 여기서, 스페이서(140)가 부착되는 광학 모듈은 마이크로렌즈 어레이(120)가 형성된 투명 기판(110)이나 핀홀 어레이 레이어(150)일 수 있다. 스페이서(140)의 위치는 다양하게 설계될 수 있다. 스페이서(140)의 높이는 마이크로렌즈(121)의 초점거리와 같고, 마이크로렌즈(121)의 초점심도에 따라서 미세 기둥 높이의 공차가 설정될 수 있다. The
한편, 기존의 마이크로렌즈 어레이를 이용한 카메라는 초점거리가 짧은 렌즈를 패키징하기 어려워 근거리 이미징을 수행하는데 한계가 있었다. 즉, 근거리 이미징을 초점 이탈 없이 하기 위해서는 약 초점거리 170 μm의 렌즈를 정밀하게 이미지 센서와 패키징해야 하기 때문이다. 이러한 문제를 해결하기 위해, 디스펜서를 이용하여 에폭시를 도포하여 이미지 센서(130)에 스페이서(140)를 고정 한 후, 플립칩 본딩 기법을 이용하여 이미지 센서(130)에 맞춰(align) 마이크로렌즈 어레이(120)를 포함하는 광학 모듈과 이미지 센서(130)를 정밀하게 패키징할 수 있다.On the other hand, the conventional camera using a microlens array has a limitation in performing short-range imaging because it is difficult to package a lens having a short focal length. That is, in order to perform close-range imaging without defocus, a lens with a focal length of about 170 μm must be precisely packaged with the image sensor. In order to solve this problem, the
프로세서(200)는 이미지 센서(130)에서 출력된 이미지 신호들을 이용하여 복수의 마이크로렌즈들에 의해 이미징된 복수의 이미지들(어레이 이미지들)을 생성할 수 있다. 그리고 프로세서(200)는 어레이 이미지들을 다양한 이미지 프로세싱 알고리즘으로 처리하여, 현미경 이미지, 3D 깊이 이미지, 고해상도 이미지, 하이 프레임레이트 이미지들을 생성할 수 있다. 마이크로렌즈에서 획득된 이미지와 마이크로렌즈들에서 획득된 이미지들을 재구성하여 생성된 이미지를 구분하기 위해, 마이크로렌즈에서 획득된 이미지를 어레이 이미지라고 부른다. 그리고, 각 마이크로렌즈를 통한 이미징을 구분하기 위해, 마이크로렌즈별로 채널 식별자를 부여하여 구분할 수 있다.The
한편, 프로세서(200)는 이미지 센서(130)에서 획득된 전기적인 이미지 신호들을 처리하여 어레이 이미지들을 생성하는 프로세서와, 어레이 이미지들을 다양한 이미지 프로세싱 알고리즘으로 처리하는 프로세서로 분리될 수 있다. 예를 들면, 초박형 카메라 장치(100)를 탑재한 장치의 메인 프로세서가, 다기능 이미징 어플리케이션을 실행하고, 어레이 이미지들을 다양한 이미지 프로세싱 알고리즘으로 처리하여, 현미경 이미지, 3D 깊이 이미지, 고해상도 이미지, 하이 프레임레이트 이미지들을 생성할 수 있으나, 설명에서는 프로세서(200)가 다기능 이미징 처리를 한다고 가정한다. Meanwhile, the
도 2는 한 실시예에 따른 초박형 카메라 장치의 다기능 어플리케이션을 설명하는 도면이다.2 is a view for explaining a multi-function application of the ultra-thin camera device according to an embodiment.
도 2를 참고하면, 곤충은 패싯 렌즈들(facet lenses)로부터 획득된 시각 정보를 통해 한번에 물체에 대한 많은 장면들을 캡쳐한다. 초박형 카메라 장치(100)는 이러한 곤충 입체시(insect stereosis)를 모사한 장치로서, 패싯 렌즈에 대응하는 마이크로렌즈(121)가 복수 개 배열된 마이크로렌즈 어레이(120)를 이미지 센서(130)와 결합하여 이미징한다. 이때, 렌즈와 렌즈 사이의 빛을 차단하는 색소 세포(pigment cells)는, 빛을 흡수하는 흡수 레이어에 핀홀들이 형성된 핀홀 어레이 레이어(150)로 모사될 수 있다.Referring to FIG. 2 , the insect captures many scenes of an object at once through visual information obtained from facet lenses. The
초박형 카메라 장치(100)는 마이크로렌즈 어레이(120)를 통해 초점이 맞는 어레이 이미지들을 캡쳐할 수 있는데, 물체와의 거리에 따라 각 마이크로렌즈에서 보이는 관측범위(Field-of- view)가 다르다. 따라서, 초박형 카메라 장치(100)는 거리에 따라 관측범위가 다르게 캡쳐된 어레이 이미지들을 서로 다른 방법으로 재구성하여, 근거리, 중거리, 원거리의 다중 평면에 위치한 물체를 이미징할 수 있다. The
예를 들어, 근거리에 위치한 물체(10)의 경우, 물체를 클로즈업한 각 마이크로렌즈를 통해 물체(10)의 부분 영역이 캡쳐된다. 따라서, 초박형 카메라 장치(100)는 물체의 부분 영역이 획득된 어레이 이미지들을 하나로 결합하여 하나의 현미경 이미지(300)를 생성할 수 있다. 예를 들면, 초박형 카메라 장치(100)는 이미지 스티칭(image stitching) 기법을 이용하여, 각 마이크로렌즈에서 획득된 이미지들의 유사 패턴을 찾고, 유사한 부분들을 연결하여 하나의 큰 파노라믹 이미지를 생성할 수 있다.For example, in the case of the
중거리에 위치한 물체(20, 22)의 경우, 각 마이크로렌즈를 통해 보이는 물체의 시야 방향이 다르다. 따라서, 초박형 카메라 장치(100)는 어레이 이미지들의 시차(disparity)를 추출하고, 시차를 기초로 각 물체의 깊이(거리)를 추정한다. 초박형 카메라 장치(100)는 깊이 정보를 포함하는 3D 깊이 이미지(400)를 생성할 수 있다. 초박형 카메라 장치(100)는 각 마이크로렌즈에서 획득된 이미지들에서 물체들을 추출하고, 어레이 이미지들을 중첩하여 각 물체의 시차를 추출할 수 있다. In the case of the
원거리에 위치한 물체(30)의 경우, 각 마이크로렌즈를 통해 물체(30)가 동일한 시야 방향으로 캡쳐된다. 즉, 각 어레이 이미지가 동일하게 물체(30)를 포함할 수 있다. 따라서, 초박형 카메라 장치(100)는 어레이 이미지들을 중첩하여 고해상도 이미지(500)를 생성할 수 있다. 초박형 카메라 장치(100)는 어레이 이미지들을 마이크로렌즈의 중심을 기준으로 정렬한 후, 어레이 이미지들을 보간법을 통하여 업샘플링(upsampling)하여 이미지 해상도를 높일 수 있다.In the case of the
또한, 원거리에 위치한 물체(32)의 경우, 이미지 센서의 롤링셔터 효과에 의해, 롤링셔터 방향의 각 마이크로렌즈를 통해 물체(32)가 순차적으로 캡쳐될 수 있다. 초박형 카메라 장치(100)는 상대적으로 짧은 시간에 캡쳐된 어레이 이미지들을 결합하여, 하이 프레임 레이트 이미지들(600)을 생성할 수 있다.In addition, in the case of the
도 3은 한 실시예에 따른 마이크로렌즈 어레이를 이용하여 다중 평면의 거리 범위를 결정하는 방법을 설명하는 도면이다.3 is a view for explaining a method of determining a distance range of a multi-plane using a microlens array according to an embodiment.
도 3을 참고하면, 물체가 위치하는 평면은 각 렌즈에서 보이는 시각 차이를 이용하여 근거리, 중거리, 원거리로 구분될 수 있다. 초박형 카메라 장치(100)는 물체의 위치에 따라 중첩되는 정도를 통하여 물체의 거리를 예측할 수 있다.Referring to FIG. 3 , a plane on which an object is positioned may be divided into a short-distance, a medium-distance, and a long-distance using a visual difference seen from each lens. The
(a)를 참고하면, 두 렌즈의 시각 차이(x-x')는 수학식 1과 같이 정의될 수 있다. 수학식 1에서, B는 두 렌즈 간 거리(baseline)이고, f는 초점거리이며, z는 렌즈에서 물체(P)까지의 수직 거리이다. Referring to (a), the visual difference (x-x') between the two lenses may be defined as in
다중 평면은 표 1과 같이 거리 범위로 구분될 수 있다. 표 1에서, d는 한 렌즈의 이미징 범위이다.Multi-planes can be divided into distance ranges as shown in Table 1. In Table 1, d is the imaging range of one lens.
(b)를 참고하면, 렌즈들이 보는 영역이 중첩될 수 있는데, 렌즈로부터의 거리가 멀어질수록 중첩 범위가 증가한다. Referring to (b), the areas viewed by the lenses may overlap. As the distance from the lens increases, the overlapping range increases.
이처럼, 초박형 카메라 장치(100)는 초점거리가 매우 짧은 마이크로렌즈 어레이(120)를 이용하여, 중거리 및 원거리 이미징 뿐만 아니라, 근거리 이미징도 할 수 있다. 마이크로렌즈 어레이(120)를 패키징하는 것이 쉽지 않은데, 플립칩 본딩으로 마운트한 스페이서(140)를 이용하여 마이크로렌즈 어레이(120)와 이미지 센서(130)를 패키징할 수 있다.As such, the
도 4는 한 실시예에 따른 초박형 카메라 장치의 근거리 이미징을 설명하는 도면이고, 도 5는 한 실시예에 따른 초박형 카메라 장치의 근거리 이미징 결과를 설명하는 도면이다.FIG. 4 is a diagram illustrating short-range imaging of the ultra-thin camera device according to an embodiment, and FIG. 5 is a diagram illustrating a short-distance imaging result of the ultra-thin camera device according to an embodiment.
도 4를 참고하면, 초박형 카메라 장치(100)는 핀홀 어레이 레이어(150) 및 마이크로렌즈 어레이(120)를 통해 직경이 작은 조리개(aperture)를 가진다.Referring to FIG. 4 , the
조리개(aperture) 크기와 물체 거리에 따라 초점이 맞춰진 평면을 살펴 보면, 상용 카메라는 근거리의 물체에서 초점 이탈(out of focus)이 발생해서 흐릿한 이미지를 캡처하는 반면, 초박형 카메라 장치(100)는 모든 근거리에서 초점 이탈 없이 선명한 이미지를 획득할 수 있다. 이는 가우스 렌즈 공식(1/a+1/b=1/f)에 의하여 초점거리가 긴 상용렌즈는 물체의 거리가 가까워지면 이미지 결상면에서의 거리변화가 커서 점차 물체가 가까워지면 초점거리로부터 멀어지는 반면, 초점거리가 짧은 마이크로렌즈는 물체와의 거리가 가까워져도 결상면에서의 거리변화가 작아서, 물체가 가까워져도 초점거리로부터 멀어지지 않기 때문이다. When looking at a plane focused according to the size of the aperture and object distance, commercial cameras capture blurry images due to out of focus at near objects, whereas the
이처럼, 마이크로렌즈의 짧은 초점 거리는 초박형 카메라 장치(100)가 근거리에서 원거리까지 올인 포커스(all-in-focus) 이미징을 할 수 있도록 하고, 최소 물체 거리(minimum object distance, MOD)를 줄일 수 있다. 여기서, 최소 물체 거리는 선명한 이미지를 얻을 수 있는 카메라에서 가장 가까운 물체 거리를 의미한다.As such, the short focal length of the microlens enables the
도 5의 (a)를 참고하면, 초박형 카메라 장치(100)는 마이크로렌즈 어레이(120)의 각 마이크로렌즈를 통해 근거리에 위치한 물체를 이미징할 수 있다. 근거리 이미징 결과는 마이크로렌즈들을 통해 획득된 어레이 이미지들로서, 각 어레이 이미지는 물체의 부분 영역을 포함할 수 있다.Referring to FIG. 5A , the
(b)를 참고하면, 초박형 카메라 장치(100)는 근거리 이미징으로 획득한 어레이 이미지들을 결합하여 하나의 현미경 이미지를 생성할 수 있다. 초박형 카메라 장치(100)는 이미지 스티칭 기법을 이용하여, 각 마이크로렌즈에서 획득된 이미지들을 연결하여 하나의 큰 파노라믹 이미지를 생성할 수 있다.Referring to (b), the
도 6과 도 7은 한 실시예에 따른 초박형 카메라 장치의 중거리 이미징 결과를 설명하는 도면이다.6 and 7 are diagrams for explaining a mid-range imaging result of the ultra-thin camera device according to an exemplary embodiment.
도 6을 참고하면, (a)는 초박형 카메라 장치(100)를 통해 중거리에 위치한 다양한 거리의 물체들을 이미징한 결과이다. 어레이 이미지들은 각 마이크로렌즈에서 물체를 바라보는 시야 방향이 다르다. 예를 들면, 숫자 2의 블록이 숫자 1의 블록과 중첩되는 범위가 렌즈 위치에 따라서 다르게 보이는 것을 확인할 수 있다. 여기서, 채널은 마이크로렌즈를 통해 획득된 어레이 이미지를 구분하기 위해 부여될 수 있다.Referring to FIG. 6 , (a) is a result of imaging objects of various distances located at an intermediate distance through the
(b)는 물체 거리(object distance)에 따른 시차(disparity)의 관계 그래프이고, (c)는 마이크로렌즈간 발생하는 시차(disparity)와 물체 거리의 관계를 설명하는 도면이다. 중거리 범위의 다양한 거리에 위치한 물체를 이용하여 각 마이크로렌즈의 시차(disparity)를 확인한 결과, 렌즈간의 거리가 멀어질수록 시차가 커지고, 물체의 거리가 가까울수록 시차가 커지는 것을 알 수 있다.(b) is a graph of the relationship between disparity according to the object distance, and (c) is a diagram for explaining the relationship between disparity and object distance occurring between microlenses. As a result of checking the disparity of each microlens using objects located at various distances in the intermediate range, it can be seen that the disparity increases as the distance between the lenses increases, and the disparity increases as the distance between the objects increases.
도 7을 참고하면, (a)는 중거리 이미징 결과를 이용한 Red-cyan 애너글리프(anaglyph) 결과이고, (b)는 중거리 이미징을 통하여 획득한 깊이 추정 결과이다. Referring to FIG. 7 , (a) is a result of Red-cyan anaglyph using medium-range imaging results, and (b) is a result of depth estimation obtained through medium-range imaging.
초박형 카메라 장치(100)는 중거리 이미징으로 획득한 어레이 이미지들을 이용하여, Red-cyan 애너글리프 (anaglyph) 시차(disparity)를 추출하고, 시차를 기초로 각 물체의 깊이(거리)를 추정할 수 있다. 초박형 카메라 장치(100)는 깊이 정보를 포함하는 3D 깊이 이미지를 생성할 수 있다.The
도 8은 한 실시예에 따른 초박형 카메라 장치의 원거리 이미징 결과를 설명하는 도면이다.8 is a view for explaining a long-distance imaging result of the ultra-thin camera device according to an embodiment.
도 8을 참고하면, (a)는 초박형 카메라 장치(100)를 통해 원거리에 위치한 물체를 이미징한 결과이고, (b)는 어레이 이미지들 중 특정 렌즈를 통해 획득한 이미지이며, (c)는 어레이 이미지들을 결합하여 획득한 이미지로서, 대비 및 선명도가 증가한 것을 확인할 수 있다. Referring to FIG. 8 , (a) is a result of imaging a distant object through the
초박형 카메라 장치(100)는 어레이 이미지들을 중첩하여 고해상도 이미지를 생성할 수 있다. The
도 9는 롤링셔터 현상을 설명하는 도면이고, 도 10과 도 11 각각은 한 실시예에 따른 초박형 카메라 장치의 하이 프레임 레이트 이미징 결과를 설명하는 도면이다.9 is a view for explaining a rolling shutter phenomenon, and each of FIGS. 10 and 11 is a view for explaining a high frame rate imaging result of the ultra-thin camera device according to an embodiment.
도 9을 참고하면, (a)는 단일 렌즈 카메라의 이미징 방법이고, (b)는 마이크로렌즈 어레이를 이용한 초박형 카메라 장치(100)의 이미징 방법을 개념적으로 설명한 도면이다.Referring to FIG. 9 , (a) is an imaging method of a single-lens camera, and (b) is a diagram conceptually explaining an imaging method of the
단일 렌즈 카메라는 하나의 렌즈에 하나의 이미지 센서를 이용하고, 주로 사용되는 롤링셔터 방식의 이미지 센서는 시간 순으로 영상을 저장한다. 따라서, 단일 렌즈 카메라는 빠르게 움직이는 물체의 경우, 이미지 왜곡이 발생한다. A single-lens camera uses one image sensor for one lens, and a rolling shutter type image sensor that is mainly used stores images in chronological order. Therefore, single-lens cameras cause image distortion in the case of fast-moving objects.
반면, 초박형 카메라 장치(100)는 하나의 이미지 센서로 여러 개의 마이크로렌즈들의 빛을 이미징하므로, 상대적으로 짧은 시간에 각 마이크로렌즈에서 이미지를 획득할 수 있다. On the other hand, since the
따라서, 초박형 카메라 장치(100)는 롤링셔터의 방향으로 각 마이크로렌즈에서 선명하게 캡쳐된 어레이 이미지들을 얻을 수 있다. Accordingly, the
따라서, 초박형 카메라 장치(100)는 매우 빠르게 움직이는 물체를 왜곡 없이 이미징할 수 있고, 동시에 마이크로렌즈 어레이(120)를 이용하여 서로 다른 순간의 물체를 캡쳐할 수 있고, 어레이 이미지들을 결합하면 하이 프레임 레이트 이미지를 제공할 수 있다. Therefore, the
도 10을 참고하면, (a)는 회전하는 선풍기이고, (b)는 일반 단일 렌즈 카메라에서 1ms의 셔터 스피드로 촬영한 이미지이고, (c)는 초박형 카메라 장치(100)에서 동일한 1ms의 셔터 스피드로 촬영한 어레이 이미지들이며, (d)는 HDR 병합 기술에 의해 각 행의 어레이 이미지들을 병합한 이미지들이다.Referring to FIG. 10 , (a) is a rotating fan, (b) is an image taken with a shutter speed of 1 ms in a general single-lens camera, (c) is a shutter speed of 1 ms in the
(b)는 롤링 셔터 효과의 영향으로 선풍기의 형태가 왜곡되고, 1개의 별이 3개로 보인다. 하지만, (c)의 각 어레이 이미지에 선풍기 형태의 왜곡이 적고, 1개의 별이 보이는 것을 확인할 수 있다. In (b), the shape of the fan is distorted due to the effect of the rolling shutter effect, and one star appears as three. However, it can be seen that in each array image of (c), there is little distortion in the form of a fan, and one star is visible.
도 11을 참고하면, (a)는 6등분의 색원판이고, (b)는 단일 렌즈 카메라에서 획득된 이미지이고, (c-e)는 렌즈 직경이 서로 다른 초박형 카메라 장치(100)에서 획득된 이미지이다. 렌즈 직경은, (c) 300μm. (d) 150μm, (e) 100μm이다. (c-e)를 비교하면, 렌즈 직경이 작아질수록 원판의 색 면적 균일도가 증가하는 것을 확인할 수 있다. 300μm 렌즈로 촬영된 이미지(c)는 초록색의 면적이 크게 이미징되지만, 100μm 렌즈로 촬영된 이미지(e)는 색원판의 면적이 거의 균등하게 이미징된다. Referring to FIG. 11 , (a) is a color disc divided into 6 equal parts, (b) is an image obtained by a single lens camera, and (ce) is an image obtained by an
도 12는 한 실시예에 따른 초박형 카메라 장치의 패키징 방법을 설명하는 도면이다.12 is a view for explaining a packaging method of an ultra-thin camera device according to an embodiment.
도 12를 참고하면, 카메라의 두께가 얇은 초박형 카메라 장치(100)를 제작하기 위해서, 초점거리가 짧은 마이크로렌즈와 이미지 센서를 패키징하는 것이 중요하다. 도 12에서는 마이크로렌즈 어레이(120)가 투명 기판(110)에 부착된 것으로 설명하나, 마이크로렌즈 어레이(120)를 포함하는 광학 모듈은 도 1과 같이, 다양하게 설계될 수 있다.Referring to FIG. 12 , in order to manufacture the
미세 기둥으로 제작된 스페이서(140)의 일단에 접착제인 에폭시를 디스펜싱 기법으로 도포하고 스페이서(140)를 이미지 센서(130)에 고정한다. 스페이서(140)의 다른 일단에 마찬가지로 에폭시를 도포하고, 마이크로렌즈 어레이(120)를 포함하는 광학 모듈을 스페이서(140) 위에 고정한다. 이때, 플립칩 본딩 장비를 이용할 수 있고, 마이크로렌즈 어레이(120)와 이미지 센서(130)를 맞추어 패키징한다. Epoxy, which is an adhesive, is applied to one end of the
스페이서(140)는 모서리 부분에 위치하여 이미지 센서와 렌즈를 고정하지만, 위치는 렌즈의 형태에 따라 변경될 수 있다. 스페이서(140)의 높이는 렌즈의 초점거리이고, 렌즈의 초점심도에 따라서 미세 기둥 높이의 공차를 설정할 수 있다. 접착제와 미세 기둥의 전체 높이가 초점거리와 같도록 제작되어야 한다.The
제작된 초박형 카메라 장치는 1mm 이하의 전장 길이(Total track length)를 가질 수 있다.The manufactured ultra-thin camera device may have a total track length of 1 mm or less.
도 13은 한 실시예에 따른 초박형 카메라 장치의 다기능 이미징 방법의 흐름도이다.13 is a flowchart of a multi-function imaging method of an ultra-thin camera device according to an embodiment.
도 13을 참고하면, 프로세서(200)는 마이크로렌즈 어레이(120)를 통해 캡쳐된 어레이 이미지들을 획득한다(S110). Referring to FIG. 13 , the
프로세서(200)는 마이크로렌즈들에서 보이는 시각 차이를 이용하여 물체가 위치한 거리 평면(예를 들면, 근거리, 중거리, 원거리)을 결정하고, 거리 평면에 지정된 이미징 방법으로 어레이 이미지들을 재구성하여 최종 이미지를 출력한다(S120).The
물체가 위치한 거리 평면이 근거리인 경우, 어레이 이미지들을 스티칭 연결하여 파노라믹 이미지/현미경 이미지를 생성하는 이미지 프로세싱 알고리즘이 지정될 수 있다. 물체가 위치한 거리 평면이 중거리인 경우, 어레이 이미지들의 시차를 기초로 물체의 깊이를 추정하여 3D 깊이 이미지를 생성하는 이미지 프로세싱 알고리즘이 지정될 수 있다. 물체가 위치한 거리 평면이 원거리인 경우, 어레이 이미지들을 중첩하여 고해상도 이미지(HDR 이미지)를 생성하는 이미지 프로세싱 알고리즘이 지정될 수 있다. 또한, 물체가 위치한 거리 평면이 원거리인 경우, 어레이 이미지들을 하이 프레임레이트 이미지들(고속 이미지들)로 생성하는 이미지 프로세싱 알고리즘이 지정될 수 있다. When the distance plane on which the object is located is near, an image processing algorithm for generating a panoramic image/microscopic image by stitching and connecting the array images may be designated. When the distance plane on which the object is located is an intermediate distance, an image processing algorithm for generating a 3D depth image by estimating the depth of the object based on the parallax of the array images may be designated. When the distance plane where the object is located is far away, an image processing algorithm that creates a high-resolution image (HDR image) by superimposing the array images may be specified. In addition, when the distance plane on which the object is located is far, an image processing algorithm that generates array images as high frame rate images (high speed images) may be specified.
이와 같이, 초박형 카메라 장치(100)는 마이크로렌즈 어레이(120)를 이용하여 초점거리 변경 없이 다양한 평면에 있는 물체를 동시에 이미징할 수 있고, 어레이 이미지들을 거리 평면에 따른 이미지 프로세싱 알고리즘으로 재구성하여 다양한 어플리케이션을 제공할 수 있다.As such, the
실시예에 따르면, 초박형 카메라 장치를 이용하여 다중 평면에 위치한 물체들을 동시에 이미징할 수 있고, 매우 빠르게 움직이는 물체를 서로 다른 순간에 이미징할 수 있어서, 근거리의 현미경 이미징, 중거리의 3차원 이미징, 원거리의 고해상도 이미징, 그리고 고속 이미징 등의 다기능 어플리케이션들을 제공할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 매우 짧은 초점거리를 가지고 있어서, 원거리 이미징뿐만 아니라, 매우 가까운 물체를 초점 이탈 없이 이미징할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 지문 인식, 피부 촬영과 같이 다양한 현미경 이미징에 사용될 수 있다. 실시예에 따르면, 초박형 카메라 장치는 동일한 시야각과 동일한 피치(pitch)를 가지고 있어서 물체의 위치에 따라 중첩되는 정도를 통하여 물체의 거리를 예측할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 물체의 거리 정보를 기초로 이미지들을 재구성하여 3D 이미지를 생성할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 렌즈들로부터 획득된 이미지들을 중첩하여 고해상도 이미지를 생성할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 롤링셔터 효과에 의한 이미지 왜곡을 줄이면서, 매우 빠르게 움직이는 물체를 순간 캡쳐하여 하이 프레임레이트 이미징를 생성할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 초박형으로 제작되기 때문에, 스마트폰, 드론 등 초소형 기기에 탑재될 수 있다.According to an embodiment, an ultra-thin camera device can be used to simultaneously image objects located in multiple planes, and to image a very fast moving object at different instants, so that microscopic imaging at a short distance, three-dimensional imaging at a medium distance, and a long distance It can provide multifunctional applications such as high-resolution imaging and high-speed imaging. According to an embodiment, the ultra-thin camera device has a very short focal length, so that not only long-distance imaging but also very close objects can be imaged without defocusing. According to an embodiment, the ultra-thin camera device may be used for various microscopic imaging, such as fingerprint recognition and skin imaging. According to an embodiment, since the ultra-thin camera device has the same viewing angle and the same pitch, the distance of the object may be predicted through the degree of overlap according to the location of the object. According to an embodiment, the ultra-thin camera device may generate a 3D image by reconstructing the images based on the distance information of the object. According to an embodiment, the ultra-thin camera device may generate a high-resolution image by superimposing images obtained from lenses. According to an embodiment, the ultra-thin camera device may generate high frame rate imaging by momentarily capturing a very fast moving object while reducing image distortion caused by the rolling shutter effect. According to an embodiment, since the ultra-thin camera device is manufactured to be ultra-thin, it may be mounted on a micro device such as a smartphone or a drone.
이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiment of the present invention described above is not implemented only through the apparatus and method, and may be implemented through a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto. is within the scope of the right.
Claims (15)
상기 마이크로렌즈 어레이를 통해 들어온 빛을 센싱하여 전기적인 이미지 신호들을 출력하는 이미지 센서,
상기 광학 모듈과 상기 이미지 센서를 이격하여 초점거리를 형성하는 스페이서들, 그리고
상기 이미지 신호들로 생성된 어레이 이미지들을, 물체가 위치한 거리에 따라 지정된 이미징 방법으로 재구성하여 최종 이미지를 출력하는 프로세서를 포함하고,
각 마이크로렌즈는 상기 이미지 센서를 향하여 볼록하게 돌출된 형상인, 카메라 장치.An optical module comprising a microlens array in which microlenses are arranged;
an image sensor that senses light entering through the microlens array and outputs electrical image signals;
Spacers spaced apart from the optical module and the image sensor to form a focal length, and
a processor for outputting a final image by reconstructing the array images generated by the image signals by a designated imaging method according to the distance at which the object is located;
Each microlens has a shape protruding convexly toward the image sensor.
상기 광학 모듈은
투명 기판,
상기 투명 기판을 통해 들어오는 빛을 투명 소재로 채워진 핀홀들을 통해 상기 마이크로렌즈 어레이로 전달하는 핀홀 어레이 레이어, 그리고
상기 핀홀 어레이 레이어의 핀홀들에 대응하여 배열된 상기 마이크로렌즈 어레이
를 포함하는, 카메라 장치.In claim 1,
The optical module is
transparent substrate,
A pinhole array layer that transmits light entering through the transparent substrate to the microlens array through pinholes filled with a transparent material, and
the microlens array arranged to correspond to the pinholes of the pinhole array layer
comprising, a camera device.
각 스페이서는 접착제가 도포된 미세 기둥으로서, 일단이 상기 이미지 센서에 고정되고 다른 일단이 상기 광학 모듈에 고정되는, 카메라 장치.In claim 1,
Each spacer is a micro-pole to which an adhesive is applied, and one end is fixed to the image sensor and the other end is fixed to the optical module.
상기 프로세서는
근거리 평면에서 캡쳐된 상기 어레이 이미지들을 스티칭 연결하여 현미경 이미지를 생성하는, 카메라 장치.In claim 1,
the processor is
A camera device for generating a microscope image by stitching and connecting the array images captured in a near plane.
상기 프로세서는
중거리 평면에서 캡쳐된 상기 어레이 이미지들의 시차를 기초로 깊이를 추정하여 3D 깊이 이미지를 생성하는, 카메라 장치.In claim 1,
the processor is
A camera device for generating a 3D depth image by estimating a depth based on a parallax of the array images captured in a mid-range plane.
상기 프로세서는
원거리 평면에서 캡쳐된 상기 어레이 이미지들을 중첩하여 고해상도 이미지를 생성하는, 카메라 장치.In claim 1,
the processor is
A camera device for generating a high-resolution image by superimposing the array images captured in a distant plane.
상기 프로세서는
서로 다른 순간에 캡쳐된 상기 어레이 이미지들을 결합하여 하이 프레임레이트 이미지들을 생성하는, 카메라 장치.In claim 1,
the processor is
A camera device for generating high framerate images by combining the array images captured at different moments.
상기 프로세서는
상기 마이크로렌즈들에서 보이는 시각 차이를 이용하여 물체가 위치한 거리 평면을 결정하는, 카메라 장치.In claim 1,
the processor is
A camera device for determining a distance plane on which an object is located by using a visual difference seen by the microlenses.
상기 프로세서는
두 마이크로렌즈 간 거리, 마이크로렌즈의 초점거리, 그리고 상기 시각 차이를 이용하여 계산된 거리가 한 마이크로렌즈의 이미징 범위 이내인 경우, 근거리 평면에 물체가 위한 것으로 판단하는, 카메라 장치.In claim 8,
the processor is
If the distance between the two microlenses, the focal length of the microlens, and the distance calculated using the visual difference are within the imaging range of one microlens, it is determined that the object is for the near plane.
평면에 배열된 마이크로렌즈들을 통해 캡쳐된 어레이 이미지들을 획득하는 단계, 그리고
상기 어레이 이미지들을 재구성하여 현미경 이미지, 3D 깊이 이미지, 고해상도 이미지 그리고 하이 프레임레이트 이미지들 중 적어도 하나를 생성하는 단계
를 포함하는 다기능 이미징 방법.A method for multi-function imaging of a processor, comprising:
acquiring array images captured through microlenses arranged in a plane; and
reconstructing the array images to generate at least one of a microscope image, a 3D depth image, a high resolution image, and a high frame rate image;
A multifunctional imaging method comprising a.
상기 적어도 하나를 생성하는 단계는
적어도 일부의 마이크로렌즈들을 통해 물체의 부분 영역들이 캡쳐된 경우, 상기 어레이 이미지들을 스티칭 연결하여 상기 현미경 이미지를 생성하거나,
각 마이크로렌즈를 통해 보이는 물체의 시야 방향이 다른 경우, 상기 어레이 이미지들의 시차를 기초로 깊이를 추정하여 상기 3D 깊이 이미지를 생성하거나,
각 마이크로렌즈를 통해 보이는 물체의 시야 방향이 동일한 경우, 상기 어레이 이미지들을 중첩하여 상기 고해상도 이미지를 생성하는, 다기능 이미징 방법.In claim 10,
The step of creating the at least one
When partial regions of an object are captured through at least some microlenses, the array images are stitched to create the microscopic image, or
When the viewing direction of the object seen through each microlens is different, the 3D depth image is generated by estimating the depth based on the parallax of the array images,
When the field of view of an object seen through each microlens is the same, the high-resolution image is generated by superimposing the array images.
상기 적어도 하나를 생성하는 단계는
각 마이크로렌즈를 통해 서로 다른 순간에 캡쳐된 상기 어레이 이미지들을 결합하여 상기 하이 프레임레이트 이미지들을 생성하는, 다기능 이미징 방법.In claim 10,
The step of creating the at least one
Combining the array images captured at different moments through each microlens to produce the high frame rate images.
상기 적어도 하나를 생성하는 단계는
상기 마이크로렌즈들에서 보이는 시각 차이를 이용하여 물체가 위치한 거리 평면을 결정하고, 결정된 거리 평면에 지정된 이미징 방법으로 상기 어레이 이미지들을 재구성하여 최종 이미지를 생성하는, 다기능 이미징 방법.In claim 10,
The step of creating the at least one
A multifunctional imaging method of determining a distance plane where an object is located by using the visual difference seen from the microlenses, and reconstructing the array images by an imaging method designated on the determined distance plane to generate a final image.
상기 어레이 이미지들은, 초점거리가 고정된 상기 마이크로렌즈들을 통해 캡쳐되고,
상기 마이크로렌즈들에서 보이는 시각 차이에 따라 상기 어레이 이미지들의 재구성 방법이 달라지는, 다기능 이미징 방법.In claim 10,
The array images are captured through the microlens having a fixed focal length,
A method for reconstructing the array images is different according to a visual difference seen in the microlenses.
상기 마이크로렌즈들은
투명 소재로 채워진 핀홀들이 형성된 핀홀 어레이 레이어에서 상기 핀홀들에 맞춰 형성되고, 상기 핀홀들을 통해 들어오는 빛을 굴절하여 이미지 센서에 초점을 형성하는, 다기능 이미징 방법. 15. In claim 14,
The microlenses are
A multifunctional imaging method for forming a focus on an image sensor by forming pinholes filled with a transparent material to match the pinholes in the formed pinhole array layer, and refracting light entering through the pinholes.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200068343A KR102455520B1 (en) | 2020-06-05 | 2020-06-05 | Ultrathin camera device using microlens array, and Multi-functional imaging method using the same |
US17/159,471 US11818473B2 (en) | 2020-06-05 | 2021-01-27 | Ultrathin camera device using microlens array, and multi-functional imaging method using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200068343A KR102455520B1 (en) | 2020-06-05 | 2020-06-05 | Ultrathin camera device using microlens array, and Multi-functional imaging method using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210151474A true KR20210151474A (en) | 2021-12-14 |
KR102455520B1 KR102455520B1 (en) | 2022-10-17 |
Family
ID=78818156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200068343A KR102455520B1 (en) | 2020-06-05 | 2020-06-05 | Ultrathin camera device using microlens array, and Multi-functional imaging method using the same |
Country Status (2)
Country | Link |
---|---|
US (1) | US11818473B2 (en) |
KR (1) | KR102455520B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023249437A1 (en) * | 2022-06-24 | 2023-12-28 | 엘지이노텍 주식회사 | Camera device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120008518A (en) * | 2009-04-22 | 2012-01-30 | 레이트릭스 게엠베하 | Digital imaging system, plenoptic optical device and image data processing method |
KR20130006503A (en) * | 2010-04-05 | 2013-01-16 | 퀄컴 인코포레이티드 | Combining data from multiple image sensors |
US20140285693A1 (en) * | 2013-03-19 | 2014-09-25 | Kabushiki Kaisha Toshiba | Microlens array unit and solid state imaging device |
KR20140115128A (en) * | 2013-03-20 | 2014-09-30 | 충북대학교 산학협력단 | Integral imaging camera and hologram synthesis technique using the integral imaging camera |
KR20170023103A (en) * | 2014-06-24 | 2017-03-02 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | Device and method for positioning a multi-aperture optical unit with multiple optical channels relative to an image sensor |
KR20180062402A (en) * | 2016-11-30 | 2018-06-08 | 에이에스엠 테크놀러지 싱가포르 피티이 엘티디 | Confocal imaging of an object utilising a pinhole array |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1262644A (en) | 1968-05-13 | 1972-02-02 | Marshall Handling Equipment Lt | Improvements relating to roller conveyors |
JPH0926752A (en) | 1995-07-11 | 1997-01-28 | Omron Corp | Image display device and its production, flat plate element, direct viewing type display device, view finger, projector and head mount display |
AU2001290568A1 (en) | 2000-08-25 | 2002-03-04 | Amnis Corporation | Measuring the velocity of small moving objects such as cells |
DE102006004802B4 (en) | 2006-01-23 | 2008-09-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Image acquisition system and method for producing at least one image capture system |
JP4915859B2 (en) * | 2007-03-26 | 2012-04-11 | 船井電機株式会社 | Object distance deriving device |
JP5001075B2 (en) | 2007-06-20 | 2012-08-15 | 浜松ホトニクス株式会社 | Observation apparatus and method |
EP2502115A4 (en) | 2009-11-20 | 2013-11-06 | Pelican Imaging Corp | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
JP5214754B2 (en) * | 2011-02-25 | 2013-06-19 | 株式会社東芝 | Solid-state imaging device and portable information terminal |
US20130265459A1 (en) * | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
DK2541258T3 (en) * | 2011-06-30 | 2013-11-04 | Siemens Ag | Method and apparatus for recording 3D data for one or more airborne particles |
US8921759B2 (en) * | 2012-07-26 | 2014-12-30 | Optiz, Inc. | Integrated image sensor package with liquid crystal lens |
US9836885B1 (en) * | 2013-10-25 | 2017-12-05 | Appliance Computing III, Inc. | Image-based rendering of real spaces |
KR101814425B1 (en) | 2015-05-08 | 2018-01-03 | 포항공과대학교 산학협력단 | Super-resolution lens and microscopic apparatus comprising the same |
-
2020
- 2020-06-05 KR KR1020200068343A patent/KR102455520B1/en active IP Right Grant
-
2021
- 2021-01-27 US US17/159,471 patent/US11818473B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120008518A (en) * | 2009-04-22 | 2012-01-30 | 레이트릭스 게엠베하 | Digital imaging system, plenoptic optical device and image data processing method |
KR20130006503A (en) * | 2010-04-05 | 2013-01-16 | 퀄컴 인코포레이티드 | Combining data from multiple image sensors |
US20140285693A1 (en) * | 2013-03-19 | 2014-09-25 | Kabushiki Kaisha Toshiba | Microlens array unit and solid state imaging device |
KR20140115128A (en) * | 2013-03-20 | 2014-09-30 | 충북대학교 산학협력단 | Integral imaging camera and hologram synthesis technique using the integral imaging camera |
KR20170023103A (en) * | 2014-06-24 | 2017-03-02 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | Device and method for positioning a multi-aperture optical unit with multiple optical channels relative to an image sensor |
KR20180062402A (en) * | 2016-11-30 | 2018-06-08 | 에이에스엠 테크놀러지 싱가포르 피티이 엘티디 | Confocal imaging of an object utilising a pinhole array |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023249437A1 (en) * | 2022-06-24 | 2023-12-28 | 엘지이노텍 주식회사 | Camera device |
Also Published As
Publication number | Publication date |
---|---|
US20210385376A1 (en) | 2021-12-09 |
US11818473B2 (en) | 2023-11-14 |
KR102455520B1 (en) | 2022-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10469735B2 (en) | Thin multi-aperture imaging system with auto-focus and methods for using same | |
JP4981124B2 (en) | Improved plenoptic camera | |
JP5515396B2 (en) | Imaging device | |
TWI419551B (en) | Solid-state panoramic image capture apparatus | |
JP2014011526A (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US9648305B2 (en) | Stereoscopic imaging apparatus and stereoscopic imaging method | |
JP2010057067A (en) | Image pickup apparatus and image processing apparatus | |
JP6003578B2 (en) | Image generation method and apparatus | |
KR102455520B1 (en) | Ultrathin camera device using microlens array, and Multi-functional imaging method using the same | |
JP2013258602A (en) | Image pick-up device | |
JP6168220B2 (en) | Image generation apparatus, image processing apparatus, image generation method, and image processing program | |
Favaro | A split-sensor light field camera for extended depth of field and superresolution | |
US11924395B2 (en) | Device comprising a multi-aperture imaging device for generating a depth map | |
JP6330955B2 (en) | Imaging apparatus and imaging method | |
JP3564383B2 (en) | 3D video input device | |
GB2540922B (en) | Full resolution plenoptic imaging | |
CN103503447A (en) | Imaging device and program for controlling imaging device | |
JP6569769B2 (en) | Arbitrary viewpoint image composition method and image processing apparatus | |
JP5568150B2 (en) | Solid-state imaging device and portable information terminal | |
US20150365599A1 (en) | Information processing apparatus, image capturing apparatus, and control method | |
JP6055595B2 (en) | Stereoscopic image capturing apparatus and stereoscopic image display apparatus | |
JP2021135725A (en) | Image processing apparatus, control method of the same and program | |
Wenger et al. | The Parabolic Multi-Mirror Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |