KR20210151474A - Ultrathin camera device using microlens array, and Multi-functional imaging method using the same - Google Patents

Ultrathin camera device using microlens array, and Multi-functional imaging method using the same Download PDF

Info

Publication number
KR20210151474A
KR20210151474A KR1020200068343A KR20200068343A KR20210151474A KR 20210151474 A KR20210151474 A KR 20210151474A KR 1020200068343 A KR1020200068343 A KR 1020200068343A KR 20200068343 A KR20200068343 A KR 20200068343A KR 20210151474 A KR20210151474 A KR 20210151474A
Authority
KR
South Korea
Prior art keywords
image
array
microlens
camera device
images
Prior art date
Application number
KR1020200068343A
Other languages
Korean (ko)
Other versions
KR102455520B1 (en
Inventor
정기훈
김기수
장경원
배상인
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020200068343A priority Critical patent/KR102455520B1/en
Priority to US17/159,471 priority patent/US11818473B2/en
Publication of KR20210151474A publication Critical patent/KR20210151474A/en
Application granted granted Critical
Publication of KR102455520B1 publication Critical patent/KR102455520B1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0085Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing wafer level optics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • H04N5/2254
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses

Abstract

An ultrathin camera device includes: an optical module including a microlens array in which microlenses are arranged; an image sensor which outputs electrical image signals by sensing light coming through the microlens array; spacers which form a focal length by separating the optical module from the image sensor; and a processor which outputs a final image by reconstructing array images generated from the image signals with a designated imaging process depending on a distance at which the object is located, wherein each microlens convexly protrudes toward the image sensor. Therefore, it is possible to simultaneously image objects located in multiple planes using the ultrathin camera device.

Description

마이크로렌즈 어레이를 이용한 초박형 카메라 장치 그리고 이의 다기능 이미징 방법{Ultrathin camera device using microlens array, and Multi-functional imaging method using the same}Ultra-thin camera device using microlens array, and multi-functional imaging method thereof

본 개시는 이미징 기술에 관한 것이다.This disclosure relates to imaging technology.

최근 비전 기술 분야에서, 획득한 이미지를 이용하여 다양한 어플리케이션을 개발하는 연구들이 수행되고 있다. 하지만 단일 렌즈 또는 듀얼 렌즈로 제공 가능한 어플리케이션에 한계가 있다. Recently, in the field of vision technology, studies are being conducted to develop various applications using acquired images. However, there is a limit to the applications that can be provided with a single lens or a dual lens.

기존의 렌즈는 근거리 물체의 결상면보다 긴 초점거리를 가지고 있어서, 초점 이탈 문제가 있다. 따라서, 기존 카메라는 원거리 이미징과 근거리 이미징을 동시에 수행하는데 한계가 있다. 이를 보완하여, 서로 다른 초점거리를 가지는 마이크로 렌즈를 이용하여 근거리, 중거리, 원거리, 이미징을 할 수 있으나, 각 렌즈에서 획득하는 이미지의 시야각 등이 달라져 이미지 재구성 시 해상도가 낮아지는 문제가 있다. The conventional lens has a longer focal length than the imaging plane of a near object, so there is a problem of out of focus. Therefore, the existing camera has a limitation in performing both long-distance imaging and near-field imaging at the same time. To compensate for this, short-distance, medium-distance, and long-distance imaging can be performed using micro lenses having different focal lengths, but there is a problem in that the resolution is lowered when reconstructing images due to different viewing angles of images acquired from each lens.

기존 카메라는 롤링셔터 효과에 의해 이미지 왜곡이 발생할 수 있다. 한편 글로벌 셔터 이미지 센서는 롤링셔터 이미지 센서보다 픽셀 레벨 메모리가 필요하고, 포토다이오드의 필 펙터가 낮아 어두운 영역에서 이미징 시 노이즈가 증가하며, 구조가 복잡하여 제작 가격이 비싸다.In conventional cameras, image distortion may occur due to the rolling shutter effect. On the other hand, global shutter image sensors require pixel-level memory than rolling shutter image sensors, have a low fill factor of photodiodes, increase noise during imaging in dark areas, and are expensive to manufacture due to their complex structure.

해결하고자 하는 과제는, 매우 짧은 초점거리를 가지는 마이크로렌즈 어레이(Microlens array)를 이용하여 서로 다른 거리의 다중 평면에 위치한 물체들을 동시에 이미징하고, 획득된 어레이 이미지들을 다양하게 처리하여 다양한 어플리케이션들을 제공하는 초박형 카메라 장치 장치를 제공하는 것이다.The task to be solved is to provide various applications by simultaneously imaging objects located in multiple planes at different distances using a microlens array having a very short focal length, and variously processing the acquired array images. To provide an ultra-thin camera device device.

해결하고자 하는 과제는, 근거리 이미징, 중거리 이미징, 그리고 원거리 이미징을 제공하는 초박형 카메라 장치를 이용하여 현미경 이미지(microscopic image), 3D 깊이 이미지(3D depth image), 고해상도 이미지(high dynamic range(HDR) image) 등을 생성하는 다기능 이미징 방법을 제공하는 것이다.The problem to be solved is a microscopic image, a 3D depth image, and a high dynamic range (HDR) image using an ultra-thin camera device that provides near-field imaging, intermediate-range imaging, and far-field imaging. ), etc. to provide a multifunctional imaging method.

해결하고자 하는 과제는, 롤링셔터 방식의 이미지센서와 마이크로렌즈 어레이를 이용하여 서로 다른 순간의 이미지를 획득하고 이들을 결합하여 하이 프레임레이트 이미지들/고속 이미지들(high-speed images)을 생성하는 초박형 카메라 장치를 제공하는 것이다. The task to be solved is an ultra-thin camera that uses a rolling shutter-type image sensor and a microlens array to acquire images of different instants and combines them to generate high-frame rate images/high-speed images to provide the device.

한 실시예에 따른 카메라 장치로서, 마이크로렌즈들이 배열된 마이크로렌즈 어레이를 포함하는 광학 모듈, 상기 마이크로렌즈 어레이를 통해 들어온 빛을 센싱하여 전기적인 이미지 신호들을 출력하는 이미지 센서, 상기 광학 모듈과 상기 이미지 센서를 이격하여 초점거리를 형성하는 스페이서들, 그리고 상기 이미지 신호들로 생성된 어레이 이미지들을, 물체가 위치한 거리에 따라 지정된 이미징 방법으로 재구성하여 최종 이미지를 출력하는 프로세서를 포함한다. 각 마이크로렌즈는 상기 이미지 센서를 향하여 볼록하게 돌출된 형상이다.As a camera device according to an embodiment, an optical module including a microlens array in which microlenses are arranged, an image sensor sensing light entering through the microlens array and outputting electrical image signals, the optical module and the image A processor for outputting a final image by reconstructing the spacers to form a focal length by separating the sensor, and an imaging method designated according to the distance at which the object is located, the array images generated by the image signals. Each microlens is convexly protruded toward the image sensor.

상기 광학 모듈은 투명 기판, 상기 투명 기판을 통해 들어오는 빛을 투명 소재로 채워진 핀홀들을 통해 상기 마이크로렌즈 어레이로 전달하는 핀홀 어레이 레이어, 그리고 상기 핀홀 어레이 레이어의 핀홀들에 대응하여 배열된 상기 마이크로렌즈 어레이를 포함할 수 있다.The optical module includes a transparent substrate, a pinhole array layer that transmits light entering through the transparent substrate to the microlens array through pinholes filled with a transparent material, and the microlens array arranged to correspond to the pinholes of the pinhole array layer may include.

각 스페이서는 접착제가 도포된 미세 기둥으로서, 일단이 상기 이미지 센서에 고정되고 다른 일단이 상기 광학 모듈에 고정될 수 있다.Each spacer is a micro-pole to which an adhesive is applied, and one end may be fixed to the image sensor and the other end may be fixed to the optical module.

상기 프로세서는 근거리 평면에서 캡쳐된 상기 어레이 이미지들을 스티칭 연결하여 현미경 이미지를 생성할 수 있다.The processor may generate a microscope image by stitching the array images captured in the near plane.

상기 프로세서는 중거리 평면에서 캡쳐된 상기 어레이 이미지들의 시차를 기초로 깊이를 추정하여 3D 깊이 이미지를 생성할 수 있다.The processor may generate a 3D depth image by estimating a depth based on a parallax of the array images captured in a mid-range plane.

상기 프로세서는 원거리 평면에서 캡쳐된 상기 어레이 이미지들을 중첩하여 고해상도 이미지를 생성할 수 있다.The processor may generate a high-resolution image by superimposing the array images captured in a distant plane.

상기 프로세서는 서로 다른 순간에 캡쳐된 상기 어레이 이미지들을 결합하여 하이 프레임레이트 이미지들을 생성할 수 있다.The processor may combine the array images captured at different moments to produce high frame rate images.

상기 프로세서는 상기 마이크로렌즈들에서 보이는 시각 차이를 이용하여 물체가 위치한 거리 평면을 결정할 수 있다.The processor may determine a distance plane in which the object is located by using a visual difference seen by the microlenses.

상기 프로세서는 두 마이크로렌즈 간 거리, 마이크로렌즈의 초점거리, 그리고 상기 시각 차이를 이용하여 계산된 거리가 한 마이크로렌즈의 이미징 범위 이내인 경우, 근거리 평면에 물체가 위한 것으로 판단할 수 있다.When the distance between the two microlenses, the focal length of the microlens, and the distance calculated using the visual difference are within the imaging range of one microlens, the processor may determine that the object is for the near plane.

한 실시예에 따른 프로세서의 다기능 이미징 방법으로서, 평면에 배열된 마이크로렌즈들을 통해 캡쳐된 어레이 이미지들을 획득하는 단계, 그리고 상기 어레이 이미지들을 재구성하여 현미경 이미지, 3D 깊이 이미지, 고해상도 이미지 그리고 하이 프레임레이트 이미지들 중 적어도 하나를 생성하는 단계를 포함한다.A multifunctional imaging method of a processor according to an embodiment, comprising: acquiring array images captured through microlenses arranged in a plane; and reconstructing the array images to obtain a microscope image, a 3D depth image, a high-resolution image, and a high-frame rate image generating at least one of them.

상기 적어도 하나를 생성하는 단계는 적어도 일부의 마이크로렌즈들을 통해 물체의 부분 영역들이 캡쳐된 경우, 상기 어레이 이미지들을 스티칭 연결하여 상기 현미경 이미지를 생성하거나, 각 마이크로렌즈를 통해 보이는 물체의 시야 방향이 다른 경우, 상기 어레이 이미지들의 시차를 기초로 깊이를 추정하여 상기 3D 깊이 이미지를 생성하거나, 각 마이크로렌즈를 통해 보이는 물체의 시야 방향이 동일한 경우, 상기 어레이 이미지들을 중첩하여 상기 고해상도 이미지를 생성할 수 있다.In the generating of the at least one, when partial regions of an object are captured through at least some microlenses, the array images are stitched and connected to generate the microscopic image, or the viewing direction of the object viewed through each microlens is different. In this case, the 3D depth image is generated by estimating the depth based on the parallax of the array images, or when the viewing directions of objects seen through each microlens are the same, the high-resolution image can be generated by overlapping the array images .

상기 적어도 하나를 생성하는 단계는 각 마이크로렌즈를 통해 서로 다른 순간에 캡쳐된 상기 어레이 이미지들을 결합하여 상기 하이 프레임레이트 이미지들을 생성할 수 있다.The generating of the at least one may generate the high frame rate images by combining the array images captured at different moments through each microlens.

상기 적어도 하나를 생성하는 단계는 상기 마이크로렌즈들에서 보이는 시각 차이를 이용하여 물체가 위치한 거리 평면을 결정하고, 결정된 거리 평면에 지정된 이미징 방법으로 상기 어레이 이미지들을 재구성하여 최종 이미지를 생성할 수 있다.In the generating of the at least one, a distance plane on which an object is located is determined using a visual difference seen by the microlenses, and the array images are reconstructed by an imaging method specified in the determined distance plane to generate a final image.

상기 어레이 이미지들은, 초점거리가 고정된 상기 마이크로렌즈들을 통해 캡쳐되고, 상기 마이크로렌즈들에서 보이는 시각 차이에 따라 상기 어레이 이미지들의 재구성 방법이 달라질 수 있다.The array images are captured through the microlenses having a fixed focal length, and a method of reconstructing the array images may vary according to a visual difference seen from the microlenses.

상기 마이크로렌즈들은 투명 소재로 채워진 핀홀들이 형성된 핀홀 어레이 레이어에서 상기 핀홀들에 맞춰 형성되고, 상기 핀홀들을 통해 들어오는 빛을 굴절하여 이미지 센서에 초점을 형성할 수 있다.The microlenses may be formed to match the pinholes in a pinhole array layer in which pinholes filled with a transparent material are formed, and may refract light entering through the pinholes to form a focus on the image sensor.

실시예에 따르면, 초박형 카메라 장치를 이용하여 다중 평면에 위치한 물체들을 동시에 이미징할 수 있고, 매우 빠르게 움직이는 물체를 서로 다른 순간에 이미징할 수 있어서, 근거리의 현미경 이미징, 중거리의 3차원 이미징, 원거리의 고해상도 이미징, 그리고 고속 이미징 등의 다기능 어플리케이션들을 제공할 수 있다.According to an embodiment, the ultra-thin camera device can be used to simultaneously image objects located in multiple planes, and to image a very fast moving object at different instants, so that microscopic imaging at a short distance, three-dimensional imaging at a medium distance, and three-dimensional imaging at a distance It can provide multifunctional applications such as high-resolution imaging and high-speed imaging.

실시예에 따르면, 초박형 카메라 장치는 매우 짧은 초점거리를 가지고 있어서, 원거리 이미징뿐만 아니라, 매우 가까운 물체를 초점 이탈 없이 이미징할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 지문 인식, 피부 촬영과 같이 다양한 용도의 근접 촬영이 가능하고, 현미경 이미지를 생성할 수 있다. According to an embodiment, the ultra-thin camera device has a very short focal length, so that not only long-distance imaging but also very close objects can be imaged without defocusing. According to an embodiment, the ultra-thin camera device may perform close-up photography for various uses, such as fingerprint recognition and skin imaging, and may generate a microscope image.

실시예에 따르면, 초박형 카메라 장치는 동일한 시야각과 동일한 피치(pitch)를 가지고 있어서 물체의 위치에 따라 중첩되는 정도를 통하여 물체의 거리를 예측할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 물체의 거리 정보를 기초로 이미지들을 재구성하여 3D 이미지를 생성할 수 있다.According to an embodiment, since the ultra-thin camera device has the same viewing angle and the same pitch, the distance of the object may be predicted through the degree of overlap depending on the location of the object. According to an embodiment, the ultra-thin camera device may generate a 3D image by reconstructing the images based on the distance information of the object.

실시예에 따르면, 초박형 카메라 장치는 렌즈들로부터 획득된 이미지들을 중첩하여 고해상도 이미지를 생성할 수 있다.According to an embodiment, the ultra-thin camera device may generate a high-resolution image by superimposing images obtained from lenses.

실시예에 따르면, 초박형 카메라 장치는 롤링셔터 효과에 의한 이미지 왜곡을 줄이면서, 매우 빠르게 움직이는 물체를 순간 캡쳐하여 하이 프레임레이트 이미지들을 생성할 수 있다.According to an embodiment, the ultra-thin camera device may generate high frame rate images by momentarily capturing a very fast moving object while reducing image distortion caused by the rolling shutter effect.

실시예에 따르면, 초박형 카메라 장치는 초박형으로 제작되기 때문에, 스마트폰, 드론 등 초소형 기기에 탑재될 수 있다.According to an embodiment, since the ultra-thin camera device is manufactured to be ultra-thin, it may be mounted on a micro device such as a smartphone or a drone.

도 1은 한 실시예에 따른 초박형 카메라 장치의 구성도이다.
도 2는 한 실시예에 따른 초박형 카메라 장치의 다기능 어플리케이션을 설명하는 도면이다.
도 3은 한 실시예에 따른 마이크로렌즈 어레이를 이용하여 다중 평면의 거리 범위를 결정하는 방법을 설명하는 도면이다.
도 4는 한 실시예에 따른 초박형 카메라 장치의 근거리 이미징을 설명하는 도면이다.
도 5는 한 실시예에 따른 초박형 카메라 장치의 근거리 이미징 결과를 설명하는 도면이다.
도 6과 도 7은 한 실시예에 따른 초박형 카메라 장치의 중거리 이미징 결과를 설명하는 도면이다.
도 8은 한 실시예에 따른 초박형 카메라 장치의 원거리 이미징 결과를 설명하는 도면이다.
도 9는 롤링셔터 현상을 설명하는 도면이다.
도 10과 도 11 각각은 한 실시예에 따른 초박형 카메라 장치의 하이 프레임 레이트 이미징 결과를 설명하는 도면이다.
도 12는 한 실시예에 따른 초박형 카메라 장치의 패키징 방법을 설명하는 도면이다.
도 13은 한 실시예에 따른 초박형 카메라 장치의 다기능 이미징 방법의 흐름도이다.
1 is a configuration diagram of an ultra-thin camera device according to an embodiment.
2 is a view for explaining a multi-function application of the ultra-thin camera device according to an embodiment.
3 is a view for explaining a method of determining a distance range of a multi-plane using a microlens array according to an embodiment.
4 is a view for explaining short-distance imaging of an ultra-thin camera device according to an embodiment.
5 is a view for explaining a short-distance imaging result of the ultra-thin camera device according to an exemplary embodiment.
6 and 7 are diagrams for explaining a mid-range imaging result of the ultra-thin camera device according to an exemplary embodiment.
8 is a view for explaining a long-distance imaging result of the ultra-thin camera device according to an embodiment.
9 is a view for explaining the rolling shutter phenomenon.
10 and 11 are diagrams for explaining a high frame rate imaging result of the ultra-thin camera device according to an exemplary embodiment.
12 is a view for explaining a packaging method of an ultra-thin camera device according to an embodiment.
13 is a flowchart of a multi-function imaging method of an ultra-thin camera device according to an embodiment.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part "includes" a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as “…unit”, “…group”, and “module” described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. have.

도 1은 한 실시예에 따른 초박형 카메라 장치의 구성도이다.1 is a configuration diagram of an ultra-thin camera device according to an embodiment.

도 1을 참고하면, 초박형 카메라 장치(100)는 마이크로렌즈 어레이(Microlens array)를 이용하여 서로 다른 거리의 다중 평면에 위치한 물체들을 동시에 이미징하고, 다중 평면 이미징을 통하여 획득된 어레이 이미지들을 다양하게 처리하여 다양한 어플리케이션들을 제공할 수 있다. 초박형 카메라 장치(100)는 예를 들면, 근거리 이미징을 통해 생성한 현미경 이미지(microscopic image), 중거리 이미징을 통해 생성한 3D 깊이 이미지(3D depth image), 원거리 이미징을 통해 생성한 고해상도 이미지(high dynamic range(HDR) image) 등을 제공할 수 있고, 서로 다른 순간에 캡쳐된 이미지들로 구성된 하이 프레임레이트 이미지들(고속 이미지들)을 제공할 수 있다.Referring to FIG. 1 , the ultra-thin camera device 100 simultaneously images objects located in multiple planes at different distances using a microlens array, and variously processes the array images acquired through multi-plane imaging. Thus, various applications can be provided. The ultra-thin camera device 100 includes, for example, a microscopic image generated through near-field imaging, a 3D depth image generated through medium-range imaging, and a high-resolution image generated through long-distance imaging (high dynamic). range (HDR) image) and the like, and high frame rate images (high-speed images) composed of images captured at different moments.

이러한 초박형 카메라 장치(100)는 투명 기판(glass wafer)(110) 및 마이크로렌즈 어레이(120)를 포함하는 광학 모듈, 마이크로렌즈 어레이(120)를 통해 들어온 빛을 센싱하여 전기적인 이미지 신호를 출력하는 이미지 센서(image sensor)(130), 그리고 광학 모듈과 이미지 센서(130)를 이격하여 초점거리를 형성하는 스페이서(140)를 포함한다. 초박형 카메라 장치(100)는 이미지 센서(130)에서 센싱된 이미지 신호들을 처리하는 프로세서(200)를 더 포함할 수 있다. 편의상 마이크로렌즈 어레이(120)를 포함하는 광학 모듈, 이미지 센서(image sensor)(130), 그리고 스페이서(140)는 패키징된 카메라 모듈이라고 부른다. 초박형 카메라 장치(100)는 이미지 신호 및 이미지를 저장하는 메모리를 더 포함할 수 있다.This ultra-thin camera device 100 is an optical module including a transparent substrate (glass wafer) 110 and a microlens array 120, sensing the light entering through the microlens array 120 to output an electrical image signal. It includes an image sensor 130 , and a spacer 140 spaced apart from the optical module and the image sensor 130 to form a focal length. The ultra-thin camera device 100 may further include a processor 200 for processing image signals sensed by the image sensor 130 . For convenience, the optical module including the microlens array 120 , the image sensor 130 , and the spacer 140 are referred to as a packaged camera module. The ultra-thin camera device 100 may further include an image signal and a memory for storing the image.

초박형 카메라 장치(100)의 광학 모듈은 투명 기판(110)을 통해 들어오는 빛을 마이크로렌즈 어레이(120)로 전달하는 핀홀 어레이 레이어(Pinhole array layer)(150)를 더 포함할 수 있다. 핀홀 어레이 레이어(150)는 빛을 흡수하는 소재의 흡수 레이어에, 투명 소재로 채워진 핀홀이 마이크로렌즈 어레이(120)의 패턴에 대응하여 형성된다. 투명 소재의 핀홀로만 빛이 통과하고, 핀홀 이외에서는 빛을 흡수하여 마이크로렌즈 어레이(120)로 전달되는 빛이 차단(block)된다. 핀홀 어레이 레이어(150)는 빛을 흡수하는 흡수 레이어와 빛을 통과시키는 투명 레이어가 교대로 적층된 멀티레이어 구조로 제작될 수 있다. 이때, 흡수 레이어는 마이크로렌즈 어레이(120)의 패턴에 대응하여 제작된 마스크 패턴에 의해 개구부가 형성될 수 있다. 핀홀은 카메라의 조리개(aperture) 역할을 할 수 있다.The optical module of the ultra-thin camera device 100 may further include a pinhole array layer 150 that transmits light entering through the transparent substrate 110 to the microlens array 120 . The pinhole array layer 150 is an absorption layer made of a material that absorbs light, and pinholes filled with a transparent material are formed to correspond to the pattern of the microlens array 120 . Light passes only through the pinhole of a transparent material, and the light transmitted to the microlens array 120 by absorbing light other than the pinhole is blocked. The pinhole array layer 150 may have a multilayer structure in which an absorption layer absorbing light and a transparent layer passing light are alternately stacked. In this case, in the absorption layer, an opening may be formed by a mask pattern manufactured to correspond to the pattern of the microlens array 120 . The pinhole may serve as the aperture of the camera.

투명 기판(110)은 빛을 통과시킬 수 있는 투명한 유리 소재로 제작된 기판일 수 있다. The transparent substrate 110 may be a substrate made of a transparent glass material that allows light to pass therethrough.

마이크로렌즈 어레이(120)는 마이크로 스케일의 마이크로렌즈(121)가 복수 개 배열된 구조로서, 예를 들면, 평면 격자 패턴으로 배열된 마이크로렌즈들을 포함할 수 있다. 각 마이크로렌즈(121)는 핀홀 어레이 레이어(150)의 핀홀에 맞춰 형성(align)되고, 볼록하게 돌출된 형상을 가진다. 마이크로렌즈(121)는 투명 기판(110)을 통해 들어오는 빛을 굴절시켜서 이미지 센서(130)에 초점을 형성하는데, 핀홀 어레이 레이어(150)의 핀홀을 통해 들어오는 빛만 수신할 수 있다. 이때, 마이크로렌즈(121)는 매우 짧은 초점거리를 가지기 때문에 초박형의 카메라가 제작될 수 있다. The microlens array 120 has a structure in which a plurality of micro-scale microlenses 121 are arranged, and may include, for example, microlenses arranged in a planar grid pattern. Each microlens 121 is aligned with the pinhole of the pinhole array layer 150 and has a convexly protruding shape. The microlens 121 refracts light entering through the transparent substrate 110 to form a focus on the image sensor 130 , and only light entering through the pinhole of the pinhole array layer 150 may be received. In this case, since the microlens 121 has a very short focal length, an ultra-thin camera can be manufactured.

마이크로렌즈 어레이(120)는 마이크로렌즈(121)의 볼록면이 이미지 센서(130)를 향하도록 패키징된다. 이를 통해, 마이크로렌즈 어레이(120)는 핀홀 어레이 레이어(150)를 통해 들어오는 빛을 이미지 센서(130)로 집광할 수 있다.The microlens array 120 is packaged such that the convex surface of the microlens 121 faces the image sensor 130 . Through this, the microlens array 120 may focus the light entering through the pinhole array layer 150 to the image sensor 130 .

이미지 센서(130)는 스페이서(140)에 의해 핀홀 어레이 레이어(150)와 이격되고, 마이크로렌즈 어레이(120)를 통과한 빛을 수신한다. 이미지 센서(130)는 예를 들면, CMOS 이미지 센서일 수 있으나, 이미지 센서의 종류는 다양할 수 있다. 이미지 센서(130)는 마이크로렌즈 어레이(120)를 통해 들어오는 빛을 전기 신호로 변환하는 장치로서, RGB 컬러 필터를 통해, 적색 채널, 녹색 채널, 청색 채널에 해당하는 빛을 감지하여 해당 색상의 세기를 나타내는 신호를 출력할 수 있다.The image sensor 130 is spaced apart from the pinhole array layer 150 by the spacer 140 , and receives light passing through the microlens array 120 . The image sensor 130 may be, for example, a CMOS image sensor, but the types of image sensors may be various. The image sensor 130 is a device that converts light entering through the microlens array 120 into an electrical signal, and detects the light corresponding to the red channel, the green channel, and the blue channel through the RGB color filter to increase the intensity of the corresponding color. can output a signal representing

스페이서(140)는 마이크로렌즈 어레이(120)를 포함하는 광학 모듈과 이미지 센서(130)를 초점거리만큼 이격하여 결합한다. 스페이서(140)는 미세 기둥으로 제작되고, 에폭시 접착제(Epoxy Adhesive)를 통해 미세 기둥의 양단이 이미지 센서(130)와 광학 모듈에 부착될 수 있다. 이를 통해, 초박형 카메라 장치 패키징이 가능할 수 있다. 여기서, 스페이서(140)가 부착되는 광학 모듈은 마이크로렌즈 어레이(120)가 형성된 투명 기판(110)이나 핀홀 어레이 레이어(150)일 수 있다. 스페이서(140)의 위치는 다양하게 설계될 수 있다. 스페이서(140)의 높이는 마이크로렌즈(121)의 초점거리와 같고, 마이크로렌즈(121)의 초점심도에 따라서 미세 기둥 높이의 공차가 설정될 수 있다. The spacer 140 couples the optical module including the microlens array 120 and the image sensor 130 to be spaced apart by a focal length. The spacer 140 is made of micro-pillars, and both ends of the micro-pillars may be attached to the image sensor 130 and the optical module through an epoxy adhesive. Through this, ultra-thin camera device packaging may be possible. Here, the optical module to which the spacer 140 is attached may be the transparent substrate 110 on which the microlens array 120 is formed or the pinhole array layer 150 . The spacer 140 may be designed in various ways. The height of the spacer 140 is the same as the focal length of the microlens 121 , and the tolerance of the height of the fine pillars may be set according to the depth of focus of the microlens 121 .

한편, 기존의 마이크로렌즈 어레이를 이용한 카메라는 초점거리가 짧은 렌즈를 패키징하기 어려워 근거리 이미징을 수행하는데 한계가 있었다. 즉, 근거리 이미징을 초점 이탈 없이 하기 위해서는 약 초점거리 170 μm의 렌즈를 정밀하게 이미지 센서와 패키징해야 하기 때문이다. 이러한 문제를 해결하기 위해, 디스펜서를 이용하여 에폭시를 도포하여 이미지 센서(130)에 스페이서(140)를 고정 한 후, 플립칩 본딩 기법을 이용하여 이미지 센서(130)에 맞춰(align) 마이크로렌즈 어레이(120)를 포함하는 광학 모듈과 이미지 센서(130)를 정밀하게 패키징할 수 있다.On the other hand, the conventional camera using a microlens array has a limitation in performing short-range imaging because it is difficult to package a lens having a short focal length. That is, in order to perform close-range imaging without defocus, a lens with a focal length of about 170 μm must be precisely packaged with the image sensor. In order to solve this problem, the spacer 140 is fixed to the image sensor 130 by applying epoxy using a dispenser, and then aligning the microlens array with the image sensor 130 using a flip-chip bonding technique. The optical module including 120 and the image sensor 130 may be precisely packaged.

프로세서(200)는 이미지 센서(130)에서 출력된 이미지 신호들을 이용하여 복수의 마이크로렌즈들에 의해 이미징된 복수의 이미지들(어레이 이미지들)을 생성할 수 있다. 그리고 프로세서(200)는 어레이 이미지들을 다양한 이미지 프로세싱 알고리즘으로 처리하여, 현미경 이미지, 3D 깊이 이미지, 고해상도 이미지, 하이 프레임레이트 이미지들을 생성할 수 있다. 마이크로렌즈에서 획득된 이미지와 마이크로렌즈들에서 획득된 이미지들을 재구성하여 생성된 이미지를 구분하기 위해, 마이크로렌즈에서 획득된 이미지를 어레이 이미지라고 부른다. 그리고, 각 마이크로렌즈를 통한 이미징을 구분하기 위해, 마이크로렌즈별로 채널 식별자를 부여하여 구분할 수 있다.The processor 200 may generate a plurality of images (array images) imaged by a plurality of microlenses by using the image signals output from the image sensor 130 . In addition, the processor 200 may process the array images with various image processing algorithms to generate a microscope image, a 3D depth image, a high-resolution image, and a high frame rate image. In order to distinguish the image acquired from the microlens and the image generated by reconstructing the images acquired from the microlenses, the image acquired from the microlens is called an array image. In addition, in order to classify imaging through each microlens, a channel identifier may be assigned to each microlens to distinguish.

한편, 프로세서(200)는 이미지 센서(130)에서 획득된 전기적인 이미지 신호들을 처리하여 어레이 이미지들을 생성하는 프로세서와, 어레이 이미지들을 다양한 이미지 프로세싱 알고리즘으로 처리하는 프로세서로 분리될 수 있다. 예를 들면, 초박형 카메라 장치(100)를 탑재한 장치의 메인 프로세서가, 다기능 이미징 어플리케이션을 실행하고, 어레이 이미지들을 다양한 이미지 프로세싱 알고리즘으로 처리하여, 현미경 이미지, 3D 깊이 이미지, 고해상도 이미지, 하이 프레임레이트 이미지들을 생성할 수 있으나, 설명에서는 프로세서(200)가 다기능 이미징 처리를 한다고 가정한다. Meanwhile, the processor 200 may be divided into a processor that generates array images by processing electrical image signals obtained from the image sensor 130 , and a processor that processes the array images using various image processing algorithms. For example, the main processor of the device equipped with the ultra-thin camera device 100 executes a multi-function imaging application, and processes the array images with various image processing algorithms, such as a microscope image, a 3D depth image, a high-resolution image, and a high frame rate. Images can be generated, but the description assumes that the processor 200 performs multi-function imaging processing.

도 2는 한 실시예에 따른 초박형 카메라 장치의 다기능 어플리케이션을 설명하는 도면이다.2 is a view for explaining a multi-function application of the ultra-thin camera device according to an embodiment.

도 2를 참고하면, 곤충은 패싯 렌즈들(facet lenses)로부터 획득된 시각 정보를 통해 한번에 물체에 대한 많은 장면들을 캡쳐한다. 초박형 카메라 장치(100)는 이러한 곤충 입체시(insect stereosis)를 모사한 장치로서, 패싯 렌즈에 대응하는 마이크로렌즈(121)가 복수 개 배열된 마이크로렌즈 어레이(120)를 이미지 센서(130)와 결합하여 이미징한다. 이때, 렌즈와 렌즈 사이의 빛을 차단하는 색소 세포(pigment cells)는, 빛을 흡수하는 흡수 레이어에 핀홀들이 형성된 핀홀 어레이 레이어(150)로 모사될 수 있다.Referring to FIG. 2 , the insect captures many scenes of an object at once through visual information obtained from facet lenses. The ultra-thin camera device 100 is a device simulating such insect stereosis, and combines the microlens array 120 in which a plurality of microlenses 121 corresponding to facet lenses are arranged with the image sensor 130 . to image In this case, the pigment cells blocking light between the lens and the lens may be simulated as the pinhole array layer 150 in which pinholes are formed in the light absorbing layer.

초박형 카메라 장치(100)는 마이크로렌즈 어레이(120)를 통해 초점이 맞는 어레이 이미지들을 캡쳐할 수 있는데, 물체와의 거리에 따라 각 마이크로렌즈에서 보이는 관측범위(Field-of- view)가 다르다. 따라서, 초박형 카메라 장치(100)는 거리에 따라 관측범위가 다르게 캡쳐된 어레이 이미지들을 서로 다른 방법으로 재구성하여, 근거리, 중거리, 원거리의 다중 평면에 위치한 물체를 이미징할 수 있다. The ultra-thin camera device 100 may capture focused array images through the microlens array 120 , and the field-of-view seen by each microlens is different according to the distance from the object. Accordingly, the ultra-thin camera apparatus 100 may reconstruct the captured array images with different observation ranges according to distances in different ways to image objects located in multiple planes of short, medium, and long distances.

예를 들어, 근거리에 위치한 물체(10)의 경우, 물체를 클로즈업한 각 마이크로렌즈를 통해 물체(10)의 부분 영역이 캡쳐된다. 따라서, 초박형 카메라 장치(100)는 물체의 부분 영역이 획득된 어레이 이미지들을 하나로 결합하여 하나의 현미경 이미지(300)를 생성할 수 있다. 예를 들면, 초박형 카메라 장치(100)는 이미지 스티칭(image stitching) 기법을 이용하여, 각 마이크로렌즈에서 획득된 이미지들의 유사 패턴을 찾고, 유사한 부분들을 연결하여 하나의 큰 파노라믹 이미지를 생성할 수 있다.For example, in the case of the object 10 located in a short distance, a partial region of the object 10 is captured through each microlens that closes the object. Accordingly, the ultra-thin camera device 100 may generate one microscope image 300 by combining the array images obtained by obtaining a partial area of an object. For example, the ultra-thin camera device 100 uses an image stitching technique to find similar patterns in images acquired from each microlens, and to connect similar parts to generate one large panoramic image. can

중거리에 위치한 물체(20, 22)의 경우, 각 마이크로렌즈를 통해 보이는 물체의 시야 방향이 다르다. 따라서, 초박형 카메라 장치(100)는 어레이 이미지들의 시차(disparity)를 추출하고, 시차를 기초로 각 물체의 깊이(거리)를 추정한다. 초박형 카메라 장치(100)는 깊이 정보를 포함하는 3D 깊이 이미지(400)를 생성할 수 있다. 초박형 카메라 장치(100)는 각 마이크로렌즈에서 획득된 이미지들에서 물체들을 추출하고, 어레이 이미지들을 중첩하여 각 물체의 시차를 추출할 수 있다. In the case of the objects 20 and 22 located at an intermediate distance, the viewing directions of the objects viewed through each microlens are different. Accordingly, the ultra-thin camera device 100 extracts disparity of the array images and estimates the depth (distance) of each object based on the disparity. The ultra-thin camera device 100 may generate a 3D depth image 400 including depth information. The ultra-thin camera device 100 may extract objects from images obtained from each microlens, and may extract parallax of each object by overlapping array images.

원거리에 위치한 물체(30)의 경우, 각 마이크로렌즈를 통해 물체(30)가 동일한 시야 방향으로 캡쳐된다. 즉, 각 어레이 이미지가 동일하게 물체(30)를 포함할 수 있다. 따라서, 초박형 카메라 장치(100)는 어레이 이미지들을 중첩하여 고해상도 이미지(500)를 생성할 수 있다. 초박형 카메라 장치(100)는 어레이 이미지들을 마이크로렌즈의 중심을 기준으로 정렬한 후, 어레이 이미지들을 보간법을 통하여 업샘플링(upsampling)하여 이미지 해상도를 높일 수 있다.In the case of the distant object 30, the object 30 is captured in the same viewing direction through each microlens. That is, each array image may include the object 30 identically. Accordingly, the ultra-thin camera device 100 may generate a high-resolution image 500 by overlapping the array images. After aligning the array images with respect to the center of the microlens, the ultra-thin camera device 100 may upsample the array images through interpolation to increase image resolution.

또한, 원거리에 위치한 물체(32)의 경우, 이미지 센서의 롤링셔터 효과에 의해, 롤링셔터 방향의 각 마이크로렌즈를 통해 물체(32)가 순차적으로 캡쳐될 수 있다. 초박형 카메라 장치(100)는 상대적으로 짧은 시간에 캡쳐된 어레이 이미지들을 결합하여, 하이 프레임 레이트 이미지들(600)을 생성할 수 있다.In addition, in the case of the distant object 32, the object 32 may be sequentially captured through each microlens in the rolling shutter direction by the rolling shutter effect of the image sensor. The ultra-thin camera device 100 may generate high frame rate images 600 by combining the captured array images in a relatively short time.

도 3은 한 실시예에 따른 마이크로렌즈 어레이를 이용하여 다중 평면의 거리 범위를 결정하는 방법을 설명하는 도면이다.3 is a view for explaining a method of determining a distance range of a multi-plane using a microlens array according to an embodiment.

도 3을 참고하면, 물체가 위치하는 평면은 각 렌즈에서 보이는 시각 차이를 이용하여 근거리, 중거리, 원거리로 구분될 수 있다. 초박형 카메라 장치(100)는 물체의 위치에 따라 중첩되는 정도를 통하여 물체의 거리를 예측할 수 있다.Referring to FIG. 3 , a plane on which an object is positioned may be divided into a short-distance, a medium-distance, and a long-distance using a visual difference seen from each lens. The ultra-thin camera device 100 may predict the distance of the object through the degree of overlap according to the location of the object.

(a)를 참고하면, 두 렌즈의 시각 차이(x-x')는 수학식 1과 같이 정의될 수 있다. 수학식 1에서, B는 두 렌즈 간 거리(baseline)이고, f는 초점거리이며, z는 렌즈에서 물체(P)까지의 수직 거리이다. Referring to (a), the visual difference (x-x') between the two lenses may be defined as in Equation 1. In Equation 1, B is the baseline distance between the two lenses, f is the focal length, and z is the vertical distance from the lens to the object P.

Figure pat00001
Figure pat00001

다중 평면은 표 1과 같이 거리 범위로 구분될 수 있다. 표 1에서, d는 한 렌즈의 이미징 범위이다.Multi-planes can be divided into distance ranges as shown in Table 1. In Table 1, d is the imaging range of one lens.

다중 평면multi-plane 거리 범위distance range 근거리close range

Figure pat00002
Figure pat00002
중거리mid-range
Figure pat00003
Figure pat00003
원거리far away
Figure pat00004
Figure pat00004

(b)를 참고하면, 렌즈들이 보는 영역이 중첩될 수 있는데, 렌즈로부터의 거리가 멀어질수록 중첩 범위가 증가한다. Referring to (b), the areas viewed by the lenses may overlap. As the distance from the lens increases, the overlapping range increases.

이처럼, 초박형 카메라 장치(100)는 초점거리가 매우 짧은 마이크로렌즈 어레이(120)를 이용하여, 중거리 및 원거리 이미징 뿐만 아니라, 근거리 이미징도 할 수 있다. 마이크로렌즈 어레이(120)를 패키징하는 것이 쉽지 않은데, 플립칩 본딩으로 마운트한 스페이서(140)를 이용하여 마이크로렌즈 어레이(120)와 이미지 센서(130)를 패키징할 수 있다.As such, the ultra-thin camera device 100 may perform short-range imaging as well as intermediate and long-distance imaging by using the microlens array 120 having a very short focal length. It is not easy to package the microlens array 120 , but the microlens array 120 and the image sensor 130 can be packaged using the spacer 140 mounted by flip-chip bonding.

도 4는 한 실시예에 따른 초박형 카메라 장치의 근거리 이미징을 설명하는 도면이고, 도 5는 한 실시예에 따른 초박형 카메라 장치의 근거리 이미징 결과를 설명하는 도면이다.FIG. 4 is a diagram illustrating short-range imaging of the ultra-thin camera device according to an embodiment, and FIG. 5 is a diagram illustrating a short-distance imaging result of the ultra-thin camera device according to an embodiment.

도 4를 참고하면, 초박형 카메라 장치(100)는 핀홀 어레이 레이어(150) 및 마이크로렌즈 어레이(120)를 통해 직경이 작은 조리개(aperture)를 가진다.Referring to FIG. 4 , the ultra-thin camera device 100 has a small diameter aperture through the pinhole array layer 150 and the microlens array 120 .

조리개(aperture) 크기와 물체 거리에 따라 초점이 맞춰진 평면을 살펴 보면, 상용 카메라는 근거리의 물체에서 초점 이탈(out of focus)이 발생해서 흐릿한 이미지를 캡처하는 반면, 초박형 카메라 장치(100)는 모든 근거리에서 초점 이탈 없이 선명한 이미지를 획득할 수 있다. 이는 가우스 렌즈 공식(1/a+1/b=1/f)에 의하여 초점거리가 긴 상용렌즈는 물체의 거리가 가까워지면 이미지 결상면에서의 거리변화가 커서 점차 물체가 가까워지면 초점거리로부터 멀어지는 반면, 초점거리가 짧은 마이크로렌즈는 물체와의 거리가 가까워져도 결상면에서의 거리변화가 작아서, 물체가 가까워져도 초점거리로부터 멀어지지 않기 때문이다. When looking at a plane focused according to the size of the aperture and object distance, commercial cameras capture blurry images due to out of focus at near objects, whereas the ultra-thin camera device 100 has all Clear images can be obtained at close range without defocusing. According to the Gaussian lens formula (1/a+1/b=1/f), commercial lenses with long focal lengths become farther from the focal length as the object gets closer because the distance from the image plane changes as the distance of the object gets closer. On the other hand, a microlens with a short focal length has a small change in the distance from the image plane even when the distance to the object is close, so that it does not move away from the focal length even when the object approaches.

이처럼, 마이크로렌즈의 짧은 초점 거리는 초박형 카메라 장치(100)가 근거리에서 원거리까지 올인 포커스(all-in-focus) 이미징을 할 수 있도록 하고, 최소 물체 거리(minimum object distance, MOD)를 줄일 수 있다. 여기서, 최소 물체 거리는 선명한 이미지를 얻을 수 있는 카메라에서 가장 가까운 물체 거리를 의미한다.As such, the short focal length of the microlens enables the ultra-thin camera device 100 to perform all-in-focus imaging from a short distance to a far distance, and may reduce a minimum object distance (MOD). Here, the minimum object distance means the object distance closest to the camera from which a clear image can be obtained.

도 5의 (a)를 참고하면, 초박형 카메라 장치(100)는 마이크로렌즈 어레이(120)의 각 마이크로렌즈를 통해 근거리에 위치한 물체를 이미징할 수 있다. 근거리 이미징 결과는 마이크로렌즈들을 통해 획득된 어레이 이미지들로서, 각 어레이 이미지는 물체의 부분 영역을 포함할 수 있다.Referring to FIG. 5A , the ultra-thin camera device 100 may image an object located in a short distance through each microlens of the microlens array 120 . The short-range imaging result is array images obtained through microlenses, and each array image may include a partial area of an object.

(b)를 참고하면, 초박형 카메라 장치(100)는 근거리 이미징으로 획득한 어레이 이미지들을 결합하여 하나의 현미경 이미지를 생성할 수 있다. 초박형 카메라 장치(100)는 이미지 스티칭 기법을 이용하여, 각 마이크로렌즈에서 획득된 이미지들을 연결하여 하나의 큰 파노라믹 이미지를 생성할 수 있다.Referring to (b), the ultra-thin camera device 100 may generate a single microscope image by combining array images obtained through short-range imaging. The ultra-thin camera device 100 may generate one large panoramic image by connecting images acquired from each microlens using an image stitching technique.

도 6과 도 7은 한 실시예에 따른 초박형 카메라 장치의 중거리 이미징 결과를 설명하는 도면이다.6 and 7 are diagrams for explaining a mid-range imaging result of the ultra-thin camera device according to an exemplary embodiment.

도 6을 참고하면, (a)는 초박형 카메라 장치(100)를 통해 중거리에 위치한 다양한 거리의 물체들을 이미징한 결과이다. 어레이 이미지들은 각 마이크로렌즈에서 물체를 바라보는 시야 방향이 다르다. 예를 들면, 숫자 2의 블록이 숫자 1의 블록과 중첩되는 범위가 렌즈 위치에 따라서 다르게 보이는 것을 확인할 수 있다. 여기서, 채널은 마이크로렌즈를 통해 획득된 어레이 이미지를 구분하기 위해 부여될 수 있다.Referring to FIG. 6 , (a) is a result of imaging objects of various distances located at an intermediate distance through the ultra-thin camera device 100 . Array images have different viewing directions from each microlens. For example, it can be seen that the range in which the block of number 2 overlaps the block of number 1 looks different depending on the lens position. Here, a channel may be provided to distinguish an array image acquired through a microlens.

(b)는 물체 거리(object distance)에 따른 시차(disparity)의 관계 그래프이고, (c)는 마이크로렌즈간 발생하는 시차(disparity)와 물체 거리의 관계를 설명하는 도면이다. 중거리 범위의 다양한 거리에 위치한 물체를 이용하여 각 마이크로렌즈의 시차(disparity)를 확인한 결과, 렌즈간의 거리가 멀어질수록 시차가 커지고, 물체의 거리가 가까울수록 시차가 커지는 것을 알 수 있다.(b) is a graph of the relationship between disparity according to the object distance, and (c) is a diagram for explaining the relationship between disparity and object distance occurring between microlenses. As a result of checking the disparity of each microlens using objects located at various distances in the intermediate range, it can be seen that the disparity increases as the distance between the lenses increases, and the disparity increases as the distance between the objects increases.

도 7을 참고하면, (a)는 중거리 이미징 결과를 이용한 Red-cyan 애너글리프(anaglyph) 결과이고, (b)는 중거리 이미징을 통하여 획득한 깊이 추정 결과이다. Referring to FIG. 7 , (a) is a result of Red-cyan anaglyph using medium-range imaging results, and (b) is a result of depth estimation obtained through medium-range imaging.

초박형 카메라 장치(100)는 중거리 이미징으로 획득한 어레이 이미지들을 이용하여, Red-cyan 애너글리프 (anaglyph) 시차(disparity)를 추출하고, 시차를 기초로 각 물체의 깊이(거리)를 추정할 수 있다. 초박형 카메라 장치(100)는 깊이 정보를 포함하는 3D 깊이 이미지를 생성할 수 있다.The ultra-thin camera device 100 may extract a red-cyan anaglyph disparity by using the array images obtained by medium-range imaging, and estimate the depth (distance) of each object based on the disparity. . The ultra-thin camera device 100 may generate a 3D depth image including depth information.

도 8은 한 실시예에 따른 초박형 카메라 장치의 원거리 이미징 결과를 설명하는 도면이다.8 is a view for explaining a long-distance imaging result of the ultra-thin camera device according to an embodiment.

도 8을 참고하면, (a)는 초박형 카메라 장치(100)를 통해 원거리에 위치한 물체를 이미징한 결과이고, (b)는 어레이 이미지들 중 특정 렌즈를 통해 획득한 이미지이며, (c)는 어레이 이미지들을 결합하여 획득한 이미지로서, 대비 및 선명도가 증가한 것을 확인할 수 있다. Referring to FIG. 8 , (a) is a result of imaging a distant object through the ultra-thin camera device 100, (b) is an image obtained through a specific lens among the array images, (c) is an array As an image obtained by combining images, it can be seen that contrast and sharpness are increased.

초박형 카메라 장치(100)는 어레이 이미지들을 중첩하여 고해상도 이미지를 생성할 수 있다. The ultra-thin camera device 100 may generate a high-resolution image by overlapping the array images.

도 9는 롤링셔터 현상을 설명하는 도면이고, 도 10과 도 11 각각은 한 실시예에 따른 초박형 카메라 장치의 하이 프레임 레이트 이미징 결과를 설명하는 도면이다.9 is a view for explaining a rolling shutter phenomenon, and each of FIGS. 10 and 11 is a view for explaining a high frame rate imaging result of the ultra-thin camera device according to an embodiment.

도 9을 참고하면, (a)는 단일 렌즈 카메라의 이미징 방법이고, (b)는 마이크로렌즈 어레이를 이용한 초박형 카메라 장치(100)의 이미징 방법을 개념적으로 설명한 도면이다.Referring to FIG. 9 , (a) is an imaging method of a single-lens camera, and (b) is a diagram conceptually explaining an imaging method of the ultra-thin camera device 100 using a microlens array.

단일 렌즈 카메라는 하나의 렌즈에 하나의 이미지 센서를 이용하고, 주로 사용되는 롤링셔터 방식의 이미지 센서는 시간 순으로 영상을 저장한다. 따라서, 단일 렌즈 카메라는 빠르게 움직이는 물체의 경우, 이미지 왜곡이 발생한다. A single-lens camera uses one image sensor for one lens, and a rolling shutter type image sensor that is mainly used stores images in chronological order. Therefore, single-lens cameras cause image distortion in the case of fast-moving objects.

반면, 초박형 카메라 장치(100)는 하나의 이미지 센서로 여러 개의 마이크로렌즈들의 빛을 이미징하므로, 상대적으로 짧은 시간에 각 마이크로렌즈에서 이미지를 획득할 수 있다. On the other hand, since the ultra-thin camera device 100 images light from several microlenses with one image sensor, it is possible to acquire images from each microlens in a relatively short time.

따라서, 초박형 카메라 장치(100)는 롤링셔터의 방향으로 각 마이크로렌즈에서 선명하게 캡쳐된 어레이 이미지들을 얻을 수 있다. Accordingly, the ultra-thin camera device 100 may obtain array images clearly captured by each microlens in the direction of the rolling shutter.

따라서, 초박형 카메라 장치(100)는 매우 빠르게 움직이는 물체를 왜곡 없이 이미징할 수 있고, 동시에 마이크로렌즈 어레이(120)를 이용하여 서로 다른 순간의 물체를 캡쳐할 수 있고, 어레이 이미지들을 결합하면 하이 프레임 레이트 이미지를 제공할 수 있다. Therefore, the ultra-thin camera device 100 can image a very fast moving object without distortion, and at the same time capture different instantaneous objects using the microlens array 120 , and combine the array images at a high frame rate. You can provide an image.

도 10을 참고하면, (a)는 회전하는 선풍기이고, (b)는 일반 단일 렌즈 카메라에서 1ms의 셔터 스피드로 촬영한 이미지이고, (c)는 초박형 카메라 장치(100)에서 동일한 1ms의 셔터 스피드로 촬영한 어레이 이미지들이며, (d)는 HDR 병합 기술에 의해 각 행의 어레이 이미지들을 병합한 이미지들이다.Referring to FIG. 10 , (a) is a rotating fan, (b) is an image taken with a shutter speed of 1 ms in a general single-lens camera, (c) is a shutter speed of 1 ms in the ultra-thin camera device 100 Array images taken with , (d) are images obtained by merging array images of each row by HDR merging technology.

(b)는 롤링 셔터 효과의 영향으로 선풍기의 형태가 왜곡되고, 1개의 별이 3개로 보인다. 하지만, (c)의 각 어레이 이미지에 선풍기 형태의 왜곡이 적고, 1개의 별이 보이는 것을 확인할 수 있다. In (b), the shape of the fan is distorted due to the effect of the rolling shutter effect, and one star appears as three. However, it can be seen that in each array image of (c), there is little distortion in the form of a fan, and one star is visible.

도 11을 참고하면, (a)는 6등분의 색원판이고, (b)는 단일 렌즈 카메라에서 획득된 이미지이고, (c-e)는 렌즈 직경이 서로 다른 초박형 카메라 장치(100)에서 획득된 이미지이다. 렌즈 직경은, (c) 300μm. (d) 150μm, (e) 100μm이다. (c-e)를 비교하면, 렌즈 직경이 작아질수록 원판의 색 면적 균일도가 증가하는 것을 확인할 수 있다. 300μm 렌즈로 촬영된 이미지(c)는 초록색의 면적이 크게 이미징되지만, 100μm 렌즈로 촬영된 이미지(e)는 색원판의 면적이 거의 균등하게 이미징된다. Referring to FIG. 11 , (a) is a color disc divided into 6 equal parts, (b) is an image obtained by a single lens camera, and (ce) is an image obtained by an ultra-thin camera device 100 having different lens diameters . The lens diameter is (c) 300 μm. (d) 150 μm, (e) 100 μm. Comparing (c-e), it can be seen that the color area uniformity of the original plate increases as the lens diameter decreases. The image (c) photographed with a 300 μm lens has a large green area, whereas the image (e) photographed with a 100 μm lens has an almost uniform area of the color disk.

도 12는 한 실시예에 따른 초박형 카메라 장치의 패키징 방법을 설명하는 도면이다.12 is a view for explaining a packaging method of an ultra-thin camera device according to an embodiment.

도 12를 참고하면, 카메라의 두께가 얇은 초박형 카메라 장치(100)를 제작하기 위해서, 초점거리가 짧은 마이크로렌즈와 이미지 센서를 패키징하는 것이 중요하다. 도 12에서는 마이크로렌즈 어레이(120)가 투명 기판(110)에 부착된 것으로 설명하나, 마이크로렌즈 어레이(120)를 포함하는 광학 모듈은 도 1과 같이, 다양하게 설계될 수 있다.Referring to FIG. 12 , in order to manufacture the ultra-thin camera device 100 having a thin camera, it is important to package a microlens with a short focal length and an image sensor. In FIG. 12 , it is described that the microlens array 120 is attached to the transparent substrate 110 , but an optical module including the microlens array 120 may be designed in various ways as shown in FIG. 1 .

미세 기둥으로 제작된 스페이서(140)의 일단에 접착제인 에폭시를 디스펜싱 기법으로 도포하고 스페이서(140)를 이미지 센서(130)에 고정한다. 스페이서(140)의 다른 일단에 마찬가지로 에폭시를 도포하고, 마이크로렌즈 어레이(120)를 포함하는 광학 모듈을 스페이서(140) 위에 고정한다. 이때, 플립칩 본딩 장비를 이용할 수 있고, 마이크로렌즈 어레이(120)와 이미지 센서(130)를 맞추어 패키징한다. Epoxy, which is an adhesive, is applied to one end of the spacer 140 made of fine pillars by a dispensing technique, and the spacer 140 is fixed to the image sensor 130 . Epoxy is similarly applied to the other end of the spacer 140 , and the optical module including the microlens array 120 is fixed on the spacer 140 . In this case, flip-chip bonding equipment may be used, and the microlens array 120 and the image sensor 130 are aligned and packaged.

스페이서(140)는 모서리 부분에 위치하여 이미지 센서와 렌즈를 고정하지만, 위치는 렌즈의 형태에 따라 변경될 수 있다. 스페이서(140)의 높이는 렌즈의 초점거리이고, 렌즈의 초점심도에 따라서 미세 기둥 높이의 공차를 설정할 수 있다. 접착제와 미세 기둥의 전체 높이가 초점거리와 같도록 제작되어야 한다.The spacer 140 is positioned at the corner to fix the image sensor and the lens, but the position may be changed depending on the shape of the lens. The height of the spacer 140 is the focal length of the lens, and a tolerance of the height of the fine pillar may be set according to the depth of focus of the lens. The total height of the adhesive and micro-pillars should be made equal to the focal length.

제작된 초박형 카메라 장치는 1mm 이하의 전장 길이(Total track length)를 가질 수 있다.The manufactured ultra-thin camera device may have a total track length of 1 mm or less.

도 13은 한 실시예에 따른 초박형 카메라 장치의 다기능 이미징 방법의 흐름도이다.13 is a flowchart of a multi-function imaging method of an ultra-thin camera device according to an embodiment.

도 13을 참고하면, 프로세서(200)는 마이크로렌즈 어레이(120)를 통해 캡쳐된 어레이 이미지들을 획득한다(S110). Referring to FIG. 13 , the processor 200 acquires array images captured through the microlens array 120 ( S110 ).

프로세서(200)는 마이크로렌즈들에서 보이는 시각 차이를 이용하여 물체가 위치한 거리 평면(예를 들면, 근거리, 중거리, 원거리)을 결정하고, 거리 평면에 지정된 이미징 방법으로 어레이 이미지들을 재구성하여 최종 이미지를 출력한다(S120).The processor 200 determines a distance plane (eg, near, intermediate, and far) where an object is located by using the visual difference seen from the microlenses, and reconstructs the array images by an imaging method specified in the distance plane to obtain a final image. output (S120).

물체가 위치한 거리 평면이 근거리인 경우, 어레이 이미지들을 스티칭 연결하여 파노라믹 이미지/현미경 이미지를 생성하는 이미지 프로세싱 알고리즘이 지정될 수 있다. 물체가 위치한 거리 평면이 중거리인 경우, 어레이 이미지들의 시차를 기초로 물체의 깊이를 추정하여 3D 깊이 이미지를 생성하는 이미지 프로세싱 알고리즘이 지정될 수 있다. 물체가 위치한 거리 평면이 원거리인 경우, 어레이 이미지들을 중첩하여 고해상도 이미지(HDR 이미지)를 생성하는 이미지 프로세싱 알고리즘이 지정될 수 있다. 또한, 물체가 위치한 거리 평면이 원거리인 경우, 어레이 이미지들을 하이 프레임레이트 이미지들(고속 이미지들)로 생성하는 이미지 프로세싱 알고리즘이 지정될 수 있다. When the distance plane on which the object is located is near, an image processing algorithm for generating a panoramic image/microscopic image by stitching and connecting the array images may be designated. When the distance plane on which the object is located is an intermediate distance, an image processing algorithm for generating a 3D depth image by estimating the depth of the object based on the parallax of the array images may be designated. When the distance plane where the object is located is far away, an image processing algorithm that creates a high-resolution image (HDR image) by superimposing the array images may be specified. In addition, when the distance plane on which the object is located is far, an image processing algorithm that generates array images as high frame rate images (high speed images) may be specified.

이와 같이, 초박형 카메라 장치(100)는 마이크로렌즈 어레이(120)를 이용하여 초점거리 변경 없이 다양한 평면에 있는 물체를 동시에 이미징할 수 있고, 어레이 이미지들을 거리 평면에 따른 이미지 프로세싱 알고리즘으로 재구성하여 다양한 어플리케이션을 제공할 수 있다.As such, the ultra-thin camera device 100 can simultaneously image objects in various planes without changing the focal length by using the microlens array 120 , and reconstruct the array images with an image processing algorithm according to the distance plane for various applications. can provide

실시예에 따르면, 초박형 카메라 장치를 이용하여 다중 평면에 위치한 물체들을 동시에 이미징할 수 있고, 매우 빠르게 움직이는 물체를 서로 다른 순간에 이미징할 수 있어서, 근거리의 현미경 이미징, 중거리의 3차원 이미징, 원거리의 고해상도 이미징, 그리고 고속 이미징 등의 다기능 어플리케이션들을 제공할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 매우 짧은 초점거리를 가지고 있어서, 원거리 이미징뿐만 아니라, 매우 가까운 물체를 초점 이탈 없이 이미징할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 지문 인식, 피부 촬영과 같이 다양한 현미경 이미징에 사용될 수 있다. 실시예에 따르면, 초박형 카메라 장치는 동일한 시야각과 동일한 피치(pitch)를 가지고 있어서 물체의 위치에 따라 중첩되는 정도를 통하여 물체의 거리를 예측할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 물체의 거리 정보를 기초로 이미지들을 재구성하여 3D 이미지를 생성할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 렌즈들로부터 획득된 이미지들을 중첩하여 고해상도 이미지를 생성할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 롤링셔터 효과에 의한 이미지 왜곡을 줄이면서, 매우 빠르게 움직이는 물체를 순간 캡쳐하여 하이 프레임레이트 이미징를 생성할 수 있다. 실시예에 따르면, 초박형 카메라 장치는 초박형으로 제작되기 때문에, 스마트폰, 드론 등 초소형 기기에 탑재될 수 있다.According to an embodiment, an ultra-thin camera device can be used to simultaneously image objects located in multiple planes, and to image a very fast moving object at different instants, so that microscopic imaging at a short distance, three-dimensional imaging at a medium distance, and a long distance It can provide multifunctional applications such as high-resolution imaging and high-speed imaging. According to an embodiment, the ultra-thin camera device has a very short focal length, so that not only long-distance imaging but also very close objects can be imaged without defocusing. According to an embodiment, the ultra-thin camera device may be used for various microscopic imaging, such as fingerprint recognition and skin imaging. According to an embodiment, since the ultra-thin camera device has the same viewing angle and the same pitch, the distance of the object may be predicted through the degree of overlap according to the location of the object. According to an embodiment, the ultra-thin camera device may generate a 3D image by reconstructing the images based on the distance information of the object. According to an embodiment, the ultra-thin camera device may generate a high-resolution image by superimposing images obtained from lenses. According to an embodiment, the ultra-thin camera device may generate high frame rate imaging by momentarily capturing a very fast moving object while reducing image distortion caused by the rolling shutter effect. According to an embodiment, since the ultra-thin camera device is manufactured to be ultra-thin, it may be mounted on a micro device such as a smartphone or a drone.

이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiment of the present invention described above is not implemented only through the apparatus and method, and may be implemented through a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto. is within the scope of the right.

Claims (15)

마이크로렌즈들이 배열된 마이크로렌즈 어레이를 포함하는 광학 모듈,
상기 마이크로렌즈 어레이를 통해 들어온 빛을 센싱하여 전기적인 이미지 신호들을 출력하는 이미지 센서,
상기 광학 모듈과 상기 이미지 센서를 이격하여 초점거리를 형성하는 스페이서들, 그리고
상기 이미지 신호들로 생성된 어레이 이미지들을, 물체가 위치한 거리에 따라 지정된 이미징 방법으로 재구성하여 최종 이미지를 출력하는 프로세서를 포함하고,
각 마이크로렌즈는 상기 이미지 센서를 향하여 볼록하게 돌출된 형상인, 카메라 장치.
An optical module comprising a microlens array in which microlenses are arranged;
an image sensor that senses light entering through the microlens array and outputs electrical image signals;
Spacers spaced apart from the optical module and the image sensor to form a focal length, and
a processor for outputting a final image by reconstructing the array images generated by the image signals by a designated imaging method according to the distance at which the object is located;
Each microlens has a shape protruding convexly toward the image sensor.
제1항에서,
상기 광학 모듈은
투명 기판,
상기 투명 기판을 통해 들어오는 빛을 투명 소재로 채워진 핀홀들을 통해 상기 마이크로렌즈 어레이로 전달하는 핀홀 어레이 레이어, 그리고
상기 핀홀 어레이 레이어의 핀홀들에 대응하여 배열된 상기 마이크로렌즈 어레이
를 포함하는, 카메라 장치.
In claim 1,
The optical module is
transparent substrate,
A pinhole array layer that transmits light entering through the transparent substrate to the microlens array through pinholes filled with a transparent material, and
the microlens array arranged to correspond to the pinholes of the pinhole array layer
comprising, a camera device.
제1항에서,
각 스페이서는 접착제가 도포된 미세 기둥으로서, 일단이 상기 이미지 센서에 고정되고 다른 일단이 상기 광학 모듈에 고정되는, 카메라 장치.
In claim 1,
Each spacer is a micro-pole to which an adhesive is applied, and one end is fixed to the image sensor and the other end is fixed to the optical module.
제1항에서,
상기 프로세서는
근거리 평면에서 캡쳐된 상기 어레이 이미지들을 스티칭 연결하여 현미경 이미지를 생성하는, 카메라 장치.
In claim 1,
the processor is
A camera device for generating a microscope image by stitching and connecting the array images captured in a near plane.
제1항에서,
상기 프로세서는
중거리 평면에서 캡쳐된 상기 어레이 이미지들의 시차를 기초로 깊이를 추정하여 3D 깊이 이미지를 생성하는, 카메라 장치.
In claim 1,
the processor is
A camera device for generating a 3D depth image by estimating a depth based on a parallax of the array images captured in a mid-range plane.
제1항에서,
상기 프로세서는
원거리 평면에서 캡쳐된 상기 어레이 이미지들을 중첩하여 고해상도 이미지를 생성하는, 카메라 장치.
In claim 1,
the processor is
A camera device for generating a high-resolution image by superimposing the array images captured in a distant plane.
제1항에서,
상기 프로세서는
서로 다른 순간에 캡쳐된 상기 어레이 이미지들을 결합하여 하이 프레임레이트 이미지들을 생성하는, 카메라 장치.
In claim 1,
the processor is
A camera device for generating high framerate images by combining the array images captured at different moments.
제1항에서,
상기 프로세서는
상기 마이크로렌즈들에서 보이는 시각 차이를 이용하여 물체가 위치한 거리 평면을 결정하는, 카메라 장치.
In claim 1,
the processor is
A camera device for determining a distance plane on which an object is located by using a visual difference seen by the microlenses.
제8항에서,
상기 프로세서는
두 마이크로렌즈 간 거리, 마이크로렌즈의 초점거리, 그리고 상기 시각 차이를 이용하여 계산된 거리가 한 마이크로렌즈의 이미징 범위 이내인 경우, 근거리 평면에 물체가 위한 것으로 판단하는, 카메라 장치.
In claim 8,
the processor is
If the distance between the two microlenses, the focal length of the microlens, and the distance calculated using the visual difference are within the imaging range of one microlens, it is determined that the object is for the near plane.
프로세서의 다기능 이미징 방법으로서,
평면에 배열된 마이크로렌즈들을 통해 캡쳐된 어레이 이미지들을 획득하는 단계, 그리고
상기 어레이 이미지들을 재구성하여 현미경 이미지, 3D 깊이 이미지, 고해상도 이미지 그리고 하이 프레임레이트 이미지들 중 적어도 하나를 생성하는 단계
를 포함하는 다기능 이미징 방법.
A method for multi-function imaging of a processor, comprising:
acquiring array images captured through microlenses arranged in a plane; and
reconstructing the array images to generate at least one of a microscope image, a 3D depth image, a high resolution image, and a high frame rate image;
A multifunctional imaging method comprising a.
제10항에서,
상기 적어도 하나를 생성하는 단계는
적어도 일부의 마이크로렌즈들을 통해 물체의 부분 영역들이 캡쳐된 경우, 상기 어레이 이미지들을 스티칭 연결하여 상기 현미경 이미지를 생성하거나,
각 마이크로렌즈를 통해 보이는 물체의 시야 방향이 다른 경우, 상기 어레이 이미지들의 시차를 기초로 깊이를 추정하여 상기 3D 깊이 이미지를 생성하거나,
각 마이크로렌즈를 통해 보이는 물체의 시야 방향이 동일한 경우, 상기 어레이 이미지들을 중첩하여 상기 고해상도 이미지를 생성하는, 다기능 이미징 방법.
In claim 10,
The step of creating the at least one
When partial regions of an object are captured through at least some microlenses, the array images are stitched to create the microscopic image, or
When the viewing direction of the object seen through each microlens is different, the 3D depth image is generated by estimating the depth based on the parallax of the array images,
When the field of view of an object seen through each microlens is the same, the high-resolution image is generated by superimposing the array images.
제10항에서,
상기 적어도 하나를 생성하는 단계는
각 마이크로렌즈를 통해 서로 다른 순간에 캡쳐된 상기 어레이 이미지들을 결합하여 상기 하이 프레임레이트 이미지들을 생성하는, 다기능 이미징 방법.
In claim 10,
The step of creating the at least one
Combining the array images captured at different moments through each microlens to produce the high frame rate images.
제10항에서,
상기 적어도 하나를 생성하는 단계는
상기 마이크로렌즈들에서 보이는 시각 차이를 이용하여 물체가 위치한 거리 평면을 결정하고, 결정된 거리 평면에 지정된 이미징 방법으로 상기 어레이 이미지들을 재구성하여 최종 이미지를 생성하는, 다기능 이미징 방법.
In claim 10,
The step of creating the at least one
A multifunctional imaging method of determining a distance plane where an object is located by using the visual difference seen from the microlenses, and reconstructing the array images by an imaging method designated on the determined distance plane to generate a final image.
제10항에서,
상기 어레이 이미지들은, 초점거리가 고정된 상기 마이크로렌즈들을 통해 캡쳐되고,
상기 마이크로렌즈들에서 보이는 시각 차이에 따라 상기 어레이 이미지들의 재구성 방법이 달라지는, 다기능 이미징 방법.
In claim 10,
The array images are captured through the microlens having a fixed focal length,
A method for reconstructing the array images is different according to a visual difference seen in the microlenses.
제14항에서,
상기 마이크로렌즈들은
투명 소재로 채워진 핀홀들이 형성된 핀홀 어레이 레이어에서 상기 핀홀들에 맞춰 형성되고, 상기 핀홀들을 통해 들어오는 빛을 굴절하여 이미지 센서에 초점을 형성하는, 다기능 이미징 방법.
15. In claim 14,
The microlenses are
A multifunctional imaging method for forming a focus on an image sensor by forming pinholes filled with a transparent material to match the pinholes in the formed pinhole array layer, and refracting light entering through the pinholes.
KR1020200068343A 2020-06-05 2020-06-05 Ultrathin camera device using microlens array, and Multi-functional imaging method using the same KR102455520B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200068343A KR102455520B1 (en) 2020-06-05 2020-06-05 Ultrathin camera device using microlens array, and Multi-functional imaging method using the same
US17/159,471 US11818473B2 (en) 2020-06-05 2021-01-27 Ultrathin camera device using microlens array, and multi-functional imaging method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200068343A KR102455520B1 (en) 2020-06-05 2020-06-05 Ultrathin camera device using microlens array, and Multi-functional imaging method using the same

Publications (2)

Publication Number Publication Date
KR20210151474A true KR20210151474A (en) 2021-12-14
KR102455520B1 KR102455520B1 (en) 2022-10-17

Family

ID=78818156

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200068343A KR102455520B1 (en) 2020-06-05 2020-06-05 Ultrathin camera device using microlens array, and Multi-functional imaging method using the same

Country Status (2)

Country Link
US (1) US11818473B2 (en)
KR (1) KR102455520B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023249437A1 (en) * 2022-06-24 2023-12-28 엘지이노텍 주식회사 Camera device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120008518A (en) * 2009-04-22 2012-01-30 레이트릭스 게엠베하 Digital imaging system, plenoptic optical device and image data processing method
KR20130006503A (en) * 2010-04-05 2013-01-16 퀄컴 인코포레이티드 Combining data from multiple image sensors
US20140285693A1 (en) * 2013-03-19 2014-09-25 Kabushiki Kaisha Toshiba Microlens array unit and solid state imaging device
KR20140115128A (en) * 2013-03-20 2014-09-30 충북대학교 산학협력단 Integral imaging camera and hologram synthesis technique using the integral imaging camera
KR20170023103A (en) * 2014-06-24 2017-03-02 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. Device and method for positioning a multi-aperture optical unit with multiple optical channels relative to an image sensor
KR20180062402A (en) * 2016-11-30 2018-06-08 에이에스엠 테크놀러지 싱가포르 피티이 엘티디 Confocal imaging of an object utilising a pinhole array

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1262644A (en) 1968-05-13 1972-02-02 Marshall Handling Equipment Lt Improvements relating to roller conveyors
JPH0926752A (en) 1995-07-11 1997-01-28 Omron Corp Image display device and its production, flat plate element, direct viewing type display device, view finger, projector and head mount display
AU2001290568A1 (en) 2000-08-25 2002-03-04 Amnis Corporation Measuring the velocity of small moving objects such as cells
DE102006004802B4 (en) 2006-01-23 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Image acquisition system and method for producing at least one image capture system
JP4915859B2 (en) * 2007-03-26 2012-04-11 船井電機株式会社 Object distance deriving device
JP5001075B2 (en) 2007-06-20 2012-08-15 浜松ホトニクス株式会社 Observation apparatus and method
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5214754B2 (en) * 2011-02-25 2013-06-19 株式会社東芝 Solid-state imaging device and portable information terminal
US20130265459A1 (en) * 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
DK2541258T3 (en) * 2011-06-30 2013-11-04 Siemens Ag Method and apparatus for recording 3D data for one or more airborne particles
US8921759B2 (en) * 2012-07-26 2014-12-30 Optiz, Inc. Integrated image sensor package with liquid crystal lens
US9836885B1 (en) * 2013-10-25 2017-12-05 Appliance Computing III, Inc. Image-based rendering of real spaces
KR101814425B1 (en) 2015-05-08 2018-01-03 포항공과대학교 산학협력단 Super-resolution lens and microscopic apparatus comprising the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120008518A (en) * 2009-04-22 2012-01-30 레이트릭스 게엠베하 Digital imaging system, plenoptic optical device and image data processing method
KR20130006503A (en) * 2010-04-05 2013-01-16 퀄컴 인코포레이티드 Combining data from multiple image sensors
US20140285693A1 (en) * 2013-03-19 2014-09-25 Kabushiki Kaisha Toshiba Microlens array unit and solid state imaging device
KR20140115128A (en) * 2013-03-20 2014-09-30 충북대학교 산학협력단 Integral imaging camera and hologram synthesis technique using the integral imaging camera
KR20170023103A (en) * 2014-06-24 2017-03-02 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. Device and method for positioning a multi-aperture optical unit with multiple optical channels relative to an image sensor
KR20180062402A (en) * 2016-11-30 2018-06-08 에이에스엠 테크놀러지 싱가포르 피티이 엘티디 Confocal imaging of an object utilising a pinhole array

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023249437A1 (en) * 2022-06-24 2023-12-28 엘지이노텍 주식회사 Camera device

Also Published As

Publication number Publication date
US20210385376A1 (en) 2021-12-09
US11818473B2 (en) 2023-11-14
KR102455520B1 (en) 2022-10-17

Similar Documents

Publication Publication Date Title
US10469735B2 (en) Thin multi-aperture imaging system with auto-focus and methods for using same
JP4981124B2 (en) Improved plenoptic camera
JP5515396B2 (en) Imaging device
TWI419551B (en) Solid-state panoramic image capture apparatus
JP2014011526A (en) Image processing apparatus, imaging apparatus, and image processing method
US9648305B2 (en) Stereoscopic imaging apparatus and stereoscopic imaging method
JP2010057067A (en) Image pickup apparatus and image processing apparatus
JP6003578B2 (en) Image generation method and apparatus
KR102455520B1 (en) Ultrathin camera device using microlens array, and Multi-functional imaging method using the same
JP2013258602A (en) Image pick-up device
JP6168220B2 (en) Image generation apparatus, image processing apparatus, image generation method, and image processing program
Favaro A split-sensor light field camera for extended depth of field and superresolution
US11924395B2 (en) Device comprising a multi-aperture imaging device for generating a depth map
JP6330955B2 (en) Imaging apparatus and imaging method
JP3564383B2 (en) 3D video input device
GB2540922B (en) Full resolution plenoptic imaging
CN103503447A (en) Imaging device and program for controlling imaging device
JP6569769B2 (en) Arbitrary viewpoint image composition method and image processing apparatus
JP5568150B2 (en) Solid-state imaging device and portable information terminal
US20150365599A1 (en) Information processing apparatus, image capturing apparatus, and control method
JP6055595B2 (en) Stereoscopic image capturing apparatus and stereoscopic image display apparatus
JP2021135725A (en) Image processing apparatus, control method of the same and program
Wenger et al. The Parabolic Multi-Mirror Camera

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant