KR20220016574A - Camera system with offset pixel aperture for acquiring horizontal and vertical disparity - Google Patents
Camera system with offset pixel aperture for acquiring horizontal and vertical disparity Download PDFInfo
- Publication number
- KR20220016574A KR20220016574A KR1020200096628A KR20200096628A KR20220016574A KR 20220016574 A KR20220016574 A KR 20220016574A KR 1020200096628 A KR1020200096628 A KR 1020200096628A KR 20200096628 A KR20200096628 A KR 20200096628A KR 20220016574 A KR20220016574 A KR 20220016574A
- Authority
- KR
- South Korea
- Prior art keywords
- opas
- pixels
- horizontal
- camera system
- vertical
- Prior art date
Links
- 230000000903 blocking effect Effects 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 claims description 21
- 238000010586 diagram Methods 0.000 description 14
- 238000003491 array Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 3
- 101100248200 Arabidopsis thaliana RGGB gene Proteins 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/1462—Coatings
- H01L27/14623—Optical shielding
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14603—Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/705—Pixels for depth measurement, e.g. RGBZ
-
- H04N5/2253—
-
- H04N5/36965—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Power Engineering (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Measurement Of Optical Distance (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
아래의 설명은 수평적 시차(Disparity)와 수직적 시차를 이용하여 피사체에 대한 깊이를 산출하는 카메라 시스템에 관한 것으로, 구체적으로 산출되는 깊이의 범위를 향상시키고자 베이스라인을 증가시킨 구조를 갖는 카메라 시스템에 대한 기술이다.The following description relates to a camera system that calculates depth for a subject by using horizontal disparity and vertical disparity. Specifically, the camera system has a structure in which a baseline is increased to improve the range of the calculated depth. is a technique for
카메라 시스템(정확하게는 카메라 시스템에 포함되는 이미지 센서)과 피사체 사이의 거리로 나타내는 피사체에 대한 깊이가 산출되는 방식으로는, 카메라 시스템의 복수의 애퍼처들을 통해 획득되는 이미지들 사이의 블러(blur) 변화를 이용하는 방식과 시차를 이용하는 방식이 있다.In a manner in which the depth of the subject indicated by the distance between the camera system (exactly, the image sensor included in the camera system) and the subject is calculated, blur between images acquired through a plurality of apertures of the camera system There is a method that uses change and a method that uses time difference.
보다 상세하게 종래의 시차를 이용하는 방식은, 두 개의 렌즈들 및 이미지 센서로 스테레오 카메라 시스템을 구성한 뒤, 두 개의 렌즈들을 통해 각각 유입되는 광 신호를 처리하여 시차가 존재하는 두 개의 이미지들을 획득하고, 수식을 통해 두 개의 이미지들 사이의 시차를 기반으로 피사체에 대한 깊이를 계산할 수 있다.In more detail, the conventional method using parallax is to configure a stereo camera system with two lenses and an image sensor, and then process an optical signal that is respectively introduced through the two lenses to obtain two images with parallax, Through the formula, the depth of the subject can be calculated based on the parallax between the two images.
그러나 종래의 시차를 이용하는 방식은 두 개의 렌즈들로 하나의 카메라 시스템을 구성하기 때문에, 넓은 단면적으로 인해 소형화가 힘든 단점과 카메라 시스템의 베이스라인의 길이가 짧아 이미지들 사이의 시차가 작게 되어 산출되는 깊이의 범위가 저하되는 문제점을 갖는다.However, since the conventional method using parallax constitutes one camera system with two lenses, it is difficult to miniaturize due to a large cross-sectional area, and the length of the baseline of the camera system is short, so that the parallax between images is small. There is a problem in that the range of depth is reduced.
이에, 카메라 시스템에서 종래의 시차를 이용하는 방식의 단점과 문제점을 해결하기 위한 기술이 요구되고 있다.Accordingly, there is a need for a technique for solving the disadvantages and problems of the conventional method of using parallax in a camera system.
일 실시예들은 넓은 단면적으로 인해 소형화가 힘든 단점과 이미지들 사이의 시차가 작아 산출되는 깊이의 범위가 저하되는 문제점을 해결하기 위한 구조를 갖는 카메라 시스템을 제안한다.One embodiment proposes a camera system having a structure to solve the problem of difficulty in miniaturization due to the large cross-sectional area and the problem that the range of the calculated depth is reduced due to the small parallax between the images.
구체적으로, 일 실시예들은 이미지 센서에 포함되는 모노 픽셀들 각각에 OPA(Offset Pixel Aperture)들을 적용함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 구조를 제안한다.Specifically, one embodiment proposes a structure for miniaturizing a camera system by minimizing the cross-sectional area of the camera system by applying Offset Pixel Apertures (OPAs) to each of the mono pixels included in the image sensor.
또한, 일 실시예들은 수평적 시차를 획득하기 위한 한 쌍의 수평 OPA들과 수직적 시차를 획득하기 위한 한 쌍의 수직 OPA들을 형성하고, 수평 OPA들과 수직 OPA들을 이용하여 수평적 시차와 수직적 시차를 획득함으로써, 산출되는 깊이의 범위를 향상시키는 구조를 제안한다.In addition, one embodiment forms a pair of horizontal OPAs for obtaining horizontal parallax and a pair of vertical OPAs for obtaining vertical parallax, and uses the horizontal OPAs and vertical OPAs to obtain horizontal parallax and vertical parallax By obtaining , we propose a structure that improves the range of the calculated depth.
일 실시예에 따르면, 카메라 시스템은, 단일 렌즈; 및 적어도 하나의 픽셀 어레이-상기 적어도 하나의 픽셀 어레이는 2차원 배열의 복수의 픽셀들을 포함함-로 구성되는 이미지 센서를 포함하고, 상기 복수의 픽셀들 각각의 상부에는 OPA(Offset Pixel Aperture)를 형성하기 위한 차광막이 배치되며, 상기 OPA들은, 서로 이격된 거리가 최대화되도록 상기 차광막들 각각에 의해 형성되고, 수평 방향의 시차를 획득하기 위한 한 쌍의 수평 OPA들과 수직 방향의 시차를 획득하기 위한 한 쌍의 수직 OPA들을 포함한다.According to one embodiment, a camera system comprises: a single lens; and at least one pixel array, wherein the at least one pixel array includes a plurality of pixels in a two-dimensional array, wherein an Offset Pixel Aperture (OPA) is disposed on each of the plurality of pixels. A light-shielding film for forming is disposed, and the OPAs are formed by each of the light-shielding films so that a distance apart from each other is maximized, and a pair of horizontal OPAs for obtaining a parallax in a horizontal direction and a pair of horizontal OPAs to obtain a parallax in a vertical direction A pair of vertical OPAs for
일 측면에 따르면, 상기 수평 OPA들 각각과 상기 수직 OPA들 각각은, 대각 방향에 위치한 픽셀들 각각의 상부에 형성되는 것을 특징으로 할 수 있다.According to one aspect, each of the horizontal OPAs and each of the vertical OPAs may be formed on top of pixels located in a diagonal direction.
다른 일 측면에 따르면, 상기 수평 OPA들 각각은 해당 픽셀들 각각의 중심을 기준으로 좌측 방향으로 편향된 좌측 OPA와 우측 방향으로 편향된 우측 OPA를 포함하고, 상기 수직 OPA들 각각은, 해당 픽셀들 각각의 중심을 기준으로 상부 방향으로 편향된 상측 OPA와 하부 방향으로 편향된 하측 OPA를 포함하는 것을 특징으로 할 수 있다.According to another aspect, each of the horizontal OPAs includes a left OPA biased in a left direction and a right OPA biased in a right direction with respect to the center of each pixel, and each of the vertical OPAs includes a It may be characterized in that it includes an upper OPA biased in an upward direction with respect to the center and a lower OPA biased in a downward direction.
또 다른 일 측면에 따르면, 상기 OPA들 중 대각 방향에 위치한 두 개의 OPA들은, 해당 픽셀들 각각을 기준으로 서로 어긋난 중심 위치를 갖는 것을 특징으로 할 수 있다.According to another aspect, two OPAs located in a diagonal direction among the OPAs may have center positions shifted from each other with respect to each of the corresponding pixels.
또 다른 일 측면에 따르면, 상기 이미지 센서는, 모노 이미지 센서인 것을 특징으로 할 수 있다.According to another aspect, the image sensor may be a mono image sensor.
또 다른 일 측면에 따르면, 상기 수평 OPA들이 형성된 두 개의 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수평적 시차(Disparity)와 상기 수직 OPA들이 형성된 두 개의 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수직적 시차를 이용하여 피사체에 대한 깊이를 산출하는 적어도 하나의 프로세서를 더 포함하는 것을 특징으로 할 수 있다.According to another aspect, a horizontal disparity between two images obtained through the two pixels in which the horizontal OPAs are formed and between two images obtained through the two pixels in which the vertical OPAs are formed It may be characterized by further comprising at least one processor for calculating the depth of the subject by using the vertical parallax.
다른 일 실시예에 따르면, 카메라 시스템은, 단일 렌즈; 및 제1 픽셀, 제2 픽셀 및 두 개의 제3 픽셀들로 구성되는 2×2의 제1 픽셀 어레이와 제2 픽셀 어레이를 포함하는 이미지 센서를 포함하고, 상기 제3 픽셀들 각각의 상부에는 OPA(Offset Pixel Aperture)를 형성하기 위한 차광막이 배치되며, 상기 제1 픽셀 어레이는 상기 제3 픽셀들 상부에 수평 방향의 시차를 획득하기 위한 한 쌍의 수평 OPA들을 형성하고, 상기 제2 픽셀 어레이는 상기 제3 픽셀들 상부에 수직 방향의 시차를 획득하기 위한 한 쌍의 수직 OPA들을 형성하는 것을 특징으로 한다.According to another embodiment, the camera system includes a single lens; and an image sensor including a first pixel array and a second pixel array of 2×2 each including a first pixel, a second pixel, and two third pixels, wherein an OPA is disposed on each of the third pixels A light blocking film for forming an Offset Pixel Aperture is disposed, the first pixel array forms a pair of horizontal OPAs on the third pixels to obtain a parallax in a horizontal direction, and the second pixel array includes A pair of vertical OPAs for obtaining a parallax in a vertical direction are formed on the third pixels.
일 측면에 따르면, 상기 수평 OPA들 각각과 상기 수직 OPA들 각각은, 대각 방향에 위치한 상기 제3 픽셀들 각각의 상부에 형성되는 것을 특징으로 할 수 있다.According to one aspect, each of the horizontal OPAs and each of the vertical OPAs may be formed on top of each of the third pixels located in a diagonal direction.
다른 일 측면에 따르면, 상기 수평 OPA들 각각은 상기 제3 픽셀들 각각의 중심을 기준으로 좌측 방향으로 편향된 좌측 OPA와 우측 방향으로 편향된 우측 OPA를 포함하고, 상기 수직 OPA들 각각은, 상기 제3 픽셀들 각각의 중심을 기준으로 상부 방향으로 편향된 상측 OPA와 하부 방향으로 편향된 하측 OPA를 포함하는 것을 특징으로 할 수 있다.According to another aspect, each of the horizontal OPAs includes a left OPA biased in a left direction and a right OPA biased in a right direction with respect to the center of each of the third pixels, and each of the vertical OPAs includes the third It may be characterized in that it includes an upper OPA biased in an upward direction and a lower OPA biased in a downward direction with respect to the center of each pixel.
또 다른 일 측면에 따르면, 상기 수평 OPA들이 형성된 상기 제3 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수평적 시차(Disparity)와 상기 수직 OPA들이 형성된 상기 제3 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수직적 시차를 이용하여 피사체에 대한 깊이를 산출하는 적어도 하나의 프로세서를 더 포함하는 것을 특징으로 할 수 있다.According to another aspect, a horizontal disparity between two images obtained through the third pixels in which the horizontal OPAs are formed and two images obtained through the third pixels in which the vertical OPAs are formed It may be characterized by further comprising at least one processor for calculating the depth of the subject by using the vertical parallax therebetween.
일 실시예들은 넓은 단면적으로 인해 소형화가 힘든 단점과 이미지들 사이의 시차가 작아 산출되는 깊이의 범위가 저하되는 문제점을 해결하기 위한 구조를 갖는 카메라 시스템을 제안할 수 있다.One embodiment may propose a camera system having a structure to solve the problem of difficulty in miniaturization due to the large cross-sectional area and the problem that the range of the calculated depth is reduced due to the small parallax between the images.
구체적으로, 일 실시예들은 이미지 센서에 포함되는 모노 픽셀들 각각에 OPA(Offset Pixel Aperture)들을 적용함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 구조를 제안할 수 있다.Specifically, embodiments may propose a structure for miniaturization by minimizing the cross-sectional area of a camera system by applying Offset Pixel Apertures (OPAs) to each of the mono pixels included in the image sensor.
또한, 일 실시예들은 수평적 시차를 획득하기 위한 한 쌍의 수평 OPA들과 수직적 시차를 획득하기 위한 한 쌍의 수직 OPA들을 형성하고, 수평 OPA들과 수직 OPA들을 이용하여 수평적 시차와 수직적 시차를 획득함으로써, 산출되는 깊이의 범위를 향상시키는 구조를 제안할 수 있다.In addition, one embodiment forms a pair of horizontal OPAs for obtaining horizontal parallax and a pair of vertical OPAs for obtaining vertical parallax, and uses the horizontal OPAs and vertical OPAs to obtain horizontal parallax and vertical parallax By obtaining , it is possible to propose a structure that improves the range of the calculated depth.
도 1은 일 실시예에 따른 카메라 시스템과 단일 렌즈에 애퍼처가 적용된 카메라 시스템 사이의 관계를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 카메라 시스템에서의 깊이 산출 원리를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 카메라 시스템의 제약 조건을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 카메라 시스템을 나타낸 도면이다.
도 5는 일 실시예에 따른 카메라 시스템의 이미지 센서에 포함되는 픽셀 어레이를 설명하기 위한 도면이다.
도 6는 도 5에 도시된 OPA가 적용된 픽셀을 포함하는 픽셀 어레이와 등가의 렌즈 애퍼처를 나타낸 도면이다.
도 7은 다른 일 실시예에 따른 카메라 시스템의 이미지 센서에 포함되는 픽셀 어레이들을 설명하기 위한 도면이다.1 is a diagram for describing a relationship between a camera system according to an exemplary embodiment and a camera system in which an aperture is applied to a single lens.
2 is a diagram for explaining a depth calculation principle in a camera system according to an exemplary embodiment.
3 is a diagram for describing a constraint condition of a camera system according to an exemplary embodiment.
4 is a diagram illustrating a camera system according to an exemplary embodiment.
5 is a diagram for describing a pixel array included in an image sensor of a camera system according to an exemplary embodiment.
FIG. 6 is a diagram illustrating a lens aperture equivalent to a pixel array including pixels to which the OPA shown in FIG. 5 is applied.
7 is a diagram for describing pixel arrays included in an image sensor of a camera system according to another exemplary embodiment.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the examples. Also, like reference numerals in each figure denote like members.
또한, 본 명세서에서 사용되는 용어(Terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 예컨대, 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 또한, 본 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.In addition, the terms (Terminology) used in this specification are terms used to properly express a preferred embodiment of the present invention, which may vary depending on the intention of a viewer or operator or a custom in the field to which the present invention belongs. Accordingly, definitions of these terms should be made based on the content throughout this specification. For example, in this specification, the singular also includes the plural unless specifically stated in the phrase. Also, as used herein, “comprises” and/or “comprising” refers to a referenced component, step, operation and/or element being one or more other components, steps, operations and/or elements. The presence or addition of elements is not excluded.
또한, 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 기술적 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 제시된 각각의 실시예 범주에서 개별 구성요소의 위치, 배치, 또는 구성은 본 발명의 기술적 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다.Also, it should be understood that various embodiments of the present invention are different from each other but are not necessarily mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it should be understood that the position, arrangement, or configuration of individual components in each of the presented embodiments can be changed without departing from the spirit and scope of the present invention.
깊이가 적용된 3차원 이미지를 획득하기 위해서는, 2차원 이미지에 포함되는 픽셀들 각각의 깊이가 산출되어야 한다. 이 때, 2차원 이미지에 포함되는 픽셀들 각각의 깊이를 산출하는 종래의 방식으로는 촬영 대상이 되는 피사체(오브젝트)에 레이저를 조사하고 그 빛이 돌아오는 시간을 측정하는 TOF(time of flight) 방식, 두 개 이상의 카메라 시스템들에서 각각 획득한 이미지들 사이의 시차를 이용하여 깊이를 산출하는 스테레오(depth from stereo) 방식, 단일 카메라 시스템에서 단일 렌즈에 형성된 복수의 애퍼처들 각각을 통과한 광 신호를 처리하여 획득한 이미지들 사이의 시차를 이용하여 깊이를 산출하는 방식(Dual Aperture; DA를 이용한 시차 방식), 단일 카메라 시스템에서 단일 렌즈에 형성된 복수의 애퍼처들 각각을 통과한 광 신호를 처리하여 획득한 이미지들 사이의 블러 변화를 이용하여 깊이를 산출하는 방식 등이 있다.In order to obtain a 3D image to which the depth is applied, the depth of each pixel included in the 2D image should be calculated. At this time, in the conventional method of calculating the depth of each pixel included in the two-dimensional image, a laser is irradiated to a subject (object) to be photographed, and TOF (time of flight) is used to measure the return time of the light. method, a depth from stereo method that calculates depth using a parallax between images obtained from two or more camera systems, light passing through each of a plurality of apertures formed in a single lens in a single camera system A method of calculating depth using the parallax between images obtained by processing the signal (dual aperture; parallax method using DA), the optical signal passing through each of a plurality of apertures formed in a single lens in a single camera system There is a method of calculating the depth using the blur change between images obtained by processing, and the like.
일 실시예에 따른 카메라 시스템은 이러한 종래의 방식들 중 이미지들 사이의 시차를 이용하는 방식을 기반으로 하나, 단일 렌즈에 복수의 애퍼처들을 형성하는 대신에, 이미지 센서에 포함되는 픽셀 어레이의 픽셀들에 OPA(Offset Pixel Aperture)를 적용함으로써, 단면적을 최소화하여 소형화를 도모하고자 한다.A camera system according to an embodiment is based on a method using parallax between images among these conventional methods, but instead of forming a plurality of apertures in a single lens, pixels of a pixel array included in an image sensor By applying OPA (Offset Pixel Aperture) to the
특히, 일 실시예에 따른 카메라 시스템은 수평적 시차를 획득하기 위한 한 쌍의 수평 OPA들과 수직적 시차를 획득하기 위한 한 쌍의 수직 OPA들을 형성하고, 수평 OPA들과 수직 OPA들을 이용하여 수평적 시차와 수직적 시차를 획득함으로써, 산출되는 깊이의 범위를 향상시키고자 한다.In particular, the camera system according to an embodiment forms a pair of horizontal OPAs for acquiring horizontal parallax and a pair of vertical OPAs for acquiring vertical parallax, and horizontally using the horizontal OPAs and vertical OPAs. By acquiring the parallax and the vertical parallax, the range of the calculated depth is improved.
본 발명에서의 OPA는 차광막이 형성되지 않은 부분으로, 픽셀 상부에 배치되는 차광막을 이용하여 OPA를 형성할 수 있다.In the present invention, the OPA is a portion where the light-shielding film is not formed, and the OPA may be formed using the light-shielding film disposed on the pixel.
도 1은 일 실시예에 따른 카메라 시스템과 단일 렌즈에 애퍼처가 적용된 카메라 시스템 사이의 관계를 설명하기 위한 도면이고, 도 2는 일 실시예에 따른 카메라 시스템에서의 깊이 산출 원리를 설명하기 위한 도면이며, 도 3은 일 실시예에 따른 카메라 시스템의 제약 조건을 설명하기 위한 도면이다. 이하, 도 1은 설명의 편의를 위해 일 실시예에 따른 카메라 시스템에서 OPA가 적용된 하나의 픽셀을 기준으로 상술되나, 일 실시예에 따른 카메라 시스템은 도 2와 같이 OPA들이 적용된 두 개의 픽셀들을 포함하는 이미지 센서를 바탕으로 한다.1 is a diagram for explaining a relationship between a camera system and a camera system to which an aperture is applied to a single lens according to an embodiment, and FIG. 2 is a diagram for explaining a depth calculation principle in the camera system according to an embodiment. , FIG. 3 is a diagram for explaining a constraint condition of a camera system according to an embodiment. Hereinafter, for convenience of explanation, FIG. 1 is described with reference to one pixel to which OPA is applied in the camera system according to an embodiment, but the camera system according to an embodiment includes two pixels to which OPA is applied as shown in FIG. It is based on an image sensor that
도 1을 참조하면, 일 실시예에 따른 카메라 시스템(110)에서 이미지 센서의 픽셀 어레이에 포함되는 어느 하나의 픽셀에는 OPA(111)를 형성하기 위한 차광막(112)이 배치된다. 이 때, OPA(111)의 중심이 픽셀의 중심으로부터 오프셋된 거리인 O1는, 단일 렌즈(121)에 애퍼처(122)가 형성된 카메라 시스템(종래의 카메라 시스템)(120)에서의 애퍼처(122)의 중심이 단일 렌즈(121)의 중심으로부터 오프셋된 거리인 O2와 비례하는 관계를 갖는다.Referring to FIG. 1 , in any one pixel included in a pixel array of an image sensor in a
따라서, 픽셀의 중심으로부터 어긋난 중심 위치를 갖는 OPA(111)는 단일 렌즈(121)의 중심으로부터 어긋난 중심 위치를 갖도록 단일 렌즈(121) 상에 형성된 애퍼처(122)와 동일하게 치부될 수 있으며, 이로 인해 일 실시예에 따른 카메라 시스템(110)은 종래의 DA를 이용한 시차 방식에서의 깊이 산출 수식을 이용하여 피사체에 대한 깊이를 산출할 수 있다.Therefore, the OPA 111 having a central position shifted from the center of the pixel can be identical to the
보다 상세하게, 도 2를 참조하면, 일 실시예에 따른 카메라 시스템(200)에서 단일 렌즈(210)의 직경 및 초점 거리 f와 관련된 파라미터 (는, 단일 렌즈(210)의 직경 가 OPA들(221, 231)이 서로 이격된 거리(정확하게는, 제1 OPA(221)의 중심과 제2 OPA(231)의 중심 사이의 거리)인 및 OPA들(221, 231)을 형성하기 위한 차광막들(222, 232)이 배치되는 픽셀들(220, 230) 각각의 높이인 h와 관련하여 비례하는 관계를 갖기 때문에(), 픽셀들(220, 230) 각각의 높이인 h 및 OPA들(221, 231)이 서로 이격된 거리인 와 관련하여 비례하는 관계를 갖게 된다(). 이에, 일 실시예에 따른 카메라 시스템(200)은 종래의 DA를 이용한 시차 방식에서의 깊이 산출 수식을 기반으로 아래의 식 1을 이용하여 피사체에 대한 깊이를 산출할 수 있다.In more detail, referring to FIG. 2 , the diameter of the
<식 1><Equation 1>
식 1에서, ds는 일 실시예에 따른 카메라 시스템(200)의 이미지 센서에서 OPA들(221, 231)이 배치된 두 개의 픽셀들(220, 230)을 통해 획득되는 이미지들 사이의 시차를 의미하고, f는 초점 거리를 의미하며, a는 피사체 거리(피사체로부터 카메라 시스템의 단일 렌즈의 제1 주평면까지의 거리로서, 피사체에 대한 깊이에 해당됨)를 의미하고, 는 이미지 센서에 초점이 맞은 피사체 거리를 의미하며, 는 단일 렌즈(210)의 직경 및 초점 거리 f와 관련된 파라미터를 의미한다.In Equation 1, ds denotes a parallax between images acquired through two
이 때, 단일 렌즈(210)의 직경 및 초점 거리 f와 관련된 파라미터인 가 카메라 시스템(200)에 포함되는 단일 렌즈의 f 넘버보다 작을 경우, 도 3에 도시된 310 경우와 같이 이미지 촬영 자체가 불가능하다. 따라서, 는 반드시 320 경우와 같이 단일 렌즈(210)의 f 넘버보다 커야 한다.At this time, the diameter of the
한편, 식 1로부터 유도되는 픽셀 별 시차를 나타내는 아래의 식 2(식 2에서 d는 픽셀 사이즈를 의미함)는, 초점 거리인 f가 픽셀들로 구성되는 픽셀 어레이의 사이즈 및 FOV(Field Of View)와 관련하여 비례하는 관계를 갖고 있기 때문에(), 아래의 식 3과 같이 표현될 수 있다.On the other hand, in Equation 2 below (d means pixel size in Equation 2) representing the disparity for each pixel derived from Equation 1, the focal length f is the size of the pixel array composed of pixels and the field of view (FOV) ) because it has a proportional relationship with ( ), can be expressed as Equation 3 below.
<식 2><Equation 2>
<식 3><Equation 3>
따라서, 는 카메라 시스템(200)에서 OPA들(221, 231)이 서로 이격된 거리 및 OPA들(221, 231)을 형성하기 위한 차광막들(222, 232)이 배치되는 픽셀들(220, 230) 각각의 높이와 관련하여 비례하는 관계를 갖는다().thus, is a distance between the OPAs 221 and 231 in the
즉, 전술된 가 반드시 320 경우와 같이 단일 렌즈(210)의 f 넘버보다 커야 하는 제약 조건은, OPA들(221, 231)이 서로 이격된 거리 및 OPA들(221, 231)이 적용된 픽셀들(220, 230) 각각의 높이와 관련된 오프셋 f 넘버()가 단일 렌즈(210)의 f 넘버보다 커야 하는 제약 조건으로 해석될 수 있다. 이하, 설명되는 일 실시예에 따른 카메라 시스템(200)은 해당 제약 조건을 만족시키는 가운데, OPA들(221, 231)이 서로 이격된 거리가 최대화되도록 하는 구조를 갖는다. 이에 대한 상세한 설명은 아래에서 기재하기로 한다. That is, the above Constraints that must be greater than the f number of the
도 4는 일 실시예에 따른 카메라 시스템을 나타낸 도면이다.4 is a diagram illustrating a camera system according to an exemplary embodiment.
도 4를 참조하면, 일 실시예에 따른 카메라 시스템(400)은 단일 렌즈(410) 및 단일 렌즈(410) 아래 위치하는 이미지 센서(420)를 포함한다. 여기서, 이미지 센서(420)는 적어도 하나의 픽셀 어레이(421, 422)로 구성되며, 적어도 하나의 픽셀 어레이(421, 422) 각각은 2차원 배열의 복수의 픽셀들(예컨대, 배열의 4개의 픽셀들) 및 복수의 픽셀들의 상부에 공유되도록 배치되는 단일 마이크로 렌즈(421-1, 422-1)를 포함한다.Referring to FIG. 4 , a
이러한 구조의 일 실시예에 따른 카메라 시스템(400)은, 전술된 바와 같이 픽셀들에 OPA들을 적용함으로써, 단일 렌즈(410)에 DA가 적용된 경우와 유사하게 픽셀들을 통해 획득되는 이미지들 사이의 시차를 기반으로 피사체에 대한 깊이를 산출할 수 있으며, 단일 렌즈(410)에 DA를 적용한 경우보다 카메라 시스템의 단면적을 최소화하여 소형화를 도모할 수 있다. 이 때, 깊이 산출 동작은 카메라 시스템(400)에 더 포함되는 적어도 하나의 프로세서(도면에는 도시되지 않음)에서 수행될 수 있다.The
또한, 일 실시예에 따른 카메라 시스템(400)은 복수의 픽셀들이 단일 마이크로 렌즈(421-1, 422-1)를 공유하도록 함으로써, 복수의 픽셀들 각각에 마이크로 렌즈가 구비되는 경우보다 베이스라인을 증가시킬 수 있으며, 특히, OPA들이 서로 이격된 거리를 최대화하여 픽셀들 상에 형성 및 배치함으로써, 베이스라인을 더욱 증가시킬 수 있다. 따라서, 카메라 시스템(400)은 베이스라인을 증가시켜 이미지들 사이의 시차를 크게 하고 산출되는 깊이의 범위를 향상시킬 수 있다.In addition, the
이와 같은 일 실시예에 따른 카메라 시스템(400)의 적어도 하나의 픽셀 어레이(421, 422)에 대한 세부 구조는 아래에서 기재하기로 한다.A detailed structure of at least one
도 5는 일 실시예에 따른 카메라 시스템의 이미지 센서에 포함되는 픽셀 어레이를 설명하기 위한 도면이고, 도 6는 도 5에 도시된 OPA가 적용된 픽셀을 포함하는 픽셀 어레이와 등가의 렌즈 애퍼처를 나타낸 도면이다. 여기서, 도 5는 모노 이미지 센서에 대한 일 예시도를 나타낸 것이다.5 is a diagram for explaining a pixel array included in an image sensor of a camera system according to an embodiment, and FIG. 6 is a lens aperture equivalent to the pixel array including the pixel to which the OPA shown in FIG. 5 is applied. It is a drawing. Here, FIG. 5 shows an exemplary view of a mono image sensor.
도 5를 참조하면, 일 실시예에 따른 카메라 시스템의 이미지 센서에 포함되는 픽셀 어레이(500)는 도 4에 도시된 하나의 픽셀 어레이(421)를 나타낸다. 이하, 픽셀 어레이(500)는 단일 마이크로 렌즈(500-1)를 공유하는 배열의 복수의 픽셀들(511, 512, 513, 514)을 포함하는 것으로 설명되나, 이에 제한되거나 한정되지 않고, 배열 또는 배열 등 다양한 2차원 배열의 복수의 픽셀들을 포함할 수 있다.Referring to FIG. 5 , a
픽셀 어레이(500)의 복수의 픽셀들(511, 512, 513, 514) 각각의 상부에는 OPA(521, 531, 541, 551)를 형성하기 위한 차광막(520, 530, 540, 550)이 배치되며, 특히, OPA들(521, 531, 541, 551)은 서로 이격된 거리가 최대화되도록 차광막들(520, 530, 540, 550)을 이용하여 각각 형성된다. 예를 들어, 제1 픽셀(511)의 OPA(521) 및 제2 픽셀(512)의 OPA(531)는, 서로 이격된 거리가 최대화되도록 대각 방향으로 각각의 차광막(520, 530) 을 이용하여 도면과 같이 좌측 끝 및 우측 끝에 형성됨으로써, 수평적 시차를 획득하기 위한 수평 OPA들을 의미할 수 있고, 제3 픽셀(513)의 OPA(541) 및 제4 픽셀(514)의 OPA(551)는, 서로 이격된 거리가 최대화되도록 대각 방향으로 각각의 차광막(540, 550)을 이용하여 도면과 같이 상측 끝 및 하측 끝에 형성됨으로써, 수직적 시차를 획득하기 위한 수직 OPA들을 의미할 수 있다.Light blocking
또한, 각각의 픽셀들(511, 512, 513, 514)은 카메라 시스템의 베이스라인을 증가시키기 위하여, OPA들(521, 531, 541, 551)이 서로 이격되는 거리가 최대화되도록 픽셀 어레이(500) 상에 배치될 수 있다. 예를 들어, 수평 OPA들(521, 531)이 서로 이격된 거리가 최대화되도록 픽셀 어레이(500) 상에서 대각 방향으로 위치하는 픽셀들(511, 512) 상에 차광막들(520, 530)을 이용하여 형성할 수 있으며, 수직 OPA들(541, 551)이 서로 이격된 거리가 최대화되도록 픽셀 어레이(500) 상에서 대각 방향으로 위치하는 픽셀들(513, 514) 상에 차광막들(520, 530)을 이용하여 형성할 수 있고, 이에 따라, 수평 OPA들(521, 531) 및 수직 OPA들(541, 551)은, 서로 이격된 거리가 최대화되도록 픽셀 어레이(500)에서 대각 방향으로 배치될 수 있다.In addition, each of the
이와 같이 수평 OPA들(521, 531)과 수직 OPA들(541, 551)이 적용된 픽셀 어레이(500)를 포함하는 카메라 시스템은, 도 6에 도시된 등가의 렌즈 애퍼처(610)와 동일하게 치부됨으로써, 증가된 베이스라인을 갖게 될 수 있다.As described above, the camera system including the
이처럼 복수의 픽셀들(511, 512, 513, 514)에서 OPA들(521, 531, 541, 551)이 차광막들(520, 530, 540, 550)을 이용하여 각각 형성되는 위치가 결정되는 것은, 도 3을 참조로 전술된 제약 조건을 만족시키는 아래 카메라 시스템의 베이스라인의 길이를 최대화하도록 수행될 수 있다. 예를 들어, 수평 OPA들(521, 531)이 서로 이격된 거리와 수평 OPA들(521, 531)이 적용되는 적어도 두 개의 픽셀들(511, 512) 각각의 높이와 관련된 오프셋 f 넘버() 그리고 수직 OPA들(541, 551)이 서로 이격된 거리와 수직 OPA들(541, 551)이 적용되는 적어도 두 개의 픽셀들(513, 514) 각각의 높이와 관련된 오프셋 f 넘버()가 카메라 시스템의 단일 렌즈의 f 넘버보다 큰 제약 조건을 만족시키는 가운데, 수평 OPA들(521, 531)이 서로 이격된 거리와 수직 OPA들(541, 551)이 서로 이격된 거리가 최대화되도록 복수의 픽셀들(511, 512, 513, 514)에서 OPA들(521, 531, 541, 551)이 차광막들(520, 530, 540, 550)을 이용하여 각각 형성되는 위치가 결정될 수 있다. 여기서, 오프셋 f 넘버의 특성에 따르면, OPA들이 서로 이격된 거리 즉, 수평 OPA들(521, 531)이 서로 이격된 거리와 수직 OPA들(541, 551)이 서로 이격된 거리가 증가하더라도 OPA들(521, 531, 541, 551)이 적용되는 픽셀들(511, 512, 513, 514) 각각의 높이 역시 비례하여 증가된다면, 오프셋 f 넘버의 크기는 작아지지 않고 그대로 유지될 수 있다. 따라서, 일 실시예에 따른 카메라 시스템은 픽셀들(511, 512, 513, 514)을 수평 OPA들(521, 531)과 수직 OPA들(541, 551)이 서로 이격되는 거리가 최대화되도록 픽셀 어레이(500) 상에 배치하고, 서로 이격된 거리가 최대화되도록 차광막들(520, 530, 540, 550)을 이용하여 OPA들(521, 531, 541, 551)을 각각 형성하는 동시에, OPA들(521, 531, 541, 551)이 적용되는 픽셀들(511, 512, 513, 514) 각각의 높이 역시 증가시킴으로써, 오프셋 f 넘버가 단일 렌즈의 f 넘버보다 커야 하는 제약 조건을 만족시킬 수 있다.As such, in the plurality of
이 때, OPA들(521, 531, 541, 551)은 픽셀들(511, 512, 513, 514) 각각을 기준으로 서로 어긋난 중심 위치를 갖도록 차광막들(520, 530, 540, 550)을 이용하여 각각 형성될 수 있다. 예컨대, 제1 OPA(521)는 제1 픽셀(511)의 중심을 기준으로 좌측으로 어긋난 중심 위치를 갖고, 제2 OPA(531)는 제2 픽셀(512)의 중심을 기준으로 우측으로 어긋난 중심 위치를 가짐으로써, 제1 OPA(521)와 제2 OPA(531)는 서로 어긋난 중심 위치를 갖는 수평 OPA들을 형성할 수 있고, 제3 OPA(541)는 제3 픽셀(513)의 중심을 기준으로 상측으로 어긋난 중심 위치를 갖고, 제4 OPA(551)는 제4 픽셀(514)의 중심을 기준으로 하측으로 어긋난 중심 위치를 가짐으로써, 제3 OPA(541)와 제4 OPA(551)는 서로 어긋난 중심 위치를 갖는 수직 OPA들을 형성할 수 있다. 이에, 제1 픽셀(511)과 제2 픽셀(512)을 통해 획득되는 이미지들 사이와 제3 픽셀(513)과 제4 픽셀(514)을 통해 획득되는 이미지들 사이에서 시차가 존재하게 되고, 이로 인해 카메라 시스템은 이미지들 사이의 시차를 기반으로 피사체에 대한 깊이를 산출할 수 있다. 즉, 카메라 시스템은 수평 OPA들(521, 531)이 형성된 제1 픽셀(511)과 제2 픽셀(512)을 통해 획득된 두 개의 이미지들 사이의 수평적 시차와 수직 OPA들(541, 551)이 형성된 제3 픽셀(513)과 제4 픽셀(514)을 통해 획득된 두 개의 이미지들 사이의 수직적 시차를 이용하여 피사체에 대한 깊이를 산출할 수 있다.In this case, the
이상 설명된 구조의 픽셀 어레이(500)를 적어도 하나 이상 포함하는 이미지 센서 및 단일 렌즈로 구성되는 카메라 시스템은, 수평 OPA들과 수직 OPA들(521, 531, 541, 551)이 적용된 픽셀들(511, 512, 513, 514)을 통해 획득되는 이미지들 사이의 수평적 시차와 수직적 시차를 기반으로 피사체에 대한 깊이를 산출할 수 있고, 단일 렌즈에 DA를 적용한 경우보다 카메라 시스템의 단면적을 최소화하여 소형화를 도모할 수 있으며, 복수의 픽셀들(511, 512, 513, 514)이 단일 마이크로 렌즈를 공유하도록 하고 OPA들(521, 531, 541, 551)이 서로 이격된 거리를 최대화하여 OPA들(521, 531, 541, 551)을 픽셀들(511, 512, 513, 514) 상에 형성 및 배치함으로써, 베이스라인을 증가시킬 수 있다. 또한, 모노 이미지 센서를 구성하는 카메라 시스템은, 픽셀 어레이들 각각에 수평 OPA들과 수직 OPA들을 형성함으로써, 픽셀 어레이들 각각에서, 수평적 시차와 수직적 시차를 획득하고, 이를 통해 피사체에 대한 깊이의 범위를 향상시킬 수 있다.A camera system including an image sensor and a single lens including at least one
도 7은 다른 일 실시예에 따른 카메라 시스템의 이미지 센서에 포함되는 픽셀 어레이들을 설명하기 위한 도면으로, 컬러 이미지 센서 예를 들어, RGGB의 픽셀들을 포함하는 픽셀 어레이들을 설명하기 위한 도면이다.7 is a diagram for explaining pixel arrays included in an image sensor of a camera system according to another exemplary embodiment, and is a diagram for explaining pixel arrays including pixels of a color image sensor, for example, RGB.
도 7을 참조하면, 다른 일 실시예에 따른 카메라 시스템의 이미지 센서에 포함되는 제1 픽셀 어레이(710)와 제2 픽셀 어레이(720)는 도 4에 도시된 하나의 픽셀 어레이(421, 422)를 나타낸다. 이하, 제1 픽셀 어레이(710)는 단일 마이크로 렌즈를 공유하는 배열의 복수의 픽셀들(711, 712, 713, 714)을 포함하고, 제2 픽셀 어레이(720)는 단일 마이크로 렌즈를 공유하는 배열의 복수의 픽셀들(721, 722, 723, 724)을 포함하는 것으로 설명되나, 이에 제한되거나 한정되지 않고, 배열 또는 배열 등 다양한 2차원 배열의 복수의 픽셀들을 포함할 수 있다.Referring to FIG. 7 , a
제1 픽셀 어레이의 RGGB 픽셀들(711, 712, 713, 714) 중 두 개의 G 픽셀들(712, 713) 각각의 상부에는 수평 OPA들(731, 741)을 형성하기 위한 차광막(730, 740)이 배치되고, 제2 픽셀 어레이의 RGGB 픽셀들(721, 722, 723, 724) 중 두 개의 G 픽셀들(722, 723) 각각의 상부에는 수직 OPA들(751, 761)을 형성하기 위한 차광막(750, 760)이 배치된다. 특히, 수평 OPA들(731, 741)과 수직 OPA들(751, 761) 각각은 서로 이격된 거리가 최대화되도록 차광막들(730, 740, 750, 760)을 이용하여 각각 형성된다. 예를 들어, 제1 픽셀 어레이(710)에서 제1 G 픽셀(712)의 OPA(731) 및 제2 G 픽셀(713)의 OPA(741)는, 서로 이격된 거리가 최대화되도록 대각 방향으로 각각의 차광막(730, 740)을 이용하여 도면과 같이 우측 끝 및 좌측 끝에 형성될 수 있고, 제2 픽셀 어레이(720)에서 제1 G 픽셀(722)의 OPA(751) 및 제2 G 픽셀(723)의 OPA(761)는, 서로 이격된 거리가 최대화되도록 대각 방향으로 각각의 차광막(750, 760)을 이용하여 도면과 같이 상측 끝 및 하측 끝에 형성될 수 있다.Light blocking
즉, 제1 픽셀 어레이(710)에서는 두 개의 G 픽셀 상에 형성되는 수평 OPA들(731, 741)을 이용하여 수평적 시차를 획득하기 위한 두 개의 이미지들을 획득하고, 제2 픽셀 어레이(720)에서는 두 개의 G 픽셀 상에 형성되는 수직 OPA들(751, 761)을 이용하여 수직적 시차를 획득하기 위한 두 개의 이미지들을 획득함으로써, 이렇게 획득된 수평적 시차와 수직적 시차를 이용하여 피사체에 대한 깊이를 산출할 수 있다. 이에 따라, 수평적 시차 또는 수직적 시차 중 어느 하나의 시차만을 이용하여 깊이를 산출하는데 있어서 그 정확성이 떨어지거나 깊이의 범위가 떨어지는 경우 본 발명과 같이 수평적 시차와 수직적 시차를 이용하여 깊이를 산출함으로써, 산출되는 깊이의 정확성 또는 깊이의 범위를 향상시킬 수 있다. 물론, 다른 일 실시예에 따른 카메라 시스템은 제1 픽셀 어레이(710)와 제2 픽셀 어레이(720)가 수평적과 수직적으로 어레이 형태로 배열될 수 있다. That is, in the
이와 같이, 도 7의 구조의 픽셀 어레이(700)를 적어도 하나 이상 포함하는 이미지 센서 및 단일 렌즈로 구성되는 카메라 시스템은, 수평 OPA들(731, 741)이 적용된 픽셀들과 수직 OPA들(751, 761)이 적용된 픽셀들을 통해 획득되는 이미지들 사이의 수평적 시차와 수직적 시차를 기반으로 피사체에 대한 깊이를 산출할 수 있고, 단일 렌즈에 DA를 적용한 경우보다 카메라 시스템의 단면적을 최소화하여 소형화를 도모할 수 있다.As described above, the camera system including at least one image sensor including at least one
비록, 도 7에서 컬러 이미지 센서를 RGGB의 픽셀들을 포함하는 픽셀 어레이들로 설명하였지만, 컬러 이미지 센서가 RGGB의 픽셀들을 포함하는 픽셀 어레이들로 한정되거나 제한되지 않으며, 픽셀 어레이에 동일한 컬러 픽셀을 두 개 이상 포함하는 컬리 이미지 센서에 모두 적용될 수 있다.Although the color image sensor has been described with pixel arrays including pixels of RGBGB in FIG. 7, the color image sensor is not limited or limited to pixel arrays including pixels of RGB, and it is possible to include pixels of the same color in a pixel array. It can be applied to all curly image sensors including more than one.
여기서, 또 다른 카메라 시스템은 상술한 내용으로 한정되거나 제한되지 않으며, 상기 도 1 내지 도 6에서 설명한 모든 내용을 포함할 수 있다.Here, the other camera system is not limited or limited to the above-described content, and may include all the content described with reference to FIGS. 1 to 6 .
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, the apparatus and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU). It may be implemented using one or more general purpose or special purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be embodied in any tangible machine, component, physical device, computer storage medium or device for interpretation by or providing instructions or data to the processing device. have. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. In this case, the medium may be to continuously store a program executable by a computer, or to temporarily store it for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or several hardware combined, it is not limited to a medium directly connected to any computer system, and may exist distributed over a network. Examples of the medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floppy disk, and those configured to store program instructions, including ROM, RAM, flash memory, and the like. In addition, examples of other media may include recording media or storage media managed by an app store that distributes applications, sites that supply or distribute other various software, and servers.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (9)
적어도 하나의 픽셀 어레이-상기 적어도 하나의 픽셀 어레이는 2차원 배열의 복수의 픽셀들을 포함함-로 구성되는 이미지 센서
를 포함하고,
상기 복수의 픽셀들 각각의 상부에는 OPA(Offset Pixel Aperture)를 형성하기 위한 차광막이 배치되며,
상기 OPA들은, 서로 이격된 거리가 최대화되도록 상기 차광막들 각각에 의해 형성되고, 수평 방향의 시차를 획득하기 위한 한 쌍의 수평 OPA들과 수직 방향의 시차를 획득하기 위한 한 쌍의 수직 OPA들을 포함하는, 카메라 시스템.single lens; and
an image sensor comprising at least one pixel array, said at least one pixel array comprising a plurality of pixels in a two-dimensional array
including,
A light blocking film for forming an Offset Pixel Aperture (OPA) is disposed on each of the plurality of pixels,
The OPAs include a pair of horizontal OPAs for obtaining parallax in a horizontal direction and a pair of vertical OPAs for obtaining parallax in a vertical direction, which are formed by each of the light-shielding layers such that a distance apart from each other is maximized. which is a camera system.
상기 수평 OPA들 각각과 상기 수직 OPA들 각각은,
대각 방향에 위치한 픽셀들 각각의 상부에 형성되는, 것을 특징으로 하는 카메라 시스템.According to claim 1,
Each of the horizontal OPAs and each of the vertical OPAs,
The camera system, characterized in that formed on top of each of the pixels located in the diagonal direction.
상기 수평 OPA들 각각은
해당 픽셀들 각각의 중심을 기준으로 좌측 방향으로 편향된 좌측 OPA와 우측 방향으로 편향된 우측 OPA를 포함하고,
상기 수직 OPA들 각각은,
해당 픽셀들 각각의 중심을 기준으로 상부 방향으로 편향된 상측 OPA와 하부 방향으로 편향된 하측 OPA를 포함하는, 것을 특징으로 하는 카메라 시스템.According to claim 1,
Each of the horizontal OPAs is
It includes a left OPA biased in the left direction and a right OPA biased in the right direction with respect to the center of each pixel,
Each of the vertical OPAs,
A camera system comprising: an upper OPA deflected in an upward direction and a lower OPA deflected in a downward direction with respect to the center of each pixel.
상기 이미지 센서는,
모노 이미지 센서인, 것을 특징으로 하는 카메라 시스템.According to claim 1,
The image sensor is
A camera system, characterized in that it is a mono image sensor.
상기 수평 OPA들이 형성된 두 개의 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수평적 시차(Disparity)와 상기 수직 OPA들이 형성된 두 개의 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수직적 시차를 이용하여 피사체에 대한 깊이를 산출하는 적어도 하나의 프로세서
를 더 포함하는 카메라 시스템.According to claim 1,
Using a horizontal disparity between two images obtained through the two pixels in which the horizontal OPAs are formed and a vertical disparity between two images obtained through the two pixels in which the vertical OPAs are formed, at least one processor to compute the depth for
A camera system further comprising a.
제1 픽셀, 제2 픽셀 및 두 개의 제3 픽셀들로 구성되는 2×2의 제1 픽셀 어레이와 제2 픽셀 어레이를 포함하는 이미지 센서
를 포함하고,
상기 제3 픽셀들 각각의 상부에는 OPA(Offset Pixel Aperture)를 형성하기 위한 차광막이 배치되며,
상기 제1 픽셀 어레이는
상기 제3 픽셀들 상부에 수평 방향의 시차를 획득하기 위한 한 쌍의 수평 OPA들을 형성하고,
상기 제2 픽셀 어레이는
상기 제3 픽셀들 상부에 수직 방향의 시차를 획득하기 위한 한 쌍의 수직 OPA들을 형성하는, 카메라 시스템.single lens; and
An image sensor comprising a first pixel array and a second pixel array of 2×2 consisting of a first pixel, a second pixel and two third pixels
including,
A light blocking film for forming an Offset Pixel Aperture (OPA) is disposed on each of the third pixels,
the first pixel array
A pair of horizontal OPAs for obtaining a parallax in a horizontal direction are formed on the third pixels;
the second pixel array
and forming a pair of vertical OPAs on top of the third pixels to obtain parallax in a vertical direction.
상기 수평 OPA들 각각과 상기 수직 OPA들 각각은,
대각 방향에 위치한 상기 제3 픽셀들 각각의 상부에 형성되는, 것을 특징으로 하는 카메라 시스템.7. The method of claim 6,
Each of the horizontal OPAs and each of the vertical OPAs,
The camera system, characterized in that formed on each of the third pixels located in the diagonal direction.
상기 수평 OPA들 각각은
상기 제3 픽셀들 각각의 중심을 기준으로 좌측 방향으로 편향된 좌측 OPA와 우측 방향으로 편향된 우측 OPA를 포함하고,
상기 수직 OPA들 각각은,
상기 제3 픽셀들 각각의 중심을 기준으로 상부 방향으로 편향된 상측 OPA와 하부 방향으로 편향된 하측 OPA를 포함하는, 것을 특징으로 하는 카메라 시스템.7. The method of claim 6,
Each of the horizontal OPAs is
a left OPA biased in a left direction and a right OPA biased in a right direction with respect to the center of each of the third pixels;
Each of the vertical OPAs,
and an upper OPA biased in an upward direction and a lower OPA biased in a downward direction with respect to the center of each of the third pixels.
상기 수평 OPA들이 형성된 상기 제3 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수평적 시차(Disparity)와 상기 수직 OPA들이 형성된 상기 제3 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수직적 시차를 이용하여 피사체에 대한 깊이를 산출하는 적어도 하나의 프로세서
를 더 포함하는 카메라 시스템.7. The method of claim 6,
Using a horizontal disparity between two images obtained through the third pixels in which the horizontal OPAs are formed and a vertical disparity between two images obtained through the third pixels in which the vertical OPAs are formed at least one processor that calculates depth for the subject
A camera system further comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200096628A KR102465492B1 (en) | 2020-08-03 | 2020-08-03 | Camera system with offset pixel aperture for acquiring horizontal and vertical disparity |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200096628A KR102465492B1 (en) | 2020-08-03 | 2020-08-03 | Camera system with offset pixel aperture for acquiring horizontal and vertical disparity |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220016574A true KR20220016574A (en) | 2022-02-10 |
KR102465492B1 KR102465492B1 (en) | 2022-11-11 |
Family
ID=80253800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200096628A KR102465492B1 (en) | 2020-08-03 | 2020-08-03 | Camera system with offset pixel aperture for acquiring horizontal and vertical disparity |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102465492B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012168246A (en) * | 2011-02-10 | 2012-09-06 | Olympus Corp | Imaging element and imaging device |
KR20130066565A (en) * | 2010-04-08 | 2013-06-20 | 소니 주식회사 | Image pickup apparatus, solid-state image pickup device, and image pickup method |
KR102025012B1 (en) * | 2018-05-08 | 2019-09-24 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Multi pixel micro lens pixel array and camera system for solving color mix and operating method thereof |
-
2020
- 2020-08-03 KR KR1020200096628A patent/KR102465492B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130066565A (en) * | 2010-04-08 | 2013-06-20 | 소니 주식회사 | Image pickup apparatus, solid-state image pickup device, and image pickup method |
JP2012168246A (en) * | 2011-02-10 | 2012-09-06 | Olympus Corp | Imaging element and imaging device |
KR102025012B1 (en) * | 2018-05-08 | 2019-09-24 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Multi pixel micro lens pixel array and camera system for solving color mix and operating method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102465492B1 (en) | 2022-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3399355B1 (en) | Dual-core focusing image sensor, focusing control method for the same, and electronic device | |
US11082605B2 (en) | Method of photography processing for camera module, terminal, using same and storage medium implementing same | |
KR102370062B1 (en) | Method of determining calibration parameter for 3d display device and 3d display device thereof | |
KR102025012B1 (en) | Multi pixel micro lens pixel array and camera system for solving color mix and operating method thereof | |
CN110493586B (en) | Camera system for increasing baseline | |
US8750600B2 (en) | Apparatus and method for generating three-dimensional (3D) zoom image of stereo camera | |
US20190132581A1 (en) | Method and apparatus for calibrating parameter of three-dimensional (3d) display apparatus | |
KR102060880B1 (en) | Endomicroscopy using single lens camera and operating method thereof | |
US20170214900A1 (en) | Method and apparatus for correcting image error in naked-eye three-dimensional (3d) display | |
JP6717576B2 (en) | Video rendering apparatus and method | |
KR102465492B1 (en) | Camera system with offset pixel aperture for acquiring horizontal and vertical disparity | |
JP4205533B2 (en) | 3D image construction method, 3D object distance derivation method | |
KR102309976B1 (en) | System for simultaneoiusly displaying images containing different information for a scene and method therefore | |
KR101861927B1 (en) | Image sensor adapted multiple fill factor | |
KR102382206B1 (en) | Camera system with offset pixel aperture and operation method thereof | |
US10008030B2 (en) | Method and apparatus for generating images | |
KR20220016575A (en) | Camera system with offset pixel aperture for increasing baseline structure | |
KR102148127B1 (en) | Camera system with complementary pixlet structure | |
KR102371801B1 (en) | Camera system with complementary pixlet structure and operation method thereof | |
KR20230009031A (en) | Camera system based on ocl and operation method thereof | |
KR102177400B1 (en) | Camera system for improving depth accuracy with low complexity and operation method thereof | |
KR102476852B1 (en) | Method for generating image and apparatus thereof | |
KR102307594B1 (en) | Camera system with triple pixel-based complementary pixlet structure and operation method thereof | |
KR102209908B1 (en) | Image transform camera apparatus for implementing bellows camera in software and operation method thereof | |
KR102354298B1 (en) | Camera system with complementary pixlet structure in quard bayer coding pattern and operation method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |