KR20220016574A - Camera system with offset pixel aperture for acquiring horizontal and vertical disparity - Google Patents

Camera system with offset pixel aperture for acquiring horizontal and vertical disparity Download PDF

Info

Publication number
KR20220016574A
KR20220016574A KR1020200096628A KR20200096628A KR20220016574A KR 20220016574 A KR20220016574 A KR 20220016574A KR 1020200096628 A KR1020200096628 A KR 1020200096628A KR 20200096628 A KR20200096628 A KR 20200096628A KR 20220016574 A KR20220016574 A KR 20220016574A
Authority
KR
South Korea
Prior art keywords
opas
pixels
horizontal
camera system
vertical
Prior art date
Application number
KR1020200096628A
Other languages
Korean (ko)
Other versions
KR102465492B1 (en
Inventor
경종민
Original Assignee
주식회사 덱셀리온
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 덱셀리온 filed Critical 주식회사 덱셀리온
Priority to KR1020200096628A priority Critical patent/KR102465492B1/en
Publication of KR20220016574A publication Critical patent/KR20220016574A/en
Application granted granted Critical
Publication of KR102465492B1 publication Critical patent/KR102465492B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • H04N5/2253
    • H04N5/36965

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Measurement Of Optical Distance (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Disclosed is a camera system with an OPA for acquiring horizontal disparity and vertical disparity. According to one embodiment, the camera system comprises: a single lens; and an image sensor consisting of at least one pixel array, wherein the at least one pixel array includes a plurality of pixels in a two-dimensional array. A light blocking film for forming an offset pixel aperture (OPA) is disposed in the upper part of each of the plurality of pixels. The OPAs are formed by each of the light blocking layers to maximize a distance apart from each other, and the OPAs include one pair of horizontal OPAs for acquiring disparity in a horizontal direction and one pair of vertical OPAs for acquiring disparity in a vertical direction.

Description

수평적 시차와 수직적 시차를 획득하기 위한 OPA를 구비한 카메라 시스템{CAMERA SYSTEM WITH OFFSET PIXEL APERTURE FOR ACQUIRING HORIZONTAL AND VERTICAL DISPARITY}CAMERA SYSTEM WITH OFFSET PIXEL APERTURE FOR ACQUIRING HORIZONTAL AND VERTICAL DISPARITY

아래의 설명은 수평적 시차(Disparity)와 수직적 시차를 이용하여 피사체에 대한 깊이를 산출하는 카메라 시스템에 관한 것으로, 구체적으로 산출되는 깊이의 범위를 향상시키고자 베이스라인을 증가시킨 구조를 갖는 카메라 시스템에 대한 기술이다.The following description relates to a camera system that calculates depth for a subject by using horizontal disparity and vertical disparity. Specifically, the camera system has a structure in which a baseline is increased to improve the range of the calculated depth. is a technique for

카메라 시스템(정확하게는 카메라 시스템에 포함되는 이미지 센서)과 피사체 사이의 거리로 나타내는 피사체에 대한 깊이가 산출되는 방식으로는, 카메라 시스템의 복수의 애퍼처들을 통해 획득되는 이미지들 사이의 블러(blur) 변화를 이용하는 방식과 시차를 이용하는 방식이 있다.In a manner in which the depth of the subject indicated by the distance between the camera system (exactly, the image sensor included in the camera system) and the subject is calculated, blur between images acquired through a plurality of apertures of the camera system There is a method that uses change and a method that uses time difference.

보다 상세하게 종래의 시차를 이용하는 방식은, 두 개의 렌즈들 및 이미지 센서로 스테레오 카메라 시스템을 구성한 뒤, 두 개의 렌즈들을 통해 각각 유입되는 광 신호를 처리하여 시차가 존재하는 두 개의 이미지들을 획득하고, 수식을 통해 두 개의 이미지들 사이의 시차를 기반으로 피사체에 대한 깊이를 계산할 수 있다.In more detail, the conventional method using parallax is to configure a stereo camera system with two lenses and an image sensor, and then process an optical signal that is respectively introduced through the two lenses to obtain two images with parallax, Through the formula, the depth of the subject can be calculated based on the parallax between the two images.

그러나 종래의 시차를 이용하는 방식은 두 개의 렌즈들로 하나의 카메라 시스템을 구성하기 때문에, 넓은 단면적으로 인해 소형화가 힘든 단점과 카메라 시스템의 베이스라인의 길이가 짧아 이미지들 사이의 시차가 작게 되어 산출되는 깊이의 범위가 저하되는 문제점을 갖는다.However, since the conventional method using parallax constitutes one camera system with two lenses, it is difficult to miniaturize due to a large cross-sectional area, and the length of the baseline of the camera system is short, so that the parallax between images is small. There is a problem in that the range of depth is reduced.

이에, 카메라 시스템에서 종래의 시차를 이용하는 방식의 단점과 문제점을 해결하기 위한 기술이 요구되고 있다.Accordingly, there is a need for a technique for solving the disadvantages and problems of the conventional method of using parallax in a camera system.

일 실시예들은 넓은 단면적으로 인해 소형화가 힘든 단점과 이미지들 사이의 시차가 작아 산출되는 깊이의 범위가 저하되는 문제점을 해결하기 위한 구조를 갖는 카메라 시스템을 제안한다.One embodiment proposes a camera system having a structure to solve the problem of difficulty in miniaturization due to the large cross-sectional area and the problem that the range of the calculated depth is reduced due to the small parallax between the images.

구체적으로, 일 실시예들은 이미지 센서에 포함되는 모노 픽셀들 각각에 OPA(Offset Pixel Aperture)들을 적용함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 구조를 제안한다.Specifically, one embodiment proposes a structure for miniaturizing a camera system by minimizing the cross-sectional area of the camera system by applying Offset Pixel Apertures (OPAs) to each of the mono pixels included in the image sensor.

또한, 일 실시예들은 수평적 시차를 획득하기 위한 한 쌍의 수평 OPA들과 수직적 시차를 획득하기 위한 한 쌍의 수직 OPA들을 형성하고, 수평 OPA들과 수직 OPA들을 이용하여 수평적 시차와 수직적 시차를 획득함으로써, 산출되는 깊이의 범위를 향상시키는 구조를 제안한다.In addition, one embodiment forms a pair of horizontal OPAs for obtaining horizontal parallax and a pair of vertical OPAs for obtaining vertical parallax, and uses the horizontal OPAs and vertical OPAs to obtain horizontal parallax and vertical parallax By obtaining , we propose a structure that improves the range of the calculated depth.

일 실시예에 따르면, 카메라 시스템은, 단일 렌즈; 및 적어도 하나의 픽셀 어레이-상기 적어도 하나의 픽셀 어레이는 2차원 배열의 복수의 픽셀들을 포함함-로 구성되는 이미지 센서를 포함하고, 상기 복수의 픽셀들 각각의 상부에는 OPA(Offset Pixel Aperture)를 형성하기 위한 차광막이 배치되며, 상기 OPA들은, 서로 이격된 거리가 최대화되도록 상기 차광막들 각각에 의해 형성되고, 수평 방향의 시차를 획득하기 위한 한 쌍의 수평 OPA들과 수직 방향의 시차를 획득하기 위한 한 쌍의 수직 OPA들을 포함한다.According to one embodiment, a camera system comprises: a single lens; and at least one pixel array, wherein the at least one pixel array includes a plurality of pixels in a two-dimensional array, wherein an Offset Pixel Aperture (OPA) is disposed on each of the plurality of pixels. A light-shielding film for forming is disposed, and the OPAs are formed by each of the light-shielding films so that a distance apart from each other is maximized, and a pair of horizontal OPAs for obtaining a parallax in a horizontal direction and a pair of horizontal OPAs to obtain a parallax in a vertical direction A pair of vertical OPAs for

일 측면에 따르면, 상기 수평 OPA들 각각과 상기 수직 OPA들 각각은, 대각 방향에 위치한 픽셀들 각각의 상부에 형성되는 것을 특징으로 할 수 있다.According to one aspect, each of the horizontal OPAs and each of the vertical OPAs may be formed on top of pixels located in a diagonal direction.

다른 일 측면에 따르면, 상기 수평 OPA들 각각은 해당 픽셀들 각각의 중심을 기준으로 좌측 방향으로 편향된 좌측 OPA와 우측 방향으로 편향된 우측 OPA를 포함하고, 상기 수직 OPA들 각각은, 해당 픽셀들 각각의 중심을 기준으로 상부 방향으로 편향된 상측 OPA와 하부 방향으로 편향된 하측 OPA를 포함하는 것을 특징으로 할 수 있다.According to another aspect, each of the horizontal OPAs includes a left OPA biased in a left direction and a right OPA biased in a right direction with respect to the center of each pixel, and each of the vertical OPAs includes a It may be characterized in that it includes an upper OPA biased in an upward direction with respect to the center and a lower OPA biased in a downward direction.

또 다른 일 측면에 따르면, 상기 OPA들 중 대각 방향에 위치한 두 개의 OPA들은, 해당 픽셀들 각각을 기준으로 서로 어긋난 중심 위치를 갖는 것을 특징으로 할 수 있다.According to another aspect, two OPAs located in a diagonal direction among the OPAs may have center positions shifted from each other with respect to each of the corresponding pixels.

또 다른 일 측면에 따르면, 상기 이미지 센서는, 모노 이미지 센서인 것을 특징으로 할 수 있다.According to another aspect, the image sensor may be a mono image sensor.

또 다른 일 측면에 따르면, 상기 수평 OPA들이 형성된 두 개의 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수평적 시차(Disparity)와 상기 수직 OPA들이 형성된 두 개의 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수직적 시차를 이용하여 피사체에 대한 깊이를 산출하는 적어도 하나의 프로세서를 더 포함하는 것을 특징으로 할 수 있다.According to another aspect, a horizontal disparity between two images obtained through the two pixels in which the horizontal OPAs are formed and between two images obtained through the two pixels in which the vertical OPAs are formed It may be characterized by further comprising at least one processor for calculating the depth of the subject by using the vertical parallax.

다른 일 실시예에 따르면, 카메라 시스템은, 단일 렌즈; 및 제1 픽셀, 제2 픽셀 및 두 개의 제3 픽셀들로 구성되는 2×2의 제1 픽셀 어레이와 제2 픽셀 어레이를 포함하는 이미지 센서를 포함하고, 상기 제3 픽셀들 각각의 상부에는 OPA(Offset Pixel Aperture)를 형성하기 위한 차광막이 배치되며, 상기 제1 픽셀 어레이는 상기 제3 픽셀들 상부에 수평 방향의 시차를 획득하기 위한 한 쌍의 수평 OPA들을 형성하고, 상기 제2 픽셀 어레이는 상기 제3 픽셀들 상부에 수직 방향의 시차를 획득하기 위한 한 쌍의 수직 OPA들을 형성하는 것을 특징으로 한다.According to another embodiment, the camera system includes a single lens; and an image sensor including a first pixel array and a second pixel array of 2×2 each including a first pixel, a second pixel, and two third pixels, wherein an OPA is disposed on each of the third pixels A light blocking film for forming an Offset Pixel Aperture is disposed, the first pixel array forms a pair of horizontal OPAs on the third pixels to obtain a parallax in a horizontal direction, and the second pixel array includes A pair of vertical OPAs for obtaining a parallax in a vertical direction are formed on the third pixels.

일 측면에 따르면, 상기 수평 OPA들 각각과 상기 수직 OPA들 각각은, 대각 방향에 위치한 상기 제3 픽셀들 각각의 상부에 형성되는 것을 특징으로 할 수 있다.According to one aspect, each of the horizontal OPAs and each of the vertical OPAs may be formed on top of each of the third pixels located in a diagonal direction.

다른 일 측면에 따르면, 상기 수평 OPA들 각각은 상기 제3 픽셀들 각각의 중심을 기준으로 좌측 방향으로 편향된 좌측 OPA와 우측 방향으로 편향된 우측 OPA를 포함하고, 상기 수직 OPA들 각각은, 상기 제3 픽셀들 각각의 중심을 기준으로 상부 방향으로 편향된 상측 OPA와 하부 방향으로 편향된 하측 OPA를 포함하는 것을 특징으로 할 수 있다.According to another aspect, each of the horizontal OPAs includes a left OPA biased in a left direction and a right OPA biased in a right direction with respect to the center of each of the third pixels, and each of the vertical OPAs includes the third It may be characterized in that it includes an upper OPA biased in an upward direction and a lower OPA biased in a downward direction with respect to the center of each pixel.

또 다른 일 측면에 따르면, 상기 수평 OPA들이 형성된 상기 제3 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수평적 시차(Disparity)와 상기 수직 OPA들이 형성된 상기 제3 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수직적 시차를 이용하여 피사체에 대한 깊이를 산출하는 적어도 하나의 프로세서를 더 포함하는 것을 특징으로 할 수 있다.According to another aspect, a horizontal disparity between two images obtained through the third pixels in which the horizontal OPAs are formed and two images obtained through the third pixels in which the vertical OPAs are formed It may be characterized by further comprising at least one processor for calculating the depth of the subject by using the vertical parallax therebetween.

일 실시예들은 넓은 단면적으로 인해 소형화가 힘든 단점과 이미지들 사이의 시차가 작아 산출되는 깊이의 범위가 저하되는 문제점을 해결하기 위한 구조를 갖는 카메라 시스템을 제안할 수 있다.One embodiment may propose a camera system having a structure to solve the problem of difficulty in miniaturization due to the large cross-sectional area and the problem that the range of the calculated depth is reduced due to the small parallax between the images.

구체적으로, 일 실시예들은 이미지 센서에 포함되는 모노 픽셀들 각각에 OPA(Offset Pixel Aperture)들을 적용함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 구조를 제안할 수 있다.Specifically, embodiments may propose a structure for miniaturization by minimizing the cross-sectional area of a camera system by applying Offset Pixel Apertures (OPAs) to each of the mono pixels included in the image sensor.

또한, 일 실시예들은 수평적 시차를 획득하기 위한 한 쌍의 수평 OPA들과 수직적 시차를 획득하기 위한 한 쌍의 수직 OPA들을 형성하고, 수평 OPA들과 수직 OPA들을 이용하여 수평적 시차와 수직적 시차를 획득함으로써, 산출되는 깊이의 범위를 향상시키는 구조를 제안할 수 있다.In addition, one embodiment forms a pair of horizontal OPAs for obtaining horizontal parallax and a pair of vertical OPAs for obtaining vertical parallax, and uses the horizontal OPAs and vertical OPAs to obtain horizontal parallax and vertical parallax By obtaining , it is possible to propose a structure that improves the range of the calculated depth.

도 1은 일 실시예에 따른 카메라 시스템과 단일 렌즈에 애퍼처가 적용된 카메라 시스템 사이의 관계를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 카메라 시스템에서의 깊이 산출 원리를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 카메라 시스템의 제약 조건을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 카메라 시스템을 나타낸 도면이다.
도 5는 일 실시예에 따른 카메라 시스템의 이미지 센서에 포함되는 픽셀 어레이를 설명하기 위한 도면이다.
도 6는 도 5에 도시된 OPA가 적용된 픽셀을 포함하는 픽셀 어레이와 등가의 렌즈 애퍼처를 나타낸 도면이다.
도 7은 다른 일 실시예에 따른 카메라 시스템의 이미지 센서에 포함되는 픽셀 어레이들을 설명하기 위한 도면이다.
1 is a diagram for describing a relationship between a camera system according to an exemplary embodiment and a camera system in which an aperture is applied to a single lens.
2 is a diagram for explaining a depth calculation principle in a camera system according to an exemplary embodiment.
3 is a diagram for describing a constraint condition of a camera system according to an exemplary embodiment.
4 is a diagram illustrating a camera system according to an exemplary embodiment.
5 is a diagram for describing a pixel array included in an image sensor of a camera system according to an exemplary embodiment.
FIG. 6 is a diagram illustrating a lens aperture equivalent to a pixel array including pixels to which the OPA shown in FIG. 5 is applied.
7 is a diagram for describing pixel arrays included in an image sensor of a camera system according to another exemplary embodiment.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the examples. Also, like reference numerals in each figure denote like members.

또한, 본 명세서에서 사용되는 용어(Terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 예컨대, 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 또한, 본 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.In addition, the terms (Terminology) used in this specification are terms used to properly express a preferred embodiment of the present invention, which may vary depending on the intention of a viewer or operator or a custom in the field to which the present invention belongs. Accordingly, definitions of these terms should be made based on the content throughout this specification. For example, in this specification, the singular also includes the plural unless specifically stated in the phrase. Also, as used herein, “comprises” and/or “comprising” refers to a referenced component, step, operation and/or element being one or more other components, steps, operations and/or elements. The presence or addition of elements is not excluded.

또한, 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 기술적 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 제시된 각각의 실시예 범주에서 개별 구성요소의 위치, 배치, 또는 구성은 본 발명의 기술적 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다.Also, it should be understood that various embodiments of the present invention are different from each other but are not necessarily mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it should be understood that the position, arrangement, or configuration of individual components in each of the presented embodiments can be changed without departing from the spirit and scope of the present invention.

깊이가 적용된 3차원 이미지를 획득하기 위해서는, 2차원 이미지에 포함되는 픽셀들 각각의 깊이가 산출되어야 한다. 이 때, 2차원 이미지에 포함되는 픽셀들 각각의 깊이를 산출하는 종래의 방식으로는 촬영 대상이 되는 피사체(오브젝트)에 레이저를 조사하고 그 빛이 돌아오는 시간을 측정하는 TOF(time of flight) 방식, 두 개 이상의 카메라 시스템들에서 각각 획득한 이미지들 사이의 시차를 이용하여 깊이를 산출하는 스테레오(depth from stereo) 방식, 단일 카메라 시스템에서 단일 렌즈에 형성된 복수의 애퍼처들 각각을 통과한 광 신호를 처리하여 획득한 이미지들 사이의 시차를 이용하여 깊이를 산출하는 방식(Dual Aperture; DA를 이용한 시차 방식), 단일 카메라 시스템에서 단일 렌즈에 형성된 복수의 애퍼처들 각각을 통과한 광 신호를 처리하여 획득한 이미지들 사이의 블러 변화를 이용하여 깊이를 산출하는 방식 등이 있다.In order to obtain a 3D image to which the depth is applied, the depth of each pixel included in the 2D image should be calculated. At this time, in the conventional method of calculating the depth of each pixel included in the two-dimensional image, a laser is irradiated to a subject (object) to be photographed, and TOF (time of flight) is used to measure the return time of the light. method, a depth from stereo method that calculates depth using a parallax between images obtained from two or more camera systems, light passing through each of a plurality of apertures formed in a single lens in a single camera system A method of calculating depth using the parallax between images obtained by processing the signal (dual aperture; parallax method using DA), the optical signal passing through each of a plurality of apertures formed in a single lens in a single camera system There is a method of calculating the depth using the blur change between images obtained by processing, and the like.

일 실시예에 따른 카메라 시스템은 이러한 종래의 방식들 중 이미지들 사이의 시차를 이용하는 방식을 기반으로 하나, 단일 렌즈에 복수의 애퍼처들을 형성하는 대신에, 이미지 센서에 포함되는 픽셀 어레이의 픽셀들에 OPA(Offset Pixel Aperture)를 적용함으로써, 단면적을 최소화하여 소형화를 도모하고자 한다.A camera system according to an embodiment is based on a method using parallax between images among these conventional methods, but instead of forming a plurality of apertures in a single lens, pixels of a pixel array included in an image sensor By applying OPA (Offset Pixel Aperture) to the

특히, 일 실시예에 따른 카메라 시스템은 수평적 시차를 획득하기 위한 한 쌍의 수평 OPA들과 수직적 시차를 획득하기 위한 한 쌍의 수직 OPA들을 형성하고, 수평 OPA들과 수직 OPA들을 이용하여 수평적 시차와 수직적 시차를 획득함으로써, 산출되는 깊이의 범위를 향상시키고자 한다.In particular, the camera system according to an embodiment forms a pair of horizontal OPAs for acquiring horizontal parallax and a pair of vertical OPAs for acquiring vertical parallax, and horizontally using the horizontal OPAs and vertical OPAs. By acquiring the parallax and the vertical parallax, the range of the calculated depth is improved.

본 발명에서의 OPA는 차광막이 형성되지 않은 부분으로, 픽셀 상부에 배치되는 차광막을 이용하여 OPA를 형성할 수 있다.In the present invention, the OPA is a portion where the light-shielding film is not formed, and the OPA may be formed using the light-shielding film disposed on the pixel.

도 1은 일 실시예에 따른 카메라 시스템과 단일 렌즈에 애퍼처가 적용된 카메라 시스템 사이의 관계를 설명하기 위한 도면이고, 도 2는 일 실시예에 따른 카메라 시스템에서의 깊이 산출 원리를 설명하기 위한 도면이며, 도 3은 일 실시예에 따른 카메라 시스템의 제약 조건을 설명하기 위한 도면이다. 이하, 도 1은 설명의 편의를 위해 일 실시예에 따른 카메라 시스템에서 OPA가 적용된 하나의 픽셀을 기준으로 상술되나, 일 실시예에 따른 카메라 시스템은 도 2와 같이 OPA들이 적용된 두 개의 픽셀들을 포함하는 이미지 센서를 바탕으로 한다.1 is a diagram for explaining a relationship between a camera system and a camera system to which an aperture is applied to a single lens according to an embodiment, and FIG. 2 is a diagram for explaining a depth calculation principle in the camera system according to an embodiment. , FIG. 3 is a diagram for explaining a constraint condition of a camera system according to an embodiment. Hereinafter, for convenience of explanation, FIG. 1 is described with reference to one pixel to which OPA is applied in the camera system according to an embodiment, but the camera system according to an embodiment includes two pixels to which OPA is applied as shown in FIG. It is based on an image sensor that

도 1을 참조하면, 일 실시예에 따른 카메라 시스템(110)에서 이미지 센서의 픽셀 어레이에 포함되는 어느 하나의 픽셀에는 OPA(111)를 형성하기 위한 차광막(112)이 배치된다. 이 때, OPA(111)의 중심이 픽셀의 중심으로부터 오프셋된 거리인 O1는, 단일 렌즈(121)에 애퍼처(122)가 형성된 카메라 시스템(종래의 카메라 시스템)(120)에서의 애퍼처(122)의 중심이 단일 렌즈(121)의 중심으로부터 오프셋된 거리인 O2와 비례하는 관계를 갖는다.Referring to FIG. 1 , in any one pixel included in a pixel array of an image sensor in a camera system 110 according to an exemplary embodiment, a light blocking film 112 for forming an OPA 111 is disposed. At this time, O 1 , which is the distance at which the center of the OPA 111 is offset from the center of the pixel, is the aperture in the camera system (conventional camera system) 120 in which the aperture 122 is formed in the single lens 121 . The center of (122) has a relationship proportional to O 2 , which is a distance offset from the center of the single lens 121 .

따라서, 픽셀의 중심으로부터 어긋난 중심 위치를 갖는 OPA(111)는 단일 렌즈(121)의 중심으로부터 어긋난 중심 위치를 갖도록 단일 렌즈(121) 상에 형성된 애퍼처(122)와 동일하게 치부될 수 있으며, 이로 인해 일 실시예에 따른 카메라 시스템(110)은 종래의 DA를 이용한 시차 방식에서의 깊이 산출 수식을 이용하여 피사체에 대한 깊이를 산출할 수 있다.Therefore, the OPA 111 having a central position shifted from the center of the pixel can be identical to the aperture 122 formed on the single lens 121 to have a central position shifted from the center of the single lens 121, For this reason, the camera system 110 according to an embodiment may calculate the depth of the subject by using the depth calculation formula in the conventional parallax method using DA.

보다 상세하게, 도 2를 참조하면, 일 실시예에 따른 카메라 시스템(200)에서 단일 렌즈(210)의 직경

Figure pat00001
및 초점 거리 f와 관련된 파라미터
Figure pat00002
(
Figure pat00003
는, 단일 렌즈(210)의 직경
Figure pat00004
가 OPA들(221, 231)이 서로 이격된 거리(정확하게는, 제1 OPA(221)의 중심과 제2 OPA(231)의 중심 사이의 거리)인
Figure pat00005
및 OPA들(221, 231)을 형성하기 위한 차광막들(222, 232)이 배치되는 픽셀들(220, 230) 각각의 높이인 h와 관련하여 비례하는 관계를 갖기 때문에(
Figure pat00006
), 픽셀들(220, 230) 각각의 높이인 h 및 OPA들(221, 231)이 서로 이격된 거리인
Figure pat00007
와 관련하여 비례하는 관계를 갖게 된다(
Figure pat00008
). 이에, 일 실시예에 따른 카메라 시스템(200)은 종래의 DA를 이용한 시차 방식에서의 깊이 산출 수식을 기반으로 아래의 식 1을 이용하여 피사체에 대한 깊이를 산출할 수 있다.In more detail, referring to FIG. 2 , the diameter of the single lens 210 in the camera system 200 according to an embodiment.
Figure pat00001
and parameters related to focal length f
Figure pat00002
(
Figure pat00003
is the diameter of a single lens 210
Figure pat00004
is the distance between the OPAs 221 and 231 (to be precise, the distance between the center of the first OPA 221 and the center of the second OPA 231 )
Figure pat00005
and since the light blocking films 222 and 232 for forming the OPAs 221 and 231 have a proportional relationship with respect to h, which is the height of each of the pixels 220 and 230 on which the OPAs 221 and 231 are disposed (
Figure pat00006
), h, which is the height of each of the pixels 220 and 230, and the distance at which the OPAs 221 and 231 are spaced apart from each other.
Figure pat00007
has a proportional relationship with
Figure pat00008
). Accordingly, the camera system 200 according to an embodiment may calculate the depth of the subject using Equation 1 below based on the depth calculation formula in the conventional parallax method using DA.

<식 1><Equation 1>

Figure pat00009
Figure pat00009

식 1에서, ds는 일 실시예에 따른 카메라 시스템(200)의 이미지 센서에서 OPA들(221, 231)이 배치된 두 개의 픽셀들(220, 230)을 통해 획득되는 이미지들 사이의 시차를 의미하고, f는 초점 거리를 의미하며, a는 피사체 거리(피사체로부터 카메라 시스템의 단일 렌즈의 제1 주평면까지의 거리로서, 피사체에 대한 깊이에 해당됨)를 의미하고,

Figure pat00010
는 이미지 센서에 초점이 맞은 피사체 거리를 의미하며,
Figure pat00011
는 단일 렌즈(210)의 직경
Figure pat00012
및 초점 거리 f와 관련된 파라미터를 의미한다.In Equation 1, ds denotes a parallax between images acquired through two pixels 220 and 230 in which OPAs 221 and 231 are disposed in the image sensor of the camera system 200 according to an embodiment. , f means the focal length, a means the subject distance (the distance from the subject to the first main plane of the single lens of the camera system, which corresponds to the depth to the subject),
Figure pat00010
is the distance to the subject in focus on the image sensor,
Figure pat00011
is the diameter of a single lens 210
Figure pat00012
and a parameter related to the focal length f.

이 때, 단일 렌즈(210)의 직경

Figure pat00013
및 초점 거리 f와 관련된 파라미터인
Figure pat00014
가 카메라 시스템(200)에 포함되는 단일 렌즈의 f 넘버보다 작을 경우, 도 3에 도시된 310 경우와 같이 이미지 촬영 자체가 불가능하다. 따라서,
Figure pat00015
는 반드시 320 경우와 같이 단일 렌즈(210)의 f 넘버보다 커야 한다.At this time, the diameter of the single lens 210
Figure pat00013
and a parameter related to the focal length f,
Figure pat00014
When is smaller than the f number of a single lens included in the camera system 200 , as in case 310 illustrated in FIG. 3 , image capturing itself is impossible. thus,
Figure pat00015
must be greater than the f-number of the single lens 210 as in the case of 320.

한편, 식 1로부터 유도되는 픽셀 별 시차를 나타내는 아래의 식 2(식 2에서 d는 픽셀 사이즈를 의미함)는, 초점 거리인 f가 픽셀들로 구성되는 픽셀 어레이의 사이즈 및 FOV(Field Of View)와 관련하여 비례하는 관계를 갖고 있기 때문에(

Figure pat00016
), 아래의 식 3과 같이 표현될 수 있다.On the other hand, in Equation 2 below (d means pixel size in Equation 2) representing the disparity for each pixel derived from Equation 1, the focal length f is the size of the pixel array composed of pixels and the field of view (FOV) ) because it has a proportional relationship with (
Figure pat00016
), can be expressed as Equation 3 below.

<식 2><Equation 2>

Figure pat00017
Figure pat00017

<식 3><Equation 3>

Figure pat00018
Figure pat00018

따라서,

Figure pat00019
는 카메라 시스템(200)에서 OPA들(221, 231)이 서로 이격된 거리 및 OPA들(221, 231)을 형성하기 위한 차광막들(222, 232)이 배치되는 픽셀들(220, 230) 각각의 높이와 관련하여 비례하는 관계를 갖는다(
Figure pat00020
).thus,
Figure pat00019
is a distance between the OPAs 221 and 231 in the camera system 200 and the pixels 220 and 230 in which light blocking films 222 and 232 for forming the OPAs 221 and 231 are disposed. It has a proportional relationship with respect to height (
Figure pat00020
).

즉, 전술된

Figure pat00021
가 반드시 320 경우와 같이 단일 렌즈(210)의 f 넘버보다 커야 하는 제약 조건은, OPA들(221, 231)이 서로 이격된 거리 및 OPA들(221, 231)이 적용된 픽셀들(220, 230) 각각의 높이와 관련된 오프셋 f 넘버(
Figure pat00022
)가 단일 렌즈(210)의 f 넘버보다 커야 하는 제약 조건으로 해석될 수 있다. 이하, 설명되는 일 실시예에 따른 카메라 시스템(200)은 해당 제약 조건을 만족시키는 가운데, OPA들(221, 231)이 서로 이격된 거리가 최대화되도록 하는 구조를 갖는다. 이에 대한 상세한 설명은 아래에서 기재하기로 한다. That is, the above
Figure pat00021
Constraints that must be greater than the f number of the single lens 210 as in the case of 320 are the distance at which the OPAs 221 and 231 are spaced apart from each other and the pixels 220 and 230 to which the OPAs 221 and 231 are applied. The offset f number associated with each height (
Figure pat00022
) can be interpreted as a constraint that must be greater than the f-number of the single lens 210 . Hereinafter, the camera system 200 according to an embodiment to be described has a structure that maximizes the distance between the OPAs 221 and 231 while satisfying the corresponding constraint. A detailed description thereof will be provided below.

도 4는 일 실시예에 따른 카메라 시스템을 나타낸 도면이다.4 is a diagram illustrating a camera system according to an exemplary embodiment.

도 4를 참조하면, 일 실시예에 따른 카메라 시스템(400)은 단일 렌즈(410) 및 단일 렌즈(410) 아래 위치하는 이미지 센서(420)를 포함한다. 여기서, 이미지 센서(420)는 적어도 하나의 픽셀 어레이(421, 422)로 구성되며, 적어도 하나의 픽셀 어레이(421, 422) 각각은 2차원 배열의 복수의 픽셀들(예컨대,

Figure pat00023
배열의 4개의 픽셀들) 및 복수의 픽셀들의 상부에 공유되도록 배치되는 단일 마이크로 렌즈(421-1, 422-1)를 포함한다.Referring to FIG. 4 , a camera system 400 according to an exemplary embodiment includes a single lens 410 and an image sensor 420 positioned under the single lens 410 . Here, the image sensor 420 includes at least one pixel array 421 and 422 , and each of the at least one pixel array 421 and 422 includes a plurality of pixels (eg, a two-dimensional array).
Figure pat00023
4 pixels of the array) and a single micro lens 421-1, 422-1 disposed to be shared on top of the plurality of pixels.

이러한 구조의 일 실시예에 따른 카메라 시스템(400)은, 전술된 바와 같이 픽셀들에 OPA들을 적용함으로써, 단일 렌즈(410)에 DA가 적용된 경우와 유사하게 픽셀들을 통해 획득되는 이미지들 사이의 시차를 기반으로 피사체에 대한 깊이를 산출할 수 있으며, 단일 렌즈(410)에 DA를 적용한 경우보다 카메라 시스템의 단면적을 최소화하여 소형화를 도모할 수 있다. 이 때, 깊이 산출 동작은 카메라 시스템(400)에 더 포함되는 적어도 하나의 프로세서(도면에는 도시되지 않음)에서 수행될 수 있다.The camera system 400 according to an embodiment of this structure applies OPAs to the pixels as described above, so that the parallax between images acquired through the pixels is similar to the case where DA is applied to a single lens 410 . It is possible to calculate the depth of the subject based on , and it is possible to achieve miniaturization by minimizing the cross-sectional area of the camera system compared to the case where DA is applied to the single lens 410 . In this case, the depth calculation operation may be performed by at least one processor (not shown in the drawing) further included in the camera system 400 .

또한, 일 실시예에 따른 카메라 시스템(400)은 복수의 픽셀들이 단일 마이크로 렌즈(421-1, 422-1)를 공유하도록 함으로써, 복수의 픽셀들 각각에 마이크로 렌즈가 구비되는 경우보다 베이스라인을 증가시킬 수 있으며, 특히, OPA들이 서로 이격된 거리를 최대화하여 픽셀들 상에 형성 및 배치함으로써, 베이스라인을 더욱 증가시킬 수 있다. 따라서, 카메라 시스템(400)은 베이스라인을 증가시켜 이미지들 사이의 시차를 크게 하고 산출되는 깊이의 범위를 향상시킬 수 있다.In addition, the camera system 400 according to an embodiment allows a plurality of pixels to share a single micro lens 421-1 and 422-1, so that the baseline is lower than when a micro lens is provided in each of the plurality of pixels. In particular, by forming and placing the OPAs on the pixels maximizing the distance apart from each other, the baseline can be further increased. Accordingly, the camera system 400 may increase the baseline to increase the parallax between images and improve the range of the calculated depth.

이와 같은 일 실시예에 따른 카메라 시스템(400)의 적어도 하나의 픽셀 어레이(421, 422)에 대한 세부 구조는 아래에서 기재하기로 한다.A detailed structure of at least one pixel array 421 and 422 of the camera system 400 according to the exemplary embodiment will be described below.

도 5는 일 실시예에 따른 카메라 시스템의 이미지 센서에 포함되는 픽셀 어레이를 설명하기 위한 도면이고, 도 6는 도 5에 도시된 OPA가 적용된 픽셀을 포함하는 픽셀 어레이와 등가의 렌즈 애퍼처를 나타낸 도면이다. 여기서, 도 5는 모노 이미지 센서에 대한 일 예시도를 나타낸 것이다.5 is a diagram for explaining a pixel array included in an image sensor of a camera system according to an embodiment, and FIG. 6 is a lens aperture equivalent to the pixel array including the pixel to which the OPA shown in FIG. 5 is applied. It is a drawing. Here, FIG. 5 shows an exemplary view of a mono image sensor.

도 5를 참조하면, 일 실시예에 따른 카메라 시스템의 이미지 센서에 포함되는 픽셀 어레이(500)는 도 4에 도시된 하나의 픽셀 어레이(421)를 나타낸다. 이하, 픽셀 어레이(500)는 단일 마이크로 렌즈(500-1)를 공유하는

Figure pat00024
배열의 복수의 픽셀들(511, 512, 513, 514)을 포함하는 것으로 설명되나, 이에 제한되거나 한정되지 않고,
Figure pat00025
배열 또는
Figure pat00026
배열 등 다양한 2차원 배열의 복수의 픽셀들을 포함할 수 있다.Referring to FIG. 5 , a pixel array 500 included in an image sensor of a camera system according to an exemplary embodiment represents one pixel array 421 illustrated in FIG. 4 . Hereinafter, the pixel array 500 shares a single micro lens 500-1.
Figure pat00024
Although described as including, but not limited to, a plurality of pixels 511, 512, 513, 514 in an array,
Figure pat00025
array or
Figure pat00026
It may include a plurality of pixels in various two-dimensional arrays, such as an array.

픽셀 어레이(500)의 복수의 픽셀들(511, 512, 513, 514) 각각의 상부에는 OPA(521, 531, 541, 551)를 형성하기 위한 차광막(520, 530, 540, 550)이 배치되며, 특히, OPA들(521, 531, 541, 551)은 서로 이격된 거리가 최대화되도록 차광막들(520, 530, 540, 550)을 이용하여 각각 형성된다. 예를 들어, 제1 픽셀(511)의 OPA(521) 및 제2 픽셀(512)의 OPA(531)는, 서로 이격된 거리가 최대화되도록 대각 방향으로 각각의 차광막(520, 530) 을 이용하여 도면과 같이 좌측 끝 및 우측 끝에 형성됨으로써, 수평적 시차를 획득하기 위한 수평 OPA들을 의미할 수 있고, 제3 픽셀(513)의 OPA(541) 및 제4 픽셀(514)의 OPA(551)는, 서로 이격된 거리가 최대화되도록 대각 방향으로 각각의 차광막(540, 550)을 이용하여 도면과 같이 상측 끝 및 하측 끝에 형성됨으로써, 수직적 시차를 획득하기 위한 수직 OPA들을 의미할 수 있다.Light blocking films 520 , 530 , 540 , 550 for forming OPAs 521 , 531 , 541 , 551 are disposed on each of the plurality of pixels 511 , 512 , 513 , and 514 of the pixel array 500 , , in particular, the OPAs 521 , 531 , 541 , and 551 are respectively formed using the light-blocking layers 520 , 530 , 540 , and 550 so that a distance from each other is maximized. For example, the OPA 521 of the first pixel 511 and the OPA 531 of the second pixel 512 use respective light blocking layers 520 and 530 in a diagonal direction to maximize the distance apart from each other. As shown in the figure, by being formed at the left end and the right end, it may mean horizontal OPAs for obtaining horizontal parallax, and the OPA 541 of the third pixel 513 and the OPA 551 of the fourth pixel 514 are , may mean vertical OPAs for obtaining vertical parallax by being formed at the upper and lower ends as shown in the drawing using the respective light blocking films 540 and 550 in the diagonal direction so that the distance from each other is maximized.

또한, 각각의 픽셀들(511, 512, 513, 514)은 카메라 시스템의 베이스라인을 증가시키기 위하여, OPA들(521, 531, 541, 551)이 서로 이격되는 거리가 최대화되도록 픽셀 어레이(500) 상에 배치될 수 있다. 예를 들어, 수평 OPA들(521, 531)이 서로 이격된 거리가 최대화되도록 픽셀 어레이(500) 상에서 대각 방향으로 위치하는 픽셀들(511, 512) 상에 차광막들(520, 530)을 이용하여 형성할 수 있으며, 수직 OPA들(541, 551)이 서로 이격된 거리가 최대화되도록 픽셀 어레이(500) 상에서 대각 방향으로 위치하는 픽셀들(513, 514) 상에 차광막들(520, 530)을 이용하여 형성할 수 있고, 이에 따라, 수평 OPA들(521, 531) 및 수직 OPA들(541, 551)은, 서로 이격된 거리가 최대화되도록 픽셀 어레이(500)에서 대각 방향으로 배치될 수 있다.In addition, each of the pixels 511 , 512 , 513 , and 514 is a pixel array 500 such that the distance at which the OPAs 521 , 531 , 541 , 551 are spaced apart from each other is maximized in order to increase the baseline of the camera system. may be placed on the For example, using light blocking layers 520 and 530 on the pixels 511 and 512 diagonally positioned on the pixel array 500 so that the distance between the horizontal OPAs 521 and 531 is maximized. The light blocking layers 520 and 530 are used on the pixels 513 and 514 diagonally positioned on the pixel array 500 so that the vertical OPAs 541 and 551 are spaced apart from each other to maximize the distance. Accordingly, the horizontal OPAs 521 and 531 and the vertical OPAs 541 and 551 may be diagonally disposed in the pixel array 500 to maximize a distance from each other.

이와 같이 수평 OPA들(521, 531)과 수직 OPA들(541, 551)이 적용된 픽셀 어레이(500)를 포함하는 카메라 시스템은, 도 6에 도시된 등가의 렌즈 애퍼처(610)와 동일하게 치부됨으로써, 증가된 베이스라인을 갖게 될 수 있다.As described above, the camera system including the pixel array 500 to which the horizontal OPAs 521 and 531 and the vertical OPAs 541 and 551 are applied is identical to the equivalent lens aperture 610 shown in FIG. 6 . As a result, it is possible to have an increased baseline.

이처럼 복수의 픽셀들(511, 512, 513, 514)에서 OPA들(521, 531, 541, 551)이 차광막들(520, 530, 540, 550)을 이용하여 각각 형성되는 위치가 결정되는 것은, 도 3을 참조로 전술된 제약 조건을 만족시키는 아래 카메라 시스템의 베이스라인의 길이를 최대화하도록 수행될 수 있다. 예를 들어, 수평 OPA들(521, 531)이 서로 이격된 거리와 수평 OPA들(521, 531)이 적용되는 적어도 두 개의 픽셀들(511, 512) 각각의 높이와 관련된 오프셋 f 넘버(

Figure pat00027
) 그리고 수직 OPA들(541, 551)이 서로 이격된 거리와 수직 OPA들(541, 551)이 적용되는 적어도 두 개의 픽셀들(513, 514) 각각의 높이와 관련된 오프셋 f 넘버(
Figure pat00028
)가 카메라 시스템의 단일 렌즈의 f 넘버보다 큰 제약 조건을 만족시키는 가운데, 수평 OPA들(521, 531)이 서로 이격된 거리와 수직 OPA들(541, 551)이 서로 이격된 거리가 최대화되도록 복수의 픽셀들(511, 512, 513, 514)에서 OPA들(521, 531, 541, 551)이 차광막들(520, 530, 540, 550)을 이용하여 각각 형성되는 위치가 결정될 수 있다. 여기서, 오프셋 f 넘버의 특성에 따르면, OPA들이 서로 이격된 거리 즉, 수평 OPA들(521, 531)이 서로 이격된 거리와 수직 OPA들(541, 551)이 서로 이격된 거리가 증가하더라도 OPA들(521, 531, 541, 551)이 적용되는 픽셀들(511, 512, 513, 514) 각각의 높이 역시 비례하여 증가된다면, 오프셋 f 넘버의 크기는 작아지지 않고 그대로 유지될 수 있다. 따라서, 일 실시예에 따른 카메라 시스템은 픽셀들(511, 512, 513, 514)을 수평 OPA들(521, 531)과 수직 OPA들(541, 551)이 서로 이격되는 거리가 최대화되도록 픽셀 어레이(500) 상에 배치하고, 서로 이격된 거리가 최대화되도록 차광막들(520, 530, 540, 550)을 이용하여 OPA들(521, 531, 541, 551)을 각각 형성하는 동시에, OPA들(521, 531, 541, 551)이 적용되는 픽셀들(511, 512, 513, 514) 각각의 높이 역시 증가시킴으로써, 오프셋 f 넘버가 단일 렌즈의 f 넘버보다 커야 하는 제약 조건을 만족시킬 수 있다.As such, in the plurality of pixels 511, 512, 513, and 514, the positions at which the OPAs 521, 531, 541, 551 are respectively formed using the light blocking films 520, 530, 540, 550 are determined. This may be performed to maximize the length of the baseline of the camera system below that satisfies the above-described constraint with reference to FIG. 3 . For example, the offset f number (
Figure pat00027
) and the offset f number (
Figure pat00028
) satisfies the constraint greater than the f number of a single lens of the camera system, and the horizontal OPAs 521 and 531 are spaced apart from each other and the vertical OPAs 541 and 551 are spaced apart from each other so that the distance is maximized. Positions at which the OPAs 521 , 531 , 541 , and 551 are respectively formed using the light blocking layers 520 , 530 , 540 and 550 in the pixels 511 , 512 , 513 , and 514 of may be determined. Here, according to the characteristic of the offset f number, the distance at which the OPAs are separated from each other, that is, the distance at which the horizontal OPAs 521 and 531 are separated from each other and the distance at which the vertical OPAs 541 and 551 are separated from each other increase, the OPAs If the height of each of the pixels 511 , 512 , 513 , and 514 to which ( 521 , 531 , 541 , 551 ) is applied is also proportionally increased, the size of the offset f-number may be maintained without being decreased. Accordingly, the camera system according to an exemplary embodiment includes pixels 511, 512, 513, and 514 in a pixel array ( 500) and at the same time forming OPAs 521, 531, 541, and 551 using light blocking films 520, 530, 540, and 550 so as to maximize a distance from each other, and at the same time, OPAs 521, By also increasing the height of each of the pixels 511 , 512 , 513 , and 514 to which the 531 , 541 , and 551 are applied, the constraint that the offset f-number must be greater than the f-number of a single lens may be satisfied.

이 때, OPA들(521, 531, 541, 551)은 픽셀들(511, 512, 513, 514) 각각을 기준으로 서로 어긋난 중심 위치를 갖도록 차광막들(520, 530, 540, 550)을 이용하여 각각 형성될 수 있다. 예컨대, 제1 OPA(521)는 제1 픽셀(511)의 중심을 기준으로 좌측으로 어긋난 중심 위치를 갖고, 제2 OPA(531)는 제2 픽셀(512)의 중심을 기준으로 우측으로 어긋난 중심 위치를 가짐으로써, 제1 OPA(521)와 제2 OPA(531)는 서로 어긋난 중심 위치를 갖는 수평 OPA들을 형성할 수 있고, 제3 OPA(541)는 제3 픽셀(513)의 중심을 기준으로 상측으로 어긋난 중심 위치를 갖고, 제4 OPA(551)는 제4 픽셀(514)의 중심을 기준으로 하측으로 어긋난 중심 위치를 가짐으로써, 제3 OPA(541)와 제4 OPA(551)는 서로 어긋난 중심 위치를 갖는 수직 OPA들을 형성할 수 있다. 이에, 제1 픽셀(511)과 제2 픽셀(512)을 통해 획득되는 이미지들 사이와 제3 픽셀(513)과 제4 픽셀(514)을 통해 획득되는 이미지들 사이에서 시차가 존재하게 되고, 이로 인해 카메라 시스템은 이미지들 사이의 시차를 기반으로 피사체에 대한 깊이를 산출할 수 있다. 즉, 카메라 시스템은 수평 OPA들(521, 531)이 형성된 제1 픽셀(511)과 제2 픽셀(512)을 통해 획득된 두 개의 이미지들 사이의 수평적 시차와 수직 OPA들(541, 551)이 형성된 제3 픽셀(513)과 제4 픽셀(514)을 통해 획득된 두 개의 이미지들 사이의 수직적 시차를 이용하여 피사체에 대한 깊이를 산출할 수 있다.In this case, the OPAs 521 , 531 , 541 , and 551 use light blocking layers 520 , 530 , 540 , and 550 to have a center position shifted from each other with respect to each of the pixels 511 , 512 , 513 , and 514 . each can be formed. For example, the first OPA 521 has a center shifted to the left with respect to the center of the first pixel 511 , and the second OPA 531 has a center shifted to the right with respect to the center of the second pixel 512 . By having a position, the first OPA 521 and the second OPA 531 may form horizontal OPAs having a center position shifted from each other, and the third OPA 541 is based on the center of the third pixel 513 . has a center position shifted upwardly, and the fourth OPA 551 has a central position shifted downward with respect to the center of the fourth pixel 514, so that the third OPA 541 and the fourth OPA 551 are It is possible to form vertical OPAs having center positions that are offset from each other. Accordingly, a parallax exists between the images obtained through the first pixel 511 and the second pixel 512 and between the images obtained through the third pixel 513 and the fourth pixel 514, Due to this, the camera system may calculate the depth of the subject based on the parallax between the images. That is, the camera system determines the horizontal parallax between the two images acquired through the first pixel 511 and the second pixel 512 in which the horizontal OPAs 521 and 531 are formed and the vertical OPAs 541 and 551 . The depth of the subject may be calculated using the vertical parallax between the two images acquired through the formed third pixel 513 and fourth pixel 514 .

이상 설명된 구조의 픽셀 어레이(500)를 적어도 하나 이상 포함하는 이미지 센서 및 단일 렌즈로 구성되는 카메라 시스템은, 수평 OPA들과 수직 OPA들(521, 531, 541, 551)이 적용된 픽셀들(511, 512, 513, 514)을 통해 획득되는 이미지들 사이의 수평적 시차와 수직적 시차를 기반으로 피사체에 대한 깊이를 산출할 수 있고, 단일 렌즈에 DA를 적용한 경우보다 카메라 시스템의 단면적을 최소화하여 소형화를 도모할 수 있으며, 복수의 픽셀들(511, 512, 513, 514)이 단일 마이크로 렌즈를 공유하도록 하고 OPA들(521, 531, 541, 551)이 서로 이격된 거리를 최대화하여 OPA들(521, 531, 541, 551)을 픽셀들(511, 512, 513, 514) 상에 형성 및 배치함으로써, 베이스라인을 증가시킬 수 있다. 또한, 모노 이미지 센서를 구성하는 카메라 시스템은, 픽셀 어레이들 각각에 수평 OPA들과 수직 OPA들을 형성함으로써, 픽셀 어레이들 각각에서, 수평적 시차와 수직적 시차를 획득하고, 이를 통해 피사체에 대한 깊이의 범위를 향상시킬 수 있다.A camera system including an image sensor and a single lens including at least one pixel array 500 having the above-described structure is a pixel 511 to which horizontal OPAs and vertical OPAs 521 , 531 , 541 , 551 are applied. , 512, 513, 514) can calculate the depth of the subject based on the horizontal and vertical parallax between images obtained through OPAs 521 by maximizing the distance that the plurality of pixels 511, 512, 513, 514 share a single micro lens and the OPAs 521, 531, 541, 551 are spaced apart from each other , 531 , 541 , 551 may be formed and disposed on the pixels 511 , 512 , 513 , and 514 to increase the baseline. In addition, the camera system constituting the mono image sensor forms horizontal OPAs and vertical OPAs in each of the pixel arrays, thereby acquiring horizontal parallax and vertical parallax in each of the pixel arrays, and through this, range can be improved.

도 7은 다른 일 실시예에 따른 카메라 시스템의 이미지 센서에 포함되는 픽셀 어레이들을 설명하기 위한 도면으로, 컬러 이미지 센서 예를 들어, RGGB의 픽셀들을 포함하는 픽셀 어레이들을 설명하기 위한 도면이다.7 is a diagram for explaining pixel arrays included in an image sensor of a camera system according to another exemplary embodiment, and is a diagram for explaining pixel arrays including pixels of a color image sensor, for example, RGB.

도 7을 참조하면, 다른 일 실시예에 따른 카메라 시스템의 이미지 센서에 포함되는 제1 픽셀 어레이(710)와 제2 픽셀 어레이(720)는 도 4에 도시된 하나의 픽셀 어레이(421, 422)를 나타낸다. 이하, 제1 픽셀 어레이(710)는 단일 마이크로 렌즈를 공유하는

Figure pat00029
배열의 복수의 픽셀들(711, 712, 713, 714)을 포함하고, 제2 픽셀 어레이(720)는 단일 마이크로 렌즈를 공유하는
Figure pat00030
배열의 복수의 픽셀들(721, 722, 723, 724)을 포함하는 것으로 설명되나, 이에 제한되거나 한정되지 않고,
Figure pat00031
배열 또는
Figure pat00032
배열 등 다양한 2차원 배열의 복수의 픽셀들을 포함할 수 있다.Referring to FIG. 7 , a first pixel array 710 and a second pixel array 720 included in an image sensor of a camera system according to another exemplary embodiment are one pixel array 421 and 422 shown in FIG. 4 . indicates Hereinafter, the first pixel array 710 shares a single micro lens.
Figure pat00029
comprising a plurality of pixels 711, 712, 713, 714 of an array, wherein the second pixel array 720 shares a single micro lens.
Figure pat00030
Although described as including, but not limited to, a plurality of pixels 721, 722, 723, 724 of an array,
Figure pat00031
array or
Figure pat00032
It may include a plurality of pixels in various two-dimensional arrays, such as an array.

제1 픽셀 어레이의 RGGB 픽셀들(711, 712, 713, 714) 중 두 개의 G 픽셀들(712, 713) 각각의 상부에는 수평 OPA들(731, 741)을 형성하기 위한 차광막(730, 740)이 배치되고, 제2 픽셀 어레이의 RGGB 픽셀들(721, 722, 723, 724) 중 두 개의 G 픽셀들(722, 723) 각각의 상부에는 수직 OPA들(751, 761)을 형성하기 위한 차광막(750, 760)이 배치된다. 특히, 수평 OPA들(731, 741)과 수직 OPA들(751, 761) 각각은 서로 이격된 거리가 최대화되도록 차광막들(730, 740, 750, 760)을 이용하여 각각 형성된다. 예를 들어, 제1 픽셀 어레이(710)에서 제1 G 픽셀(712)의 OPA(731) 및 제2 G 픽셀(713)의 OPA(741)는, 서로 이격된 거리가 최대화되도록 대각 방향으로 각각의 차광막(730, 740)을 이용하여 도면과 같이 우측 끝 및 좌측 끝에 형성될 수 있고, 제2 픽셀 어레이(720)에서 제1 G 픽셀(722)의 OPA(751) 및 제2 G 픽셀(723)의 OPA(761)는, 서로 이격된 거리가 최대화되도록 대각 방향으로 각각의 차광막(750, 760)을 이용하여 도면과 같이 상측 끝 및 하측 끝에 형성될 수 있다.Light blocking films 730 and 740 for forming horizontal OPAs 731 and 741 on top of each of the two G pixels 712 and 713 among the RGGB pixels 711, 712, 713, and 714 of the first pixel array is disposed, and a light blocking film ( 750, 760) are arranged. In particular, each of the horizontal OPAs 731 and 741 and the vertical OPAs 751 and 761 is formed using the light blocking layers 730 , 740 , 750 , and 760 to maximize the distance from each other. For example, in the first pixel array 710 , the OPA 731 of the first G pixel 712 and the OPA 741 of the second G pixel 713 are each diagonally so that the distance apart from each other is maximized. It may be formed at the right end and the left end as shown in the drawing by using the light blocking films 730 and 740 of ), the OPA 761 may be formed at the upper end and the lower end as shown in the drawing by using each of the light blocking films 750 and 760 in the diagonal direction so that the distance from each other is maximized.

즉, 제1 픽셀 어레이(710)에서는 두 개의 G 픽셀 상에 형성되는 수평 OPA들(731, 741)을 이용하여 수평적 시차를 획득하기 위한 두 개의 이미지들을 획득하고, 제2 픽셀 어레이(720)에서는 두 개의 G 픽셀 상에 형성되는 수직 OPA들(751, 761)을 이용하여 수직적 시차를 획득하기 위한 두 개의 이미지들을 획득함으로써, 이렇게 획득된 수평적 시차와 수직적 시차를 이용하여 피사체에 대한 깊이를 산출할 수 있다. 이에 따라, 수평적 시차 또는 수직적 시차 중 어느 하나의 시차만을 이용하여 깊이를 산출하는데 있어서 그 정확성이 떨어지거나 깊이의 범위가 떨어지는 경우 본 발명과 같이 수평적 시차와 수직적 시차를 이용하여 깊이를 산출함으로써, 산출되는 깊이의 정확성 또는 깊이의 범위를 향상시킬 수 있다. 물론, 다른 일 실시예에 따른 카메라 시스템은 제1 픽셀 어레이(710)와 제2 픽셀 어레이(720)가 수평적과 수직적으로 어레이 형태로 배열될 수 있다. That is, in the first pixel array 710 , two images for acquiring a horizontal parallax are acquired using horizontal OPAs 731 and 741 formed on two G pixels, and the second pixel array 720 . In , by acquiring two images for obtaining vertical parallax using vertical OPAs 751 and 761 formed on two G pixels, the depth of the subject is determined using the horizontal parallax and vertical parallax obtained in this way. can be calculated. Accordingly, when the accuracy of calculating the depth using only one of the horizontal parallax and the vertical parallax in calculating the depth is reduced or the range of the depth is reduced, as in the present invention, the depth is calculated using the horizontal parallax and the vertical parallax. , it is possible to improve the accuracy of the calculated depth or the range of the depth. Of course, in the camera system according to another exemplary embodiment, the first pixel array 710 and the second pixel array 720 may be horizontally and vertically arranged in an array form.

이와 같이, 도 7의 구조의 픽셀 어레이(700)를 적어도 하나 이상 포함하는 이미지 센서 및 단일 렌즈로 구성되는 카메라 시스템은, 수평 OPA들(731, 741)이 적용된 픽셀들과 수직 OPA들(751, 761)이 적용된 픽셀들을 통해 획득되는 이미지들 사이의 수평적 시차와 수직적 시차를 기반으로 피사체에 대한 깊이를 산출할 수 있고, 단일 렌즈에 DA를 적용한 경우보다 카메라 시스템의 단면적을 최소화하여 소형화를 도모할 수 있다.As described above, the camera system including at least one image sensor including at least one pixel array 700 of the structure of FIG. 7 and a single lens includes pixels to which horizontal OPAs 731 and 741 are applied and vertical OPAs 751 , 761) can calculate the depth of the subject based on the horizontal and vertical parallax between the images obtained through the applied pixels, and minimize the cross-sectional area of the camera system compared to the case of applying DA to a single lens to promote miniaturization can do.

비록, 도 7에서 컬러 이미지 센서를 RGGB의 픽셀들을 포함하는 픽셀 어레이들로 설명하였지만, 컬러 이미지 센서가 RGGB의 픽셀들을 포함하는 픽셀 어레이들로 한정되거나 제한되지 않으며, 픽셀 어레이에 동일한 컬러 픽셀을 두 개 이상 포함하는 컬리 이미지 센서에 모두 적용될 수 있다.Although the color image sensor has been described with pixel arrays including pixels of RGBGB in FIG. 7, the color image sensor is not limited or limited to pixel arrays including pixels of RGB, and it is possible to include pixels of the same color in a pixel array. It can be applied to all curly image sensors including more than one.

여기서, 또 다른 카메라 시스템은 상술한 내용으로 한정되거나 제한되지 않으며, 상기 도 1 내지 도 6에서 설명한 모든 내용을 포함할 수 있다.Here, the other camera system is not limited or limited to the above-described content, and may include all the content described with reference to FIGS. 1 to 6 .

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, the apparatus and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU). It may be implemented using one or more general purpose or special purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be embodied in any tangible machine, component, physical device, computer storage medium or device for interpretation by or providing instructions or data to the processing device. have. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. In this case, the medium may be to continuously store a program executable by a computer, or to temporarily store it for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or several hardware combined, it is not limited to a medium directly connected to any computer system, and may exist distributed over a network. Examples of the medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floppy disk, and those configured to store program instructions, including ROM, RAM, flash memory, and the like. In addition, examples of other media may include recording media or storage media managed by an app store that distributes applications, sites that supply or distribute other various software, and servers.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (9)

단일 렌즈; 및
적어도 하나의 픽셀 어레이-상기 적어도 하나의 픽셀 어레이는 2차원 배열의 복수의 픽셀들을 포함함-로 구성되는 이미지 센서
를 포함하고,
상기 복수의 픽셀들 각각의 상부에는 OPA(Offset Pixel Aperture)를 형성하기 위한 차광막이 배치되며,
상기 OPA들은, 서로 이격된 거리가 최대화되도록 상기 차광막들 각각에 의해 형성되고, 수평 방향의 시차를 획득하기 위한 한 쌍의 수평 OPA들과 수직 방향의 시차를 획득하기 위한 한 쌍의 수직 OPA들을 포함하는, 카메라 시스템.
single lens; and
an image sensor comprising at least one pixel array, said at least one pixel array comprising a plurality of pixels in a two-dimensional array
including,
A light blocking film for forming an Offset Pixel Aperture (OPA) is disposed on each of the plurality of pixels,
The OPAs include a pair of horizontal OPAs for obtaining parallax in a horizontal direction and a pair of vertical OPAs for obtaining parallax in a vertical direction, which are formed by each of the light-shielding layers such that a distance apart from each other is maximized. which is a camera system.
제1항에 있어서,
상기 수평 OPA들 각각과 상기 수직 OPA들 각각은,
대각 방향에 위치한 픽셀들 각각의 상부에 형성되는, 것을 특징으로 하는 카메라 시스템.
According to claim 1,
Each of the horizontal OPAs and each of the vertical OPAs,
The camera system, characterized in that formed on top of each of the pixels located in the diagonal direction.
제1항에 있어서,
상기 수평 OPA들 각각은
해당 픽셀들 각각의 중심을 기준으로 좌측 방향으로 편향된 좌측 OPA와 우측 방향으로 편향된 우측 OPA를 포함하고,
상기 수직 OPA들 각각은,
해당 픽셀들 각각의 중심을 기준으로 상부 방향으로 편향된 상측 OPA와 하부 방향으로 편향된 하측 OPA를 포함하는, 것을 특징으로 하는 카메라 시스템.
According to claim 1,
Each of the horizontal OPAs is
It includes a left OPA biased in the left direction and a right OPA biased in the right direction with respect to the center of each pixel,
Each of the vertical OPAs,
A camera system comprising: an upper OPA deflected in an upward direction and a lower OPA deflected in a downward direction with respect to the center of each pixel.
제1항에 있어서,
상기 이미지 센서는,
모노 이미지 센서인, 것을 특징으로 하는 카메라 시스템.
According to claim 1,
The image sensor is
A camera system, characterized in that it is a mono image sensor.
제1항에 있어서,
상기 수평 OPA들이 형성된 두 개의 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수평적 시차(Disparity)와 상기 수직 OPA들이 형성된 두 개의 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수직적 시차를 이용하여 피사체에 대한 깊이를 산출하는 적어도 하나의 프로세서
를 더 포함하는 카메라 시스템.
According to claim 1,
Using a horizontal disparity between two images obtained through the two pixels in which the horizontal OPAs are formed and a vertical disparity between two images obtained through the two pixels in which the vertical OPAs are formed, at least one processor to compute the depth for
A camera system further comprising a.
단일 렌즈; 및
제1 픽셀, 제2 픽셀 및 두 개의 제3 픽셀들로 구성되는 2×2의 제1 픽셀 어레이와 제2 픽셀 어레이를 포함하는 이미지 센서
를 포함하고,
상기 제3 픽셀들 각각의 상부에는 OPA(Offset Pixel Aperture)를 형성하기 위한 차광막이 배치되며,
상기 제1 픽셀 어레이는
상기 제3 픽셀들 상부에 수평 방향의 시차를 획득하기 위한 한 쌍의 수평 OPA들을 형성하고,
상기 제2 픽셀 어레이는
상기 제3 픽셀들 상부에 수직 방향의 시차를 획득하기 위한 한 쌍의 수직 OPA들을 형성하는, 카메라 시스템.
single lens; and
An image sensor comprising a first pixel array and a second pixel array of 2×2 consisting of a first pixel, a second pixel and two third pixels
including,
A light blocking film for forming an Offset Pixel Aperture (OPA) is disposed on each of the third pixels,
the first pixel array
A pair of horizontal OPAs for obtaining a parallax in a horizontal direction are formed on the third pixels;
the second pixel array
and forming a pair of vertical OPAs on top of the third pixels to obtain parallax in a vertical direction.
제6항에 있어서,
상기 수평 OPA들 각각과 상기 수직 OPA들 각각은,
대각 방향에 위치한 상기 제3 픽셀들 각각의 상부에 형성되는, 것을 특징으로 하는 카메라 시스템.
7. The method of claim 6,
Each of the horizontal OPAs and each of the vertical OPAs,
The camera system, characterized in that formed on each of the third pixels located in the diagonal direction.
제6항에 있어서,
상기 수평 OPA들 각각은
상기 제3 픽셀들 각각의 중심을 기준으로 좌측 방향으로 편향된 좌측 OPA와 우측 방향으로 편향된 우측 OPA를 포함하고,
상기 수직 OPA들 각각은,
상기 제3 픽셀들 각각의 중심을 기준으로 상부 방향으로 편향된 상측 OPA와 하부 방향으로 편향된 하측 OPA를 포함하는, 것을 특징으로 하는 카메라 시스템.
7. The method of claim 6,
Each of the horizontal OPAs is
a left OPA biased in a left direction and a right OPA biased in a right direction with respect to the center of each of the third pixels;
Each of the vertical OPAs,
and an upper OPA biased in an upward direction and a lower OPA biased in a downward direction with respect to the center of each of the third pixels.
제6항에 있어서,
상기 수평 OPA들이 형성된 상기 제3 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수평적 시차(Disparity)와 상기 수직 OPA들이 형성된 상기 제3 픽셀들을 통해 획득된 두 개의 이미지들 사이의 수직적 시차를 이용하여 피사체에 대한 깊이를 산출하는 적어도 하나의 프로세서
를 더 포함하는 카메라 시스템.
7. The method of claim 6,
Using a horizontal disparity between two images obtained through the third pixels in which the horizontal OPAs are formed and a vertical disparity between two images obtained through the third pixels in which the vertical OPAs are formed at least one processor that calculates depth for the subject
A camera system further comprising a.
KR1020200096628A 2020-08-03 2020-08-03 Camera system with offset pixel aperture for acquiring horizontal and vertical disparity KR102465492B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200096628A KR102465492B1 (en) 2020-08-03 2020-08-03 Camera system with offset pixel aperture for acquiring horizontal and vertical disparity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200096628A KR102465492B1 (en) 2020-08-03 2020-08-03 Camera system with offset pixel aperture for acquiring horizontal and vertical disparity

Publications (2)

Publication Number Publication Date
KR20220016574A true KR20220016574A (en) 2022-02-10
KR102465492B1 KR102465492B1 (en) 2022-11-11

Family

ID=80253800

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200096628A KR102465492B1 (en) 2020-08-03 2020-08-03 Camera system with offset pixel aperture for acquiring horizontal and vertical disparity

Country Status (1)

Country Link
KR (1) KR102465492B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168246A (en) * 2011-02-10 2012-09-06 Olympus Corp Imaging element and imaging device
KR20130066565A (en) * 2010-04-08 2013-06-20 소니 주식회사 Image pickup apparatus, solid-state image pickup device, and image pickup method
KR102025012B1 (en) * 2018-05-08 2019-09-24 재단법인 다차원 스마트 아이티 융합시스템 연구단 Multi pixel micro lens pixel array and camera system for solving color mix and operating method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130066565A (en) * 2010-04-08 2013-06-20 소니 주식회사 Image pickup apparatus, solid-state image pickup device, and image pickup method
JP2012168246A (en) * 2011-02-10 2012-09-06 Olympus Corp Imaging element and imaging device
KR102025012B1 (en) * 2018-05-08 2019-09-24 재단법인 다차원 스마트 아이티 융합시스템 연구단 Multi pixel micro lens pixel array and camera system for solving color mix and operating method thereof

Also Published As

Publication number Publication date
KR102465492B1 (en) 2022-11-11

Similar Documents

Publication Publication Date Title
EP3399355B1 (en) Dual-core focusing image sensor, focusing control method for the same, and electronic device
US11082605B2 (en) Method of photography processing for camera module, terminal, using same and storage medium implementing same
KR102370062B1 (en) Method of determining calibration parameter for 3d display device and 3d display device thereof
KR102025012B1 (en) Multi pixel micro lens pixel array and camera system for solving color mix and operating method thereof
CN110493586B (en) Camera system for increasing baseline
US8750600B2 (en) Apparatus and method for generating three-dimensional (3D) zoom image of stereo camera
US20190132581A1 (en) Method and apparatus for calibrating parameter of three-dimensional (3d) display apparatus
KR102060880B1 (en) Endomicroscopy using single lens camera and operating method thereof
US20170214900A1 (en) Method and apparatus for correcting image error in naked-eye three-dimensional (3d) display
JP6717576B2 (en) Video rendering apparatus and method
KR102465492B1 (en) Camera system with offset pixel aperture for acquiring horizontal and vertical disparity
JP4205533B2 (en) 3D image construction method, 3D object distance derivation method
KR102309976B1 (en) System for simultaneoiusly displaying images containing different information for a scene and method therefore
KR101861927B1 (en) Image sensor adapted multiple fill factor
KR102382206B1 (en) Camera system with offset pixel aperture and operation method thereof
US10008030B2 (en) Method and apparatus for generating images
KR20220016575A (en) Camera system with offset pixel aperture for increasing baseline structure
KR102148127B1 (en) Camera system with complementary pixlet structure
KR102371801B1 (en) Camera system with complementary pixlet structure and operation method thereof
KR20230009031A (en) Camera system based on ocl and operation method thereof
KR102177400B1 (en) Camera system for improving depth accuracy with low complexity and operation method thereof
KR102476852B1 (en) Method for generating image and apparatus thereof
KR102307594B1 (en) Camera system with triple pixel-based complementary pixlet structure and operation method thereof
KR102209908B1 (en) Image transform camera apparatus for implementing bellows camera in software and operation method thereof
KR102354298B1 (en) Camera system with complementary pixlet structure in quard bayer coding pattern and operation method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant