KR20220057410A - Image sensor including color separating lens array and electronic apparatus including the image sensor - Google Patents

Image sensor including color separating lens array and electronic apparatus including the image sensor Download PDF

Info

Publication number
KR20220057410A
KR20220057410A KR1020210102020A KR20210102020A KR20220057410A KR 20220057410 A KR20220057410 A KR 20220057410A KR 1020210102020 A KR1020210102020 A KR 1020210102020A KR 20210102020 A KR20210102020 A KR 20210102020A KR 20220057410 A KR20220057410 A KR 20220057410A
Authority
KR
South Korea
Prior art keywords
pixel
wavelength
wavelength light
center
light
Prior art date
Application number
KR1020210102020A
Other languages
Korean (ko)
Inventor
윤석호
노숙영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to JP2021174560A priority Critical patent/JP2022074053A/en
Priority to CN202111266851.7A priority patent/CN114430467A/en
Priority to EP21205336.7A priority patent/EP3993047A1/en
Priority to US17/514,692 priority patent/US20220137423A1/en
Publication of KR20220057410A publication Critical patent/KR20220057410A/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N9/045

Abstract

Disclosed are an image sensor having a color separation lens array, which comprises: a sensor substrate including a first pixel for sensing first wavelength light and a second pixel for sensing second wavelength light; and a color separation lens array for condensing the first wavelength light to the first pixel and condensing the second wavelength light to the second pixel among incident light. The color separation lens array includes: a first pixel corresponding region disposed at a position corresponding to the first pixel; and a second pixel corresponding region disposed at a position corresponding to the second pixel. The phase difference between the first wavelength light passing through the center of the first pixel corresponding region and the first wavelength light passing through the center of the second pixel corresponding region can be different from the phase difference between the second wavelength light passing through the center of the first pixel corresponding region and the second wavelength light passing through the center of the second pixel corresponding region. Therefore, the image sensor with improved light utilization efficiency and autofocus performance is provided.

Description

색분리 렌즈 어레이를 구비하는 이미지 센서 및 이를 포함하는 전자 장치 {Image sensor including color separating lens array and electronic apparatus including the image sensor}Image sensor including color separating lens array and electronic apparatus including the image sensor}

입사광을 파장 별로 분리하여 집광할 수 있는 색분리 렌즈 어레이를 구비하는 이미지 센서 및 이미지 센서를 포함하는 전자 장치에 관한 것이다.The present invention relates to an image sensor having a color separation lens array capable of separating and condensing incident light for each wavelength, and an electronic device including the image sensor.

이미지 센서는 통상적으로 컬러 필터를 이용하여 입사광의 색을 감지한다. 그런데, 컬러 필터는 해당 색의 빛을 제외한 나머지 색의 빛을 흡수하기 때문에 광 이용 효율이 저하될 수 있다. 예를 들어, RGB 컬러 필터를 사용하는 경우, 입사광의 1/3만을 투과시키고 나머지 2/3는 흡수하여 버리게 되므로 광 이용 효율이 약 33% 정도에 불과하다. 따라서, 컬러 디스플레이 장치나 컬러 이미지 센서의 경우, 대부분의 광 손실이 컬러 필터에서 발생하게 된다.The image sensor typically senses the color of incident light using a color filter. However, since the color filter absorbs light of a color other than the light of the corresponding color, light use efficiency may be reduced. For example, when an RGB color filter is used, since only 1/3 of incident light is transmitted and the remaining 2/3 is absorbed, the light utilization efficiency is only about 33%. Accordingly, in the case of a color display device or a color image sensor, most of the light loss occurs in the color filter.

입사광을 파장 별로 분리하여 집광할 수 있는 색분리 렌즈 어레이를 이용하여 광 이용 효율 및 자동 초점 조절 성능이 향상된 이미지 센서 및 이미지 센서를 포함하는 전자 장치를 제공한다.Provided are an image sensor having improved light use efficiency and autofocusing performance by using a color separation lens array that can separate incident light for each wavelength and collect the light, and an electronic device including the image sensor.

일 실시예에 따른 이미지 센서는, 제1 파장 광을 감지하기 위한 제1 화소, 및 제2 파장 광을 감지하기 위한 제2 화소를 포함하는 센서 기판 및 입사하는 광 중, 제1 파장 광을 제1 화소에 집광하고, 제2 파장 광을 제2 화소에 집광하는 색분리 렌즈 어레이를 포함하고, 색분리 렌즈 어레이는, 제1 화소에 대응하는 위치에 배치된 제1 화소 대응 영역 및 제2 화소에 대응하는 위치에 배치된 제2 화소 대응 영역을 포함하고, 제1 화소 대응 영역의 중심을 통과한 제1 파장 광과 제2 화소 대응 영역의 중심을 통과한 제1 파장 광의 위상 차이는, 제1 화소 대응 영역의 중심을 통과한 제2 파장 광과 제2 화소 대응 영역의 중심을 통과한 제2 파장 광의 위상 차이와 다를 수 있다.An image sensor according to an exemplary embodiment may include a sensor substrate including a first pixel for sensing light of a first wavelength and a second pixel for sensing light of a second wavelength, and a first wavelength light among incident light a color separation lens array for condensing one pixel and condensing light of a second wavelength to a second pixel, wherein the color separation lens array includes a first pixel corresponding region and a second pixel disposed at positions corresponding to the first pixel a second pixel corresponding region disposed at a position corresponding to , the phase difference between the first wavelength light passing through the center of the first pixel corresponding region and the first wavelength light passing through the center of the second pixel corresponding region is It may be different from a phase difference between the second wavelength light passing through the center of the one-pixel-corresponding area and the second wavelength light passing through the center of the second pixel-corresponding area.

다른 실시예 따른 이미지 센서는, 제1 파장 광을 감지하기 위한 제1 화소, 및 제2 파장 광을 감지하기 위한 제2 화소를 포함하는 센서 기판, 입사하는 광 중, 제1 파장 광을 제1 화소에 집광하기 위한 제1 파장 광 집광 영역, 및 제2 파장 광을 제2 화소에 집광하기 위한 제2 파장 광 집광 영역을 포함하는 색분리 렌즈 어레이를 포함하고, 제1 파장 광 집광 영역의 면적은 제1 화소의 면적보다 크고, 제2 파장 광 집광 영역의 면적은 제2 화소의 면적보다 크고, 제1 파장 광 집광 영역에 대한 제1 파장 광의 제1 초점거리는, 제2 파장 광 집광 영역에 대한 제2 파장 광의 제2 초점거리와 같을 수 있다.An image sensor according to another exemplary embodiment includes a sensor substrate including a first pixel for sensing light of a first wavelength and a second pixel for sensing light of a second wavelength, and a first wavelength light among incident lights. a color separation lens array including a first wavelength light condensing area for condensing to a pixel, and a second wavelength light condensing area for condensing light of a second wavelength to a second pixel, wherein an area of the first wavelength light converging area is larger than the area of the first pixel, the area of the second wavelength light collecting region is larger than the area of the second pixel, and the first focal length of the first wavelength light to the first wavelength light collecting area is in the second wavelength light collecting area It may be equal to the second focal length of the second wavelength light.

또 다른 실시예에 따른 이미지 센서는, 제1 파장 광을 감지하기 위한 제1 화소, 및 제2 파장 광을 감지하기 위한 제2 화소를 포함하는 센서 기판, 입사하는 광 중, 제1 파장 광을 제1 화소에 집광하기 위한 제1 파장 광 집광 영역, 및 제2 파장 광을 제2 화소에 집광하기 위한 제2 파장 광 집광 영역을 포함하는 색분리 렌즈 어레이를 포함하고, 제1 파장 광 집광 영역의 면적은 제1 화소의 면적보다 크고, 제2 파장 광 집광 영역의 면적은 제2 화소의 면적보다 크고, 제1 파장 광 집광 영역을 통과한 제1 파장 광은 제1 파장 광 집광 영역의 중심에서 가장 크고 중심에서 멀어지는 방향으로 감소하는 위상분포를 가지고, 제2 파장 광 집광 영역을 통과한 제2 파장 광은 제2 파장 광 집광 영역의 중심에서 가장 크고 중심에서 멀어지는 방향으로 감소하는 위상 분포를 가지고, 제1 파장 광의 위상 감소율과 제2 파장 광의 위상 감소율이 상이할 수 있다.An image sensor according to another embodiment includes a sensor substrate including a first pixel for detecting light of a first wavelength and a second pixel for detecting light of a second wavelength, and a first wavelength light among incident lights. a color separation lens array including a first wavelength light condensing area for condensing the first pixel and a second wavelength light condensing area for condensing the second wavelength light onto a second pixel, the first wavelength light converging area The area of is larger than the area of the first pixel, the area of the second wavelength light collecting region is larger than the area of the second pixel, and the first wavelength light passing through the first wavelength light collecting area is the center of the first wavelength light collecting area has a phase distribution that is largest and decreases in a direction away from the center, and the second wavelength light that has passed through the second wavelength light collection region has a phase distribution that is greatest at the center of the second wavelength light collection region and decreases in a direction away from the center and the phase reduction rate of the light of the first wavelength may be different from that of the light of the second wavelength.

또 다른 실시예에 따른 이미지 센서는, 제1 파장 광을 감지하기 위한 제1 화소, 및 제2 파장 광을 감지하기 위한 제2 화소를 포함하는 센서 기판, 입사하는 광 중, 제1 파장 광을 제1 화소에 집광하기 위한 제1 파장 광 집광 영역, 및 제2 파장 광을 제2 화소에 집광하기 위한 제2 파장 광 집광 영역을 포함하는 색분리 렌즈 어레이를 포함하고, 제1 파장 광 집광 영역의 중심을 통과한 제1 파장 광과 제1 파장 광 집광 영역의 중심으로부터 센서 기판의 화소 피치의 1/2 만큼 이격된 위치를 통과한 제1 파장 광의 위상 차이는, 제2 파장 광 집광 영역의 중심을 통과한 제2 파장 광과 제2 파장 광 집광 영역의 중심으로부터 센서 기판의 화소 피치의 1/2 만큼 이격된 위치를 통과한 제2 파장 광의 위상 차이와 상이할 수 있다.An image sensor according to another embodiment includes a sensor substrate including a first pixel for detecting light of a first wavelength and a second pixel for detecting light of a second wavelength, and a first wavelength light among incident lights. a color separation lens array including a first wavelength light condensing area for condensing the first pixel and a second wavelength light condensing area for condensing the second wavelength light onto a second pixel, the first wavelength light converging area The phase difference between the first wavelength light passing through the center of the first wavelength light and the first wavelength light passing through a position spaced apart by 1/2 the pixel pitch of the sensor substrate from the center of the first wavelength light converging region is that of the second wavelength light converging region It may be different from a phase difference between the second wavelength light passing through the center and the second wavelength light passing through a position spaced apart from the center of the second wavelength light converging region by 1/2 of the pixel pitch of the sensor substrate.

일 실시예에 따른 전자 장치는, 광학상을 전기적 신호로 변환하는 이미지 센서 및 이미지센서의 동작을 제어하고, 이미지센서에서 생성한 신호를 저장 및 출력하는 프로세서를 포함하고, 이미지 센서는, 제1 파장 광을 감지하기 위한 제1 화소, 및 제2 파장 광을 감지하기 위한 제2 화소를 포함하는 센서 기판, 입사하는 광 중, 제1 파장 광을 제1 화소에 집광하기 위한 제1 파장 광 집광 영역, 및 제2 파장 광을 제2 화소에 집광하기 위한 제2 파장 광 집광 영역을 포함하는 색분리 렌즈 어레이를 포함하고, 제1 파장 광 집광 영역의 면적은 제1 화소의 면적보다 크고, 제2 파장 광 집광 영역의 면적은 제2 화소의 면적보다 크고, 제1 파장 광 집광 영역에 의한 제1 파장 광의 제1 초점거리는, 제2 파장 광 집광 영역에 의한 제2 파장 광의 제2 초점거리와 같을 수 있다.An electronic device according to an embodiment includes an image sensor that converts an optical image into an electrical signal, and a processor that controls operations of the image sensor, and stores and outputs a signal generated by the image sensor, wherein the image sensor includes a first A sensor substrate including a first pixel for sensing light of a wavelength, and a second pixel for sensing light of a second wavelength a color separation lens array including a region and a second wavelength light condensing region for condensing light of a second wavelength to a second pixel, wherein an area of the first wavelength light collecting region is larger than an area of the first pixel; The area of the two-wavelength light converging region is larger than the area of the second pixel, and the first focal length of the first wavelength light by the first wavelength light converging region is equal to the second focal length of the second wavelength light by the second wavelength light converging region and can be the same

색분리 렌즈 어레이는 입사광을 흡수하거나 차단하지 않으면서 파장 별로 분리하여 집광할 수 있기 때문에, 이미지 센서의 광 이용 효율을 향상시킬 수 있다. 또한, 색분리 렌즈 어레이에 포함된 집광 영역의 초점거리를 파장에 따라 다르게 조절하여 자동 초점 조절 성능이 개선될 수 있다.Since the color separation lens array can separate and collect light by wavelength without absorbing or blocking incident light, the light use efficiency of the image sensor can be improved. In addition, the auto focus control performance may be improved by differently adjusting the focal length of the light collecting area included in the color separation lens array according to wavelengths.

도 1은 일 실시예에 따른 이미지센서의 블록도이다.
도 2a 내지 도 2c는 이미지센서의 화소 어레이의 다양한 화소 배열을 예시적으로 도시한다.
도 3a 및 3b는 일 실시예에 따른 색분리 렌즈 어레이의 개략적인 구조와 동작을 보이는 개념도이다.
도 4a 및 도 4b는 광의 파장 및 위상 분포와 초점거리의 관계를 설명하기 위한 도면이다.
도 5a 및 도 5b는 일 실시예에 따른 이미지센서의 화소 어레이의 각각 다른 단면에서 보이는 개략적인 단면도이다.
도 6a는 화소 어레이에서 화소의 배열을 개략적으로 보이는 평면도이며, 도 6b는 색분리 렌즈 어레이의 복수 영역에 복수의 나노포스트가 배열된 형태를 예시적으로 보이는 평면도이고, 도 6c는 도 6b의 일부를 확대하여 상세히 보인 평면도이다.
도 7a는 색분리 렌즈 어레이를 통과한 녹색광 및 청색광의 위상 분포를 도 6b의 Ⅰ-Ⅰ'선을 따라 보이고, 도 7b는 색분리 렌즈 어레이를 통과한 녹색광의 화소 대응 영역들 중심에서의 위상을 보이고, 도 7c는 색분리 렌즈 어레이를 통과한 청색광의 화소 대응 영역들 중심에서의 위상을 보이는 도면이다.
도 7d는 제1 녹색광 집광 영역으로 입사한 녹색광의 진행 방향을 예시적으로 보이며, 도 7e는 제1 녹색광 집광 영역의 어레이를 예시적으로 보이는 도면이다.
도 7f는 청색광 집광 영역으로 입사한 청색광의 진행 방향을 예시적으로 보이며, 도 7g는 청색광 집광 영역의 어레이를 예시적으로 보이는 도면이다.
도 8a는 색분리 렌즈 어레이를 통과한 적색광 및 녹색광의 위상 분포를 도 6b의 Ⅱ-Ⅱ'선을 따라 보이고, 도 8b는 색분리 렌즈 어레이를 통과한 적색광의 화소 대응 영역들 중심에서의 위상을 보이고, 도 8c는 색분리 렌즈 어레이를 통과한 녹색광의 화소 대응 영역들 중심에서의 위상을 보이는 도면이다.
도 8d는 적색광 집광 영역으로 입사한 적색광의 진행 방향을 예시적으로 보이며, 도 8e는 적색광 집광 영역의 어레이를 예시적으로 보이는 도면이다.
도 8f는 제2 녹색광 집광 영역으로 입사한 녹색광의 진행 방향을 예시적으로 보이며, 도 8g는 제2 녹색광 집광 영역의 어레이를 예시적으로 보이는 도면이다.
도 9a 내지 도 9c는 집광 영역의 초점 거리와 자동 초점 기능의 관계를 설명하기 위한 도면이다.
도 10은 실시예들에 따른 이미지센서를 포함하는 전자 장치를 개략적으로 도시한 블록도이다.
도 11은 도 10의 카메라 모듈을 개략적으로 도시한 블록도이다.
도 12 내지 도 21은 실시예들에 따른 이미지센서들이 적용된 전자 장치 다양한 예를 보이는 도면이다.
1 is a block diagram of an image sensor according to an exemplary embodiment.
2A to 2C exemplarily show various pixel arrangements of a pixel array of an image sensor.
3A and 3B are conceptual views illustrating a schematic structure and operation of a color separation lens array according to an exemplary embodiment.
4A and 4B are diagrams for explaining the relationship between the wavelength and phase distribution of light and the focal length.
5A and 5B are schematic cross-sectional views viewed from different cross-sections of a pixel array of an image sensor according to an exemplary embodiment.
6A is a plan view schematically illustrating the arrangement of pixels in a pixel array, FIG. 6B is a plan view exemplarily illustrating a form in which a plurality of nanoposts are arranged in a plurality of regions of a color separation lens array, and FIG. 6C is a portion of FIG. 6B It is an enlarged and detailed plan view.
7A shows the phase distribution of green light and blue light passing through the color separation lens array along line I-I' of FIG. 6B, and FIG. 7B is the phase distribution of green light passing through the color separation lens array at the center of corresponding pixel regions. 7C is a view showing the phase at the center of the pixel-corresponding regions of the blue light passing through the color separation lens array.
7D exemplarily shows a traveling direction of green light incident to the first green light converging area, and FIG. 7E is a diagram illustrating an array of the first green light converging area.
FIG. 7F exemplarily shows a traveling direction of blue light incident to the blue light converging area, and FIG. 7G is a diagram exemplarily showing an array of the blue light converging area.
Fig. 8a shows the phase distribution of red light and green light passing through the color separation lens array along line II-II' of Fig. 6b, and Fig. 8b shows the phase at the center of the pixel corresponding regions of the red light passing through the color separation lens array. 8C is a view showing the phase at the center of the pixel-corresponding regions of green light passing through the color separation lens array.
FIG. 8D exemplarily shows a traveling direction of red light incident to the red light converging area, and FIG. 8E is a diagram exemplarily showing an array of the red light converging area.
8F exemplarily shows a traveling direction of green light incident to the second green light converging area, and FIG. 8G is a diagram illustrating an array of the second green light converging area.
9A to 9C are diagrams for explaining the relationship between a focal length of a light-converging area and an auto-focus function.
10 is a block diagram schematically illustrating an electronic device including an image sensor according to example embodiments.
11 is a block diagram schematically illustrating the camera module of FIG. 10 .
12 to 21 are views illustrating various examples of electronic devices to which image sensors are applied according to embodiments.

이하, 첨부된 도면들을 참조하여 색분리 렌즈 어레이를 구비하는 이미지 센서 및 이를 포함하는 전자 장치에 대해 상세하게 설명하기로 한다. 설명되는 실시예는 단지 예시적인 것에 불과하며, 이러한 실시예들로부터 다양한 변형이 가능하다. 이하의 도면들에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면상에서 각 구성요소의 크기는 설명의 명료성과 편의상 과장되어 있을 수 있다. Hereinafter, an image sensor including a color separation lens array and an electronic device including the same will be described in detail with reference to the accompanying drawings. The described embodiments are merely exemplary, and various modifications are possible from these embodiments. In the following drawings, the same reference numerals refer to the same components, and the size of each component in the drawings may be exaggerated for clarity and convenience of description.

이하에서, "상부" 또는 "상"이라고 기재된 표현은 접촉하여 바로 위/아래/좌/우에 있는 것뿐만 아니라 비접촉으로 위/아래/좌/우에 있는 것도 포함할 수 있다.Hereinafter, the expression "upper" or "on" may include not only being directly above/below/left/right in contact, but also above/below/left/right in non-contact.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 이러한 용어들은 구성 요소들의 물질 또는 구조가 다름을 한정하는 것이 아니다.Terms such as first, second, etc. may be used to describe various components, but are used only for the purpose of distinguishing one component from other components. These terms do not limit the difference in the material or structure of the components.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. Also, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 하나 또는 복수의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes one or a plurality of functions or operations, which may be implemented as hardware or software, or a combination of hardware and software. there is.

"상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다.The use of the term “above” and similar referential terms may be used in both the singular and the plural.

방법을 구성하는 단계들은 설명된 순서대로 행하여야 한다는 명백한 언급이 없다면, 적당한 순서로 행해질 수 있다. 또한, 모든 예시적인 용어(예를 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 청구항에 의해 한정되지 않는 이상 이러한 용어로 인해 권리 범위가 한정되는 것은 아니다.The steps constituting the method may be performed in any suitable order, unless expressly stated that they must be performed in the order described. In addition, the use of all exemplary terms (eg, etc.) is merely for describing the technical idea in detail, and unless limited by the claims, the scope of rights is not limited by these terms.

도 1은 일 실시예에 따른 이미지 센서의 개략적인 블록도이다. 도 1을 참조하면, 이미지 센서(1000)는 화소 어레이(1100), 타이밍 컨트롤러(1010), 로우 디코더(1020), 및 출력 회로(1030)를 포함할 수 있다. 이미지 센서는 CCD(charge coupled device) 이미지 센서 또는 CMOS(complementary metal oxide semiconductor) 이미지 센서일 수 있다.1 is a schematic block diagram of an image sensor according to an embodiment. Referring to FIG. 1 , the image sensor 1000 may include a pixel array 1100 , a timing controller 1010 , a row decoder 1020 , and an output circuit 1030 . The image sensor may be a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor.

화소 어레이(1100)는 복수의 로우와 컬럼을 따라 2차원 배열된 화소들을 포함한다. 로우 디코더(1020)는 타이밍 컨트롤러(1010)로부터 출력된 로우 어드레스 신호에 응답하여 화소 어레이(1100)의 로우들 하나를 선택한다. 출력 회로(1030)는 선택된 로우를 따라 배열된 복수의 화소로부터 컬럼 단위로 광감지 신호를 출력한다. 이를 위하여, 출력 회로(1030)는 컬럼 디코더와 아날로그-디지털 변환기(ADC; analog to digital converter)를 포함할 수 있다. 예를 들어, 출력 회로(1030)는 컬럼 디코더와 화소 어레이(1100) 사이에서 컬럼 별로 각각 배치된 복수의 ADC, 또는, 컬럼 디코더의 출력단에 배치된 하나의 ADC를 포함할 수 있다. 타이밍 컨트롤러(1010), 로우 디코더(1020), 및 출력 회로(1030)는 하나의 칩 또는 각각 별개의 칩으로 구현될 수 있다. 출력 회로(1030)를 통해 출력된 영상 신호를 처리하기 위한 프로세서가 타이밍 컨트롤러(1010), 로우 디코더(1020), 및 출력 회로(1030)와 함께 하나의 칩으로 구현될 수도 있다.The pixel array 1100 includes two-dimensionally arranged pixels along a plurality of rows and columns. The row decoder 1020 selects one row of the pixel array 1100 in response to a row address signal output from the timing controller 1010 . The output circuit 1030 outputs a light sensing signal from a plurality of pixels arranged along a selected row in column units. To this end, the output circuit 1030 may include a column decoder and an analog-to-digital converter (ADC). For example, the output circuit 1030 may include a plurality of ADCs respectively disposed for each column between the column decoder and the pixel array 1100 , or one ADC disposed at an output terminal of the column decoder. The timing controller 1010 , the row decoder 1020 , and the output circuit 1030 may be implemented as a single chip or as separate chips. A processor for processing an image signal output through the output circuit 1030 may be implemented as a single chip together with the timing controller 1010 , the row decoder 1020 , and the output circuit 1030 .

화소 어레이(1100)는 서로 다른 파장의 빛을 감지하는 복수의 화소를 포함할 수 있다. 화소의 배열은 다양한 방식으로 구현될 수 있다. 예를 들어, 도 2a 내지 도 2c는 이미지 센서(1000)의 화소 어레이(1100)의 다양한 화소 배열을 도시한다.The pixel array 1100 may include a plurality of pixels for sensing light of different wavelengths. The arrangement of pixels may be implemented in various ways. For example, FIGS. 2A to 2C show various pixel arrangements of the pixel array 1100 of the image sensor 1000 .

먼저, 도 2a는 이미지 센서(1000)에서 일반적으로 채택되고 있는 베이어 패턴(Bayer Pattern)을 보인다. 도 2a를 참조하면, 하나의 단위 패턴은 네 개의 사분 영역(Quadrant region)을 포함하며, 제1 내지 제4 사분면이 각각 청색 화소(B), 녹색 화소(G), 적색 화소(R), 녹색 화소(G)가 될 수 있다. 이러한 단위 패턴이 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 이차원적으로 반복 배열된다. 다시 말해, 2×2 어레이 형태의 단위 패턴 내에서 한 쪽 대각선 방향으로 2개의 녹색 화소(G)가 배치되고, 다른 쪽 대각선 방향으로 각각 1개의 청색 화소(B)와 1개의 적색 화소(R)가 배치된다. 전체적인 화소 배열을 보면, 복수의 녹색 화소(G)와 복수의 청색 화소(B)가 제1 방향을 따라 번갈아 배열되는 제1 행과 복수의 적색 화소(R)와 복수의 녹색 화소(G)가 제1 방향을 따라 번갈아 배열되는 제2 행이 제2 방향을 따라 반복적으로 배열된다.First, FIG. 2A shows a Bayer pattern generally adopted in the image sensor 1000 . Referring to FIG. 2A , one unit pattern includes four quadrant regions, and the first to fourth quadrants have a blue pixel (B), a green pixel (G), a red pixel (R), and a green color, respectively. It may be a pixel (G). These unit patterns are two-dimensionally repeatedly arranged along the first direction (X direction) and the second direction (Y direction). In other words, two green pixels (G) are arranged in one diagonal direction in a unit pattern of a 2×2 array type, and one blue pixel (B) and one red pixel (R) are arranged in the other diagonal direction, respectively. is placed Looking at the overall pixel arrangement, a first row in which a plurality of green pixels (G) and a plurality of blue pixels (B) are alternately arranged in a first direction, and a plurality of red pixels (R) and a plurality of green pixels (G) Second rows alternately arranged along the first direction are repeatedly arranged along the second direction.

화소 어레이(1100)의 배열 방식은 베이어 패턴 이외에도 다양한 배열 방식이 가능하다. 예를 들어, 도 2b를 참조하면, 마젠타(Magenta) 화소(M), 사이안(Cyan) 화소(C), 옐로우(Yellow) 화소(Y), 및 녹색 화소(G)가 하나의 단위 화패턴을 구성하는 CYGM 방식의 배열도 가능하다. 또한, 도 2c를 참조하면, 녹색 화소(G), 적색 화소(R), 청색 화소(B), 및 백색 화소(W)가 하나의 단위 패턴을 구성하는 RGBW 방식의 배열도 가능하다. 또한, 도시되지는 않았지만 단위 패턴이 3×2 어레이 형태를 가질 수도 있다. 그 밖에도 화소 어레이(1100)의 화소들은 이미지센서(1000)의 색 특성에 따라 다양한 방식으로 배열될 수 있다. 아래에서는 이미지센서(1000)의 화소 어레이(1100)가 베이어 패턴을 갖는 것을 예로 설명하지만, 동작 원리는 베이어 패턴이 아닌 다른 형태의 화소 배열에도 적용될 수 있다.As the arrangement method of the pixel array 1100 , various arrangement methods other than the Bayer pattern are possible. For example, referring to FIG. 2B , a magenta pixel (M), a cyan pixel (C), a yellow pixel (Y), and a green pixel (G) are one unitized pattern. It is also possible to arrange the CYGM method constituting the Also, referring to FIG. 2C , an RGBW arrangement in which a green pixel (G), a red pixel (R), a blue pixel (B), and a white pixel (W) constitute one unit pattern is also possible. Also, although not shown, the unit pattern may have a 3×2 array shape. In addition, the pixels of the pixel array 1100 may be arranged in various ways according to color characteristics of the image sensor 1000 . Hereinafter, an example in which the pixel array 1100 of the image sensor 1000 has a Bayer pattern will be described, but the principle of operation may be applied to a pixel array other than the Bayer pattern.

이미지 센서(1000)의 화소 어레이(1100)는 특정 화소에 대응하는 색의 빛을 집광하는 색분리 렌즈 어레이를 포함할 수 있다. 도 3a 및 도 3b는 색분리 렌즈 어레이의 구조와 동작을 보이는 개념도이다. The pixel array 1100 of the image sensor 1000 may include a color separation lens array for condensing light of a color corresponding to a specific pixel. 3A and 3B are conceptual views illustrating the structure and operation of a color separation lens array.

도 3a를 참조하면, 색분리 렌즈 어레이(CSLA, Color Separating Lens Array) 는 입사광(Li)의 위상을 입사 위치에 따라 다르게 변화시키는 복수의 나노포스트(NP)를 포함할 수 있다. 색분리 렌즈 어레이(1100)는 다양한 방식으로 구획될 수 있다. 예를 들어, 입사광(Li)에 포함된 제1 파장 광(Lλ1)이 집광되는 제1 화소(PX1)에 대응하는 제1 화소 대응 영역(R1), 및 입사광(Li)에 포함된 제2 파장 광(Lλ2)이 집광되는 제2 화소(PX2)에 대응하는 제2 화소 대응 영역(R2)으로 구획될 수 있다. 제1 및 제2 화소 대응 영역(R1, R2)은 각각 하나 이상의 나노포스트(NP)를 포함할 수 있고, 각각 제1 및 제2 화소(PX1, PX2)와 마주하게 배치될 수 있다. 다른 예로, 색분리 렌즈 어레이(1100)는 제1 파장 광(Lλ1)을 제1 화소(PX1)에 집광하는 제1 파장 집광 영역(L1), 제2 파장 광(Lλ2)을 제2 화소(PX2)에 집광하는 제2 파장 집광 영역(L2)으로 구획될 수 있다. 제1 파장 집광 영역(L1)과 제2 파장 집광 영역(L2)은 일부 영역이 중첩될 수 있다.Referring to FIG. 3A , a color separation lens array (CSLA) may include a plurality of nanoposts NP that change the phase of incident light Li differently according to an incident position. The color separation lens array 1100 may be partitioned in various ways. For example, the first pixel-corresponding region R1 corresponding to the first pixel PX1 on which the first wavelength light L λ1 included in the incident light Li is focused, and the second pixel-corresponding region R1 included in the incident light Li The wavelength light L λ2 may be divided into a second pixel-corresponding region R2 corresponding to the second pixel PX2 on which the light L λ2 is focused. The first and second pixel-corresponding regions R1 and R2 may each include one or more nanoposts NP, and may be disposed to face the first and second pixels PX1 and PX2, respectively. As another example, the color separation lens array 1100 includes a first wavelength converging region L1 for condensing the first wavelength light L λ1 to the first pixel PX1 and a second wavelength light L λ2 for a second pixel It may be partitioned into a second wavelength converging region L2 condensing light to PX2 . A portion of the first wavelength converging region L1 and the second wavelength converging region L2 may overlap.

색분리 렌즈 어레이(CSLA)는 입사광(Li)에 포함된 제1 및 제2 파장 광(Lλ1, Lλ2)에 각각 다른 위상 분포(Phase Profile)를 형성하여, 제1 파장 광(Lλ1)을 제1 화소(PX1)에 집광하고, 제2 파장 광(Lλ2)을 제2 화소(PX2)로 집광할 수 있다. The color separation lens array CSLA forms different phase profiles in the first and second wavelength lights L λ1 and L λ2 included in the incident light Li, respectively, to form the first wavelength light L λ1 . may be focused on the first pixel PX1 , and the second wavelength light L λ2 may be focused on the second pixel PX2 .

예를 들어, 도 3b를 참조하면, 색분리 렌즈 어레이(CSLA)는 색분리 렌즈 어레이(CSLA)를 통과한 직후의 위치, 즉, 색분리 렌즈 어레이(CSLA)의 하부 표면 위치에서, 제1 파장 광(Lλ1)이 제1 위상 분포(PP1)를 갖고 제2 파장 광(Lλ2)이 제2 위상 분포(PP2)를 갖도록 하여, 제1 및 제2 파장 광(Lλ1, Lλ2)이 각각 대응하는 제1 및 제2 화소(PX1, PX2)에 집광되도록 할 수 있다. 구체적으로, 색분리 렌즈 어레이(CSLA)를 통과한 제1 파장 광((Lλ1)은 제1 화소 대응 영역(R1)의 중심에서 가장 크고, 제1 화소 대응 영역(R1)의 중심에서 멀어지는 방향, 즉 제2 화소 대응 영역(R2) 방향으로 감소하는 위상 분포(PP1)를 가질 수 있다. 이러한 위상 분포는 볼록 렌즈, 예를 들면, 제1 파장 집광 영역(L1)에 배치된 중심부가 볼록한 마이크로 렌즈를 통과하여 한 지점으로 수렴하는 광의 위상 분포와 유사하며, 제1 파장 광(Lλ1)은 제1 화소(PX1)에 집광될 수 있다. 또한, 색분리 렌즈 어레이(CSLA)를 통과한 제2 파장 광(Lλ2)은 제2 화소 대응 영역(R2)의 중심에서 가장 크고, 제2 화소 대응 영역(R2)의 중심에서 멀어지는 방향, 즉 제1 화소 대응 영역(R1) 방향으로 감소하는 위상 분포(PP2)를 가져, 제2 파장 광(Lλ2)은 제2 화소(PX2)로 집광될 수 있다. For example, referring to FIG. 3B , the color separation lens array CSLA has a first wavelength at a position immediately after passing through the color separation lens array CSLA, that is, at a lower surface position of the color separation lens array CSLA. The light L λ1 has the first phase distribution PP1 and the second wavelength light L λ2 has the second phase distribution PP2 so that the first and second wavelength lights L λ1 and L λ2 are The light may be focused on the corresponding first and second pixels PX1 and PX2, respectively. Specifically, the first wavelength light (L λ1 ) passing through the color separation lens array CSLA is greatest at the center of the first pixel correspondence region R1, and in a direction away from the center of the first pixel correspondence region R1 , that is, it may have a phase distribution PP1 that decreases in the direction of the second pixel corresponding region R2. Such a phase distribution is a convex lens, for example, a micro-convex center disposed in the first wavelength converging region L1. Similar to the phase distribution of light passing through the lens and converging to a point, the first wavelength light L λ1 may be focused on the first pixel PX1. The two-wavelength light L λ2 is greatest at the center of the second pixel-corresponding region R2 and decreases in a direction away from the center of the second pixel-corresponding region R2, that is, in the first pixel-corresponding region R1 direction. Due to the distribution PP2 , the second wavelength light L λ2 may be focused on the second pixel PX2 .

물질의 굴절률은 반응하는 빛의 파장에 따라 다르게 나타나기 때문에, 도 3b와 같이, 색분리 렌즈 어레이(CSLA)가 제1 및 제2 파장 광(Lλ1, Lλ2)에 대해 서로 다른 위상 분포를 제공할 수 있다. 다시 말하면, 동일한 물질이라도 물질과 반응하는 빛의 파장에 따라 굴절률이 다르고 물질을 통과했을 때 빛이 겪는 위상지연도 파장마다 다르기 때문에 파장별로 다른 위상 분포가 형성될 수 있다. 예를 들면, 제1 화소 대응 영역(R1)의 제1 파장 광(Lλ1)에 대한 굴절률과 제1 화소 대응 영역(R1)의 제2 파장 광(Lλ2)에 대한 굴절률이 서로 다를 수 있고, 제1 화소 대응 영역(R1)을 통과한 제1 파장 광(Lλ1)이 겪는 위상지연과 제1 화소 대응 영역(R1)을 통과한 제2 파장 광(Lλ2)이 겪는 위상지연이 다를 수 있으므로, 이러한 빛의 특성을 고려하여 색분리 렌즈 어레이(CSLA)를 설계하면, 제1 및 제2 파장 광(Lλ1, Lλ22)에 대해 서로 다른 위상 분포를 제공하도록 할 수 있다. Since the refractive index of a material appears differently depending on the wavelength of the light it reacts to, as shown in FIG. 3B , the color separation lens array CSLA provides different phase distributions for the first and second wavelength lights L λ1 and L λ2 . can do. In other words, even for the same material, a different phase distribution may be formed for each wavelength because the refractive index is different depending on the wavelength of the light reacting with the material, and the phase delay experienced by light when it passes through the material is also different for each wavelength. For example, the refractive index of the first wavelength light L λ1 of the first pixel correspondence region R1 and the refractive index of the second wavelength light L λ2 of the first pixel correspondence region R1 may be different from each other, , the phase delay experienced by the first wavelength light L λ1 passing through the first pixel correspondence region R1 is different from the phase delay experienced by the second wavelength light L λ2 passing through the first pixel correspondence region R1 Therefore, if the color separation lens array CSLA is designed in consideration of such characteristics of light, different phase distributions may be provided for the first and second wavelength lights L λ1 and L λ22 .

색분리 렌즈 어레이(CSLA)는 제1 및 제2 파장 광(Lλ1, Lλ2)이 각각 제1 및 제2 위상 분포(PP1, PP2)를 가지도록 특정한 규칙으로 배열된 나노포스트(NP)를 포함할 수 있다. 여기서, 규칙(rule)은 나노포스트(NP)의 형상, 크기(폭, 높이), 간격, 배열 형태 등의 파라미터에 적용되는 것으로, 이들 파라미터는 색분리 렌즈 어레이(CSLA)를 통해 구현하고자 하는 위상 분포(Phase Profile)에 따라 정해질 수 있다. The color separation lens array (CSLA) is a nanopost (NP) arranged in a specific order so that the first and second wavelength lights (L λ1 , L λ2 ) have first and second phase distributions (PP1, PP2), respectively. may include Here, the rule is applied to parameters such as the shape, size (width, height), spacing, and arrangement of the nanoposts (NP), and these parameters are the phase to be implemented through the color separation lens array (CSLA). It may be determined according to the distribution (Phase Profile).

나노포스트(NP)가 제1 화소 대응 영역(R1)에 배치되는 규칙과 제2 화소 대응 영역(R2)에 배치되는 규칙은 서로 다를 수 있다. 다시 말하면, 제1 화소 대응 영역(R1)에 구비된 나노포스트(NP)의 크기, 형상, 간격 및/또는 배열이 제2 화소 대응 영역(R2)에 구비된 나노포스트(NP)의 크기, 형상, 간격 및/또는 배열과 다를 수 있다.A rule for disposing the nanoposts NP in the first pixel-corresponding region R1 and a rule for disposing the nanoposts NP in the second pixel-corresponding region R2 may be different from each other. In other words, the size, shape, spacing, and/or arrangement of the nano-posts NP provided in the first pixel-corresponding region R1 is the size and shape of the nano-posts NP provided in the second pixel-corresponding region R2 . , spacing and/or arrangement may be different.

나노포스트(NP)는 단면의 지름이 서브 파장의 치수를 가질 수도 있다. 여기서 서브 파장은 분기 대상인 광의 파장 대역보다 작은 파장을 의미한다. 나노포스트(NP)는, 예를 들어, 제1 파장, 제2 파장 중 짧은 파장보다 작은 치수를 가질 수 있다. 입사광(Li)이 가시광인 경우, 나노포스트(NP)의 단면의 지름은 예를 들어 400 nm, 300 nm, 또는 200 nm 보다 작은 치수를 가질 수 있다. 한편 나노포스트(NP)의 높이는 500 nm 내지 1500 nm일 수 있고, 단면의 지름보다 높이가 클 수 있다. 도시하지는 않았지만, 나노포스트(NP)는 높이 방향(Z방향)으로 적층된 2개 이상의 포스트가 결합된 것일 수 있다.The nanopost NP may have a cross-sectional diameter of sub-wavelength. Here, the sub-wavelength refers to a wavelength smaller than the wavelength band of the branch light. The nanoposts NP may have a smaller dimension than, for example, a shorter wavelength of the first wavelength and the second wavelength. When the incident light Li is visible light, the diameter of the cross-section of the nanoposts NP may have a dimension smaller than, for example, 400 nm, 300 nm, or 200 nm. On the other hand, the height of the nano-post (NP) may be 500 nm to 1500 nm, the height may be greater than the diameter of the cross-section. Although not shown, the nanopost NP may be a combination of two or more posts stacked in the height direction (Z direction).

나노포스트(NP)는 주변 물질에 비하여 높은 굴절률을 갖는 재료로 이루어질 수 있다. 예를 들어, 나노포스트(NP)는 c-Si, p-Si, a-Si 및 Ⅲ-Ⅴ 화합물 반도체(GaP, GaN, GaAs 등), SiC, TiO2, SiN 및/또는 이들의 조합을 포함할 수 있다. 주변 물질과 굴절률 차이를 가지는 나노포스트(NP)는 나노포스트(NP)를 지나가는 광의 위상을 변화시킬 수 있다. 이는 나노포스트(NP)의 서브 파장의 형상 치수에 의해 일어나는 위상 지연(phase delay)에 의한 것이며, 위상이 지연되는 정도는 나노포스트(NP)의 세부적인 형상 치수, 배열 형태 등에 의해 정해진다. 나노포스트(NP) 주변 물질은 나노포스트(NP)보다 낮은 굴절률을 갖는 유전체 재료로 이루어질 수 있다. 예를 들어, 주변 물질은 SiO2 또는 공기(air)를 포함할 수 있다.The nanopost (NP) may be made of a material having a higher refractive index than that of a surrounding material. For example, nanoposts (NPs) may include c-Si, p-Si, a-Si and III-V compound semiconductors (GaP, GaN, GaAs, etc.), SiC, TiO2, SiN, and/or combinations thereof. can The nanopost NP having a refractive index difference from that of the surrounding material may change the phase of light passing through the nanopost NP. This is due to a phase delay caused by the shape dimension of the sub-wavelength of the nanopost (NP), and the degree of the phase delay is determined by the detailed shape dimension, arrangement, and the like of the nanopost (NP). The material surrounding the nanoposts (NP) may be made of a dielectric material having a lower refractive index than that of the nanoposts (NP). For example, the surrounding material may include SiO2 or air.

제1 파장(λ1)과 제2 파장(λ2)은 적외선 및 가시광선 파장 대역일 수 있으나, 이에 한정되지 않으며 복수의 나노포스트(NP)의 어레이의 배열 규칙에 따라 다양한 파장에서 동작할 수 있다. 또한, 두 개의 파장이 분기되어 집광되는 것을 예시하였으나 입사광이 파장에 따라 세 방향 이상으로 분기되어 집광될 수도 있다.The first wavelength λ1 and the second wavelength λ2 may be infrared and visible wavelength bands, but are not limited thereto, and may operate at various wavelengths according to the arrangement rule of the array of the plurality of nanoposts NP. In addition, although the example in which two wavelengths are diverged and condensed has been exemplified, incident light may be converged by being diverged in three or more directions according to wavelengths.

또한 색분리 렌즈 어레이(CSLA)가 1개 층인 경우를 예로 설명하였으나, 색분리 렌즈 어레이(CSLA)는 복수의 층이 적층된 구조일 수도 있다. 예를 들면, 1층은 가시광선을 특정 화소에 집광하고 2층은 적외선을 다른 화소에 집광하도록 설계할 수 있다.In addition, although the case where the color separation lens array CSLA is one layer has been described as an example, the color separation lens array CSLA may have a structure in which a plurality of layers are stacked. For example, the first layer can be designed to focus visible light on a specific pixel, and the second layer can be designed to focus infrared light on other pixels.

도 4a 및 도 4b는 광의 파장 및 위상 분포와 초점거리의 관계를 설명하기 위한 도면이다. 4A and 4B are diagrams for explaining the relationship between the wavelength and phase distribution of light and the focal length.

도 4a를 참조하면, 동일한 위상 분포를 가지는 서로 다른 3개 파장 광의 제1 내지 제3 초점거리(f1, f2, f3)가 도시된다. 즉, 540 nm, 450 nm, 630 nm 파장 광이 색분리 렌즈 어레이의 제1 내지 제3 파장 집광 영역(L1, L2, L3)을 통과한 직후 위치에서 각 집광 영역(L1, L2, L3)의 중심에서 2π이고, 중심에서 멀어지는 방향으로 π까지 감소하는 위상 분포를 가질 때, 각 파장별 초점거리가 도시된다. 구체적으로, 540 nm 광은 2π 에서 π로 감소하는 제1 위상 분포(PPa)에 의해 제1 초점거리(f1)에 모이고, 450 nm 광은 제1 위상 분포(PPa)와 동일한 제2 위상 분포(PPb)에 의해 제1 초점거리(f1) 보다 긴 제2 초점거리(f2)에 모이고, 630 nm 광은 제1 위상 분포(PPa)와 동일한 제3 위상 분포(PPc)에 의해 제1 초점거리(f1) 보다 짧은 제3 초점거리(f3)에 모일 수 있다. 다시 말하면, 위상 분포가 동일할 때, 초점 거리는 파장에 반비례할 수 있다. 따라서, 각 집광 영역(L1, L2, L3)이 서로 다른 파장의 입사광에 대해 동일한 초점거리를 가지도록 하기 위해서는 색분리 렌즈 어레이(130)가 파장별로 X방향으로의 위상 감소율이 상이한 위상 분포를 제공하여야 한다.Referring to FIG. 4A , first to third focal lengths f1 , f2 , and f3 of three different wavelengths of light having the same phase distribution are illustrated. That is, at the position immediately after the 540 nm, 450 nm, and 630 nm wavelength light passes through the first to third wavelength light collecting regions L1, L2, and L3 of the color separation lens array, each of the light collecting regions L1, L2, and L3 When the phase distribution is 2π at the center and decreases to π in the direction away from the center, focal lengths for each wavelength are shown. Specifically, 540 nm light is collected at a first focal length f1 by a first phase distribution PPa that decreases from 2π to π, and 450 nm light has a second phase distribution equal to the first phase distribution PPa (PPa). PPb) at a second focal length f2 longer than the first focal length f1, and 630 nm light is collected at a first focal length f2 by a third phase distribution PPc equal to the first phase distribution PPa. f1) may be collected at a shorter third focal length f3. In other words, when the phase distributions are the same, the focal length may be inversely proportional to the wavelength. Accordingly, in order for each of the light collecting regions L1, L2, and L3 to have the same focal length for incident light of different wavelengths, the color separation lens array 130 provides a phase distribution with a different phase reduction rate in the X direction for each wavelength. shall.

도 4b는 서로 다른 파장의 입사광이 동일한 초점거리를 가지도록 하는 집광 영역의 위상 분포를 설명하기 위한 도면이다. FIG. 4B is a diagram for explaining a phase distribution of a light collecting area such that incident light of different wavelengths has the same focal length.

도 4b를 참조하면, 동일한 초점거리를 가지는 서로 다른 3개 파장 광의 위상 분포(PPa, PPb', PPc')가 도시된다. 도 4b의 540 nm 파장 광의 제1 위상 분포(PPa)는 도 4a에서 설명한 것과 같고, 540 nm 파장 광은 제1 초점거리(f1)를 가진다. Referring to FIG. 4B , the phase distributions PPa, PPb', and PPc' of three different wavelengths of light having the same focal length are shown. The first phase distribution PPa of the 540 nm wavelength light of FIG. 4B is the same as that described in FIG. 4A , and the 540 nm wavelength light has a first focal length f1.

도 4b의 450 nm 광은 도 4a의 제2 초점거리(f2)보다 짧은 제2' 초점거리(f2')를 가질 수 있다. 초점거리를 줄이기 위해 제2' 위상 분포(PPb')는 도 4a의 제2 위상 분포(PPb) 대비 X방향 위상 감소율보다 클 수 있다. 다시말해, 도 4a의 제2 위상 분포(PPb)는 제2 집광 영역(L2)의 중심에서 2π이고 중심에서 멀어지는 방향으로 π까지 π만큼 감소하는 반면, 도 4b의 제2' 위상 분포(PPb')는 제2 집광 영역(L2)의 중심에서 2π이고 중심에서 멀어지는 방향으로 0.8π까지 1.2π만큼 감소할 수 있다. 제2' 위상 분포(PPb')의 감소율이 커짐에 따라 도 4b의 제2 파장 광에 대한 제2' 파장 집광 영역(L2')의 제2' 초점거리(f2')가 짧아질 수 있고, 제2' 초점거리(f2')를 제1 초점거리(f1)와 같도록 설계할 수 있다. The 450 nm light of FIG. 4B may have a second 'focal length f2' that is shorter than the second focal length f2 of FIG. 4A . In order to reduce the focal length, the second 'phase distribution PPb' may be greater than the X-direction phase reduction rate compared to the second phase distribution PPb of FIG. 4A . In other words, the second phase distribution PPb of FIG. 4A is 2π at the center of the second light collecting region L2 and decreases by π in a direction away from the center by π, whereas the second phase distribution PPb′ of FIG. 4B is 2π. ) may be 2π at the center of the second light collecting area L2 and may decrease by 1.2π to 0.8π in a direction away from the center. As the reduction rate of the second 'phase distribution PPb' increases, the second' focal length f2' of the second wavelength converging region L2' for the light of the second wavelength of FIG. 4B may be shortened, The second focal length f2' may be designed to be equal to the first focal length f1.

한편, 도 4b의 630 nm 광은 도 4a의 제3 초점거리(f3)보다 긴 제3' 초점거리(f3')를 가질 수 있다. 초점거리를 늘리기 위해 집광 영역 중심에서 X방향으로의 위상 감소율이 작아지도록 할 수 있고, 예를 들면, 제3' 위상 분포(PPc')는 도 4a의 제3 위상 분포(PPc) 대비 위상 감소율이 작을 수 있다. 다시말해, 도 4a의 제3 위상 분포(PPc)는 제3 파장 집광 영역(L3)의 중심에서 2π이고 중심에서 멀어지는 방향으로 π까지 π만큼 감소하는 반면, 도 4b의 제3' 위상 분포(PPc')는 제3 파장 집광 영역(L3)의 중심에서 2π이고 중심에서 멀어지는 방향으로 1.2π까지 0.8π만큼만 감소할 수 있다. 제3' 위상 분포(PPc')의 위상 감소율이 제3 위상 분포(PPc)에 비해 작아짐에 따라 도 4b의 제3 파장 광에 대한 제3' 파장 집광 영역(L3')의 제3' 초점거리(f3')가 길어질 수 있고, 제3' 초점거리(f3')를 제1 초점거리(f1)와 같도록 설계할 수 있다.Meanwhile, the 630 nm light of FIG. 4B may have a third focal length f3 ′ longer than the third focal length f3 of FIG. 4A . In order to increase the focal length, the phase reduction rate in the X-direction from the center of the light collecting area may be reduced. can be small In other words, the third phase distribution PPc of FIG. 4A is 2π at the center of the third wavelength converging region L3 and decreases by π to π in the direction away from the center, whereas the third phase distribution PPc of FIG. 4B is 2π. ') is 2π at the center of the third wavelength converging region L3 and may decrease only by 0.8π up to 1.2π in a direction away from the center. As the phase reduction rate of the 3' phase distribution PPc' becomes smaller than that of the third phase distribution PPc, the 3' focal length of the 3' wavelength condensing region L3' for the light of the third wavelength of FIG. 4B (f3') may be increased, and the third focal length f3' may be designed to be equal to the first focal length f1.

아래에서는 앞서 설명한 색분리 렌즈 어레이(130)가 이미지센서(1000)의 화소 어레이(1100)에 적용된 예를 보다 상세하게 설명한다.Hereinafter, an example in which the aforementioned color separation lens array 130 is applied to the pixel array 1100 of the image sensor 1000 will be described in more detail.

도 5a 및 도 5b는 일 실시예에 따른 이미지 센서(1000)의 화소 어레이(1100)의 각각 다른 단면에서 보이는 개략적인 단면도이고, 도 6a는 이미지 센서(1000)의 화소 어레이(1100)에서 화소의 배열을 개략적으로 보이는 평면도이며, 도 6b는 이미지 센서(1000)의 화소 어레이(1100)에서 색분리 렌즈 어레이의 복수 영역에 복수의 나노포스트가 배열된 형태를 예시적으로 보이는 평면도이고, 도 6c는 도 6b의 일부를 확대하여 상세히 보인 평면도이다.5A and 5B are schematic cross-sectional views viewed from different cross-sections of the pixel array 1100 of the image sensor 1000 according to an exemplary embodiment, and FIG. 6A is a diagram of a pixel in the pixel array 1100 of the image sensor 1000 according to an exemplary embodiment. It is a plan view schematically showing the arrangement, and FIG. 6B is a plan view exemplarily showing a form in which a plurality of nanoposts are arranged in a plurality of regions of a color separation lens array in the pixel array 1100 of the image sensor 1000, and FIG. 6C is It is a plan view showing a part of FIG. 6B in detail by magnifying it.

도 5a 및 도 5b를 참조하면, 이미지 센서(1000)의 화소 어레이(1100)는 광을 센싱하는 복수의 화소(111, 112, 113, 114)를 포함하는 센서 기판(110), 센서 기판(110) 상에 배치된 투명한 스페이서층(120), 및 스페이서층(120) 상에 배치된 색분리 렌즈 어레이(130)를 포함한다.5A and 5B , the pixel array 1100 of the image sensor 1000 includes a sensor substrate 110 including a plurality of pixels 111 , 112 , 113 , and 114 sensing light, and a sensor substrate 110 . ), a transparent spacer layer 120 disposed on the spacer layer 120 , and a color separation lens array 130 disposed on the spacer layer 120 .

센서 기판(110)은 광을 전기적 신호로 변환하는 제1 녹색 화소(111), 청색 화소(112), 적색 화소(113) 및 제2 녹색 화소(114)를 포함할 수 있고, 제1 녹색 화소(111) 및 청색 화소(112)가 제1 방향(X 방향)을 따라 번갈아 배열되고, Y 방향의 위치가 다른 단면에서는 도 5b에 도시된 바와 같이, 적색 화소(113) 및 제2 녹색 화소(114)가 번갈아 배열될 수 있다. 도 6a는 이미지센서(1000)의 화소 어레이(1100)가 도 2a와 같이 베이어 패턴 배열을 가지는 경우의 화소들의 배열을 보인다. 이러한 배열은 입사광을 베이어 패턴과 같은 단위 패턴으로 구분하여 센싱하기 위한 것이며, 예를 들어, 제1 및 제2 녹색 화소(111, 114)는 녹색광을 센싱하고, 청색 화소(112)는 청색광을 센싱하며, 적색 화소(113)는 적색광을 센싱할 수 있다. 도시되지는 않았으나, 셀 간 경계에는 셀 분리를 위한 분리막이 더 형성될 수도 있다.The sensor substrate 110 may include a first green pixel 111 , a blue pixel 112 , a red pixel 113 , and a second green pixel 114 that convert light into an electrical signal, and the first green pixel In a cross section in which (111) and blue pixels 112 are alternately arranged in the first direction (X-direction) and the positions of Y-directions are different, as shown in FIG. 5B , the red pixel 113 and the second green pixel ( 114) may be alternately arranged. FIG. 6A shows the arrangement of pixels when the pixel array 1100 of the image sensor 1000 has a Bayer pattern arrangement as shown in FIG. 2A . This arrangement is for sensing incident light by dividing it into a unit pattern such as a Bayer pattern. For example, the first and second green pixels 111 and 114 sense green light, and the blue pixel 112 senses blue light. and the red pixel 113 may sense red light. Although not shown, a separator for cell separation may be further formed at the cell boundary.

도 6a를 참조하면, 화소들(111, 112, 113, 114)의 전부 또는 일부는 2개 이상의 광감지셀을 포함할 수 있고, 2개 이상의 광감지셀을 포함하는 화소는 자동 초점 화소일 수 있다. 이미지센서(1000)의 로직 회로는 자동 초점 화소에 포함된 각각의 광감지셀로부터 획득한 신호들의 차이를 이용하여 이미지 센서(1000) 및/또는 이미지 센서(1000)를 포함하는 카메라 장치의 자동 초점 기능을 구현할 수 있다. 하나의 화소에 포함되는 둘 이상의 광감지셀들의 출력 신호들의 차이를 정확하게 계산할 수 있도록, 자동 초점 화소는 광감지셀들을 분리하기 위한 화소 내부 분리막을 포함할 수 있다. 화소 내부 분리막에 의해 광감지셀들이 서로 분리되므로 별도의 신호를 출력할 수 있다. 도 5a 및 도 5b의 실시예에서는 녹색, 청색, 및 적색 화소(111, 112, 113, 114)가 모두 2개의 광감지셀을 포함하는 경우, 예를 들면, 제1 녹색 화소(111)는 제1-1 및 제1-2 녹색광 감지셀(111a, 111b)을 포함하고, 청색 화소(112)는 제1 및 제2 청색광 감지셀 (112a, 112b)을 포함하고, 적색 화소(113)는 제1 및 제2 적색광 감지셀(113a, 113b)을 포함하고, 제2 녹색 화소(114)는 제2-1 및 제2-2 녹색광 감지셀(114a, 114b)을 포함하는 경우를 예로 설명한다. Referring to FIG. 6A , all or part of the pixels 111 , 112 , 113 , and 114 may include two or more photo-sensing cells, and a pixel including two or more photo-sensing cells may be an auto-focus pixel. there is. The logic circuit of the image sensor 1000 uses the difference between signals obtained from each photo-sensing cell included in the auto-focus pixel to automatically focus the image sensor 1000 and/or the camera device including the image sensor 1000 . function can be implemented. In order to accurately calculate a difference between output signals of two or more photo-sensing cells included in one pixel, the auto-focus pixel may include an internal separation film for separating the photo-sensing cells. Since the photo-sensing cells are separated from each other by the internal separation film of the pixel, a separate signal can be output. 5A and 5B, when all of the green, blue, and red pixels 111, 112, 113, and 114 include two photo-sensing cells, for example, the first green pixel 111 is 1-1 and 1-2 green light detection cells 111a and 111b are included, the blue pixel 112 includes first and second blue light detection cells 112a and 112b, and the red pixel 113 includes the first and second blue light detection cells 112a and 112b. A case in which first and second red light sensing cells 113a and 113b are included and the second green pixel 114 includes 2-1 and 2-2 green light sensing cells 114a and 114b will be described as an example.

스페이서층(120)은 센서 기판(110)과 색분리 렌즈 어레이(130) 사이에 배치되어 센서 기판(110)과 색분리 렌즈 어레이(130) 사이의 간격을 일정하게 유지시키는 역할을 한다. 스페이서층(120)은 가시광에 대해 투명한 물질, 예를 들어, SiO2, 실란올계 유리(SOG; siloxane-based spin on glass) 등 나노포스트(NP)보다 낮은 굴절률을 가지면서 가시광 대역에서 흡수율이 낮은 유전체 물질로 이루어질 수 있다. 스페이서층(120)의 두께(h)는 ht - p ≤ h ≤ ht + p의 범위 내에서 선택될 수 있다. 여기서, 스페이서층(120)의 이론 두께 ht는

Figure pat00001
0의 파장에 대한 스페이서층(120)의 굴절률을 n, 화소의 피치를 p라고 할 때, 다음의 [수학식 1]로 표시될 수 있다.The spacer layer 120 is disposed between the sensor substrate 110 and the color separation lens array 130 to maintain a constant distance between the sensor substrate 110 and the color separation lens array 130 . The spacer layer 120 is a dielectric material that is transparent to visible light, for example, SiO2, siloxane-based spin on glass (SOG), etc., has a lower refractive index than nanoposts (NP) and has a low absorption in the visible light band. It can be made of material. The thickness h of the spacer layer 120 may be selected within the range of ht - p ≤ h ≤ ht + p. Here, the theoretical thickness ht of the spacer layer 120 is
Figure pat00001
When the refractive index of the spacer layer 120 with respect to the wavelength of 0 is n and the pixel pitch is p, it can be expressed by the following [Equation 1].

Figure pat00002
Figure pat00002

스페이서층(120)의 이론 두께 ht는 λ0의 파장을 갖는 광이 색분리 렌즈 어레이(130)에 의해 화소들(111, 112, 113, 114)의 상부 표면 상에 집광되는 초점 거리를 의미할 수 있다. λ0은 스페이서층(120)의 두께(h)를 정하는 기준이 되는 파장일 수 있으며, 녹색광의 중심 파장인 540 nm를 기준으로 스페이서층(120)의 두께를 설계할 수 있다.The theoretical thickness ht of the spacer layer 120 may mean a focal length at which light having a wavelength of λ 0 is focused on the upper surfaces of the pixels 111 , 112 , 113 and 114 by the color separation lens array 130 . there is. λ0 may be a reference wavelength for determining the thickness h of the spacer layer 120 , and the thickness of the spacer layer 120 may be designed based on 540 nm, which is the central wavelength of green light.

색분리 렌즈 어레이(130)는 스페이서층(120)에 의해 지지되며, 입사광의 위상을 변화시키는 나노포스트(NP)들 및 나노포스트(NP)들 사이에 배치되고 나노포스트(NP)보다 굴절률이 낮은 유전체, 예를 들면, 공기 또는 SiO2 를 포함할 수 있다.The color separation lens array 130 is supported by the spacer layer 120 , is disposed between the nanoposts NP and the nanoposts NP that change the phase of incident light, and has a refractive index lower than that of the nanoposts NP. a dielectric such as air or SiO2.

도 6b를 참조하면, 색분리 렌즈 어레이(130)는 도 6a의 각 화소들(111, 112, 113, 114)에 대응하는 4개 영역(131, 132, 133, 134)으로 구획될 수 있다. 제1 녹색 화소 대응 영역(131)은 제1 녹색 화소(111)에 대응하며 제1 녹색 화소(111) 상부에 배치될 수 있고, 청색 화소 대응 영역(132)은 청색 화소(112)에 대응하며 청색 화소(111) 상부에 배치될 수 있고, 적색 화소 대응 영역(133)은 적색 화소(113)에 대응하며 적색 화소(111) 상부에 배치될 수 있고, 제2 녹색 화소 대응 영역(134)은 제2 녹색 화소(114)에 대응하며 제2 녹색 화소(114) 상부에 배치될 수 있다. 즉, 색분리 렌즈 어레이(130)의 화소 대응 영역들(131, 132, 133, 134)은 센서 기판(110)의 각 화소(111, 112, 113, 114)와 마주하게 배치될 수 있다. 화소 대응 영역(131, 132, 133, 134)은 제1 녹색 화소 대응 영역 및 청색 화소 대응 영역(131, 132)이 번갈아 배열되는 제1 행과 적색 화소 대응 영역 및 제2 녹색 화소 대응 영역(133, 134)이 번갈아 배열되는 제2 행이 서로 교대로 반복되도록 제1 방향(X방향)과 제2 방향(Y방향)을 따라 이차원 배열될 수 있다. 색분리 렌즈 어레이(130)도 센서 기판(110)과 같이 2차원 배열된 복수의 단위 패턴을 포함하며, 각각의 단위 패턴은 2×2의 형태로 배열된 화소 대응 영역들(131, 132, 133, 134)을 포함한다.Referring to FIG. 6B , the color separation lens array 130 may be divided into four regions 131 , 132 , 133 , and 134 corresponding to the pixels 111 , 112 , 113 , and 114 of FIG. 6A . The first green pixel-corresponding region 131 corresponds to the first green pixel 111 and may be disposed on the first green pixel 111 , the blue pixel-corresponding region 132 corresponds to the blue pixel 112 , and It may be disposed on the blue pixel 111 , the red pixel-corresponding region 133 may correspond to the red pixel 113 and may be disposed on the red pixel 111 , and the second green pixel-corresponding region 134 may include: It corresponds to the second green pixel 114 and may be disposed on the second green pixel 114 . That is, the pixel corresponding regions 131 , 132 , 133 , and 134 of the color separation lens array 130 may be disposed to face each of the pixels 111 , 112 , 113 , and 114 of the sensor substrate 110 . The pixel-corresponding regions 131 , 132 , 133 , and 134 include a first row in which the first green pixel-corresponding regions and the blue pixel-corresponding regions 131 and 132 are alternately arranged, and the red pixel-corresponding region and the second green pixel-corresponding region 133 . , 134) may be two-dimensionally arranged along the first direction (X-direction) and the second direction (Y-direction) so that the second rows alternately repeated with each other. The color separation lens array 130 also includes a plurality of two-dimensionally arranged unit patterns like the sensor substrate 110 , and each unit pattern has pixel-corresponding regions 131 , 132 , and 133 arranged in a 2×2 shape. , 134).

한편, 색분리 렌즈 어레이(130)는 도 3b에서 설명한 것과 유사하게, 녹색광을 집광하는 녹색광 집광 영역, 청색광을 집광하는 청색광 집광 영역, 및 적색광을 집광하는 적색광 집광 영역으로 구획될 수도 있다. Meanwhile, the color separation lens array 130 may be divided into a green light condensing area for condensing green light, a blue light condensing area for condensing blue light, and a red light condensing area for condensing red light, similar to that described with reference to FIG. 3B .

색분리 렌즈 어레이(130)는 제1 및 제2 녹색 화소(111, 114)로 녹색광이 분기되어 집광되고, 청색 화소(112)로 청색광이 분기되어 집광되며, 적색 화소(113)로 적색광이 분기되어 집광되도록 크기, 형상, 간격 및/또는 배열이 정해진 나노포스트(NP)들을 포함할 수 있다. 한편, 색분리 렌즈 어레이(130)의 두께(Z방향)는 나노포스트(NP)의 높이와 유사할 수 있으며, 500 nm 내지 1500 nm일 수 있다.In the color separation lens array 130 , green light is branched and condensed to the first and second green pixels 111 and 114 , blue light is branched to and collected by the blue pixel 112 , and red light is branched to the red pixel 113 . It may include nanoposts (NPs) having a size, shape, spacing, and/or arrangement so as to be condensed. Meanwhile, the thickness (Z direction) of the color separation lens array 130 may be similar to the height of the nanoposts NP, and may be 500 nm to 1500 nm.

도 6b를 참조하면, 화소 대응 영역들(131, 132, 133, 134)은 원형단면을 가지는 원기둥 형태의 나노포스트(NP)들을 포함할 수 있고, 각 영역의 중심부에는 단면적이 서로 다른 나노포스트(NP)가 배치되고, 화소간 경계선 상의 중심 및 화소 경계선의 교차점에도 나노포스트(NP)가 배치될 수 있다. 화소간 경계에 배치된 나노포스트(NP)의 단면적은 화소 중심부에 배치된 나노포스트(NP)보다 작을 수 있다.Referring to FIG. 6B , the pixel-corresponding regions 131 , 132 , 133 , and 134 may include cylindrical nanoposts NP having a circular cross-section, and at the center of each region, nanoposts having different cross-sectional areas ( NP) may be disposed, and nanoposts NP may also be disposed at the intersection of the center on the boundary line between pixels and the boundary line between pixels. A cross-sectional area of the nanoposts NP disposed at the boundary between pixels may be smaller than that of the nanoposts NP disposed at the center of the pixel.

도 6c는 도 6b의 일부 영역, 즉, 단위 패턴을 구성하는 화소 대응 영역들(131, 132, 133, 134)에 포함된 나노포스트(NP)의 배열을 상세히 보인다. 도 6c에서 나노포스트(NP)들은 세부 위치에 따라 p1~p9로 표시되어 있다. 도 6c를 참조하면, 나노포스트(NP)들 중, 제1 녹색 화소 대응 영역(131)의 중심부에 배치된 나노포스트(p1) 및 제2 녹색 화소 대응 영역(134)의 중심부에 배치된 나노포스트(p4)의 단면적이 청색 화소 대응 영역(132)의 중심부에 배치된 나노포스트(p2)나 적색 화소 대응 영역(133)의 중심부에 배치된 나노포스트(p3)의 단면적보다 크며, 청색 화소 대응 영역(132)의 중심부에 배치된 나노포스트(p2)의 단면적이 적색 화소 대응 영역(133)의 중심부에 배치된 나노포스트(p3)의 단면적보다 크다. 다만, 이는 하나의 예에 불과하고, 필요에 따라 다양한 형상, 크기, 배열의 나노포스트(NP)들이 적용될 수 있다. FIG. 6C shows the arrangement of the nanoposts NP included in the partial area of FIG. 6B , that is, the pixel corresponding areas 131 , 132 , 133 , and 134 constituting the unit pattern in detail. In FIG. 6c , the nanoposts (NPs) are indicated by p1 to p9 according to detailed positions. Referring to FIG. 6C , among the nanoposts NP, the nanopost p1 disposed in the center of the first green pixel corresponding area 131 and the nanopost disposed in the center of the second green pixel corresponding area 134 . The cross-sectional area of (p4) is larger than the cross-sectional area of the nanoposts p2 disposed in the center of the blue pixel-corresponding region 132 or the nanoposts p3 disposed in the center of the red pixel-corresponding region 133, and the blue pixel-corresponding region The cross-sectional area of the nano-posts p2 disposed at the center of 132 is larger than the cross-sectional area of the nano-posts p3 disposed at the center of the red pixel-corresponding region 133 . However, this is only an example, and nanoposts (NPs) of various shapes, sizes, and arrangements may be applied as needed.

제1 및 제2 녹색 화소 대응 영역(131, 134)에 구비된 나노포스트(NP)들은 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 서로 다른 분포 규칙을 가질 수 있다. 예를 들어, 제1 및 제2 녹색 화소 대응 영역(131, 134)에 배치된 나노포스트(NP)들은 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 다른 크기 배열을 가질 수 있다. 도 6c에 도시된 바와 같이, 나노포스트(NP)들 중, 제1 녹색 화소 대응 영역(131)과 제1 방향(X방향)으로 인접한 청색 화소 대응 영역(132)과의 경계에 위치하는 나노포스트(p5)의 단면적과 제2 방향(Y방향)으로 인접하는 적색 화소 대응 영역(133)과의 경계에 위치하는 나노포스트들(p6)의 단면적은 서로 다르다. 마찬가지로, 제2 녹색 화소 대응 영역(134)과 제1 방향(X방향)으로 인접한 적색 화소 대응 영역(133)과의 경계에 위치하는 나노포스트(p7)의 단면적과 제2 방향(Y방향)으로 인접하는 청색 화소 대응 영역(132)과의 경계에 위치하는 나노포스트(p8)의 단면적은 서로 다르다.The nanoposts NPs provided in the first and second green pixel-corresponding regions 131 and 134 may have different distribution rules in the first direction (X-direction) and the second direction (Y-direction). For example, the nanoposts NPs disposed in the first and second green pixel corresponding regions 131 and 134 may have different size arrangements along the first direction (X direction) and the second direction (Y direction). there is. As shown in FIG. 6C , among the nanoposts NPs, the nanoposts positioned at the boundary between the first green pixel corresponding region 131 and the blue pixel corresponding region 132 adjacent in the first direction (X direction). The cross-sectional area of the nanoposts p6 positioned at the boundary between the red pixel-corresponding region 133 adjacent in the second direction (Y direction) and the cross-sectional area of (p5) are different from each other. Similarly, in the second direction (Y direction) and the cross-sectional area of the nanopost p7 positioned at the boundary between the second green pixel corresponding region 134 and the red pixel corresponding region 133 adjacent in the first direction (X direction) The cross-sectional areas of the nanoposts p8 positioned at the boundary with the adjacent blue pixel-corresponding region 132 are different from each other.

반면, 청색 화소 대응 영역(132) 및 적색 화소 대응 영역(133)에 배치된 나노포스트(NP)들은 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 대칭적인 분포 규칙을 가질 수 있다. 도 6c에 도시된 바와 같이, 나노포스트(NP)들 중, 청색 화소 대응 영역(132)과 제1 방향(X방향)으로 인접한 화소 간의 경계에 놓이는 나노포스트(p5)와 제2 방향(Y방향)으로 인접한 화소 간의 경계에 놓이는 나노포스트(p8)의 단면적은 서로 같으며, 또한, 적색 화소 대응 영역(133)에서도 제1 방향(X방향)으로 인접한 화소 간의 경계에 놓이는 나노포스트(p7)와 제2 방향(Y방향)으로 인접한 화소 간의 경계에 놓이는 나노포스트(p6)의 단면적이 서로 같다.On the other hand, the nanoposts NPs disposed in the blue pixel-corresponding region 132 and the red pixel-corresponding region 133 may have a symmetrical distribution rule in the first direction (X-direction) and the second direction (Y-direction). there is. As shown in FIG. 6C , among the nanoposts NP, the nanopost p5 and the second direction (Y direction) disposed at the boundary between the blue pixel correspondence region 132 and the pixels adjacent in the first direction (X direction) and the second direction (Y direction) ), the cross-sectional areas of the nanoposts p8 placed at the boundary between adjacent pixels are the same as each other, and also in the red pixel corresponding region 133 , the nanoposts p7 placed at the boundary between adjacent pixels in the first direction (X direction) and The cross-sectional areas of the nanoposts p6 lying at the boundary between pixels adjacent in the second direction (Y direction) are the same.

한편, 화소 대응 영역들(131, 132, 133, 134) 각각의 네 모서리, 즉, 네 영역이 교차하는 위치에 배치된 나노포스트(p9)들은 같은 단면적을 갖는다.Meanwhile, the nanoposts p9 disposed at four corners of each of the pixel-corresponding regions 131 , 132 , 133 , and 134 , that is, at positions where the four regions intersect, have the same cross-sectional area.

이러한 분포는, 베이어 패턴의 화소 배열에 기인한다. 청색 화소(112)와 적색 화소(113)는 모두 제1 방향(X방향)과 제2 방향(Y방향)으로 인접한 화소들이 녹색 화소(111, 114)로 동일한 반면, 제1 녹색 화소(111)는 제1 방향(X방향)으로 인접한 화소가 청색 화소(112)이고 제2 방향(Y방향)으로 인접한 화소가 적색 화소(113)로 서로 다르고, 제2 녹색 화소(114)는 제1 방향(X방향)으로 인접한 화소가 적색 화소(113)이고 제2 방향(Y방향)으로 인접한 화소가 청색 화소(114)로 서로 다르다. 그리고 제1 및 제2 녹색 화소(111, 114)는 네 대각 방향으로 인접하는 화소가 녹색 화소이고, 청색 화소(112)는 네 대각 방향으로 인접하는 화소가 적색 화소(113)로 서로 같고, 적색 화소(113)는 네 대각 방향으로 인접하는 화소가 청색 화소(112)로 서로 같다. 따라서, 청색 화소(112)와 적색 화소(113)에 대응하는 청색 및 적색 화소 대응 영역(132, 133)에서는 4방 대칭(4-fold symmetry)의 형태로 나노포스트(NP)들이 배열되고, 제1 및 제2 녹색 화소 대응 영역(131, 134)에서는 2방 대칭(2-fold symmetry)의 형태로 나노포스트(NP)들이 배열될 수 있다. 특히, 제1 및 제2 녹색 화소 대응 영역(131, 134)은 서로에 대해 90도 회전되어 있다.This distribution is due to the pixel arrangement of the Bayer pattern. In both the blue pixel 112 and the red pixel 113 , pixels adjacent in the first direction (X direction) and the second direction (Y direction) are the same as green pixels 111 and 114 , while the first green pixel 111 is the same as the first green pixel 111 . A pixel adjacent in the first direction (X-direction) is the blue pixel 112 , the pixel adjacent in the second direction (Y-direction) is the red pixel 113 , and the second green pixel 114 is different from each other in the first direction ( A pixel adjacent in the X direction is a red pixel 113 , and a pixel adjacent in the second direction (Y direction) is a blue pixel 114 . In the first and second green pixels 111 and 114 , pixels adjacent in four diagonal directions are green pixels, and in the blue pixel 112 , pixels adjacent in four diagonal directions are the same as red pixels 113 . In the pixel 113 , pixels adjacent in four diagonal directions are the same as the blue pixel 112 . Accordingly, in the blue and red pixel corresponding regions 132 and 133 corresponding to the blue pixel 112 and the red pixel 113 , the nanoposts NP are arranged in the form of 4-fold symmetry, and the second In the first and second green pixel corresponding regions 131 and 134 , the nanoposts NPs may be arranged in the form of 2-fold symmetry. In particular, the first and second green pixel corresponding regions 131 and 134 are rotated by 90 degrees with respect to each other.

도 6b 및 도 6c의 나노포스트(NP)들은 모두 대칭적인 원형의 단면 형상을 갖는 것으로 도시되었으나, 비대칭 형상의 단면 형상을 갖는 나노포스트가 일부 포함될 수도 있다. 예를 들어, 제1 및 제2 녹색 화소 대응 영역(131, 134)에는 제1 방향(X방향)과 제2 방향(Y방향)의 폭이 서로 다른 비대칭 단면 형상을 갖는 나노포스트가 채용되고, 청색 및 적색 화소 대응 영역(132, 133)에는 제1 방향(X방향)과 제2 방향(Y방향)의 폭이 같은 대칭적인 단면 형상을 갖는 나노포스트가 채용될 수 있다.Although the nanoposts NP of FIGS. 6B and 6C are all shown to have a symmetrical circular cross-sectional shape, some nanoposts having an asymmetrical cross-sectional shape may be included. For example, nanoposts having asymmetric cross-sectional shapes having different widths in the first direction (X direction) and the second direction (Y direction) are employed in the first and second green pixel corresponding regions 131 and 134 , Nanoposts having a symmetrical cross-sectional shape having the same width in the first direction (X-direction) and the second direction (Y-direction) may be employed in the blue and red pixel-corresponding regions 132 and 133 .

앞서 설명한 나노포스트(NP)의 배열 규칙은 일 예시이며, 도시된 패턴에 한정되는 것은 아니다.The arrangement rule of the nanoposts (NP) described above is an example, and is not limited to the illustrated pattern.

도 7a는 색분리 렌즈 어레이(130)를 통과한 녹색광 및 청색광의 위상 분포를 도 6b의 Ⅰ-Ⅰ'선을 따라 보이고, 도 7b는 색분리 렌즈 어레이(130)를 통과한 녹색광의 화소 대응 영역들(131, 132, 133, 134) 중심에서의 위상을 보이고, 도 7c는 색분리 렌즈 어레이(130)를 통과한 청색광의 화소 대응 영역들(131, 132, 133, 134) 중심에서의 위상을 보인다. 도 7a의 녹색광 및 청색광의 위상 분포는 도 3b에서 예시적으로 설명한 제1 및 제2 파장 광의 위상 분포와 유사하다.FIG. 7A shows the phase distributions of green light and blue light passing through the color separation lens array 130 along line I-I' of FIG. 6B , and FIG. 7B is a pixel-corresponding region of green light passing through the color separation lens array 130 . The phases at the centers of the fields 131 , 132 , 133 and 134 are shown, and FIG. 7C shows the phases at the centers of the pixel-corresponding regions 131 , 132 , 133 , and 134 of the blue light passing through the color separation lens array 130 . see. The phase distributions of the green light and the blue light of FIG. 7A are similar to the phase distributions of the light of the first and second wavelengths exemplarily described with reference to FIG. 3B .

도 7a 및 도 7b를 참조하면, 색분리 렌즈 어레이(130)를 통과한 녹색광은 제1 녹색 화소 대응 영역(131)의 중심에서 가장 크고, 제1 녹색 화소 대응 영역(131)의 중심에서 멀어지는 방향으로 감소하는 위상 분포를 가질 수 있다. 구체적으로, 색분리 렌즈 어레이(130)를 통과한 직후 위치, 다시 말해 색분리 렌즈 어레이(130)의 하부 표면 또는 스페이서층(120)의 상부 표면에서, 녹색광의 위상이, 제1 녹색 화소 대응 영역(131)의 중심에서 가장 크고, 제1 녹색 화소 대응 영역(131)의 중심에서 멀어질수록 동심원 형태로 점차 작아져서, X방향 및 Y방향으로는 청색 및 적색 화소 대응 영역(132, 133)의 중심에서 최소가 되고, 대각선 방향으로는 제1 녹색 화소 대응 영역(131)과 제2 녹색 화소 대응 영역(134)의 접점에서 최소가 된다. 제1 녹색 화소 대응 영역(131) 중심에서 출사되는 녹색광의 위상을 기준으로 하여 2π라고 정하면, 청색 및 적색 화소 대응 영역(132, 133) 중심에서는 위상이 0.9π 내지 1.1π, 제2 녹색 화소 대응 영역(134) 중심에서는 위상이 2π, 제1 녹색 화소 대응 영역(131)과 제2 녹색 화소 대응 영역(134)의 접점에서는 위상이 1.1 π 내지 1.5 π인 광이 출사할 수 있다. 한편, 제1 녹색광 위상 분포(PPG1)는 제1 녹색 화소 대응 영역(131) 중심을 통과한 광의 위상 지연량이 가장 크다는 것을 의미하는 것은 아니며, 제1 녹색 화소 대응 영역(131)을 통과한 광의 위상을 2π 라고 정했을 때 다른 위치를 통과한 광의 위상 지연이 더 커서 2π 보다 큰 위상 값을 가진다면, 2nπ 만큼 제거하고 남은 값, 즉, 랩(Wrap)된 위상의 분포일 수 있다. 예를 들어, 제1 녹색 화소 대응 영역(131)을 통과한 광의 위상을 2π 라고 했을 때, 청색 화소 대응 영역(132)의 중심을 통과한 광의 위상이 3π 라면, 청색 화소 대응 영역(132)에서의 위상은 3π에서 2π(n=1인 경우)를 제거하고, 남은 π 일 수 있다. Referring to FIGS. 7A and 7B , the green light passing through the color separation lens array 130 is greatest at the center of the first green pixel corresponding area 131 , and in a direction away from the center of the first green pixel corresponding area 131 . It may have a phase distribution that decreases to . Specifically, at a position immediately after passing through the color separation lens array 130 , that is, on the lower surface of the color separation lens array 130 or the upper surface of the spacer layer 120 , the phase of green light is the first green pixel corresponding region It is largest at the center of 131 and gradually decreases in the form of concentric circles as it moves away from the center of the first green pixel correspondence region 131 , and in the X and Y directions, the blue and red pixel correspondence regions 132 and 133 are formed. It becomes the minimum at the center and becomes the minimum at the contact point of the 1st green pixel correspondence area|region 131 and the 2nd green pixel correspondence area|region 134 in the diagonal direction. If the phase of green light emitted from the center of the first green pixel-corresponding region 131 is set to be 2π, the center of the blue and red pixel-corresponding regions 132 and 133 has a phase of 0.9π to 1.1π, and the second green pixel corresponds to the phase. Light having a phase of 2π from the center of the region 134 and having a phase of 1.1 π to 1.5 π may be emitted from a contact point between the first green pixel-corresponding region 131 and the second green pixel-corresponding region 134 . Meanwhile, the first green light phase distribution PPG1 does not mean that the phase delay amount of light passing through the center of the first green pixel corresponding region 131 is the largest, and the phase of light passing through the first green pixel corresponding region 131 . When is set to 2π, if the phase delay of light passing through another position is larger and has a phase value greater than 2π, it may be a value remaining after removing 2nπ, that is, a distribution of a wrapped phase. For example, if the phase of light passing through the first green pixel corresponding region 131 is 2π, and the phase of light passing through the center of the blue pixel corresponding region 132 is 3π, then in the blue pixel corresponding region 132 . The phase of may be the remaining π after removing 2π (when n=1) from 3π.

도 7a 및 도 7c를 참조하면, 색분리 렌즈 어레이(130)를 통과한 청색광은 청색 화소 대응 영역(132)의 중심에서 가장 크고, 청색 화소 대응 영역(132)의 중심에서 멀어지는 방향으로 감소하는 위상 분포를 가질 수 있다. 구체적으로, 색분리 렌즈 어레이(130)를 투과한 직후의 위치에서 청색광의 위상이, 청색 화소 대응 영역(132)의 중심에서 가장 크고, 청색 화소 대응 영역(132)의 중심에서 멀어질수록 동심원 형태로 점차 작아져서, X방향 및 Y방향으로는 제1 및 제2 녹색 화소 대응 영역(131, 134)의 중심에서 최소가 되고, 대각선 방향으로는 적색 화소 대응 영역(133)의 중심에서 최소가 된다. 청색광의 청색 화소 대응 영역(132) 중심에서의 위상을 2π라고 하면, 제1 및 제2 녹색 화소 대응 영역(131, 134)의 중심에서의 위상은 예를 들어, 0.5π 내지 0.9π 일 수 있고, 적색 화소 대응 영역(133) 중심에서의 위상은 제1 및 제2 녹색 화소 대응 영역(131, 134)의 중심에서의 위상보다 작은 값 예를 들어, 0.2π 내지 0.8π일 수 있다.Referring to FIGS. 7A and 7C , the blue light passing through the color separation lens array 130 is greatest at the center of the blue pixel-corresponding region 132 and decreases in phase away from the center of the blue pixel-corresponding region 132 . can have a distribution. Specifically, the phase of blue light at a position immediately after passing through the color separation lens array 130 is greatest at the center of the blue pixel corresponding region 132 , and has a concentric circle shape as it moves away from the center of the blue pixel corresponding region 132 . gradually decreases, and becomes a minimum at the center of the first and second green pixel correspondence areas 131 and 134 in the X and Y directions, and becomes a minimum at the center of the red pixel correspondence area 133 in the diagonal direction. . If the phase of blue light at the center of the blue pixel-corresponding region 132 is 2π, the phase at the center of the first and second green pixel-corresponding regions 131 and 134 may be, for example, 0.5π to 0.9π, , a phase at the center of the red pixel-corresponding region 133 may be a value smaller than a phase at the center of the first and second green pixel-corresponding regions 131 and 134 , for example, 0.2π to 0.8π.

청색광의 위상 분포(PPB)는 앞서 설명한 녹색광의 제1 위상 분포(PPG1)와 다르며, 그 이유는 도 3a 및 도 3b에서 설명한 것과 같이, 색분리 렌즈 어레이(130)에 의한 청색광의 초점거리를 녹색광의 초점거리와 유사해지도록 색분리 렌즈 어레이(130)가 설계되기 때문이다. 스페이이서층(120)의 두께를 녹색광 초점거리를 기준으로 정한 경우, 청색광의 초점거리도 녹색광의 초점거리와 유사하게 조정함으로써 녹색광 및 청색광이 동일한 거리에 집광될 수 있고, 따라서, 청색 화소(112)가 2개 이상의 광감지셀을 포함하는 자동 초점 화소일 때 자동 초점 조절 성능이 향상될 수 있다. 보정된 청색광의 초점거리는 녹색광의 초점거리에 90% 내지 110% 또는 95% 내지 105% 일 수 있다.The phase distribution PPB of the blue light is different from the first phase distribution PPG1 of the green light described above, because, as described in FIGS. 3A and 3B , the focal length of the blue light by the color separation lens array 130 is changed to the green light. This is because the color separation lens array 130 is designed to be similar to the focal length of . When the thickness of the spacer layer 120 is determined based on the focal length of the green light, the green light and the blue light can be focused at the same distance by adjusting the focal length of the blue light to be similar to the focal length of the green light, and thus, the blue pixel 112 When ) is an auto-focus pixel including two or more photo-sensing cells, auto-focus control performance may be improved. The corrected focal length of the blue light may be 90% to 110% or 95% to 105% of the focal length of the green light.

녹색광의 제1 위상 분포(PPG1)와 청색광의 위상 분포(PPB)를 비교하면, 제1 녹색 화소 대응 영역(131)의 중심을 통과한 녹색광의 위상과 청색 화소 대응 영역(132)의 중심을 통과한 녹색광의 위상 차이는, 청색 화소 대응 영역(132)의 중심을 통과한 청색광의 위상과 제1 녹색 화소 대응 영역(131)의 중심을 통과한 청색광의 위상 차이보다 작을 수 있고, 예를 들어, 0.1 π 내지 0.6π 만큼 작을 수 있다. Comparing the first phase distribution PPG1 of the green light and the phase distribution PPB of the blue light, the phase of the green light passing through the center of the first green pixel corresponding area 131 and the green light passing through the center of the blue pixel corresponding area 132 are compared. The phase difference of one green light may be smaller than the phase difference between the phase of the blue light passing through the center of the blue pixel corresponding area 132 and the blue light passing through the center of the first green pixel corresponding area 131 , for example, It can be as small as 0.1 pi to 0.6 pi.

다른 말로 표현하면, 색분리 렌즈 어레이(130)에 의한 녹색광의 제1 위상 분포(PPG1)와 청색광의 위상 분포(PPB)는 서로 다르며, 청색광의 X방향에 대한 위상 감소율이 녹색광의 X방향에 대한 위상 감소율보다 크다.In other words, the first phase distribution (PPG1) of the green light and the phase distribution (PPB) of the blue light by the color separation lens array 130 are different from each other, and the phase reduction rate for the X direction of the blue light with respect to the X direction of the green light greater than the phase reduction rate.

또한, 제1 녹색 화소 대응 영역(131)의 중심을 통과한 녹색광의 위상과 청색 화소 대응 영역(132)의 중심을 통과한 녹색광의 위상 차이는, 청색 화소 대응 영역(132)의 중심을 통과한 청색광의 위상과 제1 녹색 화소 대응 영역(131)의 중심을 통과한 청색광의 위상 차이의 60% 내지 90%일 수 있다. In addition, the phase difference between the phase of green light passing through the center of the first green pixel corresponding region 131 and the green light passing through the center of the blue pixel corresponding region 132 is the difference between the phases of green light passing through the center of the blue pixel corresponding region 132 . The phase difference between the phase of the blue light and the blue light passing through the center of the first green pixel corresponding region 131 may be 60% to 90%.

도 7d는 제1 녹색광 집광 영역으로 입사한 녹색광의 진행 방향을 예시적으로 보이며, 도 7e는 제1 녹색광 집광 영역의 어레이를 예시적으로 보인다. 7D exemplarily shows a traveling direction of green light incident to the first green light converging region, and FIG. 7E exemplarily shows an array of the first green light converging region.

제1 녹색 화소 대응 영역(131) 주변으로 입사한 녹색광은 색분리 렌즈 어레이(130)에 의해 도 7d에 도시한 것과 같이, 제1 녹색 화소(111)로 집광되며, 제1 녹색 화소(111)에는 제1 녹색 화소 대응 영역(131) 외에도 청색 및 적색 화소 대응 영역(132, 133)에서 오는 녹색광이 입사한다. 즉, 도 7a 및 도 7b에서 설명한 녹색광의 위상 분포는 제1 녹색 화소 대응 영역(131)과 한 변을 맞대고 인접한 2개의 청색 화소 대응 영역(132)과 2개의 적색 화소 대응 영역(133)의 중심을 연결한 제1 녹색광 집광 영역(GL1)을 통과한 녹색광을 제1 녹색 화소(111)에 집광한다. 따라서, 도 7e에 도시된 바와 같이, 색분리 렌즈 어레이(130)는 제1 녹색 화소(111)에 녹색광을 집광하는 제1 녹색광 집광 영역(GL1) 어레이로 동작할 수 있다. 제1 녹색광 집광 영역(GL1)은 대응하는 제1 녹색 화소(111)보다 면적이 크고, 예를 들면, 1.2배 내지 2배 클 수 있다. As shown in FIG. 7D , the green light incident around the first green pixel-corresponding region 131 is condensed to the first green pixel 111 by the color separation lens array 130 , and the first green pixel 111 . In addition to the first green pixel-corresponding region 131 , green light coming from the blue and red pixel-corresponding regions 132 and 133 is incident on the . That is, the phase distribution of green light described with reference to FIGS. 7A and 7B is the center of two blue pixel-corresponding regions 132 and two red pixel-corresponding regions 133 adjacent to the first green pixel-corresponding region 131 while having one side facing each other. The green light passing through the first green light converging region GL1 connected to , is condensed onto the first green pixel 111 . Accordingly, as illustrated in FIG. 7E , the color separation lens array 130 may operate as an array of the first green light collecting area GL1 condensing green light to the first green pixel 111 . The first green light converging area GL1 has an area larger than that of the corresponding first green pixel 111 , and may be, for example, 1.2 times to 2 times larger than that of the corresponding first green pixel 111 .

도 7f는 청색광 집광 영역으로 입사한 청색광의 진행 방향을 예시적으로 보이며, 도 7g는 청색광 집광 영역의 어레이를 예시적으로 보인다.7F exemplarily shows a traveling direction of blue light incident to the blue light converging region, and FIG. 7G exemplarily shows an array of the blue light converging region.

청색광은 색분리 렌즈 어레이(130)에 의해 도 7f와 같이 청색 화소(112)로 집광되며, 청색 화소(112)에는 화소 대응 영역들(131, 132, 133, 134)에서 오는 청색광이 입사한다. 앞서 도 7a 및 도 7c에서 설명한 청색광의 위상 분포는 청색 화소 대응 영역(132)과 꼭지점을 맞대고 인접한 4개의 적색 화소 대응 영역(133)의 중심을 연결하여 만든 청색광 집광 영역(BL)를 통과한 청색광을 청색 화소(112)에 집광한다. 따라서, 도 7g에 도시된 바와 같이, 색분리 렌즈 어레이(130)는 청색 화소(112)에 청색광을 집광하는 청색광 집광 영역(BL) 어레이로 동작할 수 있다. 청색광 집광 영역(BL)은 대응하는 청색 화소(112)보다 면적이 크고, 예를 들면, 1.5 내지 4배 클 수 있다. 청색광 집광 영역(BL)은 일부 영역이 제1 및 제2 녹색광 집광 영역(GL1, GL2) 및 적색광 집광 영역(RL)과 중첩될 수 있다.The blue light is focused to the blue pixel 112 by the color separation lens array 130 as shown in FIG. 7F , and the blue light from the pixel corresponding regions 131 , 132 , 133 and 134 is incident to the blue pixel 112 . The phase distribution of the blue light described in FIGS. 7A and 7C has the blue light passing through the blue light collecting area BL made by connecting the centers of the four adjacent red pixel corresponding areas 133 with vertices facing the blue pixel corresponding area 132 . is focused on the blue pixel 112 . Accordingly, as shown in FIG. 7G , the color separation lens array 130 may operate as a blue light converging area BL array for condensing blue light to the blue pixel 112 . The blue light collecting area BL has a larger area than the corresponding blue pixel 112 , and may be, for example, 1.5 to 4 times larger. A partial area of the blue light collecting area BL may overlap the first and second green light collecting areas GL1 and GL2 and the red light collecting area RL.

제1 녹색광 집광 영역(GL1)을 통과한 녹색광의 위상 분포와, 청색광 집광 영역(BL)을 통과한 청색광의 위상 분포를 비교하면, 제1 녹색광 집광 영역(GL1)의 중심을 통과한 녹색광과 제1 녹색광 집광 영역(GL1)의 중심으로부터 센서 기판의 화소 피치만큼 이격된 위치, 예를 들면, 청색 화소 대응 영역(132)의 중심을 통과한 녹색광의 위상 차이는, 청색광 집광 영역(BL)의 중심을 통과한 청색광과 청색광 집광 영역(BL)의 중심으로부터 센서 기판의 화소 피치만큼 이격된 위치, 예를 들면, 제1 녹색광 대응 영역(131)의 중심을 통과한 청색광의 위상 차이보다 작을 수 있다. 이와 유사하게, 제1 녹색광 집광 영역(GL1)의 중심을 통과한 녹색광과 제1 녹색광 집광 영역(GL1)의 중심으로부터 센서 기판(110)의 화소 피치의 1/2(즉, Pixel Pitch의 절반)만큼 이격된 위치, 예를 들면, 제1 녹색 화소 대응 영역(131)과 청색 화소 대응 영역(132)의 접선의 중심을 통과한 녹색광의 위상 차이는, 청색광 집광 영역(BL)의 중심을 통과한 청색광과 청색광 집광 영역(BL)의 중심으로부터 센서 기판(110)의 화소 피치의 1/2 만큼 이격된 위치, 예를 들면, 제1 녹색 화소 대응 영역(131)과 청색 화소 대응 영역(132)의 접선의 중심을 통과한 청색광의 위상 차이보다 작을 수 있다.Comparing the phase distribution of green light passing through the first green light converging area GL1 and the phase distribution of blue light passing through the blue light converging area BL, the green light passing through the center of the first green light converging area GL1 and the second 1 A position spaced apart from the center of the green light collecting region GL1 by the pixel pitch of the sensor substrate, for example, a phase difference of green light passing through the center of the blue pixel corresponding region 132 is the center of the blue light collecting region BL A position spaced apart by the pixel pitch of the sensor substrate from the center of the blue light passing through and the blue light collecting area BL, for example, may be smaller than a phase difference between the blue light passing through the center of the first green light corresponding area 131 . Similarly, green light passing through the center of the first green light collecting area GL1 and 1/2 of the pixel pitch of the sensor substrate 110 from the center of the first green light collecting area GL1 (ie, half of the pixel pitch) The phase difference of the green light passing through the center of the tangent line of the first green pixel corresponding region 131 and the blue pixel corresponding region 132, for example, is the same as the phase difference of the green light passing through the center of the blue light collecting region BL. A position spaced apart by 1/2 of the pixel pitch of the sensor substrate 110 from the center of the blue light and blue light collecting area BL, for example, the first green pixel corresponding area 131 and the blue pixel corresponding area 132 . It may be smaller than the phase difference of the blue light passing through the center of the tangent line.

도 8a는 색분리 렌즈 어레이(130)를 통과한 적색광 및 녹색광의 위상 분포를 도 6b의 Ⅱ-Ⅱ'선을 따라 보이고, 도 8b는 색분리 렌즈 어레이(130)를 통과한 적색광의 화소 대응 영역들(131, 132, 133, 134) 중심에서의 위상을 보이고, 도 8c는 색분리 렌즈 어레이(130)를 통과한 녹색광의 화소 대응 영역들(131, 132, 133, 134) 중심에서의 위상을 보인다.FIG. 8A shows the phase distributions of red light and green light passing through the color separation lens array 130 along line II-II' of FIG. 6B , and FIG. 8B is a pixel-corresponding region of red light passing through the color separation lens array 130 . The phases at the centers of the fields 131 , 132 , 133 and 134 are shown, and FIG. 8C shows the phases at the centers of the pixel-corresponding regions 131 , 132 , 133 and 134 of the green light passing through the color separation lens array 130 . see.

도 8a 및 도 8b를 참조하면, 색분리 렌즈 어레이(130)를 통과한 적색광은 적색 화소 대응 영역(133)의 중심에서 가장 크고, 적색 화소 대응 영역(133)의 중심에서 멀어지는 방향으로 감소하는 위상 분포를 가질 수 있다. 구체적으로, 색분리 렌즈 어레이(130)를 투과한 직후의 위치에서 적색광의 위상이, 적색 화소 대응 영역(133)의 중심에서 가장 크고, 적색 화소 대응 영역(133)의 중심에서 멀어질수록 동심원 형태로 점차 작아져서, X방향 및 Y방향으로는 제1 및 제2 녹색 화소 대응 영역(131, 134)의 중심에서 최소가 되고, 대각선 방향으로는 청색 화소 대응 영역(132)의 중심에서 최소가 된다. 적색광의 적색 화소 대응 영역(133) 중심에서의 위상을 2π라고 하면, 제1 및 제2 녹색 화소 대응 영역(131, 134)의 중심에서의 위상은 예를 들어, 1.1π 내지 1.5π 일 수 있고, 청색 화소 대응 영역(132) 중심에서의 위상은 제1 및 제2 녹색 화소 대응 영역(131, 134)의 중심에서의 위상보다 작은 값, 예를 들어, 1.3π 내지 0.9π일 수 있다.Referring to FIGS. 8A and 8B , the red light passing through the color separation lens array 130 is greatest at the center of the red pixel corresponding region 133 , and the phase decreases in a direction away from the center of the red pixel corresponding region 133 . can have a distribution. Specifically, the phase of red light at a position immediately after passing through the color separation lens array 130 is greatest at the center of the red pixel corresponding area 133 , and has a concentric circle shape as it moves away from the center of the red pixel corresponding area 133 . gradually decreases, and becomes a minimum at the center of the first and second green pixel correspondence areas 131 and 134 in the X and Y directions, and becomes a minimum at the center of the blue pixel correspondence area 132 in the diagonal direction. . If the phase of the red light at the center of the red pixel-corresponding region 133 is 2π, the phase at the center of the first and second green pixel-corresponding regions 131 and 134 may be, for example, 1.1π to 1.5π, , a phase at the center of the blue pixel-corresponding region 132 may be a value smaller than a phase at the center of the first and second green pixel-corresponding regions 131 and 134 , for example, 1.3π to 0.9π.

적색광의 위상 분포(PPR)는 앞서 설명한 녹색광의 제1 위상 분포(PPG1)와 다르며, 그 이유는 도 3a 및 도 3b에서 설명한 것과 같이, 색분리 렌즈 어레이(130)에 의한 적색광의 초점거리를 녹색광의 초점거리와 유사해지도록 색분리 렌즈 어레이(130)가 설계되기 때문이다. 스페이이서층(120)의 두께를 녹색광 초점거리를 기준으로 정한 경우, 적색광의 초점거리도 녹색광의 초점거리와 유사하게 조정함으로써 녹색광 및 적색광이 동일한 거리에 집광될 수 있고, 따라서, 적색 화소가 2개 이상의 광감지셀을 포함하는 자동 초점 화소일 때 자동 초점 조절 성능이 향상될 수 있다. 보정된 적색광의 초점거리는 녹색광의 초점거리에 90% 내지 110% 또는 95% 내지 105% 일 수 있다.The phase distribution (PPR) of the red light is different from the first phase distribution (PPG1) of the green light described above, because as described in FIGS. 3A and 3B , the focal length of the red light by the color separation lens array 130 is changed to the green light. This is because the color separation lens array 130 is designed to be similar to the focal length of . When the thickness of the spacer layer 120 is determined based on the focal length of the green light, the focal length of the red light is also adjusted to be similar to the focal length of the green light, so that the green light and the red light can be focused at the same distance. In the case of an auto-focus pixel including two or more photo-sensing cells, auto-focusing performance may be improved. The corrected focal length of the red light may be 90% to 110% or 95% to 105% of the focal length of the green light.

도 8a 및 도 8c를 참조하면, 색분리 렌즈 어레이(130)를 통과한 녹색광은 제2 녹색 화소 대응 영역(134)의 중심에서 가장 크고, 제2 녹색 화소 대응 영역(134)의 중심에서 멀어지는 방향으로 감소하는 위상 분포를 가질 수 있다. 도 7a의 녹색광의 제1 위상 분포(PPG1)와 도 8a의 녹색광의 제2 위상 분포(PPG2)를 비교하면, 녹색광의 제2 위상 분포(PPG2)는 녹색광의 제1 위상 분포(PPG1)를 X방향 및 Y방향으로 1 화소 피치만큼 평행 이동한 것과 같다. 즉, 녹색광의 제1 위상 분포(PPG1)는 제1 녹색 화소 대응 영역(131)의 중심에서 위상이 가장 큰 반면, 녹색광의 제2 위상 분포(PPG2)는 제1 녹색 화소 대응 영역(131)의 중심에서 X방향 및 Y방향으로 1 화소 피치만큼 떨어진 제2 녹색 화소 대응 영역(131)의 중심에서 위상이 가장 크다. 화소 대응 영역들(131, 132, 133, 134) 중심에서의 위상을 보여주는 도 7b와 도 8c의 위상 분포는 동일할 수 있다. 다시 한번 제2 녹색 화소 대응 영역(134)을 기준으로 녹색광의 위상 분포를 설명하면, 녹색광의 제2 녹색 화소 대응 영역(131) 중심에서 출사되는 광의 위상을 기준으로 하여 2π라고 정하면, 청색 및 적색 화소 대응 영역(132, 133) 중심에서는 위상이 0.9π 내지 1.1π, 제1 녹색 화소 대응 영역(131) 중심에서는 위상이 2π, 제1 녹색 화소 대응 영역(131)과 제2 녹색 화소 대응 영역(134)의 접점에서는 위상이 1.1 π 내지 1.5 π인 광이 출사할 수 있다.Referring to FIGS. 8A and 8C , the green light passing through the color separation lens array 130 is greatest at the center of the second green pixel corresponding area 134 , and in a direction away from the center of the second green pixel corresponding area 134 . It may have a phase distribution that decreases to . Comparing the first phase distribution PPG1 of the green light of FIG. 7A and the second phase distribution PPG2 of the green light of FIG. 8A , the second phase distribution PPG2 of the green light is the first phase distribution PPG1 of the green light X It is equivalent to a parallel movement by one pixel pitch in the direction and the Y direction. That is, the first phase distribution PPG1 of the green light has the largest phase at the center of the first green pixel correspondence area 131 , while the second phase distribution PPG2 of the green light corresponds to the first green pixel correspondence area 131 . The phase is greatest at the center of the second green pixel correspondence region 131 that is separated by one pixel pitch in the X and Y directions from the center. The phase distributions of FIGS. 7B and 8C showing phases at the centers of the pixel corresponding regions 131 , 132 , 133 , and 134 may be the same. Once again, when the phase distribution of green light is described with reference to the second green pixel corresponding region 134 , if 2π is set as the reference phase of the light emitted from the center of the second green pixel corresponding region 131 of green light, blue and red The phase is 0.9π to 1.1π at the center of the pixel corresponding regions 132 and 133, the phase is 2π at the center of the first green pixel corresponding region 131, and the first green pixel corresponding region 131 and the second green pixel corresponding region ( 134), light having a phase of 1.1 π to 1.5 π may be emitted.

적색광의 위상분포(PPR)와 녹색광의 제2 위상 분포(PPG2)를 비교하면, 제2 녹색 화소 대응 영역(134)의 중심을 통과한 녹색광의 위상과 적색 화소 대응 영역(133)의 중심을 통과한 녹색광의 위상 차이는, 적색 화소 대응 영역(133)의 중심을 통과한 적색광의 위상과 제2 녹색 화소 대응 영역(134)의 중심을 통과한 적색광의 위상 차이보다 클 수 있고, 예를 들어, 0.1 π 내지 0.5π 만큼 클 수 있다. Comparing the phase distribution PPR of the red light and the second phase distribution PPG2 of the green light, the phase of the green light passing through the center of the second green pixel corresponding region 134 and the phase of the green light passing through the center of the red pixel corresponding region 133 are compared. A phase difference of one green light may be greater than a phase difference between a phase of red light passing through the center of the red pixel correspondence area 133 and a phase difference of red light passing through the center of the second green pixel correspondence area 134 , for example, It can be as large as 0.1 pi to 0.5 pi.

다른 말로 표현하면, 색분리 렌즈 어레이(130)에 의한 녹색광의 제2 위상 분포(PPG2)와 적색광의 위상 분포(PPR)는 서로 다르며, 녹색광의 X방향에 대한 위상 감소율이 적색광의 X방향에 대한 위상 감소율보다 크다.In other words, the second phase distribution (PPG2) of the green light and the phase distribution (PPR) of the red light by the color separation lens array 130 are different from each other, and the phase reduction rate for the X direction of the green light is the X direction of the red light. greater than the phase reduction rate.

또한, 제2 녹색 화소 대응 영역(134)의 중심을 통과한 녹색광의 위상과 적색 화소 대응 영역(133)의 중심을 통과한 녹색광의 위상 차이는, 적색 화소 대응 영역(133)의 중심을 통과한 적색광의 위상과 제2 녹색 화소 대응 영역(134)의 중심을 통과한 적색광의 위상 차이의 110% 내지 150%일 수 있다. In addition, the phase difference between the phase of green light passing through the center of the second green pixel corresponding region 134 and the green light passing through the center of the red pixel corresponding region 133 is the difference between the phases of the green light passing through the center of the red pixel corresponding region 133 . The phase difference between the phase of the red light and the red light passing through the center of the second green pixel corresponding region 134 may be 110% to 150%.

도 8d는 적색광 집광 영역으로 입사한 적색광의 진행 방향을 예시적으로 보이며, 도 8e는 적색광 집광 영역의 어레이를 예시적으로 보인다.FIG. 8D exemplarily shows the propagation direction of the red light incident to the red light converging area, and FIG. 8E exemplarily shows the array of the red light converging area.

적색광은 색분리 렌즈 어레이(130)에 의해 도 8d와 같이 적색 화소(113)로 집광되며, 적색 화소(113)에는 화소 대응 영역들(131, 132, 133, 134)에서 오는 적색광이 입사한다. 앞서 도 8a 및 도 8b에서 설명한 적색광의 위상 분포는 적색 화소 대응 영역(133)과 꼭지점을 맞대고 인접한 4개의 청색 화소 대응 영역(133)의 중심을 연결하여 만든 적색광 집광 영역(RL)을 통과한 적색광을 적색 화소(113)에 집광한다. 따라서, 도 8e에 도시된 바와 같이, 색분리 렌즈 어레이(130)는 적색 화소에 적색광을 집광하는 적색광 집광 영역(RL) 어레이로 동작할 수 있다. 적색광 집광 영역(RL)은 대응하는 적색 화소(113)보다 면적이 크고, 예를 들면, 1.5 내지 4배 클 수 있다. 적색광 집광 영역(RL)은 일부 영역이 제1 및 제2 녹색광 집광 영역(GL1, GL2) 및 청색광 집광 영역(BL)과 중첩될 수 있다.The red light is focused to the red pixel 113 by the color separation lens array 130 as shown in FIG. 8D , and the red light from the pixel corresponding regions 131 , 132 , 133 and 134 is incident to the red pixel 113 . The red light passing through the red light converging region RL formed by connecting the centers of the four adjacent blue pixel-corresponding regions 133 with the red pixel-corresponding region 133 and the red pixel-corresponding region 133 having vertices in the phase distribution described above in FIGS. 8A and 8B . is focused on the red pixel 113 . Accordingly, as shown in FIG. 8E , the color separation lens array 130 may operate as a red light converging region RL array for condensing red light to a red pixel. The red light converging region RL has a larger area than the corresponding red pixel 113 , and may be, for example, 1.5 to 4 times larger than that of the corresponding red pixel 113 . A portion of the red light collecting area RL may overlap the first and second green light collecting areas GL1 and GL2 and the blue light collecting area BL.

도 8f는 제2 녹색광 집광 영역으로 입사한 녹색광의 진행 방향을 예시적으로 보이며, 도 8g는 제2 녹색광 집광 영역의 어레이를 예시적으로 보인다.8F exemplarily shows a traveling direction of green light incident to the second green light converging area, and FIG. 8G exemplarily shows an array of the second green light converging area.

도 8f 및 도 8g를 참조하면, 제2 녹색 화소 대응 영역(134) 주변으로 입사한 녹색광은 제1 녹색 화소 대응 영역(131) 주변으로 입사한 녹색광에 대해 설명한 것과 유사하게 진행하며, 도 8f에 도시한 것과 같이, 제2 녹색 화소(114)로 집광된다. 따라서, 도 8g에 도시된 바와 같이, 색분리 렌즈 어레이(130)는 제2 녹색 화소(114)에 녹색광을 집광하는 제2 녹색광 집광 영역(GL2) 어레이로 동작할 수 있다. 제2 녹색광 집광 영역(GL2)은 대응하는 제2 녹색 화소(114)보다 면적이 크고, 예를 들면, 1.2배 내지 2배 클 수 있다. 8F and 8G , the green light incident around the second green pixel corresponding area 134 proceeds similarly to that described for the green light incident around the first green pixel corresponding area 131, and in FIG. 8F As illustrated, the light is focused on the second green pixel 114 . Accordingly, as shown in FIG. 8G , the color separation lens array 130 may operate as an array of the second green light collecting area GL2 condensing green light to the second green pixel 114 . The second green light converging area GL2 has an area larger than that of the corresponding second green pixel 114 , and may be, for example, 1.2 times to 2 times larger than that of the corresponding second green pixel 114 .

제2 녹색광 집광 영역(GL2)을 통과한 녹색광의 위상 분포와, 적색광 집광 영역(RL)을 통과한 적색광의 위상 분포를 비교하면, 제2 녹색광 집광 영역(GL2)의 중심을 통과한 녹색광과 제2 녹색광 집광 영역(GL2)의 중심으로부터 센서 기판(110)의 화소 피치만큼 이격된 위치, 예를 들면, 적색 화소 대응 영역(133)의 중심을 통과한 녹색광의 위상 차이는, 적색광 집광 영역(RL)의 중심을 통과한 적색광과 적색광 집광 영역(RL)의 중심으로부터 센서 기판(110)의 화소 피치만큼 이격된 위치, 예를 들면, 제2 녹색광 대응 영역(134)을 통과한 적색광의 위상 차이보다 클 수 있다. 이와 유사하게, 제2 녹색광 집광 영역(GL2)의 중심을 통과한 녹색광과 제2 녹색광 집광 영역(GL2)의 중심으로부터 센서 기판의 화소 피치의 1/2(즉, Pixel Pitch의 절반)만큼 이격된 위치, 예를 들면, 제2 녹색 화소 대응 영역(131)과 적색 화소 대응 영역(133)의 접선의 중심을 통과한 녹색광의 위상 차이는, 적색광 집광 영역(RL)의 중심을 통과한 적색광과 적색광 집광 영역(RL)의 중심으로부터 센서 기판의 화소 피치의 1/2 만큼 이격된 위치, 예를 들면, 제2 녹색 화소 대응 영역(134)과 적색 화소 대응 영역(133)의 접선의 중심을 통과한 적색광의 위상 차이보다 클 수 있다.Comparing the phase distribution of the green light passing through the second green light converging region GL2 and the phase distribution of the red light passing through the red light converging region RL, the green light passing through the center of the second green light converging region GL2 and the second 2 A position spaced apart by the pixel pitch of the sensor substrate 110 from the center of the green light collecting region GL2, for example, a phase difference of green light passing through the center of the red pixel corresponding region 133 is ), a position spaced apart from the center of the red light collecting region RL by the pixel pitch of the sensor substrate 110, for example, the phase difference between the red light passing through the center of the red light and the red light passing through the second green light corresponding region 134 . can be large Similarly, the green light passing through the center of the second green light collecting area GL2 and the center of the second green light collecting area GL2 are spaced apart by 1/2 of the pixel pitch of the sensor substrate (ie, half of the pixel pitch). The position, for example, the phase difference between the green light passing through the center of the tangent of the second green pixel corresponding region 131 and the red pixel corresponding region 133 is the red light passing through the center of the red light collecting region RL and the red light A position spaced apart from the center of the light collecting region RL by 1/2 of the pixel pitch of the sensor substrate, for example, passing through the center of the tangent line of the second green pixel corresponding region 134 and the red pixel corresponding region 133 . It may be greater than the phase difference of red light.

도 9a 내지 도 9c는 집광 영역의 초점 거리와 자동 초점 기능의 관계를 설명하기 위한 도면이다. 9A to 9C are diagrams for explaining the relationship between a focal length of a light-converging area and an auto-focus function.

앞서 간략히 설명한 것과 같이, 집광 영역을 공유하는 2개 이상의 광감지셀을 포함하는 화소를 이용하여 초점 조절에 필요한 신호를 얻을 수 있다. 구체적으로, 하나의 화소에 포함되어 집광 영역을 공유하는 2개의 광감지셀 중 어느 일측에 배치된 광감지셀들, 예를 들면, 제1 광감지셀들(111a, 112a, 113a, 114a)이 감지한 신호와 타측에 배치된 광감지셀들, 예를 들면, 제2 광감지셀들(111b, 112b, 113b, 114b)이 감지한 신호의 차이를 분석하여 이미지센서(1000)가 초점을 맞출 수 있도록 정보를 제공할 수 있다. 이때, 집광 영역들(GL1, GL2, BL, RL)의 초점거리가 색분리 렌즈 어레이(130)와 센서 기판(110) 사이의 거리, 즉, 스페이서층(120)의 두께와 유사하여야, 제1 광감지셀들(111a, 112a, 113a, 114a)과 제2 광감지셀들(111b, 112b, 113b, 114b) 사이의 신호가 명확히 구분되어 자동 초점 조절 성능이 향상될 수 있다.As briefly described above, a signal necessary for focus adjustment can be obtained by using a pixel including two or more photo-sensing cells sharing a light-converging area. Specifically, the photo-sensing cells, for example, the first photo-sensing cells 111a, 112a, 113a, and 114a, disposed on either side of the two photo-sensing cells that are included in one pixel and share the light collecting area, are The image sensor 1000 is focused by analyzing the difference between the detected signal and the signal detected by the light sensing cells disposed on the other side, for example, the second light sensing cells 111b, 112b, 113b, 114b. You can provide information so that In this case, when the focal lengths of the light collecting areas GL1 , GL2 , BL and RL are similar to the distance between the color separation lens array 130 and the sensor substrate 110 , that is, the thickness of the spacer layer 120 , the first Signals between the photo-sensing cells 111a, 112a, 113a, and 114a and the second photo-sensing cells 111b, 112b, 113b, and 114b are clearly distinguished, so that auto-focus control performance may be improved.

도 9a는 청색광 집광 영역(BL)의 초점거리(f)가 스페이서층(120)의 두께(120h)와 일치하는 예를 보여준다. 도 9a를 참조하면, 청색광 집광 영역(BL)을 향해 A방향으로 입사한 450 nm 파장의 광은 제2 화소(112)의 제1 광감지셀(112a)로 입사하고, B방향으로 입사하는 광은 제2 광감지셀(112b)로 입사할 수 있다. 즉, 제2 화소(112)의 제1 광감지셀(112a)이 감지한 신호는 A방향으로 입사한 광의 양을 나타나내고, 제2 화소(112)의 제2 광감지셀(112b)이 감지한 신호는 B방향으로 입사한 광의 양을 나타낼 수 있다. 이 경우, 입사광의 진행 방향에 따라 제1 및 제2 광감지셀(112a, 112b)이 감지한 신호의 차이가 명확하게 구분될 수 있다. FIG. 9A shows an example in which the focal length f of the blue light collecting area BL matches the thickness 120h of the spacer layer 120 . Referring to FIG. 9A , light having a wavelength of 450 nm that is incident in the A direction toward the blue light converging region BL is incident on the first light sensing cell 112a of the second pixel 112 and is incident in the B direction. may be incident on the second light sensing cell 112b. That is, the signal sensed by the first photo-sensing cell 112a of the second pixel 112 represents the amount of light incident in the A direction, and is sensed by the second photo-sensing cell 112b of the second pixel 112 . One signal may represent the amount of light incident in the B direction. In this case, a difference between signals sensed by the first and second light sensing cells 112a and 112b may be clearly distinguished according to the traveling direction of the incident light.

도 9b는 청색광 집광 영역(BL)의 초점거리(fa)가 스페이서층(120)의 두께(120h)보다 긴 예를 보여준다. 이러한 현상은 도 3a 내지 도 3b를 통해 설명한 것과 같이, 스페이서층(120)의 두께(120h)는 녹색광의 초점거리를 기준으로 정하고, 청색광 집광 영역(BL)의 위상 분포는 녹색광 집광 영역(GL1, GL2)과 동일하게 설계한 경우, 청색광의 초점거리가 녹색광의 초점거리보다 길기 때문에 발생할 수 있다. 도 9b를 참조하면, 청색광 집광 영역(BL)를 향해 A방향으로 입사한 450 nm 파장의 광은 제2 화소(112)의 제1 광감지셀(112a)뿐 아니라 제1 광감지셀(112a) 주변의 제2 광감지셀(112b)로 일부 광이 입사하게 되고, B 방향으로 입사한 광도 제2 광감지셀(112b)뿐 아니라 주변의 제1 광감지셀(112a)로 입사하게 된다. 이와 같이, 청색광 집광 영역(BL)의 초점거리가 스페이서층(120)의 두께보다 클 때, 입사광의 진행 방향에 따른 광감지셀별 신호의 차이가 모호해지는 현상이 발생하여 초점 조절 성능이 저하될 수 있다.9B shows an example in which the focal length fa of the blue light collecting area BL is longer than the thickness 120h of the spacer layer 120 . 3A to 3B, the thickness 120h of the spacer layer 120 is determined based on the focal length of the green light, and the phase distribution of the blue light collecting area BL is the green light collecting area GL1, In case of the same design as GL2), it may occur because the focal length of the blue light is longer than the focal length of the green light. Referring to FIG. 9B , light having a wavelength of 450 nm incident in the A direction toward the blue light converging region BL is transmitted to the first light sensing cell 112a as well as the first light sensing cell 112a of the second pixel 112 . Part of the light is incident on the second photo-sensing cell 112b in the vicinity, and the light incident in the B direction is also incident on the first photo-sensing cell 112a around the second photo-sensing cell 112b. As such, when the focal length of the blue light converging region BL is greater than the thickness of the spacer layer 120, the difference in the signal for each light sensing cell according to the propagation direction of the incident light is ambiguous, and the focusing performance may be deteriorated. there is.

도 9c는 청색광 집광 영역(BL)의 초점거리(fb)가 스페이서층(120)의 두께(120h)보다 짧은 예를 보여준다. 이러한 현상은 도 3a 내지 도 3b를 통해 설명한 것과 같이, 스페이서층(120)의 두께(120h)는 녹색광의 초점거리를 기준으로 정하고, 적색광 집광 영역(RL)의 위상 분포는 녹색광 집광 영역(GL1, GL2)과 동일하게 설계한 경우, 적색광의 초점거리가 녹색광의 초점거리보다 짧기 때문에 발생할 수 있다. 도 9c를 참조하면, 청색광 집광 영역(BL)를 향해 A방향으로 입사한 450 nm 파장의 광은 제2 화소(112)의 제1 광감지셀(112a)뿐 아니라 제1 광감지셀(112a) 주변의 제2 광감지셀(112b)로 일부 광이 입사하게 되고, B 방향으로 입사한 광도 제2 광감지셀(112b)뿐 아니라 주변의 제1 광감지셀(112a)로 입사하게 된다. 이와 같이, 청색광 집광 영역(BL)의 초점거리가 스페이서층(120)의 두께보다 클 때뿐만 아니라, 작을 때에도, 입사광의 진행 방향에 따른 광감지셀별 신호의 차이가 모호해져 초점 조절 성능이 저하될 수 있다. 즉, 입사 방향에 따라 제1 광감지셀들(111a, 112a, 113a, 114a)과 제2 광감지셀들(111b, 112b, 113b, 114b)의 감지 신호가 명확히 구분되지 않을 수 있다.FIG. 9C shows an example in which the focal length fb of the blue light collecting area BL is shorter than the thickness 120h of the spacer layer 120 . 3A to 3B, the thickness 120h of the spacer layer 120 is determined based on the focal length of the green light, and the phase distribution of the red light collecting region RL is the green light collecting region GL1, In case of the same design as GL2), it may occur because the focal length of the red light is shorter than the focal length of the green light. Referring to FIG. 9C , the light having a wavelength of 450 nm incident in the A direction toward the blue light converging region BL is transmitted to the first light sensing cell 112a of the second pixel 112 as well as the first light sensing cell 112a. Part of the light is incident on the second photo-sensing cell 112b in the vicinity, and the light incident in the B direction is also incident on the first photo-sensing cell 112a around the second photo-sensing cell 112b. As such, even when the focal length of the blue light converging region BL is not only greater than the thickness of the spacer layer 120 but also small, the difference in the signal for each light sensing cell according to the propagation direction of the incident light is ambiguous, so that the focusing performance may be reduced. can That is, the detection signals of the first photo-sensing cells 111a, 112a, 113a, and 114a and the second photo-sensing cells 111b, 112b, 113b, and 114b may not be clearly distinguished according to the incident direction.

앞서 설명한 화소 어레이(1100)를 포함하는 이미지센서(1000)는 컬러 필터, 예를 들면, 유기 컬러 필터에 의한 광 손실이 거의 없기 때문에 화소의 크기가 작아지더라도 화소에 충분한 양의 빛을 제공할 수 있다. 따라서 수 억개 이상의 화소를 갖는 초고해상도 초소형 고감도 이미지센서의 제작이 가능하다. 이러한 초고해상도 초소형 고감도 이미지센서는 다양한 고성능 광학 장치 또는 고성능 전자 장치에 채용될 수 있다. 이러한 전자 장치는, 예컨대, 스마트 폰(smart phone), 휴대폰, 핸드폰, PDA(personal digital assistant), 랩톱(laptop), PC, 다양한 휴대용 기기, 가전 제품, 보안 카메라, 의료용 카메라, 자동차, 사물인터넷(IoT;Internet of Things) 기기, 기타 모바일 또는 비모바일 컴퓨팅 장치 일 수 있고, 이에 제한되지 않는다.Since the image sensor 1000 including the pixel array 1100 described above has almost no light loss due to a color filter, for example, an organic color filter, it is possible to provide a sufficient amount of light to the pixel even if the size of the pixel is small. can Therefore, it is possible to manufacture an ultra-high-resolution, ultra-small, high-sensitivity image sensor having hundreds of millions of pixels or more. Such an ultra-high-resolution, ultra-small, and high-sensitivity image sensor may be employed in various high-performance optical devices or high-performance electronic devices. Such electronic devices are, for example, smart phones, mobile phones, cell phones, personal digital assistants (PDA), laptops, PCs, various portable devices, home appliances, security cameras, medical cameras, automobiles, and Internet of Things (IoT). It may be an Internet of Things (IoT) device or other mobile or non-mobile computing device, but is not limited thereto.

전자 장치는 이미지센서(1000) 외에도, 이미지센서를 제어하는 프로세서, 예를 들면, 어플리케이션 프로세서(AP: Application Processor)를 더 포함할 수 있으며, 프로세서를 통해 운영 체제 또는 응용 프로그램을 구동하여 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서는 GPU (Graphic Processing Unit) 및/또는 이미지 신호 프로세서(Image Signal Processor)를 더 포함할 수 있다. 프로세서에 이미지 신호 프로세서가 포함되는 경우, 이미지센서에 의해 획득된 이미지(또는 영상)를 프로세서를 이용하여 저장 및/또는 출력할 수 있다.In addition to the image sensor 1000 , the electronic device may further include a processor for controlling the image sensor, for example, an application processor (AP), and a plurality of hardware devices by driving an operating system or an application program through the processor. Alternatively, the software components may be controlled, and various data processing and operations may be performed. The processor may further include a graphic processing unit (GPU) and/or an image signal processor. When the processor includes an image signal processor, the image (or image) acquired by the image sensor may be stored and/or output by using the processor.

도 10은 이미지센서(1000)를 포함하는 전자 장치(ED01)의 일 예를 나타내는 블럭도이다. 도 10을 참조하면, 네트워크 환경(ED00)에서 전자 장치(ED01)는 제1 네트워크(ED98)(근거리 무선 통신 네트워크 등)를 통하여 다른 전자 장치(ED02)와 통신하거나, 또는 제2 네트워크(ED99)(원거리 무선 통신 네트워크 등)를 통하여 또 다른 전자 장치(ED04) 및/또는 서버(ED08)와 통신할 수 있다. 전자 장치(ED01)는 서버(ED08)를 통하여 전자 장치(ED04)와 통신할 수 있다. 전자 장치(ED01)는 프로세서(ED20), 메모리(ED30), 입력 장치(ED50), 음향 출력 장치(ED55), 표시 장치(ED60), 오디오 모듈(ED70), 센서 모듈(ED76), 인터페이스(ED77), 햅틱 모듈(ED79), 카메라 모듈(ED80), 전력 관리 모듈(ED88), 배터리(ED89), 통신 모듈(ED90), 가입자 식별 모듈(ED96), 및/또는 안테나 모듈(ED97)을 포함할 수 있다. 전자 장치(ED01)에는, 이 구성요소들 중 일부(표시 장치(ED60) 등)가 생략되거나, 다른 구성요소가 추가될 수 있다. 이 구성요소들 중 일부는 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(ED76)(지문 센서, 홍채 센서, 조도 센서 등)은 표시 장치(ED60)(디스플레이 등)에 임베디드되어 구현될 수 있다.10 is a block diagram illustrating an example of the electronic device ED01 including the image sensor 1000 . Referring to FIG. 10 , in a network environment ED00, an electronic device ED01 communicates with another electronic device ED02 through a first network ED98 (such as a short-range wireless communication network) or a second network ED99. It is possible to communicate with another electronic device ED04 and/or the server ED08 through (a long-distance wireless communication network, etc.). The electronic device ED01 may communicate with the electronic device ED04 through the server ED08. Electronic device ED01 includes processor ED20, memory ED30, input device ED50, sound output device ED55, display device ED60, audio module ED70, sensor module ED76, interface ED77 ), a haptic module (ED79), a camera module (ED80), a power management module (ED88), a battery (ED89), a communication module (ED90), a subscriber identity module (ED96), and/or an antenna module (ED97). can In the electronic device ED01 , some of these components (eg, the display device ED60 ) may be omitted or other components may be added. Some of these components may be implemented as one integrated circuit. For example, the sensor module ED76 (fingerprint sensor, iris sensor, illuminance sensor, etc.) may be implemented by being embedded in the display device ED60 (display, etc.).

프로세서(ED20)는, 소프트웨어(프로그램(ED40) 등)를 실행하여 프로세서(ED20)에 연결된 전자 장치(ED01) 중 하나 또는 복수개의 다른 구성요소들(하드웨어, 소프트웨어 구성요소 등)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 데이터 처리 또는 연산의 일부로, 프로세서(ED20)는 다른 구성요소(센서 모듈(ED76), 통신 모듈(ED90) 등)로부터 수신된 명령 및/또는 데이터를 휘발성 메모리(ED32)에 로드하고, 휘발성 메모리(ED32)에 저장된 명령 및/또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(ED34)에 저장할 수 있다. 프로세서(ED20)는 메인 프로세서(ED21)(중앙 처리 장치, 어플리케이션 프로세서 등) 및 이와 독립적으로 또는 함께 운영 가능한 보조 프로세서(ED23)(그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 커뮤니케이션 프로세서 등)를 포함할 수 있다. 보조 프로세서(ED23)는 메인 프로세서(ED21)보다 전력을 작게 사용하고, 특화된 기능을 수행할 수 있다. The processor ED20 may control one or a plurality of other components (hardware, software components, etc.) of the electronic device ED01 connected to the processor ED20 by executing software (eg, a program ED40 ). , various data processing or operations can be performed. As part of data processing or operation, processor ED20 loads commands and/or data received from other components (sensor module ED76, communication module ED90, etc.) into volatile memory ED32, and The commands and/or data stored in the ED32 may be processed, and the resulting data may be stored in the non-volatile memory ED34. The processor ED20 includes a main processor ED21 (central processing unit, application processor, etc.) and a secondary processor ED23 (graphics processing unit, image signal processor, sensor hub processor, communication processor, etc.) that can be operated independently or together. may include The auxiliary processor ED23 may use less power than the main processor ED21 and may perform a specialized function.

보조 프로세서(ED23)는, 메인 프로세서(ED21)가 인액티브 상태(슬립 상태)에 있는 동안 메인 프로세서(ED21)를 대신하여, 또는 메인 프로세서(ED21)가 액티브 상태(어플리케이션 실행 상태)에 있는 동안 메인 프로세서(ED21)와 함께, 전자 장치(ED01)의 구성요소들 중 일부 구성요소(표시 장치(ED60), 센서 모듈(ED76), 통신 모듈(ED90) 등)와 관련된 기능 및/또는 상태를 제어할 수 있다. 보조 프로세서(ED23)(이미지 시그널 프로세서, 커뮤니케이션 프로세서 등)는 기능적으로 관련 있는 다른 구성 요소(카메라 모듈(ED80), 통신 모듈(ED90) 등)의 일부로서 구현될 수도 있다. The auxiliary processor ED23 is configured to replace the main processor ED21 while the main processor ED21 is in the inactive state (sleep state) or to the main processor ED21 while the main processor ED21 is in the active state (the application execution state). Together with the processor ED21, functions and/or states related to some of the components of the electronic device ED01 (display device ED60, sensor module ED76, communication module ED90, etc.) may be controlled. can The auxiliary processor ED23 (image signal processor, communication processor, etc.) may be implemented as a part of other functionally related components (camera module ED80, communication module ED90, etc.).

메모리(ED30)는, 전자 장치(ED01)의 구성요소(프로세서(ED20), 센서모듈(ED76) 등)가 필요로 하는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(프로그램(ED40) 등) 및, 이와 관련된 명령에 대한 입력 데이터 및/또는 출력 데이터를 포함할 수 있다. 메모리(ED30)는, 휘발성 메모리(ED32) 및/또는 비휘발성 메모리(ED34)를 포함할 수 있다.The memory ED30 may store various data required by components of the electronic device ED01 (such as the processor ED20 and the sensor module ED76). The data may include, for example, input data and/or output data for software (such as a program ED40) and instructions related thereto. The memory ED30 may include a volatile memory ED32 and/or a nonvolatile memory ED34.

프로그램(ED40)은 메모리(ED30)에 소프트웨어로 저장될 수 있으며, 운영 체제(ED42), 미들 웨어(ED44) 및/또는 어플리케이션(ED46)을 포함할 수 있다. The program ED40 may be stored as software in the memory ED30 and may include an operating system ED42, middleware ED44, and/or an application ED46.

입력 장치(ED50)는, 전자 장치(ED01)의 구성요소(프로세서(ED20) 등)에 사용될 명령 및/또는 데이터를 전자 장치(ED01)의 외부(사용자 등)로부터 수신할 수 있다. 입력 장치(ED50)는, 마이크, 마우스, 키보드, 및/또는 디지털 펜(스타일러스 펜 등)을 포함할 수 있다. The input device ED50 may receive a command and/or data to be used by a component (eg, the processor ED20 ) of the electronic device ED01 from outside the electronic device ED01 (eg, a user). The input device ED50 may include a microphone, a mouse, a keyboard, and/or a digital pen (such as a stylus pen).

음향 출력 장치(ED55)는 음향 신호를 전자 장치(ED01)의 외부로 출력할 수 있다. 음향 출력 장치(ED55)는, 스피커 및/또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 리시버는 스피커의 일부로 결합되어 있거나 또는 독립된 별도의 장치로 구현될 수 있다.The sound output device ED55 may output a sound signal to the outside of the electronic device ED01 . The sound output device ED55 may include a speaker and/or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive an incoming call. The receiver may be integrated as a part of the speaker or may be implemented as an independent separate device.

표시 장치(ED60)는 전자 장치(ED01)의 외부로 정보를 시각적으로 제공할 수 있다. 표시 장치(ED60)는, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 표시 장치(ED60)는 터치를 감지하도록 설정된 터치 회로(Touch Circuitry), 및/또는 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(압력 센서 등)를 포함할 수 있다. The display device ED60 may visually provide information to the outside of the electronic device ED01. The display device ED60 may include a display, a hologram device, or a projector and a control circuit for controlling the corresponding device. The display device ED60 may include a touch circuitry configured to sense a touch, and/or a sensor circuitry configured to measure the intensity of force generated by the touch (such as a pressure sensor).

오디오 모듈(ED70)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 오디오 모듈(ED70)은, 입력 장치(ED50)를 통해 소리를 획득하거나, 음향 출력 장치(ED55), 및/또는 전자 장치(ED01)와 직접 또는 무선으로 연결된 다른 전자 장치(전자 장치(ED02) 등)의 스피커 및/또는 헤드폰을 통해 소리를 출력할 수 있다.The audio module ED70 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. The audio module ED70 obtains a sound through the input device ED50 or other electronic device (electronic device ED02, etc.) directly or wirelessly connected to the sound output device ED55 and/or the electronic device ED01. ) through the speaker and/or headphones.

센서 모듈(ED76)은 전자 장치(ED01)의 작동 상태(전력, 온도 등), 또는 외부의 환경 상태(사용자 상태 등)를 감지하고, 감지된 상태에 대응하는 전기 신호 및/또는 데이터 값을 생성할 수 있다. 센서 모듈(ED76)은, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(Infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 및/또는 조도 센서를 포함할 수 있다. The sensor module ED76 detects an operating state (power, temperature, etc.) of the electronic device ED01 or an external environmental state (user state, etc.), and generates an electrical signal and/or data value corresponding to the sensed state. can do. The sensor module ED76 may include a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (Infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, and/or an illuminance sensor. It may include a sensor.

인터페이스(ED77)는 전자 장치(ED01)가 다른 전자 장치(전자 장치(ED02) 등)와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 또는 복수의 지정된 프로토콜들을 지원할 수 있다. 인터페이스(ED77)는, HDMI(High Definition Multimedia Interface), USB(Universal Serial Bus) 인터페이스, SD카드 인터페이스, 및/또는 오디오 인터페이스를 포함할 수 있다.The interface ED77 may support one or a plurality of designated protocols that may be used to directly or wirelessly connect the electronic device ED01 to another electronic device (eg, the electronic device ED02). The interface ED77 may include a High Definition Multimedia Interface (HDMI), a Universal Serial Bus (USB) interface, an SD card interface, and/or an audio interface.

연결 단자(ED78)는, 전자 장치(ED01)가 다른 전자 장치(전자 장치(ED02) 등)와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 연결 단자(ED78)는, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 및/또는 오디오 커넥터(헤드폰 커넥터 등)를 포함할 수 있The connection terminal ED78 may include a connector through which the electronic device ED01 may be physically connected to another electronic device (eg, the electronic device ED02 ). The connection terminal ED78 may include an HDMI connector, a USB connector, an SD card connector, and/or an audio connector (such as a headphone connector).

햅틱 모듈(ED79)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(진동, 움직임 등) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(ED79)은, 모터, 압전 소자, 및/또는 전기 자극 장치를 포함할 수 있다.The haptic module ED79 may convert an electrical signal into a mechanical stimulus (vibration, movement, etc.) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense. The haptic module ED79 may include a motor, a piezoelectric element, and/or an electrical stimulation device.

카메라 모듈(ED80)은 정지 영상 및 동영상을 촬영할 수 있다. 카메라 모듈(ED80)은 하나 또는 복수의 렌즈들을 포함하는 렌즈 어셈블리, 도 1의 이미지센서(1000), 이미지 시그널 프로세서들, 및/또는 플래시들을 포함할 수 있다. 카메라 모듈(ED80)에 포함된 렌즈 어셈블리는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다.The camera module ED80 may capture still images and moving images. The camera module ED80 may include a lens assembly including one or a plurality of lenses, the image sensor 1000 of FIG. 1 , image signal processors, and/or flashes. The lens assembly included in the camera module ED80 may collect light emitted from a subject, which is an image capturing object.

전력 관리 모듈(ED88)은 전자 장치(ED01)에 공급되는 전력을 관리할 수 있다. 전력 관리 모듈(ED88)은, PMIC(Power Management Integrated Circuit)의 일부로서 구현될 수 있다.The power management module ED88 may manage power supplied to the electronic device ED01 . The power management module ED88 may be implemented as a part of a Power Management Integrated Circuit (PMIC).

배터리(ED89)는 전자 장치(ED01)의 구성 요소에 전력을 공급할 수 있다. 배터리(ED89)는, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 및/또는 연료 전지를 포함할 수 있다.The battery ED89 may supply power to a component of the electronic device ED01 . The battery ED89 may include a non-rechargeable primary cell, a rechargeable secondary cell, and/or a fuel cell.

통신 모듈(ED90)은 전자 장치(ED01)와 다른 전자 장치(전자 장치(ED02), 전자 장치(ED04), 서버(ED08) 등)간의 직접(유선) 통신 채널 및/또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(ED90)은 프로세서(ED20)(어플리케이션 프로세서 등)와 독립적으로 운영되고, 직접 통신 및/또는 무선 통신을 지원하는 하나 또는 복수의 커뮤니케이션 프로세서들을 포함할 수 있다. 통신 모듈(ED90)은 무선 통신 모듈(ED92)(셀룰러 통신 모듈, 근거리 무선 통신 모듈, GNSS(Global Navigation Satellite System 등) 통신 모듈) 및/또는 유선 통신 모듈(ED94)(LAN(Local Area Network) 통신 모듈, 전력선 통신 모듈 등)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(ED98)(블루투스, WiFi Direct 또는 IrDA(Infrared Data Association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(ED99)(셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(LAN, WAN 등)와 같은 원거리 통신 네트워크)를 통하여 다른 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(단일 칩 등)로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(복수 칩들)로 구현될 수 있다. 무선 통신 모듈(ED92)은 가입자 식별 모듈(ED96)에 저장된 가입자 정보(국제 모바일 가입자 식별자(IMSI) 등)를 이용하여 제1 네트워크(ED98) 및/또는 제2 네트워크(ED99)와 같은 통신 네트워크 내에서 전자 장치(ED01)를 확인 및 인증할 수 있다. Communication module ED90 establishes a direct (wired) communication channel and/or wireless communication channel between the electronic device ED01 and other electronic devices (electronic device ED02, electronic device ED04, server ED08, etc.); and performing communication through an established communication channel. The communication module ED90 may include one or a plurality of communication processors that operate independently of the processor ED20 (eg, an application processor) and support direct communication and/or wireless communication. The communication module ED90 includes a wireless communication module ED92 (a cellular communication module, a short-range wireless communication module, a Global Navigation Satellite System (GNSS, etc.) communication module) and/or a wired communication module ED94 (Local Area Network (LAN) communication). module, power line communication module, etc.). Among these communication modules, the corresponding communication module is a first network (ED98) (local area communication network such as Bluetooth, WiFi Direct, or IrDA (Infrared Data Association)) or a second network (ED99) (cellular network, Internet, or computer network (LAN) , WAN, etc.) through a telecommunication network) and may communicate with other electronic devices. These various types of communication modules may be integrated into one component (single chip, etc.) or implemented as a plurality of components (plural chips) separate from each other. The wireless communication module ED92 uses the subscriber information (such as International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module ED96 within a communication network such as the first network ED98 and/or the second network ED99. can check and authenticate the electronic device ED01.

안테나 모듈(ED97)은 신호 및/또는 전력을 외부(다른 전자 장치 등)로 송신하거나 외부로부터 수신할 수 있다. 안테나는 기판(PCB 등) 위에 형성된 도전성 패턴으로 이루어진 방사체를 포함할 수 있다. 안테나 모듈(ED97)은 하나 또는 복수의 안테나들을 포함할 수 있다. 복수의 안테나가 포함된 경우, 통신 모듈(ED90)에 의해 복수의 안테나들 중에서 제1 네트워크(ED98) 및/또는 제2 네트워크(ED99)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 안테나가 선택될 수 있다. 선택된 안테나를 통하여 통신 모듈(ED90)과 다른 전자 장치 간에 신호 및/또는 전력이 송신되거나 수신될 수 있다. 안테나 외에 다른 부품(RFIC 등)이 안테나 모듈(ED97)의 일부로 포함될 수 있다.The antenna module ED97 may transmit or receive signals and/or power to the outside (eg, other electronic devices). The antenna may include a radiator having a conductive pattern formed on a substrate (PCB, etc.). The antenna module ED97 may include one or a plurality of antennas. When a plurality of antennas are included, an antenna suitable for a communication method used in a communication network such as the first network ED98 and/or the second network ED99 is selected from among the plurality of antennas by the communication module ED90. can A signal and/or power may be transmitted or received between the communication module ED90 and another electronic device through the selected antenna. In addition to the antenna, other components (such as RFIC) may be included as a part of the antenna module ED97.

구성요소들 중 일부는 주변 기기들간 통신 방식(버스, GPIO(General Purpose Input and Output), SPI(Serial Peripheral Interface), MIPI(Mobile Industry Processor Interface) 등)을 통해 서로 연결되고 신호(명령, 데이터 등)를 상호 교환할 수 있다.Some of the components are connected to each other through communication methods between peripheral devices (bus, GPIO (General Purpose Input and Output), SPI (Serial Peripheral Interface), MIPI (Mobile Industry Processor Interface), etc.) and signals (commands, data, etc.) ) are interchangeable.

명령 또는 데이터는 제2 네트워크(ED99)에 연결된 서버(ED08)를 통해서 전자 장치(ED01)와 외부의 전자 장치(ED04)간에 송신 또는 수신될 수 있다. 다른 전자 장치들(ED02, ED04)은 전자 장치(ED01)와 동일한 또는 다른 종류의 장치일 수 있다. 전자 장치(ED01)에서 실행되는 동작들의 전부 또는 일부는 다른 전자 장치들(ED02, ED04, ED08) 중 하나 또는 복수의 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(ED01)가 어떤 기능이나 서비스를 수행해야 할 때, 기능 또는 서비스를 자체적으로 실행시키는 대신에 하나 또는 복수의 다른 전자 장치들에게 그 기능 또는 그 서비스의 일부 또는 전체를 수행하라고 요청할 수 있다. 요청을 수신한 하나 또는 복수의 다른 전자 장치들은 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(ED01)로 전달할 수 있다. 이를 위하여, 클라우드 컴퓨팅, 분산 컴퓨팅, 및/또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.The command or data may be transmitted or received between the electronic device ED01 and the external electronic device ED04 through the server ED08 connected to the second network ED99. The other electronic devices ED02 and ED04 may be of the same type as or different from those of the electronic device ED01. All or some of the operations performed in the electronic device ED01 may be executed in one or a plurality of devices among the other electronic devices ED02, ED04, and ED08. For example, when the electronic device ED01 needs to perform a function or service, part or all of the function or service is performed to one or a plurality of other electronic devices instead of executing the function or service by itself. you can ask to One or a plurality of other electronic devices receiving the request may execute an additional function or service related to the request, and transmit a result of the execution to the electronic device ED01. To this end, cloud computing, distributed computing, and/or client-server computing technologies may be used.

도 11는, 도 10의 카메라 모듈(ED80)을 예시하는 블럭도이다. 도 11를 참조하면, 카메라 모듈(ED80)은 렌즈 어셈블리(1110), 플래쉬(1120), 이미지센서(1000)(도 1의 이미지센서(1000) 등), 이미지 스태빌라이저(1140), 메모리(1150)(버퍼 메모리 등), 및/또는 이미지 시그널 프로세서(1160)를 포함할 수 있다. 렌즈 어셈블리(1110)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 카메라 모듈(ED80)은 복수의 렌즈 어셈블리(1110)들을 포함할 수도 있으며, 이런 경우, 카메라 모듈(ED80)은, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(Spherical Camera)가 될 수 있다. 복수의 렌즈 어셈블리(1110)들 중 일부는 동일한 렌즈 속성(화각, 초점 거리, 자동 초점, F 넘버(F Number), 광학 줌 등)을 갖거나, 또는 다른 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(1110)는, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. 11 is a block diagram illustrating the camera module ED80 of FIG. 10 . Referring to FIG. 11 , the camera module ED80 includes a lens assembly 1110 , a flash 1120 , an image sensor 1000 (such as the image sensor 1000 of FIG. 1 ), an image stabilizer 1140 , and a memory 1150 . (such as a buffer memory), and/or an image signal processor 1160 . The lens assembly 1110 may collect light emitted from a subject, which is an image capturing object. The camera module ED80 may include a plurality of lens assemblies 1110 . In this case, the camera module ED80 may be a dual camera, a 360 degree camera, or a spherical camera. Some of the plurality of lens assemblies 1110 may have the same lens property (angle of view, focal length, auto focus, F number, optical zoom, etc.) or may have different lens properties. The lens assembly 1110 may include a wide-angle lens or a telephoto lens.

플래쉬(1120)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 플래쉬(1120)는 하나 또는 복수의 발광 다이오드들(RGB(Red-Green-Blue) LED, White LED, Infrared LED, Ultraviolet LED 등), 및/또는 Xenon Lamp를 포함할 수 있다. 이미지센서(1000)는 도 1에서 설명한 이미지센서일 수 있으며, 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(1110)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 피사체에 대응하는 이미지를 획득할 수 있다. 이미지센서(1000)는, RGB 센서, BW(Black and White) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지센서들 중 선택된 하나 또는 복수의 센서들을 포함할 수 있다. 이미지센서(1000)에 포함된 각각의 센서들은, CCD(Charged Coupled Device) 센서 및/또는 CMOS(Complementary Metal Oxide Semiconductor) 센서로 구현될 수 있다.The flash 1120 may emit light used to enhance light emitted or reflected from the subject. The flash 1120 may include one or a plurality of light emitting diodes (RGB (Red-Green-Blue) LED, White LED, Infrared LED, Ultraviolet LED, etc.), and/or a Xenon Lamp. The image sensor 1000 may be the image sensor described with reference to FIG. 1 , and by converting light emitted or reflected from the subject and transmitted through the lens assembly 1110 into an electrical signal, an image corresponding to the subject may be obtained. . The image sensor 1000 may include one or a plurality of sensors selected from image sensors having different properties, such as an RGB sensor, a black and white (BW) sensor, an IR sensor, or a UV sensor. Each of the sensors included in the image sensor 1000 may be implemented as a CCD (Charged Coupled Device) sensor and/or a CMOS (Complementary Metal Oxide Semiconductor) sensor.

이미지 스태빌라이저(1140)는 카메라 모듈(ED80) 또는 이를 포함하는 전자 장치(1101)의 움직임에 반응하여, 렌즈 어셈블리(1110)에 포함된 하나 또는 복수개의 렌즈 또는 이미지센서(1000)를 특정한 방향으로 움직이거나 이미지센서(1000)의 동작 특성을 제어(리드 아웃(Read-Out) 타이밍의 조정 등)하여 움직임에 의한 부정적인 영향이 보상되도록 할 수 있다. 이미지 스태빌라이저(1140)는 카메라 모듈(ED80)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(ED80) 또는 전자 장치(ED01)의 움직임을 감지할 수 있다. 이미지 스태빌라이저(1140)는, 광학식으로 구현될 수도 있다. The image stabilizer 1140 responds to the movement of the camera module ED80 or the electronic device 1101 including the same, and moves one or a plurality of lenses or the image sensor 1000 included in the lens assembly 1110 in a specific direction. Alternatively, by controlling the operating characteristics of the image sensor 1000 (adjustment of read-out timing, etc.), a negative effect due to movement may be compensated. The image stabilizer 1140 detects the movement of the camera module ED80 or the electronic device ED01 using a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module ED80. can The image stabilizer 1140 may be optically implemented.

메모리(1150)는 이미지센서(1000)를 통하여 획득된 이미지의 일부 또는 전체 데이터가 다음 이미지 처리 작업을 위하여 저장할 수 있다. 예를 들어, 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 데이터(Bayer-Patterned 데이터, 고해상도 데이터 등)는 메모리(1150)에 저장하고, 저해상도 이미지만을 디스플레이 해준 후, 선택된(사용자 선택 등) 이미지의 원본 데이터가 이미지 시그널 프로세서(1160)로 전달되도록 하는데 사용될 수 있다. 메모리(1150)는 전자 장치(ED01)의 메모리(ED30)로 통합되어 있거나, 또는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The memory 1150 may store some or all data of an image acquired through the image sensor 1000 for a subsequent image processing operation. For example, when a plurality of images are acquired at high speed, the acquired original data (Bayer-Patterned data, high-resolution data, etc.) is stored in the memory 1150, only the low-resolution image is displayed, and then selected (user selection, etc.) It may be used to transmit the original data of the image to the image signal processor 1160 . The memory 1150 may be integrated into the memory ED30 of the electronic device ED01 or may be configured as a separate memory operated independently.

이미지 시그널 프로세서(1160)는 이미지센서(1000)을 통하여 획득된 이미지 또는 메모리(1150)에 저장된 이미지 데이터에 대하여 이미지 처리들을 수행할 수 있다. 이미지 처리들은, 깊이 지도(Depth Map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 및/또는 이미지 보상(노이즈 감소, 해상도 조정, 밝기 조정, 블러링(Blurring), 샤프닝(Sharpening), 소프트닝(Softening) 등)을 포함할 수 있다. 이미지 시그널 프로세서(1160)는 카메라 모듈(ED80)에 포함된 구성 요소들(이미지센서(1000) 등)에 대한 제어(노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(1160)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(1150)에 다시 저장 되거나 카메라 모듈(ED80)의 외부 구성 요소(메모리(ED30), 표시 장치(ED60), 전자 장치(ED02), 전자 장치(ED04), 서버(ED08) 등)로 제공될 수 있다. 이미지 시그널 프로세서(1160)는 프로세서(ED20)에 통합되거나, 프로세서(ED20)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(1160)가 프로세서(ED20)와 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(1160)에 의해 처리된 이미지는 프로세서(ED20)에 의하여 추가의 이미지 처리를 거친 후 표시 장치(ED60)를 통해 표시될 수 있다.The image signal processor 1160 may perform image processing on an image acquired through the image sensor 1000 or image data stored in the memory 1150 . Image processing includes depth map generation, 3D modeling, panorama generation, feature point extraction, image synthesis, and/or image compensation (noise reduction, resolution adjustment, brightness adjustment, blurring, sharpening) , softening (Softening, etc.) may be included. The image signal processor 1160 may perform control (exposure time control, readout timing control, etc.) on components (such as the image sensor 1000 ) included in the camera module ED80 . The image processed by the image signal processor 1160 is stored back in the memory 1150 for further processing or external components of the camera module ED80 (memory ED30, display device ED60, electronic device ED02) , the electronic device ED04, the server ED08, etc.). The image signal processor 1160 may be integrated into the processor ED20 or configured as a separate processor operated independently of the processor ED20 . When the image signal processor 1160 is configured with the processor ED20 and a separate processor, the image processed by the image signal processor 1160 is subjected to additional image processing by the processor ED20 and then displayed on the display device ED60. can be displayed through

전자 장치(ED01)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(ED80)들을 포함할 수 있다. 이런 경우, 복수의 카메라 모듈(ED80)들 중 하나는 광각 카메라이고, 다른 하나는 망원 카메라일 수 있다. 유사하게, 복수의 카메라 모듈(ED80)들 중 하나는 전면 카메라이고, 다른 하나는 후면 카메라일 수 있다.The electronic device ED01 may include a plurality of camera modules ED80 each having different properties or functions. In this case, one of the plurality of camera modules ED80 may be a wide-angle camera and the other may be a telephoto camera. Similarly, one of the plurality of camera modules ED80 may be a front camera and the other may be a rear camera.

실시예들에 따른 이미지센서(1000)는 도 12에 도시된 모바일폰 또는 스마트폰(1200), 도 13에 도시된 태블릿 또는 스마트 태블릿(1300), 도 14에 도시된 디지털 카메라 또는 캠코더(1400), 도 15에 도시된 노트북 컴퓨터(1500)에 또는 도 16에 도시된 텔레비전 또는 스마트 텔레비전(1600) 등에 적용될 수 있다. 예를 들어, 스마트폰(1200) 또는 스마트 태블릿(1300)은 고해상 이미지센서가 각각 탑재된 복수의 고해상 카메라를 포함할 수 있다. 고해상 카메라들을 이용하여 영상 내 피사체들의 깊이 정보를 추출하거나, 영상의 아웃포커싱을 조절하거나, 영상 내 피사체들을 자동으로 식별할 수 있다.The image sensor 1000 according to the embodiments includes the mobile phone or smart phone 1200 shown in FIG. 12 , the tablet or smart tablet 1300 shown in FIG. 13 , and the digital camera or camcorder 1400 shown in FIG. 14 . , may be applied to the notebook computer 1500 shown in FIG. 15 or the television or smart television 1600 shown in FIG. 16 . For example, the smart phone 1200 or the smart tablet 1300 may include a plurality of high-resolution cameras each having a high-resolution image sensor mounted thereon. Using high-resolution cameras, it is possible to extract depth information of subjects in an image, adjust out-focusing of an image, or automatically identify subjects in an image.

또한, 이미지센서(1000)는 도 17에 도시된 스마트 냉장고(1700), 도 18에 도시된 보안 카메라(1800), 도 19에 도시된 로봇(1900), 도 20에 도시된 의료용 카메라(2000) 등에 적용될 수 있다. 예를 들어, 스마트 냉장고(1700)는 이미지센서를 이용하여 냉장고 내에 있는 음식을 자동으로 인식하고, 특정 음식의 존재 여부, 입고 또는 출고된 음식의 종류 등을 스마트폰을 통해 사용자에게 알려줄 수 있다. 보안 카메라(1800)는 초고해상도 영상을 제공할 수 있으며 높은 감도를 이용하여 어두운 환경에서도 영상 내의 사물 또는 사람을 인식 가능하게 할 수 있다. 로봇(1900)은 사람이 직접 접근할 수 없는 재해 또는 산업 현장에서 투입되어 고해상도 영상을 제공할 수 있다. 의료용 카메라(2000)는 진단 또는 수술을 위한 고해상도 영상을 제공할 수 있으며 시야를 동적으로 조절할 수 있다.In addition, the image sensor 1000 is a smart refrigerator 1700 shown in FIG. 17 , a security camera 1800 shown in FIG. 18 , a robot 1900 shown in FIG. 19 , and a medical camera 2000 shown in FIG. 20 ). etc. can be applied. For example, the smart refrigerator 1700 may automatically recognize food in the refrigerator using an image sensor, and inform the user of the presence of specific food, the type of food put on or shipped out, and the like through the smartphone. The security camera 1800 may provide an ultra-high-resolution image and may recognize an object or a person in the image even in a dark environment by using high sensitivity. The robot 1900 may provide a high-resolution image by being input at a disaster or industrial site that cannot be directly accessed by a person. The medical camera 2000 may provide a high-resolution image for diagnosis or surgery, and may dynamically adjust a field of view.

또한, 이미지센서(1000)는 도 21에 도시된 바와 같이 차량(2100)에 적용될 수 있다. 차량(2100)은 다양한 위치에 배치된 복수의 차량용 카메라(2110, 2120, 2130, 2140)를 포함할 수 있으며. 각각의 차량용 카메라(2110, 2120, 2130, 2140)는 실시예에 따른 이미지센서를 포함할 수 있다. 차량(2100)은 복수의 차량용 카메라(2110, 2120, 2130, 2140)를 이용하여 차량(2100) 내부 또는 주변에 대한 다양한 정보를 운전자에게 제공할 수 있으며, 영상 내의 사물 또는 사람을 자동으로 인식하여 자율 주행에 필요한 정보를 제공할 수 있다.Also, the image sensor 1000 may be applied to the vehicle 2100 as shown in FIG. 21 . The vehicle 2100 may include a plurality of vehicle cameras 2110 , 2120 , 2130 , and 2140 disposed in various positions. Each of the vehicle cameras 2110 , 2120 , 2130 , and 2140 may include an image sensor according to an embodiment. The vehicle 2100 can provide the driver with various information about the inside or the surroundings of the vehicle 2100 by using a plurality of vehicle cameras 2110, 2120, 2130, and 2140, and automatically recognizes objects or people in the image. It can provide information necessary for autonomous driving.

상술한 색분리 렌즈 어레이를 구비하는 이미지센서 및 이를 포함하는 전자 장치가 비록 도면에 도시된 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 권리범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 권리범위에 포함된 것으로 해석되어야 할 것이다. Although the image sensor having the above-described color separation lens array and the electronic device including the same have been described with reference to the embodiment shown in the drawings, this is only an example, and those of ordinary skill in the art can use various It will be understood that modifications and equivalent other embodiments are possible. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of rights is indicated in the claims rather than the above description, and all differences within the scope of equivalents should be construed as being included in the scope of rights.

Claims (34)

제1 파장 광을 감지하기 위한 제1 화소, 및
제2 파장 광을 감지하기 위한 제2 화소
를 포함하는 센서 기판; 및
입사하는 광 중, 제1 파장 광을 상기 제1 화소에 집광하고, 제2 파장 광을 상기 제2 화소에 집광하는 색분리 렌즈 어레이;
를 포함하고,
상기 색분리 렌즈 어레이는,
상기 제1 화소에 대응하는 위치에 배치된 제1 화소 대응 영역; 및
상기 제2 화소에 대응하는 위치에 배치된 제2 화소 대응 영역;
을 포함하고,
상기 제1 화소 대응 영역의 중심을 통과한 제1 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제1 파장 광의 위상 차이는, 상기 제1 화소 대응 영역의 중심을 통과한 제2 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제2 파장 광의 위상 차이와 다른,
이미지센서.
a first pixel for sensing light of a first wavelength; and
a second pixel for sensing second wavelength light
A sensor substrate comprising a; and
a color separation lens array for condensing light of a first wavelength among incident lights on the first pixel and light with a second wavelength on the second pixel;
including,
The color separation lens array,
a first pixel-corresponding region disposed at a position corresponding to the first pixel; and
a second pixel-corresponding region disposed at a position corresponding to the second pixel;
including,
The phase difference between the first wavelength light passing through the center of the first pixel-corresponding area and the first wavelength light passing through the center of the second pixel-corresponding area is the second wavelength light passing through the center of the first pixel-corresponding area. and the phase difference of the second wavelength light passing through the center of the second pixel-corresponding region is different,
image sensor.
제1항에 있어서,
상기 제1 화소는 제1 파장 광을 감지하기 위한 2개 내지 16개의 광감지셀을 포함하는,
이미지센서.
According to claim 1,
The first pixel includes 2 to 16 photo-sensing cells for sensing light of a first wavelength,
image sensor.
제2항에 있어서,
상기 제2 화소는 제2 파장 광을 감지하기 위한 2개 내지 16개의 광감지셀을 포함하는,
이미지센서.
3. The method of claim 2,
The second pixel includes 2 to 16 light sensing cells for sensing light of a second wavelength,
image sensor.
제1항에 있어서,
상기 제1 화소 대응 영역을 통과한 제1 파장 광은 상기 제1 화소 대응 영역의 중심에서 멀어지는 방향으로 감소하는 위상 분포을 가지고,
상기 제2 화소 대응 영역을 통과한 제2 파장 광은 상기 제2 화소 대응 영역의 중심에서 멀어지는 방향으로 감소하는 위상 분포를 가지는,
이미지센서.
According to claim 1,
The first wavelength light passing through the first pixel-corresponding region has a phase distribution that decreases in a direction away from the center of the first pixel-corresponding region;
The second wavelength light passing through the second pixel-corresponding region has a phase distribution that decreases in a direction away from the center of the second pixel-corresponding region;
image sensor.
제4항에 있어서,
상기 제1 파장이 상기 제2 파장보다 길고,
상기 제1 화소 대응 영역의 중심을 통과한 제1 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제1 파장 광의 위상 차이는, 상기 제1 화소 대응 영역의 중심을 통과한 제2 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제2 파장 광의 위상 차이보다 작은,
이미지센서.
5. The method of claim 4,
the first wavelength is longer than the second wavelength;
The phase difference between the first wavelength light passing through the center of the first pixel-corresponding area and the first wavelength light passing through the center of the second pixel-corresponding area is the second wavelength light passing through the center of the first pixel-corresponding area. and the phase difference of the second wavelength light passing through the center of the second pixel-corresponding region is smaller than that of
image sensor.
제4항에 있어서,
상기 제1 파장이 상기 제2 파장보다 길고,
상기 제1 화소 대응 영역의 중심을 통과한 제1 파장 광과 상기 제1 화소 대응 영역의 중심을 통과한 제1 파장 광의 위상 차이는 상기 제2 화소 대응 영역의 중심을 통과한 제2 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제2 파장 광의 위상 차이의 60% 내지 90%인,
이미지센서.
5. The method of claim 4,
the first wavelength is longer than the second wavelength;
The phase difference between the first wavelength light passing through the center of the first pixel-corresponding area and the first wavelength light passing through the center of the first pixel-corresponding area is the second wavelength light passing through the center of the second pixel-corresponding area and 60% to 90% of the phase difference of the second wavelength light passing through the center of the second pixel-corresponding region,
image sensor.
제4항에 있어서,
상기 제1 파장이 상기 제2 파장보다 길고,
상기 제1 화소 대응 영역의 중심을 통과한 제1 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제1 파장 광의 위상 차이는 0.9π 내지 1.1π이고,
상기 제1 화소 대응 영역의 중심을 통과한 제2 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제2 파장 광의 위상 차이는 1.1π 내지 1.5π인,
이미지센서.
5. The method of claim 4,
the first wavelength is longer than the second wavelength;
A phase difference between the first wavelength light passing through the center of the first pixel-corresponding region and the first wavelength light passing through the center of the second pixel-corresponding region is 0.9π to 1.1π,
A phase difference between the second wavelength light passing through the center of the first pixel-corresponding region and the second wavelength light passing through the center of the second pixel-corresponding region is 1.1π to 1.5π,
image sensor.
제4항에 있어서,
상기 제1 파장이 상기 제2 파장보다 짧고,
상기 제1 화소 대응 영역의 중심을 통과한 제1 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제1 파장 광의 위상 차이가 상기 제1 화소 대응 영역의 중심을 통과한 제2 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제2 파장 광의 위상 차이보다 큰,
이미지센서.
5. The method of claim 4,
the first wavelength is shorter than the second wavelength;
The phase difference between the first wavelength light passing through the center of the first pixel-corresponding area and the first wavelength light passing through the center of the second pixel-corresponding area is equal to the second wavelength light passing through the center of the first pixel-corresponding area and greater than the phase difference of the second wavelength light passing through the center of the second pixel-corresponding region;
image sensor.
제4항에 있어서,
상기 제1 파장이 상기 제2 파장보다 짧고,
상기 제1 화소 대응 영역의 중심을 통과한 제1 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제1 파장 광의 위상 차이는 상기 제1 화소 대응 영역의 중심을 통과한 제2 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제2 파장 광의 위상 차이의 110% 내지 150%인,
이미지센서.
5. The method of claim 4,
the first wavelength is shorter than the second wavelength;
The phase difference between the first wavelength light passing through the center of the first pixel-corresponding area and the first wavelength light passing through the center of the second pixel-corresponding area is the second wavelength light passing through the center of the first pixel-corresponding area and 110% to 150% of the phase difference of the second wavelength light passing through the center of the second pixel-corresponding area;
image sensor.
제4항에 있어서,
상기 제1 파장이 상기 제2 파장보다 짧고,
상기 제1 화소 대응 영역의 중심을 통과한 제1 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제1 파장 광의 위상 차이는 0.9π 내지 1.1π이고,
상기 제1 화소 대응 영역의 중심을 통과한 제2 파장 광과 상기 제2 화소 대응 영역의 중심을 통과한 제2 파장 광의 위상 차이는 0.6π 내지 0.9π인,
이미지센서.
5. The method of claim 4,
the first wavelength is shorter than the second wavelength;
A phase difference between the first wavelength light passing through the center of the first pixel-corresponding region and the first wavelength light passing through the center of the second pixel-corresponding region is 0.9π to 1.1π,
A phase difference between the second wavelength light passing through the center of the first pixel-corresponding region and the second wavelength light passing through the center of the second pixel-corresponding region is 0.6π to 0.9π,
image sensor.
제1 파장 광을 감지하기 위한 제1 화소, 및
제2 파장 광을 감지하기 위한 제2 화소
를 포함하는 센서 기판;
입사하는 광 중, 제1 파장 광을 제1 화소에 집광하기 위한 제1 파장 광 집광 영역, 및
제2 파장 광을 제2 화소에 집광하기 위한 제2 파장 광 집광 영역
을 포함하는 색분리 렌즈 어레이;
를 포함하고,
상기 제1 파장 광 집광 영역의 면적은 상기 제1 화소의 면적보다 크고,
상기 제2 파장 광 집광 영역의 면적은 상기 제2 화소의 면적보다 크고,
상기 제2 파장 광 집광 영역에 의한 제2 파장 광의 제2 초점거리는, 상기 제1 파장 광 집광 영역에 의한 제1 파장 광의 제1 초점거리의 90% 내지 100%인,
이미지센서.
a first pixel for sensing light of a first wavelength; and
a second pixel for sensing second wavelength light
A sensor substrate comprising a;
a first wavelength light converging region for condensing light of a first wavelength among the incident lights to the first pixel; and
A second wavelength light converging region for condensing the second wavelength light to the second pixel
A color separation lens array comprising;
including,
an area of the first wavelength light converging region is larger than an area of the first pixel;
an area of the second wavelength light converging region is larger than an area of the second pixel;
A second focal length of the second wavelength light by the second wavelength light collecting region is 90% to 100% of the first focal length of the first wavelength light by the first wavelength light collecting region,
image sensor.
제11항에 있어서,
상기 제1 화소는 제1 파장 광을 감지하기 위한 2개 내지 16개의 광감지셀을 포함하는,
이미지센서.
12. The method of claim 11,
The first pixel includes 2 to 16 photo-sensing cells for sensing light of a first wavelength,
image sensor.
제12항에 있어서,
상기 제2 화소는 제2 파장 광을 감지하기 위한 2개 내지 16개의 광감지셀을 포함하는,
이미지센서.
13. The method of claim 12,
The second pixel includes 2 to 16 light sensing cells for sensing light of a second wavelength,
image sensor.
제11항에 있어서,
상기 제1 파장 광 집광 영역을 통과한 제1 파장 광은 상기 제1 파장 광 집광 영역의 중심에서 멀어지는 방향으로 감소하는 위상 지연 프로파일을 가지고,
상기 제2 파장 광 집광 영역을 통과한 제2 파장 광은 상기 제2 파장 광 집광 영역의 중심에서 멀어지는 방향으로 감소하는 위상 지연 프로파일을 가지는,
이미지센서.
12. The method of claim 11,
The first wavelength light passing through the first wavelength light collecting region has a phase retardation profile that decreases in a direction away from the center of the first wavelength light collecting region,
The second wavelength light passing through the second wavelength light collecting region has a phase retardation profile that decreases in a direction away from the center of the second wavelength light collecting region,
image sensor.
제14항에 있어서,
상기 제1 파장 광 집광 영역과 상기 제2 파장 광 집광 영역은 일부 영역이 중첩되는,
이미지센서.
15. The method of claim 14,
The first wavelength light collecting region and the second wavelength light collecting region partially overlap each other,
image sensor.
제15항에 있어서,
상기 제2 초점거리는 상기 제1 초점거리와 같은,
이미지센서.
16. The method of claim 15,
The second focal length is the same as the first focal length;
image sensor.
제1 파장 광을 감지하기 위한 제1 화소, 및
제2 파장 광을 감지하기 위한 제2 화소
를 포함하는 센서 기판;
입사하는 광 중, 제1 파장 광을 상기 제1 화소에 집광하기 위한 제1 파장 광 집광 영역, 및
제2 파장 광을 상기 제2 화소에 집광하기 위한 제2 파장 광 집광 영역
을 포함하는 색분리 렌즈 어레이;
를 포함하고,
상기 제1 파장 광 집광 영역의 면적은 상기 제1 화소의 면적보다 크고,
상기 제2 파장 광 집광 영역의 면적은 상기 제2 화소의 면적보다 크고,
상기 제1 파장 광 집광 영역을 통과한 상기 제1 파장 광은 상기 제1 파장 광 집광 영역의 중심에서 가장 크고 중심에서 멀어지는 방향으로 감소하는 위상분포를 가지고,
상기 제2 파장 광 집광 영역을 통과한 상기 제2 파장 광은 상기 제2 파장 광 집광 영역의 중심에서 가장 크고 중심에서 멀어지는 방향으로 감소하는 위상 분포를 가지고,
상기 제1 파장 광의 위상 감소율과 상기 제2 파장 광의 위상 감소율이 상이한,
이미지센서.
a first pixel for sensing light of a first wavelength; and
a second pixel for sensing second wavelength light
A sensor substrate comprising a;
a first wavelength light converging region for condensing light of a first wavelength among the incident lights to the first pixel; and
a second wavelength light converging region for condensing second wavelength light to the second pixel
A color separation lens array comprising;
including,
an area of the first wavelength light converging region is larger than an area of the first pixel;
an area of the second wavelength light converging region is larger than an area of the second pixel;
The first wavelength light passing through the first wavelength light converging region has a largest phase distribution at the center of the first wavelength light converging area and decreasing in a direction away from the center,
The second wavelength light passing through the second wavelength light converging area has a phase distribution that is greatest at the center of the second wavelength light converging area and decreases in a direction away from the center,
The phase reduction rate of the light of the first wavelength is different from the phase reduction rate of the light of the second wavelength;
image sensor.
제17항에 있어서,
상기 제1 화소는 제1 파장 광을 감지하기 위한 2개 내지 16개의 광감지셀을 포함하는,
이미지센서.
18. The method of claim 17,
The first pixel includes 2 to 16 photo-sensing cells for sensing light of a first wavelength,
image sensor.
제18항에 있어서,
상기 제2 화소는 제2 파장 광을 감지하기 위한 2개 내지 16개의 광감지셀을 포함하는,
이미지센서.
19. The method of claim 18,
The second pixel includes 2 to 16 light sensing cells for sensing light of a second wavelength,
image sensor.
제17항에 있어서,
상기 제1 파장이 상기 제2 파장보다 길고, 상기 제1 파장 광의 위상 감소율이 상기 제2 파장 광의 위상 감소율보다 작은,
이미지센서.
18. The method of claim 17,
The first wavelength is longer than the second wavelength, and the phase decrease rate of the light of the first wavelength is smaller than the phase decrease rate of the light of the second wavelength;
image sensor.
제17항에 있어서,
상기 제1 파장이 상기 제2 파장보다 짧고, 상기 제1 파장 광의 위상 감소율이 상기 제2 파장 광의 위상 감소율보다 큰,
이미지센서.
18. The method of claim 17,
the first wavelength is shorter than the second wavelength, and the phase reduction rate of the light of the first wavelength is greater than the phase reduction rate of the light of the second wavelength;
image sensor.
제17항에 있어서,
상기 제1 파장 광 집광 영역과 상기 제2 파장 광 집광 영역은 일부 영역이 중첩되는,
이미지센서.
18. The method of claim 17,
The first wavelength light collecting region and the second wavelength light collecting region partially overlap each other,
image sensor.
제1 파장 광을 감지하기 위한 제1 화소, 및
제2 파장 광을 감지하기 위한 제2 화소
를 포함하는 센서 기판;
입사하는 광 중, 제1 파장 광을 제1 화소에 집광하기 위한 제1 파장 광 집광 영역, 및
제2 파장 광을 제2 화소에 집광하기 위한 제2 파장 광 집광 영역
을 포함하는 색분리 렌즈 어레이;
를 포함하고,
상기 제1 파장 광 집광 영역의 중심을 통과한 제1 파장 광과 상기 제1 파장 광 집광 영역의 중심으로부터 상기 센서 기판의 화소 피치의 1/2 만큼 이격된 위치를 통과한 제1 파장 광의 위상 차이는,
상기 제2 파장 광 집광 영역의 중심을 통과한 제2 파장 광과 상기 제2 파장 광 집광 영역의 중심으로부터 상기 센서 기판의 화소 피치의 1/2 만큼 이격된 위치를 통과한 제2 파장 광의 위상 차이와 상이한,
이미지센서.
a first pixel for sensing light of a first wavelength; and
a second pixel for sensing second wavelength light
A sensor substrate comprising a;
a first wavelength light converging region for condensing light of a first wavelength among the incident lights to the first pixel; and
A second wavelength light converging region for condensing the second wavelength light to the second pixel
A color separation lens array comprising;
including,
A phase difference between the first wavelength light passing through the center of the first wavelength light collecting area and the first wavelength light passing through a position spaced apart by 1/2 the pixel pitch of the sensor substrate from the center of the first wavelength light collecting area Is,
A phase difference between the second wavelength light passing through the center of the second wavelength light collecting area and the second wavelength light passing through a position spaced apart by 1/2 of the pixel pitch of the sensor substrate from the center of the second wavelength light collecting area different from,
image sensor.
제23항에 있어서,
상기 제1 화소는 제1 파장 광을 감지하기 위한 2개 내지 16개의 광감지셀을 포함하는,
이미지센서.
24. The method of claim 23,
The first pixel includes 2 to 16 photo-sensing cells for sensing light of a first wavelength,
image sensor.
제24항에 있어서,
상기 제2 화소는 제2 파장 광을 감지하기 위한 2개 내지 16개의 광감지셀을 포함하는,
이미지센서.
25. The method of claim 24,
The second pixel includes 2 to 16 light sensing cells for sensing light of a second wavelength,
image sensor.
제23항에 있어서,
상기 제1 파장 광 집광 영역의 면적은 상기 제1 화소의 면적보다 크고,
상기 제2 파장 광 집광 영역의 면적은 상기 제2 화소의 면적보다 큰,
이미지센서.
24. The method of claim 23,
an area of the first wavelength light converging region is larger than an area of the first pixel;
an area of the second wavelength light converging region is larger than an area of the second pixel;
image sensor.
제23항에 있어서,
상기 제1 파장이 상기 제2 파장보다 길고,
상기 제1 파장 광 집광 영역의 중심을 통과한 제1 파장 광과 상기 제1 파장 광 집광 영역의 중심으로부터 상기 센서 기판의 화소 피치의 1/2 만큼 이격된 위치를 통과한 제1 파장 광의 위상 차이는,
상기 제2 파장 광 집광 영역의 중심을 통과한 제2 파장 광과 상기 제2 파장 광 집광 영역의 중심으로부터 상기 센서 기판의 화소 피치의 1/2 만큼 이격된 위치를 통과한 제2 파장 광의 위상 차이보다 작은,
이미지센서.
24. The method of claim 23,
the first wavelength is longer than the second wavelength;
A phase difference between the first wavelength light passing through the center of the first wavelength light collecting area and the first wavelength light passing through a position spaced apart by 1/2 the pixel pitch of the sensor substrate from the center of the first wavelength light collecting area Is,
A phase difference between the second wavelength light passing through the center of the second wavelength light collecting area and the second wavelength light passing through a position spaced apart by 1/2 of the pixel pitch of the sensor substrate from the center of the second wavelength light collecting area lesser,
image sensor.
제23항에 있어서,
상기 제1 파장이 상기 제2 파장보다 짧고,
상기 제1 파장 광 집광 영역의 중심을 통과한 제1 파장 광과 상기 제1 파장 광 집광 영역의 중심으로부터 상기 센서 기판의 화소 피치의 1/2 만큼 이격된 위치를 통과한 제1 파장 광의 위상 차이는,
상기 제2 파장 광 집광 영역의 중심을 통과한 제2 파장 광과 상기 제2 파장 광 집광 영역의 중심으로부터 상기 센서 기판의 화소 피치의 1/2 만큼 이격된 위치를 통과한 제2 파장 광의 위상 차이보다 큰,
이미지센서.
24. The method of claim 23,
the first wavelength is shorter than the second wavelength;
A phase difference between the first wavelength light passing through the center of the first wavelength light collecting area and the first wavelength light passing through a position spaced apart by 1/2 the pixel pitch of the sensor substrate from the center of the first wavelength light collecting area Is,
A phase difference between the second wavelength light passing through the center of the second wavelength light collecting area and the second wavelength light passing through a position spaced apart by 1/2 of the pixel pitch of the sensor substrate from the center of the second wavelength light collecting area greater than,
image sensor.
광학상을 전기적 신호로 변환하는 이미지 센서 및
상기 이미지센서의 동작을 제어하고, 상기 이미지센서에서 생성한 신호를 저장 및 출력하는 프로세서를 포함하고,
상기 이미지 센서는,
제1 파장 광을 감지하기 위한 제1 화소, 및
제2 파장 광을 감지하기 위한 제2 화소
를 포함하는 센서 기판;
입사하는 광 중, 제1 파장 광을 제1 화소에 집광하기 위한 제1 파장 광 집광 영역, 및
제2 파장 광을 제2 화소에 집광하기 위한 제2 파장 광 집광 영역
을 포함하는 색분리 렌즈 어레이;
를 포함하고,
상기 제1 파장 광 집광 영역의 면적은 상기 제1 화소의 면적보다 크고,
상기 제2 파장 광 집광 영역의 면적은 상기 제2 화소의 면적보다 크고,
상기 제2 파장 광 집광 영역에 의한 제2 파장 광의 제2 초점거리는, 상기 제1 파장 광 집광 영역에 의한 제1 파장 광의 제1 초점거리의 90% 내지 110%인,
전자 장치.
an image sensor that converts an optical image into an electrical signal; and
A processor for controlling the operation of the image sensor and storing and outputting a signal generated by the image sensor,
The image sensor is
a first pixel for sensing light of a first wavelength; and
a second pixel for sensing second wavelength light
A sensor substrate comprising a;
a first wavelength light converging region for condensing light of a first wavelength among the incident lights to the first pixel; and
A second wavelength light converging region for condensing the second wavelength light to the second pixel
A color separation lens array comprising;
including,
an area of the first wavelength light converging region is larger than an area of the first pixel;
an area of the second wavelength light converging region is larger than an area of the second pixel;
A second focal length of the second wavelength light by the second wavelength light converging region is 90% to 110% of the first focal length of the first wavelength light by the first wavelength light collecting region,
electronic device.
제29항에 있어서,
상기 제1 화소는 제1 파장 광을 감지하기 위한 2개 내지 16개의 광감지셀을 포함하는,
전자 장치.
30. The method of claim 29,
The first pixel includes 2 to 16 photo-sensing cells for sensing light of a first wavelength,
electronic device.
제30항에 있어서,
상기 제2 화소는 제2 파장 광을 감지하기 위한 2개 내지 16개의 광감지셀을 포함하는,
전자 장치.
31. The method of claim 30,
The second pixel includes 2 to 16 light sensing cells for sensing light of a second wavelength,
electronic device.
제29항에 있어서,
상기 제1 파장 광 집광 영역을 통과한 제1 파장 광은 상기 제1 파장 광 집광 영역의 중심에서 멀어지는 방향으로 감소하는 위상 지연 프로파일을 가지고,
상기 제2 파장 광 집광 영역을 통과한 제2 파장 광은 상기 제2 파장 광 집광 영역의 중심에서 멀어지는 방향으로 감소하는 위상 지연 프로파일을 가지는,
전자 장치.
30. The method of claim 29,
The first wavelength light passing through the first wavelength light collecting region has a phase retardation profile that decreases in a direction away from the center of the first wavelength light collecting region,
The second wavelength light passing through the second wavelength light collecting region has a phase retardation profile that decreases in a direction away from the center of the second wavelength light collecting region,
electronic device.
제32항에 있어서,
상기 제1 파장 광 집광 영역과 상기 제2 파장 광 집광 영역은 일부 영역이 중첩되는,
전자 장치.
33. The method of claim 32,
The first wavelength light collecting region and the second wavelength light collecting region partially overlap each other,
electronic device.
제33항에 있어서,
상기 제2 초점거리는 상기 제1 초점거리와 같은,
전자 장치.



34. The method of claim 33,
The second focal length is the same as the first focal length;
electronic device.



KR1020210102020A 2020-10-29 2021-08-03 Image sensor including color separating lens array and electronic apparatus including the image sensor KR20220057410A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021174560A JP2022074053A (en) 2020-10-29 2021-10-26 Image sensor including color separation lens array, and electronic device including the same
CN202111266851.7A CN114430467A (en) 2020-10-29 2021-10-28 Image sensor including color separation lens array and electronic device including the same
EP21205336.7A EP3993047A1 (en) 2020-10-29 2021-10-28 Image sensor including color separating lens array and electronic device including the image sensor
US17/514,692 US20220137423A1 (en) 2020-10-29 2021-10-29 Image sensor including color separating lens array and electronic device including the image sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200142529 2020-10-29
KR1020200142529 2020-10-29

Publications (1)

Publication Number Publication Date
KR20220057410A true KR20220057410A (en) 2022-05-09

Family

ID=81582844

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210102020A KR20220057410A (en) 2020-10-29 2021-08-03 Image sensor including color separating lens array and electronic apparatus including the image sensor

Country Status (1)

Country Link
KR (1) KR20220057410A (en)

Similar Documents

Publication Publication Date Title
US11855113B2 (en) Image sensor including color separating lens array and electronic device including the image sensor
KR20220096967A (en) Image sensor including planar nano-photonic microlens array and electronic apparatus including the image sensor
US20220137424A1 (en) Image sensor including color separating lens array and electronic device including the image sensor
US20230324586A1 (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
US20220137423A1 (en) Image sensor including color separating lens array and electronic device including the image sensor
KR20220058386A (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
KR20220058388A (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
KR20230073007A (en) Image sensor, method of manufacturing the same, and electronic device including the image sensor
KR20220057410A (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
KR102587961B1 (en) Image sensor including color separating lens array and electronic apparatus including the same
JP7425104B2 (en) Image sensor with color separation lens array and electronic device including the same
KR102613052B1 (en) Multispectral image sensor and electronic apparatus including the image sensor
US20230098924A1 (en) Image sensor and electronic apparatus including the image sensor
KR102634938B1 (en) Optical sensor including planar nano-photonic microlens array and electronic apparatus including the same
US20230115006A1 (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
EP3993045B1 (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
KR20220058387A (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
KR20230046187A (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
KR20220058385A (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
US20230238409A1 (en) Image sensor and electronic device including the image sensor
KR20220168131A (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
KR20230051072A (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
KR20230080192A (en) Image sensor and electronic apparatus including same
KR20240032554A (en) Image sensor and electronic apparatus including the image sensor
KR20240043590A (en) Image sensor