KR20230174127A - Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor - Google Patents
Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor Download PDFInfo
- Publication number
- KR20230174127A KR20230174127A KR1020220112541A KR20220112541A KR20230174127A KR 20230174127 A KR20230174127 A KR 20230174127A KR 1020220112541 A KR1020220112541 A KR 1020220112541A KR 20220112541 A KR20220112541 A KR 20220112541A KR 20230174127 A KR20230174127 A KR 20230174127A
- Authority
- KR
- South Korea
- Prior art keywords
- image data
- image sensor
- pixels
- pixel
- saturation ratio
- Prior art date
Links
- 238000011017 operating method Methods 0.000 title claims 2
- 238000012545 processing Methods 0.000 claims abstract description 79
- 238000012937 correction Methods 0.000 claims abstract description 32
- 229920006395 saturated elastomer Polymers 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 16
- 238000009499 grossing Methods 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 abstract description 21
- 230000015654 memory Effects 0.000 description 23
- 230000003287 optical effect Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 6
- 239000000463 material Substances 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/62—Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/843—Demosaicing, e.g. interpolating colour pixel values
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/77—Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
본 기재는 이미지 센서에 관한 것이다. 본 기재의 이미지 센서는 복수의 픽셀들을 포함하고, 그리고 복수의 픽셀들을 이용하여 아날로그 신호를 생성하도록 구성되는 픽셀부, 그리고 아날로그 신호를 수신하고, 그리고 아날로그 신호를 디지털 신호로 변환하는 데이터 변환부, 그리고 디지털 신호에 대해 크로스토크 정정 및 리모자이크(remosaic)를 수행함으로써 이미지 데이터를 생성하고, 그리고 이미지 데이터를 외부의 장치로 출력하도록 구성되는 프로세싱부를 포함하고, 프로세싱부는 외부의 장치로부터 이미지 데이터 정보를 수신하고, 이미지 데이터 정보에 기반하여 포화도 비율을 계산하고, 그리고 포화도 비율에 기반하여 리모자이크의 설정을 조절하도록 구성된다.This description relates to image sensors. The image sensor of the present disclosure includes a plurality of pixels, a pixel unit configured to generate an analog signal using the plurality of pixels, and a data conversion unit that receives the analog signal and converts the analog signal into a digital signal; And a processing unit configured to generate image data by performing crosstalk correction and remosaic on the digital signal, and output the image data to an external device, and the processing unit receives image data information from the external device. It is configured to receive, calculate the saturation ratio based on the image data information, and adjust the remosaic settings based on the saturation ratio.
Description
본 기재는 전자 장치에 관한 것으로, 더 상세하게는 적응적으로 크로스토크를 정정하는 이미지 센서, 이미지 센서의 동작 방법, 그리고 이미지 센서를 포함하는 전자 장치에 관한 것이다.This disclosure relates to electronic devices, and more specifically, to an image sensor that adaptively corrects crosstalk, a method of operating the image sensor, and an electronic device including the image sensor.
이미지 센서는 복수의 픽셀드을 포함하고, 그리고 복수의 픽셀들을 이용하여 이미지 데이터를 생성할 수 있다. 이미지 센서에 의해 생성된 이미지 데이터는 다양한 노이즈들 및 왜곡들을 포함할 수 있다. 이미지 센서는 이미지 데이터로부터 노이즈들 및 왜곡들을 제거하는 교정(calibration)을 수행하고, 그리고 교정된 이미지 데이터를 출력할 수 있다.An image sensor includes a plurality of pixels, and can generate image data using the plurality of pixels. Image data generated by an image sensor may include various noises and distortions. The image sensor may perform calibration to remove noises and distortions from image data, and output calibrated image data.
이미지 데이터의 노이즈들 및 왜곡들은 크로스토크(crosstalk)를 포함할 수 있다. 크로스토크는 이미지 센서의 픽셀들에서 입사광이 불균일하게 감지되거나 픽셀들 사이에서 감지 결과가 누설되는 것에 의해 발생할 수 있다. 크로스토크를 정정하기 위해, 이미지 센서는 다양한 교정을 수행할 수 있다.Noises and distortions in image data may include crosstalk. Crosstalk may occur due to uneven detection of incident light across the pixels of the image sensor or leakage of detection results between pixels. To correct crosstalk, the image sensor can perform various corrections.
본 기재의 목적은 이미지 센서의 픽셀들에 의해 감지되는 픽셀 값들이 포화되는 경우에도 크로스토크를 정정할 수 있는 이미지 센서, 이미지 센서의 동작 방법, 그리고 이미지 센서를 포함하는 전자 장치를 제공하는 데에 있다.The purpose of the present disclosure is to provide an image sensor capable of correcting crosstalk even when pixel values detected by pixels of the image sensor are saturated, a method of operating the image sensor, and an electronic device including the image sensor. there is.
본 기재의 실시 예에 따른 픽셀부는 복수의 픽셀들을 포함하고, 그리고 복수의 픽셀들을 이용하여 아날로그 신호를 생성하도록 구성되는 픽셀부, 아날로그 신호를 수신하고, 그리고 아날로그 신호를 디지털 신호로 변환하는 데이터 변환부, 그리고 디지털 신호에 대해 크로스토크 정정 및 리모자이크(remosaic)를 수행함으로써 이미지 데이터를 생성하고, 그리고 이미지 데이터를 외부의 장치로 출력하도록 구성되는 프로세싱부를 포함하고, 프로세싱부는 외부의 장치로부터 이미지 데이터 정보를 수신하고, 이미지 데이터 정보에 기반하여 포화도 비율을 계산하고, 그리고 포화도 비율에 기반하여 리모자이크의 설정을 조절하도록 구성된다.The pixel unit according to an embodiment of the present disclosure includes a plurality of pixels, and is configured to generate an analog signal using the plurality of pixels, receiving the analog signal, and converting the analog signal into a digital signal. and a processing unit configured to generate image data by performing crosstalk correction and remosaic on the digital signal, and output the image data to an external device, wherein the processing unit receives image data from the external device. It is configured to receive information, calculate a saturation ratio based on the image data information, and adjust the settings of the remosaic based on the saturation ratio.
복수의 픽셀들을 포함하는 이미지 센서의 동작 방법은, 이미지 센서가 외부의 장치로부터 이미지 데이터 정보를 수신하는 단계, 이미지 센서가 이미지 데이터 정보로부터 이미지 센서에 의해 획득된 이미지 데이터의 포화도 비율을 계산하는 단계, 그리고 이미지 센서가 포화도 비율에 기반하여 리모자이크(remosaic) 설정을 조절하는 단계를 포함하고, 이미지 센서는 이미지 센서에 의해 획득된 이미지데 대해 리모자이크 설정에 기반하여 리모자이크를 수행하도록 구성된다.A method of operating an image sensor including a plurality of pixels includes the steps of the image sensor receiving image data information from an external device, and the image sensor calculating a saturation ratio of image data acquired by the image sensor from the image data information. , and a step of the image sensor adjusting remosaic settings based on the saturation ratio, and the image sensor is configured to perform remosaic based on the remosaic settings for the image acquired by the image sensor.
본 기재의 실시 예에 따른 전자 장치는 이미지 데이터를 생성하는 이미지 센서, 그리고 이미지 데이터에 기반하여 이미지 데이터 정보를 생성하고, 그리고 이미지 데이터 정보를 이미지 센서로 전달하는 프로세서를 포함하고, 이미지 센서는 복수의 픽셀들을 포함하고, 이미지 데이터 정보로부터 복수의 픽셀들의 포화도 비율을 계산하고, 그리고 포화도 비율에 기반하여 복수의 픽셀들의 크로스토크를 제1 모드 및 제2 모드 중 하나에 기반하여 정정하도록 구성되고, 제1 모드에서, 이미지 센서는 이득 및 오프셋에 기반하여 크로스토크를 정정하도록 구성되고, 그리고 제2 모드에서, 이미지 센서는 이득 및 오프셋에 기반하여 크로스토크를 정정하고, 그리고 리모자이크(remosaic) 설정을 조절함으로써 크로스토크를 추가적으로 정정하도록 구성된다.An electronic device according to an embodiment of the present disclosure includes an image sensor that generates image data, and a processor that generates image data information based on the image data and transmits the image data information to the image sensor, and the image sensor includes a plurality of image sensors. pixels, and configured to calculate a saturation ratio of the plurality of pixels from the image data information, and correct crosstalk of the plurality of pixels based on the saturation ratio based on one of the first mode and the second mode, In a first mode, the image sensor is configured to correct crosstalk based on gain and offset, and in a second mode, the image sensor is configured to correct crosstalk based on gain and offset and remosaic settings. It is configured to additionally correct crosstalk by adjusting .
본 기재의 실시 예들에 따르면, 픽셀들에 의해 감지되는 픽셀 값들이 포화됨에 따라, 이미지 센서는 리모자이크 설정을 조절할 수 있다. 따라서, 픽셀 값들이 포화되는 경우에도 크로스토크를 정정할 수 있는 이미지 센서, 이미지 센서의 동작 방법, 그리고 이미지 센서를 포함하는 전자 장치가 제공된다.According to embodiments of the present disclosure, as pixel values detected by pixels become saturated, the image sensor may adjust remosaic settings. Accordingly, an image sensor capable of correcting crosstalk even when pixel values are saturated, a method of operating the image sensor, and an electronic device including the image sensor are provided.
도 1은 본 기재의 실시 예에 따른 전자 장치를 보여준다.
도 2는 도 1의 전자 장치의 동작 방법의 예를 보여준다.
도 3은 본 발명의 실시 예에 따른 이미지 센서를 보여준다.
도 4는 이미지 센서의 픽셀들이 배치된 예를 보여준다.
도 5는 픽셀 어레이의 픽셀들의 일부의 단면도의 예를 보여준다.
도 6은 리모자이크가 수행된 픽셀 값들의 예를 보여준다.
도 7은 이미지 센서의 프로세싱 회로의 크로스토크 정정부가 크로스토크를 정정하는 방법의 예를 보여준다.
도 8은 응용 프로세서가 제2 이미지 데이터로부터 이미지 데이터 정보(IDI)를 생성하는 예를 설명하기 위한 도면이다.
도 9는 응용 프로세서가 이미지 데이터 정보를 이미지 센서에 전송하는 과정의 예를 보여준다.
도 10은 이미지 센서의 프로세싱 회로가 포화도 비율에 기반하여 크로스토크를 억제하는 방법의 예를 보여준다.
도 11은 이미지 센서의 프로세싱 회로가 포화도 비율을 계산하는 방법의 예를 보여준다.
도 12는 본 기재의 실시 예에 따른 리모자이크 설정을 조절하는 방법의 예를 보여준다.
도 13은 이미지 센서의 프로세싱 회로가 포화도 비율에 따라 리모자이크 설정을 조절하는 추세의 예를 보여준다.
도 14는 이미지 센서의 프로세싱 회로가 리모자이크 설정에 기반하여 리모자이크를 수행하는 방법의 예를 보여준다.
도 15는 이미지 센서의 프로세싱 회로가 포화도 비율을 계산하는 방법의 다른 예를 보여준다.
도 16은 멀티 이미지 센서를 포함하는 전자 장치의 블록도이다.
도 17은 도 16의 이미지 센서의 상세 블록도이다.1 shows an electronic device according to an embodiment of the present disclosure.
FIG. 2 shows an example of a method of operating the electronic device of FIG. 1.
Figure 3 shows an image sensor according to an embodiment of the present invention.
Figure 4 shows an example of arrangement of pixels of an image sensor.
Figure 5 shows an example of a cross-sectional view of some of the pixels of a pixel array.
Figure 6 shows an example of pixel values on which remosaic was performed.
Figure 7 shows an example of how the crosstalk correction unit of the processing circuit of the image sensor corrects crosstalk.
FIG. 8 is a diagram for explaining an example in which an application processor generates image data information (IDI) from second image data.
Figure 9 shows an example of a process in which an application processor transmits image data information to an image sensor.
Figure 10 shows an example of how an image sensor's processing circuit suppresses crosstalk based on the saturation ratio.
Figure 11 shows an example of how the image sensor's processing circuitry calculates the saturation ratio.
Figure 12 shows an example of a method for adjusting remosaic settings according to an embodiment of the present disclosure.
Figure 13 shows an example of a trend in which the image sensor's processing circuit adjusts the remosaic settings according to the saturation ratio.
Figure 14 shows an example of how the processing circuit of the image sensor performs remosaic based on the remosaic setting.
Figure 15 shows another example of how the image sensor's processing circuitry calculates the saturation ratio.
16 is a block diagram of an electronic device including a multi-image sensor.
FIG. 17 is a detailed block diagram of the image sensor of FIG. 16.
이하에서, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재될 것이다. 아래에서, '그리고/또는'의 용어는 해당 용어와 연관되어 나열된 항목들의 어느 하나, 그리고 연관되어 나열된 항목들 중 일부 또는 전부의 조합을 포함하는 것으로 해석된다.Hereinafter, embodiments of the present invention will be described clearly and in detail so that a person skilled in the art can easily practice the present invention. Below, the term 'and/or' is interpreted to include any one of the items listed in connection with the term, and a combination of some or all of the items listed in connection with the term.
도 1은 본 기재의 실시 예에 따른 전자 장치(10)를 보여준다. 도 1을 참조하면, 전자 장치(10)는 이미지 센서(100) 및 응용 프로세서(200)를 포함할 수 있다. 예시적으로, 전자 장치(10)는 디스플레이 장치, 메모리, 스토리지 장치, 사용자 인터페이스 장치와 같은 다양한 주변 장치들을 더 포함할 수 있다.Figure 1 shows an
이미지 센서(100)는 픽셀부(110), 데이터 변환부(120), 그리고 프로세싱부(130)를 포함할 수 있다. 픽셀부(110)는 복수의 픽셀들을 포함할 수 있다. 픽셀부(110)는 복수의 픽셀들을 이용하여 아날로그 신호(AS)를 생성할 수 있다. 아날로그 신호(AS)는 픽셀부(110)의 픽셀들에 입사되는 광의 세기에 따라 서로 다른 레벨들(예를 들어, 전압 레벨들 또는 전류 레벨들)을 갖는 복수의 신호들을 포함할 수 있다.The
데이터 변환부(120)는 픽셀부(110)에 의해 생성되는 아날로그 신호(AS)를 디지털 신호(DS)로 변환할 수 있다. 데이터 변환부(120)는 변환된 디지털 신호(DS)를 프로세싱부(130)로 출력할 수 있다. 디지털 신호(DS)는 아날로그 신호(AS)의 복수의 신호들의 레벨들로부터 변환된 복수의 디지털 값들을 포함할 수 있다.The
프로세싱부(130)는 데이터 변환부(120)로부터 디지털 신호(DS)를 수신할 수 있다. 프로세싱부(130)는 디지털 신호(DS)로부터 잡음들 그리고/또는 왜곡들을 제거하는 교정(calibration)을 수행하여 이미지 데이터(ID)를 생성할 수 있다. 프로세싱부(130)는 이미지 데이터(ID)를 응용 프로세서(200)로 출력할 수 있다. 예를 들어, 프로세싱부(130)는 MIPI(Mobile Industry Processor Interface) C-PHY 또는 D-PHY에 기반하여 이미지 데이터(ID)를 응용 프로세서(200)로 출력할 수 있다.The
예를 들어, 프로세싱부(130)는 교정을 위해 디지털 신호(DS)를 저장하기 위한 메모리(예를 들어, 정적 랜덤 액세스 메모리)를 포함할 수 있다. 메모리는 픽셀부(110)의 픽셀들의 하나 또는 그보다 많은 행들의 픽셀들에 대응하는 디지털 신호(DS)를 저장할 수 있다. 메모리의 용량은 교정을 수행하기 위해 필요한 픽셀들의 단위에 대응할 수 있다.For example, the
프로세싱부(130)는 응용 프로세서(200)로부터 이미지 데이터 정보(IDI)를 수신할 수 있다. 예를 들어, 프로세싱부(130)는 MIPI C-PHY 또는 D-PHY, 또는 I2C(Inter-Integrated Circuit) 인터페이스를 통해 응용 프로세서(200)로부터 이미지 데이터 정보(IDI)를 수신할 수 있다. 이미지 데이터 정보(IDI)는 이전 프레임의 이미지 데이터(ID)에 대한 정보를 포함할 수 있다. 프로세싱부(130)는 이미지 데이터 정보(IDI)에 기반하여 교정(calibration)을 수행하는 모드 또는 방식을 선택할 수 있다.The
프로세싱부(130)는 리모자이크부(131), 비닝부(132), 크로스토크 정정부(133), 그리고 포화 관리부(134)를 포함할 수 있다. 프로세싱부(130)는 디지털 신호(DS)의 디지털 값들에 대응하는 밝기(또는 조도)에 따라 리모자이크부(131) 및 비닝부(132) 중 하나를 선택적으로 활성화할 수 있다.The
디지털 신호(DS)의 디지털 값들에 대응하는 밝기(또는 조도)가 기준 값 이상일 때, 프로세싱부(130)는 리모자이크부(131)를 활성화할 수 있다. 리모자이크부(131)는 픽셀부(110)의 픽셀 패턴에 대응하는 디지털 신호(DS)으로부터 베이어 패턴에 대응하는 이미지 데이터(예를 들어, 이미지 데이터(ID)로 가공되는 중간 이미지 데이터)를 생성할 수 있다. 디지털 신호(DS)의 디지털 값들에 대응하는 밝기(또는 조도)가 기준 값(예를 들어, 밝기 기준 값)보다 적을 때, 프로세싱부(130)는 비닝부(132)를 활성화할 수 있다. 비닝부(132)는 픽셀부(110)의 픽셀 패턴들에 대응하는 디지털 신호(DS)의 동일 채널(예를 들어, 동일한 색)의 디지털 값들을 합하여 베이어 패턴의 이미지 데이터(예를 들어, 이미지 데이터(ID)로 가공되는 중간 이미지 데이터)를 생성할 수 있다.When the brightness (or illuminance) corresponding to the digital values of the digital signal DS is greater than or equal to the reference value, the
리모자이크부(131)가 활성화된 때에, 크로스토크 정정부(133)는 활성화될 수 있다. 크로스토크 정정부(133)는 디지털 신호(DS) 또는 리모자이크부(131)에 의해 리모자이크된 이미지 데이터의 픽셀 값들에 이득(gain) 및 오프셋(offset)을 적용함으로써 크로스토크 정정을 수행할 수 있다. 예를 들어, 크로스토크 정정부(133)는 이득 및 오프셋을 테이블의 형태로 저장하고, 그리고 테이블을 참조하여 크로스토크 정정을 수행할 수 있다.When the
리모자이크부(131)가 활성화된 때에, 포화 관리부(134)는 활성화될 수 있다. 포화 관리부(134)는 이미지 데이터 정보(IDI)에 기반하여 픽셀부(110)의 픽셀들의 픽셀 값들(예를 들어, 픽셀들에 대응하는 디지털 신호(DS)의 디지털 신호들의 값들이 포화된 정도를 나타내는 포화도 비율을 계산할 수 있다. 포화 관리부(134)는 포화도 비율에 기반하여 리모자이크부(131)가 리모자이크를 수행하는 설정을 조절할 수 있다. 포화도 관리부(134)는 리모자이크 설정을 조절함으로써, 픽셀부(110)의 픽셀들의 픽셀 값들이 포화되는 환경에서 발생하는 크로스토크를 억제할 수 있다.When the
도 1에서, 이미지 센서(100) 및 응용 프로세서(200)는 서로 직접 통신하는 것처럼 도시되었다. 그러나 이는 본 기재의 실시 예를 용이하게 전달하기 위한 것으로, 이미지 센서(100) 및 응용 프로세서(200) 사이에 이미지 데이터(ID)의 전달을 중개하는 또는 도와주는 다른 구성 요소들이 제공될 수 있다.In Figure 1, the
도 2는 도 1의 전자 장치(10)의 동작 방법의 예를 보여준다. 도 1 및 도 2를 참조하면, S11 단계에서, 이미지 센서(100)는 응용 프로세서(200)에 이미지 데이터(예를 들어, 제1 프레임의 이미지 데이터(ID))를 전송할 수 있다. S12 단계에서, 응용 프로세서(200)는 수신된 이미지 데이터로부터 이미지 데이터 정보(IDI)를 생성할 수 있다. 예시적으로, 응용 프로세서(200)는 수신된 이미지 데이터를 디스플레이 장치를 통해 표시하거나 메모리에 저장할 수 있다.FIG. 2 shows an example of a method of operating the
S13 단계에서, 응용 프로세서(200)는 이미지 데이터 정보(IDI)를 응용 프로세서(200)로 전송할 수 있다. S14 단계에서, 이미지 센서(100)의 프로세싱부(130)는 이미지 데이터 정보(IDI)에 기반하여 포화도 비율을 계산할 수 있다. S15 단계에서, 이미지 센서(100)의 프로세싱부(130)는 포화도 비율에 기반하여 크로스토크 정정 모드를 판단할 있다. 예시적으로, 이미지 데이터 정보(IDI)는 픽셀 값들의 평균 값(들) 또는 포화된 픽셀들의 수(들)를 포함할 수 있다.In step S13, the
예를 들어, 포화도 비율(예를 들어, 제1 프레임의 이미지 데이터(ID)의 포화도 비율)이 기준 값(예를 들어, 포화도 기준 값)보다 낮거나 '0'인 경우, 이미지 센서(100)의 프로세싱부(130)는 크로스토크 정정부(133)만을 이용하여 디지털 신호(DS) 의 크로스토크를 정정함으로써 이미지 데이터(ID)(예를 들어, 제1 프레임에 후속하는 제2 프레임의 이미지 데이터(ID))를 생성할 수 있다. 포화도 비율이 기준 값(예를 들어, 포화도 기준 값) 이상인 경우, 이미지 센서(100)의 프로세싱부(130)는 크로스토크 정정부(133)에 기반하여 디지털 신호(DS)의 크로스토크를 정정하되, 리모자이크부(131)의 리모자이크 설정을 조절함으로써 크로스토크를 추가적으로 정정하여 이미지 데이터(ID)를 생성(예를 들어, 제1 프레임에 후속하는 제2 프레임의 이미지 데이터)할 수 있다.For example, when the saturation ratio (e.g., the saturation ratio of the image data (ID) of the first frame) is lower than the reference value (e.g., the saturation reference value) or is '0', the
예시적으로, 크로스토크 정정부(133)는 포화되지 않은 픽셀들의 픽셀 값들에 대해 크로스토크 정정을 수행할 수 있다. 리모자이크부(131)는 디지털 신호(DS)의 픽셀 값들의 전체 또는 일부 영역에 대해 크로스토크 정정(또는 억제)을 수행할 수 있다. 리모자이크부(131)가 픽셀들에 대응하는 디지털 신호 상에서 크로스토크를 정정(또는 억제)할 영역을 선택하는 것은 포화도 또는 포화도 비율과 관계없이 수행될 수 있다.Exemplarily, the
도 3은 본 발명의 실시 예에 따른 장치(300)를 보여준다. 예시적으로, 장치(300)는 도 1의 이미지 센서(100)의 픽셀부(110) 및 데이터 변환부(120)에 대응할 수 있다. 도 1 및 도 3을 참조하면, 장치(300)는 픽셀 어레이(310), 행 드라이버(320), 램프 신호 생성기(330)(RSG), 아날로그-디지털 변환 회로(340), 메모리 회로(350), 인터페이스 회로(360), 그리고 타이밍 생성기(370)(TG)를 포함할 수 있다.Figure 3 shows a
예시적으로, 픽셀 어레이(310)는 픽셀부(110)에 대응할 수 있다. 행 드라이버(320), 램프 신호 생성기(330), 아날로그-디지털 변환 회로(340), 메모리 회로(350), 인터페이스 회로(360), 그리고 타이밍 생성기(370)는 데이터 변환부(120)에 대응할 수 있다.By way of example, the
픽셀 어레이(310)는 행과 열을 따라 매트릭스 형태로 배치된 복수의 픽셀들(PX)을 포함할 수 있다. 복수의 픽셀들(PX)의 각각은 광 검출기들을 포함할 수 있다. 예를 들어, 광 검출기들은 포토 다이오드, 포토 트랜지스터, 포토 게이트, 또는 핀드 포토 다이오드(pinned photodiode) 등을 포함할 수 있다. 복수의 픽셀들(PX)의 각각은 광 검출기를 이용하여 광을 감지하고, 감지된 광의 양을 전기 신호, 예를 들어, 전압 또는 전류로 변환할 수 있다. The
픽셀 어레이(310) 상에 컬러 필터 어레이(CFA)(Color Filter Array) 및 렌즈가 적층될 수 있다. 컬러 필터 어레이는 적색(R), 녹색(G) 및 청색(B)의 필터들을 포함할 수 있다. 복수의 픽셀들(PX)에 둘 이상의 서로 다른 컬러 필터들이 배치될 수 있다. 예를 들어, 복수의 픽셀들(PX)에 적어도 하나의 청색 컬러 필터, 적어도 하나의 적색 컬러 필터, 그리고 적어도 두 개의 녹색 컬러 필터들이 배치될 수 있다. A color filter array (CFA) and a lens may be stacked on the
행 드라이버(320)는 제1 내지 제m 행 라인들(RL1~RLm)(m은 양의 정수)을 통해 픽셀 어레이(310)의 픽셀들(PX)의 행들에 각각 연결될 수 있다. 행 드라이버(320)는 타이밍 생성기(370)에 의해 생성된 어드레스 및/또는 제어 신호를 디코딩하여, 픽셀 어레이(310)의 제1 내지 제m 행 라인들(RL1~RLm)을 순차적으로 선택하고, 그리고 선택된 행 라인을 특정한 전압으로 구동할 수 있다. 예를 들어, 행 드라이버(320)는 선택된 행 라인을 광의 감지를 위해 적합한 전압으로 구동할 수 있다.The
픽셀들(PX)의 행들에 연결되는 제1 내지 제m 행 라인들(RL1~RLm)의 각각은 둘 이상의 라인들을 포함할 수 있다. 둘 이상의 라인들은, 예를 들어 픽셀의 광 검출기들을 선택(또는 활성화)하기 위한 신호, 플로팅 확산 노드를 리셋하기 위한 신호, 열 라인을 선택하기 위한 신호, 변환 이득(CG)(Conversion Gain)을 조절하기 위한 신호 등을 포함하는 다양한 신호들을 각각 전달할 수 있다.Each of the first to mth row lines RL1 to RLm connected to rows of pixels PX may include two or more lines. Two or more lines, for example, a signal to select (or activate) a pixel's photo detectors, a signal to reset a floating diffusion node, a signal to select a column line, and a signal to control the conversion gain (CG). Various signals, including signals for
램프 신호 생성기(330)는 램프 신호(RS)를 생성할 수 있다. 램프 신호 생성기(330)는 타이밍 생성기(370)의 제어 하에 동작할 수 있다. 예를 들어, 램프 신호 생성기(330)는 램프 인에이블 신호, 모드 신호 등과 같은 제어 신호 하에 동작할 수 있다. 램프 인에이블 신호가 활성화되는 것에 응답하여, 램프 신호 생성기(330)는 모드 신호에 기초하여 설정되는 기울기를 가지는 램프 신호를 생성할 수 있다. 예를 들어, 램프 신호 생성기(330)는 시간이 흐름에 따라 초기 레벨로부터 지속적으로 감소 또는 증가하는 램프 신호(RS)를 생성할 수 있다.The
아날로그-디지털 변환 회로(340)는 제1 내지 제n 열 라인들(CL1~CLn)(n은 양의 정수)을 통해 픽셀 어레이(310)의 픽셀들(PX)의 열들에 각각 연결될 수 있다. 아날로그-디지털 변환 회로(340)는 제1 내지 제n 열 라인들(CL1~CLn)에 각각 연결되는 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)을 포함할 수 있다. 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)은 램프 신호 생성기(330)로부터 램프 신호(RS)를 공통으로 수신할 수 있다.The analog-to-
제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)은 제1 내지 제n 열 라인들(CL1~CLn)의 전압들(또는 전류들)을 램프 신호(RS)와 비교할 수 있다. 램프 신호는 일정한 비율로 감소하는(또는 증가하는) 신호이다. 제1 내지 제n 아날로그-디지털 변환기들(AD1~And)은 램프 신호(RS)가 제1 내지 제n 열 라인들(CL1~CLn)의 픽셀 전압들(또는 픽셀 전류들)보다 작아질 때(또는 커질 때)까지의 카운트 값을 래치하고, 그리고 래치된 카운트 값을 디지털 값으로 변환하여 출력할 수 있다. 즉, 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)은 픽셀들(PX)로부터 제1 내지 제n 열 라인들(CL1~CLn)로 출력된 전압들(또는 전류들)의 크기(또는 양)에 대응하는 디지털 값들을 출력할 수 있다.The first to nth analog-to-digital converters AD1 to ADn may compare the voltages (or currents) of the first to nth column lines CL1 to CLn with the ramp signal RS. A ramp signal is a signal that decreases (or increases) at a constant rate. When the ramp signal RS becomes smaller than the pixel voltages (or pixel currents) of the first to nth column lines CL1 to CLn ( Alternatively, the count value can be latched until it becomes large, and the latched count value can be converted to a digital value and output. That is, the first to nth analog-to-digital converters AD1 to ADn are the magnitudes of voltages (or currents) output from the pixels PX to the first to nth column lines CL1 to CLn ( or quantity) can be output.
제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)의 각각은 적어도 두 개의 서브 변환기들을 포함할 수 있다. 서브 변환기들은 대응하는 열 라인에 공통으로 연결되고, 그리고 램프 신호(RS)를 공통으로 수신할 수 있다. 서브 변환기들은 동일한 해상도들 또는 서로 다른 해상도들을 가질 수 있다. 서브 변환기들은 서로 다른 타이밍들에 활성화되어, 대응하는 열 라인의 전압(또는 전류)을 디지털 값들(또는 디지털 신호들)로 변환할 수 있다.Each of the first to nth analog-to-digital converters (AD1 to ADn) may include at least two sub-converters. The sub-converters are commonly connected to the corresponding column line, and can commonly receive the ramp signal (RS). The sub-converters may have the same resolutions or different resolutions. The sub-converters may be activated at different timings to convert the voltage (or current) of the corresponding column line into digital values (or digital signals).
메모리 회로(350)는 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)에 각각 대응하는 제1 내지 제n 메모리들(M1~Mn)을 포함할 수 있다. 제1 내지 제n 메모리들(M1~Mn)은 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)로부터 수신된 디지털 값들(또는 디지털 신호들)을 저장하고, 그리고 저장된 값들(또는 신호들)을 도 1의 프로세싱부(130)로 전달할 수 있다. The
타이밍 생성기(370)(TG)는 장치(300)가 동작하는 타이밍들을 제어할 수 있다. 타이밍 생성기(370)는 행 드라이버(320)가 제1 내지 제m 행 라인들(RL1~RLm)을 순차적으로 선택하는 타이밍들을 제어하고, 그리고 제1 내지 제m 행 라인들(RL1~RLm) 중 선택된 행 라인에 포함된 둘 이상의 라인들을 통해 신호들이 전달되는 타이밍들을 제어할 수 있다.The timing generator 370 (TG) may control the timings at which the
타이밍 생성기(370)는 램프 신호 생성기(330)가 램프 신호(RS)를 생성하고, 그리고 램프 신호를 초기화하는 타이밍들을 제어할 수 있다. 타이밍 생성기(370)는 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)이 카운트 및 비교를 시작하는 타이밍들 및 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)을 초기화하는 타이밍들을 제어할 수 있다.The
도 4는 픽셀부(110)의 픽셀들이 배치된 예를 보여준다. 도 1, 도 3 및 도 4를 참조하면, 픽셀부(110)는 좌상단의 제1 픽셀(PX1), 우상단의 제2 픽셀(PX2), 좌하단의 제3 픽셀(PX3), 그리고 우하단의 제4 픽셀(PX4)이 2차원 평면의 형태로 반복적으로 배치되는 패턴을 가질 수 있다.Figure 4 shows an example of arrangement of pixels of the
제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 각각은 복수의 서브 픽셀들을 포함할 수 있다. 예시적으로, 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 각각은 9개의 서브 픽셀들을 포함하는 것으로 도시되지만, 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 각각에 포함되는 서브 픽셀들의 수는 한정되지 않는다.Each of the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel (PX4) may include a plurality of subpixels. Exemplarily, each of the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel (PX4) is shown as including 9 sub-pixels, but the first pixel (PX1) ), the number of subpixels included in each of the second pixel (PX2), third pixel (PX3), and fourth pixel (PX4) is not limited.
예시적으로, 제1 픽셀(PX1)의 서브 픽셀들은 적색(R)의 컬러 필터를 공유할 수 있다. 제2 픽셀(PX2)의 서브 픽셀들은 녹색(G)(예를 들어, Gr)의 컬러 필터를 공유할 수 있다. 제3 픽셀(PX3)의 서브 픽셀들은 녹색(G)(예를 들어, Gb)의 컬러 필터를 공유할 수 있다. 제4 픽셀(PX4)의 서브 픽셀들은 청색(B)의 컬러 필터를 공유할 수 있다.As an example, subpixels of the first pixel PX1 may share a red (R) color filter. Subpixels of the second pixel PX2 may share a green (G) (eg, Gr) color filter. Subpixels of the third pixel PX3 may share a green (G) (eg, Gb) color filter. Subpixels of the fourth pixel PX4 may share a blue (B) color filter.
도 5는 픽셀 어레이(400)의 픽셀들의 일부의 단면도의 예를 보여준다. 예시적으로, 픽셀 어레이(400)는 장치(300)의 픽셀 어레이(310)에 대응할 수 있다. 도 3, 도 4 및 도 5를 참조하면, 픽셀 어레이(400)는 Figure 5 shows an example of a cross-sectional view of some of the pixels of
픽셀 어레이(400)는 서브 픽셀들에 각각 대응하고 입사광을 대응하는 픽셀들에 집중하도록 구성되는 마이크로 렌즈들(410), 마이크로 렌즈(410)의 하부에 위치하는 컬러 필터 영역(420), 컬러 필터 영역(420)의 하부 위치하며 입사광의 반사를 방지하는 반사 방지막(425), 입사광에 기반하여 전하를 생성하는 광전 변환 영역들(430), 그리고 광전 변환 영역들(430)의 하부에 위치하며 광전 변환 영역들(430)에 의해 생성된 전하를 감지하는 감지 회로들(440)을 포함할 수 있다. 광전 변환 영역들(430)은 서로 전기적으로 절연될 수 있다.The
컬러 필터 영역(420)에서, 제1 픽셀(PX1)의 서브 픽셀들의 상단에 제1 컬러 필터(CF1)가 제공될 수 있다. 제1 컬러 필터(CF1)는 적색에 해당하는 주파수의 광을 통과시킬 수 있다. 컬러 필터 영역(420)에서, 제2 픽셀(PX2)의 서브 픽셀들의 상단에 제2 컬러 필터(CF2)가 제공될 수 있다. 제2 컬러 필터(CF2)는 녹색에 해당하는 주파수의 광을 통과시킬 수 있다. 컬러 필터 영역(420) 내의 컬러 필터들, 예를 들어 제1 컬러 필터(CF1) 및 제2 컬러 필터들(CF2)의 사이에, 메탈 성분을 포함하며 입사광의 크로스토크를 방지하기 위한 그리드들(GD)이 제공될 수 있다.In the
도 4에 도시되지 않지만, 제1 픽셀(PX1) 및 제2 픽셀(PX2)과 마찬가지로, 제3 픽셀(PX3)의 서브 픽셀들의 상단에 녹색에 해당하는 주파수의 광을 통과시키는 컬러 필터가 제공되고, 그리고 제4 픽셀(PX4)의 서브 픽셀들의 상단에 청색에 해당하는 주파수의 광을 통과시키는 컬러 필터가 제공될 수 있다.Although not shown in FIG. 4, like the first pixel PX1 and the second pixel PX2, a color filter is provided at the top of the subpixels of the third pixel PX3 to pass light with a frequency corresponding to green. , and a color filter that passes light with a frequency corresponding to blue may be provided on top of the subpixels of the fourth pixel PX4.
제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 광전 변환 영역들(430)의 사이에, 그리고 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 각각의 서브 픽셀들의 광전 변환 영역들(430)의 사이에, 광이 인접한 다른 서브 픽셀들 또는 픽셀들로 누설되는 것을 차단하는 반사 물질들이 제공될 수 있다.Between the
감지 회로(440)는 제1 내지 제n 열 라인들(CL1~CLn) 중 대응하는 열 라인, 그리고 제1 내지 제m 행 라인들(RL1~RLm) 중 대응하는 행 라인에 연결되는 트랜지스터들을 포함할 수 있다.The
도 4에 도시된 바와 같이, 컬러 필터(CF1 또는 CF2)의 두께는 균일하지 않을 수 있다. 제1 픽셀(PX1)의 중앙부의 서브 픽셀에 대응하는 제1 컬러 필터(CF1)의 두께는 제1 픽셀(PX1)의 가장자리의 서브 픽셀들에 대응하는 제1 컬러 필터(CF1)의 두께들보다 두꺼울 수 있다. 따라서, 동일한 방향(예를 들어, 수직 방향)에서 동일한 밝기(예를 들어, 조도)의 광이 입사되어도, 제1 픽셀(PX1)의 중앙부의 서브 픽셀이 감지하는 픽셀 값은 제1 픽셀(PX1)의 가장자리의 서브 픽셀들이 감지하는 픽셀 값보다 낮을 수 있다. 또한, 제1 픽셀(PX1)의 중앙부의 서브 픽셀은 동일한 색의 컬러 필터를 갖는 이웃한 서브 픽셀들을 갖는다. 그러나 제1 픽셀(PX1)의 가장자리의 서브 픽셀은 동일한 색의 컬러 필터를 갖는 이웃한 서브 픽셀들 및 다른 색의 컬러 필터를 갖는 이웃한 서브 픽셀들을 가질 수 있다. 즉, 서브 픽셀들의 환경에 따라, 크로스토크의 영향이 달라질 수 있다.As shown in FIG. 4, the thickness of the color filter CF1 or CF2 may not be uniform. The thickness of the first color filter CF1 corresponding to the subpixels at the center of the first pixel PX1 is greater than the thicknesses of the first color filter CF1 corresponding to the subpixels at the edges of the first pixel PX1. It can be thick. Therefore, even if light of the same brightness (e.g., illuminance) is incident in the same direction (e.g., vertical direction), the pixel value detected by the central subpixel of the first pixel (PX1) is the same as that of the first pixel (PX1). ) may be lower than the detected pixel value of the subpixels at the edge. Additionally, the central subpixel of the first pixel PX1 has neighboring subpixels having color filters of the same color. However, a subpixel at the edge of the first pixel PX1 may have neighboring subpixels having a color filter of the same color and neighboring subpixels having a color filter of a different color. That is, the effect of crosstalk may vary depending on the environment of the subpixels.
밝기(예를 들어, 조도)가 기준 값(예를 들어, 조도 기준 값)보다 낮을 때에, 프로세싱부(130)(도 1 참조)의 비닝부(132)는 비닝을 수행할 수 있다. 예를 들어, 비닝부(132)는 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 각각의 서브 픽셀들의 픽셀 값들을 합할(또는 평균을 계산할) 수 있다. 즉, 프로세싱부(130)는 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 픽셀들의 픽셀 값들을 포함하는 이미지 데이터(ID)를 생성할 수 있다. 비닝이 수행된 이미지 데이터(ID)는 베이어(Bayer) 패턴에 기반하므로, 별도의 변환 동작이 필요하지 않는다.When the brightness (eg, illuminance) is lower than the reference value (eg, illuminance reference value), the
밝기(예를 들어, 조도)가 기준 값(예를 들어, 조도 기준 값) 이상일 때에, 프로세싱부(130)(도 1 참조)의 리모자이크부(131)는 리모자이크를 수행할 수 있다. 예를 들어, 리모자이크부(131)는 서브 픽셀 단위의 픽셀 값들을 유지하며, 아날로그 신호(AS)를 베이어 패턴으로 변환할 수 있다.When the brightness (eg, illuminance) is greater than or equal to a reference value (eg, illuminance reference value), the
도 6은 리모자이크가 수행된 픽셀 값들의 예를 보여준다. 도 3, 도 4, 도 5 및 도 6을 참조하면, 서브 픽셀들에 각각 대응하는 픽셀 값들은 베이어 패턴에 기반하도록 변환될 수 있다. 예를 들어, 제1 픽셀(PX1)의 제1행 및 제1열의 서브 픽셀에 대응하는 픽셀 값은 적색의 픽셀 값에 대응하도록 유지될 수 있다. 제1 픽셀(PX1)의 제1행 및 제2열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제1 픽셀(PX1)의 제1행 및 제3열의 서브 픽셀에 대응하는 픽셀 값은 적색의 픽셀 값에 대응하도록 유지될 수 있다.Figure 6 shows an example of pixel values on which remosaic was performed. Referring to FIGS. 3, 4, 5, and 6, pixel values corresponding to subpixels may be converted to be based on a Bayer pattern. For example, the pixel value corresponding to the subpixel in the first row and first column of the first pixel PX1 may be maintained to correspond to a red pixel value. The pixel value corresponding to the subpixel in the first row and second column of the first pixel PX1 may be converted (eg, based on interpolation) to correspond to a green pixel value. The pixel value corresponding to the subpixel in the first row and third column of the first pixel PX1 may be maintained to correspond to a red pixel value.
제1 픽셀(PX1)의 제2행 및 제1열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제1 픽셀(PX1)의 제2행 및 제2열의 서브 픽셀에 대응하는 픽셀 값은 청색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제1 픽셀(PX1)의 제2행 및 제3열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다.The pixel value corresponding to the subpixel in the second row and first column of the first pixel PX1 may be converted (eg, based on interpolation) to correspond to a green pixel value. The pixel value corresponding to the subpixel in the second row and second column of the first pixel PX1 may be converted (eg, based on interpolation) to correspond to a blue pixel value. Pixel values corresponding to subpixels in the second row and third column of the first pixel PX1 may be converted (eg, based on interpolation) to correspond to green pixel values.
제1 픽셀(PX1)의 제3행 및 제1열의 서브 픽셀에 대응하는 픽셀 값은 적색의 픽셀 값에 대응하도록 유지될 수 있다. 제1 픽셀(PX1)의 제3행 및 제2열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제1 픽셀(PX1)의 제3행 및 제3열의 서브 픽셀에 대응하는 픽셀 값은 적색의 픽셀 값에 대응하도록 유지될 수 있다.The pixel value corresponding to the subpixel in the third row and first column of the first pixel PX1 may be maintained to correspond to a red pixel value. The pixel value corresponding to the subpixel in the third row and second column of the first pixel PX1 may be converted (eg, based on interpolation) to correspond to a green pixel value. The pixel value corresponding to the subpixel in the third row and third column of the first pixel PX1 may be maintained to correspond to a red pixel value.
제2 픽셀(PX2)의 제1행 및 제1열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 유지될 수 있다. 제2 픽셀(PX2)의 제1행 및 제2열의 서브 픽셀에 대응하는 픽셀 값은 적색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제2 픽셀(PX2)의 제1행 및 제3열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 유지될 수 있다.The pixel value corresponding to the subpixel in the first row and first column of the second pixel PX2 may be maintained to correspond to a green pixel value. Pixel values corresponding to subpixels in the first row and second column of the second pixel PX2 may be converted (eg, based on interpolation) to correspond to red pixel values. The pixel value corresponding to the subpixel in the first row and third column of the second pixel PX2 may be maintained to correspond to a green pixel value.
제2 픽셀(PX2)의 제2행 및 제1열의 서브 픽셀에 대응하는 픽셀 값은 청색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제2 픽셀(PX2)의 제2행 및 제2열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 유지될 수 있다. 제2 픽셀(PX2)의 제2행 및 제3열의 서브 픽셀에 대응하는 픽셀 값은 청색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다.The pixel value corresponding to the subpixel in the second row and first column of the second pixel PX2 may be converted (eg, based on interpolation) to correspond to a blue pixel value. The pixel value corresponding to the subpixel in the second row and second column of the second pixel PX2 may be maintained to correspond to a green pixel value. The pixel value corresponding to the subpixel in the second row and third column of the second pixel PX2 may be converted (eg, based on interpolation) to correspond to a blue pixel value.
제2 픽셀(PX2)의 제3행 및 제1열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 유지될 수 있다. 제2 픽셀(PX2)의 제3행 및 제2열의 서브 픽셀에 대응하는 픽셀 값은 적색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제2 픽셀(PX2)의 제3행 및 제3열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 유지될 수 있다.The pixel value corresponding to the subpixel in the third row and first column of the second pixel PX2 may be maintained to correspond to a green pixel value. The pixel value corresponding to the subpixel in the third row and second column of the second pixel PX2 may be converted (eg, based on interpolation) to correspond to a red pixel value. The pixel value corresponding to the subpixel in the third row and third column of the second pixel PX2 may be maintained to correspond to the green pixel value.
마찬가지로, 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 서브 픽셀들의 픽셀 값들 또한 베이어 패턴에 기반하도록 변환될 수 있다. 예시적으로, 도 5 및 도 6에서, 우상단으로부터 좌하단으로 향하는 선들로 채워진 서브 픽셀에 대응하는 픽셀 값은 적색에 대응하는 픽셀 값일 수 있다. 좌상단으로부터 우하단으로 향하는 선들로 채워진 서브 픽셀에 대응하는 픽셀 값은 청색에 대응하는 픽셀 값일 수 있다. 점으로 채워진 서브 픽셀에 대응하는 픽셀 값은 녹색에 대응하는 픽셀 값일 수 있다.Likewise, pixel values of subpixels of the third pixel PX3 and the fourth pixel PX4 may also be converted to be based on the Bayer pattern. For example, in FIGS. 5 and 6 , a pixel value corresponding to a subpixel filled with lines going from the upper right to the lower left may be a pixel value corresponding to red. The pixel value corresponding to the subpixel filled with lines going from the upper left to the lower right may be a pixel value corresponding to blue. The pixel value corresponding to the subpixel filled with dots may be a pixel value corresponding to green.
도 5를 참조하여 설명된 바와 같이, 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 서브 픽셀들 중 중앙부의 서브 픽셀에 의해 감지되는 픽셀 값은 가장자리의 서브 픽셀들에 의해 감지되는 픽셀 값들보다 낮을 수 있다. 따라서, 도 6의 서브 픽셀들에 대응하는 픽셀 값들에서, 중앙부의 서브 픽셀들에 대응하는 픽셀 값이 가장자리의 서브 픽셀들에 대응하는 픽셀 값들보다 낮아지는 크로스토크가 발생할 수 있다.As explained with reference to FIG. 5, the subpixel detected by the central subpixel among the subpixels of the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel (PX4) The pixel value may be lower than the pixel values sensed by the edge sub-pixels. Therefore, in the pixel values corresponding to the subpixels of FIG. 6, crosstalk may occur in which the pixel values corresponding to the central subpixels are lower than the pixel values corresponding to the edge subpixels.
도 7은 이미지 센서(100)의 프로세싱부(130)의 크로스토크 정정부(133)가 크로스토크를 정정하는 방법의 예를 보여준다. 도 1, 도 6 및 도 7을 참조하면, S21 단계에서, 크로스토크 정정부(133)는 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 서브 픽셀들의 픽셀 값들의 각각에 이득을 적용할 수 있다. 이득에 기반하여, 크로스토크 정정부(133)는 서브 픽셀들에 각각 대응하는 픽셀 값들을 비율로 조절할 수 있다.FIG. 7 shows an example of how the
S22 단계에서, 크로스토크 정정부(133)는 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 서브 픽셀들의 픽셀 값들에 오프셋을 적용할 수 있다. 오프셋에 기반하여, 크로스토크 정정부(133)는 서브 픽셀들에 각각 대응하는 픽셀 값들을 오프셋 값만큼 조절(예를 들어, 더하거나 빼기)할 수 있다.In step S22, the
제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 서브 픽셀들이 감지할 수 있는 최대 밝기(또는 최대 조도)의 광이 입사되면, 서브 픽셀들은 포화되어 최대 값의 픽셀 값들을 출력할 수 있다. 서브 픽셀들이 최대 값의 픽셀 값들을 출력할 때에, 크로스토크 정정부(133)가 크로스토크 정정을 수행하면, 이득 및 오프셋에 의해 이미지 데이터(ID)에서 아티팩트(artifact)가 발생할 수 있다. 따라서, 크로스토크 정정부(133)는 포화된 픽셀 값들에 대해 크로스토크 정정을 생략하도록(또는 수행하지 않도록) 구성될 수 있다.When light of the maximum brightness (or maximum illuminance) that can be detected by the subpixels of the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel (PX4) is incident, the subpixels can be saturated and output the maximum pixel values. When the subpixels output the maximum pixel values, if the
또한, 도 5를 참조하여 설명된 바와 같이 컬러 필터(CF1 또는 CF2)의 두께가 균일하지 않으므로, 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 각각의 가장자리의 서브 픽셀들이 포화되고, 그리고 중앙부의 서브 픽셀이 포화되지 않을 수 있다. 이 경우, 이미지 데이터(ID) 상에서 크로스토크로 인한 아티팩트가 발생할 수 있다.In addition, as explained with reference to FIG. 5, since the thickness of the color filter (CF1 or CF2) is not uniform, the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel ( The subpixels at each edge of the PX4) may be saturated, and the subpixels in the center may not be saturated. In this case, artifacts due to crosstalk may occur on the image data (ID).
이러한 문제를 방지하기 위하여, 서브 픽셀들의 픽셀 값들에 대해 크로스토크 정정을 수행하되, 일부 서브 픽셀들이 포화되는 상황에서 크로스토크를 정정하기 위한 크로스토크 정정 알고리즘이 요구된다. 본 기재의 실시 예에 따른 이미지 센서(100)의 프로세싱부(130)는 이미지 데이터 정보(IDI)로부터 포화도 비율을 계산하고, 그리고 포화도 비율에 기반하여 리모자이크 설정을 조절함으로써, 일부 서브 픽셀들이 포화되는 상황에서 크로스토크로 인한 아티팩트를 제거(또는 억제)할 수 있다.To prevent this problem, crosstalk correction is performed on the pixel values of subpixels, and a crosstalk correction algorithm is required to correct crosstalk in a situation where some subpixels are saturated. The
도 8은 응용 프로세서(200)가 이미지 데이터(ID)로부터 이미지 데이터 정보(IDI)를 생성하는 예를 설명하기 위한 도면이다. 도 1 및 도 8을 참조하면, 응용 프로세서(200)는 이미지 데이터(ID)를 패치들(PT)(patches)로 분할할 수 있다. 패치들(PT)의 각각은 둘 이상의 픽셀들(또는 서브 픽셀들)의 그룹에 대응하는 픽셀 값들을 포함할 수 있다. 패치들(PT)은 이미지 데이터(ID)를 격자 형태로 분할할 수 있다. 응용 프로세서(200)는 패치들(PT)에 기반하여 이미지 데이터 정보(IDI)를 생성할 수 있다. FIG. 8 is a diagram for explaining an example in which the
예를 들어, 도 6의 픽셀 값들에서, 적색의 서브 픽셀들에 대응하는 픽셀 값들은 적색에 대응하는 채널의 패치들(PT)로 분할될 수 있다. 청색의 서브 픽셀들에 대응하는 픽셀 값들은 청색에 대응하는 채널의 패치들(PT)로 분할될 수 있다. 녹색의 서브 픽셀들에 대응하는 픽셀 값들은 녹색에 대응하는 채널의 패치들(PT)로 분할될 수 있다. 또는, 제1 타입의 녹색(예를 들어, Gr)의 서브 픽셀들에 대응하는 픽셀 값들은 제1 타입의 녹색에 대응하는 채널의 패치들(PT)로 분할되고, 그리고 제2 타입의 녹색(예를 들어, Gb)의 서브 픽셀들에 대응하는 픽셀 값들은 제2 타입의 녹색에 대응하는 채널의 패치들(PT)로 분할될 수 있다.도 9는 응용 프로세서(200)가 이미지 데이터 정보(IDI)를 이미지 센서(100)에 전송하는 과정의 예를 보여준다. 도 1 및 도 9를 참조하면, S31 단계에서, 응용 프로세서(200)는 이미지 센서(100)로부터 이미지 데이터(ID)를 수신할 수 있다. S22 단계에서, 응용 프로세서(200)는 각 패치(PT)에 대해 이미지 데이터 정보(IDI)를 생성할 수 있다. S33 단계에서, 응용 프로세서(200)는 생성된 이미지 데이터 정보(IDI)를 이미지 센서(100)로 출력할 수 있다.For example, in the pixel values of FIG. 6, pixel values corresponding to red subpixels may be divided into patches (PT) of channels corresponding to red. Pixel values corresponding to blue subpixels may be divided into patches (PT) of channels corresponding to blue. Pixel values corresponding to green subpixels may be divided into patches (PT) of channels corresponding to green. Alternatively, pixel values corresponding to subpixels of a first type of green (e.g., Gr) are divided into patches (PT) of the channel corresponding to the first type of green, and For example, the pixel values corresponding to the subpixels of Gb) may be divided into patches (PT) of the channel corresponding to the second type of green. FIG. 9 shows that the
예를 들어, 이미지 데이터 정보(IDI)는 패치들(PT)의 각각의 픽셀 값들의 정보, 예를 들어 평균 픽셀 값을 포함할 수 있다. 이미지 데이터 정보(IDI)는 패치들(PT)의 각각의 복수의 채널들(예를 들어, 적색(R) 채널, 녹색(G) 채널(또는 Gr 채널 및 Gb 채널), 그리고 청색(B) 채널)의 평균 픽셀 값들을 포함할 수 있다.For example, the image data information IDI may include information on each pixel value of the patches PT, for example, an average pixel value. Image data information (IDI) includes a plurality of channels (e.g., red (R) channel, green (G) channel (or Gr channel and Gb channel), and blue (B) channel of each of the patches (PT). ) may include average pixel values.
다른 예로서, 이미지 데이터 정보(IDI)는 패치들(PT)의 각각에서 포화된 픽셀 값들의 수를 포함할 수 있다. 이미지 데이터 정보(IDI)는 패치들(PT)의 각각의 복수의 채널들(예를 들어, 적색(R) 채널, 녹색(G) 채널(또는 Gr 채널 및 Gb 채널), 그리고 청색(B) 채널)의 각각에서 포화된 픽셀 값들의 수를 포함할 수 있다.As another example, the image data information (IDI) may include the number of saturated pixel values in each of the patches (PT). Image data information (IDI) includes a plurality of channels (e.g., red (R) channel, green (G) channel (or Gr channel and Gb channel), and blue (B) channel of each of the patches (PT). ) may include the number of saturated pixel values in each.
도 10은 이미지 센서(100)의 프로세싱부(130)가 포화도 비율에 기반하여 크로스토크를 억제하는 방법의 예를 보여준다. 도 1 및 도 10을 참조하면, S110 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 이미지 데이터 정보(IDI)를 수신할 수 있다.Figure 10 shows an example of how the
S130 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 이미지 데이터 정보(IDI)에 기반하여 이전 프레임으로 전송된 이미지 데이터(ID)의 포화도 비율을 계산할 수 있다.In step S130, the
S140 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 계산된 포화도 비율에 기반하여 리모자이크부(131)의 리모자이크 설정을 조절할 수 있다. 예를 들어, 포화도 관리부(134)는 현재 프레임의 이미지 데이터(ID)에서 더 많은 잡음들을 제거함으로써 크로스토크가 함께 제거되도록 리모자이크 설정을 조절할 수 있다.In step S140, the
도 11은 이미지 센서(100)의 프로세싱부(130)가 포화도 비율을 계산하는 방법의 예를 보여준다. 도 1, 도 8 및 도 11을 참조하면, S210 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 이미지 데이터 정보(IDI)로부터 N-채널 평균 픽셀 값들을 검출할 수 있다. N개(N은 양의 정수)의 채널들의 평균 픽셀 값들은 세 개의 채널들(예를 들어, R, G, B), 네 개의 채널들(예를 들어, R, Gr, Gb, B), 또는 임의의 수의 채널들에 대응할 수 있다. 각 채널의 평균 픽셀 값들은 패치들(PT)에 각각 대응할 수 있다. 예를 들어, 프로세싱부(130)는 이미지 데이터 정보(IDI)로부터 R 채널의 패치들의 평균 픽셀 값들, G 채널의 패치들의 평균 픽셀 값들, 그리고 B 채널의 패치들의 평균 픽셀 값들을 검출할 수 있다. 또는, 프로세싱부(130)는 이미지 데이터 정보(IDI)로부터 R 채널의 패치들의 평균 픽셀 값들, Gr 채널의 패치들의 평균 픽셀 값들, Gb 채널의 패치들의 평균 픽셀 값들, 그리고 B 채널의 패치들의 평균 픽셀 값들을 검출할 수 있다.FIG. 11 shows an example of how the
S220 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 각 채널에 대해 문턱 값(TH)을 이용하여 포화된 패치들을 판단할 수 있다. 예를 들어, 문턱 값(TH)은 최대 픽셀 값에 대한 일정 비율(예를 들어, 90%, 95% 등)로 정해질 수 있으며, 응용 프로세서(200)에 의해 설정 및 조절될 수 있다. 평균 픽셀 값이 문턱 값(TH) 이상인 패치들(PT)은 포화된 패치들로 판단될 수 있다. 평균 픽셀 값이 문턱 값(TH)보다 작은 패치들(PT)은 포화되지 않은 패치들로 판단될 수 있다. N개의 채널들에 대해, 문턱 값(TH)은 동일한 값으로 또는 서로 다른 값들로 설정될 수 있다.In step S220, the
S230 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 각 채널에 대해 포화된 패치들의 수를 카운트할 수 있다. N개의 채널들의 포화된 패치들의 수 및 위치들은 서로 같거나 다를 수 있다.In step S230, the
S240 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 N개의 채널들 중에서 포화된 패치들의 최대 수에 기반하여 포화도 비율을 계산할 수 있다. 예를 들어, 포화도 관리부(134)는 N개의 채널들에 대해 각각 포화도 비율들을 계산하고, 그리고 N개의 채널들의 포화도 비율들 중 최댓값을 최종적인 포화도 비율로 결정할 수 있다.In step S240, the
예시적으로, N개의 채널들은 서로 다른 주파수들에 대응할 수 있다. 픽셀부(110)가 촬영하는 대상의 색들은 다양할 수 있으며, N개의 채널들 중 어느 하나의 채널만이 포화될 수 있다. 예를 들어, 화창한 낮의 푸른 하늘은 청색의 컬러 필터에 대응하는 픽셀들의 포화를 유발할 수 있고, 그리고 노을진 하늘은 적색의 컬러 필터에 대응하는 픽셀들의 포화를 유발할 수 있다. 화창한 낮의 숲은 녹색의 컬러 필터에 대응하는 픽셀들의 포화를 유발할 수 있다. 어느 하나의 채널의 픽셀들이 포화되면, 이미지 데이터(ID)에서 크로스토크에 의한 아티팩트가 발생할 수 있다. 본 기재의 실시 예에 따른 이미지 센서(100)는 N개의 채널들의 포화도 비율들 중 가장 높은 포화도 비율을 이용함으로써, 크로스토크에 의한 아티팩트를 효율적으로 방지(또는 억제)할 수 있다.By way of example, N channels may correspond to different frequencies. The colors of the object captured by the
도 12는 본 기재의 실시 예에 따른 리모자이크 설정을 조절하는 방법의 예를 보여준다. 도 1 및 도 12를 참조하면, S310 단계에서, 이미지 센서(100)의 프로세싱부(130)의 포화도 관리부(134)는 리모자이크부(131)의 리모자이크 설정 중에서 편평도 문턱을 조절할 수 있다. 편평도 문턱은 리모자이크부(131)가 디지털 신호(DS)가 편평한지를 판단하는 기준일 수 있다.Figure 12 shows an example of a method for adjusting remosaic settings according to an embodiment of the present disclosure. Referring to FIGS. 1 and 12 , in step S310, the
S320 단계에서, 이미지 센서(100)의 프로세싱 회로(1300의 포화도 관리부(134)는 리모자이크부(131)의 리모자이크 설정 중에서 로컬 편평도 문턱을 조절할 수 있다. 로컬 편평도 문턱은 리모자이크부(131)가 디지털 신호(DS) 상에서 국부적으로 편평한 영역을 판단하는 기준일 수 있다.In step S320, the
S330 단계에서, 이미지 센서(100)의 프로세싱 회로(1300의 포화도 관리부(134)는 리모자이크부(131)의 리모자이크 설정 중에서 스무딩 파워(smoothing power)를 조절할 수 있다. 스무딩 파워는 리모자이크부(131)가 노이즈의 제거를 위하여 디지털 신호(DS)에 대해 블러링(또는 저대역 통과 필터링)을 수행하는 강도에 대응할 수 있다.In step S330, the
도 13은 이미지 센서(100)의 프로세싱부(130)가 포화도 비율에 따라 리모자이크 설정을 조절하는 추세의 예를 보여준다. 도 13에서, 가로 축은 포화도 비율에 대응하고, 그리고 세로 축은 편평도 문턱, 로컬 편평도 문턱, 또는 스무딩 파워에 대응할 수 있다.FIG. 13 shows an example of a trend in which the
도 12에 도시된 바와 같이, 포화도 비율이 증가할수록, 프로세싱부(130)의 포화도 관리부(134)는 리모자이크부(131)의 편평도 문턱, 로컬 편평도 문턱, 또는 스무딩 파워를 증가시킬 수 있다. 예시적으로, 포화도 관리부(134)는 편평도 문턱, 로컬 편평도 문턱, 또는 스무딩 파워를 1차원적으로, 2차원 적으로, n차원적으로, 또는 지수적으로 증가시킬 수 있다. 예시적으로, 포화도 관리부(134)는 편평도 문턱, 로컬 편평도 문턱, 또는 스무딩 파워를 동일한 비율로 또는 서로 다른 비율로 증가시킬 수 있다.As shown in FIG. 12, as the saturation ratio increases, the
도 14는 이미지 센서(100)의 프로세싱부(130)가 리모자이크 설정에 기반하여 리모자이크를 수행하는 방법의 예를 보여준다. 도 1 및 도 14를 참조하면, S410 단계에서, 프로세싱부(130)의 리모자이크부(131)는 리모자이크 설정의 편평도 문턱을 이용하여 디지털 신호(DS)의 편평도를 판단할 수 있다. 예를 들어, N개의 채널들의 각각의 픽셀 값들의 차이(예를 들어, 최대 차이)가 편평도 문턱보다 작으면, 리모자이크부(131)는 디지털 신호(DS)가 편평한 것으로 판단할 수 있다. N개의 채널들의 각각의 픽셀 값들의 차이(예를 들어, 최대 차이)가 편평도 문턱 이상이면, 리모자이크부(131)는 디지털 신호(DS)가 편평하지 않은 것으로 판단할 수 있다.Figure 14 shows an example of how the
S420 단계에서, 디지털 신호(DS)가 편평한 것으로 판단되면, 프로세싱부(130)의 리모자이크부(131)는 S430 단계를 수행할 수 있다. S430 단계에서, 리모자이크부(131)는 디지털 신호(DS)의 전체에 대해 평탄화(smoothen)를 수행할 수 있다. 예를 들어, 리모자이크부(131)는 리모자이크 설정의 스무딩 파워에 기반하여, 디지털 신호(DS)에 대해 저대역 통과 필터링을 수행할 수 있다.If it is determined that the digital signal DS is flat in step S420, the
S420 단계에서, 디지털 신호(DS)가 편평하지 않은 것으로 판단되면, 프로세싱부(130)의 리모자이크부(131)는 S440 단계를 수행할 수 있다. S440 단계에서, 리모자이크부(131)는 리모자이크 설정의 로컬 편평도 문턱을 이용하여, 편평한 영역 및 패턴 영역을 판단할 수 있다. 예를 들어, 디지털 신호(DS) 상의 특정한 영역의 N개의 채널들의 각각의 픽셀 값들의 차이가 로컬 편평도 문턱보다 작으면, 리모자이크부(131)는 해당 영역을 편평한 영역으로 판단할 수 있다. 디지털 신호(DS) 상의 특정한 영역의 N개의 채널들의 각각의 픽셀 값들의 차이가 로컬 편평도 문턱 이상이면, 리모자이크부(131)는 해당 영역을 패턴 영역(예를 들어, 편평하지 않은 영역)으로 판단할 수 있다.If it is determined in step S420 that the digital signal DS is not flat, the
S450 단계에서, 리모자이크부(131)는 디지털 신호(DS) 상의 편평한 영역에 대해 리모자이크 설정의 스무딩 파워에 기반하여 평탄화(예를 들어, 저대역 통과 필터링)를 수행할 수 있다.In step S450, the
상술된 바와 같이, 본 기재의 실시 예에 따른 이미지 센서(100)는 포화도 비율이 증가할수록 디지털 신호(DS)를 더 편평한 것으로 판단하고, 그리고 더 강하게 평탄화를 수행할 수 있다. 따라서, 포화되는 픽셀들의 크로스토크에 의해 발생하는 아티팩트는 평탄화에 의해 제거(또는 억제)될 수 있다.As described above, the
도 15는 이미지 센서(100)의 프로세싱부(130)가 포화도 비율을 계산하는 방법의 다른 예를 보여준다. 도 1 및 도 15를 참조하면, S510 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 이미지 데이터 정보(IDI)로부터 포화된 픽셀들의 수를 검출할 수 있다. 예를 들어, 응용 프로세서(200)는 패치들(PT)(도 8 참조) 각각에서 포화된 픽셀 값들의 수를 카운트하고, 그리고 각 패치(PT)의 포화된 픽셀 값들의 수를 이미지 데이터 정보(IDI)에 포함시킬 수 있다. 포화도 관리부(134)는 이미지 데이터 정보(IDI)로부터 각 패치(PT)에서 포화된 픽셀 값들의 수로부터 포화된 픽셀들의 수를 검출할 수 있다.Figure 15 shows another example of how the
S520 단계에서, 포화도 관리부(134)는 포화된 픽셀들의 수에 기반하여 포화도 비율을 계산할 수 있다. 예를 들어, 포화도 관리부(134)는 픽셀부(110)의 전체 픽셀들의 수에 대한 포화된 픽셀들의 수의 비율을 포화도 비율로 계산할 수 있다.In step S520, the
다른 실시 예로서, 응용 프로세서(200)는 각 패치(PT)의 픽셀 값들의 수에 대한 포화된 픽셀 값들의 수를 각 패치(PT)의 포화도 비율로 계산하고, 그리고 각 패치(PT)의 포화도 비율을 이미지 데이터 정보(IDI)에 포함시킬 수 있다. 포화도 관리부(134)는 이미지 데이터 정보(IDI)로부터 각 패치(PT)의 포화도 비율을 검출하고, 그리고 패치들(PT)의 포화도 비율들의 평균을 포화도 비율로 계산할 수 있다.As another embodiment, the
도 16은 멀티 카메라 모듈을 포함하는 전자 장치의 블록도이다. 도 17은 도 16의 카메라 모듈의 상세 블록도이다.16 is a block diagram of an electronic device including a multi-camera module. FIG. 17 is a detailed block diagram of the camera module of FIG. 16.
도 16을 참조하면, 전자 장치(1000)는 카메라 모듈 그룹(1100), 응용 프로세서(1200), PMIC(1300) 및 외부 메모리(1400)를 포함할 수 있다.Referring to FIG. 16 , the
카메라 모듈 그룹(1100)은 복수의 카메라 모듈(1100a, 1100b, 1100c)을 포함할 수 있다. 비록 도면에는 3개의 카메라 모듈(1100a, 1100b, 1100c)이 배치된 실시 예가 도시되어 있으나, 실시 예들이 이에 제한되는 것은 아니다. 몇몇 실시 예에서, 카메라 모듈 그룹(1100)은 2개의 카메라 모듈만을 포함하도록 변형되어 실시될 수 있다. 또한, 몇몇 실시 예에서, 카메라 모듈 그룹(1100)은 i개(i는 4 이상의 자연수)의 카메라 모듈을 포함하도록 변형되어 실시될 수도 있다. 예시적으로, 카메라 모듈 그룹(1100)의 복수의 카메라 모듈(1100a, 1100b, 1100c)의 각각은 도 1의 이미지 센서(100)를 포함할 수 있다. 응용 프로세서(1200)는 도 1의 응용 프로세서(200)를 포함할 수 있다.The
이하, 도 17을 참조하여, 카메라 모듈(1100b)의 상세 구성에 대해 보다 구체적으로 설명할 것이나, 이하의 설명은 실시 예에 따라 다른 카메라 모듈들(1100a, 1100b)에 대해서도 동일하게 적용될 수 있다.Hereinafter, the detailed configuration of the
도 17을 참조하면, 카메라 모듈(1100b)은 프리즘(1105), 광학 경로 폴딩 요소(Optical Path Folding Element, 이하, 'OPFE')(1110), 액츄에이터(1130), 이미지 센싱 장치(1140) 및 저장부(1150)를 포함할 수 있다.Referring to FIG. 17, the
프리즘(1105)은 광 반사 물질의 반사면(1107)을 포함하여 외부로부터 입사되는 광(L)의 경로를 변형시킬 수 있다. The
몇몇 실시 예에서, 프리즘(1105)은 제1 방향(X)으로 입사되는 광(L)의 경로를 제1 방향(X)에 수직인 제2 방향(Y)으로 변경시킬 수 있다. 또한, 프리즘(1105)은 광 반사 물질의 반사면(1107)을 중심축(1106)을 중심으로 A방향으로 회전시키거나, 중심축(1106)을 B방향으로 회전시켜 제1 방향(X)으로 입사되는 광(L)의 경로를 수직인 제2 방향(Y)으로 변경시킬 수 있다. 이때, OPFE(1110)도 제1 방향(X) 및 제2 방향(Y)과 수직인 제3 방향(Z)로 이동할 수 있다.In some embodiments, the
몇몇 실시 예에서, 도시된 것과 같이, 프리즘(1105)의 A방향 최대 회전 각도는 플러스(+) A방향으로는 15도(degree) 이하이고, 마이너스(-) A방향으로는 15도보다 클 수 있으나, 실시 예들이 이에 제한되는 것은 아니다.In some embodiments, as shown, the maximum rotation angle of the
몇몇 실시 예에서, 프리즘(1105)은 플러스(+) 또는 마이너스(-) B방향으로 20도 내외, 또는 10도에서 20도, 또는 15도에서 20도 사이로 움직일 수 있고, 여기서, 움직이는 각도는 플러스(+) 또는 마이너스(-) B방향으로 동일한 각도로 움직이거나, 1도 내외의 범위로 거의 유사한 각도까지 움직일 수 있다.In some embodiments, the
몇몇 실시 예에서, 프리즘(1105)은 광 반사 물질의 반사면(1107)을 중심축(1106)의 연장 방향과 평행한 제3 방향(예를 들어, Z방향)으로 이동할 수 있다.In some embodiments, the
OPFE(1110)는 예를 들어 j(여기서, j는 자연수)개의 그룹으로 이루어진 광학 렌즈를 포함할 수 있다. j개의 렌즈는 제2 방향(Y)으로 이동하여 카메라 모듈(1100b)의 광학 줌 배율(optical zoom ratio)을 변경할 수 있다. 예를 들어, 카메라 모듈(1100b)의 기본 광학 줌 배율을 Z라고할 때, OPFE(1110)에 포함된 m개의 광학 렌즈를 이동시킬 경우, 카메라 모듈(1100b)의 광학 줌 배율은 3Z 또는 5Z 또는 5Z 이상의 광학 줌 배율로 변경될 수 있다.
액츄에이터(1130)는 OPFE(1110) 또는 광학 렌즈(이하, 광학 렌즈로 지칭)를 특정 위치로 이동시킬 수 있다. 예를 들어 액츄에이터(1130)는 정확한 센싱을 위해 이미지 센서(1142)가 광학 렌즈의 초점 거리(focal length)에 위치하도록 광학 렌즈의 위치를 조정할 수 있다.The
이미지 센싱 장치(1140)는 이미지 센서(1142), 제어 로직(1144) 및 메모리(1146)를 포함할 수 있다. 이미지 센서(1142)는 광학 렌즈를 통해 제공되는 광(L)을 이용하여 센싱 대상의 이미지를 센싱할 수 있다.The
제어 로직(1144)은 카메라 모듈(1100b)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어 로직(1144)은 제어 신호 라인(CSLb)을 통해 제공된 제어 신호에 따라 카메라 모듈(1100b)의 동작을 제어할 수 있다. The
메모리(1146)는 캘리브레이션 데이터(1147)와 같은 카메라 모듈(1100b)의 동작에 필요한 정보를 저장할 수 있다. 캘리브레이션 데이터(1147)는 카메라 모듈(1100b)이 외부로부터 제공된 광(L)을 이용하여 이미지 데이터를 생성하는데 필요한 정보를 포함할 수 있다. 캘리브레이션 데이터(1147)는 예를 들어, 앞서 설명한 회전도(degree of rotation)에 관한 정보, 초점 거리(focal length)에 관한 정보, 광학 축(optical axis)에 관한 정보 등을 포함할 수 있다. 카메라 모듈(1100b)이 광학 렌즈의 위치에 따라 초점 거리가 변하는 멀티 스테이트(multi state) 카메라 형태로 구현될 경우, 캘리브레이션 데이터(1147)는 광학 렌즈의 각 위치별(또는 스테이트별) 초점 거리 값과 오토 포커싱(auto focusing)과 관련된 정보를 포함할 수 있다.The
저장부(1150)는 이미지 센서(1142)를 통해 센싱된 이미지 데이터를 저장할 수 있다. 저장부(1150)는 이미지 센싱 장치(1140)의 외부에 배치될 수 있으며, 이미지 센싱 장치(1140)를 구성하는 센서 칩과 스택된(stacked) 형태로 구현될 수 있다. 몇몇 실시 예에서, 저장부(1150)는 EEPROM(Electrically Erasable Programmable Read-Only Memory)으로 구현될 수 있으나 실시 예들이 이에 제한되는 것은 아니다.The
도 16과 도 17을 함께 참조하면, 몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 액츄에이터(1130)를 포함할 수 있다. 이에 따라, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 그 내부에 포함된 액츄에이터(1130)의 동작에 따른 서로 동일하거나 서로 다른 캘리브레이션 데이터(1147)를 포함할 수 있다. Referring to FIGS. 16 and 17 together, in some embodiments, each of the plurality of
몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 하나의 카메라 모듈(예를 들어, 1100b)은 앞서 설명한 프리즘(1105)과 OPFE(1110)를 포함하는 폴디드 렌즈(folded lens) 형태의 카메라 모듈이고, 나머지 카메라 모듈들(예를 들어, 1100a, 1100b)은 프리즘(1105)과 OPFE(1110)가 포함되지 않은 버티컬(vertical) 형태의 카메라 모듈일 수 있으나, 실시 예들이 이에 제한되는 것은 아니다.In some embodiments, one camera module (e.g., 1100b) of the plurality of
몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 하나의 카메라 모듈(예를 들어, 1100c)은 예를 들어, IR(Infrared Ray)을 이용하여 깊이(depth) 정보를 추출하는 버티컬 형태의 깊이 카메라(depth camera)일 수 있다. 이 경우, 응용 프로세서(1200)는 이러한 깊이 카메라로부터 제공받은 이미지 데이터와 다른 카메라 모듈(예를 들어, 1100a 또는 1100b)로부터 제공받은 이미지 데이터를 병합(merge)하여 3차원 깊이 이미지(3D depth image)를 생성할 수 있다.In some embodiments, one camera module (e.g., 1100c) among the plurality of camera modules (1100a, 1100b, 1100c) is a vertical camera module that extracts depth information using, for example, IR (Infrared Ray). It may be a type of depth camera. In this case, the
몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 적어도 두 개의 카메라 모듈(예를 들어, 1100a, 1100b)은 서로 다른 관측 시야(Field of View, 시야각)를 가질 수 있다. 이 경우, 예를 들어, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 적어도 두 개의 카메라 모듈(예를 들어, 1100a, 1100b)의 광학 렌즈가 서로 다를 수 있으나, 이에 제한되는 것은 아니다. In some embodiments, at least two camera modules (eg, 1100a, 1100b) among the plurality of
또한, 몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각의 시야각은 서로 다를 수 있다. 이 경우, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 포함된 광학 렌즈 역시 서로 다를 수 있으나, 이에 제한되는 것은 아니다.Additionally, in some embodiments, the viewing angles of each of the plurality of
몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 서로 물리적으로 분리되어 배치될 수 있다. 즉, 하나의 이미지 센서(1142)의 센싱 영역을 복수의 카메라 모듈(1100a, 1100b, 1100c)이 분할하여 사용하는 것이 아니라, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각의 내부에 독립적인 이미지 센서(1142)가 배치될 수 있다.In some embodiments, each of the plurality of
다시 도 16을 참조하면, 응용 프로세서(1200)는 이미지 처리 장치(1210), 메모리 컨트롤러(1220), 내부 메모리(1230)를 포함할 수 있다. 응용 프로세서(1200)는 복수의 카메라 모듈(1100a, 1100b, 1100c)과 분리되어 구현될 수 있다. 예를 들어, 응용 프로세서(1200)와 복수의 카메라 모듈(1100a, 1100b, 1100c)은 별도의 반도체 칩으로 서로 분리되어 구현될 수 있다.Referring again to FIG. 16 , the
이미지 처리 장치(1210)는 복수의 서브 이미지 프로세서(1212a, 1212b, 1212c), 이미지 생성기(1214) 및 카메라 모듈 컨트롤러(1216)를 포함할 수 있다.The
이미지 처리 장치(1210)는 복수의 카메라 모듈(1100a, 1100b, 1100c)의 개수에 대응하는 개수의 복수의 서브 이미지 프로세서(1212a, 1212b, 1212c)를 포함할 수 있다.The
각각의 카메라 모듈(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터는 서로 분리된 이미지 신호 라인(ISLa, ISLb, ISLc)을 통해 대응되는 서브 이미지 프로세서(1212a, 1212b, 1212c)에 제공될 수 있다. 예를 들어, 카메라 모듈(1100a)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLa)을 통해 서브 이미지 프로세서(1212a)에 제공되고, 카메라 모듈(1100b)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLb)을 통해 서브 이미지 프로세서(1212b)에 제공되고, 카메라 모듈(1100c)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLc)을 통해 서브 이미지 프로세서(1212c)에 제공될 수 있다. 이러한 이미지 데이터 전송은 예를 들어, MIPI(Mobile Industry Processor Interface)에 기반한 카메라 직렬 인터페이스(CSI; Camera Serial Interface)를 이용하여 수행될 수 있으나, 실시 예들이 이에 제한되는 것은 아니다. Image data generated from each
한편, 몇몇 실시 예에서, 하나의 서브 이미지 프로세서가 복수의의 카메라 모듈에 대응되도록 배치될 수도 있다. 예를 들어, 서브 이미지 프로세서(1212a)와 서브 이미지 프로세서(1212c)가 도시된 것처럼 서로 분리되어 구현되는 것이 아니라 하나의 서브 이미지 프로세서로 통합되어 구현되고, 카메라 모듈(1100a)과 카메라 모듈(1100c)로부터 제공된 이미지 데이터는 선택 소자(예를 들어, 멀티플렉서) 등을 통해 선택된 후, 통합된 서브 이미지 프로세서에 제공될 수 있다.Meanwhile, in some embodiments, one sub-image processor may be arranged to correspond to a plurality of camera modules. For example, the
각각의 서브 이미지 프로세서(1212a, 1212b, 1212c)에 제공된 이미지 데이터는 이미지 생성기(1214)에 제공될 수 있다. 이미지 생성기(1214)는 이미지 생성 정보(Generation Information) 또는 모드 신호(Mode Signal)에 따라 각각의 서브 이미지 프로세서(1212a, 1212b, 1212c)로부터 제공된 이미지 데이터를 이용하여 출력 이미지를 생성할 수 있다.Image data provided to each
구체적으로, 이미지 생성기(1214)는 이미지 생성 정보 또는 모드 신호에 따라, 서로 다른 시야각을 갖는 카메라 모듈들(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터 중 적어도 일부를 병합(merge)하여 출력 이미지를 생성할 수 있다. 또한, 이미지 생성기(1214)는 이미지 생성 정보 또는 모드 신호에 따라, 서로 다른 시야각을 갖는 카메라 모듈들(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터 중 어느 하나를 선택하여 출력 이미지를 생성할 수 있다.Specifically, the
몇몇 실시 예에서, 이미지 생성 정보는 줌 신호(zoom signal or zoom factor)를 포함할 수 있다. 또한, 몇몇 실시 예에서, 모드 신호는 예를 들어, 유저(user)로부터 선택된 모드에 기초한 신호일 수 있다.In some embodiments, the image generation information may include a zoom signal or zoom factor. Additionally, in some embodiments, the mode signal may be, for example, a signal based on a mode selected by a user.
이미지 생성 정보가 줌 신호(줌 팩터)이고, 각각의 카메라 모듈(1100a, 1100b, 1100c)이 서로 다른 관측 시야(시야각)를 갖는 경우, 이미지 생성기(1214)는 줌 신호의 종류에 따라 서로 다른 동작을 수행할 수 있다. 예를 들어, 줌 신호가 제1 신호일 경우, 카메라 모듈(1100a)로부터 출력된 이미지 데이터와 카메라 모듈(1100c)로부터 출력된 이미지 데이터를 병합한 후, 병합된 이미지 신호와 병합에 사용하지 않은 카메라 모듈(1100b)로부터 출력된 이미지 데이터를 이용하여, 출력 이미지를 생성할 수 있다. 만약, 줌 신호가 제1 신호와 다른 제2 신호일 경우, 이미지 생성기(1214)는 이러한 이미지 데이터 병합을 수행하지 않고, 각각의 카메라 모듈(1100a, 1100b, 1100c)로부터 출력된 이미지 데이터 중 어느 하나를 선택하여 출력 이미지를 생성할 수 있다. 하지만, 실시 예들이 이에 제한되는 것은 아니며, 필요에 따라 이미지 데이터를 처리하는 방법은 얼마든지 변형되어 실시될 수 있다.When the image generation information is a zoom signal (zoom factor) and each camera module (1100a, 1100b, 1100c) has a different observation field (viewing angle), the
몇몇 실시 예에서, 이미지 생성기(1214)는 복수의 서브 이미지 프로세서(1212a, 1212b, 1212c) 중 적어도 하나로부터 노출 시간이 상이한 복수의 이미지 데이터를 수신하고, 복수의 이미지 데이터에 대하여 HDR(high dynamic range) 처리를 수행함으로써, 다이나믹 레인지가 증가된 병합된 이미지 데이터를 생성할 수 있다.In some embodiments, the
카메라 모듈 컨트롤러(1216)는 각각의 카메라 모듈(1100a, 1100b, 1100c)에 제어 신호를 제공할 수 있다. 카메라 모듈 컨트롤러(1216)로부터 생성된 제어 신호는 서로 분리된 제어 신호 라인(CSLa, CSLb, CSLc)을 통해 대응되는 카메라 모듈(1100a, 1100b, 1100c)에 제공될 수 있다.The
복수의 카메라 모듈(1100a, 1100b, 1100c) 중 어느 하나는 줌 신호를 포함하는 이미지 생성 정보 또는 모드 신호에 따라 마스터(master) 카메라(예를 들어, 1100b)로 지정되고, 나머지 카메라 모듈들(예를 들어, 1100a, 1100c)은 슬레이브(slave) 카메라로 지정될 수 있다. 이러한 정보는 제어 신호에 포함되어, 서로 분리된 제어 신호 라인(CSLa, CSLb, CSLc)을 통해 대응되는 카메라 모듈(1100a, 1100b, 1100c)에 제공될 수 있다.One of the plurality of camera modules (1100a, 1100b, 1100c) is designated as a master camera (e.g., 1100b) according to image generation information or mode signals including a zoom signal, and the remaining camera modules (e.g., For example, 1100a, 1100c) can be designated as slave cameras. This information may be included in the control signal and provided to the corresponding
줌 팩터 또는 동작 모드 신호에 따라 마스터 및 슬레이브로서 동작하는 카메라 모듈이 변경될 수 있다. 예를 들어, 카메라 모듈(1100a)의 시야각이 카메라 모듈(1100b)의 시야각보다 넓고, 줌 팩터가 낮은 줌 배율을 나타낼 경우, 카메라 모듈(1100b)이 마스터로서 동작하고, 카메라 모듈(1100a)이 슬레이브로서 동작할 수 있다. 반대로, 줌 팩터가 높은 줌 배율을 나타낼 경우, 카메라 모듈(1100a)이 마스터로서 동작하고, 카메라 모듈(1100b)이 슬레이브로서 동작할 수 있다.Camera modules operating as master and slave can be changed depending on the zoom factor or operation mode signal. For example, when the viewing angle of the
몇몇 실시 예에서, 카메라 모듈 컨트롤러(1216)로부터 각각의 카메라 모듈(1100a, 1100b, 1100c)에 제공되는 제어 신호는 싱크 인에이블 신호(sync enable) 신호를 포함할 수 있다. 예를 들어, 카메라 모듈(1100b)이 마스터 카메라이고, 카메라 모듈들(1100a, 1100c)이 슬레이브 카메라인 경우, 카메라 모듈 컨트롤러(1216)는 카메라 모듈(1100b)에 싱크 인에이블 신호를 전송할 수 있다. 이러한 싱크 인에이블 신호를 제공받은 카메라 모듈(1100b)은 제공받은 싱크 인에이블 신호를 기초로 싱크 신호(sync signal)를 생성하고, 생성된 싱크 신호를 싱크 신호 라인(SSL)을 통해 카메라 모듈들(1100a, 1100c)에 제공할 수 있다. 카메라 모듈(1100b)과 카메라 모듈들(1100a, 1100c)은 이러한 싱크 신호에 동기화되어 이미지 데이터를 응용 프로세서(1200)에 전송할 수 있다.In some embodiments, the control signal provided from the
몇몇 실시 예에서, 카메라 모듈 컨트롤러(1216)로부터 복수의 카메라 모듈(1100a, 1100b, 1100c)에 제공되는 제어 신호는 모드 신호에 따른 모드 정보를 포함할 수 있다. 이러한 모드 정보에 기초하여 복수의 카메라 모듈(1100a, 1100b, 1100c)은 센싱 속도와 관련하여 제1 동작 모드 및 제2 동작 모드로 동작할 수 있다. In some embodiments, a control signal provided from the
복수의 카메라 모듈(1100a, 1100b, 1100c)은 제1 동작 모드에서, 제1 속도로 이미지 신호를 생성(예를 들어, 제1 프레임 레이트의 이미지 신호를 생성)하여 이를 제1 속도보다 높은 제2 속도로 인코딩(예를 들어, 제1 프레임 레이트보다 높은 제2 프레임 레이트의 이미지 신호를 인코딩)하고, 인코딩된 이미지 신호를 응용 프로세서(1200)에 전송할 수 있다. 이때, 제2 속도는 제1 속도의 30배 이하일 수 있다. In a first operation mode, the plurality of
응용 프로세서(1200)는 수신된 이미지 신호, 다시 말해서 인코딩된 이미지 신호를 내부에 구비되는 내부 메모리(1230) 또는 응용 프로세서(1200) 외부의 메모리(1400)에 저장하고, 이후, 내부 메모리(1230) 또는 외부의 메모리(1400)로부터 인코딩된 이미지 신호를 독출하여 디코딩하고, 디코딩된 이미지 신호에 기초하여 생성되는 이미지 데이터를 디스플레이할 수 있다. 예컨대 이미지 처리 장치(1210)의 복수의 서브 프로세서들(1212a, 1212b, 1212c) 중 대응하는 서브 프로세서가 디코딩을 수행할 수 있으며, 또한 디코딩된 이미지 신호에 대하여 이미지 처리를 수행할 수 있다.The
복수의 카메라 모듈(1100a, 1100b, 1100c)은 제2 동작 모드에서, 제1 속도보다 낮은 제3 속도로 이미지 신호를 생성(예를 들어, 제1 프레임 레이트보다 낮은 제3 프레임 레이트의 이미지 신호를 생성)하고, 이미지 신호를 응용 프로세서(1200)에 전송할 수 있다. 응용 프로세서(1200)에 제공되는 이미지 신호는 인코딩되지 않은 신호일 수 있다. 응용 프로세서(1200)는 수신되는 이미지 신호에 대하여 이미지 처리를 수행하거나 또는 이미지 신호를 내부의 메모리(1230) 또는 외부의 메모리(1400)에 저장할 수 있다.In the second operation mode, the plurality of
PMIC(1300)는 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 전력, 예컨대 전원 전압을 공급할 수 있다. 예를 들어, PMIC(1300)는 응용 프로세서(1200)의 제어 하에, 파워 신호 라인(PSLa)을 통해 카메라 모듈(1100a)에 제1 전력을 공급하고, 파워 신호 라인(PSLb)을 통해 카메라 모듈(1100b)에 제2 전력을 공급하고, 파워 신호 라인(PSLc)을 통해 카메라 모듈(1100c)에 제3 전력을 공급할 수 있다.The
PMIC(1300)는 응용 프로세서(1200)로부터의 전력 제어 신호(PCON)에 응답하여, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 대응하는 전력을 생성하고, 또한, 전력의 레벨을 조정할 수 있다. 전력 제어 신호(PCON)는 복수의 카메라 모듈(1100a, 1100b, 1100c)의 동작 모드 별 전력 조정 신호를 포함할 수 있다. 예를 들어, 동작 모드는 저전력 모드(low power mode)를 포함할 수 있으며, 이때, 전력 제어 신호(PCON)는 저전력 모드로 동작하는 카메라 모듈 및 설정되는 전력 레벨에 대한 정보를 포함할 수 있다. 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 제공되는 전력들의 레벨은 서로 동일하거나 또는 서로 상이할 수 있다. 또한, 전력의 레벨은 동적으로 변경될 수 있다.The
예시적으로, 도 1 내지 도 15를 참조하여 설명된 이미지 센서(100)는 도 17의 이미지 센서(1142)에 대응할 수 있다. 이미지 센서(1142)는 픽셀 값들의 포화도에 기반하여 리모자이크 설정을 조절할 수 있다. 이미지 센서(1142)는 리모자이크 설정에 기반하여 리모자이크를 수행하고, 그리고 크로스토크 정정을 수행할 수 있다. 예시적으로, 리모자이크 크로스토크 정정은 순차적으로 또는 역순으로 수행될 수 있다. 이미지 센서(1142)가 본 기재의 실시 예에 따라 구현되면, 응용 프로세서(1200)가 획득하는 이미지 데이터의 품질이 개선될 수 있다.By way of example, the
상술된 실시 예들에서, 제1, 제2, 제3 등의 용어들을 사용하여 본 발명의 기술적 사상에 따른 구성 요소들이 설명되었다. 그러나 제1, 제2, 제3 등과 같은 용어들은 구성 요소들을 서로 구별하기 위해 사용되며, 본 발명을 한정하지 않는다. 예를 들어, 제1, 제2, 제3 등과 같은 용어들은 순서 또는 임의의 형태의 수치적 의미를 내포하지 않는다.In the above-described embodiments, components according to the technical idea of the present invention have been described using terms such as first, second, third, etc. However, terms such as first, second, third, etc. are used to distinguish components from each other and do not limit the present invention. For example, terms such as first, second, third, etc. do not imply order or any form of numerical meaning.
상술된 실시 예들에서, 블록들을 사용하여 본 발명의 실시 예들에 따른 구성 요소들이 참조되었다. 블록들은 IC (Integrated Circuit), ASIC (Application Specific IC), FPGA (Field Programmable Gate Array), CPLD (Complex Programmable Logic Device) 등과 같은 다양한 하드웨어 장치들, 하드웨어 장치들에서 구동되는 펌웨어, 응용과 같은 소프트웨어, 또는 하드웨어 장치와 소프트웨어가 조합된 형태로 구현될 수 있다. 또한, 블록들은 IC 내의 반도체 소자들로 구성되는 회로들 또는 IP(Intellectual Property)로 등록된 회로들을 포함할 수 있다.In the above-described embodiments, components according to embodiments of the present invention have been referenced using blocks. Blocks include various hardware devices such as IC (Integrated Circuit), ASIC (Application Specific IC), FPGA (Field Programmable Gate Array), and CPLD (Complex Programmable Logic Device), software such as firmware and applications running on the hardware devices, Alternatively, it may be implemented as a combination of a hardware device and software. Additionally, blocks may include circuits comprised of semiconductor elements within an IC or circuits registered as IP (Intellectual Property).
상술된 내용은 본 발명을 실시하기 위한 구체적인 실시 예들이다. 본 발명은 상술된 실시 예들뿐만 아니라, 단순하게 설계 변경되거나 용이하게 변경할 수 있는 실시 예들 또한 포함할 것이다. 또한, 본 발명은 실시 예들을 이용하여 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다. 따라서, 본 발명의 범위는 상술된 실시 예들에 국한되어 정해져서는 안되며 후술하는 특허청구범위뿐만 아니라 이 발명의 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.The above-described details are specific embodiments for carrying out the present invention. The present invention will include not only the above-described embodiments, but also embodiments that can be simply changed or easily changed in design. In addition, the present invention will also include technologies that can be easily modified and implemented using the embodiments. Therefore, the scope of the present invention should not be limited to the above-described embodiments, but should be determined by the claims and equivalents of the present invention as well as the claims described later.
10: 전자 장치
100: 이미지 센서
110: 픽셀부
120: 데이터 변환부
130: 프로세싱부
131: 리모자이크부
132: 비닝부
133: 크로스토크 정정부
134: 포화 관리부10: Electronic device
100: image sensor
110: Pixel part
120: data conversion unit
130: processing unit
131: Remosaic section
132: Binning unit
133: Crosstalk correction unit
134: Saturation Management Department
Claims (20)
상기 아날로그 신호를 수신하고, 그리고 상기 아날로그 신호를 디지털 신호로 변환하는 데이터 변환부; 그리고
상기 디지털 신호에 대해 크로스토크 정정 및 리모자이크(remosaic)를 수행함으로써 이미지 데이터를 생성하고, 그리고 상기 이미지 데이터를 외부의 장치로 출력하도록 구성되는 프로세싱부를 포함하고,
상기 프로세싱부는 상기 외부의 장치로부터 이미지 데이터 정보를 수신하고, 상기 이미지 데이터 정보에 기반하여 포화도 비율을 계산하고, 그리고 상기 포화도 비율에 기반하여 상기 리모자이크의 설정을 조절하도록 구성되는 이미지 센서.a pixel unit including a plurality of pixels and configured to generate an analog signal using the plurality of pixels;
a data converter that receives the analog signal and converts the analog signal into a digital signal; and
A processing unit configured to generate image data by performing crosstalk correction and remosaic on the digital signal, and output the image data to an external device,
The processing unit is configured to receive image data information from the external device, calculate a saturation ratio based on the image data information, and adjust settings of the remosaic based on the saturation ratio.
상기 프로세싱부는 상기 이미지 데이터 상에서 상기 복수의 픽셀들에 대응하는 픽셀 값들의 그룹들의 평균 픽셀 값들을 상기 이미지 데이터 정보로부터 검출하고, 그리고 상기 평균 픽셀 값들에 기반하여 상기 포화도 비율을 계산하도록 더 구성되는 이미지 센서.According to paragraph 1,
The processing unit is further configured to detect average pixel values of groups of pixel values corresponding to the plurality of pixels on the image data from the image data information, and calculate the saturation ratio based on the average pixel values. sensor.
상기 프로세싱부는 상기 평균 픽셀 값들을 문턱 값과 비교함으로써 상기 포화도 비율을 계산하도록 더 구성되는 이미지 센서.According to paragraph 2,
The processing unit is further configured to calculate the saturation ratio by comparing the average pixel values with a threshold value.
상기 프로세싱부는 평균 픽셀 값들 중 상기 문턱 값보다 높은 평균 픽셀 값들의 비율을 상기 포화도 비율로 계산하도록 더 구성되는 이미지 센서.According to paragraph 3,
The processing unit is further configured to calculate a ratio of average pixel values higher than the threshold among average pixel values as the saturation ratio.
상기 이미지 데이터 정보는 상기 복수의 픽셀들에 대응하는 픽셀 값들 중 포화된 픽셀 값들의 수에 대한 정보를 포함하고, 그리고
상기 프로세싱부는 상기 포화된 픽셀 값들의 수에 기반하여 상기 포화도 비율을 계산하도록 더 구성되는 이미지 센서.According to paragraph 1,
The image data information includes information about the number of saturated pixel values among pixel values corresponding to the plurality of pixels, and
The processing unit is further configured to calculate the saturation ratio based on the number of saturated pixel values.
이미지 데이터는 복수의 채널들에 각각 대응하는 복수의 채널 데이터를 포함하고,
상기 이미지 데이터 정보는 상기 복수의 채널들에 각각 대응하는 복수의 채널 데이터 정보를 포함하고, 그리고
상기 프로세싱부는 상기 복수의 채널들에 각각 대응하는 복수의 포화도 비율들을 계산하도록 더 구성되는 이미지 센서.According to paragraph 1,
The image data includes a plurality of channel data each corresponding to a plurality of channels,
The image data information includes a plurality of channel data information corresponding to each of the plurality of channels, and
The processing unit is further configured to calculate a plurality of saturation ratios corresponding to each of the plurality of channels.
상기 프로세싱부는 상기 복수의 포화도 비율들 중 가장 높은 포화도 비율에 기반하여 상기 리모자이크의 설정을 조절하도록 더 구성되는 이미지 센서.According to clause 6,
The processing unit is further configured to adjust the remosaic settings based on the highest saturation ratio among the plurality of saturation ratios.
상기 프로세싱부는 상기 이미지 데이터가 편평한 이미지 데이터인지 판단하는데 사용되는 편평도 문턱, 상기 이미지 데이터 중 편평한 영역을 판단하는데 사용되는 로컬 편평도 문턱, 그리고 상기 이미지 데이터 중 편평한 영역을 스무딩(smoothing)할 때에 사용되는 스무딩 파워(smoothing power) 중 적어도 하나를 조절하도록 더 구성되는 이미지 센서.According to paragraph 1,
The processing unit includes a flatness threshold used to determine whether the image data is flat image data, a local flatness threshold used to determine a flat area of the image data, and a smoothing function used to smooth the flat area of the image data. An image sensor further configured to adjust at least one of smoothing power.
상기 프로세싱부는 상기 포화도 비율이 증가할수록 상기 편평도 문턱, 상기 로컬 편평도 문턱, 그리고 상기 스무딩 파워 중 적어도 하나를 증가시키도록 더 구성되는 이미지 센서.According to clause 8,
The processing unit is further configured to increase at least one of the flatness threshold, the local flatness threshold, and the smoothing power as the saturation ratio increases.
상기 프로세싱부는 상기 포화도 비율이 증가할수록 상기 편평도 문턱, 상기 로컬 편평도 문턱, 그리고 상기 스무딩 파워 중 적어도 두 개를 동일한 비율로 증가시키도록 더 구성되는 이미지 센서.According to clause 9,
The processing unit is further configured to increase at least two of the flatness threshold, the local flatness threshold, and the smoothing power at the same rate as the saturation ratio increases.
상기 프로세싱부는 상기 포화도 비율이 증가할수록 상기 편평도 문턱, 상기 로컬 편평도 문턱, 그리고 상기 스무딩 파워 중 적어도 두 개를 서로 다른 비율로 증가시키도록 더 구성되는 이미지 센서.According to clause 9,
The processing unit is further configured to increase at least two of the flatness threshold, the local flatness threshold, and the smoothing power at different rates as the saturation ratio increases.
상기 프로세싱부는 상기 리모자이크의 설정을 조절함으로써, 상기 복수의 픽셀들 중 포화된 픽셀들의 크로스토크를 정정하도록 더 구성되는 이미지 센서.According to paragraph 1,
The processing unit is further configured to correct crosstalk of saturated pixels among the plurality of pixels by adjusting the remosaic settings.
상기 프로세싱부는 상기 복수의 픽셀들 중 포화되지 않은 픽셀들의 픽셀 값들이 이득 및 오프셋을 적용함으로써, 상기 포화되지 않은 픽셀들의 상기 크로스토크 정정을 수행하도록 더 구성되는 이미지 센서.According to clause 12,
The processing unit is further configured to perform the crosstalk correction of the unsaturated pixels by applying gain and offset to pixel values of the unsaturated pixels among the plurality of pixels.
상기 이미지 센서가 외부의 장치로부터 이미지 데이터 정보를 수신하는 단계;
상기 이미지 센서가 상기 이미지 데이터 정보로부터 상기 이미지 센서에 의해 획득된 이미지 데이터의 포화도 비율을 계산하는 단계; 그리고
상기 이미지 센서가 상기 포화도 비율에 기반하여 리모자이크(remosaic) 설정을 조절하는 단계를 포함하고,
상기 이미지 센서는 상기 이미지 센서에 의해 획득된 이미지 데이터에 대해 상기 리모자이크 설정에 기반하여 리모자이크를 수행하도록 구성되는 동작 방법.In a method of operating an image sensor image sensor including a plurality of pixels:
The image sensor receiving image data information from an external device;
calculating, by the image sensor, a saturation ratio of image data acquired by the image sensor from the image data information; and
Comprising the step of the image sensor adjusting remosaic settings based on the saturation ratio,
An operation method wherein the image sensor is configured to perform remosaicing on image data acquired by the image sensor based on the remosaic setting.
상기 이미지 데이터 정보는 상기 이미지 센서에 의해 상기 외부의 장치로 출력된 이전 프레임의 이미지 데이터의 정보를 포함하는 동작 방법.According to clause 14,
The image data information includes information on image data of a previous frame output by the image sensor to the external device.
상기 이미지 센서는 상기 리모자이크 설정에 기반하여 현재 프레임의 이미지 데이터에 대해 상기 리모자이크를 수행하는 동작 방법.According to clause 14,
An operating method wherein the image sensor performs the remosaic on image data of the current frame based on the remosaic setting.
상기 포화도 비율을 계산하는 단계는:
상기 복수의 픽셀들에 대응하는 픽셀 값들의 그룹들의 평균 픽셀 값들을 상기 이미지 데이터 정보로부터 검출하는 단계;
문턱 값을 이용하여, 상기 픽셀 값들의 그룹들 중 포화된 그룹들을 판단하는 단계;
상기 포화된 그룹들의 수를 카운트하는 단계; 그리고
상기 포화된 그룹들의 수에 기반하여 상기 포화도 비율을 계산하는 단계를 포함하는 동작 방법.According to clause 14,
The steps for calculating the saturation ratio are:
detecting average pixel values of groups of pixel values corresponding to the plurality of pixels from the image data information;
Using a threshold value, determining saturated groups among the groups of pixel values;
counting the number of saturated groups; and
A method of operation comprising calculating the saturation ratio based on the number of saturated groups.
상기 포화도 비율을 계산하는 단계는:
상기 복수의 픽셀들 중 포화된 픽셀 값에 대응하는 포화된 픽셀들의 수를 상기 이미지 데이터 정보로부터 검출하는 단계; 그리고
상기 포화된 픽셀들의 수에 기반하여 상기 포화도 비율을 계산하는 단계를 포함하는 동작 방법.According to clause 14,
The steps for calculating the saturation ratio are:
detecting the number of saturated pixels corresponding to a saturated pixel value among the plurality of pixels from the image data information; and
A method of operation comprising calculating the saturation ratio based on the number of saturated pixels.
상기 이미지 데이터에 기반하여 이미지 데이터 정보를 생성하고, 그리고 상기 이미지 데이터 정보를 상기 이미지 센서로 전달하는 프로세서를 포함하고,
상기 이미지 센서는 복수의 픽셀들을 포함하고, 상기 이미지 데이터 정보로부터 상기 복수의 픽셀들의 포화도 비율을 계산하고, 그리고 상기 포화도 비율에 기반하여 상기 복수의 픽셀들의 크로스토크를 제1 모드 및 제2 모드 중 하나에 기반하여 정정하도록 구성되고,
상기 제1 모드에서, 상기 이미지 센서는 이득 및 오프셋에 기반하여 상기 크로스토크를 정정하도록 구성되고, 그리고
상기 제2 모드에서, 상기 이미지 센서는 상기 이득 및 상기 오프셋에 기반하여 상기 크로스토크를 정정하고, 그리고 리모자이크(remosaic) 설정을 조절함으로써 상기 크로스토크를 추가적으로 정정하도록 구성되는 전자 장치.An image sensor that generates image data; and
A processor that generates image data information based on the image data and transmits the image data information to the image sensor,
The image sensor includes a plurality of pixels, calculates a saturation ratio of the plurality of pixels from the image data information, and performs crosstalk of the plurality of pixels based on the saturation ratio in one of a first mode and a second mode. It is configured to correct based on one,
In the first mode, the image sensor is configured to correct the crosstalk based on gain and offset, and
In the second mode, the image sensor is configured to correct the crosstalk based on the gain and the offset, and to further correct the crosstalk by adjusting a remosaic setting.
상기 이미지 센서는 상기 포화도 비율이 기준 값보다 낮을 때에 상기 제1 모드로 진입하고, 그리고 상기 포화도 비율이 상기 기준 값 이상일 때에 상기 제2 모드로 진입하는 전자 장치.According to clause 19,
The image sensor enters the first mode when the saturation ratio is lower than the reference value, and enters the second mode when the saturation ratio is higher than the reference value.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18/121,804 US20230412939A1 (en) | 2022-06-20 | 2023-03-15 | Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor |
CN202310377037.5A CN117278869A (en) | 2022-06-20 | 2023-04-10 | Image sensor for correcting crosstalk, method of operating the same, and electronic apparatus including the same |
TW112116904A TW202415085A (en) | 2022-06-20 | 2023-05-08 | Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor |
JP2023084581A JP2024000506A (en) | 2022-06-20 | 2023-05-23 | Image sensor correcting crosstalk, operating method of image sensor, and electronic apparatus including image sensor |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220075035 | 2022-06-20 | ||
KR20220075035 | 2022-06-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230174127A true KR20230174127A (en) | 2023-12-27 |
Family
ID=89378288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220112541A KR20230174127A (en) | 2022-06-20 | 2022-09-06 | Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230174127A (en) |
-
2022
- 2022-09-06 KR KR1020220112541A patent/KR20230174127A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2490715C1 (en) | Image capturing device | |
US11616934B2 (en) | Image sensor | |
US11178372B1 (en) | Image signal processor, image signal processing method and electronic device thereof | |
US11394935B2 (en) | Pixel array for reducing image information loss and image sensor including the same | |
KR102632474B1 (en) | Pixel array included in image sensor and image sensor including the same | |
US20220182589A1 (en) | Image device and operation method of image device | |
KR20220000761A (en) | Image sensor and binning method thereof | |
US11776088B2 (en) | Electronic device generating image data and converting the generated image data and operating method of the electronic device | |
US11743606B2 (en) | Pixel array reducing loss of image information and image sensor including same | |
US11622093B1 (en) | Pixel array for reducing image information loss and image sensor including the same | |
KR20220017649A (en) | Electronic device including an image sensor | |
KR20230174127A (en) | Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor | |
KR20210116168A (en) | Electronic device generating image data and converting generated image data and operating method of electronic device | |
US20230412939A1 (en) | Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor | |
KR102346622B1 (en) | Image sensor and image pick-up apparatus including the same | |
KR20220127003A (en) | Image sensor and Camera Module including the same | |
CN117278869A (en) | Image sensor for correcting crosstalk, method of operating the same, and electronic apparatus including the same | |
EP4096217A1 (en) | Image sensor and image signal processing method | |
KR102701854B1 (en) | Pixel array capable of reducing image information loss and Image sensor having the same | |
US11825226B2 (en) | Image sensor and pixel array of image sensor | |
KR102722918B1 (en) | Pixel array capable of reducing image information loss and Image sensor having the same | |
US20230169629A1 (en) | Image signal processor, method for operating image signal processor and image sensing device | |
US20240185558A1 (en) | Image signal processor and image sensing device thereof | |
US11758288B2 (en) | Device for improving image resolution in camera system having lens that permits distortion and operation method thereof | |
US20240334088A1 (en) | Pixel array for optimizing dual conversion gain operation of pixels sharing floating diffusion region and image sensor including the same |