KR20230174127A - Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor - Google Patents

Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor Download PDF

Info

Publication number
KR20230174127A
KR20230174127A KR1020220112541A KR20220112541A KR20230174127A KR 20230174127 A KR20230174127 A KR 20230174127A KR 1020220112541 A KR1020220112541 A KR 1020220112541A KR 20220112541 A KR20220112541 A KR 20220112541A KR 20230174127 A KR20230174127 A KR 20230174127A
Authority
KR
South Korea
Prior art keywords
image data
image sensor
pixels
pixel
saturation ratio
Prior art date
Application number
KR1020220112541A
Other languages
Korean (ko)
Inventor
이상우
용은지
김동오
김성수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US18/121,804 priority Critical patent/US20230412939A1/en
Priority to CN202310377037.5A priority patent/CN117278869A/en
Priority to TW112116904A priority patent/TW202415085A/en
Priority to JP2023084581A priority patent/JP2024000506A/en
Publication of KR20230174127A publication Critical patent/KR20230174127A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

본 기재는 이미지 센서에 관한 것이다. 본 기재의 이미지 센서는 복수의 픽셀들을 포함하고, 그리고 복수의 픽셀들을 이용하여 아날로그 신호를 생성하도록 구성되는 픽셀부, 그리고 아날로그 신호를 수신하고, 그리고 아날로그 신호를 디지털 신호로 변환하는 데이터 변환부, 그리고 디지털 신호에 대해 크로스토크 정정 및 리모자이크(remosaic)를 수행함으로써 이미지 데이터를 생성하고, 그리고 이미지 데이터를 외부의 장치로 출력하도록 구성되는 프로세싱부를 포함하고, 프로세싱부는 외부의 장치로부터 이미지 데이터 정보를 수신하고, 이미지 데이터 정보에 기반하여 포화도 비율을 계산하고, 그리고 포화도 비율에 기반하여 리모자이크의 설정을 조절하도록 구성된다.This description relates to image sensors. The image sensor of the present disclosure includes a plurality of pixels, a pixel unit configured to generate an analog signal using the plurality of pixels, and a data conversion unit that receives the analog signal and converts the analog signal into a digital signal; And a processing unit configured to generate image data by performing crosstalk correction and remosaic on the digital signal, and output the image data to an external device, and the processing unit receives image data information from the external device. It is configured to receive, calculate the saturation ratio based on the image data information, and adjust the remosaic settings based on the saturation ratio.

Figure P1020220112541
Figure P1020220112541

Description

크로스토크를 정정하는 이미지 센서, 이미지 센서의 동작 방법, 그리고 이미지 센서를 포함하는 전자 장치{IMAGE SENSOR CORRECTING CROSSTALK, OPERATING METHOD OF IMAGE SENSOR, AND ELECTRONIC DEVICE INCLUDING IMAGE SENSOR}An image sensor that corrects crosstalk, a method of operating the image sensor, and an electronic device including the image sensor

본 기재는 전자 장치에 관한 것으로, 더 상세하게는 적응적으로 크로스토크를 정정하는 이미지 센서, 이미지 센서의 동작 방법, 그리고 이미지 센서를 포함하는 전자 장치에 관한 것이다.This disclosure relates to electronic devices, and more specifically, to an image sensor that adaptively corrects crosstalk, a method of operating the image sensor, and an electronic device including the image sensor.

이미지 센서는 복수의 픽셀드을 포함하고, 그리고 복수의 픽셀들을 이용하여 이미지 데이터를 생성할 수 있다. 이미지 센서에 의해 생성된 이미지 데이터는 다양한 노이즈들 및 왜곡들을 포함할 수 있다. 이미지 센서는 이미지 데이터로부터 노이즈들 및 왜곡들을 제거하는 교정(calibration)을 수행하고, 그리고 교정된 이미지 데이터를 출력할 수 있다.An image sensor includes a plurality of pixels, and can generate image data using the plurality of pixels. Image data generated by an image sensor may include various noises and distortions. The image sensor may perform calibration to remove noises and distortions from image data, and output calibrated image data.

이미지 데이터의 노이즈들 및 왜곡들은 크로스토크(crosstalk)를 포함할 수 있다. 크로스토크는 이미지 센서의 픽셀들에서 입사광이 불균일하게 감지되거나 픽셀들 사이에서 감지 결과가 누설되는 것에 의해 발생할 수 있다. 크로스토크를 정정하기 위해, 이미지 센서는 다양한 교정을 수행할 수 있다.Noises and distortions in image data may include crosstalk. Crosstalk may occur due to uneven detection of incident light across the pixels of the image sensor or leakage of detection results between pixels. To correct crosstalk, the image sensor can perform various corrections.

본 기재의 목적은 이미지 센서의 픽셀들에 의해 감지되는 픽셀 값들이 포화되는 경우에도 크로스토크를 정정할 수 있는 이미지 센서, 이미지 센서의 동작 방법, 그리고 이미지 센서를 포함하는 전자 장치를 제공하는 데에 있다.The purpose of the present disclosure is to provide an image sensor capable of correcting crosstalk even when pixel values detected by pixels of the image sensor are saturated, a method of operating the image sensor, and an electronic device including the image sensor. there is.

본 기재의 실시 예에 따른 픽셀부는 복수의 픽셀들을 포함하고, 그리고 복수의 픽셀들을 이용하여 아날로그 신호를 생성하도록 구성되는 픽셀부, 아날로그 신호를 수신하고, 그리고 아날로그 신호를 디지털 신호로 변환하는 데이터 변환부, 그리고 디지털 신호에 대해 크로스토크 정정 및 리모자이크(remosaic)를 수행함으로써 이미지 데이터를 생성하고, 그리고 이미지 데이터를 외부의 장치로 출력하도록 구성되는 프로세싱부를 포함하고, 프로세싱부는 외부의 장치로부터 이미지 데이터 정보를 수신하고, 이미지 데이터 정보에 기반하여 포화도 비율을 계산하고, 그리고 포화도 비율에 기반하여 리모자이크의 설정을 조절하도록 구성된다.The pixel unit according to an embodiment of the present disclosure includes a plurality of pixels, and is configured to generate an analog signal using the plurality of pixels, receiving the analog signal, and converting the analog signal into a digital signal. and a processing unit configured to generate image data by performing crosstalk correction and remosaic on the digital signal, and output the image data to an external device, wherein the processing unit receives image data from the external device. It is configured to receive information, calculate a saturation ratio based on the image data information, and adjust the settings of the remosaic based on the saturation ratio.

복수의 픽셀들을 포함하는 이미지 센서의 동작 방법은, 이미지 센서가 외부의 장치로부터 이미지 데이터 정보를 수신하는 단계, 이미지 센서가 이미지 데이터 정보로부터 이미지 센서에 의해 획득된 이미지 데이터의 포화도 비율을 계산하는 단계, 그리고 이미지 센서가 포화도 비율에 기반하여 리모자이크(remosaic) 설정을 조절하는 단계를 포함하고, 이미지 센서는 이미지 센서에 의해 획득된 이미지데 대해 리모자이크 설정에 기반하여 리모자이크를 수행하도록 구성된다.A method of operating an image sensor including a plurality of pixels includes the steps of the image sensor receiving image data information from an external device, and the image sensor calculating a saturation ratio of image data acquired by the image sensor from the image data information. , and a step of the image sensor adjusting remosaic settings based on the saturation ratio, and the image sensor is configured to perform remosaic based on the remosaic settings for the image acquired by the image sensor.

본 기재의 실시 예에 따른 전자 장치는 이미지 데이터를 생성하는 이미지 센서, 그리고 이미지 데이터에 기반하여 이미지 데이터 정보를 생성하고, 그리고 이미지 데이터 정보를 이미지 센서로 전달하는 프로세서를 포함하고, 이미지 센서는 복수의 픽셀들을 포함하고, 이미지 데이터 정보로부터 복수의 픽셀들의 포화도 비율을 계산하고, 그리고 포화도 비율에 기반하여 복수의 픽셀들의 크로스토크를 제1 모드 및 제2 모드 중 하나에 기반하여 정정하도록 구성되고, 제1 모드에서, 이미지 센서는 이득 및 오프셋에 기반하여 크로스토크를 정정하도록 구성되고, 그리고 제2 모드에서, 이미지 센서는 이득 및 오프셋에 기반하여 크로스토크를 정정하고, 그리고 리모자이크(remosaic) 설정을 조절함으로써 크로스토크를 추가적으로 정정하도록 구성된다.An electronic device according to an embodiment of the present disclosure includes an image sensor that generates image data, and a processor that generates image data information based on the image data and transmits the image data information to the image sensor, and the image sensor includes a plurality of image sensors. pixels, and configured to calculate a saturation ratio of the plurality of pixels from the image data information, and correct crosstalk of the plurality of pixels based on the saturation ratio based on one of the first mode and the second mode, In a first mode, the image sensor is configured to correct crosstalk based on gain and offset, and in a second mode, the image sensor is configured to correct crosstalk based on gain and offset and remosaic settings. It is configured to additionally correct crosstalk by adjusting .

본 기재의 실시 예들에 따르면, 픽셀들에 의해 감지되는 픽셀 값들이 포화됨에 따라, 이미지 센서는 리모자이크 설정을 조절할 수 있다. 따라서, 픽셀 값들이 포화되는 경우에도 크로스토크를 정정할 수 있는 이미지 센서, 이미지 센서의 동작 방법, 그리고 이미지 센서를 포함하는 전자 장치가 제공된다.According to embodiments of the present disclosure, as pixel values detected by pixels become saturated, the image sensor may adjust remosaic settings. Accordingly, an image sensor capable of correcting crosstalk even when pixel values are saturated, a method of operating the image sensor, and an electronic device including the image sensor are provided.

도 1은 본 기재의 실시 예에 따른 전자 장치를 보여준다.
도 2는 도 1의 전자 장치의 동작 방법의 예를 보여준다.
도 3은 본 발명의 실시 예에 따른 이미지 센서를 보여준다.
도 4는 이미지 센서의 픽셀들이 배치된 예를 보여준다.
도 5는 픽셀 어레이의 픽셀들의 일부의 단면도의 예를 보여준다.
도 6은 리모자이크가 수행된 픽셀 값들의 예를 보여준다.
도 7은 이미지 센서의 프로세싱 회로의 크로스토크 정정부가 크로스토크를 정정하는 방법의 예를 보여준다.
도 8은 응용 프로세서가 제2 이미지 데이터로부터 이미지 데이터 정보(IDI)를 생성하는 예를 설명하기 위한 도면이다.
도 9는 응용 프로세서가 이미지 데이터 정보를 이미지 센서에 전송하는 과정의 예를 보여준다.
도 10은 이미지 센서의 프로세싱 회로가 포화도 비율에 기반하여 크로스토크를 억제하는 방법의 예를 보여준다.
도 11은 이미지 센서의 프로세싱 회로가 포화도 비율을 계산하는 방법의 예를 보여준다.
도 12는 본 기재의 실시 예에 따른 리모자이크 설정을 조절하는 방법의 예를 보여준다.
도 13은 이미지 센서의 프로세싱 회로가 포화도 비율에 따라 리모자이크 설정을 조절하는 추세의 예를 보여준다.
도 14는 이미지 센서의 프로세싱 회로가 리모자이크 설정에 기반하여 리모자이크를 수행하는 방법의 예를 보여준다.
도 15는 이미지 센서의 프로세싱 회로가 포화도 비율을 계산하는 방법의 다른 예를 보여준다.
도 16은 멀티 이미지 센서를 포함하는 전자 장치의 블록도이다.
도 17은 도 16의 이미지 센서의 상세 블록도이다.
1 shows an electronic device according to an embodiment of the present disclosure.
FIG. 2 shows an example of a method of operating the electronic device of FIG. 1.
Figure 3 shows an image sensor according to an embodiment of the present invention.
Figure 4 shows an example of arrangement of pixels of an image sensor.
Figure 5 shows an example of a cross-sectional view of some of the pixels of a pixel array.
Figure 6 shows an example of pixel values on which remosaic was performed.
Figure 7 shows an example of how the crosstalk correction unit of the processing circuit of the image sensor corrects crosstalk.
FIG. 8 is a diagram for explaining an example in which an application processor generates image data information (IDI) from second image data.
Figure 9 shows an example of a process in which an application processor transmits image data information to an image sensor.
Figure 10 shows an example of how an image sensor's processing circuit suppresses crosstalk based on the saturation ratio.
Figure 11 shows an example of how the image sensor's processing circuitry calculates the saturation ratio.
Figure 12 shows an example of a method for adjusting remosaic settings according to an embodiment of the present disclosure.
Figure 13 shows an example of a trend in which the image sensor's processing circuit adjusts the remosaic settings according to the saturation ratio.
Figure 14 shows an example of how the processing circuit of the image sensor performs remosaic based on the remosaic setting.
Figure 15 shows another example of how the image sensor's processing circuitry calculates the saturation ratio.
16 is a block diagram of an electronic device including a multi-image sensor.
FIG. 17 is a detailed block diagram of the image sensor of FIG. 16.

이하에서, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재될 것이다. 아래에서, '그리고/또는'의 용어는 해당 용어와 연관되어 나열된 항목들의 어느 하나, 그리고 연관되어 나열된 항목들 중 일부 또는 전부의 조합을 포함하는 것으로 해석된다.Hereinafter, embodiments of the present invention will be described clearly and in detail so that a person skilled in the art can easily practice the present invention. Below, the term 'and/or' is interpreted to include any one of the items listed in connection with the term, and a combination of some or all of the items listed in connection with the term.

도 1은 본 기재의 실시 예에 따른 전자 장치(10)를 보여준다. 도 1을 참조하면, 전자 장치(10)는 이미지 센서(100) 및 응용 프로세서(200)를 포함할 수 있다. 예시적으로, 전자 장치(10)는 디스플레이 장치, 메모리, 스토리지 장치, 사용자 인터페이스 장치와 같은 다양한 주변 장치들을 더 포함할 수 있다.Figure 1 shows an electronic device 10 according to an embodiment of the present disclosure. Referring to FIG. 1 , the electronic device 10 may include an image sensor 100 and an application processor 200. By way of example, the electronic device 10 may further include various peripheral devices such as a display device, memory, storage device, and user interface device.

이미지 센서(100)는 픽셀부(110), 데이터 변환부(120), 그리고 프로세싱부(130)를 포함할 수 있다. 픽셀부(110)는 복수의 픽셀들을 포함할 수 있다. 픽셀부(110)는 복수의 픽셀들을 이용하여 아날로그 신호(AS)를 생성할 수 있다. 아날로그 신호(AS)는 픽셀부(110)의 픽셀들에 입사되는 광의 세기에 따라 서로 다른 레벨들(예를 들어, 전압 레벨들 또는 전류 레벨들)을 갖는 복수의 신호들을 포함할 수 있다.The image sensor 100 may include a pixel unit 110, a data conversion unit 120, and a processing unit 130. The pixel unit 110 may include a plurality of pixels. The pixel unit 110 may generate an analog signal AS using a plurality of pixels. The analog signal AS may include a plurality of signals having different levels (eg, voltage levels or current levels) depending on the intensity of light incident on the pixels of the pixel unit 110.

데이터 변환부(120)는 픽셀부(110)에 의해 생성되는 아날로그 신호(AS)를 디지털 신호(DS)로 변환할 수 있다. 데이터 변환부(120)는 변환된 디지털 신호(DS)를 프로세싱부(130)로 출력할 수 있다. 디지털 신호(DS)는 아날로그 신호(AS)의 복수의 신호들의 레벨들로부터 변환된 복수의 디지털 값들을 포함할 수 있다.The data conversion unit 120 may convert the analog signal AS generated by the pixel unit 110 into a digital signal DS. The data conversion unit 120 may output the converted digital signal DS to the processing unit 130. The digital signal DS may include a plurality of digital values converted from the levels of a plurality of signals of the analog signal AS.

프로세싱부(130)는 데이터 변환부(120)로부터 디지털 신호(DS)를 수신할 수 있다. 프로세싱부(130)는 디지털 신호(DS)로부터 잡음들 그리고/또는 왜곡들을 제거하는 교정(calibration)을 수행하여 이미지 데이터(ID)를 생성할 수 있다. 프로세싱부(130)는 이미지 데이터(ID)를 응용 프로세서(200)로 출력할 수 있다. 예를 들어, 프로세싱부(130)는 MIPI(Mobile Industry Processor Interface) C-PHY 또는 D-PHY에 기반하여 이미지 데이터(ID)를 응용 프로세서(200)로 출력할 수 있다.The processing unit 130 may receive the digital signal DS from the data conversion unit 120. The processing unit 130 may generate image data (ID) by performing calibration to remove noises and/or distortions from the digital signal (DS). The processing unit 130 may output image data (ID) to the application processor 200. For example, the processing unit 130 may output image data (ID) to the application processor 200 based on MIPI (Mobile Industry Processor Interface) C-PHY or D-PHY.

예를 들어, 프로세싱부(130)는 교정을 위해 디지털 신호(DS)를 저장하기 위한 메모리(예를 들어, 정적 랜덤 액세스 메모리)를 포함할 수 있다. 메모리는 픽셀부(110)의 픽셀들의 하나 또는 그보다 많은 행들의 픽셀들에 대응하는 디지털 신호(DS)를 저장할 수 있다. 메모리의 용량은 교정을 수행하기 위해 필요한 픽셀들의 단위에 대응할 수 있다.For example, the processing unit 130 may include a memory (eg, static random access memory) for storing the digital signal DS for calibration. The memory may store the digital signal DS corresponding to pixels in one or more rows of pixels of the pixel unit 110. The capacity of the memory may correspond to the unit of pixels required to perform calibration.

프로세싱부(130)는 응용 프로세서(200)로부터 이미지 데이터 정보(IDI)를 수신할 수 있다. 예를 들어, 프로세싱부(130)는 MIPI C-PHY 또는 D-PHY, 또는 I2C(Inter-Integrated Circuit) 인터페이스를 통해 응용 프로세서(200)로부터 이미지 데이터 정보(IDI)를 수신할 수 있다. 이미지 데이터 정보(IDI)는 이전 프레임의 이미지 데이터(ID)에 대한 정보를 포함할 수 있다. 프로세싱부(130)는 이미지 데이터 정보(IDI)에 기반하여 교정(calibration)을 수행하는 모드 또는 방식을 선택할 수 있다.The processing unit 130 may receive image data information (IDI) from the application processor 200. For example, the processing unit 130 may receive image data information (IDI) from the application processor 200 through MIPI C-PHY or D-PHY, or an Inter-Integrated Circuit (I2C) interface. Image data information (IDI) may include information about image data (ID) of the previous frame. The processing unit 130 may select a mode or method for performing calibration based on image data information (IDI).

프로세싱부(130)는 리모자이크부(131), 비닝부(132), 크로스토크 정정부(133), 그리고 포화 관리부(134)를 포함할 수 있다. 프로세싱부(130)는 디지털 신호(DS)의 디지털 값들에 대응하는 밝기(또는 조도)에 따라 리모자이크부(131) 및 비닝부(132) 중 하나를 선택적으로 활성화할 수 있다.The processing unit 130 may include a remosaic unit 131, a binning unit 132, a crosstalk correction unit 133, and a saturation management unit 134. The processing unit 130 may selectively activate one of the remosaic unit 131 and the binning unit 132 according to the brightness (or illuminance) corresponding to the digital values of the digital signal DS.

디지털 신호(DS)의 디지털 값들에 대응하는 밝기(또는 조도)가 기준 값 이상일 때, 프로세싱부(130)는 리모자이크부(131)를 활성화할 수 있다. 리모자이크부(131)는 픽셀부(110)의 픽셀 패턴에 대응하는 디지털 신호(DS)으로부터 베이어 패턴에 대응하는 이미지 데이터(예를 들어, 이미지 데이터(ID)로 가공되는 중간 이미지 데이터)를 생성할 수 있다. 디지털 신호(DS)의 디지털 값들에 대응하는 밝기(또는 조도)가 기준 값(예를 들어, 밝기 기준 값)보다 적을 때, 프로세싱부(130)는 비닝부(132)를 활성화할 수 있다. 비닝부(132)는 픽셀부(110)의 픽셀 패턴들에 대응하는 디지털 신호(DS)의 동일 채널(예를 들어, 동일한 색)의 디지털 값들을 합하여 베이어 패턴의 이미지 데이터(예를 들어, 이미지 데이터(ID)로 가공되는 중간 이미지 데이터)를 생성할 수 있다.When the brightness (or illuminance) corresponding to the digital values of the digital signal DS is greater than or equal to the reference value, the processing unit 130 may activate the remosaic unit 131. The remosaic unit 131 generates image data (e.g., intermediate image data processed into image data ID) corresponding to a Bayer pattern from the digital signal DS corresponding to the pixel pattern of the pixel unit 110. can do. When the brightness (or illuminance) corresponding to the digital values of the digital signal DS is less than a reference value (eg, a brightness reference value), the processing unit 130 may activate the binning unit 132. The binning unit 132 sums the digital values of the same channel (e.g., the same color) of the digital signal DS corresponding to the pixel patterns of the pixel unit 110 to obtain Bayer pattern image data (e.g., image data). Intermediate image data that is processed into data (ID) can be created.

리모자이크부(131)가 활성화된 때에, 크로스토크 정정부(133)는 활성화될 수 있다. 크로스토크 정정부(133)는 디지털 신호(DS) 또는 리모자이크부(131)에 의해 리모자이크된 이미지 데이터의 픽셀 값들에 이득(gain) 및 오프셋(offset)을 적용함으로써 크로스토크 정정을 수행할 수 있다. 예를 들어, 크로스토크 정정부(133)는 이득 및 오프셋을 테이블의 형태로 저장하고, 그리고 테이블을 참조하여 크로스토크 정정을 수행할 수 있다.When the remosaic unit 131 is activated, the crosstalk correction unit 133 may be activated. The crosstalk correction unit 133 can perform crosstalk correction by applying gain and offset to the pixel values of the digital signal (DS) or the image data remosaiced by the remosaic unit 131. there is. For example, the crosstalk correction unit 133 may store the gain and offset in the form of a table, and perform crosstalk correction by referring to the table.

리모자이크부(131)가 활성화된 때에, 포화 관리부(134)는 활성화될 수 있다. 포화 관리부(134)는 이미지 데이터 정보(IDI)에 기반하여 픽셀부(110)의 픽셀들의 픽셀 값들(예를 들어, 픽셀들에 대응하는 디지털 신호(DS)의 디지털 신호들의 값들이 포화된 정도를 나타내는 포화도 비율을 계산할 수 있다. 포화 관리부(134)는 포화도 비율에 기반하여 리모자이크부(131)가 리모자이크를 수행하는 설정을 조절할 수 있다. 포화도 관리부(134)는 리모자이크 설정을 조절함으로써, 픽셀부(110)의 픽셀들의 픽셀 값들이 포화되는 환경에서 발생하는 크로스토크를 억제할 수 있다.When the remosaic unit 131 is activated, the saturation management unit 134 may be activated. The saturation management unit 134 determines the degree to which the pixel values of the pixels of the pixel unit 110 (for example, the digital signal values of the digital signal DS corresponding to the pixels) are saturated based on the image data information (IDI). The saturation ratio indicated can be calculated. The saturation management unit 134 can adjust the settings for the remosaic unit 131 to perform remosaic based on the saturation ratio. The saturation management unit 134 adjusts the remosaic setting, Crosstalk that occurs in an environment where pixel values of pixels of the pixel unit 110 are saturated can be suppressed.

도 1에서, 이미지 센서(100) 및 응용 프로세서(200)는 서로 직접 통신하는 것처럼 도시되었다. 그러나 이는 본 기재의 실시 예를 용이하게 전달하기 위한 것으로, 이미지 센서(100) 및 응용 프로세서(200) 사이에 이미지 데이터(ID)의 전달을 중개하는 또는 도와주는 다른 구성 요소들이 제공될 수 있다.In Figure 1, the image sensor 100 and the application processor 200 are shown as if in direct communication with each other. However, this is to facilitate the transfer of embodiments of the present disclosure, and other components that mediate or assist in the transfer of image data (ID) between the image sensor 100 and the application processor 200 may be provided.

도 2는 도 1의 전자 장치(10)의 동작 방법의 예를 보여준다. 도 1 및 도 2를 참조하면, S11 단계에서, 이미지 센서(100)는 응용 프로세서(200)에 이미지 데이터(예를 들어, 제1 프레임의 이미지 데이터(ID))를 전송할 수 있다. S12 단계에서, 응용 프로세서(200)는 수신된 이미지 데이터로부터 이미지 데이터 정보(IDI)를 생성할 수 있다. 예시적으로, 응용 프로세서(200)는 수신된 이미지 데이터를 디스플레이 장치를 통해 표시하거나 메모리에 저장할 수 있다.FIG. 2 shows an example of a method of operating the electronic device 10 of FIG. 1 . Referring to FIGS. 1 and 2 , in step S11, the image sensor 100 may transmit image data (eg, image data (ID) of the first frame) to the application processor 200. In step S12, the application processor 200 may generate image data information (IDI) from the received image data. By way of example, the application processor 200 may display the received image data through a display device or store it in a memory.

S13 단계에서, 응용 프로세서(200)는 이미지 데이터 정보(IDI)를 응용 프로세서(200)로 전송할 수 있다. S14 단계에서, 이미지 센서(100)의 프로세싱부(130)는 이미지 데이터 정보(IDI)에 기반하여 포화도 비율을 계산할 수 있다. S15 단계에서, 이미지 센서(100)의 프로세싱부(130)는 포화도 비율에 기반하여 크로스토크 정정 모드를 판단할 있다. 예시적으로, 이미지 데이터 정보(IDI)는 픽셀 값들의 평균 값(들) 또는 포화된 픽셀들의 수(들)를 포함할 수 있다.In step S13, the application processor 200 may transmit image data information (IDI) to the application processor 200. In step S14, the processing unit 130 of the image sensor 100 may calculate the saturation ratio based on image data information (IDI). In step S15, the processing unit 130 of the image sensor 100 may determine the crosstalk correction mode based on the saturation ratio. Illustratively, the image data information (IDI) may include average value(s) of pixel values or number(s) of saturated pixels.

예를 들어, 포화도 비율(예를 들어, 제1 프레임의 이미지 데이터(ID)의 포화도 비율)이 기준 값(예를 들어, 포화도 기준 값)보다 낮거나 '0'인 경우, 이미지 센서(100)의 프로세싱부(130)는 크로스토크 정정부(133)만을 이용하여 디지털 신호(DS) 의 크로스토크를 정정함으로써 이미지 데이터(ID)(예를 들어, 제1 프레임에 후속하는 제2 프레임의 이미지 데이터(ID))를 생성할 수 있다. 포화도 비율이 기준 값(예를 들어, 포화도 기준 값) 이상인 경우, 이미지 센서(100)의 프로세싱부(130)는 크로스토크 정정부(133)에 기반하여 디지털 신호(DS)의 크로스토크를 정정하되, 리모자이크부(131)의 리모자이크 설정을 조절함으로써 크로스토크를 추가적으로 정정하여 이미지 데이터(ID)를 생성(예를 들어, 제1 프레임에 후속하는 제2 프레임의 이미지 데이터)할 수 있다.For example, when the saturation ratio (e.g., the saturation ratio of the image data (ID) of the first frame) is lower than the reference value (e.g., the saturation reference value) or is '0', the image sensor 100 The processing unit 130 corrects the crosstalk of the digital signal DS using only the crosstalk correction unit 133 to produce image data ID (e.g., image data of the second frame following the first frame). (ID)) can be created. When the saturation ratio is greater than or equal to a reference value (e.g., a saturation reference value), the processing unit 130 of the image sensor 100 corrects the crosstalk of the digital signal DS based on the crosstalk correction unit 133. , crosstalk can be additionally corrected by adjusting the remosaic settings of the remosaic unit 131 to generate image data (ID) (for example, image data of the second frame following the first frame).

예시적으로, 크로스토크 정정부(133)는 포화되지 않은 픽셀들의 픽셀 값들에 대해 크로스토크 정정을 수행할 수 있다. 리모자이크부(131)는 디지털 신호(DS)의 픽셀 값들의 전체 또는 일부 영역에 대해 크로스토크 정정(또는 억제)을 수행할 수 있다. 리모자이크부(131)가 픽셀들에 대응하는 디지털 신호 상에서 크로스토크를 정정(또는 억제)할 영역을 선택하는 것은 포화도 또는 포화도 비율과 관계없이 수행될 수 있다.Exemplarily, the crosstalk correction unit 133 may perform crosstalk correction on pixel values of pixels that are not saturated. The remosaic unit 131 may perform crosstalk correction (or suppression) on all or part of the pixel values of the digital signal DS. The remosaic unit 131's selection of an area to correct (or suppress) crosstalk on the digital signal corresponding to the pixels may be performed regardless of saturation or saturation ratio.

도 3은 본 발명의 실시 예에 따른 장치(300)를 보여준다. 예시적으로, 장치(300)는 도 1의 이미지 센서(100)의 픽셀부(110) 및 데이터 변환부(120)에 대응할 수 있다. 도 1 및 도 3을 참조하면, 장치(300)는 픽셀 어레이(310), 행 드라이버(320), 램프 신호 생성기(330)(RSG), 아날로그-디지털 변환 회로(340), 메모리 회로(350), 인터페이스 회로(360), 그리고 타이밍 생성기(370)(TG)를 포함할 수 있다.Figure 3 shows a device 300 according to an embodiment of the present invention. By way of example, the device 300 may correspond to the pixel unit 110 and the data conversion unit 120 of the image sensor 100 of FIG. 1 . 1 and 3, the device 300 includes a pixel array 310, a row driver 320, a ramp signal generator 330 (RSG), an analog-to-digital conversion circuit 340, and a memory circuit 350. , an interface circuit 360, and a timing generator 370 (TG).

예시적으로, 픽셀 어레이(310)는 픽셀부(110)에 대응할 수 있다. 행 드라이버(320), 램프 신호 생성기(330), 아날로그-디지털 변환 회로(340), 메모리 회로(350), 인터페이스 회로(360), 그리고 타이밍 생성기(370)는 데이터 변환부(120)에 대응할 수 있다.By way of example, the pixel array 310 may correspond to the pixel unit 110 . The row driver 320, the ramp signal generator 330, the analog-to-digital conversion circuit 340, the memory circuit 350, the interface circuit 360, and the timing generator 370 may correspond to the data conversion unit 120. there is.

픽셀 어레이(310)는 행과 열을 따라 매트릭스 형태로 배치된 복수의 픽셀들(PX)을 포함할 수 있다. 복수의 픽셀들(PX)의 각각은 광 검출기들을 포함할 수 있다. 예를 들어, 광 검출기들은 포토 다이오드, 포토 트랜지스터, 포토 게이트, 또는 핀드 포토 다이오드(pinned photodiode) 등을 포함할 수 있다. 복수의 픽셀들(PX)의 각각은 광 검출기를 이용하여 광을 감지하고, 감지된 광의 양을 전기 신호, 예를 들어, 전압 또는 전류로 변환할 수 있다. The pixel array 310 may include a plurality of pixels (PX) arranged in a matrix form along rows and columns. Each of the plurality of pixels PX may include photo detectors. For example, photo detectors may include photo diodes, photo transistors, photo gates, pinned photo diodes, etc. Each of the plurality of pixels PX may detect light using a photodetector and convert the amount of detected light into an electrical signal, for example, voltage or current.

픽셀 어레이(310) 상에 컬러 필터 어레이(CFA)(Color Filter Array) 및 렌즈가 적층될 수 있다. 컬러 필터 어레이는 적색(R), 녹색(G) 및 청색(B)의 필터들을 포함할 수 있다. 복수의 픽셀들(PX)에 둘 이상의 서로 다른 컬러 필터들이 배치될 수 있다. 예를 들어, 복수의 픽셀들(PX)에 적어도 하나의 청색 컬러 필터, 적어도 하나의 적색 컬러 필터, 그리고 적어도 두 개의 녹색 컬러 필터들이 배치될 수 있다. A color filter array (CFA) and a lens may be stacked on the pixel array 310 . The color filter array may include red (R), green (G), and blue (B) filters. Two or more different color filters may be disposed in the plurality of pixels PX. For example, at least one blue color filter, at least one red color filter, and at least two green color filters may be disposed in the plurality of pixels PX.

행 드라이버(320)는 제1 내지 제m 행 라인들(RL1~RLm)(m은 양의 정수)을 통해 픽셀 어레이(310)의 픽셀들(PX)의 행들에 각각 연결될 수 있다. 행 드라이버(320)는 타이밍 생성기(370)에 의해 생성된 어드레스 및/또는 제어 신호를 디코딩하여, 픽셀 어레이(310)의 제1 내지 제m 행 라인들(RL1~RLm)을 순차적으로 선택하고, 그리고 선택된 행 라인을 특정한 전압으로 구동할 수 있다. 예를 들어, 행 드라이버(320)는 선택된 행 라인을 광의 감지를 위해 적합한 전압으로 구동할 수 있다.The row driver 320 may be connected to each row of pixels PX of the pixel array 310 through the first to mth row lines RL1 to RLm (m is a positive integer). The row driver 320 decodes the address and/or control signal generated by the timing generator 370 to sequentially select the first to mth row lines RL1 to RLm of the pixel array 310, And the selected row line can be driven with a specific voltage. For example, the row driver 320 may drive the selected row line to a voltage suitable for detecting light.

픽셀들(PX)의 행들에 연결되는 제1 내지 제m 행 라인들(RL1~RLm)의 각각은 둘 이상의 라인들을 포함할 수 있다. 둘 이상의 라인들은, 예를 들어 픽셀의 광 검출기들을 선택(또는 활성화)하기 위한 신호, 플로팅 확산 노드를 리셋하기 위한 신호, 열 라인을 선택하기 위한 신호, 변환 이득(CG)(Conversion Gain)을 조절하기 위한 신호 등을 포함하는 다양한 신호들을 각각 전달할 수 있다.Each of the first to mth row lines RL1 to RLm connected to rows of pixels PX may include two or more lines. Two or more lines, for example, a signal to select (or activate) a pixel's photo detectors, a signal to reset a floating diffusion node, a signal to select a column line, and a signal to control the conversion gain (CG). Various signals, including signals for

램프 신호 생성기(330)는 램프 신호(RS)를 생성할 수 있다. 램프 신호 생성기(330)는 타이밍 생성기(370)의 제어 하에 동작할 수 있다. 예를 들어, 램프 신호 생성기(330)는 램프 인에이블 신호, 모드 신호 등과 같은 제어 신호 하에 동작할 수 있다. 램프 인에이블 신호가 활성화되는 것에 응답하여, 램프 신호 생성기(330)는 모드 신호에 기초하여 설정되는 기울기를 가지는 램프 신호를 생성할 수 있다. 예를 들어, 램프 신호 생성기(330)는 시간이 흐름에 따라 초기 레벨로부터 지속적으로 감소 또는 증가하는 램프 신호(RS)를 생성할 수 있다.The ramp signal generator 330 may generate a ramp signal RS. The ramp signal generator 330 may operate under the control of the timing generator 370. For example, the ramp signal generator 330 may operate under a control signal such as a ramp enable signal or mode signal. In response to the ramp enable signal being activated, the ramp signal generator 330 may generate a ramp signal with a slope set based on the mode signal. For example, the ramp signal generator 330 may generate a ramp signal RS that continuously decreases or increases from the initial level over time.

아날로그-디지털 변환 회로(340)는 제1 내지 제n 열 라인들(CL1~CLn)(n은 양의 정수)을 통해 픽셀 어레이(310)의 픽셀들(PX)의 열들에 각각 연결될 수 있다. 아날로그-디지털 변환 회로(340)는 제1 내지 제n 열 라인들(CL1~CLn)에 각각 연결되는 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)을 포함할 수 있다. 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)은 램프 신호 생성기(330)로부터 램프 신호(RS)를 공통으로 수신할 수 있다.The analog-to-digital conversion circuit 340 may be connected to each of the columns of pixels PX of the pixel array 310 through the first to nth column lines CL1 to CLn (n is a positive integer). The analog-to-digital conversion circuit 340 may include first to nth analog-to-digital converters (AD1 to ADn) respectively connected to the first to nth column lines (CL1 to CLn). The first to nth analog-to-digital converters AD1 to ADn may commonly receive the ramp signal RS from the ramp signal generator 330.

제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)은 제1 내지 제n 열 라인들(CL1~CLn)의 전압들(또는 전류들)을 램프 신호(RS)와 비교할 수 있다. 램프 신호는 일정한 비율로 감소하는(또는 증가하는) 신호이다. 제1 내지 제n 아날로그-디지털 변환기들(AD1~And)은 램프 신호(RS)가 제1 내지 제n 열 라인들(CL1~CLn)의 픽셀 전압들(또는 픽셀 전류들)보다 작아질 때(또는 커질 때)까지의 카운트 값을 래치하고, 그리고 래치된 카운트 값을 디지털 값으로 변환하여 출력할 수 있다. 즉, 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)은 픽셀들(PX)로부터 제1 내지 제n 열 라인들(CL1~CLn)로 출력된 전압들(또는 전류들)의 크기(또는 양)에 대응하는 디지털 값들을 출력할 수 있다.The first to nth analog-to-digital converters AD1 to ADn may compare the voltages (or currents) of the first to nth column lines CL1 to CLn with the ramp signal RS. A ramp signal is a signal that decreases (or increases) at a constant rate. When the ramp signal RS becomes smaller than the pixel voltages (or pixel currents) of the first to nth column lines CL1 to CLn ( Alternatively, the count value can be latched until it becomes large, and the latched count value can be converted to a digital value and output. That is, the first to nth analog-to-digital converters AD1 to ADn are the magnitudes of voltages (or currents) output from the pixels PX to the first to nth column lines CL1 to CLn ( or quantity) can be output.

제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)의 각각은 적어도 두 개의 서브 변환기들을 포함할 수 있다. 서브 변환기들은 대응하는 열 라인에 공통으로 연결되고, 그리고 램프 신호(RS)를 공통으로 수신할 수 있다. 서브 변환기들은 동일한 해상도들 또는 서로 다른 해상도들을 가질 수 있다. 서브 변환기들은 서로 다른 타이밍들에 활성화되어, 대응하는 열 라인의 전압(또는 전류)을 디지털 값들(또는 디지털 신호들)로 변환할 수 있다.Each of the first to nth analog-to-digital converters (AD1 to ADn) may include at least two sub-converters. The sub-converters are commonly connected to the corresponding column line, and can commonly receive the ramp signal (RS). The sub-converters may have the same resolutions or different resolutions. The sub-converters may be activated at different timings to convert the voltage (or current) of the corresponding column line into digital values (or digital signals).

메모리 회로(350)는 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)에 각각 대응하는 제1 내지 제n 메모리들(M1~Mn)을 포함할 수 있다. 제1 내지 제n 메모리들(M1~Mn)은 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)로부터 수신된 디지털 값들(또는 디지털 신호들)을 저장하고, 그리고 저장된 값들(또는 신호들)을 도 1의 프로세싱부(130)로 전달할 수 있다. The memory circuit 350 may include first to nth memories M1 to Mn respectively corresponding to the first to nth analog-to-digital converters AD1 to ADn. The first to nth memories (M1 to Mn) store digital values (or digital signals) received from the first to nth analog-to-digital converters (AD1 to ADn), and the stored values (or signals) ) can be transmitted to the processing unit 130 of FIG. 1.

타이밍 생성기(370)(TG)는 장치(300)가 동작하는 타이밍들을 제어할 수 있다. 타이밍 생성기(370)는 행 드라이버(320)가 제1 내지 제m 행 라인들(RL1~RLm)을 순차적으로 선택하는 타이밍들을 제어하고, 그리고 제1 내지 제m 행 라인들(RL1~RLm) 중 선택된 행 라인에 포함된 둘 이상의 라인들을 통해 신호들이 전달되는 타이밍들을 제어할 수 있다.The timing generator 370 (TG) may control the timings at which the device 300 operates. The timing generator 370 controls the timings at which the row driver 320 sequentially selects the first to mth row lines RL1 to RLm, and among the first to mth row lines RL1 to RLm. The timings at which signals are transmitted through two or more lines included in the selected row line can be controlled.

타이밍 생성기(370)는 램프 신호 생성기(330)가 램프 신호(RS)를 생성하고, 그리고 램프 신호를 초기화하는 타이밍들을 제어할 수 있다. 타이밍 생성기(370)는 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)이 카운트 및 비교를 시작하는 타이밍들 및 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)을 초기화하는 타이밍들을 제어할 수 있다.The timing generator 370 may control the timings at which the ramp signal generator 330 generates the ramp signal RS and initializes the ramp signal. The timing generator 370 generates timings at which the first to nth analog-to-digital converters (AD1 to ADn) start counting and comparison and timings to initialize the first to nth analog-to-digital converters (AD1 to ADn). You can control them.

도 4는 픽셀부(110)의 픽셀들이 배치된 예를 보여준다. 도 1, 도 3 및 도 4를 참조하면, 픽셀부(110)는 좌상단의 제1 픽셀(PX1), 우상단의 제2 픽셀(PX2), 좌하단의 제3 픽셀(PX3), 그리고 우하단의 제4 픽셀(PX4)이 2차원 평면의 형태로 반복적으로 배치되는 패턴을 가질 수 있다.Figure 4 shows an example of arrangement of pixels of the pixel unit 110. Referring to FIGS. 1, 3, and 4, the pixel unit 110 includes a first pixel (PX1) at the top left, a second pixel (PX2) at the top right, a third pixel (PX3) at the bottom left, and a pixel (PX3) at the bottom right. The fourth pixel PX4 may have a pattern that is repeatedly arranged in the form of a two-dimensional plane.

제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 각각은 복수의 서브 픽셀들을 포함할 수 있다. 예시적으로, 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 각각은 9개의 서브 픽셀들을 포함하는 것으로 도시되지만, 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 각각에 포함되는 서브 픽셀들의 수는 한정되지 않는다.Each of the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel (PX4) may include a plurality of subpixels. Exemplarily, each of the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel (PX4) is shown as including 9 sub-pixels, but the first pixel (PX1) ), the number of subpixels included in each of the second pixel (PX2), third pixel (PX3), and fourth pixel (PX4) is not limited.

예시적으로, 제1 픽셀(PX1)의 서브 픽셀들은 적색(R)의 컬러 필터를 공유할 수 있다. 제2 픽셀(PX2)의 서브 픽셀들은 녹색(G)(예를 들어, Gr)의 컬러 필터를 공유할 수 있다. 제3 픽셀(PX3)의 서브 픽셀들은 녹색(G)(예를 들어, Gb)의 컬러 필터를 공유할 수 있다. 제4 픽셀(PX4)의 서브 픽셀들은 청색(B)의 컬러 필터를 공유할 수 있다.As an example, subpixels of the first pixel PX1 may share a red (R) color filter. Subpixels of the second pixel PX2 may share a green (G) (eg, Gr) color filter. Subpixels of the third pixel PX3 may share a green (G) (eg, Gb) color filter. Subpixels of the fourth pixel PX4 may share a blue (B) color filter.

도 5는 픽셀 어레이(400)의 픽셀들의 일부의 단면도의 예를 보여준다. 예시적으로, 픽셀 어레이(400)는 장치(300)의 픽셀 어레이(310)에 대응할 수 있다. 도 3, 도 4 및 도 5를 참조하면, 픽셀 어레이(400)는 Figure 5 shows an example of a cross-sectional view of some of the pixels of pixel array 400. Illustratively, the pixel array 400 may correspond to the pixel array 310 of the device 300. Referring to FIGS. 3, 4, and 5, the pixel array 400 is

픽셀 어레이(400)는 서브 픽셀들에 각각 대응하고 입사광을 대응하는 픽셀들에 집중하도록 구성되는 마이크로 렌즈들(410), 마이크로 렌즈(410)의 하부에 위치하는 컬러 필터 영역(420), 컬러 필터 영역(420)의 하부 위치하며 입사광의 반사를 방지하는 반사 방지막(425), 입사광에 기반하여 전하를 생성하는 광전 변환 영역들(430), 그리고 광전 변환 영역들(430)의 하부에 위치하며 광전 변환 영역들(430)에 의해 생성된 전하를 감지하는 감지 회로들(440)을 포함할 수 있다. 광전 변환 영역들(430)은 서로 전기적으로 절연될 수 있다.The pixel array 400 includes micro lenses 410 that respectively correspond to sub-pixels and are configured to focus incident light on the corresponding pixels, a color filter area 420 located below the micro lens 410, and a color filter. An anti-reflection film 425 located below the area 420 and preventing reflection of incident light, photoelectric conversion areas 430 that generate charges based on incident light, and photoelectric conversion areas 430 located below the photoelectric conversion areas 430 and preventing reflection of incident light. It may include sensing circuits 440 that detect charges generated by the conversion regions 430 . The photoelectric conversion regions 430 may be electrically insulated from each other.

컬러 필터 영역(420)에서, 제1 픽셀(PX1)의 서브 픽셀들의 상단에 제1 컬러 필터(CF1)가 제공될 수 있다. 제1 컬러 필터(CF1)는 적색에 해당하는 주파수의 광을 통과시킬 수 있다. 컬러 필터 영역(420)에서, 제2 픽셀(PX2)의 서브 픽셀들의 상단에 제2 컬러 필터(CF2)가 제공될 수 있다. 제2 컬러 필터(CF2)는 녹색에 해당하는 주파수의 광을 통과시킬 수 있다. 컬러 필터 영역(420) 내의 컬러 필터들, 예를 들어 제1 컬러 필터(CF1) 및 제2 컬러 필터들(CF2)의 사이에, 메탈 성분을 포함하며 입사광의 크로스토크를 방지하기 위한 그리드들(GD)이 제공될 수 있다.In the color filter area 420, the first color filter CF1 may be provided on top of the subpixels of the first pixel PX1. The first color filter CF1 may pass light with a frequency corresponding to red. In the color filter area 420, the second color filter CF2 may be provided on top of the subpixels of the second pixel PX2. The second color filter CF2 may pass light with a frequency corresponding to green. Between the color filters in the color filter area 420, for example, the first color filter CF1 and the second color filter CF2, grids including a metal component and preventing crosstalk of incident light ( GD) may be provided.

도 4에 도시되지 않지만, 제1 픽셀(PX1) 및 제2 픽셀(PX2)과 마찬가지로, 제3 픽셀(PX3)의 서브 픽셀들의 상단에 녹색에 해당하는 주파수의 광을 통과시키는 컬러 필터가 제공되고, 그리고 제4 픽셀(PX4)의 서브 픽셀들의 상단에 청색에 해당하는 주파수의 광을 통과시키는 컬러 필터가 제공될 수 있다.Although not shown in FIG. 4, like the first pixel PX1 and the second pixel PX2, a color filter is provided at the top of the subpixels of the third pixel PX3 to pass light with a frequency corresponding to green. , and a color filter that passes light with a frequency corresponding to blue may be provided on top of the subpixels of the fourth pixel PX4.

제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 광전 변환 영역들(430)의 사이에, 그리고 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 각각의 서브 픽셀들의 광전 변환 영역들(430)의 사이에, 광이 인접한 다른 서브 픽셀들 또는 픽셀들로 누설되는 것을 차단하는 반사 물질들이 제공될 수 있다.Between the photoelectric conversion areas 430 of the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel (PX4), and the first pixel (PX1) and the second pixel Between the photoelectric conversion areas 430 of each subpixel of (PX2), the third pixel (PX3), and the fourth pixel (PX4), light is blocked from leaking to other adjacent subpixels or pixels. Reflective materials may be provided.

감지 회로(440)는 제1 내지 제n 열 라인들(CL1~CLn) 중 대응하는 열 라인, 그리고 제1 내지 제m 행 라인들(RL1~RLm) 중 대응하는 행 라인에 연결되는 트랜지스터들을 포함할 수 있다.The sensing circuit 440 includes transistors connected to a corresponding column line among the first to nth column lines CL1 to CLn and a corresponding row line among the first to mth row lines RL1 to RLm. can do.

도 4에 도시된 바와 같이, 컬러 필터(CF1 또는 CF2)의 두께는 균일하지 않을 수 있다. 제1 픽셀(PX1)의 중앙부의 서브 픽셀에 대응하는 제1 컬러 필터(CF1)의 두께는 제1 픽셀(PX1)의 가장자리의 서브 픽셀들에 대응하는 제1 컬러 필터(CF1)의 두께들보다 두꺼울 수 있다. 따라서, 동일한 방향(예를 들어, 수직 방향)에서 동일한 밝기(예를 들어, 조도)의 광이 입사되어도, 제1 픽셀(PX1)의 중앙부의 서브 픽셀이 감지하는 픽셀 값은 제1 픽셀(PX1)의 가장자리의 서브 픽셀들이 감지하는 픽셀 값보다 낮을 수 있다. 또한, 제1 픽셀(PX1)의 중앙부의 서브 픽셀은 동일한 색의 컬러 필터를 갖는 이웃한 서브 픽셀들을 갖는다. 그러나 제1 픽셀(PX1)의 가장자리의 서브 픽셀은 동일한 색의 컬러 필터를 갖는 이웃한 서브 픽셀들 및 다른 색의 컬러 필터를 갖는 이웃한 서브 픽셀들을 가질 수 있다. 즉, 서브 픽셀들의 환경에 따라, 크로스토크의 영향이 달라질 수 있다.As shown in FIG. 4, the thickness of the color filter CF1 or CF2 may not be uniform. The thickness of the first color filter CF1 corresponding to the subpixels at the center of the first pixel PX1 is greater than the thicknesses of the first color filter CF1 corresponding to the subpixels at the edges of the first pixel PX1. It can be thick. Therefore, even if light of the same brightness (e.g., illuminance) is incident in the same direction (e.g., vertical direction), the pixel value detected by the central subpixel of the first pixel (PX1) is the same as that of the first pixel (PX1). ) may be lower than the detected pixel value of the subpixels at the edge. Additionally, the central subpixel of the first pixel PX1 has neighboring subpixels having color filters of the same color. However, a subpixel at the edge of the first pixel PX1 may have neighboring subpixels having a color filter of the same color and neighboring subpixels having a color filter of a different color. That is, the effect of crosstalk may vary depending on the environment of the subpixels.

밝기(예를 들어, 조도)가 기준 값(예를 들어, 조도 기준 값)보다 낮을 때에, 프로세싱부(130)(도 1 참조)의 비닝부(132)는 비닝을 수행할 수 있다. 예를 들어, 비닝부(132)는 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 각각의 서브 픽셀들의 픽셀 값들을 합할(또는 평균을 계산할) 수 있다. 즉, 프로세싱부(130)는 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 픽셀들의 픽셀 값들을 포함하는 이미지 데이터(ID)를 생성할 수 있다. 비닝이 수행된 이미지 데이터(ID)는 베이어(Bayer) 패턴에 기반하므로, 별도의 변환 동작이 필요하지 않는다.When the brightness (eg, illuminance) is lower than the reference value (eg, illuminance reference value), the binning unit 132 of the processing unit 130 (see FIG. 1) may perform binning. For example, the binning unit 132 sums (or averages) the pixel values of each subpixel of the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel (PX4). can be calculated). That is, the processing unit 130 generates image data (ID) including pixel values of the pixels of the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel (PX4). can do. Since the image data (ID) on which the binning has been performed is based on a Bayer pattern, a separate conversion operation is not required.

밝기(예를 들어, 조도)가 기준 값(예를 들어, 조도 기준 값) 이상일 때에, 프로세싱부(130)(도 1 참조)의 리모자이크부(131)는 리모자이크를 수행할 수 있다. 예를 들어, 리모자이크부(131)는 서브 픽셀 단위의 픽셀 값들을 유지하며, 아날로그 신호(AS)를 베이어 패턴으로 변환할 수 있다.When the brightness (eg, illuminance) is greater than or equal to a reference value (eg, illuminance reference value), the remosaic unit 131 of the processing unit 130 (see FIG. 1 ) may perform remosaic. For example, the remosaic unit 131 maintains pixel values in sub-pixel units and can convert the analog signal AS into a Bayer pattern.

도 6은 리모자이크가 수행된 픽셀 값들의 예를 보여준다. 도 3, 도 4, 도 5 및 도 6을 참조하면, 서브 픽셀들에 각각 대응하는 픽셀 값들은 베이어 패턴에 기반하도록 변환될 수 있다. 예를 들어, 제1 픽셀(PX1)의 제1행 및 제1열의 서브 픽셀에 대응하는 픽셀 값은 적색의 픽셀 값에 대응하도록 유지될 수 있다. 제1 픽셀(PX1)의 제1행 및 제2열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제1 픽셀(PX1)의 제1행 및 제3열의 서브 픽셀에 대응하는 픽셀 값은 적색의 픽셀 값에 대응하도록 유지될 수 있다.Figure 6 shows an example of pixel values on which remosaic was performed. Referring to FIGS. 3, 4, 5, and 6, pixel values corresponding to subpixels may be converted to be based on a Bayer pattern. For example, the pixel value corresponding to the subpixel in the first row and first column of the first pixel PX1 may be maintained to correspond to a red pixel value. The pixel value corresponding to the subpixel in the first row and second column of the first pixel PX1 may be converted (eg, based on interpolation) to correspond to a green pixel value. The pixel value corresponding to the subpixel in the first row and third column of the first pixel PX1 may be maintained to correspond to a red pixel value.

제1 픽셀(PX1)의 제2행 및 제1열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제1 픽셀(PX1)의 제2행 및 제2열의 서브 픽셀에 대응하는 픽셀 값은 청색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제1 픽셀(PX1)의 제2행 및 제3열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다.The pixel value corresponding to the subpixel in the second row and first column of the first pixel PX1 may be converted (eg, based on interpolation) to correspond to a green pixel value. The pixel value corresponding to the subpixel in the second row and second column of the first pixel PX1 may be converted (eg, based on interpolation) to correspond to a blue pixel value. Pixel values corresponding to subpixels in the second row and third column of the first pixel PX1 may be converted (eg, based on interpolation) to correspond to green pixel values.

제1 픽셀(PX1)의 제3행 및 제1열의 서브 픽셀에 대응하는 픽셀 값은 적색의 픽셀 값에 대응하도록 유지될 수 있다. 제1 픽셀(PX1)의 제3행 및 제2열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제1 픽셀(PX1)의 제3행 및 제3열의 서브 픽셀에 대응하는 픽셀 값은 적색의 픽셀 값에 대응하도록 유지될 수 있다.The pixel value corresponding to the subpixel in the third row and first column of the first pixel PX1 may be maintained to correspond to a red pixel value. The pixel value corresponding to the subpixel in the third row and second column of the first pixel PX1 may be converted (eg, based on interpolation) to correspond to a green pixel value. The pixel value corresponding to the subpixel in the third row and third column of the first pixel PX1 may be maintained to correspond to a red pixel value.

제2 픽셀(PX2)의 제1행 및 제1열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 유지될 수 있다. 제2 픽셀(PX2)의 제1행 및 제2열의 서브 픽셀에 대응하는 픽셀 값은 적색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제2 픽셀(PX2)의 제1행 및 제3열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 유지될 수 있다.The pixel value corresponding to the subpixel in the first row and first column of the second pixel PX2 may be maintained to correspond to a green pixel value. Pixel values corresponding to subpixels in the first row and second column of the second pixel PX2 may be converted (eg, based on interpolation) to correspond to red pixel values. The pixel value corresponding to the subpixel in the first row and third column of the second pixel PX2 may be maintained to correspond to a green pixel value.

제2 픽셀(PX2)의 제2행 및 제1열의 서브 픽셀에 대응하는 픽셀 값은 청색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제2 픽셀(PX2)의 제2행 및 제2열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 유지될 수 있다. 제2 픽셀(PX2)의 제2행 및 제3열의 서브 픽셀에 대응하는 픽셀 값은 청색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다.The pixel value corresponding to the subpixel in the second row and first column of the second pixel PX2 may be converted (eg, based on interpolation) to correspond to a blue pixel value. The pixel value corresponding to the subpixel in the second row and second column of the second pixel PX2 may be maintained to correspond to a green pixel value. The pixel value corresponding to the subpixel in the second row and third column of the second pixel PX2 may be converted (eg, based on interpolation) to correspond to a blue pixel value.

제2 픽셀(PX2)의 제3행 및 제1열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 유지될 수 있다. 제2 픽셀(PX2)의 제3행 및 제2열의 서브 픽셀에 대응하는 픽셀 값은 적색의 픽셀 값에 대응하도록 변환(예를 들어, 보간에 기반하여)될 수 있다. 제2 픽셀(PX2)의 제3행 및 제3열의 서브 픽셀에 대응하는 픽셀 값은 녹색의 픽셀 값에 대응하도록 유지될 수 있다.The pixel value corresponding to the subpixel in the third row and first column of the second pixel PX2 may be maintained to correspond to a green pixel value. The pixel value corresponding to the subpixel in the third row and second column of the second pixel PX2 may be converted (eg, based on interpolation) to correspond to a red pixel value. The pixel value corresponding to the subpixel in the third row and third column of the second pixel PX2 may be maintained to correspond to the green pixel value.

마찬가지로, 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 서브 픽셀들의 픽셀 값들 또한 베이어 패턴에 기반하도록 변환될 수 있다. 예시적으로, 도 5 및 도 6에서, 우상단으로부터 좌하단으로 향하는 선들로 채워진 서브 픽셀에 대응하는 픽셀 값은 적색에 대응하는 픽셀 값일 수 있다. 좌상단으로부터 우하단으로 향하는 선들로 채워진 서브 픽셀에 대응하는 픽셀 값은 청색에 대응하는 픽셀 값일 수 있다. 점으로 채워진 서브 픽셀에 대응하는 픽셀 값은 녹색에 대응하는 픽셀 값일 수 있다.Likewise, pixel values of subpixels of the third pixel PX3 and the fourth pixel PX4 may also be converted to be based on the Bayer pattern. For example, in FIGS. 5 and 6 , a pixel value corresponding to a subpixel filled with lines going from the upper right to the lower left may be a pixel value corresponding to red. The pixel value corresponding to the subpixel filled with lines going from the upper left to the lower right may be a pixel value corresponding to blue. The pixel value corresponding to the subpixel filled with dots may be a pixel value corresponding to green.

도 5를 참조하여 설명된 바와 같이, 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 서브 픽셀들 중 중앙부의 서브 픽셀에 의해 감지되는 픽셀 값은 가장자리의 서브 픽셀들에 의해 감지되는 픽셀 값들보다 낮을 수 있다. 따라서, 도 6의 서브 픽셀들에 대응하는 픽셀 값들에서, 중앙부의 서브 픽셀들에 대응하는 픽셀 값이 가장자리의 서브 픽셀들에 대응하는 픽셀 값들보다 낮아지는 크로스토크가 발생할 수 있다.As explained with reference to FIG. 5, the subpixel detected by the central subpixel among the subpixels of the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel (PX4) The pixel value may be lower than the pixel values sensed by the edge sub-pixels. Therefore, in the pixel values corresponding to the subpixels of FIG. 6, crosstalk may occur in which the pixel values corresponding to the central subpixels are lower than the pixel values corresponding to the edge subpixels.

도 7은 이미지 센서(100)의 프로세싱부(130)의 크로스토크 정정부(133)가 크로스토크를 정정하는 방법의 예를 보여준다. 도 1, 도 6 및 도 7을 참조하면, S21 단계에서, 크로스토크 정정부(133)는 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 서브 픽셀들의 픽셀 값들의 각각에 이득을 적용할 수 있다. 이득에 기반하여, 크로스토크 정정부(133)는 서브 픽셀들에 각각 대응하는 픽셀 값들을 비율로 조절할 수 있다.FIG. 7 shows an example of how the crosstalk correction unit 133 of the processing unit 130 of the image sensor 100 corrects crosstalk. Referring to FIGS. 1, 6, and 7, in step S21, the crosstalk correction unit 133 uses a first pixel (PX1), a second pixel (PX2), a third pixel (PX3), and a fourth pixel (PX4). ) can be applied to each of the pixel values of the subpixels. Based on the gain, the crosstalk correction unit 133 may adjust pixel values corresponding to each subpixel by ratio.

S22 단계에서, 크로스토크 정정부(133)는 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 서브 픽셀들의 픽셀 값들에 오프셋을 적용할 수 있다. 오프셋에 기반하여, 크로스토크 정정부(133)는 서브 픽셀들에 각각 대응하는 픽셀 값들을 오프셋 값만큼 조절(예를 들어, 더하거나 빼기)할 수 있다.In step S22, the crosstalk correction unit 133 applies an offset to the pixel values of the subpixels of the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel (PX4). You can. Based on the offset, the crosstalk correction unit 133 may adjust (for example, add or subtract) pixel values corresponding to each subpixel by the offset value.

제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 서브 픽셀들이 감지할 수 있는 최대 밝기(또는 최대 조도)의 광이 입사되면, 서브 픽셀들은 포화되어 최대 값의 픽셀 값들을 출력할 수 있다. 서브 픽셀들이 최대 값의 픽셀 값들을 출력할 때에, 크로스토크 정정부(133)가 크로스토크 정정을 수행하면, 이득 및 오프셋에 의해 이미지 데이터(ID)에서 아티팩트(artifact)가 발생할 수 있다. 따라서, 크로스토크 정정부(133)는 포화된 픽셀 값들에 대해 크로스토크 정정을 생략하도록(또는 수행하지 않도록) 구성될 수 있다.When light of the maximum brightness (or maximum illuminance) that can be detected by the subpixels of the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel (PX4) is incident, the subpixels can be saturated and output the maximum pixel values. When the subpixels output the maximum pixel values, if the crosstalk correction unit 133 performs crosstalk correction, artifacts may occur in the image data (ID) due to gain and offset. Accordingly, the crosstalk correction unit 133 may be configured to omit (or not perform) crosstalk correction for saturated pixel values.

또한, 도 5를 참조하여 설명된 바와 같이 컬러 필터(CF1 또는 CF2)의 두께가 균일하지 않으므로, 제1 픽셀(PX1), 제2 픽셀(PX2), 제3 픽셀(PX3) 및 제4 픽셀(PX4)의 각각의 가장자리의 서브 픽셀들이 포화되고, 그리고 중앙부의 서브 픽셀이 포화되지 않을 수 있다. 이 경우, 이미지 데이터(ID) 상에서 크로스토크로 인한 아티팩트가 발생할 수 있다.In addition, as explained with reference to FIG. 5, since the thickness of the color filter (CF1 or CF2) is not uniform, the first pixel (PX1), the second pixel (PX2), the third pixel (PX3), and the fourth pixel ( The subpixels at each edge of the PX4) may be saturated, and the subpixels in the center may not be saturated. In this case, artifacts due to crosstalk may occur on the image data (ID).

이러한 문제를 방지하기 위하여, 서브 픽셀들의 픽셀 값들에 대해 크로스토크 정정을 수행하되, 일부 서브 픽셀들이 포화되는 상황에서 크로스토크를 정정하기 위한 크로스토크 정정 알고리즘이 요구된다. 본 기재의 실시 예에 따른 이미지 센서(100)의 프로세싱부(130)는 이미지 데이터 정보(IDI)로부터 포화도 비율을 계산하고, 그리고 포화도 비율에 기반하여 리모자이크 설정을 조절함으로써, 일부 서브 픽셀들이 포화되는 상황에서 크로스토크로 인한 아티팩트를 제거(또는 억제)할 수 있다.To prevent this problem, crosstalk correction is performed on the pixel values of subpixels, and a crosstalk correction algorithm is required to correct crosstalk in a situation where some subpixels are saturated. The processing unit 130 of the image sensor 100 according to an embodiment of the present disclosure calculates the saturation ratio from the image data information (IDI) and adjusts the remosaic setting based on the saturation ratio, so that some subpixels are saturated. In situations where this occurs, artifacts caused by crosstalk can be removed (or suppressed).

도 8은 응용 프로세서(200)가 이미지 데이터(ID)로부터 이미지 데이터 정보(IDI)를 생성하는 예를 설명하기 위한 도면이다. 도 1 및 도 8을 참조하면, 응용 프로세서(200)는 이미지 데이터(ID)를 패치들(PT)(patches)로 분할할 수 있다. 패치들(PT)의 각각은 둘 이상의 픽셀들(또는 서브 픽셀들)의 그룹에 대응하는 픽셀 값들을 포함할 수 있다. 패치들(PT)은 이미지 데이터(ID)를 격자 형태로 분할할 수 있다. 응용 프로세서(200)는 패치들(PT)에 기반하여 이미지 데이터 정보(IDI)를 생성할 수 있다. FIG. 8 is a diagram for explaining an example in which the application processor 200 generates image data information (IDI) from image data (ID). Referring to FIGS. 1 and 8 , the application processor 200 may divide image data (ID) into patches (PT). Each of the patches PT may include pixel values corresponding to a group of two or more pixels (or subpixels). Patches (PT) can divide image data (ID) in a grid form. The application processor 200 may generate image data information (IDI) based on the patches (PT).

예를 들어, 도 6의 픽셀 값들에서, 적색의 서브 픽셀들에 대응하는 픽셀 값들은 적색에 대응하는 채널의 패치들(PT)로 분할될 수 있다. 청색의 서브 픽셀들에 대응하는 픽셀 값들은 청색에 대응하는 채널의 패치들(PT)로 분할될 수 있다. 녹색의 서브 픽셀들에 대응하는 픽셀 값들은 녹색에 대응하는 채널의 패치들(PT)로 분할될 수 있다. 또는, 제1 타입의 녹색(예를 들어, Gr)의 서브 픽셀들에 대응하는 픽셀 값들은 제1 타입의 녹색에 대응하는 채널의 패치들(PT)로 분할되고, 그리고 제2 타입의 녹색(예를 들어, Gb)의 서브 픽셀들에 대응하는 픽셀 값들은 제2 타입의 녹색에 대응하는 채널의 패치들(PT)로 분할될 수 있다.도 9는 응용 프로세서(200)가 이미지 데이터 정보(IDI)를 이미지 센서(100)에 전송하는 과정의 예를 보여준다. 도 1 및 도 9를 참조하면, S31 단계에서, 응용 프로세서(200)는 이미지 센서(100)로부터 이미지 데이터(ID)를 수신할 수 있다. S22 단계에서, 응용 프로세서(200)는 각 패치(PT)에 대해 이미지 데이터 정보(IDI)를 생성할 수 있다. S33 단계에서, 응용 프로세서(200)는 생성된 이미지 데이터 정보(IDI)를 이미지 센서(100)로 출력할 수 있다.For example, in the pixel values of FIG. 6, pixel values corresponding to red subpixels may be divided into patches (PT) of channels corresponding to red. Pixel values corresponding to blue subpixels may be divided into patches (PT) of channels corresponding to blue. Pixel values corresponding to green subpixels may be divided into patches (PT) of channels corresponding to green. Alternatively, pixel values corresponding to subpixels of a first type of green (e.g., Gr) are divided into patches (PT) of the channel corresponding to the first type of green, and For example, the pixel values corresponding to the subpixels of Gb) may be divided into patches (PT) of the channel corresponding to the second type of green. FIG. 9 shows that the application processor 200 stores image data information (PT). An example of the process of transmitting IDI) to the image sensor 100 is shown. Referring to FIGS. 1 and 9 , in step S31, the application processor 200 may receive image data (ID) from the image sensor 100. In step S22, the application processor 200 may generate image data information (IDI) for each patch (PT). In step S33, the application processor 200 may output the generated image data information (IDI) to the image sensor 100.

예를 들어, 이미지 데이터 정보(IDI)는 패치들(PT)의 각각의 픽셀 값들의 정보, 예를 들어 평균 픽셀 값을 포함할 수 있다. 이미지 데이터 정보(IDI)는 패치들(PT)의 각각의 복수의 채널들(예를 들어, 적색(R) 채널, 녹색(G) 채널(또는 Gr 채널 및 Gb 채널), 그리고 청색(B) 채널)의 평균 픽셀 값들을 포함할 수 있다.For example, the image data information IDI may include information on each pixel value of the patches PT, for example, an average pixel value. Image data information (IDI) includes a plurality of channels (e.g., red (R) channel, green (G) channel (or Gr channel and Gb channel), and blue (B) channel of each of the patches (PT). ) may include average pixel values.

다른 예로서, 이미지 데이터 정보(IDI)는 패치들(PT)의 각각에서 포화된 픽셀 값들의 수를 포함할 수 있다. 이미지 데이터 정보(IDI)는 패치들(PT)의 각각의 복수의 채널들(예를 들어, 적색(R) 채널, 녹색(G) 채널(또는 Gr 채널 및 Gb 채널), 그리고 청색(B) 채널)의 각각에서 포화된 픽셀 값들의 수를 포함할 수 있다.As another example, the image data information (IDI) may include the number of saturated pixel values in each of the patches (PT). Image data information (IDI) includes a plurality of channels (e.g., red (R) channel, green (G) channel (or Gr channel and Gb channel), and blue (B) channel of each of the patches (PT). ) may include the number of saturated pixel values in each.

도 10은 이미지 센서(100)의 프로세싱부(130)가 포화도 비율에 기반하여 크로스토크를 억제하는 방법의 예를 보여준다. 도 1 및 도 10을 참조하면, S110 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 이미지 데이터 정보(IDI)를 수신할 수 있다.Figure 10 shows an example of how the processing unit 130 of the image sensor 100 suppresses crosstalk based on the saturation ratio. Referring to FIGS. 1 and 10 , in step S110, the saturation management unit 134 of the processing unit 130 may receive image data information (IDI).

S130 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 이미지 데이터 정보(IDI)에 기반하여 이전 프레임으로 전송된 이미지 데이터(ID)의 포화도 비율을 계산할 수 있다.In step S130, the saturation management unit 134 of the processing unit 130 may calculate the saturation ratio of the image data (ID) transmitted in the previous frame based on the image data information (IDI).

S140 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 계산된 포화도 비율에 기반하여 리모자이크부(131)의 리모자이크 설정을 조절할 수 있다. 예를 들어, 포화도 관리부(134)는 현재 프레임의 이미지 데이터(ID)에서 더 많은 잡음들을 제거함으로써 크로스토크가 함께 제거되도록 리모자이크 설정을 조절할 수 있다.In step S140, the saturation management unit 134 of the processing unit 130 may adjust the remosaic setting of the remosaic unit 131 based on the calculated saturation ratio. For example, the saturation management unit 134 may adjust the remosaic setting to remove crosstalk by removing more noise from the image data (ID) of the current frame.

도 11은 이미지 센서(100)의 프로세싱부(130)가 포화도 비율을 계산하는 방법의 예를 보여준다. 도 1, 도 8 및 도 11을 참조하면, S210 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 이미지 데이터 정보(IDI)로부터 N-채널 평균 픽셀 값들을 검출할 수 있다. N개(N은 양의 정수)의 채널들의 평균 픽셀 값들은 세 개의 채널들(예를 들어, R, G, B), 네 개의 채널들(예를 들어, R, Gr, Gb, B), 또는 임의의 수의 채널들에 대응할 수 있다. 각 채널의 평균 픽셀 값들은 패치들(PT)에 각각 대응할 수 있다. 예를 들어, 프로세싱부(130)는 이미지 데이터 정보(IDI)로부터 R 채널의 패치들의 평균 픽셀 값들, G 채널의 패치들의 평균 픽셀 값들, 그리고 B 채널의 패치들의 평균 픽셀 값들을 검출할 수 있다. 또는, 프로세싱부(130)는 이미지 데이터 정보(IDI)로부터 R 채널의 패치들의 평균 픽셀 값들, Gr 채널의 패치들의 평균 픽셀 값들, Gb 채널의 패치들의 평균 픽셀 값들, 그리고 B 채널의 패치들의 평균 픽셀 값들을 검출할 수 있다.FIG. 11 shows an example of how the processing unit 130 of the image sensor 100 calculates the saturation ratio. Referring to FIGS. 1, 8, and 11, in step S210, the saturation management unit 134 of the processing unit 130 may detect N-channel average pixel values from the image data information (IDI). The average pixel values of N channels (N is a positive integer) are three channels (e.g., R, G, B), four channels (e.g., R, Gr, Gb, B), Alternatively, it may correspond to an arbitrary number of channels. The average pixel values of each channel may respectively correspond to patches PT. For example, the processing unit 130 may detect average pixel values of patches in the R channel, average pixel values of patches in the G channel, and average pixel values of patches in the B channel from the image data information (IDI). Alternatively, the processing unit 130 may select the average pixel values of the patches in the R channel, the average pixel values of the patches in the Gr channel, the average pixel values of the patches in the Gb channel, and the average pixel values of the patches in the B channel from the image data information (IDI). Values can be detected.

S220 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 각 채널에 대해 문턱 값(TH)을 이용하여 포화된 패치들을 판단할 수 있다. 예를 들어, 문턱 값(TH)은 최대 픽셀 값에 대한 일정 비율(예를 들어, 90%, 95% 등)로 정해질 수 있으며, 응용 프로세서(200)에 의해 설정 및 조절될 수 있다. 평균 픽셀 값이 문턱 값(TH) 이상인 패치들(PT)은 포화된 패치들로 판단될 수 있다. 평균 픽셀 값이 문턱 값(TH)보다 작은 패치들(PT)은 포화되지 않은 패치들로 판단될 수 있다. N개의 채널들에 대해, 문턱 값(TH)은 동일한 값으로 또는 서로 다른 값들로 설정될 수 있다.In step S220, the saturation management unit 134 of the processing unit 130 may determine saturated patches using a threshold value (TH) for each channel. For example, the threshold value (TH) may be set as a certain ratio (eg, 90%, 95%, etc.) to the maximum pixel value, and may be set and adjusted by the application processor 200. Patches (PT) whose average pixel value is greater than or equal to the threshold (TH) may be determined to be saturated patches. Patches (PT) whose average pixel value is smaller than the threshold (TH) may be determined to be unsaturated patches. For N channels, the threshold value (TH) can be set to the same value or to different values.

S230 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 각 채널에 대해 포화된 패치들의 수를 카운트할 수 있다. N개의 채널들의 포화된 패치들의 수 및 위치들은 서로 같거나 다를 수 있다.In step S230, the saturation management unit 134 of the processing unit 130 may count the number of saturated patches for each channel. The number and positions of saturated patches of N channels may be the same or different from each other.

S240 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 N개의 채널들 중에서 포화된 패치들의 최대 수에 기반하여 포화도 비율을 계산할 수 있다. 예를 들어, 포화도 관리부(134)는 N개의 채널들에 대해 각각 포화도 비율들을 계산하고, 그리고 N개의 채널들의 포화도 비율들 중 최댓값을 최종적인 포화도 비율로 결정할 수 있다.In step S240, the saturation management unit 134 of the processing unit 130 may calculate the saturation ratio based on the maximum number of saturated patches among the N channels. For example, the saturation management unit 134 may calculate saturation ratios for each of the N channels, and determine the maximum value among the saturation ratios of the N channels as the final saturation ratio.

예시적으로, N개의 채널들은 서로 다른 주파수들에 대응할 수 있다. 픽셀부(110)가 촬영하는 대상의 색들은 다양할 수 있으며, N개의 채널들 중 어느 하나의 채널만이 포화될 수 있다. 예를 들어, 화창한 낮의 푸른 하늘은 청색의 컬러 필터에 대응하는 픽셀들의 포화를 유발할 수 있고, 그리고 노을진 하늘은 적색의 컬러 필터에 대응하는 픽셀들의 포화를 유발할 수 있다. 화창한 낮의 숲은 녹색의 컬러 필터에 대응하는 픽셀들의 포화를 유발할 수 있다. 어느 하나의 채널의 픽셀들이 포화되면, 이미지 데이터(ID)에서 크로스토크에 의한 아티팩트가 발생할 수 있다. 본 기재의 실시 예에 따른 이미지 센서(100)는 N개의 채널들의 포화도 비율들 중 가장 높은 포화도 비율을 이용함으로써, 크로스토크에 의한 아티팩트를 효율적으로 방지(또는 억제)할 수 있다.By way of example, N channels may correspond to different frequencies. The colors of the object captured by the pixel unit 110 may vary, and only one channel among the N channels may be saturated. For example, a blue sky on a sunny day may cause saturation of pixels corresponding to a blue color filter, and a sunset sky may cause saturation of pixels corresponding to a red color filter. A forest on a sunny day can cause saturation of pixels corresponding to a green color filter. If the pixels of one channel are saturated, artifacts due to crosstalk may occur in the image data (ID). The image sensor 100 according to an embodiment of the present disclosure can efficiently prevent (or suppress) artifacts due to crosstalk by using the highest saturation ratio among the saturation ratios of N channels.

도 12는 본 기재의 실시 예에 따른 리모자이크 설정을 조절하는 방법의 예를 보여준다. 도 1 및 도 12를 참조하면, S310 단계에서, 이미지 센서(100)의 프로세싱부(130)의 포화도 관리부(134)는 리모자이크부(131)의 리모자이크 설정 중에서 편평도 문턱을 조절할 수 있다. 편평도 문턱은 리모자이크부(131)가 디지털 신호(DS)가 편평한지를 판단하는 기준일 수 있다.Figure 12 shows an example of a method for adjusting remosaic settings according to an embodiment of the present disclosure. Referring to FIGS. 1 and 12 , in step S310, the saturation management unit 134 of the processing unit 130 of the image sensor 100 may adjust the flatness threshold among the remosaic settings of the remosaic unit 131. The flatness threshold may be a standard by which the remosaic unit 131 determines whether the digital signal DS is flat.

S320 단계에서, 이미지 센서(100)의 프로세싱 회로(1300의 포화도 관리부(134)는 리모자이크부(131)의 리모자이크 설정 중에서 로컬 편평도 문턱을 조절할 수 있다. 로컬 편평도 문턱은 리모자이크부(131)가 디지털 신호(DS) 상에서 국부적으로 편평한 영역을 판단하는 기준일 수 있다.In step S320, the saturation management unit 134 of the processing circuit 1300 of the image sensor 100 may adjust the local flatness threshold among the remosaic settings of the remosaic unit 131. The local flatness threshold is set by the remosaic unit 131. may be a standard for determining a locally flat area on the digital signal (DS).

S330 단계에서, 이미지 센서(100)의 프로세싱 회로(1300의 포화도 관리부(134)는 리모자이크부(131)의 리모자이크 설정 중에서 스무딩 파워(smoothing power)를 조절할 수 있다. 스무딩 파워는 리모자이크부(131)가 노이즈의 제거를 위하여 디지털 신호(DS)에 대해 블러링(또는 저대역 통과 필터링)을 수행하는 강도에 대응할 수 있다.In step S330, the saturation management unit 134 of the processing circuit 1300 of the image sensor 100 may adjust the smoothing power among the remosaic settings of the remosaic unit 131. The smoothing power is controlled by the remosaic unit ( 131) may correspond to the intensity of blurring (or low-pass filtering) on the digital signal DS to remove noise.

도 13은 이미지 센서(100)의 프로세싱부(130)가 포화도 비율에 따라 리모자이크 설정을 조절하는 추세의 예를 보여준다. 도 13에서, 가로 축은 포화도 비율에 대응하고, 그리고 세로 축은 편평도 문턱, 로컬 편평도 문턱, 또는 스무딩 파워에 대응할 수 있다.FIG. 13 shows an example of a trend in which the processing unit 130 of the image sensor 100 adjusts remosaic settings according to the saturation rate. In Figure 13, the horizontal axis corresponds to the saturation ratio, and the vertical axis may correspond to the flatness threshold, local flatness threshold, or smoothing power.

도 12에 도시된 바와 같이, 포화도 비율이 증가할수록, 프로세싱부(130)의 포화도 관리부(134)는 리모자이크부(131)의 편평도 문턱, 로컬 편평도 문턱, 또는 스무딩 파워를 증가시킬 수 있다. 예시적으로, 포화도 관리부(134)는 편평도 문턱, 로컬 편평도 문턱, 또는 스무딩 파워를 1차원적으로, 2차원 적으로, n차원적으로, 또는 지수적으로 증가시킬 수 있다. 예시적으로, 포화도 관리부(134)는 편평도 문턱, 로컬 편평도 문턱, 또는 스무딩 파워를 동일한 비율로 또는 서로 다른 비율로 증가시킬 수 있다.As shown in FIG. 12, as the saturation ratio increases, the saturation management unit 134 of the processing unit 130 may increase the flatness threshold, local flatness threshold, or smoothing power of the remosaic unit 131. Exemplarily, the saturation management unit 134 may increase the flatness threshold, local flatness threshold, or smoothing power one-dimensionally, two-dimensionally, n-dimensionally, or exponentially. Exemplarily, the saturation management unit 134 may increase the flatness threshold, local flatness threshold, or smoothing power at the same rate or at different rates.

도 14는 이미지 센서(100)의 프로세싱부(130)가 리모자이크 설정에 기반하여 리모자이크를 수행하는 방법의 예를 보여준다. 도 1 및 도 14를 참조하면, S410 단계에서, 프로세싱부(130)의 리모자이크부(131)는 리모자이크 설정의 편평도 문턱을 이용하여 디지털 신호(DS)의 편평도를 판단할 수 있다. 예를 들어, N개의 채널들의 각각의 픽셀 값들의 차이(예를 들어, 최대 차이)가 편평도 문턱보다 작으면, 리모자이크부(131)는 디지털 신호(DS)가 편평한 것으로 판단할 수 있다. N개의 채널들의 각각의 픽셀 값들의 차이(예를 들어, 최대 차이)가 편평도 문턱 이상이면, 리모자이크부(131)는 디지털 신호(DS)가 편평하지 않은 것으로 판단할 수 있다.Figure 14 shows an example of how the processing unit 130 of the image sensor 100 performs remosaic based on the remosaic setting. Referring to FIGS. 1 and 14 , in step S410, the remosaic unit 131 of the processing unit 130 may determine the flatness of the digital signal DS using the flatness threshold of the remosaic setting. For example, if the difference (eg, maximum difference) between pixel values of the N channels is less than the flatness threshold, the remosaic unit 131 may determine that the digital signal DS is flat. If the difference (eg, maximum difference) between pixel values of the N channels is greater than or equal to the flatness threshold, the remosaic unit 131 may determine that the digital signal DS is not flat.

S420 단계에서, 디지털 신호(DS)가 편평한 것으로 판단되면, 프로세싱부(130)의 리모자이크부(131)는 S430 단계를 수행할 수 있다. S430 단계에서, 리모자이크부(131)는 디지털 신호(DS)의 전체에 대해 평탄화(smoothen)를 수행할 수 있다. 예를 들어, 리모자이크부(131)는 리모자이크 설정의 스무딩 파워에 기반하여, 디지털 신호(DS)에 대해 저대역 통과 필터링을 수행할 수 있다.If it is determined that the digital signal DS is flat in step S420, the remosaic unit 131 of the processing unit 130 may perform step S430. In step S430, the remosaic unit 131 may perform smoothening on the entire digital signal DS. For example, the remosaic unit 131 may perform low-pass filtering on the digital signal DS based on the smoothing power of the remosaic setting.

S420 단계에서, 디지털 신호(DS)가 편평하지 않은 것으로 판단되면, 프로세싱부(130)의 리모자이크부(131)는 S440 단계를 수행할 수 있다. S440 단계에서, 리모자이크부(131)는 리모자이크 설정의 로컬 편평도 문턱을 이용하여, 편평한 영역 및 패턴 영역을 판단할 수 있다. 예를 들어, 디지털 신호(DS) 상의 특정한 영역의 N개의 채널들의 각각의 픽셀 값들의 차이가 로컬 편평도 문턱보다 작으면, 리모자이크부(131)는 해당 영역을 편평한 영역으로 판단할 수 있다. 디지털 신호(DS) 상의 특정한 영역의 N개의 채널들의 각각의 픽셀 값들의 차이가 로컬 편평도 문턱 이상이면, 리모자이크부(131)는 해당 영역을 패턴 영역(예를 들어, 편평하지 않은 영역)으로 판단할 수 있다.If it is determined in step S420 that the digital signal DS is not flat, the remosaic unit 131 of the processing unit 130 may perform step S440. In step S440, the remosaic unit 131 may determine a flat area and a pattern area using the local flatness threshold of the remosaic setting. For example, if the difference between pixel values of N channels in a specific area on the digital signal DS is smaller than the local flatness threshold, the remosaic unit 131 may determine the area to be a flat area. If the difference between pixel values of each of the N channels in a specific area on the digital signal DS is greater than or equal to the local flatness threshold, the remosaic unit 131 determines the area to be a pattern area (e.g., a non-flat area). can do.

S450 단계에서, 리모자이크부(131)는 디지털 신호(DS) 상의 편평한 영역에 대해 리모자이크 설정의 스무딩 파워에 기반하여 평탄화(예를 들어, 저대역 통과 필터링)를 수행할 수 있다.In step S450, the remosaic unit 131 may perform flattening (eg, low-pass filtering) on a flat area on the digital signal DS based on the smoothing power of the remosaic setting.

상술된 바와 같이, 본 기재의 실시 예에 따른 이미지 센서(100)는 포화도 비율이 증가할수록 디지털 신호(DS)를 더 편평한 것으로 판단하고, 그리고 더 강하게 평탄화를 수행할 수 있다. 따라서, 포화되는 픽셀들의 크로스토크에 의해 발생하는 아티팩트는 평탄화에 의해 제거(또는 억제)될 수 있다.As described above, the image sensor 100 according to an embodiment of the present disclosure determines the digital signal DS to be flatter as the saturation ratio increases, and may perform flattening more strongly. Accordingly, artifacts caused by crosstalk of pixels that are saturated can be removed (or suppressed) by smoothing.

도 15는 이미지 센서(100)의 프로세싱부(130)가 포화도 비율을 계산하는 방법의 다른 예를 보여준다. 도 1 및 도 15를 참조하면, S510 단계에서, 프로세싱부(130)의 포화도 관리부(134)는 이미지 데이터 정보(IDI)로부터 포화된 픽셀들의 수를 검출할 수 있다. 예를 들어, 응용 프로세서(200)는 패치들(PT)(도 8 참조) 각각에서 포화된 픽셀 값들의 수를 카운트하고, 그리고 각 패치(PT)의 포화된 픽셀 값들의 수를 이미지 데이터 정보(IDI)에 포함시킬 수 있다. 포화도 관리부(134)는 이미지 데이터 정보(IDI)로부터 각 패치(PT)에서 포화된 픽셀 값들의 수로부터 포화된 픽셀들의 수를 검출할 수 있다.Figure 15 shows another example of how the processing unit 130 of the image sensor 100 calculates the saturation ratio. Referring to FIGS. 1 and 15 , in step S510, the saturation management unit 134 of the processing unit 130 may detect the number of saturated pixels from the image data information (IDI). For example, the application processor 200 counts the number of saturated pixel values in each of the patches PT (see FIG. 8), and calculates the number of saturated pixel values of each patch PT into image data information ( IDI). The saturation management unit 134 may detect the number of saturated pixels in each patch PT from the image data information IDI.

S520 단계에서, 포화도 관리부(134)는 포화된 픽셀들의 수에 기반하여 포화도 비율을 계산할 수 있다. 예를 들어, 포화도 관리부(134)는 픽셀부(110)의 전체 픽셀들의 수에 대한 포화된 픽셀들의 수의 비율을 포화도 비율로 계산할 수 있다.In step S520, the saturation management unit 134 may calculate the saturation ratio based on the number of saturated pixels. For example, the saturation management unit 134 may calculate the ratio of the number of saturated pixels to the total number of pixels in the pixel unit 110 as the saturation ratio.

다른 실시 예로서, 응용 프로세서(200)는 각 패치(PT)의 픽셀 값들의 수에 대한 포화된 픽셀 값들의 수를 각 패치(PT)의 포화도 비율로 계산하고, 그리고 각 패치(PT)의 포화도 비율을 이미지 데이터 정보(IDI)에 포함시킬 수 있다. 포화도 관리부(134)는 이미지 데이터 정보(IDI)로부터 각 패치(PT)의 포화도 비율을 검출하고, 그리고 패치들(PT)의 포화도 비율들의 평균을 포화도 비율로 계산할 수 있다.As another embodiment, the application processor 200 calculates the number of saturated pixel values to the number of pixel values of each patch (PT) as a saturation ratio of each patch (PT), and the saturation rate of each patch (PT) The ratio can be included in image data information (IDI). The saturation management unit 134 may detect the saturation ratio of each patch (PT) from the image data information (IDI), and calculate the average of the saturation ratios of the patches (PT) as the saturation ratio.

도 16은 멀티 카메라 모듈을 포함하는 전자 장치의 블록도이다. 도 17은 도 16의 카메라 모듈의 상세 블록도이다.16 is a block diagram of an electronic device including a multi-camera module. FIG. 17 is a detailed block diagram of the camera module of FIG. 16.

도 16을 참조하면, 전자 장치(1000)는 카메라 모듈 그룹(1100), 응용 프로세서(1200), PMIC(1300) 및 외부 메모리(1400)를 포함할 수 있다.Referring to FIG. 16 , the electronic device 1000 may include a camera module group 1100, an application processor 1200, a PMIC 1300, and an external memory 1400.

카메라 모듈 그룹(1100)은 복수의 카메라 모듈(1100a, 1100b, 1100c)을 포함할 수 있다. 비록 도면에는 3개의 카메라 모듈(1100a, 1100b, 1100c)이 배치된 실시 예가 도시되어 있으나, 실시 예들이 이에 제한되는 것은 아니다. 몇몇 실시 예에서, 카메라 모듈 그룹(1100)은 2개의 카메라 모듈만을 포함하도록 변형되어 실시될 수 있다. 또한, 몇몇 실시 예에서, 카메라 모듈 그룹(1100)은 i개(i는 4 이상의 자연수)의 카메라 모듈을 포함하도록 변형되어 실시될 수도 있다. 예시적으로, 카메라 모듈 그룹(1100)의 복수의 카메라 모듈(1100a, 1100b, 1100c)의 각각은 도 1의 이미지 센서(100)를 포함할 수 있다. 응용 프로세서(1200)는 도 1의 응용 프로세서(200)를 포함할 수 있다.The camera module group 1100 may include a plurality of camera modules 1100a, 1100b, and 1100c. Although the drawing shows an embodiment in which three camera modules 1100a, 1100b, and 1100c are arranged, the embodiments are not limited thereto. In some embodiments, the camera module group 1100 may be modified to include only two camera modules. Additionally, in some embodiments, the camera module group 1100 may be modified to include i camera modules (i is a natural number of 4 or more). By way of example, each of the plurality of camera modules 1100a, 1100b, and 1100c of the camera module group 1100 may include the image sensor 100 of FIG. 1 . The application processor 1200 may include the application processor 200 of FIG. 1 .

이하, 도 17을 참조하여, 카메라 모듈(1100b)의 상세 구성에 대해 보다 구체적으로 설명할 것이나, 이하의 설명은 실시 예에 따라 다른 카메라 모듈들(1100a, 1100b)에 대해서도 동일하게 적용될 수 있다.Hereinafter, the detailed configuration of the camera module 1100b will be described in more detail with reference to FIG. 17, but the following description may be equally applied to other camera modules 1100a and 1100b depending on the embodiment.

도 17을 참조하면, 카메라 모듈(1100b)은 프리즘(1105), 광학 경로 폴딩 요소(Optical Path Folding Element, 이하, 'OPFE')(1110), 액츄에이터(1130), 이미지 센싱 장치(1140) 및 저장부(1150)를 포함할 수 있다.Referring to FIG. 17, the camera module 1100b includes a prism 1105, an optical path folding element (OPFE) 1110, an actuator 1130, an image sensing device 1140, and a storage device. It may include unit 1150.

프리즘(1105)은 광 반사 물질의 반사면(1107)을 포함하여 외부로부터 입사되는 광(L)의 경로를 변형시킬 수 있다. The prism 1105 includes a reflective surface 1107 of a light-reflecting material and can change the path of light L incident from the outside.

몇몇 실시 예에서, 프리즘(1105)은 제1 방향(X)으로 입사되는 광(L)의 경로를 제1 방향(X)에 수직인 제2 방향(Y)으로 변경시킬 수 있다. 또한, 프리즘(1105)은 광 반사 물질의 반사면(1107)을 중심축(1106)을 중심으로 A방향으로 회전시키거나, 중심축(1106)을 B방향으로 회전시켜 제1 방향(X)으로 입사되는 광(L)의 경로를 수직인 제2 방향(Y)으로 변경시킬 수 있다. 이때, OPFE(1110)도 제1 방향(X) 및 제2 방향(Y)과 수직인 제3 방향(Z)로 이동할 수 있다.In some embodiments, the prism 1105 may change the path of light L incident in the first direction X to the second direction Y perpendicular to the first direction X. In addition, the prism 1105 rotates the reflecting surface 1107 of the light reflecting material in the A direction about the central axis 1106, or rotates the central axis 1106 in the B direction in the first direction (X). The path of the incident light (L) can be changed to the vertical second direction (Y). At this time, the OPFE 1110 may also move in the third direction (Z) perpendicular to the first direction (X) and the second direction (Y).

몇몇 실시 예에서, 도시된 것과 같이, 프리즘(1105)의 A방향 최대 회전 각도는 플러스(+) A방향으로는 15도(degree) 이하이고, 마이너스(-) A방향으로는 15도보다 클 수 있으나, 실시 예들이 이에 제한되는 것은 아니다.In some embodiments, as shown, the maximum rotation angle of the prism 1105 in direction A may be less than 15 degrees in the plus (+) A direction and greater than 15 degrees in the minus (-) A direction. However, the embodiments are not limited thereto.

몇몇 실시 예에서, 프리즘(1105)은 플러스(+) 또는 마이너스(-) B방향으로 20도 내외, 또는 10도에서 20도, 또는 15도에서 20도 사이로 움직일 수 있고, 여기서, 움직이는 각도는 플러스(+) 또는 마이너스(-) B방향으로 동일한 각도로 움직이거나, 1도 내외의 범위로 거의 유사한 각도까지 움직일 수 있다.In some embodiments, the prism 1105 may move about 20 degrees in the plus (+) or minus (-) B direction, or between 10 degrees and 20 degrees, or between 15 degrees and 20 degrees, where the moving angle is plus. It can move at the same angle in the (+) or minus (-) B direction, or it can move to an almost similar angle within a range of about 1 degree.

몇몇 실시 예에서, 프리즘(1105)은 광 반사 물질의 반사면(1107)을 중심축(1106)의 연장 방향과 평행한 제3 방향(예를 들어, Z방향)으로 이동할 수 있다.In some embodiments, the prism 1105 may move the reflective surface 1107 of the light reflecting material in a third direction (eg, Z direction) parallel to the extending direction of the central axis 1106.

OPFE(1110)는 예를 들어 j(여기서, j는 자연수)개의 그룹으로 이루어진 광학 렌즈를 포함할 수 있다. j개의 렌즈는 제2 방향(Y)으로 이동하여 카메라 모듈(1100b)의 광학 줌 배율(optical zoom ratio)을 변경할 수 있다. 예를 들어, 카메라 모듈(1100b)의 기본 광학 줌 배율을 Z라고할 때, OPFE(1110)에 포함된 m개의 광학 렌즈를 이동시킬 경우, 카메라 모듈(1100b)의 광학 줌 배율은 3Z 또는 5Z 또는 5Z 이상의 광학 줌 배율로 변경될 수 있다.OPFE 1110 may include, for example, an optical lens comprised of j groups (where j is a natural number). The j lenses may change the optical zoom ratio of the camera module 1100b by moving in the second direction (Y). For example, assuming that the basic optical zoom magnification of the camera module 1100b is Z, when moving the m optical lenses included in the OPFE 1110, the optical zoom magnification of the camera module 1100b is 3Z or 5Z or The optical zoom magnification can be changed to 5Z or higher.

액츄에이터(1130)는 OPFE(1110) 또는 광학 렌즈(이하, 광학 렌즈로 지칭)를 특정 위치로 이동시킬 수 있다. 예를 들어 액츄에이터(1130)는 정확한 센싱을 위해 이미지 센서(1142)가 광학 렌즈의 초점 거리(focal length)에 위치하도록 광학 렌즈의 위치를 조정할 수 있다.The actuator 1130 may move the OPFE 1110 or an optical lens (hereinafter referred to as an optical lens) to a specific position. For example, the actuator 1130 may adjust the position of the optical lens so that the image sensor 1142 is located at the focal length of the optical lens for accurate sensing.

이미지 센싱 장치(1140)는 이미지 센서(1142), 제어 로직(1144) 및 메모리(1146)를 포함할 수 있다. 이미지 센서(1142)는 광학 렌즈를 통해 제공되는 광(L)을 이용하여 센싱 대상의 이미지를 센싱할 수 있다.The image sensing device 1140 may include an image sensor 1142, control logic 1144, and memory 1146. The image sensor 1142 can sense an image of a sensing object using light (L) provided through an optical lens.

제어 로직(1144)은 카메라 모듈(1100b)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어 로직(1144)은 제어 신호 라인(CSLb)을 통해 제공된 제어 신호에 따라 카메라 모듈(1100b)의 동작을 제어할 수 있다. The control logic 1144 may control the overall operation of the camera module 1100b. For example, the control logic 1144 may control the operation of the camera module 1100b according to a control signal provided through the control signal line CSLb.

메모리(1146)는 캘리브레이션 데이터(1147)와 같은 카메라 모듈(1100b)의 동작에 필요한 정보를 저장할 수 있다. 캘리브레이션 데이터(1147)는 카메라 모듈(1100b)이 외부로부터 제공된 광(L)을 이용하여 이미지 데이터를 생성하는데 필요한 정보를 포함할 수 있다. 캘리브레이션 데이터(1147)는 예를 들어, 앞서 설명한 회전도(degree of rotation)에 관한 정보, 초점 거리(focal length)에 관한 정보, 광학 축(optical axis)에 관한 정보 등을 포함할 수 있다. 카메라 모듈(1100b)이 광학 렌즈의 위치에 따라 초점 거리가 변하는 멀티 스테이트(multi state) 카메라 형태로 구현될 경우, 캘리브레이션 데이터(1147)는 광학 렌즈의 각 위치별(또는 스테이트별) 초점 거리 값과 오토 포커싱(auto focusing)과 관련된 정보를 포함할 수 있다.The memory 1146 may store information necessary for the operation of the camera module 1100b, such as calibration data 1147. The calibration data 1147 may include information necessary for the camera module 1100b to generate image data using light L provided from the outside. The calibration data 1147 may include, for example, information about the degree of rotation described above, information about the focal length, and information about the optical axis. When the camera module 1100b is implemented as a multi-state camera whose focal length changes depending on the position of the optical lens, the calibration data 1147 includes the focal length value for each position (or state) of the optical lens. May include information related to auto focusing.

저장부(1150)는 이미지 센서(1142)를 통해 센싱된 이미지 데이터를 저장할 수 있다. 저장부(1150)는 이미지 센싱 장치(1140)의 외부에 배치될 수 있으며, 이미지 센싱 장치(1140)를 구성하는 센서 칩과 스택된(stacked) 형태로 구현될 수 있다. 몇몇 실시 예에서, 저장부(1150)는 EEPROM(Electrically Erasable Programmable Read-Only Memory)으로 구현될 수 있으나 실시 예들이 이에 제한되는 것은 아니다.The storage unit 1150 may store image data sensed through the image sensor 1142. The storage unit 1150 may be placed outside the image sensing device 1140 and may be implemented in a stacked form with a sensor chip constituting the image sensing device 1140. In some embodiments, the storage unit 1150 may be implemented as an Electrically Erasable Programmable Read-Only Memory (EEPROM), but the embodiments are not limited thereto.

도 16과 도 17을 함께 참조하면, 몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 액츄에이터(1130)를 포함할 수 있다. 이에 따라, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 그 내부에 포함된 액츄에이터(1130)의 동작에 따른 서로 동일하거나 서로 다른 캘리브레이션 데이터(1147)를 포함할 수 있다. Referring to FIGS. 16 and 17 together, in some embodiments, each of the plurality of camera modules 1100a, 1100b, and 1100c may include an actuator 1130. Accordingly, each of the plurality of camera modules 1100a, 1100b, and 1100c may include the same or different calibration data 1147 according to the operation of the actuator 1130 included therein.

몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 하나의 카메라 모듈(예를 들어, 1100b)은 앞서 설명한 프리즘(1105)과 OPFE(1110)를 포함하는 폴디드 렌즈(folded lens) 형태의 카메라 모듈이고, 나머지 카메라 모듈들(예를 들어, 1100a, 1100b)은 프리즘(1105)과 OPFE(1110)가 포함되지 않은 버티컬(vertical) 형태의 카메라 모듈일 수 있으나, 실시 예들이 이에 제한되는 것은 아니다.In some embodiments, one camera module (e.g., 1100b) of the plurality of camera modules 1100a, 1100b, and 1100c is a folded lens including the prism 1105 and OPFE 1110 described above. type camera module, and the remaining camera modules (e.g., 1100a, 1100b) may be vertical type camera modules that do not include the prism 1105 and OPFE 1110, but embodiments are limited to this. It doesn't work.

몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 하나의 카메라 모듈(예를 들어, 1100c)은 예를 들어, IR(Infrared Ray)을 이용하여 깊이(depth) 정보를 추출하는 버티컬 형태의 깊이 카메라(depth camera)일 수 있다. 이 경우, 응용 프로세서(1200)는 이러한 깊이 카메라로부터 제공받은 이미지 데이터와 다른 카메라 모듈(예를 들어, 1100a 또는 1100b)로부터 제공받은 이미지 데이터를 병합(merge)하여 3차원 깊이 이미지(3D depth image)를 생성할 수 있다.In some embodiments, one camera module (e.g., 1100c) among the plurality of camera modules (1100a, 1100b, 1100c) is a vertical camera module that extracts depth information using, for example, IR (Infrared Ray). It may be a type of depth camera. In this case, the application processor 1200 merges the image data provided from the depth camera and the image data provided from another camera module (e.g., 1100a or 1100b) to create a 3D depth image. can be created.

몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 적어도 두 개의 카메라 모듈(예를 들어, 1100a, 1100b)은 서로 다른 관측 시야(Field of View, 시야각)를 가질 수 있다. 이 경우, 예를 들어, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 적어도 두 개의 카메라 모듈(예를 들어, 1100a, 1100b)의 광학 렌즈가 서로 다를 수 있으나, 이에 제한되는 것은 아니다. In some embodiments, at least two camera modules (eg, 1100a, 1100b) among the plurality of camera modules 1100a, 1100b, and 1100c may have different fields of view (field of view). In this case, for example, the optical lenses of at least two camera modules (eg, 1100a, 1100b) among the plurality of camera modules 1100a, 1100b, and 1100c may be different from each other, but are not limited thereto.

또한, 몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각의 시야각은 서로 다를 수 있다. 이 경우, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 포함된 광학 렌즈 역시 서로 다를 수 있으나, 이에 제한되는 것은 아니다.Additionally, in some embodiments, the viewing angles of each of the plurality of camera modules 1100a, 1100b, and 1100c may be different. In this case, optical lenses included in each of the plurality of camera modules 1100a, 1100b, and 1100c may also be different from each other, but are not limited thereto.

몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 서로 물리적으로 분리되어 배치될 수 있다. 즉, 하나의 이미지 센서(1142)의 센싱 영역을 복수의 카메라 모듈(1100a, 1100b, 1100c)이 분할하여 사용하는 것이 아니라, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각의 내부에 독립적인 이미지 센서(1142)가 배치될 수 있다.In some embodiments, each of the plurality of camera modules 1100a, 1100b, and 1100c may be arranged to be physically separated from each other. That is, rather than dividing the sensing area of one image sensor 1142 into multiple camera modules 1100a, 1100b, and 1100c, an independent image is generated inside each of the multiple camera modules 1100a, 1100b, and 1100c. Sensor 1142 may be placed.

다시 도 16을 참조하면, 응용 프로세서(1200)는 이미지 처리 장치(1210), 메모리 컨트롤러(1220), 내부 메모리(1230)를 포함할 수 있다. 응용 프로세서(1200)는 복수의 카메라 모듈(1100a, 1100b, 1100c)과 분리되어 구현될 수 있다. 예를 들어, 응용 프로세서(1200)와 복수의 카메라 모듈(1100a, 1100b, 1100c)은 별도의 반도체 칩으로 서로 분리되어 구현될 수 있다.Referring again to FIG. 16 , the application processor 1200 may include an image processing device 1210, a memory controller 1220, and an internal memory 1230. The application processor 1200 may be implemented separately from the plurality of camera modules 1100a, 1100b, and 1100c. For example, the application processor 1200 and the plurality of camera modules 1100a, 1100b, and 1100c may be implemented separately as separate semiconductor chips.

이미지 처리 장치(1210)는 복수의 서브 이미지 프로세서(1212a, 1212b, 1212c), 이미지 생성기(1214) 및 카메라 모듈 컨트롤러(1216)를 포함할 수 있다.The image processing device 1210 may include a plurality of sub-image processors 1212a, 1212b, and 1212c, an image generator 1214, and a camera module controller 1216.

이미지 처리 장치(1210)는 복수의 카메라 모듈(1100a, 1100b, 1100c)의 개수에 대응하는 개수의 복수의 서브 이미지 프로세서(1212a, 1212b, 1212c)를 포함할 수 있다.The image processing device 1210 may include a plurality of sub-image processors 1212a, 1212b, and 1212c corresponding to the number of camera modules 1100a, 1100b, and 1100c.

각각의 카메라 모듈(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터는 서로 분리된 이미지 신호 라인(ISLa, ISLb, ISLc)을 통해 대응되는 서브 이미지 프로세서(1212a, 1212b, 1212c)에 제공될 수 있다. 예를 들어, 카메라 모듈(1100a)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLa)을 통해 서브 이미지 프로세서(1212a)에 제공되고, 카메라 모듈(1100b)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLb)을 통해 서브 이미지 프로세서(1212b)에 제공되고, 카메라 모듈(1100c)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLc)을 통해 서브 이미지 프로세서(1212c)에 제공될 수 있다. 이러한 이미지 데이터 전송은 예를 들어, MIPI(Mobile Industry Processor Interface)에 기반한 카메라 직렬 인터페이스(CSI; Camera Serial Interface)를 이용하여 수행될 수 있으나, 실시 예들이 이에 제한되는 것은 아니다. Image data generated from each camera module 1100a, 1100b, and 1100c may be provided to the corresponding sub-image processors 1212a, 1212b, and 1212c through separate image signal lines (ISLa, ISLb, and ISLc). For example, image data generated from the camera module 1100a is provided to the sub-image processor 1212a through the image signal line (ISLa), and image data generated from the camera module 1100b is provided to the image signal line (ISLb). The image data generated from the camera module 1100c may be provided to the sub-image processor 1212c through the image signal line (ISLc). Such image data transmission may be performed using, for example, a Camera Serial Interface (CSI) based on Mobile Industry Processor Interface (MIPI), but embodiments are not limited thereto.

한편, 몇몇 실시 예에서, 하나의 서브 이미지 프로세서가 복수의의 카메라 모듈에 대응되도록 배치될 수도 있다. 예를 들어, 서브 이미지 프로세서(1212a)와 서브 이미지 프로세서(1212c)가 도시된 것처럼 서로 분리되어 구현되는 것이 아니라 하나의 서브 이미지 프로세서로 통합되어 구현되고, 카메라 모듈(1100a)과 카메라 모듈(1100c)로부터 제공된 이미지 데이터는 선택 소자(예를 들어, 멀티플렉서) 등을 통해 선택된 후, 통합된 서브 이미지 프로세서에 제공될 수 있다.Meanwhile, in some embodiments, one sub-image processor may be arranged to correspond to a plurality of camera modules. For example, the sub-image processor 1212a and the sub-image processor 1212c are not implemented separately from each other as shown, but are implemented integrated into one sub-image processor, and the camera module 1100a and the camera module 1100c Image data provided from may be selected through a selection element (eg, multiplexer) and then provided to the integrated sub-image processor.

각각의 서브 이미지 프로세서(1212a, 1212b, 1212c)에 제공된 이미지 데이터는 이미지 생성기(1214)에 제공될 수 있다. 이미지 생성기(1214)는 이미지 생성 정보(Generation Information) 또는 모드 신호(Mode Signal)에 따라 각각의 서브 이미지 프로세서(1212a, 1212b, 1212c)로부터 제공된 이미지 데이터를 이용하여 출력 이미지를 생성할 수 있다.Image data provided to each sub-image processor 1212a, 1212b, and 1212c may be provided to the image generator 1214. The image generator 1214 may generate an output image using image data provided from each sub-image processor 1212a, 1212b, and 1212c according to image generation information or mode signal.

구체적으로, 이미지 생성기(1214)는 이미지 생성 정보 또는 모드 신호에 따라, 서로 다른 시야각을 갖는 카메라 모듈들(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터 중 적어도 일부를 병합(merge)하여 출력 이미지를 생성할 수 있다. 또한, 이미지 생성기(1214)는 이미지 생성 정보 또는 모드 신호에 따라, 서로 다른 시야각을 갖는 카메라 모듈들(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터 중 어느 하나를 선택하여 출력 이미지를 생성할 수 있다.Specifically, the image generator 1214 merges at least some of the image data generated from the camera modules 1100a, 1100b, and 1100c with different viewing angles according to the image generation information or mode signal to produce an output image. can be created. Additionally, the image generator 1214 may generate an output image by selecting one of the image data generated from the camera modules 1100a, 1100b, and 1100c having different viewing angles according to the image generation information or mode signal. .

몇몇 실시 예에서, 이미지 생성 정보는 줌 신호(zoom signal or zoom factor)를 포함할 수 있다. 또한, 몇몇 실시 예에서, 모드 신호는 예를 들어, 유저(user)로부터 선택된 모드에 기초한 신호일 수 있다.In some embodiments, the image generation information may include a zoom signal or zoom factor. Additionally, in some embodiments, the mode signal may be, for example, a signal based on a mode selected by a user.

이미지 생성 정보가 줌 신호(줌 팩터)이고, 각각의 카메라 모듈(1100a, 1100b, 1100c)이 서로 다른 관측 시야(시야각)를 갖는 경우, 이미지 생성기(1214)는 줌 신호의 종류에 따라 서로 다른 동작을 수행할 수 있다. 예를 들어, 줌 신호가 제1 신호일 경우, 카메라 모듈(1100a)로부터 출력된 이미지 데이터와 카메라 모듈(1100c)로부터 출력된 이미지 데이터를 병합한 후, 병합된 이미지 신호와 병합에 사용하지 않은 카메라 모듈(1100b)로부터 출력된 이미지 데이터를 이용하여, 출력 이미지를 생성할 수 있다. 만약, 줌 신호가 제1 신호와 다른 제2 신호일 경우, 이미지 생성기(1214)는 이러한 이미지 데이터 병합을 수행하지 않고, 각각의 카메라 모듈(1100a, 1100b, 1100c)로부터 출력된 이미지 데이터 중 어느 하나를 선택하여 출력 이미지를 생성할 수 있다. 하지만, 실시 예들이 이에 제한되는 것은 아니며, 필요에 따라 이미지 데이터를 처리하는 방법은 얼마든지 변형되어 실시될 수 있다.When the image generation information is a zoom signal (zoom factor) and each camera module (1100a, 1100b, 1100c) has a different observation field (viewing angle), the image generator 1214 performs different operations depending on the type of zoom signal. can be performed. For example, when the zoom signal is the first signal, the image data output from the camera module 1100a and the image data output from the camera module 1100c are merged, and then the merged image signal and the camera module not used for merging are merged. An output image can be generated using the image data output from 1100b. If the zoom signal is a second signal different from the first signal, the image generator 1214 does not merge the image data and uses one of the image data output from each camera module 1100a, 1100b, and 1100c. You can select to create an output image. However, the embodiments are not limited to this, and the method of processing image data may be modified and implemented as necessary.

몇몇 실시 예에서, 이미지 생성기(1214)는 복수의 서브 이미지 프로세서(1212a, 1212b, 1212c) 중 적어도 하나로부터 노출 시간이 상이한 복수의 이미지 데이터를 수신하고, 복수의 이미지 데이터에 대하여 HDR(high dynamic range) 처리를 수행함으로써, 다이나믹 레인지가 증가된 병합된 이미지 데이터를 생성할 수 있다.In some embodiments, the image generator 1214 receives a plurality of image data with different exposure times from at least one of the plurality of sub-image processors 1212a, 1212b, and 1212c, and generates high dynamic range (HDR) data for the plurality of image data. ) By performing processing, merged image data with increased dynamic range can be generated.

카메라 모듈 컨트롤러(1216)는 각각의 카메라 모듈(1100a, 1100b, 1100c)에 제어 신호를 제공할 수 있다. 카메라 모듈 컨트롤러(1216)로부터 생성된 제어 신호는 서로 분리된 제어 신호 라인(CSLa, CSLb, CSLc)을 통해 대응되는 카메라 모듈(1100a, 1100b, 1100c)에 제공될 수 있다.The camera module controller 1216 may provide control signals to each camera module 1100a, 1100b, and 1100c. The control signal generated from the camera module controller 1216 may be provided to the corresponding camera modules 1100a, 1100b, and 1100c through separate control signal lines (CSLa, CSLb, and CSLc).

복수의 카메라 모듈(1100a, 1100b, 1100c) 중 어느 하나는 줌 신호를 포함하는 이미지 생성 정보 또는 모드 신호에 따라 마스터(master) 카메라(예를 들어, 1100b)로 지정되고, 나머지 카메라 모듈들(예를 들어, 1100a, 1100c)은 슬레이브(slave) 카메라로 지정될 수 있다. 이러한 정보는 제어 신호에 포함되어, 서로 분리된 제어 신호 라인(CSLa, CSLb, CSLc)을 통해 대응되는 카메라 모듈(1100a, 1100b, 1100c)에 제공될 수 있다.One of the plurality of camera modules (1100a, 1100b, 1100c) is designated as a master camera (e.g., 1100b) according to image generation information or mode signals including a zoom signal, and the remaining camera modules (e.g., For example, 1100a, 1100c) can be designated as slave cameras. This information may be included in the control signal and provided to the corresponding camera modules 1100a, 1100b, and 1100c through separate control signal lines (CSLa, CSLb, and CSLc).

줌 팩터 또는 동작 모드 신호에 따라 마스터 및 슬레이브로서 동작하는 카메라 모듈이 변경될 수 있다. 예를 들어, 카메라 모듈(1100a)의 시야각이 카메라 모듈(1100b)의 시야각보다 넓고, 줌 팩터가 낮은 줌 배율을 나타낼 경우, 카메라 모듈(1100b)이 마스터로서 동작하고, 카메라 모듈(1100a)이 슬레이브로서 동작할 수 있다. 반대로, 줌 팩터가 높은 줌 배율을 나타낼 경우, 카메라 모듈(1100a)이 마스터로서 동작하고, 카메라 모듈(1100b)이 슬레이브로서 동작할 수 있다.Camera modules operating as master and slave can be changed depending on the zoom factor or operation mode signal. For example, when the viewing angle of the camera module 1100a is wider than that of the camera module 1100b and the zoom factor indicates a low zoom ratio, the camera module 1100b operates as a master and the camera module 1100a operates as a slave. It can operate as . Conversely, when the zoom factor indicates a high zoom magnification, the camera module 1100a may operate as a master and the camera module 1100b may operate as a slave.

몇몇 실시 예에서, 카메라 모듈 컨트롤러(1216)로부터 각각의 카메라 모듈(1100a, 1100b, 1100c)에 제공되는 제어 신호는 싱크 인에이블 신호(sync enable) 신호를 포함할 수 있다. 예를 들어, 카메라 모듈(1100b)이 마스터 카메라이고, 카메라 모듈들(1100a, 1100c)이 슬레이브 카메라인 경우, 카메라 모듈 컨트롤러(1216)는 카메라 모듈(1100b)에 싱크 인에이블 신호를 전송할 수 있다. 이러한 싱크 인에이블 신호를 제공받은 카메라 모듈(1100b)은 제공받은 싱크 인에이블 신호를 기초로 싱크 신호(sync signal)를 생성하고, 생성된 싱크 신호를 싱크 신호 라인(SSL)을 통해 카메라 모듈들(1100a, 1100c)에 제공할 수 있다. 카메라 모듈(1100b)과 카메라 모듈들(1100a, 1100c)은 이러한 싱크 신호에 동기화되어 이미지 데이터를 응용 프로세서(1200)에 전송할 수 있다.In some embodiments, the control signal provided from the camera module controller 1216 to each camera module 1100a, 1100b, and 1100c may include a sync enable signal. For example, if the camera module 1100b is a master camera and the camera modules 1100a and 1100c are slave cameras, the camera module controller 1216 may transmit a sync enable signal to the camera module 1100b. The camera module 1100b that receives this sync enable signal generates a sync signal based on the sync enable signal, and transmits the generated sync signal to the camera modules (1100b) through the sync signal line (SSL). 1100a, 1100c). The camera module 1100b and the camera modules 1100a and 1100c may be synchronized to this sync signal and transmit image data to the application processor 1200.

몇몇 실시 예에서, 카메라 모듈 컨트롤러(1216)로부터 복수의 카메라 모듈(1100a, 1100b, 1100c)에 제공되는 제어 신호는 모드 신호에 따른 모드 정보를 포함할 수 있다. 이러한 모드 정보에 기초하여 복수의 카메라 모듈(1100a, 1100b, 1100c)은 센싱 속도와 관련하여 제1 동작 모드 및 제2 동작 모드로 동작할 수 있다. In some embodiments, a control signal provided from the camera module controller 1216 to the plurality of camera modules 1100a, 1100b, and 1100c may include mode information according to the mode signal. Based on this mode information, the plurality of camera modules 1100a, 1100b, and 1100c may operate in a first operation mode and a second operation mode in relation to the sensing speed.

복수의 카메라 모듈(1100a, 1100b, 1100c)은 제1 동작 모드에서, 제1 속도로 이미지 신호를 생성(예를 들어, 제1 프레임 레이트의 이미지 신호를 생성)하여 이를 제1 속도보다 높은 제2 속도로 인코딩(예를 들어, 제1 프레임 레이트보다 높은 제2 프레임 레이트의 이미지 신호를 인코딩)하고, 인코딩된 이미지 신호를 응용 프로세서(1200)에 전송할 수 있다. 이때, 제2 속도는 제1 속도의 30배 이하일 수 있다. In a first operation mode, the plurality of camera modules 1100a, 1100b, and 1100c generate an image signal at a first rate (e.g., generate an image signal at a first frame rate) and transmit it to a second rate higher than the first rate. The image signal may be encoded at a higher rate (for example, an image signal of a second frame rate higher than the first frame rate), and the encoded image signal may be transmitted to the application processor 1200. At this time, the second speed may be 30 times or less than the first speed.

응용 프로세서(1200)는 수신된 이미지 신호, 다시 말해서 인코딩된 이미지 신호를 내부에 구비되는 내부 메모리(1230) 또는 응용 프로세서(1200) 외부의 메모리(1400)에 저장하고, 이후, 내부 메모리(1230) 또는 외부의 메모리(1400)로부터 인코딩된 이미지 신호를 독출하여 디코딩하고, 디코딩된 이미지 신호에 기초하여 생성되는 이미지 데이터를 디스플레이할 수 있다. 예컨대 이미지 처리 장치(1210)의 복수의 서브 프로세서들(1212a, 1212b, 1212c) 중 대응하는 서브 프로세서가 디코딩을 수행할 수 있으며, 또한 디코딩된 이미지 신호에 대하여 이미지 처리를 수행할 수 있다.The application processor 1200 stores the received image signal, that is, the encoded image signal, in the internal memory 1230 provided inside or the memory 1400 outside the application processor 1200, and then stores the received image signal, that is, the encoded image signal, in the internal memory 1230 or the memory 1400 external to the application processor 1200. Alternatively, the encoded image signal may be read from the external memory 1400, decoded, and image data generated based on the decoded image signal may be displayed. For example, a corresponding subprocessor among the plurality of subprocessors 1212a, 1212b, and 1212c of the image processing device 1210 may perform decoding and may also perform image processing on the decoded image signal.

복수의 카메라 모듈(1100a, 1100b, 1100c)은 제2 동작 모드에서, 제1 속도보다 낮은 제3 속도로 이미지 신호를 생성(예를 들어, 제1 프레임 레이트보다 낮은 제3 프레임 레이트의 이미지 신호를 생성)하고, 이미지 신호를 응용 프로세서(1200)에 전송할 수 있다. 응용 프로세서(1200)에 제공되는 이미지 신호는 인코딩되지 않은 신호일 수 있다. 응용 프로세서(1200)는 수신되는 이미지 신호에 대하여 이미지 처리를 수행하거나 또는 이미지 신호를 내부의 메모리(1230) 또는 외부의 메모리(1400)에 저장할 수 있다.In the second operation mode, the plurality of camera modules 1100a, 1100b, and 1100c generate image signals at a third rate lower than the first rate (for example, generate image signals at a third frame rate lower than the first frame rate). generation) and transmit the image signal to the application processor 1200. The image signal provided to the application processor 1200 may be an unencoded signal. The application processor 1200 may perform image processing on a received image signal or store the image signal in the internal memory 1230 or the external memory 1400.

PMIC(1300)는 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 전력, 예컨대 전원 전압을 공급할 수 있다. 예를 들어, PMIC(1300)는 응용 프로세서(1200)의 제어 하에, 파워 신호 라인(PSLa)을 통해 카메라 모듈(1100a)에 제1 전력을 공급하고, 파워 신호 라인(PSLb)을 통해 카메라 모듈(1100b)에 제2 전력을 공급하고, 파워 신호 라인(PSLc)을 통해 카메라 모듈(1100c)에 제3 전력을 공급할 수 있다.The PMIC 1300 may supply power, for example, a power supply voltage, to each of the plurality of camera modules 1100a, 1100b, and 1100c. For example, the PMIC 1300, under the control of the application processor 1200, supplies first power to the camera module 1100a through the power signal line (PSLa) and the camera module (1100a) through the power signal line (PSLb). Second power may be supplied to 1100b), and third power may be supplied to the camera module 1100c through the power signal line (PSLc).

PMIC(1300)는 응용 프로세서(1200)로부터의 전력 제어 신호(PCON)에 응답하여, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 대응하는 전력을 생성하고, 또한, 전력의 레벨을 조정할 수 있다. 전력 제어 신호(PCON)는 복수의 카메라 모듈(1100a, 1100b, 1100c)의 동작 모드 별 전력 조정 신호를 포함할 수 있다. 예를 들어, 동작 모드는 저전력 모드(low power mode)를 포함할 수 있으며, 이때, 전력 제어 신호(PCON)는 저전력 모드로 동작하는 카메라 모듈 및 설정되는 전력 레벨에 대한 정보를 포함할 수 있다. 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 제공되는 전력들의 레벨은 서로 동일하거나 또는 서로 상이할 수 있다. 또한, 전력의 레벨은 동적으로 변경될 수 있다.The PMIC 1300 can generate power corresponding to each of the plurality of camera modules 1100a, 1100b, and 1100c in response to the power control signal (PCON) from the application processor 1200, and also adjust the power level. there is. The power control signal (PCON) may include a power adjustment signal for each operation mode of the plurality of camera modules 1100a, 1100b, and 1100c. For example, the operation mode may include a low power mode, and in this case, the power control signal (PCON) may include information about the camera module operating in the low power mode and the set power level. The levels of power provided to each of the plurality of camera modules 1100a, 1100b, and 1100c may be the same or different from each other. Additionally, the level of power may change dynamically.

예시적으로, 도 1 내지 도 15를 참조하여 설명된 이미지 센서(100)는 도 17의 이미지 센서(1142)에 대응할 수 있다. 이미지 센서(1142)는 픽셀 값들의 포화도에 기반하여 리모자이크 설정을 조절할 수 있다. 이미지 센서(1142)는 리모자이크 설정에 기반하여 리모자이크를 수행하고, 그리고 크로스토크 정정을 수행할 수 있다. 예시적으로, 리모자이크 크로스토크 정정은 순차적으로 또는 역순으로 수행될 수 있다. 이미지 센서(1142)가 본 기재의 실시 예에 따라 구현되면, 응용 프로세서(1200)가 획득하는 이미지 데이터의 품질이 개선될 수 있다.By way of example, the image sensor 100 described with reference to FIGS. 1 to 15 may correspond to the image sensor 1142 of FIG. 17 . The image sensor 1142 may adjust remosaic settings based on the saturation of pixel values. The image sensor 1142 may perform remosaic based on the remosaic setting and perform crosstalk correction. Illustratively, remosaic crosstalk correction may be performed sequentially or in reverse order. If the image sensor 1142 is implemented according to an embodiment of the present disclosure, the quality of image data acquired by the application processor 1200 may be improved.

상술된 실시 예들에서, 제1, 제2, 제3 등의 용어들을 사용하여 본 발명의 기술적 사상에 따른 구성 요소들이 설명되었다. 그러나 제1, 제2, 제3 등과 같은 용어들은 구성 요소들을 서로 구별하기 위해 사용되며, 본 발명을 한정하지 않는다. 예를 들어, 제1, 제2, 제3 등과 같은 용어들은 순서 또는 임의의 형태의 수치적 의미를 내포하지 않는다.In the above-described embodiments, components according to the technical idea of the present invention have been described using terms such as first, second, third, etc. However, terms such as first, second, third, etc. are used to distinguish components from each other and do not limit the present invention. For example, terms such as first, second, third, etc. do not imply order or any form of numerical meaning.

상술된 실시 예들에서, 블록들을 사용하여 본 발명의 실시 예들에 따른 구성 요소들이 참조되었다. 블록들은 IC (Integrated Circuit), ASIC (Application Specific IC), FPGA (Field Programmable Gate Array), CPLD (Complex Programmable Logic Device) 등과 같은 다양한 하드웨어 장치들, 하드웨어 장치들에서 구동되는 펌웨어, 응용과 같은 소프트웨어, 또는 하드웨어 장치와 소프트웨어가 조합된 형태로 구현될 수 있다. 또한, 블록들은 IC 내의 반도체 소자들로 구성되는 회로들 또는 IP(Intellectual Property)로 등록된 회로들을 포함할 수 있다.In the above-described embodiments, components according to embodiments of the present invention have been referenced using blocks. Blocks include various hardware devices such as IC (Integrated Circuit), ASIC (Application Specific IC), FPGA (Field Programmable Gate Array), and CPLD (Complex Programmable Logic Device), software such as firmware and applications running on the hardware devices, Alternatively, it may be implemented as a combination of a hardware device and software. Additionally, blocks may include circuits comprised of semiconductor elements within an IC or circuits registered as IP (Intellectual Property).

상술된 내용은 본 발명을 실시하기 위한 구체적인 실시 예들이다. 본 발명은 상술된 실시 예들뿐만 아니라, 단순하게 설계 변경되거나 용이하게 변경할 수 있는 실시 예들 또한 포함할 것이다. 또한, 본 발명은 실시 예들을 이용하여 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다. 따라서, 본 발명의 범위는 상술된 실시 예들에 국한되어 정해져서는 안되며 후술하는 특허청구범위뿐만 아니라 이 발명의 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.The above-described details are specific embodiments for carrying out the present invention. The present invention will include not only the above-described embodiments, but also embodiments that can be simply changed or easily changed in design. In addition, the present invention will also include technologies that can be easily modified and implemented using the embodiments. Therefore, the scope of the present invention should not be limited to the above-described embodiments, but should be determined by the claims and equivalents of the present invention as well as the claims described later.

10: 전자 장치
100: 이미지 센서
110: 픽셀부
120: 데이터 변환부
130: 프로세싱부
131: 리모자이크부
132: 비닝부
133: 크로스토크 정정부
134: 포화 관리부
10: Electronic device
100: image sensor
110: Pixel part
120: data conversion unit
130: processing unit
131: Remosaic section
132: Binning unit
133: Crosstalk correction unit
134: Saturation Management Department

Claims (20)

복수의 픽셀들을 포함하고, 그리고 상기 복수의 픽셀들을 이용하여 아날로그 신호를 생성하도록 구성되는 픽셀부;
상기 아날로그 신호를 수신하고, 그리고 상기 아날로그 신호를 디지털 신호로 변환하는 데이터 변환부; 그리고
상기 디지털 신호에 대해 크로스토크 정정 및 리모자이크(remosaic)를 수행함으로써 이미지 데이터를 생성하고, 그리고 상기 이미지 데이터를 외부의 장치로 출력하도록 구성되는 프로세싱부를 포함하고,
상기 프로세싱부는 상기 외부의 장치로부터 이미지 데이터 정보를 수신하고, 상기 이미지 데이터 정보에 기반하여 포화도 비율을 계산하고, 그리고 상기 포화도 비율에 기반하여 상기 리모자이크의 설정을 조절하도록 구성되는 이미지 센서.
a pixel unit including a plurality of pixels and configured to generate an analog signal using the plurality of pixels;
a data converter that receives the analog signal and converts the analog signal into a digital signal; and
A processing unit configured to generate image data by performing crosstalk correction and remosaic on the digital signal, and output the image data to an external device,
The processing unit is configured to receive image data information from the external device, calculate a saturation ratio based on the image data information, and adjust settings of the remosaic based on the saturation ratio.
제1항에 있어서,
상기 프로세싱부는 상기 이미지 데이터 상에서 상기 복수의 픽셀들에 대응하는 픽셀 값들의 그룹들의 평균 픽셀 값들을 상기 이미지 데이터 정보로부터 검출하고, 그리고 상기 평균 픽셀 값들에 기반하여 상기 포화도 비율을 계산하도록 더 구성되는 이미지 센서.
According to paragraph 1,
The processing unit is further configured to detect average pixel values of groups of pixel values corresponding to the plurality of pixels on the image data from the image data information, and calculate the saturation ratio based on the average pixel values. sensor.
제2항에 있어서,
상기 프로세싱부는 상기 평균 픽셀 값들을 문턱 값과 비교함으로써 상기 포화도 비율을 계산하도록 더 구성되는 이미지 센서.
According to paragraph 2,
The processing unit is further configured to calculate the saturation ratio by comparing the average pixel values with a threshold value.
제3항에 있어서,
상기 프로세싱부는 평균 픽셀 값들 중 상기 문턱 값보다 높은 평균 픽셀 값들의 비율을 상기 포화도 비율로 계산하도록 더 구성되는 이미지 센서.
According to paragraph 3,
The processing unit is further configured to calculate a ratio of average pixel values higher than the threshold among average pixel values as the saturation ratio.
제1항에 있어서,
상기 이미지 데이터 정보는 상기 복수의 픽셀들에 대응하는 픽셀 값들 중 포화된 픽셀 값들의 수에 대한 정보를 포함하고, 그리고
상기 프로세싱부는 상기 포화된 픽셀 값들의 수에 기반하여 상기 포화도 비율을 계산하도록 더 구성되는 이미지 센서.
According to paragraph 1,
The image data information includes information about the number of saturated pixel values among pixel values corresponding to the plurality of pixels, and
The processing unit is further configured to calculate the saturation ratio based on the number of saturated pixel values.
제1항에 있어서,
이미지 데이터는 복수의 채널들에 각각 대응하는 복수의 채널 데이터를 포함하고,
상기 이미지 데이터 정보는 상기 복수의 채널들에 각각 대응하는 복수의 채널 데이터 정보를 포함하고, 그리고
상기 프로세싱부는 상기 복수의 채널들에 각각 대응하는 복수의 포화도 비율들을 계산하도록 더 구성되는 이미지 센서.
According to paragraph 1,
The image data includes a plurality of channel data each corresponding to a plurality of channels,
The image data information includes a plurality of channel data information corresponding to each of the plurality of channels, and
The processing unit is further configured to calculate a plurality of saturation ratios corresponding to each of the plurality of channels.
제6항에 있어서,
상기 프로세싱부는 상기 복수의 포화도 비율들 중 가장 높은 포화도 비율에 기반하여 상기 리모자이크의 설정을 조절하도록 더 구성되는 이미지 센서.
According to clause 6,
The processing unit is further configured to adjust the remosaic settings based on the highest saturation ratio among the plurality of saturation ratios.
제1항에 있어서,
상기 프로세싱부는 상기 이미지 데이터가 편평한 이미지 데이터인지 판단하는데 사용되는 편평도 문턱, 상기 이미지 데이터 중 편평한 영역을 판단하는데 사용되는 로컬 편평도 문턱, 그리고 상기 이미지 데이터 중 편평한 영역을 스무딩(smoothing)할 때에 사용되는 스무딩 파워(smoothing power) 중 적어도 하나를 조절하도록 더 구성되는 이미지 센서.
According to paragraph 1,
The processing unit includes a flatness threshold used to determine whether the image data is flat image data, a local flatness threshold used to determine a flat area of the image data, and a smoothing function used to smooth the flat area of the image data. An image sensor further configured to adjust at least one of smoothing power.
제8항에 있어서,
상기 프로세싱부는 상기 포화도 비율이 증가할수록 상기 편평도 문턱, 상기 로컬 편평도 문턱, 그리고 상기 스무딩 파워 중 적어도 하나를 증가시키도록 더 구성되는 이미지 센서.
According to clause 8,
The processing unit is further configured to increase at least one of the flatness threshold, the local flatness threshold, and the smoothing power as the saturation ratio increases.
제9항에 있어서,
상기 프로세싱부는 상기 포화도 비율이 증가할수록 상기 편평도 문턱, 상기 로컬 편평도 문턱, 그리고 상기 스무딩 파워 중 적어도 두 개를 동일한 비율로 증가시키도록 더 구성되는 이미지 센서.
According to clause 9,
The processing unit is further configured to increase at least two of the flatness threshold, the local flatness threshold, and the smoothing power at the same rate as the saturation ratio increases.
제9항에 있어서,
상기 프로세싱부는 상기 포화도 비율이 증가할수록 상기 편평도 문턱, 상기 로컬 편평도 문턱, 그리고 상기 스무딩 파워 중 적어도 두 개를 서로 다른 비율로 증가시키도록 더 구성되는 이미지 센서.
According to clause 9,
The processing unit is further configured to increase at least two of the flatness threshold, the local flatness threshold, and the smoothing power at different rates as the saturation ratio increases.
제1항에 있어서,
상기 프로세싱부는 상기 리모자이크의 설정을 조절함으로써, 상기 복수의 픽셀들 중 포화된 픽셀들의 크로스토크를 정정하도록 더 구성되는 이미지 센서.
According to paragraph 1,
The processing unit is further configured to correct crosstalk of saturated pixels among the plurality of pixels by adjusting the remosaic settings.
제12항에 있어서,
상기 프로세싱부는 상기 복수의 픽셀들 중 포화되지 않은 픽셀들의 픽셀 값들이 이득 및 오프셋을 적용함으로써, 상기 포화되지 않은 픽셀들의 상기 크로스토크 정정을 수행하도록 더 구성되는 이미지 센서.
According to clause 12,
The processing unit is further configured to perform the crosstalk correction of the unsaturated pixels by applying gain and offset to pixel values of the unsaturated pixels among the plurality of pixels.
복수의 픽셀들을 포함하는 이미지 센서이미지 센서의 동작 방법에 있어서:
상기 이미지 센서가 외부의 장치로부터 이미지 데이터 정보를 수신하는 단계;
상기 이미지 센서가 상기 이미지 데이터 정보로부터 상기 이미지 센서에 의해 획득된 이미지 데이터의 포화도 비율을 계산하는 단계; 그리고
상기 이미지 센서가 상기 포화도 비율에 기반하여 리모자이크(remosaic) 설정을 조절하는 단계를 포함하고,
상기 이미지 센서는 상기 이미지 센서에 의해 획득된 이미지 데이터에 대해 상기 리모자이크 설정에 기반하여 리모자이크를 수행하도록 구성되는 동작 방법.
In a method of operating an image sensor image sensor including a plurality of pixels:
The image sensor receiving image data information from an external device;
calculating, by the image sensor, a saturation ratio of image data acquired by the image sensor from the image data information; and
Comprising the step of the image sensor adjusting remosaic settings based on the saturation ratio,
An operation method wherein the image sensor is configured to perform remosaicing on image data acquired by the image sensor based on the remosaic setting.
제14항에 있어서,
상기 이미지 데이터 정보는 상기 이미지 센서에 의해 상기 외부의 장치로 출력된 이전 프레임의 이미지 데이터의 정보를 포함하는 동작 방법.
According to clause 14,
The image data information includes information on image data of a previous frame output by the image sensor to the external device.
제14항에 있어서,
상기 이미지 센서는 상기 리모자이크 설정에 기반하여 현재 프레임의 이미지 데이터에 대해 상기 리모자이크를 수행하는 동작 방법.
According to clause 14,
An operating method wherein the image sensor performs the remosaic on image data of the current frame based on the remosaic setting.
제14항에 있어서,
상기 포화도 비율을 계산하는 단계는:
상기 복수의 픽셀들에 대응하는 픽셀 값들의 그룹들의 평균 픽셀 값들을 상기 이미지 데이터 정보로부터 검출하는 단계;
문턱 값을 이용하여, 상기 픽셀 값들의 그룹들 중 포화된 그룹들을 판단하는 단계;
상기 포화된 그룹들의 수를 카운트하는 단계; 그리고
상기 포화된 그룹들의 수에 기반하여 상기 포화도 비율을 계산하는 단계를 포함하는 동작 방법.
According to clause 14,
The steps for calculating the saturation ratio are:
detecting average pixel values of groups of pixel values corresponding to the plurality of pixels from the image data information;
Using a threshold value, determining saturated groups among the groups of pixel values;
counting the number of saturated groups; and
A method of operation comprising calculating the saturation ratio based on the number of saturated groups.
제14항에 있어서,
상기 포화도 비율을 계산하는 단계는:
상기 복수의 픽셀들 중 포화된 픽셀 값에 대응하는 포화된 픽셀들의 수를 상기 이미지 데이터 정보로부터 검출하는 단계; 그리고
상기 포화된 픽셀들의 수에 기반하여 상기 포화도 비율을 계산하는 단계를 포함하는 동작 방법.
According to clause 14,
The steps for calculating the saturation ratio are:
detecting the number of saturated pixels corresponding to a saturated pixel value among the plurality of pixels from the image data information; and
A method of operation comprising calculating the saturation ratio based on the number of saturated pixels.
이미지 데이터를 생성하는 이미지 센서; 그리고
상기 이미지 데이터에 기반하여 이미지 데이터 정보를 생성하고, 그리고 상기 이미지 데이터 정보를 상기 이미지 센서로 전달하는 프로세서를 포함하고,
상기 이미지 센서는 복수의 픽셀들을 포함하고, 상기 이미지 데이터 정보로부터 상기 복수의 픽셀들의 포화도 비율을 계산하고, 그리고 상기 포화도 비율에 기반하여 상기 복수의 픽셀들의 크로스토크를 제1 모드 및 제2 모드 중 하나에 기반하여 정정하도록 구성되고,
상기 제1 모드에서, 상기 이미지 센서는 이득 및 오프셋에 기반하여 상기 크로스토크를 정정하도록 구성되고, 그리고
상기 제2 모드에서, 상기 이미지 센서는 상기 이득 및 상기 오프셋에 기반하여 상기 크로스토크를 정정하고, 그리고 리모자이크(remosaic) 설정을 조절함으로써 상기 크로스토크를 추가적으로 정정하도록 구성되는 전자 장치.
An image sensor that generates image data; and
A processor that generates image data information based on the image data and transmits the image data information to the image sensor,
The image sensor includes a plurality of pixels, calculates a saturation ratio of the plurality of pixels from the image data information, and performs crosstalk of the plurality of pixels based on the saturation ratio in one of a first mode and a second mode. It is configured to correct based on one,
In the first mode, the image sensor is configured to correct the crosstalk based on gain and offset, and
In the second mode, the image sensor is configured to correct the crosstalk based on the gain and the offset, and to further correct the crosstalk by adjusting a remosaic setting.
제19항에 있어서,
상기 이미지 센서는 상기 포화도 비율이 기준 값보다 낮을 때에 상기 제1 모드로 진입하고, 그리고 상기 포화도 비율이 상기 기준 값 이상일 때에 상기 제2 모드로 진입하는 전자 장치.
According to clause 19,
The image sensor enters the first mode when the saturation ratio is lower than the reference value, and enters the second mode when the saturation ratio is higher than the reference value.
KR1020220112541A 2022-06-20 2022-09-06 Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor KR20230174127A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US18/121,804 US20230412939A1 (en) 2022-06-20 2023-03-15 Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor
CN202310377037.5A CN117278869A (en) 2022-06-20 2023-04-10 Image sensor for correcting crosstalk, method of operating the same, and electronic apparatus including the same
TW112116904A TW202415085A (en) 2022-06-20 2023-05-08 Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor
JP2023084581A JP2024000506A (en) 2022-06-20 2023-05-23 Image sensor correcting crosstalk, operating method of image sensor, and electronic apparatus including image sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220075035 2022-06-20
KR20220075035 2022-06-20

Publications (1)

Publication Number Publication Date
KR20230174127A true KR20230174127A (en) 2023-12-27

Family

ID=89378288

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220112541A KR20230174127A (en) 2022-06-20 2022-09-06 Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor

Country Status (1)

Country Link
KR (1) KR20230174127A (en)

Similar Documents

Publication Publication Date Title
RU2490715C1 (en) Image capturing device
US11616934B2 (en) Image sensor
US11178372B1 (en) Image signal processor, image signal processing method and electronic device thereof
US11394935B2 (en) Pixel array for reducing image information loss and image sensor including the same
KR102632474B1 (en) Pixel array included in image sensor and image sensor including the same
US20220182589A1 (en) Image device and operation method of image device
KR20220000761A (en) Image sensor and binning method thereof
US11776088B2 (en) Electronic device generating image data and converting the generated image data and operating method of the electronic device
US11743606B2 (en) Pixel array reducing loss of image information and image sensor including same
US11622093B1 (en) Pixel array for reducing image information loss and image sensor including the same
KR20220017649A (en) Electronic device including an image sensor
KR20230174127A (en) Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor
KR20210116168A (en) Electronic device generating image data and converting generated image data and operating method of electronic device
US20230412939A1 (en) Image sensor correcting crosstalk, operating method of image sensor, and electronic device including image sensor
KR102346622B1 (en) Image sensor and image pick-up apparatus including the same
KR20220127003A (en) Image sensor and Camera Module including the same
CN117278869A (en) Image sensor for correcting crosstalk, method of operating the same, and electronic apparatus including the same
EP4096217A1 (en) Image sensor and image signal processing method
KR102701854B1 (en) Pixel array capable of reducing image information loss and Image sensor having the same
US11825226B2 (en) Image sensor and pixel array of image sensor
KR102722918B1 (en) Pixel array capable of reducing image information loss and Image sensor having the same
US20230169629A1 (en) Image signal processor, method for operating image signal processor and image sensing device
US20240185558A1 (en) Image signal processor and image sensing device thereof
US11758288B2 (en) Device for improving image resolution in camera system having lens that permits distortion and operation method thereof
US20240334088A1 (en) Pixel array for optimizing dual conversion gain operation of pixels sharing floating diffusion region and image sensor including the same