KR20240037810A - Method of operating image sensor and image device performing the same - Google Patents

Method of operating image sensor and image device performing the same Download PDF

Info

Publication number
KR20240037810A
KR20240037810A KR1020230008301A KR20230008301A KR20240037810A KR 20240037810 A KR20240037810 A KR 20240037810A KR 1020230008301 A KR1020230008301 A KR 1020230008301A KR 20230008301 A KR20230008301 A KR 20230008301A KR 20240037810 A KR20240037810 A KR 20240037810A
Authority
KR
South Korea
Prior art keywords
image data
parameters
adjustment factor
illuminance
image
Prior art date
Application number
KR1020230008301A
Other languages
Korean (ko)
Inventor
이용철
유재성
한지수
이상우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US18/455,047 priority Critical patent/US20240098375A1/en
Publication of KR20240037810A publication Critical patent/KR20240037810A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

본 개시의 일 실시예에 따른 이미지 센서의 동작 방법에서, 제1 이미지 캡쳐링을 수행하여 제1 결과 이미지 데이터들이 생성된다. 상기 제1 결과 이미지 데이터들은 복수의 제1 SDR 이미지 데이터들 및 제1 HDR 이미지 데이터를 포함한다. 상기 결과 이미지 데이터들에 기초하여, 제1 파라미터들이 생성된다. 상기 제1 파라미터들은 상기 제1 이미지 캡쳐링과 관련된다. 상기 제1 파라미터들에 기초하여 조정 팩터가 생성된다. 상기 조정 팩터를 기초로 상기 제1 파라미터들을 조정하여 제2 파라미터들이 생성된다. 상기 제2 파라미터들에 기초하여 제2 이미지 캡쳐링이 수행된다. In a method of operating an image sensor according to an embodiment of the present disclosure, first result image data is generated by performing first image capturing. The first resulting image data includes a plurality of first SDR image data and first HDR image data. Based on the resulting image data, first parameters are generated. The first parameters are related to capturing the first image. An adjustment factor is generated based on the first parameters. Second parameters are generated by adjusting the first parameters based on the adjustment factor. A second image capturing is performed based on the second parameters.

Description

이미지 센서의 동작 방법 및 이를 수행하는 이미지 장치{METHOD OF OPERATING IMAGE SENSOR AND IMAGE DEVICE PERFORMING THE SAME}Method of operating an image sensor and an image device that performs the same {METHOD OF OPERATING IMAGE SENSOR AND IMAGE DEVICE PERFORMING THE SAME}

본 발명은 반도체 장치에 관한 것으로서 더욱 상세하게는 이미지 센서의 동작 방법 및 상기 방법을 수행하는 이미지 장치에 관한 것이다. The present invention relates to a semiconductor device, and more specifically, to a method of operating an image sensor and an image device that performs the method.

이미지 센서는 카메라 렌즈를 통해 입사되는 빛을 디지털 이미지 데이터로 변환한다. 이미지 센서는 고 동적 범위(high dynamic range)(HDR)를 위해 서로 다른 평균 밝기들을 가지는 복수의 표준 동적 범위(standard dynamic range)(SDR) 이미지 데이터들을 생성하고, 복수의 SDR 이미지 데이터들에 기초하여 HDR 이미지 데이터를 생성할 수 있다. An image sensor converts light incident through a camera lens into digital image data. The image sensor generates a plurality of standard dynamic range (SDR) image data with different average brightnesses for high dynamic range (HDR), and based on the plurality of SDR image data HDR image data can be generated.

복수의 SDR 이미지 데이터들은 하나의 피사체에 대하여 서로 다른 노출 시간들 및/또는 서로 다른 센서 이득들을 적용하여 얻을 수 있다. 그러나 일반적인 환경이 아닌 역광(backlit) 환경에서, 상기 노출 시간들 및/또는 상기 센서 이득들 간의 범위가 HDR 이미지 데이터를 얻기 위한 이미지 센서의 하드웨어 제약을 벗어날 수 있다. 이 경우, 상기 하드웨어 제약에 따라 복수의 SDR 이미지 데이터들 중 가장 낮은 평균 밝기를 가지는 SDR 이미지 데이터가 의도하지 않은 수준 이상으로 밝게 캡쳐링됨에 따라 HDR 이미지 데이터에서 충분한 동적 범위를 확보하는데 어려움이 따를 수 있다.A plurality of SDR image data can be obtained by applying different exposure times and/or different sensor gains to one subject. However, in a backlit environment other than a general environment, the range between the exposure times and/or the sensor gains may exceed the hardware constraints of the image sensor for obtaining HDR image data. In this case, due to the hardware constraints, the SDR image data with the lowest average brightness among the plurality of SDR image data is captured brighter than the unintended level, which may lead to difficulties in securing sufficient dynamic range in the HDR image data. there is.

본 개시의 일 목적은 고 동적 범위(high dynamic range)(HDR) 이미지 데이터를 생성하는 이미지 센서의 동작 방법을 제공하는 것이다. One purpose of the present disclosure is to provide a method of operating an image sensor that generates high dynamic range (HDR) image data.

본 개시의 일 목적은 역광(backlit) 환경에서 HDR 이미지 데이터를 생성하는 이미지 센서의 동작 방법을 제공하는 것이다. One purpose of the present disclosure is to provide a method of operating an image sensor that generates HDR image data in a backlit environment.

본 개시의 일 목적은 상기 방법을 수행하는 이미지 장치를 제공하는 것이다. One object of the present disclosure is to provide an imaging device that performs the above method.

상기 일 목적을 달성하기 위해 본 개시의 일 실시예에 따른 이미지 센서의 동작 방법에서, 제1 이미지 캡쳐링을 수행하여 제1 결과 이미지 데이터들이 생성된다. 상기 제1 결과 이미지 데이터들은 복수의 제1 표준 동적 범위(standard dynamic range)(SDR) 이미지 데이터들 및 제1 고 동적 범위(high dynamic range)(HDR) 이미지 데이터를 포함한다. 상기 결과 이미지 데이터들에 기초하여, 제1 파라미터들이 생성된다. 상기 제1 파라미터들은 상기 제1 이미지 캡쳐링과 관련되고, 복수의 제1 노출 시간들 및 복수의 제1 센서 이득들을 포함한다. 상기 제1 파라미터들에 기초하여 조정 팩터가 생성된다. 상기 조정 팩터를 기초로 상기 제1 파라미터들을 조정하여 제2 파라미터들이 생성된다. 상기 제2 파라미터들은 복수의 제2 노출 시간들 및 복수의 제2 센서 이득들을 포함한다. 상기 제2 파라미터들에 기초하여 제2 이미지 캡쳐링이 수행된다. In order to achieve the above object, in a method of operating an image sensor according to an embodiment of the present disclosure, first result image data is generated by performing first image capturing. The first resulting image data includes a plurality of first standard dynamic range (SDR) image data and first high dynamic range (HDR) image data. Based on the resulting image data, first parameters are generated. The first parameters are related to capturing the first image and include a plurality of first exposure times and a plurality of first sensor gains. An adjustment factor is generated based on the first parameters. Second parameters are generated by adjusting the first parameters based on the adjustment factor. The second parameters include a plurality of second exposure times and a plurality of second sensor gains. A second image capturing is performed based on the second parameters.

상기 일 목적을 달성하기 위해 본 개시의 일 실시예에 따른 이미지 장치는 애플리케이션 프로세서 및 이미지 센서를 포함한다. 상기 애플리케이션 프로세서는 복수의 제1 SDR 이미지 데이터들 및 제1 HDR 이미지 데이터를 포함하는 제1 결과 이미지 데이터들에 기초하여, 제1 이미지 캡쳐링과 관련되고 복수의 제1 노출 시간들 및 복수의 제1 센서 이득들을 포함하는 제1 파라미터들을 생성한다. 상기 애플리케이션 프로세서는 상기 제1 파라미터들에 기초하여 조정 팩터를 생성한다. 상기 애플리케이션 프로세서는 상기 조정 팩터를 기초로 상기 제1 파라미터들을 조정하여 복수의 제2 노출 시간들 및 복수의 제2 센서 이득들을 포함하는 제2 파라미터들을 생성한다. To achieve the above object, an image device according to an embodiment of the present disclosure includes an application processor and an image sensor. The application processor is configured to determine, based on first resultant image data comprising a plurality of first SDR image data and first HDR image data, a plurality of first exposure times and a plurality of first exposure times associated with first image capturing. 1 Generate first parameters including sensor gains. The application processor generates an adjustment factor based on the first parameters. The application processor adjusts the first parameters based on the adjustment factor to generate second parameters including a plurality of second exposure times and a plurality of second sensor gains.

상기 일 목적을 달성하기 위해 본 개시의 일 실시예에 따른 이미지 센서의 동작 방법에서, 제1 이미지 캡쳐링을 수행하여 복수의 제1 SDR 이미지 데이터들 및 제1 HDR 이미지 데이터를 포함하는 제1 결과 이미지 데이터들이 생성된다. 상기 결과 이미지 데이터들에 기초하여, 상기 제1 이미지 캡쳐링과 관련되고 제1 장노출 파라미터 및 제1 단노출 파라미터를 포함하는 제1 파라미터들이 생성된다. 상기 제1 파라미터들에 기초하여 조정 팩터가 생성된다. 상기 조정 팩터를 기초로 상기 제1 파라미터들을 조정하여 제2 장노출 파라미터 및 제2 단노출 파라미터를 포함하는 제2 파라미터들이 생성된다. 상기 제2 파라미터들에 기초하여 제2 이미지 캡쳐링이 수행된다. 상기 제2 장노출 파라미터 및 상기 제2 단노출 파라미터의 비는 HDR 이미지 데이터를 얻기 위한 이미지 센서의 하드웨어 제약을 만족하도록 계산된다. In order to achieve the above object, in a method of operating an image sensor according to an embodiment of the present disclosure, first image capturing is performed to produce a first result including a plurality of first SDR image data and first HDR image data. Image data is created. Based on the resulting image data, first parameters related to capturing the first image and including a first long exposure parameter and a first short exposure parameter are generated. An adjustment factor is generated based on the first parameters. Second parameters including a second long exposure parameter and a second short exposure parameter are generated by adjusting the first parameters based on the adjustment factor. A second image capturing is performed based on the second parameters. The ratio of the second long exposure parameter and the second short exposure parameter is calculated to satisfy the hardware constraints of the image sensor for obtaining HDR image data.

본 개시의 일 실시예에 따른 이미지 센서의 동작 방법에서는, 제1 이미지 캡쳐링을 수행한 결과들에 기초하여 제2 이미지 캡쳐링을 수행할 수 있다. 상기 제1 이미지 캡쳐링을 수행한 결과들에 기초하여 제1 파라미터들이 생성될 수 있고, 상기 제1 파라미터들에 기초하여 상기 제2 이미지 캡쳐링을 수행하기 위한 제2 파라미터들이 생성될 수 있다. 상기 제2 파라미터들은 HDR 이미지 데이터를 얻기 위한 이미지 장치(또는 이미지 센서)의 하드웨어 제약을 만족하도록 계산될 수 있다. 따라서 상기 이미지 장치는, 주변 환경이 일반적인 환경에서 역광 환경으로 변화하는 경우에도, 피사체의 밝기값을 안정화하고, 배경(background) 등의 포화를 방지하여 충분한 동적 범위를 가지는 HDR 이미지 데이터를 얻을 수 있다. In a method of operating an image sensor according to an embodiment of the present disclosure, second image capturing may be performed based on the results of performing first image capturing. First parameters may be generated based on the results of performing the first image capturing, and second parameters for performing the second image capturing may be generated based on the first parameters. The second parameters may be calculated to satisfy hardware constraints of an image device (or image sensor) for obtaining HDR image data. Therefore, the image device can obtain HDR image data with a sufficient dynamic range by stabilizing the brightness value of the subject and preventing saturation of the background, etc., even when the surrounding environment changes from a normal environment to a backlight environment. .

도 1은 본 개시의 일 실시예에 따른 이미지 센서의 동작 방법을 나타내는 순서도이다.
도 2는 본 개시의 일 실시예에 따른 이미지 장치를 나타내는 블록도이다.
도 3a는 도 2의 픽셀 어레이에 포함되는 단위 픽셀을 설명하기 위한 도면이고, 도 3b는 상기 단위 픽셀에 포함되는 단위 컬러 픽셀의 일 예를 나타내는 회로도이다.
도 4는 도 2의 제1 파라미터 생성기의 일 실시예를 나타내는 블록도이다.
도 5a 및 도 5b는 도 4의 제1 파라미터를 설명하기 위한 도면들이다.
도 6은 도 1의 조정 팩터를 생성하는 동작의 일 실시예를 나타내는 순서도이다.
도 7은 도 6의 조정 팩터를 계산하는 동작의 일 실시예를 나타내는 순서도이다.
도 8은 도 2의 조정 팩터 생성기의 일 실시예를 나타내는 블록도이다.
도 9는 도 8의 조도-조정 팩터 테이블의 일 실시예를 나타내는 도면이다.
도 10a 및 도 10b는 도 1의 제2 파라미터들을 생성하는 동작의 일 실시예를 나타내는 도면들이다.
도 11은 도 2의 제2 파라미터 생성기의 일 실시예를 나타내는 블록도이다.
도 12는 이미지 센서의 하드웨어 제약을 설명하기 위한 도면이다.
도 13은 본 개시의 일 실시예에 따른 이미지 센서의 동작 방법을 나타내는 순서도이다.
도 14는 도 13의 제2 결과 이미지 데이터를 생성하는 동작의 일 실시예를 나타내는 순서도이다.
도 15는 본 개시의 일 실시예에 따른 이미지 장치를 나타내는 블록도이다.
도 16은 본 개시의 실시예들에 따른 이미지 센서의 동작들을 설명하기 위한 도면이다.
도 17a, 도 17b, 도 18a, 도 18b, 도 19a 및 도 19b는 도 1의 제1 파라미터들, 제2 파라미터들, 제1 동적 범위 압축비 및 제2 동적 범위 압축비를 설명하기 위한 도면들이다.
도 20은 본 개시의 일 실시예에 따른 이미지 센서의 동작 방법을 나타내는 순서도이다.
도 21은 도 2 및 도 15의 이미지 센서들의 동작 방식의 일 예를 설명하기 위한 도면이다.
도 22는 본 개시의 실시예들에 따른 이미지 센서를 포함하는 컴퓨팅 시스템을 나타내는 블록도이다.
도 23은 본 개시의 실시예들에 따른 이미지 센서를 포함하는 전자 시스템을 나타내는 블록도이다.
1 is a flowchart showing a method of operating an image sensor according to an embodiment of the present disclosure.
Figure 2 is a block diagram showing an imaging device according to an embodiment of the present disclosure.
FIG. 3A is a diagram for explaining a unit pixel included in the pixel array of FIG. 2, and FIG. 3B is a circuit diagram showing an example of a unit color pixel included in the unit pixel.
FIG. 4 is a block diagram showing an embodiment of the first parameter generator of FIG. 2.
FIGS. 5A and 5B are diagrams for explaining the first parameter of FIG. 4.
FIG. 6 is a flow chart illustrating one embodiment of an operation for generating the adjustment factor of FIG. 1.
FIG. 7 is a flowchart illustrating one embodiment of an operation for calculating the adjustment factor of FIG. 6.
FIG. 8 is a block diagram illustrating one embodiment of the adjustment factor generator of FIG. 2.
FIG. 9 is a diagram illustrating an embodiment of the illuminance-adjustment factor table of FIG. 8.
FIGS. 10A and 10B are diagrams illustrating an example of an operation for generating the second parameters of FIG. 1 .
FIG. 11 is a block diagram showing an embodiment of the second parameter generator of FIG. 2.
FIG. 12 is a diagram to explain hardware limitations of an image sensor.
13 is a flowchart showing a method of operating an image sensor according to an embodiment of the present disclosure.
FIG. 14 is a flowchart illustrating an example of an operation for generating the second result image data of FIG. 13 .
Figure 15 is a block diagram showing an imaging device according to an embodiment of the present disclosure.
FIG. 16 is a diagram for explaining operations of an image sensor according to embodiments of the present disclosure.
FIGS. 17A, 17B, 18A, 18B, 19A, and 19B are diagrams for explaining the first parameters, second parameters, first dynamic range compression ratio, and second dynamic range compression ratio of FIG. 1.
Figure 20 is a flowchart showing a method of operating an image sensor according to an embodiment of the present disclosure.
FIG. 21 is a diagram for explaining an example of the operation method of the image sensors of FIGS. 2 and 15.
Figure 22 is a block diagram showing a computing system including an image sensor according to embodiments of the present disclosure.
Figure 23 is a block diagram showing an electronic system including an image sensor according to embodiments of the present disclosure.

이하에서, 본 개시의 기술분야에서 통상의 지식을 가진 자가 본 개시를 용이하게 실시할 수 있을 정도로, 본 개시의 실시예들이 명확하고 상세하게 기재될 것이다.Below, embodiments of the present disclosure will be described clearly and in detail so that a person skilled in the art can easily practice the present disclosure.

도 1은 본 개시의 일 실시예에 따른 이미지 센서의 동작 방법을 나타내는 순서도이다. 도 2는 본 개시의 일 실시예에 따른 이미지 장치를 나타내는 블록도이다. 1 is a flowchart showing a method of operating an image sensor according to an embodiment of the present disclosure. Figure 2 is a block diagram showing an imaging device according to an embodiment of the present disclosure.

도 1 및 도 2를 참조하면, 본 개시의 일 실시예에 따른 이미지 센서(100)의 동작 방법에서, 이미지 센서(100)는 제1 이미지 캡쳐링(151)을 수행하여 복수의 제1 표준 동적 범위(standard dynamic range)(SDR) 이미지 데이터들(SDR_IMG1s) 및 제1 고 동적 범위(high dynamic range)(HDR) 이미지 데이터(HDR_IMG1)를 포함하는 제1 결과 이미지 데이터들(RES_IMG1s)을 생성할 수 있다(S100). 1 and 2, in the method of operating the image sensor 100 according to an embodiment of the present disclosure, the image sensor 100 performs first image capturing 151 to capture a plurality of first standard dynamic images. First resulting image data (RES_IMG1s) comprising standard dynamic range (SDR) image data (SDR_IMG1s) and first high dynamic range (HDR) image data (HDR_IMG1) may be generated. There is (S100).

일 실시예에서, 이미지 장치(10)는 SDR 이미지 데이터들을 순차적으로 또는 동시에 캡쳐링하고 SDR 이미지 데이터들에 기초하여 HDR 이미지 데이터를 생성하는 고해상도 이미지 장치일 수 있다. 이미지 장치(10)는 이미지 센서(100) 및 애플리케이션 프로세서(500)를 포함할 수 있다. 이미지 센서(100)는 픽셀 어레이(101)를 포함할 수 있고, 애플리케이션 프로세서(500)는 제1 파라미터 생성기(510), 조정 팩터 생성기(530) 및 제2 파라미터 생성기(550)를 포함할 수 있다. In one embodiment, the imaging device 10 may be a high-resolution imaging device that sequentially or simultaneously captures SDR image data and generates HDR image data based on the SDR image data. The image device 10 may include an image sensor 100 and an application processor 500. The image sensor 100 may include a pixel array 101, and the application processor 500 may include a first parameter generator 510, an adjustment factor generator 530, and a second parameter generator 550. .

일 실시예에서, 이미지 센서(100)는 연속적인 이미지 캡쳐링 동작들인 제1 이미지 캡쳐링(151) 및 제2 이미지 캡쳐링(155)을 수행할 수 있다. 예를 들어, 이미지 센서(100)는 제1 이미지 캡쳐링(151)을 수행한 후에 제2 이미지 캡쳐링(155)을 수행할 수 있다. 예를 들어, 이미지 장치(10)가 동영상 모드에서 동작하는 경우, 이미지 장치(10)는 제1 및 제2 이미지 캡쳐링들(151, 155)을 수행하여 연속적인 프레임들을 각각 캡쳐링할 수 있고, 이미지 장치(10)가 정지 영상 모드에서 동작하는 경우, 이미지 장치(10)는 제1 이미지 캡쳐링(151)을 수행하여 프리뷰 영상을 캡쳐링할 수 있다. In one embodiment, the image sensor 100 may perform first image capturing 151 and second image capturing 155, which are continuous image capturing operations. For example, the image sensor 100 may perform the second image capturing 155 after performing the first image capturing 151. For example, when the imaging device 10 operates in a video mode, the imaging device 10 may perform first and second image capturing operations 151 and 155 to capture successive frames, respectively. , when the imaging device 10 operates in a still image mode, the imaging device 10 may perform first image capturing 151 to capture a preview image.

일 실시예에서, 픽셀 어레이(101)는 복수의 단위 픽셀들을 포함할 수 있다. 이미지 센서(100)는 픽셀 어레이(101)를 이용하여 제1 및 제2 이미지 캡쳐링(151, 155) 각각에서 복수의 SDR 이미지 데이터들 및 하나의 HDR 이미지 데이터를 포함하는 결과 이미지 데이터들을 생성할 수 있다. 예를 들어, 이미지 센서(100)는 제1 이미지 캡쳐링(151)을 수행하여 복수의 제1 SDR 이미지 데이터들(SDR_IMG1s) 및 제1 HDR 이미지 데이터(HDR_IMG1)를 포함하는 제1 결과 이미지 데이터들(RES_ IMG1s)을 생성할 수 있고, 제2 이미지 캡쳐링(155)을 수행하여 복수의 제2 SDR 이미지 데이터들 및 제2 HDR 이미지 데이터를 포함하는 제2 결과 이미지 데이터들을 생성할 수 있다. 상기 단위 픽셀들에 대하여 도 3a 및 도 3b를 참조하여 후술하기로 한다. In one embodiment, the pixel array 101 may include a plurality of unit pixels. The image sensor 100 uses the pixel array 101 to generate result image data including a plurality of SDR image data and one HDR image data in each of the first and second image captures 151 and 155. You can. For example, the image sensor 100 performs the first image capturing 151 to produce first result image data including a plurality of first SDR image data (SDR_IMG1s) and first HDR image data (HDR_IMG1). (RES_IMG1s) may be generated, and second image capturing 155 may be performed to generate second resultant image data including a plurality of second SDR image data and second HDR image data. The unit pixels will be described later with reference to FIGS. 3A and 3B.

일 실시예에서, 이미지 센서(100)는 복수의 SDR 이미지 데이터들에 기초하여 HDR 이미지 데이터를 생성할 수 있다. 예를 들어, 이미지 센서(100)는 복수의 SDR 이미지 데이터들을 하나로 병합(merge)하여 병합된 이미지 데이터를 생성하고, 상기 병합된 이미지 데이터에 대하여 분할(segmentation) 및 톤 맵핑(tone mapping)을 순차적으로 수행하여 HDR 이미지 데이터를 생성할 수 있으나, 이는 예시적인 것에 불과하다. In one embodiment, the image sensor 100 may generate HDR image data based on a plurality of SDR image data. For example, the image sensor 100 generates merged image data by merging a plurality of SDR image data into one, and sequentially performs segmentation and tone mapping on the merged image data. You can generate HDR image data by performing , but this is only an example.

애플리케이션 프로세서(500)는 제1 결과 이미지 데이터들(RES_IMG1s)에 기초하여, 제1 파라미터들(PARAM1)을 생성할 수 있다(S200). The application processor 500 may generate first parameters PARAM1 based on the first result image data RES_IMG1s (S200).

일 실시예에서, 제1 파라미터들(PARAM1)은 제1 이미지 캡쳐링(151)과 관련될 수 있고, 복수의 제1 노출 시간들(ET1s) 및 복수의 제1 센서 이득들(SG1s)을 포함할 수 있고, 제1 장노출 파라미터, 제1 중노출 파라미터 및 제1 단노출 파라미터를 더 포함할 수 있다. In one embodiment, the first parameters PARAM1 may be related to first image capturing 151 and include a plurality of first exposure times ET1s and a plurality of first sensor gains SG1s. It may further include a first long exposure parameter, a first medium exposure parameter, and a first short exposure parameter.

일 실시예에서, 복수의 제1 노출 시간들(ET1s)은 설정 시간들을 포함할 수 있고, 복수의 제1 센서 이득들(SG1s)은 설정 이득들을 포함할 수 있다. 상기 제1 장노출 파라미터, 상기 제1 중노출 파라미터 및 상기 제1 단노출 파라미터 각각은 상기 설정 시간들 중 하나와 상기 설정 이득들 중 하나를 곱하여 구해질 수 있다. 예를 들어, 상기 제1 장노출 파라미터는 상기 설정 시간들 중 가장 긴 시간과 상기 설정 이득들 중 가장 긴 이득을 곱하여 구해질 수 있고, 상기 제1 단노출 파라미터는 상기 설정 시간들 중 가장 짧은 시간과 상기 설정 이득들 중 가장 짧은 이득을 곱하여 구해질 수 있으나, 이는 예시적인 것에 불과하다. 다른 실시예에서, 상기 제1 장노출 파라미터와 상기 제1 단노출 파라미터 사이의 목표 비율을 조절하기 위해 일차적으로 상기 제1 장노출 파라미터 및 상기 제1 단노출 파라미터를 각각 구하기 위한 설정 시간들이 조절되고, 상기 설정 시간들의 조절에도 불구하고 상기 목표 비율이 달성되지 않는 경우 이차적으로 상기 제1 장노출 파라미터 및 상기 제1 단노출 파라미터를 각각 구하기 위한 설정 이득들이 조절될 수 있다. 또 다른 실시예에서, 상기 설정 이득들은 기본적으로 ‘1’로 설정될 수 있다. In one embodiment, the plurality of first exposure times ET1s may include set times, and the plurality of first sensor gains SG1s may include set gains. Each of the first long exposure parameter, the first medium exposure parameter, and the first short exposure parameter may be obtained by multiplying one of the set times and one of the set gains. For example, the first long exposure parameter can be obtained by multiplying the longest time among the set times by the longest gain among the set gains, and the first short exposure parameter can be obtained by multiplying the longest time among the set times. It can be obtained by multiplying the shortest gain among the set gains, but this is only an example. In another embodiment, in order to adjust the target ratio between the first long exposure parameter and the first short exposure parameter, setting times for obtaining each of the first long exposure parameter and the first short exposure parameter are adjusted. , if the target ratio is not achieved despite adjusting the set times, set gains for obtaining the first long exposure parameter and the first short exposure parameter, respectively, may be secondarily adjusted. In another embodiment, the set gains may be set to ‘1’ by default.

제1 파라미터들(PARAM1)에 대하여 도 4, 도 5a 및 도 5b를 참조하여 후술하기로 한다. The first parameters (PARAM1) will be described later with reference to FIGS. 4, 5A, and 5B.

애플리케이션 프로세서(500)는 제1 파라미터들(PARAM1)에 기초하여 조정 팩터(ADJ_FCT)를 생성할 수 있다(S300). The application processor 500 may generate an adjustment factor (ADJ_FCT) based on the first parameters (PARAM1) (S300).

일 실시예에서, 애플리케이션 프로세서(500)는 복수의 제1 노출 시간들(ET1s) 중 일부 및 복수의 제1 센서 이득들(SG1s) 중 일부에 기초하여 복수의 제1 SDR 이미지 데이터들(SDR_IMG1s) 또는 제1 HDR 이미지 데이터(HDR_IMG1)와 관련된 정보들을 생성하고, 상기 정보들에 기초하여 조정 팩터(ADJ_FCT)를 생성할 수 있다. 예를 들어, 애플리케이션 프로세서(500)는 복수의 제1 노출 시간들(ET1s) 중 일부 및 복수의 제1 센서 이득들(SG1s) 중 일부(예를 들어, 상기 제1 장노출 파라미터 및 상기 제1 단노출 파라미터)에 기초하여 제1 동적 범위 압축비 및 제1 조도를 계산하고, 상기 제1 동적 범위 압축비, 상기 제1 조도 및 제1 조정 팩터 관계식에 기초하여 조정 팩터(ADJ_FCT)를 계산할 수 있다. In one embodiment, the application processor 500 generates a plurality of first SDR image data SDR_IMG1s based on some of the first exposure times ET1s and some of the first sensor gains SG1s. Alternatively, information related to the first HDR image data (HDR_IMG1) may be generated, and an adjustment factor (ADJ_FCT) may be generated based on the information. For example, the application processor 500 may configure some of the plurality of first exposure times ET1s and some of the plurality of first sensor gains SG1s (e.g., the first long exposure parameter and the first sensor gain SG1s). The first dynamic range compression ratio and the first illuminance may be calculated based on the short exposure parameter, and the adjustment factor ADJ_FCT may be calculated based on the first dynamic range compression ratio, the first illuminance, and the first adjustment factor relational expression.

일 실시예에서, 애플리케이션 프로세서(500)는 상기 제1 조도에 기초하여 조도-조정 팩터 테이블로부터 상기 제1 조정 팩터 관계식을 호출할 수 있다. 조정 팩터(ADJ_FCT)에 대하여 도 6, 도 7, 도 8 및 도 9를 참조하여 후술하기로 한다. In one embodiment, the application processor 500 may call the first adjustment factor relational expression from an illuminance-adjustment factor table based on the first illuminance. The adjustment factor (ADJ_FCT) will be described later with reference to FIGS. 6, 7, 8, and 9.

애플리케이션 프로세서(500)는 조정 팩터(ADJ_FCT)를 기초로 제1 파라미터들(PARAM1)을 조정하여 제2 파라미터들(PARAM2)을 생성할 수 있다(S400). The application processor 500 may generate second parameters PARAM2 by adjusting the first parameters PARAM1 based on the adjustment factor ADJ_FCT (S400).

일 실시예에서, 제2 파라미터들(PARAM2)은 제2 이미지 캡쳐링(155)과 관련될 수 있고, 복수의 제2 노출 시간들(ET2s) 및 복수의 제2 센서 이득들(SG2s)을 포함할 수 있고, 제2 장노출 파라미터, 제2 중노출 파라미터 및 제2 단노출 파라미터를 더 포함할 수 있다. In one embodiment, the second parameters PARAM2 may be related to second image capturing 155 and include a plurality of second exposure times ET2s and a plurality of second sensor gains SG2s. It may further include a second long exposure parameter, a second medium exposure parameter, and a second short exposure parameter.

일 실시예에서, 복수의 제2 노출 시간들(ET2s)은 설정 시간들을 포함할 수 있고, 복수의 제2 센서 이득들(SG2s)은 설정 이득들을 포함할 수 있다. 상기 제2 장노출 파라미터, 상기 제2 중노출 파라미터 및 상기 제2 단노출 파라미터 각각은 상기 설정 시간들 중 하나와 상기 설정 이득들 중 하나를 곱하여 구해질 수 있다. 제2 파라미터들(PARAM2)에 대하여 도 10a, 도 10b 및 도 11을 참조하여 후술하기로 한다. In one embodiment, the plurality of second exposure times ET2s may include set times, and the plurality of second sensor gains SG2s may include set gains. Each of the second long exposure parameter, the second medium exposure parameter, and the second short exposure parameter may be obtained by multiplying one of the set times and one of the set gains. The second parameters (PARAM2) will be described later with reference to FIGS. 10A, 10B, and 11.

이미지 센서(100)는 제2 파라미터들(PARAM2)에 기초하여 제2 이미지 캡쳐링(155)을 수행할 수 있다(S500). The image sensor 100 may perform second image capturing 155 based on the second parameters PARAM2 (S500).

일 실시예에서, 상기 제1 장노출 파라미터, 상기 제1 중노출 파라미터 및 상기 제1 단노출 파라미터는 제1 결과 이미지 데이터들(RES_IMG1s)에 포함되는 복수의 제1 SDR 이미지 데이터들(SDR_IMG1s) 각각을 생성하기 위해 적용된(또는 적용된 것으로 추정된) 파라미터들을 나타낼 수 있다. 예를 들어, 제1 SDR 이미지 데이터들(SDR_IMG1s) 중 가장 밝은 평균 밝기값을 가지는 SDR 이미지 데이터는 상기 제1 장노출 파라미터를 적용하여 생성된 것으로 추정될 수 있고, 제1 SDR 이미지 데이터들(SDR_IMG1s) 중 가장 낮은 평균 밝기값을 가지는 SDR 이미지 데이터는 상기 제1 단노출 파라미터를 적용하여 생성된 것으로 추정될 수 있고, 제1 SDR 이미지 데이터들(SDR_IMG1s) 중 중간의 평균 밝기값을 가지는 SDR 이미지 데이터는 상기 제1 중노출 파라미터를 적용하여 생성된 것으로 추정될 수 있다. 상기 제2 장노출 파라미터, 상기 제2 중노출 파라미터 및 상기 제2 단노출 파라미터 또한 상기 제1 장노출 파라미터, 상기 제1 중노출 파라미터 및 상기 제1 단노출 파라미터와 동일 또는 유사한 관계를 가질 수 있으나, 이미지 센서(100)는 상기 제2 장노출 파라미터, 상기 제2 중노출 파라미터 및 상기 제2 단노출 파라미터를 직접적으로 적용하여 제2 이미지 캡쳐링(155)을 수행할 수 있다. In one embodiment, the first long exposure parameter, the first medium exposure parameter, and the first short exposure parameter are each of a plurality of first SDR image data (SDR_IMG1s) included in the first result image data (RES_IMG1s). Can indicate parameters applied (or estimated to be applied) to generate . For example, the SDR image data with the brightest average brightness value among the first SDR image data (SDR_IMG1s) may be estimated to have been generated by applying the first long exposure parameter, and the SDR image data with the brightest average brightness value among the first SDR image data (SDR_IMG1s) ), the SDR image data having the lowest average brightness value may be estimated to have been generated by applying the first single exposure parameter, and the SDR image data having the middle average brightness value among the first SDR image data (SDR_IMG1s) It can be estimated that was created by applying the first medium exposure parameter. The second long exposure parameter, the second medium exposure parameter, and the second short exposure parameter may also have the same or similar relationship to the first long exposure parameter, the first medium exposure parameter, and the first short exposure parameter. , the image sensor 100 may perform second image capturing 155 by directly applying the second long exposure parameter, the second medium exposure parameter, and the second short exposure parameter.

이미지 장치가 피사체를 캡쳐링하는 과정에서 주변 환경의 급격한 변화가 발생할 수 있다. 예를 들어, 이미지 장치(10)의 주변 환경이 일반적인 환경에서 역광(backlit) 환경으로 변화할 수 있다. 이 경우 이미지 장치(10)는 역광 환경에 따른 이미지 데이터 내의 어두운 영역이 밝아지도록 장노출 파라미터를 최대치로 상승시킬 수 있다. 예를 들어, 이미지 장치(10)는 상기 노출 시간들 중 가장 긴 노출 시간 및/또는 상기 센서 이득들 중 가장 큰 센서 이득 각각을 최대치로 상승시킬 수 있다. While an imaging device is capturing a subject, rapid changes in the surrounding environment may occur. For example, the surrounding environment of the imaging device 10 may change from a normal environment to a backlit environment. In this case, the image device 10 may increase the long exposure parameter to the maximum value so that dark areas in the image data according to the backlight environment become brighter. For example, the image device 10 may increase each of the longest exposure time among the exposure times and/or the largest sensor gain among the sensor gains to a maximum value.

그러나 상기와 같이 장노출 파라미터를 최대치로 상승시키는 경우, 단노출 파라미터 또한 일정 수준 이상으로 상승할 수 있고, 이는 HDR 이미지 데이터를 얻기 위한 이미지 센서의 하드웨어 제약과 관련된 것일 수 있다. 예를 들어, 상기 하드웨어 제약은 상기 노출 시간들 각각을 제어하기 위한 전자 셔터의 최대 셔터 속도와 최소 셔터 속도의 비(ratio), 및 SDR 이미지 데이터들을 병합하는 과정에서 발생할 수 있는 움직임 아티팩트(motion artifact)의 제거 능력을 포함할 수 있다. 이 경우 HDR 이미지 데이터를 얻기 위한 SDR 이미지 데이터들 중 가장 낮은 평균 밝기를 가지는 SDR 이미지 데이터가 의도하지 않은 수준으로 밝게 캡쳐링될 수 있고, 이에 따라 HDR 이미지 데이터를 생성하기 위한 병합, 분할 및 톤 맵핑 과정이 정상적으로 수행되지 않아 HDR 이미지 데이터에서 충분한 동적 범위를 확보하는데 어려움이 따른다. However, when the long exposure parameter is increased to the maximum as described above, the short exposure parameter may also increase above a certain level, which may be related to hardware limitations of the image sensor for obtaining HDR image data. For example, the hardware constraints include the ratio of the maximum and minimum shutter speeds of the electronic shutter for controlling each of the exposure times, and motion artifacts that may occur in the process of merging SDR image data. ) may include removal ability. In this case, SDR image data with the lowest average brightness among the SDR image data for obtaining HDR image data may be captured at an unintended brightness level, and accordingly, merging, division, and tone mapping to generate HDR image data may be performed. Because the process is not performed properly, it is difficult to secure sufficient dynamic range in HDR image data.

상기와 같은 구성에 의하여 본 개시의 일 실시예에 따른 이미지 센서의 동작 방법에서는, 제1 이미지 캡쳐링을 수행한 결과들에 기초하여 제2 이미지 캡쳐링을 수행할 수 있다. 상기 제1 이미지 캡쳐링을 수행한 결과들에 기초하여 제1 파라미터들이 생성될 수 있고, 상기 제1 파라미터들에 기초하여 상기 제2 이미지 캡쳐링을 수행하기 위한 제2 파라미터들이 생성될 수 있다. 상기 제2 파라미터들은 HDR 이미지 데이터를 얻기 위한 이미지 장치(또는 이미지 센서)의 하드웨어 제약을 만족하도록 계산될 수 있다. 따라서 상기 이미지 장치는, 주변 환경이 일반적인 환경에서 역광 환경으로 변화하는 경우에도, 피사체의 밝기값을 안정화하고, 배경 등의 포화를 방지하여 충분한 동적 범위를 가지는 HDR 이미지 데이터를 얻을 수 있다. In the method of operating an image sensor according to an embodiment of the present disclosure with the above configuration, second image capturing can be performed based on the results of performing first image capturing. First parameters may be generated based on the results of performing the first image capturing, and second parameters for performing the second image capturing may be generated based on the first parameters. The second parameters may be calculated to satisfy hardware constraints of an image device (or image sensor) for obtaining HDR image data. Accordingly, the imaging device can obtain HDR image data with a sufficient dynamic range by stabilizing the brightness value of the subject and preventing saturation of the background, etc., even when the surrounding environment changes from a normal environment to a backlight environment.

도 3a는 도 2의 픽셀 어레이에 포함되는 단위 픽셀을 설명하기 위한 도면이고, 도 3b는 상기 단위 픽셀에 포함되는 단위 컬러 픽셀의 일 예를 나타내는 회로도이다. FIG. 3A is a diagram for explaining a unit pixel included in the pixel array of FIG. 2, and FIG. 3B is a circuit diagram showing an example of a unit color pixel included in the unit pixel.

도 2 및 도 3a를 참조하면, 픽셀 어레이(101)는 복수의 단위 픽셀들(UPs)을 포함할 수 있고, 각 단위 픽셀(UP)은 각각이 특정한 색상에 대응되고 서브 픽셀들을 포함하는 제1 내지 제4 단위 컬러 픽셀들(CP1, CP2, CP3, CP4)을 포함할 수 있다. 예를 들어, 제1 단위 컬러 픽셀(CP1)은 녹색에 대응되는 서브 픽셀들(Ga1, Ga2, Ga3, Ga4)을 포함할 수 있고, 제2 단위 컬러 픽셀(CP2)은 적색에 대응되는 서브 픽셀들(R1, R2, R3, R4)을 포함할 수 있고, 제3 단위 컬러 픽셀(CP3)은 청색에 대응되는 서브 픽셀들(B1, B2, B3, B4)을 포함할 수 있고, 제4 단위 컬러 픽셀(CP4)은 녹색에 대응되는 서브 픽셀들(Gb1, Gb2, Gb3, Gb4)을 포함할 수 있다.Referring to FIGS. 2 and 3A, the pixel array 101 may include a plurality of unit pixels (UPs), and each unit pixel (UP) corresponds to a specific color and includes subpixels. It may include through fourth unit color pixels CP1, CP2, CP3, and CP4. For example, the first unit color pixel CP1 may include subpixels Ga1, Ga2, Ga3, and Ga4 corresponding to green, and the second unit color pixel CP2 may include subpixels corresponding to red. may include (R1, R2, R3, R4), and the third unit color pixel (CP3) may include subpixels (B1, B2, B3, B4) corresponding to blue, and the fourth unit color pixel (CP3) may include subpixels (B1, B2, B3, B4) corresponding to blue. The color pixel CP4 may include subpixels Gb1, Gb2, Gb3, and Gb4 corresponding to green.

일 실시예에서, 하나의 색상에 대응되는 서브 픽셀들은 서로 다른 노출 시간들에 기초하여 아날로그 신호들을 출력할 수 있다. 예를 들어, 녹색에 대응되는 서브 픽셀들 중, 서브 픽셀(Ga1)은 장노출 시간 동안 아날로그 신호를 출력할 수 있고, 서브 픽셀들(Ga2, Ga3)은 상기 장노출 시간보다 짧은 중노출 시간 동안 아날로그 신호들을 출력할 수 있고, 서브 픽셀(Ga4)은 상기 중노출 시간보다 짧은 단노출 시간 동안 아날로그 신호를 출력할 수 있다. 적색, 청색 및 다른 녹색에 대응되는 서브 픽셀들 또한 이와 유사하게 동작할 수 있다. In one embodiment, subpixels corresponding to one color may output analog signals based on different exposure times. For example, among the subpixels corresponding to green, the subpixel Ga1 may output an analog signal during a long exposure time, and the subpixels Ga2 and Ga3 may output an analog signal during a medium exposure time shorter than the long exposure time. Analog signals can be output, and the subpixel Ga4 can output analog signals during a short exposure time shorter than the medium exposure time. Subpixels corresponding to red, blue, and other green colors may also operate similarly.

일 실시예에서, 서로 다른 노출 시간들에 기초하여 출력된 상기 아날로그 신호들은 아날로그 이득 및 디지털 이득을 포함하는 서로 다른 센서 이득들에 기초하여 복수의 SDR 이미지 데이터들로 변환될 수 있다. 예를 들어, 서브 픽셀들(Ga1, Ga2, Ga3, Ga4)로부터 출력된 상기 아날로그 신호들은 CDS(correlated double sampling) 회로 및 ADC(analog-to-digital converter) 회로를 통과하고 이미지 신호 처리 회로를 추가적으로 통과할 수 있다. 상기 CDS 회로, 상기 ADC 회로 및 상기 이미지 신호 처리 회로를 통과하는 과정에서 상기 아날로그 신호들에 대하여 서로 다른 센서 이득들이 각각 적용될 수 있다. In one embodiment, the analog signals output based on different exposure times may be converted into a plurality of SDR image data based on different sensor gains including analog gain and digital gain. For example, the analog signals output from the subpixels (Ga1, Ga2, Ga3, Ga4) pass through a correlated double sampling (CDS) circuit and an analog-to-digital converter (ADC) circuit and are additionally processed through an image signal processing circuit. You can pass. Different sensor gains may be applied to the analog signals while passing through the CDS circuit, the ADC circuit, and the image signal processing circuit.

도 2, 도 3a 및 도 3b를 참조하면, 단위 컬러 픽셀(CP1)은 제1 내지 제4 광전 변환 소자들(PD1, PD2, PD3, PD4), 제1 내지 제4 전송 트랜지스터들(TX1, TX2, TX3, TX4), 리셋 트랜지스터(RX), 선택 트랜지스터(SX) 및 구동 트랜지스터(DX)를 포함할 수 있다. 2, 3A, and 3B, the unit color pixel CP1 includes first to fourth photoelectric conversion elements PD1, PD2, PD3, and PD4, and first to fourth transfer transistors TX1 and TX2. , TX3, TX4), a reset transistor (RX), a selection transistor (SX), and a driving transistor (DX).

제1 내지 제4 광전 변환 소자들(PD1~PD4)은 서브 픽셀들(Ga1, Ga2, Ga3, Ga4)에 각각 대응될 수 있고, 입사광의 세기에 기초하여 광전하들을 생성 및 축적할 수 있다. 예를 들어, 제1 내지 제4 광전 변환 소자들(PD1~PD4) 각각은 포토 다이오드, 포토 트랜지스터, 포토 게이트 및 핀드 포토 다이오드(pinned photo diode)(PPD) 중 하나일 수 있으나, 이는 예시적인 것에 불과하다. The first to fourth photoelectric conversion elements PD1 to PD4 may correspond to the subpixels Ga1, Ga2, Ga3, and Ga4, respectively, and may generate and accumulate photocharges based on the intensity of incident light. For example, each of the first to fourth photoelectric conversion elements PD1 to PD4 may be one of a photo diode, a photo transistor, a photo gate, and a pinned photo diode (PPD), but this is only an example. It's just that.

제1 내지 제4 전송 트랜지스터들(TX1~TX4)은 제1 내지 제4 광전 변환 소자들(PD1~PD4)에 각각 연결될 수 있고, 제어 신호들(TG1, TG2, TG3, TG4)에 기초하여 제1 내지 제4 광전 변환 소자들(PD1~PD4)에 축적된 전하들을 플로팅 확산 영역(FD)으로 전송할 수 있다. 구동 트랜지스터(DX)는 플로팅 확산 영역(FD)에 연결될 수 있고, 선택 트랜지스터(SX)는 구동 트랜지스터(DX)에 연결될 수 있고, 구동 트랜지스터(DX) 및 선택 트랜지스터(SX)는 플로팅 확산 영역(FD)의 전압 레벨 및 제어 신호(SEL)에 기초하여 플로팅 확산 영역(FD)으로 전송된 전하들을 픽셀 어레이의 컬럼 라인으로 출력할 수 있다. 리셋 트랜지스터(RX)는 전원 전압(VPIX)과 플로팅 확산 영역(FD) 사이에 연결될 수 있고, 제어 신호(RG)에 기초하여 플로팅 확산 영역(FD)을 리셋할 수 있다. The first to fourth transfer transistors TX1 to TX4 may be connected to the first to fourth photoelectric conversion elements PD1 to PD4, respectively, and may be connected to the first to fourth photoelectric conversion elements PD1 to PD4 based on the control signals TG1, TG2, TG3, and TG4. Charges accumulated in the first to fourth photoelectric conversion elements PD1 to PD4 may be transferred to the floating diffusion region FD. The driving transistor (DX) may be connected to the floating diffusion region (FD), and the selection transistor (SX) may be connected to the driving transistor (DX), and the driving transistor (DX) and the selection transistor (SX) may be connected to the floating diffusion region (FD). Based on the voltage level of ) and the control signal (SEL), charges transferred to the floating diffusion region (FD) may be output to the column line of the pixel array. The reset transistor RX may be connected between the power supply voltage VPIX and the floating diffusion region FD, and may reset the floating diffusion region FD based on the control signal RG.

일 실시예에서, 제어 신호들(TG1, TG2, TG3, TG4)에 기초하여 제1 내지 제4 전송 트랜지스터들(TX1~TX4)의 턴오프/턴온되는 시점들을 제어하여 서브 픽셀들(Ga1, Ga2, Ga3, Ga4)에 대한 노출 시간들이 조절될 수 있다. 예를 들어, 제1 전송 트랜지스터(TX1)를 턴오프시켜 제1 광전 변환 소자(PD1)에 광전하들이 축적되는 시점부터 제1 전송 트랜지스터(TX1)를 턴온시켜 상기 축적된 광전하들을 플로팅 확산 영역(FD)으로 전송하는 시점까지 서브 픽셀(Ga1)에 대한 노출 시간이 진행될 수 있다. In one embodiment, the turn-off/turn-on timing of the first to fourth transfer transistors TX1 to TX4 are controlled based on the control signals TG1, TG2, TG3, and TG4 to turn the subpixels Ga1 and Ga2. , Ga3, Ga4) can be adjusted. For example, from the point when the first transfer transistor TX1 is turned off to accumulate photocharges in the first photoelectric conversion element PD1, the first transfer transistor TX1 is turned on to store the accumulated photocharges in the floating diffusion region. The exposure time for the subpixel (Ga1) may progress until the point of transmission to (FD).

도 4는 도 2의 제1 파라미터 생성기의 일 실시예를 나타내는 블록도이다. FIG. 4 is a block diagram showing an embodiment of the first parameter generator of FIG. 2.

도 2 및 도 4를 참조하면, 제1 파라미터 생성기(510)는 제1 설정 시간 및 설정 이득 계산기(511), 제2 설정 시간 및 설정 이득 계산기(513) 및 제3 설정 시간 및 설정 이득 계산기(515)를 포함할 수 있다. 2 and 4, the first parameter generator 510 includes a first set time and set gain calculator 511, a second set time and set gain calculator 513, and a third set time and set gain calculator ( 515) may be included.

제1 파라미터 생성기(510)는 제1 이미지 캡쳐링과 관련되고, 복수의 제1 SDR 이미지 데이터들(SDR_IMG1s) 및 제1 HDR 이미지 데이터(HDR_IMG1)를 포함하는 제1 결과 이미지 데이터들(RES_IMG1s)을 수신할 수 있다. 제1 설정 시간 및 설정 이득 계산기(511)는 제1 HDR 이미지 데이터(HDR_IMG1)에 기초하여 설정 시간(ET11) 및 설정 이득(SG11)을 계산할 수 있고, 제2 설정 시간 및 설정 이득 계산기(513)는 복수의 제1 SDR 이미지 데이터들(SDR_IMG1s)의 전부 또는 일부에 기초하여 설정 시간(ET13) 및 설정 이득(SG13)을 계산할 수 있고, 제3 설정 시간 및 설정 이득 계산기(515)는 설정 시간들(ET11, ET13) 및 설정 이득들(SG11, SG13)에 기초하여 설정 시간(ET12) 및 설정 이득(SG12)을 계산할 수 있다. The first parameter generator 510 is related to first image capturing and generates first resultant image data RES_IMG1s including a plurality of first SDR image data SDR_IMG1s and first HDR image data HDR_IMG1. You can receive it. The first setup time and setup gain calculator 511 may calculate the setup time (ET11) and setup gain (SG11) based on the first HDR image data (HDR_IMG1), and the second setup time and setup gain calculator 513 Can calculate the setup time (ET13) and setup gain (SG13) based on all or part of the plurality of first SDR image data (SDR_IMG1s), and the third setup time and setup gain calculator 515 calculates the setup times. The setup time (ET12) and the setup gain (SG12) can be calculated based on (ET11, ET13) and the setup gains (SG11, SG13).

일 실시예에서, 제1 파라미터들(PARAM1)은 복수의 제1 노출 시간들(ET1s) 및 복수의 제1 센서 이득들(SG1s)을 포함할 수 있고, 복수의 제1 노출 시간들(ET1s)은 설정 시간들(ET11, ET12, ET13)을 포함할 수 있고, 복수의 제1 센서 이득들(SG1s)은 설정 이득들(SG11, SG12, SG13)을 포함할 수 있다. In one embodiment, the first parameters PARAM1 may include a plurality of first exposure times ET1s and a plurality of first sensor gains SG1s, and a plurality of first exposure times ET1s may include setting times (ET11, ET12, ET13), and the plurality of first sensor gains (SG1s) may include setting gains (SG11, SG12, SG13).

일 실시예에서, 설정 시간(ET11)은 복수의 제1 노출 시간들(ET1s) 중 가장 길고 설정 시간(ET13)은 복수의 제1 노출 시간들(ET1s) 중 가장 짧고, 설정 시간(ET12)은 설정 시간(ET11)과 설정 시간(ET13) 사이의 값을 가질 수 있다. 설정 이득들(SG11, SG12, SG13)은 설정 시간들(ET11, ET12, ET13)에 각각 상응할 수 있다. In one embodiment, the setting time ET11 is the longest among the plurality of first exposure times ET1s, the setting time ET13 is the shortest among the plurality of first exposure times ET1s, and the setting time ET12 is the longest among the plurality of first exposure times ET1s. It can have a value between the set time (ET11) and the set time (ET13). The set gains (SG11, SG12, SG13) may respectively correspond to the set times (ET11, ET12, ET13).

일 실시예에서, 제2 설정 시간 및 설정 이득 계산기(513)는 복수의 SDR 이미지 데이터들(SDR_IMGs) 중 가장 어두운 평균 밝기를 가지는 SDR 이미지 데이터만을 기초로 설정 시간(ET13) 및 설정 이득(SG13)을 계산할 수도 있다. 다른 실시예에서, 제2 설정 시간 및 설정 이득 계산기(513)는 복수의 제1 SDR 이미지 데이터들(SDR_ IMG1s)의 전부 또는 일부 대신에 이미지 센서(예를 들어, 도 2의 100)로부터 제공되는 통계 데이터(STAT_DAT)에 기초하여 설정 시간(ET13) 및 설정 이득(SG13)을 계산할 수도 있다. In one embodiment, the second setup time and setup gain calculator 513 calculates the setup time (ET13) and setup gain (SG13) based only on the SDR image data having the darkest average brightness among the plurality of SDR image data (SDR_IMGs). can also be calculated. In another embodiment, the second setup time and setup gain calculator 513 is provided from an image sensor (e.g., 100 in FIG. 2) instead of all or part of the plurality of first SDR image data (SDR_IMG1s). The setup time (ET13) and setup gain (SG13) may be calculated based on statistical data (STAT_DAT).

일 실시예에서, 제1 파라미터들(PARAM1)은 제1 장노출 파라미터, 제1 중노출 파라미터 및 제1 단노출 파라미터를 더 포함할 수 있다. 예를 들어, 상기 제1 장노출 파라미터는 설정 시간(ET11)에 설정 이득(SG11)을 곱하여 얻어질 수 있고, 상기 제1 중노출 파라미터는 설정 시간(ET12)에 설정 이득(SG12)을 곱하여 얻어질 수 있고, 제1 단노출 파라미터는 설정 시간(ET13)에 설정 이득(SG13)을 곱하여 얻어질 수 있으나, 본 개시의 범위가 이에 한정되는 것은 아니다. In one embodiment, the first parameters PARAM1 may further include a first long exposure parameter, a first medium exposure parameter, and a first short exposure parameter. For example, the first long exposure parameter can be obtained by multiplying the set time (ET11) by the set gain (SG11), and the first long exposure parameter can be obtained by multiplying the set time (ET12) by the set gain (SG12). The first single exposure parameter may be obtained by multiplying the set time (ET13) by the set gain (SG13), but the scope of the present disclosure is not limited thereto.

도 5a 및 도 5b는 도 4의 제1 파라미터를 설명하기 위한 도면들이다. FIGS. 5A and 5B are diagrams for explaining the first parameter of FIG. 4.

도 2, 도 4 및 도 5a를 참조하면, 이미지 장치는 실내에서 유리창을 등지고 서있는 피사체에 대하여 제1 이미지 캡쳐링을 수행하여 복수의 제1 SDR 이미지 데이터들(SDR_IMG1s)을 생성할 수 있다. Referring to FIGS. 2, 4, and 5A, the imaging device may generate a plurality of first SDR image data (SDR_IMG1s) by performing first image capturing on a subject standing indoors with its back to a glass window.

도 5a 및 도 5b를 참조하면, 상기 이미지 장치는, 설정 시간(ET11) 및 설정 이득(SG11)에 기초하여 가장 높은 평균 밝기값을 가지는 SDR 이미지 데이터(SDR_ IMG11)를 생성할 수 있고, 설정 시간(ET13) 및 설정 이득(SG13)에 기초하여 가장 낮은 평균 밝기값을 가지는 SDR 이미지 데이터(SDR_IMG13)를 생성할 수 있고, 설정 시간(ET12) 및 설정 이득(SG12)에 기초하여 SDR 이미지 데이터들(SDR_IMG11, SDR_ IMG13)의 중간의 평균 밝기값을 가지는 SDR 이미지 데이터(SDR_IMG12)를 생성할 수 있다. Referring to FIGS. 5A and 5B, the image device can generate SDR image data (SDR_IMG11) with the highest average brightness value based on the setup time (ET11) and the setup gain (SG11), and the setup time Based on (ET13) and set gain (SG13), SDR image data (SDR_IMG13) with the lowest average brightness value can be generated, and based on set time (ET12) and set gain (SG12), SDR image data (SDR_IMG13) can be generated SDR image data (SDR_IMG12) having an average brightness value in the middle of (SDR_IMG11, SDR_IMG13) can be generated.

일 실시예에서, SDR_IMG11→SDR_IMG12→SDR_IMG13으로 변화함에 따라, SDR 이미지 데이터들(SDR_IMG11, SDR_IMG12, SDR _IMG13)에 각각 포함되는 피사체들(Object_S1, Object_S2, Object_S3) 및 배경들의 밝기들은 더욱 어두워질 수 있다. In one embodiment, as SDR_IMG11 → SDR_IMG12 → SDR_IMG13 changes, the brightness of the subjects (Object_S1, Object_S2, Object_S3) and backgrounds included in the SDR image data (SDR_IMG11, SDR_IMG12, SDR _IMG13) may become darker. .

도 6은 도 1의 조정 팩터를 생성하는 동작의 일 실시예를 나타내는 순서도이다. FIG. 6 is a flow chart illustrating one embodiment of an operation for generating the adjustment factor of FIG. 1.

도 1, 도 2 및 도 6을 참조하면, 조정 팩터(ADJ_FCT)를 생성하는 동작에서(S300), 애플리케이션 프로세서(500)는, 제1 동적 범위 압축비를 계산할 수 있다(S310). Referring to FIGS. 1, 2, and 6, in the operation of generating the adjustment factor ADJ_FCT (S300), the application processor 500 may calculate the first dynamic range compression ratio (S310).

일 실시예에서, 애플리케이션 프로세서(500)는, 복수의 제1 노출 시간들(ET1s) 중 제1 설정 시간 및 제2 설정 시간, 및 복수의 제1 센서 이득들(SG1s) 중 제1 설정 이득 및 제2 설정 이득에 기초하여 상기 제1 동적 범위 압축비를 계산할 수 있다. 예를 들어, 애플리케이션 프로세서(500)는, 상기 제1 설정 시간에 상기 제1 설정 이득을 곱한 값을 상기 제2 설정 시간에 상기 제2 설정 이득을 곱한 값으로 나누어 상기 제1 동적 범위 압축비를 계산할 수 있다. 예를 들어, 애플리케이션 프로세서(500)는 제1 장노출 파라미터를 제1 단노출 파라미터로 나누어 상기 제1 동적 범위 압축비를 계산할 수 있다.In one embodiment, the application processor 500 includes a first set time and a second set time among the plurality of first exposure times ET1s, and a first set gain and a second set time among the plurality of first sensor gains SG1s. The first dynamic range compression ratio may be calculated based on the second set gain. For example, the application processor 500 calculates the first dynamic range compression ratio by dividing the first set time multiplied by the first set gain by the second set time multiplied by the second set gain. You can. For example, the application processor 500 may calculate the first dynamic range compression ratio by dividing the first long exposure parameter by the first short exposure parameter.

일 실시예에서, 상기 제1 설정 시간은 복수의 제1 노출 시간들(ET1s) 중 가장 길고, 상기 제2 설정 시간은 복수의 제1 노출 시간들(ET1s) 중 가장 짧고, 상기 제1 설정 이득은 상기 제1 설정 시간에 상응하고, 상기 제2 설정 이득은 상기 제2 설정 시간에 상응할 수 있다. In one embodiment, the first set time is the longest among the plurality of first exposure times (ET1s), the second set time is the shortest among the plurality of first exposure times (ET1s), and the first set gain may correspond to the first setting time, and the second setting gain may correspond to the second setting time.

애플리케이션 프로세서(500)는, 제1 조도를 계산할 수 있다(S330). 일 실시예에서, 애플리케이션 프로세서(500)는, 상기 제1 설정 시간 및 상기 제1 설정 이득에 기초하여 상기 제1 조도를 계산할 수 있다. 예를 들어, 애플리케이션 프로세서(500)는 상기 제1 장노출 파라미터에 기초하여 상기 제1 조도를 계산할 수 있다.The application processor 500 may calculate the first illuminance (S330). In one embodiment, the application processor 500 may calculate the first illuminance based on the first set time and the first set gain. For example, the application processor 500 may calculate the first illuminance based on the first long exposure parameter.

애플리케이션 프로세서(500)는, 상기 제1 동적 범위 압축비, 상기 제1 조도 및 제1 조정 팩터 관계식에 기초하여 조정 팩터(ADJ_FCT)를 계산할 수 있다(S350).The application processor 500 may calculate an adjustment factor (ADJ_FCT) based on the first dynamic range compression ratio, the first illuminance, and the first adjustment factor relationship (S350).

도 7은 도 6의 조정 팩터를 계산하는 동작의 일 실시예를 나타내는 순서도이다. FIG. 7 is a flowchart illustrating one embodiment of an operation for calculating the adjustment factor of FIG. 6.

도 1, 도 2, 도 6 및 도 7을 참조하면, 조정 팩터(ADJ_FCT)를 계산하는 동작에서(S350), 애플리케이션 프로세서(500)는 조도-조정 팩터 테이블에 기초하여, 상기 제1 조도에 상응하는 제1 조정 팩터 관계식을 호출할 수 있다(S351). 상기 조도-조정 팩터 테이블에 대하여 도 9를 참조하여 후술하기로 한다.Referring to FIGS. 1, 2, 6, and 7, in the operation of calculating the adjustment factor (ADJ_FCT) (S350), the application processor 500 determines the illuminance corresponding to the first illuminance based on the illuminance-adjustment factor table. The first adjustment factor relational expression may be called (S351). The illuminance-adjustment factor table will be described later with reference to FIG. 9.

애플리케이션 프로세서(500)는, 상기 제1 동적 범위 압축비에 상기 제1 조정 팩터 관계식을 적용하여 조정 팩터(ADJ_FCT)를 계산할 수 있다(S353). The application processor 500 may calculate an adjustment factor (ADJ_FCT) by applying the first adjustment factor relational expression to the first dynamic range compression ratio (S353).

일 실시예에서, 조정 팩터(ADJ_FCT)의 크기는 상기 제1 동적 범위 압축비가 증가함에 따라 증가할 수 있다. In one embodiment, the size of the adjustment factor (ADJ_FCT) may increase as the first dynamic range compression ratio increases.

도 8은 도 2의 조정 팩터 생성기의 일 실시예를 나타내는 블록도이다. FIG. 8 is a block diagram illustrating one embodiment of the adjustment factor generator of FIG. 2.

도 2, 도 6, 도 7 및 도 8을 참조하면, 조정 팩터 생성기(530)는 동적 범위 압축비 계산기(531), 조도 계산기(533) 및 조정 팩터 계산기(535) 및 조도-조정 팩터 테이블(537)을 포함할 수 있다. 조정 팩터 생성기(530)는 도 2, 도 6 및 도 7의 동작들(S300, S310, S330, S350, S351, S353)을 수행할 수 있다. 2, 6, 7, and 8, the adjustment factor generator 530 includes a dynamic range compression ratio calculator 531, a roughness calculator 533, an adjustment factor calculator 535, and a roughness-adjustment factor table 537. ) may include. The adjustment factor generator 530 may perform the operations (S300, S310, S330, S350, S351, and S353) of FIGS. 2, 6, and 7.

동적 범위 압축비 계산기(531)는 복수의 제1 노출 시간들(ET1s) 중 설정 시간들(ET11, ET13) 및 복수의 제1 센서 이득들(SG1s) 중 설정 이득들(SG11, SG13)에 기초하여 제1 동적 범위 압축비(DRC_R1)를 계산할 수 있다. The dynamic range compression ratio calculator 531 is based on the set times (ET11, ET13) among the plurality of first exposure times (ET1s) and the set gains (SG11, SG13) among the plurality of first sensor gains (SG1s). The first dynamic range compression ratio (DRC_R1) can be calculated.

조도 계산기(533)는 복수의 제1 노출 시간들(ET1s) 중 설정 시간(ET11) 및 복수의 제1 센서 이득들(SG1s) 중 설정 이득(SG11)에 기초하여 제1 조도(ILLV1)를 계산할 수 있다. The illuminance calculator 533 calculates the first illuminance (ILLV1) based on the set time (ET11) among the plurality of first exposure times (ET1s) and the set gain (SG11) among the plurality of first sensor gains (SG1s). You can.

조정 팩터 계산기(535)는 조도-조정 팩터 테이블(537)로부터 제1 조도(ILLV1)에 상응하는 제1 조정 팩터 관계식(RLSx)을 호출하고, 제1 동적 범위 압축비(DRC_R1)에 제1 조정 팩터 관계식(RLSx)을 적용하여 조정 팩터(ADJ_FCT)를 계산할 수 있다.The adjustment factor calculator 535 calls the first adjustment factor relation (RLSx) corresponding to the first illuminance (ILLV1) from the illuminance-adjustment factor table 537, and calculates the first adjustment factor to the first dynamic range compression ratio (DRC_R1). The adjustment factor (ADJ_FCT) can be calculated by applying the relation (RLSx).

도 9는 도 8의 조도-조정 팩터 테이블의 일 실시예를 나타내는 도면이다.FIG. 9 is a diagram illustrating an embodiment of the illuminance-adjustment factor table of FIG. 8.

도 8 및 도 9를 참조하면, 조도-조정 팩터 테이블(ILL_AF_Table)은 복수의 조도 구간들(IM_LV1, IM_LV2, IM_LV3, IM_LV4, IM_LV5) 및 복수의 관계식들(RLS1, RLS2, RLS3, RLS4, RLS5)을 포함할 수 있다. Referring to FIGS. 8 and 9, the illuminance-adjustment factor table (ILL_AF_Table) includes a plurality of illuminance sections (IM_LV1, IM_LV2, IM_LV3, IM_LV4, IM_LV5) and a plurality of relational equations (RLS1, RLS2, RLS3, RLS4, RLS5) may include.

일 실시예에서, 복수의 조도 구간들(IM_LV1~IM_LV5)은 이미지 센서의 조도로서 표현가능한 조도 범위를 분할한 것일 수 있다. 복수의 관계식들(RLS1, RLS2, RLS3, RLS4, RLS5)은 복수의 조도 구간들(IM_LV1~IM_LV5)에 대해 각각 정의될 수 있다. In one embodiment, the plurality of illuminance sections IM_LV1 to IM_LV5 may divide the illuminance range that can be expressed as the illuminance of the image sensor. A plurality of relational equations (RLS1, RLS2, RLS3, RLS4, RLS5) may be defined for each of the plurality of illuminance sections (IM_LV1 to IM_LV5).

일 실시예에서, 제1 조도(ILLV1)가 복수의 조도 구간들(IM_LV1~IM_LV5) 중 하나에 속하는 경우(예를 들어, IM_LV1), 조정 팩터 계산기(535)는 상응하는 관계식(예를 들어, RLS1)을 제1 조정 팩터 관계식(RLSx)으로서 호출할 수 있다. In one embodiment, when the first illuminance ILLV1 belongs to one of the plurality of illuminance intervals IM_LV1 to IM_LV5 (e.g., IM_LV1), the adjustment factor calculator 535 calculates the corresponding relational expression (e.g., RLS1) can be called the first adjustment factor relation (RLSx).

일 실시예에서, 복수의 조도 구간들(IM_LV1~IM_LV5)은, 제1 조도 구간(예를 들어, IM_LV1) 및 상기 제1 조도 구간보다 높은 조도를 나타내는 제2 조도 구간(예를 들어, IM_LV2)을 포함할 수 있다. 복수의 관계식들(RLS1~RLS5)은 상기 제1 조도 구간에 대해 정의되는 제1 관계식(예를 들어, RLS1) 및 상기 제2 조도 구간에 대해 정의되는 제2 관계식(예를 들어, RLS2)을 포함할 수 있다. 임의의 동적 범위 압축비에 상기 제1 관계식 및 상기 제2 관계식을 각각 적용하는 경우, 상기 제1 관계식은 상기 제2 관계식보다 크거나 같은 값을 나타내도록 정의될 수 있다. In one embodiment, the plurality of illuminance sections (IM_LV1 to IM_LV5) include a first illuminance section (e.g., IM_LV1) and a second illuminance section (e.g., IM_LV2) indicating a higher illuminance than the first illuminance section. may include. A plurality of relational expressions (RLS1 to RLS5) include a first relational expression (eg, RLS1) defined for the first illuminance section and a second relational expression (eg, RLS2) defined for the second illuminance section. It can be included. When applying the first relation and the second relation to an arbitrary dynamic range compression ratio, the first relation may be defined to represent a value greater than or equal to the second relation.

일 실시예에서, 복수의 관계식들(RLS1~RLS5) 각각은 제1 동적 범위 압축비(DRC_R1)의 제곱근 항을 포함할 수 있다. 예를 들어, IM_LV5는 가장 높은 조도 구간을 나타낼 수 있고, IM_LV1은 가장 낮은 조도 구간을 나타낼 수 있고, IM_LV4, IM_LV3 및 IM_LV2 는 IM_LV5와 IM_LV1 사이에서 순차적으로 감소하는 조도 구간들을 나타낼 수 있다. 이 경우, RLS5는 ‘sqrt(DRC_R1)’일 수 있고, RLS4 및 RLS3 각각은 ‘((3+ sqrt(DRC_R1))/4)’일 수 있고, RLS2 및 RLS1 각각은 ‘((7+ sqrt(DRC_R1))/8)’일 수 있으나, 이는 예시적인 것에 불과하다.In one embodiment, each of the plurality of relations RLS1 to RLS5 may include a square root term of the first dynamic range compression ratio DRC_R1. For example, IM_LV5 may represent the highest illuminance section, IM_LV1 may represent the lowest illuminance section, and IM_LV4, IM_LV3, and IM_LV2 may represent illuminance sections that sequentially decrease between IM_LV5 and IM_LV1. In this case, RLS5 could be 'sqrt(DRC_R1)', each of RLS4 and RLS3 could be '((3+ sqrt(DRC_R1))/4)', and each of RLS2 and RLS1 could be '((7+ sqrt( It may be 'DRC_R1))/8)', but this is only an example.

도 10a 및 도 10b는 도 1의 제2 파라미터들을 생성하는 동작의 일 실시예를 나타내는 도면들이다. FIGS. 10A and 10B are diagrams illustrating an example of an operation for generating the second parameters of FIG. 1 .

도 1, 도 2 및 도 10a를 참조하면, 제2 파라미터들(PARAM2)을 생성하는 동작에서(S400), 애플리케이션 프로세서(500)는 조정 팩터(ADJ_FCT)의 크기에 반비례하도록 복수의 제1 노출 시간들(ET1s) 및 복수의 제2 센서 이득들(SG1s)을 조정하여 복수의 제2 노출 시간들(ET2s) 및 제2 센서 이득들(SG2s)을 생성할 수 있다(S410). Referring to FIGS. 1, 2, and 10A, in the operation of generating the second parameters (PARAM2) (S400), the application processor 500 sets a plurality of first exposure times to be inversely proportional to the size of the adjustment factor (ADJ_FCT). A plurality of second exposure times ET2s and a plurality of second sensor gains SG2s may be generated by adjusting the ET1s and the plurality of second sensor gains SG1s (S410).

일 실시예에서, 제1 파라미터들(PARAM1)은 제1 장노출 파라미터, 제1 중노출 파라미터 및 제1 단노출 파라미터를 더 포함할 수 있고, 제2 파라미터들(PARAM2)은 제2 장노출 파라미터, 제2 중노출 파라미터 및 제2 단노출 파라미터를 더 포함할 수 있다. 예를 들어, 상기 제1 장노출 파라미터, 상기 제1 중노출 파라미터 및 상기 제1 단노출 파라미터 각각은 복수의 제1 노출 시간들(ET1s) 중 하나에 복수의 제1 센서 이득들(SG1s) 중 하나를 곱하여 구해질 수 있다. 예를 들어, 상기 제2 장노출 파라미터, 상기 제2 중노출 파라미터 및 상기 제2 단노출 파라미터 각각은 복수의 제2 노출 시간들(ET2s) 중 하나에 복수의 제2 센서 이득들(SG2s) 중 하나를 곱하여 구해질 수 있다. In one embodiment, the first parameters PARAM1 may further include a first long exposure parameter, a first medium exposure parameter, and a first short exposure parameter, and the second parameters PARAM2 may include a second long exposure parameter. , it may further include a second medium exposure parameter and a second short exposure parameter. For example, the first long exposure parameter, the first middle exposure parameter, and the first short exposure parameter each correspond to one of the plurality of first exposure times ET1s and one of the plurality of first sensor gains SG1s. It can be found by multiplying by one. For example, the second long exposure parameter, the second medium exposure parameter, and the second short exposure parameter each correspond to one of the plurality of second exposure times ET2s and one of the plurality of second sensor gains SG2s. It can be found by multiplying by one.

도 1, 도 2 및 도 10b를 참조하면, 제2 파라미터들(PARAM2)을 생성하는 동작에서(S400), 애플리케이션 프로세서(500)는 상기 제1 장노출 파라미터를 조정 팩터(ADJ_FCT)로 나누어 상기 제2 장노출 파라미터를 계산할 수 있다(S411). Referring to FIGS. 1, 2, and 10B, in the operation of generating second parameters (PARAM2) (S400), the application processor 500 divides the first long exposure parameter by the adjustment factor (ADJ_FCT) to calculate the second parameters (PARAM2). 2 Long exposure parameters can be calculated (S411).

도 11은 도 2의 제2 파라미터 생성기의 일 실시예를 나타내는 블록도이다. FIG. 11 is a block diagram showing an embodiment of the second parameter generator of FIG. 2.

도 2 및 도 11을 참조하면, 제2 파라미터 생성기(550)는 제1 파라미터 계산기들(551, 552, 553) 및 나눗셈기들(555, 556, 557)을 포함할 수 있다. 제2 파라미터 생성기(550)는 도 10a 및 도 10b의 동작들(S410, S411)을 수행할 수 있다. Referring to FIGS. 2 and 11 , the second parameter generator 550 may include first parameter calculators 551 , 552 , and 553 and dividers 555 , 556 , and 557 . The second parameter generator 550 may perform operations S410 and S411 of FIGS. 10A and 10B.

제1 파라미터 계산기들(551, 552, 553)은 설정 시간들(ET11, ET12, ET13)을 포함하는 복수의 제1 노출 시간들(ET1s) 및 설정 이득들(SG11, SG12, SG13)을 포함하는 복수의 제1 센서 이득들(SG1s)에 기초하여 제1 장노출 파라미터(LE_PARAM1), 제1 중노출 파라미터(ME_PARAM1) 및 제1 단노출 파라미터(SE_PARAM1)를 계산할 수 있다. 예를 들어, 제1 파라미터 계산기(551)는 설정 시간(ET11)에 설정 이득(SG11)을 곱하여 제1 장노출 파라미터(LE_PARAM1)를 계산할 수 있고, 제1 파라미터 계산기(552)는 설정 시간(ET12)에 설정 이득(SG12)을 곱하여 제1 중노출 파라미터(ME_ PARAM1)를 계산할 수 있고, 제1 파라미터 계산기(553)는 설정 시간(ET13)에 설정 이득(SG13)을 곱하여 제1 단노출 파라미터(SE_PARAM1)를 계산할 수 있다. The first parameter calculators 551, 552, and 553 include a plurality of first exposure times ET1s including set times ET11, ET12, and ET13 and set gains SG11, SG12, and SG13. The first long exposure parameter (LE_PARAM1), the first medium exposure parameter (ME_PARAM1), and the first short exposure parameter (SE_PARAM1) may be calculated based on the plurality of first sensor gains (SG1s). For example, the first parameter calculator 551 may calculate the first long exposure parameter LE_PARAM1 by multiplying the set time ET11 by the set gain SG11, and the first parameter calculator 552 may calculate the first long exposure parameter LE_PARAM1 by multiplying the set time ET11 by the set gain SG11. ) can be multiplied by the set gain (SG12) to calculate the first medium exposure parameter (ME_PARAM1), and the first parameter calculator 553 multiplies the set time (ET13) by the set gain (SG13) to calculate the first short exposure parameter ( SE_PARAM1) can be calculated.

나눗셈기(555)는 제1 장노출 파라미터(LE_PARAM1)를 조정 팩터(ADJ_FCT)로 나누어 제2 장노출 파라미터(LE_PARAM2)를 생성하고, 나눗셈기(556)는 제1 중노출 파라미터(ME_PARAM1)를 조정 팩터(ADJ_FCT)로 나누어 제2 중노출 파라미터(ME_ PARAM2)를 생성하고, 나눗셈기(557)는 제1 단노출 파라미터(SE_PARAM1)를 조정 팩터(ADJ_FCT)로 나누어 제2 단노출 파라미터(SE_PARAM2)를 생성할 수 있다. The divider 555 divides the first long exposure parameter (LE_PARAM1) by the adjustment factor (ADJ_FCT) to generate the second long exposure parameter (LE_PARAM2), and the divider 556 adjusts the first long exposure parameter (ME_PARAM1). Dividing by the factor (ADJ_FCT) generates the second medium exposure parameter (ME_PARAM2), and the divider 557 divides the first single exposure parameter (SE_PARAM1) by the adjustment factor (ADJ_FCT) to generate the second single exposure parameter (SE_PARAM2). can be created.

도 11에서, 제1 파라미터(PARAM1)에 포함될 수 있는 파라미터들(LE_PARAM 1, ME_PARAM1, SE_ PARAM1)이 제2 파라미터 생성기(550)에서 생성되는 실시예에 대하여 설명하였으나, 다른 실시예에서, 파라미터들(LE_PARAM 1, ME_PARAM1, SE_ PARAM1)은 제1 파라미터 생성기(예를 들어, 도 2 또는 도 4의 510)에서 생성될 수도 있다. In FIG. 11, an embodiment in which parameters (LE_PARAM 1, ME_PARAM1, SE_PARAM1) that may be included in the first parameter (PARAM1) are generated in the second parameter generator 550 has been described. However, in another embodiment, the parameters (LE_PARAM 1, ME_PARAM1, SE_PARAM1) may be generated in a first parameter generator (eg, 510 in FIG. 2 or 4).

도 12는 이미지 센서의 하드웨어 제약을 설명하기 위한 도면이다. FIG. 12 is a diagram to explain hardware limitations of an image sensor.

도 12에서, 가로축은 이미지 장치의 주변 환경을 나타내고, 세로축은 장노출 파라미터(LE_PARAM) 대 단노출 파라미터(SE_PARAM)의 비(ratio)인 파라미터 비(PARAM_R)를 나타낸다.In FIG. 12, the horizontal axis represents the surrounding environment of the image device, and the vertical axis represents the parameter ratio (PARAM_R), which is the ratio of the long exposure parameter (LE_PARAM) to the short exposure parameter (SE_PARAM).

도 11 및 도 12를 참조하면, 상기 이미지 장치의 주변 환경이 일반적인 환경인 경우(Normal), 파라미터 비는 PARAM_A 일 수 있다. 그러나 상기 이미지 장치의 주변 환경이 상기 일반적인 환경에서 역광(Backlit) 환경으로 변하는 경우, 상기 파라미터 비는 PARAM_B 로 변화할 수 있다. 그러나 HDR 이미지 데이터를 얻기 위한 이미지 센서의 하드웨어 제약으로 인해 상기 역광 환경에서 상기 파라미터 비는 PARAM_R_CONSTRAINT 를 넘지 않도록 제한되고, 상기 파라미터 비는 PARAM_B 로부터 PARAM_C 로 감소하도록 조절된다. 이 경우 장노출 파라미터(LE_PARAM)는 최대치를 가질 수 있고, 단노출 파라미터(SE_PARAM)는 상기 파라미터 비를 만족하도록 의도하지 않은 수준으로 상승할 수 있다. 예를 들어, 단노출 파라미터(SE_PARAM)에 포함되는 노출 시간 및/또는 센서 이득 각각은 의도하지 않은 수준 이상으로 상승할 수 있다. Referring to FIGS. 11 and 12 , when the surrounding environment of the imaging device is a normal environment (Normal), the parameter ratio may be PARAM_A. However, when the surrounding environment of the imaging device changes from the general environment to a backlit environment, the parameter ratio may change to PARAM_B. However, due to hardware constraints of the image sensor for obtaining HDR image data, the parameter ratio is limited to not exceed PARAM_R_CONSTRAINT in the backlight environment, and the parameter ratio is adjusted to decrease from PARAM_B to PARAM_C. In this case, the long exposure parameter (LE_PARAM) may have a maximum value, and the short exposure parameter (SE_PARAM) may rise to an unintended level to satisfy the parameter ratio. For example, each of the exposure time and/or sensor gain included in the single exposure parameter (SE_PARAM) may rise beyond an unintended level.

도 13은 본 개시의 일 실시예에 따른 이미지 센서의 동작 방법을 나타내는 순서도이다. 13 is a flowchart showing a method of operating an image sensor according to an embodiment of the present disclosure.

도 1, 도 2 및 도 13을 참조하면, 도 13의 이미지 센서의 동작 방법에서는, 도 1의 이미지 센서의 동작 방법과 비교하여, 이미지 센서(100)가 제2 이미지 캡쳐링을 수행하여 제2 결과 이미지 데이터들을 더 생성할 수 있다(S600). 도 1의 이미지 센서의 동작 방법과 중복되는 설명은 생략하기로 한다. Referring to FIGS. 1, 2, and 13, in the operating method of the image sensor of FIG. 13, compared to the operating method of the image sensor of FIG. 1, the image sensor 100 performs second image capturing to capture the second image. Additional resulting image data can be generated (S600). Descriptions that overlap with the operating method of the image sensor in FIG. 1 will be omitted.

일 실시예에서, 상기 제2 이미지 캡쳐링은 제1 이미지 캡쳐링 이후에 수행될 수 있다. In one embodiment, the second image capturing may be performed after the first image capturing.

일 실시예에서, 상기 제2 결과 이미지 데이터들은 복수의 제2 SDR 이미지 데이터들 및 제2 HDR 이미지 데이터를 포함할 수 있다. In one embodiment, the second resulting image data may include a plurality of second SDR image data and second HDR image data.

도 14는 도 13의 제2 결과 이미지 데이터를 생성하는 동작의 일 실시예를 나타내는 순서도이다. 도 15는 본 개시의 일 실시예에 따른 이미지 장치를 나타내는 블록도이다. FIG. 14 is a flowchart illustrating an example of an operation for generating the second result image data of FIG. 13 . Figure 15 is a block diagram showing an imaging device according to an embodiment of the present disclosure.

도 1, 도 2, 도 13, 도 14 및 도 15를 참조하면, 이미지 장치(10a)는 이미지 센서(100a) 및 애플리케이션 프로세서(500a)를 포함할 수 있다. Referring to FIGS. 1, 2, 13, 14, and 15, the image device 10a may include an image sensor 100a and an application processor 500a.

이미지 센서(100a)는 제어 로직(111), 로우 디코더(112), 픽셀 어레이(113), 램프 생성기(114), CDS-ADC(115), 리드아웃 회로(116), 동적 범위 압축 처리회로(117) 및 동적 범위 압축비 생성기(118)를 포함할 수 있다. The image sensor 100a includes a control logic 111, a row decoder 112, a pixel array 113, a ramp generator 114, a CDS-ADC 115, a readout circuit 116, and a dynamic range compression processing circuit ( 117) and a dynamic range compression ratio generator 118.

애플리케이션 프로세서(500a)는 제1 파라미터 생성기(510), 조정 팩터 생성기 (530) 및 제2 파라미터 생성기(550)를 포함할 수 있다. The application processor 500a may include a first parameter generator 510, an adjustment factor generator 530, and a second parameter generator 550.

상기 제2 결과 이미지 데이터들을 생성하는 동작에서(S600), 이미지 센서(100)는 복수의 제2 SDR 이미지 데이터들을 생성할 수 있다(S610).In the operation of generating the second result image data (S600), the image sensor 100 may generate a plurality of second SDR image data (S610).

동적 범위 압축비 생성기(118)는 제2 파라미터들(PARAM2) 및 조정 팩터(ADJ_FCT)에 기초하여 제2 동적 범위 압축비(DRC_R2)를 계산할 수 있다(S630). The dynamic range compression ratio generator 118 may calculate the second dynamic range compression ratio DRC_R2 based on the second parameters PARAM2 and the adjustment factor ADJ_FCT (S630).

일 실시예에서, 동적 범위 압축비 생성기(118)는 제1 동적 범위 압축비 및 조정 팩터(ADJ_FCT)에 기초하여 제2 동적 범위 압축비(DRC_R2)를 계산할 수 있다. 제2 파라미터들(PARAM2)은 제2 노출 시간들(EP2s) 및 제2 센서 이득들(SG2s)을 포함할 수 있고, 제2 장노출 파라미터 및 제2 단노출 파라미터를 더 포함할 수 있다. 상기 제2 장노출 파라미터는 제1 장노출 파라미터를 조정 팩터(ADJ_FCT)로 나누어 구해질 수 있고, 상기 제2 단노출 파라미터는 제1 단노출 파라미터를 조정 팩터(ADJ_FCT)로 나누어 구해질 수 있고, 동적 범위 압축비 생성기(118)는 상기 제2 장노출 파라미터를 상기 제2 단노출 파라미터로 나누어 상기 제1 장노출 파라미터를 상기 제1 단노출 파라미터로 나눈 값인 상기 제1 동적 범위 압축비를 구할 수 있다. In one embodiment, the dynamic range compression ratio generator 118 may calculate the second dynamic range compression ratio (DRC_R2) based on the first dynamic range compression ratio and the adjustment factor (ADJ_FCT). The second parameters PARAM2 may include second exposure times EP2s and second sensor gains SG2s, and may further include a second long exposure parameter and a second short exposure parameter. The second long exposure parameter can be obtained by dividing the first long exposure parameter by an adjustment factor (ADJ_FCT), and the second long exposure parameter can be obtained by dividing the first long exposure parameter by an adjustment factor (ADJ_FCT), The dynamic range compression ratio generator 118 may obtain the first dynamic range compression ratio by dividing the second long exposure parameter by the second short exposure parameter and dividing the first long exposure parameter by the first short exposure parameter.

일 실시예에서, 제2 동적 범위 압축비(DRC_R2)는 상기 제1 동적 범위 압축비에 조정 팩터(ADJ_FCT)를 곱하여 구해질 수 있다. In one embodiment, the second dynamic range compression ratio (DRC_R2) may be obtained by multiplying the first dynamic range compression ratio by an adjustment factor (ADJ_FCT).

동적 범위 압축 처리회로(117)는 제2 HDR 이미지 데이터를 생성할 수 있다(S650).The dynamic range compression processing circuit 117 may generate second HDR image data (S650).

일 실시예에서, 동적 범위 압축 처리회로(117)는 상기 복수의 제2 SDR 이미지 데이터들 및 제2 동적 범위 압축비(DRC_R2)에 기초하여 상기 제2 HDR 이미지 데이터를 생성할 수 있다. 예를 들어, 동적 범위 압축 처리회로(177)는 제2 동적 범위 압축비(DRC_R2)에 기초하여 상기 제2 HDR 이미지 데이터를 생성하기 위한 병합, 분할 및 톤 맵핑 과정을 수행할 수 있다. 제2 동적 범위 압축비(DRC_R2)를 적용함으로써 제2 장노출 파라미터에 대응되는 SDR 이미지 데이터의 평균 밝기값이 제1 장노출 파라미터에 대응되는 SDR 이미지 데이터의 평균 밝기값과 실질적으로 동일하도록 제2 장노출 파라미터에 대응되는 SDR 이미지 데이터가 생성될 수 있다. In one embodiment, the dynamic range compression processing circuit 117 may generate the second HDR image data based on the plurality of second SDR image data and a second dynamic range compression ratio (DRC_R2). For example, the dynamic range compression processing circuit 177 may perform merging, dividing, and tone mapping processes to generate the second HDR image data based on the second dynamic range compression ratio (DRC_R2). By applying the second dynamic range compression ratio (DRC_R2), the average brightness value of the SDR image data corresponding to the Chapter 2 exposure parameters is substantially the same as the average brightness value of the SDR image data corresponding to the Chapter 1 exposure parameters. SDR image data corresponding to exposure parameters may be generated.

도 16은 본 개시의 실시예들에 따른 이미지 센서의 동작들을 설명하기 위한 도면이다. FIG. 16 is a diagram for explaining operations of an image sensor according to embodiments of the present disclosure.

도 15 및 도 16을 참조하면, 이미지 센서(10a)는 순차적으로 진행하는 시구간들(TP1, TP2, TP3)에서 동작할 수 있다. Referring to FIGS. 15 and 16 , the image sensor 10a may operate in sequential time sections TP1, TP2, and TP3.

TP1 동안에, 이미지 센서(10a)는 제2 파라미터들(PARAM2)에 기초하여 제2 이미지 캡쳐링(IMG_CAPT21, IMG_CAPT22, IMG_CAPT23)을 수행할 수 있다. During TP1, the image sensor 10a may perform second image capturing (IMG_CAPT21, IMG_CAPT22, IMG_CAPT23) based on the second parameters (PARAM2).

일 실시예에서, 제2 파라미터들(PARAM2)은 제2 노출 시간들(EP2s)을 포함할 수 있고, 제2 센서 이득들(SG2s)을 포함할 수 있고, 제2 노출 시간들(EP2s)은 설정 시간들(EP21, EP22, EP23)을 포함할 수 있고, 제2 센서 이득들(SG2s)은 설정 이득들(SG21, SG22, SG23)을 포함할 수 있다. 제2 파라미터들(PARAM2)은 제2 장노출 파라미터, 제2 중노출 파라미터 및 제2 단노출 파라미터를 더 포함할 수 있다. 상기 제2 장노출 파라미터는 설정 시간(EP21)에 설정 이득(SG21)을 곱한 값을 가질 수 있고, 상기 제2 중노출 파라미터는 설정 시간(EP22)에 설정 이득(SG22)을 곱한 값을 가질 수 있고, 상기 제2 단노출 파라미터는 설정 시간(EP23)에 설정 이득(SG23)을 곱한 값을 가질 수 있다. In one embodiment, the second parameters PARAM2 may include second exposure times EP2s and second sensor gains SG2s, and the second exposure times EP2s may be It may include setting times (EP21, EP22, and EP23), and the second sensor gains (SG2s) may include setting gains (SG21, SG22, and SG23). The second parameters PARAM2 may further include a second long exposure parameter, a second medium exposure parameter, and a second short exposure parameter. The second long exposure parameter may have a value obtained by multiplying the set time (EP21) by the set gain (SG21), and the second long exposure parameter may have a value obtained by multiplying the set time (EP22) by the set gain (SG22). And, the second single exposure parameter may have a value obtained by multiplying the set time (EP23) by the set gain (SG23).

TP2 동안에, 이미지 센서(10a)는 복수의 제2 SDR 이미지 데이터들(SDR_ IMG2s)을 리드아웃할 수 있다. During TP2, the image sensor 10a may read out a plurality of second SDR image data (SDR_IMG2s).

일 실시예에서, 복수의 제2 SDR 이미지 데이터들(SDR_IMG2s)은 SDR 이미지 데이터들(SDR_IMG21, SDR_IMG22, SDR_IMG23)을 포함할 수 있다. 이미지 센서(10a)는 상기 제2 장노출 파라미터에 기초하여 SDR 이미지 데이터(SDR_ IMG21)를 생성할 수 있고, 상기 제2 중노출 파라미터에 기초하여 SDR 이미지 데이터(SDR_IMG22)를 생성할 수 있고, 상기 제2 단노출 파라미터에 기초하여 SDR 이미지 데이터(SDR_IMG23)를 생성할 수 있다. In one embodiment, the plurality of second SDR image data SDR_IMG2s may include SDR image data SDR_IMG21, SDR_IMG22, and SDR_IMG23. The image sensor 10a may generate SDR image data (SDR_IMG21) based on the second long exposure parameter and generate SDR image data (SDR_IMG22) based on the second long exposure parameter, SDR image data (SDR_IMG23) may be generated based on the second short exposure parameter.

TP3 동안에, 이미지 센서(10a)는 동적 범위 압축 처리를 수행하여 제2 HDR 이미지 데이터(HDR_IMG2)를 생성할 수 있다. During TP3, the image sensor 10a may perform dynamic range compression processing to generate second HDR image data (HDR_IMG2).

일 실시예에서, 이미지 센서(10a)는 제2 동적 범위 압축비(DRC_R2)에 기초하여 상기 동적 범위 압축 처리를 수행할 수 있다. In one embodiment, the image sensor 10a may perform the dynamic range compression processing based on the second dynamic range compression ratio (DRC_R2).

도 17a, 도 17b, 도 18a, 도 18b, 도 19a 및 도 19b는 도 1의 제1 파라미터들, 제2 파라미터들, 제1 동적 범위 압축비 및 제2 동적 범위 압축비를 설명하기 위한 도면들이다. FIGS. 17A, 17B, 18A, 18B, 19A, and 19B are diagrams for explaining the first parameters, second parameters, first dynamic range compression ratio, and second dynamic range compression ratio of FIG. 1.

도 17a 및 도 17b는, 고조도 환경에서의 제1 파라미터들, 제2 파라미터들, 제1 동적 범위 압축비 및 제2 동적 범위 압축비를 도시하고, 도 18a 및 도 18b는 중조도 환경에서의 제1 파라미터들, 제2 파라미터들, 제1 동적 범위 압축비 및 제2 동적 범위 압축비를 도시하고, 도 19a 및 도 19b는 저조도 환경에서의 제1 파라미터들, 제2 파라미터들, 제1 동적 범위 압축비 및 제2 동적 범위 압축비를 도시한다.FIGS. 17A and 17B show the first parameters, the second parameters, the first dynamic range compression ratio and the second dynamic range compression ratio in a high-light environment, and FIGS. 18A and 18B show the first parameters in a medium-light environment. Parameters, second parameters, first dynamic range compression ratio and second dynamic range compression ratio, and FIGS. 19A and 19B show first parameters, second parameters, first dynamic range compression ratio and second dynamic range compression ratio in a low-light environment. 2 shows the dynamic range compression ratio.

일 실시예에서, 상기 제1 및 제2 파라미터들, 및 상기 제1 및 제2 동적 범위 압축비들을 계산하기 위해 도 9를 참조하여 상술한 관계식들(RLS1~RLS5)이 사용될 수 있다. 예를 들어, 도 17a 및 도 17b에서, 상기 RLS5 가 사용될 수 있고, 도 18a 및 도 18b에서 상기 RLS4 및 RLS3 중 하나가 사용될 수 있고, 도 19a 및 도 19b에서 상기 RLS2 및 RLS1 중 하나가 사용될 수 있다. In one embodiment, the relations RLS1 to RLS5 described above with reference to FIG. 9 may be used to calculate the first and second parameters and the first and second dynamic range compression ratios. For example, in FIGS. 17A and 17B, RLS5 may be used, in FIGS. 18A and 18B, one of RLS4 and RLS3 may be used, and in FIGS. 19A and 19B, one of RLS2 and RLS1 may be used. there is.

도 20은 본 개시의 일 실시예에 따른 이미지 센서의 동작 방법을 나타내는 순서도이다. Figure 20 is a flowchart showing a method of operating an image sensor according to an embodiment of the present disclosure.

도 2, 도 15 및 도 20을 참조하면, 이미지 센서(100, 100a)는 제1 이미지 캡쳐링을 수행하여 복수의 제1 SDR 이미지 데이터들 및 제1 HDR 이미지 데이터를 포함하는 제1 결과 이미지 데이터를 생성할 수 있다(S1000). Referring to FIGS. 2, 15, and 20, the image sensors 100 and 100a perform first image capturing to generate first result image data including a plurality of first SDR image data and first HDR image data. can be created (S1000).

애플리케이션 프로세서(500, 500a)는 상기 제1 결과 이미지 데이터들에 기초하여 제1 파라미터들을 생성할 수 있다(S2000).The application processor 500 (500a) may generate first parameters based on the first result image data (S2000).

일 실시예에서, 상기 제1 파라미터들은 상기 제1 이미지 캡쳐링과 관련될 수 있고, 제1 장노출 파라미터 및 제1 단노출 파라미터를 포함할 수 있다. In one embodiment, the first parameters may be related to capturing the first image and may include a first long exposure parameter and a first short exposure parameter.

애플리케이션 프로세서(500, 500a)는 상기 제1 파라미터들에 기초하여 조정 팩터를 생성할 수 있다(S3000). The application processor 500 (500a) may generate an adjustment factor based on the first parameters (S3000).

애플리케이션 프로세서(500, 500a)는 상기 조정 팩터를 기초로 상기 제1 파라미터들을 조정하여 제2 파라미터들을 생성할 수 있다(S4000). The application processor 500 (500a) may generate second parameters by adjusting the first parameters based on the adjustment factor (S4000).

일 실시예에서, 상기 제2 파라미터들은 제2 장노출 파라미터 및 제2 단노출 파라미터를 포함할 수 있다. In one embodiment, the second parameters may include a second long exposure parameter and a second short exposure parameter.

이미지 센서(100, 100a)는 상기 제2 파라미터들에 기초하여 제2 이미지 캡쳐링을 수행할 수 있다(S5000). The image sensors 100 and 100a may perform second image capturing based on the second parameters (S5000).

일 실시예에서, 상기 제2 장노출 파라미터 및 상기 제2 단노출 파라미터의 비는 HDR 이미지 데이터를 얻기 위한 이미지 센서의 하드웨어 제약을 만족하도록 계산될 수 있다. In one embodiment, the ratio of the second long exposure parameter and the second short exposure parameter may be calculated to satisfy hardware constraints of an image sensor for obtaining HDR image data.

도 21은 도 2 및 도 15의 이미지 센서들의 동작 방식의 일 예를 설명하기 위한 도면이다. FIG. 21 is a diagram for explaining an example of the operation method of the image sensors of FIGS. 2 and 15.

도 21에서, 가로축은 시간을 나타내고, 세로축은 픽셀 어레이의 로우(또는 라인)를 나타낼 수 있다. 이미지 센서들(100, 100a)의 픽셀 어레이들은 순차적으로 진행하는 시구간들(STP1, STP2, STP3, STP4, STP5)에서 서로 다른 노출 시간들에 각각 상응하는 SDR 이미지 데이터들(SDR_IMG11, SDR_IMG12, SDR_IMG13)을 출력할 수 있다. ET는 상기 픽셀 어레이들의 광전 변환 소자들이 광전하들을 축적하는 시간(예를 들어, 노출 시간)을 나타낼 수 있고, TT는 SDR 이미지 데이터들(SDR_IMG11, SDR_IMG12, SDR_ IMG13)이 리드아웃 회로를 통해 출력되는 전송 시간을 나타낼 수 있다. In FIG. 21, the horizontal axis may represent time, and the vertical axis may represent rows (or lines) of the pixel array. The pixel arrays of the image sensors 100 and 100a produce SDR image data (SDR_IMG11, SDR_IMG12, SDR_IMG13) corresponding to different exposure times in sequential time sections (STP1, STP2, STP3, STP4, STP5). can be output. ET may represent the time (e.g., exposure time) for the photoelectric conversion elements of the pixel arrays to accumulate photocharges, and TT may represent the time when the SDR image data (SDR_IMG11, SDR_IMG12, SDR_IMG13) is output through a readout circuit. It can indicate the transmission time.

도 21을 참조하면, STP1 동안에, SDR 이미지 데이터(SDR_IMG11)를 위한 광전하들이 축적되고 SDR 이미지 데이터(SDR_IMG11)의 일부가 출력될 수 있다. STP2 동안에, SDR 이미지 데이터들(SDR_IMG11, SDR_IMG12)을 위한 광전하들이 축적되고 SDR 이미지 데이터들(SDR_IMG11, SDR_IMG12)의 일부가 출력될 수 있다. STP3 동안에, SDR 이미지 데이터들(SDR_IMG11, SDR_IMG12, SDR_IMG13)을 위한 광전하들이 축적되고 SDR 이미지 데이터들(SDR_IMG11, SDR_IMG12, SDR_IMG13)의 일부가 출력될 수 있다. STP4 동안에, SDR 이미지 데이터들(SDR_IMG12, SDR_IMG13)을 위한 광전하들이 축적되고 SDR 이미지 데이터들(SDR_IMG12, SDR_IMG13)의 일부가 출력될 수 있다. STP5 동안에, SDR 이미지 데이터(SDR_IMG13)를 위한 광전하들이 축적되고 SDR 이미지 데이터들(SDR_IMG13)의 일부가 출력될 수 있다. 이와 같이, 특정 시구간 동안에, 서로 다른 노출 시간들에 각각 상응하는 SDR 이미지 데이터들의 전부 또는 일부가 동시에 출력되는 방식을 ‘스태거드 방식’이라 지칭할 수 있다. 이 경우, 도 2 및 도 15를 참조하면, HDR 이미지 데이터는 이미지 센서들(100, 100a)이 아닌 애플리케이션 프로세서들(500, 500a)에서 생성될 수 있고, 조정 팩터(ADJ_FCT)는 이미지 센서(100, 100a)로 전달되지 않고 애플리케이션 프로세서들(500, 500a)의 내부 신호로서 사용될 수 있다. Referring to FIG. 21, during STP1, photocharges for SDR image data (SDR_IMG11) may be accumulated and part of the SDR image data (SDR_IMG11) may be output. During STP2, photocharges for the SDR image data (SDR_IMG11, SDR_IMG12) are accumulated and a portion of the SDR image data (SDR_IMG11, SDR_IMG12) may be output. During STP3, photocharges for SDR image data (SDR_IMG11, SDR_IMG12, SDR_IMG13) are accumulated and some of the SDR image data (SDR_IMG11, SDR_IMG12, SDR_IMG13) may be output. During STP4, photo charges for the SDR image data (SDR_IMG12, SDR_IMG13) are accumulated and a portion of the SDR image data (SDR_IMG12, SDR_IMG13) may be output. During STP5, photo charges for SDR image data (SDR_IMG13) are accumulated and a portion of SDR image data (SDR_IMG13) may be output. In this way, a method in which all or part of SDR image data corresponding to different exposure times are output simultaneously during a specific time period can be referred to as a ‘staggered method’. In this case, referring to FIGS. 2 and 15 , HDR image data may be generated by the application processors 500 and 500a rather than the image sensors 100 and 100a, and the adjustment factor ADJ_FCT is generated by the image sensor 100. , 100a) and may be used as internal signals of the application processors 500 and 500a.

도 22는 본 개시의 실시예들에 따른 이미지 센서를 포함하는 컴퓨팅 시스템을 나타내는 블록도이다. Figure 22 is a block diagram showing a computing system including an image sensor according to embodiments of the present disclosure.

도 22를 참조하면, 컴퓨팅 시스템(700)은 프로세서(710), 메모리 장치(720), 저장 장치(730), 이미지 센서(740), 입출력 장치(750) 및 파워 서플라이(760)를 포함할 수 있다. 도 22에는 도시되지 않았지만, 컴퓨팅 시스템(700)은 비디오 카드, 사운드 카드, 메모리 카드, USB 장치 등과 통신하거나, 또는 다른 전자 기기들과 통신할 수 있는 포트(port)들을 더 포함할 수 있다.Referring to FIG. 22, the computing system 700 may include a processor 710, a memory device 720, a storage device 730, an image sensor 740, an input/output device 750, and a power supply 760. there is. Although not shown in FIG. 22, the computing system 700 may further include ports capable of communicating with a video card, sound card, memory card, USB device, etc., or with other electronic devices.

프로세서(710)는 특정 계산들 또는 태스크(task)들을 수행할 수 있다. 일 실시예에서, 프로세서(710)는 마이크로프로세서(micro-processor), 중앙 처리 장치(Central Processing Unit; CPU)일 수 있다. Processor 710 may perform specific calculations or tasks. In one embodiment, the processor 710 may be a microprocessor or a central processing unit (CPU).

프로세서(710)는 어드레스 버스(address bus), 제어 버스(control bus) 및 데이터 버스(data bus)를 통하여 메모리 장치(720), 저장 장치(730), 이미지 센서(740) 및 입출력 장치(750)와 통신을 수행할 수 있다. The processor 710 connects the memory device 720, the storage device 730, the image sensor 740, and the input/output device 750 through an address bus, a control bus, and a data bus. You can communicate with.

일 실시예에서, 프로세서(2010)는 주변 구성요소 상호연결(Peripheral Component Interconnect; PCI) 버스와 같은 확장 버스에도 연결될 수 있다. In one embodiment, processor 2010 may also be connected to an expansion bus, such as a Peripheral Component Interconnect (PCI) bus.

메모리 장치(720)는 컴퓨팅 시스템(2000)의 동작에 필요한 데이터를 저장할 수 있다. 예를 들어, 메모리 장치(720)는 디램(DRAM), 모바일 디램, 에스램(SRAM), 피램(PRAM), 에프램(FRAM), 알램(RRAM) 및/또는 엠램(MRAM)으로 구현될 수 있다. The memory device 720 may store data necessary for the operation of the computing system 2000. For example, the memory device 720 may be implemented with DRAM, mobile DRAM, SRAM, PRAM, FRAM, RRAM, and/or MRAM. there is.

저장 장치(730)는 솔리드 스테이트 드라이브(solid state drive), 하드 디스크 드라이브(hard disk drive), 씨디롬(CD-ROM) 등을 포함할 수 있다. 입출력 장치(750)는 키보드, 키패드, 마우스 등과 같은 입력 수단 및 프린터, 디스플레이 등과 같은 출력 수단을 포함할 수 있다. 파워 서플라이(760)는 컴퓨팅 시스템(700)의 동작에 필요한 동작 전압을 공급할 수 있다.The storage device 730 may include a solid state drive, hard disk drive, CD-ROM, etc. The input/output device 750 may include input means such as a keyboard, keypad, mouse, etc., and output means such as a printer, display, etc. The power supply 760 may supply operating voltage required for operation of the computing system 700.

이미지 센서(740)는 상기 버스들 또는 다른 통신 링크를 통해서 프로세서(2010)와 연결되어 통신을 수행할 수 있다. 이미지 센서(740)는 도 2 및 도 15 등을 참조하여 상술한 이미지 센서들(100, 100a)에 상응할 수 있다. The image sensor 740 may be connected to the processor 2010 through the buses or other communication links to perform communication. The image sensor 740 may correspond to the image sensors 100 and 100a described above with reference to FIGS. 2 and 15 .

도 23은 본 개시의 실시예들에 따른 이미지 센서를 포함하는 전자 시스템을 나타내는 블록도이다. Figure 23 is a block diagram showing an electronic system including an image sensor according to embodiments of the present disclosure.

도 23을 참조하면, 전자 시스템(1000)은 MIPI 인터페이스를 사용 또는 지원할 수 있는 데이터 처리 장치로 구현될 수 있고, 어플리케이션 프로세서(1110), 이미지 센서(1140) 및 디스플레이(1150) 등을 포함할 수 있다. 전자 시스템(1000)은 RF 칩(1160), GPS(1120), 스토리지(1170), 마이크(1180), DRAM(1185) 및 스피커(1190)를 더 포함할 수 있고, UWB(1210), WLAN(1220), WIMAX(1230) 등을 이용하여 통신을 수행할 수 있다.Referring to FIG. 23, the electronic system 1000 may be implemented as a data processing device capable of using or supporting the MIPI interface, and may include an application processor 1110, an image sensor 1140, and a display 1150. there is. The electronic system 1000 may further include an RF chip 1160, GPS 1120, storage 1170, microphone 1180, DRAM 1185, and speaker 1190, and UWB 1210 and WLAN ( Communication can be performed using WIMAX (1220), WIMAX (1230), etc.

어플리케이션 프로세서(1110)는 이미지 센서(1140) 및 디스플레이(1150)의 동작을 제어하는 컨트롤러 또는 프로세서를 나타낼 수 있다.The application processor 1110 may represent a controller or processor that controls the operations of the image sensor 1140 and the display 1150.

어플리케이션 프로세서(1110)는 디스플레이(1150)의 DSI 장치(1151)와 통신하는 DSI 호스트(1111), 이미지 센서(1140)의 CSI 장치(1141)와 통신하는 CSI 호스트(1112), RF 칩(1160)의 PHY(1161)와 DigRF에 따라 데이터를 송수신하는 PHY(1113), RF 칩(1160)의 DigRF SLAVE(1162)를 제어하는 DigRF MASTER(1114)를 포함할 수 있다.The application processor 1110 includes a DSI host 1111 that communicates with the DSI device 1151 of the display 1150, a CSI host 1112 that communicates with the CSI device 1141 of the image sensor 1140, and an RF chip 1160. It may include a PHY (1161), a PHY (1113) that transmits and receives data according to DigRF, and a DigRF MASTER (1114) that controls the DigRF SLAVE (1162) of the RF chip (1160).

일 실시예에서, DSI 호스트(1111)는 광 시리얼라이저(SER)를 포함할 수 있고, DSI 장치(1151)는 광 디시리얼라이저(DES)를 포함할 수 있다. 일 실시예에서, CSI 호스트(1112)는 광 디시리얼라이저(DES)를 포함할 수 있고, CSI 장치(1141)는 광 시리얼라이저(SER)를 포함할 수 있다.In one embodiment, DSI host 1111 may include an optical serializer (SER) and DSI device 1151 may include an optical deserializer (DES). In one embodiment, CSI host 1112 may include an optical deserializer (DES) and CSI device 1141 may include an optical serializer (SER).

이미지 센서(1040)는 본 발명의 실시예들에 따른 이미지 센서일 수 있고, 본 발명의 실시예들에 따른 동작 방법에 기초하여 동작할 수 있다.The image sensor 1040 may be an image sensor according to embodiments of the present invention, and may operate based on an operation method according to embodiments of the present invention.

일 실시예에서, 전자 시스템(1000)은 PC(Personal Computer), 워크스테이션(workstation), 노트북(laptop), 핸드폰(cellular), 스마트 폰(smart phone), MP3 플레이어, PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), 디지털 TV, 디지털 카메라, 포터블 게임 콘솔(portable game console), 네비게이션(navigation) 기기, 웨어러블(wearable) 기기, IoT(Internet of Things) 기기, IoE(Internet of Everything) 기기, e-북(e-book), VR(Virtual Reality) 기기, AR(Augmented Reality) 기기, 드론(drone) 등과 같은 전자 시스템일 수 있다.In one embodiment, the electronic system 1000 includes a personal computer (PC), a workstation, a laptop, a cellular phone, a smart phone, an MP3 player, a personal digital assistant (PDA), PMP (Portable Multimedia Player), digital TV, digital camera, portable game console, navigation device, wearable device, IoT (Internet of Things) device, IoE (Internet of Everything) device, It may be an electronic system such as an e-book, VR (Virtual Reality) device, AR (Augmented Reality) device, drone, etc.

이상 설명한 바와 같이, 본 개시의 일 실시예에 따른 이미지 센서의 동작 방법에서는, 제1 이미지 캡쳐링을 수행한 결과들에 기초하여 제2 이미지 캡쳐링을 수행할 수 있다. 상기 제1 이미지 캡쳐링을 수행한 결과들에 기초하여 제1 파라미터들이 생성될 수 있고, 상기 제1 파라미터들에 기초하여 상기 제2 이미지 캡쳐링을 수행하기 위한 제2 파라미터들이 생성될 수 있다. 상기 제2 파라미터들은 HDR 이미지 데이터를 얻기 위한 이미지 장치(또는 이미지 센서)의 하드웨어 제약을 만족하도록 계산될 수 있다. 따라서 상기 이미지 장치는, 주변 환경이 일반적인 환경에서 역광 환경으로 변화하는 경우에도, 피사체의 밝기값을 안정화하고, 배경 등의 포화를 방지하여 충분한 동적 범위를 가지는 HDR 이미지 데이터를 얻을 수 있다. As described above, in the method of operating an image sensor according to an embodiment of the present disclosure, second image capturing may be performed based on the results of performing first image capturing. First parameters may be generated based on the results of performing the first image capturing, and second parameters for performing the second image capturing may be generated based on the first parameters. The second parameters may be calculated to satisfy hardware constraints of an image device (or image sensor) for obtaining HDR image data. Accordingly, the image device can obtain HDR image data with a sufficient dynamic range by stabilizing the brightness value of the subject and preventing saturation of the background, etc., even when the surrounding environment changes from a normal environment to a backlight environment.

상술된 내용은 본 개시를 실시하기 위한 구체적인 실시예들이다. 본 개시는 상술된 실시예들뿐만 아니라, 단순하게 설계 변경되거나 용이하게 변경할 수 있는 실시예들 또한 포함할 것이다. 또한, 본 개시는 실시예들을 이용하여 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다. 따라서 본 개시의 범위는 상술된 실시예들에 국한되어 정해져서는 안 되며 후술하는 특허청구범위뿐만 아니라 이 발명의 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.The above-described contents are specific embodiments for carrying out the present disclosure. The present disclosure will include not only the above-described embodiments, but also embodiments that are simply designed or can be easily changed. Additionally, the present disclosure will also include techniques that can be easily modified and implemented using the embodiments. Therefore, the scope of the present disclosure should not be limited to the above-described embodiments, but should be determined by the claims and equivalents of this invention as well as the claims described later.

10: 이미지 장치
100: 이미지 센서
101: 픽셀 어레이
151: 제1 이미지 캡쳐링
155: 제2 이미지 캡쳐링
500: 애플리케이션 프로세서
510: 제1 파라미터 생성기
530: 조정 팩터 생성기
550: 제2 파라미터 생성기
10: Image device
100: image sensor
101: pixel array
151: Capturing the first image
155: Capturing second image
500: Application processor
510: first parameter generator
530: Adjustment factor generator
550: second parameter generator

Claims (10)

제1 이미지 캡쳐링을 수행하여 복수의 제1 표준 동적 범위(SDR) 이미지 데이터들 및 제1 고 동적 범위(HDR) 이미지 데이터를 포함하는 제1 결과 이미지 데이터들을 생성하는 단계;
상기 제1 결과 이미지 데이터들에 기초하여, 상기 제1 이미지 캡쳐링과 관련되고 복수의 제1 노출 시간들 및 복수의 제1 센서 이득들을 포함하는 제1 파라미터들을 생성하는 단계;
상기 제1 파라미터들에 기초하여 조정 팩터를 생성하는 단계;
상기 조정 팩터를 기초로 상기 제1 파라미터들을 조정하여 복수의 제2 노출 시간들 및 복수의 제2 센서 이득들을 포함하는 제2 파라미터들을 생성하는 단계; 및
상기 제2 파라미터들에 기초하여 제2 이미지 캡쳐링을 수행하는 단계를 포함하는 이미지 센서의 동작 방법.
performing first image capturing to generate first resulting image data including a plurality of first standard dynamic range (SDR) image data and first high dynamic range (HDR) image data;
based on the first resulting image data, generating first parameters related to capturing the first image and including a plurality of first exposure times and a plurality of first sensor gains;
generating an adjustment factor based on the first parameters;
adjusting the first parameters based on the adjustment factor to generate second parameters including a plurality of second exposure times and a plurality of second sensor gains; and
A method of operating an image sensor comprising performing second image capturing based on the second parameters.
제1 항에 있어서, 상기 제2 파라미터들을 생성하는 단계는,
상기 조정 팩터의 크기에 반비례하도록 상기 복수의 제1 노출 시간들 및 상기 복수의 제1 센서 이득들을 조정하여 상기 복수의 제2 노출 시간들 및 상기 복수의 제2 센서 이득들을 생성하는 단계를 포함하는 이미지 센서의 동작 방법.
The method of claim 1, wherein generating the second parameters comprises:
Generating the plurality of second exposure times and the plurality of second sensor gains by adjusting the plurality of first exposure times and the plurality of first sensor gains to be inversely proportional to the magnitude of the adjustment factor. How an image sensor works.
제1 항에 있어서, 상기 조정 팩터를 생성하는 단계는,
상기 복수의 제1 노출 시간들 중 제1 설정 시간 및 제2 설정 시간, 및 상기 복수의 제1 센서 이득들 중 제1 설정 이득 및 제2 설정 이득에 기초하여 제1 동적 범위 압축비를 계산하는 단계;
상기 제1 설정 시간 및 상기 제1 설정 이득에 기초하여 제1 조도를 계산하는 단계; 및
상기 제1 동적 범위 압축비, 상기 제1 조도 및 제1 조정 팩터 관계식에 기초하여 상기 조정 팩터를 계산하는 단계를 포함하는 이미지 센서의 동작 방법.
The method of claim 1, wherein generating the adjustment factor comprises:
Calculating a first dynamic range compression ratio based on a first set time and a second set time among the plurality of first exposure times, and a first set gain and a second set gain among the plurality of first sensor gains. ;
calculating a first illuminance based on the first set time and the first set gain; and
A method of operating an image sensor comprising calculating the adjustment factor based on the first dynamic range compression ratio, the first illuminance, and a first adjustment factor relationship.
제3 항에 있어서, 상기 제1 설정 시간은 상기 복수의 제1 노출 시간들 중 가장 길고 상기 제2 설정 시간은 상기 복수의 제1 노출 시간들 중 가장 짧고,
상기 제1 설정 이득은 상기 제1 설정 시간에 상응하고, 상기 제2 설정 이득은 상기 제2 설정 시간에 상응하는 이미지 센서의 동작 방법.
The method of claim 3, wherein the first set time is the longest among the plurality of first exposure times and the second set time is the shortest among the plurality of first exposure times,
The first set gain corresponds to the first set time, and the second set gain corresponds to the second set time.
제4 항에 있어서, 상기 제1 동적 범위 압축비는,
상기 제1 설정 시간에 상기 제1 설정 이득을 곱한 값을 상기 제2 설정 시간에 상기 제2 설정 이득을 곱한 값으로 나눈 값인 이미지 센서의 동작 방법.
The method of claim 4, wherein the first dynamic range compression ratio is:
A method of operating an image sensor in which the value obtained by multiplying the first set time by the first set gain is divided by the value obtained by multiplying the second set time by the second set gain.
제5 항에 있어서, 상기 조정 팩터의 크기는, 상기 제1 동적 범위 압축비가 증가함에 따라 증가하는 이미지 센서의 동작 방법.The method of claim 5, wherein the size of the adjustment factor increases as the first dynamic range compression ratio increases. 제3 항에 있어서, 상기 조정 팩터를 계산하는 단계는,
조도-조정 팩터 테이블에 기초하여, 상기 제1 조도에 상응하는 상기 제1 조정 팩터 관계식을 호출하는 단계; 및
상기 제1 동적 범위 압축비에 상기 제1 조정 팩터 관계식을 적용하여 상기 조정 팩터를 계산하는 단계를 포함하는 이미지 센서의 동작 방법.
The method of claim 3, wherein calculating the adjustment factor comprises:
Based on the illuminance-adjustment factor table, calling the first adjustment factor relational expression corresponding to the first illuminance; and
A method of operating an image sensor comprising calculating the adjustment factor by applying the first adjustment factor relational expression to the first dynamic range compression ratio.
제7 항에 있어서, 상기 조도-조정 팩터 테이블은,
이미지 센서의 조도로서 표현가능한 조도 범위를 분할한 복수의 조도 구간들; 및
상기 복수의 조도 구간들에 대해 각각 정의되는 복수의 관계식들을 포함하는 이미지 센서의 동작 방법.
The method of claim 7, wherein the illuminance-adjustment factor table is:
A plurality of illuminance sections dividing the illuminance range that can be expressed as the illuminance of the image sensor; and
A method of operating an image sensor including a plurality of relational expressions respectively defined for the plurality of illuminance sections.
제8 항에 있어서, 상기 복수의 조도 구간들은, 제1 조도 구간 및 상기 제1 조도 구간보다 높은 조도를 나타내는 제2 조도 구간을 포함하고,
상기 복수의 관계식들은, 상기 제1 조도 구간에 대해 정의되는 제1 관계식 및 상기 제2 조도 구간에 대해 정의되는 제2 관계식을 포함하고,
상기 제1 동적 범위 압축비에 상기 제1 관계식 및 상기 제2 관계식을 각각 적용하는 경우, 상기 제1 관계식은 상기 제2 관계식보다 더 큰 값을 나타내는 이미지 센서의 동작 방법.
The method of claim 8, wherein the plurality of illuminance sections include a first illuminance section and a second illuminance section showing a higher illuminance intensity than the first illuminance section,
The plurality of relational expressions include a first relational expression defined for the first illuminance section and a second relational expression defined for the second illuminance section,
When applying the first relation and the second relation to the first dynamic range compression ratio, the first relation indicates a larger value than the second relation.
복수의 제1 표준 동적 범위(SDR) 이미지 데이터들 및 제1 고 동적 범위(HDR) 이미지 데이터를 포함하는 제1 결과 이미지 데이터들에 기초하여, 제1 이미지 캡쳐링과 관련되고 복수의 제1 노출 시간들 및 복수의 제1 센서 이득들을 포함하는 제1 파라미터들을 생성하고,
상기 제1 파라미터들에 기초하여 조정 팩터를 생성하고,
상기 조정 팩터를 기초로 상기 제1 파라미터들을 조정하여 복수의 제2 노출 시간들 및 복수의 제2 센서 이득들을 포함하는 제2 파라미터들을 생성하는 애플리케이션 프로세서; 및
상기 제1 이미지 캡쳐링을 수행하고, 상기 제2 파라미터들에 기초하여 제2 이미지 캡쳐링을 수행하는 이미지 센서를 포함하는 이미지 장치.



Based on the first resulting image data comprising a plurality of first standard dynamic range (SDR) image data and first high dynamic range (HDR) image data, a plurality of first exposures associated with the first image capturing generate first parameters including times and a plurality of first sensor gains;
generate an adjustment factor based on the first parameters,
an application processor configured to adjust the first parameters based on the adjustment factor to generate second parameters including a plurality of second exposure times and a plurality of second sensor gains; and
An image device comprising an image sensor configured to perform the first image capturing and perform a second image capturing based on the second parameters.



KR1020230008301A 2022-09-15 2023-01-19 Method of operating image sensor and image device performing the same KR20240037810A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/455,047 US20240098375A1 (en) 2022-09-15 2023-08-24 Method of operating image sensor and image device performing the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220116674 2022-09-15
KR20220116674 2022-09-15

Publications (1)

Publication Number Publication Date
KR20240037810A true KR20240037810A (en) 2024-03-22

Family

ID=90481062

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230008301A KR20240037810A (en) 2022-09-15 2023-01-19 Method of operating image sensor and image device performing the same

Country Status (1)

Country Link
KR (1) KR20240037810A (en)

Similar Documents

Publication Publication Date Title
US11159758B2 (en) Image processing device and mobile computing device having the same
US11917234B2 (en) Display device configured as an illumination source
US10992878B2 (en) Method of obtaining wide dynamic range image and image pickup device performing the same
KR102480600B1 (en) Method for low-light image quality enhancement of image processing devices and method of operating an image processing system for performing the method
TWI433533B (en) Image capturing device and image synthesis method thereof
KR102273656B1 (en) Noise level control device of wide dynanamic range image, and image processing system including the same
CN110266954B (en) Image processing method, image processing device, storage medium and electronic equipment
KR20200145654A (en) Image sensor, pixel array and operation method of the image sensor
US20230262345A1 (en) Imaging system for generating high dynamic range image
KR20150124381A (en) Image processing device and mobile computing device having same
KR20210009255A (en) Image sensor and image processing system comprising thereof
US20230164426A1 (en) Under-display camera systems and methods
US20200412934A1 (en) Signal processing apparatus and signal processing method
US11317063B2 (en) Calibration module of image sensor, image sensor and method of calibrating crosstalk in image sensor
CN113660425A (en) Image processing method and device, electronic equipment and readable storage medium
KR102412020B1 (en) Method for controlling parameter of image sensor
US20230164460A1 (en) Image sensor
KR20240037810A (en) Method of operating image sensor and image device performing the same
US11044411B2 (en) Imaging element and imaging apparatus
US20240098375A1 (en) Method of operating image sensor and image device performing the same
TW201518852A (en) Image processing device and exposure control method
KR20220156242A (en) Image Processing Device
KR20200133167A (en) Imaging system for generating high dynamic range image
TWI635748B (en) Image sensing method and device thereof
US20240155245A1 (en) Ambient light sensing using image sensor