KR20190051371A - Camera module including filter array of complementary colors and electronic device including the camera module - Google Patents

Camera module including filter array of complementary colors and electronic device including the camera module Download PDF

Info

Publication number
KR20190051371A
KR20190051371A KR1020170146917A KR20170146917A KR20190051371A KR 20190051371 A KR20190051371 A KR 20190051371A KR 1020170146917 A KR1020170146917 A KR 1020170146917A KR 20170146917 A KR20170146917 A KR 20170146917A KR 20190051371 A KR20190051371 A KR 20190051371A
Authority
KR
South Korea
Prior art keywords
data
photodiode
filter
region
image
Prior art date
Application number
KR1020170146917A
Other languages
Korean (ko)
Other versions
KR102412278B1 (en
Inventor
장순근
김일도
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170146917A priority Critical patent/KR102412278B1/en
Priority to US16/759,246 priority patent/US11558587B2/en
Priority to PCT/KR2018/008488 priority patent/WO2019088407A1/en
Publication of KR20190051371A publication Critical patent/KR20190051371A/en
Application granted granted Critical
Publication of KR102412278B1 publication Critical patent/KR102412278B1/en

Links

Images

Classifications

    • H04N5/2254
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/28Interference filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Studio Devices (AREA)

Abstract

According to various embodiments of the present invention, a camera module comprises: a lens module including at least one lens; and an image sensor module coupled to the lens module. The image sensor module includes: a micro lens; at least one photo diode; and a filter array arranged between the micro lens and the at least one photo diode and including a first filter capable of passing light in a first designated band and a second filter capable of passing light in a second designated band corresponding to a complementary color to a color corresponding to the first designated band. Besides, various embodiments are possible.

Description

보색관계의 필터 어레이를 포함하는 카메라 모듈 및 그를 포함하는 전자 장치{CAMERA MODULE INCLUDING FILTER ARRAY OF COMPLEMENTARY COLORS AND ELECTRONIC DEVICE INCLUDING THE CAMERA MODULE}[0001] CAMERA MODULE INCLUDING FILTER ARRAY OF COMPLEMENTARY COLORS AND ELECTRONIC DEVICE INCLUDING THE CAMERA MODULE [0002]

본 실시예는 카메라 모듈에 관한 것이며, 보다 상세하게는 이미지 신호를 감지하는 카메라 모듈과 상기 카메라 모듈을 포함하는 전자 장치 및 상기 카메라 모듈 및/또는 전자 장치의 이미지 데이터 생성 방법에 관한 것이다.The present invention relates to a camera module, and more particularly, to a camera module for sensing an image signal, an electronic device including the camera module, and a method for generating image data of the camera module and / or the electronic device.

카메라 모듈은 이미지 센서의 단위 픽셀들을 사용하여 입사광을 감지하여 입사광에 대응하는 아날로그 신호를 생성하고, 아날로그 신호를 디지털 신호로 변환하여 외부 객체에 대한 이미지를 생성할 수 있다. 최근에는 스마트폰, 태블릿 PC 등 휴대용 전자 장치(이하, 전자 장치)의 기능이 다양화 됨에 따라, 전자 장치가 카메라 모듈을 구비하게 되었으며, 전자 장치의 카메라 모듈을 이용해 다양한 기능을 수행할 수 있다.The camera module senses incident light using unit pixels of the image sensor to generate an analog signal corresponding to the incident light and convert the analog signal into a digital signal to generate an image for an external object. 2. Description of the Related Art Recently, as functions of portable electronic devices (hereinafter, electronic devices) such as smart phones and tablet PCs have diversified, electronic devices have been provided with camera modules and various functions can be performed using camera modules of electronic devices.

카메라 장치(또는 카메라 모듈을 구비한 전자 장치)가 보다 정확한 이미지를 센싱하기 위해, 이미지 센서의 감도를 향상 시킬 필요가 있다. 여기서, 이미지 센서의 감도는 이미지 센서의 노출 시간 대비 이미지 센서에서 센싱되는 광자(photon)의 수로 정의될 수 있다. In order for a camera device (or an electronic device having a camera module) to sense a more accurate image, it is necessary to improve the sensitivity of the image sensor. Here, the sensitivity of the image sensor can be defined as the number of photons sensed by the image sensor compared to the exposure time of the image sensor.

종래 기술에 따르면, 이미지 센서의 감도를 향상 시키기 위한 다양한 방법이 존재하나, 종래 기술들은 과도한 계산량으로 인해 처리 속도가 늦어지는 문제, 해상도가 낮아지거나 단위 픽셀의 크기(예: 픽셀 피치)가 증가하는 문제가 있다.According to the prior art, there are various methods for improving the sensitivity of the image sensor. However, the conventional techniques have problems in that the processing speed is slowed due to an excessive amount of calculation, the resolution is low, or the size of a unit pixel (e.g., pixel pitch) there is a problem.

본 발명의 다양한 실시예들은 이미지 센서의 감도를 향상 시키고, 적은 계산량으로 이미지 처리가 가능한 카메라 모듈 및 전자 장치를 제공함에 그 목적이 있다.It is an object of the present invention to provide a camera module and an electronic device capable of improving the sensitivity of an image sensor and processing an image with a small amount of calculation.

본 발명의 다양한 실시예에 따른 카메라 모듈은, 적어도 하나의 렌즈를 포함하는 렌즈 모듈 및 상기 렌즈 모듈과 결합된 이미지 센서 모듈을 포함하고, 상기 이미지 센서 모듈은, 마이크로 렌즈, 적어도 하나의 포토 다이오드 및 제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함하는 필터 어레이가 상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치될 수 있다.A camera module according to various embodiments of the present invention includes a lens module including at least one lens and an image sensor module coupled with the lens module, the image sensor module including a micro lens, at least one photodiode, A first filter capable of passing light in a first designated band and a second filter capable of passing light in a second designated band corresponding to a color corresponding to the first designated band and a different color having a complementary color relationship A filter array may be disposed between the microlens and the at least one photodiode.

본 발명의 다양한 실시예에 따른 전자 장치는, 카메라 모듈 및 이미지 시그널 프로세서를 포함하며, 상기 카메라 모듈은, 마이크로 렌즈, 상기 마이크로 렌즈를 통과한 빛을 전기적 신호로 변환할 수 있는 적어도 하나의 포토 다이오드 및 상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치되고, 제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함하는 필터 어레이를 포함하며, 상기 이미지 시그널 프로세서는 상기 적어도 하나의 포토 다이오드에서 출력되는 데이터에 기반하여 이미지 데이터를 생성하도록 설정될 수 있다.An electronic device according to various embodiments of the present invention includes a camera module and an image signal processor, wherein the camera module includes a microlens, at least one photodiode capable of converting light passing through the microlens into an electrical signal, And a first filter disposed between the microlens and the at least one photodiode and capable of passing light in a first designated band and a second filter disposed in the second band corresponding to another color having a complementary color with a color corresponding to the first designated band And a second filter capable of passing light in a second designated band, the image signal processor being configured to generate image data based on data output from the at least one photodiode .

본 발명의 다양한 실시예에 따른, 카메라 모듈의 이미지 데이터 생성 방법은, 상기 카메라 모듈은 마이크로 렌즈와, 상기 마이크로 렌즈와 대응되도록 배치되는 적어도 하나의 포토 다이오드 및 상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치되는 필터 어레이를 포함하며, 상기 방법은, 상기 적어도 하나의 포토 다이오드의 제1영역에서 감지된 빛에 기초하여 제1데이터를 생성하는 동작, 상기 적어도 하나의 포토 다이오드의 제2영역에서 감지된 빛에 기초하여 제2데이터를 생성하는 동작, 상기 제1데이터 및 상기 제2데이터에 기초하여 이미지 데이터를 생성하는 동작을 포함하며, 상기 제1데이터의 색상과 상기 제2데이터의 색상은 서로 보색 관계일 수 있다.According to various embodiments of the present invention, there is provided a method of generating image data of a camera module, the camera module comprising: a microlens; at least one photodiode arranged to correspond to the microlens; and at least one photodiode The method comprising: generating first data based on light sensed in a first region of the at least one photodiode, generating a second data in a second region of the at least one photodiode Generating second data based on the sensed light; and generating image data based on the first data and the second data, wherein the color of the first data and the color of the second data are They can be complementary to each other.

본 발명의 다양한 실시예에 따르면, 이미지 센서의 감도를 향상 시키고, 적은 계산량으로 이미지 처리가 가능한 카메라 모듈 및 전자 장치를 제공할 수 있으며, 특히, 기존 카메라 시스템의 구성을 일부만 변화하여 상기와 같은 효과를 제공할 수 있다.According to various embodiments of the present invention, it is possible to provide a camera module and an electronic device capable of improving the sensitivity of an image sensor and processing an image with a small calculation amount. Particularly, Can be provided.

도 1은 다양한 실시예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 다양한 실시예에 따른 카메라 모듈의 블록도이다.
도 3은 다양한 실시예에 따른 단위 픽셀을 도시한 것이다.
도 4는 다양한 실시예에 따른 렌즈 모듈, 마이크로 렌즈 및 포토 다이오드를 도시한 것이다.
도 5는 다양한 실시예에 따른 플로팅 확산 영역에 의한 포토 다이오드의 분할 영역을 도시한 것이다.
도 6a 내지 6c는 다양한 실시예에 따라 이미지 데이터를 생성하는 방법을 도시한 것이다.
도 7은 다양한 실시예에 따른 이미지 데이터의 파장 범위를 도시한 것이다.
도 8은 다양한 실시예에 따른 플로팅 확산 영역에 의한 포토 다이오드의 분할 영역을 도시한 것이다.
도 9는 다양한 실시예에 따른 플로팅 확산 영역에 의한 포토 다이오드의 분할 영역을 도시한 것이다.
도 10은 다양한 실시예에 따른 전자 장치의 블록도이다.
도 11은 다양한 실시예에 따른 전자 장치의 블록도이다.
도 12는 다양한 실시예에 따른 이미지 데이터 생성 방법의 흐름도이다.
도 13은 다양한 실시예에 따른 이미지 데이터 생성 방법의 흐름도이다.
1 is a block diagram of an electronic device in a network environment in accordance with various embodiments.
2 is a block diagram of a camera module according to various embodiments.
Figure 3 illustrates a unit pixel according to various embodiments.
Figure 4 illustrates a lens module, a microlens, and a photodiode according to various embodiments.
FIG. 5 illustrates a segmented region of a photodiode by a floating diffusion region according to various embodiments.
Figures 6A-6C illustrate a method for generating image data in accordance with various embodiments.
Figure 7 shows the wavelength range of image data according to various embodiments.
Figure 8 illustrates a segmented region of a photodiode by a floating diffusion region according to various embodiments.
Figure 9 shows a segmented area of a photodiode by a floating diffusion region according to various embodiments.
10 is a block diagram of an electronic device according to various embodiments.
11 is a block diagram of an electronic device according to various embodiments.
12 is a flowchart of a method of generating image data according to various embodiments.
13 is a flowchart of a method of generating image data according to various embodiments.

도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 및 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 예를 들면, 표시 장치(160)(예: 디스플레이)에 임베디드된 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.1 is a block diagram of an electronic device 101 in a network environment 100, in accordance with various embodiments. 1, an electronic device 101 in a network environment 100 communicates with an electronic device 102 via a first network 198 (e.g., near-field wireless communication) or a second network 199 (E. G., Remote wireless communication). ≪ / RTI > According to one embodiment, the electronic device 101 is capable of communicating with the electronic device 104 through the server 108. According to one embodiment, the electronic device 101 includes a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, a sensor module 176, an interface 177, a haptic module 179, a camera module 180, a power management module 188, a battery 189, a communication module 190, a subscriber identity module 196, and an antenna module 197 ). In some embodiments, at least one (e.g., display 160 or camera module 180) of these components may be omitted from the electronic device 101, or other components may be added. In some embodiments, some components, such as, for example, a sensor module 176 (e.g., a fingerprint sensor, an iris sensor, or an illuminance sensor) embedded in a display device 160 Can be integrated.

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 구동하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(123)는 메인 프로세서(121)와 별개로 또는 임베디드되어 운영될 수 있다.Processor 120 may be configured to operate at least one other component (e.g., hardware or software component) of electronic device 101 connected to processor 120 by driving software, e.g., And can perform various data processing and arithmetic operations. Processor 120 loads and processes commands or data received from other components (e.g., sensor module 176 or communication module 190) into volatile memory 132 and processes the resulting data into nonvolatile memory 134. [ Lt; / RTI > According to one embodiment, the processor 120 may operate in conjunction with a main processor 121 (e.g., a central processing unit or an application processor) and, independently, or additionally or alternatively, Or a co-processor 123 (e.g., a graphics processing unit, an image signal processor, a sensor hub processor, or a communications processor) specific to the designated function. Here, the coprocessor 123 may be operated separately from or embedded in the main processor 121.

이런 경우, 보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부 구성 요소로서 구현될 수 있다. 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.  In such a case, the coprocessor 123 may be used in place of the main processor 121, for example, while the main processor 121 is in an inactive (e.g., sleep) state, At least one component (e.g., display 160, sensor module 176, or communications module 176) of the components of electronic device 101 (e.g., 190) associated with the function or states. According to one embodiment, the coprocessor 123 (e.g., an image signal processor or communications processor) is implemented as a component of some other functionally related component (e.g., camera module 180 or communication module 190) . Memory 130 may store various data used by at least one component (e.g., processor 120 or sensor module 176) of electronic device 101, e.g., software (e.g., program 140) ), And input data or output data for the associated command. The memory 130 may include a volatile memory 132 or a non-volatile memory 134.

프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be software stored in the memory 130 and may include, for example, an operating system 142, a middleware 144,

입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다. The input device 150 is an apparatus for receiving a command or data to be used for a component (e.g., processor 120) of the electronic device 101 from the outside (e.g., a user) of the electronic device 101, For example, a microphone, a mouse, or a keyboard may be included.

음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일실시예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.The sound output device 155 is a device for outputting a sound signal to the outside of the electronic device 101. For example, the sound output device 155 may be a speaker for general use such as a multimedia reproduction or a sound reproduction, . According to one embodiment, the receiver may be formed integrally or separately with the speaker.

표시 장치(160)는 전자 장치(101)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다. Display device 160 may be an apparatus for visually providing information to a user of electronic device 101 and may include, for example, a display, a hologram device, or a projector and control circuitry for controlling the projector. According to one embodiment, the display device 160 may include a touch sensor or a pressure sensor capable of measuring the intensity of the pressure on the touch.

오디오 모듈(170)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150) 를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The audio module 170 is capable of bi-directionally converting sound and electrical signals. According to one embodiment, the audio module 170 may acquire sound through the input device 150, or may be connected to the audio output device 155, or to an external electronic device (e.g., Electronic device 102 (e.g., a speaker or headphone)).

센서 모듈(176)은 전자 장치(101)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 may generate an electrical signal or data value corresponding to an internal operating state (e.g., power or temperature) of the electronic device 101, or an external environmental condition. The sensor module 176 may be a gesture sensor, a gyro sensor, a barometric sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared sensor, Or an illuminance sensor.

인터페이스(177)는 외부 전자 장치(예: 전자 장치(102))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support a designated protocol that may be wired or wirelessly connected to an external electronic device (e.g., the electronic device 102). According to one embodiment, the interface 177 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(178)는 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may be a connector such as an HDMI connector, a USB connector, an SD card connector, or an audio connector that can physically connect the electronic device 101 and an external electronic device (e.g., the electronic device 102) (E.g., a headphone connector).

햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 may convert electrical signals into mechanical stimuli (e.g., vibrations or movements) or electrical stimuli that the user may perceive through tactile or kinesthetic sensations. The haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.The camera module 180 can capture a still image and a moving image. According to one embodiment, the camera module 180 may include one or more lenses, an image sensor, an image signal processor, or a flash.

전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.The power management module 188 is a module for managing the power supplied to the electronic device 101, and may be configured as at least a part of, for example, a power management integrated circuit (PMIC).

배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 is an apparatus for supplying power to at least one component of the electronic device 101 and may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(190)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다. The communication module 190 is responsible for establishing a wired or wireless communication channel between the electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108) Lt; / RTI > Communication module 190 may include one or more communication processors that support wired communication or wireless communication, operating independently of processor 120 (e.g., an application processor). According to one embodiment, the communication module 190 may include a wireless communication module 192 (e.g., a cellular communication module, a short range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (E.g., a local area network (LAN) communication module, or a power line communication module), and the corresponding communication module may be used to communicate with a first network 198 (e.g., Bluetooth, WiFi direct, Communication network) or a second network 199 (e.g., a telecommunications network such as a cellular network, the Internet, or a computer network (e.g., a LAN or WAN)). The various types of communication modules 190 described above may be implemented as a single chip or may be implemented as separate chips.

일실시예에 따르면, 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(101)를 구별 및 인증할 수 있다. According to one embodiment, the wireless communication module 192 may use the user information stored in the subscriber identification module 196 to identify and authenticate the electronic device 101 within the communication network.

안테나 모듈(197)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일시예에 따르면, 통신 모듈(190)(예: 무선 통신 모듈(192))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다. The antenna module 197 may include one or more antennas for externally transmitting or receiving signals or power. According to one example, the communication module 190 (e.g., the wireless communication module 192) may transmit signals to or receive signals from an external electronic device via an antenna suitable for the communication method.

상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.Some of the components are connected to each other via a communication method (e.g., bus, general purpose input / output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI) (Such as commands or data) can be exchanged between each other.

일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. According to one embodiment, the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 via the server 108 connected to the second network 199. Each of the electronic devices 102 and 104 may be the same or a different kind of device as the electronic device 101. [ According to one embodiment, all or a portion of the operations performed in the electronic device 101 may be performed in another or a plurality of external electronic devices. According to one embodiment, in the event that the electronic device 101 has to perform some function or service automatically or upon request, the electronic device 101 may be capable of executing the function or service itself, And may request the external electronic device to perform at least some functions associated therewith. The external electronic device receiving the request can execute the requested function or additional function and transmit the result to the electronic device 101. [ The electronic device 101 can directly or additionally process the received result to provide the requested function or service. For this purpose, for example, cloud computing, distributed computing, or client-server computing technology may be used.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic device according to the various embodiments disclosed herein can be various types of devices. The electronic device can include, for example, at least one of a portable communication device (e.g., a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. The electronic device according to the embodiment of the present document is not limited to the above-described devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.It should be understood that the various embodiments of the present document and the terms used therein are not intended to limit the techniques described herein to specific embodiments, but rather to include various modifications, equivalents, and / or alternatives of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar components. The singular expressions may include plural expressions unless the context clearly dictates otherwise. In this document, the expressions "A or B," "at least one of A and / or B," "A, B or C," or "at least one of A, B, and / Possible combinations. Expressions such as "first", "second", "first" or "second" may be used to qualify the components, regardless of order or importance, and to distinguish one component from another And does not limit the constituent elements. When it is mentioned that some (e.g., first) component is "(functionally or communicatively) connected" or "connected" to another (second) component, May be connected directly to the component, or may be connected through another component (e.g., a third component).

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다. As used herein, the term " module " includes units comprised of hardware, software, or firmware and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits. A module may be an integrally constructed component or a minimum unit or part thereof that performs one or more functions. For example, the module may be configured as an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(140))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치(예: 전자 장치(101))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Various embodiments of the present document may include instructions stored on a machine-readable storage medium (e.g., internal memory 136 or external memory 138) readable by a machine (e.g., a computer) Software (e.g., program 140). The device may include an electronic device (e.g., electronic device 101) in accordance with the disclosed embodiments as an apparatus capable of calling stored instructions from the storage medium and operating according to the called instructions. When the instruction is executed by a processor (e.g., processor 120), the processor may perform the function corresponding to the instruction, either directly or using other components under the control of the processor. The instructions may include code generated or executed by the compiler or interpreter. A device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' means that the storage medium does not include a signal and is tangible, but does not distinguish whether data is stored semi-permanently or temporarily on the storage medium.

일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to a temporal example, the method according to various embodiments disclosed herein may be provided in a computer program product. A computer program product can be traded between a seller and a buyer as a product. A computer program product may be distributed in the form of a machine readable storage medium (eg, compact disc read only memory (CD-ROM)) or distributed online through an application store (eg PlayStore ™). In the case of on-line distribution, at least a portion of the computer program product may be temporarily stored, or temporarily created, on a storage medium such as a manufacturer's server, a server of an application store, or a memory of a relay server.

다양한 실시예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each of the components (e.g., modules or programs) according to various embodiments may be comprised of a single entity or a plurality of entities, and some of the subcomponents described above may be omitted, or other subcomponents May be further included in various embodiments. Alternatively or additionally, some components (e.g., modules or programs) may be integrated into a single entity to perform the same or similar functions performed by each respective component prior to integration. Operations performed by a module, program, or other component, in accordance with various embodiments, may be performed sequentially, in parallel, repetitively, or heuristically, or at least some operations may be performed in a different order, .

도 2는, 다양한 실시예들에 따른, 카메라 모듈(200)의 블럭도)이다. 2 is a block diagram of camera module 200, in accordance with various embodiments.

도 2를 참조하면, 카메라 모듈(200)은 렌즈 모듈(210), 플래쉬(220), 이미지 센서 모듈(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(265)를 포함할 수 있으며, 구체적인 실시 형태에 따라 도시된 구성 중 적어도 일부가 생략 또는 치환되더라도 본 발명의 다양한 실시예들을 구현할 수 있다. 카메라 모듈(200)은 전자 장치(예: 도 1의 전자 장치(101))에 마련되어, 획득한 이미지 데이터를 프로세서(예: 도 1의 프로세서(120)) 등 전자 장치에 제공할 수 있다.2, the camera module 200 includes a lens module 210, a flash 220, an image sensor module 230, an image stabilizer 240, a memory 250 (e.g., a buffer memory), or an image signal Processor 265, and various embodiments of the invention may be implemented, even if at least some of the depicted arrangements are omitted or substituted in accordance with specific embodiments. Camera module 200 may be provided in an electronic device (e.g., electronic device 101 of FIG. 1) to provide the acquired image data to an electronic device such as a processor (e.g., processor 120 of FIG. 1).

다양한 실시예에 따르면, 렌즈 모듈(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있으며, 빛을 굴절 시켜 이미지 센서 모듈(230)로 입사되도록 할 수 있다. 렌즈 모듈(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일실시예에 따르면, 카메라 모듈(200)은 복수의 렌즈 모듈(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(200)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)일 수 있다. 복수의 렌즈 모듈(210)들은 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 렌즈 어셈블리와 적어도 하나의 다른 렌즈 속성을 가질 수 있다. 렌즈 모듈(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. According to various embodiments, the lens module 210 may collect light emitted from a subject, which is an object of image capturing, and may refract light to be incident on the image sensor module 230. The lens module 210 may include one or more lenses. According to one embodiment, the camera module 200 may include a plurality of lens modules 210. In this case, the camera module 200 may be, for example, a dual camera, a 360 degree camera, or a spherical camera. The plurality of lens modules 210 may have the same lens properties (e.g., angle of view, focal length, autofocus, f number, or optical zoom), or at least one lens assembly may have at least one lens lens assembly It can have one other lens attribute. The lens module 210 may include, for example, a wide-angle lens or a telephoto lens.

다양한 실시예에 따르면, 플래쉬(220)는 피사체로부터 방출되는 빛을 강화하기 위하여 사용되는 광원을 방출할 수 있다. 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다.According to various embodiments, the flash 220 may emit a light source that is used to enhance the light emitted from the subject. Flash 220 may include one or more light emitting diodes (e.g., red-green-blue (RGB) LEDs, white LEDs, infrared LEDs, or ultraviolet LEDs), or xenon lamps.

다양한 실시예에 따르면, 카메라 모듈(200)은 렌즈 모듈(210)의 전면, 후면 또는 그 사이에 마련되어, 렌즈 모듈(210)로 입사되는 빛을 통과 또는 차단 시키는 기능을 수행하는 셔터(미도시)를 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(200)은 물리적인 셔터를 구비하지 않고, 이미지 센서 모듈(230)의 센싱 값을 차단함으로써 셔터 기능을 구현할 수 있는 전자식 셔터를 포함할 수도 있다.According to various embodiments, the camera module 200 may include a shutter (not shown) provided on the front surface, the rear surface, or between the front and rear surfaces of the lens module 210 and performing a function of passing or blocking light incident on the lens module 210, . ≪ / RTI > According to one embodiment, the camera module 200 may include an electronic shutter, which does not have a physical shutter, but can implement a shutter function by blocking the sensing value of the image sensor module 230.

다양한 실시예에 따르면, 이미지 센서 모듈(230)는 피사체로부터 렌즈 모듈(210) 를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일실시예에 따르면, 이미지 센서 모듈(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서 모듈(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서로 구현될 수 있다.According to various embodiments, the image sensor module 230 may acquire an image corresponding to the subject by converting the light transmitted from the subject through the lens module 210 into an electrical signal. According to one embodiment, the image sensor module 230 may include a selected one of the image sensors of different properties, such as, for example, an RGB sensor, a black and white (BW) sensor, an IR sensor, A plurality of image sensors having the same property, or a plurality of image sensors having different properties. Each image sensor included in the image sensor module 230 may be implemented by, for example, a charged coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor.

다양한 실시예에 따르면, 이미지 센서 모듈(230)은 픽셀들을 구성하는 복수의 포토 다이오드(photodiode)(234)를 포함할 수 있다. 복수의 포토 다이오드(234)들은 광전 변환을 수행하는 동일한 종류의 소자로 마련될 수 있다. 다양한 실시예에 따르면, 복수의 포토 다이오드(234)가 하나의 단위 픽셀을 구성할 수 있는데, 예를 들어, 4개의 포토 다이오드가 하나의 단위 픽셀을 구성할 수 있으며, 이 경우 각각의 포토 다이오드는 서브 픽셀을 구성할 수 있다. 포토 다이오드들이 단위 픽셀을 구성하는 실시예에 대해서는 도 3을 통해 보다 상세히 설명하기로 한다.According to various embodiments, the image sensor module 230 may include a plurality of photodiodes 234 that make up the pixels. The plurality of photodiodes 234 may be provided with the same type of elements that perform photoelectric conversion. According to various embodiments, a plurality of photodiodes 234 may constitute one unit pixel, for example, four photodiodes may constitute one unit pixel, in which case each photodiode Subpixels can be constructed. An embodiment in which the photodiodes constitute unit pixels will be described in more detail with reference to FIG.

다양한 실시예에 따르면, 포토 다이오드(234)는 복수의 영역(예: 제1영역 및 제2영역)으로 구분될 수 있으며, 하나의 영역으로 입력되는 빛은 인접한 다른 영역에는 감지되지 않을 수 있다.According to various embodiments, the photodiode 234 may be divided into a plurality of regions (e.g., a first region and a second region), and light input into one region may not be detected in another region adjacent thereto.

일 실시예에 따르면, 포토 다이오드(234)는 플로팅 확산 영역이 활성화 됨에 따라 제1영역 및 제2영역으로 구분될 수 있다. 예를 들어, 포토 다이오드의 가운데에서 세로 방향으로 플로팅 확산 영역이 형성될 수 있다. 플로팅 확산 영역은 물리적으로 포토 다이오드(234)를 구분하는 것이 아닌 전기 포텐셜(electric potential)에 의해 구분된 양 영역에 빛을 차단하기 위한 것이다. 각각의 플로팅 확산 영역은 트랜지스터(미도시)와 연결되고, 이미지 센서 IC(260)(또는 전자 장치의 프로세서)는 트랜지스터에 공급되는 전압을 제어하여 플로팅 확산 영역을 활성화 할 수 있다. 플로팅 확산 영역이 활성화 되는 경우, 포토 다이오드(234)의 제1영역 및 제2영역 상호 간에는 빛의 통과가 차단되고, 그에 따라 제1영역과 제2영역에서 감지되는 빛의 세기 및/또는 값이 각각 독립적일 수 있다. 플로팅 확산 영역은 이미지 센서 IC(260) 또는 전자 장치의 프로세서의 제어 신호에 따라 활성화 또는 비활성화 될 수 있다. 플로팅 확산 영역이 활성화 되는 경우, 포토 다이오드(234)는 제1영역에서 감지한 빛에 대응하는 제1데이터 및 제2영역에서 감지한 빛에 대응하는 제2데이터를 구분하여 리드아웃 할 수 있다.According to one embodiment, the photodiode 234 may be divided into a first region and a second region as the floating diffusion region is activated. For example, a floating diffusion region may be formed in the vertical direction in the center of the photodiode. The floating diffusion region physically isolates the photodiode 234 from the light, but blocks light in both regions separated by an electric potential. Each floating diffusion region is connected to a transistor (not shown), and the image sensor IC 260 (or processor of the electronic device) can control the voltage supplied to the transistor to activate the floating diffusion region. When the floating diffusion region is activated, the passage of light is blocked between the first region and the second region of the photodiode 234, so that the intensity and / or the value of the light sensed in the first and second regions And may be independent of each other. The floating diffusion region may be activated or deactivated according to the control signal of the image sensor IC 260 or the processor of the electronic device. When the floating diffusion region is activated, the photodiode 234 can distinguish the first data corresponding to the light sensed in the first region and the second data corresponding to the light sensed in the second region, and read out the separated data.

다른 일 실시예에 따르면, 포토 다이오드(234)는 금속막을 통해 제1영역 및 제2영역으로 구분될 수 있다. 여기서, 금속막은 텅스텐 등 빛의 통과를 차단할 수 있는 다양한 금속이 사용될 수 있다. 이 경우에도 포토 다이오드(234)는 제1영역에서 감지한 빛에 대응하는 제1데이터 및 제2영역에서 감지한 빛에 대응하는 제2데이터를 구분하여 리드아웃 할 수 있다. 다른 일 실시예에 따르면, 포토 다이오드(234)는 제1영역에 대응하는 포토 다이오드 및 제2영역에 대응하는 포토 다이오드, 즉 2개의 포토 다이오드를 포함할 수 있다. 이 경우, 하나의 마이크로 렌즈(232) 아래에 2개의 포토 다이오드가 배치된 구조로써, 각 포토 다이오드에서 제1데이터 및 제2데이터를 리드아웃 할 수 있다. 본 실시예에서도 포토 다이오드(234)를 구성하는 2개의 포토 다이오드 사이에 금속막이 형성될 수 있다.According to another embodiment, the photodiode 234 may be divided into a first region and a second region through a metal film. Here, the metal film may be made of various metals capable of blocking the passage of light such as tungsten. Also in this case, the photodiode 234 can distinguish the first data corresponding to the light sensed in the first area and the second data corresponding to the light sensed in the second area, and read out the light. According to another embodiment, the photodiode 234 may include a photodiode corresponding to the first region and a photodiode corresponding to the second region, i.e., two photodiodes. In this case, it is possible to read out the first data and the second data from each photodiode with a structure in which two photodiodes are disposed under one microlens 232. Also in this embodiment, a metal film may be formed between the two photodiodes constituting the photodiode 234.

다양한 실시예에 따르면, 각각의 포토 다이오드(234)에 대응되게 마이크로 렌즈(micro lens)(232)가 배치될 수 있다. 마이크로 렌즈(232)는 렌즈 모듈(210)을 통과한 빛이 대응되는 포토 다이오드(234)로 입력되도록 빛을 굴절하는 기능을 수행할 수 있다.According to various embodiments, a micro lens 232 may be disposed corresponding to each photodiode 234. The microlens 232 may function to refract light such that the light passing through the lens module 210 is input to the corresponding photodiode 234.

다양한 실시예에 따르면, 마이크로 렌즈(232)와 포토 다이오드(234) 사이에는 필터 어레이(filter array)(236)가 마련될 수 있다. 하나의 포토 다이오드(234)를 기준으로 필터 어레이(236)는 서로 다른 대역의 빛을 통과 시키는 제1필터 및 제2필터를 포함할 수 있다. 다양한 실시예에 따르면, 제1필터는 제1지정된 대역의 빛을 통과 시킬 수 있고, 제2필터는 제1지정된 대역에 대응하는 색상과 보색 관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있다. 예를 들어, 4개의 포토 다이오드(234)가 단위 픽셀(예: R 픽셀, 2개의 G 픽셀 및 B 픽셀)을 구성하는 경우, 하나의 포토 다이오드에는 가시광선 대역 중 R(red) 대역의 빛을 통과 시키는 제1필터와, R과 보색 관계에 있는 C(cyan) 대역의 빛을 통과 시키는 제2필터가 대응되게 마련되고, 2개의 포토 다이오드에는 G(green) 대역의 빛을 통과 시키는 제3필터(또는 제2 및 제3포토 다이오드의 제1필터), G와 보색 관계에 있는 M(magenta) 대역의 빛을 통과 시키는 제4필터(또는 제2 및 제3포토 다이오드의 제2필터)가 대응되게 마련되고, 나머지 하나의 포토 다이오드에는 B(blue) 대역의 빛을 통과 시키는 제5필터(또는 제4포토 다이오드의 제1필터)와, B와 보색 관계에 있는 Y(yellow) 대역의 빛을 통과 시키는 제6필터(또는 제4포토 다이오드의 제2필터)가 대응되게 마련될 수 있다. 이렇게 함으로써 이미지 센서 모듈(230)은 포토 다이오드를 통해 제 1 필터를 통과한 원색 신호와 제 2 필터를 통과한 보색 신호의 합으로 흑백 이미지 센서를 이용하지 않고도 상기 흑백 이미지 센서에서 얻을 수 있는 휘도 신호에 대응하는 휘도 데이터를 획득할 수 있다.According to various embodiments, a filter array 236 may be provided between the microlens 232 and the photodiode 234. The filter array 236, based on one photodiode 234, may include a first filter and a second filter for passing light of different bands. According to various embodiments, the first filter may pass the light of the first designated band, and the second filter may transmit the light of the second specified band corresponding to another color having a complementary color with the color corresponding to the first designated band . For example, when four photodiodes 234 constitute unit pixels (for example, R pixels, two G pixels, and B pixels), one of the photodiodes is irradiated with light of R (red) And a second filter for passing light in a C (cyan) band in a complementary color relationship with R are provided so as to correspond to the first filter and a third filter (Or a first filter of the second and third photodiodes), a fourth filter (or a second filter of the second and third photodiodes) for passing light in the M (magenta) band in a complementary color relationship with G (Or a first filter of the fourth photodiode) for passing light of the B (blue) band and a light of Y (yellow) band of a complementary color to the B are passed through the other photodiode (Or the second filter of the fourth photodiode) passing through the first filter may be correspondingly provided. By doing so, the image sensor module 230 can obtain the luminance signal obtained from the monochrome image sensor without using the monochrome image sensor as the sum of the primary color signal passing through the first filter and the complementary color signal passing through the second filter through the photodiode It is possible to obtain luminance data corresponding to the luminance data.

다양한 실시예에 따르면, 필터 어레이(236)는 제1필터 및 제2필터와, 상기 제1지정된 대역 및 제2지정된 대역보다 높은 제3지정된 대역(예: UV(ultra-violet ray) 대역)의 빛을 통과 시키는 제3필터 및 상기 제1지정된 대역 및 제2지정된 대역보다 낮은 제4지정된 대역(예: IR(infra-red ray) 대역)의 빛을 통과 시키는 제4필터를 포함할 수 있다. 본 실시예에서 포토 다이오드(234)는 플로팅 확산 영역 또는 차단막을 통해 4개의 영역으로 구분될 수 있으며, 4개의 영역 각각에 대응되도록 상기 필터 어레이의 제1필터 내지 제4필터가 배치될 수 있다. 본 실시예는 도 8 및 도 9를 통해 보다 상세히 설명하기로 한다.According to various embodiments, the filter array 236 includes a first filter and a second filter, and a third specified band (e.g., ultra-violet ray) band higher than the first designated band and the second specified band A third filter for passing light and a fourth filter for passing light of a fourth designated band (e.g., an infra-red ray band) lower than the first designated band and the second specified band. In this embodiment, the photodiode 234 may be divided into four regions through a floating diffusion region or a shielding film, and the first to fourth filters of the filter array may be arranged to correspond to each of the four regions. This embodiment will be described in more detail with reference to FIGS. 8 and 9. FIG.

다양한 실시예에 따른 마이크로 렌즈(232), 필터 어레이(236) 및 포토 다이오드(234)를 포함하는 이미지 센서 모듈(230)의 구체적인 형태 및 그에 따라 포토 다이오드(234)에서 감지할 수 있는 데이터에 대해서는 도 5a 및 5b를 통해 보다 상세히 설명하기로 한다.The specific shape of the image sensor module 230 including the microlens 232, the filter array 236 and the photodiode 234 according to various embodiments and accordingly the data that can be sensed by the photodiode 234 5A and 5B will be described in more detail.

다양한 실시예에 따르면, 이미지 스태빌라이저(240)는 카메라 모듈(200) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향(예: 이미지 흔들림)을 적어도 일부 보상하기 위하여 렌즈 모듈(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서 모듈(230)를 특정한 방향으로 움직이거나 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 일실시예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있으며, 카메라 모듈(200)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 상기 움직임을 감지할 수 있다.According to various embodiments, the image stabilizer 240 may be configured to generate a negative effect (e.g., image blur) on the image being photographed, in response to movement of the camera module 200 or the electronic device 101 comprising it (E.g., adjust read-out timing, etc.) in at least one lens or image sensor module 230 included in the lens module 210 to compensate, at least in part. According to one embodiment, the image stabilizer 240 may be implemented as an optical image stabilizer, for example, and may include a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module 200 Can be used to detect the motion.

다양한 실시예에 따르면, 메모리(250)는 이미지 센서 모듈(230)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(160)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(265)에 의해 획득되어 처리될 수 있다. 일실시예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.According to various embodiments, the memory 250 may at least temporarily store at least a portion of the image acquired through the image sensor module 230 for subsequent image processing operations. For example, if image acquisition according to the shutter is delayed or a plurality of images are acquired at high speed, the acquired original image (e.g., a high resolution image) is stored in the memory 250, and a corresponding copy An image (e.g., a low resolution image) can be previewed via the display device 160. Thereafter, at least a portion of the original image that was stored in the memory 250 may be acquired and processed by, for example, the image signal processor 265 if the specified condition is satisfied (e.g., user input or system command). According to one embodiment, the memory 250 may be comprised of at least a portion of the memory 130, or a separate memory operated independently thereof.

다양한 실시예에 따르면, 이미지 센서 IC(260)는 카메라 모듈(200)의 각 구성의 제어 및 이미지 처리를 수행하는 구성으로써, 이미지 시그널 프로세서(265)를 포함할 수 있다. According to various embodiments, the image sensor IC 260 may include an image signal processor 265 as a configuration for performing control and image processing of each configuration of the camera module 200.

다양한 실시예에 따르면, 이미지 시그널 프로세서(265)는 이미지 센서 모듈(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 이미지 처리(예: 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening))을 수행할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(265)는 카메라 모듈(200)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서 모듈(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(265)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장 되거나 카메라 모듈(200)의 외부 구성 요소(예: 메모리(130), 표시 장치(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 전달될 수 있다. 일실시예에 따르면, 이미지 시그널 프로세서(265)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(265)에 의해 처리된 이미지들은 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(160)를 통해 표시될 수 있다.According to various embodiments, image signal processor 265 may perform image processing (e.g., depth map generation, three-dimensional modeling, etc.) on an image acquired through image sensor module 230 or an image stored in memory 250 (E.g., noise reduction, resolution adjustment, brightness adjustment, blurring, sharpening, or softening), in addition to or in addition to, The image signal processor 265 may provide control (e.g., exposure time control, or lead-out timing control) to at least one of the components (e.g., image sensor module 230) included in the camera module 200 The image processed by the image signal processor 265 may be stored back in the memory 250 for further processing or may be stored in an external component of the camera module 200, The image signal processor 265 may be coupled to the processor (e. G., The processor 130, the display device 160, the electronic device 102, the electronic device 104, or the server 108) 120, or may be configured as a separate processor running independently of the processor 120. In the case of a separate processor, the images processed by the image signal processor 265 may be provided to the processor 120 Or may be displayed through the display device 160 after additional image processing.

일실시예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 둘 이상의 카메라 모듈들을 포함할 수 있다. 이런 경우, 예를 들면, 적어도 하나의 카메라 모듈은 광각 카메라 또는 전면 카메라이고, 적어도 하나의 다른 카메라 모듈은 망원 카메라 또는 후면 카메라일 수 있다.According to one embodiment, the electronic device 101 may include two or more camera modules each having a different attribute or function. In this case, for example, at least one camera module may be a wide angle camera or a front camera, and at least one other camera module may be a telephoto camera or a rear camera.

다양한 실시예에 따르면, 카메라 모듈(200)은 각 포토 다이오드(234)에서 출력되는 제1데이터 및 제2데이터에 기반하여 이미지 데이터를 생성할 수 있다. 예를 들어, 카메라 모듈(200)은 제1데이터 및 제2데이터를 합산하여 휘도 데이터(예: y 데이터)를 생성하고, 제1데이터에 기초하여 제1색차 데이터(예: U 데이터 또는 Cb 데이터)를 생성하고, 제2데이터에 기초하여 제2색차 데이터(예: V 데이터 또는 Cr 데이터)를 생성할 수 있다. 카메라 모듈(200)은 상기 생성된 휘도 데이터, 제1색차 데이터 및 제2색차 데이터를 합산하여 이미지 데이터를 생성할 수 있다. 카메라 모듈(200)이 제1데이터 및 제2데이터에 기반하여 이미지 데이터를 생성하는 동작에 대해서는, 도 6a 내지 6c를 통해 보다 상세히 후술하기로 한다.According to various embodiments, the camera module 200 may generate image data based on first data and second data output from each photodiode 234. For example, the camera module 200 generates luminance data (e.g., y data) by summing the first data and the second data, and generates first color data (e.g., U data or Cb data ), And generate second color difference data (e.g., V data or Cr data) based on the second data. The camera module 200 may generate the image data by summing the generated luminance data, the first color difference data, and the second color difference data. The operation in which the camera module 200 generates image data based on the first data and the second data will be described later in more detail with reference to FIGS. 6A through 6C.

다양한 실시예에 따르면, 상술한 이미지 데이터 생성 과정은 카메라 모듈(200)의 이미지 센서 IC(260)의 이미지 시그널 프로세서(265)에 의해 수행될 수 있다. 다른 실시예들에 따르면, 이미지 센서 IC(260)는 포토 다이오드(234)에서 출력되는 데이터들을 전자 장치의 프로세서(예: 도 10의 프로세서(1030))에 전송하는 기능만 수행하며, 상술한 이미지 데이터 생성 과정은 전자 장치의 프로세서에 의해 수행될 수 있다. 또 다른 실시예들에 따르면, 이미지 센서 IC(260)는 포토 다이오드(234)에서 출력되는 데이터들을 전자 장치에 마련된 별도의 컴패니언 칩(예: 도 11의 제2프로세서(1150))에 제공하고, 상술한 이미지 데이터 생성 과정은 상기 컴패니언 칩에 의해 수행될 수 있다. 또 다른 실시예들에 따르면, 상술한 이미지 데이터 생성 과정은 카메라 모듈(200)이 탑재되는 전자 장치(예: 도 10의 전자 장치(1000), 도 11의 전자 장치(1100)) 외의 외부 장치(예: 서버)에 의해 수행될 수도 있다. 즉, 본 명세서에서 설명하는 이미지 데이터 생성 과정을 수행하는 이미지 시그널 프로세서에는 제한이 없다. 상술한 실시예에 대해서는 도 10 및 도 11을 통해 보다 상세히 설명하기로 한다.According to various embodiments, the image data generation process described above may be performed by the image signal processor 265 of the image sensor IC 260 of the camera module 200. According to other embodiments, the image sensor IC 260 only functions to transmit the data output from the photodiode 234 to a processor (e.g., processor 1030 of FIG. 10) of an electronic device, The data generation process may be performed by a processor of the electronic device. According to still other embodiments, the image sensor IC 260 provides the data output from the photodiode 234 to a separate companion chip (e. G., The second processor 1150 of FIG. 11) provided in the electronic device, The image data generation process described above may be performed by the companion chip. According to still another embodiment, the image data generation process described above may be performed on an external device other than the electronic device (e.g., the electronic device 1000 of FIG. 10, the electronic device 1100 of FIG. 11) on which the camera module 200 is mounted For example, a server). That is, there is no limitation to the image signal processor that performs the image data generation process described in the present specification. The above-described embodiment will be described in more detail with reference to FIGS. 10 and 11. FIG.

다양한 실시예에 따르면, 카메라 모듈(200)(예: 이미지 센서 IC(260))는 제1데이터 및 제2데이터에 기초하여 이미지 데이터의 화이트 밸런스(white balance)를 조정할 수 있다. 카메라 모듈(200)은 포토 다이오드(234)에서 획득한 데이터의 파장을 중심으로 샘플링하고, 샘플링 된 값에 기초하여 광원의 색 온도를 추정할 수 있다. 다양한 실시예에 따르면, 제1데이터 및 제2데이터는 서로 보색 관계일 수 있으므로(예: 제1데이터는 RGB 데이터, 제2데이터는 CMY 데이터), 카메라 모듈(200)은 총 6개 대역을 동시에 샘플링할 수 있게 되어, 광원의 색 온도 추정 정확도가 향상되고, 그에 따라 보다 정확한 화이트 밸런싱이 가능하다.According to various embodiments, the camera module 200 (e.g., image sensor IC 260) may adjust the white balance of the image data based on the first data and the second data. The camera module 200 can sample the center wavelength of the data obtained by the photodiode 234 and estimate the color temperature of the light source based on the sampled value. According to various embodiments, since the first data and the second data may be complementary to each other (e.g., the first data is RGB data and the second data is CMY data), the camera module 200 can simultaneously output six bands So that the accuracy of estimating the color temperature of the light source is improved, and more accurate white balancing can be performed accordingly.

다양한 실시예에 따르면, 카메라 모듈(200)은 제2데이터(예: CMY 데이터)에 기초하여 셔터를 제어하여 이미지 센서 모듈(230)의 노출 값을 설정할 수 있다. CMY 데이터가 RGB 데이터(예: 제1데이터)보다 고감도이므로, 카메라 모듈(200)은 CMY 데이터의 감도에 맞춰서 노출 값을 설정한 후 RGB 데이터와 CMY 데이터를 합성하여, HDR(high dynamic range) 영상을 생성할 수 있다.According to various embodiments, the camera module 200 can set the exposure value of the image sensor module 230 by controlling the shutter based on the second data (e.g., CMY data). Since the CMY data has higher sensitivity than the RGB data (e.g., the first data), the camera module 200 sets the exposure value in accordance with the sensitivity of the CMY data, and then synthesizes the RGB data and the CMY data to generate a high dynamic range Can be generated.

다양한 실시예에 따르면, 카메라 모듈(200)은 제1데이터(예: RGB 데이터)에 기초하여 셔터를 제어하여 이미지 센서 모듈(230)의 노출 값을 설정할 수 있다. 카메라 모듈(200)은 제1데이터에 따라 노출 값을 결정하고, 제2데이터의 출력이 포화되지 않도록 메모리(250)에 일부 저장하고, 다시 노광하는 구조를 통해서 RGB 데이터와 CMY 데이터를 획득할 수 있다.According to various embodiments, the camera module 200 may set the exposure value of the image sensor module 230 by controlling the shutter based on the first data (e.g., RGB data). The camera module 200 can obtain the RGB data and the CMY data through the structure for determining the exposure value according to the first data, storing the second data in the memory 250 in such a manner that the output of the second data is not saturated, have.

도 3은 다양한 실시예에 따른 단위 픽셀을 도시한 것이다.Figure 3 illustrates a unit pixel according to various embodiments.

도 3은 제1영역 및 제2영역으로 구분되지 않은, 예를 들어, 플로팅 확산 영역이 활성화 되지 않은 경우 또는 포토 다이오드의 사이에 차단막이 형성되지 않은 경우의 단위 픽셀에 대해 도시하고 있다.FIG. 3 shows a unit pixel in a case where the floating diffusion region is not activated, or a case where a blocking film is not formed between the photodiodes, which is not divided into the first region and the second region, for example.

도시된 바와 같이, 이미지 센서 모듈(예: 도 2의 이미지 센서 모듈(230))은 복수의 포토 다이오드(310)(예: 도 2의 포토 다이오드(234))를 포함할 수 있다. 복수의 포토 다이오드(310) 각각에는 마이크로 렌즈(예: 도 2의 마이크로 렌즈(232))가 배치되고, 포토 다이오드와 마이크로 렌즈의 사이에 필터 어레이(예: 도 2의 필터 어레이(236))가 배치될 수 있다. 각각의 포토 다이오드와 필터 어레이가 적어도 하나의 픽셀을 구성할 수 있다. As shown, the image sensor module (e.g., image sensor module 230 of FIG. 2) may include a plurality of photodiodes 310 (e.g., photodiode 234 of FIG. 2). A microlens (e.g., microlens 232 in FIG. 2) is disposed in each of the plurality of photodiodes 310 and a filter array (e.g., filter array 236 in FIG. 2) is disposed between the photodiodes and the microlenses . Each photodiode and filter array can constitute at least one pixel.

도시된 바와 같이, 단위 픽셀은 4개의 포토 다이오드(311, 312, 313, 314)로 구성되며, 각각의 포토 다이오드(311, 312, 313, 314)에 대응되도록 R 대역의 필터, G 대역의 필터, B 대역의 필터가 배치될 수 있다. 이에 따라, 각각의 포토 다이오드(311, 312, 313, 314)는 R 신호, G 신호 또는 B 신호를 출력할 수 있다.As shown in the figure, the unit pixel is composed of four photodiodes 311, 312, 313 and 314, and the R-band filter and the G-band filter corresponding to the respective photodiodes 311, 312, 313 and 314, , And a filter of the B band can be arranged. Accordingly, each of the photodiodes 311, 312, 313, and 314 can output an R signal, a G signal, or a B signal.

도 4는 다양한 실시예에 따른 렌즈 모듈, 마이크로 렌즈 및 포토 다이오드를 도시한 것이다.Figure 4 illustrates a lens module, a microlens, and a photodiode according to various embodiments.

도 4에서 렌즈(410)는 렌즈 모듈(예: 도 2의 렌즈 모듈(210))에 포함된 복수의 렌즈(410) 중 어느 하나일 수 있으며, 렌즈(410)를 통과한 빛은 마이크로 렌즈(420)를 통해 포토 다이오드(430)로 입력될 수 있다. 여기서, 포토 다이오드(430)는 도 3의 서브 픽셀(311, 312, 313, 314) 중 어느 하나에 대응될 수 있다.4, the lens 410 may be any one of a plurality of lenses 410 included in a lens module (for example, the lens module 210 of FIG. 2), and light passing through the lens 410 may be incident on a micro lens 420 to the photodiode 430. Here, the photodiode 430 may correspond to any one of the subpixels 311, 312, 313, and 314 shown in FIG.

다양한 실시예에 따르면, 포토 다이오드(430)는 2개 이상의 영역(예: 제1영역(431) 및 제2영역(432))으로 구분될 수 있다. 일 실시예에 따르면, 포토 다이오드(430)의 가운데에 플로팅 확산 영역(435)이 형성될 수 있으며, 플로팅 확산 영역(435)은 이미지 센서 IC(예: 도 3의 이미지 센서 IC(260)) 또는 전자 장치의 프로세서(예: 도 1의 프로세서(120))의 제어 신호에 따라 활성화 또는 비활성화 될 수 있다. 다른 일 실시예에 따르면, 포토 다이오드(430)의 가운데에 빛을 차단하기 위한 차단막이 형성될 수 있다. 다른 일 실시예에 따르면, 포토 다이오드(430)는 제1영역(431)에 대응하는 포토 다이오드와 제2영역(432)에 대응하는 다른 포토 다이오드를 포함할 수 있다. 즉, 포토 다이오드(430)는 2개의 포토 다이오드를 결합하여 형성될 수 있다.According to various embodiments, the photodiode 430 may be divided into two or more regions (e.g., a first region 431 and a second region 432). According to one embodiment, a floating diffusion region 435 may be formed in the middle of the photodiode 430 and the floating diffusion region 435 may be formed by an image sensor IC (e.g., the image sensor IC 260 of FIG. 3) May be activated or deactivated according to the control signal of a processor (e.g., processor 120 of FIG. 1) of the electronic device. According to another embodiment, a blocking film for blocking light may be formed in the center of the photodiode 430. According to another embodiment, the photodiode 430 may include a photodiode corresponding to the first region 431 and another photodiode corresponding to the second region 432. That is, the photodiode 430 may be formed by coupling two photodiodes.

다양한 실시예에 따르면, 각각의 포토 다이오드(430)와 마이크로 렌즈(420) 사이에는 제1필터(441) 및 제2필터(442)를 포함하는 필터 어레이(440)가 배치될 수 있다. According to various embodiments, a filter array 440 including a first filter 441 and a second filter 442 may be disposed between each photodiode 430 and the microlens 420.

일 실시예에 따르면, 플로팅 확산 영역(435)이 활성화 되는 경우, 렌즈(410)의 우측 영역(414)의 빛은 마이크로 렌즈(410)를 통해 굴절되어 제1필터(441)를 통과한 후 포토 다이오드(430)의 제1영역(431)에 입력되고, 렌즈(410)의 좌측 영역(412)의 빛은 마이크로 렌즈(410)를 통해 굴절되어 제2필터(442)를 통과한 후 포토 다이오드(430)의 제2영역(432)에 입력될 수 있다.The light in the right region 414 of the lens 410 is refracted through the microlens 410 and passes through the first filter 441 and then passes through the photo- Is input to the first area 431 of the diode 430 and the light in the left area 412 of the lens 410 is refracted through the microlens 410 and passes through the second filter 442, 430 in the second area 432. [

다양한 실시예에 따르면, 제1필터(441)는 제1지정된 대역의 빛을 통과하도록 구성되고, 제2필터(442)는 제1지정된 대역과 보색 관계에 있는 제2지정된 대역의 빛을 통과하도록 구성될 수 있다. 예를 들어, 제1포토 다이오드에 대응되는 필터 어레이는 R(red) 대역의 빛을 통과 시키는 제1필터(441)와, R과 보색 관계에 있는 C(cyan) 대역의 빛을 통과 시키는 제2필터(442)를 포함할 수 있다. 또한, 제2포토 다이오드(예: 도 3의 312) 및 제3포토 다이오드(예: 도 3의 313)에 대응되는 필터 어레이는 G(green) 대역의 빛을 통과 시키는 제3필터와, G와 보색 관계에 있는 M(magenta) 대역의 빛을 통과 시키는 제4필터를 포함하며, 제4포토 다이오드(예: 도 3의 314)에 대응되는 필터 어레이는 B(blue) 대역의 빛을 통과 시키는 제5필터와, B와 보색 관계에 있는 Y(yellow) 대역의 빛을 통과 시키는 제6필터를 포함할 수 있다.According to various embodiments, the first filter 441 is configured to pass light in a first designated band, and the second filter 442 is configured to pass light in a second specified band in a complementary color relationship with the first designated band Lt; / RTI > For example, the filter array corresponding to the first photodiode may include a first filter 441 for passing light in the R (red) band, a second filter 441 for passing light in the C (cyan) Filter 442 as shown in FIG. The filter array corresponding to the second photodiode (for example, 312 in FIG. 3) and the third photodiode (for example, 313 in FIG. 3) includes a third filter for passing light in the green band, The filter array corresponding to the fourth photodiode (for example, 314 in FIG. 3) includes a fourth filter for passing light in the B (blue) band, 5 filter, and a sixth filter for passing light in the Y (yellow) band, which is in a complementary relationship with B,

도 5는 다양한 실시예에 따른 플로팅 확산 영역에 의한 포토 다이오드의 분할 영역을 도시한 것이다.FIG. 5 illustrates a segmented region of a photodiode by a floating diffusion region according to various embodiments.

도 5와 같이 이미지 센서 모듈이 구성됨에 따라, 단위 픽셀(550)을 구성하는 4개의 포토 다이오드는 RGB 데이터(또는 제1데이터) 및 RGB 데이터와 보색 관계의 CMY 데이터(또는 제2데이터)를 각각 출력할 수 있다. 다시 말하면, 제1포토 다이오드(551)는 R 데이터(551a)와 C 데이터(551b)를 구분하여 리드아웃 하고, 제2포토 다이오드(552) 및 제3포토 다이오드(553)는 G 데이터(552a, 553a)와 M 데이터(552b, 553b)를 구분하여 리드아웃 하고, 제4포토 다이오드(554)는 B 데이터(554a와 Y 데이터(554b)를 구분하여 리드아웃할 수 있다.5, the four photodiodes constituting the unit pixel 550 convert RGB data (or first data), RGB data, and CMY data (or second data) of a complementary color relationship into Can be output. In other words, the first photodiode 551 distinguishes and outputs the R data 551a and the C data 551b, and the second photodiode 552 and the third photodiode 553 separate the G data 552a, 553a and 552b and 553b to be read out and the fourth photodiode 554 can read out B data 554a and Y data 554b separately.

이미지 센서 IC(예: 도 3의 이미지 센서 IC(340))는 각 포토 다이오드(551, 552, 553, 554)에서 플로팅 확산 영역을 기준으로 분리된 제1영역 및 제2영역에서 출력되는 제1데이터(예: RGB 데이터)(551a, 552a, 553a, 554a) 및 제2데이터(예: CMY 데이터)(예: 551b, 552b, 553b, 554b)를 구분하여 리드아웃할 수 있다. The image sensor IC (for example, the image sensor IC 340 in FIG. 3) includes a first region separated from the floating diffusion region in each photodiode 551, 552, 553, and 554, (E.g., RGB data) 551a, 552a, 553a, and 554a and second data (e.g., CMY data) (e.g., 551b, 552b, 553b, and 554b).

도 6a 내지 6c는 다양한 실시예에 따라 이미지 데이터를 생성하는 방법을 도시한 것이다.Figures 6A-6C illustrate a method for generating image data in accordance with various embodiments.

이하에서는, 도시된 이미지 데이터를 생성하는 방법이 카메라 모듈의 이미지 센서 IC(예: 도 2의 이미지 센서 IC(260))에서 수행되는 것으로 설명하나, 이에 한정되지는 않는다. 예를 들어, 다른 실시예들에 따르면, 카메라 모듈의 이미지 센서 IC는 포토 다이오드에서 출력되는 데이터들을 전자 장치의 프로세서(예: 도 1의 프로세서(120))에 전송하는 기능만 수행하며, 도시된 이미지 데이터 생성 과정은 상기 전자 장치의 프로세서에 의해 수행될 수 있다. 또 다른 실시예들에 따르면, 이미지 센서 IC는 포토 다이오드에서 출력되는 데이터들을 전자 장치에 마련된 별도의 컴패니언 칩(companion chip)(또는 제2프로세서)에 제공하고, 상술한 이미지 데이터 생성 과정은 상기 컴패니언 칩에 의해 수행될 수 있다. 또 다른 실시예들에 따르면, 상술한 이미지 데이터 생성 과정은 카메라 모듈(200)이 탑재되는 전자 장치(예: 도 10의 전자 장치(1000), 도 11의 전자 장치(1100)) 외의 외부 장치(예: 서버)에 의해 수행될 수도 있다. In the following description, the method of generating the image data shown is performed in the image sensor IC (e.g., the image sensor IC 260 in FIG. 2) of the camera module, but is not limited thereto. For example, according to other embodiments, the image sensor IC of the camera module performs only the function of transmitting the data output from the photodiode to a processor (e.g., processor 120 of FIG. 1) of the electronic device, The process of generating image data may be performed by a processor of the electronic device. According to still another embodiment, the image sensor IC provides the data output from the photodiode to a separate companion chip (or second processor) provided in the electronic device, and the above- Chip. ≪ / RTI > According to still another embodiment, the image data generation process described above may be performed on an external device other than the electronic device (e.g., the electronic device 1000 of FIG. 10, the electronic device 1100 of FIG. 11) on which the camera module 200 is mounted For example, a server).

다양한 실시예에 따르면, 이미지 시그널 프로세서는 추가적인 계산 과정 없이 보색 관계에 있는 제1데이터와 제2데이터를 간단한 연산을 통해 휘도 데이터와 색차 데이터를 포함하는 이미지 데이터를 생성할 수 있다. 이미지 데이터는 JPEG 데이터를 예로 들 수 있으며, JPEG 데이터는 yUV 또는 yCbCr 데이터일 수 있다.According to various embodiments, the image signal processor can generate image data including luminance data and color difference data by performing simple calculations on the first data and the second data in a complementary color relationship without further calculation. The image data may be JPEG data, and the JPEG data may be yUV or yCbCr data.

도 6a는 단위 픽셀을 구성하는 4개의 포토 다이오드에서 센싱할 수 있는 컬러 데이터를 도시하고 있다. 도 6a는 플로팅 확산 영역 또는 차단막이 각 포토 다이오드의 세로 방향의 가운데로 형성되는 것을 예시하고 있으나, 플로팅 확산 영역 또는 차단막의 수 및 그 위치는 이에 한정되지 않는다.6A shows color data that can be sensed by four photodiodes constituting a unit pixel. 6A illustrates that the floating diffusion region or the shielding film is formed in the middle of the longitudinal direction of each photodiode, but the number and position of the floating diffusion region or the shielding film are not limited thereto.

다양한 실시예에 따르면, 이미지 시그널 프로세서는 각 포토 다이오드에서 출력되는 제1데이터 및 제2데이터를 획득할 수 있다. 도 6a에 도시된 바와 같이, 단위 픽셀 데이터는 제1데이터(예: RGB 데이터)(611a, 612a, 613a, 614a) 및 제2데이터(예: CMY 데이터)(611b, 612b, 613b, 614b)를 포함할 수 있다.According to various embodiments, the image signal processor may obtain the first data and the second data output from each photodiode. 6A, the unit pixel data includes first data (e.g., RGB data) 611a, 612a, 613a, and 614a and second data (e.g., CMY data) 611b, 612b, 613b, and 614b .

다양한 실시예에 따르면, 이미지 시그널 프로세서는 제1데이터 및 제2데이터를 합산하여 휘도 데이터(620)를 생성할 수 있다. 예를 들어, 이미지 시그널 프로세서는 제1포토 다이오드의 R 데이터(611a)와 C 데이터(611b)를 합산하여 제1서브 픽셀의 휘도 데이터(y1)(621)을 생성하고, 제2포토 다이오드의 G 데이터(612a)와 M 데이터(612b)를 합산하여 제2서브 픽셀의 휘도 데이터(y2)(622)를 생성하고, 제3포토 다이오드의 G 데이터(613a)와 M 데이터(613b)를 합산하여 제3서브 픽셀의 휘도 데이터(y3)(623)를 생성하고, 제4포토 다이오드의 B 데이터(614a)와 Y 데이터(614b)를 합산하여 제4서브 픽셀의 휘도 데이터(y4)(624)를 생성할 수 있다.According to various embodiments, the image signal processor may sum the first data and the second data to produce the luminance data 620. [ For example, the image signal processor generates the luminance data (y1) 621 of the first sub-pixel by summing the R data 611a and the C data 611b of the first photodiode, The luminance data (y2) 622 of the second sub-pixel is generated by summing the data 612a and the M data 612b, and the G data 613a and the M data 613b of the third photodiode are summed (Y4) 624 of the fourth subpixel by adding the B data 614a and the Y data 614b of the fourth photodiode to generate the luminance data (y3) 623 of the third subpixel and the luminance data can do.

보색 관계에 있는 컬러 데이터를 합산하면 RGB 값이 동일한 값을 가지는 모노 데이터(mono data)가 되므로, 이미지 시그널 프로세서는 별도의 모노 필터를 구비하지 않고도 단순한 합산 계산을 통해서 휘도 데이터를 획득할 수 있다.When the color data in the complementary color relationship is summed, the RGB values become mono data having the same value, so that the image signal processor can acquire the luminance data through simple sum calculation without having a separate mono filter.

도 6b는 제1데이터 및 제2데이터로부터 색차 데이터를 획득하는 과정을 도시하고 있다.FIG. 6B shows a process of obtaining color difference data from the first data and the second data.

이미지 시그널 프로세서(예: 도 2의 이미지 시그널 프로세서(265))는 제1데이터(631)로부터 각 서브 픽셀의 RGB 데이터(641)를 생성할 수 있다. 이 때, 인접하는 서브 픽셀의 RGB 데이터를 이용하여 보간법(interpolation)을 통해 각 서브 픽셀의 RGB 데이터(641)를 생성할 수 있다. 예를 들어, 제1서브 픽셀의 R 데이터, 제1서브 픽셀의 상/하/좌/우의 서브 픽셀의 G 데이터의 평균 값 및 제1서브 픽셀의 좌상/우상/좌하/우하의 서브 픽셀의 B 데이터의 평균 값으로 제1서브 픽셀의 RGB 데이터(R1G1B1)(641a)를 생성할 수 있다. 또한, 제2서브 픽셀의 경우, 제2서브 픽셀의 좌/우 서브 픽셀의 R 데이터의 평균 값, 제2서브 픽셀의 G 데이터, 제2서브 픽셀의 상/하 서브 픽셀의 B 데이터의 평균 값으로 제2서브 픽셀의 RGB 데이터(R2G2B2)(641b)를 생성할 수 있다.An image signal processor (e.g., image signal processor 265 of FIG. 2) may generate RGB data 641 of each subpixel from first data 631. In this case, RGB data 641 of each subpixel can be generated by interpolation using RGB data of adjacent subpixels. For example, the R data of the first subpixel, the average value of the G data of the upper / lower / left / right subpixels of the first subpixel and the average value of the G data of the subpixel of the upper left / upper / The RGB data (R 1 G 1 B 1 ) 641a of the first subpixel can be generated as an average value of the data. In the case of the second subpixel, the average value of the R data of the left / right subpixels of the second subpixel, the G data of the second subpixel, the average value of the B data of the upper and lower subpixels of the second subpixel To generate RGB data (R 2 G 2 B 2 ) 641b of the second subpixel.

또한, 이미지 시그널 프로세서는 제2데이터(632)로부터 각 서브 픽셀의 CMY 데이터(642)를 생성할 수 있다. 각 서브 픽셀의 CMY 데이터를 생성하는 방법은 각 서브 픽셀의 RGB 데이터를 생성하는 방법과 동일할 수 있다. 예를 들어, 제1서브 픽셀의 C 데이터, 제1서브 픽셀의 상/하/좌/우의 서브 픽셀의 M 데이터의 평균 값 및 제1서브 픽셀의 좌상/우상/좌하/우하의 서브 픽셀의 Y 데이터의 평균 값으로 제1서브 픽셀의 CMY 데이터(C1M1Y1)(642a)를 생성할 수 있다. 또한, 제2서브 픽셀의 경우, 제2서브 픽셀의 좌/우 서브 픽셀의 C 데이터의 평균 값, 제2서브 픽셀의 M 데이터, 제2서브 픽셀의 상/하 서브 픽셀의 Y 데이터의 평균 값으로 제2서브 픽셀의 CMY 데이터(C2M2Y2)(642)를 생성할 수 있다. In addition, the image signal processor may generate CMY data 642 for each subpixel from the second data 632. The method of generating CMY data of each subpixel may be the same as the method of generating RGB data of each subpixel. For example, the C data of the first subpixel, the average value of the M data of the upper / lower / left / right subpixels of the first subpixel and the average value of the Y data of the upper left / upper / The CMY data (C 1 M 1 Y 1 ) 642a of the first subpixel can be generated as an average value of the data. In the case of the second subpixel, the average value of the C data of the left / right subpixels of the second subpixel, the M data of the second subpixel, the average value of the Y data of the upper / (C 2 M 2 Y 2 ) 642 of the second subpixel can be generated.

이미지 시그널 프로세서는 획득된 단위 픽셀의 RGB 데이터에 기초하여 제1색차 데이터(651, 652)를 생성할 수 있다. 여기서, 제1색차 데이터는 U 데이터(또는 Cb 데이터)(651)과 V 데이터(또는 Cr 데이터)(652)를 포함할 수 있다. U데이터(651)는 RGB 데이터(641)의 각 서브 픽셀(641a, 641b, 641c, 641d)에서 G 값과 R 값의 차이를 통해 얻어질 수 있다. 예를 들어, 이미지 시그널 프로세서는 RGB 데이터(641)의 제1서브 픽셀(641a)의 G 값과 R 값의 차이(G1-R1)을 계산하여 제1서브 픽셀의 U 데이터(651a)를 획득하고, 제2서브 픽셀(641b)의 G 값과 R 값의 차이(G2-R2)을 계산하여 제2서브 픽셀의 U 데이터(651b)를 획득할 수 있다. 또한, V 데이터(652)는 RGB 데이터(641)의 각 서브 픽셀(641a, 641b, 641c, 641d)에서 G 값과 B 값의 차이를 통해 얻어질 수 있다. 예를 들어, 이미지 시그널 프로세서는 RGB 데이터(641)의 제1서브 픽셀(641a)의 G 값과 B 값의 차이(G1-B1)을 계산하여 제1서브 픽셀의 V 데이터(652a)를 획득하고, 제2서브 픽셀(641b)의 G 값과 B 값의 차이(G2-B2)을 계산하여 제2서브 픽셀의 V 데이터(652b)를 획득할 수 있다. The image signal processor can generate the first color difference data 651 and 652 based on the RGB data of the obtained unit pixel. Here, the first color difference data may include U data (or Cb data) 651 and V data (or Cr data) 652. The U data 651 can be obtained through the difference between the G value and the R value in each of the subpixels 641a, 641b, 641c, and 641d of the RGB data 641. [ For example, the image signal processor calculates the difference (G 1 -R 1 ) between the G value and the R value of the first subpixel 641 a of the RGB data 641 to obtain the U data 651 a of the first subpixel And obtain the U data 651b of the second subpixel by calculating the difference (G 2 -R 2 ) between the G value and the R value of the second subpixel 641b. The V data 652 can be obtained through the difference between the G value and the B value in each of the subpixels 641a, 641b, 641c, and 641d of the RGB data 641. [ For example, the image signal processor calculates the difference (G 1 -B 1 ) between the G value and the B value of the first subpixel 641a of the RGB data 641 to obtain the V data 652a of the first subpixel And obtains the V data 652b of the second subpixel by calculating the difference (G 2 -B 2 ) between the G value and the B value of the second subpixel 641b.

이미지 시그널 프로세서는 획득된 단위 픽셀의 CMY 데이터(642)에 기초하여 제2색차 데이터(653, 654)를 생성할 수 있다. 여기서, 제2색차 데이터는 U 데이터(또는 Cb 데이터)(653)과 V 데이터(또는 Cr 데이터)(654)를 포함할 수 있다. U 데이터(653)는 CMY 데이터(642)의 각 서브 픽셀(642a, 632b, 642c, 642d)에서 C 값과 M 값의 차이를 통해 얻어질 수 있다. 예를 들어, 이미지 시그널 프로세서는 CMY 데이터(642)의 제1서브 픽셀(642a)의 C 값과 M 값의 차이(C1-M1)을 계산하여 제1서브 픽셀의 U 데이터(653a)를 획득하고, 제2서브 픽셀(642b)의 C 값과 M 값의 차이(C2-M2)을 계산하여 제2서브 픽셀의 U 데이터(653b)를 획득할 수 있다. 또한, V 데이터(654)는 CMY 데이터(642)의 각 서브 픽셀(642a, 632b, 642c, 642d)에서 Y 값과 M 값의 차이를 통해 얻어질 수 있다. 예를 들어, 이미지 시그널 프로세서는 CMY 데이터(642)의 제1서브 픽셀(642a)의 Y 값과 M 값의 차이(Y1-M1)을 계산하여 제1서브 픽셀의 V 데이터(654a)를 획득하고, 제2서브 픽셀(642b)의 Y 값과 M 값의 차이(Y2-M2)을 계산하여 제2서브 픽셀의 V 데이터(654b)를 획득할 수 있다.The image signal processor may generate the second color difference data 653 and 654 based on the CMY data 642 of the obtained unit pixel. Here, the second color difference data may include U data (or Cb data) 653 and V data (or Cr data) The U data 653 may be obtained through the difference between the C value and the M value at each of the subpixels 642a, 632b, 642c, and 642d of the CMY data 642. [ For example, the image signal processor is a first sub-pixel difference value of C and M values of (642a) (C 1 -M 1) a data U (653a) of the calculations to the first sub-pixel in the CMY data 642 And obtain the U data 653b of the second subpixel by calculating the difference (C 2 -M 2 ) between the C value and the M value of the second subpixel 642b. The V data 654 may also be obtained through the difference between the Y value and the M value at each of the subpixels 642a, 632b, 642c, and 642d of the CMY data 642. [ For example, the image signal processor may calculate the difference (Y 1 -M 1 ) between the Y value and the M value of the first subpixel 642a of the CMY data 642 to obtain the V data 654a of the first subpixel acquired, and the second is able to obtain sub-pixel difference between the Y value and the M value of (642b) (Y 2 -M 2 ) the V data (654b) of the second sub-pixel is calculated.

이미지 시그널 프로세서는 제1색차 데이터의 U 데이터(651)와 제2색차 데이터의 U 데이터(653)를 합산할 수 있다. 앞서 설명한 대로, 제1색차 데이터의 U 데이터(651)는 RGB 데이터(641)의 각 서브 픽셀의 G 값과 R 값의 차이를 구한 것이고, 제2색차 데이터의 U 데이터(653)는 CMY 데이터(642)의 각 서브 픽셀의 C 값과 M 값의 차이를 구한 것이다. 보색 관계를 고려할 때, C=G+B / M=R+B 이고, C-M=(G+B)-(R+B)=G-R 로 계산되므로 제1색차 데이터와 제2색차 데이터의 U 데이터는 같은 컬러 성분일 수 있다. The image signal processor may sum U data 651 of the first color difference data and U data 653 of the second color difference data. As described above, the U data 651 of the first color difference data is a difference between the G value and the R value of each subpixel of the RGB data 641, and the U data 653 of the second color difference data is CMY data ( 642) is obtained by subtracting the C value and the M value of each subpixel. The first color difference data and the U data of the second color difference data are calculated as C = G + B / M = R + B and CM = (G + B) - (R + B) And may be the same color component.

마찬가지로, 이미지 시그널 프로세서는 제1색차 데이터의 V 데이터(652)와 제2색차 데이터의 V 데이터(654)를 합산할 수 있다. 제1색차 데이터의 V 데이터(652)는 RGB 데이터(641)의 각 서브 픽셀의 G 값과 B 값의 차이를 구한 것이고, 제2색차 데이터의 V 데이터(654)는 CMY 데이터(642)의 각 서브 픽셀의 Y 값과 M 값의 차이를 구한 것이다. 보색 관계를 고려할 때, Y=R+G / M=R+B이고, Y-M=(R+G)-(R+B)=G-B 로 계산되므로, 제1색차 데이터와 제2색차 데이터의 V 데이터는 같은 컬러 성분일 수 있다.Likewise, the image signal processor may sum the V data 652 of the first color difference data and the V data 654 of the second color difference data. The V data 652 of the first color difference data is obtained by finding the difference between the G value and the B value of each sub pixel of the RGB data 641 and the V data 654 of the second color difference data is the difference The difference between the Y value and the M value of the subpixel is obtained. (R + G) - (R + B) = GB, Y = R + G / M = R + B and YM = May be the same color component.

도 6c는 도 6a의 과정을 통해 획득한 휘도 데이터 및 도 6b의 과정을 통해 획득한 색차 데이터를 합산하여 이미지 데이터를 획득하는 과정을 도시하고 있다.FIG. 6C shows a process of acquiring image data by summing luminance data acquired through the process of FIG. 6A and color difference data acquired through the process of FIG. 6B.

이미지 시그널 프로세서는 계산된 휘도 데이터(620)와, 제1색차 데이터(661) 및 제2색차 데이터(662)를 합산하여 이미지 데이터(670)를 생성할 수 있다. 도시된 바와 같이, 이미지 데이터(670)는 yUV 데이터(또는 yCbCr 데이터)일 수 있다.The image signal processor may generate the image data 670 by summing the calculated luminance data 620 and the first color difference data 661 and the second color difference data 662. As shown, the image data 670 may be yUV data (or yCbCr data).

다양한 실시예에 따르면, 이미지 시그널 프로세서는 도 6a 내지 6c에서 설명한 바와 같은 과정을 통해, 마이크로 렌즈 밑에 하나의 픽셀만 있는 기존의 이미지 센서와 동일한 결과를 얻게 된다. 이미지 시그널 프로세서는 상기와 같이 생성된 휘도 데이터 및 색차 데이터를 출력할 수 있으며, 베이어 패턴 화하여 베이어 데이터를 출력할 수도 있다. 이 경우, 이미지 시그널 프로세서 이후의 처리 단은 기존의 방식을 그대로 유지할 수 있게 되므로, 이미지 데이터를 얻는 전자 장치의 프로세서 등은 별도로 설계를 변경하거나 추가적인 계산 없이 이미지 데이터를 획득할 수 있다.According to various embodiments, the image signal processor obtains the same result as an existing image sensor having only one pixel under the microlens through the process as described in FIGS. 6A to 6C. The image signal processor may output the luminance data and color difference data generated as described above, and may output Bayer data by forming Bayer pattern. In this case, since the processing stage after the image signal processor can maintain the existing method, the processor of the electronic device that obtains the image data can separately obtain the image data without changing the design or performing additional calculation.

도 7은 다양한 실시예에 따른 이미지 데이터의 파장 범위를 도시한 것이다.Figure 7 shows the wavelength range of image data according to various embodiments.

다양한 실시예에 따르면, 이미지 시그널 프로세서(도 2의 이미지 시그널 프로세서(265))는 단위 픽셀의 포토 다이오드들로부터 RGB 데이터(또는 제1데이터) 및 CMY 데이터(제2데이터)를 획득할 수 있다. 도 7의 좌측은 RGB 데이터의 파장 범위를 도시한 것이고, 우측은 CMY 데이터의 파장 범위를 도시하고 있다.According to various embodiments, an image signal processor (image signal processor 265 of FIG. 2) may obtain RGB data (or first data) and CMY data (second data) from photodiodes of a unit pixel. The left part of FIG. 7 shows the wavelength range of the RGB data, and the right part shows the wavelength range of the CMY data.

도시된 바와 같이, CMY 데이터의 각 성분의 파장 범위가 RGB 데이터의 각 성분의 파장 범위보다 넓기 때문에, CMY 데이터의 감도가 약 2배 높을 수 있다. 이와 같은 감도 차이를 고려하여, 카메라 모듈을 다양한 방식으로 설계할 수 있다. As shown in the figure, since the wavelength range of each component of the CMY data is wider than the wavelength range of each component of the RGB data, the sensitivity of the CMY data can be about two times higher. Considering this sensitivity difference, camera modules can be designed in various ways.

제1실시예로써, RGB를 투과하는 필터와 CMY를 투과하는 필터의 투과율을 동일하게 하여 2배의 감도 차이가 발생하도록 이미지 센서를 설계할 수 있다. 본 실시예에서, 밝은 장면에서는 CMY가 먼저 포화되므로, 카메라 모듈은 CMY 데이터에 따라 자동 노출(auto exposure)을 조정할 수 있다. 이 경우, RGB 데이터는 CMY 데이터보다 광량이 절반인 데이터이므로, RGB 데이터와 CMY 데이터를 합성하면, 1stop의 HDR 이미지를 구현할 수 있고, 고감도의 CMY 데이터에 따라 자동 노출을 조정하므로 기존 RGB 데이터를 사용한 카메라 모듈보다 셔터 스피드를 절반으로 구동할 수 있으므로, 움직이는 피사체의 합성 시 합성 에러가 적다는 장점이 있다. 또한, 어두운 장면에서는 광량이 작으므로, RGB 데이터를 중심으로 자동 노출을 조정할 수 있고, 이 경우 CMY 데이터의 감도가 좋기 때문에 이미지 데이터 상에서 어두운 부분을 구현해 낼 수 있다.In the first embodiment, it is possible to design the image sensor such that the transmittance of the filter that transmits RGB and the filter that transmits CMY are the same, and the sensitivity difference is doubled. In this embodiment, since the CMY is saturated first in the bright scene, the camera module can adjust the auto exposure according to the CMY data. In this case, since RGB data is half the light amount of CMY data, synthesizing RGB data and CMY data can realize HDR image of 1stop and adjust the automatic exposure according to CMY data of high sensitivity. Since the shutter speed can be driven at half the speed of the camera module, there is an advantage that the synthesis error is small in the synthesis of the moving subject. In addition, since the amount of light is small in a dark scene, automatic exposure can be adjusted around RGB data. In this case, since the sensitivity of CMY data is good, a dark part can be realized on the image data.

제2실시예로써, CMY를 투과하는 필터의 투과율을 조절하여, RGB의 투과 감도와 동일하도록 이미지 센서를 설계할 수 있다. 이 경우, 화이트 밸런싱 시 장점이 있으며, 기존 카메라 모듈의 기능을 그대로 보장할 수 있는 장점이 있다.In the second embodiment, the image sensor can be designed so that the transmittance of the filter transmitting CMY is adjusted to be equal to the transmit sensitivity of RGB. In this case, there is an advantage in white balancing, and it is possible to guarantee the function of the existing camera module as it is.

제3실시예로써, 글로벌 셔터에서 적용되는 스토리지 다이오드를 CMY 픽셀에 배치하여, RGB 를 기준으로 자동 노출을 제어하면서, CMY를 한번에 읽어 스토리지 다이오드에 저장하도록 설계할 수 있다. 이 경우에도 기존 카메라 모듈의 기능을 그대로 보장할 수 있는 장점이 있다.As a third embodiment, it is possible to design a storage diode to be applied to a global shutter in a CMY pixel so that CMY is read at once and stored in a storage diode while controlling automatic exposure based on RGB. Even in this case, there is an advantage that the function of the existing camera module can be assured as it is.

다양한 실시예에 따르면, 이미지 시그널 프로세서는 제1데이터 및 제2데이터에 기초하여 이미지 데이터의 화이트 밸런스를 조정할 수 있다. 카메라 모듈은 포토 다이오드에서 획득한 데이터의 파장을 중심으로 샘플링하고, 샘플링 된 값에 기초하여 광원의 색 온도를 추정할 수 있다. 다양한 실시예에 따르면, RGB 데이터와 CMY 데이터는 서로 보색 관계로써, 각각 3개의 파장 대역을 포함하므로, 이미지 시그널 프로세서는 총 6개 대역을 샘플링할 수 있다. 이에 따라, 화이트 밸런싱을 수행할 때 6개 대역을 사용하는 결과, 광원의 색 온도 추정의 정확도가 향상될 수 있으므로, 보다 정확한 화이트 밸런싱이 가능하다.According to various embodiments, the image signal processor may adjust the white balance of the image data based on the first data and the second data. The camera module can sample the light centered at the wavelength of the data obtained at the photodiode and estimate the color temperature of the light source based on the sampled value. According to various embodiments, the RGB data and the CMY data are complementary to each other and include three wavelength bands, so that the image signal processor can sample a total of six bands. Accordingly, as a result of using six bands when performing white balancing, the accuracy of color temperature estimation of the light source can be improved, and more accurate white balancing is possible.

도 8은 다양한 실시예에 따른 플로팅 확산 영역 또는 차단막에 의한 포토 다이오드의 분할 영역을 도시한 것이다.Figure 8 illustrates a segmented region of a photodiode by a floating diffusion region or blocking film in accordance with various embodiments.

다양한 실시예에 따르면, 포토 다이오드는 플로팅 확산 영역 또는 차단막에 의해 복수의 영역으로 구분될 수 있다. 이하에서는, 플로팅 확산 영역을 통해 포토 다이오드가 복수의 영역으로 구분되는 것을 예로 들어 설명하기로 한다.According to various embodiments, the photodiode can be divided into a plurality of regions by a floating diffusion region or a shielding film. Hereinafter, the photodiode is divided into a plurality of regions through the floating diffusion region.

다양한 실시예에 따르면, 포토 다이오드는 제1플로팅 확산 영역 및 제2플로팅 확산 영역을 통해 4개의 영역(예: 811a, 811b, 811c, 811d)으로 구분될 수 있다. 본 실시예에 따르면, 각 포토 다이오드에 대응되는 필터 어레이는 포토 다이오드의 제1영역 내지 제4영역 각각에 대응하는 제1필터 내지 제4필터를 포함할 수 있다. 예를 들어, 단위 픽셀을 구성하는 제1포토 다이오드의 제1영역(811a) 및 제3영역(811c)에는 각각 R 대역을 통과 시키는 제1필터 및 제3필터가 배치되고, 제2영역(811b) 및 제4영역(811d)에는 각각 C 대역을 통과 시키는 제2필터 및 제4필터가 배치될 수 있다. 마찬가지로, 제2포토 다이오드의 제1영역(812a) 및 제3영역(812c)에는 각각 G 대역을 통과 시키는 제1필터 및 제3필터가 배치되고, 제2영역(812b) 및 제4영역(812d)에는 각각 M 대역을 통과 시키는 제2필터 및 제4필터가 배치될 수 있다. According to various embodiments, the photodiode may be divided into four regions (e.g., 811a, 811b, 811c, 811d) through the first floating diffusion region and the second floating diffusion region. According to the present embodiment, the filter array corresponding to each photodiode may include first to fourth filters corresponding to the first to fourth regions of the photodiode, respectively. For example, a first filter and a third filter that respectively pass an R band are disposed in a first area 811a and a third area 811c of a first photodiode constituting a unit pixel, and a second area 811b And the fourth region 811d may be provided with a second filter and a fourth filter that pass the C band, respectively. Similarly, the first and second filters 812a and 812b are disposed in the first and second regions 812a and 812c, respectively. The second and fourth filters 812b and 812d ) May be arranged with a second filter and a fourth filter passing through the M band, respectively.

각각의 포토 다이오드는 제1영역 내지 제4영역에서 획득된 제1데이터 내지 제4데이터(820, 830, 840, 850)를 독립적으로 리드아웃할 수 있으며, 그에 따라 이미지 시그널 프로세서는 각 포토 다이오드로부터 출력된 제1데이터 및 제4데이터(820, 830, 840, 850)를 통해 4개의 데이터를 생성할 수 있다. 이미지 시그널 프로세서는 획득된 데이터들을 기반으로 앞서 도 6a 내지 6c에서 설명한 방법을 통해 휘도 데이터 및 색차 데이터를 생성하고, 이미지 데이터를 생성할 수 있다.Each of the photodiodes can independently lead out the first to fourth data 820, 830, 840 and 850 obtained in the first to fourth regions, whereby the image signal processor outputs 4 data can be generated through the output first data and fourth data 820, 830, 840, and 850. [ The image signal processor can generate luminance data and color difference data and generate image data through the method described above with reference to Figs. 6A to 6C based on the obtained data.

본 실시예에 따르면, 2개의 플로팅 확산 영역을 통해 포토 다이오드를 4개의 영역으로 구분할 수 있으며, 수평 및 수직 방향 모두에 대해서 phase AF(auto focusing)이 가능하므로, 기존 AF 성능을 보다 개선할 수 있는 효과가 있다.According to the present embodiment, since the photodiode can be divided into four regions through two floating diffusion regions and phase AF (auto focusing) can be performed in both the horizontal and vertical directions, it is possible to improve the existing AF performance It is effective.

도 9는 다양한 실시예에 따른 플로팅 확산 영역에 의한 포토 다이오드의 분할 영역을 도시한 것이다.Figure 9 shows a segmented area of a photodiode by a floating diffusion region according to various embodiments.

다양한 실시예에 따르면, 포토 다이오드는 제1플로팅 확산 영역 및 제2플로팅 확산 영역을 통해 4개의 영역(예: 911a, 911b, 911c, 911d)으로 구분될 수 있으며, 각 포토 다이오드에 대응되는 필터 어레이는 포토 다이오드의 제1영역 내지 제4영역 각각에 대응하는 제1필터 내지 제4필터를 포함할 수 있다. According to various embodiments, the photodiode may be divided into four regions (e.g., 911a, 911b, 911c, 911d) through a first floating diffusion region and a second floating diffusion region, May include first to fourth filters corresponding to the first to fourth regions of the photodiode, respectively.

본 실시예에서, 적어도 하나의 포토 다이오드의 일부 필터는 가시광 대역 외의 빛을 통과하도록 구성될 수 있다. 예를 들어, 적어도 하나의 포토 다이오드에 대응되는 필터 어레이는 제1지정된 대역(예: R 대역) 및 제2지정된 대역(예: B 대역)보다 높은 제3지정된 대역(예: UV(ultra-violet ray) 대역)의 빛을 통과 시키는 제3필터 및 상기 제1지정된 대역 및 제2지정된 대역보다 낮은 제4지정된 대역(예: IR(infra-red ray) 대역)의 빛을 통과 시키는 제4필터를 포함할 수 있다.In this embodiment, some filters of at least one photodiode may be configured to pass light outside the visible band. For example, a filter array corresponding to at least one photodiode may have a third specified band (e.g., ultraviolet (UV)) that is higher than a first designated band (e.g., R band) and a fourth filter for passing light of a fourth designated band (e.g., an infra-red ray band) lower than the first designated band and the second specified band, .

도 9를 참고 하면, 제3서브 픽셀의 제1영역(913a) 및 제3영역(913c)에는 각각 G 대역의 빛을 통과 시키는 필터가 배치하고, 제2영역(913b)에는 UV 대역의 빛을 통과 시키는 제3필터가 배치되고, 제4영역(913d)에는 IR 대역의 빛을 통과 시키는 제4필터가 배치될 수 있다.9, a filter for passing light in the G band is disposed in the first region 913a and a third region 913c in the third sub-pixel, and light in the UV band is disposed in the second region 913b. And a fourth filter for passing light in the IR band may be disposed in the fourth region 913d.

이 경우, 포토 다이오드로부터 출력되는 제3데이터(940)는 제3서브 픽셀에 UV 데이터(940c)를 포함하고, 제4데이터(950)는 제3서브 픽셀에 IR 데이터(950c)를 포함할 수 있다.In this case, the third data 940 output from the photodiode may include UV data 940c in the third subpixel and the fourth data 950 may include IR data 950c in the third subpixel. have.

본 실시예에 따르면, 카메라 모듈은 RGB와 CMY 외에 UV 대역 및 IR 대역까지 총 8개 대역의 데이터를 획득할 수 있으므로, 화이트 밸런싱 및 AF의 성능을 보다 향상 시킬 수 있다.According to the present embodiment, since the camera module can acquire data of a total of 8 bands in addition to the RGB and CMY, as well as the UV band and the IR band, the performance of white balancing and AF can be further improved.

본 발명의 다양한 실시예에 따른 카메라 모듈(200)은, 적어도 하나의 렌즈를 포함하는 렌즈 모듈(210) 및 상기 렌즈 모듈(210)과 결합된 이미지 센서 모듈(230)을 포함하고, 상기 이미지 센서 모듈(230)은, 마이크로 렌즈(232), 적어도 하나의 포토 다이오드(234) 및 제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함하는 필터 어레이(236)가 상기 마이크로 렌즈(232)와 상기 적어도 하나의 포토 다이오드(234) 사이에 배치될 수 있다.The camera module 200 according to various embodiments of the present invention includes a lens module 210 including at least one lens and an image sensor module 230 coupled with the lens module 210, Module 230 includes a microlens 232, at least one photodiode 234 and a first filter capable of passing light in a first designated band and a second filter capable of passing light in a second predetermined band, A filter array 236 may be disposed between the microlens 232 and the at least one photodiode 234, including a second filter capable of passing light in a second designated band corresponding to a different color .

다양한 실시예에 따르면, 상기 적어도 하나의 포토 다이오드(234)는 상기 제1필터를 통과한 빛을 감지하는 제1영역 및 상기 제2필터를 통과한 빛을 감지하는 제2영역을 포함할 수 있다.According to various embodiments, the at least one photodiode 234 may include a first region for sensing light passing through the first filter and a second region for sensing light passing through the second filter .

다양한 실시예에 따르면, 상기 적어도 하나의 포토 다이오드(234)는 상기 제1영역에서 감지된 빛에 대응하는 제1데이터를 획득하고, 상기 제2영역에서 감지된 빛에 대응하는 제2데이터를 획득 하도록 설정될 수 있다.According to various embodiments, the at least one photodiode 234 may acquire first data corresponding to light sensed in the first region, acquire second data corresponding to sensed light in the second region, . ≪ / RTI >

다양한 실시예에 따르면, 상기 제1데이터 및 상기 제2데이터를 수신하도록 설정된 이미지 시그널 프로세서(265)를 더 포함할 수 있다.According to various embodiments, the image signal processor 265 may be further configured to receive the first data and the second data.

다양한 실시예에 따르면, 상기 이미지 시그널 프로세서(265)는, 상기 제1데이터 및 상기 제2데이터를 합산하여 휘도 데이터를 생성하도록 설정될 수 있다.According to various embodiments, the image signal processor 265 may be configured to sum luminance data by summing the first data and the second data.

다양한 실시예에 따르면, 상기 이미지 시그널 프로세서(265)는, 상기 제1데이터에 기초하여 제1색차 데이터를 생성하고, 상기 제2데이터에 기초하여 제2색차 데이터를 생성하고, 상기 제1색차 데이터 및 상기 제2색차 데이터를 합산하여 제3색차 데이터를 생성하도록 설정될 수 있다.According to various embodiments, the image signal processor 265 may generate first color difference data based on the first data, generate second color difference data based on the second data, And to generate third color difference data by summing the second color difference data.

다양한 실시예에 따르면, 상기 이미지 시그널 프로세서(265)는 상기 생성된 휘도 데이터 및 상기 제3색차 데이터에 기초하여 이미지 데이터를 생성하도록 설정될 수 있다.According to various embodiments, the image signal processor 265 may be configured to generate image data based on the generated luminance data and the third color difference data.

다양한 실시예에 따르면, 상기 이미지 시그널 프로세서(265)는 인터페이스를 통해 상기 제1데이터 및 상기 제2데이터를 카메라 모듈(200) 외부의 프로세서로 전송하도록 설정될 수 있다.According to various embodiments, the image signal processor 265 may be configured to transmit the first data and the second data via an interface to a processor external to the camera module 200.

다양한 실시예에 따르면, 상기 이미지 시그널 프로세서(265)는 상기 제1데이터 및 상기 제2데이터에 기초하여 상기 이미지 데이터의 화이트 밸런스를 조정하도록 설정될 수 있다.According to various embodiments, the image signal processor 265 may be configured to adjust the white balance of the image data based on the first data and the second data.

다양한 실시예에 따르면, 상기 필터 어레이(236)는 상기 제1지정된 대역 및 상기 제2지정된 대역보다 높은 제3지정된 대역의 빛을 통과시킬 수 있는 제3필터 및 상기 제1지정된 대역 및 상기 제2지정된 대역보다 낮은 제4지정된 대역의 빛을 통과시킬 수 있는 제4필터를 더 포함할 수 있다.According to various embodiments, the filter array 236 may include a third filter capable of passing light of a third specified band higher than the first designated band and the second designated band, And a fourth filter capable of passing light of a fourth specified band lower than the designated band.

다양한 실시예에 따르면, 상기 이미지 센서 모듈(230)은, 복수의 포토 다이오드(234)들 및 상기 복수의 포토 다이오드(234) 각각에 대응하는 복수의 필터 어레이(236)들을 포함하며, 상기 복수의 포토 다이오드(234)들 및 복수의 필터 어레이(236)들이 적어도 하나의 픽셀을 구성하도록 설정될 수 있다.According to various embodiments, the image sensor module 230 includes a plurality of photodiodes 234 and a plurality of filter arrays 236 corresponding to each of the plurality of photodiodes 234, Photodiodes 234 and a plurality of filter arrays 236 may be configured to configure at least one pixel.

다양한 실시예에 따르면, 상기 적어도 하나의 포토 다이오드(234)는, 플로팅 확산 영역이 활성화 됨에 따라 상기 제1영역 및 상기 제2영역으로 구분되거나, 또는 금속막을 통해 상기 제1영역 및 상기 제2영역으로 구분될 수 있다.According to various embodiments, the at least one photodiode 234 may be divided into the first region and the second region as the floating diffusion region is activated, or may be divided into the first region and the second region .

도 10은 다양한 실시예에 따른 전자 장치의 블록도이다.10 is a block diagram of an electronic device according to various embodiments.

도시된 바와 같이, 전자 장치(1000)는 카메라 모듈(1010), 디스플레이(1020), 프로세서(1030) 및 메모리(1040)를 포함할 수 있으며, 필요에 따라 도시된 구성 중 적어도 일부가 생략 또는 치환되더라도 본 발명의 다양한 실시예들을 구현할 수 있다. 전자 장치(1000)는 도 1의 전자 장치(101)의 구성 및/또는 기능 중 적어도 일부를 더 포함할 수 있다.As shown, the electronic device 1000 may include a camera module 1010, a display 1020, a processor 1030 and a memory 1040, and if necessary, at least some of the depicted configurations are omitted or replaced Various embodiments of the present invention may be implemented. The electronic device 1000 may further include at least some of the configuration and / or functions of the electronic device 101 of FIG.

이하에서는 전자 장치(1000)의 다양한 기능 중 카메라 모듈(1010)에서 획득한 이미지 데이터를 처리하는 기능에 대해 설명하기로 하며, 앞서 도 1 내지 도 9를 통해 설명한 바 있는 기술적 특징에 대해서는 그 설명을 생략하기로 한다.Hereinafter, functions of processing image data acquired by the camera module 1010 among various functions of the electronic device 1000 will be described. Descriptions of the technical features described above with reference to FIGS. 1 to 9 will be described It will be omitted.

디스플레이(1020)는 영상을 표시하기 위한 구성으로써, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 등으로 구현될 수 있다. 디스플레이(1020)는 도 1의 표시 장치(160)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. The display 1020 may be a liquid crystal display (LCD), a light-emitting diode (LED) display, an organic light-emitting diode (OLED) Or the like. Display 1020 may include at least some of the configuration and / or functions of display device 160 of FIG.

메모리(1040)는 휘발성 메모리(예: 도 1의 휘발성 메모리(132)) 및/또는 비휘발성 메모리(예: 도 1의 비휘발성 메모리(134))를 포함하며, 프로세서(310)와 전기적으로 연결될 수 있다. 메모리(1040)는 프로세서(1030)에서 수행될 수 있는 다양한 인스트럭션(instruction)들을 저장할 수 있다. 이와 같은 인스트럭션들은 제어 회로에 의해 인식될 수 있는 산술 및 논리 연산, 데이터 이동, 입출력 등의 제어 명령을 포함할 수 있다. 또한, 메모리(1040)는 도 1의 프로그램(140) 중 적어도 일부를 저장할 수 있다.Memory 1040 includes a volatile memory (e.g., volatile memory 132 of FIG. 1) and / or a non-volatile memory (e.g., non-volatile memory 134 of FIG. 1) . The memory 1040 may store various instructions that may be executed in the processor 1030. Such instructions may include control commands such as arithmetic and logical operations, data movement, input / output, etc., which may be recognized by the control circuitry. The memory 1040 may also store at least some of the programs 140 of FIG.

프로세서(1030)는 전자 장치(1000)의 각 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있는 구성으로써, 도 1의 프로세서(120)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. 프로세서(1030)는 전자 장치(1000)의 각 구성(예: 메모리(1040), 디스플레이(1020), 카메라 모듈(1010), 디스플레이(1020) 등)과 전기적으로 연결될 수 있다.Processor 1030 is a configuration capable of performing operations and data processing related to the control and / or communication of each component of electronic device 1000, such that at least some of the configuration and / or functionality of processor 120 of FIG. 1 . ≪ / RTI > The processor 1030 may be electrically connected to each component of the electronic device 1000 (e.g., memory 1040, display 1020, camera module 1010, display 1020, etc.).

카메라 모듈(1010)은 이미지 센서 모듈(1012) 및 이미지 센서 IC(1014)를 포함할 수 있다.The camera module 1010 may include an image sensor module 1012 and an image sensor IC 1014.

이미지 센서 모듈(1012)은 픽셀들을 구성하는 복수의 포토 다이오드, 각각의 포토 다이오드에 대응되게 배치되는 마이크로 렌즈 및 상기 포토 다이오드와 마이크로 렌즈 사이에 배치되는 필터 어레이를 포함할 수 있다. 필터 어레이는 제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함할 수 있다.The image sensor module 1012 may include a plurality of photodiodes constituting pixels, a microlens arranged corresponding to each photodiode, and a filter array disposed between the photodiodes and the microlenses. The filter array includes a first filter capable of passing light in a first designated band and a second filter capable of passing light in a second designated band corresponding to a color corresponding to the first designated band and another color having a complementary color relationship . ≪ / RTI >

포토 다이오드는 플로팅 확산 영역이 활성화 됨에 따라 제1영역 및 제2영역으로 설정되고, 포토 다이오드는 제1필터를 통과한 빛을 제1영역에서 감지하여 제1데이터를 출력하고, 제2필터를 통과한 빛을 제2영역에서 감지하여 제2데이터를 출력할 수 있다.The photodiode is set as a first region and a second region as the floating diffusion region is activated. The photodiode detects light passing through the first filter in the first region to output first data, and passes through the second filter One light can be detected in the second area and the second data can be output.

다양한 실시예에 따르면, 이미지 센서 IC(1014)는 포토 다이오드에서 출력되는 제1데이터 및 제2데이터에 기초하여 이미지 데이터를 생성할 수 있다. 이미지 센서 IC(1014)가 이미지 데이터를 생성하는 동작에 대해서는 앞서 도 6a 내지 6c를 통해 설명한 바 있다.According to various embodiments, the image sensor IC 1014 may generate image data based on the first data and the second data output from the photodiode. The operation of the image sensor IC 1014 to generate image data has been described above with reference to Figs. 6A to 6C.

다른 실시예들에 따르면, 이미지 센서 IC(1014)는 포토 다이오드에서 출력되는 데이터(예: 제1데이터 및 제2데이터)들을 프로세서(1030)에 출력하고, 프로세서(1030)는 이미지 센서 IC(1014)로부터 출력되는 데이터를 처리하여 이미지 데이터를 생성할 수 있다. 이미지 센서 IC(1014)와 프로세서(1030)는 공지의 인터페이스(예: MIPI (mobile industry processor interface))를 통해 연결될 수 있다. 또한, 프로세서(1030)는 앞서 도 2 내지 도 9를 통해 설명한 이미지 센서 IC(1014)의 동작 중 적어도 일부를 수행할 수 있다.According to other embodiments, the image sensor IC 1014 outputs data (e.g., first data and second data) output from the photodiode to the processor 1030, and the processor 1030 is coupled to the image sensor IC 1014 To generate image data. The image sensor IC 1014 and the processor 1030 may be connected through a known interface (e.g., mobile industry processor interface (MIPI)). In addition, the processor 1030 may perform at least some of the operations of the image sensor IC 1014 described above with reference to FIGS. 2-9.

도 11은 다양한 실시예에 따른 전자 장치의 블록도이다.11 is a block diagram of an electronic device according to various embodiments.

도시된 바와 같이, 전자 장치(1100)는 카메라 모듈(1110), 디스플레이(1120), 제1프로세서(1130), 제2프로세서(1150) 및 메모리를 포함할 수 있다. 카메라 모듈(1110), 디스플레이(1120) 및 메모리(1140)는 도 10의 카메라 모듈(1010), 디스플레이(1020) 및 메모리(1040)의 구성과 동일할 수 있다. 또한, 제1프로세서(1130)는 도 10의 프로세서(1030)의 구성과 동일할 수 있다.As shown, the electronic device 1100 may include a camera module 1110, a display 1120, a first processor 1130, a second processor 1150, and a memory. The camera module 1110, the display 1120 and the memory 1140 may be the same as those of the camera module 1010, the display 1020 and the memory 1040 in Fig. In addition, the first processor 1130 may be the same as the processor 1030 of FIG.

전자 장치(1100)는 카메라 모듈(1110) 및 제1프로세서(1130)의 사이에 마련되는 제2프로세서(1150)를 포함할 수 있다. 제2프로세서(1150)는 제1프로세서(1130)의 기능 중 적어도 일부를 수행할 수 있는 별도의 칩(예: 컴패니언 칩)으로 마련될 수 있다. 다양한 실시예에 따르면, 이미지 센서 IC(1114)는 포토 다이오드에서 출력되는 데이터(예: 제1데이터 및 제2데이터)들을 제2프로세서(1150)에 출력하고, 제2프로세서(1150)는 이미지 센서 IC(1114)로부터 출력되는 데이터를 처리하여 이미지 데이터를 생성할 수 있다. 제2프로세서(1150)는 생성한 이미지 데이터를 제1프로세서(1130)에 출력할 수 있다.The electronic device 1100 may include a second processor 1150 provided between the camera module 1110 and the first processor 1130. The second processor 1150 may be provided as a separate chip (e.g., a companion chip) capable of performing at least some of the functions of the first processor 1130. According to various embodiments, the image sensor IC 1114 outputs data (e.g., first data and second data) output from the photodiode to a second processor 1150, and the second processor 1150 outputs data It is possible to process the data output from the IC 1114 to generate image data. And the second processor 1150 may output the generated image data to the first processor 1130. [

본 발명의 다양한 실시예에 따른 전자 장치(1000)는, 카메라 모듈(1010) 및 이미지 시그널 프로세서(예: 프로세서(1030))를 포함하며, 상기 카메라 모듈(1010)은, 마이크로 렌즈(232), 상기 마이크로 렌즈(232)를 통과한 빛을 전기적 신호로 변환할 수 있는 적어도 하나의 포토 다이오드(234) 및 상기 마이크로 렌즈(232)와 상기 적어도 하나의 포토 다이오드(234) 사이에 배치되고, 제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함하는 필터 어레이(236)를 포함하며, 상기 이미지 시그널 프로세서는 상기 적어도 하나의 포토 다이오드(234)에서 출력되는 데이터에 기반하여 이미지 데이터를 생성하도록 설정될 수 있다.An electronic device 1000 according to various embodiments of the present invention includes a camera module 1010 and an image signal processor such as a processor 1030 and the camera module 1010 includes a micro lens 232, At least one photodiode 234 capable of converting light passing through the microlens 232 into an electrical signal and at least one photodiode 234 disposed between the microlens 232 and the at least one photodiode 234, A first filter capable of passing light of a designated band and a second filter capable of passing light of a second specified band corresponding to a color corresponding to the first designated band and a different color having a complementary color relationship Array 236, and the image signal processor may be configured to generate image data based on data output from the at least one photodiode 234. [

다양한 실시예에 따르면, 상기 적어도 하나의 포토 다이오드(234)는 상기 제1필터를 통과한 빛을 감지하는 제1영역 및 상기 제2필터를 통과한 빛을 감지하는 제2영역을 포함할 수 있다.According to various embodiments, the at least one photodiode 234 may include a first region for sensing light passing through the first filter and a second region for sensing light passing through the second filter .

다양한 실시예에 따르면, 상기 적어도 하나의 포토 다이오드(234)는 상기 제1영역에서 감지된 빛에 대응하는 제1데이터를 획득하고, 상기 제2영역에서 감지된 빛에 대응하는 제2데이터를 획득 하도록 설정되고, 상기 이미지 시그널 프로세서는 상기 제1데이터 및 상기 제2데이터에 기초하여 상기 이미지 데이터를 생성하도록 설정될 수 있다.According to various embodiments, the at least one photodiode 234 may acquire first data corresponding to light sensed in the first region, acquire second data corresponding to sensed light in the second region, And the image signal processor may be configured to generate the image data based on the first data and the second data.

다양한 실시예에 따르면, 상기 이미지 시그널 프로세서는, 상기 제1데이터 및 상기 제2데이터를 합산하여 휘도 데이터를 생성하고, 상기 제1데이터에 기초하여 제1색차 데이터를 생성하고, 상기 제2데이터에 기초하여 제2색차 데이터를 생성하고, 상기 제1색차 데이터 및 상기 제2색차 데이터를 합산하여 제3색차 데이터를 생성하고, 및 상기 생성된 휘도 데이터 및 상기 제3색차 데이터에 기초하여 상기 이미지 데이터를 생성하도록 설정될 수 있다.According to various embodiments, the image signal processor may generate luminance data by summing the first data and the second data, generate first color difference data based on the first data, And generating third color difference data by summing the first color difference data and the second color difference data, and generating the second color difference data based on the generated luminance data and the third color difference data, . ≪ / RTI >

다양한 실시예에 따르면, 상기 이미지 시그널 프로세서는, 전자 장치(1000)의 어플리케이션 프로세서, 상기 카메라 모듈(1010)의 이미지 센서 IC, 또는 상기 어플리케이션 프로세서 및 상기 카메라 모듈(1010)과 전기적으로 연결된 컴패니언 칩 중 어느 하나로 구성될 수 있다.According to various embodiments, the image signal processor may include an application processor of the electronic device 1000, an image sensor IC of the camera module 1010, or a companion chip electrically coupled to the application processor and the camera module 1010 It can be configured as any one.

도 12는 다양한 실시예에 따른 이미지 데이터 생성 방법의 흐름도이다.12 is a flowchart of a method of generating image data according to various embodiments.

도시된 방법은 앞서 도 3을 통해 설명한 카메라 모듈(예: 이미지 센서 IC(340))에 의해 수행될 수 있다. 다른 실시예에 따르면, 도시된 방법은 도 10의 전자 장치(예: 프로세서(1030)) 및/또는 도 11의 전자 장치(예: 제1프로세서(1130) 및/또는 제2프로세서(1150))에 의해 수행될 수 있다.The illustrated method may be performed by the camera module (e.g., image sensor IC 340) described above with reference to FIG. According to another embodiment, the depicted method may be implemented in an electronic device (e.g., processor 1030) and / or an electronic device (e.g., first processor 1130 and / or second processor 1150) Lt; / RTI >

다양한 실시예에 따르면, 카메라 모듈은 마이크로 렌즈와, 마이크로 렌즈와 대응되도록 배치되는 포토 다이오드 및 마이크로 렌즈와 포토 다이오드 사이에 배치되는 필터 어레이를 포함할 수 있다.According to various embodiments, the camera module may include a microlens, a photodiode disposed to correspond to the microlens, and a filter array disposed between the microlens and the photodiode.

동작 1210에서, 카메라 모듈은 포토 다이오드의 제1영역에서 감지된 빛에 기초하여 제1데이터를 생성할 수 있다. 예를 들어, 제1데이터는 RGB 데이터일 수 있다.In operation 1210, the camera module may generate first data based on light sensed in a first region of the photodiode. For example, the first data may be RGB data.

동작 1220에서, 카메라 모듈은 포토 다이오드의 제2영역에서 감지된 빛에 기초하여 제2데이터를 생성할 수 있다. 예를 들어, 제2데이터는 CMY 데이터일 수 있다.In operation 1220, the camera module may generate second data based on light sensed in a second region of the photodiode. For example, the second data may be CMY data.

다양한 실시예에 따르면, 포토 다이오드의 제1영역에 배치된 제1필터와 제2영역에 배치된 제2필터는 서로 보색관계를 갖는 색상을 통과하도록 구성되는 바, 제1데이터 및 제2데이터는 서로 보색 관계의 색상을 가질 수 있다. According to various embodiments, the first filter disposed in the first region of the photodiode and the second filter disposed in the second region are configured to pass colors having a complementary relationship with each other, wherein the first data and the second data are And can have a complementary color to each other.

동작 1230에서, 카메라 모듈은 제1데이터 및 제2데이터에 기초하여 이미지 데이터를 생성할 수 있다. 제1데이터 및 제2데이터에 기초하여 이미지 데이터를 생성하는 구체적인 실시예에 대해서는 앞서 도 6a 내지 6c를 통해 설명한 바 있다.In operation 1230, the camera module may generate image data based on the first data and the second data. Specific embodiments for generating image data based on the first data and the second data have been described above with reference to Figs. 6A to 6C.

도 13은 다양한 실시예에 따른 이미지 데이터 생성 방법의 흐름도이다.13 is a flowchart of a method of generating image data according to various embodiments.

동작 1310에서, 카메라 모듈은 포토 다이오드의 제1영역에서 감지된 빛에 기초하여 제1데이터를 생성하고, 포토 다이오드의 제2영역에서 감지된 빛에 기초하여 제2데이터를 생성할 수 있다.In operation 1310, the camera module may generate the first data based on the sensed light in the first area of the photodiode and generate the second data based on the sensed light in the second area of the photodiode.

동작 1320에서, 카메라 모듈은 제1데이터 및 제2데이터를 합산하여 휘도 데이터를 생성할 수 있다. 앞서 설명한 바와 같이, 제1데이터 및 제2데이터는 보색 관계이므로, 제1데이터 및 제2데이터를 합산할 경우, RGB 각 성분의 크기가 동일해 지는 바, 휘도 성분을 가질 수 있다.In operation 1320, the camera module may sum the first data and the second data to generate luminance data. As described above, since the first data and the second data have a complementary color relationship, when the first data and the second data are summed, the RGB components have the same size, and thus can have a luminance component.

동작 1330에서, 카메라 모듈은 제1데이터에 기초하여 제1색차 데이터를 생성할 수 있다. 동작 1330과 적어도 일부 동시에, 동작 1340에서 카메라 모듈은 제2데이터에 기초하여 제2색차 데이터를 생성할 수 있다.In operation 1330, the camera module may generate the first color difference data based on the first data. Concurrently with operation 1330 and at least in part, in operation 1340, the camera module may generate second color difference data based on the second data.

동작 1340에서, 카메라 모듈은 제1색차 데이터 및 제2색차 데이터를 합산하여 제3색차 데이터를 생성할 수 있다.In operation 1340, the camera module may generate the third color difference data by summing the first color difference data and the second color difference data.

동작 1350에서, 카메라 모듈은 휘도 데이터 및 상기 제 2 색차 데이터를 합산하여 제 3 색차 데이터를 생성할 수 있다.In operation 1350, the camera module may generate the third color difference data by summing the luminance data and the second color difference data.

동작 1360에서, 카메라 모듈은 휘도 데어티 및 제3색차 데이터를 합성하여, 이미지 데이터를 생성할 수 있다.In operation 1360, the camera module may synthesize luminance data and third color difference data to generate image data.

본 발명의 다양한 실시예에 따른, 카메라 모듈의 이미지 데이터 생성 방법은, 상기 카메라 모듈은 마이크로 렌즈와, 상기 마이크로 렌즈와 대응되도록 배치되는 적어도 하나의 포토 다이오드 및 상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치되는 필터 어레이를 포함하며, 상기 방법은, 상기 적어도 하나의 포토 다이오드의 제1영역에서 감지된 빛에 기초하여 제1데이터를 생성하는 동작(1210), 상기 적어도 하나의 포토 다이오드의 제2영역에서 감지된 빛에 기초하여 제2데이터를 생성하는 동작(1220), 상기 제1데이터 및 상기 제2데이터에 기초하여 이미지 데이터를 생성하는 동작(1230)을 포함하며, 상기 제1데이터의 색상과 상기 제2데이터의 색상은 서로 보색 관계일 수 있다.According to various embodiments of the present invention, there is provided a method of generating image data of a camera module, the camera module comprising: a microlens; at least one photodiode arranged to correspond to the microlens; and at least one photodiode , The method comprising: generating (1210) first data based on light sensed in a first region of the at least one photodiode (1210), performing a second operation on the at least one photodiode Generating (1220) second data based on the sensed light in the first and second regions, generating (1230) image data based on the first data and the second data, The color and the color of the second data may be complementary to each other.

다양한 실시예에 따르면, 상기 적어도 하나의 포토 다이오드는 상기 제1필터를 통과한 빛을 감지하는 제1영역 및 상기 제2필터를 통과한 빛을 감지하는 제2영역을 포함하고, 상기 필터 어레이는 상기 제1영역에 대응되도록 마련되고 제1지정된 대역의 빛을 통과 시킬 수 있는 제1필터 및 상기 제2영역에 대응되도록 마련되고 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과 시킬 수 있는 제2필터를 포함할 수 있다.According to various embodiments, the at least one photodiode includes a first region for sensing light passing through the first filter and a second region for sensing light passing through the second filter, A first filter provided corresponding to the first area and capable of passing light in a first designated band and a second filter arranged in a different color having a complementary color relationship with the color corresponding to the first designated band, And a second filter capable of passing light of a corresponding second specified band.

다양한 실시예에 따르면, 상기 이미지 데이터를 생성하는 동작은, 상기 제1데이터 및 상기 제2데이터를 합산하여 휘도 데이터를 생성하는 동작, 상기 제1데이터에 기초하여 제1색차 데이터를 생성하는 동작, 상기 제2데이터에 기초하여 제2색차 데이터를 생성하는 동작, 상기 제1색차 데이터 및 상기 제2색차 데이터를 합산하여 제3색차 데이터를 생성하는 동작, 및 상기 생성된 휘도 데이터 및 상기 제3색차 데이터에 기초하여 상기 이미지 데이터를 생성하는 동작을 포함할 수 있다.According to various embodiments, the operation of generating the image data may include generating the luminance data by summing the first data and the second data, generating the first color difference data based on the first data, An operation of generating second color difference data based on the second data, an operation of generating third color difference data by summing the first color difference data and the second color difference data, and an operation of adding the generated luminance data and the third color difference data And generating the image data based on the data.

Claims (20)

카메라 모듈에 있어서,
적어도 하나의 렌즈를 포함하는 렌즈 모듈; 및
상기 렌즈 모듈과 결합된 이미지 센서 모듈을 포함하고, 상기 이미지 센서 모듈은,
마이크로 렌즈;
적어도 하나의 포토 다이오드; 및
제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함하는 필터 어레이가 상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치된 카메라 모듈.
A camera module comprising:
A lens module including at least one lens; And
And an image sensor module coupled with the lens module,
A micro lens;
At least one photodiode; And
A first filter capable of passing light in a first designated band and a second filter capable of passing light in a second designated band corresponding to a color corresponding to the first designated band and a different color having a complementary color relationship Wherein a filter array is disposed between the microlens and the at least one photodiode.
제 1항에 있어서,
상기 적어도 하나의 포토 다이오드는 상기 제1필터를 통과한 빛을 감지하는 제1영역 및 상기 제2필터를 통과한 빛을 감지하는 제2영역을 포함하는 카메라 모듈.
The method according to claim 1,
Wherein the at least one photodiode comprises a first region for sensing light passing through the first filter and a second region for sensing light passing through the second filter.
제 2항에 있어서,
상기 적어도 하나의 포토 다이오드는 상기 제1영역에서 감지된 빛에 대응하는 제1데이터를 획득하고; 및
상기 제2영역에서 감지된 빛에 대응하는 제2데이터를 획득 하도록 설정된 카메라 모듈.
3. The method of claim 2,
Wherein the at least one photodiode obtains first data corresponding to light sensed in the first region; And
And to obtain second data corresponding to light sensed in the second region.
제 3항에 있어서,
상기 제1데이터 및 상기 제2데이터를 수신하도록 설정된 이미지 시그널 프로세서를 더 포함하는 카메라 모듈.
The method of claim 3,
And an image signal processor configured to receive the first data and the second data.
제 4항에 있어서,
상기 이미지 시그널 프로세서는,
상기 제1데이터 및 상기 제2데이터를 합산하여 휘도 데이터를 생성하도록 설정된 카메라 모듈.
5. The method of claim 4,
The image signal processor comprising:
And to generate luminance data by summing the first data and the second data.
제 5항에 있어서,
상기 이미지 시그널 프로세서는,
상기 제1데이터에 기초하여 제1색차 데이터를 생성하고, 상기 제2데이터에 기초하여 제2색차 데이터를 생성하고,
상기 제1색차 데이터 및 상기 제2색차 데이터를 합산하여 제3색차 데이터를 생성하도록 설정된 카메라 모듈.
6. The method of claim 5,
The image signal processor comprising:
Generating first color difference data based on the first data, generating second color difference data based on the second data,
And to generate third color difference data by summing the first color difference data and the second color difference data.
제 6항에 있어서,
상기 이미지 시그널 프로세서는 상기 생성된 휘도 데이터 및 상기 제3색차 데이터에 기초하여 이미지 데이터를 생성하도록 설정된 카메라 모듈.
The method according to claim 6,
And the image signal processor is configured to generate image data based on the generated luminance data and the third color difference data.
제 4항에 있어서,
상기 이미지 시그널 프로세서는 인터페이스를 통해 상기 제1데이터 및 상기 제2데이터를 카메라 모듈 외부의 프로세서로 전송하도록 설정된 카메라 모듈.
5. The method of claim 4,
Wherein the image signal processor is configured to transmit the first data and the second data via an interface to a processor external to the camera module.
제 4항에 있어서,
상기 이미지 시그널 프로세서는 상기 제1데이터 및 상기 제2데이터에 기초하여 상기 이미지 데이터의 화이트 밸런스를 조정하도록 설정된 카메라 모듈.
5. The method of claim 4,
And the image signal processor is configured to adjust the white balance of the image data based on the first data and the second data.
제 1항에 있어서,
상기 필터 어레이는 상기 제1지정된 대역 및 상기 제2지정된 대역보다 높은 제3지정된 대역의 빛을 통과시킬 수 있는 제3필터 및 상기 제1지정된 대역 및 상기 제2지정된 대역보다 낮은 제4지정된 대역의 빛을 통과시킬 수 있는 제4필터를 더 포함하는 카메라 모듈.
The method according to claim 1,
Wherein the filter array includes a third filter capable of passing light of a third specified band higher than the first designated band and the second designated band and a third filter capable of passing light of a fourth specified band lower than the first designated band and the second specified band And a fourth filter capable of passing light therethrough.
제 1항에 있어서,
상기 이미지 센서 모듈은,
복수의 포토 다이오드들; 및
상기 복수의 포토 다이오드 각각에 대응하는 복수의 필터 어레이들을 포함하며,
상기 복수의 포토 다이오드들 및 복수의 필터 어레이들이 적어도 하나의 픽셀을 구성하도록 설정된 카메라 모듈.
The method according to claim 1,
The image sensor module includes:
A plurality of photodiodes; And
A plurality of filter arrays corresponding to each of the plurality of photodiodes,
Wherein the plurality of photodiodes and the plurality of filter arrays are configured to configure at least one pixel.
제 2항에 있어서,
상기 적어도 하나의 포토 다이오드는,
플로팅 확산 영역이 활성화 됨에 따라 상기 제1영역 및 상기 제2영역으로 구분되거나, 또는
금속막을 통해 상기 제1영역 및 상기 제2영역으로 구분되는 카메라 모듈.
3. The method of claim 2,
Wherein the at least one photodiode comprises:
The floating diffusion region is divided into the first region and the second region according to activation of the floating diffusion region, or
And the first region and the second region through the metal film.
전자 장치에 있어서,
카메라 모듈; 및
이미지 시그널 프로세서를 포함하며,
상기 카메라 모듈은,
마이크로 렌즈;
상기 마이크로 렌즈를 통과한 빛을 전기적 신호로 변환할 수 있는 적어도 하나의 포토 다이오드; 및
상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치되고, 제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함하는 필터 어레이를 포함하며,
상기 이미지 시그널 프로세서는 상기 적어도 하나의 포토 다이오드에서 출력되는 데이터에 기반하여 이미지 데이터를 생성하도록 설정된 전자 장치.
In an electronic device,
A camera module; And
An image signal processor,
The camera module includes:
A micro lens;
At least one photodiode capable of converting light passing through the microlens into an electrical signal; And
A first filter disposed between the microlens and the at least one photodiode and capable of passing light in a first designated band, and a second filter disposed in the other of the first band and the second band, 2 a filter array including a second filter capable of passing light of a specified band,
Wherein the image signal processor is configured to generate image data based on data output from the at least one photodiode.
제 13항에 있어서,
상기 적어도 하나의 포토 다이오드는 상기 제1필터를 통과한 빛을 감지하는 제1영역 및 상기 제2필터를 통과한 빛을 감지하는 제2영역을 포함하는 전자 장치.
14. The method of claim 13,
Wherein the at least one photodiode comprises a first region for sensing light passing through the first filter and a second region for sensing light passing through the second filter.
제 14항에 있어서,
상기 적어도 하나의 포토 다이오드는 상기 제1영역에서 감지된 빛에 대응하는 제1데이터를 획득하고, 상기 제2영역에서 감지된 빛에 대응하는 제2데이터를 획득 하도록 설정되고,
상기 이미지 시그널 프로세서는 상기 제1데이터 및 상기 제2데이터에 기초하여 상기 이미지 데이터를 생성하도록 설정된 전자 장치.
15. The method of claim 14,
Wherein the at least one photodiode is configured to acquire first data corresponding to light sensed in the first region and acquire second data corresponding to sensed light in the second region,
And the image signal processor is configured to generate the image data based on the first data and the second data.
제 14항에 있어서,
상기 이미지 시그널 프로세서는,
상기 제1데이터 및 상기 제2데이터를 합산하여 휘도 데이터를 생성하고,
상기 제1데이터에 기초하여 제1색차 데이터를 생성하고,
상기 제2데이터에 기초하여 제2색차 데이터를 생성하고,
상기 제1색차 데이터 및 상기 제2색차 데이터를 합산하여 제3색차 데이터를 생성하고, 및
상기 생성된 휘도 데이터 및 상기 제3색차 데이터에 기초하여 상기 이미지 데이터를 생성하도록 설정된 전자 장치.
15. The method of claim 14,
The image signal processor comprising:
Summing the first data and the second data to generate luminance data,
Generating first color difference data based on the first data,
Generating second color difference data based on the second data,
Summing the first color difference data and the second color difference data to generate third color difference data, and
And generating the image data based on the generated luminance data and the third color difference data.
제 13항에 있어서,
상기 이미지 시그널 프로세서는,
전자 장치의 어플리케이션 프로세서, 상기 카메라 모듈의 이미지 센서 IC, 또는 상기 어플리케이션 프로세서 및 상기 카메라 모듈과 전기적으로 연결된 컴패니언 칩 중 어느 하나로 구성되는 전자 장치.
14. The method of claim 13,
The image signal processor comprising:
An application processor of the electronic device, an image sensor IC of the camera module, or a companion chip electrically connected to the application processor and the camera module.
카메라 모듈의 이미지 데이터 생성 방법에 있어서,
상기 카메라 모듈은 마이크로 렌즈와, 상기 마이크로 렌즈와 대응되도록 배치되는 적어도 하나의 포토 다이오드 및 상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치되는 필터 어레이를 포함하며,
상기 방법은,
상기 적어도 하나의 포토 다이오드의 제1영역에서 감지된 빛에 기초하여 제1데이터를 생성하는 동작;
상기 적어도 하나의 포토 다이오드의 제2영역에서 감지된 빛에 기초하여 제2데이터를 생성하는 동작;
상기 제1데이터 및 상기 제2데이터에 기초하여 이미지 데이터를 생성하는 동작을 포함하며,
상기 제1데이터의 색상과 상기 제2데이터의 색상은 서로 보색 관계인 방법.
A method for generating image data of a camera module,
The camera module includes a microlens, at least one photodiode arranged to correspond to the microlens, and a filter array disposed between the microlens and the at least one photodiode,
The method comprises:
Generating first data based on light sensed in a first region of the at least one photodiode;
Generating second data based on light sensed in a second region of the at least one photodiode;
Generating image data based on the first data and the second data,
Wherein the color of the first data and the color of the second data are complementary to each other.
제 18항에 있어서,
상기 적어도 하나의 포토 다이오드는 상기 제1필터를 통과한 빛을 감지하는 제1영역 및 상기 제2필터를 통과한 빛을 감지하는 제2영역을 포함하고,
상기 필터 어레이는 상기 제1영역에 대응되도록 마련되고 제1지정된 대역의 빛을 통과 시킬 수 있는 제1필터 및 상기 제2영역에 대응되도록 마련되고 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과 시킬 수 있는 제2필터를 포함하는 방법.
19. The method of claim 18,
Wherein the at least one photodiode includes a first region for sensing light passing through the first filter and a second region for sensing light passing through the second filter,
Wherein the filter array includes a first filter that is provided to correspond to the first area and is capable of passing light of a first designated band, and a second filter that is provided to correspond to the second area and has a color and a complementary color relationship corresponding to the first designated band And a second filter capable of passing light of a second specified band corresponding to another color having the second color.
제 18항에 있어서,
상기 이미지 데이터를 생성하는 동작은,
상기 제1데이터 및 상기 제2데이터를 합산하여 휘도 데이터를 생성하는 동작;
상기 제1데이터에 기초하여 제1색차 데이터를 생성하는 동작;
상기 제2데이터에 기초하여 제2색차 데이터를 생성하는 동작;
상기 제1색차 데이터 및 상기 제2색차 데이터를 합산하여 제3색차 데이터를 생성하는 동작; 및
상기 생성된 휘도 데이터 및 상기 제3색차 데이터에 기초하여 상기 이미지 데이터를 생성하는 동작을 포함하는 방법.
19. The method of claim 18,
Wherein the generating of the image data comprises:
Summing the first data and the second data to generate luminance data;
Generating first color difference data based on the first data;
Generating second color difference data based on the second data;
Generating third color difference data by summing the first color difference data and the second color difference data; And
And generating the image data based on the generated luminance data and the third color difference data.
KR1020170146917A 2017-11-06 2017-11-06 Camera module including filter array of complementary colors and electronic device including the camera module KR102412278B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020170146917A KR102412278B1 (en) 2017-11-06 2017-11-06 Camera module including filter array of complementary colors and electronic device including the camera module
US16/759,246 US11558587B2 (en) 2017-11-06 2018-07-26 Camera module comprising complementary color filter array and electronic device comprising same
PCT/KR2018/008488 WO2019088407A1 (en) 2017-11-06 2018-07-26 Camera module comprising complementary color filter array and electronic device comprising same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170146917A KR102412278B1 (en) 2017-11-06 2017-11-06 Camera module including filter array of complementary colors and electronic device including the camera module

Publications (2)

Publication Number Publication Date
KR20190051371A true KR20190051371A (en) 2019-05-15
KR102412278B1 KR102412278B1 (en) 2022-06-24

Family

ID=66332051

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170146917A KR102412278B1 (en) 2017-11-06 2017-11-06 Camera module including filter array of complementary colors and electronic device including the camera module

Country Status (3)

Country Link
US (1) US11558587B2 (en)
KR (1) KR102412278B1 (en)
WO (1) WO2019088407A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021171797A1 (en) * 2020-02-26 2021-09-02 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging device and electronic apparatus
WO2021187076A1 (en) * 2020-03-16 2021-09-23 ソニーセミコンダクタソリューションズ株式会社 Imaging element, and electronic instrument
CN113676629B (en) * 2021-08-09 2024-01-09 Oppo广东移动通信有限公司 Image sensor, image acquisition device, image processing method and image processor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100912873B1 (en) * 2007-04-26 2009-08-19 삼성전자주식회사 Method and apparatus for generating imgae
KR101534547B1 (en) * 2008-11-24 2015-07-08 삼성전자주식회사 Image sensor and system including the same
KR20170018206A (en) * 2015-08-07 2017-02-16 삼성전자주식회사 Image sensor and image processing device including the same

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001250931A (en) 2000-03-07 2001-09-14 Canon Inc Solid-state image sensor and image sensing system using the same
US8134582B2 (en) * 2004-05-14 2012-03-13 Canon Kabushiki Kaisha Color display apparatus
US7423677B2 (en) * 2004-07-27 2008-09-09 Avago Technologies Ecbu Ip Pte Ltd Color filter method and apparatus
JP4628937B2 (en) * 2005-12-01 2011-02-09 オリンパス株式会社 Camera system
KR100769548B1 (en) * 2005-12-30 2007-10-23 엠텍비젼 주식회사 Color filter array and image interpolation method
KR101411548B1 (en) * 2007-11-05 2014-07-07 삼성전자주식회사 Image sensor, color filter array, and image pickup apparatus
JP4377428B2 (en) * 2007-12-12 2009-12-02 アキュートロジック株式会社 Solid-state imaging device and imaging apparatus using the same
US7990445B2 (en) * 2008-05-30 2011-08-02 Omnivision Technologies, Inc. Image sensor having differing wavelength filters
KR101563348B1 (en) 2008-10-07 2015-10-27 삼성전자 주식회사 Apparatus and method for reducing noise of image
JP5259381B2 (en) * 2008-12-25 2013-08-07 京セラ株式会社 Imaging apparatus and imaging method
JP5432075B2 (en) * 2010-07-06 2014-03-05 パナソニック株式会社 Imaging apparatus and color temperature calculation method
JP5999750B2 (en) * 2011-08-25 2016-09-28 ソニー株式会社 Imaging device, imaging apparatus, and biological imaging apparatus
JP5743837B2 (en) * 2011-10-07 2015-07-01 キヤノン株式会社 Photoelectric conversion device, imaging device, and imaging system
WO2013108656A1 (en) 2012-01-16 2013-07-25 ソニー株式会社 Solid-state image sensor and camera system
KR102212138B1 (en) * 2014-08-19 2021-02-04 삼성전자주식회사 Unit pixel for image sensor and pixel array comprising the same
JP6658529B2 (en) 2014-09-08 2020-03-04 ソニー株式会社 Display device, display device driving method, and electronic device
KR101692748B1 (en) * 2015-03-24 2017-01-04 인천대학교 산학협력단 Method for interpolating color filter array based on inter-channel correlation
KR20180024604A (en) * 2016-08-30 2018-03-08 삼성전자주식회사 Image sensor and driving method thereof
CN111988587B (en) * 2017-02-10 2023-02-07 杭州海康威视数字技术股份有限公司 Image fusion apparatus and image fusion method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100912873B1 (en) * 2007-04-26 2009-08-19 삼성전자주식회사 Method and apparatus for generating imgae
KR101534547B1 (en) * 2008-11-24 2015-07-08 삼성전자주식회사 Image sensor and system including the same
KR20170018206A (en) * 2015-08-07 2017-02-16 삼성전자주식회사 Image sensor and image processing device including the same

Also Published As

Publication number Publication date
WO2019088407A1 (en) 2019-05-09
KR102412278B1 (en) 2022-06-24
US11558587B2 (en) 2023-01-17
US20200374493A1 (en) 2020-11-26

Similar Documents

Publication Publication Date Title
US11039056B2 (en) Image sensor for generating depth data by a path difference of light generated through micro lens covering a plurality of sub-pixels and electronic device including the image sensor
KR102318013B1 (en) Electronic device composing a plurality of images and method
US11626447B2 (en) Electronic device comprising image sensor for identifying an operation setting and an external environmental condition and method of operation thereof
EP3815356B1 (en) Electronic device and method for acquiring depth information by using at least one of cameras or depth sensor
KR102663537B1 (en) electronic device and method of image processing
US11146720B2 (en) Electronic device for providing function by using RGB image and IR image acquired through one image sensor
KR20200077984A (en) Camera module which has multi-cell structure and portable communication device including the camera module
JP2012070215A (en) Three-dimensional imaging apparatus
US11917306B2 (en) Electronic device that corrects images captured on a side opposite a displaying surface
KR102412278B1 (en) Camera module including filter array of complementary colors and electronic device including the camera module
US11582430B2 (en) Electronic device comprising image sensor and method of operation thereof
US11418740B2 (en) Electronic device and method for determining type of light source of image
KR20210130972A (en) Color filter array of an electronic deviceand the electronic
US11895401B2 (en) Camera module for high resolution auto focusing and electronic device including same
KR20200101803A (en) Electronic device for generating depth map and method thereof
EP4171019A1 (en) Electronic device comprising image sensor, and method for controlling same
KR20210151613A (en) Image Processing Device and Image Processing Method
US11070751B2 (en) Electronic device and image up-sampling method for electronic device
US20240259680A1 (en) Electronic device acquiring image through image sensor, and operating method thereof
KR20210114768A (en) Electronic device for corecting lens shading of image based on differential between sub images and operating method thereof
KR20220014150A (en) Electronic device including image sensor and image signal processor and Method thereof
KR20240120602A (en) Electronic apparautus obtaining image through image sensor and operating method thereof
CN116896673A (en) Method and apparatus for acquiring images using a multispectral sensor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant