KR20190051371A - Camera module including filter array of complementary colors and electronic device including the camera module - Google Patents
Camera module including filter array of complementary colors and electronic device including the camera module Download PDFInfo
- Publication number
- KR20190051371A KR20190051371A KR1020170146917A KR20170146917A KR20190051371A KR 20190051371 A KR20190051371 A KR 20190051371A KR 1020170146917 A KR1020170146917 A KR 1020170146917A KR 20170146917 A KR20170146917 A KR 20170146917A KR 20190051371 A KR20190051371 A KR 20190051371A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- photodiode
- filter
- region
- image
- Prior art date
Links
Images
Classifications
-
- H04N5/2254—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/131—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/20—Filters
- G02B5/28—Interference filters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/135—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
- H04N25/136—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/88—Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Solid State Image Pick-Up Elements (AREA)
- Studio Devices (AREA)
Abstract
Description
본 실시예는 카메라 모듈에 관한 것이며, 보다 상세하게는 이미지 신호를 감지하는 카메라 모듈과 상기 카메라 모듈을 포함하는 전자 장치 및 상기 카메라 모듈 및/또는 전자 장치의 이미지 데이터 생성 방법에 관한 것이다.The present invention relates to a camera module, and more particularly, to a camera module for sensing an image signal, an electronic device including the camera module, and a method for generating image data of the camera module and / or the electronic device.
카메라 모듈은 이미지 센서의 단위 픽셀들을 사용하여 입사광을 감지하여 입사광에 대응하는 아날로그 신호를 생성하고, 아날로그 신호를 디지털 신호로 변환하여 외부 객체에 대한 이미지를 생성할 수 있다. 최근에는 스마트폰, 태블릿 PC 등 휴대용 전자 장치(이하, 전자 장치)의 기능이 다양화 됨에 따라, 전자 장치가 카메라 모듈을 구비하게 되었으며, 전자 장치의 카메라 모듈을 이용해 다양한 기능을 수행할 수 있다.The camera module senses incident light using unit pixels of the image sensor to generate an analog signal corresponding to the incident light and convert the analog signal into a digital signal to generate an image for an external object. 2. Description of the Related Art Recently, as functions of portable electronic devices (hereinafter, electronic devices) such as smart phones and tablet PCs have diversified, electronic devices have been provided with camera modules and various functions can be performed using camera modules of electronic devices.
카메라 장치(또는 카메라 모듈을 구비한 전자 장치)가 보다 정확한 이미지를 센싱하기 위해, 이미지 센서의 감도를 향상 시킬 필요가 있다. 여기서, 이미지 센서의 감도는 이미지 센서의 노출 시간 대비 이미지 센서에서 센싱되는 광자(photon)의 수로 정의될 수 있다. In order for a camera device (or an electronic device having a camera module) to sense a more accurate image, it is necessary to improve the sensitivity of the image sensor. Here, the sensitivity of the image sensor can be defined as the number of photons sensed by the image sensor compared to the exposure time of the image sensor.
종래 기술에 따르면, 이미지 센서의 감도를 향상 시키기 위한 다양한 방법이 존재하나, 종래 기술들은 과도한 계산량으로 인해 처리 속도가 늦어지는 문제, 해상도가 낮아지거나 단위 픽셀의 크기(예: 픽셀 피치)가 증가하는 문제가 있다.According to the prior art, there are various methods for improving the sensitivity of the image sensor. However, the conventional techniques have problems in that the processing speed is slowed due to an excessive amount of calculation, the resolution is low, or the size of a unit pixel (e.g., pixel pitch) there is a problem.
본 발명의 다양한 실시예들은 이미지 센서의 감도를 향상 시키고, 적은 계산량으로 이미지 처리가 가능한 카메라 모듈 및 전자 장치를 제공함에 그 목적이 있다.It is an object of the present invention to provide a camera module and an electronic device capable of improving the sensitivity of an image sensor and processing an image with a small amount of calculation.
본 발명의 다양한 실시예에 따른 카메라 모듈은, 적어도 하나의 렌즈를 포함하는 렌즈 모듈 및 상기 렌즈 모듈과 결합된 이미지 센서 모듈을 포함하고, 상기 이미지 센서 모듈은, 마이크로 렌즈, 적어도 하나의 포토 다이오드 및 제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함하는 필터 어레이가 상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치될 수 있다.A camera module according to various embodiments of the present invention includes a lens module including at least one lens and an image sensor module coupled with the lens module, the image sensor module including a micro lens, at least one photodiode, A first filter capable of passing light in a first designated band and a second filter capable of passing light in a second designated band corresponding to a color corresponding to the first designated band and a different color having a complementary color relationship A filter array may be disposed between the microlens and the at least one photodiode.
본 발명의 다양한 실시예에 따른 전자 장치는, 카메라 모듈 및 이미지 시그널 프로세서를 포함하며, 상기 카메라 모듈은, 마이크로 렌즈, 상기 마이크로 렌즈를 통과한 빛을 전기적 신호로 변환할 수 있는 적어도 하나의 포토 다이오드 및 상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치되고, 제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함하는 필터 어레이를 포함하며, 상기 이미지 시그널 프로세서는 상기 적어도 하나의 포토 다이오드에서 출력되는 데이터에 기반하여 이미지 데이터를 생성하도록 설정될 수 있다.An electronic device according to various embodiments of the present invention includes a camera module and an image signal processor, wherein the camera module includes a microlens, at least one photodiode capable of converting light passing through the microlens into an electrical signal, And a first filter disposed between the microlens and the at least one photodiode and capable of passing light in a first designated band and a second filter disposed in the second band corresponding to another color having a complementary color with a color corresponding to the first designated band And a second filter capable of passing light in a second designated band, the image signal processor being configured to generate image data based on data output from the at least one photodiode .
본 발명의 다양한 실시예에 따른, 카메라 모듈의 이미지 데이터 생성 방법은, 상기 카메라 모듈은 마이크로 렌즈와, 상기 마이크로 렌즈와 대응되도록 배치되는 적어도 하나의 포토 다이오드 및 상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치되는 필터 어레이를 포함하며, 상기 방법은, 상기 적어도 하나의 포토 다이오드의 제1영역에서 감지된 빛에 기초하여 제1데이터를 생성하는 동작, 상기 적어도 하나의 포토 다이오드의 제2영역에서 감지된 빛에 기초하여 제2데이터를 생성하는 동작, 상기 제1데이터 및 상기 제2데이터에 기초하여 이미지 데이터를 생성하는 동작을 포함하며, 상기 제1데이터의 색상과 상기 제2데이터의 색상은 서로 보색 관계일 수 있다.According to various embodiments of the present invention, there is provided a method of generating image data of a camera module, the camera module comprising: a microlens; at least one photodiode arranged to correspond to the microlens; and at least one photodiode The method comprising: generating first data based on light sensed in a first region of the at least one photodiode, generating a second data in a second region of the at least one photodiode Generating second data based on the sensed light; and generating image data based on the first data and the second data, wherein the color of the first data and the color of the second data are They can be complementary to each other.
본 발명의 다양한 실시예에 따르면, 이미지 센서의 감도를 향상 시키고, 적은 계산량으로 이미지 처리가 가능한 카메라 모듈 및 전자 장치를 제공할 수 있으며, 특히, 기존 카메라 시스템의 구성을 일부만 변화하여 상기와 같은 효과를 제공할 수 있다.According to various embodiments of the present invention, it is possible to provide a camera module and an electronic device capable of improving the sensitivity of an image sensor and processing an image with a small calculation amount. Particularly, Can be provided.
도 1은 다양한 실시예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 다양한 실시예에 따른 카메라 모듈의 블록도이다.
도 3은 다양한 실시예에 따른 단위 픽셀을 도시한 것이다.
도 4는 다양한 실시예에 따른 렌즈 모듈, 마이크로 렌즈 및 포토 다이오드를 도시한 것이다.
도 5는 다양한 실시예에 따른 플로팅 확산 영역에 의한 포토 다이오드의 분할 영역을 도시한 것이다.
도 6a 내지 6c는 다양한 실시예에 따라 이미지 데이터를 생성하는 방법을 도시한 것이다.
도 7은 다양한 실시예에 따른 이미지 데이터의 파장 범위를 도시한 것이다.
도 8은 다양한 실시예에 따른 플로팅 확산 영역에 의한 포토 다이오드의 분할 영역을 도시한 것이다.
도 9는 다양한 실시예에 따른 플로팅 확산 영역에 의한 포토 다이오드의 분할 영역을 도시한 것이다.
도 10은 다양한 실시예에 따른 전자 장치의 블록도이다.
도 11은 다양한 실시예에 따른 전자 장치의 블록도이다.
도 12는 다양한 실시예에 따른 이미지 데이터 생성 방법의 흐름도이다.
도 13은 다양한 실시예에 따른 이미지 데이터 생성 방법의 흐름도이다.1 is a block diagram of an electronic device in a network environment in accordance with various embodiments.
2 is a block diagram of a camera module according to various embodiments.
Figure 3 illustrates a unit pixel according to various embodiments.
Figure 4 illustrates a lens module, a microlens, and a photodiode according to various embodiments.
FIG. 5 illustrates a segmented region of a photodiode by a floating diffusion region according to various embodiments.
Figures 6A-6C illustrate a method for generating image data in accordance with various embodiments.
Figure 7 shows the wavelength range of image data according to various embodiments.
Figure 8 illustrates a segmented region of a photodiode by a floating diffusion region according to various embodiments.
Figure 9 shows a segmented area of a photodiode by a floating diffusion region according to various embodiments.
10 is a block diagram of an electronic device according to various embodiments.
11 is a block diagram of an electronic device according to various embodiments.
12 is a flowchart of a method of generating image data according to various embodiments.
13 is a flowchart of a method of generating image data according to various embodiments.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 및 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 예를 들면, 표시 장치(160)(예: 디스플레이)에 임베디드된 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.1 is a block diagram of an electronic device 101 in a
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 구동하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(123)는 메인 프로세서(121)와 별개로 또는 임베디드되어 운영될 수 있다.
이런 경우, 보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부 구성 요소로서 구현될 수 있다. 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. In such a case, the coprocessor 123 may be used in place of the
프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be software stored in the memory 130 and may include, for example, an operating system 142, a
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다. The
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일실시예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.The
표시 장치(160)는 전자 장치(101)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150) 를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The
센서 모듈(176)은 전자 장치(101)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 may generate an electrical signal or data value corresponding to an internal operating state (e.g., power or temperature) of the electronic device 101, or an external environmental condition. The sensor module 176 may be a gesture sensor, a gyro sensor, a barometric sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared sensor, Or an illuminance sensor.
인터페이스(177)는 외부 전자 장치(예: 전자 장치(102))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The
연결 단자(178)는 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.The
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.The
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(190)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다. The communication module 190 is responsible for establishing a wired or wireless communication channel between the electronic device 101 and an external electronic device (e.g.,
일실시예에 따르면, 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(101)를 구별 및 인증할 수 있다. According to one embodiment, the wireless communication module 192 may use the user information stored in the
안테나 모듈(197)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일시예에 따르면, 통신 모듈(190)(예: 무선 통신 모듈(192))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다. The
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.Some of the components are connected to each other via a communication method (e.g., bus, general purpose input / output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI) (Such as commands or data) can be exchanged between each other.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. According to one embodiment, the command or data may be transmitted or received between the electronic device 101 and the external
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic device according to the various embodiments disclosed herein can be various types of devices. The electronic device can include, for example, at least one of a portable communication device (e.g., a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. The electronic device according to the embodiment of the present document is not limited to the above-described devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.It should be understood that the various embodiments of the present document and the terms used therein are not intended to limit the techniques described herein to specific embodiments, but rather to include various modifications, equivalents, and / or alternatives of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar components. The singular expressions may include plural expressions unless the context clearly dictates otherwise. In this document, the expressions "A or B," "at least one of A and / or B," "A, B or C," or "at least one of A, B, and / Possible combinations. Expressions such as "first", "second", "first" or "second" may be used to qualify the components, regardless of order or importance, and to distinguish one component from another And does not limit the constituent elements. When it is mentioned that some (e.g., first) component is "(functionally or communicatively) connected" or "connected" to another (second) component, May be connected directly to the component, or may be connected through another component (e.g., a third component).
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다. As used herein, the term " module " includes units comprised of hardware, software, or firmware and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits. A module may be an integrally constructed component or a minimum unit or part thereof that performs one or more functions. For example, the module may be configured as an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(140))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치(예: 전자 장치(101))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Various embodiments of the present document may include instructions stored on a machine-readable storage medium (e.g., internal memory 136 or external memory 138) readable by a machine (e.g., a computer) Software (e.g., program 140). The device may include an electronic device (e.g., electronic device 101) in accordance with the disclosed embodiments as an apparatus capable of calling stored instructions from the storage medium and operating according to the called instructions. When the instruction is executed by a processor (e.g., processor 120), the processor may perform the function corresponding to the instruction, either directly or using other components under the control of the processor. The instructions may include code generated or executed by the compiler or interpreter. A device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' means that the storage medium does not include a signal and is tangible, but does not distinguish whether data is stored semi-permanently or temporarily on the storage medium.
일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to a temporal example, the method according to various embodiments disclosed herein may be provided in a computer program product. A computer program product can be traded between a seller and a buyer as a product. A computer program product may be distributed in the form of a machine readable storage medium (eg, compact disc read only memory (CD-ROM)) or distributed online through an application store (eg PlayStore ™). In the case of on-line distribution, at least a portion of the computer program product may be temporarily stored, or temporarily created, on a storage medium such as a manufacturer's server, a server of an application store, or a memory of a relay server.
다양한 실시예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each of the components (e.g., modules or programs) according to various embodiments may be comprised of a single entity or a plurality of entities, and some of the subcomponents described above may be omitted, or other subcomponents May be further included in various embodiments. Alternatively or additionally, some components (e.g., modules or programs) may be integrated into a single entity to perform the same or similar functions performed by each respective component prior to integration. Operations performed by a module, program, or other component, in accordance with various embodiments, may be performed sequentially, in parallel, repetitively, or heuristically, or at least some operations may be performed in a different order, .
도 2는, 다양한 실시예들에 따른, 카메라 모듈(200)의 블럭도)이다. 2 is a block diagram of
도 2를 참조하면, 카메라 모듈(200)은 렌즈 모듈(210), 플래쉬(220), 이미지 센서 모듈(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(265)를 포함할 수 있으며, 구체적인 실시 형태에 따라 도시된 구성 중 적어도 일부가 생략 또는 치환되더라도 본 발명의 다양한 실시예들을 구현할 수 있다. 카메라 모듈(200)은 전자 장치(예: 도 1의 전자 장치(101))에 마련되어, 획득한 이미지 데이터를 프로세서(예: 도 1의 프로세서(120)) 등 전자 장치에 제공할 수 있다.2, the
다양한 실시예에 따르면, 렌즈 모듈(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있으며, 빛을 굴절 시켜 이미지 센서 모듈(230)로 입사되도록 할 수 있다. 렌즈 모듈(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일실시예에 따르면, 카메라 모듈(200)은 복수의 렌즈 모듈(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(200)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)일 수 있다. 복수의 렌즈 모듈(210)들은 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 렌즈 어셈블리와 적어도 하나의 다른 렌즈 속성을 가질 수 있다. 렌즈 모듈(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. According to various embodiments, the
다양한 실시예에 따르면, 플래쉬(220)는 피사체로부터 방출되는 빛을 강화하기 위하여 사용되는 광원을 방출할 수 있다. 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다.According to various embodiments, the
다양한 실시예에 따르면, 카메라 모듈(200)은 렌즈 모듈(210)의 전면, 후면 또는 그 사이에 마련되어, 렌즈 모듈(210)로 입사되는 빛을 통과 또는 차단 시키는 기능을 수행하는 셔터(미도시)를 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(200)은 물리적인 셔터를 구비하지 않고, 이미지 센서 모듈(230)의 센싱 값을 차단함으로써 셔터 기능을 구현할 수 있는 전자식 셔터를 포함할 수도 있다.According to various embodiments, the
다양한 실시예에 따르면, 이미지 센서 모듈(230)는 피사체로부터 렌즈 모듈(210) 를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일실시예에 따르면, 이미지 센서 모듈(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서 모듈(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서로 구현될 수 있다.According to various embodiments, the
다양한 실시예에 따르면, 이미지 센서 모듈(230)은 픽셀들을 구성하는 복수의 포토 다이오드(photodiode)(234)를 포함할 수 있다. 복수의 포토 다이오드(234)들은 광전 변환을 수행하는 동일한 종류의 소자로 마련될 수 있다. 다양한 실시예에 따르면, 복수의 포토 다이오드(234)가 하나의 단위 픽셀을 구성할 수 있는데, 예를 들어, 4개의 포토 다이오드가 하나의 단위 픽셀을 구성할 수 있으며, 이 경우 각각의 포토 다이오드는 서브 픽셀을 구성할 수 있다. 포토 다이오드들이 단위 픽셀을 구성하는 실시예에 대해서는 도 3을 통해 보다 상세히 설명하기로 한다.According to various embodiments, the
다양한 실시예에 따르면, 포토 다이오드(234)는 복수의 영역(예: 제1영역 및 제2영역)으로 구분될 수 있으며, 하나의 영역으로 입력되는 빛은 인접한 다른 영역에는 감지되지 않을 수 있다.According to various embodiments, the
일 실시예에 따르면, 포토 다이오드(234)는 플로팅 확산 영역이 활성화 됨에 따라 제1영역 및 제2영역으로 구분될 수 있다. 예를 들어, 포토 다이오드의 가운데에서 세로 방향으로 플로팅 확산 영역이 형성될 수 있다. 플로팅 확산 영역은 물리적으로 포토 다이오드(234)를 구분하는 것이 아닌 전기 포텐셜(electric potential)에 의해 구분된 양 영역에 빛을 차단하기 위한 것이다. 각각의 플로팅 확산 영역은 트랜지스터(미도시)와 연결되고, 이미지 센서 IC(260)(또는 전자 장치의 프로세서)는 트랜지스터에 공급되는 전압을 제어하여 플로팅 확산 영역을 활성화 할 수 있다. 플로팅 확산 영역이 활성화 되는 경우, 포토 다이오드(234)의 제1영역 및 제2영역 상호 간에는 빛의 통과가 차단되고, 그에 따라 제1영역과 제2영역에서 감지되는 빛의 세기 및/또는 값이 각각 독립적일 수 있다. 플로팅 확산 영역은 이미지 센서 IC(260) 또는 전자 장치의 프로세서의 제어 신호에 따라 활성화 또는 비활성화 될 수 있다. 플로팅 확산 영역이 활성화 되는 경우, 포토 다이오드(234)는 제1영역에서 감지한 빛에 대응하는 제1데이터 및 제2영역에서 감지한 빛에 대응하는 제2데이터를 구분하여 리드아웃 할 수 있다.According to one embodiment, the
다른 일 실시예에 따르면, 포토 다이오드(234)는 금속막을 통해 제1영역 및 제2영역으로 구분될 수 있다. 여기서, 금속막은 텅스텐 등 빛의 통과를 차단할 수 있는 다양한 금속이 사용될 수 있다. 이 경우에도 포토 다이오드(234)는 제1영역에서 감지한 빛에 대응하는 제1데이터 및 제2영역에서 감지한 빛에 대응하는 제2데이터를 구분하여 리드아웃 할 수 있다. 다른 일 실시예에 따르면, 포토 다이오드(234)는 제1영역에 대응하는 포토 다이오드 및 제2영역에 대응하는 포토 다이오드, 즉 2개의 포토 다이오드를 포함할 수 있다. 이 경우, 하나의 마이크로 렌즈(232) 아래에 2개의 포토 다이오드가 배치된 구조로써, 각 포토 다이오드에서 제1데이터 및 제2데이터를 리드아웃 할 수 있다. 본 실시예에서도 포토 다이오드(234)를 구성하는 2개의 포토 다이오드 사이에 금속막이 형성될 수 있다.According to another embodiment, the
다양한 실시예에 따르면, 각각의 포토 다이오드(234)에 대응되게 마이크로 렌즈(micro lens)(232)가 배치될 수 있다. 마이크로 렌즈(232)는 렌즈 모듈(210)을 통과한 빛이 대응되는 포토 다이오드(234)로 입력되도록 빛을 굴절하는 기능을 수행할 수 있다.According to various embodiments, a
다양한 실시예에 따르면, 마이크로 렌즈(232)와 포토 다이오드(234) 사이에는 필터 어레이(filter array)(236)가 마련될 수 있다. 하나의 포토 다이오드(234)를 기준으로 필터 어레이(236)는 서로 다른 대역의 빛을 통과 시키는 제1필터 및 제2필터를 포함할 수 있다. 다양한 실시예에 따르면, 제1필터는 제1지정된 대역의 빛을 통과 시킬 수 있고, 제2필터는 제1지정된 대역에 대응하는 색상과 보색 관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있다. 예를 들어, 4개의 포토 다이오드(234)가 단위 픽셀(예: R 픽셀, 2개의 G 픽셀 및 B 픽셀)을 구성하는 경우, 하나의 포토 다이오드에는 가시광선 대역 중 R(red) 대역의 빛을 통과 시키는 제1필터와, R과 보색 관계에 있는 C(cyan) 대역의 빛을 통과 시키는 제2필터가 대응되게 마련되고, 2개의 포토 다이오드에는 G(green) 대역의 빛을 통과 시키는 제3필터(또는 제2 및 제3포토 다이오드의 제1필터), G와 보색 관계에 있는 M(magenta) 대역의 빛을 통과 시키는 제4필터(또는 제2 및 제3포토 다이오드의 제2필터)가 대응되게 마련되고, 나머지 하나의 포토 다이오드에는 B(blue) 대역의 빛을 통과 시키는 제5필터(또는 제4포토 다이오드의 제1필터)와, B와 보색 관계에 있는 Y(yellow) 대역의 빛을 통과 시키는 제6필터(또는 제4포토 다이오드의 제2필터)가 대응되게 마련될 수 있다. 이렇게 함으로써 이미지 센서 모듈(230)은 포토 다이오드를 통해 제 1 필터를 통과한 원색 신호와 제 2 필터를 통과한 보색 신호의 합으로 흑백 이미지 센서를 이용하지 않고도 상기 흑백 이미지 센서에서 얻을 수 있는 휘도 신호에 대응하는 휘도 데이터를 획득할 수 있다.According to various embodiments, a
다양한 실시예에 따르면, 필터 어레이(236)는 제1필터 및 제2필터와, 상기 제1지정된 대역 및 제2지정된 대역보다 높은 제3지정된 대역(예: UV(ultra-violet ray) 대역)의 빛을 통과 시키는 제3필터 및 상기 제1지정된 대역 및 제2지정된 대역보다 낮은 제4지정된 대역(예: IR(infra-red ray) 대역)의 빛을 통과 시키는 제4필터를 포함할 수 있다. 본 실시예에서 포토 다이오드(234)는 플로팅 확산 영역 또는 차단막을 통해 4개의 영역으로 구분될 수 있으며, 4개의 영역 각각에 대응되도록 상기 필터 어레이의 제1필터 내지 제4필터가 배치될 수 있다. 본 실시예는 도 8 및 도 9를 통해 보다 상세히 설명하기로 한다.According to various embodiments, the
다양한 실시예에 따른 마이크로 렌즈(232), 필터 어레이(236) 및 포토 다이오드(234)를 포함하는 이미지 센서 모듈(230)의 구체적인 형태 및 그에 따라 포토 다이오드(234)에서 감지할 수 있는 데이터에 대해서는 도 5a 및 5b를 통해 보다 상세히 설명하기로 한다.The specific shape of the
다양한 실시예에 따르면, 이미지 스태빌라이저(240)는 카메라 모듈(200) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향(예: 이미지 흔들림)을 적어도 일부 보상하기 위하여 렌즈 모듈(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서 모듈(230)를 특정한 방향으로 움직이거나 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 일실시예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있으며, 카메라 모듈(200)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 상기 움직임을 감지할 수 있다.According to various embodiments, the
다양한 실시예에 따르면, 메모리(250)는 이미지 센서 모듈(230)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(160)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(265)에 의해 획득되어 처리될 수 있다. 일실시예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.According to various embodiments, the
다양한 실시예에 따르면, 이미지 센서 IC(260)는 카메라 모듈(200)의 각 구성의 제어 및 이미지 처리를 수행하는 구성으로써, 이미지 시그널 프로세서(265)를 포함할 수 있다. According to various embodiments, the
다양한 실시예에 따르면, 이미지 시그널 프로세서(265)는 이미지 센서 모듈(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 이미지 처리(예: 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening))을 수행할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(265)는 카메라 모듈(200)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서 모듈(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(265)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장 되거나 카메라 모듈(200)의 외부 구성 요소(예: 메모리(130), 표시 장치(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 전달될 수 있다. 일실시예에 따르면, 이미지 시그널 프로세서(265)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(265)에 의해 처리된 이미지들은 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(160)를 통해 표시될 수 있다.According to various embodiments, image signal processor 265 may perform image processing (e.g., depth map generation, three-dimensional modeling, etc.) on an image acquired through
일실시예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 둘 이상의 카메라 모듈들을 포함할 수 있다. 이런 경우, 예를 들면, 적어도 하나의 카메라 모듈은 광각 카메라 또는 전면 카메라이고, 적어도 하나의 다른 카메라 모듈은 망원 카메라 또는 후면 카메라일 수 있다.According to one embodiment, the electronic device 101 may include two or more camera modules each having a different attribute or function. In this case, for example, at least one camera module may be a wide angle camera or a front camera, and at least one other camera module may be a telephoto camera or a rear camera.
다양한 실시예에 따르면, 카메라 모듈(200)은 각 포토 다이오드(234)에서 출력되는 제1데이터 및 제2데이터에 기반하여 이미지 데이터를 생성할 수 있다. 예를 들어, 카메라 모듈(200)은 제1데이터 및 제2데이터를 합산하여 휘도 데이터(예: y 데이터)를 생성하고, 제1데이터에 기초하여 제1색차 데이터(예: U 데이터 또는 Cb 데이터)를 생성하고, 제2데이터에 기초하여 제2색차 데이터(예: V 데이터 또는 Cr 데이터)를 생성할 수 있다. 카메라 모듈(200)은 상기 생성된 휘도 데이터, 제1색차 데이터 및 제2색차 데이터를 합산하여 이미지 데이터를 생성할 수 있다. 카메라 모듈(200)이 제1데이터 및 제2데이터에 기반하여 이미지 데이터를 생성하는 동작에 대해서는, 도 6a 내지 6c를 통해 보다 상세히 후술하기로 한다.According to various embodiments, the
다양한 실시예에 따르면, 상술한 이미지 데이터 생성 과정은 카메라 모듈(200)의 이미지 센서 IC(260)의 이미지 시그널 프로세서(265)에 의해 수행될 수 있다. 다른 실시예들에 따르면, 이미지 센서 IC(260)는 포토 다이오드(234)에서 출력되는 데이터들을 전자 장치의 프로세서(예: 도 10의 프로세서(1030))에 전송하는 기능만 수행하며, 상술한 이미지 데이터 생성 과정은 전자 장치의 프로세서에 의해 수행될 수 있다. 또 다른 실시예들에 따르면, 이미지 센서 IC(260)는 포토 다이오드(234)에서 출력되는 데이터들을 전자 장치에 마련된 별도의 컴패니언 칩(예: 도 11의 제2프로세서(1150))에 제공하고, 상술한 이미지 데이터 생성 과정은 상기 컴패니언 칩에 의해 수행될 수 있다. 또 다른 실시예들에 따르면, 상술한 이미지 데이터 생성 과정은 카메라 모듈(200)이 탑재되는 전자 장치(예: 도 10의 전자 장치(1000), 도 11의 전자 장치(1100)) 외의 외부 장치(예: 서버)에 의해 수행될 수도 있다. 즉, 본 명세서에서 설명하는 이미지 데이터 생성 과정을 수행하는 이미지 시그널 프로세서에는 제한이 없다. 상술한 실시예에 대해서는 도 10 및 도 11을 통해 보다 상세히 설명하기로 한다.According to various embodiments, the image data generation process described above may be performed by the image signal processor 265 of the
다양한 실시예에 따르면, 카메라 모듈(200)(예: 이미지 센서 IC(260))는 제1데이터 및 제2데이터에 기초하여 이미지 데이터의 화이트 밸런스(white balance)를 조정할 수 있다. 카메라 모듈(200)은 포토 다이오드(234)에서 획득한 데이터의 파장을 중심으로 샘플링하고, 샘플링 된 값에 기초하여 광원의 색 온도를 추정할 수 있다. 다양한 실시예에 따르면, 제1데이터 및 제2데이터는 서로 보색 관계일 수 있으므로(예: 제1데이터는 RGB 데이터, 제2데이터는 CMY 데이터), 카메라 모듈(200)은 총 6개 대역을 동시에 샘플링할 수 있게 되어, 광원의 색 온도 추정 정확도가 향상되고, 그에 따라 보다 정확한 화이트 밸런싱이 가능하다.According to various embodiments, the camera module 200 (e.g., image sensor IC 260) may adjust the white balance of the image data based on the first data and the second data. The
다양한 실시예에 따르면, 카메라 모듈(200)은 제2데이터(예: CMY 데이터)에 기초하여 셔터를 제어하여 이미지 센서 모듈(230)의 노출 값을 설정할 수 있다. CMY 데이터가 RGB 데이터(예: 제1데이터)보다 고감도이므로, 카메라 모듈(200)은 CMY 데이터의 감도에 맞춰서 노출 값을 설정한 후 RGB 데이터와 CMY 데이터를 합성하여, HDR(high dynamic range) 영상을 생성할 수 있다.According to various embodiments, the
다양한 실시예에 따르면, 카메라 모듈(200)은 제1데이터(예: RGB 데이터)에 기초하여 셔터를 제어하여 이미지 센서 모듈(230)의 노출 값을 설정할 수 있다. 카메라 모듈(200)은 제1데이터에 따라 노출 값을 결정하고, 제2데이터의 출력이 포화되지 않도록 메모리(250)에 일부 저장하고, 다시 노광하는 구조를 통해서 RGB 데이터와 CMY 데이터를 획득할 수 있다.According to various embodiments, the
도 3은 다양한 실시예에 따른 단위 픽셀을 도시한 것이다.Figure 3 illustrates a unit pixel according to various embodiments.
도 3은 제1영역 및 제2영역으로 구분되지 않은, 예를 들어, 플로팅 확산 영역이 활성화 되지 않은 경우 또는 포토 다이오드의 사이에 차단막이 형성되지 않은 경우의 단위 픽셀에 대해 도시하고 있다.FIG. 3 shows a unit pixel in a case where the floating diffusion region is not activated, or a case where a blocking film is not formed between the photodiodes, which is not divided into the first region and the second region, for example.
도시된 바와 같이, 이미지 센서 모듈(예: 도 2의 이미지 센서 모듈(230))은 복수의 포토 다이오드(310)(예: 도 2의 포토 다이오드(234))를 포함할 수 있다. 복수의 포토 다이오드(310) 각각에는 마이크로 렌즈(예: 도 2의 마이크로 렌즈(232))가 배치되고, 포토 다이오드와 마이크로 렌즈의 사이에 필터 어레이(예: 도 2의 필터 어레이(236))가 배치될 수 있다. 각각의 포토 다이오드와 필터 어레이가 적어도 하나의 픽셀을 구성할 수 있다. As shown, the image sensor module (e.g.,
도시된 바와 같이, 단위 픽셀은 4개의 포토 다이오드(311, 312, 313, 314)로 구성되며, 각각의 포토 다이오드(311, 312, 313, 314)에 대응되도록 R 대역의 필터, G 대역의 필터, B 대역의 필터가 배치될 수 있다. 이에 따라, 각각의 포토 다이오드(311, 312, 313, 314)는 R 신호, G 신호 또는 B 신호를 출력할 수 있다.As shown in the figure, the unit pixel is composed of four
도 4는 다양한 실시예에 따른 렌즈 모듈, 마이크로 렌즈 및 포토 다이오드를 도시한 것이다.Figure 4 illustrates a lens module, a microlens, and a photodiode according to various embodiments.
도 4에서 렌즈(410)는 렌즈 모듈(예: 도 2의 렌즈 모듈(210))에 포함된 복수의 렌즈(410) 중 어느 하나일 수 있으며, 렌즈(410)를 통과한 빛은 마이크로 렌즈(420)를 통해 포토 다이오드(430)로 입력될 수 있다. 여기서, 포토 다이오드(430)는 도 3의 서브 픽셀(311, 312, 313, 314) 중 어느 하나에 대응될 수 있다.4, the
다양한 실시예에 따르면, 포토 다이오드(430)는 2개 이상의 영역(예: 제1영역(431) 및 제2영역(432))으로 구분될 수 있다. 일 실시예에 따르면, 포토 다이오드(430)의 가운데에 플로팅 확산 영역(435)이 형성될 수 있으며, 플로팅 확산 영역(435)은 이미지 센서 IC(예: 도 3의 이미지 센서 IC(260)) 또는 전자 장치의 프로세서(예: 도 1의 프로세서(120))의 제어 신호에 따라 활성화 또는 비활성화 될 수 있다. 다른 일 실시예에 따르면, 포토 다이오드(430)의 가운데에 빛을 차단하기 위한 차단막이 형성될 수 있다. 다른 일 실시예에 따르면, 포토 다이오드(430)는 제1영역(431)에 대응하는 포토 다이오드와 제2영역(432)에 대응하는 다른 포토 다이오드를 포함할 수 있다. 즉, 포토 다이오드(430)는 2개의 포토 다이오드를 결합하여 형성될 수 있다.According to various embodiments, the photodiode 430 may be divided into two or more regions (e.g., a
다양한 실시예에 따르면, 각각의 포토 다이오드(430)와 마이크로 렌즈(420) 사이에는 제1필터(441) 및 제2필터(442)를 포함하는 필터 어레이(440)가 배치될 수 있다. According to various embodiments, a
일 실시예에 따르면, 플로팅 확산 영역(435)이 활성화 되는 경우, 렌즈(410)의 우측 영역(414)의 빛은 마이크로 렌즈(410)를 통해 굴절되어 제1필터(441)를 통과한 후 포토 다이오드(430)의 제1영역(431)에 입력되고, 렌즈(410)의 좌측 영역(412)의 빛은 마이크로 렌즈(410)를 통해 굴절되어 제2필터(442)를 통과한 후 포토 다이오드(430)의 제2영역(432)에 입력될 수 있다.The light in the
다양한 실시예에 따르면, 제1필터(441)는 제1지정된 대역의 빛을 통과하도록 구성되고, 제2필터(442)는 제1지정된 대역과 보색 관계에 있는 제2지정된 대역의 빛을 통과하도록 구성될 수 있다. 예를 들어, 제1포토 다이오드에 대응되는 필터 어레이는 R(red) 대역의 빛을 통과 시키는 제1필터(441)와, R과 보색 관계에 있는 C(cyan) 대역의 빛을 통과 시키는 제2필터(442)를 포함할 수 있다. 또한, 제2포토 다이오드(예: 도 3의 312) 및 제3포토 다이오드(예: 도 3의 313)에 대응되는 필터 어레이는 G(green) 대역의 빛을 통과 시키는 제3필터와, G와 보색 관계에 있는 M(magenta) 대역의 빛을 통과 시키는 제4필터를 포함하며, 제4포토 다이오드(예: 도 3의 314)에 대응되는 필터 어레이는 B(blue) 대역의 빛을 통과 시키는 제5필터와, B와 보색 관계에 있는 Y(yellow) 대역의 빛을 통과 시키는 제6필터를 포함할 수 있다.According to various embodiments, the
도 5는 다양한 실시예에 따른 플로팅 확산 영역에 의한 포토 다이오드의 분할 영역을 도시한 것이다.FIG. 5 illustrates a segmented region of a photodiode by a floating diffusion region according to various embodiments.
도 5와 같이 이미지 센서 모듈이 구성됨에 따라, 단위 픽셀(550)을 구성하는 4개의 포토 다이오드는 RGB 데이터(또는 제1데이터) 및 RGB 데이터와 보색 관계의 CMY 데이터(또는 제2데이터)를 각각 출력할 수 있다. 다시 말하면, 제1포토 다이오드(551)는 R 데이터(551a)와 C 데이터(551b)를 구분하여 리드아웃 하고, 제2포토 다이오드(552) 및 제3포토 다이오드(553)는 G 데이터(552a, 553a)와 M 데이터(552b, 553b)를 구분하여 리드아웃 하고, 제4포토 다이오드(554)는 B 데이터(554a와 Y 데이터(554b)를 구분하여 리드아웃할 수 있다.5, the four photodiodes constituting the
이미지 센서 IC(예: 도 3의 이미지 센서 IC(340))는 각 포토 다이오드(551, 552, 553, 554)에서 플로팅 확산 영역을 기준으로 분리된 제1영역 및 제2영역에서 출력되는 제1데이터(예: RGB 데이터)(551a, 552a, 553a, 554a) 및 제2데이터(예: CMY 데이터)(예: 551b, 552b, 553b, 554b)를 구분하여 리드아웃할 수 있다. The image sensor IC (for example, the image sensor IC 340 in FIG. 3) includes a first region separated from the floating diffusion region in each photodiode 551, 552, 553, and 554, (E.g., RGB data) 551a, 552a, 553a, and 554a and second data (e.g., CMY data) (e.g., 551b, 552b, 553b, and 554b).
도 6a 내지 6c는 다양한 실시예에 따라 이미지 데이터를 생성하는 방법을 도시한 것이다.Figures 6A-6C illustrate a method for generating image data in accordance with various embodiments.
이하에서는, 도시된 이미지 데이터를 생성하는 방법이 카메라 모듈의 이미지 센서 IC(예: 도 2의 이미지 센서 IC(260))에서 수행되는 것으로 설명하나, 이에 한정되지는 않는다. 예를 들어, 다른 실시예들에 따르면, 카메라 모듈의 이미지 센서 IC는 포토 다이오드에서 출력되는 데이터들을 전자 장치의 프로세서(예: 도 1의 프로세서(120))에 전송하는 기능만 수행하며, 도시된 이미지 데이터 생성 과정은 상기 전자 장치의 프로세서에 의해 수행될 수 있다. 또 다른 실시예들에 따르면, 이미지 센서 IC는 포토 다이오드에서 출력되는 데이터들을 전자 장치에 마련된 별도의 컴패니언 칩(companion chip)(또는 제2프로세서)에 제공하고, 상술한 이미지 데이터 생성 과정은 상기 컴패니언 칩에 의해 수행될 수 있다. 또 다른 실시예들에 따르면, 상술한 이미지 데이터 생성 과정은 카메라 모듈(200)이 탑재되는 전자 장치(예: 도 10의 전자 장치(1000), 도 11의 전자 장치(1100)) 외의 외부 장치(예: 서버)에 의해 수행될 수도 있다. In the following description, the method of generating the image data shown is performed in the image sensor IC (e.g., the
다양한 실시예에 따르면, 이미지 시그널 프로세서는 추가적인 계산 과정 없이 보색 관계에 있는 제1데이터와 제2데이터를 간단한 연산을 통해 휘도 데이터와 색차 데이터를 포함하는 이미지 데이터를 생성할 수 있다. 이미지 데이터는 JPEG 데이터를 예로 들 수 있으며, JPEG 데이터는 yUV 또는 yCbCr 데이터일 수 있다.According to various embodiments, the image signal processor can generate image data including luminance data and color difference data by performing simple calculations on the first data and the second data in a complementary color relationship without further calculation. The image data may be JPEG data, and the JPEG data may be yUV or yCbCr data.
도 6a는 단위 픽셀을 구성하는 4개의 포토 다이오드에서 센싱할 수 있는 컬러 데이터를 도시하고 있다. 도 6a는 플로팅 확산 영역 또는 차단막이 각 포토 다이오드의 세로 방향의 가운데로 형성되는 것을 예시하고 있으나, 플로팅 확산 영역 또는 차단막의 수 및 그 위치는 이에 한정되지 않는다.6A shows color data that can be sensed by four photodiodes constituting a unit pixel. 6A illustrates that the floating diffusion region or the shielding film is formed in the middle of the longitudinal direction of each photodiode, but the number and position of the floating diffusion region or the shielding film are not limited thereto.
다양한 실시예에 따르면, 이미지 시그널 프로세서는 각 포토 다이오드에서 출력되는 제1데이터 및 제2데이터를 획득할 수 있다. 도 6a에 도시된 바와 같이, 단위 픽셀 데이터는 제1데이터(예: RGB 데이터)(611a, 612a, 613a, 614a) 및 제2데이터(예: CMY 데이터)(611b, 612b, 613b, 614b)를 포함할 수 있다.According to various embodiments, the image signal processor may obtain the first data and the second data output from each photodiode. 6A, the unit pixel data includes first data (e.g., RGB data) 611a, 612a, 613a, and 614a and second data (e.g., CMY data) 611b, 612b, 613b, and 614b .
다양한 실시예에 따르면, 이미지 시그널 프로세서는 제1데이터 및 제2데이터를 합산하여 휘도 데이터(620)를 생성할 수 있다. 예를 들어, 이미지 시그널 프로세서는 제1포토 다이오드의 R 데이터(611a)와 C 데이터(611b)를 합산하여 제1서브 픽셀의 휘도 데이터(y1)(621)을 생성하고, 제2포토 다이오드의 G 데이터(612a)와 M 데이터(612b)를 합산하여 제2서브 픽셀의 휘도 데이터(y2)(622)를 생성하고, 제3포토 다이오드의 G 데이터(613a)와 M 데이터(613b)를 합산하여 제3서브 픽셀의 휘도 데이터(y3)(623)를 생성하고, 제4포토 다이오드의 B 데이터(614a)와 Y 데이터(614b)를 합산하여 제4서브 픽셀의 휘도 데이터(y4)(624)를 생성할 수 있다.According to various embodiments, the image signal processor may sum the first data and the second data to produce the
보색 관계에 있는 컬러 데이터를 합산하면 RGB 값이 동일한 값을 가지는 모노 데이터(mono data)가 되므로, 이미지 시그널 프로세서는 별도의 모노 필터를 구비하지 않고도 단순한 합산 계산을 통해서 휘도 데이터를 획득할 수 있다.When the color data in the complementary color relationship is summed, the RGB values become mono data having the same value, so that the image signal processor can acquire the luminance data through simple sum calculation without having a separate mono filter.
도 6b는 제1데이터 및 제2데이터로부터 색차 데이터를 획득하는 과정을 도시하고 있다.FIG. 6B shows a process of obtaining color difference data from the first data and the second data.
이미지 시그널 프로세서(예: 도 2의 이미지 시그널 프로세서(265))는 제1데이터(631)로부터 각 서브 픽셀의 RGB 데이터(641)를 생성할 수 있다. 이 때, 인접하는 서브 픽셀의 RGB 데이터를 이용하여 보간법(interpolation)을 통해 각 서브 픽셀의 RGB 데이터(641)를 생성할 수 있다. 예를 들어, 제1서브 픽셀의 R 데이터, 제1서브 픽셀의 상/하/좌/우의 서브 픽셀의 G 데이터의 평균 값 및 제1서브 픽셀의 좌상/우상/좌하/우하의 서브 픽셀의 B 데이터의 평균 값으로 제1서브 픽셀의 RGB 데이터(R1G1B1)(641a)를 생성할 수 있다. 또한, 제2서브 픽셀의 경우, 제2서브 픽셀의 좌/우 서브 픽셀의 R 데이터의 평균 값, 제2서브 픽셀의 G 데이터, 제2서브 픽셀의 상/하 서브 픽셀의 B 데이터의 평균 값으로 제2서브 픽셀의 RGB 데이터(R2G2B2)(641b)를 생성할 수 있다.An image signal processor (e.g., image signal processor 265 of FIG. 2) may generate
또한, 이미지 시그널 프로세서는 제2데이터(632)로부터 각 서브 픽셀의 CMY 데이터(642)를 생성할 수 있다. 각 서브 픽셀의 CMY 데이터를 생성하는 방법은 각 서브 픽셀의 RGB 데이터를 생성하는 방법과 동일할 수 있다. 예를 들어, 제1서브 픽셀의 C 데이터, 제1서브 픽셀의 상/하/좌/우의 서브 픽셀의 M 데이터의 평균 값 및 제1서브 픽셀의 좌상/우상/좌하/우하의 서브 픽셀의 Y 데이터의 평균 값으로 제1서브 픽셀의 CMY 데이터(C1M1Y1)(642a)를 생성할 수 있다. 또한, 제2서브 픽셀의 경우, 제2서브 픽셀의 좌/우 서브 픽셀의 C 데이터의 평균 값, 제2서브 픽셀의 M 데이터, 제2서브 픽셀의 상/하 서브 픽셀의 Y 데이터의 평균 값으로 제2서브 픽셀의 CMY 데이터(C2M2Y2)(642)를 생성할 수 있다. In addition, the image signal processor may generate
이미지 시그널 프로세서는 획득된 단위 픽셀의 RGB 데이터에 기초하여 제1색차 데이터(651, 652)를 생성할 수 있다. 여기서, 제1색차 데이터는 U 데이터(또는 Cb 데이터)(651)과 V 데이터(또는 Cr 데이터)(652)를 포함할 수 있다. U데이터(651)는 RGB 데이터(641)의 각 서브 픽셀(641a, 641b, 641c, 641d)에서 G 값과 R 값의 차이를 통해 얻어질 수 있다. 예를 들어, 이미지 시그널 프로세서는 RGB 데이터(641)의 제1서브 픽셀(641a)의 G 값과 R 값의 차이(G1-R1)을 계산하여 제1서브 픽셀의 U 데이터(651a)를 획득하고, 제2서브 픽셀(641b)의 G 값과 R 값의 차이(G2-R2)을 계산하여 제2서브 픽셀의 U 데이터(651b)를 획득할 수 있다. 또한, V 데이터(652)는 RGB 데이터(641)의 각 서브 픽셀(641a, 641b, 641c, 641d)에서 G 값과 B 값의 차이를 통해 얻어질 수 있다. 예를 들어, 이미지 시그널 프로세서는 RGB 데이터(641)의 제1서브 픽셀(641a)의 G 값과 B 값의 차이(G1-B1)을 계산하여 제1서브 픽셀의 V 데이터(652a)를 획득하고, 제2서브 픽셀(641b)의 G 값과 B 값의 차이(G2-B2)을 계산하여 제2서브 픽셀의 V 데이터(652b)를 획득할 수 있다. The image signal processor can generate the first
이미지 시그널 프로세서는 획득된 단위 픽셀의 CMY 데이터(642)에 기초하여 제2색차 데이터(653, 654)를 생성할 수 있다. 여기서, 제2색차 데이터는 U 데이터(또는 Cb 데이터)(653)과 V 데이터(또는 Cr 데이터)(654)를 포함할 수 있다. U 데이터(653)는 CMY 데이터(642)의 각 서브 픽셀(642a, 632b, 642c, 642d)에서 C 값과 M 값의 차이를 통해 얻어질 수 있다. 예를 들어, 이미지 시그널 프로세서는 CMY 데이터(642)의 제1서브 픽셀(642a)의 C 값과 M 값의 차이(C1-M1)을 계산하여 제1서브 픽셀의 U 데이터(653a)를 획득하고, 제2서브 픽셀(642b)의 C 값과 M 값의 차이(C2-M2)을 계산하여 제2서브 픽셀의 U 데이터(653b)를 획득할 수 있다. 또한, V 데이터(654)는 CMY 데이터(642)의 각 서브 픽셀(642a, 632b, 642c, 642d)에서 Y 값과 M 값의 차이를 통해 얻어질 수 있다. 예를 들어, 이미지 시그널 프로세서는 CMY 데이터(642)의 제1서브 픽셀(642a)의 Y 값과 M 값의 차이(Y1-M1)을 계산하여 제1서브 픽셀의 V 데이터(654a)를 획득하고, 제2서브 픽셀(642b)의 Y 값과 M 값의 차이(Y2-M2)을 계산하여 제2서브 픽셀의 V 데이터(654b)를 획득할 수 있다.The image signal processor may generate the second
이미지 시그널 프로세서는 제1색차 데이터의 U 데이터(651)와 제2색차 데이터의 U 데이터(653)를 합산할 수 있다. 앞서 설명한 대로, 제1색차 데이터의 U 데이터(651)는 RGB 데이터(641)의 각 서브 픽셀의 G 값과 R 값의 차이를 구한 것이고, 제2색차 데이터의 U 데이터(653)는 CMY 데이터(642)의 각 서브 픽셀의 C 값과 M 값의 차이를 구한 것이다. 보색 관계를 고려할 때, C=G+B / M=R+B 이고, C-M=(G+B)-(R+B)=G-R 로 계산되므로 제1색차 데이터와 제2색차 데이터의 U 데이터는 같은 컬러 성분일 수 있다. The image signal processor may sum
마찬가지로, 이미지 시그널 프로세서는 제1색차 데이터의 V 데이터(652)와 제2색차 데이터의 V 데이터(654)를 합산할 수 있다. 제1색차 데이터의 V 데이터(652)는 RGB 데이터(641)의 각 서브 픽셀의 G 값과 B 값의 차이를 구한 것이고, 제2색차 데이터의 V 데이터(654)는 CMY 데이터(642)의 각 서브 픽셀의 Y 값과 M 값의 차이를 구한 것이다. 보색 관계를 고려할 때, Y=R+G / M=R+B이고, Y-M=(R+G)-(R+B)=G-B 로 계산되므로, 제1색차 데이터와 제2색차 데이터의 V 데이터는 같은 컬러 성분일 수 있다.Likewise, the image signal processor may sum the
도 6c는 도 6a의 과정을 통해 획득한 휘도 데이터 및 도 6b의 과정을 통해 획득한 색차 데이터를 합산하여 이미지 데이터를 획득하는 과정을 도시하고 있다.FIG. 6C shows a process of acquiring image data by summing luminance data acquired through the process of FIG. 6A and color difference data acquired through the process of FIG. 6B.
이미지 시그널 프로세서는 계산된 휘도 데이터(620)와, 제1색차 데이터(661) 및 제2색차 데이터(662)를 합산하여 이미지 데이터(670)를 생성할 수 있다. 도시된 바와 같이, 이미지 데이터(670)는 yUV 데이터(또는 yCbCr 데이터)일 수 있다.The image signal processor may generate the
다양한 실시예에 따르면, 이미지 시그널 프로세서는 도 6a 내지 6c에서 설명한 바와 같은 과정을 통해, 마이크로 렌즈 밑에 하나의 픽셀만 있는 기존의 이미지 센서와 동일한 결과를 얻게 된다. 이미지 시그널 프로세서는 상기와 같이 생성된 휘도 데이터 및 색차 데이터를 출력할 수 있으며, 베이어 패턴 화하여 베이어 데이터를 출력할 수도 있다. 이 경우, 이미지 시그널 프로세서 이후의 처리 단은 기존의 방식을 그대로 유지할 수 있게 되므로, 이미지 데이터를 얻는 전자 장치의 프로세서 등은 별도로 설계를 변경하거나 추가적인 계산 없이 이미지 데이터를 획득할 수 있다.According to various embodiments, the image signal processor obtains the same result as an existing image sensor having only one pixel under the microlens through the process as described in FIGS. 6A to 6C. The image signal processor may output the luminance data and color difference data generated as described above, and may output Bayer data by forming Bayer pattern. In this case, since the processing stage after the image signal processor can maintain the existing method, the processor of the electronic device that obtains the image data can separately obtain the image data without changing the design or performing additional calculation.
도 7은 다양한 실시예에 따른 이미지 데이터의 파장 범위를 도시한 것이다.Figure 7 shows the wavelength range of image data according to various embodiments.
다양한 실시예에 따르면, 이미지 시그널 프로세서(도 2의 이미지 시그널 프로세서(265))는 단위 픽셀의 포토 다이오드들로부터 RGB 데이터(또는 제1데이터) 및 CMY 데이터(제2데이터)를 획득할 수 있다. 도 7의 좌측은 RGB 데이터의 파장 범위를 도시한 것이고, 우측은 CMY 데이터의 파장 범위를 도시하고 있다.According to various embodiments, an image signal processor (image signal processor 265 of FIG. 2) may obtain RGB data (or first data) and CMY data (second data) from photodiodes of a unit pixel. The left part of FIG. 7 shows the wavelength range of the RGB data, and the right part shows the wavelength range of the CMY data.
도시된 바와 같이, CMY 데이터의 각 성분의 파장 범위가 RGB 데이터의 각 성분의 파장 범위보다 넓기 때문에, CMY 데이터의 감도가 약 2배 높을 수 있다. 이와 같은 감도 차이를 고려하여, 카메라 모듈을 다양한 방식으로 설계할 수 있다. As shown in the figure, since the wavelength range of each component of the CMY data is wider than the wavelength range of each component of the RGB data, the sensitivity of the CMY data can be about two times higher. Considering this sensitivity difference, camera modules can be designed in various ways.
제1실시예로써, RGB를 투과하는 필터와 CMY를 투과하는 필터의 투과율을 동일하게 하여 2배의 감도 차이가 발생하도록 이미지 센서를 설계할 수 있다. 본 실시예에서, 밝은 장면에서는 CMY가 먼저 포화되므로, 카메라 모듈은 CMY 데이터에 따라 자동 노출(auto exposure)을 조정할 수 있다. 이 경우, RGB 데이터는 CMY 데이터보다 광량이 절반인 데이터이므로, RGB 데이터와 CMY 데이터를 합성하면, 1stop의 HDR 이미지를 구현할 수 있고, 고감도의 CMY 데이터에 따라 자동 노출을 조정하므로 기존 RGB 데이터를 사용한 카메라 모듈보다 셔터 스피드를 절반으로 구동할 수 있으므로, 움직이는 피사체의 합성 시 합성 에러가 적다는 장점이 있다. 또한, 어두운 장면에서는 광량이 작으므로, RGB 데이터를 중심으로 자동 노출을 조정할 수 있고, 이 경우 CMY 데이터의 감도가 좋기 때문에 이미지 데이터 상에서 어두운 부분을 구현해 낼 수 있다.In the first embodiment, it is possible to design the image sensor such that the transmittance of the filter that transmits RGB and the filter that transmits CMY are the same, and the sensitivity difference is doubled. In this embodiment, since the CMY is saturated first in the bright scene, the camera module can adjust the auto exposure according to the CMY data. In this case, since RGB data is half the light amount of CMY data, synthesizing RGB data and CMY data can realize HDR image of 1stop and adjust the automatic exposure according to CMY data of high sensitivity. Since the shutter speed can be driven at half the speed of the camera module, there is an advantage that the synthesis error is small in the synthesis of the moving subject. In addition, since the amount of light is small in a dark scene, automatic exposure can be adjusted around RGB data. In this case, since the sensitivity of CMY data is good, a dark part can be realized on the image data.
제2실시예로써, CMY를 투과하는 필터의 투과율을 조절하여, RGB의 투과 감도와 동일하도록 이미지 센서를 설계할 수 있다. 이 경우, 화이트 밸런싱 시 장점이 있으며, 기존 카메라 모듈의 기능을 그대로 보장할 수 있는 장점이 있다.In the second embodiment, the image sensor can be designed so that the transmittance of the filter transmitting CMY is adjusted to be equal to the transmit sensitivity of RGB. In this case, there is an advantage in white balancing, and it is possible to guarantee the function of the existing camera module as it is.
제3실시예로써, 글로벌 셔터에서 적용되는 스토리지 다이오드를 CMY 픽셀에 배치하여, RGB 를 기준으로 자동 노출을 제어하면서, CMY를 한번에 읽어 스토리지 다이오드에 저장하도록 설계할 수 있다. 이 경우에도 기존 카메라 모듈의 기능을 그대로 보장할 수 있는 장점이 있다.As a third embodiment, it is possible to design a storage diode to be applied to a global shutter in a CMY pixel so that CMY is read at once and stored in a storage diode while controlling automatic exposure based on RGB. Even in this case, there is an advantage that the function of the existing camera module can be assured as it is.
다양한 실시예에 따르면, 이미지 시그널 프로세서는 제1데이터 및 제2데이터에 기초하여 이미지 데이터의 화이트 밸런스를 조정할 수 있다. 카메라 모듈은 포토 다이오드에서 획득한 데이터의 파장을 중심으로 샘플링하고, 샘플링 된 값에 기초하여 광원의 색 온도를 추정할 수 있다. 다양한 실시예에 따르면, RGB 데이터와 CMY 데이터는 서로 보색 관계로써, 각각 3개의 파장 대역을 포함하므로, 이미지 시그널 프로세서는 총 6개 대역을 샘플링할 수 있다. 이에 따라, 화이트 밸런싱을 수행할 때 6개 대역을 사용하는 결과, 광원의 색 온도 추정의 정확도가 향상될 수 있으므로, 보다 정확한 화이트 밸런싱이 가능하다.According to various embodiments, the image signal processor may adjust the white balance of the image data based on the first data and the second data. The camera module can sample the light centered at the wavelength of the data obtained at the photodiode and estimate the color temperature of the light source based on the sampled value. According to various embodiments, the RGB data and the CMY data are complementary to each other and include three wavelength bands, so that the image signal processor can sample a total of six bands. Accordingly, as a result of using six bands when performing white balancing, the accuracy of color temperature estimation of the light source can be improved, and more accurate white balancing is possible.
도 8은 다양한 실시예에 따른 플로팅 확산 영역 또는 차단막에 의한 포토 다이오드의 분할 영역을 도시한 것이다.Figure 8 illustrates a segmented region of a photodiode by a floating diffusion region or blocking film in accordance with various embodiments.
다양한 실시예에 따르면, 포토 다이오드는 플로팅 확산 영역 또는 차단막에 의해 복수의 영역으로 구분될 수 있다. 이하에서는, 플로팅 확산 영역을 통해 포토 다이오드가 복수의 영역으로 구분되는 것을 예로 들어 설명하기로 한다.According to various embodiments, the photodiode can be divided into a plurality of regions by a floating diffusion region or a shielding film. Hereinafter, the photodiode is divided into a plurality of regions through the floating diffusion region.
다양한 실시예에 따르면, 포토 다이오드는 제1플로팅 확산 영역 및 제2플로팅 확산 영역을 통해 4개의 영역(예: 811a, 811b, 811c, 811d)으로 구분될 수 있다. 본 실시예에 따르면, 각 포토 다이오드에 대응되는 필터 어레이는 포토 다이오드의 제1영역 내지 제4영역 각각에 대응하는 제1필터 내지 제4필터를 포함할 수 있다. 예를 들어, 단위 픽셀을 구성하는 제1포토 다이오드의 제1영역(811a) 및 제3영역(811c)에는 각각 R 대역을 통과 시키는 제1필터 및 제3필터가 배치되고, 제2영역(811b) 및 제4영역(811d)에는 각각 C 대역을 통과 시키는 제2필터 및 제4필터가 배치될 수 있다. 마찬가지로, 제2포토 다이오드의 제1영역(812a) 및 제3영역(812c)에는 각각 G 대역을 통과 시키는 제1필터 및 제3필터가 배치되고, 제2영역(812b) 및 제4영역(812d)에는 각각 M 대역을 통과 시키는 제2필터 및 제4필터가 배치될 수 있다. According to various embodiments, the photodiode may be divided into four regions (e.g., 811a, 811b, 811c, 811d) through the first floating diffusion region and the second floating diffusion region. According to the present embodiment, the filter array corresponding to each photodiode may include first to fourth filters corresponding to the first to fourth regions of the photodiode, respectively. For example, a first filter and a third filter that respectively pass an R band are disposed in a
각각의 포토 다이오드는 제1영역 내지 제4영역에서 획득된 제1데이터 내지 제4데이터(820, 830, 840, 850)를 독립적으로 리드아웃할 수 있으며, 그에 따라 이미지 시그널 프로세서는 각 포토 다이오드로부터 출력된 제1데이터 및 제4데이터(820, 830, 840, 850)를 통해 4개의 데이터를 생성할 수 있다. 이미지 시그널 프로세서는 획득된 데이터들을 기반으로 앞서 도 6a 내지 6c에서 설명한 방법을 통해 휘도 데이터 및 색차 데이터를 생성하고, 이미지 데이터를 생성할 수 있다.Each of the photodiodes can independently lead out the first to
본 실시예에 따르면, 2개의 플로팅 확산 영역을 통해 포토 다이오드를 4개의 영역으로 구분할 수 있으며, 수평 및 수직 방향 모두에 대해서 phase AF(auto focusing)이 가능하므로, 기존 AF 성능을 보다 개선할 수 있는 효과가 있다.According to the present embodiment, since the photodiode can be divided into four regions through two floating diffusion regions and phase AF (auto focusing) can be performed in both the horizontal and vertical directions, it is possible to improve the existing AF performance It is effective.
도 9는 다양한 실시예에 따른 플로팅 확산 영역에 의한 포토 다이오드의 분할 영역을 도시한 것이다.Figure 9 shows a segmented area of a photodiode by a floating diffusion region according to various embodiments.
다양한 실시예에 따르면, 포토 다이오드는 제1플로팅 확산 영역 및 제2플로팅 확산 영역을 통해 4개의 영역(예: 911a, 911b, 911c, 911d)으로 구분될 수 있으며, 각 포토 다이오드에 대응되는 필터 어레이는 포토 다이오드의 제1영역 내지 제4영역 각각에 대응하는 제1필터 내지 제4필터를 포함할 수 있다. According to various embodiments, the photodiode may be divided into four regions (e.g., 911a, 911b, 911c, 911d) through a first floating diffusion region and a second floating diffusion region, May include first to fourth filters corresponding to the first to fourth regions of the photodiode, respectively.
본 실시예에서, 적어도 하나의 포토 다이오드의 일부 필터는 가시광 대역 외의 빛을 통과하도록 구성될 수 있다. 예를 들어, 적어도 하나의 포토 다이오드에 대응되는 필터 어레이는 제1지정된 대역(예: R 대역) 및 제2지정된 대역(예: B 대역)보다 높은 제3지정된 대역(예: UV(ultra-violet ray) 대역)의 빛을 통과 시키는 제3필터 및 상기 제1지정된 대역 및 제2지정된 대역보다 낮은 제4지정된 대역(예: IR(infra-red ray) 대역)의 빛을 통과 시키는 제4필터를 포함할 수 있다.In this embodiment, some filters of at least one photodiode may be configured to pass light outside the visible band. For example, a filter array corresponding to at least one photodiode may have a third specified band (e.g., ultraviolet (UV)) that is higher than a first designated band (e.g., R band) and a fourth filter for passing light of a fourth designated band (e.g., an infra-red ray band) lower than the first designated band and the second specified band, .
도 9를 참고 하면, 제3서브 픽셀의 제1영역(913a) 및 제3영역(913c)에는 각각 G 대역의 빛을 통과 시키는 필터가 배치하고, 제2영역(913b)에는 UV 대역의 빛을 통과 시키는 제3필터가 배치되고, 제4영역(913d)에는 IR 대역의 빛을 통과 시키는 제4필터가 배치될 수 있다.9, a filter for passing light in the G band is disposed in the
이 경우, 포토 다이오드로부터 출력되는 제3데이터(940)는 제3서브 픽셀에 UV 데이터(940c)를 포함하고, 제4데이터(950)는 제3서브 픽셀에 IR 데이터(950c)를 포함할 수 있다.In this case, the
본 실시예에 따르면, 카메라 모듈은 RGB와 CMY 외에 UV 대역 및 IR 대역까지 총 8개 대역의 데이터를 획득할 수 있으므로, 화이트 밸런싱 및 AF의 성능을 보다 향상 시킬 수 있다.According to the present embodiment, since the camera module can acquire data of a total of 8 bands in addition to the RGB and CMY, as well as the UV band and the IR band, the performance of white balancing and AF can be further improved.
본 발명의 다양한 실시예에 따른 카메라 모듈(200)은, 적어도 하나의 렌즈를 포함하는 렌즈 모듈(210) 및 상기 렌즈 모듈(210)과 결합된 이미지 센서 모듈(230)을 포함하고, 상기 이미지 센서 모듈(230)은, 마이크로 렌즈(232), 적어도 하나의 포토 다이오드(234) 및 제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함하는 필터 어레이(236)가 상기 마이크로 렌즈(232)와 상기 적어도 하나의 포토 다이오드(234) 사이에 배치될 수 있다.The
다양한 실시예에 따르면, 상기 적어도 하나의 포토 다이오드(234)는 상기 제1필터를 통과한 빛을 감지하는 제1영역 및 상기 제2필터를 통과한 빛을 감지하는 제2영역을 포함할 수 있다.According to various embodiments, the at least one
다양한 실시예에 따르면, 상기 적어도 하나의 포토 다이오드(234)는 상기 제1영역에서 감지된 빛에 대응하는 제1데이터를 획득하고, 상기 제2영역에서 감지된 빛에 대응하는 제2데이터를 획득 하도록 설정될 수 있다.According to various embodiments, the at least one
다양한 실시예에 따르면, 상기 제1데이터 및 상기 제2데이터를 수신하도록 설정된 이미지 시그널 프로세서(265)를 더 포함할 수 있다.According to various embodiments, the image signal processor 265 may be further configured to receive the first data and the second data.
다양한 실시예에 따르면, 상기 이미지 시그널 프로세서(265)는, 상기 제1데이터 및 상기 제2데이터를 합산하여 휘도 데이터를 생성하도록 설정될 수 있다.According to various embodiments, the image signal processor 265 may be configured to sum luminance data by summing the first data and the second data.
다양한 실시예에 따르면, 상기 이미지 시그널 프로세서(265)는, 상기 제1데이터에 기초하여 제1색차 데이터를 생성하고, 상기 제2데이터에 기초하여 제2색차 데이터를 생성하고, 상기 제1색차 데이터 및 상기 제2색차 데이터를 합산하여 제3색차 데이터를 생성하도록 설정될 수 있다.According to various embodiments, the image signal processor 265 may generate first color difference data based on the first data, generate second color difference data based on the second data, And to generate third color difference data by summing the second color difference data.
다양한 실시예에 따르면, 상기 이미지 시그널 프로세서(265)는 상기 생성된 휘도 데이터 및 상기 제3색차 데이터에 기초하여 이미지 데이터를 생성하도록 설정될 수 있다.According to various embodiments, the image signal processor 265 may be configured to generate image data based on the generated luminance data and the third color difference data.
다양한 실시예에 따르면, 상기 이미지 시그널 프로세서(265)는 인터페이스를 통해 상기 제1데이터 및 상기 제2데이터를 카메라 모듈(200) 외부의 프로세서로 전송하도록 설정될 수 있다.According to various embodiments, the image signal processor 265 may be configured to transmit the first data and the second data via an interface to a processor external to the
다양한 실시예에 따르면, 상기 이미지 시그널 프로세서(265)는 상기 제1데이터 및 상기 제2데이터에 기초하여 상기 이미지 데이터의 화이트 밸런스를 조정하도록 설정될 수 있다.According to various embodiments, the image signal processor 265 may be configured to adjust the white balance of the image data based on the first data and the second data.
다양한 실시예에 따르면, 상기 필터 어레이(236)는 상기 제1지정된 대역 및 상기 제2지정된 대역보다 높은 제3지정된 대역의 빛을 통과시킬 수 있는 제3필터 및 상기 제1지정된 대역 및 상기 제2지정된 대역보다 낮은 제4지정된 대역의 빛을 통과시킬 수 있는 제4필터를 더 포함할 수 있다.According to various embodiments, the
다양한 실시예에 따르면, 상기 이미지 센서 모듈(230)은, 복수의 포토 다이오드(234)들 및 상기 복수의 포토 다이오드(234) 각각에 대응하는 복수의 필터 어레이(236)들을 포함하며, 상기 복수의 포토 다이오드(234)들 및 복수의 필터 어레이(236)들이 적어도 하나의 픽셀을 구성하도록 설정될 수 있다.According to various embodiments, the
다양한 실시예에 따르면, 상기 적어도 하나의 포토 다이오드(234)는, 플로팅 확산 영역이 활성화 됨에 따라 상기 제1영역 및 상기 제2영역으로 구분되거나, 또는 금속막을 통해 상기 제1영역 및 상기 제2영역으로 구분될 수 있다.According to various embodiments, the at least one
도 10은 다양한 실시예에 따른 전자 장치의 블록도이다.10 is a block diagram of an electronic device according to various embodiments.
도시된 바와 같이, 전자 장치(1000)는 카메라 모듈(1010), 디스플레이(1020), 프로세서(1030) 및 메모리(1040)를 포함할 수 있으며, 필요에 따라 도시된 구성 중 적어도 일부가 생략 또는 치환되더라도 본 발명의 다양한 실시예들을 구현할 수 있다. 전자 장치(1000)는 도 1의 전자 장치(101)의 구성 및/또는 기능 중 적어도 일부를 더 포함할 수 있다.As shown, the
이하에서는 전자 장치(1000)의 다양한 기능 중 카메라 모듈(1010)에서 획득한 이미지 데이터를 처리하는 기능에 대해 설명하기로 하며, 앞서 도 1 내지 도 9를 통해 설명한 바 있는 기술적 특징에 대해서는 그 설명을 생략하기로 한다.Hereinafter, functions of processing image data acquired by the
디스플레이(1020)는 영상을 표시하기 위한 구성으로써, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 등으로 구현될 수 있다. 디스플레이(1020)는 도 1의 표시 장치(160)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. The
메모리(1040)는 휘발성 메모리(예: 도 1의 휘발성 메모리(132)) 및/또는 비휘발성 메모리(예: 도 1의 비휘발성 메모리(134))를 포함하며, 프로세서(310)와 전기적으로 연결될 수 있다. 메모리(1040)는 프로세서(1030)에서 수행될 수 있는 다양한 인스트럭션(instruction)들을 저장할 수 있다. 이와 같은 인스트럭션들은 제어 회로에 의해 인식될 수 있는 산술 및 논리 연산, 데이터 이동, 입출력 등의 제어 명령을 포함할 수 있다. 또한, 메모리(1040)는 도 1의 프로그램(140) 중 적어도 일부를 저장할 수 있다.
프로세서(1030)는 전자 장치(1000)의 각 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있는 구성으로써, 도 1의 프로세서(120)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. 프로세서(1030)는 전자 장치(1000)의 각 구성(예: 메모리(1040), 디스플레이(1020), 카메라 모듈(1010), 디스플레이(1020) 등)과 전기적으로 연결될 수 있다.
카메라 모듈(1010)은 이미지 센서 모듈(1012) 및 이미지 센서 IC(1014)를 포함할 수 있다.The
이미지 센서 모듈(1012)은 픽셀들을 구성하는 복수의 포토 다이오드, 각각의 포토 다이오드에 대응되게 배치되는 마이크로 렌즈 및 상기 포토 다이오드와 마이크로 렌즈 사이에 배치되는 필터 어레이를 포함할 수 있다. 필터 어레이는 제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함할 수 있다.The
포토 다이오드는 플로팅 확산 영역이 활성화 됨에 따라 제1영역 및 제2영역으로 설정되고, 포토 다이오드는 제1필터를 통과한 빛을 제1영역에서 감지하여 제1데이터를 출력하고, 제2필터를 통과한 빛을 제2영역에서 감지하여 제2데이터를 출력할 수 있다.The photodiode is set as a first region and a second region as the floating diffusion region is activated. The photodiode detects light passing through the first filter in the first region to output first data, and passes through the second filter One light can be detected in the second area and the second data can be output.
다양한 실시예에 따르면, 이미지 센서 IC(1014)는 포토 다이오드에서 출력되는 제1데이터 및 제2데이터에 기초하여 이미지 데이터를 생성할 수 있다. 이미지 센서 IC(1014)가 이미지 데이터를 생성하는 동작에 대해서는 앞서 도 6a 내지 6c를 통해 설명한 바 있다.According to various embodiments, the
다른 실시예들에 따르면, 이미지 센서 IC(1014)는 포토 다이오드에서 출력되는 데이터(예: 제1데이터 및 제2데이터)들을 프로세서(1030)에 출력하고, 프로세서(1030)는 이미지 센서 IC(1014)로부터 출력되는 데이터를 처리하여 이미지 데이터를 생성할 수 있다. 이미지 센서 IC(1014)와 프로세서(1030)는 공지의 인터페이스(예: MIPI (mobile industry processor interface))를 통해 연결될 수 있다. 또한, 프로세서(1030)는 앞서 도 2 내지 도 9를 통해 설명한 이미지 센서 IC(1014)의 동작 중 적어도 일부를 수행할 수 있다.According to other embodiments, the
도 11은 다양한 실시예에 따른 전자 장치의 블록도이다.11 is a block diagram of an electronic device according to various embodiments.
도시된 바와 같이, 전자 장치(1100)는 카메라 모듈(1110), 디스플레이(1120), 제1프로세서(1130), 제2프로세서(1150) 및 메모리를 포함할 수 있다. 카메라 모듈(1110), 디스플레이(1120) 및 메모리(1140)는 도 10의 카메라 모듈(1010), 디스플레이(1020) 및 메모리(1040)의 구성과 동일할 수 있다. 또한, 제1프로세서(1130)는 도 10의 프로세서(1030)의 구성과 동일할 수 있다.As shown, the
전자 장치(1100)는 카메라 모듈(1110) 및 제1프로세서(1130)의 사이에 마련되는 제2프로세서(1150)를 포함할 수 있다. 제2프로세서(1150)는 제1프로세서(1130)의 기능 중 적어도 일부를 수행할 수 있는 별도의 칩(예: 컴패니언 칩)으로 마련될 수 있다. 다양한 실시예에 따르면, 이미지 센서 IC(1114)는 포토 다이오드에서 출력되는 데이터(예: 제1데이터 및 제2데이터)들을 제2프로세서(1150)에 출력하고, 제2프로세서(1150)는 이미지 센서 IC(1114)로부터 출력되는 데이터를 처리하여 이미지 데이터를 생성할 수 있다. 제2프로세서(1150)는 생성한 이미지 데이터를 제1프로세서(1130)에 출력할 수 있다.The
본 발명의 다양한 실시예에 따른 전자 장치(1000)는, 카메라 모듈(1010) 및 이미지 시그널 프로세서(예: 프로세서(1030))를 포함하며, 상기 카메라 모듈(1010)은, 마이크로 렌즈(232), 상기 마이크로 렌즈(232)를 통과한 빛을 전기적 신호로 변환할 수 있는 적어도 하나의 포토 다이오드(234) 및 상기 마이크로 렌즈(232)와 상기 적어도 하나의 포토 다이오드(234) 사이에 배치되고, 제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함하는 필터 어레이(236)를 포함하며, 상기 이미지 시그널 프로세서는 상기 적어도 하나의 포토 다이오드(234)에서 출력되는 데이터에 기반하여 이미지 데이터를 생성하도록 설정될 수 있다.An
다양한 실시예에 따르면, 상기 적어도 하나의 포토 다이오드(234)는 상기 제1필터를 통과한 빛을 감지하는 제1영역 및 상기 제2필터를 통과한 빛을 감지하는 제2영역을 포함할 수 있다.According to various embodiments, the at least one
다양한 실시예에 따르면, 상기 적어도 하나의 포토 다이오드(234)는 상기 제1영역에서 감지된 빛에 대응하는 제1데이터를 획득하고, 상기 제2영역에서 감지된 빛에 대응하는 제2데이터를 획득 하도록 설정되고, 상기 이미지 시그널 프로세서는 상기 제1데이터 및 상기 제2데이터에 기초하여 상기 이미지 데이터를 생성하도록 설정될 수 있다.According to various embodiments, the at least one
다양한 실시예에 따르면, 상기 이미지 시그널 프로세서는, 상기 제1데이터 및 상기 제2데이터를 합산하여 휘도 데이터를 생성하고, 상기 제1데이터에 기초하여 제1색차 데이터를 생성하고, 상기 제2데이터에 기초하여 제2색차 데이터를 생성하고, 상기 제1색차 데이터 및 상기 제2색차 데이터를 합산하여 제3색차 데이터를 생성하고, 및 상기 생성된 휘도 데이터 및 상기 제3색차 데이터에 기초하여 상기 이미지 데이터를 생성하도록 설정될 수 있다.According to various embodiments, the image signal processor may generate luminance data by summing the first data and the second data, generate first color difference data based on the first data, And generating third color difference data by summing the first color difference data and the second color difference data, and generating the second color difference data based on the generated luminance data and the third color difference data, . ≪ / RTI >
다양한 실시예에 따르면, 상기 이미지 시그널 프로세서는, 전자 장치(1000)의 어플리케이션 프로세서, 상기 카메라 모듈(1010)의 이미지 센서 IC, 또는 상기 어플리케이션 프로세서 및 상기 카메라 모듈(1010)과 전기적으로 연결된 컴패니언 칩 중 어느 하나로 구성될 수 있다.According to various embodiments, the image signal processor may include an application processor of the
도 12는 다양한 실시예에 따른 이미지 데이터 생성 방법의 흐름도이다.12 is a flowchart of a method of generating image data according to various embodiments.
도시된 방법은 앞서 도 3을 통해 설명한 카메라 모듈(예: 이미지 센서 IC(340))에 의해 수행될 수 있다. 다른 실시예에 따르면, 도시된 방법은 도 10의 전자 장치(예: 프로세서(1030)) 및/또는 도 11의 전자 장치(예: 제1프로세서(1130) 및/또는 제2프로세서(1150))에 의해 수행될 수 있다.The illustrated method may be performed by the camera module (e.g., image sensor IC 340) described above with reference to FIG. According to another embodiment, the depicted method may be implemented in an electronic device (e.g., processor 1030) and / or an electronic device (e.g.,
다양한 실시예에 따르면, 카메라 모듈은 마이크로 렌즈와, 마이크로 렌즈와 대응되도록 배치되는 포토 다이오드 및 마이크로 렌즈와 포토 다이오드 사이에 배치되는 필터 어레이를 포함할 수 있다.According to various embodiments, the camera module may include a microlens, a photodiode disposed to correspond to the microlens, and a filter array disposed between the microlens and the photodiode.
동작 1210에서, 카메라 모듈은 포토 다이오드의 제1영역에서 감지된 빛에 기초하여 제1데이터를 생성할 수 있다. 예를 들어, 제1데이터는 RGB 데이터일 수 있다.In
동작 1220에서, 카메라 모듈은 포토 다이오드의 제2영역에서 감지된 빛에 기초하여 제2데이터를 생성할 수 있다. 예를 들어, 제2데이터는 CMY 데이터일 수 있다.In
다양한 실시예에 따르면, 포토 다이오드의 제1영역에 배치된 제1필터와 제2영역에 배치된 제2필터는 서로 보색관계를 갖는 색상을 통과하도록 구성되는 바, 제1데이터 및 제2데이터는 서로 보색 관계의 색상을 가질 수 있다. According to various embodiments, the first filter disposed in the first region of the photodiode and the second filter disposed in the second region are configured to pass colors having a complementary relationship with each other, wherein the first data and the second data are And can have a complementary color to each other.
동작 1230에서, 카메라 모듈은 제1데이터 및 제2데이터에 기초하여 이미지 데이터를 생성할 수 있다. 제1데이터 및 제2데이터에 기초하여 이미지 데이터를 생성하는 구체적인 실시예에 대해서는 앞서 도 6a 내지 6c를 통해 설명한 바 있다.In
도 13은 다양한 실시예에 따른 이미지 데이터 생성 방법의 흐름도이다.13 is a flowchart of a method of generating image data according to various embodiments.
동작 1310에서, 카메라 모듈은 포토 다이오드의 제1영역에서 감지된 빛에 기초하여 제1데이터를 생성하고, 포토 다이오드의 제2영역에서 감지된 빛에 기초하여 제2데이터를 생성할 수 있다.In
동작 1320에서, 카메라 모듈은 제1데이터 및 제2데이터를 합산하여 휘도 데이터를 생성할 수 있다. 앞서 설명한 바와 같이, 제1데이터 및 제2데이터는 보색 관계이므로, 제1데이터 및 제2데이터를 합산할 경우, RGB 각 성분의 크기가 동일해 지는 바, 휘도 성분을 가질 수 있다.In
동작 1330에서, 카메라 모듈은 제1데이터에 기초하여 제1색차 데이터를 생성할 수 있다. 동작 1330과 적어도 일부 동시에, 동작 1340에서 카메라 모듈은 제2데이터에 기초하여 제2색차 데이터를 생성할 수 있다.In
동작 1340에서, 카메라 모듈은 제1색차 데이터 및 제2색차 데이터를 합산하여 제3색차 데이터를 생성할 수 있다.In
동작 1350에서, 카메라 모듈은 휘도 데이터 및 상기 제 2 색차 데이터를 합산하여 제 3 색차 데이터를 생성할 수 있다.In
동작 1360에서, 카메라 모듈은 휘도 데어티 및 제3색차 데이터를 합성하여, 이미지 데이터를 생성할 수 있다.In
본 발명의 다양한 실시예에 따른, 카메라 모듈의 이미지 데이터 생성 방법은, 상기 카메라 모듈은 마이크로 렌즈와, 상기 마이크로 렌즈와 대응되도록 배치되는 적어도 하나의 포토 다이오드 및 상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치되는 필터 어레이를 포함하며, 상기 방법은, 상기 적어도 하나의 포토 다이오드의 제1영역에서 감지된 빛에 기초하여 제1데이터를 생성하는 동작(1210), 상기 적어도 하나의 포토 다이오드의 제2영역에서 감지된 빛에 기초하여 제2데이터를 생성하는 동작(1220), 상기 제1데이터 및 상기 제2데이터에 기초하여 이미지 데이터를 생성하는 동작(1230)을 포함하며, 상기 제1데이터의 색상과 상기 제2데이터의 색상은 서로 보색 관계일 수 있다.According to various embodiments of the present invention, there is provided a method of generating image data of a camera module, the camera module comprising: a microlens; at least one photodiode arranged to correspond to the microlens; and at least one photodiode , The method comprising: generating (1210) first data based on light sensed in a first region of the at least one photodiode (1210), performing a second operation on the at least one photodiode Generating (1220) second data based on the sensed light in the first and second regions, generating (1230) image data based on the first data and the second data, The color and the color of the second data may be complementary to each other.
다양한 실시예에 따르면, 상기 적어도 하나의 포토 다이오드는 상기 제1필터를 통과한 빛을 감지하는 제1영역 및 상기 제2필터를 통과한 빛을 감지하는 제2영역을 포함하고, 상기 필터 어레이는 상기 제1영역에 대응되도록 마련되고 제1지정된 대역의 빛을 통과 시킬 수 있는 제1필터 및 상기 제2영역에 대응되도록 마련되고 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과 시킬 수 있는 제2필터를 포함할 수 있다.According to various embodiments, the at least one photodiode includes a first region for sensing light passing through the first filter and a second region for sensing light passing through the second filter, A first filter provided corresponding to the first area and capable of passing light in a first designated band and a second filter arranged in a different color having a complementary color relationship with the color corresponding to the first designated band, And a second filter capable of passing light of a corresponding second specified band.
다양한 실시예에 따르면, 상기 이미지 데이터를 생성하는 동작은, 상기 제1데이터 및 상기 제2데이터를 합산하여 휘도 데이터를 생성하는 동작, 상기 제1데이터에 기초하여 제1색차 데이터를 생성하는 동작, 상기 제2데이터에 기초하여 제2색차 데이터를 생성하는 동작, 상기 제1색차 데이터 및 상기 제2색차 데이터를 합산하여 제3색차 데이터를 생성하는 동작, 및 상기 생성된 휘도 데이터 및 상기 제3색차 데이터에 기초하여 상기 이미지 데이터를 생성하는 동작을 포함할 수 있다.According to various embodiments, the operation of generating the image data may include generating the luminance data by summing the first data and the second data, generating the first color difference data based on the first data, An operation of generating second color difference data based on the second data, an operation of generating third color difference data by summing the first color difference data and the second color difference data, and an operation of adding the generated luminance data and the third color difference data And generating the image data based on the data.
Claims (20)
적어도 하나의 렌즈를 포함하는 렌즈 모듈; 및
상기 렌즈 모듈과 결합된 이미지 센서 모듈을 포함하고, 상기 이미지 센서 모듈은,
마이크로 렌즈;
적어도 하나의 포토 다이오드; 및
제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함하는 필터 어레이가 상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치된 카메라 모듈.
A camera module comprising:
A lens module including at least one lens; And
And an image sensor module coupled with the lens module,
A micro lens;
At least one photodiode; And
A first filter capable of passing light in a first designated band and a second filter capable of passing light in a second designated band corresponding to a color corresponding to the first designated band and a different color having a complementary color relationship Wherein a filter array is disposed between the microlens and the at least one photodiode.
상기 적어도 하나의 포토 다이오드는 상기 제1필터를 통과한 빛을 감지하는 제1영역 및 상기 제2필터를 통과한 빛을 감지하는 제2영역을 포함하는 카메라 모듈.
The method according to claim 1,
Wherein the at least one photodiode comprises a first region for sensing light passing through the first filter and a second region for sensing light passing through the second filter.
상기 적어도 하나의 포토 다이오드는 상기 제1영역에서 감지된 빛에 대응하는 제1데이터를 획득하고; 및
상기 제2영역에서 감지된 빛에 대응하는 제2데이터를 획득 하도록 설정된 카메라 모듈.
3. The method of claim 2,
Wherein the at least one photodiode obtains first data corresponding to light sensed in the first region; And
And to obtain second data corresponding to light sensed in the second region.
상기 제1데이터 및 상기 제2데이터를 수신하도록 설정된 이미지 시그널 프로세서를 더 포함하는 카메라 모듈.
The method of claim 3,
And an image signal processor configured to receive the first data and the second data.
상기 이미지 시그널 프로세서는,
상기 제1데이터 및 상기 제2데이터를 합산하여 휘도 데이터를 생성하도록 설정된 카메라 모듈.
5. The method of claim 4,
The image signal processor comprising:
And to generate luminance data by summing the first data and the second data.
상기 이미지 시그널 프로세서는,
상기 제1데이터에 기초하여 제1색차 데이터를 생성하고, 상기 제2데이터에 기초하여 제2색차 데이터를 생성하고,
상기 제1색차 데이터 및 상기 제2색차 데이터를 합산하여 제3색차 데이터를 생성하도록 설정된 카메라 모듈.
6. The method of claim 5,
The image signal processor comprising:
Generating first color difference data based on the first data, generating second color difference data based on the second data,
And to generate third color difference data by summing the first color difference data and the second color difference data.
상기 이미지 시그널 프로세서는 상기 생성된 휘도 데이터 및 상기 제3색차 데이터에 기초하여 이미지 데이터를 생성하도록 설정된 카메라 모듈.
The method according to claim 6,
And the image signal processor is configured to generate image data based on the generated luminance data and the third color difference data.
상기 이미지 시그널 프로세서는 인터페이스를 통해 상기 제1데이터 및 상기 제2데이터를 카메라 모듈 외부의 프로세서로 전송하도록 설정된 카메라 모듈.
5. The method of claim 4,
Wherein the image signal processor is configured to transmit the first data and the second data via an interface to a processor external to the camera module.
상기 이미지 시그널 프로세서는 상기 제1데이터 및 상기 제2데이터에 기초하여 상기 이미지 데이터의 화이트 밸런스를 조정하도록 설정된 카메라 모듈.
5. The method of claim 4,
And the image signal processor is configured to adjust the white balance of the image data based on the first data and the second data.
상기 필터 어레이는 상기 제1지정된 대역 및 상기 제2지정된 대역보다 높은 제3지정된 대역의 빛을 통과시킬 수 있는 제3필터 및 상기 제1지정된 대역 및 상기 제2지정된 대역보다 낮은 제4지정된 대역의 빛을 통과시킬 수 있는 제4필터를 더 포함하는 카메라 모듈.
The method according to claim 1,
Wherein the filter array includes a third filter capable of passing light of a third specified band higher than the first designated band and the second designated band and a third filter capable of passing light of a fourth specified band lower than the first designated band and the second specified band And a fourth filter capable of passing light therethrough.
상기 이미지 센서 모듈은,
복수의 포토 다이오드들; 및
상기 복수의 포토 다이오드 각각에 대응하는 복수의 필터 어레이들을 포함하며,
상기 복수의 포토 다이오드들 및 복수의 필터 어레이들이 적어도 하나의 픽셀을 구성하도록 설정된 카메라 모듈.
The method according to claim 1,
The image sensor module includes:
A plurality of photodiodes; And
A plurality of filter arrays corresponding to each of the plurality of photodiodes,
Wherein the plurality of photodiodes and the plurality of filter arrays are configured to configure at least one pixel.
상기 적어도 하나의 포토 다이오드는,
플로팅 확산 영역이 활성화 됨에 따라 상기 제1영역 및 상기 제2영역으로 구분되거나, 또는
금속막을 통해 상기 제1영역 및 상기 제2영역으로 구분되는 카메라 모듈.
3. The method of claim 2,
Wherein the at least one photodiode comprises:
The floating diffusion region is divided into the first region and the second region according to activation of the floating diffusion region, or
And the first region and the second region through the metal film.
카메라 모듈; 및
이미지 시그널 프로세서를 포함하며,
상기 카메라 모듈은,
마이크로 렌즈;
상기 마이크로 렌즈를 통과한 빛을 전기적 신호로 변환할 수 있는 적어도 하나의 포토 다이오드; 및
상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치되고, 제1지정된 대역의 빛을 통과시킬 수 있는 제1필터 및 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과시킬 수 있는 제2필터를 포함하는 필터 어레이를 포함하며,
상기 이미지 시그널 프로세서는 상기 적어도 하나의 포토 다이오드에서 출력되는 데이터에 기반하여 이미지 데이터를 생성하도록 설정된 전자 장치.
In an electronic device,
A camera module; And
An image signal processor,
The camera module includes:
A micro lens;
At least one photodiode capable of converting light passing through the microlens into an electrical signal; And
A first filter disposed between the microlens and the at least one photodiode and capable of passing light in a first designated band, and a second filter disposed in the other of the first band and the second band, 2 a filter array including a second filter capable of passing light of a specified band,
Wherein the image signal processor is configured to generate image data based on data output from the at least one photodiode.
상기 적어도 하나의 포토 다이오드는 상기 제1필터를 통과한 빛을 감지하는 제1영역 및 상기 제2필터를 통과한 빛을 감지하는 제2영역을 포함하는 전자 장치.
14. The method of claim 13,
Wherein the at least one photodiode comprises a first region for sensing light passing through the first filter and a second region for sensing light passing through the second filter.
상기 적어도 하나의 포토 다이오드는 상기 제1영역에서 감지된 빛에 대응하는 제1데이터를 획득하고, 상기 제2영역에서 감지된 빛에 대응하는 제2데이터를 획득 하도록 설정되고,
상기 이미지 시그널 프로세서는 상기 제1데이터 및 상기 제2데이터에 기초하여 상기 이미지 데이터를 생성하도록 설정된 전자 장치.
15. The method of claim 14,
Wherein the at least one photodiode is configured to acquire first data corresponding to light sensed in the first region and acquire second data corresponding to sensed light in the second region,
And the image signal processor is configured to generate the image data based on the first data and the second data.
상기 이미지 시그널 프로세서는,
상기 제1데이터 및 상기 제2데이터를 합산하여 휘도 데이터를 생성하고,
상기 제1데이터에 기초하여 제1색차 데이터를 생성하고,
상기 제2데이터에 기초하여 제2색차 데이터를 생성하고,
상기 제1색차 데이터 및 상기 제2색차 데이터를 합산하여 제3색차 데이터를 생성하고, 및
상기 생성된 휘도 데이터 및 상기 제3색차 데이터에 기초하여 상기 이미지 데이터를 생성하도록 설정된 전자 장치.
15. The method of claim 14,
The image signal processor comprising:
Summing the first data and the second data to generate luminance data,
Generating first color difference data based on the first data,
Generating second color difference data based on the second data,
Summing the first color difference data and the second color difference data to generate third color difference data, and
And generating the image data based on the generated luminance data and the third color difference data.
상기 이미지 시그널 프로세서는,
전자 장치의 어플리케이션 프로세서, 상기 카메라 모듈의 이미지 센서 IC, 또는 상기 어플리케이션 프로세서 및 상기 카메라 모듈과 전기적으로 연결된 컴패니언 칩 중 어느 하나로 구성되는 전자 장치.
14. The method of claim 13,
The image signal processor comprising:
An application processor of the electronic device, an image sensor IC of the camera module, or a companion chip electrically connected to the application processor and the camera module.
상기 카메라 모듈은 마이크로 렌즈와, 상기 마이크로 렌즈와 대응되도록 배치되는 적어도 하나의 포토 다이오드 및 상기 마이크로 렌즈와 상기 적어도 하나의 포토 다이오드 사이에 배치되는 필터 어레이를 포함하며,
상기 방법은,
상기 적어도 하나의 포토 다이오드의 제1영역에서 감지된 빛에 기초하여 제1데이터를 생성하는 동작;
상기 적어도 하나의 포토 다이오드의 제2영역에서 감지된 빛에 기초하여 제2데이터를 생성하는 동작;
상기 제1데이터 및 상기 제2데이터에 기초하여 이미지 데이터를 생성하는 동작을 포함하며,
상기 제1데이터의 색상과 상기 제2데이터의 색상은 서로 보색 관계인 방법.
A method for generating image data of a camera module,
The camera module includes a microlens, at least one photodiode arranged to correspond to the microlens, and a filter array disposed between the microlens and the at least one photodiode,
The method comprises:
Generating first data based on light sensed in a first region of the at least one photodiode;
Generating second data based on light sensed in a second region of the at least one photodiode;
Generating image data based on the first data and the second data,
Wherein the color of the first data and the color of the second data are complementary to each other.
상기 적어도 하나의 포토 다이오드는 상기 제1필터를 통과한 빛을 감지하는 제1영역 및 상기 제2필터를 통과한 빛을 감지하는 제2영역을 포함하고,
상기 필터 어레이는 상기 제1영역에 대응되도록 마련되고 제1지정된 대역의 빛을 통과 시킬 수 있는 제1필터 및 상기 제2영역에 대응되도록 마련되고 상기 제1지정된 대역에 대응하는 색상과 보색관계를 갖는 다른 색상에 대응하는 제2지정된 대역의 빛을 통과 시킬 수 있는 제2필터를 포함하는 방법.
19. The method of claim 18,
Wherein the at least one photodiode includes a first region for sensing light passing through the first filter and a second region for sensing light passing through the second filter,
Wherein the filter array includes a first filter that is provided to correspond to the first area and is capable of passing light of a first designated band, and a second filter that is provided to correspond to the second area and has a color and a complementary color relationship corresponding to the first designated band And a second filter capable of passing light of a second specified band corresponding to another color having the second color.
상기 이미지 데이터를 생성하는 동작은,
상기 제1데이터 및 상기 제2데이터를 합산하여 휘도 데이터를 생성하는 동작;
상기 제1데이터에 기초하여 제1색차 데이터를 생성하는 동작;
상기 제2데이터에 기초하여 제2색차 데이터를 생성하는 동작;
상기 제1색차 데이터 및 상기 제2색차 데이터를 합산하여 제3색차 데이터를 생성하는 동작; 및
상기 생성된 휘도 데이터 및 상기 제3색차 데이터에 기초하여 상기 이미지 데이터를 생성하는 동작을 포함하는 방법.
19. The method of claim 18,
Wherein the generating of the image data comprises:
Summing the first data and the second data to generate luminance data;
Generating first color difference data based on the first data;
Generating second color difference data based on the second data;
Generating third color difference data by summing the first color difference data and the second color difference data; And
And generating the image data based on the generated luminance data and the third color difference data.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170146917A KR102412278B1 (en) | 2017-11-06 | 2017-11-06 | Camera module including filter array of complementary colors and electronic device including the camera module |
US16/759,246 US11558587B2 (en) | 2017-11-06 | 2018-07-26 | Camera module comprising complementary color filter array and electronic device comprising same |
PCT/KR2018/008488 WO2019088407A1 (en) | 2017-11-06 | 2018-07-26 | Camera module comprising complementary color filter array and electronic device comprising same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170146917A KR102412278B1 (en) | 2017-11-06 | 2017-11-06 | Camera module including filter array of complementary colors and electronic device including the camera module |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190051371A true KR20190051371A (en) | 2019-05-15 |
KR102412278B1 KR102412278B1 (en) | 2022-06-24 |
Family
ID=66332051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170146917A KR102412278B1 (en) | 2017-11-06 | 2017-11-06 | Camera module including filter array of complementary colors and electronic device including the camera module |
Country Status (3)
Country | Link |
---|---|
US (1) | US11558587B2 (en) |
KR (1) | KR102412278B1 (en) |
WO (1) | WO2019088407A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021171797A1 (en) * | 2020-02-26 | 2021-09-02 | ソニーセミコンダクタソリューションズ株式会社 | Solid-state imaging device and electronic apparatus |
WO2021187076A1 (en) * | 2020-03-16 | 2021-09-23 | ソニーセミコンダクタソリューションズ株式会社 | Imaging element, and electronic instrument |
CN113676629B (en) * | 2021-08-09 | 2024-01-09 | Oppo广东移动通信有限公司 | Image sensor, image acquisition device, image processing method and image processor |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100912873B1 (en) * | 2007-04-26 | 2009-08-19 | 삼성전자주식회사 | Method and apparatus for generating imgae |
KR101534547B1 (en) * | 2008-11-24 | 2015-07-08 | 삼성전자주식회사 | Image sensor and system including the same |
KR20170018206A (en) * | 2015-08-07 | 2017-02-16 | 삼성전자주식회사 | Image sensor and image processing device including the same |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001250931A (en) | 2000-03-07 | 2001-09-14 | Canon Inc | Solid-state image sensor and image sensing system using the same |
US8134582B2 (en) * | 2004-05-14 | 2012-03-13 | Canon Kabushiki Kaisha | Color display apparatus |
US7423677B2 (en) * | 2004-07-27 | 2008-09-09 | Avago Technologies Ecbu Ip Pte Ltd | Color filter method and apparatus |
JP4628937B2 (en) * | 2005-12-01 | 2011-02-09 | オリンパス株式会社 | Camera system |
KR100769548B1 (en) * | 2005-12-30 | 2007-10-23 | 엠텍비젼 주식회사 | Color filter array and image interpolation method |
KR101411548B1 (en) * | 2007-11-05 | 2014-07-07 | 삼성전자주식회사 | Image sensor, color filter array, and image pickup apparatus |
JP4377428B2 (en) * | 2007-12-12 | 2009-12-02 | アキュートロジック株式会社 | Solid-state imaging device and imaging apparatus using the same |
US7990445B2 (en) * | 2008-05-30 | 2011-08-02 | Omnivision Technologies, Inc. | Image sensor having differing wavelength filters |
KR101563348B1 (en) | 2008-10-07 | 2015-10-27 | 삼성전자 주식회사 | Apparatus and method for reducing noise of image |
JP5259381B2 (en) * | 2008-12-25 | 2013-08-07 | 京セラ株式会社 | Imaging apparatus and imaging method |
JP5432075B2 (en) * | 2010-07-06 | 2014-03-05 | パナソニック株式会社 | Imaging apparatus and color temperature calculation method |
JP5999750B2 (en) * | 2011-08-25 | 2016-09-28 | ソニー株式会社 | Imaging device, imaging apparatus, and biological imaging apparatus |
JP5743837B2 (en) * | 2011-10-07 | 2015-07-01 | キヤノン株式会社 | Photoelectric conversion device, imaging device, and imaging system |
WO2013108656A1 (en) | 2012-01-16 | 2013-07-25 | ソニー株式会社 | Solid-state image sensor and camera system |
KR102212138B1 (en) * | 2014-08-19 | 2021-02-04 | 삼성전자주식회사 | Unit pixel for image sensor and pixel array comprising the same |
JP6658529B2 (en) | 2014-09-08 | 2020-03-04 | ソニー株式会社 | Display device, display device driving method, and electronic device |
KR101692748B1 (en) * | 2015-03-24 | 2017-01-04 | 인천대학교 산학협력단 | Method for interpolating color filter array based on inter-channel correlation |
KR20180024604A (en) * | 2016-08-30 | 2018-03-08 | 삼성전자주식회사 | Image sensor and driving method thereof |
CN111988587B (en) * | 2017-02-10 | 2023-02-07 | 杭州海康威视数字技术股份有限公司 | Image fusion apparatus and image fusion method |
-
2017
- 2017-11-06 KR KR1020170146917A patent/KR102412278B1/en active IP Right Grant
-
2018
- 2018-07-26 WO PCT/KR2018/008488 patent/WO2019088407A1/en active Application Filing
- 2018-07-26 US US16/759,246 patent/US11558587B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100912873B1 (en) * | 2007-04-26 | 2009-08-19 | 삼성전자주식회사 | Method and apparatus for generating imgae |
KR101534547B1 (en) * | 2008-11-24 | 2015-07-08 | 삼성전자주식회사 | Image sensor and system including the same |
KR20170018206A (en) * | 2015-08-07 | 2017-02-16 | 삼성전자주식회사 | Image sensor and image processing device including the same |
Also Published As
Publication number | Publication date |
---|---|
WO2019088407A1 (en) | 2019-05-09 |
KR102412278B1 (en) | 2022-06-24 |
US11558587B2 (en) | 2023-01-17 |
US20200374493A1 (en) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11039056B2 (en) | Image sensor for generating depth data by a path difference of light generated through micro lens covering a plurality of sub-pixels and electronic device including the image sensor | |
KR102318013B1 (en) | Electronic device composing a plurality of images and method | |
US11626447B2 (en) | Electronic device comprising image sensor for identifying an operation setting and an external environmental condition and method of operation thereof | |
EP3815356B1 (en) | Electronic device and method for acquiring depth information by using at least one of cameras or depth sensor | |
KR102663537B1 (en) | electronic device and method of image processing | |
US11146720B2 (en) | Electronic device for providing function by using RGB image and IR image acquired through one image sensor | |
KR20200077984A (en) | Camera module which has multi-cell structure and portable communication device including the camera module | |
JP2012070215A (en) | Three-dimensional imaging apparatus | |
US11917306B2 (en) | Electronic device that corrects images captured on a side opposite a displaying surface | |
KR102412278B1 (en) | Camera module including filter array of complementary colors and electronic device including the camera module | |
US11582430B2 (en) | Electronic device comprising image sensor and method of operation thereof | |
US11418740B2 (en) | Electronic device and method for determining type of light source of image | |
KR20210130972A (en) | Color filter array of an electronic deviceand the electronic | |
US11895401B2 (en) | Camera module for high resolution auto focusing and electronic device including same | |
KR20200101803A (en) | Electronic device for generating depth map and method thereof | |
EP4171019A1 (en) | Electronic device comprising image sensor, and method for controlling same | |
KR20210151613A (en) | Image Processing Device and Image Processing Method | |
US11070751B2 (en) | Electronic device and image up-sampling method for electronic device | |
US20240259680A1 (en) | Electronic device acquiring image through image sensor, and operating method thereof | |
KR20210114768A (en) | Electronic device for corecting lens shading of image based on differential between sub images and operating method thereof | |
KR20220014150A (en) | Electronic device including image sensor and image signal processor and Method thereof | |
KR20240120602A (en) | Electronic apparautus obtaining image through image sensor and operating method thereof | |
CN116896673A (en) | Method and apparatus for acquiring images using a multispectral sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |