WO2021261737A1 - 이미지 센서를 포함하는 전자 장치 및 이에 대한 제어 방법 - Google Patents

이미지 센서를 포함하는 전자 장치 및 이에 대한 제어 방법 Download PDF

Info

Publication number
WO2021261737A1
WO2021261737A1 PCT/KR2021/005304 KR2021005304W WO2021261737A1 WO 2021261737 A1 WO2021261737 A1 WO 2021261737A1 KR 2021005304 W KR2021005304 W KR 2021005304W WO 2021261737 A1 WO2021261737 A1 WO 2021261737A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
pixels
image sensor
unit pixel
processor
Prior art date
Application number
PCT/KR2021/005304
Other languages
English (en)
French (fr)
Inventor
김동수
강화영
박재형
우수이타카후미
윤영권
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP21829024.5A priority Critical patent/EP4171019A4/en
Publication of WO2021261737A1 publication Critical patent/WO2021261737A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/42Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by switching between different modes of operation using different resolutions or aspect ratios, e.g. switching between interlaced and non-interlaced mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/445Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by skipping some contiguous pixels within the read portion of the array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter

Definitions

  • the present disclosure relates to an electronic device including an image sensor.
  • an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) is used. Since such a sensor detects a brightness value of light, an image obtained through the sensor is a black-and-white image, not a color image. Therefore, in order to obtain a color image, a color filter array (hereinafter referred to as “CFA”) that passes R (red), G (green), and B (blue) color components is disposed in each pixel of the sensor. and each pixel of the sensor senses channel values of R, G, and B color signals that have passed through the CFA.
  • CFA color filter array
  • each pixel of a single image sensor only one color information (eg, R) corresponding to a color filter is obtained from among the color information of multiple channels, so the processor interpolates all color information of the pixel from the color information of neighboring pixels. (eg R, G, B). This process is known as a demosaic process.
  • the processor When performing the demosaicing process, the processor does not effectively consider the edge information of the image and does not consider the correlation between channels well. Color distortion like a rainbow may occur in a pattern area such as a checkered image or a false color error, which is a phenomenon in which some pixels are interpolated with a color completely different from the one that does not match the surroundings.
  • the present disclosure provides a demosaic process for color values of pixels in a processor by outputting two or more color values for each pixel through a combination of color values of pixels in an image sensor when an image of normal resolution rather than high resolution is required It is possible to provide an image data processing method for obtaining an image of improved image quality by generating image data using actual data of pixels without performing the .
  • the electronic device may include a color filter array including a plurality of pixels, an image sensor including the color filter array, and a processor connected to the image sensor through a specified interface.
  • the image sensor of the electronic device provides one color value corresponding to each of the plurality of pixels to the processor in a first output mode having a first resolution, and has a second resolution lower than the first resolution
  • the second output mode at least two color values representing a unit pixel including the first number of pixels may be provided to the processor through the designated interface.
  • a demosaic process is performed using one color value corresponding to each of the plurality of pixels provided, and in the second output mode, the demosaic process is omitted. Images can be processed and displayed.
  • color reproducibility may be increased by minimizing a color error or color distortion in an output mode having a relatively low resolution.
  • processing speed and power consumption may be improved by partially omitting processing performed by the processor in an output mode having a relatively low resolution.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure
  • FIG. 2 is a block diagram illustrating a camera module according to various embodiments.
  • FIG. 3 is a diagram illustrating a structure of an electronic device and a camera module according to an embodiment.
  • FIG. 4 is a flowchart illustrating a process of outputting a color value from an image sensor according to an exemplary embodiment.
  • FIG. 5 is a diagram illustrating a state in which R, G, and B are all output from a unit pixel of an image sensor according to an exemplary embodiment.
  • FIG. 6 is a flowchart illustrating a process in an image signal processor according to resolution according to an embodiment.
  • FIG. 7 is a flowchart illustrating an image processing process in an image sensor and an image signal processor according to an exemplary embodiment.
  • FIG. 8 is a flowchart illustrating a process of outputting a color value from an image sensor according to an exemplary embodiment.
  • FIG. 9 is a diagram illustrating a process of combining color values in an image sensor according to an exemplary embodiment.
  • FIG. 10 is a diagram illustrating a process of combining color values in an image sensor according to an exemplary embodiment.
  • FIG. 11 is a diagram illustrating a process of combining color values in an image sensor according to an exemplary embodiment.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments of the present disclosure.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input device 150 , a sound output device 155 , a display device 160 , an audio module 170 , and a sensor module ( 176 , interface 177 , haptic module 179 , camera module 180 , power management module 188 , battery 189 , communication module 190 , subscriber identification module 196 , or antenna module 197 . ) may be included. In some embodiments, at least one of these components (eg, the display device 160 or the camera module 180 ) may be omitted or one or more other components may be added to the electronic device 101 . In some embodiments, some of these components may be implemented as a single integrated circuit. For example, the sensor module 176 (eg, a fingerprint sensor, an iris sensor, or an illuminance sensor) may be implemented while being embedded in the display device 160 (eg, a display).
  • the sensor module 176 eg, a fingerprint sensor, an iris sensor, or an illumina
  • the processor 120 executes software (eg, the program 140 ) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to an embodiment, as at least part of data processing or operation, the processor 120 stores a command or data received from another component (eg, the sensor module 176 or the communication module 190 ) into the volatile memory 132 . may be loaded into the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the resulting data in the non-volatile memory 134 .
  • software eg, the program 140
  • the processor 120 stores a command or data received from another component (eg, the sensor module 176 or the communication module 190 ) into the volatile memory 132 .
  • the processor 120 stores a command or data received from another component (eg, the sensor module 176 or the communication module 190 ) into the volatile memory 132 .
  • the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor), and an auxiliary processor 123 (eg, a graphic processing unit or an image signal processor) that can be operated independently or together with the main processor 121 . , a sensor hub processor, or a communication processor). Additionally or alternatively, the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function. The auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • a main processor 121 eg, a central processing unit or an application processor
  • an auxiliary processor 123 eg, a graphic processing unit or an image signal processor
  • the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function.
  • the auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • the auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the auxiliary processor 123 eg, image signal processor or communication processor
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input device 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input device 150 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
  • the sound output device 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output device 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive an incoming call.
  • the receiver may be implemented separately from or as a part of the speaker.
  • the display device 160 may visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the corresponding device.
  • the display device 160 may include a touch circuitry configured to sense a touch or a sensor circuit (eg, a pressure sensor) configured to measure the intensity of a force generated by the touch. have.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input device 150 or an external electronic device (eg, a sound output device 155 ) directly or wirelessly connected to the electronic device 101 . The sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output device 155
  • the sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 388 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • a corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, WiFi direct, or IrDA (infrared data association)) or a second network 199 (eg, a cellular network, the Internet, or It can communicate with an external electronic device through a computer network (eg, a telecommunication network such as a LAN or WAN).
  • a computer network eg, a telecommunication network such as a LAN or WAN.
  • These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented as a plurality of components (eg, multiple chips) separate from each other.
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified and authenticated.
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, RFIC
  • other than the radiator may be additionally formed as a part of the antenna module 197 .
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the electronic devices 102 and 104 may be the same or a different type of device from the electronic device 101 .
  • all or some of the operations performed by the electronic device 101 may be executed by one or more of the external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • the electronic device may be a device of various types.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a laptop, a desktop, a tablet, or a portable multimedia device
  • portable medical device e.g., a portable medical device
  • camera e.g., a camera
  • a wearable device e.g., a smart watch
  • a home appliance device e.g., a smart bracelet
  • first, second, or first or second may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. that one (eg first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively” When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • one or more instructions stored in a storage medium may be implemented as software (eg, the program 140) including
  • a processor eg, processor 120
  • a device eg, electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the methods according to various embodiments disclosed in this document may be provided by being included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed online (eg download or upload), directly between smartphones (eg smartphones).
  • a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component eg, a module or a program of the above-described components may include a singular or a plurality of entities.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repetitively, or heuristically, or one or more of the operations are executed in a different order, omitted, or , or one or more other operations may be added.
  • the camera module 180 includes a lens assembly 210 , a flash 220 , an image sensor 230 , an image stabilizer 240 , a memory 250 (eg, a buffer memory), or an image signal processor. (260).
  • the lens assembly 210 may collect light emitted from a subject, which is an image to be captured.
  • the lens assembly 210 may include one or more lenses.
  • the camera module 180 may include a plurality of lens assemblies 210 . In this case, the camera module 180 may form, for example, a dual camera, a 360 degree camera, or a spherical camera.
  • Some of the plurality of lens assemblies 210 may have the same lens properties (eg, angle of view, focal length, auto focus, f number, or optical zoom), or at least one lens assembly may be a different lens assembly. It may have one or more lens properties different from the lens properties of .
  • the lens assembly 210 may include, for example, a wide-angle lens or a telephoto lens.
  • the flash 220 may emit light used to enhance light emitted or reflected from the subject.
  • the flash 220 may include one or more light emitting diodes (eg, a red-green-blue (RGB) LED, a white LED, an infrared LED, or an ultraviolet LED), or a xenon lamp.
  • the image sensor 230 may acquire an image corresponding to the subject by converting light emitted or reflected from the subject and transmitted through the lens assembly 210 into an electrical signal.
  • the image sensor 230 may include, for example, one image sensor selected from among image sensors having different properties, such as an RGB sensor, a black and white (BW) sensor, an IR sensor, or a UV sensor, the same It may include a plurality of image sensors having properties, or a plurality of image sensors having different properties.
  • Each image sensor included in the image sensor 230 may be implemented using, for example, a charged coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor.
  • CCD charged coupled device
  • CMOS complementary metal oxide semiconductor
  • the image stabilizer 240 moves at least one lens or the image sensor 230 included in the lens assembly 210 in a specific direction or Operation characteristics of the image sensor 230 may be controlled (eg, read-out timing may be adjusted, etc.). This makes it possible to compensate for at least some of the negative effects of the movement on the image being taken.
  • the image stabilizer 240 is, according to an embodiment, the image stabilizer 240 is a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module 180 . can be used to detect such a movement of the camera module 180 or the electronic device 101 .
  • the image stabilizer 240 may be implemented as, for example, an optical image stabilizer.
  • the memory 250 may temporarily store at least a portion of the image acquired through the image sensor 230 for a next image processing operation. For example, when image acquisition is delayed according to the shutter or a plurality of images are acquired at high speed, the acquired original image (eg, Bayer-patterned image or high-resolution image) is stored in the memory 250 and , a copy image corresponding thereto (eg, a low-resolution image) may be previewed through the display device 160 .
  • the acquired original image eg, Bayer-patterned image or high-resolution image
  • a copy image corresponding thereto eg, a low-resolution image
  • the memory 250 may be configured as at least a part of the memory 130 or as a separate memory operated independently of the memory 130 .
  • the image signal processor 260 may perform one or more image processing on an image acquired through the image sensor 230 or an image stored in the memory 250 .
  • the one or more image processes may include, for example, depth map generation, 3D modeling, panorama generation, feature point extraction, image synthesis, or image compensation (eg, noise reduction, resolution adjustment, brightness adjustment, blurring ( blurring, sharpening, or softening.
  • the image signal processor 260 may include at least one of the components included in the camera module 180 (eg, an image sensor). 230), for example, exposure time control, readout timing control, etc.
  • the image processed by the image signal processor 260 is stored back in the memory 250 for further processing.
  • the image signal processor 260 may be configured as at least a part of the processor 120 or as a separate processor operated independently of the processor 120.
  • the image signal processor 260 may be configured as the processor 120 and a separate processor, the at least one image processed by the image signal processor 260 may be displayed through the display device 160 as it is by the processor 120 or after additional image processing.
  • the electronic device 101 may include a plurality of camera modules 180 each having different properties or functions.
  • at least one of the plurality of camera modules 180 may be a wide-angle camera, and at least the other may be a telephoto camera.
  • at least one of the plurality of camera modules 180 may be a front camera, and at least the other may be a rear camera.
  • FIG 3 is a diagram illustrating the structure of the electronic device 300 and the camera module 180 according to an embodiment.
  • FIG. 3 is a diagram schematically illustrating an exterior and a camera module 180 of an electronic device 300 (eg, the electronic device 101 of FIG. 1 ) on which the camera module 180 is mounted according to an embodiment of the present disclosure.
  • an electronic device 300 eg, the electronic device 101 of FIG. 1
  • the embodiment of FIG. 3 has been illustrated and described on the premise of a mobile device, in particular, a smart phone, it can be applied to various electronic devices or electronic devices equipped with a camera among mobile devices to those of ordinary skill in the art. will be clearly understood.
  • the electronic device 300 may include a body 310 , a rear cover 320 , and a camera module 180 .
  • the camera module 180 is located on the rear side of the electronic device 300 on which the rear cover 320 is disposed, but in various embodiments, the camera module 180 is located at various positions ( For example: front, back, side, etc.).
  • the camera module 180 is illustrated as being positioned at the top center of the electronic device 300 in FIG. 3 , the camera module 180 is disposed biased toward the upper right side of the electronic device 300 , or the upper left side of the electronic device 300 . It may be placed biased toward Also, the camera module 180 may be disposed at the middle of the electronic device 300 or may be disposed at the lower end of the electronic device 300 .
  • the electronic device 300 may additionally include a speaker, a receiver, a front camera, a proximity sensor, a home key, and the like.
  • the electronic device 300 may be provided in which the rear cover 320 is integrated with the main body 310 .
  • the rear cover 320 may be separated from the main body 310 of the electronic device 300 to have a form in which the battery can be replaced.
  • the back cover 320 may be referred to as a battery cover or a back cover.
  • the location of the camera module 180 described above is merely an example, and the camera module 180 may be disposed on the front side as well as the rear side of the electronic device 300 .
  • the electronic device 300 may include a plurality of camera modules as well as one camera module 180 to improve camera performance.
  • the electronic device 300 may further include a front camera for video call or self-camera photography.
  • the front camera may support a relatively low number of pixels compared to the rear camera module.
  • the front camera may be relatively smaller than the rear camera module.
  • the camera module 180 includes a printed circuit board on which an image sensor (eg, the image sensor 230 of FIG. 2 ) is mounted, and at least one lens aligned on an optical axis. It may include a housing 330 for mounting the barrel and at least one coil surrounding the periphery of the barrel with respect to the optical axis.
  • the image sensor 230 is seated on the upper surface of the printed circuit board, and may be connected to an image signal processor 260 connected to the printed circuit board 350 by a connector.
  • a flexible printed circuit board (FPCB) or a cable may be used as the connector.
  • the image sensor 230 may include a plurality of individual pixels, each of which may include a micro lens 360 , a color filter, and a photodiode 380 . have.
  • Each individual pixel is a kind of photodetector that can convert incoming light into an electrical signal.
  • a photodetector in general, cannot detect the wavelength of the captured light by itself and cannot determine color information.
  • the photo detector may include a photodiode.
  • the image sensor 230 may include a complementary metal oxide semiconductor (CMOS) sensor or a charged coupled device (CCD) sensor.
  • CMOS complementary metal oxide semiconductor
  • CCD charged coupled device
  • the light information of the subject incident through the lens assembly 210 may be converted into an electrical signal by the image sensor 230 and input to the image processor 260 .
  • An infrared cut filter (hereinafter, IR cut filter) 340 may be disposed on the upper surface of the image sensor 230 , and the image of the subject passing through the lens is partially filtered by the IR cut filter 340 . Then, it may be detected by the image sensor 230 .
  • the image sensor 230 may include a micro lens 360 , a color filter array (CFA) 370 , and a photodiode 380 .
  • the micro lens 360 may focus light on each individual pixel.
  • the color filter array 370 may include an array of small color filters that overlap each individual pixel of the image sensor 230 and each filter the captured light by wavelength.
  • the photodiode 380 reacts when light enters to generate electrons and an analog signal.
  • the color filter array 370 may use a Bayer color filter array (CFA), but the presently disclosed techniques are not intended to be limited in this regard.
  • the color filter array 370 may be formed of a Bayer pattern, a tetra pattern, a nona pattern (3x3), a 4x4 pattern, a diamond pattern, or the like. Those of ordinary skill in the art will recognize that the image processing techniques provided herein may be applicable to any suitable type of color filter array 370 , including RGBW filters, CYGM filters, and the like.
  • Each individual pixel of the image sensor 230 may have a color value through the color filter array 370 according to various embodiments.
  • the image sensor 230 includes a plurality of individual pixels and an output circuit, and the plurality of individual pixels generate an electrical signal corresponding to the intensity of light incident thereon, and the color filter array 370 through the output circuit. ), the color value of each pixel is output.
  • the present disclosure includes content on color values of individual pixels to be output, and this will be described with reference to the drawings below.
  • FIG. 4 is a flowchart 400 illustrating a process of outputting a color value from the image sensor 230 according to an exemplary embodiment.
  • the processor may acquire data.
  • the data may refer to data about the resolution of an image.
  • the data on the resolution may be data on at least one of at least an illuminance value, a zoom magnification value, and a resolution value directly set by a user.
  • the electronic device 300 may have an output mode of the image sensor 230 having a high resolution when the zoom magnification value is equal to or greater than the first magnification value.
  • the electronic device 300 may have an output mode of the image sensor 230 having a normal resolution when the zoom magnification value is less than the first magnification value.
  • the zoom magnification value may be set according to a user input.
  • the electronic device 300 may determine a peripheral illuminance state to change the resolution.
  • the electronic device 300 may have an output mode of the image sensor 230 having a high resolution.
  • the electronic device 300 may have an output mode of the image sensor 230 having a normal resolution.
  • the high resolution may mean a first resolution
  • the normal resolution may mean a second resolution.
  • the processor 120 may set the photographing resolution according to the ambient illuminance state.
  • the electronic device 300 may have at least one output mode in response to a resolution value directly set by a user. For example, when a user shoots a still image or a moving picture, the electronic device 300 may have a shooting resolution of the first mode or the second mode in response to a user input for setting a desired resolution. When the data for the resolution is obtained, the processor 120 may determine whether the first resolution or the second resolution is required based on the data.
  • the normal resolution referred to in the present disclosure includes a resolution that may correspond to a case where the illuminance value is less than the first illuminance value or the zoom magnification value is less than the first magnification value, and may include a low resolution.
  • the processor 120 may determine whether the first mode has a first resolution. In operation 410, when the processor 120 obtains data on the resolution, the processor 120 may determine a required resolution based on the data.
  • the first mode may mean a first output mode of the image sensor 230 having the first resolution. If it is not the first mode, the output mode of the image sensor 230 may correspond to the second mode having the second resolution.
  • the second mode may mean a second output mode of the image sensor 230 having the second resolution.
  • the second resolution may mean a lower resolution than the first resolution.
  • the electronic device 300 may perform operation 430 in the first mode, and perform operation 440 in the second mode.
  • the image sensor 230 may output one color value corresponding to each individual pixel.
  • the image sensor 230 may further include a color filter array 370 that may be overlaid or disposed over the pixel array of the image sensor 230 to capture color information.
  • the color filter array 370 may include an array of small color filters that overlap each individual pixel of the image sensor 230 and may each filter the captured light by wavelength.
  • the image sensor 230 may provide wavelength and intensity information for the light captured by the camera to the processor 120 .
  • the image sensor 230 may display an image through the captured light information.
  • color filter array 370 may include a Bayer color filter array that provides a filter pattern that is 50% green, 25% red, and 25% blue.
  • the color filter array 370 is, for example, a Bayer pattern that is a 2 ⁇ 2 pixel pattern including two green elements (green), one red element (red) and one blue element (blue) is repeatedly formed. It may mean a color filter array (eg, 910 of FIG. 9 ). Accordingly, the image sensor 230 using the Bayer color filter array can obtain information about the intensity of light received by the lens assembly 210 based on green, red, and blue wavelengths, and each individual pixel has three colors. One color information among (RGB) can be obtained.
  • the RGB is only one example of a color value, and the color value is not limited.
  • the one color value may be at least one of red, green, blue, yellow, emerald, white, cyan, and magenta.
  • the color filter array 370 is a red, green, blue, emerald (RGBE) pattern, a cyan, yellow, magenta (CYYM) pattern, a cyan, yellow, green, magenta (CYGM) pattern, or an RGBW (RGBW) pattern. It may include a color filter array of red, green, blue, and white) patterns.
  • the image sensor 230 may output at least two color values representing a unit pixel.
  • the unit pixel may refer to a group of individual pixels in which individual pixels are grouped to output at least two or more specified color values for the unit pixel.
  • the specified color value may include RGB (red, green, blue) and CMY (cyan, magenta, yellow).
  • the size of the unit pixel may be determined based on a difference between the resolution of the image sensor 230 and the output resolution.
  • a unit pixel may include k2 pixels.
  • a shape in which the unit pixel includes k2 pixels may be rectangular or non-rectangular.
  • the unit pixel may include k2 pixels corresponding to a k x k pattern. For example, when the electronic device 300 outputs an image having a resolution of 12 Mp through an image sensor having a resolution of 196 Mp, one unit pixel may include 16 individual pixels.
  • a unit pixel may include four tetra cells, and the number of individual pixels included in a unit pixel may be 16.
  • a unit pixel may include four Bayer patterns, and the number of individual pixels included in a unit pixel may be 16.
  • the area of the unit pixel is not limited by the above description, and may be variously set according to the pattern and color type of individual pixels.
  • the unit pixel may have a 3x3, 4x4, diamond shape, or the like.
  • the unit pixel includes 4 individual pixels (eg, 4 green pixels) corresponding to one tetra cell pattern and 12 individual pixels surrounding the 4 individual pixels. can do.
  • the unit pixel may include four Bayer patterns.
  • the four Bayer patterns may form a 4 ⁇ 4 pixel structure (eg, 920 of FIG. 9 ).
  • the image sensor 230 may include at least two of an average value of a red color value, an average value of a green color value, and an average value of a blue color value detected through individual pixels within the unit pixel. It is possible to output more than one average value as a color value for a unit pixel including 16 individual pixels.
  • the color value for the unit pixel may include a weighted sum of each color value in addition to the above-described average value of each color value. The weighted sum may be derived through a weighted function used when summing, integrating, or averaging, and this may be equally applied in the following description. Additional description of operation 440 will be described below with reference to FIG. 5 .
  • the image sensor 230 may provide a color value of a pixel through a designated interface.
  • the designated interface may be an interface determined by a mobile industry processor interface (MIPI) to enhance reuse and compatibility in mobile and IoT devices.
  • the designated interface may include a data link connecting the image sensor 230 and the image signal processor 260 .
  • the color values of pixels output from the image sensor 230 may be sent to the image signal processor 260 for image processing through the interface.
  • the processor 120 may occupy a predetermined bandwidth.
  • the image sensor 230 may transmit raw image data to the image signal processor 260 through the interface.
  • the image sensor 230 may transmit a color value created by combining color values of pixels to the image signal processor 260 through the interface.
  • the image signal processor 260 may receive a color value of a pixel.
  • the image signal processor 260 may receive a color value of a pixel output from the image sensor 230 .
  • the image signal processor 260 may receive the color value of the pixel through the designated interface.
  • the image signal processor 260 receives one color value corresponding to each individual pixel for each individual pixel in the first mode having the first resolution, and receives at least two color values representing the unit pixel in the second mode having the second resolution. More than one color value may be received.
  • FIG. 5 is a diagram 500 illustrating a state in which at least two colors of R, G, and B are output from a unit pixel of the image sensor 230 according to an exemplary embodiment.
  • the image sensor 230 may output at least two color values representing a unit pixel. .
  • the image sensor 230 sets a unit pixel area and outputs two or more color values using the obtained color values of the individual pixels in the unit pixel.
  • the unit pixel may include 4 individual pixels (eg, 4 green pixels) corresponding to one tetra cell pattern and 12 individual pixels surrounding the 4 individual pixels.
  • the unit pixel may include four Bayer patterns. The four Bayer patterns may form a 4 ⁇ 4 pixel structure (eg, 920 of FIG. 9 ).
  • the image sensor 230 may include at least two of an average value of a red color value, an average value of a green color value, and an average value of a blue color value detected through individual pixels within the unit pixel.
  • the average value of more than two may be output as a color value for the unit pixel 520 including 16 individual pixels.
  • the unit pixel for outputting the two or more color values is not limited to a specific unit pixel, and as a result, may correspond to all unit pixels included in the image sensor 230 . Accordingly, the image sensor 230 may output two or more color values for a unit pixel instead of one color value corresponding to one individual pixel.
  • the tetra cell pattern is only an example, and the pattern format is not limited thereto.
  • the pattern format is a Bayer pattern, a red, green, blue, emerald (RGB) pattern, a cyan, yellow, magenta (CYYM) pattern, a cyan, yellow, green, magenta (CYGM) pattern, or There may be an RGBW (red, green, blue, white) pattern.
  • RGBW red, green, blue, white
  • the unit pixel is referred to as an area of 16 individual pixels in FIG. 5 , when a value corresponding to this area is actually generated, a color value of a pixel corresponding to a narrower or wider area than this area may be used.
  • the unit pixel may correspond to an area of 9 individual pixels or an area of 25 individual pixels.
  • each of the unit pixels may overlap.
  • individual pixels constituting each unit pixel may be overlapped.
  • the first unit pixel composed of 16 individual pixels and the second unit pixel composed of 16 individual pixels may include at least one overlapping individual pixel.
  • FIG. 6 is a flowchart 600 illustrating a process in the image signal processor 260 according to resolution according to an embodiment.
  • the image signal processor (ISP) 260 may receive a color value of a pixel.
  • the image signal processor 260 may receive a color value of a pixel output from the image sensor 230 .
  • the image signal processor 260 may receive the color value of the pixel through the designated interface.
  • the image signal processor 260 receives one color value corresponding to each individual pixel for each individual pixel in the first mode having the first resolution, and receives at least two color values representing the unit pixel in the second mode having the second resolution. More than one color value may be received.
  • the electronic device 300 may determine whether it is a first mode having a first resolution.
  • the processor 120 may determine a required resolution based on the data.
  • the resolution data may include at least one of a zoom magnification value, an illuminance value, and a user's resolution setting value.
  • the electronic device 300 may perform operation 630 in the first mode, and may perform operation 640 in the second mode if not in the first mode.
  • the image signal processor 260 may perform a demosaicing process.
  • the image sensor 230 may generate information about only one color corresponding to the color filter array 370 in a given individual pixel.
  • a color image can be represented by combining three separate monochrome images and the processor 120 needs all of the red, blue and green color values in each individual pixel to display the color image. can However, since each individual pixel generally outputs one color value, in order to obtain the remaining two missing colors, the image signal processor 260 may use a technique of estimating or interpolating the missing color from surrounding individual pixels. This class of estimation and interpolation techniques may be referred to as demosaic. This demosaicing process may be performed by the image signal processor 260 .
  • Each individual pixel in the demosaiced image data may include the color value of the individual pixel for the original pixel color and the color value of the interpolated pixel for the adjacent color of the individual pixel.
  • the demosaicing process performed in operation 630 may include many types of bilinear interpolation, median filtering, vector CFA, gradient-based and statistical modeling, etc. Demosaic techniques may be included. However, the demosaicing techniques described above are not intended to identify key features or essential features of the claimed subject matter, nor are they intended to be used to limit the scope of the claimed subject matter.
  • the processor 120 may omit the demosaicing process.
  • the processor 120 may include an image signal processor 260 .
  • the image signal processor 260 may omit the demosaicing process performed in operation 630 .
  • the image signal processor 260 may perform post-processing.
  • the image processing before the demosaicing process may be called preprocessing, and the image processing after the demosaicing process may be called postprocessing.
  • the pre-processing process may include 3A processing, lens shading correction, dead pixel correction, and knee correction. 3A may include at least one of auto white balance (AWB), auto exposure (AE), and auto focusing (AF).
  • AVB auto white balance
  • AE auto exposure
  • AF auto focusing
  • the noise processing process in the first mode and the second mode may be different.
  • the image signal processor 260 may perform post-processing, which is the next step of the demosaicing process.
  • the image signal processor 260 may perform the post-processing after the demosaicing process, and in the second mode, the image signal processor 260 may perform the post-processing while omitting the demosaicing process.
  • the post-processing process may include at least one of changing a sensor index value, changing a tuning parameter, and adjusting an aspect ratio.
  • the postprocessing process may include processing image data output from the image sensor 230 or image data output from a scaler.
  • the image signal processor 260 may adjust contrast, sharpness, saturation, dithering, etc. of the image through a post-processing process.
  • a procedure for adjusting contrast, sharpness, and saturation may be performed in a YUV color space, and a dithering procedure may be performed in a red, green, blue (RGB) color space.
  • the image signal processor 260 may transmit image data obtained after processing the post-processing process to the display buffer.
  • the display eg, the display device 160 of FIG. 1
  • FIG. 7 is a flowchart 700 illustrating an image processing process in the image sensor 230 and the image signal processor 260 according to an exemplary embodiment.
  • the image sensor 230 may acquire one color value corresponding to each pixel in the first mode. In the first mode having the first resolution, the image sensor 230 may output one color value corresponding to each individual pixel.
  • the image sensor 230 may further include a color filter array (CFA) 370 that may be overlaid or disposed over the pixel array of the image sensor 230 to capture color information.
  • the color filter array 370 may include an array of small color filters that overlap each individual pixel of the image sensor 230 and each filter the captured light by wavelength. Thus, when the color filter array 370 and photodetectors are used together, they can provide both wavelength and intensity information for light captured through the camera, which can represent the captured image.
  • color filter array 370 may include a Bayer color filter array that provides a filter pattern that is 50% green, 25% red, and 25% blue.
  • the color filter array 370 is, for example, a Bayer pattern that is a 2 ⁇ 2 pixel pattern including two green elements (green), one red element (red) and one blue element (blue) is repeatedly formed. It may mean a color filter array (eg, 910 of FIG. 9 ).
  • the image sensor 230 using the Bayer color filter array can obtain information about the intensity of light received by the lens assembly 210 based on green, red, and blue wavelengths, and each individual pixel has three colors ( One color information among RGB) can be obtained.
  • the RGB is only an example of one color value, and the color value is not limited.
  • the one color value may be at least one of red, green, blue, yellow, emerald, white, cyan, and magenta.
  • the color filter array 370 is a red, green, blue, emerald (RGBE) pattern, a cyan, yellow, magenta (CYYM) pattern, a cyan, yellow, green, magenta (CYGM) pattern, or an RGBW (RGBW) pattern. It may include a color filter array of red, green, blue, and white) patterns.
  • the image sensor 230 may provide the color value to the image signal processor 260 in the first mode.
  • the image sensor 230 may obtain one color value corresponding to each individual pixel in the first mode and provide the color value to the image signal processor 260 through a designated interface.
  • data eg, color value
  • image sensor 230 image sensor 230
  • image signal processor 260 image signal processor 260
  • the component is The data may be provided directly to the element, or the data may be provided to the other element through at least one other element.
  • the processor 120 may occupy a predetermined bandwidth.
  • the bandwidth occupation amount of the first mode may be different from the bandwidth occupation amount of the second mode.
  • the image signal processor 260 may obtain a color value.
  • the image signal processor 260 may receive and obtain a color value output from the image sensor 230 .
  • image signal processor 260 may receive a stream of Bayer pixels.
  • the image signal processor 260 may perform a demosaic process in the first mode. Operation 725 may correspond to operation 630 of FIG. 6 .
  • the image signal processor 260 may output an image as a preview.
  • the image signal processor 260 may perform post-processing (eg, operation 650 of FIG. 6 ) after performing the demosaicing process, and may output an image to which the post-processing is applied as a preview.
  • the electronic device 300 may post-process information obtained through the image sensor 230 to generate an image.
  • the electronic device 300 may display a preview image including the generated image on a display (eg, the display device 160 of FIG. 1 ).
  • the electronic device 300 outputs a sensor output from the image sensor 230 when a user operates a camera by executing a camera application, uses a face recognition function, or when a user makes a video call.
  • ISP image signal processor
  • a second mode change event may occur.
  • the second mode change event may be an event related to changing from the first mode to the second mode.
  • the second mode change event may be generated by data acquired by a processor (eg, the processor 120 of FIG. 1 ).
  • the data may refer to data about the resolution of an image.
  • the data on the resolution may be data on at least an illuminance value or a zoom magnification value.
  • the electronic device 300 may determine that the second resolution corresponding to the normal resolution or the low resolution is required.
  • the electronic device 300 may determine that the second resolution is necessary when the ambient illuminance state is changed from the first illuminance value to less than the first illuminance value.
  • the electronic device 300 may determine that the second resolution is required when the ambient illuminance state is changed from the first illuminance value to less than the first illuminance value.
  • the electronic device 300 may determine that the second resolution is required.
  • the image sensor 230 may receive the second mode change signal.
  • the processor eg, the processor 120 of FIG. 1
  • the processor may provide a second mode change signal to the image sensor 230 through the designated interface.
  • the image sensor 230 may receive the second mode change signal provided by the processor 120 through the designated interface.
  • the image sensor 230 may change to the second mode.
  • the image sensor 230 may change to a second output mode having a second resolution.
  • the image sensor 230 may change from a first output mode having a first resolution to a second output mode having a second resolution.
  • the image sensor 230 may obtain and provide at least two color values representing a unit pixel. Operation 755 is described in detail in operations 810 to 840 of FIG. 8 , and thus a description thereof will be omitted.
  • the image signal processor 260 may obtain a color value.
  • the image signal processor 260 may receive and obtain a color value output from the image sensor 230 through a designated interface.
  • the image signal processor 260 may output an image as a preview.
  • the image signal processor 260 may perform post-processing (eg, operation 650 of FIG. 6 ) after omitting the demosaicing process, and may output an image to which the post-processing is applied as a preview.
  • the electronic device 300 may generate an image by omitting the demosaicing process and post-processing the information obtained through the image sensor 230 .
  • the electronic device 300 may display a preview image including the generated image on a display (eg, the display device 160 of FIG. 1 ).
  • the electronic device 300 outputs a sensor output from the image sensor 230 when a user operates a camera by executing a camera application, uses a face recognition function, or when a user makes a video call.
  • a frame generated based on the sensor output may be output as a preview.
  • FIG. 8 is a flowchart 800 illustrating a process of outputting a color value from the image sensor 230 according to an exemplary embodiment. Specifically, FIG. 8 is a flowchart illustrating a process of outputting a color value when the image sensor 230 is in the second mode.
  • the image sensor 230 may acquire a color value of a pixel.
  • the image sensor 230 may obtain a color value of a pixel corresponding to a pattern of the color filter array 370 located on the upper surface of the pixel array.
  • the image sensor 230 may obtain a color value corresponding to each individual pixel of the color filter array 370 .
  • the image sensor 230 may detect a pixel signal of each individual pixel.
  • the pixel signal may include at least a color value.
  • the image sensor 230 may combine color values of each individual pixel.
  • the image sensor 230 may combine the obtained color values of the individual pixels.
  • the image sensor 230 may combine color values of individual pixels by using binning, skipping, and weighting techniques.
  • binning is analog binning that uses an analog circuit to output an average value of the color values of each individual pixel, and color values of a plurality of individual pixels converted into digital signals are converted into a predetermined formula
  • Binning may include averaging adjacent groups of the same color pixels in each frame of raw image data to create an effective second resolution sensor output mode.
  • the electronic device 300 performs averaging of color values of individual pixels forming a repeating pattern and 12 individual pixels surrounding the individual pixels to create a second output mode having a second resolution.
  • skipping may mean skipping signals of some of the plurality of individual pixels. When some of the pixel signals are selected and others are skipped, the frame rate can be increased.
  • weighting may mean giving weight to color values of individual pixels included in unit pixels.
  • the color values of individual pixels corresponding to the color filter array 370 may have different weights for each color.
  • the image sensor 230 may calculate a color value of each color corresponding to a unit pixel in consideration of a weight calculated for each color value.
  • the calculated color value may include at least two or more colors.
  • the image sensor 230 may output at least two or more color values (eg, green) in a unit pixel.
  • the image sensor 230 may output at least two color values representing a unit pixel.
  • the image sensor 230 may output at least two color values representing a unit pixel.
  • the unit pixel may include 4 individual pixels (eg, 4 green pixels) corresponding to one tetra cell pattern and 12 individual pixels surrounding the 4 individual pixels.
  • the unit pixel may include four Bayer patterns.
  • the four Bayer patterns may form a 4 ⁇ 4 pixel structure (eg, 920 of FIG. 9 ).
  • the image sensor 230 may include at least two of an average value of a red color value, an average value of a green color value, and an average value of a blue color value detected through individual pixels within the unit pixel. It is possible to output more than one average value as a color value for a unit pixel including 16 individual pixels.
  • the electronic device 300 minimizes a color error such as a false color error occurring at an edge such as an outline or boundary of an object or a rainbow-like color distortion in a pattern area such as a checkered image. can
  • FIG. 9 is a diagram 900 illustrating a process of combining color values in the image sensor 230 according to an exemplary embodiment.
  • the color values of four individual pixels corresponding to the color filter array 370 may form a repeating pattern (eg, a Bayer pattern) in a two-dimensional space.
  • the image sensor 230 may group 4 ⁇ 4 pixels.
  • the unit pixel 920 in which the 4 x 4 pixels are grouped may include 16 individual pixels.
  • each color (eg, red) value in the unit pixel may have a weight value.
  • the weight of one red color value corresponding to each individual pixel may be 2/8.
  • the weight of one green color value corresponding to each individual pixel may be 1/8.
  • the weight of one blue color value corresponding to each individual pixel may be 2/8.
  • the sum of the weights of each color value in the unit pixel may be 1.
  • the image sensor 230 may obtain an average value within a unit pixel in consideration of the weight of one color value corresponding to each individual pixel.
  • the image sensor 230 detects an average value 935 of a red color value, an average value 945 of a green color value, and a blue color value detected through individual pixels within the unit pixel.
  • An average value of at least two or more of the average values 955 may be output as a color value 960 for a unit pixel 920 including 16 individual pixels.
  • the centers of individual pixels of the same color may be within a distance of one pixel from the center of the unit pixel.
  • FIG. 10 is a diagram 1000 illustrating a process of combining color values in an image sensor according to an exemplary embodiment.
  • the color values of four individual pixels corresponding to the color filter array may form a repeating pattern (eg, a tetra cell pattern) 1010 in a two-dimensional space.
  • the image sensor 230 may group 4 ⁇ 4 pixels.
  • the unit pixel 1020 in which the 4 x 4 pixels are grouped may include 16 individual pixels.
  • the unit pixel 1020 may include 4 individual pixels (eg, 4 green colors) corresponding to one tetra cell pattern and 12 individual pixels surrounding the 4 individual pixels.
  • the unit pixel 1020 may include 16 individual pixels.
  • each color (eg, red) value in the unit pixel may have a weight value.
  • the weight of one red color value corresponding to each individual pixel may be 2/8.
  • the weight of one green color value corresponding to each individual pixel may be 1/8.
  • the weight of one blue color value corresponding to each individual pixel may be 2/8.
  • the sum of the weights of each color value in the unit pixel may be 1.
  • the image sensor 230 may obtain an average value within a unit pixel in consideration of the weight of one color value corresponding to each individual pixel.
  • the image sensor 230 includes an average value 1035 of a red color value, an average value 1045 of a green color value, and a blue color value detected through individual pixels within the unit pixel.
  • An average value of at least two or more of the average values 1055 may be output as a color value 1060 for a unit pixel 1020 including 16 individual pixels.
  • the centers of individual pixels of the same color may be within a distance of one pixel from the center of the unit pixel.
  • FIG. 11 is a diagram 1100 illustrating a process of combining color values in an image sensor according to an exemplary embodiment.
  • the color values of nine individual pixels corresponding to the color filter array may form a repeating pattern 1010 in a two-dimensional space.
  • the image sensor 230 may group 6 ⁇ 6 pixels.
  • the unit pixel 1120 in which the 6 x 6 pixels are grouped may include 36 individual pixels.
  • each color (eg, red) value in the unit pixel may have a weight value.
  • the weight of one red color value corresponding to each individual pixel may be 2/18.
  • the weight of one green color value corresponding to each individual pixel may be 1/18.
  • the weight of one blue color value corresponding to each individual pixel may be 2/18.
  • the sum of the weights of each color value in the unit pixel may be 1.
  • the image sensor 230 may obtain an average value within a unit pixel in consideration of the weight of one color value corresponding to each individual pixel.
  • the image sensor 230 includes an average value 1135 of red color values, an average value 1145 of green color values, and a blue color value detected through individual pixels within the unit pixel.
  • An average value of at least two or more of the average values 1155 of may be output as a color value 1160 for a unit pixel 1120 including 36 individual pixels.
  • the centers of individual pixels of the same color may be within a distance of one pixel from the center of the unit pixel.
  • the center may mean a center of weight assigned to individual pixels of the same color or a center of gravity with respect to weights of individual pixels of the same color.
  • the centroid can be calculated in the manner of a weighted arithmetic mean.
  • the electronic device 300 may include a color filter array including a plurality of pixels, an image sensor including the color filter array, and a processor connected to the image sensor through a specified interface.
  • the image sensor provides one color value corresponding to each of the plurality of pixels to the processor in a first output mode having a first resolution, and a second output mode having a second resolution lower than the first resolution , at least two or more color values representing a unit pixel including the first number of pixels may be provided to the processor through the designated interface.
  • the first output mode may output an image of a first resolution
  • the second output mode may output an image of a second resolution.
  • the processor performs a demosaic process using one color value corresponding to each of the plurality of pixels provided in the first output mode, and in the second output mode, The demosaicing process may be omitted.
  • the processor may include an image signal processor (ISP).
  • ISP image signal processor
  • the color filter array may be configured in a Bayer pattern.
  • the unit pixel may include 16 pixels corresponding to 4 Bayer patterns.
  • the color filter array may be configured in a tetracell pattern.
  • the unit pixel may include k2 pixels corresponding to a k x k pattern.
  • the unit pixel may include at least a first unit pixel and a second unit pixel, and at least some pixels of the first unit pixels may overlap at least some pixels of the second unit pixels.
  • the image sensor in the second output mode, outputs at least two or more color values corresponding to the unit pixel using at least a binning, skipping, or weighting technique. can be printed out.
  • the color value may include R (red), G (green), or B (blue).
  • demosaicing process when the demosaicing process is omitted, some of the previous processes of the demosaicing process may be changed.
  • the image sensor may include: a first color corresponding to the unit pixel of a first color based on the number and positions of pixels corresponding to a first color among the first number of pixels included in the unit pixel One color value is determined, and a second color value corresponding to the unit pixel of a second color based on the number and positions of pixels corresponding to a second color among the first number of pixels included in the unit pixel can be decided
  • a first output mode having a first resolution one color corresponding to each of a plurality of pixels through the image sensor including the color filter array
  • a second output mode that provides values to the processor through a designated interface and has a second resolution lower than the first resolution at least two or more color values representing unit pixels including the first number of pixels are provided through the designated interface may be provided to the processor through The processor may receive the color value through the designated interface.
  • the processor in the method of controlling the electronic device 300 , in the first output mode, performs a demosaic process using one color value corresponding to each of the plurality of pixels. and to omit the demosaicing process in the second output mode.
  • the providing to the processor may include providing the specified color value to an image signal processor (ISP).
  • ISP image signal processor
  • the color filter array of the control method of the electronic device 300 may be configured as a Bayer pattern.
  • the unit pixel of the control method of the electronic device 300 may include 16 pixels corresponding to four Bayer patterns.
  • the color filter array of the control method of the electronic device 300 may be configured in a tetracell pattern.
  • the unit pixel may include k2 pixels corresponding to a k x k pattern.
  • the image sensor performs a first color based on the number and positions of pixels corresponding to a first color among the first number of pixels included in the unit pixel. determine a first color value corresponding to the unit pixel of The second color value corresponding to the unit pixel may be determined.
  • the processor 120 when the processor 120 omits the demosaicing process, some of the previous processes of the demosaicing process may be changed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)

Abstract

전자 장치는 제1 해상도를 가지는 제1 출력 모드 및 제1 해상도 보다 낮은 해상도인 제2 해상도를 가지는 제2 출력 모드를 설정할 수 있다. 이미지 센서는 제1 해상도를 가지는 제1 모드인 경우 복수의 픽셀들 각각에 대응되는 하나의 컬러 값을 상기 프로세서에 제공하고 상기 제1 해상도보다 낮은 제2 해상도를 가지는 제2 모드에서, 제1 개수의 픽셀들을 포함하는 단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 상기 지정된 인터페이스를 통해 상기 프로세서로 제공할 수 있다. 프로세서는, 컬러 값을 제공받은 후, 제1 모드인 경우에는 디모자이크(demosaic) 과정을 수행하지만, 제2 모드인 경우에는 디모자이크 과정을 생략할 수 있다. 제2 출력 모드에서 디모자이크 과정을 생략하면 색상 오류나 컬러 왜곡을 최소화하여 색 재현성을 높일 수 있고 이미지의 왜곡의 최소화하여 선명한 화질을 제공할 수 있다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

이미지 센서를 포함하는 전자 장치 및 이에 대한 제어 방법
본 개시는 이미지 센서를 포함하는 전자 장치에 관한 것이다.
일반적으로, 이동식 단말기의 경우 CCD(charge coupled device)나 CMOS(complementary metal oxide semiconductor) 등의 이미지 센서(image sensor)를 이용한다. 이와 같은 센서는 빛의 밝기 값을 감지하므로 상기 센서를 통해 획득되는 영상은 컬러 영상이 아닌 흑백 영상이다. 따라서, 컬러 영상을 획득하기 위해서 상기 센서의 각 픽셀마다 R(red), G(green), B(blue) 컬러 성분을 통과시키는 컬러 필터 어레이(color filter array, 이하 "CFA"라 함)가 배치되고, 상기 센서의 각 픽셀들은 상기 CFA를 통과한 R, G, B 컬러 신호들의 채널 값을 감지한다. 단일 이미지 센서의 각 픽셀에는 여러 채널의 컬러 정보 중에서 컬러 필터에 대응하는 하나의 컬러 정보(예: R)만이 획득되므로, 프로세서는 주변 픽셀의 컬러 정보로부터 보간(interpolation)을 통해 픽셀의 모든 컬러 정보(예: R, G, B)를 산출한다. 이 과정은 디모자이크(demosaic) 과정으로 알려져 있다.
디모자이크 과정의 수행 시, 프로세서는 영상의 에지(edge) 정보를 효과적으로 고려하지 못하고 채널 간의 상관관계를 잘 고려하지 않기 때문에, 컬러 보간 시 물체의 윤곽이나 경계선 등의 가장자리(edge)에서 원래의 컬러와는 전혀 다른 색으로 보간되어 일부 픽셀들이 주위와 어울리지 않게 눈에 띄게 튀어 보이는 현상인 색상 오류(false color error)나 체크무늬 영상과 같은 패턴 영역에서 무지개와 같이 알록달록한 컬러 왜곡이 발생할 수 있다.
따라서 본 개시는 고해상도가 아닌 일반해상도의 이미지가 필요한 경우, 이미지 센서에서 픽셀의 컬러 값 조합을 통해 각 픽셀마다 2가지 이상의 컬러 값을 출력함으로써 프로세서에서 픽셀의 컬러 값들에 대한 디모자이크(demosaic) 과정을 수행하지 않고, 픽셀의 실제 데이터로 이미지 데이터를 생성함으로써, 개선된 화질의 이미지를 얻기 위한 이미지 데이터 프로세싱 방법을 제공할 수 있다.
본 개시에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 실시 예에 따르면, 전자 장치는, 복수의 픽셀들을 포함하는 컬러 필터 어레이, 상기 컬러 필터 어레이를 포함하는 이미지 센서 및 상기 이미지 센서와 지정된 인터페이스로 연결되는 프로세서를 포함할 수 있다. 상기 전자 장치의 상기 이미지 센서는 제1 해상도를 가지는 제1 출력 모드에서, 상기 복수의 픽셀들 각각에 대응되는 하나의 컬러 값을 상기 프로세서에 제공하고, 상기 제1 해상도보다 낮은 제2 해상도를 가지는 제2 출력모드에서, 제1 개수의 픽셀들을 포함하는 단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 상기 지정된 인터페이스를 통해 상기 프로세서로 제공할 수 있다. 상기 프로세서에서 제1 출력모드에서는 상기 제공된 상기 복수의 픽셀들 각각에 대응되는 하나의 컬러 값을 이용하여 디모자이크(demosaic) 과정을 수행하고, 상기 제2 출력모드에서는, 상기 디모자이크 과정을 생략하여 이미지를 처리하여 디스플레이 할 수 있다.
다양한 실시 예에 따르면, 상대적으로 저 해상도를 가지는 출력 모드에서 색상 오류나 컬러 왜곡을 최소화하여 색 재현성을 높일 수 있다.
또한 다양한 실시 예에 따르면 이미지의 왜곡을 최소화하여 선명한 화질을 제공할 수 있다.
또한 다양한 실시 예에 따르면, 상대적으로 저 해상도를 가지는 출력 모드에서 프로세서에 의해 수행되는 처리 과정을 일부 생략함으로써, 처리 속도 및 전력 소모를 개선시킬 수 있다.
도 1은, 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는, 다양한 실시 예들에 따른 카메라 모듈을 예시하는 블록도이다.
도 3은, 일 실시 예에 따른 전자 장치 및 카메라 모듈에 대한 구조를 도시한 도면이다.
도 4는, 일 실시 예에 따른 이미지 센서에서 컬러 값을 출력하는 과정을 나타낸 순서도이다.
도 5는, 일 실시 예에 따른 이미지 센서의 단위 픽셀에서 R, G, B를 모두 출력하는 모습을 나타낸 도면이다.
도 6은, 일 실시 예에 따른 해상도에 따른 이미지 시그널 프로세서에서의 과정을 나타낸 순서도이다.
도 7은, 일 실시 예에 따른 이미지 센서 및 이미지 시그널 프로세서에서의 이미지 처리 과정을 나타낸 순서도이다.
도 8은, 일 실시 예에 따른 이미지 센서에서 컬러 값을 출력하는 과정을 나타낸 순서도이다.
도 9는, 일 실시 예에 따른 이미지 센서에서 컬러 값을 조합하는 과정을 나타낸 도면이다.
도 10은, 일 실시 예에 따른 이미지 센서에서 컬러 값을 조합하는 과정을 나타낸 도면이다.
도 11은, 일 실시 예에 따른 이미지 센서에서 컬러 값을 조합하는 과정을 나타낸 도면이다.
도 1은, 다양한 실시 예들에 따른 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2는, 다양한 실시 예들에 따른, 카메라 모듈(180)을 예시하는 블럭도(200)이다. 도 2를 참조하면, 카메라 모듈(180)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(180)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)를 형성할 수 있다. 복수의 렌즈 어셈블리(210)들 중 일부는 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 렌즈 속성들과 다른 하나 이상의 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다.
플래쉬(220)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 일 실시 예에 따르면, 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다. 이미지 센서(230)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(210)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일 실시 예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 이용하여 구현될 수 있다.
이미지 스태빌라이저(240)는 카메라 모듈(180) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 이미지 센서(230)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일 실시 예에 따르면, 이미지 스태빌라이저(240)는, 일 실시 예에 따르면, 이미지 스태빌라이저(240)는 카메라 모듈(180)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(180) 또는 전자 장치(101)의 그런 움직임을 감지할 수 있다. 일 실시 예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있다. 메모리(250)는 이미지 센서(230)를 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: Bayer-patterned 이미지 또는 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(160)를 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 일 실시 예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.
이미지 시그널 프로세서(260)는 이미지 센서(230)를 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 하나 이상의 이미지 처리들을 수행할 수 있다. 상기 하나 이상의 이미지 처리들은, 예를 들면, 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening)을 포함할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(180)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장되거나 카메라 모듈(180)의 외부 구성 요소(예: 메모리(130), 표시 장치(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 제공될 수 있다. 일 실시 예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(260)가 프로세서(120)와 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 적어도 하나의 이미지는 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(160)를 통해 표시될 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(180)들을 포함할 수 있다. 이런 경우, 예를 들면, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다.
도 3은, 일 실시 예에 따른 전자 장치(300) 및 카메라 모듈(180)에 대한 구조를 도시한 도면이다.
도 3은 본 개시의 실시 예에 따른 카메라 모듈(180)을 장착한 전자 장치(300)(예: 도 1의 전자 장치(101))의 외관 및 카메라 모듈(180)을 개략적으로 나타낸 도면이다. 도 3의 실시 예는 모바일 기기, 특히, 스마트 폰을 전제로 도시 및 설명되었으나, 다양한 전자 기기 또는 모바일 기기들 중 카메라를 탑재한 전자 기기에 적용될 수 있음은 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 것이다.
도 3을 참조하면, 일 실시 예에 따른 전자 장치(300)는 본체(310), 후면 커버(320) 및 카메라 모듈(180)을 포함할 수 있다. 도 3의 실시 예에서는 카메라 모듈(180)이 후면 커버(320)가 배치되는 전자 장치(300)의 후면에 위치하지만, 다양한 실시 예에서, 카메라 모듈(180)은 본체(310)의 다양한 위치(예: 전면, 후면 또는 측면 등) 중 적어도 한 곳에 배치될 수 있다. 예를 들어, 카메라 모듈(180)은 도 3에서 전자 장치(300)의 상단 중앙에 위치하는 것으로 도시되었으나, 상기 카메라 모듈(180)은 전자 장치(300)의 상단 우측에 치우쳐 배치되거나, 상단 좌측에 치우쳐 배치될 수 있다. 또한 카메라 모듈(180)은 전자 장치(300)의 중단에 배치될 수도 있으며, 전자 장치(300)의 하단에 배치될 수도 있을 것이다.
일 실시 예에서 전자 장치(300)는 추가적으로 스피커(speaker), 리시버, 전면 카메라, 근접 센서, 홈 키 등을 포함할 수 있다. 일 실시 예에 따른 전자 장치(300)는 후면 커버(320)가 본체(310)와 일체화되어 제공될 수도 있다. 또 다른 실시 예에서는, 후면 커버(320)가, 전자 장치(300)의 본체(310)로부터 분리되어, 배터리를 교체할 수 있는 형태를 가질 수 있다. 후면 커버(320)는 배터리 커버 또는 배면 커버로 참조될 수도 있다.
위에서 설명한 카메라 모듈(180)의 위치는 일 실시 예에 불과한 것이며, 카메라 모듈(180)은 전자 장치(300)의 후면뿐만 아니라, 전면에 배치될 수 있다. 또한 전자 장치(300)는 카메라의 성능 향상을 위해 한 개의 카메라 모듈(180) 뿐만 아니라, 여러 개의 카메라 모듈들을 포함할 수 있다. 예를 들어, 전자 장치(300)는 영상 통화 또는 셀프 카메라 촬영을 위한 전면 카메라를 더 포함할 수 있다. 전면 카메라는 후면 카메라 모듈에 비하여 상대적으로 낮은 화소 수를 지원할 수 있다. 전면 카메라는 후면 카메라 모듈에 비하여 상대적으로 보다 소형일 수 있다.
일 실시 예에서, 카메라 모듈(180)은 이미지 센서(예: 도 2의 이미지 센서(230))가 안착된 인쇄회로기판(printed circuit board)과, 광축 상에 정렬된 적어도 하나의 렌즈를 실장하는 경통과, 광축을 중심으로 상기 경통의 둘레를 둘러싸는 적어도 하나의 코일(coil)을 실장하는 하우징(housing)(330)을 포함할 수 있다. 상기 인쇄회로기판은 그 상면에 이미지 센서(230)가 안착되며, 커넥터(connector)에 의해 인쇄회로기판(350)과 연결된 이미지 시그널 프로세서(Image signal processer)(260)와 연결될 수 있다. 상기 커넥터로는 연성 인쇄회로 기판(FPCB) 또는 케이블(cable) 등이 사용될 수 있다.
일 실시 예에서, 상기 이미지 센서(230)는 복수의 개별 픽셀들(pixels)이 집적되며, 각 개별 픽셀은 마이크로 렌즈(micro lens)(360), 컬러 필터 및 포토다이오드(380)를 포함할 수 있다. 각 개별 픽셀은 일종의 광 검출기로서 입력되는 광을 전기적 신호로 변환시킬 수 있다. 광 검출기는, 일반적으로, 캡쳐된 광의 파장을 스스로 검출할 수 없고 컬러 정보를 결정할 수 없다. 상기 광 검출기는 포토다이오드(photodiode)를 포함할 수 있다.
일 실시 예에서, 상기 이미지 센서(230)는 CMOS(complementary metal oxide semiconductor) 센서 또는 CCD(charged coupled device) 센서 등을 포함할 수 있다. 렌즈 어셈블리(210)를 통해 입사된 피사체의 광 정보는 상기 이미지 센서(230)에 의해 전기적 신호로 변환되어 상기 이미지 프로세서(260)로 입력될 수 있다. 상기 이미지 센서(230)의 상면에 적외선 차단 필터(Infared cut filter, 이하 IR cut 필터)(340)가 배치될 수 있으며, 렌즈를 통과한 피사체의 상은 상기 IR cut 필터(340)에 의해 일부 필터링된 후 상기 이미지 센서(230)에 의해 감지될 수 있다.
일 실시 예에서, 상기 이미지 센서(230)는 마이크로 렌즈(micro lens)(360), 컬러 필터 어레이(CFA, color filter array)(370) 및 포토다이오드(380)를 포함할 수 있다. 마이크로 렌즈(360)는 각 개별 픽셀에 빛을 집중시킬 수 있다. 컬러 필터 어레이(370)는, 이미지 센서(230)의 각 개별 픽셀을 오버랩하고 파장에 의해 캡쳐된 광을 각각 필터링할 수 있는 작은 컬러 필터들의 어레이를 포함할 수 있다. 상기 포토다이오드(380)는 빛이 들어오면 반응하여 전자를 발생시키고 아날로그 신호를 발생시키게 된다. 다양한 실시 예에서 상기 컬러 필터 어레이(370)는 베이어(bayer) 컬러 필터 어레이(CFA)를 이용할 수 있지만, 현재 개시된 기술들이 이와 관련하여 제한되도록 하려는 것은 아니다. 상기 컬러 필터 어레이(370)는 베이어 패턴, 테트라 패턴, 노나(nona) 패턴(3x3), 4x4 패턴, 다이아몬드 패턴 등으로 형성될 수 있다. 통상의 지식을 가진 자라면, 여기에 제공된 이미지 처리 기술들이, RGBW 필터들, CYGM 필터들 등을 비롯한 임의의 적절한 유형의 컬러 필터 어레이(370)에 적용 가능할 수 있다는 것을 인식할 것이다. 다양한 실시 예에 따른 컬러 필터 어레이(370)를 통해 이미지 센서(230)의 각 개별 픽셀들은 컬러 값을 가질 수 있다. 통상적으로 이미지 센서(230)는 복수의 개별 픽셀들과 출력 회로로 구성되고, 복수의 개별 픽셀들은 각각에 입사되는 빛의 세기에 해당하는 전기적 신호를 생성하고, 출력 회로를 통해 컬러 필터 어레이(370)에 대응되는 개별 픽셀의 컬러 값이 출력된다. 본 개시는 출력되는 개별 픽셀의 컬러 값에 대한 내용을 포함하고 있으며, 이하 도면에서 이를 설명한다.
도 4는, 일 실시 예에 따른 이미지 센서(230)에서 컬러 값을 출력하는 과정을 나타낸 순서도(400)이다.
일 실시 예에 따르면, 동작 410에서, 프로세서(예: 도 1의 프로세서(120))는 데이터를 획득할 수 있다. 상기 데이터는 이미지의 해상도에 대한 데이터를 의미할 수 있다. 해상도에 대한 데이터는 적어도 조도 값, 줌 배율 값, 및 사용자가 직접 설정하는 해상도 값 중 적어도 하나에 대한 데이터일 수 있다.
일 실시 예에서, 전자 장치(300)는 줌 배율 값이 제1 배율 값 이상인 경우 고해상도를 가지는 이미지 센서(230)의 출력 모드를 가질 수 있다. 전자 장치(300)는 줌 배율 값이 제1 배율 값 미만인 경우 일반 해상도를 가지는 이미지 센서(230)의 출력 모드를 가질 수 있다. 상기 줌 배율 값은 사용자의 입력에 따라 설정될 수 있다.
일 실시 예에서, 전자 장치(300)는 주변 조도 상태를 판단해서 해상도 변화를 줄 수 있다. 조도 값이 제1 조도 값 이상인 경우 전자 장치(300)는 고해상도를 가지는 이미지 센서(230)의 출력 모드를 가질 수 있다. 조도 값이 제1 조도 값 미만인 경우 전자 장치(300)는 일반 해상도를 가지는 이미지 센서(230)의 출력 모드를 가질 수 있다. 상기 고해상도는 제1 해상도를 의미할 수 있고, 상기 일반 해상도는 제2 해상도를 의미할 수 있다. 프로세서(120)는 상기 주변 조도 상태에 따라 촬영 해상도를 설정할 수 있다.
일 실시 예에서, 전자 장치(300)는 사용자가 직접 설정하는 해상도 값에 응답하여 적어도 하나의 출력 모드를 가질 수 있다. 예를 들어, 전자 장치(300)는 사용자가 정지 영상 혹은 동영상을 촬영하는 경우에 있어서, 원하는 해상도를 설정하는 사용자의 입력에 응답하여 제1 모드 혹은 제2 모드의 촬영 해상도를 가질 수 있다. 프로세서(120)는 상기 해상도에 대한 데이터를 획득하면 데이터를 기반으로 제1 해상도가 필요한지, 제2 해상도가 필요한지 판단할 수 있다. 본 개시에서 언급하는 일반 해상도는 조도 값이 제1 조도 값 미만이거나 줌 배율 값이 제1 배율 값 미만인 경우에 해당할 수 있는 해상도를 포함하고, 저해상도를 포함할 수 있다.
일 실시 예에 따르면, 동작 420에서, 프로세서(120)는 제1 해상도를 가지는 제1 모드인지 판단할 수 있다. 동작 410에서 프로세서(120)가 해상도에 대한 데이터를 획득하면 프로세서(120)는 상기 데이터를 기반으로 필요한 해상도를 판단할 수 있다. 제1 모드는 상기 제1 해상도를 가지는 이미지 센서(230)의 제1 출력 모드를 의미할 수 있다. 제1 모드가 아닌 경우, 이미지 센서(230)의 출력 모드는 제2 해상도를 가지는 제2 모드에 해당할 수 있다. 제2 모드는 상기 제2 해상도를 가지는 이미지 센서(230)의 제2 출력 모드를 의미할 수 있다. 제2 해상도는 제1 해상도보다 낮은 해상도를 의미할 수 있다.
일 실시 예에서, 전자 장치(300)는 제1 모드인 경우 동작 430을 수행하고, 제2 모드인 경우 동작 440을 수행할 수 있다.
일 실시 예에 따르면, 동작 430에서, 이미지 센서(230)의 출력 모드가 제1 해상도를 가지는 제1 모드인 경우, 이미지 센서(230)는 각 개별 픽셀에 대응되는 하나의 컬러 값을 출력할 수 있다. 이미지 센서(230)는 컬러 정보를 캡쳐하기 위해 이미지 센서(230)의 픽셀 어레이에 걸쳐 오버레이 또는 배치될 수 있는 컬러 필터 어레이(color filter array)(370)를 더 포함할 수 있다. 컬러 필터 어레이(370)는 이미지 센서(230)의 각 개별 픽셀을 오버랩하고 파장에 의해 캡쳐된 광을 각각 필터링할 수 있는 작은 컬러 필터들의 어레이를 포함할 수 있다. 컬러 필터 어레이(370)와 함께 배치된 광검출기들을 통해, 이미지 센서(230)는 카메라를 통해 캡쳐된 광에 대한 파장 및 강도 정보를 프로세서(120)에 제공할 수 있다. 상기 이미지 센서(230)는 상기 캡쳐된 광 정보를 통해 이미지를 나타낼 수 있다. 일 실시 예에서, 컬러 필터 어레이(370)는, 50%의 녹색 요소, 25%의 적색 요소, 및 25%의 청색 요소인 필터 패턴을 제공하는 베이어 컬러 필터 어레이를 포함할 수 있다. 컬러 필터 어레이(370)는, 예를 들어, 두 개의 녹색 요소(green), 한 개의 적색 요소(red) 및 한 개의 청색 요소(blue)를 포함하는 2×2 픽셀 패턴인 베이어 패턴이 반복적으로 형성된 컬러 필터 어레이(예: 도 9의 910)를 의미할 수 있다. 따라서, 베이어 컬러 필터 어레이를 이용하는 이미지 센서(230)는 녹색, 적색, 청색 파장을 기반으로 렌즈 어셈블리(210)에 의해 수신된 광의 강도에 관한 정보를 획득할 수 있고, 각 개별 픽셀은 세 가지 컬러(RGB) 중 한 가지 색 정보를 획득할 수 있다. 상기 RGB는 컬러 값에 대한 하나의 예시에 불과하며, 컬러 값은 제한되지 않는다. 상기 하나의 컬러 값은 적색(red), 녹색(green), 청색(blue), 황색(yellow), 선녹색(emerald), 흰색(white), 청록색(cyan), 마젠타(magenta) 중 적어도 하나일 수 있다. 다양한 실시 예에 따르면, 상기 컬러 필터 어레이(370)는 RGBE(red, green, blue, emerald) 패턴, CYYM(cyan, yellow, magenta) 패턴, CYGM(cyan, yellow, green, magenta) 패턴 혹은 RGBW(red, green, blue, white) 패턴의 컬러 필터 어레이를 포함할 수 있다.
일 실시 예에 따르면, 동작 440에서, 제2 해상도를 가지는 제2 모드인 경우, 이미지 센서(230)는 단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 출력할 수 있다. 단위 픽셀은 상기 단위 픽셀에 대한 지정된 컬러 값을 적어도 2개 이상 출력하기 위하여 개별 픽셀들을 그룹화한 개별 픽셀들의 그룹을 의미할 수 있다. 상기 지정된 컬러 값은 RGB(red, green, blue), CMY(cyan, magenta, yellow)를 포함할 수 있다.
일 실시 예에 따르면, 단위 픽셀의 크기는 이미지 센서(230)의 해상도와 출력 해상도의 차이에 기반하여 결정될 수 있다. 전자 장치(300)가 a x k²의 해상도를 가지는 이미지 센서를 통해 a 해상도의 이미지를 출력하는 경우, 단위 픽셀은 k²개의 픽셀들을 포함할 수 있다. 상기 단위 픽셀이 k²개의 픽셀들을 포함하는 형태는 사각형 또는 비-사각형일 수 있다. 상기 단위 픽셀이 사각형인 경우, 상기 단위 픽셀은 k x k 패턴에 해당하는 k²개의 픽셀들을 포함할 수 있다. 예를 들어, 전자 장치(300)가 196Mp의 해상도를 가지는 이미지 센서를 통해 12Mp 해상도의 이미지를 출력하는 경우, 하나의 단위 픽셀은 16개의 개별 픽셀을 포함할 수 있다. 다시 말해, 테트라 셀(tetra cell) 이미지 센서의 경우, 단위 픽셀은 4개의 테트라 셀을 포함할 수 있고, 단위 픽셀에 포함되는 개별 픽셀의 수는 16개일 수 있다. 베이어 이미지 센서의 경우, 단위 픽셀은 4개의 베이어 패턴을 포함할 수 있고, 단위 픽셀에 포함되는 개별 픽셀의 수는 16개일 수 있다. 단위 픽셀의 영역은 상기 기재에 의해 한정되는 것은 아니며, 개별 픽셀들의 패턴, 컬러 종류에 따라 다양하게 설정될 수 있다. 예를 들어, 단위 픽셀은 3x3, 4x4, 다이아몬드 모양 등으로 구성될 수 있다.
일 실시 예에 따르면, 상기 단위 픽셀은 하나의 테트라 셀 패턴에 해당하는 4개의 개별 픽셀들(예: 4개의 녹색(green) 픽셀들) 및 상기 4개의 개별 픽셀들을 둘러싸는 12개의 개별 픽셀들을 포함할 수 있다.
일 실시 예에 따르면, 상기 단위 픽셀은 4개의 베이어 패턴을 포함할 수 있다. 상기 4개의 베이어 패턴은 4 x 4 픽셀 구조(예: 도 9의 920)를 형성할 수 있다. 상기 이미지 센서(230)는 상기 단위 픽셀 내에 있는 개별 픽셀들을 통해서 감지된 적색(red) 컬러 값의 평균 값, 녹색(green) 컬러 값의 평균 값, 청색(blue) 컬러 값의 평균 값 중 적어도 2개 이상의 평균 값을 16개의 개별 픽셀을 포함하는 단위 픽셀에 대한 컬러 값으로 출력할 수 있다. 상기 단위 픽셀에 대한 컬러 값은 상술한 각 컬러 값의 평균 값에 더하여 각 컬러 값의 가중 합(weighted sum)이 있을 수 있다. 상기 가중 합(weighted sum)은 합계, 적분 또는 평균을 수행할 때 사용되는 가중 함수(weighted function)를 통해 도출될 수 있고, 이것은 이하 설명에서도 동일하게 적용될 수 있다. 동작 440에 대한 추가적인 설명은 이하 도 5에서 설명한다.
일 실시 예에 따르면, 동작 450에서, 이미지 센서(230)는 지정된 인터페이스를 통해 픽셀의 컬러 값을 제공할 수 있다. 상기 지정된 인터페이스는, MIPI(mobile industry processor interface)가 모바일 및 사물인터넷 기기에서 재사용 및 호환성을 강화하기 위해 정한 인터페이스일 수 있다. 상기 지정된 인터페이스는 이미지 센서(230)와 이미지 시그널 프로세서(260)를 연결하는 데이터 링크를 포함할 수 있다. 이미지 센서(230)에서 출력된 픽셀의 컬러 값들은 상기 인터페이스를 통하여 이미지 처리를 위해 이미지 시그널 프로세서(260)로 보내질 수 있다. 상기 인터페이스를 통하여 데이터를 보내는 경우, 프로세서(120)는 소정의 대역폭(bandwidth)을 점유할 수 있다. 제1 해상도를 가지는 제1 모드에서, 이미지 센서(230)는 미가공된 이미지 데이터(raw image date)를 상기 인터페이스를 통하여 이미지 시그널 프로세서(260)로 보낼 수 있다. 제2 해상도를 가지는 제2 모드에서는, 이하 도면에서 설명된 것과 같이, 이미지 센서(230)는 픽셀의 컬러 값들을 조합하여 만든 컬러 값을 상기 인터페이스를 통하여 이미지 시그널 프로세서(260)로 보낼 수 있다.
일 실시 예에 따르면, 동작 460에서, 이미지 시그널 프로세서(260)는 픽셀의 컬러 값을 수신할 수 있다. 이미지 시그널 프로세서(260)는 이미지 센서(230)에서 출력된 픽셀의 컬러 값을 수신할 수 있다. 이미지 시그널 프로세서(260)는 상기 지정된 인터페이스를 통하여 픽셀의 컬러 값을 수신할 수 있다. 이미지 시그널 프로세서(260)는 제1 해상도를 가지는 제1 모드에서는 개별 픽셀마다 각 개별 픽셀에 대응되는 하나의 컬러 값을 수신하고, 제2 해상도를 가지는 제2 모드에서는 단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 수신할 수 있다.
도 5는, 일 실시 예에 따른 이미지 센서(230)의 단위 픽셀에서 R, G, B 중 적어도 2개의 색을 출력하는 모습을 나타낸 도면(500)이다.
상기 이미지 센서(예: 도 2의 이미지 센서(230))가 제2 해상도를 가지는 제2 출력 모드인 경우, 이미지 센서(230)는 단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 출력할 수 있다. 이미지 센서(230)는 개별 픽셀들에 대응되는 하나의 컬러 값을 획득하는 것에 더하여, 단위 픽셀 영역을 설정하고 단위 픽셀 내의 상기 획득된 개별 픽셀들의 컬러 값들을 이용하여 2개 이상의 컬러 값을 출력할 수 있다. 상기 단위 픽셀은 하나의 테트라 셀 패턴에 해당하는 4개의 개별 픽셀들(예: 4개의 녹색(green) 픽셀들) 및 상기 4개의 개별 픽셀들을 둘러싸는 12개의 개별 픽셀을 포함할 수 있다. 상기 단위 픽셀은 4개의 베이어 패턴을 포함할 수 있다. 상기 4개의 베이어 패턴은 4 x 4 픽셀 구조(예: 도 9의 920)를 형성할 수 있다. 상기 이미지 센서(230)는 상기 단위 픽셀 내에 있는 개별 픽셀들을 통해서 감지된 적색(red) 컬러 값의 평균 값, 녹색(green) 컬러 값의 평균 값, 청색(blue) 컬러 값의 평균 값 중 적어도 2개 이상의 평균 값을 16개의 개별 픽셀을 포함하는 단위 픽셀(520)에 대한 컬러 값으로 출력할 수 있다. 상기 2개 이상의 컬러 값을 출력하는 단위 픽셀은 특정 단위 픽셀에 한정되는 것이 아니며, 결과적으로 이미지 센서(230)에 내재되어 있는 모든 단위 픽셀에 해당할 수 있다. 따라서 이미지 센서(230)는 하나의 개별 픽셀에 대응되는 하나의 컬러 값이 아닌, 단위 픽셀에 대한 2개 이상의 컬러 값을 출력할 수 있다. 또한 상기 테트라 셀 패턴은 하나의 예시에 불과하며, 이에 패턴 형식은 제한되지 않는다. 다양한 실시 예에 따르면, 상기 패턴 형식은 베이어(bayer) 패턴, RGBE(red, green, blue, emerald) 패턴, CYYM(cyan, yellow, magenta) 패턴, CYGM(cyan, yellow, green, magenta) 패턴 혹은 RGBW(red, green, blue, white) 패턴 등이 있을 수 있다. 도 5에서 상기 단위 픽셀은 16개의 개별 픽셀들의 영역으로 언급하지만, 실제 이 영역에 해당되는 값을 만들어 낼 때는 이 영역보다 더 좁은 혹은 더 넓은 영역에 해당되는 픽셀의 컬러 값을 사용할 수 있다. 예를 들어, 상기 단위 픽셀은 9개의 개별 픽셀들의 영역이나 25개의 개별 픽셀들의 영역에 해당할 수 있다.
일 실시 예에서, 여러 개의 단위 픽셀들이 있는 경우, 각 단위 픽셀들은 중첩될 수 있다. 예를 들어, 각 단위 픽셀들을 구성하는 개별 픽셀들은 중첩될 수 있다. 구체적으로, 16개의 개별 픽셀들로 구성된 제1 단위 픽셀과 16개의 개별 픽셀들로 구성된 제2 단위 픽셀은 적어도 하나 이상의 개별 픽셀을 중복하여 포함할 수 있다.
단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 조합 내지 출력하는 과정은 이하 도 8 내지 도 11에서 설명한다.
도 6은, 일 실시 예에 따른 해상도에 따른 이미지 시그널 프로세서(260)에서의 과정을 나타낸 순서도(600)이다.
일 실시 예에 따르면, 동작 610에서, 이미지 시그널 프로세서(ISP)(260)는 픽셀의 컬러 값을 수신할 수 있다. 이미지 시그널 프로세서(260)는 이미지 센서(230)에서 출력된 픽셀의 컬러 값을 수신할 수 있다. 이미지 시그널 프로세서(260)는 상기 지정된 인터페이스를 통하여 픽셀의 컬러 값을 수신할 수 있다. 이미지 시그널 프로세서(260)는 제1 해상도를 가지는 제1 모드에서는 개별 픽셀마다 각 개별 픽셀에 대응되는 하나의 컬러 값을 수신하고, 제2 해상도를 가지는 제2 모드에서는 단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 수신할 수 있다.
일 실시 예에 따르면, 동작 620에서, 전자 장치(300)는 제1 해상도를 가지는 제1 모드인지 판단할 수 있다. 동작 410에서 프로세서(120)가 해상도에 대한 데이터를 획득하면 프로세서(120)는 상기 데이터를 기반으로 필요한 해상도를 판단할 수 있다. 상기 해상도에 대한 데이터는 줌 배율 값, 조도 값, 사용자의 해상도 설정 값 중 적어도 하나 이상을 포함할 수 있다.
일 실시 예에서, 전자 장치(300)는 제1 모드인 경우 동작 630을 수행하고, 제1 모드가 아닌 경우 제2 모드에 해당되어 동작 640을 수행할 수 있다.
일 실시 예에 따르면, 동작 630에서, 이미지 시그널 프로세서(260)는 디모자이크 과정을 수행할 수 있다. 이미지 센서(230)는 주어진 개별 픽셀에서 컬러 필터 어레이(370)에 대응되는 하나의 컬러에 관한 정보만을 발생시킬 수 있다. 컬러 이미지는 3개의 개별적인 단색 이미지를 결합함으로써 표현될 수 있고 프로세서(120)는 컬러 이미지를 디스플레이하기 위해, 각각의 개별 픽셀에서 적색(red), 청색(blue) 및 녹색(green) 컬러 값 모두 필요할 수 있다. 하지만, 일반적으로 개별 픽셀은 하나의 컬러 값을 출력하므로, 나머지 2개의 누락된 컬러를 구하기 위해, 이미지 시그널 프로세서(260)는 주변 개별 픽셀로부터 누락된 컬러를 추정 또는 보간하는 기법을 사용할 수 있다. 이러한 부류의 추정 및 보간 기법은 디모자이크(demosaic)로 언급될 수 있다. 이러한 디모자이크 과정은 이미지 시그널 프로세서(260)에 의해 수행될 수 있다. 디모자이크된 이미지 데이터 내의 각각의 개별 픽셀은 원래의 픽셀 컬러에 대한 개별 픽셀의 컬러 값 및 개별 픽셀의 인접 컬러에 대한 보간된 픽셀의 컬러 값을 포함할 수 있다. 동작 630에서 수행되는 디모자이크 과정은 이중 선형 보간(bilinear interpolation), 메디안 필터링(median filtering), 벡터 CFA(vector CFA), 구배-기반(gradient-based) 및 통계 모델링(statistical modeling) 등 많은 유형의 디모자이크 기법들을 포함할 수 있다. 다만, 상술한 디모자이크 기법들은 청구된 발명 대상의 주요 특징들 또는 필수적인 특징들을 확인하기 위한 것이 아니며 청구된 발명 대상의 범위를 제한하는 데 사용되기 위한 것도 아니다.
일 실시 예에 따르면, 동작 640에서, 프로세서(120)는 디모자이크 과정을 생략할 수 있다. 상기 프로세서(120)는 이미지 시그널 프로세서(260)를 포함할 수 있다. 제2 해상도를 가지는 제2 모드에서 이미지 시그널 프로세서(260)는 동작 630에서 수행했던 디모자이크 과정을 생략할 수 있다.
일 실시 예에 따르면, 동작 650에서, 이미지 시그널 프로세서(260)는 후처리를 수행할 수 있다. 상기 디모자이크 과정 이전의 이미지 처리를 전처리(preprocessing)라 칭하고 상기 디모자이크 과정 이후의 이미지 처리를 후처리(postprocessing)라 칭할 수 있다. 상기 전처리 과정은 3A 처리, 렌즈 셰이딩 보상(lens shading correction), 데드픽셀 보정(dead pixel correction), knee 보정을 포함할 수 있다. 상기 3A는 AWB(auto white balance), AE(auto exposure), AF(Auto focusing) 중 적어도 하나를 포함할 수 있다. 상기 전처리 과정에서, 제1 모드와 제2 모드에서의 노이즈 처리 과정 등이 다를 수 있다. 이미지 시그널 프로세서(260)는 디모자이크 과정의 다음 단계인 후처리를 수행할 수 있다. 이미지 시그널 프로세서(260)는, 제1 모드인 경우 디모자이크 과정 후에 후처리 과정을 수행할 수 있고, 제2 모드인 경우 디모자이크 과정을 생략하고 상기 후처리 과정을 수행할 수 있다. 상기 후처리 과정은 적어도 센서 색인 값(index) 변경, 튜닝 파라미터 변경, 화면 비율 조절 중 하나를 포함할 수 있다. 후처리(postprocessing) 과정은 상기 이미지 센서(230)로부터 출력되는 이미지 데이터 또는 스케일러로부터 출력되는 이미지 데이터를 처리하는 과정을 포함할 수 있다. 이미지 시그널 프로세서(260)는 후처리 과정을 통해 이미지의 명암대비(contrast), 선명도(sharpness), 채도(saturation), 디더링(dithering) 등을 조정할 수 있다. 여기서, 명암대비, 선명도, 채도 조정 절차는 YUV 색 공간에서 실행되고, 디더링 절차(dithering procedure)는 RGB(Red, Green, Blue) 색 공간(color space)에서 실행될 수 있다. 이미지 시그널 프로세서(260)는 후처리 과정을 처리한 후에 얻어진 이미지 데이터를 디스플레이 버퍼로 전송할 수 있다. 디스플레이(예: 도 1의 표시 장치(160))는 프로세서(120)의 제어에 따라 상기 디스플레이 버퍼에 저장된 이미지 데이터를 디스플레이 화면에 표시할 수 있다.
도 7은, 일 실시 예에 따른 이미지 센서(230) 및 이미지 시그널 프로세서(260)에서의 이미지 처리 과정을 나타낸 순서도(700)이다.
일 실시 예에 따르면, 동작 710에서, 이미지 센서(230)는 제1 모드에서 각 픽셀에 대응되는 하나의 컬러 값을 획득할 수 있다. 제1 해상도를 가지는 제1 모드인 경우, 이미지 센서(230)는 각 개별 픽셀에 대응되는 하나의 컬러 값을 출력할 수 있다. 이미지 센서(230)는, 컬러 정보를 캡쳐하기 위해 이미지 센서(230)의 픽셀 어레이에 걸쳐 오버레이 또는 배치될 수 있는 컬러 필터 어레이(CFA)(370)를 더 포함할 수 있다. 컬러 필터 어레이(370)는, 이미지 센서(230)의 각 개별 픽셀을 오버랩하고 파장에 의해 캡쳐된 광을 각각 필터링할 수 있는 작은 컬러 필터들의 어레이를 포함할 수 있다. 따라서, 컬러 필터 어레이(370)와 광검출기들이 함께 사용될 때, 이들은 카메라를 통해 캡쳐된 광에 대한 파장 및 강도 정보 둘 다를 제공할 수 있는데, 이들은 캡쳐된 이미지를 나타낼 수 있다. 일 실시 예에서, 컬러 필터 어레이(370)는, 50%의 녹색 요소, 25%의 적색 요소, 및 25%의 청색 요소인 필터 패턴을 제공하는 베이어 컬러 필터 어레이를 포함할 수 있다. 컬러 필터 어레이(370)는, 예를 들어, 두 개의 녹색 요소(green), 한 개의 적색 요소(red) 및 한 개의 청색 요소(blue)를 포함하는 2×2 픽셀 패턴인 베이어 패턴이 반복적으로 형성된 컬러 필터 어레이(예: 도 9의 910)를 의미할 수 있다. 베이어 컬러 필터 어레이를 이용하는 이미지 센서(230)는 녹색, 적색, 청색 파장을 기반으로 렌즈 어셈블리(210)에 의해 수신된 광의 강도에 관한 정보를 획득할 수 있고, 각각의 개별 픽셀은 세 가지 컬러(RGB) 중 한 가지 색 정보를 획득할 수 있다. 상기 RGB는 하나의 컬러 값에 대한 예시에 불과하며, 컬러 값은 제한되지 않는다. 상기 하나의 컬러 값은 적색(red), 녹색(green), 청색(blue), 황색(yellow), 선녹색(emerald), 흰색(white), 청록색(cyan), 마젠타(magenta) 중 적어도 하나일 수 있다. 다양한 실시 예에 따르면, 상기 컬러 필터 어레이(370)는 RGBE(red, green, blue, emerald) 패턴, CYYM(cyan, yellow, magenta) 패턴, CYGM(cyan, yellow, green, magenta) 패턴 혹은 RGBW(red, green, blue, white) 패턴의 컬러 필터 어레이를 포함할 수 있다.
일 실시 예에 따르면, 동작 715에서, 이미지 센서(230)는 제1 모드에서 상기 컬러 값을 이미지 시그널 프로세서(260)로 제공할 수 있다. 이미지 센서(230)는 제1 모드에서 각 개별 픽셀에 대응되는 하나의 컬러 값을 획득하여 지정된 인터페이스를 통하여 이미지 시그널 프로세서(260)로 상기 컬러 값을 제공할 수 있다. 어느 하나의 구성요소(예: 이미지 센서(230))에서 다른 구성요소(이미지 시그널 프로세서(260))로 데이터(예: 컬러 값)를 '제공'하는 경우에는, 상기 구성요소는, 상기 다른 구성요소로 직접 상기 데이터를 제공할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 제공할 수도 있다. 이 과정에서 프로세서(120)는 소정의 대역폭(bandwidth)을 점유할 수 있다. 제1 모드의 대역폭 점유량은 제2 모드의 대역폭 점유량과 다를 수 있다.
일 실시 예에 따르면, 동작 720에서, 이미지 시그널 프로세서(260)는 컬러 값을 획득할 수 있다. 이미지 시그널 프로세서(260)는 이미지 센서(230)에서 출력된 컬러 값을 제공받아 획득할 수 있다. 예를 들어, 이미지 시그널 프로세서(260)는 베이어 픽셀들의 스트림을 수신할 수 있다.
일 실시 예에 따르면, 동작 725에서, 이미지 시그널 프로세서(260)는 제1 모드에서 디모자이크(demosaic) 과정을 수행할 수 있다. 동작 725는 도 6의 동작 630과 대응될 수 있다.
일 실시 예에 따르면, 동작 730에서, 이미지 시그널 프로세서(260)는 이미지를 프리뷰로서 출력할 수 있다. 이미지 시그널 프로세서(260)는 디모자이크 과정을 수행 후에 후처리(예: 도 6의 동작 650)를 수행할 수 있고, 후처리가 적용된 이미지를 프리뷰로서 출력할 수 있다. 전자 장치(300)는 이미지 센서(230)를 통해서 획득된 정보를 후처리하여 이미지를 생성할 수 있다. 전자 장치(300)는 상기 생성된 이미지를 포함하는 미리보기 영상을 디스플레이(예: 도 1의 표시 장치(160))에 표시할 수 있다. 예를 들어, 전자 장치(300)는 사용자가 카메라 어플리케이션을 실행하여 카메라를 작동시킨 경우, 안면 인식 기능을 사용하는 경우 혹은 사용자가 영상 통화를 하는 경우에 있어서, 이미지 센서(230)에서 나오는 센서 출력이 이미지 시그널 프로세서(ISP)(260)에 수신되면 센서 출력에 기초하여 생성된 프레임을 프리뷰로서 출력할 수 있다.
일 실시 예에 따르면, 동작 735에서, 제2 모드 변경 이벤트가 발생할 수 있다.
일 실시 예에서, 상기 제2 모드 변경 이벤트는 제1 모드에서 제2 모드로 변경하는 것에 관한 이벤트일 수 있다. 상기 제2 모드 변경 이벤트는 프로세서(예: 도 1의 프로세서(120))가 획득하는 데이터에 의해 발생할 수 있다. 상기 데이터는 이미지의 해상도에 대한 데이터를 의미할 수 있다. 해상도에 대한 데이터는 적어도 조도 값 또는 줌 배율 값에 대한 데이터일 수 있다. 예를 들어, 전자 장치(300)는 줌 배율 값이 제1 배율 값 이상에서 제1 배율 값 미만으로 변경된 경우 일반 해상도 혹은 저 해상도에 해당하는 제2 해상도가 필요하다고 판단할 수 있다. 전자 장치는(300) 주변 조도 상태가 제1 조도 값에서 제1 조도 값 미만으로 변경된 경우 상기 제2 해상도가 필요하다고 판단할 수 있다. 조도 값, 줌 배율 값 중 적어도 하나의 변경으로 제2 모드 변경 이벤트가 발생한 경우 전자 장치(300)는 제2 해상도가 필요하다고 판단할 수 있다.
일 실시 예에 따르면, 동작 745에서, 이미지 센서(230)는 제2 모드 변경 신호를 수신할 수 있다. 프로세서(예: 도 1의 프로세서(120))는 제2 모드 변경 이벤트가 발생한 경우, 제2 모드 변경 신호를 상기 지정된 인터페이스를 통해 이미지 센서(230)에 제공할 수 있다. 이미지 센서(230)는 상기 프로세서(120)에서 제공한 제2 모드 변경 신호를 상기 지정된 인터페이스를 통해 수신할 수 있다.
일 실시 예에 따르면, 동작 750에서, 이미지 센서(230)는 제2 모드로 변경할 수 있다. 이미지 센서(230)는 제2 해상도를 가지는 제2 출력 모드로 변경할 수 있다. 상기 이미지 센서(230)는 제1 해상도를 가지는 제1 출력 모드에서 제2 해상도를 가지는 제2 출력 모드로 변경할 수 있다.
일 실시 예에 따르면, 동작 755에서, 제2 모드에서, 이미지 센서(230)는 단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 획득 및 제공할 수 있다. 동작 755은 도 8의 동작 810 내지 동작 840에서 상세히 설명되어 여기서는 설명을 생략한다.
일 실시 예에 따르면, 동작 760에서, 이미지 시그널 프로세서(260)는 컬러 값을 획득할 수 있다. 이미지 시그널 프로세서(260)는 지정된 인터페이스를 통해 이미지 센서(230)에서 출력된 컬러 값을 제공받아 획득할 수 있다.
일 실시 예에 따르면, 동작 765에서, 이미지 시그널 프로세서(260)는 이미지를 프리뷰로서 출력할 수 있다. 이미지 시그널 프로세서(260)는 제2 해상도를 가지는 제2 모드에서는 디모자이크 과정을 생략 후에 후처리(예: 도 6의 동작 650)를 수행할 수 있고, 후처리가 적용된 이미지를 프리뷰로서 출력할 수 있다. 전자 장치(300)는 이미지 센서(230)를 통해서 획득된 정보를 디모자이크 과정을 생략 및 후처리하여 이미지를 생성할 수 있다. 전자 장치(300)는 상기 생성된 이미지를 포함하는 미리보기 영상을 디스플레이(예: 도 1의 표시 장치(160))에 표시할 수 있다. 예를 들어, 전자 장치(300)는 사용자가 카메라 어플리케이션을 실행하여 카메라를 작동시킨 경우, 안면 인식 기능을 사용하는 경우 혹은 사용자가 영상 통화를 하는 경우에 있어서, 이미지 센서(230)에서 나오는 센서 출력이 이미지 시그널 프로세서(ISP)(260)에 수신되면 센서 출력에 기초하여 생성된 프레임을 프리뷰로서 출력할 수 있다.
도 8은, 일 실시 예에 따른 이미지 센서(230)에서 컬러 값을 출력하는 과정을 나타낸 순서도(800)이다. 구체적으로, 도 8은 이미지 센서(230)가 제2 모드인 경우 컬러 값을 출력하는 과정을 나타낸 순서도이다.
일 실시 예에 따르면, 동작 810에서, 이미지 센서(230)는 픽셀의 컬러 값을 획득할 수 있다. 상기 이미지 센서(230)는 픽셀 어레이 상면에 위치한 컬러 필터 어레이(370)의 패턴에 대응하여 픽셀의 컬러 값을 획득할 수 있다. 이미지 센서(230)는 컬러 필터 어레이(370)의 각 개별 픽셀에 대응되는 컬러 값을 획득할 수 있다. 이미지 센서(230)는 각 개별 픽셀의 픽셀 신호를 감지할 수 있다. 상기 픽셀 신호는 적어도 컬러 값을 포함할 수 있다.
일 실시 예에 따르면, 동작 820에서, 이미지 센서(230)는 각 개별 픽셀의 컬러 값들을 조합할 수 있다. 이미지 센서(230)는 상기 획득된 개별 픽셀의 컬러 값들을 조합할 수 있다. 이미지 센서(230)는 비닝(binning), 스킵핑(skipping) 및 웨이팅(weighting) 기법을 사용하여 개별 픽셀의 컬러 값들을 조합할 수 있다. 예를 들면, 비닝(binning)은 아날로그 회로를 사용하여 각 개별 픽셀의 컬러 값의 평균적인 값을 출력하는 아날로그 비닝(analog binning)과 디지털 신호로 변환된 복수의 개별 픽셀의 컬러 값들을 소정의 공식을 사용하여 하나의 컬러 값으로 변환하는 디지털 비닝(digital binning)이 있을 수 있다. 비닝은 효과적인 제2 해상도 센서 출력 모드를 만들기 위해, 미가공된 이미지 데이터의 각 프레임에서 동일한 컬러 픽셀들의 인접 그룹들을 평균화하는 것을 포함할 수 있다. 예를 들어, 전자 장치(300)는 제2 해상도를 가지는 제2 출력 모드를 만들기 위해, 반복적인 패턴을 형성하는 개별 픽셀들 및 상기 개별 픽셀들을 둘러싸는 12개의 개별 픽셀들의 컬러 값들을 평균화하는 것을 포함할 수 있다. 다른 예를 들면, 스킵핑(skipping)은 상기 복수의 개별 픽셀들 중 일부의 신호를 스킵(skip)하는 것을 의미할 수 있다. 픽셀 신호 중 일부가 선택되고 나머지는 스킵되는 경우, 프레임율은 증가될 수 있다. 다른 예를 들면, 웨이팅(weighting)은 단위 픽셀에 포함되어 있는 개별 픽셀의 컬러 값에 가중치를 주는 것을 의미할 수 있다. 컬러 필터 어레이(370)에 대응되는 개별 픽셀의 컬러 값은 컬러 마다 가중치가 다를 수 있다. 이미지 센서(230)는 각 컬러 값마다 산출되는 가중치를 고려하여 단위 픽셀에 대응되는 각 컬러의 컬러 값을 산출할 수 있다. 상기 산출된 컬러 값은 적어도 2개 이상의 컬러를 포함할 수 있다. 이미지 센서(230)는 단위 픽셀에서 적어도 2개 이상의 컬러 값(예: 녹색(green))을 출력할 수 있다.
일 실시 예에 따르면, 동작 830에서, 이미지 센서(230)는 단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 출력할 수 있다.
이미지 센서(230)는 단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 출력할 수 있다. 상기 단위 픽셀은 하나의 테트라 셀 패턴에 해당하는 4개의 개별 픽셀들(예: 4개의 녹색(green) 픽셀들) 및 상기 4개의 개별 픽셀들을 둘러싸는 12개의 개별 픽셀들을 포함할 수 있다. 상기 단위 픽셀은 4개의 베이어 패턴을 포함할 수 있다. 상기 4개의 베이어 패턴은 4 x 4 픽셀 구조(예: 도 9의 920)를 형성할 수 있다. 상기 이미지 센서(230)는 상기 단위 픽셀 내에 있는 개별 픽셀들을 통해서 감지된 적색(red) 컬러 값의 평균 값, 녹색(green) 컬러 값의 평균 값, 청색(blue) 컬러 값의 평균 값 중 적어도 2개 이상의 평균 값을 16개의 개별 픽셀을 포함하는 단위 픽셀에 대한 컬러 값으로 출력할 수 있다. 전자 장치(300)는 동작 830을 통해 물체의 윤곽이나 경계선 등의 가장자리(edge)에서 발생하는 색상 오류(false color error) 혹은 체크무늬 영상과 같은 패턴 영역에서 무지개와 같이 알록달록한 컬러 왜곡을 최소화할 수 있다.
이하 도 9 내지 도 11에서 상기 개별 픽셀들을 그룹화하여 컬러 값을 출력하는 다양한 예시를 설명한다.
도 9는, 일 실시 예에 따른 이미지 센서(230)에서 컬러 값 조합하는 과정을 나타낸 도면(900)이다.
컬러 필터 어레이(370)에 대응되는 4개의 개별 픽셀들의 컬러 값은 2차원 공간에서 반복적인 패턴(예: 베이어 패턴(bayer pattern))을 형성할 수 있다. 도 9에서 도시한 바와 같이, 이미지 센서(230)는 4 x 4 픽셀들을 그룹화 할 수 있다. 상기 4 x 4 픽셀들이 그룹화된 단위 픽셀(920)은 16개의 개별 픽셀을 포함할 수 있다.
일 실시 예에 따르면, 단위 픽셀에 있는 각 컬러(예: 적색(red)) 값은 가중치 값을 가질 수 있다. 동작 930을 참조하면, 각 개별 픽셀에 대응되는 하나의 적색(red) 컬러 값의 가중치는 2/8일 수 있다. 동작 940을 참조하면, 각 개별 픽셀에 대응되는 하나의 녹색(green) 컬러 값의 가중치는 1/8일 수 있다. 동작 950을 참조하면, 각 개별 픽셀에 대응되는 하나의 청색(blue) 컬러 값의 가중치는 2/8일 수 있다. 단위 픽셀에서 각 컬러 값의 가중치의 합은 1이 될 수 있다. 이미지 센서(230)는 각 개별 픽셀에 대응되는 하나의 컬러 값의 가중치를 고려하여 단위 픽셀 내에서의 평균 값을 구할 수 있다. 상기 이미지 센서(230)는 상기 단위 픽셀 내에 있는 개별 픽셀들을 통해서 감지된 적색(red) 컬러 값의 평균 값(935), 녹색(green) 컬러 값의 평균 값(945), 청색(blue) 컬러 값의 평균 값(955) 중 적어도 2개 이상의 평균 값을 16개의 개별 픽셀을 포함하는 단위 픽셀(920)에 대한 컬러 값(960)으로 출력할 수 있다.
일 실시 예에서, 단위 픽셀에 포함된 개별 픽셀들의 각 컬러 값의 가중치의 합이 1이 되어도, 개별 픽셀들의 각 컬러 값의 중심(970)이 한 쪽으로 쏠려 있으면 단위 픽셀(920)을 대표하는 컬러 값을 정확하게 출력할 수 없다. 단위 픽셀(920)을 대표하는 컬러 값을 정확하게 출력하기 위해 동일한 컬러의 개별 픽셀들의 중심은 단위 픽셀의 중심으로부터 한 픽셀의 거리 이내에 있을 수 있다.
도 10은, 일 실시 예에 따른 이미지 센서에서 컬러 값 조합하는 과정을 나타낸 도면 (1000)이다.
컬러 필터 어레이에 대응되는 4개의 개별 픽셀들의 컬러 값은 2차원 공간에서 반복적인 패턴(예: 테트라 셀 패턴(tetra cell pattern))(1010)을 형성할 수 있다. 도 10에서 도시한 바와 같이, 이미지 센서(230)는 4 x 4 픽셀들을 그룹화 할 수 있다. 상기 4 x 4 픽셀들이 그룹화된 단위 픽셀(1020)은 16개의 개별 픽셀을 포함할 수 있다. 단위 픽셀(1020)은 하나의 테트라 셀 패턴에 해당하는 4개의 개별 픽셀들(예: 4개의 녹색(green)) 및 상기 4개의 개별 픽셀들을 둘러싸는 12개의 개별 픽셀을 포함할 수 있다. 단위 픽셀(1020)은 16개의 개별 픽셀을 포함할 수 있다.
일 실시 예에 따르면, 단위 픽셀에 있는 각 컬러(예: 적색(red)) 값은 가중치 값을 가질 수 있다. 동작 1030을 참조하면, 각 개별 픽셀에 대응되는 하나의 적색(red) 컬러 값의 가중치는 2/8일 수 있다. 동작 1040을 참조하면, 각 개별 픽셀에 대응되는 하나의 녹색(green) 컬러 값의 가중치는 1/8일 수 있다. 동작 1050을 참조하면, 각 개별 픽셀에 대응되는 하나의 청색(blue) 컬러 값의 가중치는 2/8일 수 있다. 단위 픽셀에서 각 컬러 값의 가중치의 합은 1이 될 수 있다. 이미지 센서(230)는 각 개별 픽셀에 대응되는 하나의 컬러 값의 가중치를 고려하여 단위 픽셀 내에서의 평균 값을 구할 수 있다. 상기 이미지 센서(230)는 상기 단위 픽셀 내에 있는 개별 픽셀들을 통해서 감지된 적색(red) 컬러 값의 평균 값(1035), 녹색(green) 컬러 값의 평균 값(1045), 청색(blue) 컬러 값의 평균 값(1055) 중 적어도 2개 이상의 평균 값을 16개의 개별 픽셀을 포함하는 단위 픽셀(1020)에 대한 컬러 값(1060)으로 출력할 수 있다.
일 실시 예에서, 단위 픽셀에 포함된 개별 픽셀들의 각 컬러 값의 가중치의 합이 1이 되어도, 개별 픽셀들의 각 컬러 값의 중심(1070)이 한 쪽으로 쏠려 있으면 단위 픽셀(1020)을 대표하는 컬러 값을 정확하게 출력할 수 없다. 단위 픽셀(1020)을 대표하는 컬러 값을 정확하게 출력하기 위해 동일한 컬러의 개별 픽셀들의 중심은 단위 픽셀의 중심으로부터 한 픽셀의 거리 이내에 있을 수 있다.
도 11은, 일 실시 예에 따른 이미지 센서에서 컬러 값 조합하는 과정을 나타낸 도면 (1100)이다.
컬러 필터 어레이에 대응되는 9개의 개별 픽셀들의 컬러 값은 2차원 공간에서 반복적인 패턴(1010)을 형성할 수 있다. 도 11에서 도시한 바와 같이, 이미지 센서(230)는 6 x 6 픽셀들을 그룹화 할 수 있다. 상기 6 x 6 픽셀들이 그룹화된 단위 픽셀(1120)은 36개의 개별 픽셀을 포함할 수 있다.
일 실시 예에 따르면, 단위 픽셀에 있는 각 컬러(예: 적색(red)) 값은 가중치 값을 가질 수 있다. 동작 1130을 참조하면, 각 개별 픽셀에 대응되는 하나의 적색(red) 컬러 값의 가중치는 2/18일 수 있다. 동작 1140을 참조하면, 각 개별 픽셀에 대응되는 하나의 녹색(green) 컬러 값의 가중치는 1/18일 수 있다. 동작 1050을 참조하면, 각 개별 픽셀에 대응되는 하나의 청색(blue) 컬러 값의 가중치는 2/18일 수 있다. 단위 픽셀에서 각 컬러 값의 가중치의 합은 1이 될 수 있다. 이미지 센서(230)는 각 개별 픽셀에 대응되는 하나의 컬러 값의 가중치를 고려하여 단위 픽셀 내에서의 평균 값을 구할 수 있다. 상기 이미지 센서(230)는 상기 단위 픽셀 내에 있는 개별 픽셀들을 통해서 감지된 적색(red) 컬러 값의 평균 값(1135), 녹색(green) 컬러 값의 평균 값(1145), 청색(blue) 컬러 값의 평균 값(1155) 중 적어도 2개 이상의 평균 값을 36개의 개별 픽셀을 포함하는 단위 픽셀(1120)에 대한 컬러 값(1160)으로 출력할 수 있다.
일 실시 예에서, 단위 픽셀에 포함된 개별 픽셀들의 각 컬러 값의 가중치의 합이 1이 되어도, 개별 픽셀들의 각 컬러 값의 중심(1170)이 한 쪽으로 쏠려 있으면 단위 픽셀(1120)을 대표하는 컬러 값을 정확하게 출력할 수 없다. 단위 픽셀(1120)을 대표하는 컬러 값을 정확하게 출력하기 위해 동일한 컬러의 개별 픽셀들의 중심은 단위 픽셀의 중심으로부터 한 픽셀의 거리 이내에 있을 수 있다. 상기 중심은 동일한 컬러의 개별 픽셀들에 할당된 가중치의 중심 또는 동일한 컬러의 개별 픽셀들의 가중치에 대한 무게 중심을 의미할 수 있다. 상기 중심은 가중 산술 평균의 방식으로 계산될 수 있다.
다양한 실시 예에 따른 전자 장치(300)는, 복수의 픽셀들을 포함하는 컬러 필터 어레이, 상기 컬러 필터 어레이를 포함하는 이미지 센서 및 상기 이미지 센서와 지정된 인터페이스로 연결되는 프로세서를 포함할 수 있다. 상기 이미지 센서는 제1 해상도를 가지는 제1 출력 모드에서, 상기 복수의 픽셀들 각각에 대응되는 하나의 컬러 값을 상기 프로세서에 제공하고, 상기 제1 해상도보다 낮은 제2 해상도를 가지는 제2 출력 모드에서, 제1 개수의 픽셀들을 포함하는 단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 상기 지정된 인터페이스를 통해 상기 프로세서로 제공할 수 있다. 상기 제1 출력 모드는 제1 해상도의 이미지를 출력하고, 상기 제2 출력 모드는 제2 해상도의 이미지를 출력할 수 있다.
일 실시 예에 있어서, 상기 프로세서는 상기 제1 출력 모드에서는 상기 제공된 상기 복수의 픽셀들 각각에 대응되는 하나의 컬러 값을 이용하여 디모자이크(demosaic) 과정을 수행하고, 상기 제2 출력 모드에서는, 상기 디모자이크 과정을 생략할 수 있다.
일 실시 예에 있어서, 상기 프로세서는 이미지 신호 프로세서(ISP)를 포함할 수 있다.
일 실시 예에 있어서, 상기 컬러 필터 어레이는 베이어 패턴으로 구성될 수 있다.
일 실시 예에 있어서, 상기 단위 픽셀은 4개의 베이어 패턴에 해당하는 16개의 픽셀들을 포함할 수 있다.
일 실시 예에 있어서, 상기 컬러 필터 어레이는 테트라셀 패턴으로 구성될 수 있다.
일 실시 예에 있어서, 상기 단위 픽셀은 k x k 패턴에 해당하는 k²개의 픽셀들을 포함할 수 있다.
일 실시 예에 있어서, 상기 단위 픽셀은 적어도 제1 단위 픽셀 및 제2 단위 픽셀을 포함하고, 제1 단위 픽셀 중 적어도 일부의 픽셀은 제2 단위 픽셀의 적어도 일부의 픽셀과 중첩될 수 있다.
일 실시 예에 있어서, 상기 제2 출력 모드에서, 상기 이미지 센서는 적어도 비닝(binning), 스키핑(skipping) 또는 웨이팅(weighting) 기법을 사용하여, 상기 단위 픽셀에 대응되는 적어도 2개 이상의 컬러 값을 출력할 수 있다.
일 실시 예에 있어서, 상기 컬러 값은 R(red), G(green) 또는 B(blue)를 포함할 수 있다.
일 실시 예에 있어서, 상기 디모자이크 과정을 생략하는 경우에는 상기 디모자이크 과정의 이전 과정 중 일부가 변경될 수 있다.
일 실시 예에 있어서 상기 이미지 센서는, 상기 단위 픽셀에 포함된 상기 제1 개수의 픽셀들 중, 제1 컬러에 해당하는 픽셀들의 개수 및 위치에 기반하여 제1 컬러의 상기 단위 픽셀에 대응되는 제1 컬러 값을 결정하고, 상기 단위 픽셀에 포함된 상기 제1 개수의 픽셀들 중, 제2 컬러에 해당하는 픽셀들의 개수 및 위치에 기반하여 제2 컬러의 상기 단위 픽셀에 대응되는 제2 컬러 값을 결정할 수 있다.
다양한 실시 예에 따른 전자 장치(300)의 제어 방법에 있어서, 상기 컬러 필터 어레이를 포함하는 이미지 센서를 통해, 제1 해상도를 가지는 제1 출력 모드에서, 복수의 픽셀들 각각에 대응되는 하나의 컬러 값을 지정된 인터페이스를 통해 프로세서로 제공하고 상기 제1 해상도보다 낮은 제2 해상도를 가지는 제2 출력모드에서, 제1 개수의 픽셀들을 포함하는 단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 상기 지정된 인터페이스를 통해 상기 프로세서로 제공할 수 있다. 상기 프로세서는 상기 지정된 인터페이스를 통해 컬러 값을 수신할 수 있다.
일 실시 예에 있어서, 전자 장치(300)의 제어 방법은 상기 프로세서가 상기 제1 출력 모드에서는 상기 제공된 상기 복수의 픽셀들 각각에 대응되는 하나의 컬러 값을 이용하여 디모자이크(demosaic) 과정을 수행하도록 하고, 상기 제2 출력 모드에서는, 상기 디모자이크 과정을 생략하도록 할 수 있다.
일 실시 예에 있어서, 상기 프로세서에 제공하는 동작은, 상기 지정된 컬러 값을 이미지 신호 프로세서(ISP)로 제공하는 것을 포함할 수 있다.
일 실시 예에 있어서, 전자 장치(300)의 제어 방법의 상기 컬러 필터 어레이는 베이어 패턴으로 구성될 수 있다.
일 실시 예에 있어서, 전자 장치(300)의 제어 방법의 상기 단위 픽셀은 4개의 베이어 패턴에 해당하는 16개의 픽셀들을 포함할 수 있다.
일 실시 예에 있어서, 전자 장치(300)의 제어 방법의 상기 컬러 필터 어레이는 테트라셀 패턴으로 구성될 수 있다.
일 실시 예에 있어서, 상기 단위 픽셀은 k x k 패턴에 해당하는 k²개의 픽셀들을 포함할 수 있다.
일 실시 예에 따른 전자 장치(300)의 제어 방법은 상기 이미지 센서가 상기 단위 픽셀에 포함된 상기 제1 개수의 픽셀들 중, 제1 컬러에 해당하는 픽셀들의 개수 및 위치에 기반하여 제1 컬러의 상기 단위 픽셀에 대응되는 제1 컬러 값을 결정하도록 하고, 상기 단위 픽셀에 포함된 상기 제1 개수의 픽셀들 중, 제2 컬러에 해당하는 픽셀들의 개수 및 위치에 기반하여 제2 컬러의 상기 단위 픽셀에 대응되는 제2 컬러 값을 결정하도록 할 수 있다.
일 실시 예에 따른 전자 장치(300)의 제어 방법은 프로세서(120)가 상기 디모자이크 과정을 생략하는 경우에 상기 디모자이크 과정의 이전 과정 중 일부를 변경하도록 할 수 있다.
상술한 본 개시의 구체적인 실시 예들에서, 개시에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.
한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    복수의 픽셀들을 포함하는 컬러 필터 어레이;
    상기 컬러 필터 어레이를 포함하는 이미지 센서; 및
    상기 이미지 센서와 지정된 인터페이스로 연결되는 프로세서를 포함하고,
    상기 이미지 센서는:
    제1 해상도를 출력하는 제1 출력 모드에서, 상기 복수의 픽셀들에 포함된 하나의 픽셀을 통해, 상기 하나의 픽셀에 대응되는 컬러 값을 상기 프로세서에 제공하고;
    상기 제1 해상도보다 낮은 제2 해상도를 출력하는 제2 출력 모드에서, 단위 픽셀을 통해 상기 단위 픽셀에 대응되는 적어도 2개 이상의 컬러 값을 상기 지정된 인터페이스를 통해 상기 프로세서로 제공하고, 여기서 상기 단위 픽셀은 제2 해상도에 대응되도록 구성되고 상기 하나의 픽셀을 둘 이상 포함하는, 전자 장치.
  2. 청구항 1에 있어서,
    상기 프로세서는 상기 제1 출력 모드에서는 상기 제공된 상기 복수의 픽셀들 각각에 대응되는 하나의 컬러 값을 이용하여 디모자이크(demosaic) 과정을 수행하고,
    상기 제2 출력 모드에서는, 상기 디모자이크 과정을 생략하는, 전자 장치.
  3. 청구항 1에 있어서,
    상기 프로세서는 이미지 신호 프로세서(ISP)를 포함하는, 전자 장치.
  4. 청구항 1에 있어서,
    상기 컬러 필터 어레이는 베이어 패턴 또는 테트라 셀 패턴을 포함하는, 전자 장치.
  5. 청구항 1에 있어서,
    상기 단위 픽셀은 적어도 제1 단위 픽셀 및 제2 단위 픽셀을 포함하고, 제1 단위 픽셀 중 적어도 일부의 픽셀은 제2 단위 픽셀의 적어도 일부의 픽셀과 중첩되는, 전자 장치.
  6. 청구항 1에 있어서,
    상기 제2 출력 모드에서, 상기 이미지 센서는 적어도 비닝(binning), 스키핑(skipping), 또는 웨이팅(weighting) 기법을 사용하여, 상기 단위 픽셀에 대응되는 적어도 2개 이상의 컬러 값을 출력하는, 전자 장치.
  7. 청구항 1에 있어서,
    상기 컬러 값은 R(red), G(green) 또는 B(blue)를 포함하는, 전자 장치.
  8. 청구항 1에 있어서,
    상기 이미지 센서는:
    상기 단위 픽셀에 포함된 제1 컬러에 해당하는 픽셀들의 개수 및 위치에 기반하여 제1 컬러의 상기 단위 픽셀에 대응되는 제1 컬러 값을 결정하고,
    상기 단위 픽셀에 포함된 제2 컬러에 해당하는 픽셀들의 개수 및 위치에 기반하여 제2 컬러의 상기 단위 픽셀에 대응되는 제2 컬러 값을 결정하는, 전자 장치.
  9. 전자 장치의 제어 방법에 있어서,
    복수의 픽셀들을 포함하는 컬러 필터 어레이를 포함하는 이미지 센서를 통해, 제1 해상도를 가지는 제1 출력 모드에서, 복수의 픽셀들 각각에 대응되는 하나의 컬러 값을 지정된 인터페이스를 통해 프로세서로 제공하는 동작; 및
    상기 제1 해상도보다 낮은 제2 해상도를 가지는 제2 출력 모드에서, 제1 개수의 픽셀들을 포함하는 단위 픽셀을 대표하는 적어도 2개 이상의 컬러 값을 상기 지정된 인터페이스를 통해 상기 프로세서로 제공하는 동작;
    상기 프로세서는 상기 지정된 인터페이스를 통해 컬러 값을 수신하는 동작을 포함하는, 전자 장치의 제어 방법.
  10. 청구항 9에 있어서,
    상기 제1 출력 모드에서는 상기 제공된 상기 복수의 픽셀들 각각에 대응되는 하나의 컬러 값을 이용하여 디모자이크(demosaic) 과정을 수행하는 동작; 및
    상기 제2 출력 모드에서는, 상기 디모자이크 과정을 생략하는 동작;
    을 포함하는, 전자 장치의 제어 방법.
  11. 청구항 9에 있어서,
    상기 컬러 필터 어레이는 베이어 패턴 또는 테트라 셀 패턴을 포함하는, 전자 장치의 제어 방법.
  12. 청구항 9에 있어서,
    상기 복수의 단위 픽셀은 적어도 제1 단위 픽셀 및 제2 단위 픽셀을 포함하고, 제1 단위 픽셀 중 적어도 일부의 픽셀은 제2 단위 픽셀의 적어도 일부의 픽셀과 중첩되는, 전자 장치의 제어 방법.
  13. 청구항 9에 있어서,
    상기 제2 출력 모드에서, 상기 이미지 센서는 적어도 비닝(binning), 스키핑(skipping) 또는 웨이팅(weighting) 기법을 사용하여, 상기 단위 픽셀에 대응되는 적어도 2개 이상의 컬러 값을 출력하는, 전자 장치의 제어 방법.
  14. 청구항 9에 있어서,
    상기 컬러 값은 R(red), G(green) 또는 B(blue)를 포함하는, 전자 장치의 제어 방법.
  15. 청구항 9에 있어서,
    상기 이미지 센서는:
    상기 단위 픽셀에 포함된 상기 제1 개수의 픽셀들 중, 제1 컬러에 해당하는 픽셀들의 개수 및 위치에 기반하여 제1 컬러의 상기 단위 픽셀에 대응되는 제1 컬러 값을 결정하는 동작; 및
    상기 단위 픽셀에 포함된 상기 제1 개수의 픽셀들 중, 제2 컬러에 해당하는 픽셀들의 개수 및 위치에 기반하여 제2 컬러의 상기 단위 픽셀에 대응되는 제2 컬러 값을 결정하는 동작을 포함하는, 전자 장치의 제어 방법.
PCT/KR2021/005304 2020-06-23 2021-04-27 이미지 센서를 포함하는 전자 장치 및 이에 대한 제어 방법 WO2021261737A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP21829024.5A EP4171019A4 (en) 2020-06-23 2021-04-27 ELECTRONIC DEVICE WITH IMAGE SENSOR AND METHOD FOR CONTROLLING SAME

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0076669 2020-06-23
KR1020200076669A KR20210158201A (ko) 2020-06-23 2020-06-23 이미지 센서를 포함하는 전자 장치 및 이에 대한 제어 방법

Publications (1)

Publication Number Publication Date
WO2021261737A1 true WO2021261737A1 (ko) 2021-12-30

Family

ID=79178869

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/005304 WO2021261737A1 (ko) 2020-06-23 2021-04-27 이미지 센서를 포함하는 전자 장치 및 이에 대한 제어 방법

Country Status (3)

Country Link
EP (1) EP4171019A4 (ko)
KR (1) KR20210158201A (ko)
WO (1) WO2021261737A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153743A1 (ko) * 2022-02-09 2023-08-17 삼성전자주식회사 전자 장치 및 이의 동작 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150080870A (ko) * 2014-01-02 2015-07-10 삼성전자주식회사 이미지 센서의 비닝 방법 및 이미지 센서
KR101580178B1 (ko) * 2014-07-30 2015-12-24 주식회사 동부하이텍 이미지 센서
KR20160008287A (ko) * 2014-07-14 2016-01-22 삼성전자주식회사 이미지 센서의 단위 픽셀 및 이를 포함하는 이미지 센서
US9844313B2 (en) * 2011-02-14 2017-12-19 Intuitive Surgical Operations, Inc Methods and apparatus for demosaicing images with highly correlated color channels
KR20200025107A (ko) * 2018-08-29 2020-03-10 삼성전자주식회사 이미지 센서 및 이미지 센서를 포함하는 전자 기기와, 이미지 줌 프로세싱 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015195550A (ja) * 2014-03-28 2015-11-05 パナソニックIpマネジメント株式会社 撮像素子および撮像装置
CN106504218B (zh) * 2016-11-29 2019-03-12 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9844313B2 (en) * 2011-02-14 2017-12-19 Intuitive Surgical Operations, Inc Methods and apparatus for demosaicing images with highly correlated color channels
KR20150080870A (ko) * 2014-01-02 2015-07-10 삼성전자주식회사 이미지 센서의 비닝 방법 및 이미지 센서
KR20160008287A (ko) * 2014-07-14 2016-01-22 삼성전자주식회사 이미지 센서의 단위 픽셀 및 이를 포함하는 이미지 센서
KR101580178B1 (ko) * 2014-07-30 2015-12-24 주식회사 동부하이텍 이미지 센서
KR20200025107A (ko) * 2018-08-29 2020-03-10 삼성전자주식회사 이미지 센서 및 이미지 센서를 포함하는 전자 기기와, 이미지 줌 프로세싱 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4171019A4 *

Also Published As

Publication number Publication date
KR20210158201A (ko) 2021-12-30
EP4171019A4 (en) 2023-12-20
EP4171019A1 (en) 2023-04-26

Similar Documents

Publication Publication Date Title
WO2019164185A1 (en) Electronic device and method for correcting image corrected in first image processing scheme in external electronic device in second image processing scheme
WO2020116981A1 (en) Image sensor for generating depth data by a path difference of light generated through micro lens covering a plurality of sub-pixels and electronic device including the image sensor
WO2021133025A1 (en) Electronic device comprising image sensor and method of operation thereof
WO2019168374A1 (en) Method for generating plural information using camera to sense plural wave bandwidth and apparatus thereof
WO2021137555A1 (en) Electronic device comprising image sensor and method of operation thereof
WO2022149654A1 (ko) 흔들림 보정을 수행하는 전자 장치 및 그 동작 방법
WO2021261737A1 (ko) 이미지 센서를 포함하는 전자 장치 및 이에 대한 제어 방법
WO2020246710A1 (ko) 뎁스 맵 결정 방법 및 그 방법을 적용한 전자 장치
WO2021215795A1 (ko) 전자 장치의 컬러 필터, 및 그 전자 장치
WO2022108365A1 (ko) 카메라 모듈 및 카메라 모듈을 포함하는 전자 장치
WO2021162307A1 (ko) 전자 장치 및 그의 hdr 영상 생성 방법
WO2021194161A1 (ko) 고배율에서 흔들림을 보정하는 방법 및 그 전자 장치
WO2021162263A1 (ko) 이미지의 생성 방법 및 그 전자 장치
WO2023277665A1 (ko) 전자 장치 및 그 제어 방법
WO2023234705A1 (ko) 이미지 센서를 포함하는 전자 장치 및 그 동작 방법
WO2024085673A1 (ko) 다중 노출 영상을 획득하는 전자 장치 및 그 동작 방법
WO2022092607A1 (ko) 이미지 센서를 포함하는 전자 장치 및 그 동작 방법
WO2022173236A1 (ko) 이미지 센서를 포함하는 전자 장치 및 그 동작 방법
WO2022025574A1 (ko) 이미지 센서와 이미지 시그널 프로세서를 포함하는 전자 장치 및 그의 방법
WO2021230580A1 (ko) 멀티 카메라를 이용하여 화질 개선하는 전자 장치 및 방법
WO2023058878A1 (ko) 이미지 센서를 포함하는 전자 장치 및 그 동작 방법
WO2023113544A1 (ko) 언더 디스플레이 카메라를 포함하는 전자 장치 및 그 동작 방법
WO2023038459A1 (ko) 전자 장치 및 그 제어 방법
WO2022240183A1 (ko) 이미지 데이터와 모션 데이터를 포함하는 파일을 생성하는 방법 및 그 전자 장치
WO2024076101A1 (ko) 인공지능 기반의 영상 처리 방법 및 이를 지원하는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21829024

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021829024

Country of ref document: EP

Effective date: 20230123