WO2022080550A1 - 컬러 정보 및 적외선 정보를 혼합한 이미지 생성 방법 및 장치 - Google Patents

컬러 정보 및 적외선 정보를 혼합한 이미지 생성 방법 및 장치 Download PDF

Info

Publication number
WO2022080550A1
WO2022080550A1 PCT/KR2020/014976 KR2020014976W WO2022080550A1 WO 2022080550 A1 WO2022080550 A1 WO 2022080550A1 KR 2020014976 W KR2020014976 W KR 2020014976W WO 2022080550 A1 WO2022080550 A1 WO 2022080550A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
infrared
color
image
pixels
Prior art date
Application number
PCT/KR2020/014976
Other languages
English (en)
French (fr)
Inventor
천이우
변형주
Original Assignee
주식회사 넥스트칩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥스트칩 filed Critical 주식회사 넥스트칩
Priority to DE112020007441.2T priority Critical patent/DE112020007441T5/de
Publication of WO2022080550A1 publication Critical patent/WO2022080550A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/85Camera processing pipelines; Components thereof for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths

Definitions

  • the following embodiments relate to image generation technology, and specifically, to technology for generating an image obtained by mixing color information and infrared information.
  • the imaging apparatus provided with optical filters such as a near-infrared cut filter
  • optical filters such as a near-infrared cut filter
  • surface of a glass plate substrate is described.
  • this near-infrared cut filter has a dielectric multilayer film on at least one side
  • of the difference between the wavelength value Ya and the wavelength value Yb is less than 15 nm.
  • the wavelength value Ya is a wavelength value from which the transmittance
  • the wavelength value Yb is a wavelength value at which the transmittance becomes 50% when measured at an angle of 30° with respect to the vertical direction of the near-infrared cut filter in the wavelength range of 560 to 800 nm.
  • An embodiment may provide a method of generating an image in which color information and infrared information are mixed based on illuminance information.
  • An embodiment may provide an image sensor for generating an image in which color information and infrared information are mixed based on illuminance information.
  • an image generating method performed by an electronic device, includes: receiving color information from one or more color pixels; receiving infrared information from one or more infrared pixels; based on the obtained illuminance information determining a first weight for the color information and a second weight for the infrared information; generating mixed information by mixing the color information and the infrared information based on the first weight and the second weight , and generating a mixed image based on the blending information.
  • the one or more color pixels and the one or more infrared pixels may be disposed within a target array of an image sensor.
  • the one or more color pixels and the one or more infrared pixels may be arranged such that a target infrared pixel of the one or more infrared pixels is adjacent to each of the one or more color pixels.
  • the color information and the infrared information may be information on a target viewpoint of a target scene.
  • the image generating method may further include obtaining the illuminance information using an illuminance sensor.
  • the color information and the infrared information may be information on a target viewpoint of a target scene, and the illuminance information may be acquired at the target viewpoint.
  • the image generating method may further include generating interpolation blending information based on the blending information, and generating a blended image based on the blending information includes generating a blended image based on the interpolated blending information. may include steps.
  • an electronic device includes a memory in which a program for generating a mixed image is recorded, and a processor for executing the program, the program comprising: receiving color information from one or more color pixels; Receiving infrared information from the above infrared pixels, determining a first weight for the color information and a second weight for the infrared information based on the obtained illuminance information, the first weight and the second weight generating mixed information by mixing the color information and the infrared information based on , and generating a mixed image based on the mixed information.
  • the electronic device may further include an image sensor that generates the color information and the infrared information.
  • the one or more color pixels and the one or more infrared pixels may be disposed within a target array of the image sensor.
  • the one or more color pixels and the one or more infrared pixels may be arranged such that a target infrared pixel of the one or more infrared pixels is adjacent to each of the one or more color pixels.
  • the color information and the infrared information may be information on a target viewpoint of a target scene.
  • the electronic device may further include an illuminance sensor configured to obtain the illuminance information.
  • the color information and the infrared information may be information on a target viewpoint of a target scene, and the illuminance information may be acquired at the target viewpoint.
  • the program further performs the step of generating interpolation blending information based on the blending information, and generating a blended image based on the blending information includes: generating a blended image based on the interpolated blending information may include
  • a method of generating an image in which color information and infrared information are mixed based on illuminance information may be provided.
  • An image sensor for generating an image in which color information and infrared information are mixed based on the illuminance information may be provided.
  • FIG. 1 illustrates a pixel array of an image sensor according to one embodiment.
  • FIG. 2 is a block diagram of an electronic device according to an exemplary embodiment.
  • FIG. 3 is a flowchart of a method of generating an image obtained by mixing color information and infrared information according to an exemplary embodiment.
  • FIG. 4 illustrates a first weight for a plurality of sections of brightness according to an example.
  • 5 to 8 show mixed images according to an example.
  • FIG. 9 is a flowchart of a method of generating a mixed image based on interpolation mixing information according to an example.
  • first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another.
  • a first component may be termed a second component, and similarly, a second component may also be termed a first component.
  • FIG. 1 illustrates a pixel array of an image sensor according to one embodiment.
  • an image sensor includes a plurality of pixels for receiving light. Pixels of the image sensor may correspond to pixels of an output image, but may not be limited to the described embodiment. For example, an image sensor including 1280x720 pixels may be used to generate an image of 1280x720 resolution (High Definition: HD). As another example, a plurality of color pixels (eg, R, G, B sensors) of an image sensor may be used to generate a pixel value for one pixel in the image. An image generated using only color information generated by color pixels may be a color image.
  • 1280x720 pixels may be used to generate an image of 1280x720 resolution (High Definition: HD).
  • a plurality of color pixels (eg, R, G, B sensors) of an image sensor may be used to generate a pixel value for one pixel in the image.
  • An image generated using only color information generated by color pixels may be a color image.
  • the quality of the generated image may vary according to ambient brightness. For example, when it is dark, there is a limit to the light that color pixels can receive, so an image that is difficult for a human to discern may be created. In order to compensate for this point, in addition to the color pixels, infrared pixels may be further used.
  • an image sensor 100 in which one or more color pixels and one or more infrared pixels are disposed together may be provided.
  • the image sensor 100 may be configured to include a plurality of target arrays 110 .
  • the target array 110 may include one or more color pixels 111 , 112 , 113 , 114 and one or more additional pixels 115 , 116 , 117 , 118 . That is, one or more color pixels 111 , 112 , 113 , 114 and one or more additional pixels 115 , 116 , 117 , 118 may be disposed in the target array 110 of the image sensor 100 .
  • the additional pixels 115 , 116 , 117 , and 118 may be infrared pixels that obtain infrared (IR) information.
  • the additional pixels 115 , 116 , 117 , and 118 may be pixels that acquire information other than infrared.
  • the additional pixels 115 , 116 , 117 , and 118 may be pixels that obtain various light source information such as Red, Green, Blue, Magenta, Cyan, Yellow, or IR or information obtained by mixing these various light source information.
  • various light source information such as Red, Green, Blue, Magenta, Cyan, Yellow, or IR or information obtained by mixing these various light source information.
  • the target array 110 includes the color pixels 111 , such that the target additional pixel 115 of the additional pixels 115 , 116 , 117 , 118 is adjacent to each of the color pixels 111 , 112 , 113 and 114 . 112 , 113 , 114 and additional pixels 115 , 116 , 117 , 118 may be disposed.
  • an image may be generated using light received using the additional pixels 115 , 116 , 117 , and 118 .
  • an image generated using only the infrared information generated by the additional pixels 115 , 116 , 117 , and 118 may be an infrared image.
  • FIG. 2 is a block diagram of an electronic device according to an exemplary embodiment.
  • the electronic device 200 includes a communication unit 210 , a processor 220 , a memory 230 , and a camera 240 .
  • the electronic device 200 may be a camera.
  • the camera may be included in a CCTV (closed circuit television) or a black box, and may be included in a car or a drone, and is not limited to the described embodiment.
  • the communication unit 210 is connected to the processor 220 , the memory 230 , and the image sensor 240 to transmit and receive data.
  • the communication unit 210 may be connected to another external device to transmit/receive data.
  • the expression “transmitting and receiving "A” may indicate transmitting and receiving "information or data representing A”.
  • the communication unit 210 may be implemented as circuitry in the electronic device 200 .
  • the communication unit 210 may include an internal bus and an external bus.
  • the communication unit 210 may be an element that connects the electronic device 200 and an external device.
  • the communication unit 210 may be an interface.
  • the communication unit 210 may receive data from an external device and transmit the data to the processor 220 and the memory 230 .
  • the processor 220 processes data received by the communication unit 210 and data stored in the memory 230 .
  • the processor 220 may be an image signal processor (ISP).
  • a “processor” may be a data processing device implemented in hardware having circuitry having a physical structure for performing desired operations.
  • desired operations may include code or instructions included in a program.
  • a data processing device implemented as hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , an Application-Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA).
  • ASIC Application-Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • Processor 220 executes computer readable code (eg, software) stored in memory (eg, memory 230 ) and instructions issued by processor 220 .
  • computer readable code eg, software
  • the memory 230 stores data received by the communication unit 210 , data processed by the processor 220 , and image information generated by the image sensor 240 .
  • the memory 230 may store a program (or an application, software).
  • the stored program may be a set of syntaxes coded to generate a mixed image and executable by the processor 220 .
  • memory 230 may include one or more of volatile memory, non-volatile memory and random access memory (RAM), flash memory, hard disk drive, and optical disk drive.
  • RAM random access memory
  • the memory 230 stores an instruction set (eg, software) for operating the electronic device 200 .
  • the instruction set for operating the electronic device 200 is executed by the processor 220 .
  • the image sensor 240 receives the light and generates image information corresponding to the received light.
  • the image sensor 240 may be the image sensor 100 described above with reference to FIG. 1 .
  • the communication unit 210 the processor 220 , the memory 230 , and the image sensor 240 will be described in detail below with reference to FIGS. 3 to 9 .
  • FIG. 3 is a flowchart of a method of generating an image obtained by mixing color information and infrared information according to an exemplary embodiment.
  • the image sensor 240 generates color information based on one or more color pixels.
  • the color information may be information on a target time of a target scene.
  • the image sensor 240 generates infrared information based on one or more additional pixels.
  • the infrared information may be information about a target viewpoint of a target scene. That is, the color information and the infrared information may be information about the same viewpoint for the same scene.
  • step 325 the processor 220 obtains illuminance information.
  • illuminance information may be acquired through an illuminance sensor (not shown) of the electronic device 200 .
  • the illuminance information may be about a target viewpoint that is a time point at which color information and infrared information are generated.
  • the processor 200 may obtain illuminance information based on color information.
  • illuminance information may be obtained based on values of color pixels.
  • the illuminance information may indicate a degree of external brightness.
  • step 330 the processor 220 receives color information from the image sensor 240 .
  • step 340 the processor 220 receives infrared information from the image sensor 240 .
  • the processor 220 determines a first weight for the color information and a second weight for the infrared information based on the obtained illuminance information.
  • the first weight may be determined as the brightness increases.
  • the second weight may be determined to be smaller as the brightness increases.
  • the first weight and the second weight are determined so that the sum of the first weight and the second weight is 1. How the first weight is determined is described in detail below with reference to FIG. 4 .
  • step 360 the processor 220 generates the mixed information by mixing the color information and the infrared information based on the first weight and the second weight.
  • step 370 the processor 220 generates a blended image based on the blending information.
  • Mixed images generated by mixing color information and infrared information at different ratios are shown below with reference to FIGS. 5 to 8 .
  • FIG. 4 illustrates a first weight for a plurality of sections of brightness according to an example.
  • the entire section for the brightness value may be divided into a first section 410 , a second section 420 , and a third section 430 .
  • the first section 410 , the second section 420 , and the third section 430 may be divided based on preset brightness values a and b.
  • the first weight is determined to be 0, and the second weight is determined to be 1.
  • the mixed image generated in the first section 410 may be an infrared image.
  • the first weight 440 is determined by the following [Equation 1].
  • the mixed image generated in the second section 420 may be an image in which at least part of color information and infrared information are respectively reflected.
  • a and b are preset brightness values
  • x is a brightness value according to illuminance information
  • y is a first weight for the brightness value.
  • the first weight 440 is determined to be 1 and the second weight is determined to be 0 .
  • the mixed image generated in the third section 430 may be a color image.
  • 5 to 8 show mixed images according to an example.
  • the mixed image of FIG. 5 may be an image generated in the third section 430 of the first section 410, the second section 420, and the third section 430 described with reference to FIG. 4, and FIGS. 6 and FIG.
  • the mixed images of 7 may be images generated in the second section 420
  • the mixed images of FIG. 8 may be images generated in the first section 410 . All of the mixed images of FIGS. 6 and 7 are first Although the image is generated in section 2 420 , the first weight for the mixed image of FIG. 6 is greater than the first weight for the mixed image of FIG. 7 (that is, the mixed image of FIG. 6 is taken in a brighter environment) being).
  • a first object 501 and a second object 502 are positioned in the scene 500 .
  • the color ( 510) and color 520 are relatively clear (ie, highly saturated), and color 810 and color 820 shown in the image of FIG. 8 in that order are relatively least vivid (ie, saturated). lowness).
  • the shape of the objects in the scene appears clearly.
  • FIG. 9 is a flowchart of a method of generating a mixed image based on interpolation mixing information according to an example.
  • step 900 may be further performed.
  • the processor 200 generates interpolated mixture information based on the mixture information.
  • the generation of the interpolated mixture information may be to convert the mixture information so that an image can be output through a display.
  • the interpolation mixing information may be information about an RGB image and a YUV image.
  • Step 370 described above with reference to FIG. 3 may include step 910 below.
  • step 910 the processor 200 generates a blended image based on the interpolated blending information.
  • the embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component.
  • the apparatus, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA) array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using a general purpose computer or special purpose computer.
  • the processing device may execute an operating system (OS) and a software application running on the operating system.
  • a processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • OS operating system
  • a processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
  • Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device.
  • the software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave.
  • the software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in a computer-readable recording medium.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination, and the program instructions recorded on the medium are specially designed and configured for the embodiment, or are known and available to those skilled in the art of computer software.
  • the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks.
  • - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • the hardware devices described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

혼합 이미지를 생성하기 위해, 컬러 픽셀들로부터 컬러 정보를 수신하고, 적외선 픽셀들로부터 적외선 정보를 수신하고, 획득된 조도 정보에 기초하여 컬러 정보에 대한 제1 가중치 및 적외선 정보에 대한 제2 가중치를 결정하고, 제1 가중치 및 제2 가중치에 기초하여 컬러 정보 및 적외선 정보를 혼합함으로써 혼합 정보를 생성하고, 혼합 정보에 기초하여 혼합 이미지를 생성한다.

Description

컬러 정보 및 적외선 정보를 혼합한 이미지 생성 방법 및 장치
아래의 실시예들은 이미지 생성 기술에 관한 것이고, 구체적으로 컬러 정보 및 적외선 정보를 혼합한 이미지를 생성하는 기술에 관한 것이다.
종래, 근적외선 컷 필터 등의 광학 필터를 구비한 촬상 장치가 알려져 있다. 예를 들면, 일본 특허공개 2012-103340호 공보에는, 유리판 기판의 적어도 편면에 근적외선 흡수제를 함유하는 수지층을 갖는 적층판을 포함하는 근적외선 컷 필터가 기재되어 있다. 예를 들면, 이 근적외선 컷 필터는, 적층판의 적어도 편면에 유전체 다층막을 갖는다. 이 근적외선 컷 필터에 있어서, 파장 값(Ya)와, 파장 값(Yb)의 차의 절대값|Ya-Yb|가 15nm 미만이다. 파장 값(Ya)는, 파장 560~800nm의 범위에 있어서, 근적외선 컷 필터의 수직 방향에서 측정한 경우의 투과율이 50%가 되는 파장 값이다. 파장 값(Yb)는, 파장 560~800nm의 범위에 있어서, 근적외선 컷 필터의 수직 방향에 대해 30°의 각도에서 측정한 경우의 투과율이 50%가 되는 파장 값이다. 이와 같이, 상기의 공보에 의하면, 근적외선 컷 필터에 있어서의 투과 특성의 각도 의존성이 작게 조절되어 있다.
일 실시예는 조도 정보에 기초하여 컬러 정보 및 적외선 정보를 혼합한 이미지를 생성하는 방법을 제공할 수 있다.
일 실시예는 조도 정보에 기초하여 컬러 정보 및 적외선 정보를 혼합한 이미지를 생성하기 위한 이미지 센서를 제공할 수 있다.
다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.
일 측면에 따른, 전자 장치에 의해 수행되는, 이미지 생성 방법은, 하나 이상의 컬러 픽셀들로부터 컬러 정보를 수신하는 단계, 하나 이상의 적외선 픽셀들로부터 적외선 정보를 수신하는 단계, 획득된 조도 정보에 기초하여 상기 컬러 정보에 대한 제1 가중치 및 상기 적외선 정보에 대한 제2 가중치를 결정하는 단계, 상기 제1 가중치 및 상기 제2 가중치에 기초하여 상기 컬러 정보 및 상기 적외선 정보를 혼합함으로써 혼합 정보를 생성하는 단계, 및 상기 혼합 정보에 기초하여 혼합 이미지를 생성하는 단계를 포함한다.
상기 하나 이상의 컬러 픽셀들 및 상기 하나 이상의 적외선 픽셀들은 이미지 센서의 타겟 어레이 내에 배치될 수 있다.
상기 타겟 어레이는, 상기 하나 이상의 컬러 픽셀들의 각각에 상기 하나 이상의 적외선 픽셀들 중 타겟 적외선 픽셀이 인접하도록 상기 하나 이상의 컬러 픽셀들 및 상기 하나 이상의 적외선 픽셀들이 배치될 수 있다.
상기 컬러 정보 및 상기 적외선 정보는 타겟 장면의 타겟 시점에 대한 정보일 수 있다.
상기 이미지 생성 방법은, 조도 센서를 이용하여 상기 조도 정보를 획득하는 단계를 더 포함할 수 있다.
상기 컬러 정보 및 상기 적외선 정보는 타겟 장면의 타겟 시점에 대한 정보이고, 상기 조도 정보는 상기 타겟 시점에서 획득될 수 있다.
상기 이미지 생성 방법은, 상기 혼합 정보에 기초하여 보간 혼합 정보를 생성하는 단계를 더 포함하고, 상기 혼합 정보에 기초하여 혼합 이미지를 생성하는 단계는, 상기 보간 혼합 정보에 기초하여 혼합 이미지를 생성하는 단계를 포함할 수 있다.
다른 일 측면에 따른, 전자 장치는, 혼합 이미지를 생성하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 하나 이상의 컬러 픽셀들로부터 컬러 정보를 수신하는 단계, 하나 이상의 적외선 픽셀들로부터 적외선 정보를 수신하는 단계, 획득된 조도 정보에 기초하여 상기 컬러 정보에 대한 제1 가중치 및 상기 적외선 정보에 대한 제2 가중치를 결정하는 단계, 상기 제1 가중치 및 상기 제2 가중치에 기초하여 상기 컬러 정보 및 상기 적외선 정보를 혼합함으로써 혼합 정보를 생성하는 단계, 및 상기 혼합 정보에 기초하여 혼합 이미지를 생성하는 단계를 수행한다.
상기 전자 장치는, 상기 컬러 정보 및 상기 적외선 정보를 생성하는 이미지 센서를 더 포함할 수 있다.
상기 하나 이상의 컬러 픽셀들 및 상기 하나 이상의 적외선 픽셀들은 상기 이미지 센서의 타겟 어레이 내에 배치될 수 있다.
상기 타겟 어레이는, 상기 하나 이상의 컬러 픽셀들의 각각에 상기 하나 이상의 적외선 픽셀들 중 타겟 적외선 픽셀이 인접하도록 상기 하나 이상의 컬러 픽셀들 및 상기 하나 이상의 적외선 픽셀들이 배치될 수 있다.
상기 컬러 정보 및 상기 적외선 정보는 타겟 장면의 타겟 시점에 대한 정보일 수 있다.
상기 전자 장치는, 상기 조도 정보를 획득하는 조도 센서를 더 포함할 수 있다.
상기 컬러 정보 및 상기 적외선 정보는 타겟 장면의 타겟 시점에 대한 정보이고, 상기 조도 정보는 상기 타겟 시점에서 획득될 수 있다.
상기 프로그램은, 상기 혼합 정보에 기초하여 보간 혼합 정보를 생성하는 단계를 더 수행하고, 상기 혼합 정보에 기초하여 혼합 이미지를 생성하는 단계는, 상기 보간 혼합 정보에 기초하여 혼합 이미지를 생성하는 단계를 포함할 수 있다.
조도 정보에 기초하여 컬러 정보 및 적외선 정보를 혼합한 이미지를 생성하는 방법이 제공될 수 있다.
조도 정보에 기초하여 컬러 정보 및 적외선 정보를 혼합한 이미지를 생성하기 위한 이미지 센서가 제공할 수 있다.
도 1은 일 실시예에 따른 이미지 센서의 픽셀 어레이를 도시한다.
도 2는 일 실시예에 따른 전자 장치의 구성도이다.
도 3은 일 실시예에 따른 컬러 정보 및 적외선 정보를 혼합한 이미지를 생성하는 방법의 흐름도이다.
도 4는 일 예에 따른 밝기의 복수의 구간들에 대한 제1 가중치를 도시한다.
도 5 내지 도 8은 일 예에 따른 혼합 이미지들을 도시한다.
도 9는 일 예에 따른 보간 혼합 정보에 기초하여 혼합 이미지를 생성하는 방법의 흐름도이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 이미지 센서의 픽셀 어레이를 도시한다.
일 측면에 따르면, 이미지 센서는 광을 수신하기 위한 복수의 픽셀들을 포함한다. 이미지 센서의 픽셀은 출력되는 이미지의 픽셀에 대응할 수 있으나, 기재된 실시예로 한정되지 않을 수 있다. 예를 들어, 1280x720 해상도(High Definition: HD)의 이미지를 생성하기 위해, 1280x720 개의 픽셀들을 포함하는 이미지 센서가 이용될 수 있다. 다른 예로, 이미지 내의 하나의 픽셀에 대한 픽셀 값을 생성하기 위해 이미지 센서의 복수의 컬러 픽셀들(예를 들어, R, G, B 센서들)이 이용될 수 있다. 컬러 픽셀들에 의해 생성된 컬러 정보만을 이용하여 생성된 이미지는 컬러 이미지일 수 있다.
이미지를 생성하기 위해 컬러 픽셀들 만을 이용하는 경우, 주변 밝기에 따라 생성되는 이미지의 품질이 달라질 수 있다. 예를 들어, 어두운 경우에는 컬러 픽셀들이 수신할 수 있는 광에 제한이 있어서, 사람이 식별하기 어려운 이미지가 생성될 수 있다. 이러한 점을 보완하기 위해, 컬러 픽셀들 이외에 적외선 픽셀들이 더 이용될 수 있다.
일 측면에 따르면, 하나 이상의 컬러 픽셀들 및 하나 이상의 적외선 픽셀들이 함께 배치된 이미지 센서(100)가 제공될 수 있다. 이미지 센서(100)는 복수의 타겟 어레이(110)들을 포함하도록 구성될 수 있다. 타겟 어레이(110)는 하나 이상의 컬러 픽셀들(111, 112, 113, 114) 및 하나 이상의 부가 픽셀들(115, 116, 117, 118)을 포함할 수 있다. 즉, 하나 이상의 컬러 픽셀들(111, 112, 113, 114) 및 하나 이상의 부가 픽셀들(115, 116, 117, 118)은 이미지 센서(100)의 타겟 어레이(110) 내에 배치될 수 있다. 일 측면에 따르면, 부가 픽셀들(115, 116, 117, 118)은 적외선(infrared: IR) 정보를 획득하는 적외선 픽셀일 수 있다. 다른 일 측면에 따르면, 부가 픽셀들(115, 116, 117, 118)은 적외선이 아닌 다른 정보를 획득하는 픽셀일 수 있다. 예를 들어, 부가 픽셀들(115, 116, 117, 118)은 Red, Green, Blue, Magenta, Cyan, Yellow 또는 IR과 같은 다양한 광원 정보나 이러한 다양한 광원 정보들이 혼합된 정보를 획득하는 픽셀일 수 있으나, 기재된 실시예로 한정되지 않는다.
타겟 어레이(110)는, 컬러 픽셀들(111, 112, 113, 114)의 각각에 부가 픽셀들(115, 116, 117, 118) 중 타겟 부가 픽셀(115)이 인접하도록 컬러 픽셀들(111, 112, 113, 114) 및 부가 픽셀들(115, 116, 117, 118)이 배치될 수 있다.
어두운 경우에도 부가 픽셀들(115, 116, 117, 118)을 이용하여 수신된 광을 이용하여 이미지가 생성될 수 있다. 예를 들어, 부가 픽셀들(115, 116, 117, 118)에 의해 생성된 적외선 정보만을 이용하여 생성된 이미지는 적외선 이미지일 수 있다.
타겟 어레이(110)를 통해 동시에 생성된 컬러 정보 및 적외선 정보를 적절하게 혼합하는 경우, 밝은 경우 뿐만 아니라 어두운 경우에도 사람이 사물을 식별할 수 있는 이미지가 생성될 수 있다. 아래에서 도 2 내지 도 9를 참조하여 혼합 이미지를 생성하는 방법에 대해 상세히 설명된다.
도 2는 일 실시예에 따른 전자 장치의 구성도이다.
전자 장치(200)는 통신부(210), 프로세서(220), 메모리(230) 및 카메라(240)를 포함한다. 예를 들어, 전자 장치(200)는 카메라일 수 있다. 카메라는 CCTV(closed circuit television) 내에 포함되거나, 블랙박스 내에 포함될 수 있고, 자동차나 드론 내에 포함 될 수 있으며 기재된 실시예로 한정되지 않는다.
통신부(210)는 프로세서(220), 메모리(230) 및 이미지 센서(240)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.
통신부(210)는 전자 장치(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 전자 장치(200)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.
프로세서(220)는 통신부(210)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. 프로세서(220)는 ISP(Image Signal Processor)일 수 있다.
"프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.
메모리(230)는 통신부(210)가 수신한 데이터, 프로세서(220)가 처리한 데이터 및 이미지 센서(240)가 생성한 이미지 정보를 저장한다. 예를 들어, 메모리(230)는 프로그램(또는 애플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 혼합 이미지를 생성할 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.
일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.
메모리(230)는 전자 장치(200)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 전자 장치(200)를 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.
이미지 센서(240)는 광을 수신하고, 수신한 광에 대응하는 이미지 정보를 생성한다. 예를 들어, 이미지 센서(240)는 도 1을 참조하여 전술된 이미지 센서(100)일 수 있다.
통신부(210), 프로세서(220), 메모리(230) 및 이미지 센서(240)에 대해, 아래에서 도 3 내지 도 9를 참조하여 상세히 설명된다.
도 3은 일 실시예에 따른 컬러 정보 및 적외선 정보를 혼합한 이미지를 생성하는 방법의 흐름도이다.
아래의 단계들은 도 2를 참조하여 전술된 전자 장치(200)에 의해 수행된다.
단계(310)에서, 이미지 센서(240)는 하나 이상의 컬러 픽셀들에 기초하여 컬러 정보를 생성한다. 컬러 정보는 타겟 장면의 타겟 시점(target time)에 대한 정보일 수 있다.
단계(320)에서, 이미지 센서(240)는 하나 이상의 부가 픽셀들에 기초하여 적외선 정보를 생성한다. 적외선 정보는 타겟 장면의 타겟 시점에 대한 정보일 수 있다. 즉, 컬러 정보 및 적외선 정보는 동일한 장면에 대한 동일한 시점에 대한 정보일 수 있다.
단계(325)에서, 프로세서(220)는 조도 정보를 획득한다.
예를 들어, 전자 장치(200)의 조도 센서(도시되지 않음)를 통해 조도 정보가 획득될 수 있다. 조도 정보는 컬러 정보 및 적외선 정보가 생성된 시점인 타겟 시점에 대한 것일 수 있다.
다른 예로, 프로세서(200)는 컬러 정보에 기초하여 조도 정보를 획득할 수 있다. 예를 들어, 컬러 픽셀들의 값에 기초하여 조도 정보가 획득될 수 있다. 조도 정보는 외부의 밝기의 정도를 나타낼 수 있다.
단계(330)에서, 프로세서(220)는 이미지 센서(240)로부터 컬러 정보를 수신한다.
단계(340)에서, 프로세서(220)는 이미지 센서(240)로부터 적외선 정보를 수신한다.
단계(350)에서, 프로세서(220)는 획득된 조도 정보에 기초하여 컬러 정보에 대한 제1 가중치 및 적외선 정보에 대한 제2 가중치를 결정한다. 예를 들어, 제1 가중치는 밝기가 높을수록 크게 결정될 수 있다. 반대로, 제2 가중치는 밝기가 높을수록 작게 결정될 수 있다. 제1 가중치 및 제2 가중치의 합이 1이 되도록, 제1 가중치 및 제2 가중치가 결정된다. 제1 가중치가 결정되는 방법에 대해 아래에서 도 4를 참조하여 상세히 설명된다.
단계(360)에서, 프로세서(220)는 제1 가중치 및 제2 가중치에 기초하여 컬러 정보 및 적외선 정보를 혼합함으로써 혼합 정보를 생성한다.
단계(370)에서, 프로세서(220)는 혼합 정보에 기초하여 혼합 이미지를 생성한다. 서로 다른 비율로 컬러 정보 및 적외선 정보가 혼합되어 생성된 혼합 이미지들이 아래에서 도 5 내지 도 8을 참조하여 도시된다.
도 4는 일 예에 따른 밝기의 복수의 구간들에 대한 제1 가중치를 도시한다.
일 측면에 따르면, 밝기 값에 대한 전체 구간이 제1 구간(410), 제2 구간(420) 및 제3 구간(430)으로 구분될 수 있다. 예를 들어, 미리 설정된 밝기 값들(a, b)에 기초하여 제1 구간(410), 제2 구간(420) 및 제3 구간(430)이 구분될 수 있다.
조도 정보에 따른 밝기 값이 제1 구간(410)인 경우, 제1 가중치는 0으로 결정되고, 제2 가중치는 1로 결정된다. 제1 구간(410)에서 생성되는 혼합 이미지는 적외선 이미지일 수 있다.
조도 정보에 따른 밝기 값이 제2 구간(420)인 경우, 제1 가중치(440)는 아래의 [수학식 1]로 결정된다. 제2 구간(420)에서 생성되는 혼합 이미지는 컬러 정보 및 적외선 정보가 각각 적어도 일부 반영된 이미지일 수 있다. [수학식 1]에서, a, b는 미리 설정된 밝기 값들이고, x는 조도 정보에 따른 밝기 값이고, y는 밝기 값에 대한 제1 가중치이다.
Figure PCTKR2020014976-appb-img-000001
조도 정보에 따른 밝기 값이 제3 구간(430)인 경우, 제1 가중치(440)는 1로 결정되고, 제2 가중치는 0으로 결정된다. 제3 구간(430)에서 생성되는 혼합 이미지는 컬러 이미지일 수 있다.
도 5 내지 도 8은 일 예에 따른 혼합 이미지들을 도시한다.
도 5 내지 도 8은 동일한 장면(500)을 촬영한 이미지들이다. 도 5의 혼합 이미지는 도 4를 참조한 설명된 제1 구간(410), 제2 구간(420 및 제3 구간(430) 중 제3 구간(430)에서 생성된 이미지일 수 있고, 도 6 및 도 7의 혼합 이미지들은 제2 구간(420)에서 생성된 이미지일 수 있고, 도 8의 혼합 이미지는 제1 구간(410)에서 생성된 이미지일 수 있다.도 6 및 도 7의 혼합 이미지들은 모두 제2 구간(420)에서 생성된 이미지이지만, 도 6의 혼합 이미지에 대한 제1 가중치가 도 7의 혼합 이미지에 대한 제1 가중치에 비해 더 크다(즉, 도 6의 혼합 이미지가 더 밝은 환경에서 촬영됨).
장면(500) 내에는 제1 오브젝트(501) 및 제2 오브젝트(502)가 위치한다. 이미지들에서 나타난 제1 오브젝트(5101)의 색채들(510, 610, 710, 810)과 제2 오브젝트(502)의 색채들(520, 620, 720, 820) 중 도 5의 이미지에 나타난 색체(510) 및 색체(520)가 상대적으로 가장 선명하고(즉, 채도가 높음), 순서대로 도 8의 이미지에 나타난 색체(810) 및 색체(820)가 상대적으로 가장 선명하지 않다(즉, 채도가 낮음). 그러나, 도 5 내지 도 8의 이미지들 모두, 장면 내의 오브젝트들의 형상이 명확하게 나타난다.
도 9는 일 예에 따른 보간 혼합 정보에 기초하여 혼합 이미지를 생성하는 방법의 흐름도이다.
일 측면에 따르면, 도 3을 참조하여 전술된 단계(360)가 수행된 후, 아래의 단계(900)가 더 수행될 수 있다.
단계(900)에서, 프로세서(200)는 혼합 정보에 기초하여 보간 혼합 정보를 생성한다. 보간 혼합 정보의 생성은 디스플레이를 통해 이미지가 출력될 수 있도록 혼합 정보를 변환하는 것일 수 있다. 예를 들어, 보간 혼합 정보는 RGB 이미지 및 YUV 이미지에 대한 정보일 수 있다.
도 3을 참조하여 전술된 단계(370)는 아래의 단계(910)를 포함할 수 있다.
단계(910)에서, 프로세서(200)는 보간 혼합 정보에 기초하여 혼합 이미지를 생성한다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (16)

  1. 전자 장치에 의해 수행되는, 이미지 생성 방법은,
    하나 이상의 컬러 픽셀들로부터 컬러 정보를 수신하는 단계;
    하나 이상의 적외선 픽셀들로부터 적외선 정보를 수신하는 단계;
    획득된 조도 정보에 기초하여 상기 컬러 정보에 대한 제1 가중치 및 상기 적외선 정보에 대한 제2 가중치를 결정하는 단계;
    상기 제1 가중치 및 상기 제2 가중치에 기초하여 상기 컬러 정보 및 상기 적외선 정보를 혼합함으로써 혼합 정보를 생성하는 단계; 및
    상기 혼합 정보에 기초하여 혼합 이미지를 생성하는 단계
    를 포함하는,
    이미지 생성 방법.
  2. 제1항에 있어서,
    상기 하나 이상의 컬러 픽셀들 및 상기 하나 이상의 적외선 픽셀들은 이미지 센서의 타겟 어레이 내에 배치되는,
    이미지 생성 방법.
  3. 제2항에 있어서,
    상기 타겟 어레이는, 상기 하나 이상의 컬러 픽셀들의 각각에 상기 하나 이상의 적외선 픽셀들 중 타겟 적외선 픽셀이 인접하도록 상기 하나 이상의 컬러 픽셀들 및 상기 하나 이상의 적외선 픽셀들이 배치된,
    이미지 생성 방법.
  4. 제1항에 있어서,
    상기 컬러 정보 및 상기 적외선 정보는 타겟 장면의 타겟 시점(target time)에 대한 정보인,
    이미지 생성 방법.
  5. 제1항에 있어서,
    조도 센서를 이용하여 상기 조도 정보를 획득하는 단계
    를 더 포함하는,
    이미지 생성 방법.
  6. 제5항에 있어서,
    상기 컬러 정보 및 상기 적외선 정보는 타겟 장면의 타겟 시점에 대한 정보이고,
    상기 조도 정보는 상기 타겟 시점에서 획득되는,
    이미지 생성 방법.
  7. 제1항에 있어서,
    상기 혼합 정보에 기초하여 보간 혼합 정보를 생성하는 단계
    를 더 포함하고,
    상기 혼합 정보에 기초하여 혼합 이미지를 생성하는 단계는,
    상기 보간 혼합 정보에 기초하여 혼합 이미지를 생성하는 단계
    를 포함하는,
    이미지 생성 방법.
  8. 하드웨어와 결합되어 제1항의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
  9. 전자 장치는,
    혼합 이미지를 생성하는 프로그램이 기록된 메모리; 및
    상기 프로그램을 수행하는 프로세서
    를 포함하고,
    상기 프로그램은,
    하나 이상의 컬러 픽셀들로부터 컬러 정보를 수신하는 단계;
    하나 이상의 적외선 픽셀들로부터 적외선 정보를 수신하는 단계;
    획득된 조도 정보에 기초하여 상기 컬러 정보에 대한 제1 가중치 및 상기 적외선 정보에 대한 제2 가중치를 결정하는 단계;
    상기 제1 가중치 및 상기 제2 가중치에 기초하여 상기 컬러 정보 및 상기 적외선 정보를 혼합함으로써 혼합 정보를 생성하는 단계; 및
    상기 혼합 정보에 기초하여 혼합 이미지를 생성하는 단계
    를 수행하는,
    전자 장치.
  10. 제9항에 있어서,
    상기 컬러 정보 및 상기 적외선 정보를 생성하는 이미지 센서
    를 더 포함하는,
    전자 장치.
  11. 제10항에 있어서,
    상기 하나 이상의 컬러 픽셀들 및 상기 하나 이상의 적외선 픽셀들은 상기 이미지 센서의 타겟 어레이 내에 배치되는,
    전자 장치.
  12. 제11항에 있어서,
    상기 타겟 어레이는, 상기 하나 이상의 컬러 픽셀들의 각각에 상기 하나 이상의 적외선 픽셀들 중 타겟 적외선 픽셀이 인접하도록 상기 하나 이상의 컬러 픽셀들 및 상기 하나 이상의 적외선 픽셀들이 배치된,
    전자 장치.
  13. 제9항에 있어서,
    상기 컬러 정보 및 상기 적외선 정보는 타겟 장면의 타겟 시점에 대한 정보인,
    전자 장치.
  14. 제9항에 있어서,
    상기 조도 정보를 획득하는 조도 센서
    를 더 포함하는,
    전자 장치.
  15. 14항에 있어서,
    상기 컬러 정보 및 상기 적외선 정보는 타겟 장면의 타겟 시점에 대한 정보이고,
    상기 조도 정보는 상기 타겟 시점에서 획득되는,
    전자 장치.
  16. 제9항에 있어서,
    상기 프로그램은,
    상기 혼합 정보에 기초하여 보간 혼합 정보를 생성하는 단계
    를 더 수행하고,
    상기 혼합 정보에 기초하여 혼합 이미지를 생성하는 단계는,
    상기 보간 혼합 정보에 기초하여 혼합 이미지를 생성하는 단계
    를 포함하는,
    전자 장치.
PCT/KR2020/014976 2020-10-16 2020-11-02 컬러 정보 및 적외선 정보를 혼합한 이미지 생성 방법 및 장치 WO2022080550A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE112020007441.2T DE112020007441T5 (de) 2020-10-16 2020-11-02 Verfahren und Vorrichtung zur Erzeugung eines Bildes aus kombinierten Farb- und Infrarotinformationen

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0134043 2020-10-16
KR1020200134043A KR102372215B1 (ko) 2020-10-16 2020-10-16 컬러 정보 및 적외선 정보를 혼합한 이미지 생성 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2022080550A1 true WO2022080550A1 (ko) 2022-04-21

Family

ID=80816147

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/014976 WO2022080550A1 (ko) 2020-10-16 2020-11-02 컬러 정보 및 적외선 정보를 혼합한 이미지 생성 방법 및 장치

Country Status (3)

Country Link
KR (1) KR102372215B1 (ko)
DE (1) DE112020007441T5 (ko)
WO (1) WO2022080550A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006066A (ja) * 2003-06-12 2005-01-06 Acutelogic Corp 固体撮像素子用カラーフィルタおよびこれを用いたカラー撮像装置
JP2013247492A (ja) * 2012-05-25 2013-12-09 Konica Minolta Inc 物体検出装置
KR101747603B1 (ko) * 2016-05-11 2017-06-16 재단법인 다차원 스마트 아이티 융합시스템 연구단 컬러 나이트 비전 시스템 및 그 동작 방법
KR20190088439A (ko) * 2019-07-08 2019-07-26 엘지전자 주식회사 자율주행 차량의 내부 모니터링 방법 및 이를 위한 시스템
KR20190105760A (ko) * 2018-03-06 2019-09-18 한국철도기술연구원 영상 처리에 기반한 전기철도 팬터그래프 모니터링 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006066A (ja) * 2003-06-12 2005-01-06 Acutelogic Corp 固体撮像素子用カラーフィルタおよびこれを用いたカラー撮像装置
JP2013247492A (ja) * 2012-05-25 2013-12-09 Konica Minolta Inc 物体検出装置
KR101747603B1 (ko) * 2016-05-11 2017-06-16 재단법인 다차원 스마트 아이티 융합시스템 연구단 컬러 나이트 비전 시스템 및 그 동작 방법
KR20190105760A (ko) * 2018-03-06 2019-09-18 한국철도기술연구원 영상 처리에 기반한 전기철도 팬터그래프 모니터링 장치 및 방법
KR20190088439A (ko) * 2019-07-08 2019-07-26 엘지전자 주식회사 자율주행 차량의 내부 모니터링 방법 및 이를 위한 시스템

Also Published As

Publication number Publication date
DE112020007441T5 (de) 2023-05-17
KR102372215B1 (ko) 2022-03-10

Similar Documents

Publication Publication Date Title
WO2018084516A1 (ko) 전지 장치, 디스플레이 장치 및 그의 제어 방법
US20180152611A1 (en) Photographing Method, Photographing Apparatus, and Terminal
WO2015115802A1 (ko) 깊이 정보 추출 장치 및 방법
WO2020027607A1 (ko) 객체 탐지 장치 및 제어 방법
WO2011081226A1 (ko) 컬러 이미지를 그레이스케일 이미지로 변환하는 방법 및 이를 수행하는 프로그램이 기록된 기록매체
WO2014017816A1 (en) Apparatus and method to photograph an image
WO2021133025A1 (en) Electronic device comprising image sensor and method of operation thereof
WO2015160052A1 (ko) 광각 렌즈 이미지 보정 방법 및 그 장치
WO2017057926A1 (ko) 디스플레이 장치 및 이의 제어 방법
WO2019035551A1 (en) APPARATUS FOR COMPOSING OBJECTS USING DEPTH CARD AND ASSOCIATED METHOD
WO2021137555A1 (en) Electronic device comprising image sensor and method of operation thereof
WO2022080550A1 (ko) 컬러 정보 및 적외선 정보를 혼합한 이미지 생성 방법 및 장치
WO2019088407A1 (ko) 보색관계의 필터 어레이를 포함하는 카메라 모듈 및 그를 포함하는 전자 장치
WO2019160237A1 (en) Electronic device and method for controlling display of images
WO2017213335A1 (ko) 실시간 영상 합성 방법
EP3750093A1 (en) Method for generating plural information using camera to sense plural wave bandwidth and apparatus thereof
WO2017086522A1 (ko) 배경스크린이 필요 없는 크로마키 영상 합성 방법
WO2015178536A1 (ko) 화질 개선 장치, 이를 가지는 디지털 촬영 장치 및 화질 개선 방법
WO2014058234A1 (ko) 편광 차분 카메라를 이용한 영상처리 시스템
WO2012159586A1 (zh) 成像系统或图像输出系统中颜色畸变校正方法及装置
WO2014035050A1 (ko) 영상 밝기 조절 방법 및 그 장치와, 스테레오 카메라
WO2016003106A2 (ko) 멀티 애퍼처 카메라의 센서 어레이
JP2002109523A (ja) 撮像装置、光学フィルタ群および画像データ変換装置
WO2019156486A1 (ko) 디스플레이 장치
WO2018043916A1 (en) Display device and method for displaying image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20957795

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20957795

Country of ref document: EP

Kind code of ref document: A1