WO2022138226A1 - 画像生成装置、画像生成方法、およびプログラム - Google Patents

画像生成装置、画像生成方法、およびプログラム Download PDF

Info

Publication number
WO2022138226A1
WO2022138226A1 PCT/JP2021/045488 JP2021045488W WO2022138226A1 WO 2022138226 A1 WO2022138226 A1 WO 2022138226A1 JP 2021045488 W JP2021045488 W JP 2021045488W WO 2022138226 A1 WO2022138226 A1 WO 2022138226A1
Authority
WO
WIPO (PCT)
Prior art keywords
image generation
image
unit
pixel
hdr
Prior art date
Application number
PCT/JP2021/045488
Other languages
English (en)
French (fr)
Inventor
大典 川又
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US18/256,459 priority Critical patent/US20240031684A1/en
Priority to CN202180085041.3A priority patent/CN116670709A/zh
Publication of WO2022138226A1 publication Critical patent/WO2022138226A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/772Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising A/D, V/T, V/F, I/T or I/F converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously

Definitions

  • HDR High Dynamic Range
  • ADAS Advanced Driver Assistance System
  • FIG. 2 is a diagram showing a configuration example of a simulation system according to an embodiment of the present disclosure.
  • the simulation system 1 in FIG. 2 is composed of hardware, software, or a combination thereof.
  • the simulation system 1 is configured to simulate the operation of an automated driving system for automobiles and a camera system in ADAS.
  • the simulation system 1 is configured to include a three-dimensional rendering system 10, an image sensor model 20, and a simulation execution unit 30.
  • the image generation unit 51 generates a plurality of simulation images that reproduce a plurality of images having different storage times based on a physical quantity (energy quantity) corresponding to the light emitted to the image sensor (HDR image sensor).
  • the image generation unit 51 generates a plurality of simulation images based on the physical quantity corresponding to a predetermined frame.
  • a signal processing unit that performs signal processing such as pixel defect correction and noise reduction processing is included between the image generation unit 51 and the gradation compression unit 53.
  • the image generation unit 51 includes a photon number conversion unit 71, a CF transmittance multiplication unit 72-1 to 72-n, a wavelength range integration unit 73-1 to 73-n, a photoelectric conversion unit 74-1 to 74-n, and a voltage conversion unit. It has units 75-1 to 75-n and A / D conversion units 76-1 to 76-n.
  • the photon number conversion unit 71 converts the physical quantity corresponding to the predetermined position of the image sensor into the number of photons with respect to the physical quantity corresponding to the predetermined frame input to the image generation unit 51, and converts the physical quantity corresponding to the predetermined position into the number of photons, and the CF transmittance multiplication unit 72-1. It is supplied to each of to 72-n.
  • the photoelectric conversion unit 74 converts the number of photons from the wavelength range integration unit 73 into a charge amount (photoelectric conversion) for each storage time. According to the photoelectric conversion unit 74, the charge amount for each pixel is calculated for each storage time. The calculated charge amount for each pixel is supplied to the voltage conversion unit 75.
  • the functional block in the image generation unit 51 is configured in the order of the CF transmittance multiplication unit 72, the wavelength range integration unit 73, the photoelectric conversion unit 74, the voltage conversion unit 75, and the A / D conversion unit 76. However, some of these orders may be swapped.
  • h Planck's constant
  • c represents the speed of light.
  • step S32 the photon number conversion unit 71 distributes the converted photon number for each accumulation time. Specifically, the photon number conversion unit 71 supplies the converted photon number to each of the CF transmittance multiplication units 72-1, 72-2, ..., 72-n.
  • the wavelength range integrating unit 73 integrates the number of photons multiplied by the CF transmittance in the wavelength range ⁇ 1 to ⁇ 2 .
  • the wavelength range ⁇ 1 to ⁇ 2 is, for example, the entire wavelength range of visible light.
  • the number of photons integrated in the wavelength range ⁇ 1 to ⁇ 2 is expressed by the following equation.
  • the A / D conversion unit 76 converts the voltage value calculated for each pixel (sub-pixel) into a digital value. Specifically, the A / D conversion unit 76 multiplies the voltage value Vi of each pixel by the conversion coefficient dc i [digit / mV ] . The voltage value is converted into a digital value according to the bit accuracy (resolution) of the A / D conversion unit 76 by the conversion coefficient dc i . For example, if the bit precision is 12 bits, the voltage value is converted to take a value in the range 0-4095 by the conversion factor dc i . The converted digital values include quantization noise. As a result, the digital value DN i for each pixel (sub-pixel) expressed by the following formula is calculated for each accumulation time.
  • the HDR compositing unit 52 performs HDR compositing of each simulation image based on the digital value of each pixel calculated for each accumulation time. Specifically, the HDR synthesis unit 52 obtains a pixel signal of each pixel of the HDR image by performing threshold processing on the digital value DN i for each accumulation time for each pixel.
  • the digital values of each storage # 1, # 2, ..., # N are DN R1 , DN R2 , ...
  • the pixel signal HDR R of the R pixel in the HDR image is obtained by performing the threshold processing expressed by the following equation for DN Rn .
  • the digital value DN R1 having the highest sensitivity (the shortest accumulation time) and the threshold value th R1 are compared, and when the digital value DN R1 is smaller than the threshold value th R1 , the digital value DN R1 is set.
  • the value g R1 ⁇ DN R1 multiplied by the gain g R1 is determined as the pixel signal HDR R.
  • the digital value DN R2 having the next highest sensitivity (the next shortest accumulation time) and the threshold value th R2 are compared.
  • the value g R2 ⁇ DN R2 obtained by multiplying the digital value DN R2 by the gain g R2 is determined as the pixel signal HDR R.
  • Such comparisons are made in the same way up to the digital value DN Rn , which has the lowest sensitivity (longest storage time).
  • the gradation compression unit 53 layerally compresses the pixel signal of the HDR image obtained by HDR synthesis according to the transmission band. For example, when the pixel signal of the HDR image obtained by HDR synthesis is 24 bits, the gradation compression unit 53 downsamples to 12 bits by a method such as polygonal line compression or adaptive gradation conversion. The layered compression of the pixel signal may be executed as needed.
  • digital signal processing such as pixel defect correction and noise reduction may be performed between steps S11 and S12, or between steps S12 and S13.
  • FIG. 6 is a block diagram showing a configuration example of the image sensor model 20 according to the second embodiment.
  • the image sensor model 20 of FIG. 6 is configured to include an image generation unit 151, an HDR composition unit 52, and a gradation compression unit 53. Since the HDR composition unit 52 and the gradation compression unit 53 have the same configuration as that of the image sensor model 20 of FIG. 3, the description thereof will be omitted.
  • the image generation unit 151 is similar to the image generation unit 51 in FIG. 3 in that it generates a plurality of simulation images that reproduce a plurality of images having different storage times based on the physical quantity corresponding to the light emitted to the image sensor. Is. However, the image generation unit 151 is different from the image generation unit 51 in FIG. 3 in that a plurality of simulation images are generated based on the physical quantities corresponding to the frames at different timings.
  • the simulation image generated by the image generation unit 151 is image data assuming so-called DOL (Digital Overlap) HDR composition in which the same subject is imaged at different timings under different exposure conditions.
  • DOL Digital Overlap
  • the image generation unit 151 includes photon number conversion units 71-1 to 71-n, CF transmittance multiplication units 72-1 to 72-n, wavelength range integration units 73-1 to 73-n, and photoelectric conversion units 74-1 to It has 74-n, voltage conversion units 75-1 to 75-n, and A / D conversion units 76-1 to 76-n.
  • the image generation unit 151 is different from the image generation unit 51 in FIG. 3 in that the photon number conversion unit 71 is provided for each storage time (storage # 1, # 2, # n). That is, the photon number conversion unit 71 converts the physical quantity corresponding to the predetermined position of the image sensor into the photon number for the physical quantity corresponding to the frame at different timing for each accumulation time, and supplies the physical quantity to the CF transmittance multiplication unit 72. do.
  • the operation of the image sensor model 20 of FIG. 6 is basically the same as the operation of the image sensor model 20 of FIG. 3 described with reference to the flowchart of FIG. However, the image sensor model 20 of FIG. 6 executes the simulation image generation process shown in the flowchart of FIG. 7 as the simulation image generation process in step S11 of FIG.
  • the simulation image generation process of FIG. 7 is executed in parallel for each accumulation time.
  • step S71 the photon number conversion unit 71 converts the spectral irradiance E ( ⁇ ) input corresponding to the frame at different timing into the photon number for each storage time.
  • the processing after step S72 is executed in the same manner as the processing of step S33 (steps S51 to S55) in the flowchart of FIG.
  • SNR Drop can be reproduced for the HDR image sensor assuming the HDR composition of the DOL method as well as the actual HDR image sensor. This makes it possible to correctly evaluate the recognition performance of the image recognition algorithm in the simulation by the simulation execution unit 30.
  • the series of processes described above can be executed by software.
  • the programs that make up the software are installed on your computer.
  • the computer includes a computer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.
  • a series of processes may be executed by hardware.
  • FIG. 8 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes programmatically.
  • the CPU 301 the CPU 301, the ROM (ReadOnlyMemory) 302, and the RAM (RandomAccessMemory) 303 are connected to each other by the bus 304.
  • An input / output interface 305 is further connected to the bus 304.
  • An input unit 306, an output unit 307, a storage unit 308, a communication unit 309, and a drive 310 are connected to the input / output interface 305.
  • the input unit 306 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 307 includes a display, a speaker, and the like.
  • the storage unit 308 includes a hard disk, a non-volatile memory, and the like.
  • the communication unit 309 includes a network interface and the like.
  • the drive 310 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 301 loads the program stored in the storage unit 308 into the RAM 303 via the input / output interface 305 and the bus 304, and executes the above-mentioned series. Is processed.
  • the program executed by the computer (CPU301) can be recorded and provided on the removable media 311 as a package media or the like, for example. Programs can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasts.
  • the program can be installed in the storage unit 308 via the input / output interface 305 by mounting the removable media 311 in the drive 310. Further, the program can be received by the communication unit 309 via a wired or wireless transmission medium and installed in the storage unit 308. In addition, the program can be installed in the ROM 302 or the storage unit 308 in advance.
  • the program executed by the computer may be a program in which processing is performed in chronological order according to the order described in the present specification, in parallel, or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • An image generator that generates multiple simulation images that reproduce multiple images with different storage times based on the physical quantity corresponding to the light emitted to the image sensor.
  • An image generation device including an HDR compositing unit that performs HDR compositing of a plurality of the simulation images.
  • the image generation device has a conversion unit that converts the physical quantity corresponding to a predetermined position of the image sensor into the number of photons.
  • the image generation unit has a multiplication unit that multiplies the number of photons by the transmittance of the color filter corresponding to each pixel of the image sensor for each storage time.
  • the image generation unit has a wavelength range integration unit that integrates the number of photons for a predetermined wavelength range for each storage time.
  • the image generation device has a photoelectric conversion unit that converts the number of photons into an amount of electric charge for each storage time.
  • the photoelectric conversion unit calculates the charge amount for each pixel for each storage time by multiplying the pixel area and the number of photons integrated for the storage time by the quantum efficiency. Generator.
  • the photoelectric conversion unit adds a predetermined noise component to the charge amount calculated for each pixel.
  • the image generation unit A voltage conversion unit that converts the amount of electric charge for each pixel into a voltage value for each storage time.
  • the image generation device which has an A / D conversion unit that generates the simulation image by converting the voltage value for each pixel into a digital value for each storage time.
  • the image generation device (12) The image generation device according to (11), wherein the voltage conversion unit adds a predetermined noise component to the voltage value converted for each pixel.
  • the image generation device according to any one of (1) to (12), further comprising a gradation compression unit that compresses the HDR image in gradations according to the transmission band of the HDR image obtained by the HDR synthesis.
  • the image generator Based on the physical quantity corresponding to the light emitted to the image sensor, multiple simulation images that reproduce multiple images with different storage times are generated. An image generation method for performing HDR composition of a plurality of the simulation images.
  • On the computer Based on the physical quantity corresponding to the light emitted to the image sensor, multiple simulation images that reproduce multiple images with different storage times are generated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)

Abstract

本開示は、画像認識アルゴリズムの認識性能を正しく評価することができるようにする画像生成装置、画像生成方法、およびプログラムに関する。 画像生成部は、イメージセンサに照射される光に対応する物理量に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成し、HDR合成部は、複数のシミュレーション画像のHDR合成を行う。本技術は、イメージセンサモデルに適用することができる。

Description

画像生成装置、画像生成方法、およびプログラム
 本開示は、画像生成装置、画像生成方法、およびプログラムに関し、特に、画像認識アルゴリズムの認識性能を正しく評価できるようにする画像生成装置、画像生成方法、およびプログラムに関する。
 自動運転システムの開発においては、仮想空間上のシミュレーションによる画像認識アルゴリズムの検証が行われる。このような画像認識アルゴリズムの検証においては、イメージセンサのセンサモデルを用いて、実写の画像に極めて類似した入力画像がCG(Computer Graphics)合成技術で生成される。
 特許文献1には、航空機のシミュレーション環境において、センサモデルに対してノイズや飽和を再現させるようにした三次元カメラのシミュレーションシステムが開示されている。
特開2013-117958号公報
 近年、自動車向けの自動運転システムやADAS(Advanced Driver Assistance System)においては、HDR(High Dynamic Range)イメージセンサが用いられている。
 しかしながら、自動車向けのシミュレーション環境においては、HDRイメージセンサを用いた場合のノイズなどを再現することまでは考慮されておらず、画像認識アルゴリズムの認識性能を正しく評価できないおそれがあった。
 本開示は、このような状況に鑑みてなされたものであり、画像認識アルゴリズムの認識性能を正しく評価するようにするものである。
 本開示の画像生成装置は、イメージセンサに照射される光に対応する物理量に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成する画像生成部と、複数の前記シミュレーション画像のHDR合成を行うHDR合成部とを備える画像生成装置である。
 本開示の画像生成方法は、画像生成装置が、イメージセンサに照射される光に対応する物理量に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成し、複数の前記シミュレーション画像のHDR合成を行う画像生成方法である。
 本開示のプログラムは、コンピュータに、イメージセンサに照射される光に対応する物理量に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成し、複数の前記シミュレーション画像のHDR合成を行う処理を実行させるためのプログラムである。
 本開示においては、イメージセンサに照射される光に対応する物理量に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像が生成され、複数の前記シミュレーション画像のHDR合成が行われる。
SNR Dropの例を示す図である。 本開示の一実施の形態に係るシミュレーションシステムの構成例を示す図である。 第1の実施の形態に係るイメージセンサモデルの構成例を示すブロック図である。 イメージセンサモデルの動作について説明するフローチャートである。 シミュレーション画像生成処理について説明するフローチャートである。 第2の実施の形態に係るイメージセンサモデルの構成例を示すブロック図である。 シミュレーション画像生成処理について説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.従来技術の課題
 2.シミュレーションシステムの構成例
 3.第1の実施の形態に係るイメージセンサモデル(多重露光方式)
 4.第2の実施の形態に係るイメージセンサモデル(DOL方式)
 5.コンピュータの構成例
<1.従来技術の課題>
 自動運転システムの開発においては、仮想空間上のシミュレーションによる画像認識アルゴリズムの検証が行われる。このような画像認識アルゴリズムの検証においては、イメージセンサのセンサモデルを用いて、実写の画像に極めて類似した入力画像がCG合成技術で生成される。
 近年、自動車向けの自動運転システムやADASにおいては、HDRイメージセンサが用いられている。異なる蓄積時間で撮像された複数の画像を合成するHDRイメージセンサにおいては、蓄積時間が変わる際に、SNR Dropと呼ばれるSNRの低下が生じることが知られており、画像認識アルゴリズムの認識性能が低下する。SNR(Signal-to-Noise Ratio)は、信号に対する雑音の比である。
 図1は、異なる3つの蓄積時間で撮像した場合のSNR Dropの例を示している。図1に示されるSNR曲線の詳細は、https://www.image-engineering.de/content/library/white_paper/P2020_white_paper.pdfに開示されている。https://www.image-engineering.de/content/library/white_paper/P2020_white_paper.pdf図1においては、照度(ダイナミックレンジ)に対するSNRが示されており、HDR合成の境界において、SNRが大きく低下している。
 しかしながら、自動車向けのシミュレーション環境において、画像認識アルゴリズムの認識性能を評価するには、図1のようなSNR Dropを再現することが必要であった。
 そこで、本開示に係る技術においては、自動車向けのシミュレーション環境においてSNR Dropを再現することを実現する。
<2.シミュレーションシステムの構成例>
 図2は、本開示の一実施の形態に係るシミュレーションシステムの構成例を示す図である。
 図2のシミュレーションシステム1は、ハードウェア、ソフトウェア、またはこれらの組み合わせにより構成される。シミュレーションシステム1は、自動車向けの自動運転システムやADASにおけるカメラシステムの動作をシミュレーションするように構成される。
 シミュレーションシステム1は、三次元レンダリングシステム10、イメージセンサモデル20、およびシミュレーション実行部30を含むように構成される。
 三次元レンダリングシステム10は、自動運転システムやADASにおけるカメラシステムの動作をシミュレーションするための入力画像の画像データを生成し、イメージセンサモデル20に供給する。入力画像には、例えば、道路や、道路を走行する車両などが含まれる。
 イメージセンサモデル20は、三次元レンダリングシステム10からの画像データに基づいて、カメラシステムによって得られる三次元画像をシミュレーションしたCG画像を生成し、シミュレーション実行部30に供給する。
 シミュレーション実行部30は、イメージセンサモデル20からのCG画像を用いて、あらかじめ用意された画像認識アルゴリズムにより、カメラシステムの動作をシミュレーションする。シミュレーション実行部30によるシミュレーションの結果により、画像認識アルゴリズムの認識性能が評価される。
 以下においては、シミュレーションシステム1を構成するイメージセンサモデル20の実施の形態について説明する。
<3.第1の実施の形態に係るイメージセンサモデル>
(イメージセンサモデルの構成例)
 図3は、第1の実施の形態に係るイメージセンサモデル20の構成例を示すブロック図である。
 図3のイメージセンサモデル20は、画像生成部51、HDR合成部52、および階調圧縮部53を含むように構成される。
 画像生成部51は、イメージセンサ(HDRイメージセンサ)に照射される光に対応する物理量(エネルギー量)に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成する。画像生成部51は、所定の1フレームに対応する物理量を基に、複数のシミュレーション画像を生成する。
 すなわち、画像生成部51により生成されるシミュレーション画像は、同一被写体を異なる露光条件で同時に撮像する多重露光方式のHDR合成を想定した画像データと言える。生成された複数のシミュレーション画像は、HDR合成部52に供給される。
 HDR合成部52は、画像生成部51から供給された複数のシミュレーション画像のHDR合成を行う。HDR合成により得られたHDR画像は、階調圧縮部53に供給される。
 階調圧縮部53は、HDR合成部52からのHDR画像の伝送帯域(イメージセンサモデル20とシミュレーション実行部30との間の伝送路の帯域)に応じて、HDR画像を階調圧縮する。具体的には、階調圧縮部53は、HDR画像の各画素の輝度値毎に圧縮率を変更する。例えば、高輝度の画素データの下位ビットには重要な情報は含まれないので、その下位ビットが圧縮される。階調圧縮されたHDR画像の画像データは、シミュレーション実行部30に供給される。
 なお、図示はしないが、画像生成部51と階調圧縮部53との間には、画素欠陥補正やノイズリダクション処理などの信号処理を行う信号処理部が含まれているものとする。
 画像生成部51は、光子数換算部71、CF透過率乗算部72-1乃至72-n、波長範囲積算部73-1乃至73-n、光電変換部74-1乃至74-n、電圧変換部75-1乃至75-n、およびA/D変換部76-1乃至76-nを有する。
 光子数換算部71は、画像生成部51に入力された所定の1フレームに対応する物理量について、イメージセンサの所定位置に対応する物理量を、光子数に換算し、CF透過率乗算部72-1乃至72-nそれぞれに供給する。
 CF透過率乗算部72-1乃至72-n(72-1,72-2,・・・,72-n)以降の機能ブロックは、蓄積時間(以下、蓄#1,#2,・・・,#nなどともいう)毎に設けられている。nは、一般的なHDR合成を想定した場合、例えば3または4とされる。以下において、蓄積時間毎の機能ブロックをそれぞれ区別しない場合には、符号の末尾の“-1”,“-2”,“-n”を省略して説明する。
 CF透過率乗算部72は、蓄積時間毎に、光子数換算部71からの光子数に、イメージセンサの各画素に対応するカラーフィルタ(CF)の透過率を乗算する。CFの透過率が乗算された光子数は、波長範囲積算部73に供給される。
 波長範囲積算部73は、蓄積時間毎に、CF透過率乗算部72からの光子数を所定の波長範囲について積算する。波長範囲について積算された光子数は、光電変換部74に供給される。
 光電変換部74は、蓄積時間毎に、波長範囲積算部73からの光子数を電荷量に変換(光電変換)する。光電変換部74によれば、蓄積時間毎に、画素毎の電荷量が算出される。算出された画素毎の電荷量は、電圧変換部75に供給される。
 電圧変換部75は、蓄積時間毎に、光電変換部74からの画素毎の電荷量をアナログの電圧値に変換し、A/D変換部76に供給する。
 A/D変換部76は、蓄積時間毎に、電圧変換部75からの画素毎の電圧値をデジタル値に変換(A/D変換)することで、蓄積時間毎のシミュレーション画像を生成する。それぞれのシミュレーション画像は、HDR合成部52に供給される。
 なお、図3の例では、画像生成部51における機能ブロックが、CF透過率乗算部72、波長範囲積算部73、光電変換部74、電圧変換部75、およびA/D変換部76の順に構成されるものとしたが、これらの一部の順序は入れ替わってもよい。
(イメージセンサモデルの動作)
 図4のフローチャートを参照して、図3のイメージセンサモデル20の動作について説明する。図4の処理は、イメージセンサモデル20に、例えば30fpsなどのフレームレートで、入力画像の各フレームに対応する物理量が入力される度に実行される。
 本実施の形態においては、物理量として、分光放射照度E(λ)[W/m2/nm]が入力される。分光放射照度E(λ)は、単位面積あたりの波長毎の照度を表す。
 ステップS11において、画像生成部51は、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成するシミュレーション画像生成処理を実行する。
 図5は、ステップS11におけるシミュレーション画像生成処理について説明するフローチャートである。
 ステップS31において、光子数換算部71は、入力された分光放射照度E(λ)を光子エネルギーhν=hc/λで除算することで、分光放射照度E(λ)を光子数に換算する。ここで、hはプランク定数、cは光の速さを表す。E(λ)=hνで示すものとすると、単位面積あたり単位時間あたりの波長毎の光子数は、以下の式で表される。
Figure JPOXMLDOC01-appb-M000001
 ステップS32において、光子数換算部71は、換算した光子数を蓄積時間毎に分配する。具体的には、光子数換算部71は、換算した光子数を、CF透過率乗算部72-1,72-2,・・・,72-nそれぞれに供給する。
 ステップS33においては、ステップS51乃至S55の処理が、蓄積時間(蓄#1,#2,・・・,#n)毎に並列して実行される。
 ステップS51において、CF透過率乗算部72は、光子数換算部71により換算された光子数に、CFの透過率を乗算する。CFの透過率をS(λ)で示すものとすると、CFの透過率が乗算された光子数は、以下の式で表される。
Figure JPOXMLDOC01-appb-M000002
 なお、iはCFのサブピクセルの各色を表す。
 ステップS52において、波長範囲積算部73は、CFの透過率が乗算された光子数を、波長範囲λ乃至λで積算する。波長範囲λ乃至λは、例えば可視光線の全ての波長範囲とされる。波長範囲λ乃至λで積算された光子数は、以下の式で表される。
Figure JPOXMLDOC01-appb-M000003
 ステップS53において、光電変換部74は、波長範囲λ乃至λで積算された光子数を電荷量に光電変換する。具体的には、光電変換部74は、波長範囲λ乃至λで積算された光子数に、画素面積A[m2](サブピクセル面積)と蓄積時間t[sec]、さらに量子効率q[e-]を乗算する。ここで、蓄積時間tは、各蓄#1,#2,・・・,#nで異なる長さとされる。これにより、蓄積時間毎に、以下の式で表される、画素(サブピクセル)毎の電荷量Nが算出される。
Figure JPOXMLDOC01-appb-M000004
 但し、電荷量Nが画素飽和量FWC[e-]を超えた場合、電荷量NはFWCにクリップされる。
 また、光電変換部74は、必要に応じて、画素(サブピクセル)毎に算出された電荷量Nに所定のノイズ成分を付加する。付加されるノイズ成分は、光ショットノイズ、感度不均一性(PRNU:Photo Response Non-Uniformity)、暗時出力不均一性(DSNU:Dark Signal Non-Uniformity)、暗時白点などがある。これにより、画素の不均一性が再現される。
 ステップS54において、電圧変換部75は、画素(サブピクセル)毎に算出された電荷量をアナログの電圧値に変換する。具体的には、電圧変換部75は、各画素の電荷量Nに、変換効率ce[mV/e-]を乗算する。これにより、蓄積時間毎に、以下の式で表される、画素(サブピクセル)毎の電圧値Vが算出される。
Figure JPOXMLDOC01-appb-M000005
 但し、電圧値Vが飽和電圧u[mV]を超えた場合、電圧値Vはuにクリップされる。
 また、電圧変換部75は、必要に応じて、画素(サブピクセル)毎に算出された電圧値Vに所定のノイズ成分を付加する。付加されるノイズ成分は、FD(Floating Diffusion)アンプノイズなどのランダムノイズがある。これにより、画素の不均一性が再現される。
 ステップS55において、A/D変換部76は、画素(サブピクセル)毎に算出された電圧値をデジタル値に変換する。具体的には、A/D変換部76は、各画素の電圧値Vに、変換係数dc[digit/mV]を乗算する。電圧値は、変換係数dcにより、A/D変換部76のビット精度(分解能)に応じてデジタル値に変換される。例えば、ビット精度が12ビットの場合、電圧値は、変換係数dcにより、0乃至4095の範囲の値を取るように変換される。変換されたデジタル値には、量子化ノイズが含まれる。これにより、蓄積時間毎に、以下の式で表される、画素(サブピクセル)毎のデジタル値DNが算出される。
Figure JPOXMLDOC01-appb-M000006
 このようにして、蓄積時間毎に算出された各画素のデジタル値は、蓄積時間の異なる画像を再現したシミュレーション画像として、それぞれHDR合成部52に供給され、処理は図4のステップS11に戻る。
 図4のステップS12において、HDR合成部52は、蓄積時間毎に算出された、各画素のデジタル値に基づいて、各シミュレーション画像のHDR合成を行う。具体的には、HDR合成部52は、各画素について、蓄積時間毎のデジタル値DNに対して閾値処理を行うことで、HDR画像の各画素の画素信号を求める。
 例えば、ベイヤ配列のR画素、G画素、B画素のうち、R画素のHDR合成を行う場合、各蓄#1,#2,・・・,#nのデジタル値DNR1,DNR2,・・・,DNRnに対して、以下の式で表される閾値処理が行われることで、HDR画像におけるR画素の画素信号HDRが求められる。
Figure JPOXMLDOC01-appb-M000007
 上記の式によれば、感度が最も高い(蓄積時間が最も短い)デジタル値DNR1と閾値thR1とが比較され、デジタル値DNR1が閾値thR1より小さい場合には、デジタル値DNR1にゲインgR1を乗じた値gR1・DNR1が画素信号HDRに決定される。デジタル値DNR1が閾値thR1より大きい場合には、感度が次に高い(蓄積時間が次に短い)デジタル値DNR2と閾値thR2とが比較される。デジタル値DNR2が閾値thR2より小さい場合には、デジタル値DNR2にゲインgR2を乗じた値gR2・DNR2が画素信号HDRに決定される。このような比較が、感度が最も低い(蓄積時間が最も長い)デジタル値DNRnに至るまで同様にして行われる。
 ステップS13において、階調圧縮部53は、HDR合成により得られたHDR画像の画素信号を、伝送帯域に応じて階層圧縮する。例えば、HDR合成により得られたHDR画像の画素信号が24ビットの場合、階調圧縮部53は、折れ線圧縮や適応型階調変換などの手法により、12ビットにダウンサンプリングする。なお、画素信号の階層圧縮は、必要に応じて実行されればよい。
 また、ステップS11とステップS12との間、または、ステップS12とステップS13との間において、画素の欠陥補正やノイズリダクションなどのデジタル信号処理が行われるようにしてもよい。
 以上の処理によれば、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像が生成され、HDR合成が行われるので、実際のHDRイメージセンサと同様、SNR Dropが再現可能となる。これにより、シミュレーション実行部30によるシミュレーションにおける画像認識アルゴリズムの認識性能を正しく評価することが可能となる。
<4.第2の実施の形態に係るイメージセンサモデル>
(イメージセンサモデルの構成例)
 図6は、第2の実施の形態に係るイメージセンサモデル20の構成例を示すブロック図である。
 図6のイメージセンサモデル20は、画像生成部151、HDR合成部52、および階調圧縮部53を含むように構成される。HDR合成部52と階調圧縮部53は、図3のイメージセンサモデル20が備える構成と同様であるので、その説明は省略する。
 画像生成部151は、イメージセンサに照射される光に対応する物理量に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成する点で、図3の画像生成部51と同様である。但し、画像生成部151は、異なるタイミングのフレームに対応する物理量それぞれを基に、複数のシミュレーション画像を生成する点で、図3の画像生成部51と異なる。
 すなわち、画像生成部151により生成されるシミュレーション画像は、同一被写体を異なる露光条件で異なるタイミングで撮像する、いわゆるDOL(Digital Overlap)方式のHDR合成を想定した画像データと言える。
 画像生成部151は、光子数換算部71-1乃至71-n、CF透過率乗算部72-1乃至72-n、波長範囲積算部73-1乃至73-n、光電変換部74-1乃至74-n、電圧変換部75-1乃至75-n、およびA/D変換部76-1乃至76-nを有する。
 画像生成部151は、光子数換算部71が蓄積時間(蓄#1,#2,#n)毎に設けられている点で、図3の画像生成部51と異なる。すなわち、光子数換算部71は、蓄積時間毎に、それぞれ異なるタイミングのフレームに対応する物理量について、イメージセンサの所定位置に対応する物理量を、光子数に換算し、CF透過率乗算部72に供給する。
 CF透過率乗算部72-1乃至72-n(72-1,72-2,・・・,72-n)以降の機能ブロックは、図3の画像生成部51が備える構成と同様であるので、その説明は省略する。
(イメージセンサモデルの動作)
 図6のイメージセンサモデル20の動作は、基本的には、図4のフローチャートを参照して説明した図3のイメージセンサモデル20の動作と同様である。但し、図6のイメージセンサモデル20は、図4のステップS11におけるシミュレーション画像生成処理として、図7のフローチャートに示されるシミュレーション画像生成処理を実行する。
 図7のシミュレーション画像生成処理は、蓄積時間毎に並列して実行される。
 すなわち、ステップS71において、光子数換算部71は、蓄積時間毎に、異なるタイミングのフレームに対応して入力された分光放射照度E(λ)を光子数に換算する。ステップS72以降の処理は、図5のフローチャートのステップS33(ステップS51乃至S55)の処理と同様にして実行される。
 以上の処理によれば、DOL方式のHDR合成を想定したHDRイメージセンサについても、実際のHDRイメージセンサと同様、SNR Dropが再現可能となる。これにより、シミュレーション実行部30によるシミュレーションにおける画像認識アルゴリズムの認識性能を正しく評価することが可能となる。
<5.コンピュータの構成例>
 上述した一連の処理は、ソフトウェアにより実行することができる。その場合、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。なお、一連の処理が、ハードウェアにより実行されるようにしてもよい。
 図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。
 バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、およびドライブ310が接続されている。
 入力部306は、キーボード、マウス、マイクロフォンなどよりなる。出力部307は、ディスプレイ、スピーカなどよりなる。記憶部308は、ハードディスクや不揮発性のメモリなどよりなる。通信部309は、ネットワークインタフェースなどよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア311を駆動する。
 以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305およびバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU301)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア311に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、本開示は以下のような構成をとることができる。
(1)
 イメージセンサに照射される光に対応する物理量に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成する画像生成部と、
 複数の前記シミュレーション画像のHDR合成を行うHDR合成部と
 を備える画像生成装置。
(2)
 前記画像生成部は、所定の1フレームに対応する前記物理量を基に、複数の前記シミュレーション画像を生成する
 (1)に記載の画像生成装置。
(3)
 前記画像生成部は、異なるタイミングのフレームに対応する前記物理量それぞれを基に、複数の前記シミュレーション画像を生成する
 (1)に記載の画像生成装置。
(4)
 前記物理量は、分光放射照度である
 (1)乃至(3)のいずれかに記載の画像生成装置。
(5)
 前記画像生成部は、前記イメージセンサの所定位置に対応する前記物理量を、光子数に換算する換算部を有する
 (1)乃至(4)のいずれかに記載の画像生成装置。
(6)
 前記画像生成部は、前記蓄積時間毎に、前記光子数に、前記イメージセンサの各画素に対応するカラーフィルタの透過率を乗算する乗算部を有する
 (5)に記載の画像生成装置。
(7)
 前記画像生成部は、前記蓄積時間毎に、前記光子数を所定の波長範囲について積算する波長範囲積算部を有する
 (6)に記載の画像生成装置。
(8)
 前記画像生成部は、前記蓄積時間毎に、前記光子数を電荷量に変換する光電変換部を有する
 (7)に記載の画像生成装置。
(9)
 前記光電変換部は、画素面積と前記蓄積時間について積算した前記光子数に量子効率を乗算することで、前記蓄積時間毎に、前記画素毎の前記電荷量を算出する
 (8)に記載の画像生成装置。
(10)
 前記光電変換部は、前記画素毎に算出された前記電荷量に所定のノイズ成分を付加する
 (9)に記載の画像生成装置。
(11)
 前記画像生成部は、
  前記蓄積時間毎に、前記画素毎の前記電荷量を電圧値に変換する電圧変換部と、
  前記蓄積時間毎に、前記画素毎の前記電圧値をデジタル値に変換することで、前記シミュレーション画像を生成するA/D変換部とを有する
 (9)または(10)に記載の画像生成装置。
(12)
 前記電圧変換部は、前記画素毎に変換された前記電圧値に所定のノイズ成分を付加する
 (11)に記載の画像生成装置。
(13)
 前記HDR合成により得られたHDR画像の伝送帯域に応じて、前記HDR画像を階調圧縮する階調圧縮部をさらに備える
 (1)乃至(12)のいずれかに記載の画像生成装置。
(14)
 画像生成装置が、
 イメージセンサに照射される光に対応する物理量に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成し、
 複数の前記シミュレーション画像のHDR合成を行う
 画像生成方法。
(15)
 コンピュータに、
 イメージセンサに照射される光に対応する物理量に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成し、
 複数の前記シミュレーション画像のHDR合成を行う
 処理を実行させるためのプログラム。
 1 シミュレーションシステム, 10 イメージセンサモデル, 20 三次元レンダリングシステム, 30 シミュレーション実行部, 51 画像生成部, 52 HDR合成部, 53 階調圧縮部, 71 光子数換算部, 72 CF透過率乗算部, 73 波長範囲積算部, 74 光電変換部, 75 電圧変換部, 76 A/D変換部

Claims (15)

  1.  イメージセンサに照射される光に対応する物理量に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成する画像生成部と、
     複数の前記シミュレーション画像のHDR合成を行うHDR合成部と
     を備える画像生成装置。
  2.  前記画像生成部は、所定の1フレームに対応する前記物理量を基に、複数の前記シミュレーション画像を生成する
     請求項1に記載の画像生成装置。
  3.  前記画像生成部は、異なるタイミングのフレームに対応する前記物理量それぞれを基に、複数の前記シミュレーション画像を生成する
     請求項1に記載の画像生成装置。
  4.  前記物理量は、分光放射照度である
     請求項1に記載の画像生成装置。
  5.  前記画像生成部は、前記イメージセンサの所定位置に対応する前記物理量を、光子数に換算する換算部を有する
     請求項1に記載の画像生成装置。
  6.  前記画像生成部は、前記蓄積時間毎に、前記光子数に、前記イメージセンサの各画素に対応するカラーフィルタの透過率を乗算する乗算部を有する
     請求項5に記載の画像生成装置。
  7.  前記画像生成部は、前記蓄積時間毎に、前記光子数を所定の波長範囲について積算する波長範囲積算部を有する
     請求項6に記載の画像生成装置。
  8.  前記画像生成部は、前記蓄積時間毎に、前記光子数を電荷量に変換する光電変換部を有する
     請求項7に記載の画像生成装置。
  9.  前記光電変換部は、画素面積と前記蓄積時間について積算した前記光子数に量子効率を乗算することで、前記蓄積時間毎に、前記画素毎の前記電荷量を算出する
     請求項8に記載の画像生成装置。
  10.  前記光電変換部は、前記画素毎に算出された前記電荷量に所定のノイズ成分を付加する
     請求項9に記載の画像生成装置。
  11.  前記画像生成部は、
      前記蓄積時間毎に、前記画素毎の前記電荷量を電圧値に変換する電圧変換部と、
      前記蓄積時間毎に、前記画素毎の前記電圧値をデジタル値に変換することで、前記シミュレーション画像を生成するA/D変換部とを有する
     請求項9に記載の画像生成装置。
  12.  前記電圧変換部は、前記画素毎に変換された前記電圧値に所定のノイズ成分を付加する
     請求項11に記載の画像生成装置。
  13.  前記HDR合成により得られたHDR画像の伝送帯域に応じて、前記HDR画像を階調圧縮する階調圧縮部をさらに備える
     請求項1に記載の画像生成装置。
  14.  画像生成装置が、
     イメージセンサに照射される光に対応する物理量に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成し、
     複数の前記シミュレーション画像のHDR合成を行う
     画像生成方法。
  15.  コンピュータに、
     イメージセンサに照射される光に対応する物理量に基づいて、蓄積時間の異なる複数の画像を再現した複数のシミュレーション画像を生成し、
     複数の前記シミュレーション画像のHDR合成を行う
     処理を実行させるためのプログラム。
PCT/JP2021/045488 2020-12-23 2021-12-10 画像生成装置、画像生成方法、およびプログラム WO2022138226A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/256,459 US20240031684A1 (en) 2020-12-23 2021-12-10 Image generation apparatus, image generation method, and program
CN202180085041.3A CN116670709A (zh) 2020-12-23 2021-12-10 图像生成装置、图像生成方法和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-213546 2020-12-23
JP2020213546A JP2022099651A (ja) 2020-12-23 2020-12-23 画像生成装置、画像生成方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2022138226A1 true WO2022138226A1 (ja) 2022-06-30

Family

ID=82159090

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/045488 WO2022138226A1 (ja) 2020-12-23 2021-12-10 画像生成装置、画像生成方法、およびプログラム

Country Status (4)

Country Link
US (1) US20240031684A1 (ja)
JP (1) JP2022099651A (ja)
CN (1) CN116670709A (ja)
WO (1) WO2022138226A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014049127A (ja) * 2012-08-29 2014-03-17 Ge Aviation Systems Llc ハイパースペクトル画像のシミュレーション方法
JP2018060511A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
JP2018061086A (ja) * 2016-10-03 2018-04-12 株式会社デンソー 撮影装置
JP2018170007A (ja) * 2017-03-09 2018-11-01 トムソン ライセンシングThomson Licensing 視覚効果を有する画像を逆トーンマッピングするための方法
JP2019022173A (ja) * 2017-07-21 2019-02-07 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子およびその制御方法、並びに電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014049127A (ja) * 2012-08-29 2014-03-17 Ge Aviation Systems Llc ハイパースペクトル画像のシミュレーション方法
JP2018061086A (ja) * 2016-10-03 2018-04-12 株式会社デンソー 撮影装置
JP2018060511A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
JP2018170007A (ja) * 2017-03-09 2018-11-01 トムソン ライセンシングThomson Licensing 視覚効果を有する画像を逆トーンマッピングするための方法
JP2019022173A (ja) * 2017-07-21 2019-02-07 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子およびその制御方法、並びに電子機器

Also Published As

Publication number Publication date
US20240031684A1 (en) 2024-01-25
CN116670709A (zh) 2023-08-29
JP2022099651A (ja) 2022-07-05

Similar Documents

Publication Publication Date Title
JP7130777B2 (ja) シングルショットhdrカラーイメージセンサからのhdr画像生成
CN107534761B (zh) 成像装置、成像方法、图像处理装置
JP5085140B2 (ja) 固体撮像装置
US9288399B2 (en) Image processing apparatus, image processing method, and program
US7995115B2 (en) Image pickup device, image pickup system, image pickup method, and image processing device
US9432589B2 (en) Systems and methods for generating high dynamic range images
US8384805B2 (en) Image processing device, method, and computer-readable medium for executing pixel value correction in a synthesized image
CN102045506B (zh) 图像处理装置及图像处理方法
US20140321766A1 (en) Image processing apparatus, image processing method, and program
US8605999B2 (en) Signal processing apparatus and method, noise reduction apparatus and method, and program therefor
US20070153335A1 (en) Image signal processing apparatus, imaging apparatus, image signal processing method and computer program
US20130329128A1 (en) Image pickup apparatus, method of controlling image pickup apparatus, and program
CN102122388A (zh) 用于获得高动态范围图像的设备和方法
JP6312487B2 (ja) 画像処理装置及びその制御方法、並びに、プログラム
JP2007189589A (ja) 情報処理装置および情報処理方法、学習装置および学習方法、並びにプログラム
TW200913681A (en) Solid-state imaging apparatus, signal processor and signal processing method of solid-state imaging apparatus, and imaging apparatus
CN105659583A (zh) 图像处理装置、图像处理方法、电子设备及程序
JP7253634B2 (ja) 結合前ノイズ除去による高ダイナミックレンジ画像生成
CN113962884A (zh) Hdr视频获取方法、装置、电子设备以及存储介质
US7432962B2 (en) Dynamic range broadening method for a solid-state image sensor including photosensitive cells each having a main and a subregion
US20200221007A1 (en) Image processing apparatus, image processing method, imaging apparatus, and program
WO2022138226A1 (ja) 画像生成装置、画像生成方法、およびプログラム
US8599288B2 (en) Noise reduction apparatus, method and computer-readable recording medium
JP6160139B2 (ja) 撮像装置及び方法
JP2008294524A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21910375

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18256459

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202180085041.3

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21910375

Country of ref document: EP

Kind code of ref document: A1