WO2015079481A1 - 撮像方法及び撮像装置 - Google Patents

撮像方法及び撮像装置 Download PDF

Info

Publication number
WO2015079481A1
WO2015079481A1 PCT/JP2013/081733 JP2013081733W WO2015079481A1 WO 2015079481 A1 WO2015079481 A1 WO 2015079481A1 JP 2013081733 W JP2013081733 W JP 2013081733W WO 2015079481 A1 WO2015079481 A1 WO 2015079481A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image signals
unit
imaging
image signal
Prior art date
Application number
PCT/JP2013/081733
Other languages
English (en)
French (fr)
Inventor
雄一 野中
吉田 大輔
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Priority to PCT/JP2013/081733 priority Critical patent/WO2015079481A1/ja
Publication of WO2015079481A1 publication Critical patent/WO2015079481A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures

Definitions

  • the present invention relates to an imaging method and an imaging apparatus for imaging an image with a wide dynamic range.
  • Patent Document 1 As a background art of this technical field.
  • the subject recognition means is a video generated by the video synthesis means.
  • the subject information is detected from the signal, and the control in the exposure control means is controlled based on the gamma characteristic for the video signal in the camera signal processing means and the subject information in which the ratio at the time of video composition is detected. .
  • the present invention relates to an imaging method for imaging a subject, an acquisition step for acquiring a plurality of image signals having different exposure conditions from each other, and a pixel unit or an image area of the plurality of image signals.
  • an output step for outputting for outputting.
  • the present invention is an imaging apparatus that captures an image of a subject, the image capturing unit acquiring a plurality of image signals having different exposure conditions from each other, and the pixel unit or the image region unit of the plurality of image signals.
  • a composite ratio calculation unit that calculates a composite ratio when combining a plurality of image signals, and an image that is output by combining the plurality of image signals acquired by the imaging unit based on the composite ratio calculated by the composite ratio calculation unit And a synthesis unit.
  • summary of one Example. 1 is an overall configuration diagram of an imaging apparatus showing an embodiment. It is explanatory drawing regarding the composition method of the image of one Example. 1 is an overall configuration diagram of an imaging apparatus showing an embodiment. It is explanatory drawing regarding the composition method of the image of one Example. It is explanatory drawing regarding the composition method of the image of one Example. 1 is an overall configuration diagram of an imaging apparatus showing an embodiment. It is a flowchart of the imaging method which shows one Example. It is a flowchart of the imaging method which shows one Example. It is a figure showing the input-output characteristic for the synthetic
  • an imaging method for acquiring a wide dynamic range image by acquiring and synthesizing at least two image signals having different exposure conditions, and further, the plurality of image signals while maintaining contrast is described.
  • a multiple exposure image imaging means 101 that acquires at least two or more image signals having different exposure conditions, and a ratio for synthesizing the plurality of image signals For each pixel or a region unit in the image based on the plurality of image signals, and the plurality of image signals based on the combination ratio from the pixel-specific combination ratio calculation unit 103.
  • This embodiment is composed of the image synthesizing means 102 for synthesizing and outputting the synthesized image signal.
  • the multi-exposure image capturing unit 101 includes, for example, an image sensor 201, an image memory 202, and an exposure control unit 203.
  • the image sensor 201 photoelectrically converts light from the subject and outputs an image signal.
  • An exposure control unit 203 can change the exposure time and the amplifier gain by the image sensor 201.
  • the image sensor 201 sequentially outputs the first image signal and the second image signal while changing the exposure time and / or the amplifier gain by the exposure control unit 203, performs buffering by the image memory 202, and performs first buffering.
  • the image signal and the second image signal are output simultaneously.
  • the image sensor 201 may be in the order of the first image signal and the second image signal in the order of plane, line, and pixel.
  • the image memory 202 buffers an image according to the output order of the image sensor 201, and outputs the first image signal and the second image signal simultaneously.
  • the pixel-by-pixel combination ratio calculation means 103 includes a luminance generation unit 204, a smoothing filter 205, and a linear correction unit 206.
  • the luminance generation unit 204 outputs a signal obtained by averaging the first image signal and the second image signal.
  • the image sensor 202 is a single-plate color image sensor such as an RGB Bayer array, demosaicing is performed to generate an interpolation signal for each pixel, and a luminance signal is generated by performing a predetermined matrix operation.
  • the smoothing filter 205 attenuates a high-frequency signal that is edge information of a subject in an image by an image filter such as a moving average filter or a Gaussian filter.
  • the output signal of the smoothing filter 205 is an index value representing local brightness in the image. Pixels with a low signal level have a small amount of light from the subject, and pixels with a high signal level have a high amount of light from the subject. Represents.
  • the linear correction unit 206 changes the value of the output signal of the smoothing filter 205 using a predetermined function, and converts the signal converted into a combination ratio for combining the first image signal and the second image signal. Output.
  • the function characteristics of the linear correction unit 206 may be those having input / output characteristics as shown in FIG. With the above configuration, the composition ratio can be changed according to the amount of local brightness in the image.
  • the image synthesizing unit 102 synthesizes the first image signal and the second image signal output from the multi-exposure image capturing unit 101 based on the synthesis ratio calculated by the pixel-specific synthesis ratio calculating unit 103, and synthesizes them.
  • the later image signal is output.
  • the first image signal 301 and the second image signal 302 represent an image diagram of the image signal acquired by the multiple exposure image capturing means 101, and the indoor area A which is a dark place and the outdoor place which is a bright place. This is an example in the case of shooting at an angle of view including the area B at the same time.
  • the first image signal 301 is shot with a bright exposure setting to obtain an appropriate brightness and contrast for the area A
  • the second image signal 302 is shot with a dark exposure setting for the area B. To obtain an image signal.
  • each exposure setting may be, for example, as long as predetermined values are stored as a table (not shown) and exposure conditions are set based on the values in this table, or a user interface (The exposure condition may be set based on a value instructed by the user via a not-shown).
  • the composition ratio 303 represents an image diagram of a composition ratio signal output by the pixel-specific composition ratio calculation means 103. Since the area A of the image is a dark area, it is possible to obtain appropriate brightness by increasing the composition ratio of the first image, decreasing the composition ratio of the second image, and increasing the ratio of the first image signal. Image composition is performed so as to achieve contrast. Since one area B is a bright area, it is possible to obtain an appropriate brightness by reducing the composition ratio of the first image, increasing the composition ratio of the second image, and increasing the ratio of the second image signal. The image is composited so as to obtain a contrast.
  • the post-composition image 304 represents an image diagram of an image output by the image composition means 102.
  • the first image signal and the second image signal are synthesized with the synthesis ratio.
  • the present embodiment since it is possible to synthesize while changing the composition ratio so as to obtain the optimum brightness and contrast for each region in the image, it is generated by a method of composition with a uniform composition ratio on the screen. The problem that the contrast is lowered can be solved. Further, in the method of combining after performing tone curve correction on each of the images before combining, which has been conventionally performed, there is a problem that, for example, the intermediate gradation is weakened. be able to.
  • the smoothing filter 205 when calculating the synthesis ratio, it is possible to linearly change the synthesis ratio between the regions, and cut out the object of the subject. It is possible to solve the problem that the gradation of the edge portion that occurs in the combining method becomes unnatural.
  • the first image signal is shot with the bright exposure setting
  • the second image signal is shot with the dark exposure setting.
  • the exposure setting of each image signal is different. Even if the order is changed, the same effect can be obtained.
  • a method of determining the brightness of the subject a method of simply determining using a signal obtained by smoothing the average luminance of the first image signal and the second image signal is used. It is possible to acquire a higher contrast image if the composition ratio is output as the index value of the contrast distribution information of the subject and the composition ratio is output so that the contrast distribution of the composite image is higher. It becomes.
  • the brightness of the subject can be determined with high accuracy by obtaining the composition ratio using both the first image signal and the second image signal. Only one of the first image signal and the second image signal may be used, and the determination of the brightness of the subject can be estimated by a simple calculation.
  • the pixel-by-pixel combination ratio calculation unit 103 includes a reduction processing unit 401, an enlargement processing unit 402, and a second image memory 403. Further, it has an exposure target calculation means 104, which is composed of an exposure setting determination unit 404 and an average value calculation unit 405. Other configurations are the same as those described in the first embodiment.
  • a reduced image is generated by the reduction processing unit 401 with respect to the signal from the luminance generation unit 204 and stored in the second image memory 403.
  • the reduced image is read from the second image memory 403 and the enlarged image is generated by the enlargement processing unit 402.
  • the reduction magnification is set to a predetermined ratio
  • the enlargement magnification is the reciprocal of the reduction magnification, so that the image size before reduction and the image size after enlargement are equivalent.
  • the output image of the enlargement processing unit 402 can output a signal from which high-frequency components that are edge information of the subject are removed, and the result is almost the same as the smoothing filter described in the first embodiment. Can be obtained.
  • the edge information of the subject when it is desired to delete an edge having a lower frequency, there is a problem that it is necessary to increase the filter size of the smoothing filter and the calculation cost increases. By using the process, it can be realized with a simple process.
  • the average value calculation unit 405 receives the composite ratio signal output from the linear correction unit 206 and obtains the average value of the composite ratios for the entire image or a predetermined region in the image. Based on the information from the average value calculation unit 405, the exposure setting determination unit 404 calculates an exposure condition such that the average value of the composition ratio is 50:50, and transmits the exposure condition to the exposure control unit 203.
  • the exposure control unit 203 performs exposure setting of the image sensor based on the exposure condition information from the exposure setting determination unit 404.
  • the method of setting the average value of the synthesis ratio to 50:50 is, for example, as shown in FIG.
  • the pixel-based composition ratio calculation unit 103 includes an object detection unit 701. Further, the exposure target calculation means 104 has an object luminance determination unit 702 and an exposure setting determination unit 703.
  • the object detection unit 701 receives the first image signal and the second image signal from the multi-exposure image capturing unit 101 as input, and extracts a region where the subject has changed between the respective image signals.
  • An example is shown using FIG.
  • the first image signal 501 and the second image signal 502 represent an image diagram of the image signal acquired by the multi-exposure image capturing unit 101, and the indoor area A which is a dark place and the outdoor area which is a bright place. The case where it image
  • the first image signal 501 is shot with a bright exposure setting so that the brightness and contrast are appropriate for the area A, and the second image signal 302 is shot with a dark exposure setting.
  • the object detection unit 701 obtains the region C, the region D, and the region E individually from the first image signal and the second image signal using person recognition image processing. Next, it is determined whether or not there is an overlapping portion for each of the regions obtained by the first image signal and the second image signal, and if there is an overlapping region, a region including each region is detected. To do. For example, the region D and the region E overlap with each other, the overlap is determined, and the region F including both the region D and the region E is detected.
  • the object detection unit 701 sends a signal indicating the region F to the luminance generation unit 204.
  • the signal indicating the region F may be position coordinate information of an image representing four vertices, for example, when the region F is a rectangle, and a flag for determining whether the pixel is the region F or not for each pixel. It may be information.
  • the person recognition image processing is used.
  • any image processing for extracting a predetermined subject object may be used.
  • a vehicle detection method using vehicle recognition image processing may be used.
  • a method of detecting a human face using face detection image processing may be used.
  • the predetermined object is recognized by the image recognition.
  • any method may be used as long as the area in which the subject has changed between the first image signal and the second image signal is extracted. Even if the normalized correlation value between the signal and the second image signal is obtained and the difference is large, the subject is changed and the region is extracted by the object detection unit. Good.
  • the luminance generation unit 204 generates a luminance signal using the area information of the image output from the object detection unit 701 and the first image signal and the second image signal output from the multiple exposure image capturing unit 101. Specifically, the luminance signal is calculated by the method described in the first embodiment, and the region of the image output from the object detection unit 701 is corrected to be higher when the luminance signal is higher than a predetermined level. If it is lower than the predetermined level, correction is performed so that it is lower. The luminance signal after this correction is subjected to smoothing processing by the smoothing filter 205, and converted by a linear correction unit 206 using a predetermined function, thereby calculating a synthesis ratio.
  • the composition ratio in the region A and the region B is calculated by the method shown in the first embodiment.
  • the area F is an area extracted by the object detection unit 701. If the predetermined level is 50%, the luminance is increased. After passing through the smoothing filter, the input / output characteristics shown in FIG. 10 are used to correct the composite ratio that was higher than 50% closer to 100%, and the composite ratio that was lower than 50% was 0%.
  • First image: second image 0: 100
  • the subject changes between the first image signal and the second image signal from the multiple-exposure image capturing means by the above calculation method, only the changed region is used as the first image signal or the second image signal.
  • the luminance signal is corrected for the region where the subject has changed between the first image signal and the second image signal from the multiple exposure image capturing means 101.
  • the smoothing filter The same effect can be obtained even if the correction is performed on the signal after 205 or after the linear correction unit 206.
  • the luminance signal is corrected as in the above example and then passed through a smoothing filter, there is a problem that the composition ratio changes sharply at the boundary between the region where the subject has changed and the region where the subject has not changed. Can be solved.
  • the object luminance determination unit 702 determines the composition ratio output from the linear correction unit 206 based on the position information of the area where the subject has changed between the first image signal and the second image signal from the object detection unit 701. Of these, the average luminance value of only the region is calculated.
  • the exposure setting determination unit 703 calculates an object luminance determination after calculating an exposure setting for acquiring the first image signal and an exposure setting for acquiring the second image signal by the method described in the second embodiment. It is assumed that correction is performed so that the average luminance calculated by the unit 702 is appropriate exposure.
  • the present embodiment is a method for realizing the imaging method described in the first embodiment by a program, and includes a first exposure setting step 801 for setting a predetermined exposure condition, and shooting with the set exposure condition.
  • a first image signal acquisition step 802 for acquiring one image signal
  • a second exposure setting step 803 for performing exposure setting different from the first exposure setting step 801, and photographing under the set exposure conditions
  • a second image signal acquisition step 804 for acquiring a second image signal; and the first image signal and the second image signal acquired from the acquired first image signal and second image signal, for each region or pixel in the image
  • a pixel-by-pixel image composition ratio calculating step 805 for calculating a composition ratio for combining the second image signal, and the first image signal based on the composition ratio calculated by the image-by-pixel image composition ratio calculating step 805
  • the second image signal is synthesized
  • An image combining step 806 to output as Narugo image, an image storage or display step 807 to store or display the image after the synthesis, in constructed
  • Each processing step is equivalent to the processing content shown in the first to third embodiments.
  • the present embodiment is a method realized by a program, and its operation flow includes a first exposure setting step 901 for setting a predetermined exposure condition, and a first reduced image signal obtained by photographing under the set exposure condition.
  • the first reduced image signal acquisition step 902 for acquiring the second exposure setting step 903 for performing exposure setting different from the first exposure setting step 901, and the second exposure setting step 903 for photographing under the set exposure conditions.
  • a second reduced image signal acquisition step 904 for acquiring a reduced image signal, and the first reduced image signal for each region or pixel in the image from the acquired first reduced image signal and second reduced image signal.
  • a pixel-by-pixel image composition ratio calculation step 905 for calculating a composition ratio for combining the second reduced image signal and the second reduced image signal, and a first image signal based on the composition ratio calculated by the pixel-by-pixel image composition ratio calculation step 905. And second Based on the information from the appropriate exposure determination step 906 for determining whether or not the exposure of the image signal is appropriate, and the exposure for determining the exposure target at which the image to be captured at the next shooting is appropriate exposure And a goal determination step 907.
  • a third exposure setting step 908 for performing exposure setting based on the information of the exposure target determining step 907, and a third image signal acquiring step for performing photographing under the set exposure condition and acquiring a third image signal.
  • a fourth exposure setting step 910 for setting the exposure based on the information of the exposure target determination step 907, and a fourth image signal acquisition for photographing under the set exposure conditions and acquiring a fourth image signal. From step 911 and the acquired third image signal and fourth image signal, a synthesis ratio for synthesizing the third image signal and the fourth image signal is calculated for each region or pixel in the image.
  • the third image signal and the fourth image signal are combined based on the combination ratio calculated by the pixel-by-pixel image combination ratio calculation step 912 and the pixel-by-pixel image combination ratio calculation step 912 and output as a combined image.
  • An image obtained as a result of combining the third image signal and the fourth image signal is an object to be captured and saved (main photographing), and the first image signal and the second image signal are determined in order to determine the optimum exposure value. Acquired (provisional shooting).
  • predetermined values are stored as a table (not shown), and based on the values in this table.
  • the exposure condition may be set as long as the exposure condition is set, or the exposure condition may be set based on a value instructed by the user via a user interface (not shown).
  • a reduced image is read at high speed by using a pixel mixture readout mode or a pixel thinning readout mode as an output mode of the image sensor.
  • a pixel-by-pixel image composition ratio calculation step 905, an appropriate exposure determination step 906, and an exposure target determination step 907 use the reduced image to determine an exposure setting that should be appropriate exposure at high speed.
  • the contents of each process are the same as those described in the first or second embodiment.
  • an imaging method in which a part or all of the components in the above-described embodiments can be provided as a hardware imaging device, and a part or all of the components are configured by a software program. Can be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

ワイドダイナミックレンジで且つ高コントラストな画像を取得するための撮像方法および撮像装置を提供する。 露光条件の異なる二つ以上の画像信号を取得し、コントラストを維持しつつ前記複数の画像信号を合成するための合成比率を画素単位あるいは画像内の領域単位で個別に算出し、該合成比率に応じて前記複数の画像信号を合成することでワイドダイナミックレンジ且つ高コントラストな画像を取得する。合成比率は、例えば画像の領域に応じて複数の画像信号の輝度の平均値を平滑化することで求められる。

Description

撮像方法及び撮像装置
本発明は、ワイドダイナミックレンジな画像を撮像する撮像方法および撮像装置に関する。
本技術分野の背景技術として特許文献1がある。該公報の要約には、課題として「ダイナミックレンジのワイド化機能と、画像認識による被写体検出を用いることで、被写体の視認性を向上する。」と記載され、解決手段として「露出感度の異なる複数の撮像映像を合成するカメラ信号処理手段と、合成手段が生成した映像信号を画像処理し被写体情報を検出する被写体認識手段を有する撮像装置によって構成され、被写体認識手段は映像合成手段が生成した映像信号から被写体情報を検出し、露光制御手段における制御を、カメラ信号処理手段における映像信号に対するガンマ特性と、映像合成する際の比率を検出した被写体情報を基に制御する。」と記載されている。
特開2011-254340号公報
 本発明は、ワイドダイナミックレンジで且つ高コントラストな画像を取得するための、前記特許文献1とは異なる新たな撮像方法および撮像装置を提供することを課題としている。
 上記目的を解決するために、特許請求の範囲に記載の構成を採用する。
 一例をあげれば、本発明は被写体を撮像する撮像方法であって、前記被写体に係る互いに露光条件の異なる複数の画像信号を取得する取得ステップと、前記複数の画像信号の画素単位又は画像の領域単位で前記複数の画像信号を合成する時の合成比率を算出する合成比率算出ステップと、該合成比率算出ステップが算出した合成比率に基づいて前記取得ステップが取得した複数の画像信号を合成して出力する出力ステップとを有することを特徴としている。
 また、本発明は被写体を撮像する撮像装置であって、前記被写体に係る互いに露光条件の異なる複数の画像信号を取得する撮像部と、前記複数の画像信号の画素単位又は画像の領域単位で前記複数の画像信号を合成する時の合成比率を算出する合成比率算出部と、該合成比率算出部が算出した合成比率に基づいて前記撮像部が取得した複数の画像信号を合成して出力する画像合成部とを有することを特徴としている。
 本発明によれば、ワイドダイナミックレンジで且つ高コントラストな画像を取得する撮像方法及び撮像装置を提供することができる。これ以外の詳細な効果については、実施例において説明する。
一実施例の概要を示す撮像装置の構成図である。 一実施例を示す撮像装置の全体構成図である。 一実施例の画像の合成方法に関する説明図である。 一実施例を示す撮像装置の全体構成図である。 一実施例の画像の合成方法に関する説明図である。 一実施例の画像の合成方法に関する説明図である。 一実施例を示す撮像装置の全体構成図である。 一実施例を示す撮像方法のフローチャートである。 一実施例を示す撮像方法のフローチャートである。 一実施例における合成比率算出のための入出力特性を表す図である。
 本実施例では、露光条件の異なる少なくとも二つ以上の画像信号を取得して合成することでワイドダイナミックレンジ画像を取得する撮像方法について述べ、さらには、コントラストを維持しつつ前記複数の画像信号を合成するための合成比率を画素単位あるいは画像内の領域単位で個別に算出し、該合成比率に応じて前記複数の画像信号を合成することでワイドダイナミックレンジ且つ高コントラストな画像を取得する撮像方法について述べる。
 上記撮像方法を実現するために、例えば図1に示すように、露光条件の異なる少なくとも二つ以上の画像信号を取得する複数露光画像撮像手段101と、該複数の画像信号を合成するための比率を、該複数の画像信号を基に画素単位あるいは画像内の領域単位で算出する画素別合成比率算出手段103と、該画素別合成比率算出手段103からの合成比率を基に前記複数の画像信号を合成し合成後の画像信号を出力する画像合成手段102とにより、本実施例は構成される。
 以降、実施の形態について、図面を用いて詳細に説明する。
 本発明における一実施例を説明するにあたり、まず図2を用いて撮像装置の構成の説明を行い、次にその構成を用いてワイドダイナミックレンジ且つ高コントラスト画像を撮像するための撮像方法について図3を用いて説明する。
 複数露光画像撮像手段101は、例えば撮像素子201と画像メモリ202と露光制御部203で構成される。撮像素子201は、被写体からの光を光電変換し、画像信号を出力する。撮像素子201による露光時間やアンプゲインは、露光制御部203にて変更できる。撮像素子201は、露光制御部203により露光時間またはアンプゲインまたはその両方を変更しながら第1の画像信号と第2の画像信号を順次出力し、画像メモリ202によりバッファリングを行い、第1の画像信号と第2の画像信号を同時に出力する。ここで、撮像素子201は、第1の画像信号と第2の画像信号の出力順序として、面順次、ライン順次、画素順次を問わない。画像メモリ202は、撮像素子201の出力順序に応じて画像をバッファリングし、第1の画像信号と第2の画像信号を同時化して出力する。
 画素別合成比率算出手段103は、輝度生成部204と平滑化フィルタ205と線形補正部206で構成される。撮像素子201が白黒画像を出力する単色イメージセンサである場合、例えば輝度生成部204は、第1の画像信号と第2の画像信号を平均値化した信号を出力する。また例えば、撮像素子202がRGBベイヤ配列などの単板カラーイメージセンサである場合、デモザイキングを行い各画素の補間信号を生成し、所定のマトリクス演算を施すことで輝度信号を生成する。平滑化フィルタ205は、移動平均フィルタやガウシアンフィルタなどの画像フィルタにより、画像内における被写体のエッジ情報である高周波信号を減衰させる。この平滑化フィルタ205の出力信号は、画像内の局所的な明るさを表す指標値とし、信号レベルが低い画素は被写体からの光量が小さく、信号レベルが高い画素は被写体からの光量が高いことを表す。線形補正部206は、平滑化フィルタ205の出力信号に対して所定の関数を用いて値を変更し、第1の画像信号と第2の画像信号を合成するための合成比率に変換した信号を出力する。この線形補正部206の関数特性は、例えば図10に示すような入出力特性を持つものであれば良い。上記構成とすることで、画像内の局所的な明るさの量に応じて合成比率を変化させることができる。
 画像合成手段102は、画素別合成比率算出手段103により計算された合成比率を基に、複数露光画像撮像手段101から出力された第1の画像信号と第2の画像信号を合成して、合成後の画像信号を出力する。
 次に図3を用いて、前記構成を動作させてワイドダイナミックレンジ且つ高コントラスト画像を撮像するための撮像方法について説明する。
 第1の画像信号301および第2の画像信号302は、前記複数露光画像撮像手段101にて取得する画像信号のイメージ図を表しており、暗い場所である室内の領域Aと、明るい場所である室外の領域Bとを同時に含む画角で撮影した場合の例である。第1の画像信号301は明るめ露光設定で撮影することで領域Aに対して適正な明るさとコントラストとなるよう撮影し、第2の画像信号302は暗め露光設定で撮影することで領域Bに対して適正な明るさとなるように撮影し、画像信号を取得する。ここで各々の露光設定は、例えば予め定められた値をテーブル(図示せず)として保存しておき、このテーブルの値を基に露光条件が設定されるものであればよく、またはユーザインタフェース(図示せず)を介してユーザから指示された値を基に露光条件が設定されるものであっても良い。
 合成比率303は、前記画素別合成比率算出手段103が出力する合成比率の信号のイメージ図を表している。画像の領域Aは暗い領域であることから、第1の画像の合成比率を高くし、第2の画像の合成比率を低くし、第1の画像信号の割合を多くすることで適正な明るさとコントラストとなるよう画像合成する。一方の領域Bは、明るい領域であることから、第1の画像の合成比率を低くし、第2の画像の合成比率を高くし、第2の画像信号の割合を多くすることで適正な明るさとコントラストとなるよう画像合成する。
 合成後画像304は、前記画像合成手段102により出力される画像のイメージ図を表している。前記合成比率により第1の画像信号と第2の画像信号を合成する。
 以上の方法により、領域Aと領域Bの各々に対して適正な明るさとコントラストを維持しつつ、且つワイドダイナミックレンジな合成画像を取得することが可能となる。
 本実施例によれば、画像内の領域毎に最適な明るさとコントラストとなるよう合成比率を変化させながら合成することが可能であるため、画面一律の合成比率によって合成する方式にて発生していたコントラストが低下するという課題を解決することができる。また、従来行われていたような、合成前の画像の各々に対してトーンカーブ補正を行ってから合成する方法では、例えば中間の階調が弱められるという課題があったが、これを解決することができる。
 また本実施例によれば、合成比率を算出する際に平滑化フィルタ205を介した信号を用いることで、各領域間の合成比率をリニアに変化させることが可能となり、被写体のオブジェクトを切り出して合成する方式にて発生する、エッジ部分の階調が不自然になるという課題を解決することができる。
 また、画像領域をメッシュ状などの所定の領域に個別に分割して評価する手順がなく、簡便な処理で実現可能である。
 尚、上記説明において、第1の画像信号は明るめ露光設定で撮影することとし、第2の画像信号は暗め露光設定で撮影することとしたが、各々の画像信号の露光設定が異なる条件であれば良く、順序が入れ替わっても同様の効果を得ることができる。
 また、被写体の明るさを判定する方法として、第1の画像信号と第2の画像信号の平均輝度を平滑化した信号を用いて簡素に判定する方法としたが、例えばヒストグラム分布情報あるいは分散値の情報を取得して被写体のコントラスト分布情報の指標値とし、合成後の画像のコントラスト分布がより高くなるような合成比率を出力する構成とすれば、より高コントラストな画像を取得することが可能となる。
 また、上記実施例の説明において、第1の画像信号と第2の画像信号の両方の信号を用いて合成比率を求めることにより、被写体の明るさの判定を高精度にできる構成としたが、第1の画像信号あるいは第2の画像信号のいずれか片方の信号のみを用いる構成としてもよく、簡素な演算で被写体の明るさの判定を推定することが可能となる。
 図4を用いて一実施例を説明する。
 本実施例においては、画素別合成比率算出手段103は、縮小処理部401と拡大処理部402と第2の画像メモリ403を有する構成とする。また、露光目標算出手段104を有し、これを露光設定決定部404と、平均値算出部405で構成した。それ以外の構成については、実施例1に記載のものと同様である。
 輝度生成部204からの信号に対して、縮小処理部401により縮小画像を生成し、第2の画像メモリ403に保存する。次に第2の画像メモリ403から縮小画像を読み出して拡大処理部402にて拡大画像を生成する。ここで、縮小倍率は予め定められた所定の比率とし、拡大倍率は縮小倍率の逆数とすることで、縮小前の画像サイズと拡大後の画像サイズが同等となるものとする。
 上記構成とすることで、拡大処理部402の出力画像は、被写体のエッジ情報である高周波成分を除去した信号を出力することができ、実施例1で示した平滑化フィルタとほぼ同等の結果を得ることが可能となる。特に、被写体のエッジ情報に関して、より低い周波数のエッジを削除したい場合、平滑化フィルタのフィルタサイズを大きくする必要があり、演算コストが増えるという課題があったが、本実施例における縮小処理と拡大処理を用いることによって、簡素な処理で実現が可能となる。
 また本実施例では、平均値算出部405は、線形補正部206から出力された合成比率の信号を入力され、画像全体もしくは画像内の所定の領域に対する合成比率の平均値を求める。露光設定決定部404は、平均値算出部405からの情報を基に、合成比率の平均値が50:50となるような露光条件を算出し、露光制御部203へ送信する。露光制御部203は、露光設定決定部404からの露光条件情報を基に、撮像素子の露光設定を行う。ここで合成比率の平均値を50:50にする方法は、例えば図3のように、第1の画像信号301を明るめの露光設定として画像を取得し、第2の画像信号302を暗め露光設定として画像を取得し、画面全体の合成比率の平均値が、
      第1の画像:第2の画像=60:40
であった場合とすると、次回の撮影時に取得する第1の画像信号がより明るくなるよう露光条件を変更することで、
      第1の画像:第2の画像=50:50
に近づけた画像を取得することができる。一方、
      第1の画像:第2の画像=40:60
であった場合とすると、次回の撮影時に取得する第2の画像信号がより暗くなるよう露光条件を変更することで、
      第1の画像:第2の画像=50:50
に近づけた画像を取得することができる。
上記構成とすることで、第1の画像信号と第2の画像信号からバランスよく階調を配分した画像合成が可能となり、より高コントラスト且つノイズの少ない、ワイドダイナミックレンジ画像を取得することが可能となる。
また、画像から求めた合成比率を基に露光条件を再設定するフィードバック処理が可能となり、動画を記録するカメラなどにおいて、シーンチェンジに追従して最適な露光条件設定とすることができる。
上記以外の構成および方法および効果に関しては、実施例1と同様である。
 図5を用いて一実施例について説明する。
 本実施例においては、画素別合成比率算出手段103において、オブジェクト検出部701を有する。また、露光目標算出手段104において、オブジェクト輝度判定部702と、露光設定決定部703を有する構成とした。
 オブジェクト検出部701は、複数露光画像撮像手段101からの第1の画像信号および第2の画像信号を入力とし、各々の画像信号間で被写体が変化した領域を抽出する。一例を、図6を用いて示す。第1の画像信号501および第2の画像信号502は、前記複数露光画像撮像手段101にて取得する画像信号のイメージ図を表しており、暗い場所である室内の領域Aと、明るい場所である室外の領域Bとを同時に含む画角で撮影した場合を示す。第1の画像信号501は明るめの露光設定で撮影することで領域Aに対して適正な明るさとコントラストとなるよう撮影し、第2の画像信号302は暗めの露光設定で撮影することで領域Bに対して適正な明るさとなるように撮影し、画像信号を取得する。また、第1の画像信号501には、領域Cと領域Dに人物が写されており、第2の画像信号502には、領域Dの位置からずれた場所にある領域Eに人物が写されているとする。
 オブジェクト検出部701は、人物認識画像処理を用いて、上記領域C、領域D、領域Eを、第1の画像信号および第2の画像信号から個別に求める。次に、第1の画像信号と第2の画像信号の各々で求めた領域について、重なり合う部分があるか否かを判定し、重なり合う領域が存在する場合、その各々の領域を包括する領域を検出する。例えば、領域Dと領域Eが重なり合っており、この重なりを判定し、領域Dと領域Eを両方含む領域Fを検出する。オブジェクト検出部701は、この領域Fを示す信号を、輝度生成部204へ送る。領域Fを示す信号とは、例えば領域Fを長方形とした場合、4つの頂点を表す画像の位置座標情報であれば良く、また、画素毎に領域Fであるか否かを判定するためのフラグ情報であっても良い。
 尚、上記例では人物認識画像処理を用いるとしたが、所定の被写体オブジェクトを抽出するための画像処理であれば良く、例えば車両認識画像処理を用いて車両を検出する方法であっても良く、顔検出画像処理を用いて人物の顔を検出する方法であっても良い。
 また、画像認識により所定のオブジェクトを認識することとしたが、第1の画像信号と第2の画像信号との間において被写体が変化した領域を抽出する方式であれば良く、例えば第1の画像信号と第2の画像信号との間の正規化相関値を求め、差分が大きい場合は、被写体が変化した場合とし、該領域をオブジェクト検出部により抽出する領域の対象とする方法であってもよい。
 輝度生成部204は、オブジェクト検出部701から出力された画像の領域情報と、複数露光画像撮像手段101から出力された第1の画像信号および第2の画像信号を用いて輝度信号を生成する。具体的には、実施例1に記載の方法で輝度信号を算出し、オブジェクト検出部701から出力された画像の領域に対して、前記輝度信号が所定のレベルより高い場合はより高くなるよう補正し、所定のレベルより低い場合はより低くなるよう補正を行う。この補正を行った後の輝度信号を、平滑化フィルタ205にて平滑化処理を施し、線形補正部206にて所定の関数で変換することで合成比率を算出する。
 上記方法にて生成される合成比率の一例を、図6を用いて説明する。領域Aおよび領域Bにおける合成比率は、実施例1にて示した方法で、合成比率を算出するものとする。領域Fは、前記オブジェクト検出部701により抽出された領域であり、前記所定のレベルを50%とすれば輝度が高くなる。平滑化フィルタを介した後、図10に示す入出力特性で補正することにより、50%より高い比率であった合成比率は100%に近づけ、50%より低い比率であった合成比率は0%に近づける。すなわち、領域Fは実施例1にて示した方法であれば、領域Fの合成比率は、
      第1の画像:第2の画像=20:80
と計算されていたものとすれば、例えば、
      第1の画像:第2の画像=0:100
と置き換える。以上の演算方法により、複数露光画像撮像手段からの第1の画像信号および第2の画像信号間において被写体が変化した場合、該変化した領域のみを、第1の画像信号または第2の画像信号のみで合成することができる。したがって例えば、図7に示すように、被写体の位置が変化した2枚の画像を合成することによって、合成後の画像504に対して擬似エッジが発生するという課題を解決することができる。
 尚、本実施例においては、複数露光画像撮像手段101からの第1の画像信号および第2の画像信号間において被写体が変化した領域について、輝度信号に補正をかける構成としたが、平滑化フィルタ205の後、あるいは線形補正部206の後の信号に対して補正を行う方法であっても同様の効果を得ることができる。ただし、上記例のように輝度信号に補正をかけた後、平滑化フィルタを介するものとすれば、被写体が変化した領域とそうでない領域との境界にて、合成比率が急峻に変化する課題を解決することができる。
 オブジェクト輝度判定部702は、オブジェクト検出部701からの第1の画像信号および第2の画像信号間で被写体が変化した領域の位置情報を基に、例えば線形補正部206から出力された合成比率のうち前記領域のみの平均輝度値を算出する。露光設定決定部703は、実施例2に記載の方法にて第1の画像信号を取得するための露光設定と第2の画像信号を取得するための露光設定とを算出した後、オブジェクト輝度判定部702で算出された平均輝度が適正露光となるよう補正を行うものとした。
 以上の構成により、オブジェクト検出部701により第1の画像信号および第2の画像信号間で被写体が変化した領域が適正露光となり、撮像対象とする被写体のオブジェクトが露出アンダーあるいは露出オーバーになる現象を防ぐことが可能となる。
 以上の方法により、画像内の領域別あるいは画素別に合成比率を変えて画像を合成することにより、適正な明るさとコントラストを維持しつつ、且つワイドダイナミックレンジな合成画像を取得することが可能となる。
 上記以外の構成および方法および効果については、実施例1または2に示した効果と同等である。
 図8を用いて一実施例を説明する。
 本実施例は、実施例1に記載の撮像方法をプログラムで実現する方法であって、所定の露光条件に設定する第1の露光設定ステップ801と、該設定された露光条件で撮影を行い第1の画像信号を取得する第1の画像信号取得ステップ802と、第1の露光設定ステップ801とは異なる露光設定を行う第2の露光設定ステップ803と、該設定された露光条件で撮影を行い第2の画像信号を取得する第2の画像信号取得ステップ804と、前記取得した第1の画像信号と第2の画像信号から、画像内の領域別または画素別に、前記第1の画像信号と第2の画像信号を合成するための合成比率を算出する画素別画像合成比率算出ステップ805と、該画素別画像合成比率算出ステップ805により算出された合成比率を基に前記第1の画像信号と第2の画像信号を合成し合成後画像として出力する画像合成ステップ806と、該合成後画像を保存または表示する画像保存または表示ステップ807と、で構成される。
 各処理ステップは、実施例1乃至3で示した処理内容と同等である。
 以上の方法により、画像内の領域別あるいは画素別に合成比率を変えて画像を合成することにより、適正な明るさとコントラストを維持しつつ、且つワイドダイナミックレンジな合成画像を取得することが可能となる。
 上記以外の構成および方法および効果については、実施例1乃至3に示した効果と同等である。
 図9を用いて一実施例を説明する。
 本実施例はプログラムで実現する方法であって、その動作フローは、所定の露光条件に設定する第1の露光設定ステップ901と、該設定された露光条件で撮影を行い第1の縮小画像信号を取得する第1の縮小画像信号取得ステップ902と、第1の露光設定ステップ901とは異なる露光設定を行う第2の露光設定ステップ903と、該設定された露光条件で撮影を行い第2の縮小画像信号を取得する第2の縮小画像信号取得ステップ904と、前記取得した第1の縮小画像信号と第2の縮小画像信号から、画像内の領域別または画素別に前記第1の縮小画像信号と第2の縮小画像信号を合成するための合成比率を算出する画素別画像合成比率算出ステップ905と、該画素別画像合成比率算出ステップ905により算出された合成比率を基に第1の画像信号と第2の画像信号の露光が適正か否かを判定する適正露光判定ステップ906と、該適正露光判定ステップ906からの情報に基づいて、次回の撮影時に撮影する画像が適正露光となる露光目標を決定する露光目標決定ステップ907とを有する。
 さらに、該露光目標決定ステップ907の情報に基づき露光設定を行う第3の露光設定ステップ908と、該設定された露光条件で撮影を行い第3の画像信号を取得する第3の画像信号取得ステップ909と、前記露光目標決定ステップ907の情報に基づき露光設定を行う第4の露光設定ステップ910と、該設定された露光条件で撮影を行い第4の画像信号を取得する第4の画像信号取得ステップ911と、前記取得した第3の画像信号と第4の画像信号から、画像内の領域別または画素別に、前記第3の画像信号と第4の画像信号を合成するための合成比率を算出する画素別画像合成比率算出ステップ912と、該画素別画像合成比率算出ステップ912により算出された合成比率を基に前記第3の画像信号と第4の画像信号を合成し合成後画像として出力する画像合成ステップ913と、該合成後画像を保存または表示する画像保存または表示ステップ914と、で構成される。
 第3の画像信号と第4の画像信号を合成した結果の画像が撮影保存の対象(本撮影)であり、その最適露光値を決定するために第1の画像信号と第2の画像信号を取得する(仮撮影)ものである。第1の露光設定ステップ901および第2の露光設定ステップ903は、例えば実施例1と同様に、予め定められた値をテーブル(図示せず)として保存しておき、このテーブルの値を基に露光条件が設定されるものであればよく、またはユーザインタフェース(図示せず)を介してユーザから指示された値を基に露光条件が設定されるものであっても良い。第1の縮小画像信号取得ステップ902及び第2の縮小画像信号取得ステップ904は、例えばイメージセンサの出力モードとして画素混合読み出しモードあるいは画素間引き読み出しモードを用いて縮小画像を高速に読み出すものである。画素別画像合成比率算出ステップ905と適正露光判定ステップ906と露光目標決定ステップ907は、該縮小画像を用いて高速に適正露光となるべき露光設定を決定する。各々の処理内容は実施例1または2に記載のものと同様である。
 以上の構成により、被写体に対して最適な露光条件が不明な場合であっても、仮撮影を高速に行い、露光目標値を決定することで、その後本撮影を行いワイドダイナミックレンジで且つ高コントラスト画像を取得することができる。即ち例えば、被写体が動的に変化するシーンなどでの仮撮影と本撮影の露光条件が変わってしまうという課題を、仮撮影から本撮影までの時間差を短くすることで低減することができる。
 上記以外の構成および方法および効果に関しては、実施例1乃至4と同様である。
 尚本発明においては、上記実施例における構成要素の各々について、その一部またはすべてをハードウェア化した撮像装置として提供することができ、またその一部またはすべてをソフトウェアプログラムにより構成した撮像方法を提供することができる。
 101:複数露光画像撮像手段、102:画像合成手段、103:画素別合成比率算出手段、104:露光目標算出手段、201:撮像素子、202:画像メモリ、203:露光制御部、204:輝度生成部、205:平滑化フィルタ、206:線形補正部、301:第1の画像信号、302:第2の画像信号、303:合成比率、304:合成後画像、401:縮小処理部、402:拡大処理部、403:第2の画像メモリ、404:露光設定決定部、405:平均値算出部、501:第1の画像信号、502:第2の画像信号、503:合成比率、504:合成後画像、601:第1の画像信号、602:第2の画像信号、603:合成比率、604:合成後画像、701:オブジェクト検出部、702:オブジェクト輝度判定部、703:露光設定決定部、801:第1の露光設定ステップ、802:第1の画像信号取得ステップ、803:第2の露光設定ステップ、804:第2の画像信号取得ステップ、805:画素別画像合成比率算出ステップ、806:画像合成ステップ、807:画像保存または表示ステップ、901:第1の露光設定ステップ、902:第1の縮小画像信号取得ステップ、903:第2の露光設定ステップ、904:第2の縮小画像信号取得ステップ、905:画素別画像合成比率算出ステップ、906:適正露光判定ステップ、907:露光目標決定ステップ、908:第3の露光設定ステップ、909:第3の画像信号取得ステップ、910:第4の露光設定ステップ、911:第4の画像信号取得ステップ、912:画素別画像合成比率算出ステップ、913:画像合成ステップ、914:画像保存または表示ステップ。

Claims (8)

  1.  被写体を撮像する撮像方法であって、
     前記被写体に係る互いに露光条件の異なる複数の画像信号を取得する取得ステップと、
     前記複数の画像信号の画素単位又は画像の領域単位で前記複数の画像信号を合成する時の合成比率を算出する合成比率算出ステップと、
     該合成比率算出ステップが算出した合成比率に基づいて前記取得ステップが取得した複数の画像信号を合成して出力する出力ステップと
     を有することを特徴とする撮像方法。
  2.  請求項1に記載の撮像方法において、
     前記合成比率算出ステップが算出した合成比率に基づいて前記取得ステップは、互いに異なる露光条件を再度設定して複数の画像信号を取得し、
     前記合成比率算出ステップは、該複数の画像信号を合成する時の合成比率を算出し、
     前記出力ステップは、該合成比率に基づいて前記取得ステップが取得した複数の画像信号を合成して出力する
     ことを特徴とする撮像方法。
  3.  請求項1に記載の撮像方法において、
     前記合成比率算出ステップは、
     前記被写体としてのオブジェクトを検出するオブジェクト検出ステップを有し、
     該オブジェクト検出ステップが、前記取得ステップが取得した複数の画像信号からオブジェクトを検出し、該オブジェクトを検出した検出領域が前記複数の画像信号において互いに一部分が重畳する領域を有する場合には、
     前記合成比率算出ステップは、
     前記検出領域においては前記複数の画像信号から一つの画像信号を選択して前記出力ステップが出力するよう前記合成比率を定める
     ことを特徴とする撮像方法。
  4.  請求項2に記載の撮像方法において、
     前記被写体としてのオブジェクトを検出するオブジェクト検出ステップを有し、
     前記取得ステップが設定する露光条件は、前記オブジェクト検出ステップが検出したオブジェクトの画像領域に対して設定される
     ことを特徴とする撮像方法。
  5.  被写体を撮像する撮像装置であって、
     前記被写体に係る互いに露光条件の異なる複数の画像信号を取得する撮像部と、
     前記複数の画像信号の画素単位又は画像の領域単位で前記複数の画像信号を合成する時の合成比率を算出する合成比率算出部と、
     該合成比率算出部が算出した合成比率に基づいて前記撮像部が取得した複数の画像信号を合成して出力する画像合成部と
     を有することを特徴とする撮像装置。
  6.  請求項5に記載の撮像装置において、
     前記合成比率算出部が算出した合成比率に基づき前記撮像部における露光条件を算出する露光条件算出部
     を有することを特徴とする撮像装置。
  7.  請求項5に記載の撮像装置において、
     前記合成比率算出部は、
     前記被写体としてのオブジェクトを検出するオブジェクト検出部を有し、
     該オブジェクト検出部が、前記取得ステップが取得した複数の画像信号からオブジェクトを検出し、該オブジェクトを検出した検出領域が前記複数の画像信号において互いに一部分が重畳する領域を有する場合には、
     前記合成比率算出部は、
     前記検出領域においては前記複数の画像信号から一つの画像信号を選択して前記画像合成部が出力するよう前記合成比率を定める
     ことを特徴とする撮像装置。
  8.  請求項6に記載の撮像装置において、
     前記合成比率算出部は、
     前記被写体としてのオブジェクトを検出するオブジェクト検出部を有し、
     前記撮像部が設定する露光条件は、前記オブジェクト検出部が検出したオブジェクトの画像領域の輝度レベルに応じて設定される
     ことを特徴とする撮像装置。
PCT/JP2013/081733 2013-11-26 2013-11-26 撮像方法及び撮像装置 WO2015079481A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/081733 WO2015079481A1 (ja) 2013-11-26 2013-11-26 撮像方法及び撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/081733 WO2015079481A1 (ja) 2013-11-26 2013-11-26 撮像方法及び撮像装置

Publications (1)

Publication Number Publication Date
WO2015079481A1 true WO2015079481A1 (ja) 2015-06-04

Family

ID=53198473

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/081733 WO2015079481A1 (ja) 2013-11-26 2013-11-26 撮像方法及び撮像装置

Country Status (1)

Country Link
WO (1) WO2015079481A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020211334A1 (en) * 2019-04-15 2020-10-22 Zhejiang Dahua Technology Co., Ltd. Methods and systems for image combination

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1056594A (ja) * 1996-08-09 1998-02-24 Hitachi Medical Corp X線撮像装置
JP2013021490A (ja) * 2011-07-11 2013-01-31 Canon Inc 画像処理装置及び画像処理装置の制御方法
JP2013115560A (ja) * 2011-11-28 2013-06-10 Fujitsu Ltd 画像合成装置及び画像合成方法
JP2013157904A (ja) * 2012-01-31 2013-08-15 Canon Inc 撮像装置及びその制御方法、プログラム、並びに記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1056594A (ja) * 1996-08-09 1998-02-24 Hitachi Medical Corp X線撮像装置
JP2013021490A (ja) * 2011-07-11 2013-01-31 Canon Inc 画像処理装置及び画像処理装置の制御方法
JP2013115560A (ja) * 2011-11-28 2013-06-10 Fujitsu Ltd 画像合成装置及び画像合成方法
JP2013157904A (ja) * 2012-01-31 2013-08-15 Canon Inc 撮像装置及びその制御方法、プログラム、並びに記憶媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020211334A1 (en) * 2019-04-15 2020-10-22 Zhejiang Dahua Technology Co., Ltd. Methods and systems for image combination
US11887284B2 (en) 2019-04-15 2024-01-30 Zhejiang Dahua Technology Co., Ltd. Methods and systems for image combination

Similar Documents

Publication Publication Date Title
JP5713752B2 (ja) 画像処理装置、及びその制御方法
CN108668093B (zh) Hdr图像的生成方法及装置
US9681026B2 (en) System and method for lens shading compensation
JP5367640B2 (ja) 撮像装置および撮像方法
US8982232B2 (en) Image processing apparatus and image processing method
US8436910B2 (en) Image processing apparatus and image processing method
JP5719418B2 (ja) ハイダイナミックレンジ画像の露光時間制御方法
JP5408053B2 (ja) 画像処理装置、画像処理方法
US8737755B2 (en) Method for creating high dynamic range image
JP6312487B2 (ja) 画像処理装置及びその制御方法、並びに、プログラム
JP6833415B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2014143613A (ja) 画像処理装置、方法、及びプログラム、並びに撮像装置
JP2011086275A (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US20180268528A1 (en) Image processing apparatus, system, image processing method, and non-transitory recording medium
WO2013032008A1 (ja) 画像処理装置、プログラム
JP5411786B2 (ja) 撮影装置および画像統合プログラム
JP2015144475A (ja) 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体
JP5882702B2 (ja) 撮像装置
JP6227935B2 (ja) 画像処理装置および画像処理方法
JP5713643B2 (ja) 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体
JP5932392B2 (ja) 画像処理装置および画像処理方法
JP5814610B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2021097347A (ja) 撮像装置およびその制御方法、プログラム
WO2015079481A1 (ja) 撮像方法及び撮像装置
JP2016201733A (ja) 撮像装置、撮像方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13898202

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 13898202

Country of ref document: EP

Kind code of ref document: A1