JP2023026997A - Imaging device, imaging method, program, and recording medium - Google Patents

Imaging device, imaging method, program, and recording medium Download PDF

Info

Publication number
JP2023026997A
JP2023026997A JP2022080615A JP2022080615A JP2023026997A JP 2023026997 A JP2023026997 A JP 2023026997A JP 2022080615 A JP2022080615 A JP 2022080615A JP 2022080615 A JP2022080615 A JP 2022080615A JP 2023026997 A JP2023026997 A JP 2023026997A
Authority
JP
Japan
Prior art keywords
images
imaging
exposure
predetermined value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022080615A
Other languages
Japanese (ja)
Inventor
涼 塩田
Ryo Shiota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to EP22185849.1A priority Critical patent/EP4138384A3/en
Priority to CN202210864168.1A priority patent/CN115914830A/en
Priority to US17/817,310 priority patent/US11843867B2/en
Publication of JP2023026997A publication Critical patent/JP2023026997A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

To solve a problem in which coloring and saturation may not occur when the exposure is changed and the exposure is corrected in omnifocal imaging.SOLUTION: An imaging device according to the present invention includes determination means for determining a predetermined value of exposure in advance, imaging means for imaging a plurality of images with different focus positions, control means for controlling such that when the imaging means captures the plurality of images, the images are captured with an exposure lower than the predetermined value, and correction means for correcting the brightness of at least a part of the plurality of images on the basis of the predetermined value determined by the determination means.SELECTED DRAWING: Figure 4

Description

本発明は、複数のピント位置で画像を撮像する全焦点撮像が可能な撮像装置に関する。 The present invention relates to an image pickup apparatus capable of omnifocal image pickup that takes images at a plurality of focus positions.

従来から、全焦点撮像を行う撮像装置が知られている。全焦点撮像とは、撮像装置により合焦可能な被写体距離の全域において、合焦位置を変化させた複数の画像を撮像することである(特許文献1)。全焦点撮像で得られた複数の画像から合焦している領域のみを抽出して1枚の画像を合成して撮像領域全体に合焦している、元の画像より被写界深度の深い画像を生成する技術は深度合成という。 2. Description of the Related Art Imaging apparatuses that perform omnifocal imaging are conventionally known. All-in-focus imaging is imaging a plurality of images with different focal positions over the entire range of object distances that can be focused by an imaging device (Patent Document 1). A deeper depth of field than the original image, in which only the in-focus area is extracted from multiple images obtained by omnifocal imaging and the entire imaging area is in focus by synthesizing a single image. The technique for generating images is called depth stacking.

また、全焦点撮像では、さまざまな要因により、取得した各画像の間で明るさが変化してしまうことが知られている。たとえば、特許文献2には、全焦点撮像において実効F値が変化することにより、画像の明るさが変化してしまうことが開示されている。図7は、全焦点撮像におけるピント位置と実効F値の変化との関係の一例を説明するための図である。また、図8は、全焦点撮像におけるピント位置と輝度値の変化の関係の一例を説明するための図である。図7と図8とに示したように、全焦点撮像において画像間の明るさに差が出てしまうことがある。 In addition, it is known that in all-focus imaging, the brightness changes between the acquired images due to various factors. For example, Patent Literature 2 discloses that the brightness of an image changes due to a change in the effective F-number in all-focus imaging. FIG. 7 is a diagram for explaining an example of the relationship between the focus position and the change in the effective F-number in omnifocal imaging. Also, FIG. 8 is a diagram for explaining an example of the relationship between the focus position and the change in luminance value in omnifocal imaging. As shown in FIGS. 7 and 8, there may be a difference in brightness between images in omnifocal imaging.

その他にも、ストロボを用いた全焦点撮像や、高速シャッターを用いた全焦点撮像でも明るさの変化が生じてしまうことが知られている。 In addition, it is known that omnifocal imaging using a strobe and omnifocal imaging using a high-speed shutter also cause changes in brightness.

複数の画像に対して合成を行うとき、複数の画像に明るさの変化がある場合、合成された合成画像に明るさのムラが発生することがある。合成画像の明るさのムラを避けるために、合成に用いられる各画像を取得したあとに明るさを揃えるように補正することが望ましい。 When merging a plurality of images, if there is a change in brightness in the plurality of images, unevenness in brightness may occur in the synthesized image. In order to avoid unevenness in the brightness of the synthesized image, it is desirable to correct the brightness of each image to be used for synthesis after acquiring the images.

特開平10-290389号公報JP-A-10-290389 特開2020-107956号公報JP 2020-107956 A

しかしながら、明るさの補正の際に暗くする方向に補正されるシーンでは、画像の高輝度部分が色づいてしまう問題、乃至は飽和が出なくなる問題が発生することがある。 However, in a scene in which the brightness is corrected in the direction of darkening, there may occur a problem that the high-brightness portion of the image is colored, or a problem that saturation does not occur.

図を用いて上記の課題について説明する。図12は、RAWをYUVに変換する際のガンマカーブを示す図である。横軸に示すRAWの輝度値1201を超えた場合にYUVの輝度値が上限値1202となる。たとえば、明るさを暗くする方向に補正する際、RAWの最大値が輝度値1203まで下がった場合、YUVの輝度の上限値は輝度値1204となり、飽和が出なくなってしまう。また、RAWの輝度値が飽和に近い部分で明るさを下げた場合、RAWの緑画素に対する赤画素乃至青画素の比率が変わってしまうことによって、高輝度部が色づいてしまう。 The above problems will be explained with reference to the drawings. FIG. 12 is a diagram showing a gamma curve when converting RAW into YUV. When the RAW luminance value 1201 shown on the horizontal axis is exceeded, the YUV luminance value becomes the upper limit value 1202 . For example, if the maximum value of RAW drops to a luminance value of 1203 when correcting to darken the brightness, the upper limit value of YUV luminance becomes a luminance value of 1204, and saturation does not occur. Further, when the brightness is lowered in a portion where the RAW luminance value is close to saturation, the ratio of the red or blue pixels to the RAW green pixel changes, resulting in coloring of the high luminance portion.

上述のように、明るさを暗くする方向に補正するシーンにおいては、明るさを揃えるように補正しても、全焦点画像で色づきや明るさの段差が表れてしまう課題がある。 As described above, in a scene in which the brightness is corrected to be darkened, even if the brightness is corrected to be the same, there is a problem that the omnifocal image shows coloring and a difference in brightness.

上記課題を解決するため、本願発明は、あらかじめ露出の所定値を決定する決定手段と、ピント位置の異なる複数の画像を撮像する撮像手段と、前記撮像手段が前記複数の画像を撮像する際に、前記所定値よりも低い露出で撮像するように制御する制御手段と、前記複数の画像の少なくとも一部の画像の明るさを、前記決定手段が決定した前記所定値に基づいて補正する補正手段と、を有することを特徴とする撮像装置を提供する。 In order to solve the above-mentioned problems, the present invention provides a determination means for determining a predetermined exposure value in advance, an imaging means for capturing a plurality of images with different focus positions, and a , a control means for controlling the imaging with an exposure lower than the predetermined value; and a correcting means for correcting the brightness of at least a part of the plurality of images based on the predetermined value determined by the determining means. and an imaging device characterized by comprising:

本発明の構成によれば、色づきや明るさの段差を抑えた良好な合成画像を生成することができる。 According to the configuration of the present invention, it is possible to generate a good composite image in which coloring and unevenness in brightness are suppressed.

本発明の実施形態に係るデジタルカメラの構造を示すブロック図である。1 is a block diagram showing the structure of a digital camera according to an embodiment of the present invention; FIG. 本発明の第1の実施形態における合成画像の生成について説明するためのフローチャートである。4 is a flowchart for explaining generation of a composite image according to the first embodiment of the present invention; 本発明の第1の実施形態における撮像について説明するためのフローチャートである。4 is a flowchart for explaining imaging in the first embodiment of the present invention; 本発明の第1の実施形態における明るさ補正について説明するためのフローチャートである。4 is a flowchart for explaining brightness correction according to the first embodiment of the present invention; 本発明の第1の実施形態における位置合わせについて説明するためのフローチャートである。4 is a flow chart for explaining alignment in the first embodiment of the present invention; 本発明の第1の実施形態における画像の合成について説明するためのフローチャートである。4 is a flowchart for explaining image synthesis in the first embodiment of the present invention; ピント位置の変更に伴う輝度値が変化するとき、絞りを駆動する場合の輝度変化を説明するための図である。FIG. 10 is a diagram for explaining a luminance change in the case of driving the diaphragm when the luminance value changes due to the change of the focus position; 本発明の第1の実施形態における絞りを駆動する場合の輝度変化を説明するための図である。FIG. 5 is a diagram for explaining luminance changes when driving the diaphragm in the first embodiment of the present invention; 本発明の第2の実施形態における合成画像の合成を説明するためのフローチャートである。FIG. 10 is a flow chart for explaining synthesizing of synthesized images according to the second embodiment of the present invention; FIG. 全焦点撮像におけるピント位置と実効F値の変化の関係の一例を説明するための図である。FIG. 10 is a diagram for explaining an example of the relationship between the focus position and the effective F-number change in omnifocal imaging; 全焦点撮像におけるピント位置と輝度値の変化の関係の一例を説明するための図である。FIG. 10 is a diagram for explaining an example of the relationship between a focus position and a change in luminance value in omnifocal imaging; RAWをYUVに変換する際のガンマカーブを示す図である。FIG. 4 is a diagram showing a gamma curve when converting RAW to YUV; 本発明における複数の画像を撮像する際に、発光ムラまたは露光ムラによって輝度が変わることを説明するための図である。FIG. 10 is a diagram for explaining how luminance changes due to uneven light emission or uneven exposure when capturing a plurality of images according to the present invention;

以下では、添付の図面を参照しながら、本発明の好適な実施形態について詳細に説明する。 Preferred embodiments of the present invention will now be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は本実施形態に係る画像処理装置としてのデジタルカメラの構造を示すブロック図の一例である。デジタルカメラ100は、合焦位置を変化させながら複数の静止画を撮像することができる。
(First embodiment)
FIG. 1 is an example of a block diagram showing the structure of a digital camera as an image processing apparatus according to this embodiment. The digital camera 100 can capture a plurality of still images while changing the focus position.

制御部101は、例えばCPUやMPUなどのシグナルプロセッサであり、予め後述するROM105に内蔵されたプログラムを読み出しながら、デジタルカメラ100の各部分を制御する。たとえば、後述するように、制御部101が、後述する撮像部104に対して撮像の開始と終了について指令を出す。または、後述する画像処理部107に対して、ROM105に内蔵されたプログラムに基づいて、画像処理の指令を出す。ユーザによる指令は、後述する操作部110によってデジタルカメラ100に入力され、制御部101を通して、デジタルカメラ100の各部分に達する。 The control unit 101 is, for example, a signal processor such as a CPU or MPU, and controls each part of the digital camera 100 while reading out a program stored in advance in a ROM 105, which will be described later. For example, as will be described later, the control unit 101 issues commands to the imaging unit 104, which will be described later, regarding the start and end of imaging. Alternatively, based on a program stored in the ROM 105, an image processing command is issued to the image processing unit 107, which will be described later. A user's command is input to the digital camera 100 by an operation unit 110 (to be described later) and reaches each part of the digital camera 100 through the control unit 101 .

駆動部102は、モーターなどによって構成され、制御部101の指令の下で、後述する光学系103を機械的に動作させる。たとえば、制御部101の指令に基づいて、駆動部102が光学系103に含まれるフォーカスレンズの位置を移動させ、光学系103の焦点距離を調整する。 The drive unit 102 is configured by a motor or the like, and mechanically operates an optical system 103 to be described later under a command from the control unit 101 . For example, based on a command from the control unit 101 , the drive unit 102 moves the position of the focus lens included in the optical system 103 to adjust the focal length of the optical system 103 .

光学系103は、ズームレンズ、フォーカスレンズ、および絞りなどにより構成される。絞りは、透過する光量を調整する機構である。レンズの位置を変えることによって、合焦位置を変えることができる。 The optical system 103 is composed of a zoom lens, a focus lens, an aperture, and the like. A diaphragm is a mechanism that adjusts the amount of light that is transmitted. By changing the position of the lens, the focus position can be changed.

撮像部104は、光電変換素子であり、入射された光信号を電気信号に変換する光電変換を行うものである。たとえば、撮像部104に、CCDセンサやCMOSセンサなどを適用することができる。撮像部104は、動画撮像モードを設け、時間的に連続する複数の画像を動画の各々のフレームとして、撮像することができる。 The imaging unit 104 is a photoelectric conversion element that performs photoelectric conversion to convert an incident optical signal into an electrical signal. For example, a CCD sensor, a CMOS sensor, or the like can be applied to the imaging unit 104 . The imaging unit 104 has a moving image capturing mode, and can capture a plurality of temporally continuous images as each frame of a moving image.

ROM105は、記録媒体としての読み出し専用の不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶している。RAM106は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。 The ROM 105 is a read-only non-volatile memory as a recording medium, and stores the operation program of each block provided in the digital camera 100 as well as the parameters required for the operation of each block. A RAM 106 is a rewritable volatile memory, and is used as a temporary storage area for data output during operation of each block of the digital camera 100 .

画像処理部107は、撮像部104から出力された画像、あるいは後述する内蔵メモリ109に記録されている画像信号のデータに対して、ホワイトバランス調整、色補間、フィルタリングなど、様々な画像処理を行う。また、撮像部104が撮像した画像信号のデータに対して、JPEGなどの規格で、圧縮処理を行う。 The image processing unit 107 performs various image processing such as white balance adjustment, color interpolation, and filtering on the image output from the imaging unit 104 or image signal data recorded in a built-in memory 109, which will be described later. . Also, the data of the image signal captured by the imaging unit 104 is subjected to compression processing according to a standard such as JPEG.

画像処理部107は、特定の処理を行う回路を集めた集積回路(ASIC)で構成される。あるいは、制御部101がROM105から読み出したプログラムに従って処理することで、制御部101が画像処理部107の機能の一部または全部を兼用するようにしてもよい。制御部101が画像処理部107の全ての機能を兼用する場合には、画像処理部107をハードウェアとして有する必要はなくなる。 The image processing unit 107 is composed of an integrated circuit (ASIC) that is a collection of circuits that perform specific processing. Alternatively, the control unit 101 may perform processing according to a program read from the ROM 105 so that the control unit 101 may share some or all of the functions of the image processing unit 107 . If the control unit 101 shares all the functions of the image processing unit 107, the image processing unit 107 does not have to be provided as hardware.

表示部108は、RAM106に一時保存されている画像、または、後述する内蔵メモリ109に保存されている画像、あるいは、デジタルカメラ100の設定画面などを表示するための液晶ディスプレイや有機ELディスプレイなどである。 A display unit 108 is a liquid crystal display, an organic EL display, or the like for displaying images temporarily stored in the RAM 106, images stored in a built-in memory 109, which will be described later, or setting screens of the digital camera 100. be.

内蔵メモリ109は、撮像部104が撮像した画像や画像処理部107の処理を得た画像、および、画像撮像時の合焦位置の情報などを記録する場所である。内蔵メモリの代わりに、メモリカードなどを用いてもよい。 The built-in memory 109 is a place for recording an image captured by the image capturing unit 104, an image processed by the image processing unit 107, information on a focus position at the time of image capturing, and the like. A memory card or the like may be used instead of the built-in memory.

操作部110は、たとえば、デジタルカメラ100につけるボタンやスイッチ、キー、モードダイアルなど、あるいは、表示部108に兼用されるタッチパネルなどである。ユーザによる指令は、操作部110を経由して、制御部101に達する。 The operation unit 110 is, for example, buttons, switches, keys, mode dials, etc. attached to the digital camera 100, or a touch panel that is also used as the display unit 108, or the like. A command from the user reaches the control unit 101 via the operation unit 110 .

図2は、本実施形態における合成画像の生成について説明するためのフローチャートである。 FIG. 2 is a flowchart for explaining generation of a composite image according to this embodiment.

ステップS201では、撮像部104は、ピント位置の異なる複数の画像を撮像する。本実施形態において、撮像部104が、ピント位置を至近側から無限遠側へ変更させながら、撮像を行う。 In step S201, the imaging unit 104 captures a plurality of images with different focus positions. In this embodiment, the imaging unit 104 performs imaging while changing the focus position from the close-up side to the infinity side.

ステップS202では、制御部101および画像処理部107は、ステップS201で撮像部104が撮像した複数の画像の明るさの補正を行う。 In step S202, the control unit 101 and the image processing unit 107 correct the brightness of the multiple images captured by the imaging unit 104 in step S201.

ステップS203では、制御部101および画像処理部107は、ステップS202で明るさ補正した後の複数の画像に対して位置合わせを行う。 In step S203, the control unit 101 and the image processing unit 107 align the plurality of images after brightness correction in step S202.

ステップS204では、制御部101および画像処理部107は、ステップS203で位置合わせを行った後の画像に対して合成を行い、合成画像を生成する。以下では、それぞれのステップについて詳細に説明する。 In step S204, the control unit 101 and the image processing unit 107 combine the images after alignment in step S203 to generate a combined image. Each step will be described in detail below.

図3は、本実施形態におけるステップS201の撮像について説明するためのフローチャートである。 FIG. 3 is a flowchart for explaining imaging in step S201 in this embodiment.

ステップS301で、制御部101は、ピント位置の設定を行う。たとえば、ユーザは表示部108が兼用するタッチパネルを通して合焦位置を指定し、指定した合焦位置に相当するピント位置の光軸方向の前後に等間隔に複数のピント位置を指定する。同時に、制御部101は、設定したピント位置において、距離順に撮像順番を決める。 In step S301, the control unit 101 sets the focus position. For example, the user designates a focus position through the touch panel also used by the display unit 108, and designates a plurality of focus positions at equal intervals before and after the focus position corresponding to the designated focus position in the optical axis direction. At the same time, the control unit 101 determines the imaging order in order of distance at the set focus position.

ステップS302では、制御部101は、撮像する露出条件を決定する。制御部101はシャッタースピード、F値、ISO感度を決定する。露出条件は、ユーザが手動で設定してもよいし、制御部101が撮像部104を被写体に対して測光させ、自動で設定してもよい。 In step S302, the control unit 101 determines exposure conditions for imaging. The control unit 101 determines shutter speed, F-number, and ISO sensitivity. The exposure conditions may be set manually by the user, or may be set automatically by the control unit 101 causing the imaging unit 104 to measure the subject.

ステップS303では、制御部101は、ステップS301で定めた露出条件(露出の所定値)よりも暗く露光する量(露出の落とす量)の計算を行う。露出の落とす量は、一例として光学系103で装着されたレンズの性能によって定めてもよい。ピント位置の変動量によってどの程度実効F値が変化するかはレンズ性能に依存するため、たとえば、最至近から無限遠までピント位置を移動させた際の実効F値変化量を露出の落とす量として扱ってもよい。また、ストロボを使用する際は、発光ムラを含むストロボの性能を鑑みて露出を落とす量を決定することや、高速シャッターを使用する際は露光ムラを含むシャッター性能を鑑みて露出を落とす量を決定することも推奨する。また、露出の落とす量はシャッタースピード、F値、ISO感度の少なくともいずれかを使用してもよい。 In step S303, the control unit 101 calculates the amount of exposure darker than the exposure condition (predetermined value of exposure) defined in step S301 (the amount of exposure reduction). The amount of exposure reduction may be determined, for example, by the performance of the lens attached to the optical system 103 . Since how much the effective F-number changes depending on the amount of change in the focus position depends on the lens performance, for example, the amount of change in the effective F-number when moving the focus position from the closest point to infinity is used as the amount of exposure reduction. can handle. Also, when using a strobe, the amount of exposure reduction should be determined in consideration of the strobe's performance, including unevenness in light emission, and when using a high-speed shutter, the amount of exposure reduction should be determined in consideration of shutter performance, including exposure unevenness. It is also recommended to decide At least one of the shutter speed, F number, and ISO sensitivity may be used as the amount of exposure reduction.

ステップS304で、制御部101は、ステップS301で決めた撮像順番に従い、ステップS301で設定したピント位置のうちで未撮像のピント位置にピントを移動させる。 In step S304, the control unit 101 moves the focus to an unimaged focus position among the focus positions set in step S301 in accordance with the imaging order determined in step S301.

ステップS305では、撮像部104は、ステップS302で決定した露出よりもステップS303で決定した露出の分だけ暗くして撮像を行う。 In step S305, the imaging unit 104 performs imaging by darkening the exposure determined in step S302 by the exposure determined in step S303.

ステップS306では、制御部101は、ステップS301で設定したすべてのピント位置において撮像を行ったかどうかについて判断する。すべてのピント位置に撮像した場合は、このフローチャートでの処理を終了し、まだ撮像していないピント位置があれば、ステップS304に戻る。 In step S306, the control unit 101 determines whether or not imaging has been performed at all the focus positions set in step S301. If the image has been captured at all the focus positions, the processing in this flow chart ends, and if there is a focus position that has not been captured yet, the process returns to step S304.

図3に示したフローチャートでは、撮像部104が複数の画像を撮像している間に、制御部101が、ピント位置以外の、露出を含めて撮像のための設定を変更しないようにする。前述のように、ピント位置が変わるだけで、画像の明るさが変化してしまう。 In the flowchart shown in FIG. 3, while the imaging unit 104 is capturing a plurality of images, the control unit 101 does not change settings for imaging, including exposure, other than the focus position. As described above, the brightness of the image changes simply by changing the focus position.

図4は、本実施形態におけるステップS202での明るさの補正について説明するためのフローチャートである。 FIG. 4 is a flowchart for explaining brightness correction in step S202 in this embodiment.

ステップS401では、制御部101は、ステップS201で撮像部104が撮像した画像のうちから、明るさ補正の対象画像を取得する。明るさ補正の対象画像は、最初に撮像した1枚目の画像以外、まだ明るさ補正の対象画像となっていない画像の中で、撮像順番が最も早いものとする。 In step S401, the control unit 101 acquires an image to be subjected to brightness correction from among the images captured by the imaging unit 104 in step S201. The target image for brightness correction is the image that has the earliest imaging order among the images that have not yet become the target image for brightness correction, other than the first image captured first.

ステップS402では、制御部101は、ステップS201で撮像部104が撮像した画像のうちから、明るさ補正の基準画像を取得する。明るさ補正の基準画像は、対象画像の前に撮像した画像とする。 In step S402, the control unit 101 acquires a reference image for brightness correction from among the images captured by the imaging unit 104 in step S201. A reference image for brightness correction is an image captured before the target image.

ステップS403では、制御部101は、基準画像と対象画像との明るさの比率を計算する。計算方法としては、たとえば基準画像と対象画像のRAW画像の緑画素の積分値を比較することで求めることが好ましいが、YUV画像乃至RGB画像の状態で比較することでも、撮像時の測光量をみて比較することでもよい。 In step S403, the control unit 101 calculates the brightness ratio between the reference image and the target image. As a calculation method, for example, it is preferable to obtain by comparing the integrated values of green pixels in the RAW images of the reference image and the target image. You can look and compare.

ステップS404では、制御部101は、ステップS403で求めた明るさの比率を累積した累積ゲイン量を計算する。累積ゲイン量とは、現在の基準画像と対象画像よりも前に求めたゲイン量に、今回のステップS403で求めた比率を掛け合わせることで、対象画像の明るさを、ステップS302で決定した露出に近づけるための値である。 In step S404, the control unit 101 calculates a cumulative gain amount by accumulating the brightness ratio obtained in step S403. The cumulative gain amount is obtained by multiplying the gain amount obtained before the current reference image and the target image by the ratio obtained in step S403 this time, so that the brightness of the target image is obtained by the exposure determined in step S302. is a value for approximating

ステップS405では、制御部101は、ステップS404で求めた累積ゲイン量と、対象画像の関連をつけておく。RAM106に累積ゲイン量と対象画像との組み合わせを配列のような形で記憶しておくことが望ましい。 In step S405, the control unit 101 associates the cumulative gain amount obtained in step S404 with the target image. It is desirable to store combinations of cumulative gain amounts and target images in the RAM 106 in the form of an array.

ステップS406では、制御部101は、全ての画像を処理したどうかについて判断する。全ての画像を処理した場合は、ステップS407に進み、そうでない場合はステップS401に戻る。 In step S406, the control unit 101 determines whether all images have been processed. If all images have been processed, proceed to step S407; otherwise, return to step S401.

ステップS407では、画像処理部107は、最初に撮像した1枚目の画像以外の全ての画像に対して、ステップS405で関連付けた累積ゲイン量の分だけ画像面内一律で明るさの補正を行う。明るさの補正方法は、センサ出力後のRAWの状態で補正してもよいし、RAWからYUVに変換する際に補正してもよいし、RGBの状態で補正してもよい。 In step S407, the image processing unit 107 uniformly corrects brightness in the image plane by the cumulative gain associated in step S405 for all images other than the first image captured first. . The brightness may be corrected in the RAW state after sensor output, in the conversion from RAW to YUV, or in the RGB state.

図5は、本実施形態におけるステップS203での位置合わせについて説明するためのフローチャートである。 FIG. 5 is a flowchart for explaining alignment in step S203 in this embodiment.

ステップS501では、制御部101は、ステップS201で撮像部104が撮像した画像のうちから、位置合わせの基準画像を取得する。位置合わせの基準画像は、撮像順番が最も早いものとする。あるいは、ピント位置を変えながら撮像することで、わずかながら撮像された画像間で画角が変化するため、撮像した画像の中で画角が最も狭いものにしてもよい。 In step S501, the control unit 101 acquires a reference image for alignment from among the images captured by the imaging unit 104 in step S201. Assume that the reference image for alignment has the earliest imaging order. Alternatively, since the angle of view slightly changes between captured images by capturing images while changing the focus position, the angle of view may be the narrowest among the captured images.

ステップS502では、制御部101は、位置合わせの処理の対象画像を取得する。対象画像は、ステップS501で取得した基準画像以外の画像で、位置合わせの処理が済んでいないものとする。制御部101は、撮像順番が最も早いものを基準画像とするならば、撮像した順番で順次に対象画像を取得すればよい。 In step S502, the control unit 101 acquires a target image for alignment processing. It is assumed that the target image is an image other than the reference image acquired in step S501 and has not been subjected to alignment processing. If the control unit 101 sets the image with the earliest imaging order as the reference image, the control unit 101 may sequentially acquire the target images in the imaging order.

ステップS503では、制御部101は、基準画像と対象画像との位置のずれ量を算出する。算出方法の一例は、以下に述べる。まず、制御部101は、基準画像に、複数のブロックを設定する。制御部101は、各々のブロックのサイズが同じになるように設定することが好ましい。次に、制御部101は、対象画像の、基準画像のそれぞれのブロックと同じ位置に、基準画像のブロックよりも広い範囲を、探索範囲を設定する。最後に、制御部101は、対象画像のそれぞれの探索範囲に、基準画像のブロックとの輝度の差分絶対値和(Sum of Absolute Difference、以下、SADをいう)が最小となる対応点を算出する。制御部101は、基準画像のブロックの中心と前述した対応点から、ステップS503でいう位置のずれをベクトルとして算出する。制御部101は、前述する対応点の算出において、SADのほかに、差分二乗和(Sum of Squared Difference、以下SSDをいう)や正規化相互相関(Normalized Cross Correlation、以下NCCをいう)などを用いてもよい。 In step S503, the control unit 101 calculates the positional deviation amount between the reference image and the target image. An example of the calculation method is described below. First, the control unit 101 sets a plurality of blocks in the reference image. Control unit 101 preferably sets the size of each block to be the same. Next, the control unit 101 sets a search range that is wider than the blocks of the reference image at the same positions as the respective blocks of the reference image in the target image. Finally, the control unit 101 calculates a corresponding point in each search range of the target image that has the minimum sum of absolute differences in luminance (Sum of Absolute Difference, hereinafter referred to as SAD) from the block of the reference image. . The control unit 101 calculates the positional deviation in step S503 as a vector from the center of the block of the reference image and the corresponding point described above. In calculating the corresponding points described above, the control unit 101 uses the sum of squared differences (hereinafter referred to as SSD), normalized cross correlation (hereinafter referred to as NCC), etc. in addition to SAD. may

ステップS504で、制御部101で、基準画像と対象画像との位置のずれ量から変換係数を算出する。制御部101は、変換係数として、例えば射影変換係数を用いる。ただし、変換係数として射影変換係数だけに限定するわけではなく、アフィン変換係数や水平垂直シフトのみの簡略化した変換係数を用いてもよい。 In step S504, the control unit 101 calculates a transform coefficient from the amount of positional deviation between the reference image and the target image. The control unit 101 uses, for example, a projective transform coefficient as the transform coefficient. However, the transform coefficients are not limited to projective transform coefficients, and affine transform coefficients or simplified transform coefficients with only horizontal and vertical shifts may be used.

ステップS505で、画像処理部107は、ステップS504で算出した変換係数を用いて対象画像に対して変換を行う。 In step S505, the image processing unit 107 transforms the target image using the transform coefficients calculated in step S504.

たとえば、制御部101は、(式1)に示した式を用いて変形を行うことができる。 For example, the control unit 101 can transform using the formula shown in (Formula 1).

Figure 2023026997000002
Figure 2023026997000002

(式1)では、(x´,y´)は変形を行った後の座標を示し、(x,y)は変形を行う前の座標を示す。行列AはステップS404で制御部101が算出した変形係数を示す。 In (Equation 1), (x', y') indicate coordinates after deformation, and (x, y) indicate coordinates before deformation. Matrix A indicates the deformation coefficients calculated by the control unit 101 in step S404.

ステップS506で、制御部101は、基準画像以外のすべての画像に対して位置合わせを行ったかどうかについて判断する。基準画像以外のすべての画像に対して位置合わせを行った場合は、図5に示したフローチャートでの処理を終了し、まだ処理していない画像があれば、ステップS502に戻る。 In step S506, the control unit 101 determines whether alignment has been performed for all images other than the reference image. If all the images other than the reference image have been aligned, the processing in the flowchart shown in FIG. 5 ends.

また、上述した多眼カメラで撮像された複数の画像を位置合わせする場合、光学系103の位置の違いにより生まれる視差量をステップS503でずれ量算出で求める事ができるため、同様の処理で位置合わせを行うことができる。 Further, when aligning a plurality of images captured by the above-described multi-lens camera, the amount of parallax caused by the difference in the position of the optical system 103 can be obtained by calculating the amount of deviation in step S503. Alignment can be done.

図6は、本実施形態におけるステップS204での画像の合成について説明するためのフローチャートである。 FIG. 6 is a flowchart for explaining image composition in step S204 in this embodiment.

ステップ601で、画像処理部107は、位置合わせを行った後のそれぞれの画像(基準画像を含む)に対してコントラスト値を算出する。コントラスト値の算出方法の一例としては、たとえば、まず、画像処理部107は、それぞれの画素の色信号Sr、Sg、Sbから、下記の(式2)を用いて輝度Yを算出する。
Y=0.299Sr+0.587Sg+0.114Sb・・・(式2)
In step 601, the image processing unit 107 calculates a contrast value for each image (including the reference image) after alignment. As an example of a method of calculating the contrast value, for example, first, the image processing unit 107 calculates the luminance Y from the color signals Sr, Sg, and Sb of each pixel using the following (Equation 2).
Y=0.299Sr+0.587Sg+0.114Sb (Formula 2)

次に、3×3の画素の輝度Yの行列Lに、下記の(式3)乃至(式5)に示したように、ソーベルフィルタを用いてコントラスト値Iを算出する。 Next, a contrast value I is calculated using a Sobel filter on the matrix L of luminance Y of 3×3 pixels, as shown in (Equation 3) to (Equation 5) below.

Figure 2023026997000003
Figure 2023026997000003

Figure 2023026997000004
Figure 2023026997000004

Figure 2023026997000005
Figure 2023026997000005

また、上述のコントラスト値の計算方法は一例にすぎず、たとえば、使用するフィルタをラプラシアンフィルタ等のエッジ検出フィルタや所定の帯域を通過するバンドパスフィルタを用いることも可能である。 Further, the method of calculating the contrast value described above is merely an example. For example, it is also possible to use an edge detection filter such as a Laplacian filter or a bandpass filter that passes a predetermined band as the filter to be used.

ステップS602で、画像処理部107は合成マップを生成する。合成マップの生成方法としては、画像処理部107は、それぞれの画像の同じ位置にある画素のコントラスト値を比較し、コントラスト値の大きさに応じた合成比率を算出する。 In step S602, the image processing unit 107 generates a synthetic map. As a method of generating a synthesis map, the image processing unit 107 compares the contrast values of pixels at the same position in each image and calculates a synthesis ratio according to the magnitude of the contrast values.

具体的な算出方法の一例を以下に示す。 An example of a specific calculation method is shown below.

ステップS601で算出したコントラスト値Cm(x,y)を用いて合成マップAm(x,y)を生成する。なお、mはピント位置の異なる複数画像のうちm番目の画像、xは画像の水平座標、yは垂直座標を示している。合成マップの生成方法としては、画像処理部107は、それぞれの画像の同じ位置にある画素のコントラスト値を比較し、コントラスト値の大きさに応じた合成比率を算出する。具体的に、同じ位置にある画像のうち、コントラスト値の最も大きい画素に対して100%の合成比率を与え、同じ位置にある他の画素に対して0%の合成比率を与える。つまり、次の(式6)が成り立つ。 A synthetic map Am(x, y) is generated using the contrast value Cm(x, y) calculated in step S601. Note that m is the m-th image among a plurality of images with different focus positions, x is the horizontal coordinate of the image, and y is the vertical coordinate. As a method of generating a synthesis map, the image processing unit 107 compares the contrast values of pixels at the same position in each image and calculates a synthesis ratio according to the magnitude of the contrast values. Specifically, among the images at the same position, the pixel with the largest contrast value is given a 100% synthesis ratio, and the other pixels at the same position are given a 0% synthesis ratio. That is, the following (Equation 6) holds.

Figure 2023026997000006
Figure 2023026997000006

ただし、ステップS602では、境界部が不自然にならないように合成比率を適宜調整する必要がある。その結果、1枚の画像における合成マップの合成比率は、0%と100%との二値化のものでなく、連続的に変化するものになる。 However, in step S602, it is necessary to appropriately adjust the composition ratio so that the boundary does not look unnatural. As a result, the composition ratio of the composite map in one image is not binarized between 0% and 100%, but changes continuously.

ステップS603では、画像処理部107は、ステップ602で算出した合成マップに従い、撮像された画像を合成した全焦点画像О(x,y)を生成する。撮像された元の画像をIm(x,y)とすると、以下の(式7)で画像が生成される。 In step S<b>603 , the image processing unit 107 generates an omnifocal image O(x, y) by synthesizing the captured images according to the synthetic map calculated in step S<b>602 . Assuming that the original captured image is Im(x, y), the image is generated by the following (Equation 7).

Figure 2023026997000007
Figure 2023026997000007

本実施形態において、ピント位置の変更に伴う輝度値の変化を補正しようとする際、絞り駆動による輝度段差を相殺することが考えられる。 In the present embodiment, when attempting to correct a change in luminance value due to a change in focus position, it is conceivable to offset a luminance step due to aperture driving.

図7は、ピント位置の変更に伴う輝度値が変化するとき、絞りを駆動する場合の輝度変化を説明するための図である。ピント位置の移動に従って輝度が上がっていくのに対して、図7のように、特定の輝度変化を検知した時点でレンズの絞りを絞ることで、撮像開始時の輝度を保つようなシステムを考えられる。しかしながら、図7に示したようなシステムでも、撮像された画像を撮像開始時の輝度に合わせるように輝度補正を行った場合、画像を暗くする方向に補正することとなり、画像の高輝度部分が色づいてしまう問題、乃至は飽和が出なくなる問題が発生する。 7A and 7B are diagrams for explaining the change in brightness when the aperture is driven when the brightness value changes as the focus position is changed. While the brightness increases as the focus position moves, as shown in Fig. 7, we considered a system that maintains the brightness at the start of imaging by narrowing the aperture of the lens when a specific change in brightness is detected. be done. However, even in the system shown in FIG. 7, if the brightness of the captured image is corrected so as to match the brightness at the start of imaging, the image will be corrected in the direction of darkening, and the high brightness portion of the image will be darkened. A problem of coloring or a problem of no saturation occurs.

図10は、第1の実施形態において、絞りを駆動する場合の輝度変化を説明するための図である。第1の実施形態においては、図3のステップS303の露出の落とす量の計算において、図10の絞り駆動時の露出段差の大きさを指定することで、図8のように予め定められた露出を超えることのないように撮像することができる。図8のように撮像できれば、図4のステップS407において画像処理で明るい方向に補正することができ、色づきや露出段差を抑えた合成画像を生成することができる。 10A and 10B are diagrams for explaining luminance changes when the diaphragm is driven in the first embodiment. FIG. In the first embodiment, in the calculation of the amount of reduction in exposure in step S303 in FIG. can be imaged so as not to exceed . If the image can be captured as shown in FIG. 8, the image can be corrected in the brighter direction by image processing in step S407 of FIG.

(第2の実施形態)
以下では、本発明の第2の実施形態について、図を用いながら説明する。第2の実施形態では、第1の実施形態と異なり、画像の合成を行うかどうかによって、画像を撮像するときの露出の決め方を変更する。詳細は以下で説明する。
(Second embodiment)
A second embodiment of the present invention will be described below with reference to the drawings. In the second embodiment, unlike the first embodiment, the method of determining exposure when capturing an image is changed depending on whether or not to combine images. Details are described below.

図9は、本実施形態における合成画像の生成について説明するためのフローチャートである。第2の実施形態では、デジタルカメラ100に、複数の撮像モードが搭載され、複数の撮像モードのうちの1つが深度合成のモードであることが想定されている。 FIG. 9 is a flowchart for explaining generation of a composite image in this embodiment. In the second embodiment, it is assumed that the digital camera 100 is equipped with a plurality of imaging modes, and one of the plurality of imaging modes is the focus stacking mode.

ステップS901では、制御部101がデジタルカメラ100の撮像モードが深度合成のモードに設定されているかどうかを判定する。深度合成のモードの場合は、ステップS902へ進むが、以降の処理は第1の実施形態に記載した通りである。深度合成のモードではない場合は、フローがステップS906に遷移する。 In step S901, the control unit 101 determines whether the imaging mode of the digital camera 100 is set to the focus stacking mode. In the focus stacking mode, the process advances to step S902, and the subsequent processing is as described in the first embodiment. If the focus stacking mode is not set, the flow transitions to step S906.

ステップS906では、制御部101は、撮像する露出条件を決定する。ここでは、第1の実施形態のステップS302と同様に、制御部101はシャッタースピード、F値、ISO感度を決定する。露出条件は、ユーザが手動で設定してもよいし、制御部101が撮像部104を被写体に対して測光させ、自動で設定してもよい。 In step S906, the control unit 101 determines exposure conditions for imaging. Here, similarly to step S302 of the first embodiment, the control unit 101 determines the shutter speed, F number, and ISO sensitivity. The exposure conditions may be set manually by the user, or may be set automatically by the control unit 101 causing the imaging unit 104 to measure the subject.

ステップS907では、撮像部104が、ステップS906で決定した露出条件に応じて撮像する。ステップS907では、撮像部104が複数の画像を撮像する場合でも、複数の画像の撮像に用いる露出条件をステップS906で決定した露出条件のままにする。 In step S907, the imaging unit 104 performs imaging according to the exposure conditions determined in step S906. In step S907, even when the imaging unit 104 captures a plurality of images, the exposure conditions used for capturing the plurality of images are left as the exposure conditions determined in step S906.

本実施形態によれば、深度合成の場合は、予め定められた露出よりも暗く撮像し、画像処理で明るい方向に補正することで、色づきや露出段差を抑えた合成画像を生成することができ、深度合成ではない場合は露出を変更せずに撮像を行うことができる。 According to this embodiment, in the case of focus stacking, it is possible to generate a composite image that suppresses coloring and exposure steps by capturing an image with a darker exposure than a predetermined exposure and correcting it in a brighter direction through image processing. In the case of non-focus stacking, imaging can be performed without changing the exposure.

(その他の実施形態)
以上の実施形態では、深度合成をもとに説明しているが、これに限らない。複数の画像を撮像する際に、たとえピント位置を変更しなくても、ストロボを使用する際の発光ムラや高速シャッターを使用する際の露光ムラなどによって、露出が変わってしまうことがある。図13は、複数の画像を撮像する際に、発光ムラまたは露光ムラによって輝度が変わることを説明するための図である。図13に示した複数の画像に対してなんらかの合成を行う場合、第1の実施形態と同様に、合成された合成画像に明るさのムラが発生する。このような課題を解消するために、第1の実施形態に説明したような、露出を所定値より低くして撮像する方法が有効である。
(Other embodiments)
Although focus stacking has been described in the above embodiment, the present invention is not limited to this. Even if the focus position is not changed when taking multiple images, the exposure may change due to uneven light emission when using a strobe or uneven exposure when using a high-speed shutter. FIG. 13 is a diagram for explaining how luminance changes due to uneven light emission or uneven exposure when a plurality of images are captured. When a plurality of images shown in FIG. 13 are combined in some way, brightness unevenness occurs in the combined image, as in the first embodiment. In order to solve such a problem, it is effective to take an image with an exposure lower than a predetermined value as described in the first embodiment.

以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子が内蔵した携帯機器などで実施してもよく、画像を撮像することができるネットワークカメラなどでもよい。 Although the above embodiment has been described based on implementation in a digital camera, it is not limited to a digital camera. For example, it may be carried out by a mobile device having an image sensor built therein, or by a network camera capable of capturing an image.

なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 In addition, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device executes the program. can also be realized by a process of reading and operating the It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100 デジタルカメラ
101 制御部
102 駆動部
103 光学系
104 撮像部
105 ROM
106 RAM
107 画像処理部
108 表示部
109 内蔵メモリ
110 操作部
100 Digital Camera 101 Control Unit 102 Driving Unit 103 Optical System 104 Imaging Unit 105 ROM
106 RAMs
107 image processing unit 108 display unit 109 built-in memory 110 operation unit

Claims (26)

あらかじめ露出の所定値を決定する決定手段と、
ピント位置の異なる複数の画像を撮像する撮像手段と、
前記撮像手段が前記複数の画像を撮像する際に、前記所定値よりも低い露出で撮像するように制御する制御手段と、
前記複数の画像の少なくとも一部の画像の明るさを、前記決定手段が決定した前記所定値に基づいて補正する補正手段と、を有することを特徴とする撮像装置。
determining means for determining a predetermined value of exposure in advance;
imaging means for imaging a plurality of images with different focus positions;
a control means for controlling such that when the image capturing means captures the plurality of images, the images are captured with an exposure lower than the predetermined value;
and correction means for correcting brightness of at least part of the plurality of images based on the predetermined value determined by the determination means.
前記補正手段は、前記複数の画像の少なくとも一部の画像の露出を、前記所定値と合わせるように前記一部の画像の明るさを補正すること特徴とする請求項1に記載の撮像装置。 2. The imaging apparatus according to claim 1, wherein said correcting means corrects the brightness of said partial image so as to match the exposure of at least a partial image of said plurality of images with said predetermined value. 前記撮像手段は、前記ピント位置を変えながら、前記複数の画像を撮像することを特徴とする請求項1または2に記載の撮像装置。 3. The image pickup apparatus according to claim 1, wherein the image pickup means picks up the plurality of images while changing the focus position. 前記撮像手段は、前記ピント位置を、至近側から無限遠側に変えながら、前記複数の画像を撮像することを特徴とする請求項3に記載の撮像装置。 4. The image pickup apparatus according to claim 3, wherein said image pickup means picks up said plurality of images while changing said focus position from a close-up side to an infinity side. 前記決定手段は、前記複数の画像のうち、1枚目の画像を撮像する際の測光量に基づいて前記所定値を決定することを特徴とする請求項1または2に記載の撮像装置。 3. The imaging apparatus according to claim 1, wherein said determining means determines said predetermined value based on a photometric amount when capturing a first image among said plurality of images. 前記決定手段は、ユーザの設定に基づいて前記所定値を決定することを特徴とする請求項1または2に記載の撮像装置。 3. The imaging apparatus according to claim 1, wherein said determining means determines said predetermined value based on user settings. 前記制御手段は、シャッタースピードとF値とISO感度との少なくともいずれかを制御することにより前記撮像手段が前記複数の画像を撮像する際の露出を制御することを特徴とする請求項1または2に記載の撮像装置。 3. The control means controls exposure when the image capturing means captures the plurality of images by controlling at least one of a shutter speed, an F number, and an ISO sensitivity. The imaging device according to . 前記撮像手段が前記複数の画像を撮像する際の実効F値が変化し、
前記制御手段は、前記実効F値の変化量に基づいて前記撮像手段が前記複数の画像を撮像する際の前記露出を制御することを特徴とする請求項1または2に記載の撮像装置。
an effective F value changes when the imaging means captures the plurality of images,
3. The image pickup apparatus according to claim 1, wherein the control means controls the exposure when the image pickup means takes the plurality of images based on the amount of change in the effective F value.
前記撮像手段が、ストロボを用いて前記複数の画像を撮像し、
前記制御手段は、前記ストロボの性能に基づいて前記撮像手段が前記複数の画像を撮像する際の前記露出を制御することを特徴とする請求項1または2に記載の撮像装置。
The imaging means captures the plurality of images using a strobe,
3. The image pickup apparatus according to claim 1, wherein the control means controls the exposure when the image pickup means takes the plurality of images based on performance of the strobe.
前記ストロボの性能は、前記ストロボの発光ムラを含むことを特徴とする請求項9に記載の撮像装置。 10. The imaging apparatus according to claim 9, wherein the performance of said strobe includes uneven light emission of said strobe. 前記撮像手段が、高速シャッターを用いて前記複数の画像を撮像し、
前記制御手段は、前記高速シャッターの性能に基づいて前記撮像手段が前記複数の画像を撮像する際の前記露出を制御することを特徴とする請求項1または2に記載の撮像装置。
The imaging means captures the plurality of images using a high-speed shutter,
3. The image pickup apparatus according to claim 1, wherein the control means controls the exposure when the image pickup means takes the plurality of images based on the performance of the high-speed shutter.
前記高速シャッターの性能は、高速シャッターによる露光ムラを含むことを特徴とする請求項11に記載の撮像装置。 12. The image pickup apparatus according to claim 11, wherein the performance of said high-speed shutter includes exposure unevenness due to high-speed shutter. 前記補正手段は、前記複数の画像のRAW画像またはYUV画像またはRGB画像に対して補正することを特徴とする請求項1または2に記載の撮像装置。 3. The imaging apparatus according to claim 1, wherein said correction means corrects RAW images, YUV images, or RGB images of said plurality of images. 前記補正手段は、前記複数の画像のRAWの緑画素の積分値に基づいて補正することを特徴とする請求項1または2に記載の撮像装置。 3. The imaging apparatus according to claim 1, wherein the correcting means performs correction based on an integrated value of RAW green pixels of the plurality of images. 前記補正手段は、前記撮像手段が前記複数の画像を撮像する際の測光量に基づいて補正することを特徴とする請求項1または2に記載の撮像装置。 3. The imaging apparatus according to claim 1, wherein said correcting means corrects based on a photometric amount when said imaging means picks up said plurality of images. 前記複数の画像を合成し、合成画像を生成する合成手段を有し、
前記合成画像の被写界深度は、前記複数の画像の被写界深度よりも深いことを特徴とする請求項1または2に記載の撮像装置。
Synthesizing means for synthesizing the plurality of images to generate a synthetic image,
3. The imaging apparatus according to claim 1, wherein the depth of field of said synthesized image is deeper than the depth of field of said plurality of images.
前記合成手段は、前記複数の画像のそれぞれの合焦している領域を抽出して前記合成画像を生成することを特徴とする請求項16に記載の撮像装置。 17. The imaging apparatus according to claim 16, wherein said synthesizing means extracts a focused area of each of said plurality of images to generate said synthesized image. あらかじめ露出の所定値を決定する決定ステップと、
ピント位置の異なる複数の画像を撮像する撮像ステップと、
前記撮像ステップにおいて前記複数の画像を撮像する際に、前記所定値よりも低い露出で撮像するように制御する制御ステップと、
前記複数の画像の少なくとも一部の画像の明るさを、前記決定手段が決定した前記所定値に基づいて補正する補正ステップと、を有することを特徴とする撮像方法。
a determining step of predetermining a predetermined value of exposure;
an imaging step of imaging a plurality of images with different focus positions;
a control step of performing control such that when the plurality of images are captured in the imaging step, they are captured with an exposure lower than the predetermined value;
and a correction step of correcting the brightness of at least part of the plurality of images based on the predetermined value determined by the determining means.
撮像装置をコンピュータに動作させるプログラムであって、
あらかじめ露出の所定値を決定する決定ステップと、
ピント位置の異なる複数の画像を撮像する撮像ステップと、
前記撮像ステップにおいて前記複数の画像を撮像する際に、前記所定値よりも低い露出で撮像するように制御する制御ステップと、
前記複数の画像の少なくとも一部の画像の明るさを、前記決定手段が決定した前記所定値に基づいて補正する補正ステップと、を行わせることを特徴とするコンピュータのプログラム。
A program that causes a computer to operate an imaging device,
a determining step of predetermining a predetermined value of exposure;
an imaging step of imaging a plurality of images with different focus positions;
a control step of performing control such that when the plurality of images are captured in the imaging step, they are captured with an exposure lower than the predetermined value;
and a correction step of correcting the brightness of at least part of the plurality of images based on the predetermined value determined by the determining means.
あらかじめ露出の所定値を決定する決定手段と、
異なる複数の画像を撮像する撮像手段と、
前記撮像手段が前記複数の画像を撮像する際の露出を制御する制御手段と、
前記複数の画像の少なくとも一部の画像の明るさを、前記決定手段が決定した前記所定値に基づいて補正する補正手段と、
前記複数の画像の少なくとも一部の画像に対して、合成を行う合成手段と、を有し、
前記合成を行う第1のモードにおいて、前記制御手段が、前記撮像手段が前記複数の画像を撮像する際、前記所定値よりも低い露出で撮像するように制御し、前記補正手段が前記補正を行い、
前記合成を行わない第2のモードにおいて、前記制御手段が、前記撮像手段が前記複数の画像を撮像する際、前記所定値で撮像するように制御することを特徴とする撮像装置。
determining means for determining a predetermined value of exposure in advance;
imaging means for imaging a plurality of different images;
a control means for controlling exposure when the imaging means captures the plurality of images;
correction means for correcting the brightness of at least part of the plurality of images based on the predetermined value determined by the determination means;
synthesizing means for synthesizing at least part of the plurality of images;
In the first mode for synthesizing, the control means controls such that when the image capturing means captures the plurality of images, the image capturing means captures the images with an exposure lower than the predetermined value, and the correction means performs the correction. do,
In the second mode in which the synthesis is not performed, the control means controls the image pickup means to pick up the plurality of images with the predetermined value.
前記第2のモードにおいて、前記補正手段が前記補正を行わないことを特徴とする請求項20に記載の撮像装置。 21. The imaging apparatus according to claim 20, wherein said correction means does not perform said correction in said second mode. 前記複数の画像のピント位置が異なることを特徴とする請求項20または21に記載の撮像装置。 22. The imaging apparatus according to claim 20, wherein the plurality of images have different focus positions. 前記合成手段は、前記合成を行うことで、前記複数の画像の少なくとも一部の画像の被写界深度よりも深い被写界深度を有する合成画像を生成することを特徴とする請求項20または21に記載の撮像装置。 21. The synthesizing unit generates a synthetic image having a deeper depth of field than the depth of field of at least a part of the plurality of images by performing the synthesizing. 22. The imaging device according to 21. あらかじめ露出の所定値を決定する決定ステップと、
異なる複数の画像を撮像する撮像ステップと、
前記撮像ステップにおいて前記複数の画像を撮像する際の露出を制御する制御ステップと、
前記複数の画像の少なくとも一部の画像の明るさを、前記決定ステップにおいて決定した前記所定値に基づいて補正する補正ステップと、
前記複数の画像の少なくとも一部の画像に対して、合成を行う合成ステップと、を有し、
前記合成を行う第1のモードにおいて、前記制御ステップにおいては、前記撮像ステップにおいて前記複数の画像を撮像する際、前記所定値よりも低い露出で撮像するように制御し、前記補正ステップにおいて前記補正を行い、
前記合成を行わない第2のモードにおいて、前記制御ステップにおいては、前記撮像ステップにおいてが前記複数の画像を撮像する際、前記所定値で撮像するように制御することを特徴とする撮像方法。
a determining step of predetermining a predetermined value of exposure;
an imaging step of capturing a plurality of different images;
a control step of controlling exposure when capturing the plurality of images in the imaging step;
a correction step of correcting the brightness of at least some of the plurality of images based on the predetermined value determined in the determination step;
a synthesizing step of synthesizing at least part of the plurality of images;
In the first mode of combining, in the control step, when the plurality of images are captured in the imaging step, they are controlled to be captured with an exposure lower than the predetermined value, and in the correction step, the correction is performed. and
In the second mode in which no synthesis is performed, the imaging method is characterized in that, in the control step, when the plurality of images are captured in the imaging step, they are controlled to be captured with the predetermined value.
撮像装置をコンピュータに動作させるプログラムであって、
あらかじめ露出の所定値を決定する決定ステップと、
異なる複数の画像を撮像する撮像ステップと、
前記撮像ステップにおいて前記複数の画像を撮像する際の露出を制御する制御ステップと、
前記複数の画像の少なくとも一部の画像の明るさを、前記決定ステップにおいて決定した前記所定値に基づいて補正する補正ステップと、
前記複数の画像の少なくとも一部の画像に対して、合成を行う合成ステップと、を行わせ、
前記合成を行う第1のモードにおいて、前記制御ステップにおいては、前記撮像ステップにおいて前記複数の画像を撮像する際、前記所定値よりも低い露出で撮像するように制御し、前記補正ステップにおいて前記補正を行い、
前記合成を行わない第2のモードにおいて、前記制御ステップにおいては、前記撮像ステップにおいてが前記複数の画像を撮像する際、前記所定値で撮像するように制御することを特徴とするコンピュータのプログラム。
A program that causes a computer to operate an imaging device,
a determining step of predetermining a predetermined value of exposure;
an imaging step of capturing a plurality of different images;
a control step of controlling exposure when capturing the plurality of images in the imaging step;
a correction step of correcting the brightness of at least some of the plurality of images based on the predetermined value determined in the determination step;
performing a synthesizing step of synthesizing at least part of the plurality of images;
In the first mode of combining, in the control step, when the plurality of images are captured in the imaging step, they are controlled to be captured with an exposure lower than the predetermined value, and in the correction step, the correction is performed. and
A computer program characterized in that, in the second mode in which the synthesis is not performed, the controlling step performs control such that when the plurality of images are captured in the imaging step, they are captured with the predetermined value.
請求項19または25に記載のプログラムを記録するコンピュータが読み出し可能な記録媒体。 A computer-readable recording medium recording the program according to claim 19 or 25.
JP2022080615A 2021-08-16 2022-05-17 Imaging device, imaging method, program, and recording medium Pending JP2023026997A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP22185849.1A EP4138384A3 (en) 2021-08-16 2022-07-19 Imaging apparatus, imaging method, and storage medium
CN202210864168.1A CN115914830A (en) 2021-08-16 2022-07-21 Image pickup apparatus, image pickup method, and storage medium
US17/817,310 US11843867B2 (en) 2021-08-16 2022-08-03 Imaging apparatus, imaging method, and storage medium for correcting brightness of an image based on a predetermined value of exposure

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021132311 2021-08-16
JP2021132311 2021-08-16

Publications (1)

Publication Number Publication Date
JP2023026997A true JP2023026997A (en) 2023-03-01

Family

ID=85327137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022080615A Pending JP2023026997A (en) 2021-08-16 2022-05-17 Imaging device, imaging method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2023026997A (en)

Similar Documents

Publication Publication Date Title
JP5112104B2 (en) Image processing apparatus and image processing program
US9554029B2 (en) Imaging apparatus and focus control method
JP5660341B2 (en) Imaging apparatus and imaging method
KR20110126053A (en) Image capturing apparatus and camera shake correction method, and computer-readable medium
JP2010074813A (en) Imaging apparatus and imaging method
JP2021185689A (en) Imaging apparatus, program, recording medium, and control method
JP5256947B2 (en) IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM RECORDING PROGRAM FOR EXECUTING THE METHOD
JP5681589B2 (en) Imaging apparatus and image processing method
JP2007243917A (en) Imaging apparatus and image processing program
JP5387341B2 (en) Imaging device
US20070269133A1 (en) Image-data noise reduction apparatus and method of controlling same
JP5146015B2 (en) Imaging apparatus and imaging method
JP2013192121A (en) Imaging apparatus and imaging method
CN114554041A (en) Image pickup apparatus, image pickup method, and storage medium
JP2023026997A (en) Imaging device, imaging method, program, and recording medium
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP6961423B2 (en) Image processing equipment, imaging equipment, control methods for image processing equipment, programs and recording media
JP7458769B2 (en) Image processing device, imaging device, image processing method, program and recording medium
EP4138384A2 (en) Imaging apparatus, imaging method, and storage medium
JP2008283477A (en) Image processor, and image processing method
JP7409604B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP6828069B2 (en) Imaging equipment, imaging methods and programs
US11044396B2 (en) Image processing apparatus for calculating a composite ratio of each area based on a contrast value of images, control method of image processing apparatus, and computer-readable storage medium
US20220148142A1 (en) Image processing apparatus for combining a plurality of images, imaging apparatus, imaging method, and recording medium
JP2024071082A (en) Imaging device, control method and program thereof

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213