JP5911340B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP5911340B2
JP5911340B2 JP2012057107A JP2012057107A JP5911340B2 JP 5911340 B2 JP5911340 B2 JP 5911340B2 JP 2012057107 A JP2012057107 A JP 2012057107A JP 2012057107 A JP2012057107 A JP 2012057107A JP 5911340 B2 JP5911340 B2 JP 5911340B2
Authority
JP
Japan
Prior art keywords
image
frame
shooting
correction amount
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012057107A
Other languages
Japanese (ja)
Other versions
JP2013192057A (en
JP2013192057A5 (en
Inventor
明光 吉田
明光 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012057107A priority Critical patent/JP5911340B2/en
Publication of JP2013192057A publication Critical patent/JP2013192057A/en
Publication of JP2013192057A5 publication Critical patent/JP2013192057A5/en
Application granted granted Critical
Publication of JP5911340B2 publication Critical patent/JP5911340B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置およびその制御方法関し、特に、メモリなどに記録した画像データを画像処理する撮像装置に関する。 The present invention relates to an imaging apparatus and a control method thereof, in particular, to an imaging device for image processing the image data recorded in a memory or the like.

一般に、デジタルカメラなどの撮像装置にはメモリなどに記録した画像データを画像処理するための画像処理装置が備えられている。また、デジタルカメラにおいては、連続して複数回の撮影を行って画像データを得て、これら画像データをメモリに記憶し、さらには、画像処理装置(画像処理機能)で複数の画像データを合成することが行われている。   In general, an imaging apparatus such as a digital camera is provided with an image processing apparatus for performing image processing on image data recorded in a memory or the like. In a digital camera, image data is obtained by continuously taking images a plurality of times, the image data is stored in a memory, and further, a plurality of image data is synthesized by an image processing device (image processing function). To be done.

複数回の撮影を行う撮影機能として、例えば、露出条件を変更させつつ複数枚の撮影を行う所謂AE(Automatic Exposure)ブラケット撮影がある。また、さらに、複数の画像データを合成して1つの画像データを得る撮影機能として、例えば、HDR(High Dynamic Range)撮影機能がある。HDR撮影機能は、異なる露出で撮影した複数枚の画像を合成して高ダイナミックレンジの画像を得る機能である(特許文献1参照)。   As a photographing function for performing photographing a plurality of times, for example, there is so-called AE (Automatic Exposure) bracket photographing for performing photographing of a plurality of images while changing exposure conditions. Further, as an imaging function for obtaining a single image data by combining a plurality of image data, for example, there is an HDR (High Dynamic Range) imaging function. The HDR imaging function is a function for obtaining a high dynamic range image by combining a plurality of images captured at different exposures (see Patent Document 1).

一方、デジタルカメラにおいて、過去にメモリなどに記録した画像データについて明るさおよび色などのばらつきを抑制するため、連続撮影の結果得られた画像データの間で階調補正処理およびホワイトバランス処理などにおける補正量のばらつきを抑えるようにしたものがある。例えば、過去に取得した画像データ(以下過去コマという)と最新の画像データ(以下現在コマという)との類似度に応じて重みづけ行って、現在コマのホワイトバランスを決定する手法がある(特許文献2参照)。そして、ここでは、類似度の指標として、ホワイトバランスデータの差、画像データにおける輝度差、および撮影後の経過時間などが挙げられている。   On the other hand, in digital cameras, in order to suppress variations in brightness and color of image data recorded in memory or the like in the past, in image data obtained as a result of continuous shooting, in gradation correction processing and white balance processing, etc. There is one that suppresses variations in correction amount. For example, there is a method of determining the white balance of the current frame by weighting according to the similarity between the image data acquired in the past (hereinafter referred to as the past frame) and the latest image data (hereinafter referred to as the current frame) (patent) Reference 2). In this case, the similarity index includes a difference in white balance data, a luminance difference in image data, an elapsed time after shooting, and the like.

特開2002−247362号公報JP 2002-247362 A 特開平10−290469号公報Japanese Patent Laid-Open No. 10-290469

ところで、上述の特許文献2においては、画像データ(以下単に画像とも呼ぶ)毎の明るさおよび色などのばらつきを抑えることはできるものの、AEブラケット撮影又はHDR撮影のように連続して複数回の撮影を行った際の画像処理については画像間の明るさおよび色のばらつきを抑えることが難しい。   By the way, in the above-mentioned Patent Document 2, although variations in brightness, color, and the like for each image data (hereinafter also simply referred to as an image) can be suppressed, a plurality of times are continuously performed as in AE bracket shooting or HDR shooting. With respect to image processing when shooting, it is difficult to suppress variations in brightness and color between images.

例えば、AEブラケット撮影では、適正露出、アンダー露出、およびオーバー露出の互いに異なる露出で撮影が行われる。ところが、適正露出およびアンダー露出などの異なる露出で得られた画像データにおいては、上記の類似度が低くなる。よって、過去コマにおける補正量が現在コマに引き継がれず、画像データ間で色および明るさなどにばらつきが発生してしまうことになる。   For example, in AE bracket shooting, shooting is performed with different exposures of appropriate exposure, underexposure, and overexposure. However, in the image data obtained with different exposures such as proper exposure and underexposure, the above-mentioned similarity is low. Therefore, the correction amount in the past frame is not carried over to the current frame, and variations in color, brightness, and the like occur between the image data.

そこで、本発明の目的は、連続して複数回の撮影を行って得られた画像データを画像処理する際、画像データ間で明るさおよび色などのばらつきを抑えることができる撮像装置およびその制御方法提供することにある。 Accordingly, an object of the present invention is to provide an image pickup apparatus capable of suppressing variations in brightness, color, and the like between image data when image processing is performed on image data obtained by performing a plurality of continuous shootings, and control thereof. It is to provide a method.

上記の目的を達成するために、本発明による撮像装置は、露出を変更して連続的に撮影することによって複数枚の画像を取得する撮影モードを有する撮像装置において前記撮影モードの撮影で取得された複数枚の画像を画像セットとしたとき、当該画像セットのうちで所定の条件を満たす現在画像と、前記画像セットの撮影の前の撮影で取得された過去画像との類似度を判定し、前記類似度に応じた補正量を用いて、前記画像セットに含まれる複数枚の画像に対して画像処理を行うことを特徴とする。 To achieve the above object, an imaging apparatus according to the present invention, an imaging apparatus having an imaging mode for acquiring a plurality of images by continuously photographing by changing the exposure, acquired by shooting the shooting mode When a plurality of images are set as an image set, a similarity between a current image satisfying a predetermined condition in the image set and a past image acquired by shooting before shooting the image set is determined. The image processing is performed on a plurality of images included in the image set using a correction amount corresponding to the similarity .

本発明による制御方法は、露出を変更して連続的に撮影することによって複数枚の画像を取得する撮影モードを有する撮像装置の制御方法において前記撮影モードの撮影で取得された複数枚の画像を画像セットとしたとき、当該画像セットのうちで所定の条件を満たす現在画像と、前記画像セットの撮影の前の撮影で取得された過去画像との類似度を判定し、前記類似度に応じた補正量を用いて、前記画像セットに含まれる複数枚の画像に対して画像処理を行うことを特徴とする。 The control method according to the present invention is a method for controlling an image pickup apparatus having a shooting mode in which a plurality of images are acquired by continuously shooting while changing exposure, and a plurality of images acquired by shooting in the shooting mode. Is set as an image set, a similarity between a current image satisfying a predetermined condition in the image set and a past image acquired by shooting before shooting the image set is determined, and according to the similarity Image processing is performed on a plurality of images included in the image set using the correction amount.

本発明によれば、連続して複数回の撮影を行って得られた画像データ(画像)を画像処理する際、画像データ間で明るさおよび色などのばらつきを抑えることができる。   According to the present invention, when image processing is performed on image data (image) obtained by performing a plurality of continuous shootings, variations in brightness, color, and the like among image data can be suppressed.

本発明の第1の実施形態による撮像装置の一例を示すブロック図である。It is a block diagram showing an example of an imaging device by a 1st embodiment of the present invention. 図1に示す類似度判定部による類似度判定を説明するためのフローチャートである。It is a flowchart for demonstrating the similarity determination by the similarity determination part shown in FIG. 図2で説明した過去コマおよび現在コマの差分と類似度との関係示す図である。It is a figure which shows the relationship between the difference of the past frame demonstrated in FIG. 2, the present frame, and similarity. 図1に示す撮像装置において画像データを補正する際に用いられる補正量の算出を説明するためのフローチャートである。3 is a flowchart for explaining calculation of a correction amount used when correcting image data in the imaging apparatus shown in FIG. 1. 図4で説明した補正量算出処理を模式的に示す図であり、(a)は通常の撮影を連続的に繰り返した際の処理を示す図、(b)は通常の撮影とAEB撮影とが混在する際の処理を示す図である。FIGS. 5A and 5B are diagrams schematically illustrating the correction amount calculation process described in FIG. 4, in which FIG. 5A is a diagram illustrating processing when normal shooting is continuously repeated, and FIG. 5B is a diagram illustrating normal shooting and AEB shooting; It is a figure which shows the process at the time of mixing. 本発明の第2の実施形態による撮像装置において、図1に示す合成処理部で行われるHDR合成を説明するための図である。It is a figure for demonstrating the HDR synthetic | combination performed in the synthetic | combination process part shown in FIG. 1 in the imaging device by the 2nd Embodiment of this invention. 図1に示す合成処理部で行われるHDR合成を説明するための図であり、(a)はHDR合成においてオーバー画像の合成割合の一例を示す図、(b)はHDR合成において適画像の合成割合の一例を示す図、(c)はHDR合成においてアンダー画像の合成割合の一例を示す図である。FIGS. 2A and 2B are diagrams for explaining HDR synthesis performed by the synthesis processing unit illustrated in FIG. 1, in which FIG. 1A is a diagram illustrating an example of an over image synthesis ratio in HDR synthesis, and FIG. The figure which shows an example of a ratio, (c) is a figure which shows an example of the synthetic | combination ratio of an under image in HDR synthetic | combination. 図1に示す撮像装置で行われるHDR合成の際の補正量算出を説明するためのフローチャートである。3 is a flowchart for explaining correction amount calculation at the time of HDR synthesis performed by the imaging apparatus shown in FIG. 1. 図8で説明した補正量算出処理において、合成処理前の画像データに係る補正量算出と合成処理後の画像データに係る補正量算出を模式的に示す図である。FIG. 9 is a diagram schematically illustrating correction amount calculation related to image data before composition processing and correction amount calculation related to image data after composition processing in the correction amount calculation processing described in FIG. 8. 本発明の第3の実施形態による撮像装置において、通常撮影とAEB撮影とが混在した場合の補正量の算出を模式的に示す図である。It is a figure which shows typically calculation of the amount of correction | amendment in the imaging device by the 3rd Embodiment of this invention when normal imaging | photography and AEB imaging | photography are mixed.

以下、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による撮像装置の一例を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram illustrating an example of an imaging apparatus according to the first embodiment of the present invention.

図1において、撮像装置10撮影レンズ(以下単にレンズと呼ぶ)100備えており、シャッターボタン(図示せず)が押し下げられると、撮影レンズ100から入射した光学像が絞り101およびシャッター102を通過して、撮像素子104に結像する。そして、撮像素子104は光学像に応じた電気信号(アナログ信号)を出力する。   In FIG. 1, an imaging device 10 includes a photographic lens (hereinafter simply referred to as a lens) 100, and when a shutter button (not shown) is depressed, an optical image incident from the photographic lens 100 passes through a diaphragm 101 and a shutter 102. Thus, an image is formed on the image sensor 104. The image sensor 104 outputs an electrical signal (analog signal) corresponding to the optical image.

このアナログ信号はA/D変換部105によってデジタル信号(以下RAWデータと呼ぶ)に変換される。そして、制御部106は当該RAWデータをメモリ107に格納する。露出制御部103は、制御部106の制御下でRAWデータに基づいて測光値を求め、当該測光値に応じて絞り101およびシャッター102を制御して露出制御を行う。   This analog signal is converted into a digital signal (hereinafter referred to as RAW data) by the A / D converter 105. Then, the control unit 106 stores the RAW data in the memory 107. The exposure control unit 103 obtains a photometric value based on the RAW data under the control of the control unit 106, and controls the diaphragm 101 and the shutter 102 according to the photometric value to perform exposure control.

ホワイトバランス(WB)処理部108はRAWデータにおける白色領域を検出する。そして、WB処理部108は、前述の測光値および検出された白色領域に応じてRAWデータ(つまり、画像データ)の色バランスを補正するオートホワイトバランス(AWB)処理を実行する。   A white balance (WB) processing unit 108 detects a white area in the RAW data. Then, the WB processing unit 108 performs an auto white balance (AWB) process for correcting the color balance of the RAW data (that is, image data) according to the above-described photometric value and the detected white area.

信号処理部109は、制御部106の制御下でWB処理後の画像データに対して色マトリクス処理およびガンマ処理などの現像処理を行って、現像処理済み画像データとする。階調変換部110は、現像処理済み画像データ(以下YUVデータと呼ぶ)に対して階調変換処理を施して、階調変換画像データとする。   The signal processing unit 109 performs development processing such as color matrix processing and gamma processing on the image data after the WB processing under the control of the control unit 106 to obtain developed image data. The gradation conversion unit 110 performs gradation conversion processing on the developed image data (hereinafter referred to as YUV data) to generate gradation converted image data.

記録部111では制御部106の制御下で階調変換画像データを可搬メディア(図示せず)などに記録する。顔検出部113は、制御部106の制御下で上記のRAWデータ又はYUVデータから被写体の顔の位置を検出するとともに、その輝度、および色などに関する顔情報を取得する。ヒストグラム検出部114は、制御部106の制御下でRAWデータ又はYUVデータから、その明るさの分布状況を示すヒストグラム(度数分布表)を求める。合成処理部115(画像合成手段)は複数の画像データを合成して1つの画像データとする。   The recording unit 111 records the gradation conversion image data on a portable medium (not shown) or the like under the control of the control unit 106. The face detection unit 113 detects the position of the face of the subject from the RAW data or YUV data under the control of the control unit 106, and acquires face information related to the brightness, color, and the like. The histogram detection unit 114 obtains a histogram (frequency distribution table) indicating the brightness distribution state from the RAW data or YUV data under the control of the control unit 106. A composition processing unit 115 (image composition means) composes a plurality of image data into one image data.

類似度判定部112は過去の撮影の結果得られた画像データ(以下過去コマと呼ぶ)と最新の画像データ(以下現在コマと呼ぶ)との類似度を予め定められた類似度判定基準に応じて判定する。   The similarity determination unit 112 determines the similarity between image data (hereinafter referred to as a past frame) obtained as a result of past shooting and the latest image data (hereinafter referred to as a current frame) according to a predetermined similarity determination criterion. Judgment.

なお、ここでは、過去コマ(過去画像)および現在コマ(現在画像)は連続する撮影の結果得られたものであり、例えば、メモリ107に格納されている。   Here, the past frame (past image) and the current frame (current image) are obtained as a result of continuous shooting, and are stored in the memory 107, for example.

類似度の判定を行う際には、類似度判定部112は画像データ毎の測光値、WB処理部108において算出される色比、ヒストグラム、又は顔情報に基づいて類似度の判定を行う。そして、後述するように、類似度判定部112による類似度判定結果に基づいて、WB処理部108、信号処理部109、および階調変換部110における補正量が決定される。   When determining the similarity, the similarity determination unit 112 determines the similarity based on the photometric value for each image data, the color ratio calculated by the WB processing unit 108, the histogram, or the face information. Then, as will be described later, correction amounts in the WB processing unit 108, the signal processing unit 109, and the gradation conversion unit 110 are determined based on the similarity determination result by the similarity determination unit 112.

ここで、過去コマと現在コマとの類似度判定処理について具体的に説明する。   Here, the similarity determination process between the past frame and the current frame will be specifically described.

図2は、図1に示す類似度判定部112による類似度判定を説明するためのフローチャートである。なお、類似度判定部112は制御部106の制御下で類似度判定を行う。   FIG. 2 is a flowchart for explaining similarity determination by the similarity determination unit 112 shown in FIG. Note that the similarity determination unit 112 performs similarity determination under the control of the control unit 106.

類似度判定が開始されると、類似度判定部はメモリ107に現在コマと類似度判定を行う過去コマが存在するか否かを判定する(ステップS101)。つまり、類似度判定部107は連続して撮影された複数の画像データがメモリに存在するか否かを判定することになる。   When the similarity determination is started, the similarity determination unit determines whether or not there is a past frame for similarity determination with the current frame in the memory 107 (step S101). That is, the similarity determination unit 107 determines whether or not a plurality of pieces of image data captured continuously exist in the memory.

メモリ107に過去コマが存在しないと(ステップS101において、NO)、類似度判定部112は現在コマと過去コマとの類似度Simを”0”として(ステップS102)、類似度判定処理を終了する。   If there is no past frame in the memory 107 (NO in step S101), the similarity determination unit 112 sets the similarity Sim between the current frame and the past frame to “0” (step S102) and ends the similarity determination process. .

一方、メモリ107に過去コマが存在すると(ステップS101において、YES)、類似度判定部112は、過去コマに係る測光値と現在コマに係る測光値との差分(測光差分)から類似度S1(第1の類似度)を算出する(ステップS103)。測光値の差分を算出する際には、画像全体の平均値を用いるようにしてもよく、画像を複数の領域に分割して、領域毎に差分を求め、領域毎の差分の絶対値和を用いるようにしてもよい。   On the other hand, if there is a past frame in the memory 107 (YES in step S101), the similarity determination unit 112 calculates the similarity S1 (from the difference between the photometric value related to the past frame and the photometric value related to the current frame (photometric difference)). First similarity) is calculated (step S103). When calculating the difference between the photometric values, the average value of the entire image may be used. The image is divided into a plurality of areas, the difference is obtained for each area, and the absolute value sum of the differences for each area is calculated. You may make it use.

続いて、類似度判定部112は、過去コマの色比と現在コマの色比との差分(色比差分)に応じて類似度S2(第2の類似度)を算出する(ステップS2)。そして、類似度判定部112は過去コマのヒストグラムと現在コマのヒストグラムとの差分(ヒストグラム差分)から類似度S3(第3の類似度)を求める(ステップS105)。   Subsequently, the similarity determination unit 112 calculates the similarity S2 (second similarity) according to the difference (color ratio difference) between the color ratio of the previous frame and the current frame (step S2). Then, the similarity determination unit 112 calculates the similarity S3 (third similarity) from the difference (histogram difference) between the histogram of the past frame and the histogram of the current frame (step S105).

さらに、類似度判定部112は過去コマにおける顔情報と現在コマにおける顔情報との差分(顔差分)から類似度S4(第4の類似度)を算出する(ステップS106)。そして、類似度判定部は類似度S1〜S4を乗算して過去コマと現在コマの最終的な類似度Simを求めて(ステップS107)、類似度判定処理を終了する。   Further, the similarity determination unit 112 calculates the similarity S4 (fourth similarity) from the difference (face difference) between the face information in the previous frame and the face information in the current frame (step S106). Then, the similarity determination unit multiplies the similarity S1 to S4 to obtain a final similarity Sim between the past frame and the current frame (step S107), and ends the similarity determination processing.

図3は、図2で説明した過去コマおよび現在コマの差分と類似度との関係示す図である。   FIG. 3 is a diagram illustrating a relationship between the difference between the past frame and the current frame described in FIG. 2 and the similarity.

図3において、過去コマおよび現在コマの差分が予め定められた閾値d1(第1の基準閾値)以下(第1の基準閾値以下)であると、類似度判定部112は類似度を”1”とする。また、類似度判定部112は、差分が閾値d1よりも大きい閾値d2(第2の基準閾値)以上(第2の基準閾値以上)であると、類似度を”0”とする。   In FIG. 3, when the difference between the past frame and the current frame is equal to or less than a predetermined threshold d1 (first reference threshold) (below the first reference threshold), the similarity determination unit 112 sets the similarity to “1”. And The similarity determination unit 112 sets the similarity to “0” when the difference is greater than or equal to a threshold d2 (second reference threshold) greater than the threshold d1 (greater than or equal to the second reference threshold).

差分が閾値d1を超え閾値d2未満の場合には、類似度は点(d1、1)と点(d2、0)を結ぶ直線上の値とする。つまり、類似度判定部112は差分が閾値d1と閾値d2との間にある場合には、差分が増加するにつれて類似度を逓減させる。   When the difference exceeds the threshold value d1 and is less than the threshold value d2, the similarity is a value on a straight line connecting the point (d1, 1) and the point (d2, 0). That is, when the difference is between the threshold value d1 and the threshold value d2, the similarity determination unit 112 decreases the similarity as the difference increases.

なお、閾値d1およびd2は、ステップS103〜S106の類似度算出毎に変更する。つまり、測光値に係る差分、色比に係る差分、ヒストグラムに係る差分、そして、顔情報に係る差分では閾値d1およびd2は異なる。   The threshold values d1 and d2 are changed every time the similarity is calculated in steps S103 to S106. That is, the thresholds d1 and d2 are different for a difference relating to a photometric value, a difference relating to a color ratio, a difference relating to a histogram, and a difference relating to face information.

次に、図1に示す撮像装置において画像データを補正する際に用いられる補正量の算出について説明する。   Next, calculation of a correction amount used when correcting image data in the imaging apparatus shown in FIG. 1 will be described.

図4は、図1に示す撮像装置において画像データを補正する際に用いられる補正量の算出を説明するためのフローチャートである。なお、補正量とは、撮影の結果得られた画像データに対して各種画像処理を行う際に用いられる補正値をいう。また、各種画像処理とは、例えば、画像データの色比の調整を行うホワイトバランス処理、画像データの階調を変更する階調変換処理、そして、画像データに対して特定色の色相および彩度を調整する色変換処理をいう。さらに、ここでは、画像データ毎に用いられる補正量のばらつきを抑えるために、図2で説明した類似度判定処理における判定結果が用いられる。   FIG. 4 is a flowchart for explaining calculation of a correction amount used when correcting image data in the imaging apparatus shown in FIG. The correction amount refers to a correction value used when various image processing is performed on image data obtained as a result of photographing. Various image processing includes, for example, white balance processing for adjusting the color ratio of image data, gradation conversion processing for changing the gradation of image data, and hue and saturation of a specific color for the image data. Color conversion processing that adjusts. Furthermore, here, the determination result in the similarity determination process described with reference to FIG. 2 is used in order to suppress variations in the correction amount used for each image data.

補正量の算出が開始されると、制御部106はAEブラケット(AEB)撮影(自動露出ブラケット撮影)が行われたか否かを判定する(ステップS201)。ABE撮影が行われると(ステップS201において、YES)、制御部106は適画像の撮影であるか否かを判定する(ステップS202)。   When calculation of the correction amount is started, the control unit 106 determines whether or not AE bracket (AEB) shooting (automatic exposure bracket shooting) has been performed (step S201). When ABE shooting is performed (YES in step S201), the control unit 106 determines whether or not shooting of an appropriate image is performed (step S202).

なお、AEB撮影モード(自動露出ブラケット撮影モード)においては、露出を変更して撮影を行った結果得られる複数枚の画像が1セットされる。そして、この1セットの画像には適画像(予め規定された画像)、アンダー画像、およびオーバー画像がある。   In the AEB shooting mode (automatic exposure bracket shooting mode), one set of a plurality of images obtained as a result of shooting by changing the exposure is set. The set of images includes an appropriate image (an image defined in advance), an under image, and an over image.

ここで、適画像とは、露出を変更して3枚の撮影を行うAEB撮影において、中心の露出(適正露出:所定の露出)で撮影された画像のことをいう。そして、3枚の画像うち最も暗い露出で撮影された画像をアンダー画像と呼び、最も明るい露出で撮影された画像をオーバー画像と呼ぶ。   Here, the appropriate image refers to an image taken at the center exposure (appropriate exposure: predetermined exposure) in AEB photography in which exposure is changed and three pictures are taken. Of the three images, an image taken with the darkest exposure is called an under image, and an image taken with the brightest exposure is called an over image.

適画像でないと(ステップS202において、NO)、制御部106は適画像を画像処理する際に用いる補正量を最終的な補正量として(ステップS203)、補正量算出を終了する。   If it is not an appropriate image (NO in step S202), the control unit 106 sets the correction amount used when image processing is performed on the appropriate image as the final correction amount (step S203), and ends the correction amount calculation.

一方、適画像であると(ステップS202において、YES)、制御部106は通常撮影時の処理に移行して、現在コマ(現在画像)のみを用いて現在コマの補正量を算出する(ステップS204)。そして、制御部106は類似度判定部112を制御して、図2で説明した類似度判定処理を行って(ステップS205)、類似度Simを得る。   On the other hand, if it is an appropriate image (YES in step S202), the control unit 106 shifts to the normal shooting process and calculates the correction amount of the current frame using only the current frame (current image) (step S204). ). Then, the control unit 106 controls the similarity determination unit 112 to perform the similarity determination process described with reference to FIG. 2 (step S205) to obtain the similarity Sim.

続いて、制御部106は類似度Simと所定の閾値(判定閾値)Th1とを比較して、類似度Simが判定閾値未満であるか否かを判定する(ステップS206)。この閾値Th1は、0<Th1<1である。類似度Simが閾値Th1以上(判定閾値以上)である場合には(ステップS206においてNO)、制御部106は過去コマ(過去画像)と現在コマとの類似度が高いとして、過去コマに係る補正量を最終的な補正量(最終補正量)とする(ステップS207)。そして、制御部106は補正量算出を終了する。   Subsequently, the control unit 106 compares the similarity Sim with a predetermined threshold (determination threshold) Th1 and determines whether or not the similarity Sim is less than the determination threshold (Step S206). The threshold value Th1 is 0 <Th1 <1. When the similarity Sim is equal to or greater than the threshold Th1 (determination threshold or greater) (NO in step S206), the control unit 106 determines that the similarity between the past frame (past image) and the current frame is high, and corrects the past frame. The amount is set as a final correction amount (final correction amount) (step S207). Then, the control unit 106 ends the correction amount calculation.

類似度Simが閾値Th1未満である場合には(ステップS206において、YES)制御部106は過去コマと現在コマとの類似度が低いとして、現在コマに係る補正量を最終補正量とする(ステップS208)。さらに、制御部106は現在コマに関する現在コマ情報を過去コマに関する過去コマ情報としてメモリ107に記憶し、次の撮影における類似度判定に用いるようにする(ステップS209:過去コマ更新)。そして、制御部106は補正量算出を終了する。   If similarity Sim is less than threshold Th1 (YES in step S206), control unit 106 assumes that the similarity between the previous frame and the current frame is low, and sets the correction amount related to the current frame as the final correction amount (step S206). S208). Further, the control unit 106 stores the current frame information related to the current frame in the memory 107 as past frame information related to the previous frame, and uses it for similarity determination in the next shooting (step S209: past frame update). Then, the control unit 106 ends the correction amount calculation.

図5は、図4で説明した補正量算出処理を模式的に示す図である。そして、図5(a)は通常の撮影を連続的に繰り返した際の処理を示す図であり、図5(b)は通常の撮影とAEB撮影とが混在する際の処理を示す図である。   FIG. 5 is a diagram schematically illustrating the correction amount calculation process described in FIG. FIG. 5A is a diagram showing processing when normal photographing is continuously repeated, and FIG. 5B is a diagram showing processing when normal photographing and AEB photographing are mixed. .

図5(a)において、現在コマが1コマ目である場合には過去コマが存在しないので、この場合には、類似度Simは”0”とされる。そして、類似度Sim<Tiであるので、図4に示すステップS208において現在コマの補正量が最終補正量とされて、過去コマの更新が行われる。   In FIG. 5A, when the current frame is the first frame, there is no past frame, and in this case, the similarity Sim is set to “0”. Since similarity Sim <Ti, the correction amount of the current frame is set as the final correction amount in step S208 shown in FIG. 4, and the past frame is updated.

続いて、現在コマの2コマ目と1コマ目(つまり、過去コマ)との類似度判定が行われる。図示の例では、類似度Sim>閾値Th1であるので、図4に示すステップS207において、過去コマ(1コマ目)の補正量が最終補正量とされる。この結果、現在コマの3コマ目は1コマ目と類似度判定が行われる。   Subsequently, similarity determination between the second frame and the first frame (that is, the past frame) of the current frame is performed. In the illustrated example, since similarity Sim> threshold Th1, the correction amount of the previous frame (first frame) is set as the final correction amount in step S207 shown in FIG. As a result, the third frame of the current frame is determined to be similar to the first frame.

3コマ目と1コマ目との類似度Simは、類似度Sim>閾値Th1であるので、過去コマ(ここでは、1コマ目)の補正量が最終補正量とされる。次に、現在コマの4コマ目と1コマ目(過去コマ)との類似度判定が行われる。図示の例では、類似度Sim<閾値Th1であるので、図4に示すステップS208において、現在コマ(ここでは4コマ目)の補正量が最終補正量とされる。   Since the similarity Sim between the third frame and the first frame is similarity Sim> threshold Th1, the correction amount of the past frame (here, the first frame) is set as the final correction amount. Next, similarity determination between the fourth frame of the current frame and the first frame (past frame) is performed. In the illustrated example, since similarity Sim <threshold Th1 is satisfied, in step S208 shown in FIG. 4, the correction amount for the current frame (here, the fourth frame) is set as the final correction amount.

続いて、5コマ目と過去コマ(ここでは、4コマ目)との類似度判定が行われる。図示の例では、類似度Sim>閾値Th1であるので、図4に示すステップS207において、過去コマ(4コマ目)の補正量が最終補正量とされる。さらに、6コマ目と過去コマ(4コマ目)との類似度判定が行われる。ここでは、類似度Sim<閾値Th1であるので、図4に示すステップS208において、現在コマ(6コマ目)の補正量が最終補正量とされる。   Subsequently, similarity determination between the fifth frame and the past frame (here, the fourth frame) is performed. In the illustrated example, since similarity Sim> threshold Th1, the correction amount of the past frame (fourth frame) is set as the final correction amount in step S207 shown in FIG. Further, similarity determination between the sixth frame and the past frame (fourth frame) is performed. Here, since similarity Sim <threshold Th1, the correction amount for the current frame (sixth frame) is set as the final correction amount in step S208 shown in FIG.

次に、7コマ目と過去コマ(6コマ目)との類似度判定が行われる。ここでは、類似度Sim>閾値Th1であるので、過去コマ(6コマ目)の補正量が最終補正量とされる。同様にして、8コマ目と過去コマ(6コマ目)との類似度判定が行われて、過去コマ(6コマ目)の補正量が最終補正量とされる。   Next, similarity determination between the seventh frame and the past frame (sixth frame) is performed. Here, since similarity Sim> threshold Th1, the correction amount of the past frame (sixth frame) is set as the final correction amount. Similarly, similarity determination between the eighth frame and the past frame (sixth frame) is performed, and the correction amount of the past frame (sixth frame) is set as the final correction amount.

図5(b)において、2コマ目までは通常撮影であるので、図5(a)で説明した処理と同様の処理が行われる。3コマ目〜5コマ目についてAEB撮影が行われる(3回の撮影が行われる)。   In FIG. 5B, since the normal shooting is performed up to the second frame, the same processing as the processing described in FIG. 5A is performed. AEB shooting is performed for the third frame to the fifth frame (three shootings are performed).

いま、3コマ目が適画像、4コマ目がアンダー画像、そして、5コマ目がオーバー画像であるとする。図示のように、過去コマ(1コマ目)と適画像(3コマ目)との類似度Simは、Sim>Th1であるので、図4に示すステップS207において、AEB撮影(適画像)における補正量として1コマ目の補正量が引き継がれて最終補正量とされる。   Assume that the third frame is a suitable image, the fourth frame is an under image, and the fifth frame is an over image. As shown in the figure, since the similarity Sim between the past frame (first frame) and the appropriate image (third frame) is Sim> Th1, correction in AEB shooting (appropriate image) is performed in step S207 shown in FIG. As the amount, the correction amount of the first frame is taken over and becomes the final correction amount.

なお、4コマ目(アンダー画像)および5コマ目(オーバー画像)については、図4に示すステップS203で適画像の補正量が適用されることになる。   For the fourth frame (under image) and the fifth frame (over image), the appropriate image correction amount is applied in step S203 shown in FIG.

続いて、6コマ目〜8コマ目についてAEB撮影が行われる。ここでは、過去コマ(1コマ目)と適画像(6コマ目)との類似度Simは、Sim<Th1であるので、AEB撮影における補正量として、6コマ目から得られた補正量が最終補正量として適用され、6コマ目に係る補正量が過去コマの補正量としてメモリ107に記憶される。   Subsequently, AEB shooting is performed for the sixth to eighth frames. Here, since the similarity Sim between the past frame (first frame) and the appropriate image (sixth frame) is Sim <Th1, the correction amount obtained from the sixth frame is the final correction amount in AEB shooting. The correction amount applied as the correction amount is stored in the memory 107 as the correction amount of the past frame.

以下同様にして補正量算出処理が行われて、9コマ目〜12コマ目については、6コマ目の補正量が最終補正量とされ、13コマ目および14コマ目では、13コマ目の補正量が最終補正量とされる。   Thereafter, the correction amount calculation process is performed in the same manner. For the ninth to twelfth frames, the sixth frame correction amount is set as the final correction amount, and the thirteenth and fourteenth frames are corrected for the thirteenth frame. The amount is the final correction amount.

このようにして、第1の実施形態では、通常撮影およびAEB撮影が混在する場合においても、連続撮影によって得られた画像を補正する際に、類似度に応じて補正量の引き継ぎを行うようにしたので、撮影画像間における明るさおよび色味のばらつきを抑えることができる。   In this way, in the first embodiment, even when normal shooting and AEB shooting are mixed, when correcting an image obtained by continuous shooting, the correction amount is taken over according to the similarity. Therefore, variations in brightness and color between captured images can be suppressed.

なお、第1の実施形態では、図4に示すステップS207およびステップS208において、それぞれ過去コマの補正量又は現在コマの補正量を適用するようにしたが、類似度Simに応じて過去コマの補正量を用いて現在コマの補正量と重みづけ加算を行って、最終補正量を得るようにしてもよい。このようにすれば、補正量のばらつきをさらに抑えることができる。   In the first embodiment, the correction amount of the past frame or the correction amount of the current frame is applied in step S207 and step S208 shown in FIG. 4, respectively. However, the correction of the past frame is performed according to the similarity Sim. The final correction amount may be obtained by performing weighted addition with the correction amount of the current frame using the amount. In this way, variations in the correction amount can be further suppressed.

[第2の実施形態]
続いて、本発明の第2の実施形態による画像処理装置の一例について説明する。
[Second Embodiment]
Next, an example of an image processing apparatus according to the second embodiment of the present invention will be described.

ここでは、第2の実施形態による撮像装置の構成は図1に示す撮像装置と同様である。なお、第2の実施形態においては、合成処理部115の機能が第1の実施形態と異なる。   Here, the configuration of the imaging apparatus according to the second embodiment is the same as that of the imaging apparatus shown in FIG. In the second embodiment, the function of the composition processing unit 115 is different from that of the first embodiment.

第1の実施形態で説明したように、合成処理部115は、撮影の結果得られた複数の画像データを1つの画像データ(合成画像)に合成する処理を行う。以下の説明では、合成処理部115は、互いに露出の異なる複数枚の画像を合成して1枚の広ダイナミックレンジの画像を得るHDR(High Dynamic Range)合成を行う。   As described in the first embodiment, the composition processing unit 115 performs a process of compositing a plurality of image data obtained as a result of photographing into one image data (composite image). In the following description, the composition processing unit 115 performs HDR (High Dynamic Range) composition that combines a plurality of images with different exposures to obtain one wide dynamic range image.

図6は、本発明の第2の実施形態による撮像装置において、図1に示す合成処理部115で行われるHDR合成を説明するための図である。   FIG. 6 is a diagram for explaining HDR synthesis performed by the synthesis processing unit 115 shown in FIG. 1 in the imaging apparatus according to the second embodiment of the present invention.

図1に示す撮像装置100においては、制御部106は露出制御部103を制御して露出を変化させて撮影を行う。これによって、互いに露出の異なる3枚の画像が適画像(RAWデータ)、アンダー画像(RAWデータ)、およびオーバー画像(RAWデータ)の順に取得される。これら3枚のRAWデータは、信号処理部109においてそれぞれ適画像用ガンマ、アンダー画像用ガンマ、およびオーバー画像用ガンマによるガンマ変換処理などの信号処理が施される。   In the imaging apparatus 100 illustrated in FIG. 1, the control unit 106 controls the exposure control unit 103 to perform exposure while changing the exposure. As a result, three images with different exposures are acquired in the order of the appropriate image (RAW data), the under image (RAW data), and the over image (RAW data). These three pieces of RAW data are subjected to signal processing such as gamma conversion processing by the appropriate image gamma, the under image gamma, and the over image gamma in the signal processing unit 109, respectively.

これによって、信号処理部109は適画像YUVデータ(I1)、アンダー画像YUVデータ(I2)、およびオーバー画像YUVデータ(I3)を生成する。そして、適画像YUVデータ(I1)、アンダー画像YUVデータ(I2)、およびオーバー画像YUVデータ(I3)は合成処理部115に与えられ、合成処理部115はこれら3枚のYUVデータをHDR合成する。   Accordingly, the signal processing unit 109 generates appropriate image YUV data (I1), under image YUV data (I2), and over image YUV data (I3). Then, the appropriate image YUV data (I1), the under image YUV data (I2), and the over image YUV data (I3) are given to the synthesis processing unit 115, and the synthesis processing unit 115 performs HDR synthesis of these three pieces of YUV data. .

図7は、図1に示す合成処理部115で行われるHDR合成を説明するための図である。そして、図7(a)はHDR合成においてオーバー画像の合成割合の一例を示す図であり、図7(b)はHDR合成において適画像の合成割合の一例を示す図である。また、図7(c)はHDR合成においてアンダー画像の合成割合の一例を示す図である。   FIG. 7 is a diagram for explaining the HDR synthesis performed by the synthesis processing unit 115 shown in FIG. FIG. 7A is a diagram showing an example of the over image synthesis ratio in HDR synthesis, and FIG. 7B is a diagram showing an example of the appropriate image synthesis ratio in HDR synthesis. FIG. 7C is a diagram showing an example of the under image synthesis ratio in HDR synthesis.

図7において、横軸は輝度値(Y)を示し、縦軸は合成割合を示している。HDR合成においては、適画像YUVデータの輝度値Yに応じて3枚の画像の合成比が決定される。   In FIG. 7, the horizontal axis indicates the luminance value (Y), and the vertical axis indicates the composition ratio. In HDR composition, the composition ratio of the three images is determined according to the luminance value Y of the appropriate image YUV data.

いま、合成後YUVデータをG、適画像の合成割合をM(Y)、アンダー画像の合成割合をL(Y)、そして、オーバー画像の合成割合O(Y)とする。この際、合成処理部115は次の式(1)および式(2)が成り立つように、合成後YUVデータGの各座標における画素値を合成する。   Now, assume that the post-combination YUV data is G, the composition ratio of the appropriate image is M (Y), the composition ratio of the under image is L (Y), and the composition ratio O (Y) of the over image. At this time, the synthesis processing unit 115 synthesizes the pixel values at the respective coordinates of the synthesized YUV data G so that the following expressions (1) and (2) are satisfied.

G=I1×M(Y)+I2×L(Y)+I3×O(Y) (1)
M(Y)+L(Y)+O(Y)=1 (2)
顔検出部113およびヒストグラム検出部114は合成後YUVデータGに応じてそれぞれ顔検出およびヒストグラム検出を行って、顔情報およびヒストグラムを階調変換部110に与える。階調変換部110は、顔情報およびヒストグラムに基づいて合成後YUVデータに対して階調変換処理を行い、最終的なYUVデータを出力する。そして、記録部111は制御部106の制御下でYUVデータを可搬メディアなどに記録する。
G = I1 * M (Y) + I2 * L (Y) + I3 * O (Y) (1)
M (Y) + L (Y) + O (Y) = 1 (2)
The face detection unit 113 and the histogram detection unit 114 perform face detection and histogram detection according to the combined YUV data G, respectively, and provide face information and a histogram to the gradation conversion unit 110. The tone conversion unit 110 performs tone conversion processing on the combined YUV data based on the face information and the histogram, and outputs final YUV data. The recording unit 111 records YUV data on a portable medium or the like under the control of the control unit 106.

図8は、図1に示す撮像装置10で行われるHDR合成の際の補正量算出を説明するためのフローチャートである。   FIG. 8 is a flowchart for explaining correction amount calculation at the time of HDR synthesis performed by the imaging apparatus 10 shown in FIG.

前述の第1の実施形態においては、ホワイトバランス処理、階調変換処理、および色変換処理などの画像処理に用いられる補正量を決定する例について説明したが、ここでは、合成前の画像データに対して行う処理と合成後の画像データに対して行う処理を分ける。   In the first embodiment described above, an example in which the correction amount used for image processing such as white balance processing, gradation conversion processing, and color conversion processing is determined has been described. The processing to be performed is divided from the processing to be performed on the combined image data.

つまり、ホワイトバランス処理および色変換処理は合成前の画像データに行う処理とし、その補正量を”A”とする。一方、階調変換処理は合成後の画像データに対して行う処理とし、その補正量を”B”とする。   That is, the white balance process and the color conversion process are performed on the image data before the synthesis, and the correction amount is “A”. On the other hand, the gradation conversion processing is processing performed on the combined image data, and the correction amount is “B”.

補正量算出が開始されると、制御部106は変数iに0を代入する(ステップS301)。続いて、制御部106は処理対象の画像データが適画像であるか否かを判定する(ステップS302)。処理対象の画像データが適画像であると(ステップS302において、YES)、制御部106は現在コマ(つまり、適画像)に係る補正量Aを算出する(ステップS303)。   When the correction amount calculation is started, the control unit 106 substitutes 0 for the variable i (step S301). Subsequently, the control unit 106 determines whether or not the image data to be processed is an appropriate image (step S302). If the image data to be processed is an appropriate image (YES in step S302), the control unit 106 calculates a correction amount A related to the current frame (that is, the appropriate image) (step S303).

続いて、制御部106は類似度判定部112を制御して、図2で説明したようにして、過去コマと現在コマとの類似度SimAを求める(ステップS304:類似度判定)。制御部106は類似度SimAが所定の閾値Th1A未満であるか否かを判定する(ステップS305)。なお、0<Th1A<1である。   Subsequently, the control unit 106 controls the similarity determination unit 112 to obtain the similarity SimA between the past frame and the current frame as described with reference to FIG. 2 (step S304: similarity determination). The control unit 106 determines whether or not the similarity SimA is less than a predetermined threshold Th1A (step S305). Note that 0 <Th1A <1.

類似度SimAが閾値Th1A未満である場合には(ステップS305において、YES)、制御部106は過去コマと現在コマとの類似度が低いとして、最終補正量Aを現在コマの補正量Aとする(ステップS306)。そして、制御部106は最終補正量A(つまり、過去コマの補正量)として現在コマ情報の補正量Aをメモリ107に記憶して、過去コマ更新を行う(ステップS307)。   When the similarity SimA is less than the threshold Th1A (YES in step S305), the control unit 106 assumes that the similarity between the past frame and the current frame is low, and sets the final correction amount A as the correction amount A of the current frame. (Step S306). Then, the control unit 106 stores the correction amount A of the current frame information in the memory 107 as the final correction amount A (that is, the correction amount of the past frame), and updates the past frame (step S307).

続いて、制御部106は変数iが3以上であるか否かを判定する(ステップS308)。つまり、制御部106は合成前の3枚の画像について信号処理が完了したかを判定することになる。そして、i<3であると(ステップS308において、NO)、制御部106は変数iをインクリメント(i=i+1)して(ステップS309)、ステップS302の処理に戻る。   Subsequently, the control unit 106 determines whether or not the variable i is 3 or more (step S308). That is, the control unit 106 determines whether signal processing has been completed for the three images before synthesis. If i <3 (NO in step S308), control unit 106 increments variable i (i = i + 1) (step S309), and returns to the process in step S302.

なお、ステップS305において、類似度SimAが閾値th1A≧であると(ステップS305において、NO)、制御部106は過去コマと現在コマとの類似度が高いとして、最終補正量Aを過去コマの補正量Aから引き継ぐ(最終補正量Aを過去コマの補正量Aとする:ステップS310)。そして、制御部106はステップS308の処理に進む。   If the similarity SimA is equal to or greater than the threshold th1A in step S305 (NO in step S305), the control unit 106 assumes that the similarity between the past frame and the current frame is high, and corrects the final correction amount A to the past frame correction. Takes over from the amount A (the final correction amount A is set as the correction amount A of the past frame: step S310). And the control part 106 progresses to the process of step S308.

また、ステップS302において、処理対象の画像データが適画像でないと(ステップS302において、NO)、制御部106は最終補正量Aとして適画像の補正量Aを適用して(ステップS311)、ステップS308の処理に進む。   In step S302, if the image data to be processed is not an appropriate image (NO in step S302), the control unit 106 applies the correction amount A of the appropriate image as the final correction amount A (step S311), and step S308. Proceed to the process.

続いて、制御部106は合成後の画像データに関して現在コマに係る補正量Bを算出する(ステップS312)。そして、制御部106は類似度判定部112を制御して過去コマと現在コマとの類似度SimBを求める(ステップS313:類似度判定)。   Subsequently, the control unit 106 calculates a correction amount B related to the current frame with respect to the combined image data (step S312). Then, the control unit 106 controls the similarity determination unit 112 to obtain the similarity SimB between the past frame and the current frame (step S313: similarity determination).

次に、制御部106は類似度SimBが所定の閾値Th1B未満であるか否かを判定する(ステップS314)。なお、0<TH1B<1である。類似度SimBが閾値Th1B以上である場合には(ステップS314において、NO)、制御部106は過去コマと現在コマとの類似度が高いとして、最終補正量Bを過去コマの補正量Bとする(ステップS315)。そして、制御部106は補正量算出を終了する。   Next, the control unit 106 determines whether or not the similarity SimB is less than a predetermined threshold Th1B (step S314). Note that 0 <TH1B <1. If the similarity SimB is equal to or greater than the threshold Th1B (NO in step S314), the control unit 106 assumes that the similarity between the past frame and the current frame is high, and sets the final correction amount B as the correction amount B of the past frame. (Step S315). Then, the control unit 106 ends the correction amount calculation.

一方、類似度SimBが閾値Th1B未満である場合には(ステップS314において、YES)、制御部106は過去コマと現在コマとの類似度が低いとして、最終補正量Bを現在コマの補正量Bとする(ステップS316)。そして、制御部106は現在コマの補正量Bを過去コマの補正量Bとしてメモリ107に記憶して、過去コマ更新を行い(ステップS317)、補正量算出を終了する。   On the other hand, when the similarity SimB is less than the threshold Th1B (YES in step S314), the control unit 106 determines that the similarity between the past frame and the current frame is low, and sets the final correction amount B as the current frame correction amount B. (Step S316). Then, the control unit 106 stores the correction amount B of the current frame in the memory 107 as the correction amount B of the past frame, updates the past frame (step S317), and ends the correction amount calculation.

図9は、図8で説明した補正量算出処理において、合成処理前の画像データに係る補正量算出と合成処理後の画像データに係る補正量算出を模式的に示す図である。なお、図9では、通常撮影とHDR撮影とが混在する際の処理が示されている。   FIG. 9 is a diagram schematically illustrating correction amount calculation related to the image data before the composition processing and correction amount calculation related to the image data after the composition processing in the correction amount calculation processing described with reference to FIG. 8. Note that FIG. 9 illustrates processing when normal shooting and HDR shooting are mixed.

合成処理前の画像データでは、現在コマが1コマ目である場合には過去コマが存在しないので、この場合には、類似度Simは”0”とされる。そして、類似度Sim<Tiであるので、図9に示すステップS306において現在コマの補正量Aが最終補正量Aとされて、過去コマの更新が行われる。   In the image data before the composition processing, when the current frame is the first frame, there is no past frame, and in this case, the similarity Sim is set to “0”. Since similarity Sim <Ti, the current frame correction amount A is set as the final correction amount A in step S306 shown in FIG. 9, and the past frame is updated.

続いて、HDR撮影が行われて、2コマ目〜4コマ目が得られる。いま、2コマ目が適画像、3コマ目がアンダー画像、そして、5コマ目がオーバー画像であるとする。図示のように、過去コマ(1コマ目)と適画像(コマ目)との類似度SimAは、SimA>Th1Aであるので、図8に示すステップS310において、HDR撮影(適画像)における補正量Aとして1コマ目の補正量Aが引き継がれて最終補正量Aとされる。 Subsequently, HDR shooting is performed to obtain the second to fourth frames. Assume that the second frame is a suitable image, the third frame is an under image, and the fifth frame is an over image. As shown in the figure, the similarity SimA between the past frame (first frame) and the appropriate image ( second frame) is SimA> Th1A. Therefore, in step S310 shown in FIG. 8, correction in HDR shooting (appropriate image) is performed. As the amount A, the correction amount A of the first frame is taken over and becomes the final correction amount A.

なお、3コマ目(アンダー画像)および4コマ目(オーバー画像)については、図8に示すステップS311で適画像の補正量Aが適用されることになる。続いて、通常撮影が行われて、5コマ目が得られる。過去コマ(1コマ目)と5コマ目との類似度SimAは、SimA>Th1Aであるので、図8に示すステップS310において、5コマ目における補正量Aとして1コマ目の補正量Aが引き継がれて最終補正量Aとされる。   For the third frame (under image) and the fourth frame (over image), the appropriate image correction amount A is applied in step S311 shown in FIG. Subsequently, normal shooting is performed to obtain the fifth frame. Since the similarity SimA between the past frame (first frame) and the fifth frame is SimA> Th1A, the correction amount A of the first frame is taken over as the correction amount A in the fifth frame in step S310 shown in FIG. Thus, the final correction amount A is set.

続いて、6コマ目〜8コマ目についてHDR撮影が行われる。ここでは、過去コマ(1コマ目)と適画像(6コマ目)との類似度Simは、Sim>Th1であるので、HDR撮影における補正量Aとして、過去コマ(1コマ目)から得られた補正量Aが最終補正量Aとして適用される。   Subsequently, HDR shooting is performed for the sixth to eighth frames. Here, since the similarity Sim between the past frame (first frame) and the appropriate image (sixth frame) is Sim> Th1, the correction amount A in HDR shooting is obtained from the past frame (first frame). The corrected amount A is applied as the final corrected amount A.

以下同様にして補正量算出処理が行われて、9コマ目〜11コマ目(HDR撮影)については、1コマ目の補正量Aが最終補正量Aとされ、12コマ目(通常撮影)では、類似度SimA<Th1Aであるので、12コマ目の補正量Aが最終補正量Aとされる。   Thereafter, the correction amount calculation process is performed in the same manner. For the ninth frame to the eleventh frame (HDR shooting), the correction amount A of the first frame is set as the final correction amount A, and in the twelfth frame (normal shooting). Since the similarity SimA <Th1A, the correction amount A at the 12th frame is set as the final correction amount A.

合成処理後の画像データにおいては、現在コマが1コマ目である場合には過去コマが存在しないので、この場合には、類似度SimBは”0”とされる。そして、類似度SimB<Ti1Bであるので、図9に示すステップS316において現在コマの補正量Bが最終補正量Bとされて、過去コマの更新が行われる。   In the image data after the composition processing, when the current frame is the first frame, there is no past frame. In this case, the similarity SimB is set to “0”. Since similarity SimB <Ti1B, the current frame correction amount B is set as the final correction amount B in step S316 shown in FIG. 9, and the past frame is updated.

続いて、画像合成前の2コマ目〜4コマ目が合成された2コマ目では、過去コマ(1コマ目)と2コマ目との類似度SimBは、SimB<Th1Bであるので、図8に示すステップS316において、合成後の2コマ目における補正量Bが最終補正量Bとされる。   Subsequently, in the second frame obtained by combining the second frame to the fourth frame before image synthesis, the similarity SimB between the past frame (first frame) and the second frame is SimB <Th1B. In step S316, the correction amount B in the second frame after synthesis is set as the final correction amount B.

5コマ目(通常撮影)と合成後の2コマ目との類似度SimBは、SimB<Th1Bであるので、図8に示すステップS316において、現在コマである5コマ目における補正量Bが最終補正量Bとされる。   Since the similarity SimB between the fifth frame (normal shooting) and the second frame after composition is SimB <Th1B, the correction amount B at the fifth frame, which is the current frame, is finally corrected in step S316 shown in FIG. The amount is B.

続いて、合成前の6コマ目〜8コマ目が合成された6コマ目と5コマ目との類似度SimBは、SimB>Th1Bであるので、6コマ目における補正量Bとして、合成後の2コマ目から得られた補正量Bが最終補正量Bとして適用される。   Subsequently, the similarity SimB between the 6th frame and the 5th frame obtained by combining the 6th frame to the 8th frame before synthesis is SimB> Th1B. Therefore, the correction amount B at the 6th frame is set as the correction amount B after the synthesis. The correction amount B obtained from the second frame is applied as the final correction amount B.

以下同様にして補正量算出処理が行われて、9コマ目〜11コマ目が合成された9コマ目では、9コマ目の補正量Bが最終補正量Bとされ、12コマ目(通常撮影)では、類似度SimB<Th1Bであるので、12コマ目の補正量Bが最終補正量Bとされる。   Thereafter, the correction amount calculation process is performed in the same manner, and in the ninth frame obtained by combining the ninth frame to the eleventh frame, the correction amount B of the ninth frame is set as the final correction amount B, and the 12th frame (normal shooting) ), Since the similarity SimB <Th1B, the correction amount B at the 12th frame is set as the final correction amount B.

このように、通常撮影からHDR撮影に切り替わった際には、通常撮影におけるコマと合成後のコマとはその類似度SimBが低くほぼゼロとなる。同様にHDR撮影からR通常撮影に切り替わった際においても、通常撮影におけるコマと合成後のコマとはその類似度SimBが低くほぼゼロとなる。つまり、通常撮影からHDR撮影に切り替わった際およびHDR撮影から通常撮影に切り替わった際には、その類似度SimBは閾値Th1Bよりも低く、補正量Bは引き継がれない。   In this way, when switching from normal shooting to HDR shooting, the frame SimB and the combined frame in normal shooting have low similarity SimB and become almost zero. Similarly, when the HDR shooting is switched to the R normal shooting, the similarity SimB between the normal shooting frame and the combined frame is almost zero. That is, when switching from normal shooting to HDR shooting and when switching from HDR shooting to normal shooting, the similarity SimB is lower than the threshold value Th1B, and the correction amount B is not inherited.

このようにして、第2の実施形態では、通常撮影およびHDR撮影が混在する場合においても、連続撮影によって得られた画像を補正する際に、類似度に応じて補正量の引き継ぎを行うようにしたので、撮影画像間における明るさおよび色味のばらつきを抑えることができる。   In this way, in the second embodiment, even when normal shooting and HDR shooting are mixed, when correcting an image obtained by continuous shooting, the correction amount is taken over according to the degree of similarity. Therefore, variations in brightness and color between captured images can be suppressed.

なお、第2の実施形態では、類似度に応じて1つの最終補正量Bをメモリに記憶するようにしたが、複数の最終補正量Bをメモリに記憶するようにしてもよい。例えば、通常撮影用の過去コマおよび最終補正量BとHDR撮影用の過去コマおよび最終補正量Bをメモリに記憶するようにすれば、通常撮影とHDR撮影と間で切り替えが発生した際、現在コマに対して通常撮影用又はHDR撮影用のいずれかを用いるようにすれば類似度SimBの判定を高精度に行うことができる。この結果、通常撮影とHDR撮影が混在していた場合でもより精度よく明るさおよび色味のばらつきを抑えることが可能になる。   In the second embodiment, one final correction amount B is stored in the memory according to the similarity, but a plurality of final correction amounts B may be stored in the memory. For example, if the past frame and final correction amount B for normal shooting and the past frame and final correction amount B for HDR shooting are stored in the memory, when switching between normal shooting and HDR shooting occurs, If either normal shooting or HDR shooting is used for a frame, the similarity SimB can be determined with high accuracy. As a result, even when normal shooting and HDR shooting are mixed, it is possible to more accurately suppress variations in brightness and color.

また、第2の実施形態では、合成後のYUVデータに対して階調変換処理を行うようにしているので、合成処理による階調の反転およびコントラストの低下を容易に防止することができるが、合成前の各画像データ(適画像、アンダー画像、およびオーバーが像)に対して階調変換処理を行うようにしてもよい。この場合においても、HDR撮影と通常撮影とは異なる階調補正処理を行うので、類似判定の際には前述した類似度判定が用いられる。   In the second embodiment, gradation conversion processing is performed on the combined YUV data, so that inversion of gradation and reduction in contrast due to the combining processing can be easily prevented. The tone conversion process may be performed on each piece of image data before synthesis (appropriate image, under image, and over image). Also in this case, since gradation correction processing different in HDR shooting and normal shooting is performed, the similarity determination described above is used in the similarity determination.

また、本実施形態においても、各画像に対する補正量についてそれぞれ過去コマの補正量または現在コマの補正量を適用するようにしたが、類似度Simに応じて過去コマの補正量を用いて現在コマの補正量と重みづけ加算を行って、最終補正量を得るようにしてもよい。このようにすれば、補正量のばらつきをさらに抑えることができる。   Also in this embodiment, the correction amount of the past frame or the correction amount of the current frame is applied to the correction amount for each image. However, the correction amount of the past frame is used according to the similarity Sim. The final correction amount may be obtained by performing weighted addition with the correction amount. In this way, variations in the correction amount can be further suppressed.

[第3の実施形態]
次に、本発明の第3の実施形態による撮像装置の一例について説明する。
[Third Embodiment]
Next, an example of an imaging apparatus according to the third embodiment of the present invention will be described.

ここでは、第3の実施形態による撮像装置の構成は図1に示す撮像装置と同様である。なお、第3の実施形態においては、第1の実施形態と異なり、AEB撮影において類似度判定の際に用いられる画像が適画像ではなく、常にAEB撮影における1コマ目の画像で用いられる。   Here, the configuration of the imaging apparatus according to the third embodiment is the same as that of the imaging apparatus shown in FIG. In the third embodiment, unlike the first embodiment, the image used for similarity determination in AEB shooting is not an appropriate image but is always used as the first frame image in AEB shooting.

AEB撮影において、適画像、アンダー画像、およびオーバー画像の順で撮影が行われた場合には、適画像が1コマ目であるので、撮影順に画像処理を行うと、アンダー画像およびオーバー画像の補正量は第1の実施形態で説明したように適画像の補正量と同一となる。   In AEB shooting, when shooting is performed in the order of an appropriate image, an under image, and an over image, the appropriate image is the first frame. Therefore, if image processing is performed in the order of shooting, correction of the under image and the over image is performed. The amount is the same as the appropriate image correction amount as described in the first embodiment.

一方、撮影の順をユーザが変更できる撮像装置では、AEB撮影において必ずしも適画像が1コマ目になるとは限らない。よって、アンダー画像およびオーバー画像の補正量を適画像の補正量と同一にするためには、アンダー画像およびオーバー画像の処理の前に適画像の処理を完了させる必要がある。従って、例えば、適画像の撮影が3コマ目である場合には、3コマ目の処理が完了するまで1コマ目および2コマ目の画像処理を待機させる必要がある。   On the other hand, in an imaging apparatus in which the user can change the order of shooting, the appropriate image is not necessarily the first frame in AEB shooting. Therefore, in order to make the correction amount of the under image and the over image the same as the correction amount of the appropriate image, it is necessary to complete the processing of the appropriate image before the processing of the under image and the over image. Therefore, for example, when the appropriate image is captured in the third frame, it is necessary to wait for the image processing of the first frame and the second frame until the processing of the third frame is completed.

ところが、メモリ107の容量によっては、1コマ目および2コマ目をメモリ107に保持することができないことがある。このため、第3の実施形態では、撮影順に限らず、必ず1コマ目の画像(第1番目の画像)を類似度判定に用いる。   However, depending on the capacity of the memory 107, the first frame and the second frame may not be held in the memory 107. Therefore, in the third embodiment, the first frame image (first image) is always used for similarity determination, not limited to the shooting order.

図10は、本発明の第3の実施形態による撮像装置において、通常撮影とAEB撮影とが混在した場合の補正量の算出を模式的に示す図である。   FIG. 10 is a diagram schematically illustrating calculation of a correction amount when normal shooting and AEB shooting are mixed in the imaging apparatus according to the third embodiment of the present invention.

図10において、2コマ目までは通常撮影であるので、図5(a)で説明した処理と同様の処理が行われる。3コマ目〜5コマ目についてAEB撮影が行われる(3回の撮影が行われる)。   In FIG. 10, since the second frame is normal shooting, the same processing as the processing described in FIG. 5A is performed. AEB shooting is performed for the third frame to the fifth frame (three shootings are performed).

いま、3コマ目〜5コマ目のAEB撮影において、アンダー画像、オーバー画像、嫡よび画像の順序で撮影が行われたものとする。この場合、AEB撮影の3コマ目であるアンダー画像は通常撮影における1コマ目と露出が大きく異なるので、類似度Simはほぼゼロとなる。このため、通常撮影の際の1コマ目の補正量は引き継がれず、図4に示すステップS206において、AEB撮影における補正量として現在コマであるアンダー画像の補正量が最終補正量とされる。そして、アンダー画像(現在コマ)が過去コマとしてメモリ107に記憶されるとともに、その補正量がメモリ107に記憶される。   Assume that shooting is performed in the order of under image, over image, and image in the AEB shooting of the third frame to the fifth frame. In this case, since the under image, which is the third frame of AEB shooting, is significantly different in exposure from the first frame in normal shooting, the similarity Sim is almost zero. For this reason, the correction amount of the first frame in normal shooting is not carried over, and in step S206 shown in FIG. 4, the correction amount of the under image that is the current frame is set as the final correction amount as the correction amount in AEB shooting. The under image (current frame) is stored in the memory 107 as a past frame, and the correction amount is stored in the memory 107.

続く2回目のAEB撮影においては、1回目のAEB撮影におけるアンダー画像と2回目のアンダー画像との類似度Simは、Sim>Th1となって、図4に示すステップS207において、2回目のAEB撮影における補正量として、3コマ目から得られた補正量が最終補正量として適用される。   In the subsequent second AEB shooting, the similarity Sim between the under image and the second under image in the first AEB shooting is Sim> Th1, and in step S207 shown in FIG. 4, the second AEB shooting is performed. The correction amount obtained from the third frame is applied as the final correction amount.

9コマ目は通常撮影であるので、AEB撮影の6コマ目であるアンダー画像は通常撮影の9コマ目と露出が大きく異なるので、類似度Simはほぼゼロとなる。このため、AEB撮影の際の3コマ目の補正量は引き継がれず、図4に示すステップS206において、通常撮影における補正量として現在コマである9コマ目の補正量が最終補正量とされる。   Since the 9th frame is normal shooting, the under image, which is the 6th frame of AEB shooting, is significantly different in exposure from the 9th frame of normal shooting, so the similarity Sim is almost zero. For this reason, the correction amount for the third frame at the time of AEB shooting is not carried over, and in step S206 shown in FIG. 4, the correction amount for the ninth frame, which is the current frame, is set as the final correction amount.

以下同様にして補正量算出処理が行われて、AEB撮影である10コマ目〜12コマ目については、10コマ目の補正量が最終補正量とされ、通常撮影である13コマ目では13コマ目の補正量が最終補正量とされる。そして、13コマ目に続く通常撮影の14コマでは、13コマ目の補正量が引き継がれて最終補正量とされる。   Thereafter, correction amount calculation processing is performed in the same manner, and for the 10th to 12th frames for AEB shooting, the correction amount for the 10th frame is set as the final correction amount, and 13 frames for the 13th frame for normal shooting. The eye correction amount is set as the final correction amount. Then, in the 14 frames of normal shooting following the 13th frame, the correction amount of the 13th frame is taken over as the final correction amount.

このようにして、第3の実施形態においても、通常撮影およびAEB撮影が混在する場合において連続撮影によって得られた画像を補正する際に、類似度に応じて補正量の引き継ぎを行うようにしたので、撮影画像間における明るさおよび色味のばらつきを抑えることができる。   As described above, also in the third embodiment, when normal photography and AEB photography are mixed, when correcting an image obtained by continuous photography, the correction amount is taken over according to the similarity. Therefore, variations in brightness and color between captured images can be suppressed.

また、本実施形態においても、各画像に対する補正量についてそれぞれ過去コマの補正量または現在コマの補正量を適用するようにしたが、類似度Simに応じて過去コマの補正量を用いて現在コマの補正量と重みづけ加算を行って、最終補正量を得るようにしてもよい。このようにすれば、補正量のばらつきをさらに抑えることができる。   Also in this embodiment, the correction amount of the past frame or the correction amount of the current frame is applied to the correction amount for each image. However, the correction amount of the past frame is used according to the similarity Sim. The final correction amount may be obtained by performing weighted addition with the correction amount. In this way, variations in the correction amount can be further suppressed.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、この制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the imaging apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable recording medium, for example.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

103 露出制御部
106 制御部
107 メモリ
108 WB処理部
109 信号処理部
110 階調変換部
112 類似度判定部
113 顔検出部
114 ヒストグラム検出部
115 合成処理部
DESCRIPTION OF SYMBOLS 103 Exposure control part 106 Control part 107 Memory 108 WB process part 109 Signal processing part 110 Gradation conversion part 112 Similarity determination part 113 Face detection part 114 Histogram detection part 115 Compositing process part

Claims (8)

露出を変更して連続的に撮影することによって複数枚の画像を取得する撮影モードを有する撮像装置において
前記撮影モードの撮影で取得された複数枚の画像を画像セットとしたとき、当該画像セットのうちで所定の条件を満たす現在画像と、前記画像セットの撮影の前の撮影で取得された過去画像との類似度を判定し、前記類似度に応じた補正量を用いて、前記画像セットに含まれる複数枚の画像に対して画像処理を行うことを特徴とする撮像装置。
In the imaging apparatus having the imaging mode for acquiring a plurality of images by continuously photographing by changing the exposure,
When a plurality of images acquired by shooting in the shooting mode is an image set, a current image satisfying a predetermined condition in the image set and a past image acquired by shooting before shooting the image set And an image processing unit that performs image processing on a plurality of images included in the image set using a correction amount corresponding to the similarity .
前記前の撮影が前記撮影モードの撮影である場合、それぞれの撮影で取得された画像セットのうちで前記所定の条件を満たす画像間の類似度を判定し、前記類似度に応じた画像処理を行うことを特徴とする請求項1に記載の撮像装置。 When the previous shooting is shooting in the shooting mode, the similarity between images satisfying the predetermined condition is determined from the image sets acquired in each shooting, and image processing according to the similarity is performed. the imaging apparatus according to claim 1, characterized in that. 前記所定の条件を満たす画像は、前記撮影モードの撮影で取得された画像セットのうちで適露出の撮影によって取得された画像であることを特徴とする請求項1又は2に記載の撮像装置。 The image pickup apparatus according to claim 1 , wherein the image satisfying the predetermined condition is an image obtained by photographing with appropriate exposure among image sets obtained by photographing in the photographing mode . 前記所定の条件を満たす画像は、前記撮影モードの撮影で取得された画像セットのうちで第1番目の撮影によって取得された画像であることを特徴とする請求項1又は2に記載の撮像装置。 3. The imaging apparatus according to claim 1 , wherein the image satisfying the predetermined condition is an image acquired by first imaging in an image set acquired by imaging in the imaging mode. 4. . 前記画像処理は、ホワイトバランス処理、色変換処理、および階調変換処理のうち少なくとも1つであることを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The image processing, white balance processing, color conversion processing, and the imaging apparatus according to any one of claims 1 to 4, characterized in that among the gradation conversion processing is at least one. 前記撮影モードは画像セットに含まれる複数枚の画像を合成するHDRモードであり、
合成処理後の合成画像を現在画像とし、当該現在画像と過去画像の類似度に応じた補正量を用いて、前記画像処理の一部の処理を行うことを特徴とする請求項に記載の撮像装置。
The shooting mode is an HDR mode for combining a plurality of images included in an image set,
6. The process according to claim 5 , wherein a part of the image processing is performed using a composite image after the composition processing as a current image, and using a correction amount according to the similarity between the current image and the past image . Imaging device.
前記一部の処理は、階調変換処理であることを特徴とする請求項に記載の撮像装置。 The imaging apparatus according to claim 6 , wherein the partial processing is gradation conversion processing . 露出を変更して連続的に撮影することによって複数枚の画像を取得する撮影モードを有する撮像装置の制御方法において
前記撮影モードの撮影で取得された複数枚の画像を画像セットとしたとき、当該画像セットのうちで所定の条件を満たす現在画像と、前記画像セットの撮影の前の撮影で取得された過去画像との類似度を判定し、前記類似度に応じた補正量を用いて、前記画像セットに含まれる複数枚の画像に対して画像処理を行うことを特徴とする制御方法。
In a control method of an imaging apparatus having a shooting mode for acquiring a plurality of images by continuously shooting with changing exposure ,
When a plurality of images acquired by shooting in the shooting mode is an image set, a current image satisfying a predetermined condition in the image set and a past image acquired by shooting before shooting the image set A control method, wherein image processing is performed on a plurality of images included in the image set using a correction amount corresponding to the similarity .
JP2012057107A 2012-03-14 2012-03-14 Imaging apparatus and control method thereof Active JP5911340B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012057107A JP5911340B2 (en) 2012-03-14 2012-03-14 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012057107A JP5911340B2 (en) 2012-03-14 2012-03-14 Imaging apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2013192057A JP2013192057A (en) 2013-09-26
JP2013192057A5 JP2013192057A5 (en) 2015-04-30
JP5911340B2 true JP5911340B2 (en) 2016-04-27

Family

ID=49391899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012057107A Active JP5911340B2 (en) 2012-03-14 2012-03-14 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5911340B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6533050B2 (en) 2014-11-13 2019-06-19 クラリオン株式会社 In-vehicle camera system
JP6587391B2 (en) * 2015-02-03 2019-10-09 キヤノン株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
US10769823B2 (en) 2017-06-22 2020-09-08 Canon Medical Systems Corporation Image processing apparatus, magnetic resonance imaging apparatus, and storage medium
JP7205380B2 (en) * 2019-05-27 2023-01-17 三菱電機株式会社 Imaging device and imaging method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3595104B2 (en) * 1997-04-16 2004-12-02 コニカミノルタホールディングス株式会社 White balance adjustment method for color imaging device
JP4796007B2 (en) * 2007-05-02 2011-10-19 富士フイルム株式会社 Imaging device
JP5013954B2 (en) * 2007-05-14 2012-08-29 三洋電機株式会社 Imaging device

Also Published As

Publication number Publication date
JP2013192057A (en) 2013-09-26

Similar Documents

Publication Publication Date Title
JP5148989B2 (en) Imaging device
US9270888B2 (en) Image processing apparatus and control method thereof
EP2426928A2 (en) Image processing apparatus, image processing method and program
US9826167B2 (en) Imaging apparatus and imaging method which perform focus adjustment while performing live-view display
JP6624889B2 (en) Video processing apparatus, video processing method, and video processing program
JP4444218B2 (en) Brightness correction apparatus for moving picture, control method thereof and control program thereof
JP6083974B2 (en) Image processing apparatus, image processing method, and program
JP5804857B2 (en) Image processing apparatus, image processing method, and program
JP2017212532A (en) Image processing apparatus
JP5911340B2 (en) Imaging apparatus and control method thereof
JP2015019354A (en) Imaging apparatus, image processing apparatus, and control method therefor
US8390693B2 (en) Image processing apparatus
JP6108680B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2018182376A (en) Image processing apparatus
US8102446B2 (en) Image capturing system and image processing method for applying grayscale conversion to a video signal, and computer-readable recording medium having recorded thereon an image processing program for applying grayscale conversion to a video signal
JP5335964B2 (en) Imaging apparatus and control method thereof
JP5365881B2 (en) Image processing apparatus and image processing method
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP2017130836A (en) Image processing apparatus, image processing method, and program
JP2016208118A (en) Image processing apparatus, image processing method, and program
JP2017163339A (en) Video processing apparatus, video processing method and program
JP2007267170A (en) Electronic camera with chroma saturation regulating function and image processing program
JP2020036162A (en) Image processing device, imaging device, image processing method, and program
JP2012160852A (en) Image composition device, imaging device, image composition method, and image composition program
JP6624895B2 (en) Image processing apparatus, imaging apparatus, control method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160329

R151 Written notification of patent or utility model registration

Ref document number: 5911340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151