JP2018142983A - Image processing device and method of controlling the same, program, and storage medium - Google Patents
Image processing device and method of controlling the same, program, and storage medium Download PDFInfo
- Publication number
- JP2018142983A JP2018142983A JP2018084451A JP2018084451A JP2018142983A JP 2018142983 A JP2018142983 A JP 2018142983A JP 2018084451 A JP2018084451 A JP 2018084451A JP 2018084451 A JP2018084451 A JP 2018084451A JP 2018142983 A JP2018142983 A JP 2018142983A
- Authority
- JP
- Japan
- Prior art keywords
- shake
- image
- shake correction
- amount
- correction amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、撮影された動画像から静止画を生成する技術に関するものである。 The present invention relates to a technique for generating a still image from a captured moving image.
近年、動画撮影が可能な撮像装置の多画素化が急速に進んでいる。FullHDサイズの動画を撮影する撮像装置は既に広く普及し、4K、2K動画撮影が可能な撮像装置も徐々に市場に出始めている。 In recent years, an increase in the number of pixels of an imaging device capable of capturing a moving image has been rapidly progressing. Imaging devices that shoot full HD moving images have already become widespread, and imaging devices capable of 4K and 2K moving image shooting are gradually beginning to enter the market.
このような動画像の高精細化によって、動画像の各フレームの画像も静止画として使用するのに十分な画素数を有するようになってきている。これによって、動画像の各フレームから静止画を生成する使用方法が今後更に広がっていくものと考えられる。 Due to such high definition of moving images, each frame image of moving images has a sufficient number of pixels to be used as a still image. Accordingly, it is considered that usage methods for generating a still image from each frame of a moving image will further expand in the future.
動画像から静止画を生成する際の課題として、どのフレームの画像が静止画として最適な画像なのかを判断することが、ユーザーにとって難しいという点がある。例えば動画として見た場合には、画像が常に遷移していくために気付かない画像の振れやピントズレなどが、静止画としてみたときに許容できないレベルである場合も多い。それを1フレームずつチェックしていくのはユーザーにとって非常に煩わしい作業となる。 A problem in generating a still image from a moving image is that it is difficult for the user to determine which frame image is the optimum image as a still image. For example, when viewed as a moving image, there are many cases in which image blurring or defocusing that is not noticed because the image constantly changes is at an unacceptable level when viewed as a still image. It is very troublesome for the user to check it frame by frame.
このような課題に対し、例えば特許文献1では、次のような方法が開示されている。即ち、動画記録中に記録しておいたカメラ画像ステータス情報を動画再生中に読み込む。そして、静止画記録用スイッチの押下動作の前後のフレームから、静止画としてふさわしい画像をピックアップする。
In response to such a problem, for example,
しかしながら、上記従来例においては、AF、AE、AWB、振れ等のステータス情報を動画像と同期して記録し、動画再生時に静止画を選択する際に用いるという概念自体は開示されているものの、ステータス情報の生成方法が具体的に記載されていない。 However, in the above conventional example, although the concept itself of recording status information such as AF, AE, AWB, shake, etc. in synchronization with a moving image and using it when selecting a still image during moving image reproduction is disclosed, The method for generating status information is not specifically described.
本発明は上述した課題に鑑みてなされたものであり、その目的は、撮影した動画像から容易に静止画として最適な画像を選択することができる画像処理装置を提供することである。 The present invention has been made in view of the above-described problems, and an object thereof is to provide an image processing apparatus that can easily select an optimal image as a still image from a captured moving image.
本発明に係わる画像処理装置は、振れ検出手段から出力される振れ信号を用いて、動画用の振れ補正量を算出する第1の算出手段と、前記振れ検出手段から出力される振れ信号を用いて、前記動画用の振れ補正量よりも振れ補正性能が高い静止画用の振れ補正量を算出する第2の算出手段と、前記動画用の振れ補正量と前記静止画用の振れ補正量の差分に基づいて、撮像素子の撮像面上における振れ量の大きさを示す評価値を生成する生成手段と、前記動画の各フレームの画像と前記評価値とを関連付けて記録する記録手段とを備え、前記生成手段は、前記評価値に関する情報を前記動画の各フレームの画像に関連付けて表示手段に表示する表示形式を前記振れ量の大きさに応じて異ならせることを特徴とする。 An image processing apparatus according to the present invention uses a first calculation unit that calculates a shake correction amount for a moving image using a shake signal output from the shake detection unit, and a shake signal output from the shake detection unit. Second calculation means for calculating a still image shake correction amount having a higher shake correction performance than the moving image shake correction amount, and the moving image shake correction amount and the still image shake correction amount. A generating unit configured to generate an evaluation value indicating a magnitude of a shake amount on an imaging surface of the image sensor based on the difference; and a recording unit configured to record the image of each frame of the moving image and the evaluation value in association with each other. The generating unit is characterized in that a display format in which information relating to the evaluation value is displayed on the display unit in association with an image of each frame of the moving image is changed according to the magnitude of the shake amount.
本発明によれば、撮影した動画像から容易に静止画として最適な画像を選択することができる画像処理装置を提供することが可能となる。 According to the present invention, it is possible to provide an image processing apparatus that can easily select an optimal image as a still image from a captured moving image.
以下、本発明の一実施形態について、添付図面を参照して詳細に説明する。図1は、本発明の撮像装置の一実施形態である動画を撮像可能なビデオカメラの構成を示すブロック図である。図1は、動画撮影時に使用する撮像装置の各ブロックを示している。図1を用いて、撮像装置100の構成と、動画撮影時における動作について具体的に説明する。
Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram showing a configuration of a video camera capable of capturing a moving image, which is an embodiment of an imaging apparatus of the present invention. FIG. 1 shows each block of the imaging apparatus used at the time of moving image shooting. The configuration of the
図1において、撮像装置100は、光軸方向に、変倍レンズ101、補正光学系102、絞り103、及びフォーカスレンズ104が順次配置され、これらと図示しないその他の光学系によって撮影光学系が構成される。
In FIG. 1, an
変倍レンズ101は、光軸方向に移動して変倍を行うレンズである。フォーカスレンズ104は、変倍に伴う焦点面の移動を補正する機能とフォーカシングの機能とを兼ね備えたレンズである。絞り103は、入射する光量を調整する絞り羽根などである。
The
フォーカスレンズ105の背部には、撮像素子105が配置されている。撮像素子105は、光電変換により被写体の撮像を行う。撮像素子105は、例えばXYアドレス方式のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等で構成される。撮像素子105で光電変換された信号は、撮像素子105内部でデジタル信号に変換された後、信号処理部111に供給される。信号処理部111は、撮像素子105から出力された画像情報に対してガンマ補正、色補正等種々の信号処理を行う。
An
システム制御部121は、撮像装置100全体の制御を司る。例えば、システム制御部121は、信号処理部111からの輝度値・色等の情報を受けて、各種の演算処理を行う。システム制御部121が行う制御の詳細については後述する。
The
ズーム駆動部106は、変倍レンズ101を移動させるための駆動源であり、システム制御部121の指示に従って、ズーミング動作が行われる。システム制御部121は、ユーザーによる図示しないズーム操作部の操作に従って、ズーム駆動部に対して指示を送る。
The
フォーカス駆動部109は、フォーカスレンズ104を移動させるための駆動源であり、システム制御部121の指示に従って駆動が行われる。システム制御部121は、距離情報生成部117から供給される信号に従って、フォーカスレンズ104の駆動位置を決定する。距離情報生成部117は、撮像素子105により取得された画像信号に対して、信号処理部111において信号処理を行った結果から、撮像装置100と被写体との距離を示す距離情報を生成する。距離情報は、撮像素子105上の複数の画素を用いて位相差AFを行う方法等、公知の方法を用いればよい。また、位相差AF専用のセンサや赤外線センサなどの距離情報取得装置を用いて距離情報を生成してもよい。
The
絞り駆動部108は、絞り103を駆動して撮像素子105に入射される光量を調整するための駆動源であり、システム制御部121の指示に従って駆動が行われる。撮像素子駆動部110は、システム制御部121の指示に従って、撮像素子105を駆動するための駆動パルス等を撮像素子105へ供給し、撮像素子105に蓄積された電荷の読み出しや露出時間即ちシャッタ速度の調整を行う。撮像素子105では、一般にシャッタパルスが印加されることにより、画素内に蓄積された信号電荷が掃き捨てられる電子シャッター動作が行われ、次の読み出しまでの期間において光学像を光電変換し電荷の蓄積が行われる。この蓄積期間が上記シャッタ速度となる。被写体輝度が低輝度時に適切なシャッタースピードが設定できない場合は、撮像素子105から出力される画像信号のレベル調整即ちゲイン調整を行うことにより、露光不足による不適正露出が補正される。
The
AE用信号生成部118は、画素毎のデジタル信号の累積加算を主体とする演算処理を行うことにより、被写体の明るさに応じた測光値を算出してシステム制御部121に供給する。システム制御部121は、AE用信号生成部118によって生成された測光値に基づいて、絞り駆動部108及び撮像素子駆動部110を駆動させ、絞り103、シャッタ速度、撮像素子105のゲインを設定し、露出を制御する。
The AE
AWB用信号生成部119は、撮像素子105から信号処理部111に供給されるR/G/Bの各画素信号を、輝度Y、色差信号(R−Y,B−Y)に変換する。そして黒体放射軌跡を基準として無彩色かどうかを判定し、無彩色と判定された画素の色差信号を全て積算して平均値をとることでAWB用信号が生成される。信号処理部111は、R/G/B各色独立したゲインを掛けることができる回路ブロックを有しており、システム制御部121は、上記AWB用信号に基づいて、撮像素子105から出力される画像データにおける白色を正しく表示できるように制御するためのホワイトバランス制御を行う。
The AWB
補正光学系102は、光軸と垂直な方向に移動されることにより光軸の向きを偏向する、光学的に振れ補正可能な補正系である。補正光学系駆動部107は、補正光学系102を移動させるための駆動源であり、システム制御部121の指示に従って駆動が行われる。角速度センサ120は、撮像装置100に加わる振れを角速度信号として検出し、その角速度信号をシステム制御部121に供給する。システム制御部121は、上記角速度信号から撮像面上での被写体像の移動を補正するように補正光学系102を移動させるため、補正光学系駆動部107への制御信号を生成する。この結果、装置の振れ等により生じる撮像面上の被写体像の移動が補正され、撮像素子105に結像される。なお、補正光学系102は、撮像素子105を撮影光学系に対して、相対的に光軸と垂直方向に移動する構成に置き換えてもよい。
The correction
メタデータ生成部113は、システム制御部121から供給されるデータに基づいて撮像画像の撮影状態の良否を示す所定のメタデータを生成し、信号処理部111から出力される動画像データと対応づけて記録媒体109に記録する。メタデータ生成部113で扱うメタデータの詳細については後述する。記録媒体114は、ハードディスク等の磁気記録媒体や半導体メモリ等の情報記録媒体である。また表示デバイス112は液晶表示素子(LCD)等により信号処理部111から出力される画像を表示する。
The
次に、メタデータ生成部113に供給されるメタデータの演算方法について、詳細を説明する。メタデータは、システム制御部121内部で、フォーカス、露出、WB(ホワイトバランス)、振れの4種類のデータが演算され、メタデータ生成部113に供給される。静止画撮影においては、これらの制御パラメータは、露光時に演算された制御目標値にできるだけ誤差なく追従するように設定される。一方動画撮影においては、これらの制御パラメータを急峻に変化させてしまうと、動画としては映像が急に変化するため、不自然に見えてしまう。そのため、一般的に制御目標値に向かって徐々にパラメータを変化させていく制御が行われる。メタデータ生成部113は、このときに生じる静止画として最適な制御目標値と動画として自然に見せるための実際の設定値との差分についてのメタデータを、以下に説明する方法で演算して、動画像データと関連付けて記録媒体114に記録する。
Next, details of a method of calculating metadata supplied to the
図2を用いてフォーカスのメタデータ生成方法について詳細を説明する。説明を分かりやすくするため、以下のように記号を定義する。 Details of the focus metadata generation method will be described with reference to FIG. To make the explanation easier to understand, the symbols are defined as follows.
Dt…距離情報生成部117によって検出される被写体距離
Dl…フォーカスレンズ104の位置によって決まる撮影被写体距離
Df…被写界深度(無限遠側)
Dn…被写界深度(至近側)
図2(a)は、横軸をDl−Dt、即ち目標となる被写体距離とフォーカスレンズ104の位置によって決まる撮影被写体距離との差分とし、縦軸を生成されるメタデータMdata_focusとしたグラフの一例を示している。Dl−Dtが0のときは、ピントが完全に合っている状態を示しており、このとき、Mdata_focus=0となる。図2(a)において、Mdata_focusは、以下の計算式で演算する。
Dt: Subject distance detected by the distance
Dn: Depth of field (closest side)
FIG. 2A shows an example of a graph in which the horizontal axis is D1-Dt, that is, the difference between the target subject distance and the shooting subject distance determined by the position of the
Mdata_focus=|(Dl−Dt)/(Df−Dt)|
ただし、Dl−Dt≧0
Mdata_focus=|(Dl−Dt)/(Dn−Dt)|
ただし、Dl−Dt<0
つまり、撮影被写体距離の目標値からのズレ量を被写界深度の深さで正規化している。これによって、Mdata_focusは0に近いほどピントが合っており、1よりも大きくなるほどピンボケになっていることを示すデータとなる。
Mdata_focus = | (Dl−Dt) / (Df−Dt) |
However, D1-Dt ≧ 0
Mdata_focus = | (Dl−Dt) / (Dn−Dt) |
However, D1-Dt <0
That is, the amount of deviation from the target value of the shooting subject distance is normalized by the depth of field. As a result, Mdata_focus is data indicating that the closer to 0, the more focused, and the greater the value, the more out-of-focus.
図2(b)は、横軸と縦軸は図2(a)と共通で、Mdata_focusの演算方法の他の例を示したグラフである。図2(b)は、Dx<(Dl−Dt)<Dyの範囲では、Mdata_focusの演算方法は図2(a)と共通であり、それ以外の範囲では、Dl−Dtが変化したときのMdata_focusの変化量(ゲイン)を大きくしている。これは、撮像装置100内部の画像処理やPCの画像処理ソフト等によって、多少のピンボケ画像は輪郭強調などを行うことによって容易に補正ができるが、ボケ量が大きい画像では輪郭強調を行ったときの疑似輪郭等が目立ち、静止画としての画質の劣化度合いが大きくなるためである。
FIG. 2B is a graph in which the horizontal axis and the vertical axis are the same as those in FIG. 2A and show another example of the method for calculating Mdata_focus. In FIG. 2B, the calculation method of Mdata_focus is the same as that of FIG. 2A in the range of Dx <(D1-Dt) <Dy, and in other ranges, Mdata_focus when D1-Dt changes. The amount of change (gain) is increased. This can be easily corrected by performing edge enhancement or the like for some out-of-focus images by image processing inside the
図3を用いて露出のメタデータ生成方法について詳細を説明する。図3(a)乃至図3(c)のグラフの横軸はAPEX(Additive System of Photographic Exposure)システムを用いた単位系で表現している。各々の記号の定義は以下の通りである。 Details of the exposure metadata generation method will be described with reference to FIG. The horizontal axes of the graphs of FIGS. 3A to 3C are expressed in a unit system using an APEX (Additive System of Photographic Exposure) system. The definition of each symbol is as follows.
Ev_now…現在の絞りとシャッタ速度によって決まる露出値
Ev_target…AE用信号生成部118の出力によって決まる適正露出値
図3(a)は、横軸をEv_target−Ev_now、即ち適正露出値と現在の露出値との差分とし、縦軸を生成されるメタデータMdata_exposureとしたグラフの一例を示している。横軸は、プラス方向に大きくなると露出オーバーとなり、マイナス方向に小さくなると露出アンダーとなり、0のときは露出が正確に合っている状態を示している。このとき、Mdata_exposure=0となる。図3(a)において、Mdata_exposureは、以下の計算式で演算する。
Ev_now: exposure value determined by the current aperture and shutter speed Ev_target: appropriate exposure value determined by the output of the
Mdata_exposure=|Ev_target−Ev_now|/(1/3)
つまり、現在の露出の適正露出からのズレ量を所定のEv値(ここでは1/3Ev)で正規化している。ここで、1/3Evで正規化したのは、あくまでも一例である。本数値は、ユーザーが任意で設定できるようにしてもよいし、被写体の輝度分布により可変にしてもよい。例えば、1/3Evずれると白飛びや黒つぶれが発生してしまう場合は、1/5Evで正規化する等の方法を採用することも可能である。本演算により、Mdata_exposureは0に近いほど露出が適正になっており、1よりも大きいほど露出アンダーあるいはオーバーになっていることを示すデータとなる。
Mdata_exposure = | Ev_target−Ev_now | / (1/3)
That is, the amount of deviation of the current exposure from the appropriate exposure is normalized by a predetermined Ev value (here, 1/3 Ev). Here, normalization by 1/3 Ev is merely an example. This numerical value may be arbitrarily set by the user, or may be variable depending on the luminance distribution of the subject. For example, when a deviation of 1/3 Ev occurs, overexposure or blackout occurs, a method such as normalization by 1/5 Ev may be employed. By this calculation, Mdata_exposure is data indicating that the exposure is more appropriate as it is closer to 0, and that the exposure is underexposed or overexposed as it is greater than 1.
図3(b)は、横軸と縦軸は図3(a)と共通で、Mdata_exposureの演算方法の他の例を示したグラフである。図3(b)は、−1<(Ev_target−Ev_now)<1の範囲では、Mdata_exposureの演算方法は図3(a)と共通であり、それ以外の範囲では、Ev_target−Ev_nowが変化したときのMdata_exposureの変化量(ゲイン)を大きくしている。これは、撮像装置100内部の画像処理やPCの画像処理ソフト等によって、多少の露出ズレであれば、画像の輝度レベルを調整することによって容易に補正ができるが、露出ズレが大きい画像では黒つぶれや白飛びを補正することができない、補正してもノイズが目立つ等、静止画としての画質の劣化度合いが大きくなるためである。
FIG. 3B is a graph showing another example of the method for calculating Mdata_exposure, in which the horizontal axis and the vertical axis are the same as those in FIG. In FIG. 3B, the calculation method of Mdata_exposure is the same as that in FIG. 3A in the range of −1 <(Ev_target−Ev_now) <1, and in other ranges, Ev_target−Ev_now is changed. The change amount (gain) of Mdata_exposure is increased. This can be easily corrected by adjusting the brightness level of the image if there is a slight exposure shift by image processing inside the
図3(c)は、横軸と縦軸は図3(a)、図3(b)と共通で、Mdata_exposureの演算方法の更に他の例を示したグラフである。図3(c)において、Mdata_exposureは、以下の計算式で演算する。 FIG. 3C is a graph in which the horizontal axis and the vertical axis are the same as those in FIGS. 3A and 3B, and show still another example of the Mdata_exposure calculation method. In FIG.3 (c), Mdata_exposure is calculated with the following formulas.
Mdata_exposure=(2(|Ev_target−Ev_now|)−1)/(2(1/3)−1)
Ev値は、撮像素子に入射される光量を底を2とした対数で表現した単位系である。つまりEv値が1変化すると、光量は2倍あるいは1/2倍となる。上式はAPEXシステムの単位系を実際の光量の単位系に変換した後に正規化を行っており、より正確に露出のズレ量をメタデータMdata_exposureで表現することができる。
Mdata_exposure = (2 (| Ev_target-Ev_now |) -1) / (2 (1/3) -1)
The Ev value is a unit system in which the amount of light incident on the image sensor is expressed as a logarithm with a base of 2. That is, when the Ev value changes by 1, the light amount is doubled or halved. The above expression is normalized after the unit system of the APEX system is converted to a unit system of actual light quantity, and the amount of exposure deviation can be expressed more accurately by metadata Mdata_exposure.
図4を用いてホワイトバランスのメタデータ生成方法について詳細を説明する。図4(a)のグラフはR−Y、B−Yの色差を座標としている。上述したAWB用信号の座標が、図4(a)の原点O付近に位置しているときは、RGBのバランスが取れている、即ちホワイトバランスが合っていることを示している。逆に原点Oから離れているほど、ホワイトバランスがズレていることを示している。AWB用信号の図4(a)の座標上でのベクトルをWB_Vectorと定義する。 Details of the white balance metadata generation method will be described with reference to FIG. The graph of FIG. 4A uses the color difference of RY and BY as coordinates. When the coordinates of the AWB signal described above are located in the vicinity of the origin O in FIG. 4A, it indicates that the RGB balance is achieved, that is, the white balance is matched. Conversely, the farther from the origin O, the more white balance is shifted. A vector of the AWB signal on the coordinates in FIG. 4A is defined as WB_Vector.
図4(b)、図4(c)のグラフの横軸はWB_Vectorの大きさとし、縦軸を生成されるメタデータMdata_wbとしたグラフの一例を示している。上述したように横軸は、値が大きくなるほどホワイトバランスがズレた画像となる。図4(b)において、Mdata_wbは、以下の計算式で演算する。 The horizontal axes of the graphs of FIGS. 4B and 4C are examples of graphs in which the size of WB_Vector is taken and the vertical axis is metadata Mdata_wb to be generated. As described above, the horizontal axis is an image in which the white balance is shifted as the value increases. In FIG. 4B, Mdata_wb is calculated by the following calculation formula.
Mdata_wb=|WB_Vector|/WB_TH
つまり、ホワイトバランスの最適値からのズレ量を所定の閾値WB_THで正規化している。ここで、WB_THは、ホワイトバランスのズレ量の許容値として設定される。色のズレ量の許容値は個人差も大きく一意に決めるのは困難であるため、ユーザーが任意で設定できるようにしてもよい。また光源によっては、原点に収束し得ない場合もあるため、その場合は、WB_THの閾値を広げてもよいし、図4(a)の原点を光源に合わせてシフトさせてもよい。本演算により、Mdata_wbは0に近いほどホワイトバランスが適正になっており、1よりも大きいほどホワイトバランスがズレていることを示すデータとなる。
Mdata_wb = | WB_Vector | / WB_TH
That is, the amount of deviation from the optimum white balance value is normalized by the predetermined threshold WB_TH. Here, WB_TH is set as an allowable value of the deviation amount of white balance. Since the allowable value of the color misregistration amount varies greatly among individuals and is difficult to determine uniquely, the user may arbitrarily set it. Further, depending on the light source, it may not be able to converge to the origin. In this case, the threshold value of WB_TH may be widened, or the origin of FIG. 4A may be shifted according to the light source. By this calculation, Mdata_wb becomes data indicating that the white balance is more appropriate as it is closer to 0, and that the white balance is shifted as it is larger than 1.
図4(c)は、横軸と縦軸は図4(b)と共通で、Mdata_wbの演算方法の他の例を示したグラフである。図4(c)は、|WB_Vector|<WB_TH2の範囲では、Mdata_wbの演算方法は図4(b)と共通であり、それ以外の範囲では、|WB_Vector|が変化したときのMdata_wbの変化量(ゲイン)を大きくしている。これは、撮像装置100内部の画像処理やPCの画像処理ソフト等によって、多少の色ズレであれば、画像の色レベルを調整することによって容易に補正できるが、色ズレが大きい画像ではノイズが目立つようになる等、静止画としての画質の劣化度合いが大きくなるためである。
FIG. 4C is a graph showing another example of the method for calculating Mdata_wb, in which the horizontal axis and the vertical axis are the same as those in FIG. 4B. In FIG. 4C, in the range of | WB_Vector | <WB_TH2, the calculation method of Mdata_wb is the same as that in FIG. 4B, and in other ranges, the amount of change in Mdata_wb when | WB_Vector | changes ( (Gain) is increased. This can be easily corrected by adjusting the color level of the image if there is some color misregistration by image processing inside the
図5乃至図10を用いて像振れのメタデータ生成方法について詳細を説明する。図5(a)は、像振れのメタデータを生成するためのブロック図の一例である。図5(a)は、図1に対してシステム制御部121内部の処理を追加したものであり、システム制御部121外部のブロックは、図1で説明した通りであるため説明は省略する。
The details of the image blur metadata generation method will be described with reference to FIGS. FIG. 5A is an example of a block diagram for generating image blur metadata. FIG. 5A is obtained by adding processing inside the
振れ補正量演算部201は、角速度センサ120の角速度検出結果に基づいて、補正光学系102の駆動位置を算出し、補正光学系駆動部107に駆動指示を送る。振れ量演算部202は、角速度センサ120の出力に基づいて、撮像素子105の電荷蓄積時間中の撮像装置100に加えられた振れ量を演算する。メタデータ生成部203は、振れ補正量演算部201と振れ量演算部202の出力に基づいて、メタデータ生成部113に渡す像振れのメタデータを演算する。
The shake correction
図6(a)乃至図6(c)は、メタデータの演算タイミングを説明するためのグラフである。図6(a)は、横軸を時間、縦軸を撮像素子105の各ライン毎の電荷蓄積及び読出しタイミングとし、2フレーム分の画像の動作タイミングを示したグラフである。説明を分かりやすくするため、時間的に前のフレームの画像をフレーム1、後のフレームの画像をフレーム2とする。
FIGS. 6A to 6C are graphs for explaining the calculation timing of metadata. FIG. 6A is a graph showing the operation timing of an image for two frames, with the horizontal axis representing time and the vertical axis representing charge accumulation and readout timing for each line of the
図6(a)において、時間T10は撮像素子105のフレーム1の一方の端のラインの電荷蓄積が始まるタイミングを示しており、他方の端に向かって順次時系列に、斜線の平行四辺形の左側の辺のタイミングで電荷の蓄積が開始されていく。時間T11は時間T10で電荷蓄積が始まったラインについて、電荷の読出しが開始されるタイミングを示しており、時間T11から始まる太線部は、各ラインの電荷の読出しが行われるタイミングを示している。時間T10とT11の間の時間はシャッタ速度となる。時間T12は、フレーム1の全ラインの電荷蓄積及び読出しが終了したタイミングとなる。時間T20、T21、T22は、フレーム2における撮像素子105の電荷蓄積開始、電荷読出し開始(電荷蓄積終了)、全電荷読出し終了の各タイミングを示している。
In FIG. 6A, time T10 indicates the timing at which charge accumulation on one end line of the
図6(b)は、横軸を時間、縦軸を振れ補正量演算部201の出力を撮像面上での移動画素数に換算した結果とし、その時間による変化を示したグラフである。図6(c)の実線グラフは、横軸を時間、縦軸を振れ量演算部202の出力を撮像面上での移動画素数に換算した結果とし、その時間による変化を示したグラフである。
FIG. 6B is a graph showing changes with time, with the horizontal axis representing time and the vertical axis representing the result of converting the output of the shake correction
図6(b)は、補正光学系102によって像振れ補正がどれだけ行われたかを示している。図6(c)の実線グラフは、上記フレーム1及びフレーム2の電荷蓄積開始から電荷読出し終了までの時間中に、撮像装置100にどれだけの振れが生じたかを示している。そのため、フレーム1の振れ量は時間T10から始まり、時間T12で終了するグラフとなっており、フレーム2の振れ量は時間T20から始まり、時間T22で終了するグラフとなっている。動画像の振れ量を評価する場合は、フレーム1とフレーム2の間に生じる振れ量即ち、T10とT12の中間の時間から、T20とT22の中間の時間に生じる振れ量を演算する必要がある。一方本実施形態は、動画像の各フレームから静止画を生成する用途に関する発明であるため、各フレームの画像を生成する時間内に生じる振れ量の演算を行っている。
FIG. 6B shows how much image blur correction has been performed by the correction
図6(b)と図6(c)のグラフを比較すると、フレーム1とフレーム2について、撮像装置100に加えられた振れをどれだけ正確に補正したかを求めることができる。フレーム1については、図6(b)の点Aから点Cまでの振れ補正量の軌跡と図6(c)のフレーム1の振れ軌跡がほぼ一致しており、フレーム1の最終的な振れ量は小さくなっている。一方フレーム2については、図6(b)の点Bから点Dまでの振れ補正量の軌跡と図6(c)のフレーム2の振れ軌跡は以下に説明するように、一致しない軌跡となっている。
Comparing the graphs of FIG. 6B and FIG. 6C, it can be determined how accurately the shake applied to the
まず、点Bの縦軸の座標は、点Aとは異なり、0ではない数値B0となっている。そのため、図6(c)のT20からの振れ軌跡と比較するためには、このB0を図6(b)のグラフから減算する必要がある。この減算を行った結果を、図6(c)の点線グラフで表記する。図6(c)の点線と実線のグラフを比較すると、両者には差異が生じている。これは、以下の理由による。動画像の振れ補正は、補正限界まで100%の振れ補正を継続すると振れ補正ができなくなり、振れが補正された状態と補正されない状態が繰り返され、品位の悪い映像となってしまう。これを回避するため、補正光学系102が補正限界に近づく際、振れ補正量演算部201内部の低周波数帯域遮断用のフィルタの遮断周波数を変更する等の制御を行い、振れ補正効果を弱め、補正光学系102を連続的に動作させ続ける制御が一般的に行われる。一方静止画の振れ補正は、静止画露光中は補正限界まで、できるだけ100%に近い振れ補正を行うことが要求される。この動画像と静止画の振れ補正の考え方の差異によって、図6(c)の差異が生じる。即ち、フレーム2において、本来静止画としての振れ補正を行うためには、図6(c)の実線の軌跡に従って補正光学系102を制御することが望ましいが、動画撮影においては、補正限界に近づかないように点線の軌跡に従って制御している。そして、両者の差異がフレーム2の振れ量となる。
First, unlike the point A, the coordinate of the vertical axis of the point B is a numerical value B0 that is not zero. Therefore, in order to compare with the deflection trajectory from T20 in FIG. 6C, it is necessary to subtract B0 from the graph in FIG. 6B. The result of this subtraction is represented by a dotted line graph in FIG. When the dotted and solid graphs in FIG. 6C are compared, there is a difference between the two. This is due to the following reason. In the case of moving image shake correction, if 100% shake correction is continued until the correction limit, shake correction cannot be performed, and the state in which the shake is corrected and the state in which the shake is not corrected are repeated, resulting in poor quality video. In order to avoid this, when the correction
図7(a)のグラフは、横軸が撮像素子105の横方向の振れ量、縦軸は縦方向の振れ量(単位は画素)を示している。図6(b)、図6(c)のグラフが、撮像素子105の横あるいは縦のどちらか一方の振れ補正量、振れ量を示しているとすると、フレーム2の一方の軸の最終的な振れ量は図6(c)のShake_Amountとなる。これを縦横両方の軸で演算すると、動画像の各フレームの振れ量は図7(a)に示すように二次元の座標上で表現することができる。この二次元座標上での振れのベクトルをShake_Vectorと定義する。当然のことながら、Shake_Vectorの座標が原点に近いほど、振れは小さくなる。
In the graph of FIG. 7A, the horizontal axis indicates the horizontal shake amount of the
図7(b)、図7(c)のグラフの横軸をShake_Vectorの大きさとし、縦軸を生成されるメタデータMdata_shakeとしたグラフの一例を示している。上述したように横軸は、値が大きくなるほど振れが大きい画像となる。図7(b)において、Mdata_shakeは、以下の計算式で演算する。 FIG. 7B and FIG. 7C show examples of graphs in which the horizontal axis of the graph is the size of Shake_Vector and the vertical axis is metadata Mdata_shake that is generated. As described above, the horizontal axis is an image with a greater shake as the value increases. In FIG. 7B, Mdata_shake is calculated by the following calculation formula.
Mdata_shake=|Shake_Vector|/Shake_TH
つまり、撮像素子105上での振れ量を所定の閾値Shake_THで正規化している。ここで、Shake_THは、撮像面上での許容振れ量として設定される。振れ量の許容値は撮像素子105の画素数や撮影光学系の解像度等にも依存するため、一意に決めるのは困難であるが、例えば許容錯乱円の半径の数値等とする。また、ユーザーが任意で設定できるようにしてもよい。本演算により、Mdata_shakeは0に近いほど振れ量が静止画として問題ないレベルになっており、1よりも大きいほど振れが大きい画像になっていることを示すデータとなる。
Mdata_shake = | Shake_Vector | / Shake_TH
That is, the shake amount on the
図7(c)は、横軸と縦軸は図7(b)と共通で、Mdata_shakeの演算方法の他の例を示したグラフである。図7(c)は、|Shake_Vector|<Shake_TH2の範囲では、Mdata_shakeの演算方法は図7(b)と共通である。しかし、それ以外の範囲では、|Shake_Vector|が変化したときのMdata_shakeの変化量(ゲイン)を大きくしている。これは、撮像装置100内部の画像処理やPCの画像処理ソフト等によって、多少の振れであれば、公知の画像復元の技術等を用いて容易に補正ができるが、振れが大きい画像では疑似輪郭やノイズ等が目立つようになり、静止画としての画質の劣化度合いが大きくなるためである。
FIG. 7C is a graph in which the horizontal axis and the vertical axis are the same as those in FIG. 7B and show another example of the method for calculating Mdata_shake. In FIG. 7C, in the range of | Shake_Vector | <Shake_TH2, the calculation method of Mdata_shake is the same as that in FIG. 7B. However, in other ranges, the amount of change (gain) of Mdata_shake when | Shake_Vector | changes. This can be easily corrected by a known image restoration technique or the like if there is a slight shake by image processing inside the
図8のグラフを用いて、Mdata_shakeの演算方法の他の例について説明する。図7においては、振れ補正量演算部201で補正した振れ補正量と振れ量演算部202で検出した振れ量との全電荷読出し終了時点での差分を用いて、Mdata_shakeの演算を行った。多くの場合には、この演算方法で正しく動画像の各フレームの振れ量を表現できるが、図8(a)に示すように正しく表現することができない場合もある。図8(a)は、横軸と縦軸は図7(b)と共通であり、撮像素子105の電荷蓄積開始から全電荷読出し終了までの、撮像面上での振れ軌跡の例を示したグラフである。図8(a)の例では、全電荷読出し終了は点A0であり、原点Oから近い点になっているが、途中の軌跡はA0よりも原点Oから離れた座標を通っている。シャッタ速度が速い場合には頻度は非常に少ないが、シャッタ速度が遅くなるにつれて、このような軌跡を描く頻度が増えていく。この場合全電荷読出し終了時点のA0だけでは、動画像の各フレームの振れ量を正しく表現することができない。
Another example of the method for calculating Mdata_shake will be described using the graph of FIG. In FIG. 7, the calculation of Mdata_shake is performed using the difference between the shake correction amount corrected by the shake correction
そこで、上記Shake_Amountに代わる振れ量の演算方法を図8(b)を用いて説明する。図8(b)のグラフは、図8(a)の振れ軌跡について、所定時間毎の移動位置をA1〜A7でプロットしたグラフである。そして、振れ量の演算式を以下の式とする。 Therefore, a method for calculating the shake amount instead of the Shake_Amount will be described with reference to FIG. The graph in FIG. 8B is a graph in which the movement positions for each predetermined time are plotted by A1 to A7 with respect to the shake locus in FIG. Then, the calculation formula for the shake amount is as follows.
|A1−O|+|A2−A1|+|A3−A2|+|A4−A3|+|A5−A4|+|A6−A5|+|A7−A6| …(式1)
(式1)は、所定時間毎の撮像面上での振れの大きさを、電荷蓄積開始から全電荷読出し終了まで順次積算していく式(積分値)となっている。(式1)によれば、振れ軌跡の全移動距離を算出することができ、上述した動画像の各フレームの振れ量を正しく表現することができない問題を回避することができる。なお、図7(b)あるいは図7(c)において、(式1)の演算結果を|Shake_Vector|と置きかえることによって、Mdata_shakeを算出することができる。
| A1-O | + | A2-A1 | + | A3-A2 | + | A4-A3 | + | A5-A4 | + | A6-A5 | + | A7-A6 | (Formula 1)
(Expression 1) is an expression (integrated value) in which the magnitude of the shake on the imaging surface at every predetermined time is sequentially integrated from the start of charge accumulation to the end of reading of all charges. According to (Expression 1), the total movement distance of the shake trajectory can be calculated, and the above-described problem that the shake amount of each frame of the moving image cannot be correctly expressed can be avoided. In FIG. 7B or FIG. 7C, Mdata_shake can be calculated by replacing the calculation result of (Equation 1) with | Shake_Vector |.
上記Shake_Amountに代わる振れ量の演算方法の別の例を図8(c)を用いて説明する。図8(c)は、図8(b)の原点OからA2までの振れ軌跡を拡大表示したグラフである。図に示すように、横軸とベクトルA1−Oとが成す角度をθ0、横軸とベクトルA2−A1が成す角度をθ1、ベクトルA1−OとベクトルA2−A1との相対角度をθ2とすると、θ2=θ0−θ1となる。振れ量の画像平面上でのベクトルの軌跡が直線に近い場合、撮像装置100内部の画像処理やPCの画像処理ソフト等で振れのない画像へ復元することは比較的容易であるが、複雑な軌跡を描くほど、復元は困難になっていく。よって、所定時間毎(単位時間あたり)の撮像面上での振れの大きさを積算する際に、差分ベクトルの角度変化θ2が大きくなるに従って値が大きくなるゲインを乗算する、という処理を行うことによって、復元の困難さを考慮したデータにすることができる。例えば、|A1−O|に対して|A2−A1|を積算する際に、以下のような演算を行う方法が考えられる。
Another example of a shake amount calculation method instead of the above Shake_Amount will be described with reference to FIG. FIG. 8C is a graph in which the deflection locus from the origin O to A2 in FIG. As shown in the figure, if the angle formed by the horizontal axis and the vector A1-O is θ0, the angle formed by the horizontal axis and the vector A2-A1 is θ1, and the relative angle between the vector A1-O and the vector A2-A1 is θ2. , Θ2 = θ0−θ1. When the locus of the vector on the image plane of the shake amount is close to a straight line, it is relatively easy to restore the image without shake by image processing inside the
|A1−O|+|A2−A1|(1+sinθ2)
本式によれば、θ2が0degのときはsinθ2=0であり、θ2が90degのときはsinθ2=1となり、θ2の大きさに応じたゲインを設定することができる。本演算を電荷蓄積開始から全電荷読出し終了まで行い、その結果を図7(b)あるいは図7(c)の|Shake_Vector|と置きかえることによって、振れの復元の容易さまで考慮したMdata_shakeを算出することができる。
| A1-O | + | A2-A1 | (1 + sin θ2)
According to this equation, when θ2 is 0 deg, sin θ2 = 0, and when θ2 is 90 deg, sin θ2 = 1, and a gain corresponding to the magnitude of θ2 can be set. This calculation is performed from the start of charge accumulation to the end of reading out all charges, and the result is replaced with | Shake_Vector | in FIG. 7B or FIG. 7C to calculate Mdata_shake taking into account the ease of shake recovery. Can do.
Mdata_shakeの演算方法のさらに他の例について説明する。図5(b)は、振れのメタデータを生成するためのブロック図の一例である。図5(b)は、図5(a)に対して符号301乃至303の各ブロックを追加したものであるため、その他のブロックについての説明は省略する。
Still another example of the calculation method of Mdata_shake will be described. FIG. 5B is an example of a block diagram for generating shake metadata. Since FIG. 5B is obtained by adding
動きベクトル検出部303は、信号処理部111で生成された現在の映像信号に含まれる輝度信号と、動きベクトル検出部303内部の画像メモリに格納された1フレーム前の映像信号に含まれる輝度信号に基づいて画像の動きベクトルを検出する。動きベクトル検出部303によって検出された動きベクトル出力は、パンニング判定部301、パンニング速度演算部302に供給される。なお、動きベクトル検出部303は必須の構成ではない。
The motion
パンニング判定部301は、角速度センサ120あるいは動きベクトル検出部303の出力に基づいて、撮像装置100がパンニング状態であるかどうかの判定を行う。パンニング速度演算部302は、パンニング判定部301により撮像装置100がパンニング状態であるという判定が行われているときは、現在のパンニング速度を演算して、振れ量演算部202に供給する。パンニング状態でないという判定のときは、パンニング速度はゼロとする。パンニング速度の演算は、角速度センサ120の出力あるいは動きベクトル検出部303の出力、またはその両方から演算する。振れ補正量演算部202は、パンニング速度演算部302によって演算されたパンニング速度を考慮した振れ量の演算を行う。
The panning
動画像の撮影においては、静止画撮影とは異なりパンニング動作は頻繁に行われる。主被写体が動く場合、主被写体を画面内の中央付近に保持するような撮影は特に頻繁に行われる。このとき、上述した撮像面上での振れ量を正規化してメタデータとして保持する方法のみを用いると、パンニングを行っている間は、全て振れが大きいことを示すデータとなってしまう。主被写体の動きに合わせてパンニングを行っている場合は、所謂静止画の流し撮り撮影と同じ撮影を行っている状態となるため、パンニングを行っている間の動画像の各フレームが全て振れが大きいと判定されることは適切ではない。 In moving image shooting, panning operation is frequently performed unlike still image shooting. When the main subject moves, shooting is often performed so that the main subject is held near the center of the screen. At this time, if only the method of normalizing the shake amount on the imaging surface described above and storing it as metadata is used, all data indicating that the shake is large during panning. When panning is performed in accordance with the movement of the main subject, it is in the same state as so-called panning shot of a still image, so all the frames of the moving image during the panning are shaken. It is not appropriate to be determined to be large.
そこで、パンニング判定部301ではまず、撮像装置100がパンニングされている状態であるかどうかの判定を行う。パンニングの判定方法には公知の方法を用いればよい。例えば、角速度センサ120の出力あるいは動きベクトル検出部303の出力、又はその積分出力(積分値)が所定値を超えたとき、パンニングと判定する方法等がある。
Therefore, the panning
パンニング速度演算部302では、パンニングの速度を演算する。パンニングの速度は、角速度センサ120の出力の平均値を演算すれば算出することができる。また、動きベクトル検出部303の出力を用いてもよい。動きベクトル検出部303の出力を用いたパンニング速度の演算方法について、図9を用いて説明する。図9(a)は、画面中央の移動している乗り物を、画面中央に保持するように撮影している画像を示している。動きベクトル検出には画像を複数ブロックに分割し、各ブロック毎に動きベクトルを算出するブロックマッチング法を用いることとし、点線は動きベクトル検出を行う各ブロックを示している。
The panning
図9(b)は、各ブロックにおける動きベクトル検出の結果を、矢印の方向と大きさで示している。太線枠内の動きベクトルは、乗り物の動きベクトルを示し、太線枠外の動きベクトルは、それ以外の背景領域の動きベクトルを示している。背景領域の動きベクトルの平均値をVector_Backとし、乗り物の領域の動きベクトルの平均値をVector_Carとすると、パンニング速度は、Vector_Back−Vector_Carで演算することができる。上式は、乗り物の領域の動きベクトルをゼロにするためのパンニング速度である。乗り物の領域の動きベクトルがゼロの場合は、乗り物の動きに対して撮影が100%追従していることを示し、理想的な流し撮りに近い状態になっているということができる。 FIG. 9B shows the result of motion vector detection in each block in the direction and size of the arrow. The motion vector within the bold line frame indicates the motion vector of the vehicle, and the motion vector outside the thick line frame indicates the motion vector of the other background area. If the average value of the motion vectors in the background area is Vector_Back and the average value of the motion vectors in the vehicle area is Vector_Car, the panning speed can be calculated by Vector_Back-Vector_Car. The above equation is the panning speed for zeroing the motion vector in the vehicle area. When the motion vector of the vehicle area is zero, it indicates that the shooting is 100% following the movement of the vehicle, and can be said to be close to an ideal panning shot.
図10を用いて、図5(b)の振れ量演算部202におけるパンニング速度を考慮した振れ量の演算について説明する。図10(a)は、横軸を時間、縦軸を角速度としたときの、角速度センサ120の出力(実線)、パンニング速度演算部302により演算されるパンニング速度(点線)の出力を示したグラフである。図10(a)は、撮像装置100がパンニングされているときのグラフを示しており、角速度センサの出力はパンニング速度に対して周波数の高い振れ角速度信号が重畳された波形となっている。
The shake amount calculation in consideration of the panning speed in the shake
ここで、時間T30を撮像素子105の電荷蓄積開始、時間T31を全電荷読出し終了のタイミングとする。このとき、図6(c)を使って説明した、パンニング速度を考慮しない演算方法で振れ量の演算を行うと、その結果は図10(b)に示すグラフとなる。図10(a)はパンニング速度が常に発生している状態のグラフであるため、これを積分して振れ量を算出するとパンニングによる撮像装置100の動きが積分され、振れ量は図10(b)に示すように大きな値となる。補正光学系102は、通常パンニングの動きは補正しないように制御するため、図10(b)に示す振れ量と振れ補正量演算部201の差分に基づいて演算されるメタデータMdata_shakeも大きな値となる。
Here, the time T30 is set as the charge accumulation start timing of the
一方、図10(c)は、角速度センサ120の出力からパンニング速度を減算した結果を積分して、振れ量を算出したグラフである。図10(c)は、パンニングの動き成分を除外した振れ量となっている。補正光学系102は、通常パンニングの動きは補正しないように制御するため、図10(c)に示す振れ量と振れ補正量演算部201の出力は近い出力となり、両者の差分に基づいて演算されるメタデータMdata_shakeは小さな値となる。
On the other hand, FIG. 10C is a graph in which the shake amount is calculated by integrating the result of subtracting the panning speed from the output of the
これによって、ユーザーがパンニングを行った場合に、常にMdata_shakeが大きな値となり、振れが大きいと判定されてしまう現象を回避することができる。なお、主被写体が存在せず、風景のみをパンニングして撮影する場合は、上述した流し撮りにはならず、各フレームの画像は単純に風景が振れた画像になっている。このような場合には、パンニング判定部301でパンニングではないという判定を行うことで、画像の振れが大きいのにもかかわらず小さいと判定されてしまう現象の発生を防ぐことができる。この判定は、図9で説明した動きベクトルを用いることで行うことができる。例えば、画面全体の動きベクトルが同じ方向を向いている場合は、主被写体を追いかけた撮影ではないと判断することができる。
Thus, when the user performs panning, it is possible to avoid the phenomenon that Mdata_shake always has a large value and it is determined that the shake is large. Note that when there is no main subject and panning is performed only on a landscape, the above-described panning is not performed, and the image of each frame is simply an image with a landscape shake. In such a case, by determining that the panning
ここまでの説明においては、補正光学系102あるいは撮像素子105を駆動する機構があることを前提に説明してきた。このような振れを光学的に補正する手段を有していない撮像装置の場合は、図5(a)、図5(b)において、振れ補正量演算部201がない構成となる。そのため、Mdata_shakeの演算は、振れ量演算部202の出力のみを用いて行えばよく、それ以外の演算方法は振れを光学的に補正する手段を有している場合と同じとなる。
The description so far has been made on the assumption that there is a mechanism for driving the correction
次に、ユーザーが動画像の中から最適な静止画を選ぶことができるようにするための、上記4種類のメタデータMdata_focus、Mdata_exposure、Mdata_wb、Mdata_shakeの利用方法の例について説明する。 Next, an example of how to use the above four types of metadata Mdata_focus, Mdata_exposure, Mdata_wb, and Mdata_shake so that the user can select an optimal still image from moving images will be described.
まず、図11にユーザーが動画像データから静止画を生成するまでのフローチャートを示す。S100はユーザー操作であり、ユーザーが撮像装置100の操作部材(不図示)を操作し、撮影された動画像から静止画を生成するためのモードに設定し、静止画を生成するための動画像を選択することによって、本フローチャートの処理が開始される。S101では、システム制御部121はS100で選択された動画像の全フレームのメタデータを読み込む。S102では、S101で読み込んだメタデータを用いて、ユーザーが最適な静止画を選択するためのアシスト機能を提供する。S103はユーザー操作であり、S102の機能を利用して、ユーザーにより静止画を生成するためのフレームが決定される。S104では、S103でユーザーによって決定されたフレームの画像から、1枚の静止画を作るデコードと、デコードされた画像を更にJPEG圧縮するエンコードが行われる。S105ではS104で生成された静止画が、記録媒体114に記録される。S105の処理の後、本フローチャートの処理は終了となる。
First, FIG. 11 shows a flowchart until the user generates a still image from moving image data. S100 is a user operation, where the user operates an operation member (not shown) of the
S102のアシスト機能の例を、以下に示す。最も単純な例としては、図12に示すように、Mdata_focus、Mdata_exposure、Mdata_wb、Mdata_shakeの数値を、ダイヤモンド型のグラフに表示し、動画像の再生と同時に表示デバイス112に表示する方法があげられる。ユーザーは、動画像の再生時に、全ての数値が最も内側のダイヤモンドに近い配置となっているフレームの画像を選択することで、静止画として最適なフレームを選択することができる。
An example of the assist function in S102 is shown below. As the simplest example, as shown in FIG. 12, the numerical values of Mdata_focus, Mdata_exposure, Mdata_wb, and Mdata_shake are displayed on a diamond-shaped graph and displayed on the
また、撮像装置100側で、メタデータが示す評価が高い画像を自動選択する方法も考えられる。例えば、評価が高いフレームの画像から順に表示デバイス112に表示し、ユーザーが優先的に選択することができるようにしたり、評価が高いフレームの画像は目立つように色付けした外枠をつける等の方法を取ることもできる。また、評価が高いフレームが連続して続くと、同じような画像ばかりが抽出される事態が生じるため、公知のシーン切替検知を用いて、各シーンにつき1枚のフレームを選択するようにしてもよい。更に、公知の顔認識機能を用いて、特定の人物の顔が映っている中から、メタデータの評価が高い画像を自動選択するようにしてもよい。
Further, a method of automatically selecting an image with high evaluation indicated by metadata on the
ここで、4つのメタデータから最終的な評価を決定する方法の例について説明する。最も単純な例としては、4つのメタデータMdata_focus、Mdata_exposure、Mdata_wb、Mdata_shakeを足し算した結果を用いる。0に近いほど評価が高く、数値が大きいほど評価の低い画像となる。また、4つのメタデータを掛け算してもよい。1よりも小さいほど評価が高く、数値が大きいほど評価の低い画像となる。また、ユーザーが重みづけを決定することができるようにしてもよい。例えば、故意に露出をずらしたり、故意に色味を変更する場合もあるため、露出ズレは評価対象としない、WBはMdata_wbに1よりも小さい係数を掛けて使用するなどとしてもよい。 Here, an example of a method for determining the final evaluation from the four metadata will be described. As the simplest example, a result obtained by adding four metadata Mdata_focus, Mdata_exposure, Mdata_wb, and Mdata_shake is used. The closer to 0, the higher the evaluation, and the higher the numerical value, the lower the evaluation. Moreover, you may multiply four metadata. The smaller the value is, the higher the evaluation is, and the larger the value is, the lower the evaluation is. Also, the user may be able to determine the weighting. For example, since the exposure may be intentionally shifted or the color may be changed intentionally, the exposure deviation may not be evaluated, and WB may be used by multiplying Mdata_wb by a coefficient smaller than 1.
このように、4つのメタデータを様々な形で用いることによって、ユーザーが動画像から静止画として最適な画像を容易に選択することができる様々なシステムを提供することができる。 As described above, by using the four metadata in various forms, it is possible to provide various systems that allow the user to easily select an optimal image as a still image from a moving image.
以上説明してきたように、本実施形態においては、フォーカスズレ、露出ズレ、WBズレ、振れの4種類のカメラパラメータについて、静止画として適切な画像かどうかを判断するためのメタデータとして、各々の特性を考慮して最適な演算方法を示した。また、これらの4種類のカメラパラメータについて、動画像撮影時の各フレーム毎に、許容値からのズレ量を当該許容値で正規化して、動画像の各フレームと関連付けて記録するようにした。これによって、上記4種類のパラメータを同じ尺度で判断することができ、どのフレームの画像が静止画として最適であるかを、ユーザーに適切に報知することができる。そして、ユーザーは容易に動画像から最適な静止画を生成することができる。 As described above, in the present embodiment, each of four types of camera parameters, focus shift, exposure shift, WB shift, and shake, is used as metadata for determining whether the image is appropriate as a still image. The optimal calculation method was shown considering the characteristics. Further, for these four types of camera parameters, for each frame at the time of moving image shooting, the amount of deviation from the allowable value is normalized by the allowable value and recorded in association with each frame of the moving image. Thus, the above four types of parameters can be determined on the same scale, and it is possible to appropriately notify the user which frame image is optimal as a still image. The user can easily generate an optimal still image from the moving image.
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。例えば、上記の4種類のパラメータは全てを生成する必要はなく、いずれか1種類以上のパラメータを用いるシステムであってもよい。 Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. For example, it is not necessary to generate all of the above four types of parameters, and a system using any one or more types of parameters may be used.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
100:撮像装置、102:補正光学系、103:絞り、104:フォーカスレンズ、105:撮像素子、110:撮像素子駆動部、111:信号処理部、113:メタデータ生成部、117:距離情報生成部、118:AE用信号生成部、119:AWB用信号生成部、120:角速度センサ、121:システム制御部 DESCRIPTION OF SYMBOLS 100: Imaging device, 102: Correction | amendment optical system, 103: Diaphragm, 104: Focus lens, 105: Image sensor, 110: Image sensor drive part, 111: Signal processing part, 113: Metadata production | generation part, 117: Distance information production | generation 118: AE signal generator, 119: AWB signal generator, 120: angular velocity sensor, 121: system controller
Claims (7)
前記振れ検出手段から出力される振れ信号を用いて、前記動画用の振れ補正量よりも振れ補正性能が高い静止画用の振れ補正量を算出する第2の算出手段と、
前記動画用の振れ補正量と前記静止画用の振れ補正量の差分に基づいて、撮像素子の撮像面上における振れ量の大きさを示す評価値を生成する生成手段と、
前記動画の各フレームの画像と前記評価値とを関連付けて記録する記録手段とを備え、
前記生成手段は、前記評価値に関する情報を前記動画の各フレームの画像に関連付けて表示手段に表示する表示形式を前記振れ量の大きさに応じて異ならせることを特徴とする画像処理装置。 First calculation means for calculating a shake correction amount for moving images using a shake signal output from the shake detection means;
Second calculation means for calculating a shake correction amount for a still image having a shake correction performance higher than the shake correction amount for the moving image, using a shake signal output from the shake detection means;
Generating means for generating an evaluation value indicating the magnitude of the shake amount on the imaging surface of the image sensor based on the difference between the shake correction amount for the moving image and the shake correction amount for the still image;
Recording means for recording the image of each frame of the moving image and the evaluation value in association with each other;
The image processing apparatus, wherein the generation unit changes a display format in which information on the evaluation value is displayed on the display unit in association with an image of each frame of the moving image according to the magnitude of the shake amount.
前記振れ検出手段から出力される振れ信号を用いて、前記動画用の振れ補正量よりも振れ補正性能が高い静止画用の振れ補正量を算出する第2の算出工程と、
前記動画用の振れ補正量と前記静止画用の振れ補正量の差分に基づいて、撮像素子の撮像面上における振れ量の大きさを示す評価値を生成する生成工程と、
前記動画の各フレームの画像と前記評価値とを関連付けて記録する記録工程とを備え、
前記生成工程では、前記評価値に関する情報を前記動画の各フレームの画像に関連付けて表示手段に表示する表示形式を前記振れ量の大きさに応じて異ならせることを特徴とする画像処理装置の制御方法。 A first calculation step of calculating a shake correction amount for a moving image using a shake signal output from the shake detection means;
A second calculation step of calculating a shake correction amount for a still image having a shake correction performance higher than the shake correction amount for the moving image, using a shake signal output from the shake detection unit;
A generation step of generating an evaluation value indicating the magnitude of the shake amount on the imaging surface of the image sensor based on the difference between the shake correction amount for the moving image and the shake correction amount for the still image;
A recording step of recording the image of each frame of the moving image and the evaluation value in association with each other,
In the generation step, a display format in which information relating to the evaluation value is displayed on a display unit in association with an image of each frame of the moving image is changed according to a magnitude of the shake amount. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018084451A JP6541835B2 (en) | 2018-04-25 | 2018-04-25 | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND STORAGE MEDIUM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018084451A JP6541835B2 (en) | 2018-04-25 | 2018-04-25 | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND STORAGE MEDIUM |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014133246A Division JP6355454B2 (en) | 2014-06-27 | 2014-06-27 | Imaging apparatus, control method therefor, program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018142983A true JP2018142983A (en) | 2018-09-13 |
JP6541835B2 JP6541835B2 (en) | 2019-07-10 |
Family
ID=63528364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018084451A Expired - Fee Related JP6541835B2 (en) | 2018-04-25 | 2018-04-25 | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND STORAGE MEDIUM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6541835B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021082972A (en) * | 2019-11-20 | 2021-05-27 | 株式会社エクサウィザーズ | Imaging apparatus, information processing apparatus, method, and program |
CN113574856A (en) * | 2019-03-28 | 2021-10-29 | 索尼集团公司 | Image processing apparatus, image processing method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003046918A (en) * | 2001-07-27 | 2003-02-14 | Canon Inc | Imaging apparatus and method therefor, computer- readable record medium, and computer program |
WO2005064921A1 (en) * | 2003-12-26 | 2005-07-14 | Matsushita Electric Industrial Co., Ltd. | Imaging device, product package, and semiconductor integrated circuit |
JP2008078756A (en) * | 2006-09-19 | 2008-04-03 | Victor Co Of Japan Ltd | Still image uptake device |
JP2011022353A (en) * | 2009-07-15 | 2011-02-03 | Canon Inc | Camera shake-correcting device |
JP2013232696A (en) * | 2012-04-27 | 2013-11-14 | Canon Inc | Recording and reproducing device |
-
2018
- 2018-04-25 JP JP2018084451A patent/JP6541835B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003046918A (en) * | 2001-07-27 | 2003-02-14 | Canon Inc | Imaging apparatus and method therefor, computer- readable record medium, and computer program |
WO2005064921A1 (en) * | 2003-12-26 | 2005-07-14 | Matsushita Electric Industrial Co., Ltd. | Imaging device, product package, and semiconductor integrated circuit |
JP2008078756A (en) * | 2006-09-19 | 2008-04-03 | Victor Co Of Japan Ltd | Still image uptake device |
JP2011022353A (en) * | 2009-07-15 | 2011-02-03 | Canon Inc | Camera shake-correcting device |
JP2013232696A (en) * | 2012-04-27 | 2013-11-14 | Canon Inc | Recording and reproducing device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113574856A (en) * | 2019-03-28 | 2021-10-29 | 索尼集团公司 | Image processing apparatus, image processing method, and program |
JP2021082972A (en) * | 2019-11-20 | 2021-05-27 | 株式会社エクサウィザーズ | Imaging apparatus, information processing apparatus, method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6541835B2 (en) | 2019-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6355454B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP4900401B2 (en) | Imaging apparatus and program | |
EP2171685B1 (en) | Image processor, image processing method, digital camera, and imaging apparatus | |
JP2008294785A (en) | Image processor, imaging apparatus, image file, and image processing method | |
KR101643613B1 (en) | Digital image process apparatus, method for image processing and storage medium thereof | |
JP6308748B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5453573B2 (en) | Imaging apparatus, imaging method, and program | |
JP2010020758A (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
JP2016058876A (en) | Imaging apparatus, control method thereof, and imaging system | |
JP4916378B2 (en) | Imaging apparatus, image processing apparatus, image file, and gradation correction method | |
JP2008139683A (en) | Imaging apparatus and autofocus control method | |
JP6541835B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND STORAGE MEDIUM | |
JP5948997B2 (en) | Imaging apparatus and imaging method | |
WO2017104102A1 (en) | Imaging device | |
JP2018148512A (en) | Imaging device, control method of imaging device, and program | |
JP2006253970A (en) | Imaging apparatus, shading correction data generating method, and program | |
US11653107B2 (en) | Image pick up apparatus, image pick up method, and storage medium | |
EP3836540B1 (en) | Image processing apparatus and image capturing apparatus | |
RU2761187C1 (en) | Image processing apparatus and image capturing apparatus | |
JP6486453B2 (en) | Image processing apparatus, image processing method, and program | |
JP2017183983A (en) | Imaging apparatus, control method and control program of the same | |
JP2008283477A (en) | Image processor, and image processing method | |
JP2020077964A (en) | Imaging apparatus and control method thereof | |
JP2016032180A (en) | Imaging apparatus, control method and program | |
JP2014138378A (en) | Image pickup device, control method thereof, and control program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190513 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190611 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6541835 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |