JP2012217106A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2012217106A JP2012217106A JP2011082210A JP2011082210A JP2012217106A JP 2012217106 A JP2012217106 A JP 2012217106A JP 2011082210 A JP2011082210 A JP 2011082210A JP 2011082210 A JP2011082210 A JP 2011082210A JP 2012217106 A JP2012217106 A JP 2012217106A
- Authority
- JP
- Japan
- Prior art keywords
- image
- parameter value
- selection
- image processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
この発明は、画像処理装置に関し、特に電子カメラに適用され、画像データに表れたブレの大きさを検出する、画像処理装置に関する。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that is applied to an electronic camera and detects the amount of blurring that appears in image data.
この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、撮像素子によって捉えられた被写体を表す画像データに対してブレの大きさが検出され、検出された大きさに基づいて手ブレレベルが設定される。手ブレレベルは、手ブレが小さい順にレベル1〜20の20段階評価で表される。手ブレの検出方法としては、画像解析によって画像データ中の複数のエッジを検出し、検出されたエッジの特徴量から手ブレの程度を得る方法や、手ブレセンサの出力から手ブレの程度を得る方法が採用される。
An example of this type of device is disclosed in
しかし、前者の手ブレ検出方法はソフトウェア構成の複雑化を招き、後者の手ブレ検出方法はハードウェア構成の複雑化を招く。このため、背景技術では、画像データのブレの検知性能の向上に限界がある。 However, the former camera shake detection method causes a complicated software configuration, and the latter camera shake detection method causes a complicated hardware configuration. For this reason, in the background art, there is a limit to the improvement in the image data blur detection performance.
それゆえに、この発明の主たる目的は、画像データのブレの検知性能を高めることができる、画像処理装置を提供することである。 SUMMARY OF THE INVENTION Therefore, a main object of the present invention is to provide an image processing apparatus that can improve the image blur detection performance.
この発明に従う画像処理装置(10:実施例で相当する参照符号。以下同じ)は、共通の被写体を捉えた画像を繰り返し取得する取得手段(S31~S33, S37~S39)、高周波画像成分の量に相関するパラメータ値を取得手段によって取得された複数の画像の各々に対応して検出する検出手段(S81)、検出手段によって検出された複数のパラメータ値のいずれか1つを選択する選択手段(S83)、および選択手段によって選択されたパラメータ値と選択手段の選択の後に残った1または2以上のパラメータ値の各々との差分を正規化する正規化手段(S91~S99, S103, S109~S111)を備える。 An image processing apparatus according to the present invention (10: reference numerals corresponding to the embodiments; the same applies hereinafter) includes acquisition means (S31 to S33, S37 to S39) for repeatedly acquiring images capturing a common subject, and the amount of high-frequency image components Detection means (S81) for detecting a parameter value correlated with each of the plurality of images acquired by the acquisition means, and selection means for selecting one of the plurality of parameter values detected by the detection means (S81). S83), and normalizing means (S91 to S99, S103, S109 to S111) for normalizing the difference between the parameter value selected by the selecting means and each of one or more parameter values remaining after selection of the selecting means ).
好ましくは、選択手段によって選択されるパラメータ値は高周波画像成分の量が最大の画像に対応する。 Preferably, the parameter value selected by the selection means corresponds to an image having a maximum amount of high-frequency image components.
好ましくは、正規化手段は、選択手段によって選択されたパラメータ値に対応する画像に基づいて基準ぶれ量を有する基準ぶれ画像を作成する作成手段(S91)、作成手段によって作成された基準ぶれ画像の高周波画像成分に相関するパラメータ値を基準パラメータ値として検出する基準パラメータ値検出手段(S93~S95)、および基準パラメータ値検出手段によって検出された基準パラメータ値を参照して正規化処理を実行する正規化処理手段(S103)を含む。 Preferably, the normalization means creates a reference blur image having a reference blur amount based on an image corresponding to the parameter value selected by the selection means (S91), the reference blur image created by the creation means Reference parameter value detection means (S93 to S95) for detecting a parameter value correlated with a high-frequency image component as a reference parameter value, and normalization that performs normalization processing with reference to the reference parameter value detected by the reference parameter value detection means Processing means (S103).
好ましくは、取得手段によって取得された複数の画像を個別に符号化する符号化手段(S35)がさらに備えられ、検出手段によって検出されるパラメータ値は符号化手段によって符号化された画像のサイズに相当する。 Preferably, an encoding unit (S35) for individually encoding a plurality of images acquired by the acquiring unit is further provided, and the parameter value detected by the detecting unit is set to the size of the image encoded by the encoding unit. Equivalent to.
好ましくは、取得手段によって取得された複数の画像の一部を正規化手段によって算出された正規化差分に基づいて抽出する抽出手段(S105, S49~S73)がさらに備えられる。 Preferably, extraction means (S105, S49 to S73) for extracting a part of the plurality of images acquired by the acquisition means based on the normalized difference calculated by the normalization means is further provided.
さらに好ましくは、抽出手段は、取得手段によって取得された画像から特定物体像を探索する探索手段(S55)、探索手段の探索結果と正規化手段によって算出された正規化差分とに基づく既定の演算処理を実行する演算手段(S57~S65)、および演算手段の演算結果を参照して抽出処理を実行する抽出処理手段(S71~S73)を含む。 More preferably, the extracting means searches for a specific object image from the image acquired by the acquiring means (S55), a predetermined calculation based on the search result of the searching means and the normalized difference calculated by the normalizing means. Calculation means (S57 to S65) for executing processing, and extraction processing means (S71 to S73) for executing extraction processing with reference to the calculation result of the calculation means are included.
この発明に従う画像処理プログラムは、画像処理装置(10)のプロセッサ(26)に、共通の被写体を捉えた画像を繰り返し取得する取得ステップ(S31~S33, S37~S39)、高周波画像成分の量に相関するパラメータ値を取得ステップによって取得された複数の画像の各々に対応して検出する検出ステップ(S81)、検出ステップによって検出された複数のパラメータ値のいずれか1つを選択する選択ステップ(S83)、および選択ステップによって選択されたパラメータ値と選択ステップの選択の後に残った1または2以上のパラメータ値の各々との差分を正規化する正規化ステップ(S91~S99, S103, S109~S111)を実行させるための、画像処理プログラムである。 The image processing program according to the present invention includes an acquisition step (S31 to S33, S37 to S39) for repeatedly acquiring an image capturing a common subject in the processor (26) of the image processing apparatus (10), and the amount of high-frequency image components. A detection step (S81) for detecting correlated parameter values corresponding to each of the plurality of images acquired by the acquisition step, and a selection step (S83) for selecting any one of the plurality of parameter values detected by the detection step ), And a normalization step (S91 to S99, S103, S109 to S111) for normalizing the difference between the parameter value selected by the selection step and each of one or more parameter values remaining after selection of the selection step Is an image processing program for executing.
この発明に従う画像処理方法は、画像処理装置(10)によって実行される画像処理方法であって、共通の被写体を捉えた画像を繰り返し取得する取得ステップ(S31~S33, S37~S39)、高周波画像成分の量に相関するパラメータ値を取得ステップによって取得された複数の画像の各々に対応して検出する検出ステップ(S81)、検出ステップによって検出された複数のパラメータ値のいずれか1つを選択する選択ステップ(S83)、および選択ステップによって選択されたパラメータ値と選択ステップの選択の後に残った1または2以上のパラメータ値の各々との差分を正規化する正規化ステップ(S91~S99, S103, S109~S111)を備える。 The image processing method according to the present invention is an image processing method executed by the image processing apparatus (10), and repeatedly obtains images capturing a common subject (S31 to S33, S37 to S39), a high-frequency image A detection step (S81) for detecting a parameter value correlated with the amount of component corresponding to each of the plurality of images acquired by the acquisition step, and selecting any one of the plurality of parameter values detected by the detection step A selection step (S83), and a normalization step (S91 to S99, S103, S103, S103, S103, S103, S103, S103, S103, S103, S103, S103, S103, and S103) S109 to S111).
この発明に従う外部制御プログラムは、メモリ(46)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備える画像処理装置に供給される外部制御プログラムであって、共通の被写体を捉えた画像を繰り返し取得する取得ステップ(S31~S33, S37~S39)、高周波画像成分の量に相関するパラメータ値を取得ステップによって取得された複数の画像の各々に対応して検出する検出ステップ(S81)、検出ステップによって検出された複数のパラメータ値のいずれか1つを選択する選択ステップ(S83)、および選択ステップによって選択されたパラメータ値と選択ステップの選択の後に残った1または2以上のパラメータ値の各々との差分を正規化する正規化ステップ(S91~S99, S103, S109~S111)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。 An external control program according to the present invention is an external control program supplied to an image processing apparatus including a processor (26) that executes processing according to an internal control program stored in a memory (46), and captures a common subject. Acquisition step for repeatedly acquiring images (S31 to S33, S37 to S39), detection step for detecting a parameter value correlated with the amount of high-frequency image components corresponding to each of the plurality of images acquired by the acquisition step (S81) A selection step (S83) for selecting any one of a plurality of parameter values detected by the detection step, and a parameter value selected by the selection step and one or more parameter values remaining after selection of the selection step Normalization steps (S91 to S99, S103, S109 to S111) for normalizing the difference from each of them are executed by the processor in cooperation with the internal control program Of the eye, which is an external control program.
この発明に従う画像処理装置(10)は、外部制御プログラムを取り込む取り込み手段(48)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(46)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(26)を備える画像処理装置(10)であって、外部制御プログラムは、共通の被写体を捉えた画像を繰り返し取得する取得ステップ(S31~S33, S37~S39)、高周波画像成分の量に相関するパラメータ値を取得ステップによって取得された複数の画像の各々に対応して検出する検出ステップ(S81)、検出ステップによって検出された複数のパラメータ値のいずれか1つを選択する選択ステップ(S83)、および選択ステップによって選択されたパラメータ値と選択ステップの選択の後に残った1または2以上のパラメータ値の各々との差分を正規化する正規化ステップ(S91~S99, S103, S109~S111)を内部制御プログラムと協働して実行するプログラムに相当する。 An image processing apparatus (10) according to the present invention executes a process according to a fetching means (48) for fetching an external control program, and an external control program fetched by the fetching means and an internal control program stored in a memory (46). An image processing apparatus (10) comprising a processor (26), wherein an external control program repeatedly acquires images capturing a common subject (S31 to S33, S37 to S39), and determines the amount of high-frequency image components A detection step (S81) for detecting correlated parameter values corresponding to each of the plurality of images acquired by the acquisition step, and a selection step (S83) for selecting any one of the plurality of parameter values detected by the detection step ), And the difference between the parameter value selected by the selection step and each of the one or more parameter values remaining after selection of the selection step Normalization step of normalizing the (S91 ~ S99, S103, S109 ~ S111) corresponds to the internal control program in cooperation with a program to be executed.
高周波画像成分の量に相関するパラメータ値は、被写体の属性に起因して変動し、さらに画像取得時の撮像面のブレに起因して変動する。ただし、被写体の属性に起因する変動は、共通の被写体を捉える複数の画像を取得し、各画像に対応する上述のパラメータ値を正規化することで排除される。 The parameter value that correlates with the amount of the high-frequency image component varies due to the attribute of the subject, and also varies due to blurring of the imaging surface at the time of image acquisition. However, fluctuations caused by subject attributes are eliminated by acquiring a plurality of images capturing a common subject and normalizing the above-described parameter values corresponding to the images.
これを踏まえて、この発明では、共通の被写体を捉えた複数の画像にそれぞれ対応する複数のパラメータ値のいずれか1つが選択され、選択されたパラメータ値と選択の後に残った1または2以上のパラメータ値の各々との差分が正規化される。これによって、共通の被写体を捉えた複数の画像のブレの検知性能が向上する。 Based on this, in the present invention, any one of a plurality of parameter values respectively corresponding to a plurality of images capturing a common subject is selected, and the selected parameter value and one or two or more remaining after the selection are selected. The difference with each of the parameter values is normalized. This improves the blur detection performance of a plurality of images capturing a common subject.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]
図1を参照して、この実施例の画像処理装置は、基本的に次のように構成される。取得手段1は、共通の被写体を捉えた画像を繰り返し取得する。検出手段2は、高周波画像成分の量に相関するパラメータ値を取得手段1によって取得された複数の画像の各々に対応して検出する。選択手段3は、検出手段2によって検出された複数のパラメータ値のいずれか1つを選択する。正規化手段4は、選択手段3によって選択されたパラメータ値と選択手段3の選択の後に残った1または2以上のパラメータ値の各々との差分を正規化する。
Referring to FIG. 1, the image processing apparatus of this embodiment is basically configured as follows. The
高周波画像成分の量に相関するパラメータ値は、被写体の属性に起因して変動し、さらに画像取得時の撮像面のブレに起因して変動する。ただし、被写体の属性に起因する変動は、共通の被写体を捉える複数の画像を取得し、各画像に対応する上述のパラメータ値を正規化することで排除される。 The parameter value that correlates with the amount of the high-frequency image component varies due to the attribute of the subject, and also varies due to blurring of the imaging surface at the time of image acquisition. However, fluctuations caused by subject attributes are eliminated by acquiring a plurality of images capturing a common subject and normalizing the above-described parameter values corresponding to the images.
これを踏まえて、この装置では、共通の被写体を捉えた複数の画像にそれぞれ対応する複数のパラメータ値のいずれか1つが選択され、選択されたパラメータ値と選択の後に残った1または2以上のパラメータ値の各々との差分が正規化される。これによって、共通の被写体を捉えた複数の画像のブレの検知性能が向上する。
[実施例]
Based on this, in this apparatus, one of a plurality of parameter values respectively corresponding to a plurality of images capturing a common subject is selected, and the selected parameter value and one or two or more remaining after the selection are selected. The difference with each of the parameter values is normalized. This improves the blur detection performance of a plurality of images capturing a common subject.
[Example]
図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経た光学像は、イメージャ16の撮像面に照射され、光電変換を施される。これによって、撮像面で捉えられたシーンを表す電荷が生成される。
Referring to FIG. 2, the
電源が投入されると、CPU26は、動画取り込み処理を実行するべく、撮像タスクの下で露光動作および電荷読み出し動作の繰り返しをドライバ18cに命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージャ16からは、読み出された電荷に基づく生画像データが周期的に出力される。
When the power is turned on, the
前処理回路20は、イメージャ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32aに書き込まれる。
The preprocessing
後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。これによって生成されたYUV形式の画像データは、メモリ制御回路30によってSDRAM32のYUV画像エリア32bに書き込まれる。
The
LCDドライバ36は、YUV画像エリア32bに格納された画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、撮像面で捉えられたシーンを表す動画像がリアルタイムでモニタ画面に表示される。
The
図3を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、図2に示す前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータ(RGB: red, green & blue)に変換する簡易RGB変換処理を実行する。
Referring to FIG. 3, an evaluation area EVA is allocated at the center of the imaging surface. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. In addition to the above-described processing, the
AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。AF評価回路24は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。
The
キー入力装置28に設けられたシャッタボタン28shが非操作状態にあるとき、CPU26は、AE評価回路22から出力された256個のAE評価値に基づいて簡易AE処理を実行し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間はドライバ18bおよび18cに設定され、これによってスルー画像の明るさが大まかに調整される。
When the shutter button 28sh provided in the
シャッタボタン28shが半押しされると、CPU26は、AE評価値を参照した厳格AE処理を実行し、最適EV値を算出する。算出された最適EV値を定義する絞り量および露光時間もまたドライバ18bおよび18cに設定され、これによってスルー画像の明るさが厳格に調整される。CPU26はまた、AF評価回路24から出力された256個のAF評価値に基づいてAF処理を実行する。フォーカスレンズ12は合焦点の探索のためにドライバ18aによって光軸方向に移動し、これによって発見された合焦点に配置される。この結果、スルー画像の鮮鋭度が向上する。
When the shutter button 28sh is half-pressed, the
撮像モードは、モード切換えスイッチ28mdによって単写モードおよび連写モードの間で切り換えられる。また、連写モードについては、ベストショットセレクト機能のオン/オフが可能である。 The imaging mode is switched between the single shooting mode and the continuous shooting mode by the mode switch 28md. In the continuous shooting mode, the best shot select function can be turned on / off.
単写モードが選択された状態でシャッタボタン28shが全押しされると、CPU26は、静止画取り込み処理を1回だけ実行する。この結果、シャッタボタン28shが全押しされた時点のシーンを表す1フレームの画像データが退避画像エリア32cに退避される。静止画取り込み処理が完了すると、CPU26は、圧縮処理の実行をJPEGエンコーダ40に命令し、記録処理の実行をメモリI/F42に命令する。
When the shutter button 28sh is fully pressed while the single shooting mode is selected, the
JPEGエンコーダ40は、退避画像エリア32cに退避された画像データをメモリ制御回路30を通して読み出し、読み出された画像データをJPEG方式で圧縮し、そして圧縮画像データつまりJPEGデータをメモリ制御回路30を通してSDRAM32の圧縮画像エリア32dに書き込む。メモリI/F42は、圧縮画像エリア32dに格納されたJPEGデータをメモリ制御回路30を通して読み出し、読み出されたJPEGデータをファイル形式で記録媒体44に記録する。
The
連写モードが選択された状態でシャッタボタン28shが全押しされると、CPU26は、垂直同期信号Vsyncが発生する毎に合計4回の静止画取り込み処理を実行し、さらに4回のJPEG圧縮処理の実行をJPEGエンコーダ40に命令する。
When the shutter button 28sh is fully pressed in the state where the continuous shooting mode is selected, the
4回の静止画取り込み処理の結果、連続する4フレームの画像データが退避画像エリア32cに退避される。JPEGエンコーダ40は、退避された4フレームの画像データをメモリ制御回路30を通して読み出し、読み出された各フレームの画像データをJPEG方式で圧縮し、そしてJPEGデータをメモリ制御回路30を通して圧縮画像エリア32dに書き込む。圧縮画像エリア32dには、合計4フレームのJPEGデータが格納される。
As a result of the four still image capturing processes, four consecutive frames of image data are saved in the save image area 32c. The
ベストショットセレクト機能がオフ状態にあるとき、CPU26は、圧縮画像エリア32dに格納された4フレームのJPEGデータの全てに対する記録処理の実行をメモリI/F42に命令する。これに対して、ベストショットセレクト機能がオン状態にあれば、CPU26は、圧縮画像エリア32dに格納された4フレームの中から1フレームを選択し、選択されたフレームのJPEGデータに対する記録処理の実行をメモリI/F42に命令する。メモリI/F42は、選択されたフレームのJPEGデータをメモリ制御回路30を通して圧縮画像エリア32dから読み出し、読み出されたJPEGデータをファイル形式で記録媒体44に記録する。
When the best shot select function is in the OFF state, the
ベストショットセレクト機能がオン状態にあるときは、以下の処理がCPU26によって実行される。
When the best shot select function is on, the
まず、シャッタボタン28shが全押しされた直後の撮像面の手ブレを判定するべく、ブレ判定処理が実行される。ブレ判定処理では、圧縮画像エリア32dに格納された4フレームのJPEGデータにそれぞれ対応する4つのサイズ値の中から最大サイズ値が特定され、特定されたサイズ値のJPEGデータに対応する非圧縮の画像データが基準画像データとして指定される。指定された基準画像データのフレーム番号は変数Rに設定され、フラグFLG_R_blurは“0”に設定され、そして基準画像データの安定度は“100”に設定される。安定度“100”は、第Rフレームに対応して図4に示すレジスタRGST1に登録される。 First, a blur determination process is executed to determine a camera shake on the imaging surface immediately after the shutter button 28sh is fully pressed. In the blur determination process, the maximum size value is specified from four size values respectively corresponding to the four frames of JPEG data stored in the compressed image area 32d, and uncompressed corresponding to the JPEG data of the specified size value. Image data is designated as reference image data. The frame number of the designated reference image data is set to the variable R, the flag FLG_R_blur is set to “0”, and the stability of the reference image data is set to “100”. The stability “100” is registered in the register RGST1 shown in FIG. 4 corresponding to the R-th frame.
図5に示すように人物HM1,ビルBL1および山MT1が現れたシーンが捉えられた状態でシャッタボタン28shが全押しされ、これに起因して撮像面に手ブレが生じた場合、第1フレームの画像データは図6(A)に示す要領で作成され、第2フレームの画像データは図6(B)に示す要領で作成され、第3フレームの画像データは図7(A)に示す要領で作成され、そして第4フレームの画像データは図7(B)に示す要領で作成される。 As shown in FIG. 5, when the shutter button 28sh is fully pressed in a state where the scene in which the person HM1, the building BL1 and the mountain MT1 appear is captured, and the camera shake occurs on the imaging surface due to this, the first frame 6A is created in the manner shown in FIG. 6A, the second frame image data is created in the manner shown in FIG. 6B, and the third frame image data is created in the manner shown in FIG. The image data of the fourth frame is created in the manner shown in FIG. 7B.
こうして得られた4フレームの画像データの中では、第3フレームの画像データが手ブレが最も小さい画像データであり、第3フレームのJPEGデータのサイズ値が最大となる。したがって、この例では、第3フレームの画像データが基準画像データとして指定され、変数Rは“3”に設定される。さらに、フラグFLG_3_blurが“0”に設定され、第3フレームの画像データの安定度が“100”に設定される。 Among the four frames of image data obtained in this way, the image data of the third frame is the image data with the smallest camera shake, and the size value of the JPEG data of the third frame is the maximum. Therefore, in this example, the image data of the third frame is designated as the reference image data, and the variable R is set to “3”. Further, the flag FLG — 3_blur is set to “0”, and the stability of the image data of the third frame is set to “100”.
続いて、基準ブレ度(=許容可能な最大のブレ度)を有するブレ画像データが、基準画像データに基づいて作成される。具体的には、基準画像データが水平方向,垂直方向および光軸回り方向に既定量だけシフトないし回転され、異なる位置ないし姿勢で定義された複数フレームの基準画像データが互いに合成される。ブレ画像データは、図7(A)に示す画像データに基づいて、図8に示す要領で作成される。作成されたブレ画像データは、SDRAM32の退避画像エリア32cに格納される。
Subsequently, blurred image data having a reference blur degree (= the maximum allowable blur degree) is created based on the reference image data. Specifically, the reference image data is shifted or rotated by a predetermined amount in the horizontal direction, the vertical direction, and the direction around the optical axis, and a plurality of frames of reference image data defined at different positions or postures are synthesized with each other. The blurred image data is created in the manner shown in FIG. 8 based on the image data shown in FIG. The created blurred image data is stored in the saved image area 32 c of the
CPU26は、こうして作成されたブレ画像データに対する圧縮処理の実行をJPEGエンコーダ40に命令する。JPEGエンコーダ40は、ブレ画像データをメモリ制御回路30を通して退避画像エリア32cから読み出し、読み出されたブレ画像データをJPEG方式で圧縮し、そしてブレ画像データに基づくJPEGデータをメモリ制御回路30を通して圧縮画像エリア32dに書き込む。作成されたJPEGデータのサイズ値は、基準値BLURszに設定される。
The
続いて、変数Kが“1”〜“4”(ただし、変数Rと同じ値は除く)に順に設定され、第KフレームのJPEGデータのサイズ値が基準値BLURszと比較される。注目するサイズ値が基準値BLURsz以上であれば、フラグFLG_K_blurは“0”に設定される。一方、注目するサイズ値が基準値BLURszを下回れば、フラグFLG_K_blurは“1”に設定される。つまり、フラグFLG_K_blurは、第Kフレームの画像データのブレ度が許容範囲から外れるとき“1”に設定され、第Kフレームの画像データのブレ度が許容範囲に収まるとき“0”に設定される。 Subsequently, the variable K is sequentially set to “1” to “4” (except for the same value as the variable R), and the size value of the JPEG data of the Kth frame is compared with the reference value BLURsz. If the size value of interest is greater than or equal to the reference value BLURsz, the flag FLG_K_blur is set to “0”. On the other hand, if the size value of interest falls below the reference value BLURsz, the flag FLG_K_blur is set to “1”. That is, the flag FLG_K_blur is set to “1” when the blurring degree of the image data of the Kth frame falls outside the allowable range, and is set to “0” when the blurring degree of the image data of the Kth frame falls within the allowable range. .
図6(A)〜図7(B)の例では、第1フレームのJPEGデータのサイズが基準値BLURszを下回り、第2フレームおよび第4フレームのJPEGデータのサイズが基準値BLURsz以上となる。したがって、フラグFLG_1_blurは“1”に設定され、フラグFLG_2_blurおよびFLG_4_blurは“0”に設定される。 In the example of FIGS. 6A to 7B, the size of the JPEG data of the first frame is less than the reference value BLURsz, and the sizes of the JPEG data of the second frame and the fourth frame are greater than or equal to the reference value BLURsz. Therefore, the flag FLG_1_blue is set to “1”, and the flags FLG_2_blue and FLG_4_blue are set to “0”.
さらに、注目するサイズ値が基準値BLURsz以上となるときは、第Kフレームの画像データのブレ度が数1に従って算出され、第Kフレームの画像データの安定度が数2に従って算出される。
[数1]
ブレ度=(REFsz−Ksz)/(REFsz−BLURsz)
Ksz:第KフレームのJPEGデータのサイズ値
REFsz:基準画像データに基づくJPEGデータのサイズ値
[数2]
安定度=1−ブレ度
Further, when the size value of interest is equal to or greater than the reference value BLURsz, the blurring degree of the image data of the Kth frame is calculated according to
[Equation 1]
Blur degree = (REFsz−Ksz) / (REFsz−BLURsz)
Ksz: JPEG data size value of the Kth frame REFsz: JPEG data size value based on the reference image data [Expression 2]
Stability = 1-blurness
数1によれば、第KフレームのJPEGデータのサイズ値と基準画像データに基づくJPEGデータのサイズ値との差分が、基準画像データに基づくJPEGデータのサイズ値とブレ画像データに基づくJPEGデータのサイズ値との差分によって割り算される。これによって、第KフレームのJPEGデータのサイズ値と基準画像データに基づくJPEGデータのサイズ値との差分が正規化される。数2によれば、数1によって算出されたブレ度が“1”から減算される。数2に従って算出された安定度は、第Kフレームに対応してレジスタRGST1に登録される。
According to
ブレ判定処理が完了すると、変数Kが再度“1”〜“4”に設定され、フラグFLG_K_blueの状態が判別される。 When the blur determination process is completed, the variable K is set to “1” to “4” again, and the state of the flag FLG_K_blue is determined.
FLG_K_blue=1であれば、第Kフレームの画像データのブレ度が許容範囲から外れるとして、総合評価点が“0”に設定される。総合評価点“0”は、第Kフレームに対応してレジスタRGST1に記述する。上述の例では、図6(A)に示す第1フレームの画像データに対応して、フラグFLG_1_blueが“1”に設定される。したがって、第1フレームの総合評価点は“0”に設定される。 If FLG_K_blue = 1, the overall evaluation score is set to “0” because the blurring degree of the image data of the Kth frame is out of the allowable range. The overall evaluation score “0” is described in the register RGST1 corresponding to the Kth frame. In the above example, the flag FLG_1_blue is set to “1” corresponding to the image data of the first frame shown in FIG. Therefore, the overall evaluation score of the first frame is set to “0”.
これに対して、FLG_K_blue=0であれば、退避画像エリア32cに退避された第Kフレームの画像データに対して顔検出処理が実行される。顔検出処理では、フラッシュメモリ46内の顔辞書DC_Fに図9に示す要領で収められた3つの辞書画像のいずれか1つと符合する顔画像が、第Kフレームの画像データから探索される。探索処理によって1または2以上の顔画像が発見されると、発見された顔画像を囲う顔枠のサイズおよび位置が図10に示すレジスタRGST2に登録される。レジスタRGST2には、発見された顔画像の数も登録される。
On the other hand, if FLG_K_blue = 0, the face detection process is performed on the image data of the Kth frame saved in the saved image area 32c. In the face detection process, a face image matching one of the three dictionary images stored in the manner shown in FIG. 9 in the face dictionary DC_F in the
したがって、第2フレームの画像データについては図6(B)に“FK”で示す顔枠のサイズおよび位置が登録され、第3フレームの画像データについては図7(A)に“FK”で示す顔枠のサイズおよび位置が登録され、そして第4フレームの画像データについては図7(B)に“FK”で示す顔枠のサイズおよび位置が登録される。なお、第2フレーム〜第4フレームのいずれにおいても、登録された顔画像数は“1”を示す。 Accordingly, the size and position of the face frame indicated by “FK” in FIG. 6B is registered for the image data of the second frame, and the image data of the third frame is indicated by “FK” in FIG. 7A. The size and position of the face frame are registered, and the size and position of the face frame indicated by “FK” in FIG. 7B are registered for the image data of the fourth frame. In any of the second to fourth frames, the number of registered face images indicates “1”.
レジスタRGST2に登録された顔画像の数が“1”以上であれば、レジスタRGST1に登録された顔枠に属する画像について笑顔度が算出される。また、レジスタRGST1に登録された顔枠に属する画像上で目が検出され、検出した目の開度が算出される。発見された顔画像の数が“2”以上であれば、算出される笑顔度は各顔画像の笑顔度の平均値に相当し、算出される開度は各顔画像に表れた目の開度の平均値に相当する。算出された笑顔度および目の開度はいずれも、“0”〜“1”の範囲に属する値を示す。一方、レジスタRGST2に登録された顔画像の数が“0”であれば、笑顔度および目の開度を“0”に設定する。こうして得られた笑顔度および目の開度は、第Kフレームに対応して図4に示すレジスタRGST1に登録される。 If the number of face images registered in the register RGST2 is “1” or more, the smile level is calculated for images belonging to the face frame registered in the register RGST1. Further, eyes are detected on an image belonging to the face frame registered in the register RGST1, and the opening degree of the detected eyes is calculated. If the number of face images found is “2” or more, the calculated smile level is equivalent to the average smile level of each face image, and the calculated opening degree is the opening degree of the eye appearing in each face image. It corresponds to the average value of degrees. Both the calculated smile degree and eye opening indicate values belonging to the range of “0” to “1”. On the other hand, if the number of face images registered in the register RGST2 is “0”, the smile level and the eye opening are set to “0”. The smile level and the eye opening thus obtained are registered in the register RGST1 shown in FIG. 4 corresponding to the Kth frame.
続いて、第Kフレームに対応してレジスタRGST1に登録された安定度,笑顔度および目の開度が数3に適用され、これによって総合評価点が算出される。
[数3]
総合評価点=安定度*Wstbl+笑顔度*Wsml+目の開度*Weye
ただし、Wstbl>Wsml>Weye>0
Subsequently, the stability, smile degree, and eye opening degree registered in the register RGST1 corresponding to the Kth frame are applied to
[Equation 3]
Overall score = Stability * Wstbl + Smile * Wsml + Eye opening * Weey
However, Wstbl>Wsml>Weye> 0
数3によれば、安定度が重み付け量Wstblによって掛け算され、笑顔度が重み付け量Wsmlによって掛け算され、目の開度が重み付け量Weyeによって掛け算され、そしてこれらの掛け算値が互いに加算される。こうして算出された総合評価点もまた、第Kフレームに対応して図4に示すレジスタRGST1に記述される。
According to
4つの総合評価点がレジスタRGST1に登録されると、これらの総合評価点の中から最高の総合評価点が検出され、検出された総合評価点に対応するフレームが選択される。上述の例では、第4フレームに対応する総合評価点が最大となり、第4フレームが選択される。CPU26は、選択されたフレームに対応するJPEGデータの記録をメモリI/F42に命令する。メモリI/F42は、指定フレームのJPEGデータをメモリ制御回路30を通して圧縮画像エリア32dから読み出し、読み出されたJPEGデータをファイル形式で記録媒体44に記録する。
When four total evaluation points are registered in the register RGST1, the highest total evaluation point is detected from these total evaluation points, and a frame corresponding to the detected total evaluation point is selected. In the above example, the total evaluation score corresponding to the fourth frame is maximized, and the fourth frame is selected. The
CPU26は、図11〜図16に示す撮像タスクを含む複数のタスクをマルチタスクOSの制御の下で並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ46に記憶される。
The
図11を参照して、ステップS1では動画取込み処理を実行する。この結果、シーンを表すスルー画像がLCDモニタ38に表示される。ステップS3ではシャッタボタン28shが半押しされたか否かを判別し、判別結果がNOである限り、ステップS5で簡易AE処理を繰り返す。この結果、スルー画像の明るさが大まかに調整される。ステップS3の判別結果がNOからYESに更新されると、ステップS7で厳格AE処理を実行し、ステップS9でAF処理を実行する。スルー画像の明るさは厳格AE処理によって厳格に調整され、スルー画像の鮮鋭度はAF処理によって向上する。
Referring to FIG. 11, in step S1, a moving image capturing process is executed. As a result, a through image representing a scene is displayed on the
ステップS11ではシャッタボタン28shが全押しされたか否かを判別し、ステップS13ではシャッタボタン28shの操作が解除されたか否かを判別する。ステップS113でYESであればそのままステップS3に戻り、ステップS11でYESであればステップS15〜S23の処理を経てステップS3に戻る。 In step S11, it is determined whether or not the shutter button 28sh has been fully pressed. In step S13, it is determined whether or not the operation of the shutter button 28sh has been released. If “YES” in the step S113, the process returns to the step S3 as it is, and if “YES” in the step S11, the process returns to the step S3 through steps S15 to S23.
ステップS15では、現時点の撮像モードが連写モードおよび単写モードのいずれであるかを判別する。現時点の撮像モードが単写モードであれば、ステップS17で静止画取り込み処理を実行する。ステップS19では圧縮処理の実行をJPEGエンコーダ40に命令し、ステップS21では記録処理の実行をメモリI/F42に命令する。一方、現時点の撮像モードが連写モードであれば、ステップS23で連写&記録処理を実行する。ステップS21またはS23の処理が完了すると、ステップS3に戻る。
In step S15, it is determined whether the current imaging mode is the continuous shooting mode or the single shooting mode. If the current imaging mode is the single shooting mode, a still image capturing process is executed in step S17. In step S19, the
ステップS17の静止画取り込み処理の結果、シャッタボタン28shが全押しされた時点のシーンを表す1フレームの画像データがYUV画像エリア32bから退避画像エリア32cに退避される。また、ステップS19の処理の結果、退避された画像データに基づくJPEGデータがJPEGエンコーダ40によって作成される。さらに、ステップS21の処理の結果、作成されたJPEGデータがファイル形式で記録媒体44に記録する。
As a result of the still image capturing process in step S17, one frame of image data representing the scene at the time when the shutter button 28sh is fully pressed is saved from the YUV image area 32b to the save image area 32c. Further, as a result of the processing in step S19, JPEG data based on the saved image data is created by the
ステップS23の連写&記録処理は、図12〜図16に示すサブルーチンに従って実行される。 The continuous shooting and recording process in step S23 is executed according to the subroutine shown in FIGS.
まず、ステップS31でフレーム番号に相当する変数Kを“1”に設定する。ステップS33では、上述したステップS17と同様の静止画取り込み処理を垂直同期信号Vsyncの発生を待って実行する。ステップS35では圧縮処理の実行をJPEGエンコーダ40に命令し、ステップS37では変数Kをインクリメントする。ステップS39ではインクリメントされた変数Kが“4”を上回るか否かを判別し、判別結果がNOであればステップS33に戻る一方、判別結果がYESであればステップS41以降の処理に進む。
First, in step S31, a variable K corresponding to the frame number is set to “1”. In step S33, the still image capturing process similar to that in step S17 described above is executed after the vertical synchronization signal Vsync is generated. In step S35, the
したがって、ステップS33の静止画取込処理およびステップS35のJPEG圧縮処理は垂直同期信号Vsyncに応答して合計4回実行され、連続する4フレームの画像データが退避画像エリア32cに退避されるとともに、これに基づく4フレームのJPEGデータが圧縮画像エリア32dに格納される。 Therefore, the still image capturing process in step S33 and the JPEG compression process in step S35 are executed a total of four times in response to the vertical synchronization signal Vsync, and continuous four frames of image data are saved in the save image area 32c. Based on this, four frames of JPEG data are stored in the compressed image area 32d.
ステップS41では、ベストショットセレクト機能がオン状態であるか否かを判別する。判別結果がNOであればステップS43に進み、圧縮画像エリア32dに格納された4フレームの画像データに対する記録処理の実行をメモリI/F42に命令する。メモリI/F42は、4フレームのJPEGデータをメモリ制御回路30を通して圧縮画像エリア32dから読み出し、読み出されたJPEGデータをファイル形式で記録媒体42に記録する。記録処理が完了すると、上階層のルーチンに復帰する。
In step S41, it is determined whether or not the best shot select function is on. If the determination result is NO, the process proceeds to step S43, and the memory I /
ステップS41の判別結果がYESであれば、ステップS45でフラグFLG_1_blur〜FLG_4_blurを“0”に設定し、ステップS47でブレ判定処理を実行する。フラグFLG_K_blur(K:1〜4)は、第Kフレームの画像データのブレ度が許容範囲に収まるとき“0”を維持し、第Kフレームの画像データのブレ度が許容範囲から外れるとき“1”に更新される。また、FLG_K_blur=0の画像データについては画像の安定度が算出され、算出された安定度は第Kフレームに対応してレジスタRGST1に登録される。 If the decision result in the step S41 is YES, the flags FLG_1_blur to FLG_4_blur are set to “0” in a step S45, and a blur decision process is executed in a step S47. The flag FLG_K_blur (K: 1 to 4) maintains “0” when the blurring degree of the image data of the Kth frame falls within the allowable range, and “1” when the blurring degree of the image data of the Kth frame falls outside the allowable range. Is updated. For image data with FLG_K_blur = 0, the stability of the image is calculated, and the calculated stability is registered in the register RGST1 corresponding to the Kth frame.
ステップS49では変数Kを“1”に設定し、ステップS51ではフラグFLG_K_blueが“1”を示すか否かを判別する。判別結果がYESであればステップS53に進み、総合評価点“0”を第Kフレームに対応してレジスタRGST1に記述する。記述が完了すると、ステップS67に進む。 In step S49, the variable K is set to “1”, and in step S51, it is determined whether or not the flag FLG_K_blue indicates “1”. If the determination result is YES, the process proceeds to step S53, and the comprehensive evaluation point “0” is described in the register RGST1 corresponding to the Kth frame. When the description is completed, the process proceeds to step S67.
これに対して、ステップS51の判別結果がNOであれば、第Kフレームの画像データに対する顔検出処理をステップS55で実行する。この結果、顔辞書DC_Fに収められたいずれかの辞書画像と符合する顔画像が第Kフレームの画像データから探索される。探索処理によって1または2以上の顔画像が発見されると、発見された顔画像を囲う顔枠のサイズおよび位置がレジスタRGST2に登録される。レジスタRGST2には、発見された顔画像の数も登録される。 On the other hand, if the determination result of step S51 is NO, the face detection process for the image data of the Kth frame is executed in step S55. As a result, a face image that matches one of the dictionary images stored in the face dictionary DC_F is searched from the image data of the Kth frame. When one or more face images are found by the search process, the size and position of the face frame surrounding the found face image are registered in the register RGST2. The number of face images found is also registered in the register RGST2.
ステップS57では、レジスタRGST2に登録された顔画像の数が“0”であるか否かを判別する。判別結果がNOであればステップS59〜S61の処理を経てステップS65に進み、判別結果がYESであればステップS63の処理を経てステップS65に進む。 In step S57, it is determined whether or not the number of face images registered in the register RGST2 is “0”. If the determination result is NO, the process proceeds from step S59 to S61 through step S65, and if the determination result is YES, the process proceeds from step S63 to step S65.
ステップS59では、レジスタRGST1に登録された顔枠に属する画像を参照して笑顔度を算出する。ステップS61では、レジスタRGST1に登録された顔枠に属する画像上で目を検出し、検出した目の開度を算出する。発見された顔画像の数が“2”以上であれば、ステップS59で算出される笑顔度は各顔画像の笑顔度の平均値に相当し、ステップS61で算出される開度は各顔画像に表れた目の開度の平均値に相当する。ステップS63では、笑顔度および目の開度を“0”に設定する。こうして得られた笑顔度および目の開度は、第Kフレームに対応してレジスタRGST1に登録される。 In step S59, the smile level is calculated with reference to images belonging to the face frame registered in the register RGST1. In step S61, eyes are detected on an image belonging to the face frame registered in the register RGST1, and the opening degree of the detected eyes is calculated. If the number of face images found is “2” or more, the smile level calculated in step S59 corresponds to the average smile level of each face image, and the degree of opening calculated in step S61 is the face image. It corresponds to the average value of the eye opening. In step S63, the smile level and the eye opening are set to “0”. The smile level and the eye opening obtained in this way are registered in the register RGST1 corresponding to the Kth frame.
ステップS65では、第Kフレームに対応してレジスタRGST1に登録された安定度,笑顔度および目の開度を数3に適用して、総合評価点を算出する。算出された総合評価点もまた、第Kフレームに対応してレジスタRGST1に記述される。記述が完了すると、ステップS67に進む。
In step S65, the overall evaluation score is calculated by applying the stability, smile degree, and eye opening registered in the register RGST1 corresponding to the Kth frame to
ステップS67では変数Kが“4”に達したか否かを判別し、判別結果がNOであればステップS69で変数KをインクリメントしてからステップS51に戻る一方、判別結果がYESであればステップS71に進む。ステップS71では、レジスタRGST1に登録された4つの総合評価点の中から最高の総合評価点を検出し、検出された総合評価点に対応するフレームを選択する。 In step S67, it is determined whether or not the variable K has reached “4”. If the determination result is NO, the variable K is incremented in step S69 and the process returns to step S51. Proceed to S71. In step S71, the highest total evaluation score is detected from the four total evaluation scores registered in the register RGST1, and a frame corresponding to the detected total evaluation score is selected.
ステップS73では、選択されたフレームに対応するJPEGデータの記録をメモリI/F42に命令する。メモリI/F42は、指定フレームのJPEGデータをメモリ制御回路30を通して圧縮画像エリア32dから読み出し、読み出されたJPEGデータをファイル形式で記録媒体44に記録する。ステップS73の処理が完了すると、上階層のルーチンに復帰する。
In step S73, the memory I /
図12に示すステップS47のブレ判定処理は、図15〜図16に示すサブルーチンに従って実行される。まず、ステップS81で各フレームのJPEGデータのサイズ値を検出する。ステップS83では、検出された4つのサイズ値の中から最大サイズ値を特定し、かつ特定されたサイズ値のJPEGデータに対応する非圧縮の画像データを基準画像データとして指定する。 The blur determination process in step S47 shown in FIG. 12 is executed according to a subroutine shown in FIGS. First, in step S81, the size value of JPEG data of each frame is detected. In step S83, the maximum size value is specified from the four detected size values, and uncompressed image data corresponding to the JPEG data having the specified size value is designated as the reference image data.
ステップS85では指定された基準画像データのフレーム番号を変数Rに設定し、ステップS87ではフラグFLG_R_blurを“0”に設定し、そしてステップS89では基準画像データの安定度を“100”に設定する。安定度“100”は、第Rフレームに対応してレジスタRGST1に登録される。ステップS91では、基準ブレ度(=許容可能な最大のブレ度)を有するブレ画像データを基準画像データに基づいて作成する。作成されたブレ画像データは、SDRAM32の退避画像エリア32cに格納される。
In step S85, the frame number of the designated reference image data is set to the variable R, in step S87, the flag FLG_R_blur is set to “0”, and in step S89, the stability of the reference image data is set to “100”. The degree of stability “100” is registered in the register RGST1 corresponding to the Rth frame. In step S91, blur image data having a reference blur degree (= maximum allowable blur degree) is created based on the reference image data. The created blurred image data is stored in the saved image area 32 c of the
ステップS93では、作成されたブレ画像データに対する圧縮処理の実行をJPEGエンコーダ40に命令する。JPEGエンコーダ40は、ブレ画像データをメモリ制御回路30を通して退避画像エリア32cから読み出し、読み出されたブレ画像データをJPEG方式で圧縮し、そして圧縮画像データつまりJPEGデータをメモリ制御回路30を通して圧縮画像エリア32dに書き込む。ステップS95では、ステップS93で作成されたJPEGデータのサイズ値を基準値BLURszに設定する。
In step S93, the
ステップS97では変数Kを“1”に設定し、ステップS99では変数Kが変数Rと一致するか否かを判別する。判別結果がYESであればそのままステップS109に進み、判別結果がNOであればステップS101〜S107の処理を経てステップS109に進む。 In step S97, the variable K is set to “1”, and in step S99, it is determined whether or not the variable K matches the variable R. If a determination result is YES, it will progress to step S109 as it is, and if a determination result is NO, it will progress to step S109 through the process of steps S101-S107.
ステップS101では第KフレームのJPEGデータのサイズ値が基準値BLURszを下回るか否かを判別する。判別結果がNOであれば、ステップS107でフラグFLG_K_blurを“1”に設定する。判別結果がYESであれば、ステップS103で第Kフレームの画像データのブレ度を算出し、ステップS105で第Kフレームの画像データの安定度を算出する。ブレ度は数1に従って算出され、安定度は数2に従って算出される。数2に従って算出された安定度は、第Kフレームに対応してレジスタRGST1に登録される。
In step S101, it is determined whether or not the size value of the JPEG data of the Kth frame is below the reference value BLURsz. If the determination result is NO, the flag FLG_K_blur is set to “1” in a step S107. If the determination result is YES, the blurring degree of the image data of the Kth frame is calculated in step S103, and the stability of the image data of the Kth frame is calculated in step S105. The degree of blur is calculated according to
ステップS109では変数Kが“4”に達したか否かを判別し、判別結果がNOであればステップS111で変数KをインクリメントしてからステップS99に戻る一方、判別結果がYESであれば上階層のルーチンに復帰する。 In step S109, it is determined whether or not the variable K has reached “4”. If the determination result is NO, the variable K is incremented in step S111 and then the process returns to step S99. Return to the hierarchy routine.
以上の説明から分かるように、連写モードの下でシャッタボタン28shが全押しされると、CPU26は、共通の被写体を捉えた連続4フレームの画像データをSDRAM32の退避画像エリア32cに取り込む(S31~S33, S37~S39)。取り込まれた各フレームの画像データは、JPEGエンコーダ40によって圧縮処理を施される。CPU26は、各フレームのJPEGデータのサイズ値を高周波画像成分の量に相関するパラメータ値として検出し(S81)、こうして検出された4つのサイズ値の中から最大サイズ値を選択し(S83)、そして選択された最大サイズ値と残りの3つのサイズ値の各々との差分を正規化する(S91~S99, S103, S109~S111)。
As can be seen from the above description, when the shutter button 28sh is fully pressed under the continuous shooting mode, the
JPEGデータのサイズ値は、被写体の属性に起因して変動し、さらに画像取得時の撮像面のブレに起因して変動する。ただし、被写体の属性に起因する変動は、共通の被写体を捉える複数の画像を取得し、各画像に対応するJPEGデータのサイズ値を正規化することで排除される。 The size value of the JPEG data varies due to the attribute of the subject, and also varies due to blurring of the imaging surface at the time of image acquisition. However, fluctuations caused by subject attributes are eliminated by acquiring a plurality of images capturing a common subject and normalizing the size value of JPEG data corresponding to each image.
これを踏まえて、この実施例では、共通の被写体を表す4フレームのJPEGデータにそれぞれ対応する4つのサイズ値の中から最大サイズ値が選択され、選択された最大サイズ値と残りの3つのサイズ値の各々との差分が正規化される。これによって、共通の被写体を捉えた複数の画像のブレの検知性能が向上する。 Based on this, in this embodiment, the maximum size value is selected from four size values respectively corresponding to four frames of JPEG data representing a common subject, and the selected maximum size value and the remaining three sizes are selected. The difference with each of the values is normalized. This improves the blur detection performance of a plurality of images capturing a common subject.
なお、この実施例では、総合評価点が最高のフレームのJPEGデータを記録するようにしているが(図14のステップS71〜S73参照)、総合評価点が基準点を上回る限り、2以上のフレームのJPEGデータを記録するようにしてもよい。 In this embodiment, JPEG data of the frame having the highest overall evaluation score is recorded (see steps S71 to S73 in FIG. 14). However, as long as the overall evaluation score exceeds the reference score, two or more frames are recorded. The JPEG data may be recorded.
また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ46に予め記憶される。しかし、図17に示すように通信I/F48をディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ46に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。
In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the
また、この実施例では、CPU26によって実行される処理を上述の要領で複数のタスクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。
In this embodiment, the process executed by the
10 …ディジタルカメラ
16 …イメージャ
22 …AE評価回路
24 …AF評価回路
26 …CPU
32 …SDRAM
40 …JPEGエンコーダ
46 …フラッシュメモリ
DESCRIPTION OF
32 ... SDRAM
40: JPEG encoder 46: Flash memory
Claims (10)
高周波画像成分の量に相関するパラメータ値を前記取得手段によって取得された複数の画像の各々に対応して検出する検出手段、
前記検出手段によって検出された複数のパラメータ値のいずれか1つを選択する選択手段、および
前記選択手段によって選択されたパラメータ値と前記選択手段の選択の後に残った1または2以上のパラメータ値の各々との差分を正規化する正規化手段を備える、画像処理装置。 Acquisition means for repeatedly acquiring images capturing a common subject;
Detecting means for detecting a parameter value correlated with the amount of the high-frequency image component corresponding to each of the plurality of images acquired by the acquiring means;
A selection means for selecting any one of a plurality of parameter values detected by the detection means; and a parameter value selected by the selection means and one or more parameter values remaining after selection by the selection means An image processing apparatus comprising normalizing means for normalizing a difference from each.
前記検出手段によって検出されるパラメータ値は前記符号化手段によって符号化された画像のサイズに相当する、請求項1ないし3のいずれかに記載の画像処理装置。 An encoding unit that individually encodes the plurality of images acquired by the acquiring unit;
4. The image processing apparatus according to claim 1, wherein the parameter value detected by the detection unit corresponds to a size of an image encoded by the encoding unit.
共通の被写体を捉えた画像を繰り返し取得する取得ステップ、
高周波画像成分の量に相関するパラメータ値を前記取得ステップによって取得された複数の画像の各々に対応して検出する検出ステップ、
前記検出ステップによって検出された複数のパラメータ値のいずれか1つを選択する選択ステップ、および
前記選択ステップによって選択されたパラメータ値と前記選択ステップの選択の後に残った1または2以上のパラメータ値の各々との差分を正規化する正規化ステップを実行させるための、画像処理プログラム。 In the processor of the image processing device,
An acquisition step of repeatedly acquiring images capturing a common subject;
A detecting step for detecting a parameter value correlated with the amount of the high-frequency image component corresponding to each of the plurality of images acquired by the acquiring step;
A selection step of selecting any one of a plurality of parameter values detected by the detection step, and a parameter value selected by the selection step and one or more parameter values remaining after selection of the selection step An image processing program for executing a normalization step for normalizing a difference from each.
共通の被写体を捉えた画像を繰り返し取得する取得ステップ、
高周波画像成分の量に相関するパラメータ値を前記取得ステップによって取得された複数の画像の各々に対応して検出する検出ステップ、
前記検出ステップによって検出された複数のパラメータ値のいずれか1つを選択する選択ステップ、および
前記選択ステップによって選択されたパラメータ値と前記選択ステップの選択の後に残った1または2以上のパラメータ値の各々との差分を正規化する正規化ステップを備える、画像処理方法。 An image processing method executed by an image processing apparatus,
An acquisition step of repeatedly acquiring images capturing a common subject;
A detecting step for detecting a parameter value correlated with the amount of the high-frequency image component corresponding to each of the plurality of images acquired by the acquiring step;
A selection step of selecting any one of a plurality of parameter values detected by the detection step, and a parameter value selected by the selection step and one or more parameter values remaining after selection of the selection step An image processing method comprising a normalization step of normalizing a difference from each.
共通の被写体を捉えた画像を繰り返し取得する取得ステップ、
高周波画像成分の量に相関するパラメータ値を前記取得ステップによって取得された複数の画像の各々に対応して検出する検出ステップ、
前記検出ステップによって検出された複数のパラメータ値のいずれか1つを選択する選択ステップ、および
前記選択ステップによって選択されたパラメータ値と前記選択ステップの選択の後に残った1または2以上のパラメータ値の各々との差分を正規化する正規化ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。 An external control program supplied to an image processing apparatus including a processor that executes processing according to an internal control program stored in a memory,
An acquisition step of repeatedly acquiring images capturing a common subject;
A detecting step for detecting a parameter value correlated with the amount of the high-frequency image component corresponding to each of the plurality of images acquired by the acquiring step;
A selection step of selecting any one of a plurality of parameter values detected by the detection step, and a parameter value selected by the selection step and one or more parameter values remaining after selection of the selection step An external control program for causing the processor to execute a normalizing step for normalizing a difference from each in cooperation with the internal control program.
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える画像処理装置であって、
前記外部制御プログラムは、
共通の被写体を捉えた画像を繰り返し取得する取得ステップ、
高周波画像成分の量に相関するパラメータ値を前記取得ステップによって取得された複数の画像の各々に対応して検出する検出ステップ、
前記検出ステップによって検出された複数のパラメータ値のいずれか1つを選択する選択ステップ、および
前記選択ステップによって選択されたパラメータ値と前記選択ステップの選択の後に残った1または2以上のパラメータ値の各々との差分を正規化する正規化ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、画像処理装置。 An image processing apparatus comprising: a capturing unit that captures an external control program; and a processor that executes processing according to the external control program captured by the capturing unit and an internal control program stored in a memory,
The external control program is
An acquisition step of repeatedly acquiring images capturing a common subject;
A detecting step for detecting a parameter value correlated with the amount of the high-frequency image component corresponding to each of the plurality of images acquired by the acquiring step;
A selection step of selecting any one of a plurality of parameter values detected by the detection step, and a parameter value selected by the selection step and one or more parameter values remaining after selection of the selection step An image processing apparatus corresponding to a program that executes a normalizing step for normalizing a difference from each of the two in cooperation with the internal control program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011082210A JP2012217106A (en) | 2011-04-01 | 2011-04-01 | Image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011082210A JP2012217106A (en) | 2011-04-01 | 2011-04-01 | Image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012217106A true JP2012217106A (en) | 2012-11-08 |
Family
ID=47269444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011082210A Withdrawn JP2012217106A (en) | 2011-04-01 | 2011-04-01 | Image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012217106A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018129735A (en) * | 2017-02-09 | 2018-08-16 | 京セラドキュメントソリューションズ株式会社 | Image reading device, image forming system, image reading method, and image reading program |
US10070139B2 (en) | 2015-02-27 | 2018-09-04 | Samsung Electronics Co., Ltd. | Multimedia codec, application processor including the same, and method of operating the application processor |
-
2011
- 2011-04-01 JP JP2011082210A patent/JP2012217106A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10070139B2 (en) | 2015-02-27 | 2018-09-04 | Samsung Electronics Co., Ltd. | Multimedia codec, application processor including the same, and method of operating the application processor |
JP2018129735A (en) * | 2017-02-09 | 2018-08-16 | 京セラドキュメントソリューションズ株式会社 | Image reading device, image forming system, image reading method, and image reading program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5744437B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND PROGRAM | |
JP2012119858A (en) | Imaging device, imaging method, and program | |
KR20140016401A (en) | Method and apparatus for capturing images | |
US20090201382A1 (en) | Imaging apparatus for generating stroboscopic image | |
US9253406B2 (en) | Image capture apparatus that can display review image, image capture method, and storage medium | |
US9055212B2 (en) | Imaging system, image processing method, and image processing program recording medium using framing information to capture image actually intended by user | |
JP2010165012A (en) | Imaging apparatus, image retrieval method, and program | |
JP2007259423A (en) | Electronic camera | |
JP5485781B2 (en) | Electronic camera | |
JP5485712B2 (en) | Electronic camera | |
JP2012217106A (en) | Image processing apparatus | |
JP5044472B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP4534750B2 (en) | Image processing apparatus and image processing program | |
JP2012155044A (en) | Electronic camera | |
JP2012074894A (en) | Electronic camera | |
US20130083963A1 (en) | Electronic camera | |
KR20090102259A (en) | Apparatus and method for operation control of camera | |
JP6590681B2 (en) | Image processing apparatus, image processing method, and program | |
JP2013225020A (en) | Electronic camera | |
JP2014053706A (en) | Electronic camera | |
JP2013090112A (en) | Electronic camera | |
JP2012244278A (en) | Electronic camera | |
JP2014030095A (en) | Electronic camera | |
US20110109760A1 (en) | Electronic camera | |
JP2013143755A (en) | Electronic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20130404 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20130521 |
|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |