JP2014027631A - Electronic camera - Google Patents
Electronic camera Download PDFInfo
- Publication number
- JP2014027631A JP2014027631A JP2012168915A JP2012168915A JP2014027631A JP 2014027631 A JP2014027631 A JP 2014027631A JP 2012168915 A JP2012168915 A JP 2012168915A JP 2012168915 A JP2012168915 A JP 2012168915A JP 2014027631 A JP2014027631 A JP 2014027631A
- Authority
- JP
- Japan
- Prior art keywords
- exposure
- image
- output
- imaging surface
- electronic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
この発明は、電子カメラに関し、特に繰り返し露光を行う、電子カメラに関する。 The present invention relates to an electronic camera, and more particularly to an electronic camera that performs repeated exposure.
この種のカメラの一例が、特許文献1に開示されている。この背景技術によれば、短い露光時間での撮像と、長い露光時間での撮像とが交互に行われ、該得られた複数の画像データが1つの画像ファイルとして記録される。そして、動画再生中は、長い露光時間で撮像されたフレーム画像データBが順次再生表示され、動画再生が一時停止されている間は、短い露光時間で撮像されたフレーム画像データAが静止画として継続表示される。
An example of this type of camera is disclosed in
しかし、背景技術では、短い露光時間で撮像された画像データおよび長い露光時間で撮像された画像データのいずれの明るさも適切でない可能性があり、このような場合はこれらの画像データの用途が限られる。このため、これらの画像データを用いて作成される電子画像が画一化する恐れがある。 However, in the background art, there is a possibility that the brightness of image data captured with a short exposure time and image data captured with a long exposure time may not be appropriate. In such a case, the use of these image data is limited. It is done. For this reason, there exists a possibility that the electronic image produced using these image data may become uniform.
それゆえに、この発明の主たる目的は、並列的に作成される電子画像の多様化を図ることができる、電子カメラを提供することである。 Therefore, a main object of the present invention is to provide an electronic camera capable of diversifying electronic images created in parallel.
この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、光学像が照射される撮像面を有する撮像手段(16)、撮像面を繰り返し露光する露光手段(18p1)、露光手段の処理によって撮像面で生成された電子画像を繰り返し出力する出力手段(18p2)、露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整手段(S49, S71, S79, S87)、および出力手段によって出力された電子画像を既定順序でK個のグループに分類する処理を繰り返す分類手段(S173~S183, S207~S217)を備える。 An electronic camera according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) includes an imaging means (16) having an imaging surface on which an optical image is irradiated, an exposure means (18p1) for repeatedly exposing the imaging surface, and an exposure An output unit (18p2) that repeatedly outputs an electronic image generated on the imaging surface by the processing of the unit, and an adjustment that repeatedly sets the exposure amount of the exposure unit to K values (K: an integer of 2 or more) in a predetermined order Means (S49, S71, S79, S87) and classification means (S173 to S183, S207 to S217) for repeating the process of classifying the electronic images output by the output means into K groups in a predetermined order.
好ましくは、出力手段から出力された電子画像に基づいて適正な露光量を算出する算出手段(S23)がさらに備えられ、調整手段は算出手段によって算出された露光量に基づいて露光手段の露光量を設定する。 Preferably, a calculation means (S23) for calculating an appropriate exposure amount based on the electronic image output from the output means is further provided, and the adjustment means is an exposure amount of the exposure means based on the exposure amount calculated by the calculation means. Set.
好ましくは、分類手段によって分類された電子画像を用いて動画像ファイルを作成する第1作成手段(S161~S165, S187~S191)がさらに備えられる。 Preferably, a first creation means (S161 to S165, S187 to S191) for creating a moving image file using the electronic images classified by the classification means is further provided.
好ましくは、分類手段によって分類された電子画像を用いて広角画像ファイルを作成する第2作成手段(S201~S205, S223~S227)がさらに備えられる。 Preferably, a second creation means (S201 to S205, S223 to S227) for creating a wide-angle image file using the electronic images classified by the classification means is further provided.
好ましくは、出力手段から出力された電子画像から特定物体像を探索する探索手段(S107)、および探索手段の探索結果に基づいて撮像手段の撮像条件を変更する変更手段(S17, S169)がさらに備えられる。 Preferably, search means (S107) for searching for a specific object image from the electronic image output from the output means, and change means (S17, S169) for changing the imaging condition of the imaging means based on the search result of the search means are further provided. Provided.
この発明に従う撮像制御プログラムは、光学像が照射される撮像面を有する撮像手段(16)、撮像面を繰り返し露光する露光手段(18p1)、および露光手段の処理によって撮像面で生成された電子画像を繰り返し出力する出力手段(18p2)を備える電子カメラ(10)のプロセッサ(26)に、露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ(S49, S71, S79, S87)、および出力手段によって出力された電子画像を既定順序でK個のグループに分類する処理を繰り返す分類ステップ(S173~S183, S207~S217)を実行させるための、撮像制御プログラムである。 An imaging control program according to the present invention includes an imaging unit (16) having an imaging surface on which an optical image is irradiated, an exposure unit (18p1) that repeatedly exposes the imaging surface, and an electronic image generated on the imaging surface by processing of the exposure unit The process of setting the exposure amount of the exposure means to K values (K: an integer of 2 or more) in a predetermined order is repeated in the processor (26) of the electronic camera (10) having the output means (18p2) To execute an adjustment step (S49, S71, S79, S87) and a classification step (S173 to S183, S207 to S217) for repeating the process of classifying the electronic images output by the output means into K groups in a predetermined order This is an imaging control program.
この発明に従う撮像制御方法は、光学像が照射される撮像面を有する撮像手段(16)、撮像面を繰り返し露光する露光手段(18p1)、および露光手段の処理によって撮像面で生成された電子画像を繰り返し出力する出力手段(18p2)を備える電子カメラ(10)によって実行される撮像制御方法であって、露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ(S49, S71, S79, S87)、および出力手段によって出力された電子画像を既定順序でK個のグループに分類する処理を繰り返す分類ステップ(S173~S183, S207~S217)を備える。 An imaging control method according to the present invention includes an imaging unit (16) having an imaging surface on which an optical image is irradiated, an exposure unit (18p1) that repeatedly exposes the imaging surface, and an electronic image generated on the imaging surface by processing of the exposure unit Is an imaging control method executed by an electronic camera (10) equipped with output means (18p2) that repeatedly outputs the exposure amount, and sets the exposure amount of the exposure means to K values (K: an integer of 2 or more) in a predetermined order. Adjustment steps (S49, S71, S79, S87) for repeating the processing to be performed, and classification steps (S173 to S183, S207 to S217) for repeating the processing for classifying the electronic images output by the output means into K groups in a predetermined order Is provided.
この発明に従う外部制御プログラムは、光学像が照射される撮像面を有する撮像手段(16)、撮像面を繰り返し露光する露光手段(18p1)、露光手段の処理によって撮像面で生成された電子画像を繰り返し出力する出力手段(18p2)、およびメモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備える電子カメラ(10)に供給される外部制御プログラムであって、露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ(S49, S71, S79, S87)、および出力手段によって出力された電子画像を既定順序でK個のグループに分類する処理を繰り返す分類ステップ(S173~S183, S207~S217)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。 The external control program according to the present invention includes an imaging means (16) having an imaging surface on which an optical image is irradiated, an exposure means (18p1) that repeatedly exposes the imaging surface, and an electronic image generated on the imaging surface by the processing of the exposure means. An external control program supplied to an electronic camera (10) comprising an output means (18p2) that repeatedly outputs and a processor (26) that executes processing according to an internal control program stored in a memory (44), the exposure means Adjustment step (S49, S71, S79, S87) that repeats the process of setting the exposure amount to K values in a predetermined order (K: an integer of 2 or more), and the electronic image output by the output means in the predetermined order An external control program for causing a processor to execute a classification step (S173 to S183, S207 to S217) that repeats the process of classifying into K groups in cooperation with the internal control program.
この発明に従う電子カメラ(10)は、光学像が照射される撮像面を有する撮像手段(16)、撮像面を繰り返し露光する露光手段(18p1)、露光手段の処理によって撮像面で生成された電子画像を繰り返し出力する出力手段(18p2)、外部制御プログラムを取り込む取り込み手段(60)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(44)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(26)を備える電子カメラであって、外部制御プログラムは、露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ(S49, S71, S79, S87)、および出力手段によって出力された電子画像を既定順序でK個のグループに分類する処理を繰り返す分類ステップ(S173~S183, S207~S217)を内部制御プログラムと協働して実行するプログラムに相当する。 An electronic camera (10) according to the present invention includes an imaging means (16) having an imaging surface on which an optical image is irradiated, an exposure means (18p1) that repeatedly exposes the imaging surface, and an electron generated on the imaging surface by the processing of the exposure means. Executes processing according to the output means (18p2) for repeatedly outputting images, the fetch means (60) for fetching an external control program, and the external control program fetched by the fetch means and the internal control program stored in the memory (44) An electronic camera provided with a processor (26), wherein the external control program repeats an adjustment step (S49, S71) for repeating the process of setting the exposure amount of the exposure means to K values (K: an integer of 2 or more) in a predetermined order. , S79, S87), and a classification step (S173 to S183, S207 to S217) for repeating the process of classifying the electronic images output by the output means into K groups in a predetermined order are defined as an internal control program Corresponding to the program to be executed by work.
撮像面の露光量は既定順序でK個の値に設定され、撮像手段から出力された電子画像は既定順序でK個のグループに分類される。また、このような露光設定および画像分類は、繰り返し実行される。分類された各グループの電子画像は、共通のシーンを互いに異なる明るさで表す画像となる。これによって、並列的に作成される電子画像の多様化が図られる。 The exposure amount on the imaging surface is set to K values in a predetermined order, and the electronic images output from the imaging means are classified into K groups in the predetermined order. Such exposure setting and image classification are repeatedly executed. The classified electronic images of each group are images that represent a common scene with different brightness. This makes it possible to diversify electronic images created in parallel.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]
図1を参照して、この実施例の電子カメラは、基本的に次のように構成される。撮像手段1は、光学像が照射される撮像面を有する。露光手段2は、撮像面を繰り返し露光する。出力手段3は、露光手段2の処理によって撮像面で生成された電子画像を繰り返し出力する。調整手段4は、露光手段2の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す。分類手段5は、出力手段3によって出力された電子画像を既定順序でK個のグループに分類する処理を繰り返す。
Referring to FIG. 1, the electronic camera of this embodiment is basically configured as follows. The imaging means 1 has an imaging surface on which an optical image is irradiated. The
撮像面の露光量は既定順序でK個の値に設定され、撮像手段1から出力された電子画像は既定順序でK個のグループに分類される。また、このような露光設定および画像分類は、繰り返し実行される。分類された各グループの電子画像は、共通のシーンを互いに異なる明るさで表す画像となる。これによって、並列的に作成される電子画像の多様化が図られる。
[実施例]
The exposure amount on the imaging surface is set to K values in a predetermined order, and the electronic images output from the imaging means 1 are classified into K groups in the predetermined order. Such exposure setting and image classification are repeatedly executed. The classified electronic images of each group are images that represent a common scene with different brightness. This makes it possible to diversify electronic images created in parallel.
[Example]
図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経たシーンの光学像は、イメージセンサ16の撮像面に照射され、光電変換を施される。これによって、シーンを表す電荷が生成される。
Referring to FIG. 2, the
電源が投入されると、CPU26は、露光制御タスクおよび顔検出タスクをブラケット撮像タスクの下で起動する。CPU26は次に、動画取り込み処理を実行するべく、露光制御タスクの下で露光動作および電荷読み出し動作の繰り返しをドライバ18cに命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。
When the power is turned on, the
ここで、露光動作は特に露光パルス発生回路18p1によって実行され、電荷読み出し動作は電荷読み出しパルス発生回路18p2によって実行される。イメージセンサ16からは、読み出された電荷に基づく生画像データが周期的に出力される。CPU26はまた、ブラケット撮像タスクの下で、初期設定位置であるパンフォーカス位置にフォーカスレンズ12を配置する。
Here, the exposure operation is particularly performed by the exposure pulse generation circuit 18p1, and the charge readout operation is performed by the charge readout pulse generation circuit 18p2. From the
前処理回路20は、イメージセンサ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32a(図3参照)に書き込まれる。
The
後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。この結果、YUV画像データが作成され、作成されたYUV画像データは、メモリ制御回路30を通してSDRAM32のYUV画像エリア32b(図3参照)に書き込まれる。
The
後処理回路34はさらに、YUV形式に従う画像データに対して表示用のズーム処理と探索用のズーム処理とを並列的に実行する。この結果、YUV形式に従う表示画像データおよび探索画像データが個別に作成される。表示画像データは、メモリ制御回路30によってSDRAM32の表示画像エリア32c(図3参照)に書き込まれる。探索画像データは、メモリ制御回路30によってSDRAM32の探索画像エリア32d(図3参照)に書き込まれる。
The
LCDドライバ36は、表示画像エリア32cに格納された表示画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、シーンを表すリアルタイム動画像(スルー画像)がLCDモニタ38に表示される。
The
図4を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、図2に示す前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。
Referring to FIG. 4, an evaluation area EVA is assigned to the center of the imaging surface. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. In addition to the above-described processing, the
AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。
The
AF評価回路24は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。
The
図12を参照して、シャッタボタン28shが非操作状態のとき、CPU26は、AE評価回路22からの出力に基づく簡易AE処理をブラケット撮像タスクの下で実行し、適正なEV値を算出する。
Referring to FIG. 12, when shutter button 28sh is in a non-operating state,
CPU26は、簡易AE処理によって算出されたEV値を定義する基準露光時間および絞り量を、露光制御タスクの下で算出する。算出された絞り量はドライバ18bに設定され、絞りユニット14が調整される。また、算出された基準露光時間は、図5に示す露光時間レジスタRGSTetに登録される。登録された露光時間はドライバ18cに設定され、設定された露光時間の露光が垂直同期信号Vsyncの発生毎に実行される。
The
露光開始から基準露光時間が経過すると、CPU26は、生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して、画像読み出し完了通知NT0を発行する。読み出された生画像データは上述の通り前処理回路20の処理を経てSDRAM32の生画像エリア32aに書き込まれる。この結果、スルー画像の明るさが適度に調整される。
When the reference exposure time has elapsed from the start of exposure, the
CPU26は次に、探索画像エリア32dに格納された探索画像データから人物の顔画像を探索するべく、画像読み出し完了通知の発行毎に顔検出タスクの下で顔検出処理を実行する。このような顔検出タスクのために、図6に示す複数の顔検出枠FD,FD,FD,…、図7に示す顔辞書DCf、図8に示す顔検出ワークレジスタRGSTwk、および図9に示すAF対象レジスタRGSTafが準備される。顔辞書DCfには5つの辞書画像(=向きが互いに異なる顔画像)が収められる。なお、顔辞書DCfはフラッシュメモリ44に保存される。
Next, the
顔検出処理ではまず、評価エリアEVAの全域が探索エリアとして設定される。また、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxが“200”に設定され、最小サイズSZminが“20”に設定される。 In the face detection process, first, the entire evaluation area EVA is set as a search area. In order to define a variable range of the size of the face detection frame FD, the maximum size SZmax is set to “200”, and the minimum size SZmin is set to “20”.
顔検出枠FDは、探索エリアの開始位置(左上位置)から終了位置(右下位置)に向かって、ラスタ走査態様で既定量ずつ移動される(図10参照)。また、顔検出枠FDのサイズは、顔検出枠FDが終了位置に到達する毎に“SZmax”から“SZmin”まで“5”ずつ縮小される。 The face detection frame FD is moved by a predetermined amount in a raster scanning manner from the start position (upper left position) to the end position (lower right position) of the search area (see FIG. 10). The size of the face detection frame FD is reduced by “5” from “SZmax” to “SZmin” every time the face detection frame FD reaches the end position.
CPU26は、顔検出枠FDに属する画像データをメモリ制御回路30を通して探索画像エリア32dから読み出し、読み出された画像データの特徴量を算出する。算出された特徴量は、標準顔辞書DCfの各々の特徴量と照合される。照合度が基準値THを上回ると、顔画像が検出されたものとみなされ、現時点の顔検出枠FDの位置およびサイズが、顔情報として顔検出ワークレジスタRGSTwkに格納される。
The
顔検出処理の完了後に顔検出ワークレジスタRGSTwkに顔情報が格納されていたとき、CPU26は、顔検出ワークレジスタRGSTwkに格納された顔情報の中からAF処理の対象とすべき顔情報を、顔検出タスクの下で決定する。顔検出ワークレジスタRGSTwkに1つの顔情報が格納されている場合、CPU26は、格納された顔情報をAF対象顔情報とする。顔検出ワークレジスタRGSTwkに複数の顔情報が格納されている場合、CPU26は、位置が撮像面中央に最も近い顔情報をAF対象顔情報とする。AF対象顔情報とされた顔情報の位置およびサイズは、AF対象レジスタRGSTafに格納される。
When face information is stored in the face detection work register RGSTwk after completion of the face detection process, the
また、CPU26は、人物の顔を発見したことを表明するべくフラグFLG_fを“1”に設定する。
Further, the
なお、顔検出処理の完了後に顔検出ワークレジスタRGSTwkに顔情報の登録がなかった場合、すなわち人物の顔が発見されなかった場合は、CPU26は、人物の顔が未発見であることを表明するべくフラグFLG_fを“0”に設定する。
When face information is not registered in the face detection work register RGSTwk after completion of the face detection process, that is, when a person's face is not found, the
図12を参照して、シャッタボタン28shが半押しされると、フラグFLG_fが“1”を示すとき、ブラケット撮像タスクの下でCPU26は、AF対象顔情報が示す領域に注目した厳格AF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、AF対象レジスタRGSTafに格納された位置およびサイズに対応するAF評価値を抽出する。CPU26は、抽出された一部のAF評価値に基づくAF処理を実行する。この結果、AF対象顔情報が示す領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像におけるAF対象の顔の鮮鋭度が向上する。
Referring to FIG. 12, when the shutter button 28sh is half-pressed, when the flag FLG_f indicates “1”, under the bracket imaging task, the
またフラグFLG_fが“1”を示すとき、ブラケット撮像タスクの下でCPU26は、AF対象レジスタRGSTafの内容を参照して、顔枠FFの表示をグラフィックジェネレータ46に要求する。グラフィックジェネレータ46は、顔枠FFを表すグラフィック情報をLCDドライバ38に向けて出力する。顔枠FFは、AF対象レジスタRGSTafに格納された位置およびサイズに適合する態様でLCDモニタ38に表示される。
When the flag FLG_f indicates “1”, under the bracket imaging task, the
したがって、人物HM1の顔が撮像面に捉えられたとき、顔枠FFは、人物HM1の顔画像を囲うように、図11に示す要領でLCDモニタ38に表示される。
Therefore, when the face of the person HM1 is captured on the imaging surface, the face frame FF is displayed on the
CPU26はまた、ブラケット撮像タスクの下で、AE評価回路22から出力された256個のAE評価値に基づいて厳格AE処理を実行し、適正なEV値を算出する。
The
CPU26は、厳格AE処理によって算出されたEV値を定義する基準露光時間および絞り量を、露光制御タスクの下で算出する。算出された絞り量はドライバ18bに設定され、絞りユニット14が調整される。また、算出された基準露光時間は、露光時間レジスタRGSTetに登録される。登録された露光時間はドライバ18cに設定され、設定された露光時間の露光が垂直同期信号Vsyncの発生毎に実行される。
The
露光開始から基準露光時間が経過すると、CPU26は生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して、画像読み出し完了通知NT0を発行する。読み出された生画像データは上述の通り前処理回路20の処理を経てSDRAM32の生画像エリア32aに書き込まれる。この結果、スルー画像の明るさが厳格に調整される。
When the reference exposure time has elapsed from the start of exposure, the
図13を参照して、シャッタボタン28shが全押しされると、CPU26は露光制御タスクの下で、露光時間を制御して、垂直同期信号Vsyncの発生毎に複数回の露光を実行する。以下、垂直同期信号Vsyncの発生毎に3回の露光を実行する場合を例に挙げて、露光処理を詳述する。
Referring to FIG. 13, when shutter button 28sh is fully pressed,
垂直同期信号Vsyncが発生すると、CPU26は、露光時間レジスタRGSTetに登録された基準露光時間から既定値αを差し引いた露光時間をドライバ18cに設定し、設定された露光時間の露光をドライバ18cに命令する。露光開始から設定露光時間が経過すると、CPU26は、露光制御タスクの下で、生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して画像読み出し完了通知NT1を発行する。
When the vertical synchronization signal Vsync is generated, the
画像読み出し完了通知NT1が発行されると、CPU26は、露光時間レジスタRGSTetに登録された基準露光時間をドライバ18cに設定し、設定された露光時間の露光をドライバ18cに命令する。露光開始から設定露光時間が経過すると、CPU26は、生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して画像読み出し完了通知NT2を発行する。
When the image read completion notification NT1 is issued, the
画像読み出し完了通知NT2が発行されると、CPU26は、露光時間レジスタRGSTetに登録された基準露光時間に既定値Bを加えた露光時間をドライバ18cに設定し、設定された露光時間の露光をドライバ18cに命令する。露光開始から設定露光時間が経過すると、CPU26は、生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して画像読み出し完了通知NT3を発行する。
When the image reading completion notification NT2 is issued, the
この結果、垂直同期信号Vsyncが発生する毎に、基準露光時間よりも短い露光時間,基準露光時間,および基準露光時間よりも長い露光時間にそれぞれ基づいた3回の露光が実行される。 As a result, every time the vertical synchronization signal Vsync is generated, three exposures based on the exposure time shorter than the reference exposure time, the reference exposure time, and the exposure time longer than the reference exposure time are executed.
また、シャッタボタン28shが全押しされると、CPU26はブラケット撮像タスクの下で、キー入力装置28に設けられたモード変更ボタン28mdの状態に基づいて、動画撮影処理またはパノラマ撮影処理を実行する。
When the shutter button 28sh is fully pressed, the
動画撮影処理においては、オープン状態の動画ファイルFM1,FM2,およびFM3が記録媒体42に新規に作成される。 In the moving image shooting process, open moving image files FM1, FM2, and FM3 are newly created on the recording medium.
画像読み出し完了通知NT1が発行されたとき、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データを、フレーム画像としてオープン状態の動画像ファイルFM1に記録する。
When the image read completion notification NT1 is issued, the
画像読み出し完了通知NT2が発行されたとき、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データを、フレーム画像としてオープン状態の動画像ファイルFM2に記録する。
When the image reading completion notification NT2 is issued, the
画像読み出し完了通知NT3が発行されたとき、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データを、フレーム画像としてオープン状態の動画像ファイルFM3に記録する。
When the image reading completion notification NT3 is issued, the
また、フラグFLG_fが“1”を示すとき、CPU26は、AF対象顔情報が示す領域に注目した上述の厳格AF処理を実行する。この結果、AF対象顔情報が示す領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像におけるAF対象の顔の鮮鋭度が向上する。また、3つの露光時間にそれぞれ対応した3回の顔検出処理のうちいずれか1回または2回の顔検出処理のみによって顔画像が検出された場合であっても、フォーカスレンズ12の配置は維持されるので、AF対象の顔の鮮鋭度は低下しない。
Further, when the flag FLG_f indicates “1”, the
図14を参照して、シャッタボタン28shの全押し状態が解除されるまでこのような処理が繰り返されることによって、図16に示すように、互いに明るさが異なる3つの動画ファイルが並行して作成される。 Referring to FIG. 14, by repeating such processing until the shutter button 28sh is fully pressed, three moving image files having different brightness are created in parallel as shown in FIG. Is done.
シャッタボタン28shの全押し状態が解除されると、CPU26は、I/F40を通して記録媒体42にアクセスし、オープン状態の動画ファイルFM1,FM2,およびFM3の各々をクローズして記録処理を終了する。
When the fully pressed state of the
パノラマ撮影処理においては、オープン状態のパノラマ画像ファイルFP1,FP2,およびFP3が記録媒体42に新規に作成される。
In the panorama shooting process, open panorama image files FP1, FP2, and FP3 are newly created on the
画像読み出し完了通知NT1が発行されたとき、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データを用いてパノラマ画像ファイルFP1のパノラマ合成画像データに合成処理を施し、新たなパノラマ画像を作成する。パノラマ画像ファイルFP1は、新たに作成されたパノラマ画像を含むパノラマ合成画像データによって更新される。
When the image read completion notification NT1 is issued, the
画像読み出し完了通知NT2が発行されたとき、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データを用いてパノラマ画像ファイルFP2のパノラマ合成画像データに合成処理を施し、新たなパノラマ画像を作成する。パノラマ画像ファイルFP2は、新たに作成されたパノラマ画像を含むパノラマ合成画像データによって更新される。
When the image read completion notification NT2 is issued, the
画像読み出し完了通知NT3が発行されたとき、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データを用いてパノラマ画像ファイルFP3のパノラマ合成画像データに合成処理を施し、新たなパノラマ画像を作成する。パノラマ画像ファイルFP3は、新たに作成されたパノラマ画像を含むパノラマ合成画像データによって更新される。
When the image read completion notification NT3 is issued, the
図15を参照して、シャッタボタン28shの全押し状態が解除されるまでこのような処理が繰り返されることによって、図17に示すように、互いに明るさが異なる3つのパノラマ画像ファイルが並行して作成される。 Referring to FIG. 15, such a process is repeated until the shutter button 28sh is fully pressed, so that three panoramic image files having different brightness are displayed in parallel as shown in FIG. Created.
シャッタボタン28shの全押し状態が解除されるか、またはパノラマ画像ファイルFP1に格納されたパノラマ合成画像データに基づいて、ディジタルカメラ10のパン方向の回転が360度に達したと判定されると、CPU26は、I/F40を通して記録媒体42にアクセスし、オープン状態のパノラマ画像ファイルFP1,FP2,およびFP3の各々をクローズして記録処理を終了する。
When it is determined that the shutter button 28sh is fully pressed or the panning rotation of the
パノラマ画像ファイルFP1〜FP3の各々がクローズされると、CPU26は、パノラマ画像ファイルFP1〜FP3にそれぞれ格納された3つのパノラマ画像データの各々に対して、平均明度を算出する処理を実行する。算出結果に基づいて、CPU26は、最も適正な露光量で撮影されたパノラマ画像データを含むパノラマ画像ファイルを選択し、他のパノラマ画像ファイルを削除する。この結果、最も適正な明るさのパノラマ画像ファイルが、記録媒体42に残される。
When each of the panorama image files FP1 to FP3 is closed, the
CPU26は、図18〜19に示すブラケット撮像タスク,図20〜21に示す露光制御タスク,および図22に示す顔検出タスクを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。
The
図18を参照して、ステップS1では露光制御タスクを起動し、ステップS3では顔検出タスクを起動する。ステップS5では動画取り込み処理を開始する。この結果、シーンを表すスルー画像がLCDモニタ38に表示される。
Referring to FIG. 18, an exposure control task is activated in step S1, and a face detection task is activated in step S3. In step S5, the moving image capturing process is started. As a result, a through image representing a scene is displayed on the
ステップS7ではフラグFLG_bに“0”を初期設定し、ステップS9では初期設定位置であるパンフォーカス位置にフォーカスレンズ12を配置する。ステップS11ではシャッタボタン28shが半押しされたか否かを判別し、判別結果がNOの間はステップS13で簡易AE処理を繰り返し実行する。
In step S7, the flag FLG_b is initially set to “0”, and in step S9, the
判別結果がNOからYESに更新されると、フラグFLG_fが“1”を示すか否かをステップS15で判別する。ステップS15の判別結果がNOであればステップS21の処理を経てステップS23に進む一方、判別結果がYESであればステップS17およびS19の処理を経てステップS23に進む。 When the determination result is updated from NO to YES, it is determined in step S15 whether or not the flag FLG_f indicates “1”. If the determination result of step S15 is NO, the process proceeds to step S23 through the process of step S21, while if the determination result is YES, the process proceeds to step S23 through the processes of steps S17 and S19.
ステップS17では、AF対象顔情報が示す領域に注目した厳格AF処理を実行する。この結果、AF対象顔情報が示す領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像におけるAF対象の顔の鮮鋭度が向上する。ステップS19では、顔枠FFの表示をグラフィックジェネレータ46に要求する。この結果、顔枠FFは、AF対象レジスタRGSTafに格納された位置およびサイズに適合する態様でLCDモニタ38に表示される。
In step S17, a strict AF process focusing on the area indicated by the AF target face information is executed. As a result, the
ステップS21では、画像中央に注目した厳格AF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、画面中央に対応するAF評価値を抽出する。CPU26は、抽出された一部のAF評価値に基づくAF処理を実行する。この結果、スルー画像または記録画像における画像中央の鮮鋭度が向上する。
In step S21, a strict AF process focusing on the center of the image is executed. The
ステップS23では厳格AE処理を実行する。この結果、スルー画像の明るさが厳格に調整される。 In step S23, a strict AE process is executed. As a result, the brightness of the through image is adjusted strictly.
ステップS25ではシャッタボタン28shが全押しされたか否かを判別し、判別結果がNOであればシャッタボタン28shの半押し状態が解除されたか否かをステップS27で判別する。ステップS27の判別結果がNOであればステップS25に戻る一方、ステップS27の判別結果がYESであればステップS37に進む。 In step S25, it is determined whether or not the shutter button 28sh is fully pressed. If the determination result is NO, it is determined in step S27 whether or not the half-pressed state of the shutter button 28sh is released. If the determination result in step S27 is NO, the process returns to step S25, while if the determination result in step S27 is YES, the process proceeds to step S37.
ステップS25の判別結果がYESであれば、ステップS29でフラグFLG_bに“1”を設定する。ステップS31では、キー入力装置28に設けられたモード変更ボタン28mdの状態が動画撮影モードを示すか否かを判別する。判別結果がYESであればステップS33で動画撮影処理を実行し、その後ステップS37に進む。判別結果がNOであればステップS35でパノラマ撮影処理を実行し、その後ステップS37に進む。
If the decision result in the step S25 is YES, a flag FLG_b is set to “1” in a step S29. In step S31, it is determined whether or not the state of the mode change button 28md provided on the
ステップS37では顔枠FFを非表示とし、その後にステップS7に戻る。 In step S37, the face frame FF is not displayed, and then the process returns to step S7.
図20を参照して、ステップS41ではEV基準値にデフォルト値を設定し、設定されたEV基準値に基づいて基準露光時間をステップS43で算出する。算出された基準露光時間は、露光時間レジスタRGSTetに登録される。また、設定されたEV基準値に基づいて絞り量をステップS45で算出し、算出された絞り量をステップS47でドライバ18bに設定する。この結果、算出された絞り量に基づいて絞りユニット14が調整される。
Referring to FIG. 20, in step S41, a default value is set as the EV reference value, and a reference exposure time is calculated in step S43 based on the set EV reference value. The calculated reference exposure time is registered in the exposure time register RGSTet. Further, the aperture amount is calculated in step S45 based on the set EV reference value, and the calculated aperture amount is set in the
ステップS49では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がYESであればステップS61に進む一方、判別結果がNOであればステップS51に進む。ステップS51では、簡易AE処理または厳格AE処理が実行されたか否かを判別し、判別結果がNOであればステップS49に戻る一方、判別結果がYESであればステップS53に進む。 In step S49, it is determined whether or not the vertical synchronization signal Vsync is generated. If the determination result is YES, the process proceeds to step S61, and if the determination result is NO, the process proceeds to step S51. In step S51, it is determined whether or not the simple AE process or the strict AE process is executed. If the determination result is NO, the process returns to step S49, whereas if the determination result is YES, the process proceeds to step S53.
ステップS53では、簡易AE処理または厳格AE処理によって算出された値にEV基準値を設定する。設定されたEV基準値に基づいて基準露光時間をステップS55で算出する。算出された基準露光時間は、露光時間レジスタRGSTetに登録される。また、設定されたEV基準値に基づいて絞り量をステップS57で算出し、算出された絞り量をステップS59でドライバ18bに設定する。この結果、算出された絞り量に基づいて絞りユニット14が調整される。
In step S53, the EV reference value is set to a value calculated by the simple AE process or the strict AE process. A reference exposure time is calculated in step S55 based on the set EV reference value. The calculated reference exposure time is registered in the exposure time register RGSTet. Further, the aperture amount is calculated in step S57 based on the set EV reference value, and the calculated aperture amount is set in the
ステップS61ではフラグFLG_bに“1”が設定されているか否かを判別し、判別結果がYESであればステップS71に進む一方、判別結果がNOであればステップS63に進む。 In step S61, it is determined whether or not “1” is set in the flag FLG_b. If the determination result is YES, the process proceeds to step S71, and if the determination result is NO, the process proceeds to step S63.
ステップS63では露光時間レジスタRGSTetに登録された基準露光時間を露光時間としてドライバ18cに設定し、設定された露光時間に基づく露光をステップS65でドライバ18cに命令する。ステップS67では生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して、画像読み出し完了通知NT0をステップS69で発行する。ステップS69の処理の完了後、ステップS49に戻る。
In step S63, the reference exposure time registered in the exposure time register RGSTet is set in the
ステップS71では露光時間レジスタRGSTetに登録された基準露光時間から既定値αを差し引いた露光時間をドライバ18cに設定し、設定された露光時間に基づく露光をステップS73でドライバ18cに命令する。ステップS75では生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して、画像読み出し完了通知NT1をステップS77で発行する。
In step S71, an exposure time obtained by subtracting a predetermined value α from the reference exposure time registered in the exposure time register RGSTet is set in the
ステップS79では露光時間レジスタRGSTetに登録された基準露光時間を露光時間としてドライバ18cに設定し、設定された露光時間に基づく露光をステップS81でドライバ18cに命令する。ステップS83では生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して、画像読み出し完了通知NT2をステップS85で発行する。
In step S79, the reference exposure time registered in the exposure time register RGSTet is set in the
ステップS87では露光時間レジスタRGSTetに登録された基準露光時間に既定値βを加えた露光時間をドライバ18cに設定し、設定された露光時間に基づく露光をステップS89でドライバ18cに命令する。ステップS91では生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して、画像読み出し完了通知NT3をステップS93で発行する。ステップS93の処理の完了後、ステップS49に戻る。
In step S87, an exposure time obtained by adding a predetermined value β to the reference exposure time registered in the exposure time register RGSTet is set in the
図22を参照して、ステップS101ではフラグFLG_fに“0”を設定し、ステップS103ではAF対象レジスタRGSTafの格納内容を初期化するべくクリアする。ステップS105では、画像読み出し完了通知NT0〜NT3のいずれかが発行されたか否かを繰り返し判別し、判別結果がNOからYESに更新されると、ステップS107に進む。 Referring to FIG. 22, in step S101, flag FLG_f is set to “0”, and in step S103, the contents stored in AF target register RGSTaf are cleared to be initialized. In step S105, it is repeatedly determined whether any of image reading completion notifications NT0 to NT3 has been issued. If the determination result is updated from NO to YES, the process proceeds to step S107.
ステップS107では、探索画像データから人物の顔画像を探索するべく、顔検出処理を実行する。ステップS109では、ステップS107の処理によって顔検出ワークレジスタRGSTwkに顔情報が格納されたか否かを判別し、判別結果がYESであればステップS113に進む一方、判別結果がNOであればステップS111に進む。ステップS111ではフラグFLG_fに“0”を設定し、その後にステップS105に戻る。 In step S107, face detection processing is executed to search for a human face image from the search image data. In step S109, it is determined whether or not face information is stored in the face detection work register RGSTwk by the process in step S107. If the determination result is YES, the process proceeds to step S113. If the determination result is NO, the process proceeds to step S111. move on. In step S111, “0” is set to the flag FLG_f, and then the process returns to step S105.
ステップS113では、顔検出ワークレジスタRGSTwkに複数の顔情報が格納されたか否かを判別し、判別結果がNOであればステップS117に進む一方、判別結果がYESであればステップS115の処理を経てステップS117に進む。 In step S113, it is determined whether or not a plurality of pieces of face information are stored in the face detection work register RGSTwk. If the determination result is NO, the process proceeds to step S117. If the determination result is YES, the process of step S115 is performed. The process proceeds to step S117.
ステップS115では、顔検出ワークレジスタRGSTwkに格納された位置が画像中央に最も近い顔情報をAF対象顔情報と決定し、ステップS117では、AF対象顔情報とされた顔情報の位置およびサイズを、AF対象レジスタRGSTafに格納する。ステップS119ではフラグFLG_fに“1”を設定し、その後にステップS105に戻る。 In step S115, face information whose position stored in the face detection work register RGSTwk is closest to the center of the image is determined as AF target face information. In step S117, the position and size of the face information set as AF target face information are determined. Stored in the AF target register RGSTaf. In step S119, “1” is set in the flag FLG_f, and then the process returns to step S105.
ステップS107の顔検出処理は、図23〜24に示すサブルーチンに従って実行される。 The face detection process in step S107 is executed according to a subroutine shown in FIGS.
図23を参照して、ステップS121では、顔検出ワークレジスタRGSTwkを初期化すべく格納内容をクリアする。 Referring to FIG. 23, in step S121, the stored contents are cleared to initialize face detection work register RGSTwk.
ステップS123では変数Nmaxを顔辞書DCfの登録数に設定し、ステップS125では評価エリアEVAの全域を探索エリアとして設定する。ステップS127では、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxを“200”に設定し、最小サイズSZminを“20”に設定する。 In step S123, the variable Nmax is set to the registration number of the face dictionary DCf, and in step S125, the entire evaluation area EVA is set as a search area. In step S127, the maximum size SZmax is set to “200” and the minimum size SZmin is set to “20” in order to define a variable range of the size of the face detection frame FD.
ステップS129では顔検出枠FDのサイズを“SZmax”に設定し、ステップS131では顔検出枠FDを探索エリアの左上位置に配置する。ステップS133では、顔検出枠FDに属する一部の探索画像データを探索画像エリア32dから読み出し、読み出された探索画像データの特徴量を算出する。
In step S129, the size of the face detection frame FD is set to “SZmax”, and in step S131, the face detection frame FD is arranged at the upper left position of the search area. In step S133, a part of the search image data belonging to the face detection frame FD is read from the
ステップS135では変数Nを“1”に設定し、ステップS137では、ステップS133で算出された特徴量と顔辞書DCfのN番目に収められた辞書画像の特徴量とを照合する。照合の結果、閾値THを超える照合度が得られたか否かをステップS139で判別し、判別結果がNOであればステップS141に進む一方、判別結果がYESであればステップS145に進む。 In step S135, the variable N is set to “1”. In step S137, the feature amount calculated in step S133 is compared with the feature amount of the Nth dictionary image stored in the face dictionary DCf. As a result of the collation, it is determined in step S139 whether or not a collation degree exceeding the threshold TH is obtained. If the determination result is NO, the process proceeds to step S141. If the determination result is YES, the process proceeds to step S145.
ステップS141では変数Nをインクリメントし、ステップS143では変数NがNmaxを超えたか否かを判別する。判別結果がNOであればステップS137に戻る一方、判別結果がYESであればステップS147に進む。 In step S141, the variable N is incremented, and in step S143, it is determined whether or not the variable N exceeds Nmax. If the determination result is NO, the process returns to step S137, while if the determination result is YES, the process proceeds to step S147.
ステップS145では、現時点の顔検出枠FDの位置およびサイズを顔情報として顔検出ワークレジスタRGSTwkに登録する。ステップS147では顔検出枠FDが探索エリアの右下位置に到達したか否かを判別し、判別結果がYESであればステップS151に進む一方、判別結果がNOであれば、ステップS149で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS133に戻る。 In step S145, the current position and size of the face detection frame FD are registered in the face detection work register RGSTwk as face information. In step S147, it is determined whether or not the face detection frame FD has reached the lower right position of the search area. If the determination result is YES, the process proceeds to step S151. If the determination result is NO, the face detection is performed in step S149. The frame FD is moved in the raster direction by a predetermined amount, and then the process returns to step S133.
ステップS151では顔検出枠FDのサイズが“SZmin”以下であるか否かを判別し、判別結果がYESであれば上階層のルーチンに復帰する一方、判別結果がNOであればステップS153に進む。 In step S151, it is determined whether or not the size of the face detection frame FD is equal to or smaller than “SZmin”. If the determination result is YES, the process returns to the upper hierarchy routine. If the determination result is NO, the process proceeds to step S153. .
ステップS153では顔検出枠FDのサイズを“5”だけ縮小させ、ステップS155では顔検出枠FDを探索エリアの左上位置に配置する。ステップS155の処理が完了すると、ステップS133に戻る。 In step S153, the size of the face detection frame FD is reduced by “5”, and in step S155, the face detection frame FD is arranged at the upper left position of the search area. When the process of step S155 is completed, the process returns to step S133.
ステップS33の動画撮影処理は、図25〜27に示すサブルーチンに従って実行される。 The moving image shooting process in step S33 is executed according to a subroutine shown in FIGS.
図25を参照して、I/F40を通して記録媒体42にアクセスし、ステップS161ではオープン状態の動画ファイルFM1を記録媒体42に新規に作成し、ステップS163ではオープン状態の動画ファイルFM2を記録媒体42に新規に作成し、ステップS165ではオープン状態の動画ファイルFM3を記録媒体42に新規に作成する。
Referring to FIG. 25, the
ステップS167ではフラグFLG_fに“1”が設定されているか否かを判別し、判別結果がNOであればステップS173に進む一方、判別結果がYESであればステップS169に進む。 In step S167, it is determined whether or not “1” is set in the flag FLG_f. If the determination result is NO, the process proceeds to step S173, and if the determination result is YES, the process proceeds to step S169.
ステップS169では、AF対象顔情報が示す領域に注目した厳格AF処理を実行する。この結果、AF対象顔情報が示す領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像およぎ記録画像におけるAF対象の顔の鮮鋭度が向上する。ステップS171では、顔枠FFの表示をグラフィックジェネレータ46に要求する。この結果、顔枠FFは、AF対象レジスタRGSTafに格納された位置およびサイズに適合する態様でLCDモニタ38に表示される。
In step S169, a strict AF process focusing on the area indicated by the AF target face information is executed. As a result, the
ステップS173では画像読み出し完了通知NT1〜NT3のいずれかが発行されたか否かを判別し、判別結果がNOであればステップS185に進む一方、判別結果がYESであればステップS175に進む。 In step S173, it is determined whether any of image reading completion notifications NT1 to NT3 has been issued. If the determination result is NO, the process proceeds to step S185. If the determination result is YES, the process proceeds to step S175.
発行された通知が画像読み出し完了通知NT1であるか否かをステップS175で判別し、判別結果がNOであれば発行された通知が画像読み出し完了通知NT2であるか否かをステップS177で判別する。 In step S175, it is determined whether the issued notification is the image reading completion notification NT1, and if the determination result is NO, it is determined in step S177 whether the issued notification is the image reading completion notification NT2. .
ステップS175の判別結果がYESであれば、YUV画像エリア32bに書き込まれたYUV画像データをフレーム画像として、オープン状態の動画像ファイルFM1にステップS179で記録する。
If the decision result in the step S175 is YES, the YUV image data written in the
ステップS177の判別結果がYESであれば、YUV画像エリア32bに書き込まれたYUV画像データをフレーム画像として、オープン状態の動画像ファイルFM2にステップS181で記録する。
If the decision result in the step S177 is YES, the YUV image data written in the
ステップS177の判別結果がNOであれば、YUV画像エリア32bに書き込まれたYUV画像データをフレーム画像として、オープン状態の動画像ファイルFM3にステップS183で記録する。
If the determination result in step S177 is NO, the YUV image data written in the
ステップS179,S181,またはS183の処理が完了すると、ステップS185に進む。 When the process of step S179, S181, or S183 is completed, the process proceeds to step S185.
ステップS185では、シャッタボタン28shの全押し状態が解除されたか否かを判別し、判別結果がNOであればステップS167に戻る一方、判別結果がYESであればステップS187に進む。 In step S185, it is determined whether or not the fully pressed state of the shutter button 28sh is released. If the determination result is NO, the process returns to step S167, and if the determination result is YES, the process proceeds to step S187.
I/F40を通して記録媒体42にアクセスし、ステップS187ではオープン状態の動画ファイルFM1をクローズして記録処理を終了し、ステップS189ではオープン状態の動画ファイルFM2をクローズして記録処理を終了し、ステップS191ではオープン状態の動画ファイルFM3をクローズして記録処理を終了する。ステップS191の処理が完了すると、上階層のルーチンに復帰する。
The
ステップS35のパノラマ撮影処理は、図28〜30に示すサブルーチンに従って実行される。 The panoramic photographing process in step S35 is executed according to a subroutine shown in FIGS.
図28を参照して、I/F40を通して記録媒体42にアクセスし、ステップS201ではオープン状態のパノラマ合成ファイルFP1を記録媒体42に新規に作成し、ステップS203ではオープン状態のパノラマ合成ファイルFP2を記録媒体42に新規に作成し、ステップS205ではオープン状態のパノラマ合成ファイルFP3を記録媒体42に新規に作成する。
Referring to FIG. 28, the
ステップS207では画像読み出し完了通知NT1〜NT3のいずれかが発行されたか否かを判別し、判別結果がNOであればステップS219に進む一方、判別結果がYESであればステップS209に進む。 In step S207, it is determined whether any of image reading completion notifications NT1 to NT3 has been issued. If the determination result is NO, the process proceeds to step S219. If the determination result is YES, the process proceeds to step S209.
発行された通知が画像読み出し完了通知NT1であるか否かをステップS209で判別し、判別結果がNOであれば発行された通知が画像読み出し完了通知NT2であるか否かをステップS211で判別する。 In step S209, it is determined whether the issued notification is the image reading completion notification NT1, and if the determination result is NO, it is determined in step S211 whether the issued notification is the image reading completion notification NT2. .
ステップS209の判別結果がYESであれば、ステップS213で、YUV画像エリア32bに書き込まれたYUV画像データを用いてパノラマ画像ファイルFP1のパノラマ合成画像データに合成処理を施し、新たなパノラマ画像を作成する。パノラマ画像ファイルFP1は、新たに作成されたパノラマ画像を含むパノラマ合成画像データによって更新される。
If the determination result in step S209 is YES, in step S213, the panorama composite image data of the panorama image file FP1 is composited using the YUV image data written in the
ステップS211の判別結果がYESであれば、ステップS215で、YUV画像エリア32bに書き込まれたYUV画像データを用いてパノラマ画像ファイルFP2のパノラマ合成画像データに合成処理を施し、新たなパノラマ画像を作成する。パノラマ画像ファイルFP2は、新たに作成されたパノラマ画像を含むパノラマ合成画像データによって更新される。
If the determination result in step S211 is YES, in step S215, the panorama composite image data of the panorama image file FP2 is composited using the YUV image data written in the
ステップS211の判別結果がNOであれば、ステップS217で、YUV画像エリア32bに書き込まれたYUV画像データを用いてパノラマ画像ファイルFP3のパノラマ合成画像データに合成処理を施し、新たなパノラマ画像を作成する。パノラマ画像ファイルFP3は、新たに作成されたパノラマ画像を含むパノラマ合成画像データによって更新される。
If the determination result in step S211 is NO, in step S217, the panorama composite image data of the panorama image file FP3 is synthesized using the YUV image data written in the
ステップS213,S215,またはS217の処理が完了すると、ステップS219に進む。 When the process of step S213, S215, or S217 is completed, the process proceeds to step S219.
ステップS219では、シャッタボタン28shの全押し状態が解除されたか否かを判別し、判別結果がNOであればステップS221に進む一方、判別結果がYESであればステップS223に進む。 In step S219, it is determined whether or not the fully pressed state of the shutter button 28sh has been released. If the determination result is NO, the process proceeds to step S221. If the determination result is YES, the process proceeds to step S223.
ステップS221では、パノラマ画像ファイルFP1に格納されたパノラマ合成画像データに基づいて、ディジタルカメラ10のパン方向の回転が360度に達したか否かを判別する。判別結果がNOであればステップS207に戻り、判別結果がYESであればステップS223に進む。
In step S221, based on the panorama composite image data stored in the panorama image file FP1, it is determined whether or not the rotation of the
I/F40を通して記録媒体42にアクセスし、ステップS223ではオープン状態のパノラマ合成ファイルFP1をクローズして記録処理を終了し、ステップS225ではオープン状態のパノラマ合成ファイルFP2をクローズして記録処理を終了し、ステップS227ではオープン状態のパノラマ合成ファイルFP3をクローズして記録処理を終了する。
The
ステップS229では、パノラマ画像ファイルFP1〜FP3にそれぞれ格納された3つのパノラマ画像データの各々に対して、平均明度を算出する処理を実行する。算出結果に基づいて、最も適正な露光量で撮影されたパノラマ画像データを含むパノラマ画像ファイルが選択される。ステップS231では、ステップS229で選択されたパノラマ画像ファイル以外のパノラマ画像ファイルを削除する。この結果、最も適正な明るさのパノラマ画像ファイルが、記録媒体42に残される。ステップS231の処理が完了すると、上階層のルーチンに復帰する。
In step S229, a process of calculating the average brightness is executed for each of the three panoramic image data stored in the panoramic image files FP1 to FP3. Based on the calculation result, a panorama image file including panorama image data photographed with the most appropriate exposure amount is selected. In step S231, panorama image files other than the panorama image file selected in step S229 are deleted. As a result, the panorama image file having the most appropriate brightness is left on the
以上の説明から分かるように、イメージセンサ16は、光学像が照射される撮像面を有する。撮像面は、ドライバ18cに設けられた露光パルス発生回路18p1によって繰り返し露光される。露光によって生成された電荷に基づく生画像データは、ドライバ18cに設けられた電荷読み出しパルス発生回路18p2によって、イメージセンサ16から繰り返し出力される。CPU26は、撮像面の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返し(S49, S71, S79, S87)、イメージセンサ16の出力に基づくYUV形式の画像データを既定順序でK個のグループに分類する処理を繰り返す(S173~S183, S207~S217)。
As can be seen from the above description, the
撮像面の露光量は既定順序でK個の値に設定され、イメージセンサ16の出力に基づく画像データは既定順序でK個のグループに分類される。また、このような露光設定および画像分類は、繰り返し実行される。分類された各グループの画像データは、共通のシーンを互いに異なる明るさで表す画像となる。これによって、並列的に作成される画像データの多様化が図られる。
The exposure amount on the imaging surface is set to K values in a predetermined order, and the image data based on the output of the
なお、この実施例では、厳格AE処理に基づいて基準露光時間を算出し、基準露光時間から既定値αを差し引いた露光時間,基準露光時間,および基準露光時間に既定値βを加えた露光時間の3つの値に周期的に露光時間を設定するようにした。しかし、これら以外の露光時間を設定するようにしてもよい。例えば、基準露光時間から既定値α×2を差し引いた露光時間,基準露光時間から既定値αを差し引いた露光時間,および基準露光時間の3つの値に周期的に露光時間を設定するようにしてもよい。 In this embodiment, the reference exposure time is calculated based on the strict AE process, the exposure time obtained by subtracting the predetermined value α from the reference exposure time, the reference exposure time, and the exposure time obtained by adding the predetermined value β to the reference exposure time. The exposure time is periodically set to these three values. However, other exposure times may be set. For example, the exposure time is periodically set to three values: an exposure time obtained by subtracting a predetermined value α × 2 from the reference exposure time, an exposure time obtained by subtracting the predetermined value α from the reference exposure time, and a reference exposure time. Also good.
また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ44に予め記憶される。しかし、外部サーバに接続するための通信I/F60を図31に示す要領でディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ44に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。
In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the
また、この実施例では、CPU26によって実行される処理を、ブラケット撮像タスク,露光制御タスク,および顔検出タスクを含む複数のタスクに区分するようにしている。しかし、これらのタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、転送タスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。
In this embodiment, the process executed by the
また、この実施例では、ディジタルカメラを用いて説明したが、本発明は、携帯電話端末またはスマートフォンなどにも適用することができる。 In this embodiment, the digital camera is used for the explanation. However, the present invention can also be applied to a mobile phone terminal or a smartphone.
10 …ディジタルカメラ
14 …絞りユニット
16 …イメージセンサ
18b,18c …ドライバ
26 …CPU
42 …記録媒体
DESCRIPTION OF
42 ... Recording medium
Claims (9)
前記撮像面を繰り返し露光する露光手段、
前記露光手段の処理によって前記撮像面で生成された電子画像を繰り返し出力する出力手段、
前記露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整手段、および
前記出力手段によって出力された電子画像を前記既定順序でK個のグループに分類する処理を繰り返す分類手段を備える、電子カメラ。 An imaging means having an imaging surface on which an optical image is irradiated;
Exposure means for repeatedly exposing the imaging surface;
Output means for repeatedly outputting an electronic image generated on the imaging surface by the processing of the exposure means;
Adjusting means for repeating the process of setting the exposure amount of the exposure means to K values (K: an integer equal to or greater than 2) in a predetermined order; and K groups of electronic images output by the output means in the predetermined order An electronic camera comprising classification means for repeating the process of classifying into
前記調整手段は前記算出手段によって算出された露光量に基づいて前記露光手段の露光量を設定する、請求項1記載の電子カメラ。 A calculation unit that calculates an appropriate exposure amount based on the electronic image output from the output unit;
The electronic camera according to claim 1, wherein the adjustment unit sets an exposure amount of the exposure unit based on the exposure amount calculated by the calculation unit.
前記探索手段の探索結果に基づいて前記撮像手段の撮像条件を変更する変更手段をさらに備える、請求項1ないし4のいずれかに記載の電子カメラ。 5. The apparatus according to claim 1, further comprising: search means for searching for a specific object image from the electronic image output from the output means; and change means for changing an image pickup condition of the image pickup means based on a search result of the search means. An electronic camera according to any one of the above.
前記撮像面を繰り返し露光する露光手段、および
前記露光手段の処理によって前記撮像面で生成された電子画像を繰り返し出力する出力手段を備える電子カメラのプロセッサに、
前記露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ、および
前記出力手段によって出力された電子画像を前記既定順序でK個のグループに分類する処理を繰り返す分類ステップを実行させるための、撮像制御プログラム。 An imaging means having an imaging surface on which an optical image is irradiated;
An exposure unit that repeatedly exposes the imaging surface; and an electronic camera processor that includes an output unit that repeatedly outputs an electronic image generated on the imaging surface by the processing of the exposure unit.
An adjustment step of repeating the process of setting the exposure amount of the exposure means to K values (K: an integer equal to or greater than 2) in a predetermined order; and K groups of electronic images output by the output means in the predetermined order The imaging control program for performing the classification step which repeats the process classified into (1).
前記撮像面を繰り返し露光する露光手段、および
前記露光手段の処理によって前記撮像面で生成された電子画像を繰り返し出力する出力手段を備える電子カメラによって実行される撮像制御方法であって、
前記露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ、および
前記出力手段によって出力された電子画像を前記既定順序でK個のグループに分類する処理を繰り返す分類ステップを備える、撮像制御方法。 An imaging means having an imaging surface on which an optical image is irradiated;
An imaging control method executed by an electronic camera comprising: an exposure unit that repeatedly exposes the imaging surface; and an output unit that repeatedly outputs an electronic image generated on the imaging surface by the processing of the exposure unit,
An adjustment step of repeating the process of setting the exposure amount of the exposure means to K values (K: an integer equal to or greater than 2) in a predetermined order; and K groups of electronic images output by the output means in the predetermined order An imaging control method, comprising: a classification step that repeats the process of classifying into two.
前記撮像面を繰り返し露光する露光手段、
前記露光手段の処理によって前記撮像面で生成された電子画像を繰り返し出力する出力手段、および
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える電子カメラに供給される外部制御プログラムであって、
前記露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ、および
前記出力手段によって出力された電子画像を前記既定順序でK個のグループに分類する処理を繰り返す分類ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。 An imaging means having an imaging surface on which an optical image is irradiated;
Exposure means for repeatedly exposing the imaging surface;
An external control program supplied to an electronic camera comprising output means for repeatedly outputting an electronic image generated on the imaging surface by processing of the exposure means, and a processor for executing processing according to an internal control program stored in a memory. And
An adjustment step of repeating the process of setting the exposure amount of the exposure means to K values (K: an integer equal to or greater than 2) in a predetermined order; and K groups of electronic images output by the output means in the predetermined order An external control program for causing the processor to execute a classification step that repeats the process of classifying into the internal control program in cooperation with the internal control program.
前記撮像面を繰り返し露光する露光手段、
前記露光手段の処理によって前記撮像面で生成された電子画像を繰り返し出力する出力手段、
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える電子カメラであって、
前記外部制御プログラムは、
前記露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ、および
前記出力手段によって出力された電子画像を前記既定順序でK個のグループに分類する処理を繰り返す分類ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、電子カメラ。 An imaging means having an imaging surface on which an optical image is irradiated;
Exposure means for repeatedly exposing the imaging surface;
Output means for repeatedly outputting an electronic image generated on the imaging surface by the processing of the exposure means;
An electronic camera comprising a capturing unit that captures an external control program, and a processor that executes processing according to the external control program captured by the capturing unit and the internal control program stored in a memory,
The external control program is
An adjustment step of repeating the process of setting the exposure amount of the exposure means to K values (K: an integer equal to or greater than 2) in a predetermined order; and K groups of electronic images output by the output means in the predetermined order An electronic camera corresponding to a program that executes a classification step of repeating the classification process in cooperation with the internal control program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012168915A JP2014027631A (en) | 2012-07-30 | 2012-07-30 | Electronic camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012168915A JP2014027631A (en) | 2012-07-30 | 2012-07-30 | Electronic camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014027631A true JP2014027631A (en) | 2014-02-06 |
Family
ID=50200858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012168915A Pending JP2014027631A (en) | 2012-07-30 | 2012-07-30 | Electronic camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014027631A (en) |
-
2012
- 2012-07-30 JP JP2012168915A patent/JP2014027631A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101411910B1 (en) | Digital photographing apparatus and method for controlling the same | |
US10250819B2 (en) | Image processing apparatus and image processing method | |
WO2016008356A1 (en) | Method for shooting star track, method for shooting object movement track and mobile terminal | |
JP2012103979A (en) | Image processing apparatus | |
JP2012003539A (en) | Image processing device | |
JP2011071573A (en) | Image processing apparatus | |
CN110581950B (en) | Camera, system and method for selecting camera settings | |
JP2012191442A (en) | Image reproduction controller | |
JP5485781B2 (en) | Electronic camera | |
JP5865120B2 (en) | Electronic camera | |
KR101605129B1 (en) | Digital photographing apparatus, controlling method thereof and recording medium for the same | |
JP5785034B2 (en) | Electronic camera | |
CN114143429B (en) | Image shooting method, device, electronic equipment and computer readable storage medium | |
JP2012155044A (en) | Electronic camera | |
JP2014027631A (en) | Electronic camera | |
JP2013074570A (en) | Electronic camera | |
JP2013046376A (en) | Electronic camera | |
JP2012217106A (en) | Image processing apparatus | |
JP2001251553A (en) | Electronic camera | |
JP2011166301A (en) | Imaging apparatus | |
JP2014045318A (en) | Electronic camera | |
JP2013090112A (en) | Electronic camera | |
JP2011249956A (en) | Image processing device | |
JP2016046611A (en) | Imaging apparatus, control method therefor and program | |
JP2012150236A (en) | Electronic camera |