JP2014027631A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2014027631A
JP2014027631A JP2012168915A JP2012168915A JP2014027631A JP 2014027631 A JP2014027631 A JP 2014027631A JP 2012168915 A JP2012168915 A JP 2012168915A JP 2012168915 A JP2012168915 A JP 2012168915A JP 2014027631 A JP2014027631 A JP 2014027631A
Authority
JP
Japan
Prior art keywords
exposure
image
output
imaging surface
electronic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012168915A
Other languages
Japanese (ja)
Inventor
Masayoshi Okamoto
正義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2012168915A priority Critical patent/JP2014027631A/en
Publication of JP2014027631A publication Critical patent/JP2014027631A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To diversify image data generated in parallel.SOLUTION: An image sensor 16 includes an imaging face on which an optical image is radiated. The imaging face is repetitively exposed with an exposure pulse generation circuit 18p1 arranged in a driver 18c. Raw image data in response to an electric charge generated by exposure is repetitively outputted from the image sensor 16 by an electric charge reading pulse generation circuit 18p2 disposed in the driver 18c. A CPU 26 repeats processing for setting an exposure value of the imaging face to a value of K-pieces (K:integer of 2 or more) in a predetermined order. Processing for classifying the image data in a YUV form in response to output of the image sensor 16 into K-pieces of groups in the predetermined order is repeated.

Description

この発明は、電子カメラに関し、特に繰り返し露光を行う、電子カメラに関する。   The present invention relates to an electronic camera, and more particularly to an electronic camera that performs repeated exposure.

この種のカメラの一例が、特許文献1に開示されている。この背景技術によれば、短い露光時間での撮像と、長い露光時間での撮像とが交互に行われ、該得られた複数の画像データが1つの画像ファイルとして記録される。そして、動画再生中は、長い露光時間で撮像されたフレーム画像データBが順次再生表示され、動画再生が一時停止されている間は、短い露光時間で撮像されたフレーム画像データAが静止画として継続表示される。   An example of this type of camera is disclosed in Patent Document 1. According to this background art, imaging with a short exposure time and imaging with a long exposure time are alternately performed, and the obtained plurality of image data are recorded as one image file. During movie playback, frame image data B captured with a long exposure time is sequentially played back and displayed. While movie playback is paused, frame image data A captured with a short exposure time is displayed as a still image. Displayed continuously.

特開2011−55524号公報JP 2011-55524 A

しかし、背景技術では、短い露光時間で撮像された画像データおよび長い露光時間で撮像された画像データのいずれの明るさも適切でない可能性があり、このような場合はこれらの画像データの用途が限られる。このため、これらの画像データを用いて作成される電子画像が画一化する恐れがある。   However, in the background art, there is a possibility that the brightness of image data captured with a short exposure time and image data captured with a long exposure time may not be appropriate. In such a case, the use of these image data is limited. It is done. For this reason, there exists a possibility that the electronic image produced using these image data may become uniform.

それゆえに、この発明の主たる目的は、並列的に作成される電子画像の多様化を図ることができる、電子カメラを提供することである。   Therefore, a main object of the present invention is to provide an electronic camera capable of diversifying electronic images created in parallel.

この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、光学像が照射される撮像面を有する撮像手段(16)、撮像面を繰り返し露光する露光手段(18p1)、露光手段の処理によって撮像面で生成された電子画像を繰り返し出力する出力手段(18p2)、露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整手段(S49, S71, S79, S87)、および出力手段によって出力された電子画像を既定順序でK個のグループに分類する処理を繰り返す分類手段(S173~S183, S207~S217)を備える。   An electronic camera according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) includes an imaging means (16) having an imaging surface on which an optical image is irradiated, an exposure means (18p1) for repeatedly exposing the imaging surface, and an exposure An output unit (18p2) that repeatedly outputs an electronic image generated on the imaging surface by the processing of the unit, and an adjustment that repeatedly sets the exposure amount of the exposure unit to K values (K: an integer of 2 or more) in a predetermined order Means (S49, S71, S79, S87) and classification means (S173 to S183, S207 to S217) for repeating the process of classifying the electronic images output by the output means into K groups in a predetermined order.

好ましくは、出力手段から出力された電子画像に基づいて適正な露光量を算出する算出手段(S23)がさらに備えられ、調整手段は算出手段によって算出された露光量に基づいて露光手段の露光量を設定する。   Preferably, a calculation means (S23) for calculating an appropriate exposure amount based on the electronic image output from the output means is further provided, and the adjustment means is an exposure amount of the exposure means based on the exposure amount calculated by the calculation means. Set.

好ましくは、分類手段によって分類された電子画像を用いて動画像ファイルを作成する第1作成手段(S161~S165, S187~S191)がさらに備えられる。   Preferably, a first creation means (S161 to S165, S187 to S191) for creating a moving image file using the electronic images classified by the classification means is further provided.

好ましくは、分類手段によって分類された電子画像を用いて広角画像ファイルを作成する第2作成手段(S201~S205, S223~S227)がさらに備えられる。   Preferably, a second creation means (S201 to S205, S223 to S227) for creating a wide-angle image file using the electronic images classified by the classification means is further provided.

好ましくは、出力手段から出力された電子画像から特定物体像を探索する探索手段(S107)、および探索手段の探索結果に基づいて撮像手段の撮像条件を変更する変更手段(S17, S169)がさらに備えられる。   Preferably, search means (S107) for searching for a specific object image from the electronic image output from the output means, and change means (S17, S169) for changing the imaging condition of the imaging means based on the search result of the search means are further provided. Provided.

この発明に従う撮像制御プログラムは、光学像が照射される撮像面を有する撮像手段(16)、撮像面を繰り返し露光する露光手段(18p1)、および露光手段の処理によって撮像面で生成された電子画像を繰り返し出力する出力手段(18p2)を備える電子カメラ(10)のプロセッサ(26)に、露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ(S49, S71, S79, S87)、および出力手段によって出力された電子画像を既定順序でK個のグループに分類する処理を繰り返す分類ステップ(S173~S183, S207~S217)を実行させるための、撮像制御プログラムである。   An imaging control program according to the present invention includes an imaging unit (16) having an imaging surface on which an optical image is irradiated, an exposure unit (18p1) that repeatedly exposes the imaging surface, and an electronic image generated on the imaging surface by processing of the exposure unit The process of setting the exposure amount of the exposure means to K values (K: an integer of 2 or more) in a predetermined order is repeated in the processor (26) of the electronic camera (10) having the output means (18p2) To execute an adjustment step (S49, S71, S79, S87) and a classification step (S173 to S183, S207 to S217) for repeating the process of classifying the electronic images output by the output means into K groups in a predetermined order This is an imaging control program.

この発明に従う撮像制御方法は、光学像が照射される撮像面を有する撮像手段(16)、撮像面を繰り返し露光する露光手段(18p1)、および露光手段の処理によって撮像面で生成された電子画像を繰り返し出力する出力手段(18p2)を備える電子カメラ(10)によって実行される撮像制御方法であって、露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ(S49, S71, S79, S87)、および出力手段によって出力された電子画像を既定順序でK個のグループに分類する処理を繰り返す分類ステップ(S173~S183, S207~S217)を備える。   An imaging control method according to the present invention includes an imaging unit (16) having an imaging surface on which an optical image is irradiated, an exposure unit (18p1) that repeatedly exposes the imaging surface, and an electronic image generated on the imaging surface by processing of the exposure unit Is an imaging control method executed by an electronic camera (10) equipped with output means (18p2) that repeatedly outputs the exposure amount, and sets the exposure amount of the exposure means to K values (K: an integer of 2 or more) in a predetermined order. Adjustment steps (S49, S71, S79, S87) for repeating the processing to be performed, and classification steps (S173 to S183, S207 to S217) for repeating the processing for classifying the electronic images output by the output means into K groups in a predetermined order Is provided.

この発明に従う外部制御プログラムは、光学像が照射される撮像面を有する撮像手段(16)、撮像面を繰り返し露光する露光手段(18p1)、露光手段の処理によって撮像面で生成された電子画像を繰り返し出力する出力手段(18p2)、およびメモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備える電子カメラ(10)に供給される外部制御プログラムであって、露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ(S49, S71, S79, S87)、および出力手段によって出力された電子画像を既定順序でK個のグループに分類する処理を繰り返す分類ステップ(S173~S183, S207~S217)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   The external control program according to the present invention includes an imaging means (16) having an imaging surface on which an optical image is irradiated, an exposure means (18p1) that repeatedly exposes the imaging surface, and an electronic image generated on the imaging surface by the processing of the exposure means. An external control program supplied to an electronic camera (10) comprising an output means (18p2) that repeatedly outputs and a processor (26) that executes processing according to an internal control program stored in a memory (44), the exposure means Adjustment step (S49, S71, S79, S87) that repeats the process of setting the exposure amount to K values in a predetermined order (K: an integer of 2 or more), and the electronic image output by the output means in the predetermined order An external control program for causing a processor to execute a classification step (S173 to S183, S207 to S217) that repeats the process of classifying into K groups in cooperation with the internal control program.

この発明に従う電子カメラ(10)は、光学像が照射される撮像面を有する撮像手段(16)、撮像面を繰り返し露光する露光手段(18p1)、露光手段の処理によって撮像面で生成された電子画像を繰り返し出力する出力手段(18p2)、外部制御プログラムを取り込む取り込み手段(60)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(44)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(26)を備える電子カメラであって、外部制御プログラムは、露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ(S49, S71, S79, S87)、および出力手段によって出力された電子画像を既定順序でK個のグループに分類する処理を繰り返す分類ステップ(S173~S183, S207~S217)を内部制御プログラムと協働して実行するプログラムに相当する。   An electronic camera (10) according to the present invention includes an imaging means (16) having an imaging surface on which an optical image is irradiated, an exposure means (18p1) that repeatedly exposes the imaging surface, and an electron generated on the imaging surface by the processing of the exposure means. Executes processing according to the output means (18p2) for repeatedly outputting images, the fetch means (60) for fetching an external control program, and the external control program fetched by the fetch means and the internal control program stored in the memory (44) An electronic camera provided with a processor (26), wherein the external control program repeats an adjustment step (S49, S71) for repeating the process of setting the exposure amount of the exposure means to K values (K: an integer of 2 or more) in a predetermined order. , S79, S87), and a classification step (S173 to S183, S207 to S217) for repeating the process of classifying the electronic images output by the output means into K groups in a predetermined order are defined as an internal control program Corresponding to the program to be executed by work.

撮像面の露光量は既定順序でK個の値に設定され、撮像手段から出力された電子画像は既定順序でK個のグループに分類される。また、このような露光設定および画像分類は、繰り返し実行される。分類された各グループの電子画像は、共通のシーンを互いに異なる明るさで表す画像となる。これによって、並列的に作成される電子画像の多様化が図られる。   The exposure amount on the imaging surface is set to K values in a predetermined order, and the electronic images output from the imaging means are classified into K groups in the predetermined order. Such exposure setting and image classification are repeatedly executed. The classified electronic images of each group are images that represent a common scene with different brightness. This makes it possible to diversify electronic images created in parallel.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a mapping state of an SDRAM applied to the embodiment in FIG. 2; 撮像面における評価エリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the evaluation area in an imaging surface. 図2実施例において参照されるレジスタの構成の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a configuration of a register referred to in the embodiment in FIG. 2; 顔検出処理において用いられる顔検出枠の一例を示す図解図である。It is an illustration figure which shows an example of the face detection frame used in a face detection process. 顔検出処理において参照される顔辞書の構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the face dictionary referred in a face detection process. 図2実施例において参照される他のレジスタの構成の一例を示す図解図である。FIG. 10 is an illustrative view showing one example of a configuration of another register referred to in the embodiment in FIG. 2; 図2実施例において参照されるその他のレジスタの構成の一例を示す図解図である。FIG. 10 is an illustrative view showing one example of a configuration of another register referred to in the embodiment in FIG. 2; 顔検出処理の一部を示す図解図である。It is an illustration figure which shows a part of face detection process. 人物対象AF処理の一部を示す図解図である。It is an illustration figure which shows a part of person object AF process. 図2実施例の処理の一部を示すタイミング図である。FIG. 3 is a timing chart showing a part of the process in the embodiment in FIG. 2; 図2実施例の処理の他の一部を示すタイミング図である。FIG. 9 is a timing diagram showing another part of the process of the embodiment in FIG. 2; 図2実施例の処理のその他の一部を示すタイミング図である。FIG. 3 is a timing diagram showing another part of the processing of the embodiment in FIG. 2; 図2実施例の処理のさらにその他の一部を示すタイミング図である。FIG. 10 is a timing diagram showing still another portion of the processing in the embodiment in FIG. 2; 図2実施例において作成される動画ファイルの一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a moving image file created in the embodiment in FIG. 2; 図2実施例において作成されるパノラマ画像ファイルの一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a panoramic image file created in the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; この発明の他の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the other Example of this invention.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この実施例の電子カメラは、基本的に次のように構成される。撮像手段1は、光学像が照射される撮像面を有する。露光手段2は、撮像面を繰り返し露光する。出力手段3は、露光手段2の処理によって撮像面で生成された電子画像を繰り返し出力する。調整手段4は、露光手段2の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す。分類手段5は、出力手段3によって出力された電子画像を既定順序でK個のグループに分類する処理を繰り返す。   Referring to FIG. 1, the electronic camera of this embodiment is basically configured as follows. The imaging means 1 has an imaging surface on which an optical image is irradiated. The exposure unit 2 repeatedly exposes the imaging surface. The output unit 3 repeatedly outputs an electronic image generated on the imaging surface by the processing of the exposure unit 2. The adjustment unit 4 repeats the process of setting the exposure amount of the exposure unit 2 to K values (K: an integer equal to or greater than 2) in a predetermined order. The classification unit 5 repeats the process of classifying the electronic images output by the output unit 3 into K groups in a predetermined order.

撮像面の露光量は既定順序でK個の値に設定され、撮像手段1から出力された電子画像は既定順序でK個のグループに分類される。また、このような露光設定および画像分類は、繰り返し実行される。分類された各グループの電子画像は、共通のシーンを互いに異なる明るさで表す画像となる。これによって、並列的に作成される電子画像の多様化が図られる。
[実施例]
The exposure amount on the imaging surface is set to K values in a predetermined order, and the electronic images output from the imaging means 1 are classified into K groups in the predetermined order. Such exposure setting and image classification are repeatedly executed. The classified electronic images of each group are images that represent a common scene with different brightness. This makes it possible to diversify electronic images created in parallel.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経たシーンの光学像は、イメージセンサ16の撮像面に照射され、光電変換を施される。これによって、シーンを表す電荷が生成される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a focus lens 12 and an aperture unit 14 driven by drivers 18a and 18b, respectively. The optical image of the scene that has passed through these members is irradiated onto the imaging surface of the image sensor 16 and subjected to photoelectric conversion. As a result, a charge representing the scene is generated.

電源が投入されると、CPU26は、露光制御タスクおよび顔検出タスクをブラケット撮像タスクの下で起動する。CPU26は次に、動画取り込み処理を実行するべく、露光制御タスクの下で露光動作および電荷読み出し動作の繰り返しをドライバ18cに命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。   When the power is turned on, the CPU 26 activates the exposure control task and the face detection task under the bracket imaging task. Next, the CPU 26 instructs the driver 18c to repeat the exposure operation and the charge reading operation under the exposure control task in order to execute the moving image capturing process. In response to a vertical synchronization signal Vsync periodically generated from an SG (Signal Generator) (not shown), the driver 18c exposes the imaging surface and reads out the charges generated on the imaging surface in a raster scanning manner.

ここで、露光動作は特に露光パルス発生回路18p1によって実行され、電荷読み出し動作は電荷読み出しパルス発生回路18p2によって実行される。イメージセンサ16からは、読み出された電荷に基づく生画像データが周期的に出力される。CPU26はまた、ブラケット撮像タスクの下で、初期設定位置であるパンフォーカス位置にフォーカスレンズ12を配置する。   Here, the exposure operation is particularly performed by the exposure pulse generation circuit 18p1, and the charge readout operation is performed by the charge readout pulse generation circuit 18p2. From the image sensor 16, raw image data based on the read charges is periodically output. The CPU 26 also arranges the focus lens 12 at the pan focus position, which is the initial setting position, under the bracket imaging task.

前処理回路20は、イメージセンサ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32a(図3参照)に書き込まれる。   The preprocessing circuit 20 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data output from the image sensor 16. The raw image data subjected to these processes is written into the raw image area 32a (see FIG. 3) of the SDRAM 32 through the memory control circuit 30.

後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。この結果、YUV画像データが作成され、作成されたYUV画像データは、メモリ制御回路30を通してSDRAM32のYUV画像エリア32b(図3参照)に書き込まれる。   The post-processing circuit 34 reads the raw image data stored in the raw image area 32a through the memory control circuit 30, and performs color separation processing, white balance adjustment processing, and YUV conversion processing on the read raw image data. As a result, YUV image data is created, and the created YUV image data is written into the YUV image area 32b (see FIG. 3) of the SDRAM 32 through the memory control circuit 30.

後処理回路34はさらに、YUV形式に従う画像データに対して表示用のズーム処理と探索用のズーム処理とを並列的に実行する。この結果、YUV形式に従う表示画像データおよび探索画像データが個別に作成される。表示画像データは、メモリ制御回路30によってSDRAM32の表示画像エリア32c(図3参照)に書き込まれる。探索画像データは、メモリ制御回路30によってSDRAM32の探索画像エリア32d(図3参照)に書き込まれる。   The post-processing circuit 34 further performs display zoom processing and search zoom processing in parallel on the image data in the YUV format. As a result, display image data and search image data conforming to the YUV format are individually created. The display image data is written into the display image area 32c (see FIG. 3) of the SDRAM 32 by the memory control circuit 30. The search image data is written into the search image area 32d (see FIG. 3) of the SDRAM 32 by the memory control circuit 30.

LCDドライバ36は、表示画像エリア32cに格納された表示画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、シーンを表すリアルタイム動画像(スルー画像)がLCDモニタ38に表示される。   The LCD driver 36 repeatedly reads the display image data stored in the display image area 32c through the memory control circuit 30, and drives the LCD monitor 38 based on the read image data. As a result, a real-time moving image (through image) representing the scene is displayed on the LCD monitor 38.

図4を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、図2に示す前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。   Referring to FIG. 4, an evaluation area EVA is assigned to the center of the imaging surface. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. In addition to the above-described processing, the preprocessing circuit 20 shown in FIG. 2 executes simple RGB conversion processing that simply converts raw image data into RGB data.

AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。   The AE evaluation circuit 22 integrates RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AE evaluation values, are output from the AE evaluation circuit 22 in response to the vertical synchronization signal Vsync.

AF評価回路24は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。   The AF evaluation circuit 24 integrates the high-frequency components of the RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AF evaluation values, are output from the AF evaluation circuit 24 in response to the vertical synchronization signal Vsync.

図12を参照して、シャッタボタン28shが非操作状態のとき、CPU26は、AE評価回路22からの出力に基づく簡易AE処理をブラケット撮像タスクの下で実行し、適正なEV値を算出する。   Referring to FIG. 12, when shutter button 28sh is in a non-operating state, CPU 26 executes a simple AE process based on the output from AE evaluation circuit 22 under the bracket imaging task, and calculates an appropriate EV value.

CPU26は、簡易AE処理によって算出されたEV値を定義する基準露光時間および絞り量を、露光制御タスクの下で算出する。算出された絞り量はドライバ18bに設定され、絞りユニット14が調整される。また、算出された基準露光時間は、図5に示す露光時間レジスタRGSTetに登録される。登録された露光時間はドライバ18cに設定され、設定された露光時間の露光が垂直同期信号Vsyncの発生毎に実行される。   The CPU 26 calculates the reference exposure time and the aperture amount that define the EV value calculated by the simple AE process under the exposure control task. The calculated aperture amount is set in the driver 18b, and the aperture unit 14 is adjusted. The calculated reference exposure time is registered in the exposure time register RGSTet shown in FIG. The registered exposure time is set in the driver 18c, and exposure for the set exposure time is executed every time the vertical synchronization signal Vsync is generated.

露光開始から基準露光時間が経過すると、CPU26は、生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して、画像読み出し完了通知NT0を発行する。読み出された生画像データは上述の通り前処理回路20の処理を経てSDRAM32の生画像エリア32aに書き込まれる。この結果、スルー画像の明るさが適度に調整される。   When the reference exposure time has elapsed from the start of exposure, the CPU 26 instructs the driver 18c to read the raw image data, and issues an image reading completion notification NT0 in response to the completion of the reading. The read raw image data is written in the raw image area 32a of the SDRAM 32 through the processing of the preprocessing circuit 20 as described above. As a result, the brightness of the through image is appropriately adjusted.

CPU26は次に、探索画像エリア32dに格納された探索画像データから人物の顔画像を探索するべく、画像読み出し完了通知の発行毎に顔検出タスクの下で顔検出処理を実行する。このような顔検出タスクのために、図6に示す複数の顔検出枠FD,FD,FD,…、図7に示す顔辞書DCf、図8に示す顔検出ワークレジスタRGSTwk、および図9に示すAF対象レジスタRGSTafが準備される。顔辞書DCfには5つの辞書画像(=向きが互いに異なる顔画像)が収められる。なお、顔辞書DCfはフラッシュメモリ44に保存される。   Next, the CPU 26 executes face detection processing under the face detection task every time an image read completion notification is issued in order to search for a human face image from the search image data stored in the search image area 32d. For such a face detection task, a plurality of face detection frames FD, FD, FD,... Shown in FIG. 6, a face dictionary DCf shown in FIG. 7, a face detection work register RGSTwk shown in FIG. An AF target register RGSTaf is prepared. The face dictionary DCf contains five dictionary images (= face images with different directions). The face dictionary DCf is stored in the flash memory 44.

顔検出処理ではまず、評価エリアEVAの全域が探索エリアとして設定される。また、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxが“200”に設定され、最小サイズSZminが“20”に設定される。   In the face detection process, first, the entire evaluation area EVA is set as a search area. In order to define a variable range of the size of the face detection frame FD, the maximum size SZmax is set to “200”, and the minimum size SZmin is set to “20”.

顔検出枠FDは、探索エリアの開始位置(左上位置)から終了位置(右下位置)に向かって、ラスタ走査態様で既定量ずつ移動される(図10参照)。また、顔検出枠FDのサイズは、顔検出枠FDが終了位置に到達する毎に“SZmax”から“SZmin”まで“5”ずつ縮小される。   The face detection frame FD is moved by a predetermined amount in a raster scanning manner from the start position (upper left position) to the end position (lower right position) of the search area (see FIG. 10). The size of the face detection frame FD is reduced by “5” from “SZmax” to “SZmin” every time the face detection frame FD reaches the end position.

CPU26は、顔検出枠FDに属する画像データをメモリ制御回路30を通して探索画像エリア32dから読み出し、読み出された画像データの特徴量を算出する。算出された特徴量は、標準顔辞書DCfの各々の特徴量と照合される。照合度が基準値THを上回ると、顔画像が検出されたものとみなされ、現時点の顔検出枠FDの位置およびサイズが、顔情報として顔検出ワークレジスタRGSTwkに格納される。   The CPU 26 reads the image data belonging to the face detection frame FD from the search image area 32d through the memory control circuit 30, and calculates the feature amount of the read image data. The calculated feature amount is collated with each feature amount of the standard face dictionary DCf. When the matching level exceeds the reference value TH, it is considered that a face image has been detected, and the current position and size of the face detection frame FD are stored in the face detection work register RGSTwk as face information.

顔検出処理の完了後に顔検出ワークレジスタRGSTwkに顔情報が格納されていたとき、CPU26は、顔検出ワークレジスタRGSTwkに格納された顔情報の中からAF処理の対象とすべき顔情報を、顔検出タスクの下で決定する。顔検出ワークレジスタRGSTwkに1つの顔情報が格納されている場合、CPU26は、格納された顔情報をAF対象顔情報とする。顔検出ワークレジスタRGSTwkに複数の顔情報が格納されている場合、CPU26は、位置が撮像面中央に最も近い顔情報をAF対象顔情報とする。AF対象顔情報とされた顔情報の位置およびサイズは、AF対象レジスタRGSTafに格納される。   When face information is stored in the face detection work register RGSTwk after completion of the face detection process, the CPU 26 converts the face information to be subjected to AF processing from the face information stored in the face detection work register RGSTwk. Decide under the discovery task. When one piece of face information is stored in the face detection work register RGSTwk, the CPU 26 sets the stored face information as AF target face information. When a plurality of pieces of face information are stored in the face detection work register RGSTwk, the CPU 26 sets face information whose position is closest to the center of the imaging surface as AF target face information. The position and size of the face information set as AF target face information is stored in the AF target register RGSTaf.

また、CPU26は、人物の顔を発見したことを表明するべくフラグFLG_fを“1”に設定する。   Further, the CPU 26 sets a flag FLG_f to “1” in order to announce that a person's face has been found.

なお、顔検出処理の完了後に顔検出ワークレジスタRGSTwkに顔情報の登録がなかった場合、すなわち人物の顔が発見されなかった場合は、CPU26は、人物の顔が未発見であることを表明するべくフラグFLG_fを“0”に設定する。   When face information is not registered in the face detection work register RGSTwk after completion of the face detection process, that is, when a person's face is not found, the CPU 26 indicates that a person's face has not been found. Accordingly, the flag FLG_f is set to “0”.

図12を参照して、シャッタボタン28shが半押しされると、フラグFLG_fが“1”を示すとき、ブラケット撮像タスクの下でCPU26は、AF対象顔情報が示す領域に注目した厳格AF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、AF対象レジスタRGSTafに格納された位置およびサイズに対応するAF評価値を抽出する。CPU26は、抽出された一部のAF評価値に基づくAF処理を実行する。この結果、AF対象顔情報が示す領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像におけるAF対象の顔の鮮鋭度が向上する。   Referring to FIG. 12, when the shutter button 28sh is half-pressed, when the flag FLG_f indicates “1”, under the bracket imaging task, the CPU 26 performs strict AF processing focusing on the area indicated by the AF target face information. Run. The CPU 26 extracts an AF evaluation value corresponding to the position and size stored in the AF target register RGSTaf from the 256 AF evaluation values output from the AF evaluation circuit 24. The CPU 26 executes AF processing based on a part of the extracted AF evaluation values. As a result, the focus lens 12 is disposed at a focal point focusing on the area indicated by the AF target face information, and the sharpness of the AF target face in the through image is improved.

またフラグFLG_fが“1”を示すとき、ブラケット撮像タスクの下でCPU26は、AF対象レジスタRGSTafの内容を参照して、顔枠FFの表示をグラフィックジェネレータ46に要求する。グラフィックジェネレータ46は、顔枠FFを表すグラフィック情報をLCDドライバ38に向けて出力する。顔枠FFは、AF対象レジスタRGSTafに格納された位置およびサイズに適合する態様でLCDモニタ38に表示される。   When the flag FLG_f indicates “1”, under the bracket imaging task, the CPU 26 refers to the contents of the AF target register RGSTaf and requests the graphic generator 46 to display the face frame FF. The graphic generator 46 outputs graphic information representing the face frame FF to the LCD driver 38. The face frame FF is displayed on the LCD monitor 38 in a manner that matches the position and size stored in the AF target register RGSTaf.

したがって、人物HM1の顔が撮像面に捉えられたとき、顔枠FFは、人物HM1の顔画像を囲うように、図11に示す要領でLCDモニタ38に表示される。   Therefore, when the face of the person HM1 is captured on the imaging surface, the face frame FF is displayed on the LCD monitor 38 as shown in FIG. 11 so as to surround the face image of the person HM1.

CPU26はまた、ブラケット撮像タスクの下で、AE評価回路22から出力された256個のAE評価値に基づいて厳格AE処理を実行し、適正なEV値を算出する。   The CPU 26 also executes a strict AE process based on the 256 AE evaluation values output from the AE evaluation circuit 22 under the bracket imaging task, and calculates an appropriate EV value.

CPU26は、厳格AE処理によって算出されたEV値を定義する基準露光時間および絞り量を、露光制御タスクの下で算出する。算出された絞り量はドライバ18bに設定され、絞りユニット14が調整される。また、算出された基準露光時間は、露光時間レジスタRGSTetに登録される。登録された露光時間はドライバ18cに設定され、設定された露光時間の露光が垂直同期信号Vsyncの発生毎に実行される。   The CPU 26 calculates the reference exposure time and the aperture amount that define the EV value calculated by the strict AE process under the exposure control task. The calculated aperture amount is set in the driver 18b, and the aperture unit 14 is adjusted. The calculated reference exposure time is registered in the exposure time register RGSTet. The registered exposure time is set in the driver 18c, and exposure for the set exposure time is executed every time the vertical synchronization signal Vsync is generated.

露光開始から基準露光時間が経過すると、CPU26は生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して、画像読み出し完了通知NT0を発行する。読み出された生画像データは上述の通り前処理回路20の処理を経てSDRAM32の生画像エリア32aに書き込まれる。この結果、スルー画像の明るさが厳格に調整される。   When the reference exposure time has elapsed from the start of exposure, the CPU 26 instructs the driver 18c to read the raw image data, and issues an image reading completion notification NT0 in response to the completion of reading. The read raw image data is written in the raw image area 32a of the SDRAM 32 through the processing of the preprocessing circuit 20 as described above. As a result, the brightness of the through image is adjusted strictly.

図13を参照して、シャッタボタン28shが全押しされると、CPU26は露光制御タスクの下で、露光時間を制御して、垂直同期信号Vsyncの発生毎に複数回の露光を実行する。以下、垂直同期信号Vsyncの発生毎に3回の露光を実行する場合を例に挙げて、露光処理を詳述する。   Referring to FIG. 13, when shutter button 28sh is fully pressed, CPU 26 controls the exposure time under the exposure control task, and executes exposure a plurality of times each time vertical synchronization signal Vsync is generated. Hereinafter, the exposure process will be described in detail by taking as an example a case where three exposures are executed every time the vertical synchronization signal Vsync is generated.

垂直同期信号Vsyncが発生すると、CPU26は、露光時間レジスタRGSTetに登録された基準露光時間から既定値αを差し引いた露光時間をドライバ18cに設定し、設定された露光時間の露光をドライバ18cに命令する。露光開始から設定露光時間が経過すると、CPU26は、露光制御タスクの下で、生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して画像読み出し完了通知NT1を発行する。   When the vertical synchronization signal Vsync is generated, the CPU 26 sets the exposure time obtained by subtracting the predetermined value α from the reference exposure time registered in the exposure time register RGSTet to the driver 18c, and instructs the driver 18c to perform exposure for the set exposure time. To do. When the set exposure time has elapsed from the start of exposure, the CPU 26 instructs the driver 18c to read the raw image data under the exposure control task, and issues an image reading completion notification NT1 in response to the completion of the reading.

画像読み出し完了通知NT1が発行されると、CPU26は、露光時間レジスタRGSTetに登録された基準露光時間をドライバ18cに設定し、設定された露光時間の露光をドライバ18cに命令する。露光開始から設定露光時間が経過すると、CPU26は、生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して画像読み出し完了通知NT2を発行する。   When the image read completion notification NT1 is issued, the CPU 26 sets the reference exposure time registered in the exposure time register RGSTet in the driver 18c, and instructs the driver 18c to perform exposure for the set exposure time. When the set exposure time has elapsed from the start of exposure, the CPU 26 instructs the driver 18c to read the raw image data, and issues an image read completion notification NT2 in response to the completion of the read.

画像読み出し完了通知NT2が発行されると、CPU26は、露光時間レジスタRGSTetに登録された基準露光時間に既定値Bを加えた露光時間をドライバ18cに設定し、設定された露光時間の露光をドライバ18cに命令する。露光開始から設定露光時間が経過すると、CPU26は、生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して画像読み出し完了通知NT3を発行する。   When the image reading completion notification NT2 is issued, the CPU 26 sets an exposure time obtained by adding a predetermined value B to the reference exposure time registered in the exposure time register RGSTet in the driver 18c, and performs exposure for the set exposure time to the driver. Command 18c. When the set exposure time has elapsed from the start of exposure, the CPU 26 instructs the driver 18c to read the raw image data, and issues an image read completion notification NT3 in response to the completion of the read.

この結果、垂直同期信号Vsyncが発生する毎に、基準露光時間よりも短い露光時間,基準露光時間,および基準露光時間よりも長い露光時間にそれぞれ基づいた3回の露光が実行される。   As a result, every time the vertical synchronization signal Vsync is generated, three exposures based on the exposure time shorter than the reference exposure time, the reference exposure time, and the exposure time longer than the reference exposure time are executed.

また、シャッタボタン28shが全押しされると、CPU26はブラケット撮像タスクの下で、キー入力装置28に設けられたモード変更ボタン28mdの状態に基づいて、動画撮影処理またはパノラマ撮影処理を実行する。   When the shutter button 28sh is fully pressed, the CPU 26 executes a moving image shooting process or a panoramic shooting process based on the state of the mode change button 28md provided on the key input device 28 under the bracket imaging task.

動画撮影処理においては、オープン状態の動画ファイルFM1,FM2,およびFM3が記録媒体42に新規に作成される。   In the moving image shooting process, open moving image files FM1, FM2, and FM3 are newly created on the recording medium.

画像読み出し完了通知NT1が発行されたとき、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データを、フレーム画像としてオープン状態の動画像ファイルFM1に記録する。   When the image read completion notification NT1 is issued, the CPU 26 records the YUV image data written in the YUV image area 32b as a frame image in the open moving image file FM1.

画像読み出し完了通知NT2が発行されたとき、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データを、フレーム画像としてオープン状態の動画像ファイルFM2に記録する。   When the image reading completion notification NT2 is issued, the CPU 26 records the YUV image data written in the YUV image area 32b as a frame image in the open moving image file FM2.

画像読み出し完了通知NT3が発行されたとき、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データを、フレーム画像としてオープン状態の動画像ファイルFM3に記録する。   When the image reading completion notification NT3 is issued, the CPU 26 records the YUV image data written in the YUV image area 32b as a frame image in the open moving image file FM3.

また、フラグFLG_fが“1”を示すとき、CPU26は、AF対象顔情報が示す領域に注目した上述の厳格AF処理を実行する。この結果、AF対象顔情報が示す領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像におけるAF対象の顔の鮮鋭度が向上する。また、3つの露光時間にそれぞれ対応した3回の顔検出処理のうちいずれか1回または2回の顔検出処理のみによって顔画像が検出された場合であっても、フォーカスレンズ12の配置は維持されるので、AF対象の顔の鮮鋭度は低下しない。   Further, when the flag FLG_f indicates “1”, the CPU 26 executes the above-described strict AF processing focusing on the area indicated by the AF target face information. As a result, the focus lens 12 is disposed at a focal point focusing on the area indicated by the AF target face information, and the sharpness of the AF target face in the through image is improved. Further, even when the face image is detected by only one or two of the three face detection processes corresponding to the three exposure times, the arrangement of the focus lens 12 is maintained. Therefore, the sharpness of the AF target face does not decrease.

図14を参照して、シャッタボタン28shの全押し状態が解除されるまでこのような処理が繰り返されることによって、図16に示すように、互いに明るさが異なる3つの動画ファイルが並行して作成される。   Referring to FIG. 14, by repeating such processing until the shutter button 28sh is fully pressed, three moving image files having different brightness are created in parallel as shown in FIG. Is done.

シャッタボタン28shの全押し状態が解除されると、CPU26は、I/F40を通して記録媒体42にアクセスし、オープン状態の動画ファイルFM1,FM2,およびFM3の各々をクローズして記録処理を終了する。   When the fully pressed state of the shutter button 28 sh is released, the CPU 26 accesses the recording medium 42 through the I / F 40, closes each of the open moving image files FM 1, FM 2, and FM 3 and ends the recording process.

パノラマ撮影処理においては、オープン状態のパノラマ画像ファイルFP1,FP2,およびFP3が記録媒体42に新規に作成される。   In the panorama shooting process, open panorama image files FP1, FP2, and FP3 are newly created on the recording medium 42.

画像読み出し完了通知NT1が発行されたとき、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データを用いてパノラマ画像ファイルFP1のパノラマ合成画像データに合成処理を施し、新たなパノラマ画像を作成する。パノラマ画像ファイルFP1は、新たに作成されたパノラマ画像を含むパノラマ合成画像データによって更新される。   When the image read completion notification NT1 is issued, the CPU 26 performs composition processing on the panorama composite image data of the panorama image file FP1 using the YUV image data written in the YUV image area 32b, and creates a new panorama image. . The panorama image file FP1 is updated with panorama composite image data including a newly created panorama image.

画像読み出し完了通知NT2が発行されたとき、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データを用いてパノラマ画像ファイルFP2のパノラマ合成画像データに合成処理を施し、新たなパノラマ画像を作成する。パノラマ画像ファイルFP2は、新たに作成されたパノラマ画像を含むパノラマ合成画像データによって更新される。   When the image read completion notification NT2 is issued, the CPU 26 performs composition processing on the panorama composite image data of the panorama image file FP2 using the YUV image data written in the YUV image area 32b, and creates a new panorama image. . The panorama image file FP2 is updated with panorama composite image data including a newly created panorama image.

画像読み出し完了通知NT3が発行されたとき、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データを用いてパノラマ画像ファイルFP3のパノラマ合成画像データに合成処理を施し、新たなパノラマ画像を作成する。パノラマ画像ファイルFP3は、新たに作成されたパノラマ画像を含むパノラマ合成画像データによって更新される。   When the image read completion notification NT3 is issued, the CPU 26 performs composition processing on the panorama composite image data of the panorama image file FP3 using the YUV image data written in the YUV image area 32b, and creates a new panorama image. . The panorama image file FP3 is updated with panorama composite image data including a newly created panorama image.

図15を参照して、シャッタボタン28shの全押し状態が解除されるまでこのような処理が繰り返されることによって、図17に示すように、互いに明るさが異なる3つのパノラマ画像ファイルが並行して作成される。   Referring to FIG. 15, such a process is repeated until the shutter button 28sh is fully pressed, so that three panoramic image files having different brightness are displayed in parallel as shown in FIG. Created.

シャッタボタン28shの全押し状態が解除されるか、またはパノラマ画像ファイルFP1に格納されたパノラマ合成画像データに基づいて、ディジタルカメラ10のパン方向の回転が360度に達したと判定されると、CPU26は、I/F40を通して記録媒体42にアクセスし、オープン状態のパノラマ画像ファイルFP1,FP2,およびFP3の各々をクローズして記録処理を終了する。   When it is determined that the shutter button 28sh is fully pressed or the panning rotation of the digital camera 10 reaches 360 degrees based on the panorama composite image data stored in the panorama image file FP1. The CPU 26 accesses the recording medium 42 through the I / F 40, closes each of the open panorama image files FP1, FP2, and FP3, and ends the recording process.

パノラマ画像ファイルFP1〜FP3の各々がクローズされると、CPU26は、パノラマ画像ファイルFP1〜FP3にそれぞれ格納された3つのパノラマ画像データの各々に対して、平均明度を算出する処理を実行する。算出結果に基づいて、CPU26は、最も適正な露光量で撮影されたパノラマ画像データを含むパノラマ画像ファイルを選択し、他のパノラマ画像ファイルを削除する。この結果、最も適正な明るさのパノラマ画像ファイルが、記録媒体42に残される。   When each of the panorama image files FP1 to FP3 is closed, the CPU 26 executes a process of calculating an average brightness for each of the three panorama image data stored in the panorama image files FP1 to FP3. Based on the calculation result, the CPU 26 selects a panoramic image file including panoramic image data photographed with the most appropriate exposure amount, and deletes other panoramic image files. As a result, the panorama image file having the most appropriate brightness is left on the recording medium 42.

CPU26は、図18〜19に示すブラケット撮像タスク,図20〜21に示す露光制御タスク,および図22に示す顔検出タスクを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。   The CPU 26 executes in parallel a plurality of tasks including a bracket imaging task shown in FIGS. 18 to 19, an exposure control task shown in FIGS. 20 to 21, and a face detection task shown in FIG. Note that control programs corresponding to these tasks are stored in the flash memory 44.

図18を参照して、ステップS1では露光制御タスクを起動し、ステップS3では顔検出タスクを起動する。ステップS5では動画取り込み処理を開始する。この結果、シーンを表すスルー画像がLCDモニタ38に表示される。   Referring to FIG. 18, an exposure control task is activated in step S1, and a face detection task is activated in step S3. In step S5, the moving image capturing process is started. As a result, a through image representing a scene is displayed on the LCD monitor 38.

ステップS7ではフラグFLG_bに“0”を初期設定し、ステップS9では初期設定位置であるパンフォーカス位置にフォーカスレンズ12を配置する。ステップS11ではシャッタボタン28shが半押しされたか否かを判別し、判別結果がNOの間はステップS13で簡易AE処理を繰り返し実行する。   In step S7, the flag FLG_b is initially set to “0”, and in step S9, the focus lens 12 is disposed at the pan focus position which is the initial setting position. In step S11, it is determined whether or not the shutter button 28sh has been half-pressed. If the determination result is NO, the simple AE process is repeatedly executed in step S13.

判別結果がNOからYESに更新されると、フラグFLG_fが“1”を示すか否かをステップS15で判別する。ステップS15の判別結果がNOであればステップS21の処理を経てステップS23に進む一方、判別結果がYESであればステップS17およびS19の処理を経てステップS23に進む。   When the determination result is updated from NO to YES, it is determined in step S15 whether or not the flag FLG_f indicates “1”. If the determination result of step S15 is NO, the process proceeds to step S23 through the process of step S21, while if the determination result is YES, the process proceeds to step S23 through the processes of steps S17 and S19.

ステップS17では、AF対象顔情報が示す領域に注目した厳格AF処理を実行する。この結果、AF対象顔情報が示す領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像におけるAF対象の顔の鮮鋭度が向上する。ステップS19では、顔枠FFの表示をグラフィックジェネレータ46に要求する。この結果、顔枠FFは、AF対象レジスタRGSTafに格納された位置およびサイズに適合する態様でLCDモニタ38に表示される。   In step S17, a strict AF process focusing on the area indicated by the AF target face information is executed. As a result, the focus lens 12 is disposed at a focal point focusing on the area indicated by the AF target face information, and the sharpness of the AF target face in the through image is improved. In step S19, the graphic generator 46 is requested to display the face frame FF. As a result, the face frame FF is displayed on the LCD monitor 38 in a manner that matches the position and size stored in the AF target register RGSTaf.

ステップS21では、画像中央に注目した厳格AF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、画面中央に対応するAF評価値を抽出する。CPU26は、抽出された一部のAF評価値に基づくAF処理を実行する。この結果、スルー画像または記録画像における画像中央の鮮鋭度が向上する。   In step S21, a strict AF process focusing on the center of the image is executed. The CPU 26 extracts an AF evaluation value corresponding to the center of the screen from the 256 AF evaluation values output from the AF evaluation circuit 24. The CPU 26 executes AF processing based on a part of the extracted AF evaluation values. As a result, the sharpness of the center of the image in the through image or the recorded image is improved.

ステップS23では厳格AE処理を実行する。この結果、スルー画像の明るさが厳格に調整される。   In step S23, a strict AE process is executed. As a result, the brightness of the through image is adjusted strictly.

ステップS25ではシャッタボタン28shが全押しされたか否かを判別し、判別結果がNOであればシャッタボタン28shの半押し状態が解除されたか否かをステップS27で判別する。ステップS27の判別結果がNOであればステップS25に戻る一方、ステップS27の判別結果がYESであればステップS37に進む。   In step S25, it is determined whether or not the shutter button 28sh is fully pressed. If the determination result is NO, it is determined in step S27 whether or not the half-pressed state of the shutter button 28sh is released. If the determination result in step S27 is NO, the process returns to step S25, while if the determination result in step S27 is YES, the process proceeds to step S37.

ステップS25の判別結果がYESであれば、ステップS29でフラグFLG_bに“1”を設定する。ステップS31では、キー入力装置28に設けられたモード変更ボタン28mdの状態が動画撮影モードを示すか否かを判別する。判別結果がYESであればステップS33で動画撮影処理を実行し、その後ステップS37に進む。判別結果がNOであればステップS35でパノラマ撮影処理を実行し、その後ステップS37に進む。   If the decision result in the step S25 is YES, a flag FLG_b is set to “1” in a step S29. In step S31, it is determined whether or not the state of the mode change button 28md provided on the key input device 28 indicates the moving image shooting mode. If the determination result is YES, a moving image shooting process is executed in step S33, and then the process proceeds to step S37. If the determination result is NO, a panorama shooting process is executed in step S35, and then the process proceeds to step S37.

ステップS37では顔枠FFを非表示とし、その後にステップS7に戻る。   In step S37, the face frame FF is not displayed, and then the process returns to step S7.

図20を参照して、ステップS41ではEV基準値にデフォルト値を設定し、設定されたEV基準値に基づいて基準露光時間をステップS43で算出する。算出された基準露光時間は、露光時間レジスタRGSTetに登録される。また、設定されたEV基準値に基づいて絞り量をステップS45で算出し、算出された絞り量をステップS47でドライバ18bに設定する。この結果、算出された絞り量に基づいて絞りユニット14が調整される。   Referring to FIG. 20, in step S41, a default value is set as the EV reference value, and a reference exposure time is calculated in step S43 based on the set EV reference value. The calculated reference exposure time is registered in the exposure time register RGSTet. Further, the aperture amount is calculated in step S45 based on the set EV reference value, and the calculated aperture amount is set in the driver 18b in step S47. As a result, the aperture unit 14 is adjusted based on the calculated aperture amount.

ステップS49では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がYESであればステップS61に進む一方、判別結果がNOであればステップS51に進む。ステップS51では、簡易AE処理または厳格AE処理が実行されたか否かを判別し、判別結果がNOであればステップS49に戻る一方、判別結果がYESであればステップS53に進む。   In step S49, it is determined whether or not the vertical synchronization signal Vsync is generated. If the determination result is YES, the process proceeds to step S61, and if the determination result is NO, the process proceeds to step S51. In step S51, it is determined whether or not the simple AE process or the strict AE process is executed. If the determination result is NO, the process returns to step S49, whereas if the determination result is YES, the process proceeds to step S53.

ステップS53では、簡易AE処理または厳格AE処理によって算出された値にEV基準値を設定する。設定されたEV基準値に基づいて基準露光時間をステップS55で算出する。算出された基準露光時間は、露光時間レジスタRGSTetに登録される。また、設定されたEV基準値に基づいて絞り量をステップS57で算出し、算出された絞り量をステップS59でドライバ18bに設定する。この結果、算出された絞り量に基づいて絞りユニット14が調整される。   In step S53, the EV reference value is set to a value calculated by the simple AE process or the strict AE process. A reference exposure time is calculated in step S55 based on the set EV reference value. The calculated reference exposure time is registered in the exposure time register RGSTet. Further, the aperture amount is calculated in step S57 based on the set EV reference value, and the calculated aperture amount is set in the driver 18b in step S59. As a result, the aperture unit 14 is adjusted based on the calculated aperture amount.

ステップS61ではフラグFLG_bに“1”が設定されているか否かを判別し、判別結果がYESであればステップS71に進む一方、判別結果がNOであればステップS63に進む。   In step S61, it is determined whether or not “1” is set in the flag FLG_b. If the determination result is YES, the process proceeds to step S71, and if the determination result is NO, the process proceeds to step S63.

ステップS63では露光時間レジスタRGSTetに登録された基準露光時間を露光時間としてドライバ18cに設定し、設定された露光時間に基づく露光をステップS65でドライバ18cに命令する。ステップS67では生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して、画像読み出し完了通知NT0をステップS69で発行する。ステップS69の処理の完了後、ステップS49に戻る。   In step S63, the reference exposure time registered in the exposure time register RGSTet is set in the driver 18c as the exposure time, and an exposure based on the set exposure time is commanded to the driver 18c in step S65. In step S67, the driver 18c is instructed to read the raw image data, and in response to the completion of reading, an image reading completion notification NT0 is issued in step S69. After the process of step S69 is completed, the process returns to step S49.

ステップS71では露光時間レジスタRGSTetに登録された基準露光時間から既定値αを差し引いた露光時間をドライバ18cに設定し、設定された露光時間に基づく露光をステップS73でドライバ18cに命令する。ステップS75では生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して、画像読み出し完了通知NT1をステップS77で発行する。   In step S71, an exposure time obtained by subtracting a predetermined value α from the reference exposure time registered in the exposure time register RGSTet is set in the driver 18c, and an exposure based on the set exposure time is commanded to the driver 18c in step S73. In step S75, the driver 18c is instructed to read the raw image data, and in response to the completion of reading, an image reading completion notification NT1 is issued in step S77.

ステップS79では露光時間レジスタRGSTetに登録された基準露光時間を露光時間としてドライバ18cに設定し、設定された露光時間に基づく露光をステップS81でドライバ18cに命令する。ステップS83では生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して、画像読み出し完了通知NT2をステップS85で発行する。   In step S79, the reference exposure time registered in the exposure time register RGSTet is set in the driver 18c as the exposure time, and an exposure based on the set exposure time is commanded to the driver 18c in step S81. In step S83, the driver 18c is instructed to read the raw image data, and in response to the completion of reading, an image reading completion notification NT2 is issued in step S85.

ステップS87では露光時間レジスタRGSTetに登録された基準露光時間に既定値βを加えた露光時間をドライバ18cに設定し、設定された露光時間に基づく露光をステップS89でドライバ18cに命令する。ステップS91では生画像データの読み出しをドライバ18cに命令し、読み出しの完了に応答して、画像読み出し完了通知NT3をステップS93で発行する。ステップS93の処理の完了後、ステップS49に戻る。   In step S87, an exposure time obtained by adding a predetermined value β to the reference exposure time registered in the exposure time register RGSTet is set in the driver 18c, and an exposure based on the set exposure time is commanded to the driver 18c in step S89. In step S91, the driver 18c is instructed to read the raw image data, and in response to the completion of reading, an image reading completion notification NT3 is issued in step S93. After the process of step S93 is completed, the process returns to step S49.

図22を参照して、ステップS101ではフラグFLG_fに“0”を設定し、ステップS103ではAF対象レジスタRGSTafの格納内容を初期化するべくクリアする。ステップS105では、画像読み出し完了通知NT0〜NT3のいずれかが発行されたか否かを繰り返し判別し、判別結果がNOからYESに更新されると、ステップS107に進む。   Referring to FIG. 22, in step S101, flag FLG_f is set to “0”, and in step S103, the contents stored in AF target register RGSTaf are cleared to be initialized. In step S105, it is repeatedly determined whether any of image reading completion notifications NT0 to NT3 has been issued. If the determination result is updated from NO to YES, the process proceeds to step S107.

ステップS107では、探索画像データから人物の顔画像を探索するべく、顔検出処理を実行する。ステップS109では、ステップS107の処理によって顔検出ワークレジスタRGSTwkに顔情報が格納されたか否かを判別し、判別結果がYESであればステップS113に進む一方、判別結果がNOであればステップS111に進む。ステップS111ではフラグFLG_fに“0”を設定し、その後にステップS105に戻る。   In step S107, face detection processing is executed to search for a human face image from the search image data. In step S109, it is determined whether or not face information is stored in the face detection work register RGSTwk by the process in step S107. If the determination result is YES, the process proceeds to step S113. If the determination result is NO, the process proceeds to step S111. move on. In step S111, “0” is set to the flag FLG_f, and then the process returns to step S105.

ステップS113では、顔検出ワークレジスタRGSTwkに複数の顔情報が格納されたか否かを判別し、判別結果がNOであればステップS117に進む一方、判別結果がYESであればステップS115の処理を経てステップS117に進む。   In step S113, it is determined whether or not a plurality of pieces of face information are stored in the face detection work register RGSTwk. If the determination result is NO, the process proceeds to step S117. If the determination result is YES, the process of step S115 is performed. The process proceeds to step S117.

ステップS115では、顔検出ワークレジスタRGSTwkに格納された位置が画像中央に最も近い顔情報をAF対象顔情報と決定し、ステップS117では、AF対象顔情報とされた顔情報の位置およびサイズを、AF対象レジスタRGSTafに格納する。ステップS119ではフラグFLG_fに“1”を設定し、その後にステップS105に戻る。   In step S115, face information whose position stored in the face detection work register RGSTwk is closest to the center of the image is determined as AF target face information. In step S117, the position and size of the face information set as AF target face information are determined. Stored in the AF target register RGSTaf. In step S119, “1” is set in the flag FLG_f, and then the process returns to step S105.

ステップS107の顔検出処理は、図23〜24に示すサブルーチンに従って実行される。   The face detection process in step S107 is executed according to a subroutine shown in FIGS.

図23を参照して、ステップS121では、顔検出ワークレジスタRGSTwkを初期化すべく格納内容をクリアする。   Referring to FIG. 23, in step S121, the stored contents are cleared to initialize face detection work register RGSTwk.

ステップS123では変数Nmaxを顔辞書DCfの登録数に設定し、ステップS125では評価エリアEVAの全域を探索エリアとして設定する。ステップS127では、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxを“200”に設定し、最小サイズSZminを“20”に設定する。   In step S123, the variable Nmax is set to the registration number of the face dictionary DCf, and in step S125, the entire evaluation area EVA is set as a search area. In step S127, the maximum size SZmax is set to “200” and the minimum size SZmin is set to “20” in order to define a variable range of the size of the face detection frame FD.

ステップS129では顔検出枠FDのサイズを“SZmax”に設定し、ステップS131では顔検出枠FDを探索エリアの左上位置に配置する。ステップS133では、顔検出枠FDに属する一部の探索画像データを探索画像エリア32dから読み出し、読み出された探索画像データの特徴量を算出する。   In step S129, the size of the face detection frame FD is set to “SZmax”, and in step S131, the face detection frame FD is arranged at the upper left position of the search area. In step S133, a part of the search image data belonging to the face detection frame FD is read from the search image area 32d, and the feature amount of the read search image data is calculated.

ステップS135では変数Nを“1”に設定し、ステップS137では、ステップS133で算出された特徴量と顔辞書DCfのN番目に収められた辞書画像の特徴量とを照合する。照合の結果、閾値THを超える照合度が得られたか否かをステップS139で判別し、判別結果がNOであればステップS141に進む一方、判別結果がYESであればステップS145に進む。   In step S135, the variable N is set to “1”. In step S137, the feature amount calculated in step S133 is compared with the feature amount of the Nth dictionary image stored in the face dictionary DCf. As a result of the collation, it is determined in step S139 whether or not a collation degree exceeding the threshold TH is obtained. If the determination result is NO, the process proceeds to step S141. If the determination result is YES, the process proceeds to step S145.

ステップS141では変数Nをインクリメントし、ステップS143では変数NがNmaxを超えたか否かを判別する。判別結果がNOであればステップS137に戻る一方、判別結果がYESであればステップS147に進む。   In step S141, the variable N is incremented, and in step S143, it is determined whether or not the variable N exceeds Nmax. If the determination result is NO, the process returns to step S137, while if the determination result is YES, the process proceeds to step S147.

ステップS145では、現時点の顔検出枠FDの位置およびサイズを顔情報として顔検出ワークレジスタRGSTwkに登録する。ステップS147では顔検出枠FDが探索エリアの右下位置に到達したか否かを判別し、判別結果がYESであればステップS151に進む一方、判別結果がNOであれば、ステップS149で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS133に戻る。   In step S145, the current position and size of the face detection frame FD are registered in the face detection work register RGSTwk as face information. In step S147, it is determined whether or not the face detection frame FD has reached the lower right position of the search area. If the determination result is YES, the process proceeds to step S151. If the determination result is NO, the face detection is performed in step S149. The frame FD is moved in the raster direction by a predetermined amount, and then the process returns to step S133.

ステップS151では顔検出枠FDのサイズが“SZmin”以下であるか否かを判別し、判別結果がYESであれば上階層のルーチンに復帰する一方、判別結果がNOであればステップS153に進む。   In step S151, it is determined whether or not the size of the face detection frame FD is equal to or smaller than “SZmin”. If the determination result is YES, the process returns to the upper hierarchy routine. If the determination result is NO, the process proceeds to step S153. .

ステップS153では顔検出枠FDのサイズを“5”だけ縮小させ、ステップS155では顔検出枠FDを探索エリアの左上位置に配置する。ステップS155の処理が完了すると、ステップS133に戻る。   In step S153, the size of the face detection frame FD is reduced by “5”, and in step S155, the face detection frame FD is arranged at the upper left position of the search area. When the process of step S155 is completed, the process returns to step S133.

ステップS33の動画撮影処理は、図25〜27に示すサブルーチンに従って実行される。   The moving image shooting process in step S33 is executed according to a subroutine shown in FIGS.

図25を参照して、I/F40を通して記録媒体42にアクセスし、ステップS161ではオープン状態の動画ファイルFM1を記録媒体42に新規に作成し、ステップS163ではオープン状態の動画ファイルFM2を記録媒体42に新規に作成し、ステップS165ではオープン状態の動画ファイルFM3を記録媒体42に新規に作成する。   Referring to FIG. 25, the recording medium 42 is accessed through the I / F 40. In step S161, an open moving image file FM1 is newly created in the recording medium 42. In step S163, the open moving image file FM2 is created. In step S165, an open moving image file FM3 is newly created on the recording medium 42.

ステップS167ではフラグFLG_fに“1”が設定されているか否かを判別し、判別結果がNOであればステップS173に進む一方、判別結果がYESであればステップS169に進む。   In step S167, it is determined whether or not “1” is set in the flag FLG_f. If the determination result is NO, the process proceeds to step S173, and if the determination result is YES, the process proceeds to step S169.

ステップS169では、AF対象顔情報が示す領域に注目した厳格AF処理を実行する。この結果、AF対象顔情報が示す領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像およぎ記録画像におけるAF対象の顔の鮮鋭度が向上する。ステップS171では、顔枠FFの表示をグラフィックジェネレータ46に要求する。この結果、顔枠FFは、AF対象レジスタRGSTafに格納された位置およびサイズに適合する態様でLCDモニタ38に表示される。   In step S169, a strict AF process focusing on the area indicated by the AF target face information is executed. As a result, the focus lens 12 is disposed at a focal point focusing on the area indicated by the AF target face information, and the sharpness of the AF target face in the through image and the recorded image is improved. In step S171, the graphic generator 46 is requested to display the face frame FF. As a result, the face frame FF is displayed on the LCD monitor 38 in a manner that matches the position and size stored in the AF target register RGSTaf.

ステップS173では画像読み出し完了通知NT1〜NT3のいずれかが発行されたか否かを判別し、判別結果がNOであればステップS185に進む一方、判別結果がYESであればステップS175に進む。   In step S173, it is determined whether any of image reading completion notifications NT1 to NT3 has been issued. If the determination result is NO, the process proceeds to step S185. If the determination result is YES, the process proceeds to step S175.

発行された通知が画像読み出し完了通知NT1であるか否かをステップS175で判別し、判別結果がNOであれば発行された通知が画像読み出し完了通知NT2であるか否かをステップS177で判別する。   In step S175, it is determined whether the issued notification is the image reading completion notification NT1, and if the determination result is NO, it is determined in step S177 whether the issued notification is the image reading completion notification NT2. .

ステップS175の判別結果がYESであれば、YUV画像エリア32bに書き込まれたYUV画像データをフレーム画像として、オープン状態の動画像ファイルFM1にステップS179で記録する。   If the decision result in the step S175 is YES, the YUV image data written in the YUV image area 32b is recorded as a frame image in the open moving image file FM1 in a step S179.

ステップS177の判別結果がYESであれば、YUV画像エリア32bに書き込まれたYUV画像データをフレーム画像として、オープン状態の動画像ファイルFM2にステップS181で記録する。   If the decision result in the step S177 is YES, the YUV image data written in the YUV image area 32b is recorded as a frame image in the open moving image file FM2 in a step S181.

ステップS177の判別結果がNOであれば、YUV画像エリア32bに書き込まれたYUV画像データをフレーム画像として、オープン状態の動画像ファイルFM3にステップS183で記録する。   If the determination result in step S177 is NO, the YUV image data written in the YUV image area 32b is recorded as a frame image in the open moving image file FM3 in step S183.

ステップS179,S181,またはS183の処理が完了すると、ステップS185に進む。   When the process of step S179, S181, or S183 is completed, the process proceeds to step S185.

ステップS185では、シャッタボタン28shの全押し状態が解除されたか否かを判別し、判別結果がNOであればステップS167に戻る一方、判別結果がYESであればステップS187に進む。   In step S185, it is determined whether or not the fully pressed state of the shutter button 28sh is released. If the determination result is NO, the process returns to step S167, and if the determination result is YES, the process proceeds to step S187.

I/F40を通して記録媒体42にアクセスし、ステップS187ではオープン状態の動画ファイルFM1をクローズして記録処理を終了し、ステップS189ではオープン状態の動画ファイルFM2をクローズして記録処理を終了し、ステップS191ではオープン状態の動画ファイルFM3をクローズして記録処理を終了する。ステップS191の処理が完了すると、上階層のルーチンに復帰する。   The recording medium 42 is accessed through the I / F 40. In step S187, the open moving image file FM1 is closed to end the recording process. In step S189, the open moving image file FM2 is closed to end the recording process. In S191, the open moving image file FM3 is closed and the recording process is terminated. When the process of step S191 is completed, the process returns to the upper layer routine.

ステップS35のパノラマ撮影処理は、図28〜30に示すサブルーチンに従って実行される。   The panoramic photographing process in step S35 is executed according to a subroutine shown in FIGS.

図28を参照して、I/F40を通して記録媒体42にアクセスし、ステップS201ではオープン状態のパノラマ合成ファイルFP1を記録媒体42に新規に作成し、ステップS203ではオープン状態のパノラマ合成ファイルFP2を記録媒体42に新規に作成し、ステップS205ではオープン状態のパノラマ合成ファイルFP3を記録媒体42に新規に作成する。   Referring to FIG. 28, the recording medium 42 is accessed through the I / F 40. In step S201, an open panorama composite file FP1 is newly created in the recording medium 42. In step S203, an open panorama composite file FP2 is recorded. A new panorama composite file FP3 is created on the recording medium 42 in step S205.

ステップS207では画像読み出し完了通知NT1〜NT3のいずれかが発行されたか否かを判別し、判別結果がNOであればステップS219に進む一方、判別結果がYESであればステップS209に進む。   In step S207, it is determined whether any of image reading completion notifications NT1 to NT3 has been issued. If the determination result is NO, the process proceeds to step S219. If the determination result is YES, the process proceeds to step S209.

発行された通知が画像読み出し完了通知NT1であるか否かをステップS209で判別し、判別結果がNOであれば発行された通知が画像読み出し完了通知NT2であるか否かをステップS211で判別する。   In step S209, it is determined whether the issued notification is the image reading completion notification NT1, and if the determination result is NO, it is determined in step S211 whether the issued notification is the image reading completion notification NT2. .

ステップS209の判別結果がYESであれば、ステップS213で、YUV画像エリア32bに書き込まれたYUV画像データを用いてパノラマ画像ファイルFP1のパノラマ合成画像データに合成処理を施し、新たなパノラマ画像を作成する。パノラマ画像ファイルFP1は、新たに作成されたパノラマ画像を含むパノラマ合成画像データによって更新される。   If the determination result in step S209 is YES, in step S213, the panorama composite image data of the panorama image file FP1 is composited using the YUV image data written in the YUV image area 32b to create a new panorama image. To do. The panorama image file FP1 is updated with panorama composite image data including a newly created panorama image.

ステップS211の判別結果がYESであれば、ステップS215で、YUV画像エリア32bに書き込まれたYUV画像データを用いてパノラマ画像ファイルFP2のパノラマ合成画像データに合成処理を施し、新たなパノラマ画像を作成する。パノラマ画像ファイルFP2は、新たに作成されたパノラマ画像を含むパノラマ合成画像データによって更新される。   If the determination result in step S211 is YES, in step S215, the panorama composite image data of the panorama image file FP2 is composited using the YUV image data written in the YUV image area 32b to create a new panorama image. To do. The panorama image file FP2 is updated with panorama composite image data including a newly created panorama image.

ステップS211の判別結果がNOであれば、ステップS217で、YUV画像エリア32bに書き込まれたYUV画像データを用いてパノラマ画像ファイルFP3のパノラマ合成画像データに合成処理を施し、新たなパノラマ画像を作成する。パノラマ画像ファイルFP3は、新たに作成されたパノラマ画像を含むパノラマ合成画像データによって更新される。   If the determination result in step S211 is NO, in step S217, the panorama composite image data of the panorama image file FP3 is synthesized using the YUV image data written in the YUV image area 32b to create a new panorama image. To do. The panorama image file FP3 is updated with panorama composite image data including a newly created panorama image.

ステップS213,S215,またはS217の処理が完了すると、ステップS219に進む。   When the process of step S213, S215, or S217 is completed, the process proceeds to step S219.

ステップS219では、シャッタボタン28shの全押し状態が解除されたか否かを判別し、判別結果がNOであればステップS221に進む一方、判別結果がYESであればステップS223に進む。   In step S219, it is determined whether or not the fully pressed state of the shutter button 28sh has been released. If the determination result is NO, the process proceeds to step S221. If the determination result is YES, the process proceeds to step S223.

ステップS221では、パノラマ画像ファイルFP1に格納されたパノラマ合成画像データに基づいて、ディジタルカメラ10のパン方向の回転が360度に達したか否かを判別する。判別結果がNOであればステップS207に戻り、判別結果がYESであればステップS223に進む。   In step S221, based on the panorama composite image data stored in the panorama image file FP1, it is determined whether or not the rotation of the digital camera 10 in the pan direction has reached 360 degrees. If the determination result is NO, the process returns to step S207, and if the determination result is YES, the process proceeds to step S223.

I/F40を通して記録媒体42にアクセスし、ステップS223ではオープン状態のパノラマ合成ファイルFP1をクローズして記録処理を終了し、ステップS225ではオープン状態のパノラマ合成ファイルFP2をクローズして記録処理を終了し、ステップS227ではオープン状態のパノラマ合成ファイルFP3をクローズして記録処理を終了する。   The recording medium 42 is accessed through the I / F 40. In step S223, the open panorama composite file FP1 is closed and the recording process is ended. In step S225, the open panorama composite file FP2 is closed and the recording process is ended. In step S227, the open panorama composite file FP3 is closed and the recording process is terminated.

ステップS229では、パノラマ画像ファイルFP1〜FP3にそれぞれ格納された3つのパノラマ画像データの各々に対して、平均明度を算出する処理を実行する。算出結果に基づいて、最も適正な露光量で撮影されたパノラマ画像データを含むパノラマ画像ファイルが選択される。ステップS231では、ステップS229で選択されたパノラマ画像ファイル以外のパノラマ画像ファイルを削除する。この結果、最も適正な明るさのパノラマ画像ファイルが、記録媒体42に残される。ステップS231の処理が完了すると、上階層のルーチンに復帰する。   In step S229, a process of calculating the average brightness is executed for each of the three panoramic image data stored in the panoramic image files FP1 to FP3. Based on the calculation result, a panorama image file including panorama image data photographed with the most appropriate exposure amount is selected. In step S231, panorama image files other than the panorama image file selected in step S229 are deleted. As a result, the panorama image file having the most appropriate brightness is left on the recording medium 42. When the process of step S231 is completed, the process returns to the upper-level routine.

以上の説明から分かるように、イメージセンサ16は、光学像が照射される撮像面を有する。撮像面は、ドライバ18cに設けられた露光パルス発生回路18p1によって繰り返し露光される。露光によって生成された電荷に基づく生画像データは、ドライバ18cに設けられた電荷読み出しパルス発生回路18p2によって、イメージセンサ16から繰り返し出力される。CPU26は、撮像面の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返し(S49, S71, S79, S87)、イメージセンサ16の出力に基づくYUV形式の画像データを既定順序でK個のグループに分類する処理を繰り返す(S173~S183, S207~S217)。   As can be seen from the above description, the image sensor 16 has an imaging surface on which an optical image is irradiated. The imaging surface is repeatedly exposed by an exposure pulse generation circuit 18p1 provided in the driver 18c. The raw image data based on the charge generated by the exposure is repeatedly output from the image sensor 16 by the charge readout pulse generation circuit 18p2 provided in the driver 18c. The CPU 26 repeats the process of setting the exposure amount on the imaging surface to K values (K: an integer of 2 or more) in a predetermined order (S49, S71, S79, S87), and the YUV format based on the output of the image sensor 16 The process of classifying image data into K groups in a predetermined order is repeated (S173 to S183, S207 to S217).

撮像面の露光量は既定順序でK個の値に設定され、イメージセンサ16の出力に基づく画像データは既定順序でK個のグループに分類される。また、このような露光設定および画像分類は、繰り返し実行される。分類された各グループの画像データは、共通のシーンを互いに異なる明るさで表す画像となる。これによって、並列的に作成される画像データの多様化が図られる。   The exposure amount on the imaging surface is set to K values in a predetermined order, and the image data based on the output of the image sensor 16 is classified into K groups in the predetermined order. Such exposure setting and image classification are repeatedly executed. The classified image data of each group is an image representing a common scene with different brightness. This makes it possible to diversify the image data created in parallel.

なお、この実施例では、厳格AE処理に基づいて基準露光時間を算出し、基準露光時間から既定値αを差し引いた露光時間,基準露光時間,および基準露光時間に既定値βを加えた露光時間の3つの値に周期的に露光時間を設定するようにした。しかし、これら以外の露光時間を設定するようにしてもよい。例えば、基準露光時間から既定値α×2を差し引いた露光時間,基準露光時間から既定値αを差し引いた露光時間,および基準露光時間の3つの値に周期的に露光時間を設定するようにしてもよい。   In this embodiment, the reference exposure time is calculated based on the strict AE process, the exposure time obtained by subtracting the predetermined value α from the reference exposure time, the reference exposure time, and the exposure time obtained by adding the predetermined value β to the reference exposure time. The exposure time is periodically set to these three values. However, other exposure times may be set. For example, the exposure time is periodically set to three values: an exposure time obtained by subtracting a predetermined value α × 2 from the reference exposure time, an exposure time obtained by subtracting the predetermined value α from the reference exposure time, and a reference exposure time. Also good.

また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ44に予め記憶される。しかし、外部サーバに接続するための通信I/F60を図31に示す要領でディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ44に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 44 in advance. However, a communication I / F 60 for connecting to an external server is provided in the digital camera 10 in the manner shown in FIG. 31, and some control programs are prepared in the flash memory 44 from the beginning as internal control programs, while other parts are prepared. These control programs may be acquired from an external server as an external control program. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

また、この実施例では、CPU26によって実行される処理を、ブラケット撮像タスク,露光制御タスク,および顔検出タスクを含む複数のタスクに区分するようにしている。しかし、これらのタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、転送タスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   In this embodiment, the process executed by the CPU 26 is divided into a plurality of tasks including a bracket imaging task, an exposure control task, and a face detection task. However, these tasks may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when the transfer task is divided into a plurality of small tasks, all or part of the transfer task may be acquired from an external server.

また、この実施例では、ディジタルカメラを用いて説明したが、本発明は、携帯電話端末またはスマートフォンなどにも適用することができる。   In this embodiment, the digital camera is used for the explanation. However, the present invention can also be applied to a mobile phone terminal or a smartphone.

10 …ディジタルカメラ
14 …絞りユニット
16 …イメージセンサ
18b,18c …ドライバ
26 …CPU
42 …記録媒体
DESCRIPTION OF SYMBOLS 10 ... Digital camera 14 ... Aperture unit 16 ... Image sensor 18b, 18c ... Driver 26 ... CPU
42 ... Recording medium

Claims (9)

光学像が照射される撮像面を有する撮像手段、
前記撮像面を繰り返し露光する露光手段、
前記露光手段の処理によって前記撮像面で生成された電子画像を繰り返し出力する出力手段、
前記露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整手段、および
前記出力手段によって出力された電子画像を前記既定順序でK個のグループに分類する処理を繰り返す分類手段を備える、電子カメラ。
An imaging means having an imaging surface on which an optical image is irradiated;
Exposure means for repeatedly exposing the imaging surface;
Output means for repeatedly outputting an electronic image generated on the imaging surface by the processing of the exposure means;
Adjusting means for repeating the process of setting the exposure amount of the exposure means to K values (K: an integer equal to or greater than 2) in a predetermined order; and K groups of electronic images output by the output means in the predetermined order An electronic camera comprising classification means for repeating the process of classifying into
前記出力手段から出力された電子画像に基づいて適正な露光量を算出する算出手段をさらに備え、
前記調整手段は前記算出手段によって算出された露光量に基づいて前記露光手段の露光量を設定する、請求項1記載の電子カメラ。
A calculation unit that calculates an appropriate exposure amount based on the electronic image output from the output unit;
The electronic camera according to claim 1, wherein the adjustment unit sets an exposure amount of the exposure unit based on the exposure amount calculated by the calculation unit.
前記分類手段によって分類された電子画像を用いて動画像ファイルを作成する第1作成手段をさらに備える、請求項1または2記載の電子カメラ。   The electronic camera according to claim 1, further comprising first creation means for creating a moving image file using the electronic images classified by the classification means. 前記分類手段によって分類された電子画像を用いて広角画像ファイルを作成する第2作成手段をさらに備える、請求項1または2記載の電子カメラ。   The electronic camera according to claim 1, further comprising a second creation unit that creates a wide-angle image file using the electronic images classified by the classification unit. 前記出力手段から出力された電子画像から特定物体像を探索する探索手段、および
前記探索手段の探索結果に基づいて前記撮像手段の撮像条件を変更する変更手段をさらに備える、請求項1ないし4のいずれかに記載の電子カメラ。
5. The apparatus according to claim 1, further comprising: search means for searching for a specific object image from the electronic image output from the output means; and change means for changing an image pickup condition of the image pickup means based on a search result of the search means. An electronic camera according to any one of the above.
光学像が照射される撮像面を有する撮像手段、
前記撮像面を繰り返し露光する露光手段、および
前記露光手段の処理によって前記撮像面で生成された電子画像を繰り返し出力する出力手段を備える電子カメラのプロセッサに、
前記露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ、および
前記出力手段によって出力された電子画像を前記既定順序でK個のグループに分類する処理を繰り返す分類ステップを実行させるための、撮像制御プログラム。
An imaging means having an imaging surface on which an optical image is irradiated;
An exposure unit that repeatedly exposes the imaging surface; and an electronic camera processor that includes an output unit that repeatedly outputs an electronic image generated on the imaging surface by the processing of the exposure unit.
An adjustment step of repeating the process of setting the exposure amount of the exposure means to K values (K: an integer equal to or greater than 2) in a predetermined order; and K groups of electronic images output by the output means in the predetermined order The imaging control program for performing the classification step which repeats the process classified into (1).
光学像が照射される撮像面を有する撮像手段、
前記撮像面を繰り返し露光する露光手段、および
前記露光手段の処理によって前記撮像面で生成された電子画像を繰り返し出力する出力手段を備える電子カメラによって実行される撮像制御方法であって、
前記露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ、および
前記出力手段によって出力された電子画像を前記既定順序でK個のグループに分類する処理を繰り返す分類ステップを備える、撮像制御方法。
An imaging means having an imaging surface on which an optical image is irradiated;
An imaging control method executed by an electronic camera comprising: an exposure unit that repeatedly exposes the imaging surface; and an output unit that repeatedly outputs an electronic image generated on the imaging surface by the processing of the exposure unit,
An adjustment step of repeating the process of setting the exposure amount of the exposure means to K values (K: an integer equal to or greater than 2) in a predetermined order; and K groups of electronic images output by the output means in the predetermined order An imaging control method, comprising: a classification step that repeats the process of classifying into two.
光学像が照射される撮像面を有する撮像手段、
前記撮像面を繰り返し露光する露光手段、
前記露光手段の処理によって前記撮像面で生成された電子画像を繰り返し出力する出力手段、および
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える電子カメラに供給される外部制御プログラムであって、
前記露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ、および
前記出力手段によって出力された電子画像を前記既定順序でK個のグループに分類する処理を繰り返す分類ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
An imaging means having an imaging surface on which an optical image is irradiated;
Exposure means for repeatedly exposing the imaging surface;
An external control program supplied to an electronic camera comprising output means for repeatedly outputting an electronic image generated on the imaging surface by processing of the exposure means, and a processor for executing processing according to an internal control program stored in a memory. And
An adjustment step of repeating the process of setting the exposure amount of the exposure means to K values (K: an integer equal to or greater than 2) in a predetermined order; and K groups of electronic images output by the output means in the predetermined order An external control program for causing the processor to execute a classification step that repeats the process of classifying into the internal control program in cooperation with the internal control program.
光学像が照射される撮像面を有する撮像手段、
前記撮像面を繰り返し露光する露光手段、
前記露光手段の処理によって前記撮像面で生成された電子画像を繰り返し出力する出力手段、
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える電子カメラであって、
前記外部制御プログラムは、
前記露光手段の露光量を既定順序でK個(K:2以上の整数)の値に設定する処理を繰り返す調整ステップ、および
前記出力手段によって出力された電子画像を前記既定順序でK個のグループに分類する処理を繰り返す分類ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、電子カメラ。
An imaging means having an imaging surface on which an optical image is irradiated;
Exposure means for repeatedly exposing the imaging surface;
Output means for repeatedly outputting an electronic image generated on the imaging surface by the processing of the exposure means;
An electronic camera comprising a capturing unit that captures an external control program, and a processor that executes processing according to the external control program captured by the capturing unit and the internal control program stored in a memory,
The external control program is
An adjustment step of repeating the process of setting the exposure amount of the exposure means to K values (K: an integer equal to or greater than 2) in a predetermined order; and K groups of electronic images output by the output means in the predetermined order An electronic camera corresponding to a program that executes a classification step of repeating the classification process in cooperation with the internal control program.
JP2012168915A 2012-07-30 2012-07-30 Electronic camera Pending JP2014027631A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012168915A JP2014027631A (en) 2012-07-30 2012-07-30 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012168915A JP2014027631A (en) 2012-07-30 2012-07-30 Electronic camera

Publications (1)

Publication Number Publication Date
JP2014027631A true JP2014027631A (en) 2014-02-06

Family

ID=50200858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012168915A Pending JP2014027631A (en) 2012-07-30 2012-07-30 Electronic camera

Country Status (1)

Country Link
JP (1) JP2014027631A (en)

Similar Documents

Publication Publication Date Title
KR101411910B1 (en) Digital photographing apparatus and method for controlling the same
US10250819B2 (en) Image processing apparatus and image processing method
WO2016008356A1 (en) Method for shooting star track, method for shooting object movement track and mobile terminal
JP2012103979A (en) Image processing apparatus
JP2012003539A (en) Image processing device
JP2011071573A (en) Image processing apparatus
CN110581950B (en) Camera, system and method for selecting camera settings
JP2012191442A (en) Image reproduction controller
JP5485781B2 (en) Electronic camera
JP5865120B2 (en) Electronic camera
KR101605129B1 (en) Digital photographing apparatus, controlling method thereof and recording medium for the same
JP5785034B2 (en) Electronic camera
CN114143429B (en) Image shooting method, device, electronic equipment and computer readable storage medium
JP2012155044A (en) Electronic camera
JP2014027631A (en) Electronic camera
JP2013074570A (en) Electronic camera
JP2013046376A (en) Electronic camera
JP2012217106A (en) Image processing apparatus
JP2001251553A (en) Electronic camera
JP2011166301A (en) Imaging apparatus
JP2014045318A (en) Electronic camera
JP2013090112A (en) Electronic camera
JP2011249956A (en) Image processing device
JP2016046611A (en) Imaging apparatus, control method therefor and program
JP2012150236A (en) Electronic camera