JP2013179548A - Image pickup device and program - Google Patents

Image pickup device and program Download PDF

Info

Publication number
JP2013179548A
JP2013179548A JP2012043320A JP2012043320A JP2013179548A JP 2013179548 A JP2013179548 A JP 2013179548A JP 2012043320 A JP2012043320 A JP 2012043320A JP 2012043320 A JP2012043320 A JP 2012043320A JP 2013179548 A JP2013179548 A JP 2013179548A
Authority
JP
Japan
Prior art keywords
image
display
evaluation
evaluation value
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012043320A
Other languages
Japanese (ja)
Inventor
Tetsuya Konishi
哲也 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012043320A priority Critical patent/JP2013179548A/en
Publication of JP2013179548A publication Critical patent/JP2013179548A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide means for making it easy to capture a desired image without missing a shutter chance in slow live shooting.SOLUTION: An image pickup device comprises an image sensor, an image acquisition unit, an evaluation value calculation unit, and a display control unit. The image sensor picks up the image of the subject to generate an image. The image acquisition unit acquires a plurality of images generated in a time series at first time intervals by the image sensor. The evaluation value calculation unit analyzes the plurality of images acquired by the image acquisition unit to calculate evaluation values for each image. The display control unit exerts control so that the plurality of images are sequentially displayed on a display unit at second time intervals longer than the first time interval, and that the result of evaluation on the evaluation value of a currently displayed image and/or the result of evaluation on individual evaluation values including images acquired at a later time of day than that image are displayed on the display unit.

Description

本発明は、撮像装置及びプログラムに関する。   The present invention relates to an imaging apparatus and a program.

近年、撮像装置の一種である電子カメラにおいては、スローライブ撮影機能を搭載した機種が知られている(例えば、特許文献1参照)。上記のスローライブ撮影では、先ず、ユーザによる半押しの指示入力を受け付けた時点から、画像の一時記録を時系列に開始した後、被写体の動きを実際よりゆっくりと見せるスロー再生で一時記録した画像を表示モニタに表示させる。続いて、ユーザがスロー再生された画像を見ながら全押し操作すると、スローライブ撮影では、その全押し操作の時点で表示モニタに表示されている画像を本画像として撮影(記録)する。この場合、スローライブ撮影では、再生モードで上記の処理を行なうのではなく、撮影モードのまま、ユーザがシャッタを押す感覚で操作できるという特徴を有している。   2. Description of the Related Art In recent years, electronic cameras that are a type of imaging device have been known to be equipped with a slow live shooting function (for example, see Patent Document 1). In the above-mentioned slow live shooting, first, from the time when the half-press instruction input by the user is accepted, the temporary recording of the image is started in time series, and then the image temporarily recorded by the slow playback that shows the movement of the subject more slowly than actual. Is displayed on the display monitor. Subsequently, when the user performs a full-press operation while viewing the slow-played image, in slow live shooting, the image displayed on the display monitor at the time of the full-press operation is captured (recorded) as a main image. In this case, the slow live shooting has a feature that the user can operate as if the user presses the shutter in the shooting mode, instead of performing the above processing in the playback mode.

したがって、ユーザが被写体の動きをスロー再生で見ながらシャッタチャンスを待つ場合、スローライブ撮影では、被写体の動きに応じて所望のタイミングでユーザが全押し操作を行なうことができる。   Therefore, when the user waits for a photo opportunity while watching the movement of the subject by slow reproduction, the user can perform a full press operation at a desired timing according to the movement of the subject in the slow live shooting.

特開2006−140892号公報JP 2006-140892 A

しかしながら、上記の従来技術の電子カメラは、ユーザが被写体の動きをスロー再生で見ながらシャッタチャンスを待つ場合、例えば、ぼけ状態、露出状態、人物の瞼の開閉状態等に関し、表示モニタから把握しづらいという問題点を有している。また、上記の従来技術の電子カメラでは、スロー再生している場合、ユーザがもっと良い画像が表示されるだろうとシャッタチャンスを待っていた場合、結局良い画像が表示されず、シャッタチャンスを逃してしまうという問題点を有している。   However, when the user waits for a shutter chance while watching the movement of the subject in slow playback, the above-described conventional electronic camera grasps from the display monitor, for example, the blurred state, the exposed state, the open / close state of the person's eyelid, etc. It has the problem of being difficult. In addition, in the above-described conventional electronic camera, when playing back slowly, if the user waits for a photo opportunity that a better image will be displayed, the good image is not displayed in the end, and the photo opportunity is missed. It has the problem that it ends up.

そこで、本発明は、上記事情を鑑み、スローライブ撮影において、シャッタチャンスを逃さずに所望の画像を取得しやすくする手段を提供することを目的とする。   Accordingly, an object of the present invention is to provide means for easily acquiring a desired image without missing a photo opportunity in slow live shooting.

第1の発明に係る撮像装置は、撮像素子と、画像取得部と、評価値算出部と、表示制御部とを備える。撮像素子は、被写体像を撮像し、画像を生成する。画像取得部は、撮像素子が第1の時間間隔で時系列に生成する複数の画像を取得する。評価値算出部は、画像取得部が取得した複数の画像を解析することにより、画像毎の評価値を算出する。表示制御部は、複数の画像を第1の時間間隔よりも長い第2の時間間隔で表示装置に順次表示させると共に、現在表示中の画像の評価値の評価結果、及び/又は、その画像よりも後の時刻に取得された画像を含む各々の評価値の評価結果を表示装置に表示させる。 An imaging apparatus according to a first invention includes an imaging element, an image acquisition unit, an evaluation value calculation unit, and a display control unit. The imaging element captures a subject image and generates an image. The image acquisition unit acquires a plurality of images that the image sensor generates in time series at the first time interval. The evaluation value calculation unit calculates an evaluation value for each image by analyzing a plurality of images acquired by the image acquisition unit. The display control unit sequentially displays a plurality of images on the display device at a second time interval longer than the first time interval, and evaluates the evaluation value of the currently displayed image and / or from the image. The evaluation result of each evaluation value including an image acquired at a later time is displayed on the display device.

第2の発明は、第1の発明において、受付部と、記録処理部とをさらに備える。受付部は、記録用の画像を記録する指示入力を受け付ける。記録処理部は、受付部が指示入力を受け付けた時刻に基づいて、表示制御部がその時刻に表示装置に表示していた画像を記録用の画像として記録処理する。   In a first aspect based on the first aspect, the second aspect of the present invention further includes a reception unit and a recording processing unit. The accepting unit accepts an instruction input for recording an image for recording. Based on the time at which the receiving unit receives an instruction input, the recording processing unit records the image that the display control unit displayed on the display device at that time as a recording image.

第3の発明は、第2の発明において、表示制御部がその時刻に表示装置に表示していた画像の前後の何れかに評価値のより高い画像が存在していた場合には、記録処理部は、評価値のより高い画像を記録用の画像として記録処理する。   According to a third aspect, in the second aspect, when there is an image with a higher evaluation value before or after the image displayed on the display device by the display control unit at that time, a recording process is performed. The unit records an image having a higher evaluation value as a recording image.

第4の発明は、第1から第3の何れか1の発明において、評価値算出部は、評価値として、ぼけ状態と、露出状態と、被写体の顔の状態とのうちの少なくとも1つを評価する。   According to a fourth invention, in any one of the first to third inventions, the evaluation value calculation unit selects at least one of a blurred state, an exposed state, and a face state of the subject as the evaluation value. evaluate.

第5の発明は、第4の発明において、評価値算出部は、複数の種類の評価値に基づく総合評価を画像毎に算出する。表示制御部は、総合評価の評価結果を表示装置に表示させる。   In a fifth aspect based on the fourth aspect, the evaluation value calculation unit calculates a comprehensive evaluation based on a plurality of types of evaluation values for each image. The display control unit displays the evaluation result of the comprehensive evaluation on the display device.

第6の発明は、第1から第5の何れか1の発明において、表示制御部は、画像毎の評価結果を視覚に訴える表示態様で表示装置に表示させる。   In a sixth aspect based on any one of the first to fifth aspects, the display control unit causes the display device to display the evaluation result for each image in a display manner appealing visually.

第7の発明は、第6の発明において、表示制御部は、現在表示中の画像を囲む枠をさらに表示装置に重畳表示させると共に、評価結果に応じて、枠の色表示を変える。   In a seventh aspect based on the sixth aspect, the display control unit causes the display device to further display a frame surrounding the currently displayed image, and changes the color display of the frame according to the evaluation result.

第8の発明は、第1の発明において、操作部材をさらに備える。操作部材は、第2の時間間隔の設定をユーザ入力により受け付ける。表示制御部は、ユーザ入力に応じて第2の時間間隔を変化させて、画像を表示装置に表示させる。   In an eighth aspect based on the first aspect, an operation member is further provided. The operation member receives the setting of the second time interval by user input. The display control unit displays the image on the display device by changing the second time interval according to the user input.

第9の発明は、第2の発明において、受付部は、指の圧力を検出する圧力センサを備える。表示制御部は、圧力センサからの検知信号に応じて第2の時間間隔を変化させて、画像を表示装置に表示させる。   In a ninth aspect based on the second aspect, the reception unit includes a pressure sensor for detecting finger pressure. The display control unit changes the second time interval according to the detection signal from the pressure sensor, and causes the display device to display an image.

第10の発明に係るプログラムは、撮像処理と、画像取得処理と、評価値算出処理と、表示制御処理とをコンピュータに実行させる。撮像処理は、被写体像を撮像し、画像を生成させる。画像取得処理は、撮像素子が第1の時間間隔で時系列に生成する複数の画像を取得する。評価値算出処理は、複数の画像を解析することにより、画像毎の評価値を算出する。表示制御処理は、複数の画像を第1の時間間隔よりも長い第2の時間間隔で表示装置に順次表示させると共に、現在表示中の画像の評価値の評価結果、及び/又は、その画像よりも後の時刻に取得された画像を含む各々の評価値の評価結果を表示装置に表示させる。   A program according to a tenth invention causes a computer to execute an imaging process, an image acquisition process, an evaluation value calculation process, and a display control process. The imaging process captures a subject image and generates an image. The image acquisition process acquires a plurality of images that the image sensor generates in time series at the first time interval. The evaluation value calculation process calculates an evaluation value for each image by analyzing a plurality of images. The display control process sequentially displays a plurality of images on the display device at a second time interval longer than the first time interval, and evaluates the evaluation value of the currently displayed image and / or from the image. The evaluation result of each evaluation value including an image acquired at a later time is displayed on the display device.

本発明の撮像装置は、スローライブ撮影において、シャッタチャンスを逃さずに所望の画像を取得しやすくする手段を提供できる。   The imaging apparatus of the present invention can provide means for easily acquiring a desired image without missing a photo opportunity in slow live shooting.

本実施形態の電子カメラ1の構成例を説明するブロック図FIG. 2 is a block diagram illustrating a configuration example of the electronic camera 1 of the present embodiment. 本実施形態の電子カメラ1の背面図Rear view of the electronic camera 1 of the present embodiment スローライブモードのスロー再生処理の一例を示すフローチャートFlow chart showing an example of slow playback processing in slow live mode スローライブモードのスロー再生処理の一例を説明する図The figure explaining an example of slow reproduction processing of slow live mode スローライブモードの撮影処理の一例を示すフローチャートFlowchart showing an example of shooting processing in slow live mode スロー表示用バッファに記録されている画像の一例を示す図The figure which shows an example of the image currently recorded on the buffer for slow displays 表示制御部24dによる表示処理の一例を説明する図The figure explaining an example of the display process by the display control part 24d 表示制御部24dによる表示処理の一例を説明する図The figure explaining an example of the display process by the display control part 24d 表示制御部24dによる表示処理の一例を説明する図The figure explaining an example of the display process by the display control part 24d 表示制御部24dによる表示処理の一例を説明する図The figure explaining an example of the display process by the display control part 24d 表示制御部24dによる表示処理の一例を説明する図The figure explaining an example of the display process by the display control part 24d スローライブモードにおけるスロー再生の一例を説明する図The figure explaining an example of slow play in slow live mode レリーズ釦を利用した場合のスロー再生の概念図Conceptual diagram of slow playback when using the release button

以下、図面に基づいて本発明の実施の形態を詳細に説明する。ここでは、本発明の撮像装置の一実施形態である電子カメラを例に取り上げて説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Here, an electronic camera which is an embodiment of the imaging apparatus of the present invention will be described as an example.

図1は、本実施形態の電子カメラ1の構成例を説明するブロック図である。ここで、本実施形態の電子カメラ1は、上記のスローライブ撮影の撮影モード(以下「スローライブモード」という)を有する。本実施形態のスローライブモードの具体的な内容については、後述する。   FIG. 1 is a block diagram illustrating a configuration example of an electronic camera 1 according to the present embodiment. Here, the electronic camera 1 of the present embodiment has the above-described shooting mode of slow live shooting (hereinafter referred to as “slow live mode”). Specific contents of the slow live mode of this embodiment will be described later.

電子カメラ1は、図1に示す通り、撮影光学系10と、レンズ駆動部11と、絞り12と、絞り駆動部13と、撮像素子14と、信号処理部15と、RAM(Random Access Memory)16と、画像処理部17と、フラッシュメモリ18と、記録インターフェース部(以下「記録I/F部」という)19と、表示モニタ20と、タッチパネル21と、レリーズ釦22と、操作部23と、CPU(Central Processing Unit)24と、バス25とを備える。   As shown in FIG. 1, the electronic camera 1 includes a photographing optical system 10, a lens driving unit 11, a diaphragm 12, a diaphragm driving unit 13, an image sensor 14, a signal processing unit 15, and a RAM (Random Access Memory). 16, an image processing unit 17, a flash memory 18, a recording interface unit (hereinafter referred to as "recording I / F unit") 19, a display monitor 20, a touch panel 21, a release button 22, an operation unit 23, A CPU (Central Processing Unit) 24 and a bus 25 are provided.

このうち、信号処理部15、RAM16、画像処理部17、フラッシュメモリ18、記録I/F部19、表示モニタ20及びCPU24は、バス25を介して互いに接続されている。   Among these, the signal processing unit 15, the RAM 16, the image processing unit 17, the flash memory 18, the recording I / F unit 19, the display monitor 20, and the CPU 24 are connected to each other via a bus 25.

撮影光学系10は、ズームレンズとフォーカスレンズとを含む複数のレンズ群で構成されている。レンズ駆動部11は、撮影光学系10内でズームレンズやフォーカスレンズの位置をCPU24の指示に応じて光軸L方向に調整する。なお、簡単のため、図1では、撮影光学系10を1枚のレンズとして図示する。   The photographing optical system 10 includes a plurality of lens groups including a zoom lens and a focus lens. The lens driving unit 11 adjusts the position of the zoom lens and the focus lens in the photographic optical system 10 in the direction of the optical axis L in accordance with an instruction from the CPU 24. For the sake of simplicity, FIG. 1 shows the photographing optical system 10 as a single lens.

絞り12は、撮像素子14に入射する単位時間当たりの光量を調節する。絞り駆動部13は、絞り12の開口量をCPU24の指示に応じて調整する。   The diaphragm 12 adjusts the amount of light per unit time incident on the image sensor 14. The diaphragm drive unit 13 adjusts the opening amount of the diaphragm 12 in accordance with an instruction from the CPU 24.

撮像素子14は、撮影光学系10及び絞り12を通過した被写体の像を撮像し、アナログの画像信号(画像)を生成する。そして、撮像素子14が出力するアナログの画像信号は、信号処理部15に入力される。なお、撮像素子14の撮像面には、R(赤)、G(緑)B(青)の3種類のカラーフィルタが例えばベイヤー配列で配置されている。また、撮像素子14の電荷蓄積時間及び画像信号の読み出しは、タイミングジェネレータ(不図示)によって制御される。   The image sensor 14 captures an image of a subject that has passed through the photographing optical system 10 and the diaphragm 12 and generates an analog image signal (image). The analog image signal output from the image sensor 14 is input to the signal processing unit 15. Note that three types of color filters of R (red), G (green), and B (blue) are arranged on the imaging surface of the imaging device 14 in, for example, a Bayer array. Further, the charge accumulation time of the image sensor 14 and the reading of the image signal are controlled by a timing generator (not shown).

ここで、撮像素子14は、レリーズ釦22の全押し操作に応答して記録用の画像(本画像)を撮像する。また、撮像素子14は、撮影待機時にも所定間隔毎に構図確認用の画像(スルー画像)を連続的に撮像する。   Here, the image sensor 14 captures an image for recording (main image) in response to the full-pressing operation of the release button 22. In addition, the imaging device 14 continuously captures images for composition confirmation (through images) at predetermined intervals even during shooting standby.

なお、撮像素子14は、CCD(Charge Coupled Device)型、又は、CMOS(Complementary Metal−Oxide Semiconductor)型のイメージセンサである。   The image sensor 14 is a CCD (Charge Coupled Device) type or CMOS (Complementary Metal-Oxide Semiconductor) type image sensor.

信号処理部15は、撮像素子14が出力する画像信号に対してアナログ信号処理を施すアナログフロントエンド回路(AFE)と、そのAFEでアナログ信号処理が施された画像信号に対して、デジタル信号処理を施すデジタルフロントエンド回路(DFE)とを有する。信号処理部15のAFEは、アナログの画像信号に対して相関二重サンプリングやゲイン調整をした後、アナログの画像信号をデジタルの画像信号に変換する(A/D変換)処理等を行なう。ここで、信号処理部15のAFEは、画像信号のゲインを調整することで、ISO感度に相当する撮像感度を調整できる。   The signal processing unit 15 performs analog signal processing on an analog front end circuit (AFE) that performs analog signal processing on the image signal output from the image sensor 14 and digital signal processing on the image signal that has been subjected to analog signal processing by the AFE A digital front-end circuit (DFE). The AFE of the signal processing unit 15 performs correlated double sampling or gain adjustment on the analog image signal, and then performs a process of converting the analog image signal into a digital image signal (A / D conversion). Here, the AFE of the signal processing unit 15 can adjust the imaging sensitivity corresponding to the ISO sensitivity by adjusting the gain of the image signal.

また、信号処理部15のDFEは、A/D変換されたデジタルの画像信号の補正処理等を行なう。この信号処理部15が出力する画像信号は、RGB信号の画像データとしてRAM16に一時的に記録される。RAM16は、CPU24や画像処理部17の処理のための作業領域として、画像データを一時的に記録するバッファメモリである。CPU24は、撮影待機時においてスルー画像の画像データをRAM16に一時的に記録する。また、RAM16の一部の領域には、スローライブ撮影で得られた複数の画像の画像データを記録するためのバッファメモリ(以下「スロー表示用バッファ」という)が割り当てられている。後述する画像取得部24aは、これらの複数の画像(画像データ)をRAM16のスロー表示用バッファに記録する。なお、スロー表示用バッファは、例えば画像100枚分に相当する記憶容量を有している。   The DFE of the signal processing unit 15 performs a correction process on the digital image signal after A / D conversion. The image signal output from the signal processing unit 15 is temporarily recorded in the RAM 16 as image data of RGB signals. The RAM 16 is a buffer memory that temporarily records image data as a work area for processing by the CPU 24 and the image processing unit 17. The CPU 24 temporarily records the image data of the through image in the RAM 16 during shooting standby. In addition, a buffer memory (hereinafter referred to as “slow display buffer”) for recording image data of a plurality of images obtained by slow live shooting is allocated to a partial area of the RAM 16. The image acquisition unit 24a described later records these multiple images (image data) in the slow display buffer of the RAM 16. The slow display buffer has a storage capacity equivalent to, for example, 100 images.

画像処理部17は、RAM16に記録されている画像データを読み出し、必要に応じて各種の画像処理(例えば、色補間処理、ホワイトバランス等)を施す。   The image processing unit 17 reads the image data recorded in the RAM 16 and performs various types of image processing (for example, color interpolation processing, white balance, etc.) as necessary.

フラッシュメモリ18は、電子カメラ1の制御を行なうプログラム等を予め記憶している不揮発性のメモリである。   The flash memory 18 is a non-volatile memory that stores a program for controlling the electronic camera 1 in advance.

記録I/F部19には、着脱自在の記録媒体30を接続するためのコネクタ(不図示)が形成されている。そして、記録I/F部19は、そのコネクタに接続された記録媒体30にアクセスして画像の記録処理等を行なう。この記録媒体30は、例えば、不揮発性のメモリカードである。図1では、コネクタに接続された後の記録媒体30を示している。   The recording I / F unit 19 is formed with a connector (not shown) for connecting a detachable recording medium 30. Then, the recording I / F unit 19 accesses the recording medium 30 connected to the connector and performs image recording processing and the like. The recording medium 30 is, for example, a non-volatile memory card. FIG. 1 shows the recording medium 30 after being connected to the connector.

表示モニタ20は、例えば液晶表示媒体により構成される。表示モニタ20は、CPU24の指示に応じて各種画像や電子カメラ1の操作メニュー等を表示する。   The display monitor 20 is composed of, for example, a liquid crystal display medium. The display monitor 20 displays various images, an operation menu of the electronic camera 1 and the like according to instructions from the CPU 24.

タッチパネル21は、表示モニタ20上に設けられたタッチパネル表面に接触した指先等の位置を検出する。そして、タッチパネル21は、検出した位置情報をCPU24に出力することで撮影者からの操作を受け付ける。レリーズ釦22は、半押し操作(撮像の準備動作開始)の指示入力と全押し操作(撮像の動作開始)との指示入力とを受け付ける。操作部23は、ユーザの操作を受け付ける複数の釦を有している。   The touch panel 21 detects the position of a fingertip or the like that has touched the surface of the touch panel provided on the display monitor 20. The touch panel 21 receives the operation from the photographer by outputting the detected position information to the CPU 24. The release button 22 receives an instruction input for a half-press operation (start of imaging preparation operation) and an instruction input for a full-press operation (start of imaging operation). The operation unit 23 includes a plurality of buttons that accept user operations.

図2は、本実施形態の電子カメラ1の背面図である。本実施形態の操作部23は、広角ズーム釦23aと、望遠ズーム釦23bと、モード選択釦23cと、メニュー釦23dと、選択・決定釦23eと、電源釦26とを含む。   FIG. 2 is a rear view of the electronic camera 1 of the present embodiment. The operation unit 23 of this embodiment includes a wide-angle zoom button 23a, a telephoto zoom button 23b, a mode selection button 23c, a menu button 23d, a selection / determination button 23e, and a power button 26.

広角ズーム釦23aは、焦点距離を広角側に変更し、望遠ズーム釦23bは、焦点距離を望遠側に変更する。モード選択釦23cは、撮影モード若しくは再生モードに切り替える操作をユーザから受け付ける。メニュー釦23dは、メニュー画面を立ち上げるための操作をユーザから受け付ける。選択・決定釦23eは、電子カメラ1の操作メニューにおける設定条件等の項目選択又は項目決定をユーザから受け付ける。ここで、選択・決定釦23eは、決定釦23fとダイヤル23gとを有する。ダイヤル23gの全体形状は、環状であって、ダイヤル23gの内周側には決定釦23fが配置されている。そして、ダイヤル23gは、例えばメニュー画面等での項目選択の入力をユーザから受け付ける。また、決定釦23fは、メニュー画面等での項目決定の入力をユーザから受け付ける。例えば、スローライブモードの開始する操作が決定釦23fに割り当てられている。また、レリーズ釦22と電源釦26とは、図2に示す通り、電子カメラ1の筐体の上面に備えられている。   The wide-angle zoom button 23a changes the focal length to the wide-angle side, and the telephoto zoom button 23b changes the focal length to the telephoto side. The mode selection button 23c accepts an operation for switching to the shooting mode or the playback mode from the user. The menu button 23d accepts an operation for starting up the menu screen from the user. The selection / determination button 23e receives item selection or item determination such as setting conditions in the operation menu of the electronic camera 1 from the user. Here, the selection / determination button 23e includes a determination button 23f and a dial 23g. The overall shape of the dial 23g is annular, and a decision button 23f is arranged on the inner peripheral side of the dial 23g. The dial 23g accepts an input of item selection on the menu screen or the like from the user, for example. The decision button 23f accepts an item decision input on the menu screen or the like from the user. For example, an operation for starting the slow live mode is assigned to the decision button 23f. The release button 22 and the power button 26 are provided on the upper surface of the casing of the electronic camera 1 as shown in FIG.

再び、図1の説明に戻り、CPU24は、各種演算及び電子カメラ1の制御を行なうプロセッサである。CPU24は、フラッシュメモリ18に予め格納されたシーケンスプログラムを実行することにより、電子カメラ1の各部の制御等を行なう。また、CPU24は、時計機能を有し、レリーズ釦22が全押しの指示入力を受け付けた時の時刻(以下「撮影開始時刻」という)を取得する。また、CPU24は、撮影開始時刻の際、表示モニタ20に表示されている画像を選択する。   Returning to the description of FIG. 1 again, the CPU 24 is a processor that performs various operations and controls the electronic camera 1. The CPU 24 controls each part of the electronic camera 1 by executing a sequence program stored in advance in the flash memory 18. Further, the CPU 24 has a clock function, and acquires the time when the release button 22 receives a full-press instruction input (hereinafter referred to as “shooting start time”). Further, the CPU 24 selects an image displayed on the display monitor 20 at the photographing start time.

また、CPU24は、画像取得部24aと、顔認識部24bと、評価値算出部24cと、表示制御部24dと、記録処理部24eとしても機能する。   The CPU 24 also functions as an image acquisition unit 24a, a face recognition unit 24b, an evaluation value calculation unit 24c, a display control unit 24d, and a recording processing unit 24e.

画像取得部24aは、撮像素子14が第1の時間間隔で時系列に生成する複数の画像を取得する。具体的には、画像取得部24aは、第1の時間間隔として予め設定されたフレームレート(fps)で撮像素子14が生成する複数の画像を、信号処理部15を介して、RAM16に記録する一連の処理を制御する。これにより、RAM16には、撮像素子14が生成する複数の画像が取得される。   The image acquisition unit 24a acquires a plurality of images that the image sensor 14 generates in time series at the first time interval. Specifically, the image acquisition unit 24 a records a plurality of images generated by the image sensor 14 at a frame rate (fps) set in advance as the first time interval in the RAM 16 via the signal processing unit 15. Control a series of processing. Thereby, a plurality of images generated by the image sensor 14 are acquired in the RAM 16.

なお、CPU24は、一例として、スローライブモードの開始する操作(例えば半押しの指示入力)を受け付けた後から第1の時間間隔で連写撮影を行なう。画像取得部24aは、撮像素子14が生成する複数の画像をRAM16のスロー表示用バッファに記録する。ここで、スロー表示用バッファは、FIFO(ファーストイン・ファーストアウト)方式のリングバッファとして機能する。これにより、画像取得部24aは、スロー表示用バッファの先頭アドレスから順次インクリメントされる書き込みポインタに従って画像データの書き込みを行なう。なお、画像取得部24aは、スロー表示用バッファの最終アドレスまで書き込みを行なった場合、先頭アドレスに戻って、新たな画像データを上書きして順次書き込みを行なう。   As an example, the CPU 24 performs continuous shooting at a first time interval after receiving an operation for starting the slow live mode (for example, an instruction input for half pressing). The image acquisition unit 24 a records a plurality of images generated by the image sensor 14 in the slow display buffer of the RAM 16. Here, the slow display buffer functions as a FIFO (First In First Out) ring buffer. Thereby, the image acquisition unit 24a writes the image data according to the write pointer that is sequentially incremented from the head address of the slow display buffer. Note that when the image acquisition unit 24a has written to the final address of the slow display buffer, the image acquisition unit 24a returns to the top address and overwrites the new image data to sequentially write.

顔認識部24bは、画像を解析して顔を認識する。具体的には、顔認識部24bは、例えば、スルー画像から特徴点(特徴量)を抽出して顔領域(顔画像)、その顔領域の大きさ等を検出する顔検出処理を行なう。例えば、顔認識部24bは、特開2001−16573号公報等に記載された特徴点抽出処理によって顔領域を抽出する。上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点等が挙げられる。そして、顔認識部24bは、顔領域の位置情報を特定する。或いは、顔認識部24bは、タッチパネル21を介してユーザ入力により指定された領域を顔領域として抽出しても良い。また、顔認識部24bは、上記の特徴点抽出処理に基づいて、顔の領域から瞼の開閉状態を検出する。また、顔認識部24bは、上記の特徴点抽出処理に基づいて、笑顔等の表情を認識しても良い。   The face recognition unit 24b analyzes the image and recognizes the face. Specifically, for example, the face recognition unit 24b performs a face detection process of extracting a feature point (feature amount) from a through image and detecting a face area (face image), the size of the face area, and the like. For example, the face recognition unit 24b extracts a face area by a feature point extraction process described in Japanese Patent Laid-Open No. 2001-16573. Examples of the feature points include eyebrow, eye, nose, and lip end points, face contour points, head apexes, and chin lower end points. Then, the face recognition unit 24b specifies the position information of the face area. Alternatively, the face recognition unit 24b may extract an area designated by a user input via the touch panel 21 as a face area. Further, the face recognition unit 24b detects the open / closed state of the eyelid from the face region based on the feature point extraction process. The face recognition unit 24b may recognize facial expressions such as a smile based on the above feature point extraction process.

評価値算出部24cは、画像取得部24aが取得した複数の画像を解析することにより、画像毎の評価値を算出する。具体的には、評価値算出部24cは、評価値として、ぼけ状態、露出状態、被写体の顔の状態のうちの少なくとも1つを評価する。
(ぼけ状態の判定)
評価値算出部24cは、ぼけ状態の評価値を算出する。例えば、評価値算出部24cは、被写体のピント状態を評価値として算出する。具体的には、評価値算出部24cは、RAM16のスロー表示用バッファから画像を読み出して被写体のピント状態を画像毎に解析する。なお、評価値算出部24cは、公知のピント状態の検出方法の何れかを採用して良い。一例として、評価値算出部24cは、顔認識部24bが認識した顔における目の部分におけるエッジの状態を解析して、そのエッジの先鋭度からピント状態(合焦点)を評価値として算出する。ここで、本実施形態では、評価値が高いほど、ピント状態(合焦点)が良いこととする。
(露出状態の判定)
評価値算出部24cは、露出状態の評価値を算出するため、例えば、被写体の露出状態を評価値として算出する。なお、評価値算出部24cは、公知の露出状態の検出方法の何れかを採用して良い。一例として、評価値算出部24cは、RAM16のスロー表示用バッファに記録されている画像を読み出し、画像信号に基づいて、撮影画面の明るさを検出する。すなわち、評価値算出部24cは、撮影画面を複数の領域に分割してその領域毎に測光値を検出する多分割測光を行なう。例えば、評価値算出部24cは、分割した領域毎にRGB信号の画像データを輝度信号(Y信号)と、色差信号(Cr、Cb信号)の画像データに変換(YC変換)することで多分割測光を行なう。
The evaluation value calculation unit 24c calculates an evaluation value for each image by analyzing the plurality of images acquired by the image acquisition unit 24a. Specifically, the evaluation value calculation unit 24c evaluates at least one of a blurred state, an exposed state, and a face state of the subject as the evaluation value.
(Determination of blur condition)
The evaluation value calculation unit 24c calculates an evaluation value of the blurred state. For example, the evaluation value calculation unit 24c calculates the focus state of the subject as the evaluation value. Specifically, the evaluation value calculation unit 24c reads an image from the slow display buffer of the RAM 16 and analyzes the focus state of the subject for each image. Note that the evaluation value calculation unit 24c may employ any of the known focus state detection methods. As an example, the evaluation value calculation unit 24c analyzes the state of the edge in the eye part of the face recognized by the face recognition unit 24b, and calculates the focus state (focus point) as the evaluation value from the sharpness of the edge. Here, in the present embodiment, the higher the evaluation value, the better the focus state (focusing point).
(Judgment of exposure status)
For example, the evaluation value calculation unit 24c calculates the exposure state of the subject as the evaluation value in order to calculate the evaluation value of the exposure state. Note that the evaluation value calculation unit 24c may employ any of the known exposure state detection methods. As an example, the evaluation value calculation unit 24c reads an image recorded in the slow display buffer of the RAM 16, and detects the brightness of the shooting screen based on the image signal. That is, the evaluation value calculation unit 24c performs multi-division photometry that divides a photographing screen into a plurality of areas and detects a photometric value for each area. For example, the evaluation value calculation unit 24c performs multi-division by converting image data of RGB signals into image data of luminance signals (Y signals) and color difference signals (Cr, Cb signals) (YC conversion) for each divided area. Perform photometry.

ここで、評価値算出部24cは、領域(ブロック)毎に輝度値(測光値)を積算する。そして、評価値算出部24cは、撮影画面全体の明るさ(以下「AE評価値」という)を、輝度値に基づいて算出する。本実施形態では、評価値算出部24cは、AE評価値に応じて、画面の明暗を判定する。
(顔の状態の判定)
評価値算出部24cは、顔の状態の評価値を算出するため、例えば、被写体の顔における瞼の開閉度を評価値として算出する。具体的には、評価値算出部24cは、顔認識部24bの認識結果に基づいて、瞼が開いた状態(以下、「第1状態」という。)の画像を検出する。また、評価値算出部24cは、第1状態より瞼が半分閉じた状態(以下、「第2状態」という。)の画像を検出する。さらに、評価値算出部24cは、瞼が閉じた状態(以下、「第3状態」という。)の画像を検出する。
Here, the evaluation value calculation unit 24c integrates luminance values (photometric values) for each region (block). Then, the evaluation value calculation unit 24c calculates the brightness of the entire shooting screen (hereinafter referred to as “AE evaluation value”) based on the luminance value. In the present embodiment, the evaluation value calculation unit 24c determines the brightness of the screen according to the AE evaluation value.
(Judgment of face condition)
In order to calculate the evaluation value of the face state, the evaluation value calculation unit 24c calculates, for example, the opening / closing degree of the eyelid on the face of the subject as the evaluation value. Specifically, the evaluation value calculation unit 24c detects an image in a state where the eyelid is opened (hereinafter referred to as “first state”) based on the recognition result of the face recognition unit 24b. Further, the evaluation value calculation unit 24c detects an image in a state in which the eyelid is half closed from the first state (hereinafter referred to as “second state”). Further, the evaluation value calculation unit 24c detects an image in a state where the eyelid is closed (hereinafter referred to as “third state”).

ここで、評価値算出部24cは、瞼の開き具合を数値化して評価する。一例として、評価値算出部24cは、第3状態(瞼が閉じた状態)を示す値をゼロ(0)とし、第2状態(瞼が半分閉じた状態)を示す値を5とし、第1状態(瞼が開いた状態)を示す値を10として数値化する。なお、評価値算出部24cは、瞼の開閉度を0から10の間でさらに細かく数値化しても良い。   Here, the evaluation value calculation unit 24c numerically evaluates the degree of opening of the eyelids. As an example, the evaluation value calculation unit 24c sets the value indicating the third state (the state where the eyelids are closed) to zero (0), sets the value indicating the second state (the state where the eyelids are half closed) to 5, The value indicating the state (the state in which the eyelids are open) is digitized as 10. Note that the evaluation value calculation unit 24c may further quantify the opening / closing degree of the bag between 0 and 10.

表示制御部24dは、複数の画像を第1の時間間隔よりも長い第2の時間間隔で表示モニタ20に順次表示させると共に、現在表示中の画像における評価値の評価結果を表示モニタ20に表示させる。又は、表示制御部24dは、複数の画像を第2の時間間隔で表示モニタ20に順次表示させると共に、現在表示中の画像における評価値の評価結果と、その画像よりも後の時刻に取得された画像を含む各々の評価値の評価結果を表示モニタ20に表示させる。この場合、表示制御部24dは、予め設定した枚数の画像について評価結果を表示モニタ20に表示させる。なお、一例として、30コマ(枚)/秒で連写撮影をした場合、第1の時間間隔は、1/30秒になるが、表示制御部24dは、1コマ当たり1秒(第2の時間間隔)のコマ送りで画像を表示モニタ20に表示させる。   The display control unit 24d sequentially displays a plurality of images on the display monitor 20 at a second time interval longer than the first time interval, and displays the evaluation result of the evaluation value in the currently displayed image on the display monitor 20. Let Alternatively, the display control unit 24d sequentially displays a plurality of images on the display monitor 20 at the second time interval, and is acquired at an evaluation result of the evaluation value in the currently displayed image and a time later than the image. The evaluation result of each evaluation value including the image is displayed on the display monitor 20. In this case, the display control unit 24d causes the display monitor 20 to display evaluation results for a preset number of images. As an example, when continuous shooting is performed at 30 frames (frames) / second, the first time interval is 1/30 seconds, but the display control unit 24d has 1 second (second The image is displayed on the display monitor 20 by frame advance at time intervals.

記録処理部24eは、撮影開始時刻に基づいて、表示制御部24dがその撮影開始時刻に表示モニタ20に表示していた画像を記録用の画像として記録処理する。   Based on the shooting start time, the recording processing unit 24e records the image displayed on the display monitor 20 by the display control unit 24d at the shooting start time as a recording image.

次に、スローライブモードにおける電子カメラ1の動作の一例について説明する。図3は、スローライブモードのスロー再生処理の一例を示すフローチャートである。図4は、スローライブモードのスロー再生処理の一例を説明する図である。図5は、スローライブモードの撮影処理の一例を示すフローチャートである。   Next, an example of the operation of the electronic camera 1 in the slow live mode will be described. FIG. 3 is a flowchart illustrating an example of slow playback processing in the slow live mode. FIG. 4 is a diagram illustrating an example of slow playback processing in the slow live mode. FIG. 5 is a flowchart illustrating an example of the shooting process in the slow live mode.

先ず、スローライブモードのスロー再生処理を説明した後、撮影処理を説明する。本実施形態では、CPU24は、スロー再生処理と撮影処理とを独立に制御して行なう。   First, after describing the slow playback process in the slow live mode, the shooting process will be described. In the present embodiment, the CPU 24 controls the slow reproduction process and the photographing process independently.

なお、CPU24は、フラッシュメモリ18に記録されているスロー再生処理や撮影処理のプログラムを読み出して、図3、図5に示すフローの処理を行なう。CPU24は、スロー再生処理や撮影処理のプログラムを実行することにより、スローライブ撮影において、以下に説明する通り、シャッタチャンスを逃さずに所望の画像を取得しやすくする手段を提供できる。以下のフローの処理では、説明をわかりやすくするため、被写体を人物の顔とし、その被写体の瞬きを評価値として算出するケースを先ず例示する。   Note that the CPU 24 reads out the slow reproduction processing and shooting processing programs recorded in the flash memory 18 and performs the processing of the flow shown in FIGS. The CPU 24 can provide means for facilitating acquisition of a desired image without missing a photo opportunity as described below in slow live shooting by executing a program for slow playback processing and shooting processing. In the processing of the following flow, in order to make the explanation easy to understand, a case where the subject is a person's face and the blink of the subject is calculated as an evaluation value is first exemplified.

電子カメラ1の電源がオンされた後、CPU24は、スルー画像の取得を開始する。表示制御部24dは、表示モニタ20にスルー画像を表示させる。この状態で、操作部23がスローライブモードの指示入力を受け付けた後、レリーズ釦22が半押しの指示入力を受け付けると、CPU24は、スローライブモードの処理を開始する。   After the power of the electronic camera 1 is turned on, the CPU 24 starts acquiring a through image. The display control unit 24d displays a through image on the display monitor 20. In this state, when the operation unit 23 receives an instruction input for the slow live mode and then the release button 22 receives an instruction input for a half-press, the CPU 24 starts a process for the slow live mode.

ここで、先ず、CPU24は、連写撮影を行なう。そして、CPU24の画像取得部24aは、連写撮影した画像をRAM16のスロー表示用バッファに書き込む。具体的には、CPU24は、半押し時の自動露出やオートフォーカス等により得られた撮影パラメータに基づいて、タイミングジェネレータを介して、連写撮影を撮像素子14に行なわせる。この場合、撮像素子14は、予め設定されたフレームレートで画像を時系列に生成する。画像取得部24aは、書き込みポインタを参照して、それらの画像(画像データ)をスロー表示用バッファに順次記録する。   Here, first, the CPU 24 performs continuous shooting. Then, the image acquisition unit 24 a of the CPU 24 writes the continuously shot image in the slow display buffer of the RAM 16. Specifically, the CPU 24 causes the image sensor 14 to perform continuous shooting via a timing generator based on shooting parameters obtained by automatic exposure or autofocus when half-pressed. In this case, the image sensor 14 generates images in time series at a preset frame rate. The image acquisition unit 24a refers to the write pointer and sequentially records these images (image data) in the slow display buffer.

図4では、画像の書き込みとして、画像取得部24aは、時刻tを基準として、1枚目(t+0)、2枚目(t+1)、m枚目(t+m)というようにスロー表示用バッファに書き込む様子を例示している。   In FIG. 4, as the image writing, the image acquisition unit 24 a writes the first image (t + 0), the second image (t + 1), and the mth image (t + m) into the slow display buffer with reference to time t. The situation is illustrated.

画像取得部24aがスロー再生処理が可能な枚数の画像の書き込みを行なうと、CPU24は、図3に示すフローの処理を開始する。   When the image acquisition unit 24a writes as many images as can be subjected to the slow playback process, the CPU 24 starts the process of the flow shown in FIG.

ステップS101:CPU24は、1枚の画像の読み出し処理を行なう。具体的には、先ず、1枚目(t+0)の画像(n=1枚目)を読み出す。そして、CPU24は、ステップS102の処理に移行する。   Step S101: The CPU 24 performs reading processing of one image. Specifically, first, the first (t + 0) image (n = 1) is read. And CPU24 transfers to the process of step S102.

ステップS102:CPU24の評価値算出部24cは、m枚の画像の評価値を使った当該画像の評価値の算出処理を行なう。ここでは、本実施形態の特徴をわかりやすく説明するため、CPU24は、一例として、5枚(m=5)の画像(例えば、図4において、1枚目(t+0)の画像〜m枚目(t+m)の画像)を読み出すこととする。   Step S102: The evaluation value calculation unit 24c of the CPU 24 performs an evaluation value calculation process of the image using the evaluation values of m images. Here, in order to explain the features of the present embodiment in an easy-to-understand manner, as an example, the CPU 24 has five (m = 5) images (for example, in FIG. 4, the first (t + 0) image to the m-th image ( t + m) image) is read out.

図6は、スロー表示用バッファに記録されている画像の一例を示す図である。この例では、瞬きをしている人物P1を連写した画像を表している。CPU24は、5枚の画像をRAM16の作業領域に読み出す。評価値算出部24cは、読み出した枚数の画像の評価値の算出処理を行なう。   FIG. 6 is a diagram illustrating an example of an image recorded in the slow display buffer. In this example, an image obtained by continuously shooting a blinking person P1 is shown. The CPU 24 reads five images into the work area of the RAM 16. The evaluation value calculation unit 24c performs an evaluation value calculation process for the read number of images.

具体的には、先ず、顔認識部24bは、顔領域を抽出する。そして、顔認識部24bは、上記の特徴点抽出処理に基づいて、顔の領域から瞼の開閉状態を検出する。次に、評価値算出部24cは、顔認識部24bの認識結果に基づいて、瞼の開き具合を数値化して評価する。図6では、各々の画像に対しての評価値を示している。   Specifically, first, the face recognition unit 24b extracts a face area. Then, the face recognition unit 24b detects the open / closed state of the eyelid from the face area based on the feature point extraction process. Next, the evaluation value calculation unit 24c evaluates the degree of opening of the eyelid numerically based on the recognition result of the face recognition unit 24b. FIG. 6 shows the evaluation value for each image.

ステップS103:CPU24の表示制御部24dは、スロー再生及び表示処理を行なう。具体的には、表示制御部24dは、図6に示すn枚目の画像(n=1から開始)を表示モニタ20に表示させる。この場合、表示制御部24dは、連写撮影の1枚当たりの時間間隔よりも長い時間間隔で、画像を表示モニタ20に表示させる。一例として、表示制御部24dは、1コマ当たり1秒のコマ送りで画像を表示モニタ20に表示させる。   Step S103: The display control unit 24d of the CPU 24 performs slow reproduction and display processing. Specifically, the display control unit 24d causes the display monitor 20 to display the nth image (starting from n = 1) shown in FIG. In this case, the display control unit 24d causes the display monitor 20 to display images at a time interval longer than the time interval per continuous shooting. As an example, the display control unit 24d causes the display monitor 20 to display an image with frame advance of 1 second per frame.

また、表示制御部24dは、現在表示中の画像の評価値の評価結果と、その画像よりも後の時刻に取得された画像を含む各々の評価値の評価結果を表示モニタ20に表示させる。一例として、表示制御部24dは、評価値算出部24cが評価した5枚の画像の評価値の評価結果を表示モニタ20に表示させる。これにより、評価結果が表示モニタ20に視覚的に表示されるので、ユーザは、どの画像の評価値が高いかについて直感的に把握しやすくなり、シャッタチャンスを逃さずに所望の画像を取得しやすくする。   The display control unit 24d causes the display monitor 20 to display the evaluation result of the evaluation value of the currently displayed image and the evaluation result of each evaluation value including the image acquired at a later time than the image. As an example, the display control unit 24d causes the display monitor 20 to display the evaluation results of the evaluation values of the five images evaluated by the evaluation value calculation unit 24c. As a result, the evaluation result is visually displayed on the display monitor 20, so that the user can intuitively understand which image has the high evaluation value, and obtains a desired image without missing a photo opportunity. Make it easier.

図7は、表示制御部24dによる表示処理の一例を説明する図である。図7では、表示制御部24dは、表示モニタ20上で表示枠W内に、n(=1)枚目の縮小画像を表示させる。この表示枠Wは、カラー表示により評価結果を視覚に訴えることができる。例えば、表示制御部24dは、評価結果に応じて、表示枠Wを緑色、黄色、赤色の何れか1つの色でカラー表示をさせる。例えば、緑色は、第1状態を表しており、黄色は、第2状態を表しており、赤色は、第3状態を表している。   FIG. 7 is a diagram illustrating an example of display processing by the display control unit 24d. In FIG. 7, the display control unit 24 d displays the n (= 1) th reduced image in the display frame W on the display monitor 20. The display frame W can appeal the evaluation result visually by color display. For example, the display control unit 24d displays a color of the display frame W in any one of green, yellow, and red according to the evaluation result. For example, green represents the first state, yellow represents the second state, and red represents the third state.

また、表示制御部24dは、表示モニタ20上に評価結果のグラフを表示させる。このグラフは、棒グラフであって、横軸は、1枚目から5枚目の画像を表しており、縦軸は、評価値を表している。また、図中の矢印は、現在表示中の画像を表している。したがって、ユーザは、現在表示中の画像(n=1)から、その画像よりも後の時刻に取得された画像(n=2〜5)の評価結果を視覚的に見ることができる。つまり、この棒グラフは、評価結果を視覚に訴えることができる。   In addition, the display control unit 24 d displays a graph of the evaluation result on the display monitor 20. This graph is a bar graph, in which the horizontal axis represents the first to fifth images, and the vertical axis represents the evaluation value. An arrow in the figure represents an image currently being displayed. Therefore, the user can visually see the evaluation result of an image (n = 2 to 5) acquired at a later time than the currently displayed image (n = 1). That is, this bar graph can appeal the evaluation result visually.

ステップS104:CPU24は、次のスロー再生用の画像の有無を判定する。ステップS102で読み出した画像について、次の画像がある場合(ステップS104:Yes)、CPU24は、ステップS101の処理に戻る。そして、表示制御部24dは、1枚の画像におけるスロー再生の時間が終了するに伴い、次の画像のスロー再生を開始する。一方、次の画像がない場合(ステップS104:No)、CPU24は、図3に示すフローの処理を終了させる。   Step S104: The CPU 24 determines whether there is a next image for slow playback. When there is a next image for the image read in step S102 (step S104: Yes), the CPU 24 returns to the process of step S101. Then, the display control unit 24d starts the slow playback of the next image as the slow playback time of one image ends. On the other hand, when there is no next image (step S104: No), the CPU 24 ends the processing of the flow shown in FIG.

なお、後述する撮影処理により記録用の画像が記録された場合、CPU24は、図3に示すフローの処理を終了させ、表示制御部24dは、記録用の画像を表示モニタ20の全画面に表示させる。   Note that when a recording image is recorded by a photographing process described later, the CPU 24 ends the process of the flow shown in FIG. 3, and the display control unit 24 d displays the recording image on the entire screen of the display monitor 20. Let

次に、スローライブモードの撮影処理の一例を説明する。上述した通り、レリーズ釦22が半押しの指示入力を受け付けると、図5に示すフローの処理を開始させる。   Next, an example of shooting processing in the slow live mode will be described. As described above, when the release button 22 receives a half-press instruction input, the processing of the flow shown in FIG. 5 is started.

ステップS201:CPU24は、レリーズ釦22からの全押しの指示入力を受け付けたか否かを判定する。全押しの指示入力を受け付けていない場合(ステップS201:No)、CPU24は、ステップS201の処理を繰り返して、全押しの指示入力待ちの状態となる。一方、全押しの指示入力を受け付けた場合(ステップS201:No)、CPU24は、ステップS202の処理に移行する。   Step S201: The CPU 24 determines whether or not a full-press instruction input from the release button 22 has been accepted. If the instruction input for full pressing has not been received (step S201: No), the CPU 24 repeats the process of step S201 and waits for instruction input for full pressing. On the other hand, when the instruction input for full pressing is received (step S201: No), the CPU 24 proceeds to the process of step S202.

図8は、表示制御部24dによる表示処理の一例を説明する図である。例えば、表示制御部24dは、評価値が10である画像を表示モニタ20に表示させる際、表示枠Wの色を緑色にする。これにより、ユーザは、被写体のポーズ等の選択に集中しながらでも、表示枠Wの色でシャッタチャンスの選択を瞬時に可能とすることができる。或いは、ユーザは、表示モニタ20に表示されているグラフを見ることにより、現在の画像の評価値を判別できるので、シャッタチャンスの選択を瞬時に可能とすることができる。なお、表示制御部24dは、例えば、現在表示中の画像、及びそれに続く4枚分の画像の評価値の棒グラフを表示モニタ20に順次表示させていく。一例として、表示制御部24dは、図8に示す通り、現在表示中の画像が3枚目(n=3)の場合、その画像よりも後の時刻に取得された画像(n=4〜7)も含めて、3〜7枚目の画像(5枚分)の評価値の棒グラフを表示モニタ20にさせる。   FIG. 8 is a diagram illustrating an example of display processing by the display control unit 24d. For example, when the display control unit 24d displays an image having an evaluation value of 10 on the display monitor 20, the display control unit 24d sets the color of the display frame W to green. Thus, the user can instantaneously select a photo opportunity with the color of the display frame W while concentrating on selecting the pose of the subject. Alternatively, the user can discriminate the evaluation value of the current image by looking at the graph displayed on the display monitor 20, so that the photo opportunity can be selected instantaneously. Note that the display control unit 24d sequentially displays, for example, a bar graph of evaluation values of the currently displayed image and subsequent four images on the display monitor 20. As an example, as shown in FIG. 8, when the currently displayed image is the third image (n = 3), the display control unit 24 d acquires images (n = 4 to 7) acquired at a later time than that image. ), The bar graph of the evaluation values of the third to seventh images (for five images) is displayed on the display monitor 20.

ステップS202:CPU24は、全押し時の撮影開始時刻を取得する。具体的には、CPU24は、CPU24内部の時計機能により撮影開始時刻を取得する。そして、CPU24は、ステップS203の処理に移行する。   Step S202: The CPU 24 acquires the shooting start time when fully pressed. Specifically, the CPU 24 acquires the shooting start time by using a clock function inside the CPU 24. And CPU24 transfers to the process of step S203.

ステップS203:CPU24は、撮影開始時刻に表示モニタ20に表示していた画像を記録用の画像として選択する。つまり、CPU24は、スローライブモードのスロー再生処理と撮影処理とを独立に制御している。そのため、いわゆるレリーズタイムラグにより、表示モニタ20に次の画像が表示されている場合が起こり得るので、CPU24は、撮影開始時刻に表示モニタ20に表示していた画像を記録用の画像として選択する。CPU24は、記録用の画像を選択した後、ステップS204の処理に移行する。   Step S203: The CPU 24 selects an image displayed on the display monitor 20 at the photographing start time as a recording image. That is, the CPU 24 independently controls the slow playback process and the shooting process in the slow live mode. For this reason, since the next image may be displayed on the display monitor 20 due to a so-called release time lag, the CPU 24 selects the image displayed on the display monitor 20 at the shooting start time as the image for recording. After selecting an image for recording, the CPU 24 proceeds to the process of step S204.

ステップS204:CPU24は、ステップS203で選択した画像よりも評価値の高い画像が、前後の何れかの画像に存在するか否かを判定する。前後の何れかの画像に存在しない場合(ステップS204:No)、CPU24は、ステップS206の処理に移行する。一方、前後の何れかの画像に存在した場合(ステップS204:Yes)、CPU24は、ステップS205の処理に移行する。なお、ステップS204の処理では、前後の何れかの画像として1枚前の画像又は1枚後の画像としているが、例えば、マニュアル設定で数枚前までの画像から数枚後の画像としても良い。   Step S204: The CPU 24 determines whether an image having a higher evaluation value than the image selected in step S203 is present in any one of the preceding and succeeding images. If it does not exist in any of the preceding and succeeding images (step S204: No), the CPU 24 proceeds to the process of step S206. On the other hand, if it exists in any of the previous and subsequent images (step S204: Yes), the CPU 24 proceeds to the process of step S205. In the process of step S204, the previous image or the next image is used as one of the previous and next images, but for example, it may be an image from several images up to several images after manual setting. .

ステップS205:CPU24は、評価値のより高い画像を記録用の画像に変更して選択する。これにより、CPU24は、より評価値の高い画像を記録用の画像として選択することができる。そして、CPU24は、ステップS206の処理に移行する。   Step S205: The CPU 24 selects an image having a higher evaluation value by changing it to a recording image. Thus, the CPU 24 can select an image with a higher evaluation value as a recording image. And CPU24 transfers to the process of step S206.

ステップS206:CPU24の記録処理部24eは、本画像(記録用の画像)の記録処理を行なう。具体的には、記録処理部24eは、選択された記録用の画像データをスロー表示用バッファから読み出して、RAM16の作業領域にその画像データを一時的に記録する。続いて、画像処理部17は、その画像データに対して各種の画像処理(例えば、色補間処理、ホワイトバランス等)を施す。記録処理部24eは、各種の画像処理が施された後の画像を記録媒体30に記録する。したがって、記録処理部24eは、いわゆるレリーズタイムラグを回避して撮影開始時刻に表示モニタ20に表示していた画像を記録用の画像として記録することができる。そして、CPU24は、図5に示すフローの処理を終了させる。   Step S206: The recording processing unit 24e of the CPU 24 performs a recording process of the main image (recording image). Specifically, the recording processing unit 24e reads the selected recording image data from the slow display buffer, and temporarily records the image data in the work area of the RAM 16. Subsequently, the image processing unit 17 performs various types of image processing (for example, color interpolation processing, white balance, etc.) on the image data. The recording processing unit 24 e records the image after various image processing is performed on the recording medium 30. Therefore, the recording processing unit 24e can record the image displayed on the display monitor 20 at the photographing start time as a recording image while avoiding a so-called release time lag. Then, the CPU 24 ends the process of the flow shown in FIG.

以上より、本実施形態の電子カメラ1では、スローライブ撮影において、例えば、現在表示中の画像の評価値の評価結果やその画像よりも後の時刻に取得された画像の各々の評価値の評価結果をユーザが表示モニタ20で確認することができる。したがって、電子カメラ1では、スローライブ撮影において、スロー再生中に良い画像を予め知ることができるため、シャッタチャンスを逃さずに所望の画像を取得しやすくする手段を提供できる。   As described above, in the electronic camera 1 of the present embodiment, in slow live shooting, for example, evaluation results of evaluation values of an image currently being displayed and evaluations of evaluation values of images acquired at a later time than that image. The result can be confirmed on the display monitor 20 by the user. Therefore, since the electronic camera 1 can know in advance a good image during slow reproduction in slow live shooting, it can provide means for easily obtaining a desired image without missing a shutter chance.

(実施形態の補足事項)
以下、上記の実施形態の補足事項について説明する。
(Supplementary items of the embodiment)
Hereinafter, supplementary items of the above embodiment will be described.

(1)上記の実施形態において、評価値算出部24cは、顔の状態の判定を行なったが、ぼけ状態の判定と、露出状態の判定と、顔の状態の判定とを行ない、総合評価を算出しても良い。これにより、ユーザは良好な画像を撮影しやすくなる。例えば、評価値算出部24cは、ぼけ状態の判定においてピントが合っていれば、OKの判定をする。また、評価値算出部24cは、露出状態の判定において予め設定した閾値より明るい場合、OKの判定をする。また、評価値算出部24cは、顔の状態の判定において第1状態(瞼が開いた状態)であれば、OKの判定をする。そして、評価値算出部24cは、評価対象の3つのパラメータ(ぼけ状態、露出状態、顔の状態)に基づいて、総合評価を行なう。例えば、評価値算出部24cは、総合評価の評価結果をA、B、Cの3段階でランク付けを行なう。評価値算出部24cは、3つのパラメータが全てOKの場合には、総合評価としてAの評価とする。或いは、評価値算出部24cは、ぼけ状態及び露出状態がOKの判定であり、顔の状態が目を閉じていなければ、総合評価としてBの評価とする。或いは、評価値算出部24cは、ぼけ状態と露出状態との少なくとも一方が、OKの判定でない場合には総合評価としてCの評価とする。   (1) In the above embodiment, the evaluation value calculation unit 24c performs the determination of the face state. However, the evaluation value calculation unit 24c performs the comprehensive evaluation by performing the determination of the blur state, the determination of the exposure state, and the determination of the face state. It may be calculated. This makes it easier for the user to take a good image. For example, if the out-of-focus state is in focus, the evaluation value calculation unit 24c determines OK. The evaluation value calculation unit 24c determines OK when the exposure state is brighter than a preset threshold value. Further, the evaluation value calculation unit 24c makes an OK determination if the face state is determined to be in the first state (a state where the eyelids are open). Then, the evaluation value calculation unit 24c performs comprehensive evaluation based on three parameters to be evaluated (blurred state, exposed state, and facial state). For example, the evaluation value calculation unit 24c ranks the evaluation results of the comprehensive evaluation in three stages of A, B, and C. If all three parameters are OK, the evaluation value calculation unit 24c sets A as an overall evaluation. Alternatively, the evaluation value calculation unit 24c determines that the blurred state and the exposed state are OK, and if the face state is not closed, the evaluation is B as a comprehensive evaluation. Alternatively, the evaluation value calculation unit 24c sets C as an overall evaluation when at least one of the blurred state and the exposed state is not OK.

図9は、表示制御部24dによる表示処理の一例を説明する図である。表示制御部24dは、一例として、現在表示中の画像に対して、表示モニタ20に3つのパラメータの評価結果と総合評価の評価結果を表示するようにしても良い。これにより、ユーザは、被写体のポーズ等の選択に集中しながら総合評価を参照できるので、シャッタチャンスの画像の選択の判断を瞬時にすることができる。なお、評価値算出部24cは、評価対象の3つのパラメータ(ぼけ状態、露出状態、顔の状態)の評価値を各々数値化して、合計した値を総合評価の値としても良い。   FIG. 9 is a diagram illustrating an example of display processing by the display control unit 24d. For example, the display control unit 24d may display the evaluation result of the three parameters and the evaluation result of the comprehensive evaluation on the display monitor 20 for the currently displayed image. Accordingly, the user can refer to the comprehensive evaluation while concentrating on the selection of the pose of the subject and the like, so that the selection of the image with the photo opportunity can be instantaneously determined. Note that the evaluation value calculation unit 24c may digitize the evaluation values of the three evaluation target parameters (blurred state, exposure state, and facial state), and use the total value as the value of the overall evaluation.

また、上記の実施形態において、評価値算出部24cは、評価対象のパラメータとして、ぼけ状態、露出状態、顔の状態を取り上げたが、これらのパラメータに限られず、例えば、手ブレ状態等の他のパラメータを適宜加えても良い。   In the above-described embodiment, the evaluation value calculation unit 24c takes the blurred state, the exposed state, and the face state as the parameters to be evaluated. However, the evaluation value calculating unit 24c is not limited to these parameters. These parameters may be added as appropriate.

(2)上記の実施形態では、スローライブモードにおいて、表示制御部24dの表示態様を図7〜図9に例示したが、視覚に訴える表示態様としては、上述した内容に限られず、他の表示態様であっても良い。   (2) In the above embodiment, the display mode of the display control unit 24d is illustrated in FIGS. 7 to 9 in the slow live mode. However, the display mode appealing visually is not limited to the above-described content, and other display modes. An aspect may be sufficient.

図10は、表示制御部24dによる表示処理の一例を説明する図である。図10では、総合評価の評価結果を、4段階(A〜D)に分類付けをしている。Aは最も良好な画像であり、Bは良好な画像であり、Cはやや良好な画像であり、Dは撮影に不向きな画像である。なお、図10では、各々異なる評価結果(A〜D)に対応するマークで例示している。   FIG. 10 is a diagram illustrating an example of display processing by the display control unit 24d. In FIG. 10, the evaluation results of the comprehensive evaluation are classified into four levels (A to D). A is the best image, B is a good image, C is a slightly good image, and D is an image unsuitable for photographing. In addition, in FIG. 10, it illustrates with the mark corresponding to each different evaluation result (AD).

ここで、評価値算出部24cは、最も良好な画像の判定基準として、例えば、上述した評価対象の3つのパラメータ(ぼけ状態、露出状態、顔の状態)において、全てOKの判定に加え、顔認識部24bが笑顔を認識することにより、笑顔である場合に最も良好な画像(A)と判定する。なお、図10におけるB〜Dの評価基準については、図9で上述した総合評価A〜Cの評価基準にそれぞれ対応することとする。つまり、図10のB(良好な画像)は、図9での総合評価Aの評価基準と同様であり、図10のC(やや良好な画像)は、図9での総合評価Bの評価基準と同様であり、図10のD(撮影に不向きな画像)は、図9での総合評価Cの評価基準と同様である。また、図10では、10枚の画像の評価結果を表示モニタ20に表示させることとする。すなわち、表示制御部24dは、一例として、現在表示中の画像、及びそれに続く9枚分の画像の評価結果を示すマーク(10枚分)を表示モニタ20に順次表示させていく。なお、図10では、説明をわかりやすくするため、マークの上に数字を表示させているが、表示制御部24dは、これらの数字を表示させなくても良い。或いは、表示制御部24dは、常に10枚分のマークを表示させるという意味で、図10(b)、図10(c)においても、図10(a)と同様にして、数字の1〜10を表示させるようにしても良い。また、図10では、説明の便宜上、A〜Dの評価結果を示す文字を表示させているが、表示制御部24dは、これらの文字を表示させなくても良い。   Here, the evaluation value calculation unit 24c, as a determination criterion for the best image, for example, in addition to determining whether all of the three evaluation target parameters (blur state, exposure state, and face state) are OK, When the recognition unit 24b recognizes a smile, the image (A) is determined to be the best when it is a smile. Note that the evaluation criteria of B to D in FIG. 10 correspond to the evaluation criteria of the comprehensive evaluations A to C described above in FIG. That is, B (good image) in FIG. 10 is the same as the evaluation standard for comprehensive evaluation A in FIG. 9, and C (slightly good image) in FIG. 10 is the evaluation standard for comprehensive evaluation B in FIG. In FIG. 10, D (an image unsuitable for photographing) is the same as the evaluation standard of the comprehensive evaluation C in FIG. In FIG. 10, the evaluation results of 10 images are displayed on the display monitor 20. That is, as an example, the display control unit 24d sequentially displays on the display monitor 20 marks (for 10 images) indicating the evaluation results of the currently displayed image and subsequent nine images. In FIG. 10, numbers are displayed on the marks for easy understanding, but the display control unit 24 d may not display these numbers. Alternatively, the display control unit 24d always displays 10 marks, and in FIGS. 10 (b) and 10 (c), the numbers 1 to 10 are used as in FIG. 10 (a). May be displayed. In FIG. 10, for the convenience of explanation, characters indicating the evaluation results of A to D are displayed, but the display control unit 24 d may not display these characters.

図10(a)では、表示制御部24dは、1枚目の画像を表示モニタ20に表示させる。ユーザは、表示モニタ20を見ることにより、撮影に不向きな画像であることが視覚的に分かる。なお、表示制御部24dが撮影に不向きな画像を表示モニタ20に表示させるのは、撮影に不向きな画像を間引くことにより動きが不連続になるのを避けるためである。   In FIG. 10A, the display control unit 24d causes the display monitor 20 to display the first image. The user visually recognizes that the image is unsuitable for photographing by looking at the display monitor 20. The reason why the display control unit 24d displays an image unsuitable for photographing on the display monitor 20 is to avoid discontinuous movement by thinning out the unsuitable image for photographing.

図10(b)では、表示制御部24dは、3枚目の画像を表示モニタ20に表示させる。ここで、ユーザは、表示モニタ20に表示された現在表示中の画像のマークを見ることにより、撮影に良好な画像であることが視覚的に分かる。ただし、表示制御部24dは、表示モニタ20に最も良好な画像が7枚目(n=7)にあることをマークにより表示させているので、ユーザは、3枚目の画像に対して全押し操作を思い留まることができる。   In FIG. 10B, the display control unit 24d causes the display monitor 20 to display the third image. Here, the user can visually recognize that the image is favorable for photographing by looking at the mark of the image currently displayed on the display monitor 20. However, since the display control unit 24d displays the mark indicating that the best image is on the seventh image (n = 7) on the display monitor 20, the user fully presses the third image. You can discourage the operation.

図10(c)では、表示制御部24dは、7枚目の画像を表示モニタ20に表示させる。ここで、ユーザは、表示モニタ20に表示された現在表示中の画像のマークや表示枠Wの色等を見ることにより、撮影に良好な画像であることが視覚的に分かる。そこで、ユーザは、7枚目の画像が表示モニタ20に表示されている際、全押し操作をすれば良いことが分かる。したがって、本実施形態のスローライブモードでは、従来のスロー再生のように、ユーザが、もっと良い画像があることを期待してシャッタチャンスを待っていたものの、結局良い画像がなかったという問題を回避することができる。   In FIG. 10C, the display control unit 24d causes the display monitor 20 to display the seventh image. Here, the user can visually recognize that the image is favorable for photographing by looking at the mark of the image currently displayed on the display monitor 20 and the color of the display frame W. Therefore, it can be understood that the user only has to perform the full pressing operation when the seventh image is displayed on the display monitor 20. Therefore, the slow live mode of this embodiment avoids the problem that the user waited for a photo opportunity in the hope of having a better image, but did not have a good image after all, unlike the conventional slow playback. can do.

なお、表示制御部24dは、被写体の画像を全画面表示にして、評価結果を表示モニタ20に重畳表示させるようにしても良い。   The display control unit 24d may display the subject image in full screen and display the evaluation result on the display monitor 20 in a superimposed manner.

図11は、表示制御部24dによる表示処理の一例を説明する図である。図11において、表示制御部24dは、人物P1の被写体を全画面表示にして、図10で示したAからDの評価結果を重畳表示させる。これにより、被写体が画面全体に表示されるので、表示制御部24dは、被写体の視認性を向上させることができる。また、表示制御部24dは、上記の通り、現在表示中の画像を含めて常にn枚(nは、表示処理に適した任意の枚数)先までの画像の評価結果を表示モニタ20に表示させるようにしても良い。   FIG. 11 is a diagram illustrating an example of display processing by the display control unit 24d. In FIG. 11, the display control unit 24 d displays the subject of the person P <b> 1 on a full screen and displays the evaluation results A to D shown in FIG. 10 in a superimposed manner. As a result, the subject is displayed on the entire screen, and thus the display control unit 24d can improve the visibility of the subject. Further, as described above, the display control unit 24d causes the display monitor 20 to display the evaluation results of images up to n sheets (n is an arbitrary number suitable for display processing) ahead including the currently displayed image. You may do it.

(3)上記の実施形態では、スローライブモードにおいて、スロー再生の時間間隔(1コマのコマ送り時間)は一定であったが、これは一例であって、スロー再生の時間間隔をユーザ入力に応じて適宜変更しても良い。   (3) In the above embodiment, the slow playback time interval (one frame advance time) is constant in the slow live mode, but this is only an example, and the slow playback time interval is set as a user input. You may change suitably according to it.

図12は、スローライブモードにおけるスロー再生の一例を説明する図である。図12(a)は、スローライブモードにおける連写撮影で得られる画像を模式的に表している。この例において、CPU24は、20fpsで20枚の画像の連写撮影を行なう。画像取得部24aは、撮像素子14が生成する20枚の画像をRAM16のスロー表示用バッファに記録する。   FIG. 12 is a diagram illustrating an example of slow playback in the slow live mode. FIG. 12A schematically shows an image obtained by continuous shooting in the slow live mode. In this example, the CPU 24 performs continuous shooting of 20 images at 20 fps. The image acquisition unit 24 a records the 20 images generated by the image sensor 14 in the slow display buffer of the RAM 16.

図12(b)は、スローライブモードにおけるスロー再生を模式的に表している。本実施形態では、スロー再生の操作部材として、例えば、図2に示す選択・決定釦23eのダイヤル23gを利用しても良い。例えば、ユーザがダイヤル23gを時計回りに回転させた場合、表示制御部24dは、現在表示中のスロー再生の時間間隔をより長くする。一方、ユーザがダイヤル23gを反時計回りに回転させた場合、表示制御部24dは、現在表示中のスロー再生の時間間隔をより短くする。   FIG. 12B schematically illustrates slow reproduction in the slow live mode. In the present embodiment, for example, the dial 23g of the selection / determination button 23e shown in FIG. For example, when the user rotates the dial 23g clockwise, the display control unit 24d increases the time interval of the slow playback currently being displayed. On the other hand, when the user rotates the dial 23g counterclockwise, the display control unit 24d further shortens the time interval of the slow playback currently being displayed.

図12(b)において、表示制御部24dは、初期設定において1秒間隔でスロー再生をする。ここで、ユーザがダイヤル23gを時計回りに回転させた場合、表示制御部24dは、現在表示中の1枚毎のスロー再生の時間間隔を1秒から2秒に長くする。   In FIG. 12B, the display control unit 24d performs slow reproduction at 1 second intervals in the initial setting. Here, when the user rotates the dial 23g clockwise, the display control unit 24d extends the slow playback time interval for each currently displayed sheet from 1 second to 2 seconds.

図12(c)は、9〜12枚目の画像の被写体(人物P2)を例示している。例えば、評価値算出部24cの評価結果が12枚目の画像を最も良好な場合と判定した場合、表示制御部24dは、12枚目の画像を表示モニタ20に表示する際、例えば表示枠の色を緑色に変化させてユーザに最も良好な画像であることを報知する。この際、現在表示中のスロー再生の時間間隔がスロー再生開始時よりも長くなっているので、ユーザはシャッタチャンスに全押し操作がしやすくなる。   FIG. 12C illustrates the subject (person P2) of the ninth to twelfth images. For example, when the evaluation result of the evaluation value calculation unit 24c determines that the 12th image is the best, the display control unit 24d displays, for example, a display frame when displaying the 12th image on the display monitor 20. The color is changed to green to notify the user that the image is the best. At this time, since the slow playback time interval currently being displayed is longer than that at the start of the slow playback, the user can easily perform a full-press operation in a photo opportunity.

(4)補足事項(3)において、スロー再生の操作部材として、ダイヤル23gを利用したが、例えば、レリーズ釦を利用して、スロー再生の時間間隔を変化させても良い。   (4) In supplementary matter (3), the dial 23g is used as the operation member for slow playback. However, for example, the time interval for slow playback may be changed using a release button.

図13は、レリーズ釦を利用した場合のスロー再生の概念図である。図13(a)は、全押し操作までのスロー再生の概念図であり、図13(b)は全押し操作時の概念図である。ここでは、図1に示す電子カメラ1の構成において、レリーズ釦22をスロー再生の操作可能なレリーズ釦22aで置き換える。また、レリーズ釦22aは、圧力センサ27を介してCPU24と接続されている。圧力センサ27は、例えば、レリーズ釦22aを介して指の圧力を感圧素子で計測し、検知(電気)信号に変換しCPU24に出力するセンサである。   FIG. 13 is a conceptual diagram of slow playback when the release button is used. FIG. 13A is a conceptual diagram of slow playback up to a full press operation, and FIG. 13B is a conceptual diagram at the time of a full press operation. Here, in the configuration of the electronic camera 1 shown in FIG. 1, the release button 22 is replaced with a release button 22a that can be operated for slow playback. The release button 22 a is connected to the CPU 24 via the pressure sensor 27. The pressure sensor 27 is, for example, a sensor that measures the finger pressure with a pressure-sensitive element via the release button 22 a, converts it into a detection (electric) signal, and outputs it to the CPU 24.

CPU24は、検知信号を受信し、表示制御部24dは、その検知信号に応じてスロー再生の時間間隔を変化させて、画像を表示モニタ20に表示させる。   The CPU 24 receives the detection signal, and the display control unit 24d changes the slow playback time interval in accordance with the detection signal and causes the display monitor 20 to display an image.

具体的には、ユーザの指Fがレリーズ釦22aを押し込むに伴い、圧力センサ27の検知信号の値は現在の値から大きくなる。また、ユーザの指Fがレリーズ釦22aの押し込みを緩めた場合、圧力センサ27の検知信号の値は現在の値から小さくなる(図13(a)参照)。   Specifically, as the user's finger F pushes the release button 22a, the value of the detection signal of the pressure sensor 27 increases from the current value. When the user's finger F loosens the release button 22a, the value of the detection signal of the pressure sensor 27 becomes smaller than the current value (see FIG. 13A).

したがって、CPU24は、レリーズ釦22の押し込みに応じて、表示制御部24dにスロー再生の時間間隔を制御する指示を出す。つまり、ユーザの指Fがレリーズ釦22aを押し込むに伴い、表示制御部24dは、スロー再生の時間間隔を長くする。一方、ユーザの指Fがレリーズ釦22aの押し込みを緩めた場合、レリーズ釦22aが元の位置に戻るに従って、スロー再生が元の時間間隔になる構成とする。また、CPU24は、ユーザの指Fがレリーズ釦22を完全に押し込んだときに全押し操作として記録用の画像の撮影の指示入力を受け付ける(図13(b)参照)。   Accordingly, the CPU 24 instructs the display control unit 24d to control the time interval for slow playback in response to the pressing of the release button 22. That is, as the user's finger F pushes the release button 22a, the display control unit 24d increases the time interval for slow reproduction. On the other hand, when the user's finger F loosens the depression of the release button 22a, the slow playback becomes the original time interval as the release button 22a returns to the original position. Further, the CPU 24 receives an instruction input for recording an image for recording as a full pressing operation when the user's finger F fully presses the release button 22 (see FIG. 13B).

なお、レリーズ釦22aは、半押し操作から全押し操作の間をスロー再生の操作可能なコントロールデバイスとしても良いし、或いは、レリーズ釦22aは、初期状態からユーザがレリーズ釦22aを完全に押し込んだ状態までをスロー再生の操作可能なコントロールデバイスとしても良い。このようなスロー再生の操作可能なレリーズ釦22aを用いることにより、ユーザはシャッタチャンスに全押し操作がしやすくなる。   The release button 22a may be a control device that can perform a slow playback operation between a half-press operation and a full-press operation. Alternatively, the release button 22a is a user who has fully pressed the release button 22a from the initial state. It is also possible to use a control device capable of slow playback operation up to the state. By using such a release button 22a that can be operated for slow reproduction, it becomes easier for the user to fully press the shutter chance.

(5)上記の実施形態では、評価値の算出処理は、図4に示す通り、読み出し(表示)時に行なったが、書き込み時(撮像時)に行なっても良い。   (5) In the above embodiment, the evaluation value calculation process is performed at the time of reading (displaying) as shown in FIG. 4, but may be performed at the time of writing (at the time of imaging).

(6)上記の実施形態では、本発明の適用可能な撮像装置として、コンパクト方式の電子カメラを例示したが、この方式の電子カメラに限られず、例えば、一眼レフ方式の電子カメラ、デジタルビデオカメラ等の静止画及び動画をデジタル方式で撮影することができるカメラが含まれる。また、本発明の適用可能な撮像装置は、携帯電話機、携帯情報端末(PDA:Personal Digital Assistant)、その他の撮像機能を備える電子装置等も含まれる。   (6) In the above embodiment, the compact type electronic camera is exemplified as the imaging apparatus to which the present invention can be applied. However, the present invention is not limited to this type of electronic camera, for example, a single-lens reflex type electronic camera, a digital video camera. A camera that can take still images and moving images such as digital images in a digital manner is included. In addition, the imaging apparatus to which the present invention can be applied includes a mobile phone, a personal digital assistant (PDA), an electronic apparatus having other imaging functions, and the like.

1・・・電子カメラ、14・・・撮像素子、24a・・・画像取得部、24c・・・評価値算出部、24d・・・表示制御部 DESCRIPTION OF SYMBOLS 1 ... Electronic camera, 14 ... Image sensor, 24a ... Image acquisition part, 24c ... Evaluation value calculation part, 24d ... Display control part

Claims (10)

被写体像を撮像し、画像を生成する撮像素子と、
前記撮像素子が第1の時間間隔で時系列に生成する複数の前記画像を取得する画像取得部と、
前記画像取得部が取得した複数の前記画像を解析することにより、前記画像毎の評価値を算出する評価値算出部と、
複数の前記画像を前記第1の時間間隔よりも長い第2の時間間隔で表示装置に順次表示させると共に、現在表示中の画像の前記評価値の評価結果、及び/又は、該画像よりも後の時刻に取得された画像を含む各々の前記評価値の評価結果を前記表示装置に表示させる表示制御部と、
を備えることを特徴とする撮像装置。
An image sensor that captures a subject image and generates an image;
An image acquisition unit that acquires the plurality of images that the image sensor generates in time series at a first time interval;
An evaluation value calculation unit that calculates an evaluation value for each image by analyzing the plurality of images acquired by the image acquisition unit;
The plurality of images are sequentially displayed on the display device at a second time interval longer than the first time interval, and the evaluation result of the evaluation value of the currently displayed image and / or after the image is displayed. A display control unit that causes the display device to display an evaluation result of each of the evaluation values including the image acquired at the time of
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
記録用の画像を記録する指示入力を受け付ける受付部と、
前記受付部が前記指示入力を受け付けた時刻に基づいて、前記表示制御部が前記時刻に前記表示装置に表示していた画像を前記記録用の画像として記録処理する記録処理部とをさらに備えることを特徴とする撮像装置。
The imaging device according to claim 1,
A receiving unit for receiving an instruction input for recording an image for recording;
And a recording processing unit that records the image displayed on the display device at the time by the display control unit as the recording image based on the time at which the receiving unit receives the instruction input. An imaging apparatus characterized by the above.
請求項2に記載の撮像装置において、
前記表示制御部が前記時刻に前記表示装置に表示していた画像の前後の何れかに前記評価値のより高い画像が存在していた場合には、前記記録処理部は、前記評価値のより高い画像を前記記録用の画像として記録処理することを特徴とする撮像装置。
The imaging device according to claim 2,
If there is an image with a higher evaluation value before or after the image displayed on the display device by the display control unit at the time, the recording processing unit An image pickup apparatus that records a high image as the image for recording.
請求項1から請求項3の何れか1項に記載の撮像装置において、
前記評価値算出部は、前記評価値として、ぼけ状態と、露出状態と、被写体の顔の状態とのうちの少なくとも1つを評価することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 3,
The evaluation value calculation unit evaluates at least one of a blurred state, an exposure state, and a face state of a subject as the evaluation value.
請求項4に記載の撮像装置において、
前記評価値算出部は、複数の種類の前記評価値に基づく総合評価を画像毎に算出し、
前記表示制御部は、前記総合評価の評価結果を前記表示装置に表示させることを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The evaluation value calculation unit calculates a comprehensive evaluation based on the evaluation values of a plurality of types for each image,
The display control unit displays an evaluation result of the comprehensive evaluation on the display device.
請求項1から請求項5の何れか1項に記載の撮像装置において、
前記表示制御部は、前記画像毎の前記評価結果を視覚に訴える表示態様で前記表示装置に表示させることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 5,
The said display control part displays the said evaluation result for every said image on the said display apparatus in the display mode which appeals visually. The imaging device characterized by the above-mentioned.
請求項6に記載の撮像装置において、
前記表示制御部は、現在表示中の画像を囲む枠をさらに前記表示装置に重畳表示させると共に、前記評価結果に応じて、前記枠の色表示を変えることを特徴とする撮像装置。
The imaging device according to claim 6,
The display control unit causes the display device to further superimpose a frame surrounding the currently displayed image, and changes the color display of the frame according to the evaluation result.
請求項1に記載の撮像装置において、
前記第2の時間間隔の設定をユーザ入力により受け付ける操作部材をさらに備え、
前記表示制御部は、前記ユーザ入力に応じて前記第2の時間間隔を変化させて、前記画像を表示装置に表示させることを特徴とする撮像装置。
The imaging device according to claim 1,
An operation member that receives the setting of the second time interval by a user input;
The display control unit displays the image on a display device by changing the second time interval according to the user input.
請求項2に記載の撮像装置において、
前記受付部を介して指の圧力を検出する圧力センサをさらに備え、
前記表示制御部は、前記圧力センサからの検知信号に応じて前記第2の時間間隔を変化させて、前記画像を表示装置に表示させることを特徴とする撮像装置。
The imaging device according to claim 2,
A pressure sensor for detecting the pressure of the finger via the reception unit;
The display control unit displays the image on a display device by changing the second time interval according to a detection signal from the pressure sensor.
被写体像を撮像し、画像を生成させる撮像処理と、
前記撮像素子が第1の時間間隔で時系列に生成する複数の前記画像を取得する画像取得処理と、
複数の前記画像を解析することにより、前記画像毎の評価値を算出する評価値算出処理と、
複数の前記画像を前記第1の時間間隔よりも長い第2の時間間隔で表示装置に順次表示させると共に、現在表示中の画像の前記評価値の評価結果、及び/又は、該画像よりも後の時刻に取得された画像を含む各々の前記評価値の評価結果を前記表示装置に表示させる表示制御処理と、
をコンピュータに実行させることを特徴とするプログラム。
An imaging process for capturing a subject image and generating an image;
An image acquisition process for acquiring a plurality of the images generated in time series by the imaging element at a first time interval;
An evaluation value calculation process for calculating an evaluation value for each image by analyzing a plurality of the images;
The plurality of images are sequentially displayed on the display device at a second time interval longer than the first time interval, and the evaluation result of the evaluation value of the currently displayed image and / or after the image is displayed. Display control processing for causing the display device to display an evaluation result of each of the evaluation values including the image acquired at the time of
A program that causes a computer to execute.
JP2012043320A 2012-02-29 2012-02-29 Image pickup device and program Pending JP2013179548A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012043320A JP2013179548A (en) 2012-02-29 2012-02-29 Image pickup device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012043320A JP2013179548A (en) 2012-02-29 2012-02-29 Image pickup device and program

Publications (1)

Publication Number Publication Date
JP2013179548A true JP2013179548A (en) 2013-09-09

Family

ID=49270804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012043320A Pending JP2013179548A (en) 2012-02-29 2012-02-29 Image pickup device and program

Country Status (1)

Country Link
JP (1) JP2013179548A (en)

Similar Documents

Publication Publication Date Title
US7706674B2 (en) Device and method for controlling flash
TWI420902B (en) Camera, camera control program, and camera control method
US8823864B2 (en) Image capturing apparatus and associated methodology for auto-focus and facial detection
US8395694B2 (en) Apparatus and method for blurring image background in digital image processing device
JP4657960B2 (en) Imaging method and apparatus
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP2007311861A (en) Photographic apparatus and method
TW200952472A (en) Image capturing apparatus capable of displaying live preview image
US20120133822A1 (en) Imaging apparatus and method
JP5782813B2 (en) Imaging apparatus and image display method
JP6652039B2 (en) Imaging device, imaging method, and program
US20100033591A1 (en) Image capturing apparatus and control method therefor
JP2012156644A (en) Electronic camera, program, and recording media
JP5051812B2 (en) Imaging apparatus, focusing method thereof, and recording medium
JP2009010616A (en) Imaging device and image output control method
JP2013008004A (en) Imaging apparatus
JP5849389B2 (en) Imaging apparatus and imaging method
US20130257896A1 (en) Display device
JP2007299339A (en) Image reproducing device, method and program
JP2007235640A (en) Photographing device and method
JP2008263478A (en) Imaging apparatus
JP2007208355A (en) Photographing device, method, and program
US8073319B2 (en) Photographing method and photographing apparatus based on face detection and photography conditions
JP2008028956A (en) Imaging apparatus and method for generating image signal for detecting target therein
JP2013179548A (en) Image pickup device and program