JP2006042399A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2006042399A
JP2006042399A JP2005306039A JP2005306039A JP2006042399A JP 2006042399 A JP2006042399 A JP 2006042399A JP 2005306039 A JP2005306039 A JP 2005306039A JP 2005306039 A JP2005306039 A JP 2005306039A JP 2006042399 A JP2006042399 A JP 2006042399A
Authority
JP
Japan
Prior art keywords
image
area
images
mode
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005306039A
Other languages
Japanese (ja)
Inventor
Toshihito Kido
稔人 木戸
Katsuhito Shinkawa
勝仁 新川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2005306039A priority Critical patent/JP2006042399A/en
Publication of JP2006042399A publication Critical patent/JP2006042399A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus with which a plurality of images of different fields of view can be photographed easily. <P>SOLUTION: This digital camera is provided with a single CCD image sensor. Two images PA, PB (for example, an image PA (GI) that corresponds to the whole area of the CCD image sensor, and an image PB (LB) that corresponds to the part of the area of the CCD image sensor) are alternately read out from the different areas of the CCD image sensor, and are stored to generate moving image data. The two images may be extracted from an image read out at a time from the CCD image sensor. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、複数の画像を撮影することが可能な撮像装置に関する。   The present invention relates to an imaging apparatus capable of capturing a plurality of images.

同時点の被写体を撮影して、その視野が異なる複数の画像を得る撮像装置が存在する。このような撮像装置としては、たとえば、特許文献1に記載されるものが知られている。   There is an imaging apparatus that captures a subject at the same time and obtains a plurality of images having different fields of view. As such an imaging device, for example, the one described in Patent Document 1 is known.

特許文献1には、複数のカメラを用いて被写体を異なる角度から撮影して記録するマルチアングル撮影装置が記載されている。   Patent Document 1 describes a multi-angle photographing apparatus that photographs and records a subject from different angles using a plurality of cameras.

特開2002−135706号公報JP 2002-135706 A

しかしながら、上記の特許文献1の技術は、複数のカメラを用いることを前提にしている。したがって、装置が大がかりになり、視野が異なる複数の画像を手軽に撮影することが困難であるという問題がある。   However, the technique disclosed in Patent Document 1 is premised on using a plurality of cameras. Therefore, there is a problem that the apparatus becomes large and it is difficult to easily take a plurality of images having different fields of view.

そこで、この発明の課題は、前記問題点に鑑み、視野が異なる複数の画像を手軽に撮影することが可能な撮像装置を提供することにある。   In view of the above problems, an object of the present invention is to provide an imaging apparatus capable of easily capturing a plurality of images having different fields of view.

上記課題を解決すべく、請求項1の発明は、撮像装置であって、撮影光学系と当該撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子とを有する単一の撮像手段と、前記撮像素子における第1エリアに対応する画像データに基づいて、前記第1エリアの一部のエリアを第2エリアとして決定する制御手段と、前記第1エリアに対応する第1動画データを構成するフレーム画像と前記第2エリアに対応する第2動画データを構成するフレーム画像とを前記撮像素子から交互に読み出す読出手段と、前記第1動画データと前記第2動画データとを記録する記録手段とを備えることを特徴とする。   In order to solve the above-mentioned problem, the invention of claim 1 is an image pickup apparatus, which is a single image pickup means having an image pickup optical system and an image pickup device for picking up a subject image from the image pickup optical system using photoelectric conversion. And control means for determining a part of the first area as a second area based on image data corresponding to the first area in the image sensor; and first moving image data corresponding to the first area. Read means for alternately reading frame images constituting the frame images constituting the second moving image data corresponding to the second area from the image sensor, and recording for recording the first moving image data and the second moving image data Means.

請求項2の発明は、撮像装置であって、撮影光学系と当該撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子とを有する単一の撮像手段と、前記撮像素子における第1エリアおよび第2エリアを含むエリアに対応する画像データを前記撮像素子から一度に読み出す読出手段と、前記読出手段により読み出された画像データから、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを抽出し、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを交互に記録して2つの動画データを作成する記録手段とを備えることを特徴とする。   The invention of claim 2 is an image pickup apparatus, wherein the image pickup optical system and a single image pickup means for picking up a subject image from the image pickup optical system using photoelectric conversion, and a first image pickup device in the image pickup element. Reading means for reading image data corresponding to an area including the first area and the second area from the imaging device at a time, and image data corresponding to the first area and the first data from the image data read by the reading means. And recording means for extracting image data corresponding to two areas, and alternately recording image data corresponding to the first area and image data corresponding to the second area to create two moving image data. It is characterized by that.

請求項1に記載の発明によれば、単一の撮像手段の撮像素子から、第1エリアに対応する第1動画データを構成するフレーム画像と第2エリアに対応する第2動画データを構成するフレーム画像とが交互に読み出されて、記録されるので、複数のカメラを準備する必要がなく、視野が異なる複数の動画像を手軽に撮影することが可能である。また、第2エリアが、第1エリアに対応する画像データに基づいて決定されるので、便利である。   According to the first aspect of the present invention, the frame image constituting the first moving image data corresponding to the first area and the second moving image data corresponding to the second area are constituted from the image pickup element of the single image pickup means. Since the frame images are alternately read and recorded, it is not necessary to prepare a plurality of cameras, and a plurality of moving images having different fields of view can be easily taken. Further, the second area is convenient because it is determined based on the image data corresponding to the first area.

請求項2に記載の発明によれば、撮像素子における第1エリアおよび第2エリアを含むエリアに対応する画像データが撮像素子から一度に読み出され、読み出された画像データから、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとが抽出され、第1エリアに対応する画像データと第2エリアに対応する画像データとが交互に記録されて、2つの動画データが作成される。したがって、複数のカメラを準備する必要がなく、視野が異なる複数の動画像を手軽に撮影することが可能である。   According to the second aspect of the present invention, image data corresponding to an area including the first area and the second area in the image sensor is read from the image sensor at a time, and the first image data is read from the read image data. The image data corresponding to the area and the image data corresponding to the second area are extracted, and the image data corresponding to the first area and the image data corresponding to the second area are alternately recorded, and two moving image data Is created. Therefore, it is not necessary to prepare a plurality of cameras, and a plurality of moving images with different fields of view can be easily taken.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<A.第1実施形態>
<A1.構成>
図1、図2及び図3は、本発明の実施形態に係るデジタルカメラ1の外観構成を示す図であり、図1は正面図、図2は上面図、図3は背面図に相当する。これらの図は必ずしも三角図法に則っているものではなく、デジタルカメラ1の外観を例示することを主眼としている。
<A. First Embodiment>
<A1. Configuration>
1, 2, and 3 are views showing an external configuration of a digital camera 1 according to an embodiment of the present invention. FIG. 1 is a front view, FIG. 2 is a top view, and FIG. 3 is a rear view. These figures are not necessarily in accordance with the triangulation method, and are mainly intended to illustrate the appearance of the digital camera 1.

デジタルカメラ1の正面側には撮影レンズ2が設けられる。この撮影レンズ2はズーム機能を有しており、ズームリング2aを手動操作で回動させることによって撮影倍率の変更を行うことができるように構成される。   A photographing lens 2 is provided on the front side of the digital camera 1. The photographing lens 2 has a zoom function, and is configured so that the photographing magnification can be changed by manually rotating the zoom ring 2a.

また、デジタルカメラ1のグリップ部1aの上部にはシャッタボタン(レリーズボタン)9が設けられており、該シャッタボタン9はユーザによる半押し状態(以下、状態S1とも称する)と全押し状態(以下、状態S2とも称する)とを区別して検出可能な2段階押し込みスイッチとなっており、自動合焦モードが設定されている場合には半押し状態S1のときに自動合焦制御を開始し、全押し状態S2のときに記録用画像を撮影するための本撮影動作を開始する。   Further, a shutter button (release button) 9 is provided on the upper portion of the grip portion 1a of the digital camera 1, and the shutter button 9 is pressed halfway (hereinafter also referred to as state S1) and fully pressed (hereinafter referred to as state S1). , Also referred to as state S2), and is a two-stage push-in switch that can be detected separately. When the autofocus mode is set, the autofocus control is started in the half-pressed state S1, The main photographing operation for photographing a recording image is started in the pressed state S2.

また、デジタルカメラ1の上面には、「撮影モード」と「再生モード」とを切替設定するモード切替え用のダイヤル3が設けられている。撮影モードは被写体の撮影を行って画像データの生成を行うモードである。また、再生モードはメモリカード90に記録された画像データを、デジタルカメラ1の背面側に設けられた液晶表示部(以下、LCDという。)5に再生表示するモードである。   On the top surface of the digital camera 1, there is provided a mode switching dial 3 for switching between “shooting mode” and “playback mode”. The shooting mode is a mode in which image data is generated by shooting a subject. The reproduction mode is a mode in which image data recorded on the memory card 90 is reproduced and displayed on a liquid crystal display unit (hereinafter referred to as LCD) 5 provided on the back side of the digital camera 1.

具体的には、撮影モードを示す「撮影」が表示された部分を所定の位置(図2の三角印MT)にまで回転移動させることによって、撮影モードに設定することができる。また、再生モードを示す「再生」が表示された部分を所定の位置(図2の三角印MT)にまで回転移動させることによって、再生モードに設定することができる。   Specifically, the shooting mode can be set by rotating and moving the portion where “shooting” indicating the shooting mode is displayed to a predetermined position (triangular mark MT in FIG. 2). Further, the playback mode can be set by rotating the portion displaying “playback” indicating the playback mode to a predetermined position (triangle mark MT in FIG. 2).

また、このダイヤル3は、電源のオン操作およびオフ操作を受け付けるためにも用いられる。すなわち、ダイヤル3は電源操作部とも称することができる。具体的には、ダイヤル3の「OFF」が表示されている部分を所定の位置(図2の三角印MT)にまで回転移動させることによって、電源をオフにする操作(電源オフ操作)が行われる。   The dial 3 is also used to accept power on and off operations. That is, the dial 3 can also be referred to as a power operation unit. Specifically, an operation to turn off the power (power-off operation) is performed by rotating the portion of the dial 3 where “OFF” is displayed to a predetermined position (triangle mark MT in FIG. 2). Is called.

デジタルカメラ1の背面には、本撮影動作前のライブビュー表示及び記録画像の再生表示等を行うためのLCD5と、電子ビューファインダ(以下、EVFという。)4とが設けられている。このLCD5およびEVF4では、それぞれカラー画像の表示が行われる。なお、以下の説明においてはLCD5およびEVF4がそれぞれ320×240の表示画素数を有する場合を例示する。   On the back surface of the digital camera 1, an LCD 5 for performing live view display before actual photographing operation, reproduction display of recorded images, and the like, and an electronic viewfinder (hereinafter referred to as EVF) 4 are provided. The LCD 5 and EVF 4 display color images, respectively. In the following description, a case where the LCD 5 and the EVF 4 each have a display pixel number of 320 × 240 is illustrated.

また、デジタルカメラ1の背面にはメニューボタン6が設けられており、例えば、撮影モード時にメニューボタン6が押下されて離されると(以下、単に押下と表現する)、各種撮影条件を設定するための各種メニュー画面がLCD5に表示される。また、デジタルカメラ1の背面には、LCD5における表示カーソルを4方向に移動させるための十字カーソルボタン7U,7D,7L,7R、及び十字カーソルボタンの中央部に設けられる決定ボタン7Cで構成されるコントロールボタン7が設けられる。これらメニューボタン6及びコントロールボタン7を用いて各種撮影パラメータの設定操作が行われる。各種撮影パラメータの設定状態はデジタルカメラ1の上面側に配置されるデータパネル8に表示される。また、デジタルカメラ1の背面には、ライブビュー表示時にLCD5に表示される表示内容(特に撮影情報の表示状態)を切り替えるための切替ボタン13が設けられている。   Further, a menu button 6 is provided on the back surface of the digital camera 1. For example, when the menu button 6 is pressed and released in the shooting mode (hereinafter simply referred to as pressing), various shooting conditions are set. Are displayed on the LCD 5. The back of the digital camera 1 is composed of cross cursor buttons 7U, 7D, 7L, 7R for moving the display cursor on the LCD 5 in four directions, and a decision button 7C provided at the center of the cross cursor button. A control button 7 is provided. Using these menu button 6 and control button 7, various shooting parameter setting operations are performed. The setting state of various shooting parameters is displayed on the data panel 8 arranged on the upper surface side of the digital camera 1. A switching button 13 is provided on the back of the digital camera 1 for switching display contents (particularly, display state of photographing information) displayed on the LCD 5 during live view display.

さらに、デジタルカメラ1の側面には、デジタルカメラ1の設定状態に関する操作を行うためのファンクション操作部11が設けられている。このファンクション操作部11は、中央部に設けられたファンクションボタン11aと、回動可能なように設けられたファンクションダイヤル11bとを備えて構成される。また、ファンクション操作部11の下部には、合焦モードを自動合焦モードと手動合焦モードとで切り替えるための合焦モード切替ボタン12が設けられている。   Furthermore, a function operation unit 11 for performing operations related to the setting state of the digital camera 1 is provided on the side surface of the digital camera 1. The function operation unit 11 includes a function button 11a provided at the center and a function dial 11b provided so as to be rotatable. Further, a focus mode switching button 12 for switching the focus mode between the automatic focus mode and the manual focus mode is provided below the function operation unit 11.

また、デジタルカメラ1の側面には、挿抜自在(着脱自在)な記録媒体であるメモリカード90の挿入装着部が設けられており、本撮影によって得られる画像データはこの挿入装着部にセットされるメモリカード90に記録される。   Further, the side surface of the digital camera 1 is provided with an insertion / mounting portion of a memory card 90 which is a detachable (detachable) recording medium, and image data obtained by actual photographing is set in the insertion / mounting portion. Recorded in the memory card 90.

さらに、デジタルカメラ1の前面には、音声記録用のマイク14が設けられている。マイク14によって集音された音声データは、動画像データなどに付加されて記憶される。また、デジタルカメラ1の背面には、音声再生用のスピーカ15が設けられている。スピーカ15は、動画像データに付された音声データの音声出力などに用いられる。   Furthermore, an audio recording microphone 14 is provided on the front surface of the digital camera 1. The sound data collected by the microphone 14 is added to the moving image data and stored. In addition, a sound reproduction speaker 15 is provided on the back surface of the digital camera 1. The speaker 15 is used for sound output of sound data attached to moving image data.

次に、デジタルカメラ1の内部構成について説明する。図4は、デジタルカメラ1の内部機能を示すブロック図である。   Next, the internal configuration of the digital camera 1 will be described. FIG. 4 is a block diagram showing the internal functions of the digital camera 1.

撮影レンズ2はレンズ駆動部41によって駆動され、CCD(Charge Coupled Device)センサ(CCD撮像素子とも称する)20に結像される像の合焦状態を変化させるように構成される。自動合焦(オートフォーカス)設定時には、撮影画像を用いるコントラスト方式(山登り方式)にしたがって、全体制御部30によって撮影レンズ2のレンズ駆動量が決定され、このレンズ駆動量に基づいて撮影レンズ2が駆動されるのに対し、手動合焦(マニュアルフォーカス)設定時にはユーザによるコントロールボタン7の操作量に応じてレンズ駆動量が決定され、このレンズ駆動量に基づいて撮影レンズ2が駆動される。   The photographic lens 2 is driven by a lens driving unit 41 and is configured to change the in-focus state of an image formed on a CCD (Charge Coupled Device) sensor (also referred to as a CCD imaging device) 20. When automatic focusing (autofocus) is set, the overall control unit 30 determines the lens driving amount of the photographing lens 2 in accordance with a contrast method (mountain climbing method) using a photographed image, and the photographing lens 2 is determined based on the lens driving amount. On the other hand, when manual focusing is set, the lens driving amount is determined according to the operation amount of the control button 7 by the user, and the photographing lens 2 is driven based on the lens driving amount.

CCD撮像素子20は被写体像を撮影して電子的な画像信号を生成する撮像手段として機能するものであり、例えば2576×1936個の画素を有し、撮影レンズ2によって結像された被写体の光像を、画素毎にR(赤),G(緑),B(青)の色成分の画像信号(各画素で受光された画素信号の信号列からなる信号)に光電変換して出力する。タイミングジェネレータ42は、CCD撮像素子20の駆動を制御するための各種のタイミングパルスを生成するものである。   The CCD image pickup device 20 functions as an image pickup unit that picks up a subject image and generates an electronic image signal. The CCD image pickup device 20 has, for example, 2576 × 1936 pixels and the light of the subject formed by the photographing lens 2. The image is photoelectrically converted into an image signal of R (red), G (green), and B (blue) color components for each pixel (a signal composed of a signal sequence of pixel signals received by each pixel) and output. The timing generator 42 generates various timing pulses for controlling the driving of the CCD image pickup device 20.

ここにおいて、撮影レンズ2と撮影レンズ2からの被写体像を撮像するCCD撮像素子20とは、単一の撮像ユニットを構成しているとも表現できる。なお、ここでは、1枚のCCD撮像素子20を有する、単板式の単一の撮像ユニットを例示しているが、これに限定されない。たとえば、デジタルカメラは、撮影レンズ2からの被写体像を3枚のCCD撮像素子で撮像するような、3板式の単一の撮像ユニットを備えるものであってもよい。   Here, the photographing lens 2 and the CCD image pickup device 20 that picks up the subject image from the photographing lens 2 can also be expressed as constituting a single image pickup unit. Here, a single plate type single image pickup unit having one CCD image pickup device 20 is illustrated, but the present invention is not limited to this. For example, the digital camera may include a single three-plate imaging unit that captures a subject image from the photographic lens 2 with three CCD imaging elements.

CCD撮像素子20から得られる画像信号は信号処理回路21に与えられ、信号処理回路21において画像信号(アナログ信号)に対して所定のアナログ信号処理が施される。信号処理回路21は相関二重サンプリング回路(CDS)とオートゲインコントロール回路(AGC)とを有しており、相関二重サンプリング回路により画像信号のノイズ低減処理を行い、オートゲインコントロール回路でゲインを調整することにより画像信号のレベル調整を行う。   An image signal obtained from the CCD image pickup device 20 is supplied to a signal processing circuit 21, and predetermined analog signal processing is performed on the image signal (analog signal) in the signal processing circuit 21. The signal processing circuit 21 includes a correlated double sampling circuit (CDS) and an auto gain control circuit (AGC). The correlated double sampling circuit performs noise reduction processing of the image signal, and the auto gain control circuit increases the gain. The level of the image signal is adjusted by adjusting.

A/D変換器22は、画像信号の各画素信号を12ビットのデジタル信号に変換するものである。A/D変換器22は、全体制御部30から入力されるA/D変換用のクロックに基づいて各画素信号(アナログ信号)を12ビットのデジタル信号に変換する。変換後のデジタル信号は、画像データとして一時的に画像メモリ44に格納される。そして、画像メモリ44に保存された画像データに対して、次述するWB回路23、γ補正回路24、色補正部25、解像度変換部26、圧縮・伸張部46などによる各処理が施される。また、各処理後の画像データは、各処理の内容に応じて、再度画像メモリ44に再格納されるか、あるいは、別の処理部に対して転送される。   The A / D converter 22 converts each pixel signal of the image signal into a 12-bit digital signal. The A / D converter 22 converts each pixel signal (analog signal) into a 12-bit digital signal based on the A / D conversion clock input from the overall control unit 30. The converted digital signal is temporarily stored in the image memory 44 as image data. Then, the image data stored in the image memory 44 is subjected to each processing by the WB circuit 23, the γ correction circuit 24, the color correction unit 25, the resolution conversion unit 26, the compression / decompression unit 46, and the like described below. . Further, the image data after each processing is re-stored in the image memory 44 or transferred to another processing unit according to the contents of each processing.

WB(ホワイトバランス)回路23は、R,G,Bの各色成分のレベル変換を行うものである。WB回路23は、全体制御部30で記憶されるレベル変換テーブルを用いてR,G,Bの各色成分のレベルを変換する。なお、レベル変換テーブルの各色成分のパラメータ(特性の傾き)は全体制御部30により、オートまたはマニュアルで、撮影画像毎に設定される。γ補正回路24は、画素データの階調を補正するものである。   A WB (white balance) circuit 23 performs level conversion of R, G, and B color components. The WB circuit 23 converts the levels of the R, G, and B color components using the level conversion table stored in the overall control unit 30. It should be noted that the parameters (characteristic gradients) of each color component in the level conversion table are set for each captured image by the overall control unit 30 either automatically or manually. The γ correction circuit 24 corrects the gradation of pixel data.

色補正部25は、γ補正回路24から入力される画像データに対し、ユーザから設定された色補正に関するパラメータに基づいて色補正を行うとともに、RGB色空間で表現されたカラー情報をYCrCb色空間で表現されたカラー情報に変換する。この表色系変換により、全画素について輝度成分値Yが得られることになる。   The color correction unit 25 performs color correction on the image data input from the γ correction circuit 24 based on parameters related to color correction set by the user, and converts the color information expressed in the RGB color space to the YCrCb color space. Convert to color information expressed in. By this color system conversion, the luminance component value Y is obtained for all the pixels.

解像度変換部26は、CCD撮像素子20から得られる画像データに対して所定の解像度変換を行うものである。   The resolution conversion unit 26 performs predetermined resolution conversion on the image data obtained from the CCD image sensor 20.

AF評価値演算部27はユーザによってシャッタボタン9が半押し状態とされた場合に機能し、コントラスト方式の自動合焦制御を行うための評価値演算動作が行われる。ここでは、AF評価領域に対応する画像成分について水平方向に隣接する2画素間での差分絶対値の総和がAF用評価値として算出される。そしてAF評価値演算部27において算出されるAF用評価値は全体制御部30へと出力され、自動合焦制御が実現される。   The AF evaluation value calculation unit 27 functions when the shutter button 9 is pressed halfway by the user, and performs an evaluation value calculation operation for performing contrast-type automatic focusing control. Here, for the image component corresponding to the AF evaluation area, the sum of absolute differences between two pixels adjacent in the horizontal direction is calculated as the AF evaluation value. Then, the AF evaluation value calculated by the AF evaluation value calculation unit 27 is output to the overall control unit 30 to realize automatic focusing control.

測光演算部28は、解像度変換部26から出力される画像データを複数のブロックに分割し、各ブロックの代表輝度値に基づいてAE用評価値を算出する。そして測光演算部28において算出されるAE用評価値は全体制御部30へと出力され、全体制御部30における自動露出制御に用いられる。   The photometric calculation unit 28 divides the image data output from the resolution conversion unit 26 into a plurality of blocks, and calculates an AE evaluation value based on the representative luminance value of each block. Then, the AE evaluation value calculated by the photometry calculation unit 28 is output to the overall control unit 30 and used for automatic exposure control in the overall control unit 30.

絞り制御部29は、全体制御部30の制御下において、撮影レンズ2内の絞り(絞り値)を調節する。   The aperture controller 29 adjusts the aperture (aperture value) in the photographic lens 2 under the control of the overall controller 30.

画像メモリ44は、本撮影時にCCD撮像素子20で取得され、上記の画像処理が施された画像データを一時的に記憶するメモリである。画像メモリ44は、例えば数フレーム分の記憶容量を有している。   The image memory 44 is a memory that temporarily stores the image data obtained by the CCD image pickup device 20 at the time of actual photographing and subjected to the above-described image processing. The image memory 44 has a storage capacity for several frames, for example.

カードインタフェース(カードI/F)47は、デジタルカメラ1側面の挿入装着部に対して装着されるメモリカード90への画像データの書込み及び読出しを行うためのインタフェースである。メモリカード90に対する画像データの読み書き時には、圧縮・伸張部46において例えばJPEG方式で画像データの圧縮処理又は伸張処理が行われる。また、外部接続インタフェース(外部接続I/F)48は通信ケーブル等を介して外部コンピュータ91と通信可能にするためのインタフェースであり、例えばUSB規格に準拠した通信用インタフェース等で実現される。これらカードI/F47、外部接続I/F48を介して、メモリカード90や外部コンピュータ91にセットされるCD−ROM等の記録媒体に記録される制御プログラムを、全体制御部30のRAM30a又はROM30b内に取り込むことができる。そして全体制御部30においてそのプログラムが実行されることにより、各種機能が実現される。   The card interface (card I / F) 47 is an interface for writing and reading image data to and from the memory card 90 attached to the insertion attachment portion on the side of the digital camera 1. When reading / writing image data from / to the memory card 90, the compression / decompression unit 46 performs image data compression processing or decompression processing, for example, using the JPEG method. The external connection interface (external connection I / F) 48 is an interface for enabling communication with the external computer 91 via a communication cable or the like, and is realized by, for example, a communication interface compliant with the USB standard. A control program recorded on a recording medium such as a CD-ROM set in the memory card 90 or the external computer 91 via the card I / F 47 and the external connection I / F 48 is stored in the RAM 30a or the ROM 30b of the overall control unit 30. Can be imported. Various functions are realized by executing the program in the overall control unit 30.

操作部45は、上述したダイヤル3、メニューボタン6、コントロールボタン7、シャッタボタン9、ファンクション操作部11、合焦モード切替ボタン12、切替ボタン13等を含む操作部であり、ユーザがデジタルカメラ1の設定状態を変更操作する際や撮影操作を行う際等に用いられる。   The operation unit 45 is an operation unit including the dial 3, the menu button 6, the control button 7, the shutter button 9, the function operation unit 11, the focus mode switching button 12, the switching button 13, and the like. This is used when changing the setting state of the camera or when performing a shooting operation.

また、リアルタイムクロック49は、いわゆる時計部である。リアルタイムクロック49の計時機能により、デジタルカメラ1は現在時刻を認識することができる。   The real time clock 49 is a so-called clock unit. The digital camera 1 can recognize the current time by the time counting function of the real time clock 49.

さらに、デジタルカメラ1は電池51を駆動源としている。電池51としては、例えば直列接続された4本の単三形乾電池を用いることができる。そして、電池51からデジタルカメラ1内の各処理部への電力供給は、電力制御部52によって制御される。   Further, the digital camera 1 uses a battery 51 as a drive source. As the battery 51, for example, four AA batteries connected in series can be used. The power supply from the battery 51 to each processing unit in the digital camera 1 is controlled by the power control unit 52.

全体制御部30は内部にRAM30a及びROM30bを備えたマイクロコンピュータによって構成され、マイクロコンピュータが所定のプログラムを実行することにより、上記各部を統括的に制御する制御手段として機能する。なお、ROM30bは電気的にデータの書き換えが可能な不揮発性メモリである。   The overall control unit 30 is constituted by a microcomputer having a RAM 30a and a ROM 30b therein, and functions as a control unit that comprehensively controls the above-described units when the microcomputer executes a predetermined program. The ROM 30b is a nonvolatile memory capable of electrically rewriting data.

撮影モード時において、全体制御部30はCCD撮像素子20を駆動する駆動モードをタイミングジェネレータに指令する。特に、ユーザがシャッタボタン9を操作していないときには、全体制御部30はライブビュー画像を取得するためにCCD撮像素子20での撮影動作を繰り返すようにタイミングジェネレータに指令する。これによってCCD撮像素子20ではライブビュー表示用の撮影画像(ライブビュー画像)が取得される。   In the shooting mode, the overall control unit 30 instructs the timing generator to drive the CCD image pickup device 20. In particular, when the user does not operate the shutter button 9, the overall control unit 30 instructs the timing generator to repeat the photographing operation with the CCD image pickup device 20 in order to obtain a live view image. Thereby, the CCD image pickup device 20 acquires a captured image (live view image) for live view display.

また、全体制御部30は、以下に詳述するような合焦制御、露出制御、ホワイトバランス制御などの各種の制御を統括して行う機能を有している。   Further, the overall control unit 30 has a function of performing overall control such as focusing control, exposure control, and white balance control as described in detail below.

<A2.動作>
<全体動作>
つぎに、デジタルカメラ1における動画撮影動作、より詳細には、視野が異なる複数の動画像を撮影する撮影動作について説明する。これにより、たとえば図5に示すような、その視野が異なる複数の画像データPA,PB(以下、単に画像PA,PBとも称する)を取得することが可能になる。図5は、CCD撮像素子20の全撮影範囲が示されたライブビュー画像PVと、その全撮影範囲に対応する記録画像PAと、その全撮影範囲の一部のエリアに対応する記録画像PBとの関係を示す概念図である。
<A2. Operation>
<Overall operation>
Next, a moving image shooting operation in the digital camera 1, more specifically, a shooting operation for shooting a plurality of moving images with different fields of view will be described. Thereby, for example, as shown in FIG. 5, it is possible to acquire a plurality of pieces of image data PA and PB (hereinafter also simply referred to as images PA and PB) having different fields of view. FIG. 5 shows a live view image PV showing the entire shooting range of the CCD image sensor 20, a recorded image PA corresponding to the entire shooting range, and a recorded image PB corresponding to a part of the entire shooting range. It is a conceptual diagram which shows the relationship.

図6は、デジタルカメラ1の動作を示すフローチャートである。以下では、図6のフローチャートにしたがって、デジタルカメラ1の複数動画記録モード(後述)での動作を説明するが、そのような説明に先立って、まずCCD撮像素子20の駆動モード(CCD撮像素子20の読出しモード)および各モードで読み出されて作成される画像について説明する。   FIG. 6 is a flowchart showing the operation of the digital camera 1. In the following, the operation of the digital camera 1 in the multiple moving image recording mode (described later) will be described with reference to the flowchart of FIG. 6, but prior to such description, first the drive mode of the CCD image sensor 20 (CCD image sensor 20). Read mode) and images created by reading in each mode will be described.

CCD撮像素子20は、その駆動モード(読み出しモード)として、「本撮影モード」、「ドラフトモード」、および「部分読出モード」の3つのモードを有している。全体制御部30は、これらの読み出しモードの中から特定のモードを選択し、選択したモードをタイミングジェネレータ42に対して指定する。そして、タイミングジェネレータ42は、その指定内容にしたがってCCD撮像素子20を駆動する。   The CCD image pickup device 20 has three modes of “main photographing mode”, “draft mode”, and “partial reading mode” as its driving mode (reading mode). The overall control unit 30 selects a specific mode from these read modes and designates the selected mode to the timing generator 42. Then, the timing generator 42 drives the CCD image pickup device 20 according to the designated content.

「本撮影モード」は、フレーム画像全体(ここでは2576×1936の全画素)を読み出し対象として画像信号を読み出すモードである。このモードは、記録用の静止画像を生成する際に用いられる。   The “real shooting mode” is a mode in which an image signal is read with the entire frame image (here, all pixels of 2576 × 1936) being read. This mode is used when generating a still image for recording.

「ドラフトモード」は、画像信号を間引き読み出しするモードである。このドラフトモードは、静止画および動画像の撮影直前のプレビュー(ライブビューとも称する)用画像を生成する際などに用いられる。   “Draft mode” is a mode in which image signals are thinned out and read out. This draft mode is used when a still image and a preview image (also referred to as a live view) immediately before shooting a moving image are generated.

図7(a)(b)に示すように、ドラフトモードにおいては、水平方向2576画素、垂直方向1936画素を有するCCD撮像素子20から水平ラインごとの画素信号を読み出す際、8ライン中1ラインを読み出すようにCCD撮像素子20が駆動される。つまり、ドラフトモード時には、1936本の水平ラインが1/8間引きされた状態で読み出されるのである。この結果、ドラフトモード時にCCD撮像素子20から出力される画像GA1は、図7(b)に示すように2576×242の画素で構成されることになる。   As shown in FIGS. 7A and 7B, in the draft mode, when a pixel signal for each horizontal line is read out from the CCD image sensor 20 having 2576 pixels in the horizontal direction and 1936 pixels in the vertical direction, 1 line out of 8 lines is displayed. The CCD image pickup device 20 is driven to read out. That is, in the draft mode, 1936 horizontal lines are read out with 1/8 thinned out. As a result, the image GA1 output from the CCD image pickup device 20 in the draft mode is composed of 2576 × 242 pixels as shown in FIG. 7B.

その後、解像度変換部26は、この画像GA1に対して、水平方向の画素数を1/8にする所定の解像度変換を施し、図7(c)に示すように、322×242の画素で構成される画像GA2を得る。さらに、解像度変換部26は、上下左右端の各1画素幅の画素列を削除することによって、図7(d)に示すように、320×240画素で構成される画像GA3を得る。   Thereafter, the resolution conversion unit 26 performs a predetermined resolution conversion on the image GA1 so that the number of pixels in the horizontal direction is 1/8, and is composed of 322 × 242 pixels as shown in FIG. 7C. An image GA2 to be obtained is obtained. Further, the resolution conversion unit 26 deletes the pixel columns each having a width of 1 pixel at the top, bottom, left, and right ends, thereby obtaining an image GA3 composed of 320 × 240 pixels as shown in FIG.

この画像GA3は、CCD撮像素子20の撮像エリアの全エリア(全撮像範囲)EA(図7(a)参照)をその視野とする画像であり、LCD5の表示画素数に適合した画像サイズとなっている。画像GA3は、エリアEA(CCD撮像素子20の全撮影範囲)に対応する画像であるとも表現できる。この第1実施形態では、画像GA3は、2つの記録用画像のうちの一方の画像PAとして用いられるとともに、ライブビュー画像PVとしても用いられる。   This image GA3 is an image having the entire field (total imaging range) EA (see FIG. 7A) of the imaging area of the CCD imaging device 20 as its field of view, and has an image size suitable for the number of display pixels of the LCD 5. ing. The image GA3 can also be expressed as an image corresponding to the area EA (the entire imaging range of the CCD image sensor 20). In the first embodiment, the image GA3 is used as one of the two recording images PA and also as the live view image PV.

また、「部分読出モード」は、CCD撮像素子20の全撮像範囲のうち、近接する一部の水平ラインを読み出すモードである。たとえば、連続する所定数(242本)の水平ラインで構成される画素ブロックを画像GB1として読み出すことができる。このときの読出し開始位置および/または読出し終了位置は、全体制御部30からの指示に基づいて指定される。   The “partial readout mode” is a mode in which a part of the adjacent horizontal lines in the entire imaging range of the CCD imaging device 20 is read out. For example, a pixel block composed of a predetermined number of continuous (242) horizontal lines can be read as the image GB1. The reading start position and / or the reading end position at this time is designated based on an instruction from the overall control unit 30.

具体的には、図8(a)(b)に示すように、部分読出モードにおいては、水平方向2576画素、垂直方向1936画素を有するCCD撮像素子20から、所定番号から始まる連続する242本の水平ラインの画素信号が読み出されて、2576×242の画素で構成される画像GB1が取得される。   More specifically, as shown in FIGS. 8A and 8B, in the partial readout mode, 242 continuous lines starting from a predetermined number from the CCD image sensor 20 having 2576 pixels in the horizontal direction and 1936 pixels in the vertical direction. The pixel signal of the horizontal line is read, and an image GB1 composed of 2576 × 242 pixels is acquired.

その後、解像度変換部26は、この画像GB1に対して、指定位置の画素ブロックを切り出すことによって、図8(c)に示すように、322×242の画素で構成される画像GB2を得る。さらに、解像度変換部26は、上下左右端の各1画素幅の画素列を削除することによって、図8(d)に示すように、320×240画素で構成される画像GB3を得る。   Thereafter, the resolution converting unit 26 cuts out a pixel block at a designated position from the image GB1, thereby obtaining an image GB2 composed of 322 × 242 pixels as shown in FIG. 8C. Furthermore, the resolution conversion unit 26 obtains an image GB3 composed of 320 × 240 pixels as shown in FIG. 8D by deleting the pixel columns each having a width of one pixel at the top, bottom, left, and right ends.

この画像GB3は、CCD撮像素子20の撮像エリアの全エリア(全撮像範囲)EAのうちの一部のエリアEBをその視野とする画像である。エリアEBは、エリアEAに包含されるエリアであり、画像GB3は、エリアEBに対応する画像であるとも表現できる。また、画像GB3は、画像GA3と同一の画像サイズを有している。この第1実施形態では、画像GB3は、2つの記録用画像のうちのもう一方の画像PBとして用いられる。   This image GB3 is an image having a part of the area EB in the entire area (all imaging range) EA of the imaging area of the CCD imaging device 20 as its field of view. The area EB is an area included in the area EA, and the image GB3 can also be expressed as an image corresponding to the area EB. The image GB3 has the same image size as the image GA3. In the first embodiment, the image GB3 is used as the other image PB of the two recording images.

つぎに、図6のフローチャートにしたがって、デジタルカメラ1の動作について説明する。   Next, the operation of the digital camera 1 will be described with reference to the flowchart of FIG.

デジタルカメラ1は、「撮影モード」として「静止画記録モード」と「動画記録モード」とを有している。また、「動画記録モード」は、そのサブモードとして、単一の動画像を記録する「通常動画記録モード」と、複数の動画像を記録する「複数動画記録モード」とを有している。なお、複数動画記録モードは、視野(ないしは広義の撮影アングル)が異なる複数の動画像を撮影するモードであることから、マルチ動画撮影モード、あるいは、マルチアングル撮影モードなどとも称することができる。   The digital camera 1 has “still image recording mode” and “moving image recording mode” as “shooting modes”. Further, the “moving image recording mode” has a “normal moving image recording mode” for recording a single moving image and a “multiple moving image recording mode” for recording a plurality of moving images as sub-modes. Note that the multiple moving image recording mode is a mode for capturing a plurality of moving images with different fields of view (or broadly defined shooting angles), and can also be referred to as a multi moving image shooting mode or a multi angle shooting mode.

この図6においては、所定のメニュー操作等によって、「撮影モード」が「動画記録モード」に設定されており且つ「動画記録モード」のサブモードとして「複数動画記録モード」が予め選択されていること、すなわち、デジタルカメラ1が、この「複数動画記録モード」で動作するように予め設定されていることを前提とする。   In FIG. 6, “shooting mode” is set to “moving image recording mode” by a predetermined menu operation or the like, and “multiple moving image recording mode” is selected in advance as a submode of “moving image recording mode”. That is, it is assumed that the digital camera 1 is preset to operate in this “multiple moving image recording mode”.

また、ここでは、CCD撮像素子20の駆動方式を切り替えて複数の画像を読み出す場合について説明する。具体的には、CCD撮像素子20の2つの駆動モード(読出しモードとも称する)、詳細には「ドラフトモード」および「部分読出モード」、を交互に用いて画像を読み出すことによって、複数の画像(動画像)を記録する場合について説明する。   Here, a case where a plurality of images are read by switching the driving method of the CCD image sensor 20 will be described. Specifically, a plurality of images (by reading out an image by alternately using two drive modes (also referred to as readout modes) of the CCD image sensor 20, specifically, “draft mode” and “partial readout mode” (see FIG. A case of recording a (moving image) will be described.

まず、ステップSP1〜ステップSP5においては、動画撮影のための準備動作が行われる。   First, in step SP1 to step SP5, a preparation operation for moving image shooting is performed.

具体的には、ステップSP1において、全体制御部30は、CCD撮像素子20の読出しモードがドラフトモードとなるようにタイミングジェネレータ42を設定する。この設定に基づくタイミングジェネレータ42の制御によって、後のステップSP3でCCD撮像素子20はドラフトモードで駆動される。   Specifically, in step SP1, the overall control unit 30 sets the timing generator 42 so that the readout mode of the CCD image pickup device 20 is the draft mode. Under the control of the timing generator 42 based on this setting, the CCD image pickup device 20 is driven in the draft mode in a later step SP3.

ステップSP2では、部分画像PB(図5)の撮影範囲が設定される。具体的には、初期状態では、部分画像PBの撮影範囲を全撮影範囲の中央部に設定する。後のステップSP4では、画像PBの撮影範囲(境界)がライブビュー画像PV上で表示される。その後、図5に示すライブビュー画像PV上の矩形カーソルCRを、操作者がコントロールボタン7を用いて上下左右に移動させることによって、全撮影範囲における部分画像PBの位置を指定する。デジタルカメラ1は、この操作者からの指定に基づいて、このステップSP2で画像PBの撮影範囲を決定する。なお、この実施形態では、画像PBの大きさは所定サイズに固定されており画像PBの位置のみが変更されるものとするが、画像PBの大きさを変更するようにしてもよい。   In step SP2, the shooting range of the partial image PB (FIG. 5) is set. Specifically, in the initial state, the shooting range of the partial image PB is set at the center of the entire shooting range. In the subsequent step SP4, the shooting range (boundary) of the image PB is displayed on the live view image PV. Thereafter, the operator moves the rectangular cursor CR on the live view image PV shown in FIG. 5 up, down, left and right using the control button 7 to designate the position of the partial image PB in the entire photographing range. Based on the designation from the operator, the digital camera 1 determines the shooting range of the image PB in this step SP2. In this embodiment, the size of the image PB is fixed to a predetermined size, and only the position of the image PB is changed. However, the size of the image PB may be changed.

ステップSP3では、CCD撮像素子20の全撮影範囲に対応する画像GA1が、CCD撮像素子20からドラフトモードで読み出される。その後、その画像GA1に対して、信号処理回路21、A/D変換器22、WB回路23、γ補正回路24、色補正部25、解像度変換部26等による各種の画像処理が施されることによって画像GA3が取得される。   In step SP3, the image GA1 corresponding to the entire photographing range of the CCD image sensor 20 is read from the CCD image sensor 20 in the draft mode. Thereafter, the image GA1 is subjected to various image processing by the signal processing circuit 21, the A / D converter 22, the WB circuit 23, the γ correction circuit 24, the color correction unit 25, the resolution conversion unit 26, and the like. Thus, the image GA3 is acquired.

ステップSP4においては、この画像GA3がライブビュー画像PVとしてLCD5に表示される。より正確には、ライブビュー画像PVは、図5に示すように、画像GA3(画像PA)に対して、破線LBで囲まれた所定サイズの矩形図形(矩形カーソルCR)が合成された画像として表示される。このライブビュー表示においては、画像PBの撮影範囲として指定されたエリア(領域)が、破線LBで囲まれた領域として、矩形カーソルCRを用いて表示されているため、記録されるべき複数(ここでは2つ)の画像のうちの一方の部分画像PBの撮影範囲をより容易に把握することが可能になる。   In step SP4, the image GA3 is displayed on the LCD 5 as a live view image PV. More precisely, as shown in FIG. 5, the live view image PV is an image in which a rectangular figure (rectangular cursor CR) of a predetermined size surrounded by a broken line LB is synthesized with the image GA3 (image PA). Is displayed. In this live view display, since the area (area) designated as the shooting range of the image PB is displayed using the rectangular cursor CR as an area surrounded by the broken line LB, a plurality (here, to be recorded) Then, it is possible to more easily grasp the shooting range of one partial image PB of the two images.

ステップSP5においては、録画を開始すべき指令(録画開始指令)が入力されたか否かを判定する。具体的には、シャッタボタン9が全押し状態S2にまで押下されたか否かが判定される。シャッタボタン9が全押し状態S2にまで押下されていないと判定されれば、未だ録画開始指令が入力されていないとみなし、上述のステップSP1,SP2,SP3,SP4,SP5の各処理を繰り返して行う。一方、シャッタボタン9が全押し状態S2にまで押下されたと判定されると、録画開始指令が入力されたとみなし、次のステップSP6以降に進む。   In step SP5, it is determined whether or not a command to start recording (recording start command) has been input. Specifically, it is determined whether or not the shutter button 9 has been pressed down to the fully pressed state S2. If it is determined that the shutter button 9 has not been pressed down to the fully-pressed state S2, it is considered that a recording start command has not yet been input, and the above steps SP1, SP2, SP3, SP4, and SP5 are repeated. Do. On the other hand, if it is determined that the shutter button 9 has been pressed down to the fully pressed state S2, it is considered that a recording start command has been input, and the process proceeds to the next step SP6 and subsequent steps.

ステップSP6〜ステップSP11においては、動画撮影動作が行われる。   In step SP6 to step SP11, a moving image shooting operation is performed.

ステップSP6においては、録画終了判定処理が行われる。再びシャッタボタン9が全押し状態S2にまで押下されたと判定されると、録画を終了すべき指令(録画終了指令)が入力されたとみなして、後述する動画像の記録を終了する。一方、ステップSP6で録画終了指令が入力されていないと判定される間は、ステップSP7以降に進み、動画像の撮影処理を継続する。   In step SP6, a recording end determination process is performed. When it is determined that the shutter button 9 has been pressed down to the fully-pressed state S2 again, it is considered that a command to end recording (recording end command) has been input, and recording of a moving image to be described later is ended. On the other hand, while it is determined in step SP6 that the recording end command has not been input, the process proceeds to step SP7 and subsequent steps, and the moving image shooting process is continued.

ステップSP7においては、画像PAを作成する。具体的には、最初のフレームについては、上述のステップSP3で既にそのフレームについての画像GA3が生成されているので、その画像GA3を画像PAとしてそのまま用いればよい。一方、最初以外のフレームについては、ステップSP10(後述)における設定変更によりドラフトモードに変更された後に、CCD撮像素子20から読み出された画像GA1に対して、信号処理回路21、A/D変換器22、WB回路23、γ補正回路24、色補正部25、解像度変換部26等による各種の画像処理を施して画像GA3を作成する。新たに作成されたこの画像GA3を画像PAとして用いればよい。   In step SP7, an image PA is created. Specifically, for the first frame, since the image GA3 for that frame has already been generated in step SP3, the image GA3 may be used as it is as the image PA. On the other hand, for the frames other than the first frame, the signal processing circuit 21 and A / D conversion are performed on the image GA1 read from the CCD image sensor 20 after being changed to the draft mode by the setting change in step SP10 (described later). The image GA3 is created by performing various types of image processing by the device 22, the WB circuit 23, the γ correction circuit 24, the color correction unit 25, the resolution conversion unit 26, and the like. The newly created image GA3 may be used as the image PA.

画像GA3は、CCD撮像素子20の全撮影範囲に対応する画像であり、複数の記録画像のうちの一方の画像PAとして取得される。全体制御部30は、この画像PAをメモリカード90に記録する。   The image GA3 is an image corresponding to the entire photographing range of the CCD image pickup device 20, and is acquired as one image PA of a plurality of recorded images. The overall control unit 30 records this image PA on the memory card 90.

ステップSP8においては、全体制御部30は、CCD撮像素子20の読出しモードが部分読出モードとなるようにタイミングジェネレータ42を設定する。この設定に基づくタイミングジェネレータ42の制御によって、次のステップSP9でCCD撮像素子20は部分読出モードで駆動される。   In step SP8, the overall control unit 30 sets the timing generator 42 so that the readout mode of the CCD image sensor 20 is the partial readout mode. Under the control of the timing generator 42 based on this setting, the CCD image pickup device 20 is driven in the partial readout mode in the next step SP9.

ステップSP9においては、画像PBを作成する。具体的には、部分読出モードで読み出された画像GB1に対して、信号処理回路21、A/D変換器22、WB回路23、γ補正回路24、色補正部25、解像度変換部26等による各種の画像処理を施して各種の画像処理を施して画像GB3を作成する。この画像GB3が、複数(ここでは2つ)の記録画像のうちのもう一つの画像PBとして取得される。全体制御部30は、この画像PBをメモリカード90に記録する。   In step SP9, an image PB is created. Specifically, the signal processing circuit 21, the A / D converter 22, the WB circuit 23, the γ correction circuit 24, the color correction unit 25, the resolution conversion unit 26, and the like are applied to the image GB1 read in the partial reading mode. The image GB3 is generated by performing various image processes according to the above and various image processes. This image GB3 is acquired as another image PB among a plurality (here, two) of recorded images. The overall control unit 30 records this image PB on the memory card 90.

その後、ステップSP10においては、CCD撮像素子20の読出しモードが再びドラフトモードに設定される。この設定に基づくタイミングジェネレータ42の制御によって、ステップSP7においてCCD撮像素子20はドラフトモードで駆動される。   Thereafter, in step SP10, the reading mode of the CCD image pickup device 20 is set to the draft mode again. Under the control of the timing generator 42 based on this setting, the CCD image pickup device 20 is driven in the draft mode in step SP7.

ステップSP11においては、ライブビュー画像PVがLCD5に表示される。このライブビュー表示においては、画像PBの撮影範囲として指定されたエリアの境界が矩形カーソルCR(破線LB)を用いて引き続き明示されている。言い換えれば、CCD撮像素子20における全エリアEAとエリアEBとの位置関係が示された状態で、両画像PA,PBを含むライブビュー画像PVが表示されている。両エリアEA,EBの位置関係が示されているので、操作者は両画像PA,PBの位置関係を明確に把握できる。また、特にエリアEAに包含されるエリアEBの境界が破線LBを用いて表示された状態で、エリアEA,EBに対応する画像PA,PBが表示されているので、記録されるべき複数の画像PA,PBのうちの一方の部分画像PBの撮影範囲をより容易に把握することが可能になる。したがって、操作性が高い。   In step SP11, the live view image PV is displayed on the LCD 5. In this live view display, the boundary of the area designated as the shooting range of the image PB is continuously specified using the rectangular cursor CR (broken line LB). In other words, the live view image PV including both the images PA and PB is displayed in a state where the positional relationship between all the areas EA and the areas EB in the CCD image pickup device 20 is shown. Since the positional relationship between both areas EA and EB is shown, the operator can clearly grasp the positional relationship between both images PA and PB. In particular, since the images PA and PB corresponding to the areas EA and EB are displayed in a state where the boundary of the area EB included in the area EA is displayed using the broken line LB, a plurality of images to be recorded are displayed. It is possible to more easily grasp the shooting range of one partial image PB of PA and PB. Therefore, operability is high.

以降、ステップSP6において録画終了指令が入力されたと判定されるまでステップSP7,SP8,SP9,SP10,SP11の各処理が繰り返し実行される。   Thereafter, steps SP7, SP8, SP9, SP10, and SP11 are repeatedly executed until it is determined in step SP6 that a recording end command has been input.

図9は、上述の動作を時間軸に沿って示すタイミングチャートである。図9においては、ドラフトモードと部分読出モードとが交互に用いられ、1/30秒(約33ミリ秒)間隔でフレーム画像がCCD撮像素子20から読み出されている様子が示されている。具体的には、第1フレームの画像は、ドラフトモードMAで読み出されて生成された画像PAであり、第2フレームの画像は、部分読出モードMBで読み出されて生成された画像PBである。また、第3フレームの画像は、再びドラフトモードMAで読み出されて生成された画像PAであり、第4フレームの画像は、部分読出モードMBで読み出されて生成された画像PBである。以降、同様に、ドラフトモードMAと部分読出モードMBとで交互に読み出されて画像PAと画像PBとが交互に生成される。そして、連続する一群の画像PAは動画像ファイルMPAとして記録され、連続する一群の画像PBは動画像ファイルMPBとして記録される。動画像ファイルMPA,MPBは、互いに異なる動画ファイルとしてメモリカード90(記録媒体)に記録される。   FIG. 9 is a timing chart showing the above-described operation along the time axis. FIG. 9 shows that the draft mode and the partial readout mode are alternately used, and frame images are read from the CCD image sensor 20 at intervals of 1/30 seconds (about 33 milliseconds). Specifically, the image of the first frame is an image PA that is read and generated in the draft mode MA, and the image of the second frame is an image PB that is read and generated in the partial read mode MB. is there. The third frame image is an image PA that is read and generated again in the draft mode MA, and the fourth frame image is an image PB that is read and generated in the partial read mode MB. Thereafter, similarly, the image PA and the image PB are alternately generated by alternately reading in the draft mode MA and the partial reading mode MB. A continuous group of images PA is recorded as a moving image file MPA, and a continuous group of images PB is recorded as a moving image file MPB. The moving image files MPA and MPB are recorded on the memory card 90 (recording medium) as different moving image files.

このように、デジタルカメラ1は、画像PAと画像PBとをCCD撮像素子20から交互に(順番に繰り返して)読み出して、画像PAと画像PBとを記録することができる。画像PA,PBは、ほぼ同時に撮影される画像であり、且つ、その視野は互いに異なるものとなっている。また、画像PAと画像PBとは、いずれも、撮影レンズ2とCCD撮像素子20などで構成される同一(単一)の撮像ユニット(撮像手段)から読み出された画像である。したがって、複数のカメラを準備する必要がなく、視野が異なる複数の画像PA,PB(動画像MPA,MPB)を手軽に撮影することが可能である。   In this way, the digital camera 1 can read the image PA and the image PB alternately (repeated in order) from the CCD image pickup device 20 and record the image PA and the image PB. The images PA and PB are images that are taken almost simultaneously, and have different fields of view. Further, both the image PA and the image PB are images read from the same (single) imaging unit (imaging means) including the photographing lens 2 and the CCD imaging device 20. Therefore, it is not necessary to prepare a plurality of cameras, and a plurality of images PA and PB (moving images MPA and MPB) having different fields of view can be easily captured.

また、動画像ファイルMPAを構成する画像PAと動画像ファイルMPBを構成する画像PBとは、バッファメモリ(画像メモリ44)からメモリカード90へと交互に転送されて、交互に記録されるので、バッファメモリの容量を抑制することができる。仮に交互に記録しないとすれば一方のエリアに対応する複数の画像データ(たとえば数フレームから数百フレーム分の画像データ)を一旦バッファメモリに格納しておく必要が生じるが、交互に記録することによればそのような必要がないからである。   Further, the image PA constituting the moving image file MPA and the image PB constituting the moving image file MPB are alternately transferred from the buffer memory (image memory 44) to the memory card 90 and recorded alternately. The capacity of the buffer memory can be suppressed. If it is not recorded alternately, a plurality of image data corresponding to one area (for example, image data for several to several hundred frames) need to be temporarily stored in the buffer memory. Because there is no such need.

<動画像データ>
図10は、動画像ファイルMPAおよび動画像ファイルMPBのフレーム構成を示す図である。動画像ファイルMPAは、奇数フレームの画像PAを構成要素とする動画像データであり、動画像ファイルMPBは、偶数フレームの画像PBを構成要素とする動画像データである。
<Video data>
FIG. 10 is a diagram illustrating a frame configuration of the moving image file MPA and the moving image file MPB. The moving image file MPA is moving image data having an odd-numbered frame image PA as a constituent element, and the moving image file MPB is moving image data having an even-numbered frame image PB as a constituent element.

ここでは、動画像ファイルMPA,MPBのフレームレートを30FPS(フレーム毎秒)にするため、各フレーム画像を2枚つづけて記録している。   Here, in order to set the frame rate of the moving image files MPA and MPB to 30 FPS (frames per second), two frame images are recorded in succession.

具体的には、動画像ファイルMPAについては、CCD撮像素子20における第1フレームの画像PAを、動画像ファイルMPAにおける第1フレームおよび第2フレームとして2枚続けて記録している。また、CCD撮像素子20における第3フレームの画像PAを、動画像ファイルMPAにおける第3フレームおよび第4フレームとして2枚続けて記録している。動画像ファイルMPBについても同様である。   Specifically, for the moving image file MPA, two images PA of the first frame in the CCD image sensor 20 are recorded as the first frame and the second frame in the moving image file MPA. In addition, the third frame image PA in the CCD image pickup device 20 is continuously recorded as the third frame and the fourth frame in the moving image file MPA. The same applies to the moving image file MPB.

ただし、これに限定されず、時系列で取得された画像PAを重複させることなくその取得順序にしたがって順次に記録していくことによって、15FPSの動画像ファイルMPAを作成するようにしてもよい。動画像ファイルMPBについても同様である。   However, the present invention is not limited to this, and a 15 FPS moving image file MPA may be created by sequentially recording images PA acquired in time series in accordance with the acquisition order without overlapping. The same applies to the moving image file MPB.

また、音声データについては、デジタルカメラ1の単一のマイク14(図1)によって集音された音声を、動画像ファイルMPA,MPBで共用する。より具体的には、デジタルカメラ1は、各動画像ファイルMPA,MPBに対して、マイク14(録音部)によって得られる同一の音声データを付加することによって、複数の音声データ付き動画ファイルMPA,MPBを作成し、メモリカード90に記録する。すなわち、動画像ファイルMPAの音声データと動画像ファイルMPBの音声データとは同一である。このように、複数の音声データ付き動画ファイルを作成するにあたって、単一の録音部を兼用することができる。   As for audio data, the audio collected by the single microphone 14 (FIG. 1) of the digital camera 1 is shared by the moving image files MPA and MPB. More specifically, the digital camera 1 adds the same audio data obtained by the microphone 14 (recording unit) to each of the moving image files MPA and MPB, whereby a plurality of moving image files MPA, An MPB is created and recorded on the memory card 90. That is, the audio data of the moving image file MPA and the audio data of the moving image file MPB are the same. In this way, when creating a plurality of moving image files with audio data, a single recording unit can also be used.

ここでは、上記のような動画像ファイルMPA,MPBが別個のファイルとして、別個の名称が付された状態で同一のメモリカード90(単一の記録媒体)に記録される。   Here, the moving image files MPA and MPB as described above are recorded as separate files on the same memory card 90 (single recording medium) with different names attached.

図11は、ファイル名称の付与ルールについて説明する図である。ここでは、通常動画記録モードによる1回の撮影動作で1つの動画ファイルを記録した後、上述した複数動画記録モードによる1回の撮影動作で2つの動画ファイルを記録する場合を想定する。なお、いずれの動画ファイルにおいても、拡張子"mov"は動画であることを示している。   FIG. 11 is a diagram for explaining a file name assignment rule. Here, it is assumed that one moving image file is recorded by one shooting operation in the normal moving image recording mode, and then two moving image files are recorded by one shooting operation in the multiple moving image recording mode described above. In any moving image file, the extension “mov” indicates a moving image.

図11(a)は、最初の通常動画記録モードで撮影された動画ファイルの名称を示している。この動画ファイルには、"Pict0001.mov"(4文字目は"t")という名称が付されている。最初の4文字"Pict"は、通常動画記録モードの動画であることを示している。その次の4文字はファイル番号を示しており、そのモードに依らず且つ撮影エリアに依らず、撮影された順序で1つずつインクリメントされていく。ここでは、最初のファイルであるので"0001"が付されている。   FIG. 11A shows the name of a moving image file shot in the first normal moving image recording mode. This moving image file has a name “Pict0001.mov” (the fourth character is “t”). The first four characters “Pict” indicate that the movie is in the normal movie recording mode. The next four characters indicate the file number, and are incremented one by one in the order of shooting regardless of the mode and shooting area. Here, since it is the first file, “0001” is added.

図11(b)は、複数動画記録モードで撮影された2つの動画ファイルのうちの一方の動画ファイルの名称を示している。この動画ファイルには、"Pica0002.mov"という名称が付されている。最初の4文字"Pica"(4文字目は"a")は、複数動画記録モードのエリアEAに対応する動画であることを示している。また、ファイル番号を示す次の4文字は、自動的に1つインクリメントされて"0002"になっている。   FIG. 11B shows the name of one of the two moving image files shot in the multiple moving image recording mode. This moving image file is named “Pica0002.mov”. The first four characters “Pica” (the fourth character is “a”) indicate that the movie corresponds to the area EA in the multiple movie recording mode. Further, the next four characters indicating the file number are automatically incremented by one to become “0002”.

図11(c)は、複数動画記録モードで撮影された2つの動画ファイルのうちの他方の動画ファイルの名称を示している。この動画ファイルには、"Picb0003.mov"という名称が付されている。最初の4文字"Picb"(4文字目は"b")は、複数動画記録モードのエリアEBに対応する動画であることを示している。また、ファイル番号を示す次の4文字は、自動的に1つインクリメントされて"0003"になっている。   FIG. 11C shows the name of the other moving image file out of the two moving image files shot in the multiple moving image recording mode. This moving image file is named “Picb0003.mov”. The first four characters “Picb” (the fourth character is “b”) indicate that the movie corresponds to the area EB in the multiple movie recording mode. Further, the next four characters indicating the file number are automatically incremented by one to “0003”.

以上のように、CCD撮像素子20における複数のエリアEA,EBのそれぞれに対応する画像データが、そのファイル名に関連性を持たせた状態で、互いに異なる複数の動画ファイルとして記録される。したがって、操作者はファイルの関連性を理解しやすく、混乱を防止できる。   As described above, the image data corresponding to each of the plurality of areas EA and EB in the CCD image pickup device 20 is recorded as a plurality of different moving image files in a state where the file names are related. Therefore, the operator can easily understand the relationship of the files, and can prevent confusion.

特に、ファイル名は、撮影対象エリアを識別する識別部分(ここでは、最初の4文字(特に4文字目))を有しているので、操作者は各動画ファイルの撮影対象エリア(より具体的には、その撮影対象エリアがエリアEA,EBのいずれであるのか)を容易に識別できる。また、上述のファイル名における最初の4文字は、各動画ファイルの記録モードを識別する機能をも有している。   In particular, since the file name has an identification part (here, the first four characters (particularly the fourth character)) for identifying the shooting target area, the operator can select the shooting target area (more specifically, each moving image file). Can be easily identified as to whether the area to be imaged is the area EA or EB). The first four characters in the above file name also have a function of identifying the recording mode of each moving image file.

また、動画ファイルのファイル名のファイル番号部分(ここでは、5文字目から8文字目までの4文字)は、各動画ファイルに対してその撮影対象エリアの異同にかかわらず一意に付与される連続番号を有している。したがって、その撮影対象エリアが異なるファイルに対して同一のファイル番号が付与されることが無いので、ファイル番号の異同で動画ファイルの異同を判断できる。すなわち混同のおそれが少ない。また、連続番号のファイルに関連性があることを容易に識別できる。   In addition, the file number portion of the file name of the moving image file (here, 4 characters from the fifth character to the eighth character) is continuously assigned to each moving image file regardless of the difference in the shooting target area. Have a number. Accordingly, since the same file number is not assigned to files having different shooting target areas, it is possible to determine the difference between moving image files based on the difference in file number. That is, there is little possibility of confusion. Further, it is possible to easily identify that the serial number files are related.

さらに、同一の撮影動作で取得される複数の動画ファイルに対しては連続番号が付与され、且つ、同一の撮影動作で取得される複数の動画ファイルのうち、その撮影対象エリアが特定のエリア(ここではエリアEA)の動画ファイルに対して最も小さな番号が付与される。そして、撮影対象エリアが特定のエリア(ここではエリアEA)であることは、特定の識別子(たとえば、"Pica"(4文字目は"a"))によって識別できる。したがって、特定の識別子(たとえば、"Pica")を有するファイルのファイル番号(ここでは2)から始まる連続番号(2,3)を有する一連のファイルを、複数動画記録モードにおける同一の撮影で得られた複数(ここでは2つ)の動画ファイルであると認識できる。   Furthermore, serial numbers are assigned to a plurality of moving image files acquired by the same shooting operation, and the shooting target area of the plurality of moving image files acquired by the same shooting operation is a specific area ( Here, the smallest number is assigned to the moving image file in area EA). Then, the fact that the shooting target area is a specific area (here, area EA) can be identified by a specific identifier (for example, “Pica” (the fourth character is “a”)). Therefore, a series of files having consecutive numbers (2, 3) starting from the file number (here, 2) of a file having a specific identifier (for example, “Pica”) can be obtained by the same shooting in the multiple movie recording mode. It can be recognized that it is a plurality (two in this case) of moving image files.

<AF制御,AE制御,AWB制御>
つぎに、複数動画記録モードにおける自動合焦制御(AF制御とも略称する)、自動露出制御(AE制御とも略称する)、および自動ホワイトバランス制御(AWB制御とも略称する)について説明する。
<AF control, AE control, AWB control>
Next, automatic focusing control (abbreviated as AF control), automatic exposure control (abbreviated as AE control), and automatic white balance control (abbreviated as AWB control) in the multiple moving image recording mode will be described.

まず、非記録時(図6のステップSP1〜ステップSP5のループ)においては、ドラフトモードMAで読み出された画像GA3に基づくライブビュー画像PVがLCD5に表示される。そして、このライブビュー画像PVの画像調整のために、AF制御、AE制御およびAWB制御が行われる。AE制御およびAWB制御は、ドラフトモードMAによる画像GA3を用いて算出された評価値(AE用評価値およびAWB用評価値)に基づいて行われる。また、AF制御は、部分読出モードによる画像GB3を用いて算出されたAF用評価値に基づいて行われる。   First, at the time of non-recording (loop of step SP1 to step SP5 in FIG. 6), a live view image PV based on the image GA3 read in the draft mode MA is displayed on the LCD 5. Then, AF control, AE control, and AWB control are performed for image adjustment of the live view image PV. The AE control and the AWB control are performed based on the evaluation values (AE evaluation value and AWB evaluation value) calculated using the image GA3 in the draft mode MA. The AF control is performed based on the AF evaluation value calculated using the image GB3 in the partial reading mode.

一方、記録時(図6のステップSP6〜ステップSP11のループ)においては、ドラフトモードMAによる画像GA3(PA)に基づくライブビュー画像PVがLCD5に表示されるとともに、ドラフトモードMAによる画像GA3(画像PA)と部分読出モードMBによる画像GB3(画像PB)とが交互に読み出され交互に記録される。そして、これらの記録用画像PA,PBの画像調整のために、AF制御、AE制御およびAWB制御が行われる。   On the other hand, at the time of recording (loop from step SP6 to step SP11 in FIG. 6), a live view image PV based on the image GA3 (PA) in the draft mode MA is displayed on the LCD 5, and an image GA3 in the draft mode MA (image PA) and the image GB3 (image PB) in the partial reading mode MB are alternately read and recorded alternately. Then, AF control, AE control, and AWB control are performed for image adjustment of these recording images PA and PB.

ここで、画像PA,PBについてのAE制御は、いずれも、ドラフトモードMAによる画像GA3を用いて算出された評価値(AE用評価値およびAWB用評価値)に基づいて行われる。ただし、画像PA,PBは、その視野が異なる(言い換えれば、その撮影範囲が異なる)ため、それぞれの撮影範囲に応じたブロックの評価値を用いることが好ましい。   Here, the AE control for the images PA and PB is performed based on the evaluation values (AE evaluation value and AWB evaluation value) calculated using the image GA3 in the draft mode MA. However, since the images PA and PB have different fields of view (in other words, their shooting ranges are different), it is preferable to use an evaluation value of a block corresponding to each shooting range.

まず、画像PAについてのAE制御について説明する。   First, the AE control for the image PA will be described.

画像PAについてのAE制御は、画像GA3の全体に対する測光演算結果に基づいて行われる。より詳細には、測光演算部28が、解像度変換部26から出力される画像GA3(PA)を複数のブロック(「測光ブロック」とも称する)に分割し、各ブロックの代表輝度値に基づいてAE用評価値を算出する。   The AE control for the image PA is performed based on the photometric calculation result for the entire image GA3. More specifically, the photometry calculation unit 28 divides the image GA3 (PA) output from the resolution conversion unit 26 into a plurality of blocks (also referred to as “photometry blocks”), and AE based on the representative luminance value of each block. An evaluation value is calculated.

図12は、測光ブロックの一例を示す図である。測光演算部28は画像GA3が入力されると、その画像GA3(PA)を横方向に20個、縦方向に15個に区分(分割)する。この結果、横320×縦240の画像サイズを有する画像GA3は、合計300(=20×15)個の測光ブロックに区分され、各測光ブロックは、それぞれ、16画素(横方向)×16画素(縦方向)のサイズを有している。そして測光演算部28は各ブロックに含まれる複数の画素の輝度値を加算することにより、各ブロックの代表輝度値を算出する。各画素の輝度値としては、R(赤),G(緑),B(青)の各色成分値の重み付け加算値(Y成分値)を用いてもよく、各色成分のうちの1つの成分(たとえばG成分)の値を用いてもよい。   FIG. 12 is a diagram illustrating an example of a photometry block. When the image GA3 is input, the photometry calculation unit 28 divides (divides) the image GA3 (PA) into 20 in the horizontal direction and 15 in the vertical direction. As a result, the image GA3 having a horizontal 320 × vertical 240 image size is divided into a total of 300 (= 20 × 15) photometric blocks, and each photometric block has 16 pixels (horizontal direction) × 16 pixels ( (Vertical direction) size. Then, the photometry calculation unit 28 calculates the representative luminance value of each block by adding the luminance values of a plurality of pixels included in each block. As the luminance value of each pixel, a weighted addition value (Y component value) of each color component value of R (red), G (green), and B (blue) may be used, and one component ( For example, the value of G component may be used.

そして各ブロックから得られる代表輝度値と、各ブロックに対応付けられる重み付け係数との積を求め、各ブロックについて得られる積を全てのブロック(300ブロック)について累積加算することでAE用評価値を求める。AE制御には、スポット測光方式、中央重点測光方式、平均測光方式などの様々な方式が存在するが、この重み付け係数を各方式に応じて変更することによって、各方式に応じたAE用評価値を算出することができる。たとえば、各重み付け係数を同一の値とすることによって平均測光方式のAE用評価値を算出することができる。   Then, the product of the representative luminance value obtained from each block and the weighting coefficient associated with each block is obtained, and the product obtained for each block is cumulatively added for all blocks (300 blocks) to obtain the evaluation value for AE. Ask. There are various types of AE control, such as spot metering, center-weighted metering, and average metering, but by changing this weighting factor according to each method, an AE evaluation value corresponding to each method is used. Can be calculated. For example, the AE evaluation value of the average photometry method can be calculated by setting each weighting coefficient to the same value.

測光演算部28は、算出したAE用評価値を全体制御部30へと出力し、全体制御部30は、このAE用評価値を用いて、次のフレーム画像(画像PA)撮影時の露出状態を適正な状態にするための撮影パラメータ(具体的には、シャッタスピードおよび絞り)を決定する。その後、決定された撮影パラメータで次のフレーム画像PAが撮影される。   The photometry calculation unit 28 outputs the calculated AE evaluation value to the overall control unit 30, and the overall control unit 30 uses the AE evaluation value to expose the next frame image (image PA). The shooting parameters (specifically, the shutter speed and the aperture) for determining the appropriate state are determined. Thereafter, the next frame image PA is shot with the determined shooting parameters.

なお、非記録時(ステップSP1〜SP5)におけるAE制御は、記録時における画像PAに対する上記のAE制御と同様にして行われればよい。   Note that the AE control during non-recording (steps SP1 to SP5) may be performed in the same manner as the AE control for the image PA during recording.

つぎに、画像PBについてのAE制御について説明する。   Next, AE control for the image PB will be described.

画像PBについてのAE制御は、画像PAについてのAE制御と同様に、画像GA3に基づいて行われる。ただし、図13に示すように、画像GA3を区分した複数のブロックのうちの一部のブロック、具体的には、画像PBに対応する領域を含むブロックのみを対象として、AE用評価値を算出する。図13においては、画像GA3(PA)内の複数(300個)のブロックのうち、画像PA内での画像PBの位置に対応する6つのブロック(図13の太線BLで囲まれるブロック)のみに基づいてAE用評価値を算出する。これら6つのブロックは、画像PA内において画像PBの位置に対応する領域CBを含むブロックである。   Similar to the AE control for the image PA, the AE control for the image PB is performed based on the image GA3. However, as shown in FIG. 13, the AE evaluation value is calculated only for a part of a plurality of blocks into which the image GA3 is divided, specifically, a block including an area corresponding to the image PB. To do. In FIG. 13, out of a plurality (300) of blocks in image GA3 (PA), only six blocks corresponding to the position of image PB in image PA (blocks surrounded by thick line BL in FIG. 13) are included. Based on this, an evaluation value for AE is calculated. These six blocks are blocks including a region CB corresponding to the position of the image PB in the image PA.

そして各ブロックから得られる代表輝度値と、各ブロックに対応付けられる重み付け係数との積を求め、各ブロックについて得られる積を6つのブロックについて累積加算することでAE用評価値を求める。ここでは、ブロックの数が比較的少ないので平均測光方式を採用し、各ブロックの重み付けが同一となるような重み付け係数を用いる。なお、上述したように、他の方式でAE制御を行うようにしてもよい。   Then, the product of the representative luminance value obtained from each block and the weighting coefficient associated with each block is obtained, and the product obtained for each block is cumulatively added for six blocks to obtain the evaluation value for AE. Here, since the number of blocks is relatively small, an average photometry method is adopted, and weighting coefficients are used so that the weights of the respective blocks are the same. As described above, the AE control may be performed by another method.

測光演算部28は、算出したAE用評価値を全体制御部30へと出力し、全体制御部30は、このAE用評価値を用いて、次のフレーム画像(画像PB)撮影時の露出状態を適正な状態にするための撮影パラメータ(具体的には、シャッタスピードおよび絞り)を決定する。   The photometry calculation unit 28 outputs the calculated AE evaluation value to the overall control unit 30, and the overall control unit 30 uses the AE evaluation value to expose the next frame image (image PB). The shooting parameters (specifically, the shutter speed and the aperture) for determining the appropriate state are determined.

以上のようにして、両画像PA,PBについてのAE制御における制御パラメータを、一方の画像GA3(PA)を用いたAE用評価値に基づいて決定することができる。この場合、他方の画像GB3(PB)を用いたAE用評価値にも基づいて、両画像PA,PBについてのAE制御における制御パラメータを決定する場合に比べて、画像GB3(PB)についてのAE用評価値を算出する必要がないので、演算量を減少させることができる。すなわち、効率的である。   As described above, the control parameters in the AE control for both the images PA and PB can be determined based on the evaluation value for AE using one image GA3 (PA). In this case, the AE for the image GB3 (PB) is compared with the case where the control parameters in the AE control for both the images PA and PB are determined based on the evaluation value for AE using the other image GB3 (PB). Therefore, it is not necessary to calculate an evaluation value for use, so that the amount of calculation can be reduced. That is, it is efficient.

また、画像PAについての露出制御における制御パラメータは画像PAに基づいて決定されるとともに、画像PBについての露出制御における制御パラメータは、画像PAの画像データのうち画像PBの撮影範囲に相当する領域のデータに基づいて決定される。したがって、画像PAの露出制御を画像PAの特性に合わせ、且つ、画像PBの露出制御を画像PBの特性に合わせて行うことが可能になる。すなわち、各画像PA,PBの特徴に応じたAE制御を行うことができる。   In addition, the control parameter in the exposure control for the image PA is determined based on the image PA, and the control parameter in the exposure control for the image PB is an area corresponding to the imaging range of the image PB in the image data of the image PA. Determined based on data. Therefore, the exposure control of the image PA can be matched with the characteristics of the image PA, and the exposure control of the image PB can be matched with the characteristics of the image PB. That is, AE control corresponding to the characteristics of the images PA and PB can be performed.

つぎに、AWB制御について説明する。画像PA,PBについてのAWB制御は、AE制御と同様に、ドラフトモードMAによる画像GA3を用いて算出された評価値(AE用評価値およびAWB用評価値)に基づいて行われる。   Next, AWB control will be described. Similar to the AE control, the AWB control for the images PA and PB is performed based on the evaluation values (AE evaluation value and AWB evaluation value) calculated using the image GA3 in the draft mode MA.

測光演算部28は、測色演算部としても機能し、図12の各ブロックを測色ブロックとしても機能させて、AWB(オートホワイトバランス)用評価値を算出する。AWB制御は、このAWB用評価値に基づいて行われる。   The photometry calculating unit 28 also functions as a colorimetric calculating unit, and calculates the evaluation value for AWB (auto white balance) by causing each block in FIG. 12 to function as a colorimetric block. AWB control is performed based on the evaluation value for AWB.

AWB用評価値は、画像におけるR(赤),G(緑),B(青)の3つの色成分のバランスを測るための評価値であり、3つの色成分のそれぞれの比率を表す値として求められる。   The evaluation value for AWB is an evaluation value for measuring the balance of three color components of R (red), G (green), and B (blue) in the image, and is a value representing the ratio of each of the three color components. Desired.

ただし、画像PA,PBは、その視野が異なる(言い換えれば、その撮影範囲が異なる)ため、それぞれの撮影範囲に応じたブロックの評価値を用いることが好ましい。   However, since the images PA and PB have different fields of view (in other words, their shooting ranges are different), it is preferable to use an evaluation value of a block corresponding to each shooting range.

具体的には、画像PAについては、画像GA3の全範囲、すなわち、図12の全ブロックを対象として、3つの色成分のそれぞれの比率を表す値をAWB用評価値として求めることができる。   Specifically, for the image PA, the value representing the ratio of each of the three color components can be obtained as the AWB evaluation value for the entire range of the image GA3, that is, all the blocks in FIG.

一方、画像PBについては、画像GA3内の複数(300個)のブロックのうち、画像PA内での画像PBの位置に対応する6つのブロック(図13の太線BLで囲まれるブロック)のみに基づいて、3つの色成分のそれぞれの比率を表す値をAWB用評価値として算出する。   On the other hand, the image PB is based on only six blocks (blocks surrounded by the thick line BL in FIG. 13) corresponding to the position of the image PB in the image PA among a plurality (300) of blocks in the image GA3. Then, a value representing the ratio of each of the three color components is calculated as an evaluation value for AWB.

算出されたAWB用評価値は全体制御部30へと出力される。そして、全体制御部30は、このAWB用評価値を用いて、次のフレーム撮影時のホワイトバランスを適正な状態にするための撮影パラメータ(具体的には、ホワイトバランスゲイン)を決定する。そして、WB回路23は、次の画像PAまたは画像PBを取得する際に、画像PA,PBごとに決定されたホワイトバランスゲインに基づいて画像処理を行う。   The calculated evaluation value for AWB is output to the overall control unit 30. Then, the overall control unit 30 uses this AWB evaluation value to determine shooting parameters (specifically, white balance gain) for setting the white balance in the next frame shooting to an appropriate state. The WB circuit 23 performs image processing based on the white balance gain determined for each of the images PA and PB when acquiring the next image PA or image PB.

以上のようにして、各画像PA,PBについてのAWB制御におけるAWB用評価値は、一方の画像GA3(PA)のみを用いて算出されているので、他方の画像GB3をも用いて算出される場合に比べて演算量を減少させることができる。すなわち、効率的である。   As described above, since the evaluation value for AWB in the AWB control for each of the images PA and PB is calculated using only one image GA3 (PA), it is also calculated using the other image GB3. Compared to the case, the calculation amount can be reduced. That is, it is efficient.

また、画像PAについてのホワイトバランス制御における制御パラメータは画像PAに基づいて決定されるとともに、画像PBについてのホワイトバランス制御における制御パラメータは、画像PAの画像データのうち画像PBの撮影範囲に相当する領域のデータに基づいて決定される。したがって、画像PAのホワイトバランス制御を画像PAの特性に合わせ、且つ、画像PBのホワイトバランス制御を画像PBの特性に合わせて行うことが可能になる。すなわち、各画像PA,PBの特徴に応じたAWB制御を行うことができる。   The control parameter for white balance control for the image PA is determined based on the image PA, and the control parameter for white balance control for the image PB corresponds to the shooting range of the image PB in the image data of the image PA. It is determined based on the area data. Therefore, the white balance control of the image PA can be matched with the characteristics of the image PA, and the white balance control of the image PB can be matched with the characteristics of the image PB. That is, AWB control corresponding to the characteristics of the images PA and PB can be performed.

また、上記のようなAE制御およびAWB制御は、全てのフレームについて行う必要はなく、所定数フレームに1回の割合(たとえば4フレーム1回の割合)で行えばよい。   The AE control and AWB control as described above need not be performed for all frames, and may be performed once every predetermined number of frames (for example, once every four frames).

さらに、AF制御について説明する。ここでは、いわゆるコントラスト方式を用いる。   Further, AF control will be described. Here, a so-called contrast method is used.

画像PA,PBについてのAF制御は、いずれも、部分読出モードによる画像GB3を用いて算出されたAF用評価値に基づいて行われる。具体的には、画像GB3において水平方向に隣接する2画素間での差分絶対値の総和がAF用評価値として算出される。   The AF control for the images PA and PB is performed based on the AF evaluation value calculated using the image GB3 in the partial readout mode. Specifically, the sum of absolute differences between two pixels adjacent in the horizontal direction in the image GB3 is calculated as the AF evaluation value.

画像PA,PBにおける被写体の被写体距離が互いに異なる場合には、画像PA撮影時と画像PB撮影時とで焦点位置を変更することも考えられるが、レンズ駆動のための時間が必要となるため、フレームレートの減少を招くなどの弊害が生じる。そこで、ここでは、2つの画像PA,PBのうちの部分画像PBを用いて、AF用評価値を算出するものとする。   If the subject distances of the subjects in the images PA and PB are different from each other, it may be possible to change the focal position between the image PA shooting and the image PB shooting, but it takes time to drive the lens. Detrimental effects such as reducing the frame rate occur. Therefore, here, the AF evaluation value is calculated using the partial image PB of the two images PA and PB.

画像PAではなく画像PBを用いるのは、部分画像PBが画像PAの全エリアのうちの注目部分であることが多いこと、および/または、画像PBの画素ピッチが画像PAの画素ピッチの8倍であり画像PBの被写界深度(焦点深度)が画像PAの被写界深度(焦点深度)よりも8倍大きいことなどの理由による。   The reason why the image PB is used instead of the image PA is that the partial image PB is often a target portion of the entire area of the image PA and / or the pixel pitch of the image PB is eight times the pixel pitch of the image PA. This is because the depth of field (depth of focus) of the image PB is eight times larger than the depth of field (depth of focus) of the image PA.

上述のようにして算出されるAF用評価値は全体制御部30へと出力され、自動合焦制御が実現される。たとえば、非記録時においては、ユーザによってシャッタボタン9が半押し状態とされた場合にのみAF制御が行われ、記録時においては、所定の時間間隔でAF制御が行われればよい。   The AF evaluation value calculated as described above is output to the overall control unit 30, and automatic focusing control is realized. For example, at the time of non-recording, the AF control is performed only when the shutter button 9 is half-pressed by the user, and at the time of recording, the AF control may be performed at a predetermined time interval.

以上のように、記録時においても、両画像PA,PBについてのAF制御を、一方の画像GB3(PB)のみからのAF用評価値に基づいて行うことができるので、他方の画像GA3からのAF用評価値をも算出する場合に比べて、演算量を減少させることができる。すなわち、効率的である。   As described above, even during recording, AF control for both images PA and PB can be performed based on the evaluation value for AF from only one image GB3 (PB), and therefore from the other image GA3. Compared with the case where the AF evaluation value is also calculated, the amount of calculation can be reduced. That is, it is efficient.

<B.第2実施形態>
つぎに第2実施形態について説明する。第2実施形態に係るデジタルカメラは、撮像素子として、CCDセンサ20の代わりにCMOS(Complementary Metal Oxide Semiconductor)センサ20Bを用いる点で第1実施形態に係るデジタルカメラと相違するが、その他の構成については同様である。以下では、相違点を中心に説明する。
<B. Second Embodiment>
Next, a second embodiment will be described. The digital camera according to the second embodiment is different from the digital camera according to the first embodiment in that a CMOS (Complementary Metal Oxide Semiconductor) sensor 20B is used as an image sensor instead of the CCD sensor 20, but the other configurations are different. Is the same. Below, it demonstrates centering around difference.

図14および図15は、CMOSセンサ(CMOS撮像素子)20Bにおける読出し画素の指定について説明する図である。CMOSセンサ20Bにおいては、水平ラインおよび/または垂直ラインをまとめて取り出す必要がなく、任意の指定位置の画素を読み出すことが可能である。したがって、記録用動画像GCの取得時における横方向の解像度変換は不要となる。   14 and 15 are diagrams for describing designation of readout pixels in the CMOS sensor (CMOS imaging device) 20B. In the CMOS sensor 20B, it is not necessary to take out horizontal lines and / or vertical lines all at once, and it is possible to read out pixels at an arbitrary designated position. Therefore, it is not necessary to convert the resolution in the horizontal direction when acquiring the recording moving image GC.

ここでは、CMOSセンサ20Bは、2576×1936の画素を有しているものとして説明する。   Here, the CMOS sensor 20B will be described as having 2576 × 1936 pixels.

記録用静止画像の取得時においては、CMOSセンサ20Bの全画素(2576×1936の画素)が読み出されて、記録用の静止画像が生成される。   At the time of acquiring a recording still image, all the pixels (2576 × 1936 pixels) of the CMOS sensor 20B are read, and a recording still image is generated.

一方、ライブビュー画像の取得時および記録用動画像の取得時などにおいては、全画素のうちのいくつかの画素の信号を読み出して、比較的小さな画素サイズ(たとえば320×240の画素サイズ)の画像が生成される。   On the other hand, at the time of acquiring a live view image and a moving image for recording, the signals of some of the pixels are read out, and a relatively small pixel size (for example, 320 × 240 pixel size) is read. An image is generated.

また、このような比較的小さな画素サイズの画像は、その抽出の仕方によって2つのタイプの画像に大別される。   Such relatively small pixel size images are roughly divided into two types of images depending on the extraction method.

1つは、図14に示されるように、CMOSセンサ20Bの全エリアの状態を示す画像GCであり、たとえば、CCD撮像素子20Bの全エリアから数画素間隔で画素を読み出して取得される画像である。図14の概念図においては、CMOSセンサ20Bから縦方向および横方向ともに8画素間隔で読み出して322×242の画素サイズの画像を生成し、所定の画像処理を施した後に上下左右端の各1画素幅の画素列を削除することによって、第1実施形態と同じ320×240の画素サイズの画像GCを生成する様子が示されている。この画像GCは、図5の全体画像PAのように撮影範囲の全エリアに相当する画像である。   One is an image GC showing the state of the entire area of the CMOS sensor 20B as shown in FIG. 14, for example, an image obtained by reading out pixels from the entire area of the CCD image sensor 20B at intervals of several pixels. is there. In the conceptual diagram of FIG. 14, an image having a pixel size of 322 × 242 is generated by reading out from the CMOS sensor 20B at intervals of 8 pixels in both the vertical direction and the horizontal direction. It is shown that an image GC having the same 320 × 240 pixel size as that in the first embodiment is generated by deleting a pixel column having a pixel width. This image GC is an image corresponding to the entire area of the shooting range, like the entire image PA of FIG.

もう1つは、CMOSセンサ20Bから抜き出した一部のエリアの状態を示す画像GDであり、たとえば、互いに隣接する画素の集合である画素ブロックエリアBDの画素がCCD撮像素子20Bから読み出されて取得される画像である。図15の概念図においては、CMOSセンサ20Bから所定の位置(i,j)から(i+241,j+321)までの連続する322×242の画像を読み出して所定の画像処理を施した後に、上下左右端の各1画素幅の画素列を削除することによって、第1実施形態と同じ320×240の画素サイズの画像GDを生成する様子が示されている。この画像GDは、図5の部分画像PBのように、撮影範囲の一部エリアに相当する画像である。   The other is an image GD showing the state of a part of the area extracted from the CMOS sensor 20B. For example, pixels in the pixel block area BD, which is a set of adjacent pixels, are read from the CCD image sensor 20B. It is an acquired image. In the conceptual diagram of FIG. 15, after a continuous 322 × 242 image from a predetermined position (i, j) to (i + 241, j + 321) is read from the CMOS sensor 20B and subjected to predetermined image processing. It is shown that an image GD having the same 320 × 240 pixel size as in the first embodiment is generated by deleting pixel rows each having a width of 1 pixel at the top, bottom, left and right ends. This image GD is an image corresponding to a partial area of the shooting range, like the partial image PB in FIG.

このように、読み出し画素の位置を変更することによって、その撮像範囲が異なる(視野が異なる)画像GC、GDを得ることができる。   In this way, by changing the position of the readout pixel, images GC and GD having different imaging ranges (different visual fields) can be obtained.

そして、CMOSセンサ20Bにおける読出し画素の指定位置を切り替えて、2つの画像GC,GDを交互に読み出し交互に記録する。   Then, the designated position of the readout pixel in the CMOS sensor 20B is switched, and the two images GC and GD are alternately read and recorded alternately.

このような動作によっても、視野が異なる複数の画像を手軽に撮影することが可能である。   Even with such an operation, it is possible to easily take a plurality of images having different fields of view.

なお、この第2実施形態においては、CMOSセンサ20Bから水平方向および垂直方向ともに等間隔で読み出した画素で画像GCを生成する場合を例示したが、これに限定されない。たとえば、画像GCを生成する際において、CMOSセンサ20Bにおいて不定間隔で配置された画素を指定して読み出してもよく、さらには、水平位置と垂直位置とを全く独立に指定して読み出してもよい。   In the second embodiment, the case where the image GC is generated with pixels read out from the CMOS sensor 20B at equal intervals in both the horizontal direction and the vertical direction is illustrated, but the present invention is not limited to this. For example, when the image GC is generated, the pixels arranged at indefinite intervals in the CMOS sensor 20B may be designated and read, and further, the horizontal position and the vertical position may be designated and read out completely. .

<C.第3実施形態>
第3実施形態は、2つの「部分画像」を記録する場合について説明する。第3実施形態は第1実施形態の変形例であり、以下では第1実施形態との相違点を中心に説明する。
<C. Third Embodiment>
In the third embodiment, a case where two “partial images” are recorded will be described. The third embodiment is a modification of the first embodiment, and the description below will focus on the differences from the first embodiment.

図16は、CCD撮像素子20の全撮影範囲を示す画像GEと、その一部のエリアLF,LGのそれぞれに対応する画像GF,GGとの関係を示す図である。この第3実施形態においては、その視野が異なる2つの画像GF,GGがそれぞれ別の動画像として撮影される。   FIG. 16 is a diagram showing a relationship between an image GE showing the entire photographing range of the CCD image pickup device 20 and images GF and GG corresponding to some areas LF and LG, respectively. In the third embodiment, two images GF and GG having different fields of view are photographed as separate moving images.

図17、図18、図19は、各画像GE,GF,GGを取得する際のCCD撮像素子20の読み出しモードを示す概念図である。   FIGS. 17, 18, and 19 are conceptual diagrams showing the readout mode of the CCD image sensor 20 when acquiring the images GE, GF, and GG.

図17は、全体画像GEを取得する際の読み出しモード(第1実施形態のドラフトモードMAに相当する)を示している。図18および図19は、それぞれ、部分画像GFおよび部分画像GGを取得する際の読み出しモード(第1実施形態の部分読み出しモードMBに相当する)を示している。   FIG. 17 shows a read mode (corresponding to the draft mode MA of the first embodiment) when acquiring the entire image GE. FIG. 18 and FIG. 19 show a read mode (corresponding to the partial read mode MB of the first embodiment) when acquiring the partial image GF and the partial image GG, respectively.

画像GFおよび画像GGは、読み出しモードは同一であるが、読み出し対象の水平ラインの位置が相違した状態で読み出される。図18における読み出し対象の水平ラインは、図19における読み出し対象の水平ラインよりも上側に位置している。これは、図16に示すように、画像GFの撮影範囲(図16のエリアLF)が画像GGの撮影範囲(図16のエリアLG)よりも、画像GEにおいて比較的上側に存在していることに対応している。このように、画像GF,GGは、読出し画素の指定垂直位置を切り替えて(言い換えれば、読み出し対象の水平ラインを切り替えて)、CCD撮像素子20から交互に読み出される。なお、図18の読出しモードと図19の読出しモードとを区別するため、前者を部分読出しモードMB1、後者を部分読出モードMB2とも称する。   The image GF and the image GG are read in the same reading mode, but in a state where the positions of the horizontal lines to be read are different. The horizontal line to be read in FIG. 18 is located above the horizontal line to be read in FIG. This is because, as shown in FIG. 16, the shooting range of the image GF (area LF in FIG. 16) is relatively higher in the image GE than the shooting range of the image GG (area LG in FIG. 16). It corresponds to. As described above, the images GF and GG are alternately read from the CCD imaging device 20 by switching the designated vertical position of the readout pixel (in other words, switching the horizontal line to be read). In order to distinguish between the read mode of FIG. 18 and the read mode of FIG. 19, the former is also referred to as a partial read mode MB1, and the latter is also referred to as a partial read mode MB2.

図17〜図19の各モードで読み出された各画像は、それぞれ、各種の画像処理が施されて、所定のサイズ(たとえば320×240)の各画像GE,GF,GGとして生成される。   Each image read in each mode of FIGS. 17 to 19 is subjected to various types of image processing and is generated as each image GE, GF, GG having a predetermined size (for example, 320 × 240).

図20は、この第3実施形態における動作を示すタイミングチャートである。図20においては、ドラフトモードMAと部分読出モードMB1と部分読出モードMB2とが順次に(順番に)繰り返して用いられ、1/30秒(約33ミリ秒)間隔でフレーム画像がCCD撮像素子20から読み出されている様子が示されている。具体的には、第1フレームの画像は、ドラフトモードMAで読み出されて生成された画像GEであり、第2フレームの画像は、部分読出モードMB1で読み出されて生成された画像GFであり、第3フレームの画像は、部分読出モードMB2で読み出されて生成された画像GGである。その後、第4フレーム以降においても、画像GE,GF,GGが順次に(この順序で)繰り返して読み出されて生成される。   FIG. 20 is a timing chart showing the operation in the third embodiment. In FIG. 20, the draft mode MA, the partial readout mode MB1 and the partial readout mode MB2 are repeatedly used in sequence (in order), and frame images are obtained at intervals of 1/30 seconds (about 33 milliseconds). The state of being read from is shown. Specifically, the first frame image is an image GE that is read and generated in the draft mode MA, and the second frame image is an image GF that is read and generated in the partial read mode MB1. The third frame image is an image GG read and generated in the partial read mode MB2. Thereafter, also in the fourth and subsequent frames, the images GE, GF, and GG are repeatedly read and generated sequentially (in this order).

生成された画像のうち画像GF,GGは、メモリカード90に対して交互に記録される。連続する一群の画像GFと連続する一群の画像GGとは、それぞれ、別個の動画像ファイルMPF,MPGとして記録される。   Of the generated images, the images GF and GG are alternately recorded on the memory card 90. The continuous group of images GF and the continuous group of images GG are recorded as separate moving image files MPF and MPG, respectively.

また、全体画像GEはライブビュー画像としてLCD5に表示される。このとき、図16に示すように、LCD5においては、部分画像GF,GGが、部分画像GF,GGの両エリアを含む全体画像GEとともに表示されており、かつ、部分画像GF,GGに対応する各エリアLF,LGの境界が破線で表示されている。したがって、操作者は、部分記録する画像GF,GGに対応するエリアの画像GE内での位置を容易に把握できるので、操作性が高い。   The entire image GE is displayed on the LCD 5 as a live view image. At this time, as shown in FIG. 16, on the LCD 5, the partial images GF and GG are displayed together with the entire image GE including both areas of the partial images GF and GG, and correspond to the partial images GF and GG. The boundaries between the areas LF and LG are indicated by broken lines. Therefore, the operator can easily grasp the position in the image GE of the area corresponding to the partially recorded images GF and GG, so that the operability is high.

なお、ここでは、画像GEを記録画像として用いていないが、全体画像である画像GEをさらに記録するようにしてもよい。すなわち、3つの画像GE,GF,GGをこの順序で繰り返して、3つの動画像を記録するようにしてもよい。   Here, the image GE is not used as the recording image, but the image GE that is the entire image may be further recorded. That is, three moving images may be recorded by repeating the three images GE, GF, and GG in this order.

また、この部分画像撮影時のAE制御、AWB制御、およびAF制御について説明する。   Further, AE control, AWB control, and AF control at the time of partial image shooting will be described.

まず、AE制御およびAWB制御については、上記の第1実施形態と同様に行えばよい。すなわち、記録時においては、画像GE,GF,GGについて、いずれも画像GEに基づいて評価値を求め、評価値に基づいてAE制御およびAWB制御を行えばよい。また、画像GFおよび画像GGについては、画像GEを区分した複数のブロックのうち、各画像GF,GGに相当する領域に対応するブロックを用いて評価値を求めるようにすることがより好ましい。   First, AE control and AWB control may be performed in the same manner as in the first embodiment. That is, at the time of recording, for images GE, GF, and GG, an evaluation value may be obtained based on image GE, and AE control and AWB control may be performed based on the evaluation value. For the image GF and the image GG, it is more preferable to obtain the evaluation value using a block corresponding to a region corresponding to each of the images GF and GG among a plurality of blocks obtained by dividing the image GE.

また、AF制御については、たとえば、次の2つの手法の双方または一方を用いればよい。   For AF control, for example, both or one of the following two methods may be used.

1つは、部分画像GF,GGの被写体距離のうち、より近い被写体距離に合わせて撮影動作を行う手法である。比較的近い被写体が合焦状態となるように撮影レンズ2の焦点位置を変更する。一般に、被写界深度は、焦点を合わせた位置の後ろ側に深くなっているため、部分画像GF,GGの両方の被写体が合焦状態になる可能性を高めることができる。   One is a method of performing a shooting operation in accordance with a closer subject distance among the subject distances of the partial images GF and GG. The focal position of the photographic lens 2 is changed so that a relatively close subject is in focus. In general, since the depth of field is deeper behind the focused position, it is possible to increase the possibility that both subjects in the partial images GF and GG are in focus.

もう1つは、絞り値を比較的大きな値に設定して(絞りを比較的絞った状態にして)撮影する手法である。絞り値を比較的大きな値に設定することによれば被写界深度が比較的大きな値となるため、部分画像GF,GGの両方の被写体が合焦状態となる可能性が高くなる。このような絞り制御によれば、光学系における焦点移動の頻度を低減(理想的にはゼロ)した上で、画像GF,GGの各被写体をともに合焦させることができる。また、焦点移動の頻度の低減によって、撮影間隔を比較的短く設定することができる。   The other is a method of taking an image with a relatively large aperture value (with a relatively narrow aperture value). By setting the aperture value to a relatively large value, the depth of field becomes a relatively large value, so that there is a high possibility that the subjects of both the partial images GF and GG are in focus. According to such aperture control, the frequency of focus movement in the optical system can be reduced (ideally zero), and the respective subjects of the images GF and GG can be brought into focus. In addition, the imaging interval can be set relatively short by reducing the frequency of focus movement.

図21は、このような絞りを設定する、APEX方式による露出制御用のプログラムラインの一例を示す図である。具体的には、図21におけるラインL0は、通常のプログラムラインを示しており、ラインL1は絞りをなるべく絞った状態とするプログラムラインL1(具体的には、絞り値(Fナンバー)が所定値(8.0)以上となるプログラムラインL1)を示している。   FIG. 21 is a diagram showing an example of a program line for exposure control by the APEX method for setting such an aperture. Specifically, the line L0 in FIG. 21 indicates a normal program line, and the line L1 is a program line L1 in a state where the aperture is reduced as much as possible (specifically, the aperture value (F number) is a predetermined value). The program line L1) is (8.0) or more.

このプログラムラインL1は、露出値が閾値(図では13)以上の場合には、絞りを最も絞った状態(F値で11.0)に設定した上でシャッタスピードを設定する。また、露出値がその閾値よりも小さい場合には、少し絞り具合を緩めた絞り値(F値で8.0)に設定した上でシャッタスピードを設定する。さらに、露出値が所定の基準値(ここでは12)より小さくなると、明るさ不足であると判定して複数動画記録モードによる動画撮影が禁止される。   When the exposure value is equal to or greater than a threshold value (13 in the figure), the program line L1 sets the shutter speed after setting the aperture to the most apertured state (F value is 11.0). When the exposure value is smaller than the threshold value, the shutter speed is set after setting the aperture value (F value is 8.0) slightly relaxed. Furthermore, when the exposure value is smaller than a predetermined reference value (here, 12), it is determined that the brightness is insufficient, and movie shooting in the multiple movie recording mode is prohibited.

たとえば、露出値が12の場合には、シャッタスピードが1/60に設定され、絞り値(F値)が8.0に設定される。また、露出値が14の場合には、シャッタスピードが1/125に設定され、絞り値(F値)が11.0に設定される。   For example, when the exposure value is 12, the shutter speed is set to 1/60, and the aperture value (F value) is set to 8.0. When the exposure value is 14, the shutter speed is set to 1/125, and the aperture value (F value) is set to 11.0.

以上のような2つの手法等を用いてAF制御を行うことができる。具体的には、上記の2つの手法の双方を用いてAF制御を行うことができる他、最初の手法のみを用いることも可能である。さらには、第2番目の手法を用いた上で、あらかじめ指定された一方の画像(たとえば画像GF)が常に優先的に合焦状態となるように焦点位置を決定してもよい。   The AF control can be performed using the two methods as described above. Specifically, AF control can be performed using both of the above two methods, and only the first method can be used. Furthermore, after using the second method, the focal position may be determined so that one of the predesignated images (for example, the image GF) is always preferentially focused.

<D.第4実施形態>
第4実施形態は、部分画像の範囲を操作者が設定するのではなく、部分画像の範囲をデジタルカメラが自動的に決定する場合を例示する。第4実施形態は、第1実施形態の変形例であり、以下では第1実施形態との相違点を中心に説明する。
<D. Fourth Embodiment>
The fourth embodiment exemplifies a case where the range of the partial image is not set by the operator but the digital camera automatically determines the range of the partial image. The fourth embodiment is a modification of the first embodiment, and the following description will focus on differences from the first embodiment.

図22は、第4実施形態に係る複数動画記録動作を示すフローチャートであり、図23は、撮影対象画像の一例を示す図である。ここでは、図22、図23などを参照しながら、移動体である飛行機を全体画像GIに基づいて自動的に検出し、検出した移動体を含む領域に対応する部分画像GJ(図26)と、全撮影範囲に対応する全体画像GI(図25)とを、それぞれ別個の動画像ファイルとして記録する場合について例示する。なお、画像GJの位置決定動作を含む各種の動作は、全体制御部30によって行われる。   FIG. 22 is a flowchart showing a plurality of moving image recording operations according to the fourth embodiment, and FIG. 23 is a diagram showing an example of a shooting target image. Here, referring to FIG. 22, FIG. 23, etc., the airplane as a moving object is automatically detected based on the entire image GI, and a partial image GJ (FIG. 26) corresponding to the area including the detected moving object is detected. An example in which the entire image GI (FIG. 25) corresponding to the entire shooting range is recorded as separate moving image files will be described. Various operations including the position determination operation of the image GJ are performed by the overall control unit 30.

ステップSP31〜ステップSP36においては、動画撮影のための準備動作が行われる。ステップSP37〜ステップSP44においては、動画撮影動作が行われる。また、ステップSP31,SP33,SP35,SP36は、それぞれ、図6のステップSP1,SP3,SP4,SP5と同様の動作であり、ステップSP37,SP38,SP40,SP42,SP43,SP44は、それぞれ、ステップSP6,SP7,SP11,SP8,SP9,SP10と同様の動作である。   In step SP31 to step SP36, a preparation operation for moving image shooting is performed. In step SP37 to step SP44, a moving image shooting operation is performed. Steps SP31, SP33, SP35, and SP36 are the same as steps SP1, SP3, SP4, and SP5 in FIG. 6, respectively, and steps SP37, SP38, SP40, SP42, SP43, and SP44 are respectively steps SP6. , SP7, SP11, SP8, SP9, SP10.

具体的には、ステップSP31で、CCD撮像素子20の読出しモードがドラフトモードに設定された後、ステップSP32では、部分画像GJの撮影範囲の大きさ(サイズ)が設定される。   Specifically, after the reading mode of the CCD image sensor 20 is set to the draft mode in step SP31, the size (size) of the shooting range of the partial image GJ is set in step SP32.

画像GJの大きさは初期状態では所定の基準の大きさに設定されており、その後、LCD5にライブビュー画像に重ねて表示された破線LB(図23)の大きさを、操作者がコントロールボタン7を用いて変更することによって、全撮影範囲における部分画像GJの大きさを指定する。デジタルカメラ1は、この操作者からの指定に基づいて、画像GJの撮影範囲を決定する。   The size of the image GJ is set to a predetermined reference size in the initial state, and then the operator sets the size of the broken line LB (FIG. 23) displayed on the LCD 5 so as to overlap the live view image. 7 is used to specify the size of the partial image GJ in the entire photographing range. The digital camera 1 determines the shooting range of the image GJ based on the designation from the operator.

その後、CCD撮像素子20の全撮影範囲に対応する画像GIが、CCD撮像素子20からドラフトモードで読み出される(ステップSP33)。   Thereafter, the image GI corresponding to the entire photographing range of the CCD image pickup device 20 is read out from the CCD image pickup device 20 in the draft mode (step SP33).

ステップSP34においては、移動被写体の中心位置が算出される。ここでは、図24に示すように、第nフレームの画像GInと第m(>n)フレームの画像GImとを用いて検出する。より具体的には、第nフレームの画像GInと第mフレームの画像GImとの差分画像DGを求め、その差分画像DGの重心位置PGを、移動被写体の中心位置として算出する。差分画像DGにおいては、停止したままのトラックに対応する部分については画像GIn,GImの差分値は検出されず、移動中の飛行機に対応する部分についてのみその差分値が検出されている様子が概念的に示されている。   In step SP34, the center position of the moving subject is calculated. Here, as shown in FIG. 24, detection is performed using an image GIn of the nth frame and an image GIm of the mth (> n) th frame. More specifically, a difference image DG between the image GIn of the nth frame and the image GIm of the mth frame is obtained, and the barycentric position PG of the difference image DG is calculated as the center position of the moving subject. In the difference image DG, the difference value between the images GIn and GIm is not detected for the portion corresponding to the track that has been stopped, and the difference value is detected only for the portion corresponding to the moving airplane. Has been shown.

ステップSP35においては、ライブビュー画像がLCD5に表示される。ライブビュー画像においては、部分画像GJの範囲が破線LB(図27参照)で示される。なお、両画像GIn,GImの差異が検出されない場合(すなわち時間的変化の存在領域が存在しないとき)には、図23に示すように、全体画像GIの中央の指定サイズの領域を画像GJの撮影範囲として設定すればよい。   In step SP35, the live view image is displayed on the LCD 5. In the live view image, the range of the partial image GJ is indicated by a broken line LB (see FIG. 27). If the difference between the images GIn and GIm is not detected (that is, when there is no temporal change existing area), as shown in FIG. 23, an area of the designated size at the center of the entire image GI is displayed. What is necessary is just to set as an imaging | photography range.

その後、ステップSP36において、シャッタボタン9が全押し状態S2にまで押下され、録画開始指令が入力されたと判定されると、録画開始指令が入力されたとみなし、次のステップSP37以降に進む。それ以外の場合は、引き続き撮影準備動作が行われる。   Thereafter, in step SP36, if it is determined that the shutter button 9 has been fully pressed down to S2 and a recording start command has been input, it is considered that a recording start command has been input, and the process proceeds to the next step SP37 and subsequent steps. In other cases, the shooting preparation operation is continued.

ステップSP37〜ステップSP44においては、動画撮影動作が行われる。   In step SP37 to step SP44, a moving image shooting operation is performed.

ステップSP38においては、画像GIが取得される。次のステップSP39においては、ステップSP34と同様の動作を行い、移動体の中心位置を検出する。そして、移動体の中心位置PGを画像GJの中心位置として設定する。   In step SP38, the image GI is acquired. In the next step SP39, the same operation as in step SP34 is performed to detect the center position of the moving body. Then, the center position PG of the moving body is set as the center position of the image GJ.

ステップSP40においては、ライブビュー画像がLCD5に表示される。このライブビュー表示においては、画像GIにおける画像GJの撮影範囲として指定されたエリアの境界が、破線LBを用いて引き続き明示されている(図27参照)。   In step SP40, the live view image is displayed on the LCD 5. In this live view display, the boundary of the area designated as the shooting range of the image GJ in the image GI is continuously specified using a broken line LB (see FIG. 27).

その後、画像GJに対応する読み出し画素位置が特定され(ステップSP41)、CCD撮像素子20の読み出しモードが部分読み出しモードに変更され(ステップSP42)、特定された領域の画像が読み出される(ステップSP43)。具体的には、図24に示すように、特定された画素位置に対応する複数の水平ライン(詳細には、読み出し開始ラインLUから読み出し終了ラインLDまで)が読み出され、そのうちの一部のブロック(左端の列LLから右端の列LRまでの画素ブロック)を切り出すことによって、ステップSP32で指定されたサイズの画像GJが生成される。   Thereafter, the readout pixel position corresponding to the image GJ is identified (step SP41), the readout mode of the CCD image sensor 20 is changed to the partial readout mode (step SP42), and the image of the identified area is read out (step SP43). . Specifically, as shown in FIG. 24, a plurality of horizontal lines (specifically, from the read start line LU to the read end line LD) corresponding to the specified pixel position are read, and some of them are read. By cutting out blocks (pixel blocks from the leftmost column LL to the rightmost column LR), an image GJ having a size specified in step SP32 is generated.

その後、ステップSP44においては、CCD撮像素子20の読出しモードが再びドラフトモードに再び設定される。   Thereafter, in step SP44, the reading mode of the CCD image pickup device 20 is set again to the draft mode.

以降、ステップSP37において録画終了指令が入力されたと判定されるまで動画撮影処理が繰り返し実行される。   Thereafter, the moving image shooting process is repeatedly executed until it is determined in step SP37 that a recording end command has been input.

この結果、図25に示すような全体を示す一連の画像GI(ここでは、3つの代表画像GI1,GI2,GI3を含む複数の画像GI)で構成される動画像ファイルと、図26に示すようなその一部分を示す一連の画像GJ(ここでは、3つの代表画像GJ1,GJ2,GJ3を含む複数の画像GJ)で構成される動画像ファイルとが生成される。また、図27に示すように、LCD5においては、画像GIに破線LBが付加された状態の画像GK(ここでは、3つの代表画像GK1,GK2,GK3を含む複数の画像GK)がライブビュー画像として示される。上述したように、破線LBで囲まれた矩形領域は、画像GJの撮影領域を示している。   As a result, a moving image file composed of a series of images GI showing the whole as shown in FIG. 25 (here, a plurality of images GI including three representative images GI1, GI2, and GI3), as shown in FIG. A moving image file composed of a series of images GJ showing a part thereof (here, a plurality of images GJ including three representative images GJ1, GJ2, and GJ3) is generated. Also, as shown in FIG. 27, in the LCD 5, an image GK in which the broken line LB is added to the image GI (here, a plurality of images GK including three representative images GK1, GK2, and GK3) is a live view image. As shown. As described above, the rectangular area surrounded by the broken line LB indicates the shooting area of the image GJ.

以上のように、部分画像GJの領域を自動的に決定した上で、CCD撮像素子20における読み出しモードをドラフトモードと部分読み出しモードとの間で交互に切り替えて全体画像GIと部分画像GJとを読み出し、さらに両画像GI,GJを交互に記録することが可能になる。   As described above, after the area of the partial image GJ is automatically determined, the readout mode in the CCD image pickup device 20 is alternately switched between the draft mode and the partial readout mode to switch the entire image GI and the partial image GJ. It becomes possible to read out and record both images GI and GJ alternately.

<E.第5実施形態>
第5実施形態においては、CCD撮像素子20の駆動モード(読み出しモード)を切り替えることなく、視野の異なる複数の動画像を記録する場合について説明する。第5実施形態は、第1実施形態の変形例であり、以下では第1実施形態との相違点を中心に説明する。
<E. Fifth Embodiment>
In the fifth embodiment, a case will be described in which a plurality of moving images having different fields of view are recorded without switching the driving mode (reading mode) of the CCD image sensor 20. The fifth embodiment is a modification of the first embodiment, and the following description will focus on differences from the first embodiment.

図28は、第5実施形態に係る複数動画記録動作を示すフローチャートである。ここでは、ドラフトモードを用いてCCD撮像素子20から読み出した画像に基づいて2つの動画像GP,GQ(図29参照)を記録する場合について例示する。   FIG. 28 is a flowchart showing the multiple moving image recording operation according to the fifth embodiment. Here, a case where two moving images GP and GQ (see FIG. 29) are recorded based on an image read from the CCD image pickup device 20 using the draft mode will be exemplified.

ステップSP61〜ステップSP65においては、動画撮影のための準備動作が行われ、ステップSP67〜ステップSP69においては、動画記録動作が行われる。ステップSP61,SP62,SP63,SP64,SP67,SP69は、それぞれ、第1実施形態におけるステップSP1,SP2,SP3,SP4,SP7,SP9(図6)と同様の動作であり、ステップSP68の動作(すなわち部分画像GQの取得動作)は第1実施形態と異なっている。   In step SP61 to step SP65, a preparation operation for moving image shooting is performed, and in step SP67 to step SP69, a moving image recording operation is performed. Steps SP61, SP62, SP63, SP64, SP67, and SP69 are the same as steps SP1, SP2, SP3, SP4, SP7, and SP9 (FIG. 6) in the first embodiment, respectively, and the operation of step SP68 (ie, The operation for acquiring the partial image GQ is different from that of the first embodiment.

具体的には、ステップSP61で、CCD撮像素子20の読出しモードがドラフトモードに設定された後、ステップSP62では、部分画像GQの撮影範囲の位置などが設定される。部分画像GQの撮影範囲の設定方法は、第1実施形態と同様である。   Specifically, after the reading mode of the CCD image sensor 20 is set to the draft mode in step SP61, the position of the photographing range of the partial image GQ and the like are set in step SP62. The method for setting the shooting range of the partial image GQ is the same as in the first embodiment.

その後、CCD撮像素子20の全撮影範囲に対応する画像GPが、CCD撮像素子20からドラフトモードで読み出される(ステップSP63)。この画像GPは、上述の画像GA3(図7参照)と同一の生成過程により得られる画像である。   Thereafter, an image GP corresponding to the entire photographing range of the CCD image sensor 20 is read out from the CCD image sensor 20 in the draft mode (step SP63). This image GP is an image obtained by the same generation process as the above-described image GA3 (see FIG. 7).

ステップSP64においては、ライブビュー画像がLCD5に表示される。このライブビュー画像においては、第1実施形態と同様、部分画像GQの撮影領域を示す破線が全体画像GPに付加された状態で表示される。   In step SP64, the live view image is displayed on the LCD 5. In the live view image, as in the first embodiment, a broken line indicating the shooting region of the partial image GQ is displayed in a state added to the entire image GP.

その後、ステップSP65において、記録動作を行うか否かを判定する。ここでは、シャッタボタン9が全押し状態S2にまで押下され続けているときに、録画指令が入力され続けていると判定する。言い換えれば、シャッタボタン9の全押し状態S2にされた瞬間が録画開始指令が入力された瞬間であり、シャッタボタン9の全押し状態S2が解除された瞬間が録画終了指令が入力された瞬間である。録画指令が入力されているときには、次のステップSP67以降に進む。それ以外の場合は、ステップSP61に戻り、引き続き撮影準備動作が行われる。なお、これに限定されず、第1実施形態と同様の操作によって録画開始と録画終了とを指示するようにしてもよい。   Thereafter, in step SP65, it is determined whether or not to perform a recording operation. Here, it is determined that the recording command is continuously input when the shutter button 9 is continuously pressed down to the fully pressed state S2. In other words, the moment when the shutter button 9 is fully pressed S2 is the moment when the recording start command is input, and the moment when the shutter button 9 is fully pressed S2 is the moment when the recording end command is input. is there. When the recording command is input, the process proceeds to the next step SP67 and subsequent steps. In other cases, the process returns to step SP61, and the shooting preparation operation is continued. However, the present invention is not limited to this, and the start and end of recording may be instructed by the same operation as in the first embodiment.

ステップSP67,SP68,SP69においては、動画撮影動作が行われる。   In steps SP67, SP68, and SP69, a moving image shooting operation is performed.

ステップSP67においては、全体画像GPが動画像として記録される。図29に示すように、全体画像GPは、ステップSP63で読み出された画像GA3と同一の画像である。   In step SP67, the entire image GP is recorded as a moving image. As shown in FIG. 29, the entire image GP is the same image as the image GA3 read in step SP63.

次のステップSP68においては、図29に示すように、ステップSP63で読み出された画像GA3(GP)からその一部の領域を部分画像GQとして抽出する。抽出対象領域は、破線LBで囲まれた領域である。   In the next step SP68, as shown in FIG. 29, a partial region is extracted as a partial image GQ from the image GA3 (GP) read in step SP63. The extraction target area is an area surrounded by a broken line LB.

このとき、部分画像GQの解像度(ないし画素サイズ)は画像GPよりも小さくなるが、全体画像GPの画素サイズを大きな値とすること、および/または、部分画像GQの全体画像GPに対する相対的な大きさなどを適切に設定することによれば、実用上十分な程度の解像度とすることが可能である。また、画像GQは画像GPから抽出された画像であるため、画像GQ,GPは、厳密に同時に(同じ瞬間に)撮像された画像となっている。   At this time, the resolution (or pixel size) of the partial image GQ is smaller than that of the image GP, but the pixel size of the overall image GP is set to a large value and / or the relative image of the partial image GQ with respect to the overall image GP. By appropriately setting the size and the like, it is possible to achieve a practically sufficient resolution. Further, since the image GQ is an image extracted from the image GP, the images GQ and GP are images taken at the same time (at the same moment).

その後、所定の拡大処理を施すことによって、部分画像GQのサイズを全体画像GPのサイズと合わせる。なお、画像サイズを合わせる必要がない場合には、抽出した画像のサイズを変更しなくてもよい。   Thereafter, by performing a predetermined enlargement process, the size of the partial image GQ is matched with the size of the whole image GP. Note that if it is not necessary to match the image size, the size of the extracted image need not be changed.

ステップSP69では、この画像GQを動画像として記録する。ここでは、画像GP,GQを別個の動画像ファイルとして記録する。   In step SP69, this image GQ is recorded as a moving image. Here, the images GP and GQ are recorded as separate moving image files.

以降、ステップSP65において録画終了指令が入力されたと判定されるまで動画撮影処理が繰り返し実行される。   Thereafter, the moving image shooting process is repeatedly executed until it is determined in step SP65 that a recording end command has been input.

上記のような動作によれば、CCD撮像素子20の全体エリアに対応する画像データをドラフトモードで一度に読出し、その全体エリアの画像GP自体とその全体エリアの一部エリアの画像GQとを、それぞれ、全体エリアおよびその一部エリアに対応する画像GP,GQとして抽出し、その2つの画像GP,GQを交互に記録して、2つの動画データを作成することができる。複数のカメラを準備する必要がないので、視野が異なる複数の画像を手軽に撮影することが可能である。   According to the operation as described above, image data corresponding to the entire area of the CCD image sensor 20 is read at a time in the draft mode, and the image GP itself of the entire area and the image GQ of a partial area of the entire area are read out. Two moving image data can be created by extracting the images GP and GQ corresponding to the entire area and the partial area, respectively, and recording the two images GP and GQ alternately. Since it is not necessary to prepare a plurality of cameras, a plurality of images having different fields of view can be easily taken.

<F.その他>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
<F. Other>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.

たとえば、上記第4実施形態においては、全エリアに対応する画像GIのうち時間的変化が存在する領域を、部分画像GJのエリアとして決定する場合について説明したが、これに限定されない。たとえば、所定値以上の輝度を有する領域(すなわち明るい領域)を部分画像GJのエリアとして決定してもよい。あるいは、特定色のエリアを部分画像GJのエリアとして決定してもよい。特定色のエリアであるか否かは、そのエリアの色相を検出することなどによって判定すればよい。   For example, in the fourth embodiment described above, a case has been described in which a region in which a temporal change exists in the image GI corresponding to all areas is determined as the area of the partial image GJ, but is not limited thereto. For example, an area having a luminance equal to or higher than a predetermined value (that is, a bright area) may be determined as the area of the partial image GJ. Or you may determine the area of a specific color as an area of the partial image GJ. Whether or not an area is a specific color may be determined by detecting the hue of the area.

なお、上述した具体的実施形態には以下の構成を有する発明が含まれている。   The specific embodiment described above includes an invention having the following configuration.

(1)撮像装置であって、
撮影光学系と当該撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子とを有する単一の撮像手段と、
前記撮像素子における第1エリアに対応する画像データと前記撮像素子における第2エリアに対応する画像データとを前記撮像素子から交互に読み出す読出手段と、
前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを記録する記録手段と、
を備えることを特徴とする撮像装置。
(1) An imaging device,
A single imaging means having an imaging optical system and an imaging element that captures a subject image from the imaging optical system using photoelectric conversion;
Read means for alternately reading out image data corresponding to the first area in the image sensor and image data corresponding to the second area in the image sensor from the image sensor;
Recording means for recording image data corresponding to the first area and image data corresponding to the second area;
An imaging apparatus comprising:

(2)撮像装置であって、
撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子と、
単一の録音部と、
前記撮像素子による撮影画像に設定された複数の撮像エリアに対応する動画像データのそれぞれに対して、前記録音部によって得られる音声データを付加することによって、複数の音声データ付き動画ファイルを作成する手段と、
前記複数の音声データ付き動画ファイルを記録する記録手段と、
を備えることを特徴とする撮像装置。
(2) An imaging device,
An image sensor that captures a subject image from the imaging optical system using photoelectric conversion;
A single recording unit,
A plurality of moving image files with audio data are created by adding audio data obtained by the recording unit to each of moving image data corresponding to a plurality of imaging areas set in a captured image by the imaging element. Means,
Recording means for recording the plurality of video files with audio data;
An imaging apparatus comprising:

(3)撮像装置であって、
撮影光学系と当該撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子とを有する単一の撮像手段と、
前記撮像素子における複数のエリアのそれぞれに対応する画像データを、互いに異なる複数の動画ファイルとして記録する記録手段と、
を備え、
前記記録手段は、前記複数の動画ファイルを、そのファイル名に関連性を持たせて記録することを特徴とする撮像装置。
(3) An imaging device,
A single imaging means having an imaging optical system and an imaging element that captures a subject image from the imaging optical system using photoelectric conversion;
Recording means for recording image data corresponding to each of a plurality of areas in the image sensor as a plurality of different moving image files;
With
The image recording apparatus, wherein the recording unit records the plurality of moving image files with relevance to the file names.

(4)前記(1)に記載の撮像装置において、
前記読出手段は、前記撮像素子の駆動方式を切り替えて、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを交互に読み出すことを特徴とする撮像装置。
(4) In the imaging device according to (1),
The image pickup apparatus, wherein the reading unit reads the image data corresponding to the first area and the image data corresponding to the second area alternately by switching a driving method of the image pickup element.

(5)前記(1)に記載の撮像装置において、
前記読出手段は、前記撮像素子の読出し画素の指定位置を切り替えて、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを交互に読み出すことを特徴とする撮像装置。
(5) In the imaging device according to (1),
The image pickup apparatus, wherein the reading means switches the designated position of the read pixel of the image pickup device and alternately reads image data corresponding to the first area and image data corresponding to the second area.

(6)前記(1)に記載の撮像装置において、
前記第1エリアと前記第2エリアとの位置関係を示した状態で、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを表示する表示手段、
をさらに備えることを特徴とする撮像装置。これによれば、位置関係を明確に把握できる。
(6) In the imaging device according to (1),
Display means for displaying image data corresponding to the first area and image data corresponding to the second area in a state in which the positional relationship between the first area and the second area is shown;
An image pickup apparatus further comprising: This makes it possible to clearly grasp the positional relationship.

(7)前記(6)に記載の撮像装置において、
前記第2エリアは前記第1エリアに包含される一部のエリアであり、
前記表示手段は、前記第1エリア内での前記第2エリアの境界を表示した状態で、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを表示することを特徴とする撮像装置。これによれば、部分記録する第2エリアの前記第1エリア内での位置を容易に把握できるので、操作性が高い。
(7) In the imaging device according to (6),
The second area is a part of the area included in the first area,
The display means displays image data corresponding to the first area and image data corresponding to the second area in a state where a boundary of the second area in the first area is displayed. An imaging device. According to this, since the position of the second area to be partially recorded in the first area can be easily grasped, the operability is high.

(8)前記(6)に記載の撮像装置において、
前記表示手段は、前記第1エリアと前記第2エリアとを包含する第3エリアに対応する画像データを表示し、且つ、当該第3エリア内での前記第1エリアの境界および前記第2エリアの境界を表示した状態で前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを表示することを特徴とする撮像装置。これによれば、部分記録する第1エリアおよび第2エリアの前記第3エリア内での位置を容易に把握できるので、操作性が高い。
(8) In the imaging device according to (6),
The display means displays image data corresponding to a third area including the first area and the second area, and the boundary of the first area in the third area and the second area An image pickup apparatus, wherein image data corresponding to the first area and image data corresponding to the second area are displayed in a state in which the boundary is displayed. According to this, since the positions of the first area and the second area to be partially recorded in the third area can be easily grasped, the operability is high.

(9)前記(1)に記載の撮像装置において、
前記記録手段は、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを、バッファメモリから記録媒体に交互に転送して、交互に記録することを特徴とする撮像装置。これによれば、バッファメモリの容量を抑制することができる。
(9) In the imaging device according to (1),
The image recording apparatus is characterized in that the recording unit alternately transfers the image data corresponding to the first area and the image data corresponding to the second area from the buffer memory to the recording medium, and records them alternately. . According to this, the capacity of the buffer memory can be suppressed.

(10)前記(3)に記載の撮像装置において、
前記ファイル名は、前記複数の動画ファイルの撮影対象エリアを識別する識別部分と、各動画ファイルに対してその撮影対象エリアの異同にかかわらず一意に付与される連続番号を示すファイル番号部分とを有していることを特徴とする撮像装置。これによれば、動画ファイルのファイル名は、撮影対象エリアを識別する識別部分を有しているので、操作者は各動画ファイルの撮影対象エリアを容易に認識できる。また、動画ファイルのファイル名のファイル番号部分は、各動画ファイルに対してその撮影対象エリアの異同にかかわらず一意に付与される連続番号である。したがって、その撮影対象エリアが異なるファイルに対して同一のファイル番号が付与されることが無いので、ファイル番号の異同で動画ファイルの異同を判断できる。さらに、連続番号のファイルに関連性があることを容易に認識できる。
(10) In the imaging device according to (3),
The file name includes an identification part for identifying shooting target areas of the plurality of moving image files, and a file number part indicating a serial number uniquely assigned to each moving image file regardless of differences in shooting target areas. An imaging apparatus comprising: According to this, since the file name of the moving image file has an identification part for identifying the shooting target area, the operator can easily recognize the shooting target area of each moving image file. The file number portion of the file name of the moving image file is a serial number that is uniquely assigned to each moving image file regardless of the difference in the shooting target area. Accordingly, since the same file number is not assigned to files having different shooting target areas, it is possible to determine the difference between moving image files based on the difference in file number. Furthermore, it can be easily recognized that the serial number files are related.

(11)前記(1)に記載の撮像装置において、
前記第1エリアは前記第2エリアを包含し、
前記撮像装置は、
前記第1エリアおよび前記第2エリアのそれぞれに対応する各画像データについての露出制御における制御パラメータを、前記第1エリアに対応する画像データに基づいて決定する露出制御手段、
をさらに備えることを特徴とする撮像装置。これによれば、2つの画像データ(第1エリアおよび第2エリアのそれぞれに対応する画像データ)についての露出制御における制御パラメータを、一方の第1エリアの画像データに基づいて決定するので、効率的である。
(11) In the imaging device according to (1),
The first area includes the second area;
The imaging device
Exposure control means for determining a control parameter in exposure control for each image data corresponding to each of the first area and the second area based on the image data corresponding to the first area;
An image pickup apparatus further comprising: According to this, since the control parameter in the exposure control for the two image data (image data corresponding to each of the first area and the second area) is determined based on the image data of one first area, the efficiency Is.

(12)前記(1)に記載の撮像装置において、
前記第1エリアは前記第2エリアを包含し、
前記撮像装置は、
前記第1エリアおよび前記第2エリアのそれぞれに対応する各画像データについてのホワイトバランス制御における制御パラメータを、前記第1エリアに対応する画像データに基づいて決定するホワイトバランス制御手段、
をさらに備えることを特徴とする撮像装置。これによれば、2つの画像データ(第1エリアおよび第2エリアのそれぞれに対応する画像データ)についてのホワイトバランス制御における制御パラメータを、一方の第1エリアの画像データに基づいて決定するので、効率的である。
(12) In the imaging device according to (1),
The first area includes the second area;
The imaging device
White balance control means for determining a control parameter in white balance control for each image data corresponding to each of the first area and the second area based on the image data corresponding to the first area;
An image pickup apparatus further comprising: According to this, since the control parameter in the white balance control for the two image data (image data corresponding to each of the first area and the second area) is determined based on the image data of one first area, Efficient.

(13)前記(1)に記載の撮像装置において、
前記第1エリアは前記第2エリアを包含し、
前記撮像装置は、
前記第1エリアおよび前記第2エリアのそれぞれに対応する各画像データについての合焦制御における制御パラメータを、前記第2エリアの画像データに基づいて定める合焦制御手段、
をさらに備えることを特徴とする撮像装置。これによれば、2つの画像データ(第1エリアおよび第2エリアのそれぞれに対応する画像データ)についての合焦制御における制御パラメータを、一方の第2エリアの画像データに基づいて決定するので、効率的である。
(13) In the imaging device according to (1),
The first area includes the second area;
The imaging device
Focusing control means for determining a control parameter in focusing control for each image data corresponding to each of the first area and the second area based on the image data of the second area;
An image pickup apparatus further comprising: According to this, since the control parameter in the focus control for the two image data (image data corresponding to each of the first area and the second area) is determined based on the image data of one second area, Efficient.

(14)前記(1)に記載の撮像装置において、
前記第1エリアおよび前記第2エリアのそれぞれに対応する各被写体がともに合焦するように前記撮影光学系の絞りを制御する絞り制御手段、
をさらに備えることを特徴とする撮像装置。これによれば、第1エリアおよび第2エリアのそれぞれに対応する各被写体がともに合焦するように撮影光学系の絞りが制御されるので、光学系における焦点移動を減少させることができる。
(14) In the imaging device according to (1),
Aperture control means for controlling the aperture of the photographing optical system so that the respective subjects corresponding to the first area and the second area are in focus,
An image pickup apparatus further comprising: According to this, since the aperture of the photographing optical system is controlled so that the respective subjects corresponding to the first area and the second area are in focus, it is possible to reduce the focal movement in the optical system.

(15)請求項1に記載の撮像装置において、
前記制御手段は、前記第1エリアにおいて時間的変化が検出された領域を前記第2エリアとして決定することを特徴とする撮像装置。
(15) In the imaging device according to claim 1,
The image pickup apparatus, wherein the control unit determines an area in which a temporal change is detected in the first area as the second area.

(16)請求項1に記載の撮像装置において、
前記制御手段は、前記第1エリアにおいて時間的変化が検出されないときには、前記第1エリアの中央の所定領域を前記第2エリアとして決定することを特徴とする撮像装置。これによれば、時間的変化が検出されないときでも第2エリアを決定することができる。
(16) In the imaging device according to claim 1,
The control unit determines a predetermined area at the center of the first area as the second area when a temporal change is not detected in the first area. This makes it possible to determine the second area even when no temporal change is detected.

デジタルカメラの外観構成を示す正面図である。It is a front view which shows the external appearance structure of a digital camera. デジタルカメラの外観構成を示す上面図である。It is a top view which shows the external appearance structure of a digital camera. デジタルカメラの外観構成を示す背面図である。It is a rear view which shows the external appearance structure of a digital camera. デジタルカメラの内部機能を示すブロック図である。It is a block diagram which shows the internal function of a digital camera. ライブビュー画像および記録画像の関係を示す概念図である。It is a conceptual diagram which shows the relationship between a live view image and a recording image. 第1実施形態におけるデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera in 1st Embodiment. ドラフトモードで読み出される画像を示す図である。It is a figure which shows the image read in draft mode. 部分読出モードで読み出される画像を示す図である。It is a figure which shows the image read in partial reading mode. 第1実施形態における動作を示すタイミングチャートである。It is a timing chart which shows the operation | movement in 1st Embodiment. 各動画像のフレーム構成を示す図である。It is a figure which shows the frame structure of each moving image. ファイル名称の付与ルールについて説明する図である。It is a figure explaining the provision rule of a file name. 測光ブロックを示す図である。It is a figure which shows a photometry block. 部分画像PBについての測光ブロックを示す図である。It is a figure which shows the photometry block about the partial image PB. CMOSセンサにおける読出し画素の指定を説明する図である。It is a figure explaining designation | designated of the read-out pixel in a CMOS sensor. CMOSセンサにおける読出し画素の指定を説明する図である。It is a figure explaining designation | designated of the read-out pixel in a CMOS sensor. 全撮影範囲を示す画像とその一部の記録画像との関係を示す図である。It is a figure which shows the relationship between the image which shows the whole imaging | photography range, and some recorded images. ドラフトモードでの読み出し位置を示す図である。It is a figure which shows the read-out position in draft mode. 部分読出モードでの読み出し位置を示す図である。It is a figure which shows the read-out position in partial read-out mode. 部分読出モードでの別の読出し位置を示す図である。It is a figure which shows another reading position in partial reading mode. 第3実施形態における動作を示すタイミングチャートである。It is a timing chart which shows operation in a 3rd embodiment. 露出制御用のプログラムラインの一例を示す図である。It is a figure which shows an example of the program line for exposure control. 第4実施形態における動作を示すフローチャートである。It is a flowchart which shows the operation | movement in 4th Embodiment. 撮影対象画像の一例を示す図である。It is a figure which shows an example of an imaging target image. 移動被写体の中心位置の算出原理を説明する図である。It is a figure explaining the calculation principle of the center position of a moving subject. 一方の動画像を示す図である。It is a figure which shows one moving image. 他方の動画像を示す図である。It is a figure which shows the other moving image. ライブビュー画像を示す図である。It is a figure which shows a live view image. 第5実施形態における動作を示すフローチャートである。It is a flowchart which shows the operation | movement in 5th Embodiment. 第5実施形態における2つの記録画像の生成過程を示す図である。It is a figure which shows the production | generation process of two recorded images in 5th Embodiment.

符号の説明Explanation of symbols

1 デジタルカメラ
2 撮影レンズ
4 EVF
5 LCD
9 シャッタボタン
14 マイク
15 スピーカ
20 CCDセンサ(撮像素子)
20B CMOSセンサ(撮像素子)
90 メモリカード
MA ドラフトモード
MB,MB1,MB2 部分読出モード
1 Digital Camera 2 Shooting Lens 4 EVF
5 LCD
9 Shutter button 14 Microphone 15 Speaker 20 CCD sensor (imaging device)
20B CMOS sensor (image sensor)
90 Memory card MA Draft mode MB, MB1, MB2 Partial readout mode

Claims (2)

撮像装置であって、
撮影光学系と当該撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子とを有する単一の撮像手段と、
前記撮像素子における第1エリアに対応する画像データに基づいて、前記第1エリアの一部のエリアを第2エリアとして決定する制御手段と、
前記第1エリアに対応する第1動画データを構成するフレーム画像と前記第2エリアに対応する第2動画データを構成するフレーム画像とを前記撮像素子から交互に読み出す読出手段と、
前記第1動画データと前記第2動画データとを記録する記録手段と、
を備えることを特徴とする撮像装置。
An imaging device comprising:
A single imaging means having an imaging optical system and an imaging element that captures a subject image from the imaging optical system using photoelectric conversion;
Control means for determining a part of the first area as a second area based on image data corresponding to the first area in the image sensor;
Reading means for alternately reading out frame images constituting the first moving image data corresponding to the first area and frame images constituting the second moving image data corresponding to the second area from the image sensor;
Recording means for recording the first moving image data and the second moving image data;
An imaging apparatus comprising:
撮像装置であって、
撮影光学系と当該撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子とを有する単一の撮像手段と、
前記撮像素子における第1エリアおよび第2エリアを含むエリアに対応する画像データを前記撮像素子から一度に読み出す読出手段と、
前記読出手段により読み出された画像データから、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを抽出し、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを交互に記録して2つの動画データを作成する記録手段と、
を備えることを特徴とする撮像装置。
An imaging device comprising:
A single imaging means having an imaging optical system and an imaging element that captures a subject image from the imaging optical system using photoelectric conversion;
Reading means for reading image data corresponding to areas including the first area and the second area in the image sensor at a time from the image sensor;
Image data corresponding to the first area and image data corresponding to the second area are extracted from the image data read by the reading means, and the image data corresponding to the first area and the second area are extracted. Recording means for alternately recording image data corresponding to the above and creating two moving image data;
An imaging apparatus comprising:
JP2005306039A 2005-10-20 2005-10-20 Imaging apparatus Pending JP2006042399A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005306039A JP2006042399A (en) 2005-10-20 2005-10-20 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005306039A JP2006042399A (en) 2005-10-20 2005-10-20 Imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002353494A Division JP3778163B2 (en) 2002-12-05 2002-12-05 Imaging device

Publications (1)

Publication Number Publication Date
JP2006042399A true JP2006042399A (en) 2006-02-09

Family

ID=35906778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005306039A Pending JP2006042399A (en) 2005-10-20 2005-10-20 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2006042399A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008061105A (en) * 2006-09-01 2008-03-13 Sega Corp Automatic photo studio
JP2008083097A (en) * 2006-09-25 2008-04-10 Nikon Corp Focusing device, camera, and focusing method
JP2008185611A (en) * 2007-01-26 2008-08-14 Nikon Corp Imaging apparatus
JP2008242182A (en) * 2007-03-28 2008-10-09 Nikon Corp Focus detection device, focus detection method and imaging apparatus
JP2009171545A (en) * 2007-12-19 2009-07-30 Canon Inc Image pickup system, method for driving image pickup elements, program, and recording medium
JP2010226228A (en) * 2009-03-19 2010-10-07 Canon Inc Imaging apparatus and imaging method
JP2011248749A (en) * 2010-05-28 2011-12-08 Panasonic Electric Works Sunx Co Ltd Image processing apparatus
KR101811717B1 (en) * 2011-11-14 2018-01-25 삼성전자주식회사 Zoom control method and apparatus, and digital photographing apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008061105A (en) * 2006-09-01 2008-03-13 Sega Corp Automatic photo studio
JP4720684B2 (en) * 2006-09-01 2011-07-13 株式会社セガ Automatic photo studio
JP2008083097A (en) * 2006-09-25 2008-04-10 Nikon Corp Focusing device, camera, and focusing method
JP2008185611A (en) * 2007-01-26 2008-08-14 Nikon Corp Imaging apparatus
JP2008242182A (en) * 2007-03-28 2008-10-09 Nikon Corp Focus detection device, focus detection method and imaging apparatus
JP2009171545A (en) * 2007-12-19 2009-07-30 Canon Inc Image pickup system, method for driving image pickup elements, program, and recording medium
JP2010226228A (en) * 2009-03-19 2010-10-07 Canon Inc Imaging apparatus and imaging method
JP2011248749A (en) * 2010-05-28 2011-12-08 Panasonic Electric Works Sunx Co Ltd Image processing apparatus
KR101811717B1 (en) * 2011-11-14 2018-01-25 삼성전자주식회사 Zoom control method and apparatus, and digital photographing apparatus

Similar Documents

Publication Publication Date Title
JP3778163B2 (en) Imaging device
JP5025532B2 (en) Imaging apparatus, imaging apparatus control method, and imaging apparatus control program
JP4158592B2 (en) Auto white balance adjustment method and camera to which this method is applied
JP4697606B2 (en) Imaging apparatus and focus control method
JP4730553B2 (en) Imaging apparatus and exposure control method
JP6325841B2 (en) Imaging apparatus, imaging method, and program
JP2008182485A (en) Photographing device and photographing method
JP2006042399A (en) Imaging apparatus
JP5849389B2 (en) Imaging apparatus and imaging method
KR101737086B1 (en) Digital photographing apparatus and control method thereof
JP2009048136A (en) Focusing device and focusing method
JP2008109485A (en) Imaging apparatus and imaging control method
JP5245636B2 (en) Electronics
JP2007299339A (en) Image reproducing device, method and program
US20130063621A1 (en) Imaging device
JP2007325152A (en) Imaging device, and program thereof
JP2007116372A (en) Digital camera
JP3826885B2 (en) Electronic camera
JP4264808B2 (en) Moving image processing apparatus and method
JP2010050784A (en) Digital camera
JP2009130464A (en) Image processing apparatus, method of controlling image processing apparatus, and computer program
JP4966680B2 (en) Video playback device, video playback method, and imaging device
JP4433297B2 (en) Imaging apparatus and image reproduction apparatus
JP2007053482A (en) Imaging apparatus
JP4991602B2 (en) Imaging device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070827

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080729