JP2006042399A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2006042399A JP2006042399A JP2005306039A JP2005306039A JP2006042399A JP 2006042399 A JP2006042399 A JP 2006042399A JP 2005306039 A JP2005306039 A JP 2005306039A JP 2005306039 A JP2005306039 A JP 2005306039A JP 2006042399 A JP2006042399 A JP 2006042399A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- images
- mode
- recording
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、複数の画像を撮影することが可能な撮像装置に関する。 The present invention relates to an imaging apparatus capable of capturing a plurality of images.
同時点の被写体を撮影して、その視野が異なる複数の画像を得る撮像装置が存在する。このような撮像装置としては、たとえば、特許文献1に記載されるものが知られている。
There is an imaging apparatus that captures a subject at the same time and obtains a plurality of images having different fields of view. As such an imaging device, for example, the one described in
特許文献1には、複数のカメラを用いて被写体を異なる角度から撮影して記録するマルチアングル撮影装置が記載されている。
しかしながら、上記の特許文献1の技術は、複数のカメラを用いることを前提にしている。したがって、装置が大がかりになり、視野が異なる複数の画像を手軽に撮影することが困難であるという問題がある。
However, the technique disclosed in
そこで、この発明の課題は、前記問題点に鑑み、視野が異なる複数の画像を手軽に撮影することが可能な撮像装置を提供することにある。 In view of the above problems, an object of the present invention is to provide an imaging apparatus capable of easily capturing a plurality of images having different fields of view.
上記課題を解決すべく、請求項1の発明は、撮像装置であって、撮影光学系と当該撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子とを有する単一の撮像手段と、前記撮像素子における第1エリアに対応する画像データに基づいて、前記第1エリアの一部のエリアを第2エリアとして決定する制御手段と、前記第1エリアに対応する第1動画データを構成するフレーム画像と前記第2エリアに対応する第2動画データを構成するフレーム画像とを前記撮像素子から交互に読み出す読出手段と、前記第1動画データと前記第2動画データとを記録する記録手段とを備えることを特徴とする。
In order to solve the above-mentioned problem, the invention of
請求項2の発明は、撮像装置であって、撮影光学系と当該撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子とを有する単一の撮像手段と、前記撮像素子における第1エリアおよび第2エリアを含むエリアに対応する画像データを前記撮像素子から一度に読み出す読出手段と、前記読出手段により読み出された画像データから、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを抽出し、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを交互に記録して2つの動画データを作成する記録手段とを備えることを特徴とする。
The invention of
請求項1に記載の発明によれば、単一の撮像手段の撮像素子から、第1エリアに対応する第1動画データを構成するフレーム画像と第2エリアに対応する第2動画データを構成するフレーム画像とが交互に読み出されて、記録されるので、複数のカメラを準備する必要がなく、視野が異なる複数の動画像を手軽に撮影することが可能である。また、第2エリアが、第1エリアに対応する画像データに基づいて決定されるので、便利である。 According to the first aspect of the present invention, the frame image constituting the first moving image data corresponding to the first area and the second moving image data corresponding to the second area are constituted from the image pickup element of the single image pickup means. Since the frame images are alternately read and recorded, it is not necessary to prepare a plurality of cameras, and a plurality of moving images having different fields of view can be easily taken. Further, the second area is convenient because it is determined based on the image data corresponding to the first area.
請求項2に記載の発明によれば、撮像素子における第1エリアおよび第2エリアを含むエリアに対応する画像データが撮像素子から一度に読み出され、読み出された画像データから、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとが抽出され、第1エリアに対応する画像データと第2エリアに対応する画像データとが交互に記録されて、2つの動画データが作成される。したがって、複数のカメラを準備する必要がなく、視野が異なる複数の動画像を手軽に撮影することが可能である。 According to the second aspect of the present invention, image data corresponding to an area including the first area and the second area in the image sensor is read from the image sensor at a time, and the first image data is read from the read image data. The image data corresponding to the area and the image data corresponding to the second area are extracted, and the image data corresponding to the first area and the image data corresponding to the second area are alternately recorded, and two moving image data Is created. Therefore, it is not necessary to prepare a plurality of cameras, and a plurality of moving images with different fields of view can be easily taken.
以下、本発明の実施形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<A.第1実施形態>
<A1.構成>
図1、図2及び図3は、本発明の実施形態に係るデジタルカメラ1の外観構成を示す図であり、図1は正面図、図2は上面図、図3は背面図に相当する。これらの図は必ずしも三角図法に則っているものではなく、デジタルカメラ1の外観を例示することを主眼としている。
<A. First Embodiment>
<A1. Configuration>
1, 2, and 3 are views showing an external configuration of a
デジタルカメラ1の正面側には撮影レンズ2が設けられる。この撮影レンズ2はズーム機能を有しており、ズームリング2aを手動操作で回動させることによって撮影倍率の変更を行うことができるように構成される。
A photographing
また、デジタルカメラ1のグリップ部1aの上部にはシャッタボタン(レリーズボタン)9が設けられており、該シャッタボタン9はユーザによる半押し状態(以下、状態S1とも称する)と全押し状態(以下、状態S2とも称する)とを区別して検出可能な2段階押し込みスイッチとなっており、自動合焦モードが設定されている場合には半押し状態S1のときに自動合焦制御を開始し、全押し状態S2のときに記録用画像を撮影するための本撮影動作を開始する。
Further, a shutter button (release button) 9 is provided on the upper portion of the
また、デジタルカメラ1の上面には、「撮影モード」と「再生モード」とを切替設定するモード切替え用のダイヤル3が設けられている。撮影モードは被写体の撮影を行って画像データの生成を行うモードである。また、再生モードはメモリカード90に記録された画像データを、デジタルカメラ1の背面側に設けられた液晶表示部(以下、LCDという。)5に再生表示するモードである。
On the top surface of the
具体的には、撮影モードを示す「撮影」が表示された部分を所定の位置(図2の三角印MT)にまで回転移動させることによって、撮影モードに設定することができる。また、再生モードを示す「再生」が表示された部分を所定の位置(図2の三角印MT)にまで回転移動させることによって、再生モードに設定することができる。 Specifically, the shooting mode can be set by rotating and moving the portion where “shooting” indicating the shooting mode is displayed to a predetermined position (triangular mark MT in FIG. 2). Further, the playback mode can be set by rotating the portion displaying “playback” indicating the playback mode to a predetermined position (triangle mark MT in FIG. 2).
また、このダイヤル3は、電源のオン操作およびオフ操作を受け付けるためにも用いられる。すなわち、ダイヤル3は電源操作部とも称することができる。具体的には、ダイヤル3の「OFF」が表示されている部分を所定の位置(図2の三角印MT)にまで回転移動させることによって、電源をオフにする操作(電源オフ操作)が行われる。 The dial 3 is also used to accept power on and off operations. That is, the dial 3 can also be referred to as a power operation unit. Specifically, an operation to turn off the power (power-off operation) is performed by rotating the portion of the dial 3 where “OFF” is displayed to a predetermined position (triangle mark MT in FIG. 2). Is called.
デジタルカメラ1の背面には、本撮影動作前のライブビュー表示及び記録画像の再生表示等を行うためのLCD5と、電子ビューファインダ(以下、EVFという。)4とが設けられている。このLCD5およびEVF4では、それぞれカラー画像の表示が行われる。なお、以下の説明においてはLCD5およびEVF4がそれぞれ320×240の表示画素数を有する場合を例示する。
On the back surface of the
また、デジタルカメラ1の背面にはメニューボタン6が設けられており、例えば、撮影モード時にメニューボタン6が押下されて離されると(以下、単に押下と表現する)、各種撮影条件を設定するための各種メニュー画面がLCD5に表示される。また、デジタルカメラ1の背面には、LCD5における表示カーソルを4方向に移動させるための十字カーソルボタン7U,7D,7L,7R、及び十字カーソルボタンの中央部に設けられる決定ボタン7Cで構成されるコントロールボタン7が設けられる。これらメニューボタン6及びコントロールボタン7を用いて各種撮影パラメータの設定操作が行われる。各種撮影パラメータの設定状態はデジタルカメラ1の上面側に配置されるデータパネル8に表示される。また、デジタルカメラ1の背面には、ライブビュー表示時にLCD5に表示される表示内容(特に撮影情報の表示状態)を切り替えるための切替ボタン13が設けられている。
Further, a
さらに、デジタルカメラ1の側面には、デジタルカメラ1の設定状態に関する操作を行うためのファンクション操作部11が設けられている。このファンクション操作部11は、中央部に設けられたファンクションボタン11aと、回動可能なように設けられたファンクションダイヤル11bとを備えて構成される。また、ファンクション操作部11の下部には、合焦モードを自動合焦モードと手動合焦モードとで切り替えるための合焦モード切替ボタン12が設けられている。
Furthermore, a
また、デジタルカメラ1の側面には、挿抜自在(着脱自在)な記録媒体であるメモリカード90の挿入装着部が設けられており、本撮影によって得られる画像データはこの挿入装着部にセットされるメモリカード90に記録される。
Further, the side surface of the
さらに、デジタルカメラ1の前面には、音声記録用のマイク14が設けられている。マイク14によって集音された音声データは、動画像データなどに付加されて記憶される。また、デジタルカメラ1の背面には、音声再生用のスピーカ15が設けられている。スピーカ15は、動画像データに付された音声データの音声出力などに用いられる。
Furthermore, an
次に、デジタルカメラ1の内部構成について説明する。図4は、デジタルカメラ1の内部機能を示すブロック図である。
Next, the internal configuration of the
撮影レンズ2はレンズ駆動部41によって駆動され、CCD(Charge Coupled Device)センサ(CCD撮像素子とも称する)20に結像される像の合焦状態を変化させるように構成される。自動合焦(オートフォーカス)設定時には、撮影画像を用いるコントラスト方式(山登り方式)にしたがって、全体制御部30によって撮影レンズ2のレンズ駆動量が決定され、このレンズ駆動量に基づいて撮影レンズ2が駆動されるのに対し、手動合焦(マニュアルフォーカス)設定時にはユーザによるコントロールボタン7の操作量に応じてレンズ駆動量が決定され、このレンズ駆動量に基づいて撮影レンズ2が駆動される。
The
CCD撮像素子20は被写体像を撮影して電子的な画像信号を生成する撮像手段として機能するものであり、例えば2576×1936個の画素を有し、撮影レンズ2によって結像された被写体の光像を、画素毎にR(赤),G(緑),B(青)の色成分の画像信号(各画素で受光された画素信号の信号列からなる信号)に光電変換して出力する。タイミングジェネレータ42は、CCD撮像素子20の駆動を制御するための各種のタイミングパルスを生成するものである。
The CCD
ここにおいて、撮影レンズ2と撮影レンズ2からの被写体像を撮像するCCD撮像素子20とは、単一の撮像ユニットを構成しているとも表現できる。なお、ここでは、1枚のCCD撮像素子20を有する、単板式の単一の撮像ユニットを例示しているが、これに限定されない。たとえば、デジタルカメラは、撮影レンズ2からの被写体像を3枚のCCD撮像素子で撮像するような、3板式の単一の撮像ユニットを備えるものであってもよい。
Here, the photographing
CCD撮像素子20から得られる画像信号は信号処理回路21に与えられ、信号処理回路21において画像信号(アナログ信号)に対して所定のアナログ信号処理が施される。信号処理回路21は相関二重サンプリング回路(CDS)とオートゲインコントロール回路(AGC)とを有しており、相関二重サンプリング回路により画像信号のノイズ低減処理を行い、オートゲインコントロール回路でゲインを調整することにより画像信号のレベル調整を行う。
An image signal obtained from the CCD
A/D変換器22は、画像信号の各画素信号を12ビットのデジタル信号に変換するものである。A/D変換器22は、全体制御部30から入力されるA/D変換用のクロックに基づいて各画素信号(アナログ信号)を12ビットのデジタル信号に変換する。変換後のデジタル信号は、画像データとして一時的に画像メモリ44に格納される。そして、画像メモリ44に保存された画像データに対して、次述するWB回路23、γ補正回路24、色補正部25、解像度変換部26、圧縮・伸張部46などによる各処理が施される。また、各処理後の画像データは、各処理の内容に応じて、再度画像メモリ44に再格納されるか、あるいは、別の処理部に対して転送される。
The A /
WB(ホワイトバランス)回路23は、R,G,Bの各色成分のレベル変換を行うものである。WB回路23は、全体制御部30で記憶されるレベル変換テーブルを用いてR,G,Bの各色成分のレベルを変換する。なお、レベル変換テーブルの各色成分のパラメータ(特性の傾き)は全体制御部30により、オートまたはマニュアルで、撮影画像毎に設定される。γ補正回路24は、画素データの階調を補正するものである。
A WB (white balance)
色補正部25は、γ補正回路24から入力される画像データに対し、ユーザから設定された色補正に関するパラメータに基づいて色補正を行うとともに、RGB色空間で表現されたカラー情報をYCrCb色空間で表現されたカラー情報に変換する。この表色系変換により、全画素について輝度成分値Yが得られることになる。
The
解像度変換部26は、CCD撮像素子20から得られる画像データに対して所定の解像度変換を行うものである。
The
AF評価値演算部27はユーザによってシャッタボタン9が半押し状態とされた場合に機能し、コントラスト方式の自動合焦制御を行うための評価値演算動作が行われる。ここでは、AF評価領域に対応する画像成分について水平方向に隣接する2画素間での差分絶対値の総和がAF用評価値として算出される。そしてAF評価値演算部27において算出されるAF用評価値は全体制御部30へと出力され、自動合焦制御が実現される。
The AF evaluation
測光演算部28は、解像度変換部26から出力される画像データを複数のブロックに分割し、各ブロックの代表輝度値に基づいてAE用評価値を算出する。そして測光演算部28において算出されるAE用評価値は全体制御部30へと出力され、全体制御部30における自動露出制御に用いられる。
The
絞り制御部29は、全体制御部30の制御下において、撮影レンズ2内の絞り(絞り値)を調節する。
The
画像メモリ44は、本撮影時にCCD撮像素子20で取得され、上記の画像処理が施された画像データを一時的に記憶するメモリである。画像メモリ44は、例えば数フレーム分の記憶容量を有している。
The
カードインタフェース(カードI/F)47は、デジタルカメラ1側面の挿入装着部に対して装着されるメモリカード90への画像データの書込み及び読出しを行うためのインタフェースである。メモリカード90に対する画像データの読み書き時には、圧縮・伸張部46において例えばJPEG方式で画像データの圧縮処理又は伸張処理が行われる。また、外部接続インタフェース(外部接続I/F)48は通信ケーブル等を介して外部コンピュータ91と通信可能にするためのインタフェースであり、例えばUSB規格に準拠した通信用インタフェース等で実現される。これらカードI/F47、外部接続I/F48を介して、メモリカード90や外部コンピュータ91にセットされるCD−ROM等の記録媒体に記録される制御プログラムを、全体制御部30のRAM30a又はROM30b内に取り込むことができる。そして全体制御部30においてそのプログラムが実行されることにより、各種機能が実現される。
The card interface (card I / F) 47 is an interface for writing and reading image data to and from the
操作部45は、上述したダイヤル3、メニューボタン6、コントロールボタン7、シャッタボタン9、ファンクション操作部11、合焦モード切替ボタン12、切替ボタン13等を含む操作部であり、ユーザがデジタルカメラ1の設定状態を変更操作する際や撮影操作を行う際等に用いられる。
The
また、リアルタイムクロック49は、いわゆる時計部である。リアルタイムクロック49の計時機能により、デジタルカメラ1は現在時刻を認識することができる。
The
さらに、デジタルカメラ1は電池51を駆動源としている。電池51としては、例えば直列接続された4本の単三形乾電池を用いることができる。そして、電池51からデジタルカメラ1内の各処理部への電力供給は、電力制御部52によって制御される。
Further, the
全体制御部30は内部にRAM30a及びROM30bを備えたマイクロコンピュータによって構成され、マイクロコンピュータが所定のプログラムを実行することにより、上記各部を統括的に制御する制御手段として機能する。なお、ROM30bは電気的にデータの書き換えが可能な不揮発性メモリである。
The
撮影モード時において、全体制御部30はCCD撮像素子20を駆動する駆動モードをタイミングジェネレータに指令する。特に、ユーザがシャッタボタン9を操作していないときには、全体制御部30はライブビュー画像を取得するためにCCD撮像素子20での撮影動作を繰り返すようにタイミングジェネレータに指令する。これによってCCD撮像素子20ではライブビュー表示用の撮影画像(ライブビュー画像)が取得される。
In the shooting mode, the
また、全体制御部30は、以下に詳述するような合焦制御、露出制御、ホワイトバランス制御などの各種の制御を統括して行う機能を有している。
Further, the
<A2.動作>
<全体動作>
つぎに、デジタルカメラ1における動画撮影動作、より詳細には、視野が異なる複数の動画像を撮影する撮影動作について説明する。これにより、たとえば図5に示すような、その視野が異なる複数の画像データPA,PB(以下、単に画像PA,PBとも称する)を取得することが可能になる。図5は、CCD撮像素子20の全撮影範囲が示されたライブビュー画像PVと、その全撮影範囲に対応する記録画像PAと、その全撮影範囲の一部のエリアに対応する記録画像PBとの関係を示す概念図である。
<A2. Operation>
<Overall operation>
Next, a moving image shooting operation in the
図6は、デジタルカメラ1の動作を示すフローチャートである。以下では、図6のフローチャートにしたがって、デジタルカメラ1の複数動画記録モード(後述)での動作を説明するが、そのような説明に先立って、まずCCD撮像素子20の駆動モード(CCD撮像素子20の読出しモード)および各モードで読み出されて作成される画像について説明する。
FIG. 6 is a flowchart showing the operation of the
CCD撮像素子20は、その駆動モード(読み出しモード)として、「本撮影モード」、「ドラフトモード」、および「部分読出モード」の3つのモードを有している。全体制御部30は、これらの読み出しモードの中から特定のモードを選択し、選択したモードをタイミングジェネレータ42に対して指定する。そして、タイミングジェネレータ42は、その指定内容にしたがってCCD撮像素子20を駆動する。
The CCD
「本撮影モード」は、フレーム画像全体(ここでは2576×1936の全画素)を読み出し対象として画像信号を読み出すモードである。このモードは、記録用の静止画像を生成する際に用いられる。 The “real shooting mode” is a mode in which an image signal is read with the entire frame image (here, all pixels of 2576 × 1936) being read. This mode is used when generating a still image for recording.
「ドラフトモード」は、画像信号を間引き読み出しするモードである。このドラフトモードは、静止画および動画像の撮影直前のプレビュー(ライブビューとも称する)用画像を生成する際などに用いられる。 “Draft mode” is a mode in which image signals are thinned out and read out. This draft mode is used when a still image and a preview image (also referred to as a live view) immediately before shooting a moving image are generated.
図7(a)(b)に示すように、ドラフトモードにおいては、水平方向2576画素、垂直方向1936画素を有するCCD撮像素子20から水平ラインごとの画素信号を読み出す際、8ライン中1ラインを読み出すようにCCD撮像素子20が駆動される。つまり、ドラフトモード時には、1936本の水平ラインが1/8間引きされた状態で読み出されるのである。この結果、ドラフトモード時にCCD撮像素子20から出力される画像GA1は、図7(b)に示すように2576×242の画素で構成されることになる。
As shown in FIGS. 7A and 7B, in the draft mode, when a pixel signal for each horizontal line is read out from the
その後、解像度変換部26は、この画像GA1に対して、水平方向の画素数を1/8にする所定の解像度変換を施し、図7(c)に示すように、322×242の画素で構成される画像GA2を得る。さらに、解像度変換部26は、上下左右端の各1画素幅の画素列を削除することによって、図7(d)に示すように、320×240画素で構成される画像GA3を得る。
Thereafter, the
この画像GA3は、CCD撮像素子20の撮像エリアの全エリア(全撮像範囲)EA(図7(a)参照)をその視野とする画像であり、LCD5の表示画素数に適合した画像サイズとなっている。画像GA3は、エリアEA(CCD撮像素子20の全撮影範囲)に対応する画像であるとも表現できる。この第1実施形態では、画像GA3は、2つの記録用画像のうちの一方の画像PAとして用いられるとともに、ライブビュー画像PVとしても用いられる。
This image GA3 is an image having the entire field (total imaging range) EA (see FIG. 7A) of the imaging area of the
また、「部分読出モード」は、CCD撮像素子20の全撮像範囲のうち、近接する一部の水平ラインを読み出すモードである。たとえば、連続する所定数(242本)の水平ラインで構成される画素ブロックを画像GB1として読み出すことができる。このときの読出し開始位置および/または読出し終了位置は、全体制御部30からの指示に基づいて指定される。
The “partial readout mode” is a mode in which a part of the adjacent horizontal lines in the entire imaging range of the
具体的には、図8(a)(b)に示すように、部分読出モードにおいては、水平方向2576画素、垂直方向1936画素を有するCCD撮像素子20から、所定番号から始まる連続する242本の水平ラインの画素信号が読み出されて、2576×242の画素で構成される画像GB1が取得される。
More specifically, as shown in FIGS. 8A and 8B, in the partial readout mode, 242 continuous lines starting from a predetermined number from the
その後、解像度変換部26は、この画像GB1に対して、指定位置の画素ブロックを切り出すことによって、図8(c)に示すように、322×242の画素で構成される画像GB2を得る。さらに、解像度変換部26は、上下左右端の各1画素幅の画素列を削除することによって、図8(d)に示すように、320×240画素で構成される画像GB3を得る。
Thereafter, the
この画像GB3は、CCD撮像素子20の撮像エリアの全エリア(全撮像範囲)EAのうちの一部のエリアEBをその視野とする画像である。エリアEBは、エリアEAに包含されるエリアであり、画像GB3は、エリアEBに対応する画像であるとも表現できる。また、画像GB3は、画像GA3と同一の画像サイズを有している。この第1実施形態では、画像GB3は、2つの記録用画像のうちのもう一方の画像PBとして用いられる。
This image GB3 is an image having a part of the area EB in the entire area (all imaging range) EA of the imaging area of the
つぎに、図6のフローチャートにしたがって、デジタルカメラ1の動作について説明する。
Next, the operation of the
デジタルカメラ1は、「撮影モード」として「静止画記録モード」と「動画記録モード」とを有している。また、「動画記録モード」は、そのサブモードとして、単一の動画像を記録する「通常動画記録モード」と、複数の動画像を記録する「複数動画記録モード」とを有している。なお、複数動画記録モードは、視野(ないしは広義の撮影アングル)が異なる複数の動画像を撮影するモードであることから、マルチ動画撮影モード、あるいは、マルチアングル撮影モードなどとも称することができる。
The
この図6においては、所定のメニュー操作等によって、「撮影モード」が「動画記録モード」に設定されており且つ「動画記録モード」のサブモードとして「複数動画記録モード」が予め選択されていること、すなわち、デジタルカメラ1が、この「複数動画記録モード」で動作するように予め設定されていることを前提とする。
In FIG. 6, “shooting mode” is set to “moving image recording mode” by a predetermined menu operation or the like, and “multiple moving image recording mode” is selected in advance as a submode of “moving image recording mode”. That is, it is assumed that the
また、ここでは、CCD撮像素子20の駆動方式を切り替えて複数の画像を読み出す場合について説明する。具体的には、CCD撮像素子20の2つの駆動モード(読出しモードとも称する)、詳細には「ドラフトモード」および「部分読出モード」、を交互に用いて画像を読み出すことによって、複数の画像(動画像)を記録する場合について説明する。
Here, a case where a plurality of images are read by switching the driving method of the
まず、ステップSP1〜ステップSP5においては、動画撮影のための準備動作が行われる。 First, in step SP1 to step SP5, a preparation operation for moving image shooting is performed.
具体的には、ステップSP1において、全体制御部30は、CCD撮像素子20の読出しモードがドラフトモードとなるようにタイミングジェネレータ42を設定する。この設定に基づくタイミングジェネレータ42の制御によって、後のステップSP3でCCD撮像素子20はドラフトモードで駆動される。
Specifically, in step SP1, the
ステップSP2では、部分画像PB(図5)の撮影範囲が設定される。具体的には、初期状態では、部分画像PBの撮影範囲を全撮影範囲の中央部に設定する。後のステップSP4では、画像PBの撮影範囲(境界)がライブビュー画像PV上で表示される。その後、図5に示すライブビュー画像PV上の矩形カーソルCRを、操作者がコントロールボタン7を用いて上下左右に移動させることによって、全撮影範囲における部分画像PBの位置を指定する。デジタルカメラ1は、この操作者からの指定に基づいて、このステップSP2で画像PBの撮影範囲を決定する。なお、この実施形態では、画像PBの大きさは所定サイズに固定されており画像PBの位置のみが変更されるものとするが、画像PBの大きさを変更するようにしてもよい。
In step SP2, the shooting range of the partial image PB (FIG. 5) is set. Specifically, in the initial state, the shooting range of the partial image PB is set at the center of the entire shooting range. In the subsequent step SP4, the shooting range (boundary) of the image PB is displayed on the live view image PV. Thereafter, the operator moves the rectangular cursor CR on the live view image PV shown in FIG. 5 up, down, left and right using the
ステップSP3では、CCD撮像素子20の全撮影範囲に対応する画像GA1が、CCD撮像素子20からドラフトモードで読み出される。その後、その画像GA1に対して、信号処理回路21、A/D変換器22、WB回路23、γ補正回路24、色補正部25、解像度変換部26等による各種の画像処理が施されることによって画像GA3が取得される。
In step SP3, the image GA1 corresponding to the entire photographing range of the
ステップSP4においては、この画像GA3がライブビュー画像PVとしてLCD5に表示される。より正確には、ライブビュー画像PVは、図5に示すように、画像GA3(画像PA)に対して、破線LBで囲まれた所定サイズの矩形図形(矩形カーソルCR)が合成された画像として表示される。このライブビュー表示においては、画像PBの撮影範囲として指定されたエリア(領域)が、破線LBで囲まれた領域として、矩形カーソルCRを用いて表示されているため、記録されるべき複数(ここでは2つ)の画像のうちの一方の部分画像PBの撮影範囲をより容易に把握することが可能になる。
In step SP4, the image GA3 is displayed on the
ステップSP5においては、録画を開始すべき指令(録画開始指令)が入力されたか否かを判定する。具体的には、シャッタボタン9が全押し状態S2にまで押下されたか否かが判定される。シャッタボタン9が全押し状態S2にまで押下されていないと判定されれば、未だ録画開始指令が入力されていないとみなし、上述のステップSP1,SP2,SP3,SP4,SP5の各処理を繰り返して行う。一方、シャッタボタン9が全押し状態S2にまで押下されたと判定されると、録画開始指令が入力されたとみなし、次のステップSP6以降に進む。 In step SP5, it is determined whether or not a command to start recording (recording start command) has been input. Specifically, it is determined whether or not the shutter button 9 has been pressed down to the fully pressed state S2. If it is determined that the shutter button 9 has not been pressed down to the fully-pressed state S2, it is considered that a recording start command has not yet been input, and the above steps SP1, SP2, SP3, SP4, and SP5 are repeated. Do. On the other hand, if it is determined that the shutter button 9 has been pressed down to the fully pressed state S2, it is considered that a recording start command has been input, and the process proceeds to the next step SP6 and subsequent steps.
ステップSP6〜ステップSP11においては、動画撮影動作が行われる。 In step SP6 to step SP11, a moving image shooting operation is performed.
ステップSP6においては、録画終了判定処理が行われる。再びシャッタボタン9が全押し状態S2にまで押下されたと判定されると、録画を終了すべき指令(録画終了指令)が入力されたとみなして、後述する動画像の記録を終了する。一方、ステップSP6で録画終了指令が入力されていないと判定される間は、ステップSP7以降に進み、動画像の撮影処理を継続する。 In step SP6, a recording end determination process is performed. When it is determined that the shutter button 9 has been pressed down to the fully-pressed state S2 again, it is considered that a command to end recording (recording end command) has been input, and recording of a moving image to be described later is ended. On the other hand, while it is determined in step SP6 that the recording end command has not been input, the process proceeds to step SP7 and subsequent steps, and the moving image shooting process is continued.
ステップSP7においては、画像PAを作成する。具体的には、最初のフレームについては、上述のステップSP3で既にそのフレームについての画像GA3が生成されているので、その画像GA3を画像PAとしてそのまま用いればよい。一方、最初以外のフレームについては、ステップSP10(後述)における設定変更によりドラフトモードに変更された後に、CCD撮像素子20から読み出された画像GA1に対して、信号処理回路21、A/D変換器22、WB回路23、γ補正回路24、色補正部25、解像度変換部26等による各種の画像処理を施して画像GA3を作成する。新たに作成されたこの画像GA3を画像PAとして用いればよい。
In step SP7, an image PA is created. Specifically, for the first frame, since the image GA3 for that frame has already been generated in step SP3, the image GA3 may be used as it is as the image PA. On the other hand, for the frames other than the first frame, the
画像GA3は、CCD撮像素子20の全撮影範囲に対応する画像であり、複数の記録画像のうちの一方の画像PAとして取得される。全体制御部30は、この画像PAをメモリカード90に記録する。
The image GA3 is an image corresponding to the entire photographing range of the CCD
ステップSP8においては、全体制御部30は、CCD撮像素子20の読出しモードが部分読出モードとなるようにタイミングジェネレータ42を設定する。この設定に基づくタイミングジェネレータ42の制御によって、次のステップSP9でCCD撮像素子20は部分読出モードで駆動される。
In step SP8, the
ステップSP9においては、画像PBを作成する。具体的には、部分読出モードで読み出された画像GB1に対して、信号処理回路21、A/D変換器22、WB回路23、γ補正回路24、色補正部25、解像度変換部26等による各種の画像処理を施して各種の画像処理を施して画像GB3を作成する。この画像GB3が、複数(ここでは2つ)の記録画像のうちのもう一つの画像PBとして取得される。全体制御部30は、この画像PBをメモリカード90に記録する。
In step SP9, an image PB is created. Specifically, the
その後、ステップSP10においては、CCD撮像素子20の読出しモードが再びドラフトモードに設定される。この設定に基づくタイミングジェネレータ42の制御によって、ステップSP7においてCCD撮像素子20はドラフトモードで駆動される。
Thereafter, in step SP10, the reading mode of the CCD
ステップSP11においては、ライブビュー画像PVがLCD5に表示される。このライブビュー表示においては、画像PBの撮影範囲として指定されたエリアの境界が矩形カーソルCR(破線LB)を用いて引き続き明示されている。言い換えれば、CCD撮像素子20における全エリアEAとエリアEBとの位置関係が示された状態で、両画像PA,PBを含むライブビュー画像PVが表示されている。両エリアEA,EBの位置関係が示されているので、操作者は両画像PA,PBの位置関係を明確に把握できる。また、特にエリアEAに包含されるエリアEBの境界が破線LBを用いて表示された状態で、エリアEA,EBに対応する画像PA,PBが表示されているので、記録されるべき複数の画像PA,PBのうちの一方の部分画像PBの撮影範囲をより容易に把握することが可能になる。したがって、操作性が高い。
In step SP11, the live view image PV is displayed on the
以降、ステップSP6において録画終了指令が入力されたと判定されるまでステップSP7,SP8,SP9,SP10,SP11の各処理が繰り返し実行される。 Thereafter, steps SP7, SP8, SP9, SP10, and SP11 are repeatedly executed until it is determined in step SP6 that a recording end command has been input.
図9は、上述の動作を時間軸に沿って示すタイミングチャートである。図9においては、ドラフトモードと部分読出モードとが交互に用いられ、1/30秒(約33ミリ秒)間隔でフレーム画像がCCD撮像素子20から読み出されている様子が示されている。具体的には、第1フレームの画像は、ドラフトモードMAで読み出されて生成された画像PAであり、第2フレームの画像は、部分読出モードMBで読み出されて生成された画像PBである。また、第3フレームの画像は、再びドラフトモードMAで読み出されて生成された画像PAであり、第4フレームの画像は、部分読出モードMBで読み出されて生成された画像PBである。以降、同様に、ドラフトモードMAと部分読出モードMBとで交互に読み出されて画像PAと画像PBとが交互に生成される。そして、連続する一群の画像PAは動画像ファイルMPAとして記録され、連続する一群の画像PBは動画像ファイルMPBとして記録される。動画像ファイルMPA,MPBは、互いに異なる動画ファイルとしてメモリカード90(記録媒体)に記録される。
FIG. 9 is a timing chart showing the above-described operation along the time axis. FIG. 9 shows that the draft mode and the partial readout mode are alternately used, and frame images are read from the
このように、デジタルカメラ1は、画像PAと画像PBとをCCD撮像素子20から交互に(順番に繰り返して)読み出して、画像PAと画像PBとを記録することができる。画像PA,PBは、ほぼ同時に撮影される画像であり、且つ、その視野は互いに異なるものとなっている。また、画像PAと画像PBとは、いずれも、撮影レンズ2とCCD撮像素子20などで構成される同一(単一)の撮像ユニット(撮像手段)から読み出された画像である。したがって、複数のカメラを準備する必要がなく、視野が異なる複数の画像PA,PB(動画像MPA,MPB)を手軽に撮影することが可能である。
In this way, the
また、動画像ファイルMPAを構成する画像PAと動画像ファイルMPBを構成する画像PBとは、バッファメモリ(画像メモリ44)からメモリカード90へと交互に転送されて、交互に記録されるので、バッファメモリの容量を抑制することができる。仮に交互に記録しないとすれば一方のエリアに対応する複数の画像データ(たとえば数フレームから数百フレーム分の画像データ)を一旦バッファメモリに格納しておく必要が生じるが、交互に記録することによればそのような必要がないからである。
Further, the image PA constituting the moving image file MPA and the image PB constituting the moving image file MPB are alternately transferred from the buffer memory (image memory 44) to the
<動画像データ>
図10は、動画像ファイルMPAおよび動画像ファイルMPBのフレーム構成を示す図である。動画像ファイルMPAは、奇数フレームの画像PAを構成要素とする動画像データであり、動画像ファイルMPBは、偶数フレームの画像PBを構成要素とする動画像データである。
<Video data>
FIG. 10 is a diagram illustrating a frame configuration of the moving image file MPA and the moving image file MPB. The moving image file MPA is moving image data having an odd-numbered frame image PA as a constituent element, and the moving image file MPB is moving image data having an even-numbered frame image PB as a constituent element.
ここでは、動画像ファイルMPA,MPBのフレームレートを30FPS(フレーム毎秒)にするため、各フレーム画像を2枚つづけて記録している。 Here, in order to set the frame rate of the moving image files MPA and MPB to 30 FPS (frames per second), two frame images are recorded in succession.
具体的には、動画像ファイルMPAについては、CCD撮像素子20における第1フレームの画像PAを、動画像ファイルMPAにおける第1フレームおよび第2フレームとして2枚続けて記録している。また、CCD撮像素子20における第3フレームの画像PAを、動画像ファイルMPAにおける第3フレームおよび第4フレームとして2枚続けて記録している。動画像ファイルMPBについても同様である。
Specifically, for the moving image file MPA, two images PA of the first frame in the
ただし、これに限定されず、時系列で取得された画像PAを重複させることなくその取得順序にしたがって順次に記録していくことによって、15FPSの動画像ファイルMPAを作成するようにしてもよい。動画像ファイルMPBについても同様である。 However, the present invention is not limited to this, and a 15 FPS moving image file MPA may be created by sequentially recording images PA acquired in time series in accordance with the acquisition order without overlapping. The same applies to the moving image file MPB.
また、音声データについては、デジタルカメラ1の単一のマイク14(図1)によって集音された音声を、動画像ファイルMPA,MPBで共用する。より具体的には、デジタルカメラ1は、各動画像ファイルMPA,MPBに対して、マイク14(録音部)によって得られる同一の音声データを付加することによって、複数の音声データ付き動画ファイルMPA,MPBを作成し、メモリカード90に記録する。すなわち、動画像ファイルMPAの音声データと動画像ファイルMPBの音声データとは同一である。このように、複数の音声データ付き動画ファイルを作成するにあたって、単一の録音部を兼用することができる。
As for audio data, the audio collected by the single microphone 14 (FIG. 1) of the
ここでは、上記のような動画像ファイルMPA,MPBが別個のファイルとして、別個の名称が付された状態で同一のメモリカード90(単一の記録媒体)に記録される。 Here, the moving image files MPA and MPB as described above are recorded as separate files on the same memory card 90 (single recording medium) with different names attached.
図11は、ファイル名称の付与ルールについて説明する図である。ここでは、通常動画記録モードによる1回の撮影動作で1つの動画ファイルを記録した後、上述した複数動画記録モードによる1回の撮影動作で2つの動画ファイルを記録する場合を想定する。なお、いずれの動画ファイルにおいても、拡張子"mov"は動画であることを示している。 FIG. 11 is a diagram for explaining a file name assignment rule. Here, it is assumed that one moving image file is recorded by one shooting operation in the normal moving image recording mode, and then two moving image files are recorded by one shooting operation in the multiple moving image recording mode described above. In any moving image file, the extension “mov” indicates a moving image.
図11(a)は、最初の通常動画記録モードで撮影された動画ファイルの名称を示している。この動画ファイルには、"Pict0001.mov"(4文字目は"t")という名称が付されている。最初の4文字"Pict"は、通常動画記録モードの動画であることを示している。その次の4文字はファイル番号を示しており、そのモードに依らず且つ撮影エリアに依らず、撮影された順序で1つずつインクリメントされていく。ここでは、最初のファイルであるので"0001"が付されている。 FIG. 11A shows the name of a moving image file shot in the first normal moving image recording mode. This moving image file has a name “Pict0001.mov” (the fourth character is “t”). The first four characters “Pict” indicate that the movie is in the normal movie recording mode. The next four characters indicate the file number, and are incremented one by one in the order of shooting regardless of the mode and shooting area. Here, since it is the first file, “0001” is added.
図11(b)は、複数動画記録モードで撮影された2つの動画ファイルのうちの一方の動画ファイルの名称を示している。この動画ファイルには、"Pica0002.mov"という名称が付されている。最初の4文字"Pica"(4文字目は"a")は、複数動画記録モードのエリアEAに対応する動画であることを示している。また、ファイル番号を示す次の4文字は、自動的に1つインクリメントされて"0002"になっている。 FIG. 11B shows the name of one of the two moving image files shot in the multiple moving image recording mode. This moving image file is named “Pica0002.mov”. The first four characters “Pica” (the fourth character is “a”) indicate that the movie corresponds to the area EA in the multiple movie recording mode. Further, the next four characters indicating the file number are automatically incremented by one to become “0002”.
図11(c)は、複数動画記録モードで撮影された2つの動画ファイルのうちの他方の動画ファイルの名称を示している。この動画ファイルには、"Picb0003.mov"という名称が付されている。最初の4文字"Picb"(4文字目は"b")は、複数動画記録モードのエリアEBに対応する動画であることを示している。また、ファイル番号を示す次の4文字は、自動的に1つインクリメントされて"0003"になっている。 FIG. 11C shows the name of the other moving image file out of the two moving image files shot in the multiple moving image recording mode. This moving image file is named “Picb0003.mov”. The first four characters “Picb” (the fourth character is “b”) indicate that the movie corresponds to the area EB in the multiple movie recording mode. Further, the next four characters indicating the file number are automatically incremented by one to “0003”.
以上のように、CCD撮像素子20における複数のエリアEA,EBのそれぞれに対応する画像データが、そのファイル名に関連性を持たせた状態で、互いに異なる複数の動画ファイルとして記録される。したがって、操作者はファイルの関連性を理解しやすく、混乱を防止できる。
As described above, the image data corresponding to each of the plurality of areas EA and EB in the CCD
特に、ファイル名は、撮影対象エリアを識別する識別部分(ここでは、最初の4文字(特に4文字目))を有しているので、操作者は各動画ファイルの撮影対象エリア(より具体的には、その撮影対象エリアがエリアEA,EBのいずれであるのか)を容易に識別できる。また、上述のファイル名における最初の4文字は、各動画ファイルの記録モードを識別する機能をも有している。 In particular, since the file name has an identification part (here, the first four characters (particularly the fourth character)) for identifying the shooting target area, the operator can select the shooting target area (more specifically, each moving image file). Can be easily identified as to whether the area to be imaged is the area EA or EB). The first four characters in the above file name also have a function of identifying the recording mode of each moving image file.
また、動画ファイルのファイル名のファイル番号部分(ここでは、5文字目から8文字目までの4文字)は、各動画ファイルに対してその撮影対象エリアの異同にかかわらず一意に付与される連続番号を有している。したがって、その撮影対象エリアが異なるファイルに対して同一のファイル番号が付与されることが無いので、ファイル番号の異同で動画ファイルの異同を判断できる。すなわち混同のおそれが少ない。また、連続番号のファイルに関連性があることを容易に識別できる。 In addition, the file number portion of the file name of the moving image file (here, 4 characters from the fifth character to the eighth character) is continuously assigned to each moving image file regardless of the difference in the shooting target area. Have a number. Accordingly, since the same file number is not assigned to files having different shooting target areas, it is possible to determine the difference between moving image files based on the difference in file number. That is, there is little possibility of confusion. Further, it is possible to easily identify that the serial number files are related.
さらに、同一の撮影動作で取得される複数の動画ファイルに対しては連続番号が付与され、且つ、同一の撮影動作で取得される複数の動画ファイルのうち、その撮影対象エリアが特定のエリア(ここではエリアEA)の動画ファイルに対して最も小さな番号が付与される。そして、撮影対象エリアが特定のエリア(ここではエリアEA)であることは、特定の識別子(たとえば、"Pica"(4文字目は"a"))によって識別できる。したがって、特定の識別子(たとえば、"Pica")を有するファイルのファイル番号(ここでは2)から始まる連続番号(2,3)を有する一連のファイルを、複数動画記録モードにおける同一の撮影で得られた複数(ここでは2つ)の動画ファイルであると認識できる。 Furthermore, serial numbers are assigned to a plurality of moving image files acquired by the same shooting operation, and the shooting target area of the plurality of moving image files acquired by the same shooting operation is a specific area ( Here, the smallest number is assigned to the moving image file in area EA). Then, the fact that the shooting target area is a specific area (here, area EA) can be identified by a specific identifier (for example, “Pica” (the fourth character is “a”)). Therefore, a series of files having consecutive numbers (2, 3) starting from the file number (here, 2) of a file having a specific identifier (for example, “Pica”) can be obtained by the same shooting in the multiple movie recording mode. It can be recognized that it is a plurality (two in this case) of moving image files.
<AF制御,AE制御,AWB制御>
つぎに、複数動画記録モードにおける自動合焦制御(AF制御とも略称する)、自動露出制御(AE制御とも略称する)、および自動ホワイトバランス制御(AWB制御とも略称する)について説明する。
<AF control, AE control, AWB control>
Next, automatic focusing control (abbreviated as AF control), automatic exposure control (abbreviated as AE control), and automatic white balance control (abbreviated as AWB control) in the multiple moving image recording mode will be described.
まず、非記録時(図6のステップSP1〜ステップSP5のループ)においては、ドラフトモードMAで読み出された画像GA3に基づくライブビュー画像PVがLCD5に表示される。そして、このライブビュー画像PVの画像調整のために、AF制御、AE制御およびAWB制御が行われる。AE制御およびAWB制御は、ドラフトモードMAによる画像GA3を用いて算出された評価値(AE用評価値およびAWB用評価値)に基づいて行われる。また、AF制御は、部分読出モードによる画像GB3を用いて算出されたAF用評価値に基づいて行われる。
First, at the time of non-recording (loop of step SP1 to step SP5 in FIG. 6), a live view image PV based on the image GA3 read in the draft mode MA is displayed on the
一方、記録時(図6のステップSP6〜ステップSP11のループ)においては、ドラフトモードMAによる画像GA3(PA)に基づくライブビュー画像PVがLCD5に表示されるとともに、ドラフトモードMAによる画像GA3(画像PA)と部分読出モードMBによる画像GB3(画像PB)とが交互に読み出され交互に記録される。そして、これらの記録用画像PA,PBの画像調整のために、AF制御、AE制御およびAWB制御が行われる。
On the other hand, at the time of recording (loop from step SP6 to step SP11 in FIG. 6), a live view image PV based on the image GA3 (PA) in the draft mode MA is displayed on the
ここで、画像PA,PBについてのAE制御は、いずれも、ドラフトモードMAによる画像GA3を用いて算出された評価値(AE用評価値およびAWB用評価値)に基づいて行われる。ただし、画像PA,PBは、その視野が異なる(言い換えれば、その撮影範囲が異なる)ため、それぞれの撮影範囲に応じたブロックの評価値を用いることが好ましい。 Here, the AE control for the images PA and PB is performed based on the evaluation values (AE evaluation value and AWB evaluation value) calculated using the image GA3 in the draft mode MA. However, since the images PA and PB have different fields of view (in other words, their shooting ranges are different), it is preferable to use an evaluation value of a block corresponding to each shooting range.
まず、画像PAについてのAE制御について説明する。 First, the AE control for the image PA will be described.
画像PAについてのAE制御は、画像GA3の全体に対する測光演算結果に基づいて行われる。より詳細には、測光演算部28が、解像度変換部26から出力される画像GA3(PA)を複数のブロック(「測光ブロック」とも称する)に分割し、各ブロックの代表輝度値に基づいてAE用評価値を算出する。
The AE control for the image PA is performed based on the photometric calculation result for the entire image GA3. More specifically, the
図12は、測光ブロックの一例を示す図である。測光演算部28は画像GA3が入力されると、その画像GA3(PA)を横方向に20個、縦方向に15個に区分(分割)する。この結果、横320×縦240の画像サイズを有する画像GA3は、合計300(=20×15)個の測光ブロックに区分され、各測光ブロックは、それぞれ、16画素(横方向)×16画素(縦方向)のサイズを有している。そして測光演算部28は各ブロックに含まれる複数の画素の輝度値を加算することにより、各ブロックの代表輝度値を算出する。各画素の輝度値としては、R(赤),G(緑),B(青)の各色成分値の重み付け加算値(Y成分値)を用いてもよく、各色成分のうちの1つの成分(たとえばG成分)の値を用いてもよい。
FIG. 12 is a diagram illustrating an example of a photometry block. When the image GA3 is input, the
そして各ブロックから得られる代表輝度値と、各ブロックに対応付けられる重み付け係数との積を求め、各ブロックについて得られる積を全てのブロック(300ブロック)について累積加算することでAE用評価値を求める。AE制御には、スポット測光方式、中央重点測光方式、平均測光方式などの様々な方式が存在するが、この重み付け係数を各方式に応じて変更することによって、各方式に応じたAE用評価値を算出することができる。たとえば、各重み付け係数を同一の値とすることによって平均測光方式のAE用評価値を算出することができる。 Then, the product of the representative luminance value obtained from each block and the weighting coefficient associated with each block is obtained, and the product obtained for each block is cumulatively added for all blocks (300 blocks) to obtain the evaluation value for AE. Ask. There are various types of AE control, such as spot metering, center-weighted metering, and average metering, but by changing this weighting factor according to each method, an AE evaluation value corresponding to each method is used. Can be calculated. For example, the AE evaluation value of the average photometry method can be calculated by setting each weighting coefficient to the same value.
測光演算部28は、算出したAE用評価値を全体制御部30へと出力し、全体制御部30は、このAE用評価値を用いて、次のフレーム画像(画像PA)撮影時の露出状態を適正な状態にするための撮影パラメータ(具体的には、シャッタスピードおよび絞り)を決定する。その後、決定された撮影パラメータで次のフレーム画像PAが撮影される。
The
なお、非記録時(ステップSP1〜SP5)におけるAE制御は、記録時における画像PAに対する上記のAE制御と同様にして行われればよい。 Note that the AE control during non-recording (steps SP1 to SP5) may be performed in the same manner as the AE control for the image PA during recording.
つぎに、画像PBについてのAE制御について説明する。 Next, AE control for the image PB will be described.
画像PBについてのAE制御は、画像PAについてのAE制御と同様に、画像GA3に基づいて行われる。ただし、図13に示すように、画像GA3を区分した複数のブロックのうちの一部のブロック、具体的には、画像PBに対応する領域を含むブロックのみを対象として、AE用評価値を算出する。図13においては、画像GA3(PA)内の複数(300個)のブロックのうち、画像PA内での画像PBの位置に対応する6つのブロック(図13の太線BLで囲まれるブロック)のみに基づいてAE用評価値を算出する。これら6つのブロックは、画像PA内において画像PBの位置に対応する領域CBを含むブロックである。 Similar to the AE control for the image PA, the AE control for the image PB is performed based on the image GA3. However, as shown in FIG. 13, the AE evaluation value is calculated only for a part of a plurality of blocks into which the image GA3 is divided, specifically, a block including an area corresponding to the image PB. To do. In FIG. 13, out of a plurality (300) of blocks in image GA3 (PA), only six blocks corresponding to the position of image PB in image PA (blocks surrounded by thick line BL in FIG. 13) are included. Based on this, an evaluation value for AE is calculated. These six blocks are blocks including a region CB corresponding to the position of the image PB in the image PA.
そして各ブロックから得られる代表輝度値と、各ブロックに対応付けられる重み付け係数との積を求め、各ブロックについて得られる積を6つのブロックについて累積加算することでAE用評価値を求める。ここでは、ブロックの数が比較的少ないので平均測光方式を採用し、各ブロックの重み付けが同一となるような重み付け係数を用いる。なお、上述したように、他の方式でAE制御を行うようにしてもよい。 Then, the product of the representative luminance value obtained from each block and the weighting coefficient associated with each block is obtained, and the product obtained for each block is cumulatively added for six blocks to obtain the evaluation value for AE. Here, since the number of blocks is relatively small, an average photometry method is adopted, and weighting coefficients are used so that the weights of the respective blocks are the same. As described above, the AE control may be performed by another method.
測光演算部28は、算出したAE用評価値を全体制御部30へと出力し、全体制御部30は、このAE用評価値を用いて、次のフレーム画像(画像PB)撮影時の露出状態を適正な状態にするための撮影パラメータ(具体的には、シャッタスピードおよび絞り)を決定する。
The
以上のようにして、両画像PA,PBについてのAE制御における制御パラメータを、一方の画像GA3(PA)を用いたAE用評価値に基づいて決定することができる。この場合、他方の画像GB3(PB)を用いたAE用評価値にも基づいて、両画像PA,PBについてのAE制御における制御パラメータを決定する場合に比べて、画像GB3(PB)についてのAE用評価値を算出する必要がないので、演算量を減少させることができる。すなわち、効率的である。 As described above, the control parameters in the AE control for both the images PA and PB can be determined based on the evaluation value for AE using one image GA3 (PA). In this case, the AE for the image GB3 (PB) is compared with the case where the control parameters in the AE control for both the images PA and PB are determined based on the evaluation value for AE using the other image GB3 (PB). Therefore, it is not necessary to calculate an evaluation value for use, so that the amount of calculation can be reduced. That is, it is efficient.
また、画像PAについての露出制御における制御パラメータは画像PAに基づいて決定されるとともに、画像PBについての露出制御における制御パラメータは、画像PAの画像データのうち画像PBの撮影範囲に相当する領域のデータに基づいて決定される。したがって、画像PAの露出制御を画像PAの特性に合わせ、且つ、画像PBの露出制御を画像PBの特性に合わせて行うことが可能になる。すなわち、各画像PA,PBの特徴に応じたAE制御を行うことができる。 In addition, the control parameter in the exposure control for the image PA is determined based on the image PA, and the control parameter in the exposure control for the image PB is an area corresponding to the imaging range of the image PB in the image data of the image PA. Determined based on data. Therefore, the exposure control of the image PA can be matched with the characteristics of the image PA, and the exposure control of the image PB can be matched with the characteristics of the image PB. That is, AE control corresponding to the characteristics of the images PA and PB can be performed.
つぎに、AWB制御について説明する。画像PA,PBについてのAWB制御は、AE制御と同様に、ドラフトモードMAによる画像GA3を用いて算出された評価値(AE用評価値およびAWB用評価値)に基づいて行われる。 Next, AWB control will be described. Similar to the AE control, the AWB control for the images PA and PB is performed based on the evaluation values (AE evaluation value and AWB evaluation value) calculated using the image GA3 in the draft mode MA.
測光演算部28は、測色演算部としても機能し、図12の各ブロックを測色ブロックとしても機能させて、AWB(オートホワイトバランス)用評価値を算出する。AWB制御は、このAWB用評価値に基づいて行われる。
The
AWB用評価値は、画像におけるR(赤),G(緑),B(青)の3つの色成分のバランスを測るための評価値であり、3つの色成分のそれぞれの比率を表す値として求められる。 The evaluation value for AWB is an evaluation value for measuring the balance of three color components of R (red), G (green), and B (blue) in the image, and is a value representing the ratio of each of the three color components. Desired.
ただし、画像PA,PBは、その視野が異なる(言い換えれば、その撮影範囲が異なる)ため、それぞれの撮影範囲に応じたブロックの評価値を用いることが好ましい。 However, since the images PA and PB have different fields of view (in other words, their shooting ranges are different), it is preferable to use an evaluation value of a block corresponding to each shooting range.
具体的には、画像PAについては、画像GA3の全範囲、すなわち、図12の全ブロックを対象として、3つの色成分のそれぞれの比率を表す値をAWB用評価値として求めることができる。 Specifically, for the image PA, the value representing the ratio of each of the three color components can be obtained as the AWB evaluation value for the entire range of the image GA3, that is, all the blocks in FIG.
一方、画像PBについては、画像GA3内の複数(300個)のブロックのうち、画像PA内での画像PBの位置に対応する6つのブロック(図13の太線BLで囲まれるブロック)のみに基づいて、3つの色成分のそれぞれの比率を表す値をAWB用評価値として算出する。 On the other hand, the image PB is based on only six blocks (blocks surrounded by the thick line BL in FIG. 13) corresponding to the position of the image PB in the image PA among a plurality (300) of blocks in the image GA3. Then, a value representing the ratio of each of the three color components is calculated as an evaluation value for AWB.
算出されたAWB用評価値は全体制御部30へと出力される。そして、全体制御部30は、このAWB用評価値を用いて、次のフレーム撮影時のホワイトバランスを適正な状態にするための撮影パラメータ(具体的には、ホワイトバランスゲイン)を決定する。そして、WB回路23は、次の画像PAまたは画像PBを取得する際に、画像PA,PBごとに決定されたホワイトバランスゲインに基づいて画像処理を行う。
The calculated evaluation value for AWB is output to the
以上のようにして、各画像PA,PBについてのAWB制御におけるAWB用評価値は、一方の画像GA3(PA)のみを用いて算出されているので、他方の画像GB3をも用いて算出される場合に比べて演算量を減少させることができる。すなわち、効率的である。 As described above, since the evaluation value for AWB in the AWB control for each of the images PA and PB is calculated using only one image GA3 (PA), it is also calculated using the other image GB3. Compared to the case, the calculation amount can be reduced. That is, it is efficient.
また、画像PAについてのホワイトバランス制御における制御パラメータは画像PAに基づいて決定されるとともに、画像PBについてのホワイトバランス制御における制御パラメータは、画像PAの画像データのうち画像PBの撮影範囲に相当する領域のデータに基づいて決定される。したがって、画像PAのホワイトバランス制御を画像PAの特性に合わせ、且つ、画像PBのホワイトバランス制御を画像PBの特性に合わせて行うことが可能になる。すなわち、各画像PA,PBの特徴に応じたAWB制御を行うことができる。 The control parameter for white balance control for the image PA is determined based on the image PA, and the control parameter for white balance control for the image PB corresponds to the shooting range of the image PB in the image data of the image PA. It is determined based on the area data. Therefore, the white balance control of the image PA can be matched with the characteristics of the image PA, and the white balance control of the image PB can be matched with the characteristics of the image PB. That is, AWB control corresponding to the characteristics of the images PA and PB can be performed.
また、上記のようなAE制御およびAWB制御は、全てのフレームについて行う必要はなく、所定数フレームに1回の割合(たとえば4フレーム1回の割合)で行えばよい。 The AE control and AWB control as described above need not be performed for all frames, and may be performed once every predetermined number of frames (for example, once every four frames).
さらに、AF制御について説明する。ここでは、いわゆるコントラスト方式を用いる。 Further, AF control will be described. Here, a so-called contrast method is used.
画像PA,PBについてのAF制御は、いずれも、部分読出モードによる画像GB3を用いて算出されたAF用評価値に基づいて行われる。具体的には、画像GB3において水平方向に隣接する2画素間での差分絶対値の総和がAF用評価値として算出される。 The AF control for the images PA and PB is performed based on the AF evaluation value calculated using the image GB3 in the partial readout mode. Specifically, the sum of absolute differences between two pixels adjacent in the horizontal direction in the image GB3 is calculated as the AF evaluation value.
画像PA,PBにおける被写体の被写体距離が互いに異なる場合には、画像PA撮影時と画像PB撮影時とで焦点位置を変更することも考えられるが、レンズ駆動のための時間が必要となるため、フレームレートの減少を招くなどの弊害が生じる。そこで、ここでは、2つの画像PA,PBのうちの部分画像PBを用いて、AF用評価値を算出するものとする。 If the subject distances of the subjects in the images PA and PB are different from each other, it may be possible to change the focal position between the image PA shooting and the image PB shooting, but it takes time to drive the lens. Detrimental effects such as reducing the frame rate occur. Therefore, here, the AF evaluation value is calculated using the partial image PB of the two images PA and PB.
画像PAではなく画像PBを用いるのは、部分画像PBが画像PAの全エリアのうちの注目部分であることが多いこと、および/または、画像PBの画素ピッチが画像PAの画素ピッチの8倍であり画像PBの被写界深度(焦点深度)が画像PAの被写界深度(焦点深度)よりも8倍大きいことなどの理由による。 The reason why the image PB is used instead of the image PA is that the partial image PB is often a target portion of the entire area of the image PA and / or the pixel pitch of the image PB is eight times the pixel pitch of the image PA. This is because the depth of field (depth of focus) of the image PB is eight times larger than the depth of field (depth of focus) of the image PA.
上述のようにして算出されるAF用評価値は全体制御部30へと出力され、自動合焦制御が実現される。たとえば、非記録時においては、ユーザによってシャッタボタン9が半押し状態とされた場合にのみAF制御が行われ、記録時においては、所定の時間間隔でAF制御が行われればよい。
The AF evaluation value calculated as described above is output to the
以上のように、記録時においても、両画像PA,PBについてのAF制御を、一方の画像GB3(PB)のみからのAF用評価値に基づいて行うことができるので、他方の画像GA3からのAF用評価値をも算出する場合に比べて、演算量を減少させることができる。すなわち、効率的である。 As described above, even during recording, AF control for both images PA and PB can be performed based on the evaluation value for AF from only one image GB3 (PB), and therefore from the other image GA3. Compared with the case where the AF evaluation value is also calculated, the amount of calculation can be reduced. That is, it is efficient.
<B.第2実施形態>
つぎに第2実施形態について説明する。第2実施形態に係るデジタルカメラは、撮像素子として、CCDセンサ20の代わりにCMOS(Complementary Metal Oxide Semiconductor)センサ20Bを用いる点で第1実施形態に係るデジタルカメラと相違するが、その他の構成については同様である。以下では、相違点を中心に説明する。
<B. Second Embodiment>
Next, a second embodiment will be described. The digital camera according to the second embodiment is different from the digital camera according to the first embodiment in that a CMOS (Complementary Metal Oxide Semiconductor)
図14および図15は、CMOSセンサ(CMOS撮像素子)20Bにおける読出し画素の指定について説明する図である。CMOSセンサ20Bにおいては、水平ラインおよび/または垂直ラインをまとめて取り出す必要がなく、任意の指定位置の画素を読み出すことが可能である。したがって、記録用動画像GCの取得時における横方向の解像度変換は不要となる。
14 and 15 are diagrams for describing designation of readout pixels in the CMOS sensor (CMOS imaging device) 20B. In the
ここでは、CMOSセンサ20Bは、2576×1936の画素を有しているものとして説明する。
Here, the
記録用静止画像の取得時においては、CMOSセンサ20Bの全画素(2576×1936の画素)が読み出されて、記録用の静止画像が生成される。
At the time of acquiring a recording still image, all the pixels (2576 × 1936 pixels) of the
一方、ライブビュー画像の取得時および記録用動画像の取得時などにおいては、全画素のうちのいくつかの画素の信号を読み出して、比較的小さな画素サイズ(たとえば320×240の画素サイズ)の画像が生成される。 On the other hand, at the time of acquiring a live view image and a moving image for recording, the signals of some of the pixels are read out, and a relatively small pixel size (for example, 320 × 240 pixel size) is read. An image is generated.
また、このような比較的小さな画素サイズの画像は、その抽出の仕方によって2つのタイプの画像に大別される。 Such relatively small pixel size images are roughly divided into two types of images depending on the extraction method.
1つは、図14に示されるように、CMOSセンサ20Bの全エリアの状態を示す画像GCであり、たとえば、CCD撮像素子20Bの全エリアから数画素間隔で画素を読み出して取得される画像である。図14の概念図においては、CMOSセンサ20Bから縦方向および横方向ともに8画素間隔で読み出して322×242の画素サイズの画像を生成し、所定の画像処理を施した後に上下左右端の各1画素幅の画素列を削除することによって、第1実施形態と同じ320×240の画素サイズの画像GCを生成する様子が示されている。この画像GCは、図5の全体画像PAのように撮影範囲の全エリアに相当する画像である。
One is an image GC showing the state of the entire area of the
もう1つは、CMOSセンサ20Bから抜き出した一部のエリアの状態を示す画像GDであり、たとえば、互いに隣接する画素の集合である画素ブロックエリアBDの画素がCCD撮像素子20Bから読み出されて取得される画像である。図15の概念図においては、CMOSセンサ20Bから所定の位置(i,j)から(i+241,j+321)までの連続する322×242の画像を読み出して所定の画像処理を施した後に、上下左右端の各1画素幅の画素列を削除することによって、第1実施形態と同じ320×240の画素サイズの画像GDを生成する様子が示されている。この画像GDは、図5の部分画像PBのように、撮影範囲の一部エリアに相当する画像である。
The other is an image GD showing the state of a part of the area extracted from the
このように、読み出し画素の位置を変更することによって、その撮像範囲が異なる(視野が異なる)画像GC、GDを得ることができる。 In this way, by changing the position of the readout pixel, images GC and GD having different imaging ranges (different visual fields) can be obtained.
そして、CMOSセンサ20Bにおける読出し画素の指定位置を切り替えて、2つの画像GC,GDを交互に読み出し交互に記録する。
Then, the designated position of the readout pixel in the
このような動作によっても、視野が異なる複数の画像を手軽に撮影することが可能である。 Even with such an operation, it is possible to easily take a plurality of images having different fields of view.
なお、この第2実施形態においては、CMOSセンサ20Bから水平方向および垂直方向ともに等間隔で読み出した画素で画像GCを生成する場合を例示したが、これに限定されない。たとえば、画像GCを生成する際において、CMOSセンサ20Bにおいて不定間隔で配置された画素を指定して読み出してもよく、さらには、水平位置と垂直位置とを全く独立に指定して読み出してもよい。
In the second embodiment, the case where the image GC is generated with pixels read out from the
<C.第3実施形態>
第3実施形態は、2つの「部分画像」を記録する場合について説明する。第3実施形態は第1実施形態の変形例であり、以下では第1実施形態との相違点を中心に説明する。
<C. Third Embodiment>
In the third embodiment, a case where two “partial images” are recorded will be described. The third embodiment is a modification of the first embodiment, and the description below will focus on the differences from the first embodiment.
図16は、CCD撮像素子20の全撮影範囲を示す画像GEと、その一部のエリアLF,LGのそれぞれに対応する画像GF,GGとの関係を示す図である。この第3実施形態においては、その視野が異なる2つの画像GF,GGがそれぞれ別の動画像として撮影される。
FIG. 16 is a diagram showing a relationship between an image GE showing the entire photographing range of the CCD
図17、図18、図19は、各画像GE,GF,GGを取得する際のCCD撮像素子20の読み出しモードを示す概念図である。
FIGS. 17, 18, and 19 are conceptual diagrams showing the readout mode of the
図17は、全体画像GEを取得する際の読み出しモード(第1実施形態のドラフトモードMAに相当する)を示している。図18および図19は、それぞれ、部分画像GFおよび部分画像GGを取得する際の読み出しモード(第1実施形態の部分読み出しモードMBに相当する)を示している。 FIG. 17 shows a read mode (corresponding to the draft mode MA of the first embodiment) when acquiring the entire image GE. FIG. 18 and FIG. 19 show a read mode (corresponding to the partial read mode MB of the first embodiment) when acquiring the partial image GF and the partial image GG, respectively.
画像GFおよび画像GGは、読み出しモードは同一であるが、読み出し対象の水平ラインの位置が相違した状態で読み出される。図18における読み出し対象の水平ラインは、図19における読み出し対象の水平ラインよりも上側に位置している。これは、図16に示すように、画像GFの撮影範囲(図16のエリアLF)が画像GGの撮影範囲(図16のエリアLG)よりも、画像GEにおいて比較的上側に存在していることに対応している。このように、画像GF,GGは、読出し画素の指定垂直位置を切り替えて(言い換えれば、読み出し対象の水平ラインを切り替えて)、CCD撮像素子20から交互に読み出される。なお、図18の読出しモードと図19の読出しモードとを区別するため、前者を部分読出しモードMB1、後者を部分読出モードMB2とも称する。
The image GF and the image GG are read in the same reading mode, but in a state where the positions of the horizontal lines to be read are different. The horizontal line to be read in FIG. 18 is located above the horizontal line to be read in FIG. This is because, as shown in FIG. 16, the shooting range of the image GF (area LF in FIG. 16) is relatively higher in the image GE than the shooting range of the image GG (area LG in FIG. 16). It corresponds to. As described above, the images GF and GG are alternately read from the
図17〜図19の各モードで読み出された各画像は、それぞれ、各種の画像処理が施されて、所定のサイズ(たとえば320×240)の各画像GE,GF,GGとして生成される。 Each image read in each mode of FIGS. 17 to 19 is subjected to various types of image processing and is generated as each image GE, GF, GG having a predetermined size (for example, 320 × 240).
図20は、この第3実施形態における動作を示すタイミングチャートである。図20においては、ドラフトモードMAと部分読出モードMB1と部分読出モードMB2とが順次に(順番に)繰り返して用いられ、1/30秒(約33ミリ秒)間隔でフレーム画像がCCD撮像素子20から読み出されている様子が示されている。具体的には、第1フレームの画像は、ドラフトモードMAで読み出されて生成された画像GEであり、第2フレームの画像は、部分読出モードMB1で読み出されて生成された画像GFであり、第3フレームの画像は、部分読出モードMB2で読み出されて生成された画像GGである。その後、第4フレーム以降においても、画像GE,GF,GGが順次に(この順序で)繰り返して読み出されて生成される。 FIG. 20 is a timing chart showing the operation in the third embodiment. In FIG. 20, the draft mode MA, the partial readout mode MB1 and the partial readout mode MB2 are repeatedly used in sequence (in order), and frame images are obtained at intervals of 1/30 seconds (about 33 milliseconds). The state of being read from is shown. Specifically, the first frame image is an image GE that is read and generated in the draft mode MA, and the second frame image is an image GF that is read and generated in the partial read mode MB1. The third frame image is an image GG read and generated in the partial read mode MB2. Thereafter, also in the fourth and subsequent frames, the images GE, GF, and GG are repeatedly read and generated sequentially (in this order).
生成された画像のうち画像GF,GGは、メモリカード90に対して交互に記録される。連続する一群の画像GFと連続する一群の画像GGとは、それぞれ、別個の動画像ファイルMPF,MPGとして記録される。
Of the generated images, the images GF and GG are alternately recorded on the
また、全体画像GEはライブビュー画像としてLCD5に表示される。このとき、図16に示すように、LCD5においては、部分画像GF,GGが、部分画像GF,GGの両エリアを含む全体画像GEとともに表示されており、かつ、部分画像GF,GGに対応する各エリアLF,LGの境界が破線で表示されている。したがって、操作者は、部分記録する画像GF,GGに対応するエリアの画像GE内での位置を容易に把握できるので、操作性が高い。
The entire image GE is displayed on the
なお、ここでは、画像GEを記録画像として用いていないが、全体画像である画像GEをさらに記録するようにしてもよい。すなわち、3つの画像GE,GF,GGをこの順序で繰り返して、3つの動画像を記録するようにしてもよい。 Here, the image GE is not used as the recording image, but the image GE that is the entire image may be further recorded. That is, three moving images may be recorded by repeating the three images GE, GF, and GG in this order.
また、この部分画像撮影時のAE制御、AWB制御、およびAF制御について説明する。 Further, AE control, AWB control, and AF control at the time of partial image shooting will be described.
まず、AE制御およびAWB制御については、上記の第1実施形態と同様に行えばよい。すなわち、記録時においては、画像GE,GF,GGについて、いずれも画像GEに基づいて評価値を求め、評価値に基づいてAE制御およびAWB制御を行えばよい。また、画像GFおよび画像GGについては、画像GEを区分した複数のブロックのうち、各画像GF,GGに相当する領域に対応するブロックを用いて評価値を求めるようにすることがより好ましい。 First, AE control and AWB control may be performed in the same manner as in the first embodiment. That is, at the time of recording, for images GE, GF, and GG, an evaluation value may be obtained based on image GE, and AE control and AWB control may be performed based on the evaluation value. For the image GF and the image GG, it is more preferable to obtain the evaluation value using a block corresponding to a region corresponding to each of the images GF and GG among a plurality of blocks obtained by dividing the image GE.
また、AF制御については、たとえば、次の2つの手法の双方または一方を用いればよい。 For AF control, for example, both or one of the following two methods may be used.
1つは、部分画像GF,GGの被写体距離のうち、より近い被写体距離に合わせて撮影動作を行う手法である。比較的近い被写体が合焦状態となるように撮影レンズ2の焦点位置を変更する。一般に、被写界深度は、焦点を合わせた位置の後ろ側に深くなっているため、部分画像GF,GGの両方の被写体が合焦状態になる可能性を高めることができる。
One is a method of performing a shooting operation in accordance with a closer subject distance among the subject distances of the partial images GF and GG. The focal position of the
もう1つは、絞り値を比較的大きな値に設定して(絞りを比較的絞った状態にして)撮影する手法である。絞り値を比較的大きな値に設定することによれば被写界深度が比較的大きな値となるため、部分画像GF,GGの両方の被写体が合焦状態となる可能性が高くなる。このような絞り制御によれば、光学系における焦点移動の頻度を低減(理想的にはゼロ)した上で、画像GF,GGの各被写体をともに合焦させることができる。また、焦点移動の頻度の低減によって、撮影間隔を比較的短く設定することができる。 The other is a method of taking an image with a relatively large aperture value (with a relatively narrow aperture value). By setting the aperture value to a relatively large value, the depth of field becomes a relatively large value, so that there is a high possibility that the subjects of both the partial images GF and GG are in focus. According to such aperture control, the frequency of focus movement in the optical system can be reduced (ideally zero), and the respective subjects of the images GF and GG can be brought into focus. In addition, the imaging interval can be set relatively short by reducing the frequency of focus movement.
図21は、このような絞りを設定する、APEX方式による露出制御用のプログラムラインの一例を示す図である。具体的には、図21におけるラインL0は、通常のプログラムラインを示しており、ラインL1は絞りをなるべく絞った状態とするプログラムラインL1(具体的には、絞り値(Fナンバー)が所定値(8.0)以上となるプログラムラインL1)を示している。 FIG. 21 is a diagram showing an example of a program line for exposure control by the APEX method for setting such an aperture. Specifically, the line L0 in FIG. 21 indicates a normal program line, and the line L1 is a program line L1 in a state where the aperture is reduced as much as possible (specifically, the aperture value (F number) is a predetermined value). The program line L1) is (8.0) or more.
このプログラムラインL1は、露出値が閾値(図では13)以上の場合には、絞りを最も絞った状態(F値で11.0)に設定した上でシャッタスピードを設定する。また、露出値がその閾値よりも小さい場合には、少し絞り具合を緩めた絞り値(F値で8.0)に設定した上でシャッタスピードを設定する。さらに、露出値が所定の基準値(ここでは12)より小さくなると、明るさ不足であると判定して複数動画記録モードによる動画撮影が禁止される。 When the exposure value is equal to or greater than a threshold value (13 in the figure), the program line L1 sets the shutter speed after setting the aperture to the most apertured state (F value is 11.0). When the exposure value is smaller than the threshold value, the shutter speed is set after setting the aperture value (F value is 8.0) slightly relaxed. Furthermore, when the exposure value is smaller than a predetermined reference value (here, 12), it is determined that the brightness is insufficient, and movie shooting in the multiple movie recording mode is prohibited.
たとえば、露出値が12の場合には、シャッタスピードが1/60に設定され、絞り値(F値)が8.0に設定される。また、露出値が14の場合には、シャッタスピードが1/125に設定され、絞り値(F値)が11.0に設定される。 For example, when the exposure value is 12, the shutter speed is set to 1/60, and the aperture value (F value) is set to 8.0. When the exposure value is 14, the shutter speed is set to 1/125, and the aperture value (F value) is set to 11.0.
以上のような2つの手法等を用いてAF制御を行うことができる。具体的には、上記の2つの手法の双方を用いてAF制御を行うことができる他、最初の手法のみを用いることも可能である。さらには、第2番目の手法を用いた上で、あらかじめ指定された一方の画像(たとえば画像GF)が常に優先的に合焦状態となるように焦点位置を決定してもよい。 The AF control can be performed using the two methods as described above. Specifically, AF control can be performed using both of the above two methods, and only the first method can be used. Furthermore, after using the second method, the focal position may be determined so that one of the predesignated images (for example, the image GF) is always preferentially focused.
<D.第4実施形態>
第4実施形態は、部分画像の範囲を操作者が設定するのではなく、部分画像の範囲をデジタルカメラが自動的に決定する場合を例示する。第4実施形態は、第1実施形態の変形例であり、以下では第1実施形態との相違点を中心に説明する。
<D. Fourth Embodiment>
The fourth embodiment exemplifies a case where the range of the partial image is not set by the operator but the digital camera automatically determines the range of the partial image. The fourth embodiment is a modification of the first embodiment, and the following description will focus on differences from the first embodiment.
図22は、第4実施形態に係る複数動画記録動作を示すフローチャートであり、図23は、撮影対象画像の一例を示す図である。ここでは、図22、図23などを参照しながら、移動体である飛行機を全体画像GIに基づいて自動的に検出し、検出した移動体を含む領域に対応する部分画像GJ(図26)と、全撮影範囲に対応する全体画像GI(図25)とを、それぞれ別個の動画像ファイルとして記録する場合について例示する。なお、画像GJの位置決定動作を含む各種の動作は、全体制御部30によって行われる。
FIG. 22 is a flowchart showing a plurality of moving image recording operations according to the fourth embodiment, and FIG. 23 is a diagram showing an example of a shooting target image. Here, referring to FIG. 22, FIG. 23, etc., the airplane as a moving object is automatically detected based on the entire image GI, and a partial image GJ (FIG. 26) corresponding to the area including the detected moving object is detected. An example in which the entire image GI (FIG. 25) corresponding to the entire shooting range is recorded as separate moving image files will be described. Various operations including the position determination operation of the image GJ are performed by the
ステップSP31〜ステップSP36においては、動画撮影のための準備動作が行われる。ステップSP37〜ステップSP44においては、動画撮影動作が行われる。また、ステップSP31,SP33,SP35,SP36は、それぞれ、図6のステップSP1,SP3,SP4,SP5と同様の動作であり、ステップSP37,SP38,SP40,SP42,SP43,SP44は、それぞれ、ステップSP6,SP7,SP11,SP8,SP9,SP10と同様の動作である。 In step SP31 to step SP36, a preparation operation for moving image shooting is performed. In step SP37 to step SP44, a moving image shooting operation is performed. Steps SP31, SP33, SP35, and SP36 are the same as steps SP1, SP3, SP4, and SP5 in FIG. 6, respectively, and steps SP37, SP38, SP40, SP42, SP43, and SP44 are respectively steps SP6. , SP7, SP11, SP8, SP9, SP10.
具体的には、ステップSP31で、CCD撮像素子20の読出しモードがドラフトモードに設定された後、ステップSP32では、部分画像GJの撮影範囲の大きさ(サイズ)が設定される。
Specifically, after the reading mode of the
画像GJの大きさは初期状態では所定の基準の大きさに設定されており、その後、LCD5にライブビュー画像に重ねて表示された破線LB(図23)の大きさを、操作者がコントロールボタン7を用いて変更することによって、全撮影範囲における部分画像GJの大きさを指定する。デジタルカメラ1は、この操作者からの指定に基づいて、画像GJの撮影範囲を決定する。
The size of the image GJ is set to a predetermined reference size in the initial state, and then the operator sets the size of the broken line LB (FIG. 23) displayed on the
その後、CCD撮像素子20の全撮影範囲に対応する画像GIが、CCD撮像素子20からドラフトモードで読み出される(ステップSP33)。
Thereafter, the image GI corresponding to the entire photographing range of the CCD
ステップSP34においては、移動被写体の中心位置が算出される。ここでは、図24に示すように、第nフレームの画像GInと第m(>n)フレームの画像GImとを用いて検出する。より具体的には、第nフレームの画像GInと第mフレームの画像GImとの差分画像DGを求め、その差分画像DGの重心位置PGを、移動被写体の中心位置として算出する。差分画像DGにおいては、停止したままのトラックに対応する部分については画像GIn,GImの差分値は検出されず、移動中の飛行機に対応する部分についてのみその差分値が検出されている様子が概念的に示されている。 In step SP34, the center position of the moving subject is calculated. Here, as shown in FIG. 24, detection is performed using an image GIn of the nth frame and an image GIm of the mth (> n) th frame. More specifically, a difference image DG between the image GIn of the nth frame and the image GIm of the mth frame is obtained, and the barycentric position PG of the difference image DG is calculated as the center position of the moving subject. In the difference image DG, the difference value between the images GIn and GIm is not detected for the portion corresponding to the track that has been stopped, and the difference value is detected only for the portion corresponding to the moving airplane. Has been shown.
ステップSP35においては、ライブビュー画像がLCD5に表示される。ライブビュー画像においては、部分画像GJの範囲が破線LB(図27参照)で示される。なお、両画像GIn,GImの差異が検出されない場合(すなわち時間的変化の存在領域が存在しないとき)には、図23に示すように、全体画像GIの中央の指定サイズの領域を画像GJの撮影範囲として設定すればよい。
In step SP35, the live view image is displayed on the
その後、ステップSP36において、シャッタボタン9が全押し状態S2にまで押下され、録画開始指令が入力されたと判定されると、録画開始指令が入力されたとみなし、次のステップSP37以降に進む。それ以外の場合は、引き続き撮影準備動作が行われる。 Thereafter, in step SP36, if it is determined that the shutter button 9 has been fully pressed down to S2 and a recording start command has been input, it is considered that a recording start command has been input, and the process proceeds to the next step SP37 and subsequent steps. In other cases, the shooting preparation operation is continued.
ステップSP37〜ステップSP44においては、動画撮影動作が行われる。 In step SP37 to step SP44, a moving image shooting operation is performed.
ステップSP38においては、画像GIが取得される。次のステップSP39においては、ステップSP34と同様の動作を行い、移動体の中心位置を検出する。そして、移動体の中心位置PGを画像GJの中心位置として設定する。 In step SP38, the image GI is acquired. In the next step SP39, the same operation as in step SP34 is performed to detect the center position of the moving body. Then, the center position PG of the moving body is set as the center position of the image GJ.
ステップSP40においては、ライブビュー画像がLCD5に表示される。このライブビュー表示においては、画像GIにおける画像GJの撮影範囲として指定されたエリアの境界が、破線LBを用いて引き続き明示されている(図27参照)。
In step SP40, the live view image is displayed on the
その後、画像GJに対応する読み出し画素位置が特定され(ステップSP41)、CCD撮像素子20の読み出しモードが部分読み出しモードに変更され(ステップSP42)、特定された領域の画像が読み出される(ステップSP43)。具体的には、図24に示すように、特定された画素位置に対応する複数の水平ライン(詳細には、読み出し開始ラインLUから読み出し終了ラインLDまで)が読み出され、そのうちの一部のブロック(左端の列LLから右端の列LRまでの画素ブロック)を切り出すことによって、ステップSP32で指定されたサイズの画像GJが生成される。
Thereafter, the readout pixel position corresponding to the image GJ is identified (step SP41), the readout mode of the
その後、ステップSP44においては、CCD撮像素子20の読出しモードが再びドラフトモードに再び設定される。
Thereafter, in step SP44, the reading mode of the CCD
以降、ステップSP37において録画終了指令が入力されたと判定されるまで動画撮影処理が繰り返し実行される。 Thereafter, the moving image shooting process is repeatedly executed until it is determined in step SP37 that a recording end command has been input.
この結果、図25に示すような全体を示す一連の画像GI(ここでは、3つの代表画像GI1,GI2,GI3を含む複数の画像GI)で構成される動画像ファイルと、図26に示すようなその一部分を示す一連の画像GJ(ここでは、3つの代表画像GJ1,GJ2,GJ3を含む複数の画像GJ)で構成される動画像ファイルとが生成される。また、図27に示すように、LCD5においては、画像GIに破線LBが付加された状態の画像GK(ここでは、3つの代表画像GK1,GK2,GK3を含む複数の画像GK)がライブビュー画像として示される。上述したように、破線LBで囲まれた矩形領域は、画像GJの撮影領域を示している。
As a result, a moving image file composed of a series of images GI showing the whole as shown in FIG. 25 (here, a plurality of images GI including three representative images GI1, GI2, and GI3), as shown in FIG. A moving image file composed of a series of images GJ showing a part thereof (here, a plurality of images GJ including three representative images GJ1, GJ2, and GJ3) is generated. Also, as shown in FIG. 27, in the
以上のように、部分画像GJの領域を自動的に決定した上で、CCD撮像素子20における読み出しモードをドラフトモードと部分読み出しモードとの間で交互に切り替えて全体画像GIと部分画像GJとを読み出し、さらに両画像GI,GJを交互に記録することが可能になる。
As described above, after the area of the partial image GJ is automatically determined, the readout mode in the CCD
<E.第5実施形態>
第5実施形態においては、CCD撮像素子20の駆動モード(読み出しモード)を切り替えることなく、視野の異なる複数の動画像を記録する場合について説明する。第5実施形態は、第1実施形態の変形例であり、以下では第1実施形態との相違点を中心に説明する。
<E. Fifth Embodiment>
In the fifth embodiment, a case will be described in which a plurality of moving images having different fields of view are recorded without switching the driving mode (reading mode) of the
図28は、第5実施形態に係る複数動画記録動作を示すフローチャートである。ここでは、ドラフトモードを用いてCCD撮像素子20から読み出した画像に基づいて2つの動画像GP,GQ(図29参照)を記録する場合について例示する。
FIG. 28 is a flowchart showing the multiple moving image recording operation according to the fifth embodiment. Here, a case where two moving images GP and GQ (see FIG. 29) are recorded based on an image read from the CCD
ステップSP61〜ステップSP65においては、動画撮影のための準備動作が行われ、ステップSP67〜ステップSP69においては、動画記録動作が行われる。ステップSP61,SP62,SP63,SP64,SP67,SP69は、それぞれ、第1実施形態におけるステップSP1,SP2,SP3,SP4,SP7,SP9(図6)と同様の動作であり、ステップSP68の動作(すなわち部分画像GQの取得動作)は第1実施形態と異なっている。 In step SP61 to step SP65, a preparation operation for moving image shooting is performed, and in step SP67 to step SP69, a moving image recording operation is performed. Steps SP61, SP62, SP63, SP64, SP67, and SP69 are the same as steps SP1, SP2, SP3, SP4, SP7, and SP9 (FIG. 6) in the first embodiment, respectively, and the operation of step SP68 (ie, The operation for acquiring the partial image GQ is different from that of the first embodiment.
具体的には、ステップSP61で、CCD撮像素子20の読出しモードがドラフトモードに設定された後、ステップSP62では、部分画像GQの撮影範囲の位置などが設定される。部分画像GQの撮影範囲の設定方法は、第1実施形態と同様である。
Specifically, after the reading mode of the
その後、CCD撮像素子20の全撮影範囲に対応する画像GPが、CCD撮像素子20からドラフトモードで読み出される(ステップSP63)。この画像GPは、上述の画像GA3(図7参照)と同一の生成過程により得られる画像である。
Thereafter, an image GP corresponding to the entire photographing range of the
ステップSP64においては、ライブビュー画像がLCD5に表示される。このライブビュー画像においては、第1実施形態と同様、部分画像GQの撮影領域を示す破線が全体画像GPに付加された状態で表示される。
In step SP64, the live view image is displayed on the
その後、ステップSP65において、記録動作を行うか否かを判定する。ここでは、シャッタボタン9が全押し状態S2にまで押下され続けているときに、録画指令が入力され続けていると判定する。言い換えれば、シャッタボタン9の全押し状態S2にされた瞬間が録画開始指令が入力された瞬間であり、シャッタボタン9の全押し状態S2が解除された瞬間が録画終了指令が入力された瞬間である。録画指令が入力されているときには、次のステップSP67以降に進む。それ以外の場合は、ステップSP61に戻り、引き続き撮影準備動作が行われる。なお、これに限定されず、第1実施形態と同様の操作によって録画開始と録画終了とを指示するようにしてもよい。 Thereafter, in step SP65, it is determined whether or not to perform a recording operation. Here, it is determined that the recording command is continuously input when the shutter button 9 is continuously pressed down to the fully pressed state S2. In other words, the moment when the shutter button 9 is fully pressed S2 is the moment when the recording start command is input, and the moment when the shutter button 9 is fully pressed S2 is the moment when the recording end command is input. is there. When the recording command is input, the process proceeds to the next step SP67 and subsequent steps. In other cases, the process returns to step SP61, and the shooting preparation operation is continued. However, the present invention is not limited to this, and the start and end of recording may be instructed by the same operation as in the first embodiment.
ステップSP67,SP68,SP69においては、動画撮影動作が行われる。 In steps SP67, SP68, and SP69, a moving image shooting operation is performed.
ステップSP67においては、全体画像GPが動画像として記録される。図29に示すように、全体画像GPは、ステップSP63で読み出された画像GA3と同一の画像である。 In step SP67, the entire image GP is recorded as a moving image. As shown in FIG. 29, the entire image GP is the same image as the image GA3 read in step SP63.
次のステップSP68においては、図29に示すように、ステップSP63で読み出された画像GA3(GP)からその一部の領域を部分画像GQとして抽出する。抽出対象領域は、破線LBで囲まれた領域である。 In the next step SP68, as shown in FIG. 29, a partial region is extracted as a partial image GQ from the image GA3 (GP) read in step SP63. The extraction target area is an area surrounded by a broken line LB.
このとき、部分画像GQの解像度(ないし画素サイズ)は画像GPよりも小さくなるが、全体画像GPの画素サイズを大きな値とすること、および/または、部分画像GQの全体画像GPに対する相対的な大きさなどを適切に設定することによれば、実用上十分な程度の解像度とすることが可能である。また、画像GQは画像GPから抽出された画像であるため、画像GQ,GPは、厳密に同時に(同じ瞬間に)撮像された画像となっている。 At this time, the resolution (or pixel size) of the partial image GQ is smaller than that of the image GP, but the pixel size of the overall image GP is set to a large value and / or the relative image of the partial image GQ with respect to the overall image GP. By appropriately setting the size and the like, it is possible to achieve a practically sufficient resolution. Further, since the image GQ is an image extracted from the image GP, the images GQ and GP are images taken at the same time (at the same moment).
その後、所定の拡大処理を施すことによって、部分画像GQのサイズを全体画像GPのサイズと合わせる。なお、画像サイズを合わせる必要がない場合には、抽出した画像のサイズを変更しなくてもよい。 Thereafter, by performing a predetermined enlargement process, the size of the partial image GQ is matched with the size of the whole image GP. Note that if it is not necessary to match the image size, the size of the extracted image need not be changed.
ステップSP69では、この画像GQを動画像として記録する。ここでは、画像GP,GQを別個の動画像ファイルとして記録する。 In step SP69, this image GQ is recorded as a moving image. Here, the images GP and GQ are recorded as separate moving image files.
以降、ステップSP65において録画終了指令が入力されたと判定されるまで動画撮影処理が繰り返し実行される。 Thereafter, the moving image shooting process is repeatedly executed until it is determined in step SP65 that a recording end command has been input.
上記のような動作によれば、CCD撮像素子20の全体エリアに対応する画像データをドラフトモードで一度に読出し、その全体エリアの画像GP自体とその全体エリアの一部エリアの画像GQとを、それぞれ、全体エリアおよびその一部エリアに対応する画像GP,GQとして抽出し、その2つの画像GP,GQを交互に記録して、2つの動画データを作成することができる。複数のカメラを準備する必要がないので、視野が異なる複数の画像を手軽に撮影することが可能である。
According to the operation as described above, image data corresponding to the entire area of the
<F.その他>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
<F. Other>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.
たとえば、上記第4実施形態においては、全エリアに対応する画像GIのうち時間的変化が存在する領域を、部分画像GJのエリアとして決定する場合について説明したが、これに限定されない。たとえば、所定値以上の輝度を有する領域(すなわち明るい領域)を部分画像GJのエリアとして決定してもよい。あるいは、特定色のエリアを部分画像GJのエリアとして決定してもよい。特定色のエリアであるか否かは、そのエリアの色相を検出することなどによって判定すればよい。 For example, in the fourth embodiment described above, a case has been described in which a region in which a temporal change exists in the image GI corresponding to all areas is determined as the area of the partial image GJ, but is not limited thereto. For example, an area having a luminance equal to or higher than a predetermined value (that is, a bright area) may be determined as the area of the partial image GJ. Or you may determine the area of a specific color as an area of the partial image GJ. Whether or not an area is a specific color may be determined by detecting the hue of the area.
なお、上述した具体的実施形態には以下の構成を有する発明が含まれている。 The specific embodiment described above includes an invention having the following configuration.
(1)撮像装置であって、
撮影光学系と当該撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子とを有する単一の撮像手段と、
前記撮像素子における第1エリアに対応する画像データと前記撮像素子における第2エリアに対応する画像データとを前記撮像素子から交互に読み出す読出手段と、
前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを記録する記録手段と、
を備えることを特徴とする撮像装置。
(1) An imaging device,
A single imaging means having an imaging optical system and an imaging element that captures a subject image from the imaging optical system using photoelectric conversion;
Read means for alternately reading out image data corresponding to the first area in the image sensor and image data corresponding to the second area in the image sensor from the image sensor;
Recording means for recording image data corresponding to the first area and image data corresponding to the second area;
An imaging apparatus comprising:
(2)撮像装置であって、
撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子と、
単一の録音部と、
前記撮像素子による撮影画像に設定された複数の撮像エリアに対応する動画像データのそれぞれに対して、前記録音部によって得られる音声データを付加することによって、複数の音声データ付き動画ファイルを作成する手段と、
前記複数の音声データ付き動画ファイルを記録する記録手段と、
を備えることを特徴とする撮像装置。
(2) An imaging device,
An image sensor that captures a subject image from the imaging optical system using photoelectric conversion;
A single recording unit,
A plurality of moving image files with audio data are created by adding audio data obtained by the recording unit to each of moving image data corresponding to a plurality of imaging areas set in a captured image by the imaging element. Means,
Recording means for recording the plurality of video files with audio data;
An imaging apparatus comprising:
(3)撮像装置であって、
撮影光学系と当該撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子とを有する単一の撮像手段と、
前記撮像素子における複数のエリアのそれぞれに対応する画像データを、互いに異なる複数の動画ファイルとして記録する記録手段と、
を備え、
前記記録手段は、前記複数の動画ファイルを、そのファイル名に関連性を持たせて記録することを特徴とする撮像装置。
(3) An imaging device,
A single imaging means having an imaging optical system and an imaging element that captures a subject image from the imaging optical system using photoelectric conversion;
Recording means for recording image data corresponding to each of a plurality of areas in the image sensor as a plurality of different moving image files;
With
The image recording apparatus, wherein the recording unit records the plurality of moving image files with relevance to the file names.
(4)前記(1)に記載の撮像装置において、
前記読出手段は、前記撮像素子の駆動方式を切り替えて、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを交互に読み出すことを特徴とする撮像装置。
(4) In the imaging device according to (1),
The image pickup apparatus, wherein the reading unit reads the image data corresponding to the first area and the image data corresponding to the second area alternately by switching a driving method of the image pickup element.
(5)前記(1)に記載の撮像装置において、
前記読出手段は、前記撮像素子の読出し画素の指定位置を切り替えて、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを交互に読み出すことを特徴とする撮像装置。
(5) In the imaging device according to (1),
The image pickup apparatus, wherein the reading means switches the designated position of the read pixel of the image pickup device and alternately reads image data corresponding to the first area and image data corresponding to the second area.
(6)前記(1)に記載の撮像装置において、
前記第1エリアと前記第2エリアとの位置関係を示した状態で、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを表示する表示手段、
をさらに備えることを特徴とする撮像装置。これによれば、位置関係を明確に把握できる。
(6) In the imaging device according to (1),
Display means for displaying image data corresponding to the first area and image data corresponding to the second area in a state in which the positional relationship between the first area and the second area is shown;
An image pickup apparatus further comprising: This makes it possible to clearly grasp the positional relationship.
(7)前記(6)に記載の撮像装置において、
前記第2エリアは前記第1エリアに包含される一部のエリアであり、
前記表示手段は、前記第1エリア内での前記第2エリアの境界を表示した状態で、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを表示することを特徴とする撮像装置。これによれば、部分記録する第2エリアの前記第1エリア内での位置を容易に把握できるので、操作性が高い。
(7) In the imaging device according to (6),
The second area is a part of the area included in the first area,
The display means displays image data corresponding to the first area and image data corresponding to the second area in a state where a boundary of the second area in the first area is displayed. An imaging device. According to this, since the position of the second area to be partially recorded in the first area can be easily grasped, the operability is high.
(8)前記(6)に記載の撮像装置において、
前記表示手段は、前記第1エリアと前記第2エリアとを包含する第3エリアに対応する画像データを表示し、且つ、当該第3エリア内での前記第1エリアの境界および前記第2エリアの境界を表示した状態で前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを表示することを特徴とする撮像装置。これによれば、部分記録する第1エリアおよび第2エリアの前記第3エリア内での位置を容易に把握できるので、操作性が高い。
(8) In the imaging device according to (6),
The display means displays image data corresponding to a third area including the first area and the second area, and the boundary of the first area in the third area and the second area An image pickup apparatus, wherein image data corresponding to the first area and image data corresponding to the second area are displayed in a state in which the boundary is displayed. According to this, since the positions of the first area and the second area to be partially recorded in the third area can be easily grasped, the operability is high.
(9)前記(1)に記載の撮像装置において、
前記記録手段は、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを、バッファメモリから記録媒体に交互に転送して、交互に記録することを特徴とする撮像装置。これによれば、バッファメモリの容量を抑制することができる。
(9) In the imaging device according to (1),
The image recording apparatus is characterized in that the recording unit alternately transfers the image data corresponding to the first area and the image data corresponding to the second area from the buffer memory to the recording medium, and records them alternately. . According to this, the capacity of the buffer memory can be suppressed.
(10)前記(3)に記載の撮像装置において、
前記ファイル名は、前記複数の動画ファイルの撮影対象エリアを識別する識別部分と、各動画ファイルに対してその撮影対象エリアの異同にかかわらず一意に付与される連続番号を示すファイル番号部分とを有していることを特徴とする撮像装置。これによれば、動画ファイルのファイル名は、撮影対象エリアを識別する識別部分を有しているので、操作者は各動画ファイルの撮影対象エリアを容易に認識できる。また、動画ファイルのファイル名のファイル番号部分は、各動画ファイルに対してその撮影対象エリアの異同にかかわらず一意に付与される連続番号である。したがって、その撮影対象エリアが異なるファイルに対して同一のファイル番号が付与されることが無いので、ファイル番号の異同で動画ファイルの異同を判断できる。さらに、連続番号のファイルに関連性があることを容易に認識できる。
(10) In the imaging device according to (3),
The file name includes an identification part for identifying shooting target areas of the plurality of moving image files, and a file number part indicating a serial number uniquely assigned to each moving image file regardless of differences in shooting target areas. An imaging apparatus comprising: According to this, since the file name of the moving image file has an identification part for identifying the shooting target area, the operator can easily recognize the shooting target area of each moving image file. The file number portion of the file name of the moving image file is a serial number that is uniquely assigned to each moving image file regardless of the difference in the shooting target area. Accordingly, since the same file number is not assigned to files having different shooting target areas, it is possible to determine the difference between moving image files based on the difference in file number. Furthermore, it can be easily recognized that the serial number files are related.
(11)前記(1)に記載の撮像装置において、
前記第1エリアは前記第2エリアを包含し、
前記撮像装置は、
前記第1エリアおよび前記第2エリアのそれぞれに対応する各画像データについての露出制御における制御パラメータを、前記第1エリアに対応する画像データに基づいて決定する露出制御手段、
をさらに備えることを特徴とする撮像装置。これによれば、2つの画像データ(第1エリアおよび第2エリアのそれぞれに対応する画像データ)についての露出制御における制御パラメータを、一方の第1エリアの画像データに基づいて決定するので、効率的である。
(11) In the imaging device according to (1),
The first area includes the second area;
The imaging device
Exposure control means for determining a control parameter in exposure control for each image data corresponding to each of the first area and the second area based on the image data corresponding to the first area;
An image pickup apparatus further comprising: According to this, since the control parameter in the exposure control for the two image data (image data corresponding to each of the first area and the second area) is determined based on the image data of one first area, the efficiency Is.
(12)前記(1)に記載の撮像装置において、
前記第1エリアは前記第2エリアを包含し、
前記撮像装置は、
前記第1エリアおよび前記第2エリアのそれぞれに対応する各画像データについてのホワイトバランス制御における制御パラメータを、前記第1エリアに対応する画像データに基づいて決定するホワイトバランス制御手段、
をさらに備えることを特徴とする撮像装置。これによれば、2つの画像データ(第1エリアおよび第2エリアのそれぞれに対応する画像データ)についてのホワイトバランス制御における制御パラメータを、一方の第1エリアの画像データに基づいて決定するので、効率的である。
(12) In the imaging device according to (1),
The first area includes the second area;
The imaging device
White balance control means for determining a control parameter in white balance control for each image data corresponding to each of the first area and the second area based on the image data corresponding to the first area;
An image pickup apparatus further comprising: According to this, since the control parameter in the white balance control for the two image data (image data corresponding to each of the first area and the second area) is determined based on the image data of one first area, Efficient.
(13)前記(1)に記載の撮像装置において、
前記第1エリアは前記第2エリアを包含し、
前記撮像装置は、
前記第1エリアおよび前記第2エリアのそれぞれに対応する各画像データについての合焦制御における制御パラメータを、前記第2エリアの画像データに基づいて定める合焦制御手段、
をさらに備えることを特徴とする撮像装置。これによれば、2つの画像データ(第1エリアおよび第2エリアのそれぞれに対応する画像データ)についての合焦制御における制御パラメータを、一方の第2エリアの画像データに基づいて決定するので、効率的である。
(13) In the imaging device according to (1),
The first area includes the second area;
The imaging device
Focusing control means for determining a control parameter in focusing control for each image data corresponding to each of the first area and the second area based on the image data of the second area;
An image pickup apparatus further comprising: According to this, since the control parameter in the focus control for the two image data (image data corresponding to each of the first area and the second area) is determined based on the image data of one second area, Efficient.
(14)前記(1)に記載の撮像装置において、
前記第1エリアおよび前記第2エリアのそれぞれに対応する各被写体がともに合焦するように前記撮影光学系の絞りを制御する絞り制御手段、
をさらに備えることを特徴とする撮像装置。これによれば、第1エリアおよび第2エリアのそれぞれに対応する各被写体がともに合焦するように撮影光学系の絞りが制御されるので、光学系における焦点移動を減少させることができる。
(14) In the imaging device according to (1),
Aperture control means for controlling the aperture of the photographing optical system so that the respective subjects corresponding to the first area and the second area are in focus,
An image pickup apparatus further comprising: According to this, since the aperture of the photographing optical system is controlled so that the respective subjects corresponding to the first area and the second area are in focus, it is possible to reduce the focal movement in the optical system.
(15)請求項1に記載の撮像装置において、
前記制御手段は、前記第1エリアにおいて時間的変化が検出された領域を前記第2エリアとして決定することを特徴とする撮像装置。
(15) In the imaging device according to
The image pickup apparatus, wherein the control unit determines an area in which a temporal change is detected in the first area as the second area.
(16)請求項1に記載の撮像装置において、
前記制御手段は、前記第1エリアにおいて時間的変化が検出されないときには、前記第1エリアの中央の所定領域を前記第2エリアとして決定することを特徴とする撮像装置。これによれば、時間的変化が検出されないときでも第2エリアを決定することができる。
(16) In the imaging device according to
The control unit determines a predetermined area at the center of the first area as the second area when a temporal change is not detected in the first area. This makes it possible to determine the second area even when no temporal change is detected.
1 デジタルカメラ
2 撮影レンズ
4 EVF
5 LCD
9 シャッタボタン
14 マイク
15 スピーカ
20 CCDセンサ(撮像素子)
20B CMOSセンサ(撮像素子)
90 メモリカード
MA ドラフトモード
MB,MB1,MB2 部分読出モード
1
5 LCD
9
20B CMOS sensor (image sensor)
90 Memory card MA Draft mode MB, MB1, MB2 Partial readout mode
Claims (2)
撮影光学系と当該撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子とを有する単一の撮像手段と、
前記撮像素子における第1エリアに対応する画像データに基づいて、前記第1エリアの一部のエリアを第2エリアとして決定する制御手段と、
前記第1エリアに対応する第1動画データを構成するフレーム画像と前記第2エリアに対応する第2動画データを構成するフレーム画像とを前記撮像素子から交互に読み出す読出手段と、
前記第1動画データと前記第2動画データとを記録する記録手段と、
を備えることを特徴とする撮像装置。 An imaging device comprising:
A single imaging means having an imaging optical system and an imaging element that captures a subject image from the imaging optical system using photoelectric conversion;
Control means for determining a part of the first area as a second area based on image data corresponding to the first area in the image sensor;
Reading means for alternately reading out frame images constituting the first moving image data corresponding to the first area and frame images constituting the second moving image data corresponding to the second area from the image sensor;
Recording means for recording the first moving image data and the second moving image data;
An imaging apparatus comprising:
撮影光学系と当該撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子とを有する単一の撮像手段と、
前記撮像素子における第1エリアおよび第2エリアを含むエリアに対応する画像データを前記撮像素子から一度に読み出す読出手段と、
前記読出手段により読み出された画像データから、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを抽出し、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを交互に記録して2つの動画データを作成する記録手段と、
を備えることを特徴とする撮像装置。
An imaging device comprising:
A single imaging means having an imaging optical system and an imaging element that captures a subject image from the imaging optical system using photoelectric conversion;
Reading means for reading image data corresponding to areas including the first area and the second area in the image sensor at a time from the image sensor;
Image data corresponding to the first area and image data corresponding to the second area are extracted from the image data read by the reading means, and the image data corresponding to the first area and the second area are extracted. Recording means for alternately recording image data corresponding to the above and creating two moving image data;
An imaging apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005306039A JP2006042399A (en) | 2005-10-20 | 2005-10-20 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005306039A JP2006042399A (en) | 2005-10-20 | 2005-10-20 | Imaging apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002353494A Division JP3778163B2 (en) | 2002-12-05 | 2002-12-05 | Imaging device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006042399A true JP2006042399A (en) | 2006-02-09 |
Family
ID=35906778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005306039A Pending JP2006042399A (en) | 2005-10-20 | 2005-10-20 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006042399A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008061105A (en) * | 2006-09-01 | 2008-03-13 | Sega Corp | Automatic photo studio |
JP2008083097A (en) * | 2006-09-25 | 2008-04-10 | Nikon Corp | Focusing device, camera, and focusing method |
JP2008185611A (en) * | 2007-01-26 | 2008-08-14 | Nikon Corp | Imaging apparatus |
JP2008242182A (en) * | 2007-03-28 | 2008-10-09 | Nikon Corp | Focus detection device, focus detection method and imaging apparatus |
JP2009171545A (en) * | 2007-12-19 | 2009-07-30 | Canon Inc | Image pickup system, method for driving image pickup elements, program, and recording medium |
JP2010226228A (en) * | 2009-03-19 | 2010-10-07 | Canon Inc | Imaging apparatus and imaging method |
JP2011248749A (en) * | 2010-05-28 | 2011-12-08 | Panasonic Electric Works Sunx Co Ltd | Image processing apparatus |
KR101811717B1 (en) * | 2011-11-14 | 2018-01-25 | 삼성전자주식회사 | Zoom control method and apparatus, and digital photographing apparatus |
-
2005
- 2005-10-20 JP JP2005306039A patent/JP2006042399A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008061105A (en) * | 2006-09-01 | 2008-03-13 | Sega Corp | Automatic photo studio |
JP4720684B2 (en) * | 2006-09-01 | 2011-07-13 | 株式会社セガ | Automatic photo studio |
JP2008083097A (en) * | 2006-09-25 | 2008-04-10 | Nikon Corp | Focusing device, camera, and focusing method |
JP2008185611A (en) * | 2007-01-26 | 2008-08-14 | Nikon Corp | Imaging apparatus |
JP2008242182A (en) * | 2007-03-28 | 2008-10-09 | Nikon Corp | Focus detection device, focus detection method and imaging apparatus |
JP2009171545A (en) * | 2007-12-19 | 2009-07-30 | Canon Inc | Image pickup system, method for driving image pickup elements, program, and recording medium |
JP2010226228A (en) * | 2009-03-19 | 2010-10-07 | Canon Inc | Imaging apparatus and imaging method |
JP2011248749A (en) * | 2010-05-28 | 2011-12-08 | Panasonic Electric Works Sunx Co Ltd | Image processing apparatus |
KR101811717B1 (en) * | 2011-11-14 | 2018-01-25 | 삼성전자주식회사 | Zoom control method and apparatus, and digital photographing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3778163B2 (en) | Imaging device | |
JP5025532B2 (en) | Imaging apparatus, imaging apparatus control method, and imaging apparatus control program | |
JP4158592B2 (en) | Auto white balance adjustment method and camera to which this method is applied | |
JP4697606B2 (en) | Imaging apparatus and focus control method | |
JP4730553B2 (en) | Imaging apparatus and exposure control method | |
JP6325841B2 (en) | Imaging apparatus, imaging method, and program | |
JP2008182485A (en) | Photographing device and photographing method | |
JP2006042399A (en) | Imaging apparatus | |
JP5849389B2 (en) | Imaging apparatus and imaging method | |
KR101737086B1 (en) | Digital photographing apparatus and control method thereof | |
JP2009048136A (en) | Focusing device and focusing method | |
JP2008109485A (en) | Imaging apparatus and imaging control method | |
JP5245636B2 (en) | Electronics | |
JP2007299339A (en) | Image reproducing device, method and program | |
US20130063621A1 (en) | Imaging device | |
JP2007325152A (en) | Imaging device, and program thereof | |
JP2007116372A (en) | Digital camera | |
JP3826885B2 (en) | Electronic camera | |
JP4264808B2 (en) | Moving image processing apparatus and method | |
JP2010050784A (en) | Digital camera | |
JP2009130464A (en) | Image processing apparatus, method of controlling image processing apparatus, and computer program | |
JP4966680B2 (en) | Video playback device, video playback method, and imaging device | |
JP4433297B2 (en) | Imaging apparatus and image reproduction apparatus | |
JP2007053482A (en) | Imaging apparatus | |
JP4991602B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20070827 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20070920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080401 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080729 |