JP2004109247A - Digital camera, image processor, and program - Google Patents

Digital camera, image processor, and program Download PDF

Info

Publication number
JP2004109247A
JP2004109247A JP2002268951A JP2002268951A JP2004109247A JP 2004109247 A JP2004109247 A JP 2004109247A JP 2002268951 A JP2002268951 A JP 2002268951A JP 2002268951 A JP2002268951 A JP 2002268951A JP 2004109247 A JP2004109247 A JP 2004109247A
Authority
JP
Japan
Prior art keywords
image
images
photographing
digital camera
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002268951A
Other languages
Japanese (ja)
Inventor
Katsuyuki Mori
森 克之
Katsuhito Shinkawa
新川 勝仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2002268951A priority Critical patent/JP2004109247A/en
Publication of JP2004109247A publication Critical patent/JP2004109247A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Lens Barrels (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital camera which can acquire a plurality of images varying in their compositions from each other, an image processor, and a program. <P>SOLUTION: The digital camera (the image processor) is provided with a zoom lens, a shutter button and a CCD (Charge Coupled Device) imaging device. The digital camera moves the lens position of the zoom lens from the first position by the operator's setting at the point of the time the shutter button is pushed to the second position on the wider angle side than the first position and thereafter the digital camera photographs the wide-angle image (the image corresponding to a region R1) by the CCD imaging device. Thence, the digital camera extracts a plurality of the regions (the regions R0, R2, etc.) having the size corresponding to the angle of view in the first position and varying in the positions within the images from each other as a plurality of the images from the photographed images. As a result, a plurality of the images varying in the compositions from each other are acquired. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、デジタルカメラ、画像処理装置、およびプログラムに関する。
【0002】
【従来の技術】
デジタルカメラの中には、たとえば特許文献1に示されるように、露出、フラッシュ発光量、色温度(ホワイトバランス)については、一度のシャッタボタンの押下に応じて、複数の画像が撮影されるブラケット撮影を行うことができるものが存在する。
【0003】
このようなブラケット撮影においては、露出などの条件を変更しながら複数の画像を撮影しておき、撮影後にその複数の画像の中から最適な画像を選択することができる。
【0004】
【特許文献1】
特開2001−285779号公報
【0005】
【発明が解決しようとする課題】
ところで、写真の善し悪しを決める要因としては、上記の露出、フラッシュ発光量、色温度に関する撮影条件以外に、「構図」(ないしフレーミング)が存在する。
【0006】
しかしながら、上記のブラケット撮影としては、上記の露出、フラッシュ発光量、色温度の少なくとも1つの撮影条件を変更しつつ複数の画像を取得するものは存在するが、「構図」(ないしフレーミング)を変更しつつ複数の画像を取得するものは存在しなかった。
【0007】
そのため、撮影画像の構図が撮影者の意図する構図と相違していた場合には、撮影をやり直すか、あるいは、撮影後に手動操作でトリミングを行うことになってしまうという問題がある。また、手動操作によるトリミング作業は、その操作が非常に困難なものである。
【0008】
そこで、本発明は前記問題点に鑑み、その構図が互いに異なる複数の画像を取得することが可能なデジタルカメラ、画像処理装置、およびプログラムを提供することを目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するため、請求項1の発明は、デジタルカメラであって、光学ズームを行うことが可能なズームレンズと、撮影開始の指示入力を受け付ける入力手段と、前記ズームレンズのレンズ位置を、前記指示入力時の操作者の設定による第1の位置から、前記第1の位置よりも広角側の第2の位置へと移動させた状態で、前記ズームレンズからの被写体像を光電変換を用いて画像として取得する撮像手段と、前記撮像手段により取得された画像から、前記第1の位置における画角に対応する大きさを有し且つ前記画像内における位置が互いに異なる複数の領域を複数の画像として抽出することによって、構図ブラケット撮影を行う制御手段と、を備える。
【0010】
請求項2の発明は、デジタルカメラであって、撮影レンズと、前記撮影レンズからの被写体像を光電変換を用いて画像として取得する撮像素子と、前記撮影レンズの光軸に対する垂直面内において、前記撮影素子を前記撮影レンズに対して相対的に移動させる移動手段と、撮影開始の指示入力を受け付ける入力手段と、前記指示入力に応じて、前記撮像素子と前記撮影レンズとを前記垂直面内において相対的に移動させた複数の位置において前記撮像素子による撮影を行い複数の画像を取得することによって、構図ブラケット撮影を行う制御手段と、を備える。
【0011】
請求項3の発明は、デジタルカメラであって、撮影光学系と、前記撮影光学系からの被写体像を光電変換を用いて画像として取得する撮像手段と、異なる構図の複数の画像を取得する構図ブラケットモードを撮影モードとして設定する設定手段と、前記撮影モードとして前記構図ブラケットモードが設定されている場合には、互いに異なる構図を有する複数の画像を、構図以外の撮影条件のうち少なくとも1つの条件を同一にした状態で取得するように制御する制御手段と、を備える。
【0012】
請求項4の発明は、画像処理装置であって、処理対象となる対象画像を取得する取得手段と、処理開始の指示入力を受け付ける入力手段と、前記指示入力に応じて、前記対象画像よりも小さく且つ前記対象画像内での位置が互いに異なる複数の領域を前記対象画像から抽出することにより、互いに異なる構図を有する複数の画像を生成する生成手段と、を備える。
【0013】
請求項5の発明は、コンピュータを、処理対象となる対象画像を取得する取得手段と、処理開始の指示入力を受け付ける入力手段と、前記指示入力に応じて、前記対象画像よりも小さく且つ前記対象画像内での位置が互いに異なる複数の領域を前記対象画像から抽出することにより、互いに異なる構図を有する複数の画像を生成する生成手段と、として機能させるためのプログラムである。
【0014】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0015】
<A.第1実施形態>
<A1.構成>
図1、図2及び図3は、本発明の実施形態に係るデジタルカメラ1の外観構成を示す図であり、図1は正面図、図2は上面図、図3は背面図に相当する。これらの図は必ずしも三角図法に則っているものではなく、デジタルカメラ1の外観を例示することを主眼としている。このデジタルカメラは、撮像装置として機能するほか、画像処理装置としても機能する。
【0016】
デジタルカメラ1の正面側には撮影レンズ2が設けられる。この撮影レンズ2はズーム機能(光学ズーム機能)を有するズームレンズであり、光学ズームを行うこと(言い換えれば、画角を調整すること)が可能である。この光学ズームは、撮影レンズ2の焦点距離を変更することによって実現される。焦点距離は、所定の範囲で変更される。このデジタルカメラ1においては、焦点距離は、28mm(ワイド端)から210mm(テレ端)までの間で変更されるものとする。なお、この明細書においては、焦点距離を、35mmフィルムカメラにおける焦点距離に換算した値(35mmフィルム換算値、35mm相当値ともいう)で表記するものとする。
【0017】
撮影者はズームリング2aを用いることによって、撮影画像の撮影倍率を指定することができる。具体的には、ズームリング2aを手動操作で回動させることなどによって撮影倍率の変更を行うことが可能である。また、このズームリング2aは、光学ズームを行うための操作用スイッチとして機能する。より詳細には、ズームリング2aは、デジタルカメラの内部の弾性部材によって、基準位置(ホームポジション)へと復帰させる弾性力(復元力)を受けた状態で支持されている。この状態では撮影レンズ2のレンズ位置はその位置に停止している。その後、操作者がこの復元力に抗してズームリング2aを手動操作により回転させると、ズームリング2aは、その基準位置から所定の角度まで任意の角度にまで回転される。デジタルカメラ1は、デジタルカメラ1の内部に設けられた回転検出センサーによって、ズームリング2aの基準位置からのずれを検出する。デジタルカメラ1は、このずれを検出すると、レンズ駆動部41(図4)のズームモータを駆動して、撮影レンズ2のレンズ位置を移動させる。これにより、光学ズームにおける倍率(言い換えれば画角)が変更される。なお、このレンズ位置の移動速度は、検出された回転角度に基づいて調整されることが好ましい。たとえば、回転角度が大きい場合には回転角度が小さいよりも高速で移動させればよい。これによれば、光学ズームにおける倍率の調整が容易になる。
【0018】
このようにして、撮影レンズ2の焦点距離が変更されることによって、撮影レンズ2の光学ズームにおける撮影倍率が変更される。なお、デジタルカメラ1は、後述するように、ズームリング2aを用いた手動操作以外によっても、全体制御部30およびレンズ駆動部41の制御下において撮影レンズ2の位置を変更すること(言い換えれば、光学ズームにおける撮影倍率を変更すること)ができる。
【0019】
また、デジタルカメラ1のグリップ部1aの上部にはシャッタボタン(レリーズボタン)9が設けられており、該シャッタボタン9はユーザによる半押し状態(以下、状態S1とも称する)と全押し状態(以下、状態S2とも称する)とを区別して検出可能な2段階押し込みスイッチとなっている。デジタルカメラ1は、自動合焦モードが設定されている場合には半押し状態S1のときに自動合焦制御を開始し、全押し状態S2のときに記録用画像を撮影するための本撮影動作を開始する。ここでは、シャッタボタン9が前者の状態(すなわち半押し状態S1)にされた時点で、操作者(ユーザ)からの撮影開始の指示入力が受け付けられたと認識するものとする。
【0020】
また、デジタルカメラ1の上面には、「撮影モード」と「再生モード」とを切替設定するモード切替え用のダイヤル3が設けられている。撮影モードは被写体の撮影を行って画像データの生成を行うモードである。また、再生モードはメモリカード90に記録された画像データを、デジタルカメラ1の背面側に設けられた液晶表示部(以下、LCDという。)5に再生表示するモードである。
【0021】
具体的には、撮影モードを示す「撮影」が表示された部分を所定の位置(図2の三角印MT)にまで回転移動させることによって、撮影モードに設定することができる。また、再生モードを示す「再生」が表示された部分を所定の位置(図2の三角印MT)にまで回転移動させることによって、再生モードに設定することができる。
【0022】
また、このダイヤル3は、電源のオン操作およびオフ操作を受け付けるためにも用いられる。すなわち、ダイヤル3は電源操作部とも称することができる。具体的には、ダイヤル3の「OFF」が表示されている部分を所定の位置(図2の三角印)にまで回転移動させることによって、電源をオフにする操作(電源オフ操作)が行われる。
【0023】
デジタルカメラ1の背面には、本撮影動作前のライブビュー表示及び記録画像の再生表示等を行うためのLCD5と電子ビューファインダ(以下、EVFという。)4とが設けられている。このLCD5およびEVF4では、それぞれカラー画像の表示が行われる。LCD5およびEVF4は、それぞれ、所定の画素サイズ(たとえば320画素×240画素の画素数)を有している。
【0024】
また、デジタルカメラ1の背面にはメニューボタン6が設けられており、例えば、撮影モード時にメニューボタン6が押下されると、各種撮影条件等を設定するための各種メニュー画面がLCD5に表示される。また、デジタルカメラ1の背面には、LCD5における表示カーソルを4方向に移動させるための十字カーソルボタン7U,7D,7L,7R、及び十字カーソルボタンの中央部に設けられる決定ボタン7Cで構成されるコントロールボタン7が設けられる。これらメニューボタン6及びコントロールボタン7を用いて各種撮影パラメータの設定操作が行われる。各種撮影パラメータの設定状態はデジタルカメラ1の上面側に配置されるデータパネル8に表示される。また、デジタルカメラ1の背面には、ライブビュー表示時にLCD5に表示される表示内容(特に撮影情報の表示状態)を切り替えるための切替ボタン13が設けられている。
【0025】
さらに、デジタルカメラ1の側面には、合焦モードを自動合焦モードと手動合焦モードとで切り替えるための合焦モード切替ボタン12が設けられている。
【0026】
また、デジタルカメラ1の側面には、図5(a)にも示すように、デジタルカメラ1の設定状態(画像サイズ、画質、露出モード、ドライブモード、ホワイトバランス、撮像感度)に関する操作を行うためのファンクション操作部11が設けられている。このファンクション操作部11は、中央部に設けられたファンクションボタン11aと、回動可能に設けられたファンクションダイヤル11bとを備えて構成される。
【0027】
さらに、デジタルカメラ1の側面には、デジタルカメラ1の別の設定状態(具体的には、露出補正、コントラスト、彩度、構図)に関する操作を行うためのデジタルエフェクト操作部14(図5(b)参照)が設けられている。図5(b)の詳細図に示すように、このデジタルエフェクト操作部14は、中央部に設けられたデジタルエフェクトボタン14aと、回動可能に設けられたデジタルエフェクトレバー14bとを備えて構成される。
【0028】
また、デジタルカメラ1の上面前側には、デジタルカメラ1の各種の調整を行う前ダイヤル10が設けられている。
【0029】
このデジタルカメラ1においては、上述の前ダイヤル10、ファンクション操作部11、およびデジタルエフェクト操作部14を用いることによって、「構図ブラケットモード」を設定することができる。ここにおいて、「構図ブラケットモード」とは、互いに異なる構図を有する複数の画像を取得する撮影モードを意味するものとする。なお、構図ブラケットモードにおける撮影は、シャッタボタン9などによる撮影開始指示入力に応じて行われる。
【0030】
具体的には、ファンクション操作部11のファンクションダイヤル11bを回転させて、撮影モードにおける各種の撮影形態(連続撮影、セルフタイマー、ブラケット撮影)を設定するための「ドライブモード」の選択肢を選択し(図5(a)参照)、ファンクションボタン11aを押しながら前ダイヤル10を回して、ブラケット撮影を行う旨の選択肢を選択する。この際、操作者は、現在いずれの選択肢が選択されているかを、データパネル8での表示により確認することができる。その後、デジタルエフェクトレバー14bを用いて「構図」の選択肢(図5(a)参照)を選択する。これによって、構図を少しずつ変更しながら複数の画像を取得するブラケット撮影(「構図ブラケット撮影」とも称する)を行う旨を設定すること(言い換えれば、撮影モードとして構図ブラケット撮影を設定すること)ができる。なお、このデジタルエフェクトレバー14bを用いて、他の選択肢を選択することによれば、他の種類のブラケット撮影(たとえば、露出補正、コントラスト、彩度などに関するブラケット撮影)を行うこともできる。
【0031】
さらに、デジタルカメラ1の側面には、挿抜自在(着脱自在)な記録媒体であるメモリカード90の挿入装着部が設けられており、本撮影によって得られる画像データはこの挿入装着部にセットされるメモリカード90に記録される。
【0032】
次に、デジタルカメラ1の内部構成について説明する。図4は、デジタルカメラ1の内部機能を示すブロック図である。
【0033】
撮影レンズ(撮影光学系)2はレンズ駆動部41によって駆動され、CCD撮像素子20に結像される像の合焦状態を変化させるように構成される。自動合焦(オートフォーカス)設定時には全体制御部30において画像から自動的に撮影レンズ2のレンズ駆動量が決定され、このレンズ駆動量に基づいて撮影レンズ2が駆動されるのに対し、手動合焦(マニュアルフォーカス)設定時にはユーザによるコントロールボタン7の操作量に応じてレンズ駆動量が決定され、このレンズ駆動量に基づいて撮影レンズ2が駆動される。
【0034】
また、撮影レンズ2は、上述したように光学ズーム機能をも有しており、撮影レンズ2のうち、焦点距離の調節機能を有するレンズ(以下、単に「ズームレンズ」とも称する)の位置を移動させることによって、撮影時の倍率を調整すること(言い換えれば、撮影時の画角を調整すること)ができる。
【0035】
CCD撮像素子20は被写体像を撮影して電子的な画像信号を生成する撮像手段として機能するものであり、例えば2560×1920個の画素を有し、撮影レンズ2によって結像された被写体の光像を、画素毎にR(赤),G(緑),B(青)の色成分の画像信号(各画素で受光された画素信号の信号列からなる信号)に光電変換して出力する。タイミングジェネレータ42は、CCD撮像素子20の駆動を制御するための各種のタイミングパルスを生成するものである。
【0036】
CCD撮像素子20から得られる画像信号は信号処理回路21に与えられ、信号処理回路21において画像信号(アナログ信号)に対して所定のアナログ信号処理が施される。信号処理回路21は相関二重サンプリング回路(CDS)とオートゲインコントロール回路(AGC)とを有しており、相関二重サンプリング回路により画像信号のノイズ低減処理を行い、オートゲインコントロール回路でゲインを調整することにより画像信号のレベル調整を行う。
【0037】
A/D変換器22は、画像信号の各画素信号を12ビットのデジタル信号に変換するものである。A/D変換器22は、全体制御部30から入力されるA/D変換用のクロックに基づいて各画素信号(アナログ信号)を12ビットのデジタル信号に変換する。変換後のデジタル信号は、画像データとして一時的に画像メモリ44に格納される。そして、画像メモリ44に保存された画像データに対して、次述するWB回路23、γ補正回路24、色補正部25、解像度変換部26、圧縮・伸張部46などによる各処理が施される。また、各処理後の画像データは、各処理の内容に応じて、再度画像メモリ44に再格納されるか、あるいは、別の処理部に対して転送される。
【0038】
WB(ホワイトバランス)回路23は、R,G,Bの各色成分のレベル変換を行うものである。WB回路23は、全体制御部30で記憶されるレベル変換テーブルを用いてR,G,Bの各色成分のレベルを変換する。なお、レベル変換テーブルの各色成分のパラメータ(特性の傾き)は全体制御部30により、オートまたはマニュアルで、撮影画像毎に設定される。γ補正回路24は、画素データの階調を補正するものである。
【0039】
色補正部25は、γ補正回路24から入力される画像データに対し、ユーザから設定された色補正に関するパラメータに基づいて色補正を行うとともに、RGB色空間で表現されたカラー情報をYCrCb色空間で表現されたカラー情報に変換する。この表色系変換により、全画素について輝度成分値Yが得られることになる。
【0040】
解像度変換部26は、CCD撮像素子20から得られる画像データに対して所定の解像度変換を行うものである。
【0041】
例えばライブビュー表示時にはCCD撮像素子20から取得される画像データに対して、解像度変換部16が所定の解像度変換を施し、LCD5の表示画素数に適合した画像サイズの画像データ(320×240画素)、すなわちライブビュー画像を生成する。また、自動合焦時には、ライブビュー表示時とは異なり、AF評価領域に対応する画像成分の抽出が行われる。なお、本撮影時には、解像度変換部26は、比較的高い解像度の画像データを全体制御部30を介して画像メモリ44に格納することになる。
【0042】
ライブビュー表示時には、解像度変換部26によって所定の解像度変換が施された画像データは、全体制御部30を介して画像合成部43に与えられ、LCD5及びEVF4に対してライブビュー画像の表示が行われるとともに、測光演算部28にも与えられ、自動露出(AE)制御用の評価値が算出される。これに対し、自動合焦制御時には、全体制御部30から指定されるAF評価領域に対応する画像成分が抽出され、その画像成分の画像データがAF評価値演算部27に与えられ、自動合焦(AF)制御用の評価値が算出される。
【0043】
AF評価値演算部27はユーザによってシャッタボタン9が半押し状態とされた場合に機能し、コントラスト方式の自動合焦制御を行うための評価値演算動作が行われる。ここでは、AF評価領域に対応する画像成分について水平方向に隣接する2画素間での差分絶対値の総和がAF用評価値として算出される。そしてAF評価値演算部27において算出されるAF用評価値は全体制御部30へと出力され、自動合焦制御が実現される。
【0044】
測光演算部28は、解像度変換部26から出力される画像データを複数のブロックに分割し、各ブロックの代表輝度値に基づいてAE用評価値を算出する。そして測光演算部28において算出されるAE用評価値は全体制御部30へと出力され、全体制御部30における自動露光制御に用いられる。
【0045】
画像メモリ44は、本撮影時にCCD撮像素子20で取得され、上記の画像処理が施された画像データを一時的に記憶するメモリである。画像メモリ44は、例えば数フレーム分の記憶容量を有している。そして本撮影後に画像のアフタービュー等が行われる場合には、画像メモリ44から画像合成部43に画像データが与えられ、撮影画像を確認するための画像表示が行われる。また、撮影後においては、画像メモリ44からメモリカード90に対して画像データが転送され、画像データの記録保存が行われる。
【0046】
カードインタフェース(カードI/F)47は、デジタルカメラ1側面の挿入装着部に対して装着されるメモリカード90への画像データの書込み及び読出しを行うためのインタフェースである。メモリカード90に対する画像データの読み書き時には、圧縮・伸張部46において例えばJPEG方式で画像データの圧縮処理又は伸張処理が行われる。また、外部接続インタフェース(外部接続I/F)48は通信ケーブル等を介して外部コンピュータ91と通信可能にするためのインタフェースであり、例えばUSB規格に準拠した通信用インタフェース等で実現される。これらカードI/F47、外部接続I/F48を介して、メモリカード90や外部コンピュータ91にセットされるCD−ROM等の記録媒体に記録される制御プログラムを、全体制御部30のRAM30a又はROM30b内に取り込むことができる。そして全体制御部30においてそのプログラムが実行されることにより、各種機能が実現される。
【0047】
操作部45は、上述したダイヤル3、メニューボタン6、コントロールボタン7、シャッタボタン9、ファンクション操作部11、合焦モード切替ボタン12、切替ボタン13等を含む操作部であり、ユーザがデジタルカメラ1の設定状態を変更操作する際や撮影操作を行う際等に用いられる。
【0048】
また、リアルタイムクロック49は、いわゆる時計部である。リアルタイムクロック49の計時機能により、デジタルカメラ1は現在時刻を認識することができる。
【0049】
さらに、デジタルカメラ1は電池51を駆動源としている。電池51としては、例えば直列接続された4本の単三形乾電池を用いることができる。そして、電池51からデジタルカメラ1内の各処理部への電力供給は、電力制御部52によって制御される。
【0050】
全体制御部30は内部にRAM30a及びROM30bを備えたマイクロコンピュータによって構成され、マイクロコンピュータが所定のプログラムを実行することにより、上記各部を統括的に制御する制御手段として機能する。なお、ROM30bは電気的にデータの書き換えが可能な不揮発性メモリである。
【0051】
撮影モード時において、全体制御部30はCCD撮像素子20を駆動する駆動方式をタイミングジェネレータに指令する。特に、ユーザがシャッタボタン9を操作していないときには、全体制御部30はライブビュー画像を取得するためにCCD撮像素子20での撮影動作を繰り返すようにタイミングジェネレータに指令する。これによってCCD撮像素子20ではライブビュー表示用の撮影画像(ライブビュー画像)が取得される。
【0052】
<A2.構図ブラケット撮影>
ここで、構図ブラケットモードの概要について、図6〜図8を参照しながら説明する。
【0053】
図6〜図8は、被写体Bの撮影領域(撮影範囲)を示す図である。図6は、たとえば、撮影レンズ2の焦点距離が31mmのときの撮影領域R0を示す図である。
【0054】
被写体Bの構図(フレーミングともいう)に関して、操作者が、図6のような構図を決断したとしても、そのような構図が最適であるとは限らない。たとえば、図8に示すように、撮影領域R0よりも少し左上側にずれた領域R2を撮影領域とする方が好ましい場合がある。あるいは、図9に示すように、撮影領域R0よりも少し右下側にずれた領域R3を撮影領域とする方が好ましい場合もある。
【0055】
そこで、ここでは一度のシャッタボタン9の押下による撮影において、これらの領域R0,R2,R3のそれぞれを撮影範囲とする3枚の画像を取得する。
【0056】
具体的には、この第1実施形態においては、一旦、焦点距離を短くして(すなわちズームレンズの位置をワイド側に移動させて)その画角が比較的広い画像(比較的広角側の画像)を取得し、取得した画像からその一部を抽出する(切り出す)ことによって、元の画角と同一画角の画像を生成する。
【0057】
たとえば、シャッタボタン9の押下時において撮影者が撮影レンズ2の焦点距離を31mmに設定している場合には、図7に示すように、撮影レンズ2の焦点距離を広角側の28mmに変更して、領域R1をその撮影領域として撮影する。このとき、全画素を有効に利用するため、領域R1がCCD撮像素子20全域に対応することが好ましい。
【0058】
そして、広角側の焦点距離(28mmの焦点距離)で取得された画像(領域R1に対応)の中から、トリミングを行うことによって、領域R0を抽出した画像と領域R2を抽出した画像と領域R3を抽出した画像とを生成する。
【0059】
ここで、領域R0,R2,R3を抽出した画像は、いずれも、撮影者による撮影開始指示時点(シャッタボタン9の押下時点)の焦点距離(31mm)における画角と同一画角を有している。言い換えれば、各領域R0,R2,R3は、指示時点の焦点距離で撮影される画像の画角(言い換えれば、指示時点のレンズ位置における画角)に対応する大きさを有している。ただし、その一方で、領域R0,R2,R3は、領域R1内での位置が互いに相違している。具体的には、領域R0は、領域R1の中央に位置しており、領域R2は、領域R1の中央から少し左上側にずれており、領域R3は、領域R1の中央から少し右下側にずれている。したがって、領域R0,R2,R3を抽出した画像は、互いにその構図が異なることになる。
【0060】
このようにして、その構図が異なる3枚の画像を取得することができる。これが、構図ブラケット撮影の概要である。この構図ブラケット撮影によれば、撮影者は、異なる構図の複数の画像の中から最適なものを選択することが可能になる。したがって、構図ミスによる撮影失敗を最小限に止めることができる。また、図8に示すように、領域R2は領域R0から「はみ出した」部分を有しているため、領域R2を抽出した画像の構図は、領域R0の一部分を抽出することでは得られない独自のものである。したがって、領域R0に対応する画像から手動でトリミングして抽出する場合に比べて、さらにバラエティに富んだ構図を得ることができる。領域R3についても同様である。
【0061】
なお、ここでは、構図ブラケットモードにおける撮影枚数が3枚の場合について説明したが、これに限定されない。たとえば、次述するように、5枚または9枚などの所定の枚数を一度の撮影動作で取得するようにしてもよい。
【0062】
<A3.動作>
<撮影時の動作>
つぎに、撮影モードとして構図ブラケットモードが設定されている場合のデジタルカメラ1の動作について、図10および図11などを参照しながら、さらに詳細に説明する。図10および図11は、構図ブラケット撮影におけるデジタルカメラ1の動作を示すフローチャートである。このフローチャートは、メインルーチンから所定の時間間隔(たとえば、数ミリ秒から数十ミリ秒間隔)で呼び出されるサブルーチンとして記載されている。これらのルーチンは、全体制御部30の制御下において実行される。なお、ここでは、上述したような構図ブラケットモードへの設定操作が既に行われているものとする。
【0063】
図10に示すように、まずステップSP1において、シャッタボタン9が半押し状態S1にされたか否かが判定される。半押し状態S1になっていると判定された場合には、ステップSP2に進む。一方、半押し状態S1になっていないと判定された場合には、このサブルーチンを一旦終了する。なお、その後、再びサブルーチンが実行されると、このステップSP1が再度実行される。
【0064】
ステップSP2においては、現在の焦点距離が検出される。言い換えれば、現在のズームレンズの位置Xp(図14参照)が検出される。これにより、撮影開始の指示入力がなされた時点、すなわちシャッタボタン9が半押し状態S1にされた時点でのズームレンズのレンズ位置が取得される。この位置は、操作者による設定位置であるともいえる。
【0065】
ステップSP3においては、現在のレンズ位置Xpがワイド端付近であるか否かが判定される。具体的には、レンズ位置Xpがワイド端の位置Xwから所定の微小範囲内にあるときには、ワイド端付近にあるものとみなす。
【0066】
ここでは、ワイド端付近であるか否かを判定するための微小範囲を、後述するブラケット範囲に応じて変更する場合について説明する。
【0067】
より詳細には、後述するブラケット範囲が比較的「広い範囲」に設定されているときには、現在位置Xpがワイド端の位置Xwから位置Xw1(図14(a)参照)までの範囲RN1に存在すれば(位置XpがXw1よりもワイド側にあれば)、ワイド端付近であると判定する。ここで、位置Xwは、焦点距離が28mmとなるときのレンズ位置であり、位置Xw1は、焦点距離が31.1mm(=28.0/0.9)となるときのレンズ位置である。
【0068】
また、後述するブラケット範囲が比較的「狭い範囲」に設定されているときには、現在位置Xpがワイド端の位置Xwから位置Xw2(図14(b)参照)までの範囲RN2に存在すれば(位置XpがXw2よりもワイド側にあれば)、ワイド端付近であると判定する。ここで、位置Xw2は、焦点距離が29.5mm(=28.0/0.95)となるときのレンズ位置である。
【0069】
後述するように、ステップSP12またはステップSP13において、ズームレンズの焦点距離が所定倍(0.9倍または0.95倍)され広角側に移動されることになる。しかしながら、ズームレンズのレンズ位置Xpが既にワイド端付近である場合には、意図する程度に広角側へと移動することができないことになるため、構図ブラケット撮影を良好に行うことが困難になる。そこで、この実施形態においては、このような場合には、構図ブラケット撮影自体を禁止し、構図ブラケット撮影を行うことなく通常の撮影動作を行うものとする。
【0070】
たとえば、レンズ位置Xpがワイド端Xwのときには、ズームレンズのレンズ位置Xp(=Xw)を変更することなくそのままの位置でCCD撮像素子20による画像が取得され、その画像が撮影画像として記録される。このように、ワイド端では原理的に実現困難な構図ブラケット撮影を禁止した上で、通常の撮影を行うことができる。したがって、撮影者の混乱を防止できる。
【0071】
そのため、ステップSP3において分岐処理が行われる。具体的には、ステップSP3において、現在のレンズ位置Xpがワイド端付近であると判定される場合には、ステップSP4に進む。一方、ステップSP3において、現在のレンズ位置Xpがワイド端付近でないと判定される場合には、ステップSP11に進む。
【0072】
ここでは、まず、ステップSP4に進んだ場合について説明する。
【0073】
ステップSP4においては、警告表示がLCD5に表示される。警告表示としては、たとえば、図12に示すような警告表示画面G1が表示される。画面G1においては、「ワイド端付近では構図ブラケットできません」との警告が表示されている。これにより、撮影者は構図ブラケット撮影が実行不可能であることを認識できる。なお、ここでは、画面G1による警告を例示しているが、これに限定されず、音声情報による警告を行うようにしてもよい。
【0074】
ステップSP5においては、自動露光制御(AE制御)、オートフォーカス制御(AF制御)、オートホワイトバランス制御(AWB制御)が行われる。
【0075】
その後、ステップSP6において、シャッタボタン9が全押し状態S2にされたことが判定されると、ステップSP7(図11)に進む。ステップSP7では1コマ(1枚)の撮影処理が行われ、その後、ステップSP8で記録処理が行われる。これにより、1枚の撮影画像がメモリカード90に格納される。
【0076】
つぎに、上述のステップSP3からステップSP11に進んだ場合、すなわち構図ブラケット撮影を行う場合について説明する。
【0077】
ステップSP11においては、ブラケット範囲が「広い範囲」および「狭い範囲」のいずれに設定されているかを確認する。
【0078】
ここで、ブラケット範囲は、図13に示すような画面G2を用いることによって設定される。この画面G2は、メニューボタン6及びコントロールボタン7を用いることによって、LCD5(またはEVF4)に表示される。操作者は、LCD5などに表示された画面G2において、2つの選択肢「広い範囲」および「狭い範囲」のうちの所望の選択肢を、「ブラケット範囲」の大きさの程度(すなわち広さ)を示す設定値として選択することができる。このような設定動作は、この撮影動作を行う前に予め行われる。また、設定動作が行われていない場合には、初期値(デフォルト値)として予め定められている設定値に基づいて判定される。
【0079】
ステップSP11においては、このブラケット範囲に関する設定値を判定し、「広い範囲」に設定されているときにはステップSP12に進み、「狭い範囲」に設定されているときにはステップSP13に進む。
【0080】
ステップSP12においては、広角側画像を撮影できるように、広角側のレンズ位置へとズームレンズを駆動する。具体的には、図14(a)に示すように、レンズ駆動部41内のズームモータを用いた駆動により、操作者の手動操作により指定された現在のレンズ位置Xpを0.90倍した値の位置Xa1に、ズームレンズを移動する。たとえば、位置Xp=50.0mmのときには、位置Xa1=45.0mmとなる。なお、ズームレンズのレンズ位置Xは、ズームレンズの焦点距離で表現するものとする。また、図15は、ズームレンズが位置Xa1に移動したときの撮影範囲R10と、ズームレンズが移動前の位置Xpに存在するときの撮影範囲R11との関係を示す図である。
【0081】
また、ステップSP13においても、広角側画像を撮影できるように、広角側のレンズ位置へとズームレンズを移動させる。ただし、このステップSP13における移動後のレンズ位置による撮影範囲R12は、ステップSP12における移動後の撮影範囲R10よりも狭い範囲となっている。
【0082】
具体的には、図14(b)に示すように、レンズ駆動部41内のズームモータを用いた駆動により、現在のレンズ位置Xpを0.95倍した値の位置Xa2に、ズームレンズを移動する。たとえば、位置Xp=50.0mmのときには、位置Xa2=47.5mmとなる。
【0083】
図16は、ズームレンズが位置Xa2に移動したときの撮影範囲R12と、ズームレンズが移動前の位置Xpに存在するときの撮影範囲R11との関係を示す図である。また、図16に示されるように、撮影範囲R12は、撮影範囲R11よりは広い範囲であるが、撮影範囲R10よりも狭い範囲となっている。
【0084】
このように、撮影範囲R12は撮影範囲R10よりも狭い。そして、撮影範囲R12と撮影範囲R11との広さの差は、影範囲R10と撮影範囲R11との広さの差よりも少ない。したがって、撮影範囲R12から撮影範囲R11を抽出する場合の方が、撮影範囲R10から撮影範囲R11を抽出する場合に比べて、被トリミング領域(切り取られる領域、すなわち範囲R11の外側の領域)に対応する画素の数が少なく、抽出された撮影範囲R11に対応する画素の数が大きくなる。したがって、撮影範囲R12から撮影範囲R11を抽出した画像は、撮影範囲R10から撮影範囲R11を抽出した画像に比べて、高画質の画像になる。なお、後述する領域R22,R23,R24,R25を抽出した画像についても同様である。このように、「ブラケット範囲」として「狭い範囲」が選択されている場合には、比較的高画質の画像を取得することができる。
【0085】
一方、「ブラケット範囲」として「広い範囲」が選択されている場合には、複数の画像を抽出する際に対象となる抽出領域の最大範囲が比較的広い範囲であるため、構図の変化が比較的大きな複数の画像を得ることが可能になる。
【0086】
なお、「ブラケット範囲」は、広角画像から複数の画像を抽出する際に対象となる抽出領域の最大範囲(最大対象範囲)であるとも表現できる。ここで、「広角画像」とは、ステップSP12(またはステップSP13)で撮影レンズ2を広角側に移動させた後にステップSP20で取得される画像をいうものとする。
【0087】
以下では、「ブラケット範囲」の設定値として「広い範囲」の選択肢が選択されている場合を中心に説明を続ける。
【0088】
ステップSP14においては、ライブビューにおける拡大率を変更する。これにより、シャッタボタン9が半押し状態S1に押下される前後でライブビューとしてLCD5に表示される被写体範囲が変わらないようにすることができる。この動作について説明する。
【0089】
ステップSP12(またはステップSP13)におけるレンズ移動に応じて、CCD撮像素子20で撮像される撮影画像はより広角側の画像になっている。そのため、仮にそのままライブビュー表示を継続すると、ライブビュー画像は、撮影者が指示した画角よりも広角の画像となってしまう。この場合、レンズ移動に応じて広角側の画像が突然表示されるため、撮影者は、ライブビュー表示における倍率が突然小さくなったと感じ、不自然な印象を受けることになる。
【0090】
ライブビュー表示においては、このような画角の突然の変化を避けることが好ましい。そのため、ここではライブビュー画像をステップSP12(またはステップSP13)での変倍率に応じて拡大して表示することとする。具体的には、ステップSP12(またはステップSP13)におけるレンズ位置の変更後に取得したCCD撮像素子20による撮像画像から、その中央部の領域R11の画像を抽出し、抽出した画像をLCD5の表示画面の大きさに合わせて拡大して表示する。このとき、その拡大率は、領域R11がLCD5のライブビュー表示における全体領域に表示されるような値として決定される。言い換えれば、この拡大率は、シャッタボタン9が半押し状態S1に押下される前後でLCD5に表示される被写体の大きさが変わらないような値として決定される。この結果、ライブビュー画像としては、図17に示すように、領域R11を全範囲とする画像G3が引き続き表示されることになり、ライブビューにおける被写体の大きさは指示入力前後で変化しない。したがって、ライブビューを見ている撮影者に違和感を与えずに済むことになる。
【0091】
ステップSP15では、測光動作、測色動作、およびAF動作を行う。測光動作においては、領域R10(またはR12)の範囲の全体にわたるデータを用いて測光値の算出動作が行われる。測色動作においても同様であり、測色動作においては、領域R10(またはR12)の範囲の全体にわたるデータを用いて測色値の算出動作が行われる。
【0092】
この構図ブラケット撮影で取得される複数の画像においては、露出条件およびホワイトバランスを変更しないことが好ましい。言い換えれば、同一の露出条件(または同一のホワイトバランス)で撮影され且つ異なる構図を有する複数の画像が取得されることが好ましい。これによれば、構図以外の少なくとも1つの条件(たとえば露出条件)に影響されることなく、最も良い構図の画像を選択することができるからである。
【0093】
そして、そのような共通の(同一の)露出条件およびホワイトバランスを決定するにあたっては、領域R10内での位置がその一部に偏った領域のデータを用いるのではなく領域R10(またはR12)の範囲の全体にわたるデータを用いることが好ましい。これによれば、特定の構図(あるいは特定の領域)への依存性が緩和された露出条件およびホワイトバランスを決定することができるからである。また、これによれば、複数の画像についての露出条件およびホワイトバランスを一度に決定することができる。すなわち、露出条件およびホワイトバランスを全体として最適化するための測光値および測色値を一度に求めることができる。
【0094】
ステップSP16では、AE動作が行われる。具体的には、ステップSP15での測光動作における測光値に基づいて、露出制御パラメータ(シャッタスピード、絞り、ゲイン)の値が決定される。そして、露出制御パラメータがその値でロックされる。ステップSP20においては、この露出制御パラメータの値で撮像処理が行われる。
【0095】
ステップSP17では、オートホワイトバランス動作(AWB動作)が行われる。具体的には、ステップSP15での測色動作における測色値に基づいて、ホワイトバランスを補正するAWB補正パラメータの値が決定される。そして、AWB補正パラメータがその値でロックされる。ステップSP20においては、このAWB補正パラメータの値でホワイトバランスが調整されて撮像処理が行われる。
【0096】
ステップSP18では、ステップSP15でのオートフォーカス動作に応じたフォーカス位置が、ステップSP20の撮像動作におけるフォーカス位置として決定される。そして、フォーカス位置がロックされる。
【0097】
ステップSP19では、シャッタボタン9が全押し状態S2にされたか否かが判定される。シャッタボタン9が所定時間内に全押し状態S2にされていないと判定されるとステップSP1に戻って上述の処理を繰り返す。一方、シャッタボタン9が全押し状態S2にされていると判定されると、ステップSP20に進む。
【0098】
ステップSP20においては、撮像処理が行われる。具体的には、1回の露光動作による1枚の撮影画像が取得される。このとき、撮影レンズ2のレンズ位置は位置Xa1(またはXa2)に変更されており、撮影パラメータ(具体的には、露出制御パラメータ、AWB補正パラメータ、およびフォーカス位置)はそれぞれステップSP16,SP17,SP18で設定された値になっている。この撮像処理による画像は、領域R10を全範囲とする画像として取得され、画像メモリ44に一旦格納される。
【0099】
ステップSP21においては、1回の構図ブラケット撮影における撮影枚数(「ブラケット撮影枚数」とも称する)が「5枚」および「9枚」のいずれに設定されているかを確認する。
【0100】
ここで、ブラケット撮影枚数は、上述したような画面G2(図13)を用いることによって設定される。操作者は、LCD5などに表示された画面G2において、2つの選択肢「5枚」および「9枚」のうちの所望の選択肢を、「(ブラケット)撮影枚数」の設定値として選択することができる。このような設定動作は、この撮影動作を行う前に予め行われる。また、設定動作が行われていない場合には、初期値(デフォルト値)として予め定められている設定値に基づいて判定される。
【0101】
このように、ブラケット撮影枚数およびブラケット範囲を、操作者の選択により変更すること(設定すること)ができるので、より多様な要求に応えることが可能になる。
【0102】
そして、ステップSP21においては、この撮影枚数に関する設定値を判定し、「5枚」に設定されているときにはステップSP22に進み、「9枚」に設定されているときにはステップSP23に進む。
【0103】
ステップSP22においては、画像メモリ44に格納された撮影画像から、異なる構図の5枚の画像が抽出される。一方、ステップSP23においては、画像メモリ44に格納された撮影画像から、異なる構図の9枚の画像が抽出される。
【0104】
具体的には、ステップSP22においては、画像メモリ44に格納されていた撮影画像(広角画像)から、中央の領域R21(図18)、左上の領域R22(図19)、右上の領域R23(図20)、右下の領域R24(図21)、左下の領域R25(図22)、をそれぞれその全範囲とする5枚の画像を抽出する。これらの各領域R21〜R25の画像は、いずれもレンズ位置(操作者によって指定されたレンズ位置)Xpに対応する画角と同一の画角を有している一方で、ステップSP20での撮影画像内での位置が違いに異なる。すなわち、撮影者による指定倍率で撮影され且つその構図が互いに異なる複数の画像が生成されることになる。そして生成された画像は、順次に所定の圧縮形式(JPEG方式など)による圧縮処理が施されて、メモリカード90に格納される。
【0105】
なお、抽出された5枚の画像は、共通の被写体領域を有する状態(その撮影範囲が重なった状態)で取得されている。具体的には、図23に示すように、領域R26(太枠で示される領域)が、これらの5枚の画像に共通する被写体領域である。領域R26は、5つの領域R21,R22,R23,R24,R25の重複部分である。この場合、5枚の画像は共通の被写体領域R26を有する状態で取得される。したがって、共通の被写体領域R26に主要な被写体を収めれば、その主要な被写体を含む異なる構図の複数の画像を得ることができる。言い換えれば、主要被写体を含む異なる構図の複数の画像をより確実に得ることが可能になる。特に、主要な被写体は中央付近に配置されることが多いので、上記のように共通領域が広角画像の中央領域を含むようにすれば、より確実に主要被写体を含む複数の画像を得ることが可能になる。
【0106】
また、ステップSP23においては、同様にして、異なる構図の9枚の画像が撮影される。
【0107】
ステップSP24においては、撮影終了に伴い、上記で決定されていた各種の撮影パラメータのロックを解除する。その後、このサブルーチンを終了し、メインルーチンに戻る。
【0108】
<記録状態>
上記の構図ブラケット撮影で撮影された複数の画像は、次のような名称を付されたファイル(画像ファイル)として、メモリカード90に格納される。
【0109】
図24は、構図ブラケット撮影でない場合の名称付与ルールを説明する図である。図24に示されるように、構図ブラケット撮影以外の画像ファイルについては、通常の画像であることを示す4つの文字「Pict」が前半の4文字として付与される。また、後半の4文字としては、構図ブラケット撮影による画像か否かに依拠せず、撮影順の通し番号が付与される。
【0110】
また、図25は、構図ブラケット撮影の場合の名称付与ルールを説明する図である。図25に示されるように、構図ブラケット撮影による画像ファイルについては、構図ブラケット撮影であることを示す2つの文字「Fb」が最初の2文字として付与され、次の2文字として、構図ブラケットにおける広角画像内での位置を示す符号が付与される。具体的には、中央の画像に対しては「cc」が付与され、左上の画像に対しては「la」が付与され、右上の画像に対しては「ra」が付与され、右下の画像に対しては「rb」が付与され、左下の画像に対しては「lb」が付与される。また、後半の4文字としては、構図ブラケット撮影による画像か否かに依拠せず、撮影順の通し番号が付与される。
【0111】
このような名称付与ルールにしたがって名称が付与される。たとえば、通常撮影で7枚の画像を取得した場合には、図26に示すような名称の画像ファイルが上から順に生成される。また、通常撮影で1枚の画像を取得した後、1回の構図ブラケット撮影により5枚の画像を取得し、さらに通常撮影で1枚の画像を取得した場合には、図27に示すような名称の画像ファイルが上から順に生成される。
【0112】
各画像ファイルは、Exif形式に準拠しており、上記において取得された高解像度の画像データに加えて、そのサムネイル画像およびタグ情報をも併せて記録している。ここでは、この高解像度データはJPEG形式で圧縮されており、Exif形式のファイルの拡張子はJPEG形式を表す”jpg”として付与されている。
【0113】
図28は、1枚の画像に関する画像ファイルの構造を示す図である。メモリカード90の記憶領域の先頭には、インデックス情報を記録する領域が設けられ、その後の領域に各画像ファイルが撮影された順に記録される。メモリカード90における各画像ファイルの記憶領域は3つの領域からなり、先頭領域から順にタグ情報、圧縮された画像データ(高解像度データ)およびサムネイル画像が記録される。図28に示すように、タグ情報には、撮影条件(構図ブラケット)が記載されている。撮影条件としては、構図ブラケット撮影による撮影画像であること、構図ブラケットにおける撮影順序(「1/5」)、構図ブラケットにおける構図の位置関係(「左上」)、ブラケット範囲(「広い」)、等の情報が記載されている。ここで、構図の位置関係は、基準となる構図(操作者が指定した構図)に対する相対的な位置として表現されている。このように、構図ブラケット撮影により取得された複数の画像が、その構図の位置関係を示す情報とともに記録されるので、後に行われる画像の選別あるいは整理が容易になる。
【0114】
また、図には示していないが、カメラ機種名、撮影日、シャッタースピード、絞り値、フラッシュの発光の有無などの各種の情報も併せて記載される。後述するように、デジタルカメラ1は、画像の再生時において、これらの情報を参照し、その情報内容に応じた再生処理を行う。
【0115】
なお、上記においては、5枚の画像を取得する場合について説明したが、9枚の画像を取得する場合には、好ましくは、図29に示すような順序で抽出された9枚の画像に対応する9つの画像ファイルが、広角側画像内での位置を明示するファイル名称が付与された状態で記録される。
【0116】
具体的には、中央の画像(cc)、左上の画像(la)、上側中央の画像(ca)、右上の画像(ra)、中央右側の画像(rc)、右下の画像(rb)、下側中央の画像(cb)、左下の画像(lb)、中央左側(lc)の画像がこの順序でメモリカード90内において記録される。なお、それぞれの画像に対しては直後の括弧内の名称が、撮影位置を示す文字としてファイル名の3文字目と4文字目に付与される。
【0117】
<再生時の動作>
上記においては、デジタルカメラ1の撮影モードにおける動作について説明したが、以下では、デジタルカメラ1の再生モードにおける動作について説明する。
【0118】
再生モードにおいては、通常撮影による撮影画像に加えて、上記の構図ブラケット撮影による撮影画像をも再生することができる。
【0119】
また、この再生モードにおいては、通常撮影で撮影された撮影画像に基づいて、互いに異なる構図を有する複数の画像を自動的に生成して記録することができる。これによれば、その構図が異なる複数の画像を容易に得ることが可能である。
【0120】
図30は、再生モードにおける動作を示すフローチャートである。
【0121】
図30に示すように、まず、ステップSP31において、最も新しく撮影された画像ファイル(直近の撮影画像の画像ファイル)を再生対象画像としてメモリカード90から読み出す。上述したように、ファイル名称の5文字目から8文字目までの4桁の番号が通し番号を表しているのて、この4桁の番号が最も大きなファイルが最新の画像ファイルとして読み出されることになる。
【0122】
次のステップSP32においては、全体制御部30の制御下において、圧縮・伸張部46が、再生対象画像の画像データをその圧縮形式に応じて伸張して画像メモリ44に展開する。その後、画像合成部43は、画像メモリ44に展開(格納)されたデータに基づいて、再生対象画像を図31に示すようにLCD5に表示させる。このとき、画像合成部43は、再生対象画像の上側領域U1に、画像番号(「0003」)を表示する。
【0123】
ステップSP33において、全体制御部30は、その再生対象の画像が構図ブラケット撮影による画像か否かを判定する。この判定は、ファイル名称の最小の2文字が「Fb」であるか否かに基づいて行われる。
【0124】
具体的には、そのファイル名称の先頭の2文字が「Fb」である画像ファイルは、構図ブラケット撮影による画像であると判定される。一方、そのファイル名称の先頭の2文字が「Pi」である画像ファイルは、通常撮影による画像であると判定される。画像ファイルが構図ブラケット撮影により生成されたものであると判定されるときにはステップSP34に進み、通常撮影により生成されたものであると判定されるときにはステップSP35に進む。
【0125】
ステップSP34においては、画像合成部43は、構図ブラケット撮影画像に関する付加情報表示を行う。この付加情報は、画像ファイルのタグ情報(図28)に含まれる情報を読み出すことによって取得される。
【0126】
具体的には、画像合成部43は、図31の画面G11に示すように、再生対象画像の上側領域U1に、構図ブラケット撮影による画像である旨(「構図ブラケット」)と、構図ブラケット撮影における広角画像内での位置(「1/5」)と、構図ブラケット範囲(「広め」)とに関する情報をさらに表示する。
【0127】
なお、ここでは、構図ブラケット撮影における広角画像内での位置を、全枚数(「5枚」)中の撮影順序(「1枚目」)を示す表記「1/5」によって表現している。上述したように、構図ブラケット撮影における複数の画像の撮影順序は固定されているため、その撮影順序を示すことによって、構図ブラケット撮影における広角画像内での位置が分かるからである。たとえば、「1/5」は、広角画像内の中央領域(R21(図18))に対応する画像であることを示し、「3/5」は、広角画像内の右上領域(R23(図20))に対応する画像であることを示す。ただし、これに限定されず、位置を間接的に示す「1/5」などの表記ではなく、「中央」、「左上」、「右上」、「右下」、「左下」、などのその位置を直接的に明示する文字を表示するようにしてもよい。あるいは、文字ではなく、図で表現することによって、その位置関係を明示するようにしてもよい。たとえば、図32に示すように、構図ブラケット撮影による各画像を、広角画像領域RB(図中において外枠で示す)内での相対的位置として図で表現するようにしてもよい。図32においては、広角画像の左上側の領域を抽出して生成されたブラケット画像を再生表示する際に、その画像を広角画像領域RBの左上側に配置し、その右下側に空白領域BPを配置して示している。このような表示によれば、そのブラケット画像の広角画像内における位置がさらに明確になる。
【0128】
このように、再生モードにおいて、構図ブラケット撮影により取得された複数の画像が、その構図の位置関係を示す情報とともに表示されるので、画像の選別あるいは整理が容易である。特に、デジタルカメラ1の比較的小さなLCD5で確認する場合には構図の相違がわかりにくくなるが、そのような場合においても構図の位置関係を示す情報とともに各画像が表示されるので画像の選別等が容易である。
【0129】
その後、ステップSP37において、十字カーソルボタン7R,7Lによるコマ送りおよびコマ戻しの操作が行われたことが検出されると、ステップSP38に進み、次に表示すべき再生対象画像の番号を決定して、その番号に対応する画像データをメモリカード90から読み出し、ステップSP32に戻り、上記と同様の処理を繰り返す。一方、ステップSP37において、コマ送りおよびコマ戻しの操作が検出されない場合にはステップSP39に進み、カメラのモード変更操作の有無を判定する。ステップSP39においてモード変更操作が行われていることが確認されると、画像メモリ44をクリアして、その変更先のモード(撮影モード)にデジタルカメラ1のモードを変更する(ステップSP40)。モード変更操作が行われていない場合には再びステップSP33に戻る。
【0130】
さて、ステップSP33からステップSP35に進むと、メニューボタン6が押下されているか否かを判定する。メニューボタン6が押下されていない場合にはステップSP37に進みそのまま通常の再生処理が継続される。一方、メニューボタン6が押下されている場合にはステップSP36に進み構図ブラケット処理が行われる。このように、通常撮影による画像に対しては、2種類の処理(通常の再生処理、構図ブラケット処理)を施すことが可能である。
【0131】
ステップSP36においては、まず、図33に示すような設定用の画面G13がLCD5に表示される。図33は、再生モードにおけるメニュー画面を示す図である。
【0132】
このとき、画像合成部43は、10番目の撮影画像G10自体とその画像番号(「0010」)とを表示させており、さらに再生メニューをその撮影画像G10に重ねて表示させている。なお、再生メニューにおいては、スライドショー、プリント指定の項目を指定することによって、これらの機能を実現することも可能であるが、ここではそれらについての詳細説明を省略し、構図ブラケット撮影について説明する。
【0133】
図33の画面G13においては、構図ブラケット処理における設定を行うことができる。具体的には、生成すべき画像の枚数と、ブラケット範囲(範囲)とを設定することが可能である。
【0134】
より詳細には、十字カーソルボタン7U,7D,7L,7R、を用いて選択用のカーソル(図中のCS)を移動させて所望の選択肢を選択することができる。ここでは、10番目の画像が対象画像として採用され、その対象画像に基づいて「5枚」の画像が生成される場合について説明する。また、ブラケット範囲としては「広い」が選択されるものとする。
【0135】
そして、最後に「実行」を選択した状態で決定ボタン7Cを押下することによって、設定内容が確定されて、構図ブラケット処理が開始される。言い換えれば、決定ボタン7Cの押下により、構図ブラケット処理の開始が指示されることになる。そして、この決定ボタン7Cの押下に応じて、その構図が互いに異なる複数の画像が生成される。
【0136】
なお、ブラケット範囲を指定することによって、処理対象画像(原画像)の被写体領域の大きさと構図ブラケット処理により取得される複数の画像の被写体領域の大きさとの関係が指定される。具体的には、範囲として「広い」を指定すれば、取得される各画像は原画像に対し比較的小さな領域に対応する画像となり、各画像間における構図の変化は比較的大きくなる。一方、範囲として「狭い」を指定すれば、取得される各画像は原画像に対し比較的原画像に近い大きさを有する領域(比較的大きな領域)に対応する画像となり、各画像間における構図の変化は比較的小さくなる。
【0137】
言い換えれば、「ブラケット範囲」は、上述した構図ブラケット撮影と同様、原画像に対する抽出画像の大きさの変化の程度を示している。原画像に対する抽出画像の大きさの変化の程度が比較的大きく各抽出画像間における構図の変化が比較的大きくなる場合(たとえば元画像の90%の大きさとされ10%の変動がある場合)には、ブラケット範囲は「広い」ものであると表現される。一方、原画像に対する抽出画像の大きさの変化の程度が比較的小さく各抽出画像間における構図の変化が比較的小さくなる場合(たとえば元画像の95%の大きさとされ5%の変動しかない場合)には、ブラケット範囲は「狭い」ものであると表現される。換言すれば、ブラケット範囲は、抽出画像の原画像に対する「ずれ」の度合いを示すものであるとも表現できる。
【0138】
図34〜図38は、この構図ブラケット処理によって生成される各画像の元画像(対象画像)に対する位置を示す図である。これらの図を参照しながら、5枚の画像の生成動作について説明する。
【0139】
まず、図34に示すように、全体制御部30は、元の画像G10の中から、中央の領域(範囲)Rccを抽出して(切り出して)、圧縮・伸張部46を用いて所定形式への圧縮処理を施した後、メモリカード90に記録する。記録される画像ファイルの名称は、上述の基準にしたがって、構図ブラケット撮影時と同様に付与されればよい。たとえば、それまでに20枚の画像が既に記録されている場合には、この新規の画像ファイルには「Fbcc0021.jpg」のファイル名が付与される。
【0140】
つぎに、図35に示すように、全体制御部30は、元の画像G10の中から、左上の領域(範囲)Rlaを抽出して(切り出して)、圧縮・伸張部46を用いて所定形式への圧縮処理を施した後、メモリカード90に記録する。記録される画像ファイルには、たとえば、「Fbla0022.jpg」のファイル名が付与される。
【0141】
その次には、図36に示すように、全体制御部30は、元の画像G10の中から、右上の領域(範囲)Rraを抽出して(切り出して)、圧縮・伸張部46を用いて所定形式への圧縮処理を施した後、メモリカード90に記録する。記録される画像ファイルには、たとえば、「Fbra0023.jpg」のファイル名が付与される。
【0142】
さらに、図37に示すように、全体制御部30は、元の画像G10の中から、右下の領域(範囲)Rrbを抽出して(切り出して)、圧縮・伸張部46を用いて所定形式への圧縮処理を施した後、メモリカード90に記録する。記録される画像ファイルには、たとえば、「Fbrb0024.jpg」のファイル名が付与される。
【0143】
最後に、図38に示すように、全体制御部30は、元の画像G10の中から、左下の領域(範囲)Rlbを抽出して(切り出して)、圧縮・伸張部46を用いて所定形式への圧縮処理を施した後、メモリカード90に記録する。記録される画像ファイルには、たとえば、「Fblb0025.jpg」のファイル名が付与される。
【0144】
以上のようにして、再生モードにおいて、構図ブラケット処理が行われる。この構図ブラケット処理は、再記録処理、より詳細には1つの画像に基づいてその構図が互いに異なる複数の画像を生成して記録する処理であるとも表現できる。
【0145】
このような構図ブラケット処理によれば、操作者からの指示入力に応じて、元の画像(対象画像)よりも小さく且つ対象画像内での位置が異なる複数の領域を対象画像から抽出することにより、互いに異なる構図を有する複数の画像が生成される。したがって、その構図が互いに異なる複数の画像を簡易に生成することができる。
【0146】
なお、ここでは、デジタルカメラ1に内蔵されたマイクロコンピュータに所定のプログラムを実行させることによって、デジタルカメラ1を、上述の構図ブラケット処理を含む画像処理を行う画像処理装置として機能させる場合を例示したが、これに限定されない。たとえば、パーソナルコンピュータ(外部コンピュータ91)に上記の処理を行うプログラムを実行させることによって、そのパーソナルコンピュータを、上記のような構図ブラケット処理(再記録処理)を含む画像処理を行う画像処理装置として機能させるようにしてもよい。
【0147】
<B.第2実施形態>
<B1.構成>
第2実施形態においては、撮影レンズの光軸に対する垂直面内において撮像素子を撮影レンズに対して相対的に移動させ、移動に伴う複数の位置のそれぞれにおいて撮像素子による撮影画像を取得することによって、異なる構図の複数の画像を取得する場合について説明する。これによれば、焦点距離を広角側に変更する必要がなく、操作者が指定した焦点距離のままで複数の画像を取得することができる。したがって、撮像素子の画素をより有効に利用することができる。言い換えれば、画素数が低下することによる画質の低下を回避することができる。なお、以下では、撮像素子を移動させる場合を例示するが、撮影レンズを移動させるようにしてもよい。
【0148】
図39は、本発明の第2実施形態に係るデジタルカメラ101の主たる構成を示す断面図である。このデジタルカメラ101は、互いに異なる構図の複数の画像を取得する構図ブラケット撮影を行う機能と、手ぶれによる画像中の被写体像のぶれを補正(抑制)する手ぶれ補正機能を有している。
【0149】
図に示すようにデジタルカメラ101は、主としてカメラ本体部102と、カメラ本体部102に固設される撮影レンズ103とから構成される。なお、以下の説明においては、図に示すXYZ3次元直交座標系を適宜用いて、方向および向きを示すこととする。ここで、Z軸方向は撮影レンズ103の光軸Lに沿った方向であり、Z軸正方向は入射光の入射先となる向き(図において右向き)である。また、Y軸方向は鉛直方向であり、Y軸正方向は鉛直上向き(図において上向き)である。さらに、X軸方向は図面(紙面)に対しての垂直方向であり、X軸正方向は図面(紙面)に対する垂直下向きである。これらXYZ軸は、カメラ本体部102のハウジング102aに対して相対的に固定される。
【0150】
撮影レンズ103は主として、鏡胴131、ならびに、鏡胴131の内部に設けられる複数のレンズ群132および絞り133から構成される。レンズ群132には、ズーム用レンズ(ズームレンズ)134およびフォーカス用レンズ(フォーカスレンズ)135が含まれている。ズーム用レンズ134の位置をZ軸方向に移動させることにより焦点距離(撮影倍率)を変更することができ、また、フォーカス用レンズ135をZ軸方向に移動させることにより焦点位置(被写体像の合焦状態)を変更することができるようにされている。
【0151】
撮影レンズ103の光軸Lの後方(Z軸正方向側)には、カメラ本体部102のハウジング102aに収容されたCCD撮像素子(単にCCDとも称する)105が配置されている。CCD105は、カラーフィルタがそれぞれ付された微細な画素群で構成される撮像素子であり、撮影レンズ103によって結像される被写体の光像を、例えばRGBの色成分を有する画像信号に光電変換する。CCD105の受光面は結像平面と一致するように配置され、結像平面の一部の領域が画像データ(本明細書中では、適宜単に「画像」ともいう。)として取得されることとなる。
【0152】
CCD105はCCD移動部150内に固定されて配置される。CCD105は、このCCD移動部150によりZ軸に直交するXY平面内にて移動することが可能とされている。図40は、CCD105を含めたCCD移動部150の分解斜視図である。
【0153】
図40に示すように、CCD移動部150は主として、ハウジング102aに固設されるベース板151、ベース板151に対してX軸方向に移動する第1スライダ152、および、第1スライダ151に対してY軸方向に移動する第2スライダ153の3つの部材から構成される。
【0154】
ベース板151は、撮影レンズ103からの入射光を通過可能に中央部が開口しており、X軸方向に延設される第1アクチュエータ151a、および、スプリング155を掛けるための第1スプリング掛け151bを備えている。第2スライダ153は、CCD105を固定可能な開口部153cがその中央部に形成されるとともに、Y軸方向に延設される第2アクチュエータ153a、および、剛球154をZ軸方向両面に遊嵌する剛球受け153bを備えている。また、第1スライダ152は中央部が開口しており、第1アクチュエータ151aと対向する位置に第1摩擦結合部152a、および、第2アクチュエータ153aと対向する位置に第2摩擦結合部152bがそれぞれ設けられ、さらに、第1スプリング掛け151bと対向する位置に第2スプリング掛け152cが設けられる。
【0155】
第1アクチュエータ151aおよび第2アクチュエータ153aはそれぞれ、圧電素子と延在方向に駆動可能な駆動ロッドとを備えており、圧電素子に印加される駆動パルスに応じた量および向きに駆動ロッドが移動するようになっている。
【0156】
CCD移動部150が組み上げられるときには、CCD105が第2スライダ153の開口部153cに嵌合して固設されるとともに、第1アクチュエータ151aの駆動ロッドと第1摩擦結合部152aとが摩擦結合され、第2アクチュエータ153aの駆動ロッドと第2摩擦結合部152bとが摩擦結合される。また、ベース板151と第1スライダ152とは、スプリング155によって相互に接近する向きに付勢される。このとき、第2スライダ153は、ベース板151と第1スライダ152とに剛球154を介して挟み込まれた状態とされる。これにより、Z軸負方向側から正方向側に向かって、ベース板151、第2スライダ153、第1スライダ152の順に重なって、これら部材151,153,152が配置されることとなる。
【0157】
このようなCCD移動部150が組み上げられた状態で、第1アクチュエータ151aの駆動ロッドが緩速で移動すると、これに摩擦結合する第1摩擦結合部152aにより第1スライダ152がベース板151に対してX軸方向に移動する。このとき、第1スライダ152の移動にあわせて第2スライダ153もベース板151に対してX軸方向に移動する。第1アクチュエータ151aの駆動ロッドが急速に移動すると、慣性により第1スライダ152は停止する。また、第2アクチュエータ153aの駆動ロッドが緩速で移動すると、これに摩擦結合する第2摩擦結合部152bにより第2スライダ153が第1スライダ152に対してY軸方向に移動する。このとき、第1スライダ152のベース板151に対する移動はなされないため、第2スライダ153は単独でベース板151に対してY軸方向に移動することとなる。第2アクチュエータ153aの駆動ロッドが急速に移動すると、慣性により第2スライダ153は停止する。つまり、各圧電素子に与えられる駆動パルスによって各駆動ロッドが速度の異なる往動および復動(振動)を行うことにより、第2スライダ153がX軸・Y軸方向に移動することとなる。
【0158】
また、前述したように、ベース板151はカメラ本体部102のハウジング102aに固設され、CCD105は第2スライダ153に固設されることから、CCD105はカメラ本体部102のハウジング102aに対してXY平面内にて相対的に移動することとなる。したがって、CCD105は、撮影レンズ103に対してXY平面内にて相対的に移動することになり、結像平面上において画像として取得される領域が変更されることとなる。言い換えれば、CCD移動部150は、撮影レンズ103の光軸Lの垂直面(XY平面)内において、CCD105を撮影レンズ103に対して相対的に移動させることができる。
【0159】
図39に戻り、CCD105のZ軸正方向側には、移動するCCD105の位置を検出するためのCCD位置センサ158が配置されている。CCD位置センサ158は、発光ダイオード等で構成される2つの投光部156a,156b、および、フォトダイオード等で構成される2つの受光部157a,157bを備えている。投光部156a,156bはCCD105の裏面側(Z軸正方向側)に固設される一方、受光部157a,157bは投光部156a,156bにそれぞれ対向するようにカメラ本体部102のハウジング102aに固設される。投光部156a,156bから投光された光は受光部157a,157bにて受光可能となっており、この受光部157a,157bにて受光する光の位置の変化から、CCD105の位置がXY座標位置として求められる。具体的には、第1投光部156aおよび第1受光部157aにてCCD105のX軸方向の位置を検出し、第2投光部156bおよび第2受光部157bにてCCD105のY軸方向の位置を検出するようになっている。
【0160】
また、カメラ本体部102のハウジング102aの内部には、デジタルカメラ101の手ぶれによる振動を検出する振動センサ140が設けられている。振動センサ140は、2つの角速度センサ(第1角速度センサ141および第2角速度センサ142)を備えており、第1角速度センサ141にてX軸を中心とした回転振動(ピッチング)Piの角速度が検出され、第2角速度センサ142にてY軸を中心とした回転振動(ヨーイング)Yaの角速度が検出される。この振動センサ140により検出される2つの角速度に基づいて、CCD105がX軸およびY軸のそれぞれの方向に移動されることにより、画像中の被写体像のぶれの補正、すなわち、手ぶれ補正がなされることとなる。
【0161】
カメラ本体部102の上面側にはシャッタボタン161が設けられる。シャッタボタン161は、撮影準備の開始や撮像(露光開始)の指示をユーザから受け付けるボタンであり、半押し状態(状態S1)と全押し状態(状態S2)とが検出可能な2段階スイッチになっている。
【0162】
また、カメラ本体部102の背面側には、操作ボタン162、および、LCD163が設けられる。操作ボタン162は、デジタルカメラ101の各種設定をユーザから受け付けるものである。デジタルカメラ101はその動作モードとして、被写体の画像を取得して記録する撮像装置として機能する撮影モードと、記録された画像をLCD163に再生表示する画像再生装置として機能する再生モードとを備えている。操作ボタン162を操作することにより、この動作モードを、撮影モードと再生モードとの間で切り替えることができるようになっている。
【0163】
LCD163は、各種の情報や画像を表示するものである。撮影モードにおいてLCD163は、CCD105にて所定時間ごとに取得される画像を表示(ライブビュー表示)し、被写体像をユーザに確認させつつフレーミングを行わせるビューファインダとして機能する。一方、再生モードにおいてLCD163は、記録された画像を表示することとなる。
【0164】
また、カメラ本体部102の内部には、各種データを記録するメモリカード191(図41参照)を挿入して装着することが可能とされる。撮影モードにおいて、CCD105にて取得された画像は、このメモリカード191に記録されるようになっている。
【0165】
デジタルカメラ101の各種の機能は、カメラ本体部102のハウジング102a内に設けられる全体制御部の制御に基づいて行われる。図41は、この全体制御部107を含めたデジタルカメラ101の主たる機能構成を機能ブロックとして示す図である。
【0166】
図41に示すように、CCD105、CCD移動部150、CCD位置センサ158、振動センサ140、操作部MPおよびLCD163等のデジタルカメラ101の各処理部は全体制御部107に電気的に接続され、全体制御部107の制御下にて動作することとなる。これとともに、CCD位置センサ158にて検出されるCCD105の位置、振動センサ140にて検出される角速度、および操作部MPの操作内容等は、それぞれ信号として全体制御部107に入力される。
【0167】
なお、操作部MPは、シャッタボタン161、操作ボタン162、およびその他の操作ボタン(図示せず)を含んでおり、上記の第1実施形態と同様の各種の設定を行うことが可能である。
【0168】
撮影レンズ103は、ズーム駆動部134a、フォーカス駆動部135aおよび絞り駆動部133aを備えている。ズーム駆動部134aは、ズーム用レンズ134をZ軸方向に駆動して焦点距離を変更させる。フォーカス駆動部135aは、フォーカス用レンズ135をZ軸方向に駆動して焦点位置を変更させる。また、絞り駆動部133aは、全体制御部107により設定される絞り値となるように絞り133の開口径を調整する。ズーム駆動部134a、フォーカス駆動部135aおよび絞り駆動部133aも電気的に全体制御部107に接続され、全体制御部107の制御下にて動作する。
【0169】
また、図41において、A/D変換部121、画像処理部122および画像メモリ123は、CCD105にて取得された画像を扱う処理部を示している。すなわち、CCD105にて取得されたアナログ信号の画像は、A/D変換部121にてデジタル信号に変換され、画像処理部122にて所定の画像処理(ホワイトバランス補正、γ補正、色補正、解像度変換など)がなされた後、画像メモリ123に格納される。画像メモリ123に格納された画像は、記録用画像としてメモリカード191へ記録されたり、ライブビュー表示用画像としてLCD163に表示されることとなる。このような画像に対する各種の処理も全体制御部107の制御に基づいて行われる。
【0170】
全体制御部107は、マイクロコンピュータを備えて構成される。すなわち、全体制御部107は、各種演算処理を行うCPU170と、演算を行うための作業領域となるRAM171と、制御プログラム等が記憶されるROM172とを備え、上述したようなデジタルカメラ101の各処理部の動作を統括的に制御する。
【0171】
全体制御部107の各種の機能は、予めROM172内に記憶される制御プログラムに従ってCPU170が演算処理を行うことにより実現される。このような制御プログラムは、予めROM172内に記憶されているものであるが、メモリカード191から読み出すなどにより、新たな制御プログラムをROM172に格納することも可能とされている。
【0172】
<B2.動作>
つぎに、デジタルカメラ101の撮影モードにおける撮影動作について図42および図43などを参照しながら、さらに詳細に説明する。図42および図43は、構図ブラケット撮影におけるデジタルカメラ101の動作を示すフローチャートである。このフローチャートは、メインルーチンから所定の時間間隔(たとえば、数ミリ秒から数十ミリ秒間隔)で呼び出されるサブルーチンとして記載されている。これらのルーチンは、全体制御部107の制御下において実行される。また、説明の簡略化のため、この構図ブラケット撮影においては、手ぶれ補正機能を用いないものとして説明する。
【0173】
なお、ここでは、第1実施形態と同様に、構図ブラケットモードへの設定操作と、構図ブラケット撮影の範囲および枚数に関する設定操作(図13参照)とが既に行われているものとする。また、ここでは、5枚の画像を撮影する旨が設定されているものとする。
【0174】
この第2実施形態の構図ブラケット撮影では、撮影レンズ103(図39)の光軸Lに対する垂直面(XY平面)内においてCCD105(撮像素子)を撮影レンズ103に対して相対的に移動させ、移動後の複数(5つ)の位置のそれぞれにおいてCCD105による撮影画像を取得することによって、異なる構図の複数(5枚)の画像を取得する。なお、これらの複数の画像の撮影時においては、撮影レンズ103は、被写体に対して、撮影開始の指示入力時における所定の位置および姿勢を保ったままである(言い換えれば、同一の位置および姿勢を保持している)。なお、この第2実施形態においては、「撮影開始の指示入力」は、シャッタボタンが全押し状態S2にまで押下されることを意味するものとする。
【0175】
図44はCCD105の移動の様子を示す図であり、図45はその一部拡大図である。図44および図45に示すように、CCD105の中心位置は、位置Pcc,Pla,Pra,Prb,Plbの順に、XY平面内において移動する。そして、複数の位置Pcc,Pla,Pra,Prb,Plbのそれぞれで撮像動作が行われ画像が取得される。図44における領域Rccは、最初の位置Pcc(ホームポジションないし基準位置)で撮像された画像の被写体領域を示している。また、領域Rlaは位置Plaで撮像された画像の被写体領域を示しており、領域Rrbは位置Prbで撮像された画像の被写体領域を示している。なお、図44においては、図示の都合上、位置Pra,Plbに移動したときの被写体領域Rra,Rlbは示されていない。
【0176】
図44に示すように、CCD105の移動に伴って撮像される複数の画像の被写体領域は互いに異なっている。すなわち、これらの画像の構図は、互いに異なっている。また、いずれの画像も、撮影開始の指示入力が与えられたときのズーム用レンズの光軸方向における位置を変更することなく撮影されるので、第1実施形態と比べて、CCDにおいて有効な画素数を大きくすることができる。
【0177】
このような移動を伴う撮影ブラケット撮影について説明する。
【0178】
まず、図42に示すように、ステップSP51において、CCD105がホームポジション(基準位置)に存在するか否か(具体的には、CCD105の中心位置がPccに存在するか否か)を判定する。CCD105がホームポジションに存在しない場合は、ステップSP52でCCD105をホームポジションに移動させた後ステップSP53に進む。
【0179】
ステップSP53において、シャッタボタン161が半押し状態S1にされたか否かが判定される。半押し状態S1になっていると判定された場合には、ステップSP54に進む。一方、半押し状態S1になっていないと判定された場合には、このサブルーチンを一旦終了する。なお、その後、再びサブルーチンが実行されると、このステップSP54が再度実行される。
【0180】
ステップSP54〜ステップSP57においては、自動露光制御(AE制御)、オートフォーカス制御(AF制御)、オートホワイトバランス制御(AWB制御)が行われる。具体的には、ステップSP54で、測光値、測色値、AF用評価値が測定される。なお、AF用評価値としては、フォーカス用レンズの駆動を伴いつつ、複数の測定値が取得される。
【0181】
ステップSP55では、AE動作が行われる。具体的には、ステップSP15での測光動作における測光値に基づいて、露出制御パラメータ(シャッタスピード、絞り、ゲイン)の値が決定される。そして、露出制御パラメータがその値でロックされる。後のステップSP59,SP62の撮像処理においては、決定された露出制御パラメータ(同一の露出制御パラメータ)の値を用いて複数回の撮像処理が行われる。
【0182】
ステップSP56では、オートホワイトバランス動作(AWB動作)が行われる。具体的には、ステップSP54での測色動作における測色値に基づいて、ホワイトバランスを補正するAWB補正パラメータの値が決定される。そして、AWB補正パラメータがその値でロックされる。後のステップSP59,SP62の撮像処理においては、この補正パラメータの値でホワイトバランスが調整されて複数回の撮像処理が行われる。
【0183】
ステップSP57では、ステップSP54でのオートフォーカス動作に応じたフォーカス位置が決定され、構図ブラケット撮影におけるフォーカス位置がロックされる。後のステップSP59,SP62の撮像処理においては、このフォーカス位置で複数回の撮像処理が行われる。
【0184】
ステップSP58(図43)では、シャッタボタン161が全押し状態S2にされたか否かが判定される。シャッタボタン161が全押し状態S2にされていないと判定されるとこのサブルーチンを終了する。一方、シャッタボタン161が全押し状態S2にされていると判定されると、ステップSP59に進む。
【0185】
ステップSP59においては、撮像処理が行われる。具体的には、最初の露光動作による1枚の撮影画像が取得される。このとき、撮影パラメータ(具体的には、露出制御パラメータ、AWB補正パラメータ、およびフォーカス位置)はそれぞれステップSP55,SP56,SP57で設定された値になっている。また、ズーム用レンズのレンズ位置は、変更されない(そのままである)。この撮像処理による画像は、操作者が指定した構図に対応する画像である。この画像は、CCD105の所定領域(ここでは全領域)に結像される被写体像をその全範囲とする画像として取得され、所定の画像処理が施された後、画像メモリ123に一旦格納される。
【0186】
そして、ステップSP60においては、この撮像画像の記録処理が行われる。具体的には、画像メモリ123に格納された画像が、メモリカード191に転送されて、記録用画像としてメモリカード191内で記録される。
【0187】
ステップSP61では、CCD105の中心位置を次の位置Plaに移動させる。
【0188】
その後、撮像処理(ステップSP62)および記録処理(ステップSP63)が行われる。これにより、位置Plaでの撮影画像を取得することができる。
【0189】
ステップSP64では、全ての撮影が完了したか否かを判定する。より具体的には、5枚の撮影が全て完了したか否かが判定される。ここでは、未だ完了していないので、ステップSP65に進む。
【0190】
ステップSP65では、図44に示すように、全体制御部107は、CCD105をデジタルカメラ101の背面から見て、時計回り方向に1ステップ移動させる。すなわち、CCD105の中心位置を次の位置Praに移動させる。その後、ステップSP62に戻る。
【0191】
その後、ステップSP62,SP63,SP64において、上述したような処理を行う。これにより、位置Praの撮影画像を取得することができる。
【0192】
さらに、ステップSP62,SP63,SP64において、同様の処理を繰り返すことにより、残りの2枚の画像、すなわち、位置Prb,Plbでの撮影画像を取得することができる。このようにして、異なる構図の5枚の画像が撮影される。なお、これらの5枚の画像の撮影時においては、撮影パラメータ(具体的には、露出制御パラメータ、AWB補正パラメータ、およびフォーカス位置)はそれぞれステップSP55,SP56,SP57で設定された値のままである。また、ズーム用レンズのレンズ位置も変更されない。
【0193】
そして、ステップSP64で撮影が完了したと判定されるとステップSP66に進む。ステップSP66では、構図ブラケット撮影における露出制御パラメータ、AWB補正パラメータ、フォーカス位置のロックが解除される。
【0194】
そして、ステップSP67では、CCD105がホームポジションへと移動される。その後、このサブルーチンを終了し、メインルーチンに戻る。
【0195】
以上のように、この第2実施形態のデジタルカメラ101の構図ブラケット撮影によれば、シャッタボタンの押下(撮影開始の指示入力)に応じて、CCD105がXY平面内において撮影レンズ103に対して相対的に移動され、この移動に伴う複数の位置においてCCD105による撮影が行われて複数の画像が取得される。したがって、このような構図ブラケット撮影を行うことによれば、第1実施形態の構図ブラケット撮影と同様の効果を得ることができる。
【0196】
さらに、この第2実施形態の構図ブラケット撮影によれば、CCD105を撮影レンズ103に対して相対的に移動させて構図が異なる複数の撮影画像を取得している。したがって、焦点距離を広角側に変更して撮影する必要がないので、第1実施形態と比べて、撮像素子の画素をより有効に利用することができる。言い換えれば、画素数が低下することによる画質の低下を回避することができる。
【0197】
また、CCD105および撮影レンズ103は、その一方から見た他方の移動軌跡が途中で交差しないように相対移動されている。
【0198】
より具体的には、図45に示すように、CCD105の撮影レンズ103に対する移動軌跡(図中において太線で示す)は途中で交差していない。なお、この移動軌跡は、螺旋状(ないしループ状)のものとなっているとも表現できる。
【0199】
一方、図46は、CCD105の中心位置を、位置Pcc,Pla,Pra,Plb,Prbの順に移動させる場合の移動軌跡を示している。図46の移動軌跡は、図45の移動軌跡に比べて長くなっている。これは、図46の移動軌跡が途中で交差していることに基づくものである。あるいは、螺旋状(ないしループ状)ではないことに基づくものであるとも表現できる。
【0200】
したがって、図45のような順序でCCD105を移動させれば、図46に示すような順序でCCD105を移動させる場合に比べて、CCD105の移動距離を短くすることができる。このように、CCD105の移動距離を短くすることができるので、移動の高速化を図り、複数の画像をさらに短時間に撮影することが可能になる。特に、被写体の動きが激しい場合においても、被写体の状態の変化を最小限にとどめつつ、構図を変化させた複数の画像を取得することが可能になる。
【0201】
また、この第2実施形態においては、構図ブラケット撮影によって5枚の画像を撮影する場合について説明したが、これに限定されない。たとえば、9枚の画像を撮影するようにしても良い。
【0202】
図47は、9枚の画像を撮影する際の撮影順序(移動順序)を示す図である。図47においては、CCD105の中心位置の移動の様子を示している。図47に示すように、デジタルカメラ101は、CCD105を、その中心位置が各位置Pcc,Pla,Pca,Pra,Prc,Prb,Pcb,Plb,Plcに存在するようにこの順序で移動させ、各位置において撮像動作を行えばよい。
【0203】
この場合においても、図47の移動軌跡は図48の移動軌跡に比べて短くなっている。これは、図47の移動軌跡が途中で交差していないことに基づくものである。あるいは、螺旋状(ないしループ状)であることに基づくものであるとも表現できる。なお、図48は、別の移動例を示す図であり、CCD105の中心位置が各位置Pcc,Pla,Pca,Pra,Plc,Prc,Plb,Pcb,Prbに存在するようにこの順序で移動させ、各位置において撮像動作を行う場合を示している。
【0204】
<C.その他>
上記第1実施形態においては、操作者によってブラケット撮影枚数が設定される場合を例示したが、これに限定されない。たとえば、ブラケット範囲の広さに応じて構図ブラケットモードにおけるブラケット撮影枚数を決定するようにしてもよい。より具体的には、ブラケット範囲が「広い」に設定されていることが検出されるときにはブラケット撮影枚数を比較的多い数(たとえば9枚)に変更し、ブラケット範囲が「狭い」に設定されていることが検出されるときにはブラケット撮影枚数を比較的少ない数(たとえば5枚)に変更すればよい。このように、ブラケット範囲が広くなるにつれて、より多い枚数の画像を取得するようにしてもよい。これによれば、ブラケット範囲の広さに応じて、多様な構図の画像を得ることができる。
【0205】
上記第1実施形態においては、広角画像の領域R10の全範囲の画像データに基づいて測光値および測色値を算出する場合について例示したが、これに限定されない。たとえば、領域R21〜R25の全てに共通する領域R26(図23)の画像データを用いて、測光値および測色値を算出するようにしてもよい。
【0206】
また、上記第1実施形態においては、シャッタボタンが半押し状態S1にされた時点を撮影開始の指示入力がなされた時点であるとみなし、上記第2実施形態においては、シャッタボタンが全押し状態S2にされた時点を撮影開始の指示入力がなされた時点であるとみなしてる。言い換えれば、第1実施形態においては、撮影開始の指示入力は、シャッタボタンが半押し状態S1にされることにより与えられ、第2実施形態においては、撮影開始の指示入力は、シャッタボタンが全押し状態S2にされることによって与えられている。このように、撮影開始の指示入力は、撮影に関するいずれかの処理を開始すべき旨の指示を示すものであればよい。また、構図ブラケットモードにおける構図ブラケット撮影は、操作の容易化のため、このような指示入力、より具体的には、操作者からの1度の指示入力に応じて複数の画像を取得するものであることが好ましい。
【0207】
さらに、上記各実施形態においては、構図ブラケット撮影を行う場合について説明したが、その他の種類のブラケット撮影を行うことも可能である。たとえば、構図ブラケットモードにおける構図ブラケット撮影と、構図以外の所定の撮影条件に関する他のブラケットモードにおけるブラケット撮影(たとえば露出条件を変更しながら複数の画像を取得する露出ブラケット撮影)とを組み合わせて行うようにしてもよい。このような組み合わせに係るブラケット撮影を行う場合においては、その撮影条件の値(たとえば露出値)と構図との組合せを変更する一方で、その他の撮影条件(たとえば、ホワイトバランス)を同一にした状態(固定した状態)で複数の画像を取得する。これによれば、露出値などの所定の撮影条件をも変更するブラケット撮影を行う場合であっても、その他の撮影条件は同一で、構図のみが異なる複数の画像を取得することができる。
【0208】
さらに、上記実施形態においては、再生モードにおいて、通常撮影による画像に対してのみ構図ブラケット処理を施すことが可能であるとして説明したが、これに限定されない。たとえば、構図ブラケット撮影により撮影された複数の画像の1つに対して、再生モードにおいてさらに構図ブラケット処理を施すようにしてもよい。
【0209】
また、第2実施形態においては、撮影レンズとしてズームレンズを用いているが、必ずしもズームレンズを用いることを要しない。第2実施形態においては、第1実施形態とは異なり焦点距離を変更する必要がないので、撮影レンズとして単焦点レンズを用いてもよい。
【0210】
なお、上述した具体的実施形態には以下の構成を有する発明が含まれている。
【0211】
(1)請求項1に記載のデジタルカメラにおいて、
前記複数の画像を抽出する際の最大対象範囲を設定する範囲設定手段、
をさらに備え、
前記第2の位置は、前記範囲設定手段により設定された最大対象範囲が比較的狭い範囲に設定されたときには、比較的広い範囲に設定されたときに比べて、前記第1の位置に比較的近い位置に設定されることを特徴とするデジタルカメラ。
【0212】
これによれば、最大対象範囲が比較的狭い範囲に設定されたときには、比較的広い範囲に設定されたときに比べて、第2の位置が前記第1の位置に比較的近い位置に設定される。したがって、撮像手段による画像から複数の画像を抽出する際に切り取られる(トリミングされる)部分の画素数を少なくし、それらの複数の画像のそれぞれの画素数を大きくすることができるため、複数の画像を高画質のものとすることができる。
【0213】
(2)請求項1に記載のデジタルカメラにおいて、
前記第1の位置がワイド端であるときには、前記撮像手段は、前記ズームレンズのレンズ位置を変更することなく前記第1の位置のままで画像を取得し、前記制御手段は、当該画像を撮影画像として記録することを特徴とするデジタルカメラ。
【0214】
これによれば、ワイド端では構図ブラケット撮影を禁止することができる。
【0215】
(3)請求項1に記載のデジタルカメラにおいて、
前記第1の位置がワイド端であるときには、構図ブラケット撮影を実行することが不可能である旨の警告を行う警告手段、
をさらに備えることを特徴とするデジタルカメラ。
【0216】
これによれば、撮影者は構図ブラケット撮影を実行することが不可能であることを認識できる。
【0217】
(4)請求項1に記載のデジタルカメラにおいて、
前記撮像手段による画像に基づくライブビューを表示する表示手段、
をさらに備え、
前記表示手段は、
前記指示入力の前においては、前記撮像手段による画像を前記表示手段の表示領域に合わせて表示し、
前記指示入力の後に、前記ズームレンズのレンズ位置が前記第2の位置に移動しているときにおいては、前記撮像手段による画像から、前記第1の位置における画角に対応する大きさの画像を抽出し、当該抽出した画像を前記表示手段の表示画面の大きさに合わせて拡大して表示することを特徴とするデジタルカメラ。
【0218】
これによれば、ライブビューにおける被写体の大きさは指示入力前後で変化しないので、ライブビューを見ている撮影者に違和感を与えずに済む。
【0219】
(5)請求項1に記載のデジタルカメラにおいて、
前記撮像手段により取得された画像の全範囲に基づいて、測光値および測色値の少なくとも一方を取得する手段、
をさらに備えることを特徴とするデジタルカメラ。
【0220】
これによれば、全体として最適な値を一度に求めることができる。
【0221】
(6)デジタルカメラであって、
前記撮像素子および前記撮影レンズは、その一方から見た他方の移動軌跡が途中で交差しないように相対移動されることを特徴とするデジタルカメラ。
【0222】
これによれば、撮像素子と撮影レンズとの相対的な移動距離を短くすることができる。
【0223】
(7)デジタルカメラであって、
撮影光学系と、
前記撮影光学系からの被写体像を光電変換を用いて画像として取得する撮像手段と、
前記撮像手段を用いて異なる構図の複数の画像を取得する構図ブラケットモードを、撮影モードとして設定する設定手段と、
前記撮影モードとして前記構図ブラケットモードが設定されている場合には、互いに異なる構図を有する複数の画像を取得するように制御する制御手段と、
前記取得された複数の画像を、その構図の位置関係を示す情報とともに記録する記録手段と、
を備えることを特徴とするデジタルカメラ。
【0224】
これによれば、構図ブラケット撮影により取得された複数の画像が、その構図の位置関係を示す情報とともに記録されるので、画像の選別あるいは整理が容易になる。
【0225】
(8)前記(7)に記載のデジタルカメラにおいて、
撮影モードと再生モードとの切替を行う切替手段と、
前記切替手段により再生モードに切り換えられた場合には、前記複数の画像を、その構図の位置関係を明示して表示する表示手段と、
をさらに備えることを特徴とするデジタルカメラ。
【0226】
これによれば、再生モードにおいて、構図ブラケット撮影による複数の画像が、その構図の位置関係を示す情報とともに生成されるので、画像の選別あるいは整理が容易になる。
【0227】
(9)デジタルカメラであって、
撮影光学系と、
前記撮影光学系からの被写体像を光電変換を用いて画像として取得する撮像手段と、
前記撮像手段を用いて異なる構図の複数の画像を取得する構図ブラケットモードを、撮影モードとして設定する設定手段と、
前記撮影モードとして前記構図ブラケットモードが設定されている場合には、互いに異なる構図を有する複数の画像を、共通の被写体領域を有する状態(その撮影範囲が重なった状態)で取得するように制御する制御手段と、
を備えることを特徴とするデジタルカメラ。
【0228】
これによれば、互いに異なる構図を有する複数の画像が、共通の被写体領域を有する状態(その撮影範囲が重なった状態)で取得されるので、主要な被写体を含む異なる構図の複数の画像をより確実に得ることが可能になる。
【0229】
(10)デジタルカメラであって、
撮影光学系と、
前記撮影光学系からの被写体像を光電変換を用いて画像として取得する撮像手段と、
前記撮像手段を用いて異なる構図の複数の画像を取得する構図ブラケットモードを、撮影モードとして設定する設定手段と、
前記構図ブラケットモードにおけるブラケット撮影枚数を設定する枚数設定手段と、
撮影開始の指示入力を受け付ける入力手段と、
前記撮影モードとして前記構図ブラケットモードが設定されている場合には、前記枚数設定手段により設定されたブラケット撮影枚数の画像を前記指示入力に応じて取得するように制御する制御手段と、
を備えることを特徴とするデジタルカメラ。
【0230】
これによれば、構図ブラケットモードにおけるブラケット撮影枚数を変更することができるので、多様な要求に応えることが可能になる。
【0231】
(11)デジタルカメラであって、
光学ズームを行うことが可能なズームレンズと、
前記ズームレンズからの被写体像を光電変換を用いて画像として取得する撮像手段と、
前記撮像手段を用いて異なる構図の複数の画像を取得する構図ブラケットモードを、撮影モードとして設定する設定手段と、
前記構図ブラケットモードにおけるブラケット範囲を設定する範囲設定手段と、
撮影開始の指示入力を受け付ける入力手段と、
前記ズームレンズのレンズ位置を、前記指示入力時の操作者の設定による第1の位置から、前記第1の位置よりも広角側の位置へと移動させた状態で、前記ズームレンズからの被写体像を光電変換を用いて画像として取得する撮像手段と、前記撮像手段により取得された画像から、前記第1の位置における画角に対応する大きさを有し且つ前記画像内における位置が互いに異なる複数の領域を抽出することによって、互いに異なる構図を有する複数の画像を生成する制御手段と、
を備え、
前記第1の位置よりも広角側の位置は、前記範囲設定手段により設定されたブラケット範囲に応じて調整された位置であることを特徴とするデジタルカメラ。
【0232】
これによれば、構図ブラケットモードにおけるブラケット範囲を変更することができるので、多様な要求に応えることが可能になる。
【0233】
(12)前記(11)に記載のデジタルカメラにおいて、
前記ブラケット範囲の広さに応じて前記構図ブラケットモードにおけるブラケット撮影枚数を変更する変更手段、
をさらに備えることを特徴とするデジタルカメラ。
【0234】
これによれば、ブラケット範囲の広さに応じて、多様な構図の画像を得ることができる。
【0235】
(13)請求項3に記載のデジタルカメラにおいて、
前記設定手段は、構図ブラケットモードと、前記構図以外の所定の撮影条件に関する他のブラケットモードとを組み合わせて設定することが可能であり、
前記制御手段は、所定の撮影条件との組合せを変更する一方で前記所定の撮影条件以外の撮影条件を同一にした状態で、異なる構図の複数の画像を取得することを特徴とするデジタルカメラ。
【0236】
これによれば、構図以外に所定の撮影条件をも変更するブラケット撮影を行う場合であっても、その他の撮影条件は同一で、構図のみが異なる複数の画像を取得することができる。
【0237】
(14)請求項4に記載の画像処理装置において、
前記複数の画像を、その構図の位置関係を示す情報とともに記録する記録手段、
をさらに備えることを特徴とする画像処理装置。
【0238】
これによれば、互いに異なる構図を有する複数の画像が、その構図の位置関係を示す情報とともに記録されるので、画像の選別あるいは整理が容易になる。
【0239】
(15)請求項4に記載の画像処理装置において、
前記複数の画像は、共通の被写体領域を有する状態で取得されることを特徴とする画像処理装置。
【0240】
これによれば、互いに異なる構図を有する複数の画像が、共通の被写体領域を有する状態で取得されるので、主要な被写体を含む異なる構図の複数の画像を、より確実に得ることが可能になる。
【0241】
(16)請求項4に記載の画像処理装置において、
前記複数の画像として生成すべき画像の枚数を設定する枚数設定手段、
をさらに備えることを特徴とする画像処理装置。
【0242】
これによれば、複数の画像として生成すべき枚数を変更することができるので、多様な要求に応えることが可能になる。
【0243】
(17)請求項4に記載の画像処理装置において、
前記対象画像の被写体領域の大きさと前記生成手段により生成される複数の画像の被写体領域の大きさとの関係を設定する設定手段、
をさらに備えることを特徴とする画像処理装置。
【0244】
これによれば、対象画像の被写体領域の大きさと生成手段により生成される複数の画像の被写体領域の大きさとの関係を設定することができるので、多様な要求に応えることが可能になる。
【0245】
(18)請求項5に記載のプログラムにおいて、
前記プログラムは、前記コンピュータを、さらに、
前記複数の画像を、その構図の位置関係を示す情報とともに記録する記録手段、
としても機能させることを特徴とするプログラム。
【0246】
これによれば、互いに異なる構図を有する複数の画像が、その構図の位置関係を示す情報とともに記録されるので、画像の選別あるいは整理が容易になる。
【0247】
(19)請求項5に記載のプログラムにおいて、
前記複数の画像は、共通の被写体領域を有する状態で取得されることを特徴とするプログラム。
【0248】
これによれば、互いに異なる構図を有する複数の画像が、共通の被写体領域を有する状態で取得されるので、主要な被写体を含む異なる構図の複数の画像を、より確実に得ることが可能になる。
【0249】
(20)請求項5に記載のプログラムにおいて、
前記プログラムは、前記コンピュータを、さらに、
前記複数の画像として生成すべき画像の枚数を設定する枚数設定手段、
としても機能させることを特徴とするプログラム。
【0250】
これによれば、複数の画像として生成すべき枚数を変更することができるので、多様な要求に応えることが可能になる。
【0251】
(21)請求項5に記載のプログラムにおいて、
前記プログラムは、前記コンピュータを、さらに、
前記対象画像の被写体領域の大きさと前記生成手段により生成される複数の画像の被写体領域の大きさとの関係を設定する設定手段、
としても機能させることを特徴とするプログラム。
【0252】
これによれば、対象画像の被写体領域の大きさと生成手段により生成される複数の画像の被写体領域の大きさとの関係を設定することができるので、多様な要求に応えることが可能になる。
【0253】
【発明の効果】
以上のように、請求項1に記載の発明によれば、撮影開始の指示入力に応じて、その構図が互いに異なる複数の画像を取得すること(すなわち構図ブラケット撮影を行うこと)ができる。したがって、より良い構図の撮影画像を得ることが可能になる。
【0254】
請求項2に記載の発明によれば、撮影開始の指示入力に応じて、その構図が互いに異なる複数の画像を取得すること(すなわち構図ブラケット撮影を行うこと)ができる。したがって、より良い構図の撮影画像を得ることが可能になる。また、焦点距離を広角側に変更する必要がないので、画質の低下を回避できる。
【0255】
請求項3に記載の発明によれば、互いに異なる構図を有する複数の画像が構図以外の撮影条件のうち少なくとも1つの条件を同一にした状態で取得されるので、構図以外の少なくとも1つの条件に影響されることなくそれらの複数の画像の中から最も良い構図の画像を選択することが可能になる。
【0256】
請求項4および請求項5に記載の発明によれば、指示入力に応じて、対象画像よりも小さく且つ対象画像内での位置が異なる複数の領域を対象画像から抽出することにより、互いに異なる構図を有する複数の画像を生成することができるので、その構図が互いに異なる複数の画像を簡易に生成することができる。
【図面の簡単な説明】
【図1】デジタルカメラの外観構成を示す正面図である。
【図2】デジタルカメラの外観構成を示す上面図である。
【図3】デジタルカメラの外観構成を示す背面図である。
【図4】デジタルカメラの内部機能を示すブロック図である。
【図5】ファンクション操作部およびデジタルエフェクト操作部を示す図である。
【図6】被写体の撮影範囲を示す図である。
【図7】被写体の撮影範囲を示す図である。
【図8】被写体の撮影範囲を示す図である。
【図9】被写体の撮影範囲を示す図である。
【図10】構図ブラケット撮影におけるデジタルカメラの動作を示すフローチャートである。
【図11】構図ブラケット撮影におけるデジタルカメラの動作を示すフローチャートである。
【図12】警告表示画面を示す図である。
【図13】構図ブラケットの設定画面を示す図である。
【図14】ズームレンズの位置を示す図である。
【図15】ズームレンズの移動後の撮影範囲(ブラケット範囲が広い場合)を示す図である。
【図16】ズームレンズの移動後の撮影範囲(ブラケット範囲が狭い場合)を示す図である。
【図17】ライブビュー画面G3を示す図である。
【図18】広角画像の中央領域を示す図である。
【図19】広角画像の左上領域を示す図である。
【図20】広角画像の右上領域を示す図である。
【図21】広角画像の右下領域を示す図である。
【図22】広角画像の左下領域を示す図である。
【図23】共通の被写体領域を示す図である。
【図24】名称付与ルール(構図ブラケット撮影以外)を説明する図である。
【図25】名称付与ルール(構図ブラケット撮影)を説明する図である。
【図26】ファイル名称の例を示す図である。
【図27】ファイル名称の他の例を示す図である。
【図28】画像ファイルの構造を示す図である。
【図29】9枚の画像を取得する場合の取得順序を示す図である。
【図30】再生モードにおける動作を示すフローチャートである。
【図31】構図ブラケット撮影画像についての再生表示画面を示す図である。
【図32】構図ブラケット撮影画像についての再生表示画面を示す図である。
【図33】再生モードにおけるメニュー画面を示す図である。
【図34】構図ブラケット処理による生成画像の元画像に対する位置を示す図である。
【図35】構図ブラケット処理による生成画像の元画像に対する位置を示す図である。
【図36】構図ブラケット処理による生成画像の元画像に対する位置を示す図である。
【図37】構図ブラケット処理による生成画像の元画像に対する位置を示す図である。
【図38】構図ブラケット処理による生成画像の元画像に対する位置を示す図である。
【図39】第2実施形態に係るデジタルカメラの主たる構成を示す断面図である。
【図40】CCD移動部の分解斜視図である。
【図41】機能ブロック図である。
【図42】第2実施形態の構図ブラケット撮影における動作を示すフローチャートである。
【図43】第2実施形態の構図ブラケット撮影における動作を示すフローチャートである。
【図44】CCDの移動の様子を示す図である。
【図45】図44の一部拡大図である。
【図46】CCDの別の移動の様子を示す図である。
【図47】9枚の画像を撮影する際の撮影順序を示す図である。
【図48】CCDの別の移動の様子を示す図である。
【符号の説明】
1,101 デジタルカメラ
2,103 撮影レンズ
2a ズームリング
4 EVF
5,163 LCD
6 メニューボタン
7 コントロールボタン
7C 決定ボタン
7U,7D,7L,7R 十字カーソルボタン
9,161 シャッタボタン
11 ファンクション操作部
14 デジタルエフェクト操作部
20,105 CCD撮像素子
150 CCD移動部
90,191 メモリカード
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a digital camera, an image processing device, and a program.
[0002]
[Prior art]
Some digital cameras include a bracket in which a plurality of images are shot in response to a single press of a shutter button with respect to an exposure, a flash emission amount, and a color temperature (white balance), as disclosed in Patent Document 1, for example. There are things that can take pictures.
[0003]
In such bracket photographing, a plurality of images can be photographed while changing conditions such as exposure, and an optimal image can be selected from the plurality of images after photographing.
[0004]
[Patent Document 1]
JP 2001-285779 A
[0005]
[Problems to be solved by the invention]
By the way, factors that determine the quality of a photograph include “composition” (or framing) in addition to the above-described photographing conditions related to exposure, flash emission amount, and color temperature.
[0006]
However, as the above bracket shooting, there is a type that obtains a plurality of images while changing at least one of the above-described exposure, flash emission amount, and color temperature shooting conditions, but changes the “composition” (or framing). There is no one that acquires multiple images while doing so.
[0007]
Therefore, if the composition of the photographed image is different from the composition intended by the photographer, there is a problem that the photographing is performed again or trimming is manually performed after the photographing. Further, the trimming operation by manual operation is very difficult.
[0008]
In view of the above problems, an object of the present invention is to provide a digital camera, an image processing device, and a program capable of acquiring a plurality of images having different compositions.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, an invention according to claim 1 is a digital camera, comprising: a zoom lens capable of performing an optical zoom; input means for receiving an instruction input of photographing start; and a lens position of the zoom lens. And subjecting the subject image from the zoom lens to photoelectric conversion while moving from the first position set by the operator at the time of inputting the instruction to a second position on the wider angle side than the first position. Image capturing means for obtaining an image by using the image capturing means, and a plurality of regions having a size corresponding to the angle of view at the first position and having different positions in the image from the image obtained by the image capturing means. And control means for performing composition bracket photographing by extracting the image as an image.
[0010]
The invention according to claim 2 is a digital camera, wherein a photographing lens, an image pickup device that acquires a subject image from the photographing lens as an image using photoelectric conversion, and in a plane perpendicular to an optical axis of the photographing lens, Moving means for moving the imaging element relative to the imaging lens; input means for receiving an instruction input for imaging start; and, in response to the instruction input, moving the imaging element and the imaging lens in the vertical plane. And a control unit that performs composition bracket photographing by photographing with the image sensor at a plurality of positions relatively moved in and acquiring a plurality of images.
[0011]
The invention according to claim 3 is a digital camera, comprising: a photographing optical system; a photographing unit that acquires a subject image from the photographing optical system as an image using photoelectric conversion; and a composition that acquires a plurality of images having different compositions. Setting means for setting a bracket mode as a photographing mode; and, when the composition bracket mode is set as the photographing mode, a plurality of images having different compositions from each other, at least one of photographing conditions other than the composition. And control means for controlling the acquisition in the same state.
[0012]
The invention according to claim 4, which is an image processing apparatus, comprising: an acquisition unit that acquires a target image to be processed; an input unit that receives an instruction input for processing start; A generation unit configured to generate a plurality of images having different compositions from each other by extracting a plurality of regions that are small and have different positions in the target image from the target image.
[0013]
The invention according to claim 5, wherein the computer obtains a target image to be processed, an input unit that receives an input of an instruction to start processing, and, in response to the instruction input, the computer is smaller than the target image and the target is smaller than the target image. A program for causing a plurality of regions having different positions in the image to be extracted from the target image to generate a plurality of images having different compositions from each other, and a function to function as generating means.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0015]
<A. First Embodiment>
<A1. Configuration>
1, 2 and 3 are views showing the external configuration of a digital camera 1 according to an embodiment of the present invention. FIG. 1 is a front view, FIG. 2 is a top view, and FIG. 3 is a rear view. These drawings do not always conform to the triangular projection, and the main purpose is to exemplify the appearance of the digital camera 1. This digital camera functions not only as an imaging device but also as an image processing device.
[0016]
A photographing lens 2 is provided on the front side of the digital camera 1. The taking lens 2 is a zoom lens having a zoom function (optical zoom function), and can perform optical zoom (in other words, adjust the angle of view). This optical zoom is realized by changing the focal length of the taking lens 2. The focal length is changed within a predetermined range. In the digital camera 1, the focal length is changed from 28 mm (wide end) to 210 mm (tele end). In this specification, the focal length is represented by a value converted into a focal length in a 35 mm film camera (also referred to as a 35 mm film equivalent or a value equivalent to 35 mm).
[0017]
The photographer can specify the photographing magnification of the photographed image by using the zoom ring 2a. Specifically, it is possible to change the photographing magnification by rotating the zoom ring 2a manually. The zoom ring 2a functions as an operation switch for performing optical zoom. More specifically, the zoom ring 2a is supported by an elastic member inside the digital camera while receiving an elastic force (restoring force) for returning to the reference position (home position). In this state, the lens position of the taking lens 2 is stopped at that position. Thereafter, when the operator manually rotates the zoom ring 2a against the restoring force, the zoom ring 2a is rotated to an arbitrary angle from its reference position to a predetermined angle. The digital camera 1 detects a deviation of the zoom ring 2a from a reference position by a rotation detection sensor provided inside the digital camera 1. Upon detecting this shift, the digital camera 1 drives the zoom motor of the lens drive unit 41 (FIG. 4) to move the lens position of the taking lens 2. Thereby, the magnification (in other words, the angle of view) in the optical zoom is changed. It is preferable that the moving speed of the lens position is adjusted based on the detected rotation angle. For example, when the rotation angle is large, the movement may be performed at a higher speed than when the rotation angle is small. According to this, it is easy to adjust the magnification in the optical zoom.
[0018]
By changing the focal length of the photographing lens 2 in this manner, the photographing magnification in the optical zoom of the photographing lens 2 is changed. In addition, as described later, the digital camera 1 may change the position of the photographing lens 2 under the control of the overall control unit 30 and the lens driving unit 41 other than the manual operation using the zoom ring 2a (in other words, The photographing magnification in the optical zoom can be changed).
[0019]
Further, a shutter button (release button) 9 is provided above the grip portion 1a of the digital camera 1, and the shutter button 9 is pressed halfway by the user (hereinafter also referred to as state S1) and fully pressed (hereinafter referred to as state S1). , State S2). When the automatic focusing mode is set, the digital camera 1 starts the automatic focusing control in the half-pressed state S1 and the main photographing operation for photographing a recording image in the fully-pressed state S2. To start. Here, it is assumed that when the shutter button 9 is set to the former state (that is, the half-pressed state S1), the input of an instruction to start shooting from the operator (user) is accepted.
[0020]
Further, on the upper surface of the digital camera 1, a mode switching dial 3 for switching and setting between a "photographing mode" and a "reproduction mode" is provided. The shooting mode is a mode in which shooting of a subject is performed to generate image data. The reproduction mode is a mode in which image data recorded on the memory card 90 is reproduced and displayed on a liquid crystal display (hereinafter, referred to as LCD) 5 provided on the back side of the digital camera 1.
[0021]
More specifically, the shooting mode can be set by rotating and moving a portion where "shooting" indicating the shooting mode is displayed to a predetermined position (triangle mark MT in FIG. 2). The playback mode can be set by rotating and moving a portion where "play" indicating the playback mode is displayed to a predetermined position (triangle mark MT in FIG. 2).
[0022]
The dial 3 is also used to receive a power-on operation and a power-off operation. That is, the dial 3 can be referred to as a power operation unit. Specifically, an operation of turning off the power (power-off operation) is performed by rotating and moving the portion of the dial 3 where “OFF” is displayed to a predetermined position (triangle in FIG. 2). .
[0023]
On the back of the digital camera 1, an LCD 5 and an electronic view finder (hereinafter, referred to as EVF) 4 for performing live view display and playback display of a recorded image before the actual shooting operation are provided. Each of the LCD 5 and the EVF 4 displays a color image. The LCD 5 and the EVF 4 each have a predetermined pixel size (for example, 320 pixels × 240 pixels).
[0024]
A menu button 6 is provided on the back of the digital camera 1. For example, when the menu button 6 is pressed in the shooting mode, various menu screens for setting various shooting conditions and the like are displayed on the LCD 5. . On the back of the digital camera 1, there are provided cross cursor buttons 7U, 7D, 7L, 7R for moving a display cursor on the LCD 5 in four directions, and a decision button 7C provided at the center of the cross cursor button. A control button 7 is provided. Using the menu button 6 and the control button 7, an operation for setting various shooting parameters is performed. The setting states of various shooting parameters are displayed on a data panel 8 arranged on the upper surface side of the digital camera 1. Further, on the back of the digital camera 1, a switching button 13 for switching display contents (especially, display state of shooting information) displayed on the LCD 5 during live view display is provided.
[0025]
Further, a focusing mode switching button 12 for switching the focusing mode between the automatic focusing mode and the manual focusing mode is provided on a side surface of the digital camera 1.
[0026]
Further, on the side surface of the digital camera 1, as shown in FIG. 5A, operations for setting conditions (image size, image quality, exposure mode, drive mode, white balance, imaging sensitivity) of the digital camera 1 are performed. Function operation unit 11 is provided. The function operation unit 11 includes a function button 11a provided at the center and a function dial 11b provided rotatably.
[0027]
Further, on the side of the digital camera 1, a digital effect operation unit 14 (see FIG. 5B) for performing an operation related to another setting state of the digital camera 1 (specifically, exposure correction, contrast, saturation, and composition). ) Is provided. As shown in the detailed view of FIG. 5B, the digital effect operation unit 14 includes a digital effect button 14a provided at the center and a digital effect lever 14b provided rotatably. You.
[0028]
A front dial 10 for performing various adjustments of the digital camera 1 is provided on the front side of the upper surface of the digital camera 1.
[0029]
In the digital camera 1, the “composition bracket mode” can be set by using the front dial 10, the function operation unit 11, and the digital effect operation unit 14 described above. Here, the “composition bracket mode” means a shooting mode for acquiring a plurality of images having different compositions from each other. The photographing in the composition bracket mode is performed in response to a photographing start instruction input by the shutter button 9 or the like.
[0030]
Specifically, the function dial 11b of the function operation unit 11 is rotated to select an option of a “drive mode” for setting various photographing modes (continuous photographing, self-timer, bracket photographing) in the photographing mode ( 5 (a), turning the front dial 10 while pressing the function button 11a selects an option for performing bracket shooting. At this time, the operator can confirm which option is currently selected by displaying on the data panel 8. Thereafter, the user selects the "composition" option (see FIG. 5A) using the digital effect lever 14b. Thereby, setting to perform bracket shooting (also referred to as “composition bracket shooting”) that acquires a plurality of images while changing the composition little by little (in other words, setting composition bracket shooting as a shooting mode) can be performed. it can. By selecting another option using the digital effect lever 14b, another type of bracket shooting (for example, bracket shooting related to exposure correction, contrast, saturation, etc.) can be performed.
[0031]
Further, on the side surface of the digital camera 1, there is provided an insertion mount for a memory card 90 which is a recording medium which can be inserted and removed (detachable), and image data obtained by actual shooting is set in this insert mount. It is recorded on the memory card 90.
[0032]
Next, the internal configuration of the digital camera 1 will be described. FIG. 4 is a block diagram illustrating internal functions of the digital camera 1.
[0033]
The photographing lens (photographing optical system) 2 is driven by a lens driving unit 41 and is configured to change the focus state of an image formed on the CCD image pickup device 20. At the time of automatic focusing (auto focus) setting, the overall control unit 30 automatically determines the lens driving amount of the photographing lens 2 from the image, and the photographing lens 2 is driven based on this lens driving amount. At the time of focus (manual focus) setting, the lens driving amount is determined according to the operation amount of the control button 7 by the user, and the photographing lens 2 is driven based on this lens driving amount.
[0034]
The photographing lens 2 also has an optical zoom function as described above, and moves the position of a lens having a focal length adjusting function (hereinafter, also simply referred to as “zoom lens”) of the photographing lens 2. By doing so, the magnification at the time of shooting can be adjusted (in other words, the angle of view at the time of shooting can be adjusted).
[0035]
The CCD imaging device 20 functions as an imaging unit that captures a subject image and generates an electronic image signal. For example, the CCD imaging device 20 has 2560 × 1920 pixels and emits light of the subject formed by the imaging lens 2. The image is photoelectrically converted into an image signal of R (red), G (green), and B (blue) for each pixel (a signal composed of a signal sequence of pixel signals received by each pixel) and output. The timing generator 42 generates various timing pulses for controlling the driving of the CCD imaging device 20.
[0036]
An image signal obtained from the CCD image pickup device 20 is supplied to a signal processing circuit 21, which performs predetermined analog signal processing on the image signal (analog signal). The signal processing circuit 21 has a correlated double sampling circuit (CDS) and an automatic gain control circuit (AGC). The signal processing circuit 21 performs noise reduction processing of the image signal by the correlated double sampling circuit, and controls the gain by the auto gain control circuit. By performing the adjustment, the level of the image signal is adjusted.
[0037]
The A / D converter 22 converts each pixel signal of the image signal into a 12-bit digital signal. The A / D converter 22 converts each pixel signal (analog signal) into a 12-bit digital signal based on an A / D conversion clock input from the overall control unit 30. The converted digital signal is temporarily stored in the image memory 44 as image data. Then, the image data stored in the image memory 44 is subjected to various processes by a WB circuit 23, a γ correction circuit 24, a color correction unit 25, a resolution conversion unit 26, a compression / decompression unit 46, and the like, which will be described below. . Further, the image data after each processing is re-stored in the image memory 44 again or transferred to another processing unit according to the content of each processing.
[0038]
The WB (white balance) circuit 23 performs level conversion of each of the R, G, and B color components. The WB circuit 23 converts the levels of the R, G, and B color components using a level conversion table stored in the overall control unit 30. The parameters (gradients of the characteristics) of the respective color components in the level conversion table are set automatically or manually by the overall control unit 30 for each captured image. The γ correction circuit 24 corrects the gradation of the pixel data.
[0039]
The color correction unit 25 performs color correction on the image data input from the γ correction circuit 24 based on the color correction parameters set by the user, and converts the color information expressed in the RGB color space into the YCrCb color space. Is converted to the color information represented by. By this color system conversion, a luminance component value Y is obtained for all pixels.
[0040]
The resolution converter 26 performs a predetermined resolution conversion on image data obtained from the CCD image sensor 20.
[0041]
For example, at the time of live view display, the resolution conversion unit 16 performs predetermined resolution conversion on the image data obtained from the CCD image pickup device 20, and image data (320 × 240 pixels) having an image size suitable for the number of display pixels of the LCD 5. That is, a live view image is generated. Also, at the time of automatic focusing, an image component corresponding to the AF evaluation area is extracted, unlike during live view display. At the time of actual photographing, the resolution conversion unit 26 stores image data having a relatively high resolution in the image memory 44 via the overall control unit 30.
[0042]
At the time of live view display, the image data that has been subjected to predetermined resolution conversion by the resolution conversion unit 26 is provided to the image synthesis unit 43 via the overall control unit 30, and the live view image is displayed on the LCD 5 and the EVF 4. At the same time, it is also provided to the photometric calculation unit 28, and an evaluation value for automatic exposure (AE) control is calculated. On the other hand, at the time of automatic focusing control, an image component corresponding to the AF evaluation area specified by the overall control unit 30 is extracted, and image data of the image component is provided to the AF evaluation value calculation unit 27, and the automatic focusing control is performed. An evaluation value for (AF) control is calculated.
[0043]
The AF evaluation value calculation unit 27 functions when the shutter button 9 is half-pressed by the user, and performs an evaluation value calculation operation for performing automatic focusing control of the contrast method. Here, the sum of absolute differences between two pixels adjacent in the horizontal direction for the image component corresponding to the AF evaluation area is calculated as the AF evaluation value. Then, the AF evaluation value calculated by the AF evaluation value calculation unit 27 is output to the overall control unit 30, and automatic focusing control is realized.
[0044]
The photometric calculation unit 28 divides the image data output from the resolution conversion unit 26 into a plurality of blocks, and calculates an AE evaluation value based on the representative luminance value of each block. Then, the AE evaluation value calculated in the photometry calculation unit 28 is output to the overall control unit 30 and used for automatic exposure control in the overall control unit 30.
[0045]
The image memory 44 is a memory for temporarily storing image data obtained by the CCD image pickup device 20 at the time of the main photographing and subjected to the above-described image processing. The image memory 44 has a storage capacity for several frames, for example. Then, when after-viewing of the image is performed after the main shooting, image data is provided from the image memory 44 to the image synthesizing unit 43, and image display for confirming the shot image is performed. After photographing, the image data is transferred from the image memory 44 to the memory card 90, and the image data is recorded and stored.
[0046]
The card interface (card I / F) 47 is an interface for writing and reading image data to and from the memory card 90 mounted on the insertion mounting portion on the side of the digital camera 1. When reading / writing image data from / to the memory card 90, the compression / expansion unit 46 performs a compression process or an expansion process on the image data by, for example, the JPEG method. An external connection interface (external connection I / F) 48 is an interface for enabling communication with an external computer 91 via a communication cable or the like, and is realized by, for example, a communication interface or the like compliant with the USB standard. Via the card I / F 47 and the external connection I / F 48, a control program recorded on a recording medium such as a CD-ROM set in the memory card 90 or the external computer 91 is stored in the RAM 30a or the ROM 30b of the overall control unit 30. Can be captured. By executing the program in the overall control unit 30, various functions are realized.
[0047]
The operation unit 45 is an operation unit including the dial 3, the menu button 6, the control button 7, the shutter button 9, the function operation unit 11, the focusing mode switching button 12, the switching button 13, and the like. It is used when changing the setting state of the camera or when performing a shooting operation.
[0048]
The real-time clock 49 is a so-called clock unit. The digital camera 1 can recognize the current time by the timing function of the real-time clock 49.
[0049]
Further, the digital camera 1 uses a battery 51 as a drive source. As the battery 51, for example, four AA batteries connected in series can be used. The power supply from the battery 51 to each processing unit in the digital camera 1 is controlled by the power control unit 52.
[0050]
The overall control unit 30 is configured by a microcomputer having a RAM 30a and a ROM 30b therein. The microcomputer executes a predetermined program, and functions as a control unit that controls the above units in an integrated manner. Note that the ROM 30b is a nonvolatile memory in which data can be electrically rewritten.
[0051]
In the photographing mode, the overall control unit 30 instructs the timing generator on a driving method for driving the CCD image sensor 20. In particular, when the user does not operate the shutter button 9, the overall control unit 30 instructs the timing generator to repeat the photographing operation by the CCD imaging device 20 to obtain a live view image. As a result, a captured image (live view image) for live view display is acquired by the CCD imaging device 20.
[0052]
<A2. Composition bracket shooting>
Here, an outline of the composition bracket mode will be described with reference to FIGS.
[0053]
6 to 8 are diagrams illustrating a shooting area (shooting range) of the subject B. FIG. 6 is a diagram illustrating the photographing region R0 when the focal length of the photographing lens 2 is 31 mm, for example.
[0054]
Regarding the composition of the subject B (also referred to as framing), even if the operator decides the composition as shown in FIG. 6, such composition is not always optimal. For example, as shown in FIG. 8, it may be preferable to set an area R2 slightly shifted to the upper left from the imaging area R0 as the imaging area. Alternatively, as shown in FIG. 9, it may be preferable to set an area R3 slightly shifted to the lower right side from the imaging area R0 as the imaging area.
[0055]
Therefore, in this case, three images in which each of these regions R0, R2, and R3 is a photographing range are acquired in the photographing by pressing the shutter button 9 once.
[0056]
Specifically, in the first embodiment, an image having a relatively wide angle of view (an image on the relatively wide angle side) is obtained by temporarily shortening the focal length (ie, moving the position of the zoom lens to the wide side). ) Is obtained, and an image having the same angle of view as the original angle of view is generated by extracting (cutting out) a part of the obtained image.
[0057]
For example, when the photographer sets the focal length of the taking lens 2 to 31 mm when the shutter button 9 is pressed, the focal length of the taking lens 2 is changed to 28 mm on the wide-angle side as shown in FIG. Then, the region R1 is photographed as the photographing region. At this time, in order to effectively use all the pixels, it is preferable that the region R1 corresponds to the entire region of the CCD imaging device 20.
[0058]
Then, from the image (corresponding to the region R1) acquired at the focal length on the wide angle side (the focal length of 28 mm), the image obtained by extracting the region R0, the image obtained by extracting the region R2, and the region R3 are obtained by performing trimming. Is generated.
[0059]
Here, each of the images extracted from the regions R0, R2, and R3 has the same angle of view as the angle of view at the focal length (31 mm) at the time when the photographer instructs to start shooting (when the shutter button 9 is pressed). I have. In other words, each of the regions R0, R2, and R3 has a size corresponding to the angle of view of the image captured at the designated focal length (in other words, the angle of view at the lens position at the designated time). However, on the other hand, the positions of the regions R0, R2, and R3 in the region R1 are different from each other. Specifically, the region R0 is located at the center of the region R1, the region R2 is slightly shifted to the upper left from the center of the region R1, and the region R3 is slightly shifted to the lower right from the center of the region R1. It is out of alignment. Therefore, the images extracted from the regions R0, R2, and R3 have different compositions.
[0060]
In this manner, three images having different compositions can be obtained. This is the outline of composition bracket photography. According to the composition bracket photographing, the photographer can select an optimum image from a plurality of images having different compositions. Therefore, photographing failure due to a composition error can be minimized. Also, as shown in FIG. 8, since the region R2 has a portion that “runs off” from the region R0, the composition of the image from which the region R2 is extracted cannot be obtained by extracting a part of the region R0. belongs to. Therefore, it is possible to obtain a more varied composition than in the case where the image is manually trimmed and extracted from the image corresponding to the region R0. The same applies to the region R3.
[0061]
Here, the case where the number of shots in the composition bracket mode is three has been described, but the present invention is not limited to this. For example, as described below, a predetermined number, such as five or nine, may be obtained by a single photographing operation.
[0062]
<A3. Operation>
<Operation during shooting>
Next, the operation of the digital camera 1 when the composition bracket mode is set as the shooting mode will be described in more detail with reference to FIGS. FIGS. 10 and 11 are flowcharts showing the operation of the digital camera 1 in composition bracket photography. This flowchart is described as a subroutine called from the main routine at predetermined time intervals (for example, at intervals of several milliseconds to several tens of milliseconds). These routines are executed under the control of the overall control unit 30. Here, it is assumed that the setting operation to the composition bracket mode as described above has already been performed.
[0063]
As shown in FIG. 10, first, in step SP1, it is determined whether or not the shutter button 9 has been half-pressed S1. If it is determined that it is in the half-pressed state S1, the process proceeds to step SP2. On the other hand, if it is determined that the half-press state S1 has not been reached, this subroutine is temporarily ended. After that, when the subroutine is executed again, this step SP1 is executed again.
[0064]
In step SP2, the current focal length is detected. In other words, the current position Xp of the zoom lens (see FIG. 14) is detected. As a result, the lens position of the zoom lens at the time when the instruction to start shooting is input, that is, when the shutter button 9 is half-pressed S1 is obtained. This position can be said to be a position set by the operator.
[0065]
In step SP3, it is determined whether the current lens position Xp is near the wide end. Specifically, when the lens position Xp is within a predetermined minute range from the position Xw of the wide end, it is regarded as being near the wide end.
[0066]
Here, a case will be described in which a minute range for determining whether or not it is near the wide end is changed according to a bracket range described later.
[0067]
More specifically, when a bracket range described later is set to a relatively “wide range”, the current position Xp is present in a range RN1 from a position Xw at the wide end to a position Xw1 (see FIG. 14A). If the position Xp is on the wider side than Xw1, it is determined that it is near the wide end. Here, the position Xw is a lens position when the focal length is 28 mm, and the position Xw1 is a lens position when the focal length is 31.1 mm (= 28.0 / 0.9).
[0068]
Further, when a bracket range described later is set to a relatively “narrow range”, if the current position Xp exists in the range RN2 from the wide-end position Xw to the position Xw2 (see FIG. 14B) (position If Xp is on the wider side than Xw2), it is determined that it is near the wide end. Here, the position Xw2 is the lens position when the focal length becomes 29.5 mm (= 28.0 / 0.95).
[0069]
As will be described later, in step SP12 or step SP13, the focal length of the zoom lens is multiplied by a predetermined value (0.9 times or 0.95 times) and moved to the wide angle side. However, when the lens position Xp of the zoom lens is already near the wide end, it is difficult to move the zoom lens to the wide angle side as intended, and it is difficult to perform composition bracket photographing satisfactorily. Therefore, in this embodiment, in such a case, the composition bracket photographing itself is prohibited, and the normal photographing operation is performed without performing the composition bracket photographing.
[0070]
For example, when the lens position Xp is at the wide end Xw, an image is acquired by the CCD image pickup device 20 at the same position without changing the lens position Xp (= Xw) of the zoom lens, and the image is recorded as a photographed image. . In this way, normal shooting can be performed after prohibiting composition bracket shooting that is in principle difficult to achieve at the wide end. Therefore, confusion of the photographer can be prevented.
[0071]
Therefore, a branching process is performed in step SP3. Specifically, if it is determined in step SP3 that the current lens position Xp is near the wide end, the process proceeds to step SP4. On the other hand, if it is determined in step SP3 that the current lens position Xp is not near the wide end, the process proceeds to step SP11.
[0072]
Here, the case where the process proceeds to step SP4 will be described first.
[0073]
In step SP4, a warning display is displayed on LCD5. As the warning display, for example, a warning display screen G1 as shown in FIG. 12 is displayed. On the screen G1, a warning that "composition bracketing cannot be performed near the wide end" is displayed. Thereby, the photographer can recognize that the composition bracket photographing is not executable. Here, the warning by the screen G1 is illustrated, but the invention is not limited thereto, and a warning by audio information may be performed.
[0074]
In step SP5, automatic exposure control (AE control), automatic focus control (AF control), and automatic white balance control (AWB control) are performed.
[0075]
Thereafter, when it is determined in step SP6 that the shutter button 9 has been fully pressed S2, the process proceeds to step SP7 (FIG. 11). At step SP7, one frame (one image) is photographed, and then, at step SP8, a recording process is performed. Thus, one captured image is stored in the memory card 90.
[0076]
Next, a case where the process proceeds from step SP3 to step SP11, that is, a case where composition bracket shooting is performed will be described.
[0077]
In step SP11, it is determined whether the bracket range is set to “wide range” or “narrow range”.
[0078]
Here, the bracket range is set by using a screen G2 as shown in FIG. The screen G2 is displayed on the LCD 5 (or the EVF 4) by using the menu button 6 and the control button 7. The operator indicates the desired degree of the two options “wide range” and “narrow range” on the screen G2 displayed on the LCD 5 or the like, indicating the degree (ie, the size) of the size of the “bracket range”. It can be selected as a setting value. Such a setting operation is performed in advance before performing the photographing operation. If the setting operation has not been performed, the determination is made based on a preset value that is predetermined as an initial value (default value).
[0079]
In step SP11, the set value relating to the bracket range is determined, and if it is set to "wide range", the process proceeds to step SP12, and if it is set to "narrow range", the process proceeds to step SP13.
[0080]
In step SP12, the zoom lens is driven to the wide-angle lens position so that a wide-angle image can be taken. Specifically, as shown in FIG. 14A, a value obtained by multiplying the current lens position Xp designated by the manual operation of the operator by 0.90 times by driving using the zoom motor in the lens driving unit 41. The zoom lens is moved to the position Xa1. For example, when the position Xp = 50.0 mm, the position Xa1 = 45.0 mm. Note that the lens position X of the zoom lens is represented by the focal length of the zoom lens. FIG. 15 is a diagram illustrating a relationship between a photographing range R10 when the zoom lens has moved to the position Xa1 and a photographing range R11 when the zoom lens exists at the position Xp before the movement.
[0081]
Also in step SP13, the zoom lens is moved to the wide-angle lens position so that a wide-angle image can be captured. However, the photographing range R12 based on the moved lens position in step SP13 is smaller than the moved photographing range R10 in step SP12.
[0082]
More specifically, as shown in FIG. 14B, the zoom lens is moved to a position Xa2 having a value obtained by multiplying the current lens position Xp by 0.95 by driving using the zoom motor in the lens driving unit 41. I do. For example, when the position Xp = 50.0 mm, the position Xa2 = 47.5 mm.
[0083]
FIG. 16 is a diagram showing the relationship between the photographing range R12 when the zoom lens has moved to the position Xa2 and the photographing range R11 when the zoom lens exists at the position Xp before the movement. Also, as shown in FIG. 16, the photographing range R12 is a range wider than the photographing range R11, but a range smaller than the photographing range R10.
[0084]
Thus, the photographing range R12 is smaller than the photographing range R10. The difference between the widths of the photographing range R12 and the photographing range R11 is smaller than the difference in the width between the shadow range R10 and the photographing range R11. Therefore, the case where the photographing range R11 is extracted from the photographing range R12 corresponds to the region to be trimmed (the region to be trimmed, that is, the region outside the range R11), as compared with the case where the photographing range R11 is extracted from the photographing range R10. The number of pixels to be extracted is small, and the number of pixels corresponding to the extracted shooting range R11 is large. Therefore, an image obtained by extracting the photographing range R11 from the photographing range R12 has a higher image quality than an image obtained by extracting the photographing range R11 from the photographing range R10. The same applies to an image from which regions R22, R23, R24, and R25 described later are extracted. As described above, when “narrow range” is selected as the “bracket range”, a relatively high-quality image can be obtained.
[0085]
On the other hand, when “Wide Range” is selected as “Bracket Range”, the composition change is compared because the maximum range of the extraction area to be extracted when extracting multiple images is relatively wide. It becomes possible to obtain a plurality of images which are very large.
[0086]
Note that the “bracket range” can also be expressed as the maximum range (maximum target range) of an extraction region to be extracted when a plurality of images are extracted from a wide-angle image. Here, the “wide-angle image” refers to an image obtained in step SP20 after the photographing lens 2 is moved to the wide-angle side in step SP12 (or step SP13).
[0087]
Hereinafter, the description will be continued focusing on the case where the option of “wide range” is selected as the setting value of the “bracket range”.
[0088]
In step SP14, the enlargement ratio in the live view is changed. Thus, the subject range displayed on the LCD 5 as a live view before and after the shutter button 9 is pressed halfway down to S1 can be kept unchanged. This operation will be described.
[0089]
According to the movement of the lens in step SP12 (or step SP13), the captured image captured by the CCD image sensor 20 is an image on the wider angle side. Therefore, if the live view display is continued as it is, the live view image becomes an image having a wider angle of view than the angle of view instructed by the photographer. In this case, since the image on the wide-angle side is suddenly displayed in response to the movement of the lens, the photographer feels that the magnification in the live view display has suddenly decreased, giving an unnatural impression.
[0090]
In the live view display, it is preferable to avoid such a sudden change in the angle of view. Therefore, here, the live view image is enlarged and displayed according to the magnification in step SP12 (or step SP13). Specifically, an image of the region R11 at the center is extracted from the image captured by the CCD image sensor 20 obtained after the change of the lens position in step SP12 (or step SP13), and the extracted image is displayed on the display screen of the LCD 5. Enlarge and display according to the size. At this time, the enlargement ratio is determined as a value such that the region R11 is displayed in the entire region in the live view display of the LCD 5. In other words, the magnification is determined as a value such that the size of the subject displayed on the LCD 5 does not change before and after the shutter button 9 is pressed halfway down the state S1. As a result, as a live view image, as shown in FIG. 17, an image G3 covering the entire region R11 is continuously displayed, and the size of the subject in the live view does not change before and after the instruction input. Therefore, the photographer watching the live view does not have to feel uncomfortable.
[0091]
In step SP15, a photometric operation, a colorimetric operation, and an AF operation are performed. In the photometric operation, a photometric value calculation operation is performed using data over the entire range of the region R10 (or R12). The same applies to the colorimetric operation. In the colorimetric operation, a colorimetric value calculation operation is performed using data over the entire range of the region R10 (or R12).
[0092]
In a plurality of images obtained by the composition bracket photographing, it is preferable that the exposure condition and the white balance are not changed. In other words, it is preferable that a plurality of images captured under the same exposure condition (or the same white balance) and having different compositions are acquired. According to this, the image having the best composition can be selected without being affected by at least one condition other than the composition (for example, the exposure condition).
[0093]
In determining such a common (identical) exposure condition and white balance, data of the region R10 (or R12) is used instead of using data of a region whose position in the region R10 is partially biased. It is preferable to use data covering the entire range. According to this, it is possible to determine the exposure condition and the white balance in which the dependence on the specific composition (or the specific area) is reduced. According to this, the exposure condition and the white balance for a plurality of images can be determined at once. That is, a photometric value and a colorimetric value for optimizing the exposure condition and the white balance as a whole can be obtained at once.
[0094]
In step SP16, the AE operation is performed. Specifically, the values of the exposure control parameters (shutter speed, aperture, gain) are determined based on the photometric value in the photometric operation in step SP15. Then, the exposure control parameter is locked at that value. In step SP20, an imaging process is performed using the value of the exposure control parameter.
[0095]
In step SP17, an automatic white balance operation (AWB operation) is performed. Specifically, the value of the AWB correction parameter for correcting the white balance is determined based on the colorimetric value in the colorimetric operation in step SP15. Then, the AWB correction parameter is locked at that value. In step SP20, the white balance is adjusted with the value of the AWB correction parameter, and the imaging process is performed.
[0096]
In step SP18, the focus position according to the autofocus operation in step SP15 is determined as the focus position in the imaging operation in step SP20. Then, the focus position is locked.
[0097]
In step SP19, it is determined whether or not the shutter button 9 has been fully pressed S2. When it is determined that the shutter button 9 has not been fully pressed in the predetermined time S2, the process returns to step SP1 and repeats the above processing. On the other hand, if it is determined that the shutter button 9 is in the fully pressed state S2, the process proceeds to step SP20.
[0098]
In step SP20, an imaging process is performed. Specifically, one shot image is acquired by one exposure operation. At this time, the lens position of the photographing lens 2 has been changed to the position Xa1 (or Xa2), and the photographing parameters (specifically, the exposure control parameter, the AWB correction parameter, and the focus position) are set to steps SP16, SP17, and SP18, respectively. It is the value set in. An image obtained by this imaging processing is acquired as an image covering the entire region R10, and is temporarily stored in the image memory 44.
[0099]
In step SP21, it is confirmed whether the number of shots in one composition bracket shooting (also referred to as "bracket shot count") is set to "5" or "9".
[0100]
Here, the number of bracket images is set by using the screen G2 (FIG. 13) as described above. The operator can select a desired one of the two options “5” and “9” as the set value of “(bracket) number of images” on the screen G2 displayed on the LCD 5 or the like. . Such a setting operation is performed in advance before performing the photographing operation. If the setting operation has not been performed, the determination is made based on a preset value that is predetermined as an initial value (default value).
[0101]
As described above, the number of bracketed shots and the bracket range can be changed (set) by the operator's selection, so that it is possible to respond to various requests.
[0102]
Then, in step SP21, the set value regarding the number of shots is determined, and when it is set to "5", the process proceeds to step SP22, and when it is set to "9", the process proceeds to step SP23.
[0103]
In step SP22, five images having different compositions are extracted from the captured images stored in the image memory 44. On the other hand, in step SP23, nine images having different compositions are extracted from the captured images stored in the image memory 44.
[0104]
Specifically, in step SP22, from the captured image (wide-angle image) stored in the image memory 44, the central region R21 (FIG. 18), the upper left region R22 (FIG. 19), and the upper right region R23 (FIG. 20), five images having the lower right region R24 (FIG. 21) and the lower left region R25 (FIG. 22) as their entire ranges are extracted. Each of the images in these regions R21 to R25 has the same angle of view as the angle of view corresponding to the lens position (lens position designated by the operator) Xp, while the image captured in step SP20. The position within is different. That is, a plurality of images that are photographed at a magnification designated by the photographer and whose compositions are different from each other are generated. Then, the generated images are sequentially subjected to compression processing in a predetermined compression format (such as the JPEG method) and stored in the memory card 90.
[0105]
Note that the five extracted images are acquired in a state having a common subject area (in a state where their photographing ranges overlap). Specifically, as shown in FIG. 23, a region R26 (a region indicated by a thick frame) is a subject region common to these five images. The region R26 is an overlapping portion of the five regions R21, R22, R23, R24, and R25. In this case, the five images are acquired in a state having the common subject region R26. Therefore, if the main subject is included in the common subject region R26, a plurality of images having different compositions including the main subject can be obtained. In other words, it is possible to more reliably obtain a plurality of images having different compositions including the main subject. In particular, since the main subject is often arranged near the center, if the common area includes the center area of the wide-angle image as described above, it is possible to more reliably obtain a plurality of images including the main subject. Will be possible.
[0106]
In step SP23, similarly, nine images having different compositions are photographed.
[0107]
In step SP24, the lock of the various shooting parameters determined above is released with the end of the shooting. Thereafter, this subroutine ends, and the process returns to the main routine.
[0108]
<Recording state>
A plurality of images shot by the composition bracket shooting described above are stored in the memory card 90 as files (image files) given the following names.
[0109]
FIG. 24 is a diagram illustrating a name assignment rule when composition bracketing is not performed. As shown in FIG. 24, for an image file other than the composition bracket shooting, four characters “Pict” indicating a normal image are added as the first four characters. Also, as the last four characters, serial numbers in the order of photographing are given regardless of whether or not the image is obtained by composition bracket photographing.
[0110]
FIG. 25 is a diagram illustrating a name assignment rule in the case of composition bracket shooting. As shown in FIG. 25, for an image file obtained by composition bracket shooting, two characters “Fb” indicating that composition bracket shooting is performed are given as the first two characters, and the next two characters are used as wide-angle characters in the composition bracket. A code indicating a position in the image is given. Specifically, “cc” is assigned to the center image, “la” is assigned to the upper left image, “ra” is assigned to the upper right image, and “ra” is assigned to the lower right image. “Rb” is assigned to the image, and “lb” is assigned to the lower left image. Also, as the last four characters, serial numbers in the order of photographing are given regardless of whether or not the image is obtained by composition bracket photographing.
[0111]
A name is assigned according to such a name assignment rule. For example, when seven images are obtained by normal shooting, image files having names as shown in FIG. 26 are generated in order from the top. In addition, when one image is obtained by normal shooting, five images are obtained by one composition bracket shooting, and one image is obtained by normal shooting, as shown in FIG. Image files with names are generated in order from the top.
[0112]
Each image file conforms to the Exif format, and records, in addition to the high-resolution image data acquired as described above, its thumbnail image and tag information. Here, the high-resolution data is compressed in the JPEG format, and the extension of the file in the Exif format is given as “jpg” representing the JPEG format.
[0113]
FIG. 28 is a diagram showing the structure of an image file for one image. At the beginning of the storage area of the memory card 90, an area for recording index information is provided, and in the subsequent area, image files are recorded in the order in which they were shot. The storage area of each image file in the memory card 90 is composed of three areas, and tag information, compressed image data (high-resolution data) and thumbnail images are recorded in order from the top area. As shown in FIG. 28, the tag information describes a shooting condition (composition bracket). The photographing conditions include a photographed image by composition bracket photographing, a photographing order in the composition bracket (“1/5”), a positional relationship of the composition in the composition bracket (“upper left”), a bracket range (“wide”), and the like. Information is described. Here, the positional relationship of the composition is expressed as a relative position with respect to a reference composition (composition specified by the operator). As described above, the plurality of images acquired by the composition bracket photographing are recorded together with the information indicating the positional relationship of the composition, so that it is easy to sort or arrange the images performed later.
[0114]
Although not shown in the figure, various information such as a camera model name, a shooting date, a shutter speed, an aperture value, and presence / absence of flash emission are also described. As will be described later, the digital camera 1 refers to these pieces of information when playing back an image, and performs a playback process according to the information content.
[0115]
Although the case where five images are acquired has been described above, when acquiring nine images, it is preferable to correspond to the nine images extracted in the order shown in FIG. Nine image files to be recorded are recorded in a state where file names indicating positions in the wide-angle image are given.
[0116]
Specifically, the center image (cc), the upper left image (la), the upper center image (ca), the upper right image (ra), the center right image (rc), the lower right image (rb), The lower center image (cb), the lower left image (lb), and the center left image (lc) are recorded in the memory card 90 in this order. The name in parentheses immediately after each image is added to the third and fourth characters of the file name as characters indicating the shooting position.
[0117]
<Operation during playback>
In the above, the operation of the digital camera 1 in the shooting mode has been described. Hereinafter, the operation of the digital camera 1 in the reproduction mode will be described.
[0118]
In the reproduction mode, in addition to the image captured by the normal imaging, the image captured by the composition bracket imaging can be reproduced.
[0119]
Further, in this reproduction mode, a plurality of images having different compositions can be automatically generated and recorded based on the photographed image photographed in the normal photographing. According to this, it is possible to easily obtain a plurality of images having different compositions.
[0120]
FIG. 30 is a flowchart showing the operation in the reproduction mode.
[0121]
As shown in FIG. 30, first, in step SP31, the most recently captured image file (the image file of the most recently captured image) is read from the memory card 90 as a reproduction target image. As described above, since the four-digit number from the fifth character to the eighth character of the file name represents the serial number, the file with the largest four-digit number is read as the latest image file. .
[0122]
In the next step SP32, under the control of the overall control unit 30, the compression / expansion unit 46 expands the image data of the image to be reproduced in accordance with the compression format and expands the image data in the image memory 44. Thereafter, the image synthesizing unit 43 displays the reproduction target image on the LCD 5 based on the data developed (stored) in the image memory 44 as shown in FIG. At this time, the image synthesizing unit 43 displays the image number (“0003”) in the upper area U1 of the reproduction target image.
[0123]
In step SP33, the overall control unit 30 determines whether or not the image to be reproduced is an image obtained by composition bracket shooting. This determination is made based on whether the minimum two characters of the file name are “Fb”.
[0124]
Specifically, an image file whose first two characters of the file name are “Fb” is determined to be an image obtained by composition bracket shooting. On the other hand, an image file in which the first two characters of the file name are “Pi” is determined to be an image obtained by normal shooting. When it is determined that the image file is generated by the composition bracket shooting, the process proceeds to step SP34, and when it is determined that the image file is generated by the normal shooting, the process proceeds to step SP35.
[0125]
In step SP34, the image synthesizing section 43 displays additional information on the composition bracket photographed image. This additional information is obtained by reading information included in the tag information (FIG. 28) of the image file.
[0126]
Specifically, as shown in a screen G11 of FIG. 31, the image combining unit 43 indicates that the image is an image obtained by composition bracket shooting (“composition bracket”) in the upper area U1 of the playback target image, and Information on the position (“1/5”) in the wide-angle image and the composition bracket range (“wide”) is further displayed.
[0127]
Here, the position in the wide-angle image in the composition bracket photographing is expressed by the notation “1/5” indicating the photographing order (“first photograph”) in the total number (“five”). As described above, since the shooting order of the plurality of images in the composition bracket shooting is fixed, the position in the wide-angle image in the composition bracket shooting can be known by indicating the shooting order. For example, “1/5” indicates that the image corresponds to the central area (R21 (FIG. 18)) in the wide-angle image, and “3/5” indicates the upper right area (R23 (FIG. 20) in the wide-angle image. )). However, the present invention is not limited to this, and not a notation such as “1/5” indirectly indicating a position, but the position such as “center”, “upper left”, “upper right”, “lower right”, “lower left”, etc. May be displayed. Alternatively, the positional relationship may be clearly indicated by using a figure instead of a character. For example, as shown in FIG. 32, each image obtained by the composition bracket photographing may be expressed as a relative position in a wide-angle image area RB (shown by an outer frame in the figure). In FIG. 32, when the bracket image generated by extracting the upper left area of the wide-angle image is reproduced and displayed, the image is arranged on the upper left of the wide-angle image area RB, and a blank area BP is positioned on the lower right of the wide-angle image area RB. Are arranged and shown. According to such a display, the position of the bracket image in the wide-angle image becomes clearer.
[0128]
As described above, in the reproduction mode, a plurality of images acquired by the composition bracket photographing are displayed together with the information indicating the positional relationship of the composition, so that it is easy to select or arrange the images. In particular, when checking with a relatively small LCD 5 of the digital camera 1, it is difficult to understand the difference in composition. In such a case, since each image is displayed together with information indicating the positional relationship of the composition, image selection and the like are performed. Is easy.
[0129]
Thereafter, when it is detected in step SP37 that the frame advance and frame return operations by the cross cursor buttons 7R and 7L have been performed, the process proceeds to step SP38, in which the number of the reproduction target image to be displayed next is determined. The image data corresponding to the number is read from the memory card 90, the process returns to step SP32, and the same processing as described above is repeated. On the other hand, in step SP37, when the frame forward and frame return operations are not detected, the process proceeds to step SP39, and it is determined whether or not there is a camera mode change operation. When it is confirmed in step SP39 that the mode change operation has been performed, the image memory 44 is cleared and the mode of the digital camera 1 is changed to the mode (photographing mode) of the change destination (step SP40). If the mode change operation has not been performed, the process returns to step SP33 again.
[0130]
When the process proceeds from step SP33 to step SP35, it is determined whether or not the menu button 6 has been pressed. If the menu button 6 has not been pressed, the process proceeds to step SP37, and the normal reproduction process is continued. On the other hand, if the menu button 6 has been pressed, the flow advances to step SP36 to perform composition bracketing processing. As described above, it is possible to perform two types of processing (normal reproduction processing and composition bracket processing) on an image obtained by normal shooting.
[0131]
In step SP36, first, a setting screen G13 as shown in FIG. FIG. 33 shows a menu screen in the playback mode.
[0132]
At this time, the image synthesizing unit 43 displays the tenth captured image G10 itself and its image number (“0010”), and further displays a reproduction menu on the captured image G10. In the playback menu, it is also possible to realize these functions by designating items of a slide show and a print designation. However, a detailed description thereof will be omitted here, and composition bracket photographing will be described.
[0133]
On the screen G13 in FIG. 33, settings in the composition bracketing process can be performed. Specifically, the number of images to be generated and the bracket range (range) can be set.
[0134]
More specifically, a desired option can be selected by moving a selection cursor (CS in the figure) using the cross cursor buttons 7U, 7D, 7L, 7R. Here, a case where the tenth image is adopted as a target image and “five” images are generated based on the target image will be described. It is assumed that “wide” is selected as the bracket range.
[0135]
Then, by pressing the enter button 7C with “execute” selected last, the setting contents are determined, and the composition bracketing process is started. In other words, the start of the composition bracket process is instructed by pressing the enter button 7C. Then, in response to the pressing of the enter button 7C, a plurality of images having different compositions are generated.
[0136]
By specifying the bracket range, the relationship between the size of the subject area of the processing target image (original image) and the size of the subject areas of a plurality of images acquired by the composition bracketing process is specified. Specifically, if “wide” is designated as the range, each acquired image will be an image corresponding to a relatively small area with respect to the original image, and the composition change between the images will be relatively large. On the other hand, if “narrow” is designated as the range, each acquired image will be an image corresponding to an area (relatively large area) having a size relatively close to the original image with respect to the original image. Changes are relatively small.
[0137]
In other words, the “bracket range” indicates the degree of change in the size of the extracted image with respect to the original image, similarly to the composition bracket shooting described above. When the degree of change in the size of the extracted image with respect to the original image is relatively large and the change in composition between the extracted images is relatively large (for example, when the original image has a size of 90% and a variation of 10%). Is described as having a "wide" bracket range. On the other hand, when the degree of change in the size of the extracted image with respect to the original image is relatively small, and the change in composition between the extracted images is relatively small (for example, when the original image has a size of 95% and has only a 5% variation). ), The bracket range is described as being “narrow”. In other words, the bracket range can be expressed as indicating the degree of “shift” between the extracted image and the original image.
[0138]
FIG. 34 to FIG. 38 are diagrams showing the position of each image generated by the composition bracket process with respect to the original image (target image). The operation of generating five images will be described with reference to these drawings.
[0139]
First, as shown in FIG. 34, the overall control unit 30 extracts (cuts out) a central region (range) Rcc from the original image G10 and converts it into a predetermined format using the compression / decompression unit 46. After performing the compression process, the data is recorded on the memory card 90. The name of the image file to be recorded may be given in the same manner as in the composition bracket photographing, according to the above-described criteria. For example, if 20 images have already been recorded, a file name of “Fbcc0021.jpg” is given to this new image file.
[0140]
Next, as shown in FIG. 35, the overall control unit 30 extracts (cuts out) an upper left region (range) Rla from the original image G10, and uses the compression / decompression unit 46 to execute a predetermined format. After the compression process, the data is recorded on the memory card 90. For example, a file name of “Fbla0022.jpg” is given to the recorded image file.
[0141]
Next, as shown in FIG. 36, the overall control unit 30 extracts (cuts out) the upper right region (range) Rra from the original image G10 and uses the compression / decompression unit 46. After performing compression processing to a predetermined format, the data is recorded on the memory card 90. For example, a file name of “Fbra0023.jpg” is given to the recorded image file.
[0142]
Further, as shown in FIG. 37, the overall control unit 30 extracts (cuts out) a lower right region (range) Rrb from the original image G10, and uses the compression / decompression unit 46 to perform a predetermined format. After the compression process, the data is recorded on the memory card 90. For example, a file name of “Fbrb0024.jpg” is given to the recorded image file.
[0143]
Finally, as shown in FIG. 38, the overall control unit 30 extracts (cuts out) a lower left region (range) Rlb from the original image G10, and uses the compression / decompression unit 46 to perform a predetermined format. After the compression process, the data is recorded on the memory card 90. A file name of, for example, “Fblb0025.jpg” is given to the recorded image file.
[0144]
As described above, the composition bracket processing is performed in the reproduction mode. The composition bracketing process can also be expressed as a re-recording process, more specifically, a process of generating and recording a plurality of images having different compositions based on one image.
[0145]
According to such composition bracket processing, a plurality of areas smaller than the original image (target image) and different in position in the target image are extracted from the target image in response to an instruction input from the operator. A plurality of images having different compositions are generated. Therefore, it is possible to easily generate a plurality of images whose compositions are different from each other.
[0146]
Here, a case has been exemplified in which the microcomputer incorporated in the digital camera 1 causes the digital camera 1 to function as an image processing apparatus that performs image processing including the above-described composition bracket processing by executing a predetermined program. However, the present invention is not limited to this. For example, by causing a personal computer (external computer 91) to execute a program for performing the above processing, the personal computer functions as an image processing apparatus that performs image processing including the composition bracket processing (re-recording processing) as described above. You may make it do.
[0147]
<B. Second Embodiment>
<B1. Configuration>
In the second embodiment, the imaging device is moved relative to the imaging lens in a plane perpendicular to the optical axis of the imaging lens, and images captured by the imaging device are acquired at each of a plurality of positions accompanying the movement. The case of acquiring a plurality of images having different compositions will be described. According to this, it is not necessary to change the focal length to the wide angle side, and a plurality of images can be acquired with the focal length designated by the operator. Therefore, the pixels of the image sensor can be used more effectively. In other words, it is possible to avoid a decrease in image quality due to a decrease in the number of pixels. In the following, a case where the imaging element is moved is exemplified, but the imaging lens may be moved.
[0148]
FIG. 39 is a cross-sectional view illustrating a main configuration of a digital camera 101 according to the second embodiment of the present invention. The digital camera 101 has a function of performing composition bracket photographing to acquire a plurality of images having different compositions and a camera shake correction function of correcting (suppressing) blurring of a subject image in an image due to camera shake.
[0149]
As shown in the figure, the digital camera 101 mainly includes a camera body 102 and a photographing lens 103 fixed to the camera body 102. In the following description, the directions and directions will be indicated by appropriately using the XYZ three-dimensional orthogonal coordinate system shown in the figure. Here, the Z-axis direction is a direction along the optical axis L of the photographing lens 103, and the positive Z-axis direction is a direction (rightward in the figure) to which incident light is incident. The Y-axis direction is a vertical direction, and the Y-axis positive direction is a vertically upward direction (upward in the figure). Further, the X-axis direction is a direction perpendicular to the drawing (paper surface), and the X-axis positive direction is a downward direction perpendicular to the drawing (paper surface). These XYZ axes are fixed relatively to the housing 102a of the camera body 102.
[0150]
The photographing lens 103 mainly includes a lens barrel 131, a plurality of lens groups 132 provided inside the lens barrel 131, and an aperture 133. The lens group 132 includes a zoom lens (zoom lens) 134 and a focus lens (focus lens) 135. By moving the position of the zoom lens 134 in the Z-axis direction, the focal length (magnification) can be changed. In addition, by moving the focus lens 135 in the Z-axis direction, the focal position (focus of the subject image) can be changed. Focus state) can be changed.
[0151]
Behind the optical axis L of the taking lens 103 (on the positive side in the Z-axis), a CCD image sensor (also simply referred to as a CCD) 105 housed in a housing 102a of the camera body 102 is arranged. The CCD 105 is an image sensor configured by a group of fine pixels each having a color filter, and photoelectrically converts a light image of a subject formed by the photographing lens 103 into an image signal having, for example, RGB color components. . The light receiving surface of the CCD 105 is arranged so as to coincide with the imaging plane, and a part of the area of the imaging plane is acquired as image data (in this specification, also simply referred to as “image” as appropriate). .
[0152]
The CCD 105 is fixedly disposed in the CCD moving section 150. The CCD 105 can be moved by the CCD moving unit 150 in an XY plane orthogonal to the Z axis. FIG. 40 is an exploded perspective view of the CCD moving unit 150 including the CCD 105.
[0153]
As shown in FIG. 40, the CCD moving unit 150 mainly includes a base plate 151 fixed to the housing 102a, a first slider 152 moving in the X-axis direction with respect to the base plate 151, and a first slider 151. The second slider 153 moves in the Y-axis direction.
[0154]
The base plate 151 has an opening at the center so as to allow incident light from the photographing lens 103 to pass therethrough, a first actuator 151a extending in the X-axis direction, and a first spring hook 151b for hooking a spring 155. It has. In the second slider 153, an opening 153c capable of fixing the CCD 105 is formed at the center thereof, and a second actuator 153a extending in the Y-axis direction and a rigid ball 154 are loosely fitted on both surfaces in the Z-axis direction. A hard ball receiver 153b is provided. The first slider 152 has an opening at the center, and includes a first frictional coupling portion 152a at a position facing the first actuator 151a and a second frictional coupling portion 152b at a position facing the second actuator 153a. A second spring hook 152c is provided at a position facing the first spring hook 151b.
[0155]
Each of the first actuator 151a and the second actuator 153a includes a piezoelectric element and a drive rod that can be driven in the extending direction, and the drive rod moves in an amount and direction according to a drive pulse applied to the piezoelectric element. It has become.
[0156]
When the CCD moving unit 150 is assembled, the CCD 105 is fitted and fixed in the opening 153c of the second slider 153, and the driving rod of the first actuator 151a and the first frictional coupling unit 152a are frictionally coupled. The drive rod of the second actuator 153a and the second frictional coupling portion 152b are frictionally coupled. The base plate 151 and the first slider 152 are urged by a spring 155 in a direction in which they approach each other. At this time, the second slider 153 is sandwiched between the base plate 151 and the first slider 152 via the hard sphere 154. As a result, these members 151, 153, and 152 are arranged so as to overlap the base plate 151, the second slider 153, and the first slider 152 in this order from the negative side of the Z axis to the positive side.
[0157]
When the driving rod of the first actuator 151a moves at a slow speed in a state where the CCD moving unit 150 is assembled, the first slider 152 is moved relative to the base plate 151 by the first frictional coupling unit 152a frictionally coupled to the driving rod. To move in the X-axis direction. At this time, the second slider 153 also moves in the X-axis direction with respect to the base plate 151 in accordance with the movement of the first slider 152. When the drive rod of the first actuator 151a moves rapidly, the first slider 152 stops due to inertia. When the drive rod of the second actuator 153a moves at a slow speed, the second slider 153 moves in the Y-axis direction with respect to the first slider 152 by the second friction coupling portion 152b frictionally coupled to the drive rod. At this time, since the first slider 152 does not move with respect to the base plate 151, the second slider 153 moves independently with respect to the base plate 151 in the Y-axis direction. When the drive rod of the second actuator 153a moves rapidly, the second slider 153 stops due to inertia. In other words, the second slider 153 moves in the X-axis and Y-axis directions when each drive rod performs a forward movement and a backward movement (vibration) having different speeds by the drive pulse given to each piezoelectric element.
[0158]
Further, as described above, the base plate 151 is fixed to the housing 102a of the camera body 102, and the CCD 105 is fixed to the second slider 153. It will move relatively within a plane. Therefore, the CCD 105 moves relatively in the XY plane with respect to the photographing lens 103, and the area obtained as an image on the imaging plane is changed. In other words, the CCD moving unit 150 can move the CCD 105 relative to the photographing lens 103 within a plane (XY plane) perpendicular to the optical axis L of the photographing lens 103.
[0159]
Referring back to FIG. 39, a CCD position sensor 158 for detecting the position of the moving CCD 105 is disposed on the positive side of the CCD 105 in the Z-axis direction. The CCD position sensor 158 includes two light emitting units 156a and 156b including light emitting diodes and the like, and two light receiving units 157a and 157b including photodiodes and the like. The light emitting units 156a and 156b are fixed on the back side (positive Z-axis side) of the CCD 105, and the light receiving units 157a and 157b are opposed to the light emitting units 156a and 156b, respectively. It is fixed to. The light emitted from the light emitting units 156a and 156b can be received by the light receiving units 157a and 157b, and the position of the CCD 105 is changed to the XY coordinate based on the change in the position of the light received by the light receiving units 157a and 157b. Required as a position. Specifically, the first light projecting unit 156a and the first light receiving unit 157a detect the position of the CCD 105 in the X axis direction, and the second light projecting unit 156b and the second light receiving unit 157b detect the position of the CCD 105 in the Y axis direction. The position is detected.
[0160]
In addition, a vibration sensor 140 that detects vibration due to camera shake of the digital camera 101 is provided inside the housing 102a of the camera body 102. The vibration sensor 140 includes two angular velocity sensors (a first angular velocity sensor 141 and a second angular velocity sensor 142), and the first angular velocity sensor 141 detects the angular velocity of the rotational vibration (pitching) Pi about the X axis. Then, the second angular velocity sensor 142 detects the angular velocity of the rotational vibration (yaw) Ya about the Y axis. Based on the two angular velocities detected by the vibration sensor 140, the CCD 105 is moved in the respective directions of the X axis and the Y axis, thereby correcting the blur of the subject image in the image, that is, correcting the camera shake. It will be.
[0161]
A shutter button 161 is provided on the upper surface side of the camera body 102. The shutter button 161 is a button for receiving an instruction to start photographing preparation or capture (start exposure) from the user, and is a two-stage switch capable of detecting a half-pressed state (state S1) and a fully-pressed state (state S2). ing.
[0162]
An operation button 162 and an LCD 163 are provided on the back side of the camera body 102. The operation button 162 receives various settings of the digital camera 101 from a user. The digital camera 101 has, as its operation modes, a shooting mode that functions as an imaging device that acquires and records an image of a subject, and a playback mode that functions as an image playback device that plays back and displays the recorded image on the LCD 163. . By operating the operation button 162, the operation mode can be switched between a shooting mode and a reproduction mode.
[0163]
The LCD 163 displays various information and images. In the shooting mode, the LCD 163 displays an image (live view display) acquired by the CCD 105 at predetermined time intervals, and functions as a viewfinder that allows the user to perform framing while checking the subject image. On the other hand, in the reproduction mode, the LCD 163 displays the recorded image.
[0164]
Also, a memory card 191 (see FIG. 41) for recording various data can be inserted and mounted inside the camera body 102. In the photographing mode, an image acquired by the CCD 105 is recorded on the memory card 191.
[0165]
Various functions of the digital camera 101 are performed under the control of an overall control unit provided in the housing 102a of the camera body 102. FIG. 41 is a diagram showing the main functional configuration of the digital camera 101 including the overall control unit 107 as a functional block.
[0166]
As shown in FIG. 41, each processing unit of the digital camera 101 such as the CCD 105, the CCD moving unit 150, the CCD position sensor 158, the vibration sensor 140, the operation unit MP, and the LCD 163 is electrically connected to the overall control unit 107. It operates under the control of the control unit 107. At the same time, the position of the CCD 105 detected by the CCD position sensor 158, the angular velocity detected by the vibration sensor 140, the operation content of the operation unit MP, and the like are input to the overall control unit 107 as signals.
[0167]
The operation unit MP includes a shutter button 161, an operation button 162, and other operation buttons (not shown), and can perform various settings similar to those in the first embodiment.
[0168]
The taking lens 103 includes a zoom drive unit 134a, a focus drive unit 135a, and an aperture drive unit 133a. The zoom drive unit 134a drives the zoom lens 134 in the Z-axis direction to change the focal length. The focus drive unit 135a drives the focus lens 135 in the Z-axis direction to change the focus position. The aperture driving unit 133a adjusts the aperture diameter of the aperture 133 so that the aperture value is set by the overall control unit 107. The zoom drive unit 134a, the focus drive unit 135a, and the aperture drive unit 133a are also electrically connected to the overall control unit 107 and operate under the control of the overall control unit 107.
[0169]
In FIG. 41, an A / D conversion unit 121, an image processing unit 122, and an image memory 123 indicate processing units that handle images acquired by the CCD 105. That is, the image of the analog signal acquired by the CCD 105 is converted into a digital signal by the A / D converter 121, and predetermined image processing (white balance correction, γ correction, color correction, resolution After the conversion, the image data is stored in the image memory 123. The image stored in the image memory 123 is recorded on the memory card 191 as a recording image, or displayed on the LCD 163 as a live view display image. Various processes for such images are also performed based on the control of the overall control unit 107.
[0170]
The overall control unit 107 includes a microcomputer. That is, the overall control unit 107 includes a CPU 170 that performs various arithmetic processes, a RAM 171 that is a work area for performing arithmetic operations, and a ROM 172 that stores a control program and the like. General control of the operation of the unit.
[0171]
Various functions of the overall control unit 107 are realized by the CPU 170 performing arithmetic processing according to a control program stored in the ROM 172 in advance. Such a control program is stored in the ROM 172 in advance, but it is also possible to store a new control program in the ROM 172 by reading it out from the memory card 191 or the like.
[0172]
<B2. Operation>
Next, the photographing operation of the digital camera 101 in the photographing mode will be described in more detail with reference to FIGS. FIGS. 42 and 43 are flowcharts showing the operation of the digital camera 101 in composition bracket shooting. This flowchart is described as a subroutine called from the main routine at predetermined time intervals (for example, at intervals of several milliseconds to several tens of milliseconds). These routines are executed under the control of the overall control unit 107. In addition, for simplicity of description, a description will be given assuming that the camera shake correction function is not used in the composition bracket photographing.
[0173]
Here, as in the first embodiment, it is assumed that the setting operation to the composition bracket mode and the setting operation regarding the range and the number of the composition bracket shooting (see FIG. 13) have already been performed. Here, it is assumed that the setting is to shoot five images.
[0174]
In the composition bracket photographing of the second embodiment, the CCD 105 (image pickup device) is moved relative to the photographing lens 103 within a plane (XY plane) perpendicular to the optical axis L of the photographing lens 103 (FIG. 39). By acquiring images captured by the CCD 105 at each of a plurality of (five) subsequent positions, a plurality of (five) images having different compositions are acquired. Note that when capturing a plurality of images, the photographing lens 103 keeps a predetermined position and posture with respect to the subject at the time of inputting an instruction to start photographing (in other words, the same position and posture are maintained). keeping). In the second embodiment, “input of an instruction to start shooting” means that the shutter button is pressed down to the fully pressed state S2.
[0175]
FIG. 44 is a view showing a state of movement of the CCD 105, and FIG. 45 is a partially enlarged view thereof. As shown in FIGS. 44 and 45, the center position of the CCD 105 moves in the XY plane in the order of the positions Pcc, Pla, Pra, Prb, and Plb. Then, an imaging operation is performed at each of the plurality of positions Pcc, Pla, Pra, Prb, and Plb, and an image is obtained. An area Rcc in FIG. 44 indicates a subject area of an image captured at the first position Pcc (home position or reference position). The region Rla indicates a subject region of an image captured at the position Pla, and the region Rrb indicates a subject region of an image captured at the position Prb. Note that FIG. 44 does not show the subject regions Rra and Rlb when they are moved to the positions Pra and Plb for convenience of illustration.
[0176]
As shown in FIG. 44, the subject areas of a plurality of images captured as the CCD 105 moves are different from each other. That is, the compositions of these images are different from each other. In addition, since each image is photographed without changing the position of the zoom lens in the optical axis direction when a photographing start instruction input is given, compared with the first embodiment, the effective pixels in the CCD are reduced. The number can be increased.
[0177]
A description will be given of shooting bracket shooting involving such movement.
[0178]
First, as shown in FIG. 42, in step SP51, it is determined whether or not the CCD 105 is at the home position (reference position) (specifically, whether or not the center position of the CCD 105 is at Pcc). If the CCD 105 is not at the home position, the CPU 105 moves the CCD 105 to the home position in step SP52, and then proceeds to step SP53.
[0179]
In step SP53, it is determined whether or not the shutter button 161 has been half-pressed S1. If it is determined that it is in the half-pressed state S1, the process proceeds to step SP54. On the other hand, if it is determined that the half-press state S1 has not been reached, this subroutine is temporarily ended. After that, when the subroutine is executed again, step SP54 is executed again.
[0180]
In steps SP54 to SP57, automatic exposure control (AE control), automatic focus control (AF control), and automatic white balance control (AWB control) are performed. Specifically, in step SP54, the photometric value, the colorimetric value, and the AF evaluation value are measured. As the AF evaluation value, a plurality of measurement values are acquired while driving the focusing lens.
[0181]
In step SP55, the AE operation is performed. Specifically, the values of the exposure control parameters (shutter speed, aperture, gain) are determined based on the photometric value in the photometric operation in step SP15. Then, the exposure control parameter is locked at that value. In the imaging processing in steps SP59 and SP62, imaging processing is performed a plurality of times using the determined value of the exposure control parameter (the same exposure control parameter).
[0182]
In step SP56, an automatic white balance operation (AWB operation) is performed. Specifically, the value of the AWB correction parameter for correcting the white balance is determined based on the colorimetric value in the colorimetric operation in step SP54. Then, the AWB correction parameter is locked at that value. In the imaging processing in steps SP59 and SP62, the white balance is adjusted by the value of the correction parameter, and the imaging processing is performed a plurality of times.
[0183]
In step SP57, the focus position according to the autofocus operation in step SP54 is determined, and the focus position in the composition bracket photographing is locked. In the subsequent imaging processes of steps SP59 and SP62, the imaging process is performed a plurality of times at this focus position.
[0184]
In step SP58 (FIG. 43), it is determined whether or not the shutter button 161 has been fully pressed S2. If it is determined that the shutter button 161 has not been fully pressed S2, this subroutine ends. On the other hand, when it is determined that the shutter button 161 is in the fully pressed state S2, the process proceeds to step SP59.
[0185]
In step SP59, an imaging process is performed. Specifically, one captured image is obtained by the first exposure operation. At this time, the shooting parameters (specifically, the exposure control parameter, the AWB correction parameter, and the focus position) have the values set in steps SP55, SP56, and SP57, respectively. Further, the lens position of the zoom lens is not changed (it is not changed). The image obtained by the imaging process is an image corresponding to the composition specified by the operator. This image is obtained as an image in which the subject image formed in a predetermined area (here, the entire area) of the CCD 105 has the entire range, is subjected to predetermined image processing, and is temporarily stored in the image memory 123. .
[0186]
Then, in step SP60, the recording processing of the captured image is performed. Specifically, the image stored in the image memory 123 is transferred to the memory card 191 and recorded in the memory card 191 as a recording image.
[0187]
In step SP61, the center position of the CCD 105 is moved to the next position Pla.
[0188]
Thereafter, an imaging process (step SP62) and a recording process (step SP63) are performed. Thus, a captured image at the position Pla can be obtained.
[0189]
In step SP64, it is determined whether or not all shooting has been completed. More specifically, it is determined whether or not all five images have been captured. Here, since it has not been completed, the process proceeds to step SP65.
[0190]
In step SP65, as shown in FIG. 44, the overall control unit 107 moves the CCD 105 one step clockwise as viewed from the back of the digital camera 101. That is, the center position of the CCD 105 is moved to the next position Pra. Thereafter, the process returns to step SP62.
[0191]
Then, in steps SP62, SP63, and SP64, the above-described processing is performed. Thus, a captured image at the position Pra can be obtained.
[0192]
Further, in steps SP62, SP63, and SP64, by repeating the same processing, it is possible to acquire the remaining two images, that is, the images captured at the positions Prb and Plb. In this way, five images with different compositions are captured. At the time of photographing these five images, the photographing parameters (specifically, the exposure control parameter, the AWB correction parameter, and the focus position) remain the values set in steps SP55, SP56, and SP57, respectively. is there. Further, the lens position of the zoom lens is not changed.
[0193]
If it is determined in step SP64 that the shooting has been completed, the process proceeds to step SP66. In step SP66, the lock of the exposure control parameter, the AWB correction parameter, and the focus position in the composition bracket photographing is released.
[0194]
Then, in step SP67, the CCD 105 is moved to the home position. Thereafter, this subroutine ends, and the process returns to the main routine.
[0195]
As described above, according to the composition bracket photographing of the digital camera 101 of the second embodiment, the CCD 105 moves relative to the photographing lens 103 in the XY plane in response to the depression of the shutter button (input of a photographing start instruction). The CCD 105 performs image capturing at a plurality of positions associated with the movement to obtain a plurality of images. Therefore, by performing such composition bracket photographing, the same effect as the composition bracket photographing of the first embodiment can be obtained.
[0196]
Further, according to the composition bracket photographing of the second embodiment, the CCD 105 is moved relatively to the photographing lens 103 to acquire a plurality of photographed images having different compositions. Therefore, since it is not necessary to change the focal length to the wide-angle side for photographing, the pixels of the image sensor can be used more effectively than in the first embodiment. In other words, it is possible to avoid a decrease in image quality due to a decrease in the number of pixels.
[0197]
Further, the CCD 105 and the photographing lens 103 are relatively moved so that the other movement trajectory viewed from one does not intersect halfway.
[0198]
More specifically, as shown in FIG. 45, the movement trajectory of the CCD 105 with respect to the photographing lens 103 (shown by a thick line in the figure) does not intersect in the middle. Note that this movement trajectory can also be expressed as a spiral (or loop).
[0199]
On the other hand, FIG. 46 shows a movement locus when the center position of the CCD 105 is moved in the order of the positions Pcc, Pla, Pra, Plb, and Prb. The movement locus of FIG. 46 is longer than the movement locus of FIG. This is based on the fact that the movement trajectories in FIG. 46 intersect on the way. Alternatively, it can be expressed as being based on not being a spiral (or loop).
[0200]
Therefore, if the CCD 105 is moved in the order shown in FIG. 45, the moving distance of the CCD 105 can be shortened as compared with the case where the CCD 105 is moved in the order shown in FIG. As described above, since the moving distance of the CCD 105 can be reduced, the moving speed can be increased, and a plurality of images can be captured in a shorter time. In particular, even when the movement of the subject is intense, it is possible to acquire a plurality of images with changed compositions while minimizing the change in the state of the subject.
[0201]
Further, in the second embodiment, a case has been described in which five images are photographed by composition bracket photographing, but the present invention is not limited to this. For example, nine images may be shot.
[0202]
FIG. 47 is a diagram illustrating a shooting order (moving order) when shooting nine images. FIG. 47 shows how the center position of the CCD 105 moves. As shown in FIG. 47, the digital camera 101 moves the CCD 105 in this order such that the center position is located at each position Pcc, Pla, Pca, Pra, Prc, Prb, Pcb, Plb, Plc. The imaging operation may be performed at the position.
[0203]
Also in this case, the movement trajectory in FIG. 47 is shorter than the movement trajectory in FIG. This is based on the fact that the movement trajectories in FIG. 47 do not intersect on the way. Alternatively, it can be expressed as being based on a spiral (or loop) shape. FIG. 48 is a diagram showing another example of the movement, in which the CCD 105 is moved in this order so that the center position of the CCD 105 exists at each position Pcc, Pla, Pca, Pra, Plc, Prc, Plb, Pcb, Prb. And the case where an imaging operation is performed at each position.
[0204]
<C. Others>
In the first embodiment described above, the case where the number of bracket images is set by the operator has been described as an example, but the present invention is not limited to this. For example, the number of bracket shots in the composition bracket mode may be determined according to the size of the bracket range. More specifically, when it is detected that the bracket range is set to “wide”, the number of bracket shots is changed to a relatively large number (for example, 9), and the bracket range is set to “narrow”. When it is detected that the camera is in the position, the number of bracket images may be changed to a relatively small number (for example, five). As described above, as the bracket range becomes wider, a larger number of images may be acquired. According to this, images with various compositions can be obtained according to the width of the bracket range.
[0205]
In the first embodiment, the case where the photometric value and the colorimetric value are calculated based on the image data of the entire range of the region R10 of the wide-angle image has been described, but the present invention is not limited to this. For example, a photometric value and a colorimetric value may be calculated using image data of a region R26 (FIG. 23) common to all of the regions R21 to R25.
[0206]
In the first embodiment, the time when the shutter button is half-pressed S1 is regarded as the time when an instruction to start shooting is input, and in the second embodiment, the shutter button is fully pressed. The point in time S2 is regarded as the point in time when an instruction to start shooting is input. In other words, in the first embodiment, the input of the instruction to start shooting is given by setting the shutter button to the half-pressed state S1, and in the second embodiment, the input of the instruction to start shooting is when the shutter button is fully pressed. This is given by being set to the pressed state S2. As described above, the input of the instruction to start photographing may be any instruction that indicates that any process related to photographing should be started. Further, the composition bracket photographing in the composition bracket mode is to acquire a plurality of images in response to such an instruction input, more specifically, a single instruction input from the operator, in order to facilitate the operation. Preferably, there is.
[0207]
Further, in each of the above embodiments, the case where the composition bracket shooting is performed has been described. However, other types of bracket shooting may be performed. For example, the composition bracket photographing in the composition bracket mode and the bracket photographing in another bracket mode relating to predetermined photographing conditions other than the composition (for example, exposure bracket photographing for acquiring a plurality of images while changing the exposure condition) are performed in combination. It may be. In the case of performing bracket shooting according to such a combination, the combination of the shooting condition value (eg, exposure value) and the composition is changed, while the other shooting conditions (eg, white balance) are the same. (Fixed state) to acquire multiple images. According to this, even when performing bracket shooting in which predetermined shooting conditions such as an exposure value are also changed, it is possible to obtain a plurality of images having the same other shooting conditions and different compositions only.
[0208]
Further, in the above-described embodiment, the description has been given assuming that the composition bracketing process can be performed only on the image obtained by the normal shooting in the reproduction mode. However, the present invention is not limited to this. For example, one of a plurality of images photographed by composition bracket photographing may be further subjected to composition bracket processing in the playback mode.
[0209]
In the second embodiment, a zoom lens is used as a photographing lens, but it is not always necessary to use a zoom lens. In the second embodiment, unlike the first embodiment, it is not necessary to change the focal length, and therefore, a single focus lens may be used as the photographing lens.
[0210]
The specific embodiments described above include inventions having the following configurations.
[0211]
(1) In the digital camera according to claim 1,
Range setting means for setting a maximum target range when extracting the plurality of images,
Further comprising
The second position is relatively located at the first position when the maximum target range set by the range setting means is set to a relatively narrow range, as compared to when the maximum target range is set to a relatively wide range. A digital camera, which is set at a close position.
[0212]
According to this, when the maximum target range is set to a relatively narrow range, the second position is set to a position relatively close to the first position compared to when the maximum target range is set to a relatively wide range. You. Therefore, it is possible to reduce the number of pixels of a portion to be cut (trimmed) when extracting a plurality of images from an image by the imaging unit and increase the number of pixels of each of the plurality of images. Images can be of high quality.
[0213]
(2) In the digital camera according to claim 1,
When the first position is the wide end, the imaging unit acquires an image without changing the lens position of the zoom lens while maintaining the first position, and the control unit captures the image. A digital camera characterized by recording as an image.
[0214]
According to this, composition bracket photography can be prohibited at the wide end.
[0215]
(3) In the digital camera according to claim 1,
A warning unit that warns that it is impossible to execute the composition bracket shooting when the first position is at the wide end;
A digital camera, further comprising:
[0216]
According to this, the photographer can recognize that it is impossible to execute the composition bracket photographing.
[0217]
(4) In the digital camera according to claim 1,
Display means for displaying a live view based on an image by the imaging means,
Further comprising
The display means,
Before the instruction input, the image by the imaging unit is displayed in accordance with the display area of the display unit,
After the instruction input, when the lens position of the zoom lens is moving to the second position, an image having a size corresponding to the angle of view at the first position is obtained from the image obtained by the imaging unit. A digital camera, wherein the digital camera extracts and displays the extracted image in accordance with the size of a display screen of the display means.
[0218]
According to this, since the size of the subject in the live view does not change before and after the instruction is input, the photographer watching the live view does not feel uncomfortable.
[0219]
(5) In the digital camera according to claim 1,
Means for acquiring at least one of a photometric value and a colorimetric value, based on the entire range of the image acquired by the imaging means,
A digital camera, further comprising:
[0220]
According to this, the optimum value as a whole can be obtained at once.
[0221]
(6) a digital camera,
A digital camera, wherein the image pickup element and the photographing lens are relatively moved so that a movement locus of the other viewed from one does not intersect halfway.
[0222]
According to this, the relative movement distance between the imaging element and the photographing lens can be shortened.
[0223]
(7) a digital camera,
Shooting optics,
Imaging means for acquiring a subject image from the imaging optical system as an image using photoelectric conversion,
Setting means for setting a composition bracket mode for acquiring a plurality of images of different compositions using the imaging means as a shooting mode,
When the composition bracket mode is set as the shooting mode, a control unit that controls to acquire a plurality of images having different compositions from each other,
Recording means for recording the obtained plurality of images together with information indicating the positional relationship of the composition,
A digital camera, comprising:
[0224]
According to this, the plurality of images acquired by the composition bracket photographing are recorded together with the information indicating the positional relationship of the composition, so that it is easy to select or arrange the images.
[0225]
(8) In the digital camera according to (7),
Switching means for switching between a shooting mode and a playback mode;
A display unit configured to display the plurality of images by explicitly indicating a positional relationship of a composition of the plurality of images when the mode is switched to a reproduction mode by the switching unit;
A digital camera, further comprising:
[0226]
According to this, in the reproduction mode, a plurality of images obtained by the composition bracket photographing are generated together with the information indicating the positional relationship of the composition, so that the images can be easily sorted or sorted.
[0227]
(9) a digital camera,
Shooting optics,
Imaging means for acquiring a subject image from the imaging optical system as an image using photoelectric conversion,
Setting means for setting a composition bracket mode for acquiring a plurality of images of different compositions using the imaging means as a shooting mode,
When the composition bracket mode is set as the photographing mode, control is performed such that a plurality of images having different compositions are acquired in a state having a common subject area (the photographing ranges overlap). Control means;
A digital camera, comprising:
[0228]
According to this, a plurality of images having different compositions from each other are acquired in a state having a common subject region (a state in which the photographing ranges overlap), so that a plurality of images having different compositions including a main subject can be obtained. It is possible to obtain it reliably.
[0229]
(10) A digital camera,
Shooting optics,
Imaging means for acquiring a subject image from the imaging optical system as an image using photoelectric conversion,
Setting means for setting a composition bracket mode for acquiring a plurality of images of different compositions using the imaging means as a shooting mode,
Number setting means for setting the number of bracket shooting in the composition bracket mode,
Input means for receiving an instruction input for starting shooting,
When the composition bracket mode is set as the shooting mode, control means for controlling so as to acquire the image of the number of bracket shots set by the number setting means according to the instruction input,
A digital camera, comprising:
[0230]
According to this, it is possible to change the number of bracket shots in the composition bracket mode, so that it is possible to meet various requests.
[0231]
(11) a digital camera,
A zoom lens that can perform optical zoom,
Imaging means for acquiring a subject image from the zoom lens as an image using photoelectric conversion,
Setting means for setting a composition bracket mode for acquiring a plurality of images of different compositions using the imaging means as a shooting mode,
Range setting means for setting a bracket range in the composition bracket mode,
Input means for receiving an instruction input for starting shooting,
In a state where the lens position of the zoom lens is moved from a first position set by an operator at the time of inputting the instruction to a position on a wider angle side than the first position, a subject image from the zoom lens is moved. Means for acquiring an image as an image using photoelectric conversion, and a plurality of images having a size corresponding to the angle of view at the first position and different positions in the image from the image acquired by the image pickup means. Control means for generating a plurality of images having different compositions from each other by extracting a region of
With
A digital camera, wherein the position on the wide angle side of the first position is a position adjusted according to a bracket range set by the range setting means.
[0232]
According to this, since the bracket range in the composition bracket mode can be changed, it is possible to meet various requests.
[0233]
(12) In the digital camera according to (11),
Changing means for changing the number of bracketed shots in the composition bracket mode according to the size of the bracket range,
A digital camera, further comprising:
[0234]
According to this, images with various compositions can be obtained according to the width of the bracket range.
[0235]
(13) The digital camera according to claim 3,
The setting means can be set in combination with a composition bracket mode and another bracket mode relating to a predetermined shooting condition other than the composition,
The digital camera according to claim 1, wherein the control unit acquires a plurality of images having different compositions while changing a combination with a predetermined shooting condition while keeping shooting conditions other than the predetermined shooting condition the same.
[0236]
According to this, even when performing bracket shooting in which predetermined shooting conditions other than composition are changed, it is possible to acquire a plurality of images having the same other shooting conditions and different compositions only.
[0237]
(14) In the image processing apparatus according to claim 4,
Recording means for recording the plurality of images together with information indicating the positional relationship of the composition,
An image processing apparatus further comprising:
[0238]
According to this, a plurality of images having different compositions are recorded together with information indicating the positional relationship between the compositions, so that the images can be easily sorted or sorted.
[0239]
(15) In the image processing device according to claim 4,
The image processing device according to claim 1, wherein the plurality of images are acquired in a state having a common subject area.
[0240]
According to this, since a plurality of images having different compositions are obtained in a state having a common subject area, it is possible to more reliably obtain a plurality of images having different compositions including a main subject. .
[0241]
(16) In the image processing apparatus according to claim 4,
Number setting means for setting the number of images to be generated as the plurality of images,
An image processing apparatus further comprising:
[0242]
According to this, since the number of sheets to be generated as a plurality of images can be changed, it is possible to meet various demands.
[0243]
(17) In the image processing apparatus according to claim 4,
Setting means for setting a relationship between the size of the subject area of the target image and the size of the subject areas of the plurality of images generated by the generation means;
An image processing apparatus further comprising:
[0244]
According to this, since the relationship between the size of the subject area of the target image and the size of the subject areas of the plurality of images generated by the generation unit can be set, it is possible to meet various demands.
[0245]
(18) In the program according to claim 5,
The program further controls the computer,
Recording means for recording the plurality of images together with information indicating the positional relationship of the composition,
A program characterized by functioning as a computer.
[0246]
According to this, a plurality of images having different compositions are recorded together with information indicating the positional relationship between the compositions, so that the images can be easily sorted or sorted.
[0247]
(19) In the program according to claim 5,
A program according to claim 1, wherein said plurality of images are acquired in a state having a common subject area.
[0248]
According to this, since a plurality of images having different compositions are obtained in a state having a common subject area, it is possible to more reliably obtain a plurality of images having different compositions including a main subject. .
[0249]
(20) In the program according to claim 5,
The program further controls the computer,
Number setting means for setting the number of images to be generated as the plurality of images,
A program characterized by functioning as a computer.
[0250]
According to this, since the number of sheets to be generated as a plurality of images can be changed, it is possible to meet various demands.
[0251]
(21) In the program according to claim 5,
The program further controls the computer,
Setting means for setting a relationship between the size of the subject area of the target image and the size of the subject areas of the plurality of images generated by the generation means;
A program characterized by functioning as a computer.
[0252]
According to this, since the relationship between the size of the subject area of the target image and the size of the subject areas of the plurality of images generated by the generation unit can be set, it is possible to meet various demands.
[0253]
【The invention's effect】
As described above, according to the first aspect of the present invention, it is possible to acquire a plurality of images whose compositions are different from each other (that is, perform composition bracket photography) in response to an instruction input for starting photography. Therefore, it is possible to obtain a captured image with a better composition.
[0254]
According to the second aspect of the present invention, it is possible to acquire a plurality of images whose compositions are different from each other (that is, perform composition bracket photography) in response to an instruction input to start photography. Therefore, it is possible to obtain a captured image with a better composition. Further, since it is not necessary to change the focal length to the wide-angle side, it is possible to avoid deterioration in image quality.
[0255]
According to the third aspect of the present invention, since a plurality of images having different compositions are acquired in a state where at least one of the imaging conditions other than the composition is the same, at least one condition other than the composition is acquired. It is possible to select the image with the best composition from the plurality of images without being affected.
[0256]
According to the fourth and fifth aspects of the present invention, a plurality of regions smaller than the target image and having different positions in the target image are extracted from the target image in response to the instruction input, so that different compositions are obtained. Can be generated, so that a plurality of images having different compositions can be easily generated.
[Brief description of the drawings]
FIG. 1 is a front view showing an external configuration of a digital camera.
FIG. 2 is a top view illustrating an external configuration of the digital camera.
FIG. 3 is a rear view illustrating an external configuration of the digital camera.
FIG. 4 is a block diagram showing internal functions of the digital camera.
FIG. 5 is a diagram showing a function operation unit and a digital effect operation unit.
FIG. 6 is a diagram illustrating a shooting range of a subject.
FIG. 7 is a diagram illustrating a shooting range of a subject.
FIG. 8 is a diagram illustrating a shooting range of a subject.
FIG. 9 is a diagram illustrating a shooting range of a subject.
FIG. 10 is a flowchart showing an operation of the digital camera in composition bracket photographing.
FIG. 11 is a flowchart showing an operation of the digital camera in composition bracket photographing.
FIG. 12 is a diagram showing a warning display screen.
FIG. 13 is a diagram showing a composition bracket setting screen.
FIG. 14 is a diagram showing the position of a zoom lens.
FIG. 15 is a diagram illustrating a photographing range (when the bracket range is wide) after the movement of the zoom lens.
FIG. 16 is a diagram illustrating a photographing range (when the bracket range is narrow) after the movement of the zoom lens.
FIG. 17 is a diagram showing a live view screen G3.
FIG. 18 is a diagram illustrating a central region of a wide-angle image.
FIG. 19 is a diagram illustrating an upper left area of a wide-angle image.
FIG. 20 is a diagram illustrating an upper right area of a wide-angle image.
FIG. 21 is a diagram illustrating a lower right area of a wide-angle image.
FIG. 22 is a diagram illustrating a lower left area of a wide-angle image.
FIG. 23 is a diagram showing a common subject area.
FIG. 24 is a diagram illustrating a name assignment rule (other than composition bracket shooting).
FIG. 25 is a diagram illustrating a name assignment rule (composition bracket shooting).
FIG. 26 is a diagram illustrating an example of a file name.
FIG. 27 is a diagram showing another example of a file name.
FIG. 28 is a diagram showing the structure of an image file.
FIG. 29 is a diagram illustrating an acquisition order when acquiring nine images.
FIG. 30 is a flowchart showing an operation in a reproduction mode.
FIG. 31 is a diagram illustrating a playback display screen for a composition bracket photographed image.
FIG. 32 is a diagram showing a playback display screen for a composition bracket photographed image.
FIG. 33 is a diagram showing a menu screen in a playback mode.
FIG. 34 is a diagram showing the position of the image generated by the composition bracketing process with respect to the original image.
FIG. 35 is a diagram showing the position of the image generated by the composition bracketing process with respect to the original image.
FIG. 36 is a diagram illustrating a position of an image generated by the composition bracketing process with respect to the original image.
FIG. 37 is a diagram showing the position of the image generated by the composition bracketing process with respect to the original image.
FIG. 38 is a diagram illustrating the position of the image generated by the composition bracketing process with respect to the original image.
FIG. 39 is a cross-sectional view illustrating a main configuration of a digital camera according to a second embodiment.
FIG. 40 is an exploded perspective view of a CCD moving unit.
FIG. 41 is a functional block diagram.
FIG. 42 is a flowchart illustrating an operation in composition bracket photographing according to the second embodiment.
FIG. 43 is a flowchart showing an operation in composition bracket photographing according to the second embodiment.
FIG. 44 is a diagram showing how the CCD moves.
FIG. 45 is a partially enlarged view of FIG. 44.
FIG. 46 is a diagram showing another state of movement of the CCD.
FIG. 47 is a diagram illustrating a shooting order when shooting nine images.
FIG. 48 is a diagram showing another state of movement of the CCD.
[Explanation of symbols]
1,101 Digital camera
2,103 shooting lens
2a Zoom ring
4 EVF
5,163 LCD
6 Menu button
7 Control buttons
7C OK button
7U, 7D, 7L, 7R Cross cursor button
9,161 Shutter button
11 Function operation section
14 Digital effect operation section
20,105 CCD image sensor
150 CCD moving unit
90,191 Memory card

Claims (5)

デジタルカメラであって、
光学ズームを行うことが可能なズームレンズと、
撮影開始の指示入力を受け付ける入力手段と、
前記ズームレンズのレンズ位置を、前記指示入力時の操作者の設定による第1の位置から、前記第1の位置よりも広角側の第2の位置へと移動させた状態で、前記ズームレンズからの被写体像を光電変換を用いて画像として取得する撮像手段と、
前記撮像手段により取得された画像から、前記第1の位置における画角に対応する大きさを有し且つ前記画像内における位置が互いに異なる複数の領域を複数の画像として抽出することによって、構図ブラケット撮影を行う制御手段と、
を備えることを特徴とするデジタルカメラ。
A digital camera,
A zoom lens that can perform optical zoom,
Input means for receiving an instruction input for starting shooting,
In a state where the lens position of the zoom lens is moved from a first position set by an operator at the time of inputting the instruction to a second position on a wider angle side than the first position, the zoom lens is moved from the zoom lens. Imaging means for acquiring the subject image as an image using photoelectric conversion,
Composition bracketing is performed by extracting, as a plurality of images, a plurality of regions having a size corresponding to the angle of view at the first position and different positions in the image from the image acquired by the imaging unit. Control means for taking a picture,
A digital camera, comprising:
デジタルカメラであって、
撮影レンズと、
前記撮影レンズからの被写体像を光電変換を用いて画像として取得する撮像素子と、
前記撮影レンズの光軸に対する垂直面内において、前記撮影素子を前記撮影レンズに対して相対的に移動させる移動手段と、
撮影開始の指示入力を受け付ける入力手段と、
前記指示入力に応じて、前記撮像素子と前記撮影レンズとを前記垂直面内において相対的に移動させた複数の位置において前記撮像素子による撮影を行い複数の画像を取得することによって、構図ブラケット撮影を行う制御手段と、
を備えることを特徴とするデジタルカメラ。
A digital camera,
A shooting lens,
An image sensor that acquires a subject image from the photographing lens as an image using photoelectric conversion,
Moving means for moving the imaging element relative to the imaging lens in a plane perpendicular to the optical axis of the imaging lens;
Input means for receiving an instruction input for starting shooting,
In response to the instruction input, composition bracket shooting is performed by performing image capturing using the image sensor at a plurality of positions where the image sensor and the imaging lens are relatively moved in the vertical plane to obtain a plurality of images. Control means for performing
A digital camera, comprising:
デジタルカメラであって、
撮影光学系と、
前記撮影光学系からの被写体像を光電変換を用いて画像として取得する撮像手段と、
異なる構図の複数の画像を取得する構図ブラケットモードを撮影モードとして設定する設定手段と、
前記撮影モードとして前記構図ブラケットモードが設定されている場合には、互いに異なる構図を有する複数の画像を、構図以外の撮影条件のうち少なくとも1つの条件を同一にした状態で取得するように制御する制御手段と、
を備えることを特徴とするデジタルカメラ。
A digital camera,
Shooting optics,
Imaging means for acquiring a subject image from the imaging optical system as an image using photoelectric conversion,
Setting means for setting a composition bracket mode for acquiring a plurality of images of different compositions as a shooting mode,
When the composition bracket mode is set as the photographing mode, control is performed such that a plurality of images having different compositions are acquired with at least one of the photographing conditions other than the composition being the same. Control means;
A digital camera, comprising:
画像処理装置であって、
処理対象となる対象画像を取得する取得手段と、
処理開始の指示入力を受け付ける入力手段と、
前記指示入力に応じて、前記対象画像よりも小さく且つ前記対象画像内での位置が互いに異なる複数の領域を前記対象画像から抽出することにより、互いに異なる構図を有する複数の画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。
An image processing device,
Acquisition means for acquiring a target image to be processed;
Input means for receiving an instruction input for processing start;
A generating unit configured to generate a plurality of images having different compositions from each other by extracting a plurality of regions smaller than the target image and having different positions in the target image from the target image in response to the instruction input; When,
An image processing apparatus comprising:
コンピュータを、
処理対象となる対象画像を取得する取得手段と、
処理開始の指示入力を受け付ける入力手段と、
前記指示入力に応じて、前記対象画像よりも小さく且つ前記対象画像内での位置が互いに異なる複数の領域を前記対象画像から抽出することにより、互いに異なる構図を有する複数の画像を生成する生成手段と、
として機能させるためのプログラム。
Computer
Acquisition means for acquiring a target image to be processed;
Input means for receiving an instruction input for processing start;
A generating unit configured to generate a plurality of images having different compositions from each other by extracting a plurality of regions smaller than the target image and having different positions in the target image from the target image in response to the instruction input; When,
Program to function as
JP2002268951A 2002-09-13 2002-09-13 Digital camera, image processor, and program Pending JP2004109247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002268951A JP2004109247A (en) 2002-09-13 2002-09-13 Digital camera, image processor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002268951A JP2004109247A (en) 2002-09-13 2002-09-13 Digital camera, image processor, and program

Publications (1)

Publication Number Publication Date
JP2004109247A true JP2004109247A (en) 2004-04-08

Family

ID=32267026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002268951A Pending JP2004109247A (en) 2002-09-13 2002-09-13 Digital camera, image processor, and program

Country Status (1)

Country Link
JP (1) JP2004109247A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006020105A (en) * 2004-07-02 2006-01-19 Casio Comput Co Ltd Imaging device, slot picture photographing method and program
JP2006129149A (en) * 2004-10-29 2006-05-18 Auto Network Gijutsu Kenkyusho:Kk Visual recognition device for vehicle vicinity
JP2008252508A (en) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd Imaging device and photographing method
WO2008129758A1 (en) * 2007-04-09 2008-10-30 Panasonic Corporation Imaging device, imaging method and integrated circuit
JP2009218807A (en) * 2008-03-10 2009-09-24 Sanyo Electric Co Ltd Imaging apparatus and image reproducing apparatus
JP2010072134A (en) * 2008-09-17 2010-04-02 Ricoh Co Ltd Imaging apparatus
JP2011109693A (en) * 2011-01-12 2011-06-02 Sanyo Electric Co Ltd Imaging device
JP2011142644A (en) * 2011-02-04 2011-07-21 Sanyo Electric Co Ltd Imaging apparatus
JP2011252954A (en) * 2010-05-31 2011-12-15 Nikon Corp Digital camera
US20140204244A1 (en) * 2013-01-18 2014-07-24 Samsung Electronics Co., Ltd. Method and apparatus for photographing in portable terminal
US9264620B2 (en) 2008-10-31 2016-02-16 Samsung Electronics Co., Ltd. Image photography apparatus and method for proposing composition based person
CN111418202A (en) * 2017-12-04 2020-07-14 高通股份有限公司 Camera zoom level and image frame capture control

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006020105A (en) * 2004-07-02 2006-01-19 Casio Comput Co Ltd Imaging device, slot picture photographing method and program
JP4529561B2 (en) * 2004-07-02 2010-08-25 カシオ計算機株式会社 Imaging apparatus, image composition method, and image composition program
JP2006129149A (en) * 2004-10-29 2006-05-18 Auto Network Gijutsu Kenkyusho:Kk Visual recognition device for vehicle vicinity
US7825952B2 (en) 2004-10-29 2010-11-02 Autonetworks Technologies, Ltd. Vehicle's peripheral visible apparatus
JP2008252508A (en) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd Imaging device and photographing method
US8144235B2 (en) 2007-03-30 2012-03-27 Sanyo Electric Co., Ltd. Image pickup device and image pickup method
US8063956B2 (en) 2007-04-09 2011-11-22 Panasonic Corporation Image pickup device, image pickup method and integrated circuit
WO2008129758A1 (en) * 2007-04-09 2008-10-30 Panasonic Corporation Imaging device, imaging method and integrated circuit
JP4854786B2 (en) * 2007-04-09 2012-01-18 パナソニック株式会社 Imaging device, imaging method, and integrated circuit
JP2009218807A (en) * 2008-03-10 2009-09-24 Sanyo Electric Co Ltd Imaging apparatus and image reproducing apparatus
JP2010072134A (en) * 2008-09-17 2010-04-02 Ricoh Co Ltd Imaging apparatus
US9264620B2 (en) 2008-10-31 2016-02-16 Samsung Electronics Co., Ltd. Image photography apparatus and method for proposing composition based person
JP2011252954A (en) * 2010-05-31 2011-12-15 Nikon Corp Digital camera
JP2011109693A (en) * 2011-01-12 2011-06-02 Sanyo Electric Co Ltd Imaging device
JP2011142644A (en) * 2011-02-04 2011-07-21 Sanyo Electric Co Ltd Imaging apparatus
US20140204244A1 (en) * 2013-01-18 2014-07-24 Samsung Electronics Co., Ltd. Method and apparatus for photographing in portable terminal
AU2014200342B2 (en) * 2013-01-18 2017-04-13 Samsung Electronics Co., Ltd. Method and apparatus for photographing in portable terminal
US10200597B2 (en) * 2013-01-18 2019-02-05 Samsung Electronics Co., Ltd. Method and apparatus for photographing in portable terminal
CN111418202A (en) * 2017-12-04 2020-07-14 高通股份有限公司 Camera zoom level and image frame capture control
US11483469B2 (en) 2017-12-04 2022-10-25 Qualcomm Incorporated Camera zoom level and image frame capture control

Similar Documents

Publication Publication Date Title
JP4367897B2 (en) Image display control apparatus and method
JP5454158B2 (en) Imaging apparatus, control method thereof, and program
US20060044444A1 (en) Digital camera
JP2004208028A (en) Imaging device
WO2000076206A1 (en) Electronic still camera
JP2008182485A (en) Photographing device and photographing method
JP2008180906A (en) Photographing device and focusing control method
KR101286953B1 (en) Photographing apparatus
JP2008104069A (en) Digital camera and program of digital camera
JP2004109247A (en) Digital camera, image processor, and program
JP2005229326A (en) Camera apparatus and through-image display method
JP2007299339A (en) Image reproducing device, method and program
JP2019092121A (en) Imaging control apparatus and control method of the same
JP2010141609A (en) Imaging apparatus
JP2003304484A (en) Electronic camera
JP5854235B2 (en) Imaging apparatus, imaging method, and program
JP5914829B2 (en) Imaging device
JP2009033386A (en) Photographing device and method
JP2004271693A (en) Digital camera
JP2004271694A (en) Digital camera
JP7395258B2 (en) Image processing device, image processing method, computer program and storage medium
JP7110078B2 (en) Imaging device, imaging method
JP2009139423A (en) Imaging apparatus and subject distance calculating method
JP2007013586A (en) Image pickup device
JP2012060213A (en) Imaging apparatus and control method of the same

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615