JP3736129B2 - Digital camera - Google Patents
Digital camera Download PDFInfo
- Publication number
- JP3736129B2 JP3736129B2 JP22840698A JP22840698A JP3736129B2 JP 3736129 B2 JP3736129 B2 JP 3736129B2 JP 22840698 A JP22840698 A JP 22840698A JP 22840698 A JP22840698 A JP 22840698A JP 3736129 B2 JP3736129 B2 JP 3736129B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- captured
- subject
- recording
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Facsimiles In General (AREA)
- Storing Facsimile Image Data (AREA)
- Studio Devices (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、撮像素子により被写体像を画像信号に光電変換して取り込むデジタルカメラに係り、特に被写体全体を複数の部分に分割して撮像し、各被写体の部分の撮像画像を貼り合わせるように合成して精細度の高い被写体全体の撮像画像を得ることのできるデジタルカメラに関するものである。
【0002】
【従来の技術】
従来、デジタルカメラにおいて、CCD(Charge Coupled Device)等の撮像素子の実効解像度を高めるため、被写体を複数の部分に分割し、かつ、拡大して撮像し、これらの部分画像を貼り合わせるように合成することで精細度の高い被写体全体の撮像画像を得ることのできるデジタルカメラが提案されている。
【0003】
そして、被写体の部分のみを撮像し、これらの撮像画像を合成することなくメモリカード等の記録媒体に記録することによりカメラ側での部分画像の合成処理の負担を軽減するようにしたデジタルカメラが商品化されている。
【0004】
【発明が解決しようとする課題】
ところで、上記従来のデジタルカメラでは、カメラ側で被写体全体の画像を合成しないので、例えばコンピュータシステムにより構成された画像処理装置でメモリカードから複数の被写体の部分の撮像画像を読み出し、これらの部分画像を貼り合わせるように合成して被写体全体の画像を作成する必要があるが、メモリカードには被写体全体の画像が記録されていないので、各被写体の部分の画像の貼合位置を正確に決定することができず、各被写体の部分の画像の貼合処理により画質劣化を招き易いという問題がある。
【0005】
また、カメラ本体にLCD(Liquid Crystal Display)等の表示部が設けられ、撮影画像のモニタが可能なっていても、高精細撮影では被写体全体は撮影されず、被写体の部分の撮影画像を合成した被写体全体の画像も作成されないので、撮影結果をLCD表示部でモニタすることができないという不都合もある。
【0006】
更にはLCD表示部にメモリカードに記録された撮影画像を再生表示して記録内容の整理(不必要な画像の消去や合成用の一組の被写体の部分の画像をそれぞれ独立の撮影画像に変更する等の整理)を可能にした場合も、高精細撮影された画像については被写体の部分の撮像画像しかLCD表示部に再生表示されないので、消去可否の判断等が容易にできないという不都合が生じる。
【0007】
本発明は、上記課題に鑑みてなされたものであり、高精細撮影において、複数の被写体の部分の撮像画像を容易かつ正確に合成し得るように撮像及び記録の処理が可能なデジタルカメラを提供するものである。
【0008】
【課題を解決するための手段】
本発明は、被写体全体を撮像する第1の撮像手段と、上記被写体全体を複数の部分に分割し、被写体の各部分を撮像する第2の撮像手段と、撮影を指示する撮影指示手段と、上記撮影指示手段で撮影が指示されると、上記第1,第2の撮像手段を動作させて上記被写体全体と上記被写体の部分とを順次、撮像させる撮像制御手段と、上記第1及び第2の撮像手段で撮像された画像を記録する画像記録手段とを備えたデジタルカメラにおいて、上記第1,第2の撮像手段で撮像された画像にそれぞれ互いに関連画像であることを示す情報を生成する情報生成手段と、上記第1,第2の撮像手段で撮像された各画像をこれらの撮像画像に対応して上記情報生成手段で生成された情報と併せて、それぞれ独立の画像ファイルにして上記画像記録手段に記録する記録制御手段とを備えたものである(請求項1)。
【0009】
上記構成によれば、第1の撮像手段により被写体全体の画像が取り込まれ、続いて第2の撮像手段により被写体を複数の部分に分割し、被写体の各部分の画像がそれぞれ取り込まれる。そして、被写体全体の撮像画像と被写体の各部分の撮像画像とに対して互いに独立のファイルが作成されて画像記録手段に記録される。このとき、各撮像画像に対してそれぞれ互いに関連画像であることを示す情報が生成され、各撮像画像はその情報とともに画像記録手段に記録される。
【0010】
画像記録手段から被写体全体の撮像画像又は被写体の部分の撮像画像の画像ファイルの内容を読み出し、これらの撮像画像を合成する場合も画像データに付随する情報の内容より確実に関連する撮像画像を読み出すことが可能となる。
【0011】
また、本発明は、上記デジタルカメラにおいて、画像記録手段に記録された撮像画像を再生表示する表示手段と、上記撮像画像の上記表示手段への再生表示を指示する再生指示手段と、上記再生指示手段により撮像画像の再生表示が指示されると、第1の撮像手段で撮像された被写体全体の画像のみを上記表示手段に再生表示させる表示制御手段とを更に備えたものである(請求項2)。
【0012】
上記構成によれば、再生指示手段で互いに関連する一組の撮像画像の再生が指示されると、当該指示された組の被写体全体の撮像画像のみが画像記録手段から読み出されて表示手段に再生され、他の被写体の部分の撮像は表示手段に再生されない。
【0013】
また、本発明は、上記デジタルカメラにおいて、表示手段に再生表示された撮像画像の画像記録手段における記録の消去を指示する消去指示手段と、上記消去指示手段により上記表示手段に再生表示された撮像画像の消去が指示されると、上記画像記録手段に記録された当該撮像画像及びこの撮像画像に関連した被写体の部分の撮像画像を消去する記録消去手段とを更に備えたものである(請求項3)。
【0014】
上記構成によれば、表示手段に互いに関連する一組の撮像画像のうちの被写体全体の撮像画像を表示させた状態で消去指示手段により記録消去の指示が行われると、記録手段に記録された当該一組の撮像画像を構成する被写体全体の撮像画像と被写体の各部分の撮像画像の画像ファイルが全て消去される。
【0015】
また、本発明は、デジタルカメラにおいて、表示手段に再生表示された被写体全体の撮像画像とこれに関連した被写体の部分の撮像画像との関連性の解消を指示する指示手段と、上記指示手段により一組の関係の解消が指示されると、画像記録手段の上記被写体全体の撮像画像の画像ファイルに記録された関連画像であることを示す情報を消去する情報消去手段とを更に備えたものである(請求項4)。
【0016】
上記構成によれば、表示手段に互いに関連する一組の撮像画像のうちの被写体全体の撮像画像を表示させた状態で指示手段により関連性の解消が指示されると、記録手段に記録された当該一組の撮像画像を構成する被写体全体の撮像画像及び被写体の各部分の撮像画像の各画像ファイル内の関連画像であることを示す情報が消去される。これにより被写体全体の撮像画像及び被写体の各部分の撮像画像の各画像ファイルはそれぞれ独立に撮影された画像として扱われる。
【0017】
また、本発明は、上記デジタルカメラにおいて、上記指示手段により関連性の解消が指示されると、画像記録手段に記録された表示手段に再生表示された被写体全体の撮像画像に関連した被写体の部分の撮像画像の画像ファィルを消去する画像消去手段とを更に備えたものである(請求項5)。
【0018】
上記構成よれば、表示手段に互いに関連する一組の撮像画像のうちの被写体全体の撮像画像を表示させた状態で指示手段により関連性の解消が指示されると、画像記録手段に記録された当該一組の撮像画像を構成する被写体の各部分の撮像画像の画像ファイルが全て消去されるとともに、被写体全体の撮像画像の画像ファイル内の関連画像であることを示す情報が消去される。
【0019】
【発明の実施の形態】
本発明に係るデジタルカメラについて、図を用いて説明する。
図1〜図3は、本発明に係るデジタルカメラの一実施の形態の外観を示す図で、図1は前側から見た斜視図、図2は後側から見た斜視図、図3は表示部をカメラ本体から取り外した状態を示す斜視図である。また、図4はカメラ本体における撮像ユニット22の配置位置を示す要部斜視図である。
【0020】
同図に示すデジタルカメラ1は、ズームレンズからなる撮影レンズとCCD(Charge Coupled Device)からなる撮像素子とが一体的にユニット化され、カメラ本体の正面方向(カメラ本体2の前面2aに対して垂直の方向)に対して上下左右に回動可能に支持された撮像ユニット22を有し、この撮像ユニット22の姿勢(すなわち、光軸方向)を制御することにより正面方向に対して所定の角度範囲で任意の方向の被写体を撮影することができるようになっている。
【0021】
また、撮影モードとして通常の撮影動作を行うモード(以下、通常撮影モードという。)と通常撮影モードでの撮影画像よりも精細度の高い撮影画像を得ることのできるモード(以下、高精細撮影モードという。)とを有している。
【0022】
なお、通常撮影モードでは1回のレリーズ動作で1枚の撮影画像が記録媒体であるフラッシュメモリに記録されるが、本実施の形態では後述するように1回のレリーズ動作で所定の時間間隔(例えば0.1秒間隔)で所定の回数(例えば3回)だけ露出制御を行い(すなわち、連続的に複数枚の画像を撮像し)、これらの撮像画像のうち、予め設定された撮像画像(例えば最初の撮像画像)をフラッシュメモリに自動的に記録するようにしている。そして、撮影者の指示により当該撮影者が希望する撮像画像(例えば2番目の撮像画像)を自動記録された撮像画像に換えて、もしくは、当該撮像画像に追加してフラッシュメモリに記録することができるようになっている。
【0023】
通常撮影モードにおける上述の撮影制御は銀塩カメラにおけるブラケット撮影機能に類似したものである。銀塩カメラにおいては、通常、撮影者がモード設定した場合にブラケット撮影が行われるが、本実施の形態では通常撮影モードで常にブラケット撮影が行われる点で相違する。従って、以下の説明では通常撮影モードにおけるブラケット撮影を「オートブラケット撮影」と呼び、銀塩カメラにおけるブラケット撮影と区別することとする。
【0024】
また、高精細撮影モードは、図5に示すように被写体Qの全体画像Gと当該被写体Qを4個の部分に分割した部分画像GA,GB,GC,GDとを取り込み、被写体Qの全体画像Gに基づいて4枚の部分画像GA〜GDを貼合合成することにより当該被写体Qの全体画像Gよりも精細度の高い被写体の全体画像を作成可能にするものである。そして、この高精細撮影モードにおいては、1回のレリーズ動作で撮像ユニット22の光軸方向を正面方向(図5においてoの方向)に向けて被写体Qの全体画像Gが取り込まれるとともに、撮像ユニット22の光軸方向と撮像倍率とを所定方向(図5においてa,b,c,dの方向)と所定の倍率(1.8〜1.9倍程度)とを自動変更しつつ4回だけ撮像動作を行って被写体Qの部分画像GA〜GDが取り込まれるようになっている。
【0025】
なお、本実施の形態では被写体Qを4分割しているが、分割数はこれに限定されるものではなく、適宜の個数に分割することができるものである。また、本実施の形態ではデジタルカメラ1における画像の処理負担を軽減する観点から被写体Qの部分画像GA〜GDを取り込むのみで、これらの部分画像GA〜GDの貼合合成はコンピュータ等の画像処理システムで行われるようになっている。
【0026】
図1に戻り、デジタルカメラ1は縦長の直方体形状をなし、カメラ本体2の幅の狭い一方の側面2aがカメラ本体の前面をなし、他方の側面2bがカメラ本体の後面をなしている。カメラの後側から見て左側の側面2cの上部にLCD(Liquid Crystal Display)からなる表示画面を有する表示部3(以下、LCD表示部3という。)がカメラ本体2に対して開閉可能、かつ、離脱可能に設けられている(図2,図3参照)。すなわち、カメラ本体2の左側面2cの上部前端に鉄、ニッケル等の磁性体からなる取付板10が図略のヒンジ機構により開閉可能に取り付けられる一方、LCD表示部3の表示面の右端部に強力な磁石Mが埋設され、この磁石Mの吸着力によりLCD表示部3が取付板10に着脱可能に取り付けられている。
【0027】
なお、カメラ本体2とLCD表示部3とはカメラ本体2内に図略の巻取り機構で収納可能になされたケーブル11により電気的に接続され、このケーブル11を介してカメラ本体2からLCD表示部3に電源や表示画像のデータが送信されるとともに、後述するLCD表示部3に設けられた各種スイッチの操作信号がケーブル11を介してLCD表示部3からカメラ本体2に送信されるようになっている。すなわち、LCD表示部3をカメラ本体2から離脱することにより遠隔操作で撮影ができるようになっている。
【0028】
カメラ本体の前面2aの上部適所にはフラッシュ4が設けられ、その下部に撮像ユニット22の撮影レンズ231を露出させる開口部5が設けられている。撮像ユニット22は、図4に示すようにカメラ本体2内の開口部5の臨む位置に光軸Lの方向を変更可能に設けられている。この撮像ユニット22の構造については後述する。
【0029】
また、カメラ本体の後面1bの上部適所には上記撮影レンズ231の焦点距離を変更するための一対の操作ボタン6,7(以下、ズーム操作ボタン6,7という。)が並設され、その下部に撮影を指示するレリーズボタン8が設けられ、更にその下部に上記撮像ユニット22の光軸方向を手動調整するための操作レバー9(以下、光軸変更レバー9という。)が設けられている。なお、光軸変更レバー9は多機能化されており、後述するようにオートブラケット撮影された複数の撮影画像のLCD表示部3への表示画像の変更や再生モードにおけるLCD表示部3への再生コマの変更にも使用される。
【0030】
フラッシュ4はキセノン放電管からなり、低輝度時に自動発光されるようになっている。開口部5は撮像ユニット22の撮影レンズ231の露出し得る範囲(すなわち、撮影し得る光軸方向の変更範囲)を規定するものである。本実施の形態では撮影レンズ231の光軸方向を水平面内及び垂直面内でそれぞれ正面方向に対して±20°変更できる範囲となっている。従って、撮影可能状態においては、撮影レンズ231が開口部5から露出可能な範囲内で撮像ユニット22の回動が制御される。一方、撮影不可状態においては、撮影レンズ231が開口部5から露出しない所定の位置(例えば撮影レンズ231の光軸方向が斜め下方向となる所定の位置)に撮像ユニット22が回動され、当該撮像ユニット22の本体23で開口部5が遮蔽されるようになっている。
【0031】
ズーム操作ボタン6は撮像ユニット22の撮影レンズ231の焦点距離を望遠(テレ)側に変更するための操作部材であり、ズーム操作ボタン7は、撮像ユニット22の撮影レンズ231の焦点距離を広角(ワイド)側に変更するための操作部材である。両ズーム操作ボタン6,7を操作し続けると、所定の変更速度で撮影レンズ231の焦点距離が対応する方向に連続的に変更され、操作を解除すると、解除時の焦点距離に撮影レンズ231の焦点距離が設定される。
【0032】
レリーズボタン8の操作は後述のスイッチS1,S2により検出されるようになっている。レリーズボタン8の半押操作によりスイッチS1がオンになり、これにより撮影動作の準備(焦点調節や露出制御値の設定等の準備)が行われ、レリーズボタン8の全押操作によりスイッチS2がオンになり、これにより設定された露出制御値により露出制御が行われる。なお、通常撮影モードにおいては、上述したようにオートブラケット撮影が行われるようになっているので、予め設定された所定の時間間隔で所定の回数だけ露出制御が繰り返される。また、高精細撮影モードにおいては、撮影レンズ231の光軸方向及び撮影倍率を自動変更して所定回数の露出制御が行われる。
【0033】
光軸変更レバー9は上下左右の4方向に傾動可能になされ、光軸変更レバー9を傾動させることによりその傾動方向に撮像ユニット22の光軸方向を変化させることができるようになっている。例えば光軸変更レバー9を上方向に傾動させると、その傾動が解除されるまで所定の速度で撮像ユニット22が仰角方向に回動され、光軸変更レバー9を下方向に傾動させると、その傾動が解除されるまで所定の速度で撮像ユニット22が俯角方向に回動される。なお、撮像ユニット22の光軸方向が変更可能な許容範囲(正面方向に対して±20°の範囲)を超えるときは、撮像ユニット22がその許容範囲の限界位置に達した時点で回動動作は自動停止される。
【0034】
LCD表示部3の裏面中央にはLCDパネル12が設けられている。また、LCD表示部3のLCDパネル12に表示されるライブビュー画像を見ながら遠隔操作で撮影動作ができるように、LCDパネル12の周辺部には記録/再生モードスイッチ13、撮影モードスイッチ14、ブラケット撮影確認ボタン15、ズーム操作ボタン16,17、レリーズボタン18、光軸変更ボタン19a〜19d、消去ボタン20及びメインスイッチ21が設けられている。なお、光軸変更ボタン19a〜19dも光軸変更レバー9と同様に多機能化されている。
【0035】
記録/再生モードスイッチ13はLCD表示部3の左側周辺部の下部に設けられ、撮影を行う記録モードとフラッシュメモリに記録された画像をLCDパネル12に再生表示する再生モードとを切換設定するものである。記録/再生モードスイッチ13は2接点スライドスイッチからなり、例えば摘みを左側にスライドさせると、記録モードが設定され、摘みを右側にスライドさせると、再生モードが設定される。
【0036】
撮影モードスイッチ14は記録/再生モードスイッチ13の下部に設けられ、上述した通常撮影モードと高精細撮影モードとを切換設定するものである。撮影モードスイッチ14も記録/再生モードスイッチ13と同様に2接点スライドスイッチからなり、例えば摘みを左側にスライドさせると、通常撮影モードが設定され、摘みを右側にスライドさせると、高精細撮影モードが設定される。
【0037】
ブラケット撮影確認ボタン15はLCD表示部3の下側周辺部の左端部に設けられ、通常撮影モードにおけるオートブラケット撮影の内容確認や記録画像の変更等を行うモード(以下、確認モードという。)の設定及び解除を行うものである。ブラケット撮影確認ボタン15も多機能化されており、再生モードにおいては高精細撮影モードで撮影された記録画像の属性変更を指示する操作ボタンとして機能するようになっている。なお、高精細撮影モードで撮影された複数の被写体Qの部分画像GA〜GDは貼合合成用の画像であることが識別できるように、属性データとして撮影モードに関する情報を付してフラッシュメモリに記録されるが、高精細撮影モードの撮影画像の属性変更とは、各部分画像GA〜GDを等価的に通常撮影モードで撮影された画像として取り扱えるように、撮影モードに関する情報の内容を変更するものである。
【0038】
ブラケット撮影確認ボタン15はプッシュスイッチからなり、記録モードにおいて撮影終了直後に押されると、押される毎に確認モードの設定と解除とが交互に入力される。また、再生モードにおいてブラケット撮影確認ボタン15が押されると、押される毎にLCD表示部3に表示されている高精細撮影モードの撮影画像に対応する画像ファイルが通常撮影モードの撮影画像の画像ファイルに変更される。
【0039】
ズーム操作ボタン16,17はLCD表示部3の下側周辺部の中央部に設けられ、それぞれカメラ本体2に設けられたズーム操作ボタン6,7と同一の機能を果たす操作ボタンである。また、レリーズボタン18はLCD表示部3の下側周辺部の右端部に設けられ、カメラ本体2に設けられたレリーズボタン8と同一の機能を果たす操作ボタンである。
【0040】
光軸変更ボタン19a〜19dはそれぞれLCD表示部3の上下左右の各周辺部の略中央に設けられ、カメラ本体2に設けられた光軸変更レバー9と同一の機能を果たす操作ボタンである。光軸変更ボタン19a〜19dの各ボタンの操作はそれぞれ光軸変更レバー9の上下左右の各方向への傾動操作に対応している。従って、例えば記録モードにおいて光軸変更ボタン19aを押圧操作すると、その押圧操作が解除されるまで所定の速度で撮像ユニット22が仰角方向に回動され、光軸変更ボタン19bを押圧操作すると、その押圧操作が解除されるまで所定の速度で撮像ユニット22が俯角方向に回動される。なお、許容範囲(正面方向に対して±20°の範囲)内で撮像ユニット22の光軸方向の手動変更が行われる点は光軸変更レバー9の場合と同様である。
【0041】
消去ボタン20はLCD表示部3の左側周辺部の上部に設けられ、フラッシュメモリに記録された画像の消去を指示する操作ボタンである。また、メインスイッチ21は消去ボタン20の下部に設けられ、電源の供給/停止を行うものである。
【0042】
図6は撮像ユニットの正面図、図7は同撮像ユニットの平面図、図8は同撮像ユニットの右側面図である。
【0043】
撮像ユニット22はユニット本体23、このユニット本体23を垂直方向に揺動可能に支持するコ字状の第1支持枠24、ユニット本体23を水平方向に回動可能に支持するL字状の第2支持体25、ユニット本体23を上下左右の各方向に回動させる駆動部材26、ユニット本体23の回動位置を検出する位置検出部材27,28から構成されている。
【0044】
ユニット本体23は円筒の両端が半球面で覆われたカプセル形状をなし、一方の半球面の中央に撮影レンズ231を露出させる円形の窓23cを有している。ユニット本体23内には中心軸上に上記窓23cに臨ましめて撮影レンズ231が配設され、この撮影レンズ231の後方位置に図略のCCDからなる撮像素子を有する撮像部が配設されている。
【0045】
撮影レンズ231は、例えば5mm〜15mmの範囲で焦点距離が変更可能なズームレンズで構成されている。撮影レンズ231は、図8に示すように、焦点距離を変更するための光軸方向に移動可能なレンズ231aを有し、このレンズ231aの位置を制御することにより焦点距離が制御されるようになっている。焦点距離調整用のレンズ231aは、電動モータ232(以下、ズームモータ232という。)のロータ232aに直結された棒状のネジ部材233に螺合されているナット部材234に固定されている。ズームモータ232を駆動すると、ネジ部材233が回転し、これによりナット部材234がネジ部材233の軸方向に直進運動してレンズ231aが光軸上を前後に移動する。
【0046】
また、レンズ231aにはズームモータ232により直進運動する当該レンズ231aの位置を検出するエンコーダ235が設けられている。エンコーダ235はネジ部材233の下方位置に設けられたコード板235aとナット部材234に固着され、先端がこのコード板235aに圧接された複数本の接片からなるブラシ235bとから構成されている。ズームモータ232の駆動によりレンズ231aが直進運動を行うと、ブラシ235bがコード板235a上を摺動して位置を示すコード符号の信号(例えば4ビット信号)が当該ブラシ235bから出力され、この信号をデコードすることによりレンズ231aの位置(すなわち、その位置に対応する焦点距離)が検出されるようになっている。なお、本実施の形態では5mm〜15mmの範囲において、1mm単位で焦点距離を検出することができるようになっている。
【0047】
撮像部はCCDのほか、このCCDから出力される画像信号(アナログ信号)に所定のアナログ信号処理を施す信号処理回路を有している。この信号処理回路には画像信号のサンプリングノイズを低減するCDS回路(相関二重サンプリング回路)や画像信号を増幅するAGC回路(自動ゲイン調整回路)が含まれている。
【0048】
ユニット本体23の円筒部の両側面の略中央にはピン23d,23eが突設され、これらのピン23d,23eをそれぞれ第1支持枠24の両端適所に穿設された孔24a,24b(図6参照)に遊嵌させてユニット本体23が第1支持枠24に垂直面内で回動可能に支持されている。また、ユニット本体23の円筒部の下側面の略中央と第1支持枠24の略中央とには図略の孔が穿設され、第2支持体25の長辺部25aの適所に突設されたピン25cをこれらの孔に遊嵌させてユニット本体23及び第1支持枠24が第2支持体25に水平面内で回動可能に支持されている。
【0049】
更に第2支持体25の短辺部25bの上部適所に駆動部材26が突設され、この駆動部材26の先端はユニット本体23の後側の半球面23bの中央に接触している。この駆動部材26は、図10に示すように四角柱状の弾性部材261の4つの側面にそれぞれPZT等の圧電素子262〜265を貼り付けるとともに、上端面に積層型圧電素子266と当接片267とを貼り付けたものである。当接片267にはユニット本体23の半球面23bに当接させるための突起267aが形成されている。
【0050】
図10に示すように駆動部材26に対して直交座標系xyzを設定すると、x軸方向に設けられた一対の圧電素子262,264は駆動部材26の先端部をxz面内で振動させる駆動源であり、y軸方向に設けられた一対の圧電素子263,265は駆動部材26の先端部をyz平面内で振動させる駆動源である。すなわち、圧電素子262と圧電素子264とに互いに位相が反転した正弦波電圧を印加すると、圧電素子262が収縮するときは圧電素子264が伸長して駆動部材26の先端部は+x方向に傾き、逆に圧電素子262が伸長するときは圧電素子264が収縮して駆動部材26の先端部は−x方向に傾くので、駆動部材26の先端はxz面内で振動する。同様に圧電素子263と圧電素子265とに互いに位相が反転した正弦波電圧を印加すると、同様のメカニズムで駆動部材26の先端はyz面内で振動する。
【0051】
また、積層型圧電素子266は駆動部材26をz方向に伸長させる駆動源である。すなわち、積層型圧電素子266に正弦波の電圧を印加すると、当該積層型圧電素子266は厚さ方向に伸縮するので、駆動部材26の先端はz軸方向に振動する。
【0052】
従って、図11に示すように圧電素子262と圧電素子264とを互いに位相が反転した正弦波の電圧e1,e2で駆動するとともに、積層型圧電素子266を圧電素子262に対する駆動電圧e1に対して90°位相が遅れた正弦波電圧e3で駆動すると、駆動部材26の先端はx軸方向の振動とz軸方向の伸縮とが合成された運動を行い、xz面内で楕円運動を行うことになる(図10の回転矢印参照)。圧電素子263と圧電素子265とを互いに位相が反転した正弦波の電圧で駆動するとともに、積層型圧電素子266を圧電素子263に対する駆動電圧に対して90°位相が遅れた正弦波電圧で駆動した場合も同様のメカニズムで駆動部材26の先端はyz面内で楕円運動を行うことになる。そして、積層型圧電素子266の駆動電圧の位相を圧電素子262又は263に対する駆動電圧に対して90°進めると、xz面内又はyz面内での楕円運動の回転方向は90°位相を遅らせた場合と逆になる。
【0053】
従って、いま、xz平面が水平平面に一致している場合、圧電素子262と圧電素子264とを互いに位相が反転した正弦波電圧e1,e2で駆動するとともに、積層型圧電素子266を圧電素子262に対する駆動電圧e1に対して90°位相が遅れた正弦波電圧e3で駆動すると、ユニット本体23の後端側の半球面23bに当接された駆動部材26の当接片267が水平面内で、例えば反時計方向に楕円運動を行うので、この楕円運動によりユニット本体23はピン25cを中心として水平面内を時計回りに回動し、積層型圧電素子266の駆動電圧e3の位相を圧電素子262の駆動電圧e1に対して90°進めると、駆動部材26の当接片267が水平面内で時計方向に楕円運動を行うので、この楕円運動によりユニット本体23はピン25cを中心として水平面内を反時計回りに回動する。
【0054】
一方、圧電素子263と圧電素子265とを互いに位相が反転した正弦波の電圧を駆動するとともに、積層型圧電素子266を圧電素子263に対する駆動電圧に対して90°位相が遅れた正弦波電圧(もしくは90°位相が進んだ正弦波電圧)で駆動すると、同様のメカニズムでユニット本体23はピン23d,23eを中心として垂直面内を時計回り(もしくは反時計回り)に回動する。
【0055】
ユニット本体23の正面から見て右側の側部には位置検出部材27が設けられ、下側の側部には位置検出部材28が設けられている(図7,図8参照)。位置検出部材27はユニット本体23のyz面内(垂直面内)における回動位置を検出するものであり、位置検出部材28はユニット本体23のxz面内(水平面内)における回動位置を検出するものである。
【0056】
位置検出部材27は、図12に示すように磁気ヘッド271及び円弧状のマグネットスケール272と図略の位置検出回路とで構成されている。マグネットスケール272はユニット本体23の右側の側部に固定される一方、磁気ヘッド271は第1支持枠24の端部の当該マグネットスケール272に対向する位置に、ユニット本体23が垂直面内で回動した際、磁気ヘッド271がマグネットスケール272上を相対的に移動するように取り付けられている。また、位置検出回路はカメラ本体2内の適所に設けられている。
【0057】
マグネットスケール272は3本のトラック272a,272b,272cを有し、外側の2本のトラック272a,272bには複数のS極とN極の磁極m1,m2が所定の角度ピッチΔα(例えばトラック272bにおいて、磁極m2間の距離dが200μmとなる角度ピッチ)で交互に、かつ、両トラック間で隣接する磁極m1,m2が同極性となるように着磁されている。
【0058】
トラック272aに形成された隣接するS極の磁極m1とN極の磁極m1との境界位置は円弧状のスケールの目盛位置に相当し、トラック272bに形成された隣接するS極の磁極m2とN極の磁極m2との境界位置も円弧状のスケールの目盛位置に相当している。同一スケールに相当する2本のトラック272a,272bを設けているのは、撮像ユニット22の回動方向を検出可能にするとともに、回動角αをΔα/2ピッチで検出できるようにするためである。すなわち、トラック272aの磁極m1の各境界位置又はトラック272bの磁極m2の各境界位置を検出することにより基準位置Rからの回転量(もしくは回動角α)が検出できるが、トラック272aの磁極m1間の境界位置の検出タイミングとトラック272bの磁極m2間の境界位置の検出タイミングとを電気的にπ/2だけ位相をずらせることによりΔα/2の角度ピッチで回転量が検出される。
【0059】
なお、基準位置Rは、撮像ユニット22の光軸Lが正面方向となる当該撮像ユニット22の位置を「中心位置」と呼ぶことにすると、撮像ユニット22が垂直面内で中心位置から下方向に40°回動した位置である。
【0060】
また、最も内側のトラック272cには一方端部の適所に一対のS極とN極の磁極m3が着磁されている。トラック272cに形成された一対の磁極m3はトラック272a,272bのスケールの基準位置Rを与えるものである。従って、これらの磁極m3もトラック272bとの間で隣接する磁極m2と同極性となる位置に着磁されている。
【0061】
磁気ヘッド271はマグネットスケール272の各トラック272a,272b,272cに形成された磁極m1,m2,m3をそれぞれ検出するための磁気抵抗素子271a,271b,271cを有している。磁気抵抗素子271aと磁気抵抗素子271cとはマグネットスケール272上で同一の回転位置(図12では回転位置n)となる位置に配置され、磁気抵抗素子271bは磁気抵抗素子271a及び磁気抵抗素子271cに対して角度ピッチΔαの1/2だけ時計回りにずれた位置に配置されている。磁気抵抗素子271aに対して磁気抵抗素子271bの位置をずらしているのは、トラック272aの磁極m1間の境界位置の検出タイミングとトラック272bの磁極m2間の境界位置の検出タイミングとを電気的にπ/2だけ位相をずらせるためである。
【0062】
図13は、位置検出回路の一実施の形態を示すブロック図である。
位置検出回路273は3個の波形整形回路273a,273b,273c、位相検出回路273d、信号変化検出回路273e及びカウンタ273fから構成されている。波形整形回路273a,273b,273cにはそれぞれ磁気抵抗素子271a,271b,271cの磁極検出信号が入力される。波形整形回路273a,273bの出力信号Sg1,Sg2はそれぞれ位相検出回路273dと信号変化検出回路273eとに入力され、波形整形回路273cの出力信号Sg3はカウンタ273fのリセット端子に入力されている。また、位相検出回路273dから出力される信号Sg4はカウンタ273fの+/−端子に入力され、信号変化検出回路273eから出力される信号Sg5はカウンタ273fのカウント端子に入力されている。そして、カウンタ273fのOUT端子から角度データ(すなわち、図12における基準位置Rからの回動角度αのデータ)が検出される。
【0063】
撮像ユニット22の回動動作により磁気ヘッド271がマグネットスケール272上を相対的に移動すると、磁気抵抗素子271a,271b,271cによりそれぞれトラック272a,272b,272cに形成された磁極m1,m2,m3による磁場が検出される。トラック272a,272bには磁極m1,m2がN,S交互に形成されているので、磁気抵抗素子271a,271bからは所定の周期で正弦波状に変化する信号が出力される。また、トラック272cには所定の位置にN,S一対の磁極m3が形成されているので、磁気抵抗素子271cからは当該磁気抵抗素子271cが磁極m3の形成位置を通過したとき、正弦波状に変化する信号が1周期分だけ出力される。
【0064】
波形整形回路273a,273b,273cはそれぞれ磁気抵抗素子271a,271b,271cから出力される正弦波状の信号を矩形波の信号に波形整形するものである。また、位相検出回路273dは波形整形回路273aの出力信号Sg1と波形整形回路273bの出力信号Sg2との位相関係(例えば信号Sg1の位相が信号Sg2の位相に対して進み位相か遅れ位相かの関係)を検出するものである。この位相関係の検出信号Sg4はマグネットスケール272に対する磁気ヘッド271の相対的な移動方向(すなわち、撮像ユニット22の回動方向)を示すものである。
【0065】
また、信号変化検出回路273eは出力信号Sg1,Sg2の信号変化(すなわち、例えばS極検出からN極検出に変化したこと)を検出するものである。この検出信号Sg5はマグネットスケール272に対する磁気ヘッド271の移動量(もしくは回転角α)を100μm単位(もしくはΔα/2単位)で検出したものである。
【0066】
磁気抵抗素子271aと磁気抵抗素子271bとは磁気ヘッド271において検出位置が互いに90°位相がずれる関係に設定されているので、図14に示すように、波形整形回路273aの出力信号Sg1と波形検出回路273bの出力信号Sg2とは位相がπ/2だけずれている。しかも磁気ヘッド271のマグネットスケール272に対する移動方向が時計回りか反時計回りかで信号Sg2に対する信号Sg1の位相の進遅関係は互いに逆になっている。すなわち、磁気ヘッド271がマグネットスケール272に対して時計回りに移動するときは、図14では磁気ヘッド271がマグネットスケール272aを右から左に移動することになるので、信号Sg2に対する信号Sg1の位相は遅れ位相となり(図14の基準位置Rの検出タイミング参照)、磁気ヘッド271がマグネットスケール272に対して反時計回りに移動すると(図14では磁気ヘッド271がマグネットスケール272aを左から右に移動すると)、信号Sg2に対する信号Sg1の位相は進み位相となる。
【0067】
従って、位相検出回路273bでは、例えば信号Sg2に対する信号Sg1の位相が進み位相のとき(撮像ユニット22が反時計回りに回動しているとき)、ハイレベルの信号が出力され、信号Sg2に対する信号Sg1の位相が遅れ位相のとき(撮像ユニット22が時計回りに回動しているとき)、ローレベルの信号が出力される。なお、位相検出回路273bの出力信号のハイ/ロー関係は逆になっていてもよい。
【0068】
また、信号変化検出回路273eは波形整形回路273a及び波形整形回路273bの出力信号Sg1,Sg2の立上り及び立下りを検出し、その検出毎にパルス信号を出力する。信号Sg1及び信号Sg2の信号変化を検出したパルス列はそれぞれ磁気ヘッド271のマグネットスケール272上の移動を200μmピッチで検出したものであるが、信号Sg1の信号変化を検出したパルス列と信号Sg2の信号変化を検出したパルス列とは検出タイミングが相互にπ/2だけずれているので、信号変化検出回路273eから出力されるパルス列信号Sg5は磁気ヘッド271のマグネットスケール272上の移動を100μmピッチで検出した(すなわち、撮像ユニット22の回動を角度Δα/2ピッチした)ものとなっている。
【0069】
従って、カウンタ273fでは波形整形回路273aから出力される基準位置Rの検出信号Sg3(信号変化の信号)でカウント値をリセットした後、カウント端子に入力されるパルス数Nmをカウントし、このカウント値Nmに角度Δα/2を乗して撮像ユニット22の基準位置Rからの回動角αが算出され、その角度データがOUT端子から出力される。また、+/−端子に入力される信号Sg4のレベルより撮像ユニット22の回動方向が判別され、その回動方向のデータもOUT端子から出力される。
【0070】
なお、位置検出部材28も位置検出部材27と同様の構成を有し、この位置検出部材28により上述と同様のメカニズムで撮像ユニット22の水平面内での回動位置が検出される。位置検出部材28における基準位置Rは撮像ユニット22が水平面内で中心位置から右方向に40°回動した位置である。
【0071】
上記構成において、メインスイッチ21がオンなると、記録モードが初期設定され、撮像ユニット22は、まず、図15の実線の状態及び図16に示すように自動的に中心位置(すなわち、撮影レンズ231が開口部5から露出し、その光軸Lが正面方向となる位置)に設定される。そして、記録モードにおいては、撮影者の光軸変更レバー9又は光軸変更ボタン19a〜19dの操作により撮像ユニット22が中心位置より上下左右の各方向にそれぞれおよそ±20°の範囲(上述の許容範囲に相当)内で任意の位置に設定されて、撮影が行われる。
【0072】
また、メインスイッチ21がオフになると、図15の一点鎖線で示すように、撮像ユニット22が中心位置に対して下方向におよそ40°回動した位置に自動的に設定され、開口部5がユニット本体23の前側の半球面23aの部分で遮蔽される。なお、中心位置に対して下方向以外でおよそ40°回動した位置に撮像ユニット22を設定して開口部5をユニット本体23の前側の半球面23aの部分で遮蔽するようにしてもよい。本実施の形態では、撮像ユニット22の駆動制御の容易性を考慮して位置検出部材27,28でそれぞれ基準位置Rが検出されるまで撮像ユニット22を回動させ、図17に示すように、右下方向に40°回動した位置に撮像ユニット22を設定するようにしている。
【0073】
このように開口部5にバリアやスライドカバーを設けることなくユニット本体23で開口部5を遮蔽するようにしているので、開口部2の遮蔽機構が簡単になるとともに、カメラ収納時はユニット本体23が確実にカメラ本体2内に格納されるので、簡単な構成で撮影レンズ231に汚れや埃が付着することがなく、撮影レンズ231を通して撮像部に不要光が進入することもないようになっている。
【0074】
なお、本実施の形態では圧電素子を撮像ユニット22の駆動部材に用いているが、ステッピングモータ等のモータを駆動部材としてもよい。この場合、例えば撮像ユニット22の垂直面内の回動軸と水平面内の回動軸とにそれぞれステッピングモータのロータを直結して直接、撮像ユニット22をモータ駆動してもよく、ステッピングモータの駆動力を歯車とカムとからなる駆動力切換伝達部材を介して上記回転軸に伝達して間接的に撮像ユニット22をモータ駆動してもよい。
【0075】
図18は、デジタルカメラ1の回路構成を示すブロック図である。
同図において、上述した部材と同一の部材には同一の番号を付している。ユニット本体23内の撮像部239は上述した撮像素子と信号処理回路とを備えた撮像部に相当するものである。また、ズーム駆動部237は撮影レンズ231内の焦点距離調節用のレンズ231aの駆動を制御するもので、上述のズームモータ232、ネジ部材233及びナット部材234からなる駆動機構に相当するものである。ズーム駆動部237は制御部213からの制御信号に基づいてズームモータ232を駆動することによりレンズ231aの位置を制御する。
【0076】
レンズ位置検出部238は焦点距離調節用のレンズ231aの位置を検出するもので、上述のエンコーダ235とこのエンコーダ235から出力されるコード符号を位置情報にデコードするデコーダとを有している。レンズ位置検出部238から出力される位置情報は制御部213に入力される。
【0077】
ユニット駆動部201は撮像ユニット22の回動動作を制御するもので、上述の駆動部材26とこの駆動部材26の駆動回路とを有している。ユニット駆動部201は制御部213からの制御信号に基づいて駆動部材26を駆動することにより撮像ユニット22の位置を制御する。
【0078】
ユニット位置検出部202は撮像ユニット22の回動位置を検出するもので、上述の位置検出部材27,28と位置検出回路とを有している。ユニット位置検出部202から出力される撮像ユニット22の回動方向及び回動量の情報は制御部213に入力される。
【0079】
FL制御部203はフラッシュ4の発光を制御するものである。FL制御部203は発光エネルギー蓄積回路及び発光タイミング制御回路を有し、制御部213からの制御信号に基づきフラッシュ4の発光を制御する。撮影が所定の低輝度撮影となるときは、制御部213から発光指令信号が出力され、FL制御部203は撮影時にフラッシュ4を自動発光させる。
【0080】
電源部204は電源電池及びDC/DCコンバータを含み、各種の電気回路に必要な電源を生成して供給するものである。電源部204も制御部213からの制御信号に基づいて電源供給を制御する。
【0081】
スイッチ群205はズーム操作ボタン6,7、レリーズボタン8及び光軸変更レバー9の操作を検出し、その検出信号を制御部213に入力するものである。
【0082】
スイッチ群205にはスイッチS1,S2,SZI,SZO,SU,SD,SR,SLが含まれている。各スイッチS1〜SLの内容は、以下のようになっている。
S1;レリースボタン8の半押状態を検出するスイッチである。
S2;レリースボタン8の全押状態を検出するスイッチである。
SZI;ズーム操作ボタン6の押込状態を検出するズームインスイッチである。
SZO;ズーム操作ボタン7の押込状態を検出するズームアウトスイッチである。
SU;光軸変更レバー9の上方向の傾動状態を検出するスイッチである。
SD;光軸変更レバー9の下方向の傾動状態を検出するスイッチである。
SR;光軸変更レバー9の右方向の傾動状態を検出するスイッチである。
SL;光軸変更レバー9の左方向の傾動状態を検出するスイッチである。
【0083】
A/D変換部206は撮像部239から出力される画像信号(アナログ信号)を、例えば8ビット構成のデジタル信号(以下、この画像信号を画像データという。)に変換するものである。
【0084】
タイミングジェネレータ207は撮像部239の撮像動作及びその撮像画像を構成する画素データの撮像部239及びA/D変換部206での時系列処理を行うためのタイミングパルスを生成するものである。タイミングジェネレータ207は基準クロックを有し、この基準クロックを分周して所定の周波数のタイミングパルスを生成し、それぞれ撮像部239及びA/D変換部206に入力する。また、CCDの積分動作の開始/終了のタイミング信号を生成し、撮像部239に入力する。タイミングジェネレータ207は制御部213からの制御信号に基づいてタイミング信号を生成し、そのタイミング信号を撮像部239及びA/D変換部206に入力する。
【0085】
信号処理部208は黒レベル補正回路、ホワイトバランス回路及びγ補正回路等の信号処理回路を有し、A/D変換部206から出力される画像データの黒レベルの補正、ホワイトバランス調整及び階調補正等の所定の信号処理を行うものである。
【0086】
RAM(Random Access Memory)209は信号処理部208から出力される画像データを一時的に記憶するものである。RAM209は撮像画像5枚分の記憶容量を有している。このようにRAM209に複数枚の撮像画像の記憶を可能にしているのは、上述した高精細撮影モードにおける部分画像の撮影を可能にするためである。そして、RAM209の記憶容量に余裕があるので、通常撮影モードにおいてはオートブラケット撮影を行うようにしている。
【0087】
記録/読出処理部211はRAM209に記憶された画像データのフラッシュメモリ212への記録、及びLCD表示部3に再生するためフラッシュメモリ212に記録された撮像画像の読出処理を行うものである。記録/読出処理部211は制御部213からの制御信号に基づいて画像の記録もしくは読出を行う。
【0088】
伸長/圧縮処理部210はRAM209に記憶された画像データをフラッシュメモリ212に記録する際の当該画像データの圧縮及びフラッシュメモリ212から読み出された画像データ(圧縮データ)の伸長を行うものである。伸長/圧縮処理部210は制御部213からの制御信号に基づき、例えばJPEG(Joint Photographic Coding Experts Group)方式により画像データの圧縮/伸長を行う。なお、圧縮方法はJPEG方式に限定されるものではなく、例えばMPEG(Moving Picture Coding Experts Group)方式などの他の圧縮方式を採用することができる。
【0089】
フラッシュメモリ212は不揮発性の書き換え可能な外部記憶媒体である。外部記憶媒体としてMD、PCカード、ハードディスクカード等の他の種類の記憶媒体を用いてもよい。フラッシュメモリ212はカメラ本体2に着脱可能になされている。
【0090】
なお、以下の説明では画像データのRAM209への一時記憶とフラッシュメモリ212への記憶とを区別するため、前者を「記憶」と呼び、後者を「記録」と呼ぶことにする。
【0091】
制御部213はデジタルカメラ1の撮影動作を集中制御するものである。制御部213はマイクロコンピュータからなり、上述したカメラ本体2及びLCD表示部3内の各部材の駆動を有機的に制御して撮影動作を制御する。また、制御部213は焦点調節機能(AF機能)及び露出制御機能(AE機能)を有し、RAM209に記憶された画像データを用いて合焦位置を検出するとともに、被写体輝度を検出し、この被写体輝度からシャッタスピードに相当するCCDの露光時間を設定する。
【0092】
制御部213は、撮影待機状態においては、所定の周期で撮像部239を駆動してライブビュー画像(ビデオ画像)をRAM209に取り込み、その取込画像を順次、LCD表示部3に出力してLCDパネル12に表示させる。すなわち、LCDパネル12にビューファインダ表示を行う。また、レリーズボタン8(又は18)により撮影が指示されると、焦点調節及びCCDの露光時間の設定をした後、この露光時間で被写体を撮影し、その撮影画像をフラッシュメモリ212に記録する。
【0093】
LCD表示部3における表示制御部301はLCDパネル12への画像表示を制御するものである。表示制御部301はLCDパネル12の画素数に対応した表示用の画像メモリを有し、制御部213から表示制御部301には再生用の画像データに間引き処理を施して画像データが転送される。表示制御部301は画像データを画像メモリに書き込むことにより再生画像のLCDパネル12への表示を行う。また、表示制御部301は画像メモリに書き込まれた画像データをビデオ信号に変換するD/A変換回路を有し、このD/A変換回路で生成されたビデオ信号はVIDEO信号端子に出力される。従って、このVIDEO端子を介してCRT等の表示装置を接続することによりLCDパネル12に表示される画像と同一の画像を当該表示装置に再生表示させることができる。
【0094】
スイッチ群302は記録/再生モードスイッチ13、撮影モードスイッチ14、ブラケット撮影確認ボタン15、ズーム操作ボタン16,17、レリーズボタン18及び光軸変更ボタン19a〜19d、消去ボタン20及びメインスイッチ21の操作を検出し、その検出信号をケーブル11を介して制御部213に入力するものである。
【0095】
スイッチ群302にはスイッチSM,S1,S2,SZI,SZO,SU,SD,SR,SL,SCHG,SDEL,SR/P,SMODが含まれている。各スイッチSM〜SMODの内容は、以下のようになっている。
SM;メインスイッチ21の押込操作を検出するスイッチである。
S1;レリースボタン18の半押状態を検出するスイッチである。
S2;レリースボタン18の全押状態を検出するスイッチである。
SZI;ズーム操作ボタン16の押込状態を検出するズームインスイッチである。
SZO;ズーム操作ボタン17の押込状態を検出するズームアウトスイッチである。
SU;光軸変更ボタン19aの上方向の傾動状態を検出するスイッチである。
SD;光軸変更ボタン19bの下方向の傾動状態を検出するスイッチである。
SR;光軸変更ボタン19cの右方向の傾動状態を検出するスイッチである。
SL;光軸変更ボタン19dの左方向の傾動状態を検出するスイッチである。
【0096】
SCHG;ブラケット撮影確認ボタン15の押込操作を検出するスイッチである。
SDEL;消去ボタン20の押込操作を検出するスイッチである。
SR/P;記録/再生モードスイッチ13の設定状態を検出するスイッチである。
SMOD;撮影モードスイッチ14の設定状態を検出するスイッチである。
【0097】
上記のように、本実施の形態ではカメラ本体2とLCD表示部3をケーブル11で電気的に接続し、カメラ本体2からLCD表示部3には電源と間引き処理した画像データを送信し、LCD表示部3からカメラ本体2にはスイッチの検出信号を送信するようにしているので、例えば撮像部とカメラ本体とをケーブルで接続する構成に比べてケーブルを伝送する信号の取り扱いが容易になるとともに、データ量が少なくなり、この分ケーブル11や信号を送受するための回路構成を簡単にすることができる。
【0098】
なお、記録/再生処理部211及びフラッシュメモリ212をLCD表示部3内に配置するようにしてもよい。この場合もカメラ本体2からLCD表示部3に送信される画像データは伸長/圧縮処理部210で圧縮されているので、データ量が少なく、ケーブル11や信号送受用の回路構成の簡素化が可能になる。また、本実施の形態ではカメラ本体2とLCD表示部3とをケーブルで接続しているが、赤外光や電波を用いてワイヤレス化するようにしてもよい。
【0099】
次に、デジタルカメラ1の撮影動作について、フローチャートを用いて具体的に説明する。
【0100】
図19,図20は、撮影動作のメインフローを示すフローチャートである。電源電池がカメラ本体2に装着されると、メインフローが実行される。
【0101】
まず、メインスイッチ21のオン/オフ状態が判別され(#2)、メインスイッチ21がオフになっていると(#2でNO)、図21に示すサブルーチン「SM OFF」の処理が実行され、撮像ユニット22が開口部5を遮蔽する所定の基準位置Rに設定される。
【0102】
「SM OFF」のサブルーチンに移行すると、撮像ユニット22が水平面内で正面方向に対して右方向に、位置検出部材28により基準位置Rが検出されるまで回動され(#40,#42のループ)、右方向の回動基準位置Rに到達すると、続いて、垂直面内で下方向に、位置検出部材27により基準位置Rが検出されるまで回動され(#44,#46のループ)、下方向の回動基準位置Rに到達すると(すなわち、撮像ユニット22の光軸方向が右下方向の所定方向に向く位置に到達すると)、撮像ユニット22の駆動が停止され、メインスイッチSMがオンになるまでその状態が保持される(#48のループ)。この状態は電源電池がカメラ本体2に装着され、メインスイッチ21がオフにされている状態(すなわち、デジタルカメラ1が放置もしくはケースに収納されている状態)である。上述のように、デジタルカメラ1がケースに収納され、撮影許可状態にない場合は、撮像ユニット22をカメラ本体2の開口部5を遮蔽する位置に設定しているので、CCDの遮光や撮影レンズ231の保護が好適に行われる。
【0103】
図19に戻り、メインスイッチ21がオンになっていると(#2でYES)、更に記録/再生モードスイッチ13の設定状態が判別され(#6)、再生モードになっていると(#6でNO)、図35,図36に示すサブルーチン「再生モード」の処理が実行され、記録画像のLCD表示部3への再生処理が行われる。なお、再生モードの処理については後述する。
【0104】
一方、記録モードになっていると(#6でYES)、図22に示すサブルーチン「撮像ユニットセット」の処理が実行され、撮像ユニット22が中心位置(すなわち、撮影レンズ231が開口部5から露出し、その光軸方向が正面方向となる位置)に設定される。この処理は、メインスイッチ21が投入されると、撮像ユニット22の光軸方向を正面方向にセットすることにより撮像ユニット22の駆動を容易かつ高精度で制御できるようにするとともに、撮影者が撮像ユニット22の調整を行うことなく直ちに通常の撮影動作ができるようにするものである。
【0105】
「撮像ユニットセット」のサブルーチンに移行すると、撮像ユニット22が水平面内で正面方向に対して右方向に、位置検出部材28により基準位置Rが検出されるまで回動され(#50,#52のループ)、右方向の回動基準位置Rに到達すると、続いて、垂直面内で下方向に、位置検出部材27により基準位置Rが検出されるまで回動される(#54,#56のループ)。この処理は、回動制御のために撮像ユニット22を上下左右方向の回動基準位置R(本実施の形態では右下隅の方向の所定位置)に設定する処理である。
【0106】
続いて、撮像ユニット22が下方向の回動基準位置Rに到達すると、撮像ユニット22は、更に水平面内で左方向に所定量だけ回動して水平面内の中心位置に設定され後(#58,#60のループ)、垂直面内で上方向に所定量だけ回動して垂直面内の中心位置に設定され(#62,#64のループ)、メインルーチンにリターンする。本実施の形態では、回動基準位置Rは中心位置から下方向に40°、右方向に40°回動した位置であるから、上記ステップ#58〜#64では撮像ユニット22は水平面内で左方向に40°回動された後、上方向に40°回動されて中心位置に設定される。
【0107】
図19に戻り、撮像ユニット22のセット処理が終了すると、各種スイッチS1,SZI,SZO,SU,SD,SR,SL,SMOD,SP/R,SMの変化の有無が判別される(#10〜#30)。
【0108】
いずれのスイッチも変化がなければ(#10〜#24でNO,#28,#30でYES)、表示タイマによる表示時間の計時が終了している否かが判別される(#32)。この表示タイマの計時は、後述する「S1 ON」の処理で撮影動作が行われたとき、その撮影画像をLCD表示部3に所定の時間だけ表示させる際の当該所定時間を計時するものである。なお、表示タイマは制御部213に内蔵されている。
【0109】
表示時間の計時が終了していると(#32でYES)、LCD表示部3への撮影画像の表示が停止され(#34)、各種スイッチS1〜SMの変化の有無の判別処理(以下、SW判別処理という。)を行うべくステップ#10に戻る。一方、表示時間の計時が終了していなければ(#32でNO)、フラグFIABの内容が判別され(#36)、フラグFIABが「0」にリセットされていれば(#36でNO)、SW判別処理を行うべくステップ#10に戻り、フラグFIABが「1」にセットされていれば(#36でYES)、更にスイッチSCHGがオンになっているか否かが判別される(#38)。ブラケット撮影確認ボタン15が操作されてスイッチSCHGがオンになっていなければ(#38でNO)、SW判別処理を行うべくステップ#10に戻り、スイッチSCHGがオンになっていれば(#38でYES)、図32に示すサブルーチン「画像選択」の処理に移行する。
【0110】
なお、フラグFIABはオートブラケット撮影における記録画像の変更、追加が可能であるか否かを判別するためのフラグで、「1」にセットされていると、ブラケット撮影確認ボタン15の操作に応じて記録画像の変更、追加が可能となり、「0」にリセットされていると、その記録画像の変更、追加は不可となる。従って、ステップ#38のスイッチSCHGの判断はブラケット撮影確認ボタン15の操作の有無の判断であり、サブルーチン「画像選択」の処理は記録画像の変更又は追加の対象となる画像を選択する処理である。「画像選択」の処理については後述する。
【0111】
SW判別処理において、記録/再生モードスイッチ13の設定状態が再生モードに切り換えられ(#28でNO)、もしくはメインスイッチSMがオフにされると(ステップ#30でNO)、ステップ#2に戻る。
【0112】
また、SW判別処理において、ズーム操作ボタン6,7(又は16,17)が操作されてスイッチSZI又はスイッチSZOがオンになると(#12又は#14でYES)、図23に示すサブルーチン「ズーム」の処理が実行され、撮影レンズ231のズーミング処理が行われる。
【0113】
「ズーム」のサブルーチンに移行すると、ズームインスイッチSZI又はズームアウトスイッチSZOのオン状態が継続しているが否かが判別される(#70,#86)。ズームインスイッチSZIがオン状態になっていれば(#70でYES)、更に撮影モードスイッチ14により高精細撮影モードが設定されているか否かが判別される(#72)。
【0114】
通常撮影モードが設定されていれば(#72でNO)、撮影レンズ231の焦点距離調節用のレンズ231aがテレ側の終端位置にあるか否かが判別され(#74)、焦点距離調節用のレンズ231aがテレ側の終端位置になければ(#74でNO)、焦点距離調節用のレンズ231aがテレ側に駆動され(#76,#70〜#76のループ)、焦点距離調節用のレンズ231aがテレ側の終端位置に設定された時点でレンズ231aの駆動が停止される(#74でYES,#78)。すなわち、通常撮影モードではズーム操作ボタン6(又は16)が押し続けられると、撮影レンズ231の焦点距離調節用のレンズ231aをテレ側に移動してズームインの動作が行われる。そして、焦点距離調節用のレンズ231aがテレ側の終端位置に到達してもなおズーム操作ボタン6(又は16)が押し続けられていると、レンズ231aは当該終端位置で停止され、撮影レンズ231はテレ端(本実施の形態ではf=15mm)に固定される。
【0115】
一方、高精細撮影モードが設定されていれば(#72でYES)、撮影レンズ231の焦点距離fが8mmになっているか否かが判別され(#80)、撮影レンズ231の焦点距離fが8mmよりも小さければ(#80でNO)、撮影レンズ231の焦点距離調節用のレンズ231aがテレ側に駆動され(#82,#70,#72,#80,#82のループ)、撮影レンズ231の焦点距離fが8mmに到達した時点でレンズ231aの駆動が停止される(#80でYES、#84)。すなわち、高精細撮影モードでは撮影レンズ231の焦点距離fは8mm以下に制御される。
【0116】
高精細撮影モードでのズームイン操作を撮影レンズ231の焦点距離fが8mm以下となるように制限しているのは、本実施の形態では下記表1に示すように被写体Qの部分画像GA〜GD(図5参照)を撮影するときの焦点距離f2を被写体Qの全体画像Gを撮影する焦点距離f1の1.8〜1.9倍としているので、最大焦点距離f=15mmの略1/2に制限することにより最初に撮影される被写体Qの全体画像Gの撮影制御を容易かつ確実にするためである。
【0117】
【表1】
【0118】
なお、表1は全体画像を撮影するときの代表的な4個の焦点距離f1及びそのときの水平及び垂直の各方向の画角θh1,θv1と各焦点距離f1に対する部分画像を撮影するときの焦点距離f2及びそのときの水平及び垂直方向の画角θh2,θv2、部分画像を撮影するときの光軸Lの方向の正面方向からの変位量Δθh,Δθv及び焦点距離比K(=f2/f1)を示したものである。なお、8mm以下の代表値以外の任意の焦点距離f1についても同様に算出、設定することができる。
【0119】
本実施の形態では図5に示すように、被写体全体を4分割しているので、各部分画像GA〜GDの撮像時の焦点距離f2は全体画像Gの撮像時の焦点距離f1の略2倍となるが、境界部分で画像を重複させて貼合わ合成をし易くすることや撮影時のカメラブレにより貼合合成位置の画像の欠如を防止することを考慮して焦点距離比K(=f2/f1)は2倍よりも小さくしている。
【0120】
同表において、水平画角θhi,垂直画角θvi(i=1,2)はそれぞれ図24(a),(b)に示す角度である。本実施の形態では、撮像素子として4.8mm×3.6mmのCCD239aを用いているので、水平画角θhi,垂直画角θviはそれぞれθhi=2・tan~1(2.4/fi)、θvi=2・tan~1(1.8/fi)で算出される。また、光軸変位量Δθh,Δθvは、図25に示すように、それぞれCCD239aを傾けた場合の水平方向の傾斜角と垂直方向の傾斜角である。
【0121】
図23に戻り、ズームアウトスイッチSZOがオン状態になっていれば(#70でNO,#86でYES)、撮影レンズ231の焦点距離調節用のレンズ231aがワイド側の終端位置にあるか否かが判別され(#88)、焦点距離調節用のレンズ231aがワイド側の終端位置になければ(#88でNO)、焦点距離調節用のレンズ231aがワイド側に駆動され(#90,#86〜#90のループ)、焦点距離調節用のレンズ231aがワイド側の終端位置に設定された時点でレンズ231aの駆動が停止される(#88でYES,#92)。
【0122】
すなわち、ズーム操作ボタン7(又は17)が押し続けられると、撮影レンズ231の焦点距離調節用のレンズ231aをワイド側に移動してズームアウトの動作が行われる。そして、焦点距離調節用のレンズ231aがワイド側の終端位置に到達してもなおズーム操作ボタン7(又は17)が押し続けられていると、レンズ231aは当該終端位置で停止され、撮影レンズ231はワイド端(本実施の形態ではf=5mm)に固定される。なお、ズームアウト操作では撮影レンズ231の焦点距離fが8mmを超えることはないので、高精細撮影モードにおけるズームイン操作の場合のような制限は設けられていない。
【0123】
図19に戻り、SW判別処理において、光軸変更レバー9もしくは光軸変更ボタン19a〜19dが操作されてスイッチSU〜SLのいずれかがオンになると(#16〜#22のいずれかがYES)、図26,図27に示すサブルーチン「撮像ユニット駆動」の処理が実行され、撮像ユニット22の光軸方向の変更処理が行われる。
【0124】
「撮像ユニット駆動」のサブルーチンに移行すると、光軸変更レバー9(もしくは光軸変更ボタン19a)の操作によりスイッチSUがオン状態になっているか否かが判別される(#100)。
【0125】
スイッチSUがオン状態になっていれば(#100でYES)、更に撮影モードスイッチ14により高精細撮影モードが設定されているか否かが判別される(#102)。高精細撮影モードが設定されていれば(#102でYES)、撮像ユニット22が中心位置から上方向に10°未満の角度Δθvで変位した位置にあるか否かが判別され(#104)、角度ΔθvがΔθv<10°であれば(#104でYES)、撮像ユニット22が垂直面内で上方向に駆動され(#108、#100〜#104,#108のループ)、撮像ユニット22が中心位置から上方向に10°変位した位置に達すると(#104でNO)、撮像ユニット22の駆動が停止される(#110)。すなわち、高精細撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19a)の操作に応じて撮像ユニット22が中心位置から10°の範囲内で上方向に駆動される。
【0126】
一方、通常撮影モードが設定されていれば(#102でNO)、撮像ユニット22が中心位置から上方向に20°未満の角度Δθvで変位した位置にあるか否かが判別され(#106)、角度ΔθvがΔθv<20°であれば(#106でYES)、撮像ユニット22が垂直面内で上方向に駆動され(#108、#100,#102,#106,#108のループ)、撮像ユニット22が中心位置から上方向に20°変位した位置に達すると(#106でNO)、撮像ユニット22の駆動が停止される(#110)。すなわち、通常撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19a)の操作に応じて撮像ユニット22が中心位置から20°の範囲内で上方向に駆動される。
【0127】
また、スイッチSUがオフ状態であるか、オン状態からオフ状態になると(#100でNO)、撮像ユニット22の回動動作は停止される(#112)。
【0128】
続いて、光軸変更レバー9(もしくは光軸変更ボタン19b)の操作によりスイッチSDがオン状態になっているか否かが判別され(#114)、スイッチSUの場合と同様の撮像ユニット22の回動動作の制御が行われる(#114〜#126)。すなわち、高精細撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19b)の操作に応じて撮像ユニット22が中心位置から10°の範囲内で下方向に駆動され(#114,#116,#118,#122,#124)、通常撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19b)の操作に応じて撮像ユニット22が中心位置から20°の範囲内で下方向に駆動される(#114,#116,#120,#122,#124)。そして、スイッチSDがオフ状態であるか、オン状態からオフ状態になると(#114でNO)、撮像ユニット22の回動動作は停止される(#126)。
【0129】
なお、高精細撮影モードにおける撮像ユニット22の上下方向の駆動範囲をΔθv<10°に制限しているのは、表1に示したように、f1=8mmにおける部分画像撮影時の撮像ユニット22の光軸Lの変位量|Δθv|が10°を超えることがないからである。また、通常撮影モードにおける撮像ユニット22の上下方向の駆動範囲をΔθv<20°に制限しているのは、変位量|Δθv|を20°以上にすると、撮像ユニット22の撮影レンズ231がカメラ本体2の開口部5に露出しなくなり、撮影できなくなるからである。従って、両撮影モードにおいて、実質的に撮影に必要でない範囲については撮像ユニット22の垂直面内の回動を制限して無意味な操作をさせないようにしている。
【0130】
続いて、光軸変更レバー9(もしくは光軸変更ボタン19c)の操作によりスイッチSLがオン状態になっているか否かが判別される(#128)。スイッチSLがオン状態になっていれば(#128でYES)、更に撮影モードスイッチ14により高精細撮影モードが設定されているか否かが判別される(#130)。
【0131】
高精細撮影モードが設定されていれば(#130でYES)、撮像ユニット22が中心位置から左方向に7°未満の角度Δθhで変位した位置にあるか否かが判別され(#132)、角度ΔθhがΔθh<7°であれば(#132でYES)、撮像ユニット22が水平面内で左方向に駆動され(#136、#128〜#132,#136のループ)、撮像ユニット22が中心位置から左方向に7°変位した位置に達すると(#132でNO)、撮像ユニット22の駆動が停止される(#138)。すなわち、高精細撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19c)の操作に応じて撮像ユニット22が中心位置から7°の範囲内で左方向に駆動される。
【0132】
一方、通常撮影モードが設定されていれば(#130でNO)、撮像ユニット22が中心位置から左方向に20°未満の角度Δθhで変位した位置にあるか否かが判別され(#134)、角度ΔθhがΔθh<20°であれば(#134でYES)、撮像ユニット22が水平面内で左方向に駆動され(#136、#128,#130,#134,#136のループ)、撮像ユニット22が中心位置から左方向に20°変位した位置に達すると(#134でNO)、撮像ユニット22の駆動が停止される(#138)。すなわち、通常撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19c)の操作に応じて撮像ユニット22が中心位置から20°の範囲内で左方向に駆動される。
【0133】
また、スイッチSLがオフ状態であるか、オン状態からオフ状態になると(#128でNO)、撮像ユニット22の回動動作は停止される(#140)。
【0134】
続いて、光軸変更レバー9(もしくは光軸変更ボタン19d)の操作によりスイッチSRがオン状態になっているか否かが判別され(#142)、スイッチSLの場合と同様の撮像ユニット22の回動動作の制御が行われる(#142〜#154)。すなわち、高精細撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19d)の操作に応じて撮像ユニット22が中心位置から7°の範囲内で右方向に駆動され(#142〜#146,#150,#152)、通常撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19d)の操作に応じて撮像ユニット22が中心位置から20°の範囲内で右方向に駆動される(#142,#144,#148,#150,#152)。そして、スイッチSRがオフ状態であるか、オン状態からオフ状態になると(#142でNO)、撮像ユニット22の回動動作は停止される(#154)。
【0135】
なお、高精細撮影モードにおける撮像ユニット22の左右方向の駆動範囲をΔθv<7°に制限しているのは、表1に示したように、f1=8mmにおける部分画像撮影時の撮像ユニット22の光軸Lの変位量|Δθh|が7°を超えることがないからである。また、通常撮影モードにおける撮像ユニット22の左右方向の駆動範囲をΔθv<20°に制限しているのは、変位量Δθvを20°以上にすると、撮像ユニット22の撮影レンズ231がカメラ本体2の開口部5に露出しなくなり、撮影できなくなるからである。従って、両撮影モードにおいて、水平面内においても実質的に撮影に必要でない範囲については撮像ユニット22の回動を制限して無意味な操作をさせないようにしている。
【0136】
図19に戻り、SW判別処理において、レリーズボタン8(又は18)が半押しされ、スイッチS1がオンになっていると(#10でYES)、図28,図29に示すサブルーチン「S1 ON」の処理が実行され、撮影処理が行われる。
【0137】
「S1 ON」のサブルーチンに移行すると、まず、フラグFIABが「0」にリセットされる(#160)。続いて、撮像部239による撮像動作が行われ(#162)、撮像部239から出力される画像信号はA/D変換部206で画像データに変換された後、信号処理部208で所定の信号処理が行われてRAM209に一時、記憶される(#164)。RAM209に一時記憶された画像データは直ちに読み出され、間引き処理が行われてケーブル11を介してLCD表示部3の表示制御部301に転送され、LCDパネル12に表示される(#166)。すなわち、LCD表示部3にライブビュー表示が行われる。
【0138】
続いて、RAM209に一時記憶された画像データを用いて露出調整が行われる(#168)。本実施の形態に係るデジタルカメラ1は絞り固定(例えばAv=4.0〔Ev〕)で、CCD239aの露光時間(電荷蓄積時間)SSを制御することにより露出制御が行われるようになっている。そして、この露光時間SSはRAM209に一時記憶された画像データを用いて被写体輝度Bv(例えばGの色成分の画素データの平均レベル値)を算出し、この被写体輝度Bvに基づいて設定されるようになっている。すなわち、ライブビュー表示においては、予め設定された所定の周期(例えば1/30秒)で画像が撮像されるので、撮像画像毎に被写体輝度Bvを算出するとともに、被写体輝度Bvが適正範囲であるか否かを判別し、適正範囲を超えて明かるければ、現在の露光時間SSを1段階短くし、適正範囲を超えて暗ければ、現在の露光時間SSを1段階長くして次の撮像動作を行ことにより被写体輝度Bvが適正範囲となる露光時間SSが設定される。
【0139】
表2は露光時間SSを制御するためのテーブルである。表2において、網掛けの露光時間SS(11ms)はカメラ起動時に設定される初期設定値である。また、露光時間SSの最小値は0.25ms、最大値は32msである。
【0140】
【表2】
【0141】
また、表3は被写体輝度Bvに基づく露光時間SSの調整方法の一例を示すものである。
【0142】
表3において、被写体輝度Bvの値は8ビットデータで表したものである。輝度レベルを「高」、「中」、「低」の3つのレベル範囲に分け、Gの色成分の画素データの平均値が「中」のレベル範囲(85〜169)にあるときは適正範囲として露光時間SSは変更せず、「低」のレベル範囲(0〜84)にあるときは露光アンダーとして露光時間SSを1段階長くし、「高」のレベル範囲(170〜255)にあるときは露光オーバーとして露光時間SSを1段階短くするようにしている。なお、露光時間SSが32msで被写体輝度Bvが「低」のレベルのとき(Bv≦84のとき)は、フラッシュが自動発光される。
【0143】
【表3】
【0144】
従って、スイッチS1がオンになると、露光時間SSが初期値(11ms)に設定されて最初の撮像が行われ、この撮像画像により算出された被写体輝度値Bvに基づいて露光時間SSの調整が行われる。すなわち、170≦Bv≦255であれば、露光時間SSが8.0〔ms〕に変更され、0≦Bv≦84であれば、露光時間SSが16.0〔ms〕に変更され、85≦Bv≦169であれば、露光時間SSは変更されない。
【0145】
続いて、スイッチS2がオンになったか否かが判別され(#170)、スイッチS2がオフ状態であれば(#170でNO)、スイッチS1のオン状態が継続されている限り(#172でYES)、ステップ#162に戻り、撮像、表示及び露出調整の各動作が繰り返される(#162〜#172のループ)。そして、この間にスイッチS2がオンになることなくスイッチS1がオフになると(#172でNO)、LCD表示部3でのライブビュー表示が停止され(#174)、メインフローのSW判別処理にリターンする。
【0146】
一方、ライブビュー表示において、レリーズボタン8(又は18)が全押しされてスイッチS2がオンになると(#170でYES)、ステップ#176に移行し、撮像及び撮像画像のフラッシュメモリ212への記録が行われる。
【0147】
すなわち、直前に調整された露光時間SSで撮像部239により撮像動作が行われ(#176)、撮像部239から出力される画像信号はA/D変換部206で画像データに変換された後、信号処理部208で所定の信号処理が行われてRAM209に一時、記憶される(#178)。なお、RAM209は、上述のように5枚分の記憶容量を有しているので、画像データは1枚目の画像記憶エリアに記憶される。
【0148】
RAM209に一時記憶された画像データは直ちに読み出され、間引き処理が行われてケーブル11を介してLCD表示部3の表示制御部301に転送され、LCDパネル12に表示される(#180)。すなわち、撮影者が撮像画像をモニタすることができるようにLCD表示部3に撮像画像が表示される。
【0149】
続いて、撮影モードの設定状態が判別され(#182)、高精細撮影モードが設定されていると(#182でYES)、ステップ#184〜#216,#232で高精細撮影処理が行われ、通常撮影モードが設定されていると(#182でNO)、ステップ#218〜#232で通常撮影処理が行われる。
【0150】
高精細撮影処理に移行すると、撮影レンズ231が所定の焦点距離比K(=f2/f1)でズームインされ(#184、表1参照)、図5において、左上(部分画像GA)、右上(部分画像GB)、右下(部分画像GD)及び左下(部分画像GC)の順で撮影動作が4回繰り返される(#186〜#210)。
【0151】
すなわち、各部分画像GA〜GDに対する撮像ユニット22の駆動方向及び駆動量が決定され(#186)、まず、撮像ユニット22が部分画像GAの撮像方向(図5のaの方向)に駆動される(#188)。そして、撮像部239により部分画像GAの撮像が行われ(#190)、この撮像画像はA/D変換部206で画像データに変換され、信号処理部208で所定の信号処理が行われた後、RAM209の2枚目の画像記憶エリアに一時、記憶される(#192)。
【0152】
続いて、撮像ユニット22が部分画像GBの撮像方向(図5のbの方向)に駆動され(#194)、撮像部239により当該部分画像GBの撮像が行われ、この撮像画像が所定の信号処理の後、RAM209の3枚目の画像記憶エリアに一時、記憶される(#196,#198)。以下、同様に撮像ユニット22が部分画像GD,GCの撮像方向(図5のd,cの方向)に順次、駆動され(#200,#206)、それぞれ撮像部239により当該部分画像GD,GCの撮像が行われ(#202,#208)、その撮像画像が所定の信号処理の後、RAM209の4枚目と5枚目の画像記憶エリアにそれぞれ一時、記憶される(#204,#210)。
【0153】
そして、全ての部分画像GA〜GDの撮像が終了すると、撮像ユニット22は中心位置に戻され(#212)、RAM209に一時、記憶された5枚の画像データ(最初に撮影された被写体全体の画像Gと4枚の部分画像GA〜GDの画像データ)は伸長/圧縮処理部210で所定の圧縮処理が行われた後、記録/読出処理部211を介してフラッシュメモリ212に記録される。このとき、全体画像G及び部分画像GA〜GDはそれぞれ独立の画像ファイルが作成されてフラッシュメモリ212に記録される(#214)。また、撮影レンズ231の焦点距離が元の焦点距離に(すなわち、部分画像撮影用の焦点距離f2から全体画像撮影用の焦点距離f1に)ズームアウトされる(#216)。なお、撮影画像の画像データの記録の際には当該撮影画像に関する非画像データ(例えば撮影モードに関する情報や撮影日等の情報)も併せて記録される。
【0154】
図30は、上述の高精細撮影モードでの撮影処理(ステップ#160〜#170,#176〜#216の処理)を模式的に示した図である。
【0155】
同図において、全体画像G内のA,B,C,Dはそれぞれ部分画像GA〜GDに含まれる画像である。また、表示画像はLCD表示部3に表示される画像を示し、記憶画像はRAM209に一時記憶される画像を示している。
【0156】
同図に示すように、スイッチS1がオン状態では被写体像全体が撮像され、その撮像画像がLCD表示部3に表示される。そして、レリーズが指示されると、被写体の全体画像Gが取り込まれ、この全体画像GはRAM209に記憶されるとともに、LCD表示部3にモニタ表示される。続いて、部分画像GA〜GDがGA,GB,GD,GCの順に取り込まれ、各部分画像GA〜GDはそれぞれRAM209に記憶される。一方、LCD表示部3には全体画像Gのモニタ表示が継続され、部分画像GA〜GDのモニタ表示は行われない。このように部分画像GA〜GDのモニタ表示を行わないようにしているのは、高精細撮影モードでは撮影者は被写体全体を撮影し、その撮影画像(被写体の全体画像)のモニタを希望しているのが通常だからである。
【0157】
図31は、フラッシュメモリ212に記録される全体画像G及び部分画像GA〜GDの画像ファイルの構成を示す図である。
【0158】
各画像ファイルはヘッダ部AR1と画像記録部AR2とからなり、ヘッダ部AR1には撮影モードに関する情報、撮影日、画像のタイトル、露光時間SS等の記録画像に付随する各種情報(非画像データ)が記録され、画像記録部AR2には撮像画像の画像データが記録される。
【0159】
そして、撮影モードに関する情報としては、下記表4に示すように撮影モード情報、画像の種類情報、画像の位置情報、コマ番号及び焦点距離の情報がビットデータで記録される。
【0160】
【表4】
【0161】
撮影モード情報は通常撮影モードと高精細撮影モードとを識別する情報である。撮影モード情報は1ビットデータで構成され、例えば「1」がセットされていれば、高精細撮影モードを示し、「0」がセットされていれば、通常撮影モードを示す。画像の種類情報は高精細撮影モードで撮影される5枚の画像の全体画像と部分画像とを識別する情報である。
【0162】
画像の種類情報も1ビットデータで構成され、例えば「1」がセットされていれば、全体画像を示し、「0」がセットされていれば、部分画像を示す。位置情報は、部分画像が全体画像のどの位置に対応するかを示す情報である。本実施の形態では全体を4つに分割しているので、位置情報は2ビットデータで構成され、全体画像に対する左上、右上、左下及び右下の各位置に対して、例えば「00」,「01」,「10」,「11」のビットデータが割り当てられている。なお、このビットデータの割当て方法は任意に行うことができる。
【0163】
コマ番号は部分画像が何番の全体画像に付随するかを識別する情報である。各撮影画像には4ビットデータからなるコマ番号が付与されるようになっており、表4では全体画像Gのコマ番号が「####」であるので、それに関連する部分画像GA〜GDに対するコマ番号も「####」となっている。焦点距離の情報は撮影時の撮影レンズ231の焦点距離を示すものである。高精細撮影モードでは、表1に示したように、全体画像は焦点距離f1で撮像され、部分画像は焦点距離f2(=K・f1)で撮像されるので、各画像ファイルには対応する焦点距離f1又は焦点距離f2が、例えば4ビットデータで記録される。
【0164】
上記のように、フラッシュメモリ212には撮影モードに関係なく全ての画像データは独立した画像ファイルで記録されるが、各画像ファイルにはヘッダ部AR1に撮影モードに関する情報を記録しているので、高精細撮影モードで撮影された部分画像Gi(i=A,B,C,D)であってもこれに関連する他の部分画像Gi及び全体画像Gとの関係が不明確になることはなく、例えばコンピュータシステムにより部分画像GA〜GDを合成して全体画像G′を作成する場合にも確実に画像を検索することができるようになっている。
【0165】
図29に戻り、撮影レンズ231の焦点距離のズームアウトが終了すると、LCD表示部3への撮像画像のモニタ表示の時間をカウントする表示タイマの計時が開始され(#232)、SW判別処理(図19参照)に戻る。
【0166】
一方、ステップ#182で通常撮影処理に移行すると、撮影動作が2回連続して行われ(#218,#222)、各撮像画像がA/D変換部206で画像データに変換され、信号処理部208で所定の信号処理が行われた後、RAM209の2枚目と3枚目の画像記憶エリアにそれぞれ一時、記憶される(#220,#224)。この連続撮影は上述したオートブラケット撮影である。
【0167】
続いて、撮像ユニット22が中心位置に戻され(#226)、RAM209に一時、記憶された3枚の画像データのうち、1枚目の画像記憶エリアに記憶された画像データが伸長/圧縮処理部210で所定の圧縮処理が行われた後、記録/読出処理部211を介してフラッシュメモリ212に独立の画像ファイルとして記録される(#228)。そして、フラグFIABが「1」にセットされ(#230)、表示タイマの計時が開始された後(#232)、SW判別処理(図19参照)に戻る。
【0168】
フラグFIABのセットは、上述したステップ#38で図32に示すサブルーチン「画像選択」に移行し、ブラケット撮影確認ボタン15の操作に基づくフラッシュメモリ212への記録画像の変更もしくは追加を可能にするものである。
【0169】
ここで、サブルーチン「画像選択」の処理について説明する。
「画像選択」のサブルーチンに移行すると、光軸変更レバー9(もしくは光軸変更ボタン19a〜19d)の操作によりスイッチSU,SD,SL,SRのいずれかがオンになったか否かが判別される(#240,#244,#248,#254)。いずれのスイッチもオンになっていなければ、ブラケット撮影確認ボタン15の操作によりスイッチSCHGがオンになっているか否かが判別され(#258)、スイッチSCHGがオンになっていなければ(#258でNO)、ステップ#240に戻り、スイッチSU,SD,SL,SRの変化判別が繰り返され、スイッチSCHGがオンになっていれば(#258でYES)、SW判別処理(図19参照)にリターンする。
【0170】
スイッチSU,SD,SL,SRの変化判別でスイッチSUがオンになっていれば(#240でYES)、LCD表示部3に表示されている画像が1つ前の撮像画像に変更され(#242)、スイッチSDがオンになっていれば(#244でYES)、LCD表示部3に表示されている画像が1つ後の撮像画像に変更される(#256)。
【0171】
また、スイッチSLがオンになっていれば(#248でYES)、フラッシュメモリ212に記録された1枚目の画像ファイルが消去され(#250)、その画像ファイルにLCDパネル12に表示されている撮影画像が記録される(#252)。更に、スイッチSRがオンになっていれば(#254)、フラッシュメモリ212に記録された1枚目の画像ファイルに追加してLCDパネル12に表示されている撮影画像が新たに記録される(#256)。
【0172】
図33は、上述の「画像選択」の処理を模式的に表した図である。
通常撮影モードでの撮影終了時は、図33に示すように、RAM209に記憶された最初の撮像画像(1枚目の画像)がLCDパネル12にモニタ表示されるとともに、フラッシュメモリ212に記録されている(#180,#228の処理参照)。この状態で光軸変更レバー9の下方操作(もしくは光軸変更ボタン19b)によりスイッチSDがオンになると、その度に白抜き矢印に示すように1枚目→2枚目→3枚目→1枚目の順(降順)にLCDパネル12に表示される画像が変更される。一方、光軸変更レバー9の上方操作(もしくは光軸変更ボタン19a)によりスイッチSUがオンになると、その度に黒塗り矢印に示すように1枚目→3枚目→2枚目→1枚目の順(昇順)にLCDパネル12に表示される画像が変更される。
【0173】
また、例えばLCDパネル12に2枚目の撮影画像を表示させた状態で光軸変更レバー9の左方操作(もしくは光軸変更ボタン19c)によりスイッチSLがオンになると、フラッシュメモリ212に記録された1枚目の撮影画像が消去され、それに換えて2枚目の撮影画像がフラッシュメモリ212に記録される。また、例えばLCDパネル12に3枚目の撮影画像を表示させた状態で光軸変更レバー9の右方操作(もしくは光軸変更ボタン19d)によりスイッチSRがオンになると、フラッシュメモリ212に記録された1枚目の撮影画像に加えて3枚目の撮影画像もフラッシュメモリ212に記録される。
【0174】
上記のように、通常撮影モードでは、撮影者のレリーズ動作が1回であっても撮影は3回連続的に行われ、それらの撮像画像がRAM209に一時記憶されるとともに、最初に撮影された画像がフラッシュメモリ212に記録される。そして、撮影者がブラケット撮影確認ボタン15を操作することなく次のレリーズ動作を行うと、再度、撮影が3回連続的に行われ、それらの撮影画像がRAM209に一時記憶されるとともに、最初に撮影された画像がフラッシュメモリ212に記録される。
【0175】
従って、撮影者はブラケット撮影確認ボタン15を操作することなくレリーズボタン8(又は18)を操作する限り、最初の撮影された画像がフラッシュメモリ212に記録されるので、オートブラケット撮影機能は実質的に潜在化し、通常の撮影動作(1回のレリーズ動作で1枚の撮影)と同様の処理が行われる。一方、撮影終了後に撮影者がブラケット撮影確認ボタン15を操作して画像変更可能な確認モードに入ると、オートブラケット撮影機能が顕在化し、撮影者の光軸変更レバー9(もしくは光軸変更ボタン19a〜19d)の操作に応じてフラッシュメモリ212の記録内容を変更又は追加することができるようになる。
【0176】
すなわち、撮影者は撮影終了直後にオートブラケット撮影機能の利用を選択することができるので、必要に応じて撮影結果の良否を判別し、その判別結果に応じてより良好な撮影画像に変更もしくは追加することができるので、撮影の失敗が少なく、操作性が向上する。
【0177】
なお、本実施の形態では、オートブラケット撮影において、単純に3回だけ連続撮影を行うようにしているが、各撮影で露光時間SSを微妙に変化させて連続撮影を行うようにしてもよい。また、各撮影で撮影レンズ231の焦点位置を微妙に変化させたり、焦点距離を僅かに変化させたり、撮像ユニット22の光軸方向を変化させて連続撮影を行うようにしてもよい。また、RAM209の容量が5枚まで記憶可能であるので、5回連続撮影を行い、これらの撮影画像から記録画像を選択できるようにしてもよい。
【0178】
図20に戻り、SW判別処理において、撮影モードスイッチ14が操作され、高精細撮影モードが設定されていると(#24でYES)、図34に示すサブルーチン「レンズチェック」の処理が実行され、撮像ユニット22の位置及び撮影レンズ231の焦点距離の調整処理が行われる(#26)。
【0179】
「レンズチェック」のサブルーチンに移行すると、撮影レンズ231の焦点距離fが8mmを超えているか否かが判別され(#260)、f>8mmであれば(#260でYES)、撮影レンズ231の焦点距離調整用の撮影レンズ231aがf=8mmとなる位置までワイド側に駆動される(#262,#264,#266)。
【0180】
f≦8mmであれば(#260でNO)、撮像ユニット22の位置が水平面内で中心位置を含む垂直面に対して±7°以上ずれているか否かが判別され(#268)、±7°以上の位置ずれがあれば(#268でYES)、撮像ユニット22を水平面内に駆動して中心位置を含む垂直面内に設定される(#270,#272,#274)。
【0181】
続いて、撮像ユニット22の位置が垂直面内で中心位置を含む水平面に対して±10°以上ずれているか否かが判別され(#276)、±10°以上の位置ずれがあれば(#276でYES)、撮像ユニット22を垂直面内に駆動して中心位置を含む水平面内に設定されて(#278,#280,#282)、メインフローにリターンする。
【0182】
このレンズチェックの処理は、高精細撮影モードでは撮像ユニット22を中心位置に設定し、表1に示したように撮影レンズ231の焦点距離fを8mm以下に設定して被写体の全体画像Gが撮像されるので、高精細撮影モードでの撮影が可能になるように撮像ユニット22の位置及び撮影レンズ231の焦点距離fを調整するものである。すなわち、撮影レンズ231の焦点距離fを最大値8mmに設定するとともに、撮像ユニット22の光軸方向がf=8mmにおける撮像ユニット22の光軸方向の変位量Δθh,Δθvの範囲内にないときは撮像ユニット22を中心位置(光軸方向が正面方向となる位置)に設定し、撮影者がマニュアルで焦点距離fを変更しなかった場合でも撮像ユニット22の位置及び撮影レンズ231の焦点距離fを自動的に所定の位置及び所定の焦点距離に設定して確実に高精細撮影が行えるようにするものである。
【0183】
次に、再生モードの処理について説明する。
ステップ#6で図35に示す「再生モード」のサブルーチンに移行すると、まず、フラッシュメモリ212に記録されたコマNo.1の撮影画像が記録/読出処理部211により読み出され、伸長/圧縮処理部210で伸長された後、ケーブル11を介してLCD表示部3内の表示制御部301に転送され、LCDパネル12に再生表示される(#290)。
【0184】
続いて、スイッチSM,SP/R,SU,SD,SR,SL,SCHG,SDELの変化の有無が順次、判別される(#292,#294,#296,#300,#304,#314,#322,#336)。
【0185】
いずれのスイッチも変化がなければ、ステップ#292に戻り、上記スイッチSM〜SDELの変化の有無の判別処理(以下、RSW判別処理という。)が行われる(#292,#294,#286,#300,#304,#314,#322,#336のループ)。
【0186】
RSW判別処理において、メインスイッチSMがオフにされ(#292でNO)、もしくは記録/再生モードスイッチ13の設定状態が記録モードに切り換えられると(#294でYES)、メインフローのステップ#2(図19参照)に戻る。
【0187】
再生モードが維持されている状態で、光軸変更レバー9(もしくは光軸変更ボタン19a)の操作によりスイッチSUがオンになると(#296でYES)、フラッシュメモリ212から次のコマNo.の撮影画像が記録/読出処理部211により読み出され、伸長/圧縮処理部210で伸長された後、ケーブル11を介してLCD表示部3内の表示制御部301に転送され、LCDパネル12に再生表示される(#298)。
【0188】
また、光軸変更レバー9(もしくは光軸変更ボタン19b)の操作によりスイッチSDがオンになると(#300でYES)、フラッシュメモリ212から前のコマNo.の撮影画像が記録/読出処理部211により読み出され、伸長/圧縮処理部210で伸長された後、ケーブル11を介してLCD表示部3内の表示制御部301に転送され、LCDパネル12に再生表示される(#302)。
【0189】
すなわち、図37に示すように、フラッシュメモリ212に記録された撮像画像がスイッチSUがオンになる毎に、コマ番号が増加する方向(昇順方向)に、また、スイッチSDがオンになる毎にコマ番号が減少する方向(降順方向)に、順次、LCDパネル12に再生される。この場合、高精細撮影モードで撮影されたNo.4,No5の画像は全体画像GのみがLCDパネル12に再生され、部分画像Gi(No.4-1〜4-4,No.5-1〜5-4)はLCDパネル12に再生されない。このように部分画像Giの再生を行わないようにしているのは、操作者は撮影画像(すなわち、高精細撮影モードでは被写体全体の画像)のモニタを要求していると考えられるので、合成を目的とする部分画像Giの再生はしないようにしている。また、LCDパネル12に再生される画像には縁取りW1,W2(No.1,No.4の二重枠参照)を行い、通常撮影モードで撮影された画像の縁取りW1の色と高精細撮影モードで撮影された全体画像の縁取りW2の色とを異ならせることで、操作者がいずれの撮影モードで撮影された画像であるかの識別できるようにしている。
【0190】
図35に戻り、光軸変更レバー9(もしくは光軸変更ボタン19d)の操作によりスイッチSRがオン状態になると(#304でYES)、LCDパネル12に再生表示されている画像の撮影モードに関する情報に基づき当該画像が高精細撮影モードで撮影された画像であるか否かが判別され(#306)、高精細撮影画像でなければ(#306でNO)、ステップ#314に移行し、高精細撮影画像であれば(#306でYES)、撮影モードに関する情報に基づき全体画像Gであるか否かが判別される(#308)。
【0191】
そして、再生画像が全体画像Gであれば(#308でYES)、フラッシュメモリ212から最初に撮影された部分画像GAが記録/読出処理部211により読み出され、伸長/圧縮処理部210で伸長された後、ケーブル11を介してLCD表示部3内の表示制御部301に転送され、LCDパネル12に再生表示される(#310)。また、再生画像が部分画像Gi(i=A,B,C,D)であれば(#308でNO)、フラッシュメモリ212から当該再生されている部分画像Giの次に撮影された部分画像Giが記録/読出処理部211により読み出され、伸長/圧縮処理部210で伸長された後、ケーブル11を介してLCD表示部3内の表示制御部301に転送され、LCDパネル12に再生表示される(#312)。
【0192】
すなわち、LCDパネル12に再生表示された画像が高精細撮影画像の場合は、スイッチSRがオンになる毎にGA(左上画像),GB(右上画像),GD(右下画像),GC(左下画像)の順に部分画像GiがサイクリックにLCDパネル12に再生表示される。例えば図37において、No.4の全体画像GがLCDパネル12に表示されている状態で、操作者により光軸変更レバー9の右側傾動(もしくは光軸変更ボタン19dの押圧)が行われると、その操作毎にNo.4-1→No.4-2→No.4-3→No.4-4→No.4-1の順に部分画像GiがサイクリックにLCDパネル12に再生される。
【0193】
なお、部分画像GiがLCDパネル12に表示される場合にも縁取りが行われ、この縁取りの色を通常撮影画像や高精細撮影画像の全体画像の再生時と異ならせて、操作者が部分画像Giの再生であることを識別できるようにしている。
【0194】
本実施の形態でLCDパネル12の表示画像に色違いの縁取りW1,W2を設けることで、再生画像の内容を識別できるようにしているが、例えばコマ番号や撮影モードの文字情報や絵記号等を表示させることで再生画像の内容の識別を可能にしてもよい。
【0195】
図36に戻り、光軸変更レバー9(もしくは光軸変更ボタン19c)の操作によりスイッチSLがオン状態になると(#314でYES)、LCDパネル12に再生表示されている画像の撮影モードに関する情報に基づき当該画像が高精細撮影画像であるか否かが判別され(#316)、高精細撮影画像でなければ(#316でNO)、ステップ#322に移行し、高精細撮影画像であれば(#316でYES)、撮影モードに関する情報に基づきLCDパネル12の再生画像が部分画像Giであるか否かが判別される(#318)。
【0196】
そして、再生画像が全体画像Gであれば(#318でNO)、ステップ#322に移行し、再生画像が部分画像Giであれば(#318でYES)、フラッシュメモリ212から当該部分画像GAに対応する全体画像Gが記録/読出処理部211により読み出され、伸長/圧縮処理部210で伸長された後、ケーブル11を介してLCD表示部3内の表示制御部301に転送され、LCDパネル12に再生表示される(#320)。
【0197】
すなわち、LCDパネル12に再生表示された画像が高精細撮影モードで撮影された部分画像Giのとき、スイッチSLがオンになると、LCDパネル12の再生画像が当該部分画像Giに対応する全体画像Gに切り換えられる。例えば図37において、No.4-1の部分画像GAがLCDパネル12に表示されている状態で、操作者により光軸変更レバー9の左側傾動(もしくは光軸変更ボタン19cの押圧)が行われると、No.4の全体画像GがLCDパネル12に再生される。なお、LCDパネル12にNo.4の全体画像Gが再生された状態で、再度、操作者により光軸変更レバー9の左側傾動(もしくは光軸変更ボタン19cの押圧)が行われてもLCDパネル12の表示は変更されず、No.4の全体画像Gの表示が保持される。
【0198】
再生モードが維持されている状態で、ブラケット撮影確認ボタン15の操作によりスイッチSCHGがオンになると(#322でYES)、LCDパネル12に再生表示されている画像の撮影モードに関する情報に基づき当該画像が高精細撮影画像であるか否かが判別され(#324)、高精細撮影画像でなければ(#324でNO)、ステップ#336に移行し、高精細撮影画像であれば(#324でYES)、撮影モードに関する情報に基づきLCDパネル12の再生画像が全体画像Gであるか否かが判別される(#326)。
【0199】
そして、再生画像が全体画像Gであれば(#326でYES)、フラッシュメモリ212の当該再生画像に対応する画像ファイルのヘッダ部に記録された撮影に関する情報の「撮影モード情報」の内容が「高精細撮影モード」から「通常撮影モード」に変更される(#328)。すなわち、撮影モード情報を示すビットデータが「1」から「0」に変更される(表4参照)。
【0200】
また、フラッシュメモリ212内の当該全体画像Gに関連する4枚の部分画像Giの画像ファィルが全て消去される(#330)。また、再生画像が部分画像Giであれば(#326でNO)、フラッシュメモリ212に当該部分画像Giの画像ファイルが複製され(#332)、この複製された画像ファイルのヘッダ部に記録された撮影に関する情報の「撮影モード情報」の内容が「高精細撮影モード」から「通常撮影モード」に変更される(#334)。
【0201】
すなわち、LCDパネル12に再生表示された画像が高精細撮影モードで撮影された全体画像Gのとき、スイッチSCHGがオンになると、フラッシュメモリ212に記録された当該全体画像Gとこの全体画像Gに関連する部分画像Giとからなる一組の高精細撮影モードの画像ファイルは、全体画像Gの画像ファイルを通常撮影モードの画像ファイルに変更し、部分画像Giの画像ファイルを抹消することによって通常撮影モードの画像ファイルに変更される。
【0202】
再生モードが維持されている状態で、消去ボタン20の操作によりスイッチSDELがオンになると(#336でYES)、LCDパネル12に再生表示されている画像の撮影モードに関する情報に基づき当該画像が高精細撮影画像であるか否かが判別され(#338)、高精細撮影画像でなければ(#338でNO)、フラッシュメモリ212の当該再生されている画像に対応する画像ファイルが消去される(#340)。
【0203】
高精細撮影画像であれば(#338でYES)、撮影モードに関する情報に基づき再生画像が全体画像Gであるか否かが判別され(#342)、全体画像Gであれば(#342でYES)、フラッシュメモリ212の当該全体画像Gの画像ファイルとこの全体画像Gに関連する4枚の部分画像Giの画像ファイルとが全て消去される(#344,#346)。LCDパネル12の再生画像が部分画像Giであれば(#342でNO)、フラッシュメモリ212の当該部分画像Giの画像ファイルが消去され(#348)、フラッシュメモリ212の当該部分画像Giに関連する他の部分画像Gi及び全体画像Gの画像ファイルのヘッダ部に記録された撮影に関する情報の「撮影モード情報」の内容が「高精細撮影モード」から「通常撮影モード」に変更される(#350,#352)。
【0204】
例えば図37において、LCDパネル12の再生画像がコマ番号No.4-1の部分画像GAである場合、フラッシュメモリ212の当該部分画像GAの画像ファイルが消去され、コマ番号No.4-2,4-3,4−4の他の部分画像GB,GD,GC及びコマ番号No.4の全体画像Gの画像ファイルのヘッダ部に記録された「撮影モード情報」の内容が「通常撮影モード」に変更される。
【0205】
次に、高精細撮影モードで撮影された全体画像G及び部分画像GA〜GDを用いて画像を貼合合成することにより全体画像Gよりも精細度の高い全体画像を作成する方法について説明する。
【0206】
本実施の形態では撮影時の画像合成処理の処理負担を軽減するため、当該画像合成処理は撮影後に専用の画像処理装置もしくはコンピュータシステムにより構成された画像処理装置で行うようにしている。従って、上述のデジタルカメラ1と画像処理装置とを組み合わせて高精細画像作成システムが構成される。なお、デジタルカメラ1内に以下に説明する画像合成処理機能を設け、デジタルカメラ1のみで高精細画像作成システムを構成するようにしてもよい。このデジタルカメラ1では、撮影後にRAM209に記憶された全体画像G及び部分画像GA〜GDを貼合合成することにより全体画像Gよりも精細度の高い全体画像が作成され、この高精細撮影画像がフラッシュメモリ212に記録される。
【0207】
図38は、画像処理装置の一実施の形態のブロック構成図である。
同図に示す画像処理装置は、制御部31、ROM(Read Only Memory)32、RAM(Random Access Memory)33、画像メモリ34、GUI(Graphical User Interface)35、I/F36、入力装置37、表示装置38及び外部記憶装置39から構成されている。制御部31、ROM32、RAM33及び画像メモリ34、GUI35、I/F36は、装置本体30内に内蔵され、入力装置37及び表示装置38は、GUI35を介して制御部31に接続され、外部記憶装置39は、I/F36を介して制御部31に接続されている。
【0208】
制御部31は、全体画像G及び部分画像GA〜GDを用いて画像の貼合合成処理を実行するものである。制御部31は、画像の合成処理を行うための画像ファイル入出力処理部311及び画像合成部312を備えている。
【0209】
画像ファイル入出力処理部311は、入力装置37から入力された画像ファイルのカラー画像(電気画像)を当該画像ファイルが記憶された記録媒体(例えば外部記録装置39、あるいは具備している場合は内部記憶装置等)から読み出す処理及び画像合成後の画像データを入力装置37から入力された所定の出力先(記録媒体、プリンタその他の周辺機器等)に出力する処理を行うものである。
【0210】
画像合成部312は、外部記憶装置39を介してフラッシュメモリ212から読み出された全体画像G及び部分画像GA〜GDを用いて貼合合成処理を行い、精細度の高い被写体全体の撮影画像を作成するものである。画像合成部312は、後述するように全体画像Gを拡大して合成後の画像のサイズ(すなわち、合成画像の枠)を決定する一方、各部分画像GA〜GDから合成すべき所定の領域の一部画像を抽出し、その枠内で各部分画像GA〜GDの抽出画像を拡大した全体画像G′に貼り付けるように合成して高精細の全体画像G″を作成する。
【0211】
ROM32は、後述する画像合成処理の処理プログラムが記憶されたメモリである。RAM33は、画像合成処理によって算出された種々のデータを一時的に記憶するものである。また、画像メモリ34は、画像合成処理を行うため、フラッシュメモリ212から読み出された画像データを記憶するものである。画像メモリ34は、少なくとも15枚分の画像データの記憶容量を有し、全体画像G及び部分画像GA〜GDを構成する画像データがR,G,Bの各色成分に分離されて記憶される。
【0212】
表示装置38は、作業メニュー、処理状態、処理結果等の種々の表示(画像合成後の高精細画像のモニタ表示を含む)を行うもので、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)等の電子表示ディスプレレイからなるものである。表示装置38には、作業メニューに画像補正項目がアイコンで表示され、作業者は、そのアイコンを選択することにより後述の画像合成処理を行わせることができるようになっている。
【0213】
外部記憶装置39は、フラッシュメモリ212が装着脱可能になされ、当該フラッシュメモリ212に記録された画像ファイルの読出し及び新規作成された画像ファイルの当該フラッシュメモリ212への書込みを行うものである。
【0214】
図39は、画像合成部312における画像合成処理を示すフローチャートである。また、図40は、画像合成の処理手順を示す図である。図40において、部分画像GA〜GDはそれぞれ全体画像Gに対して点線部分a,b,c,dを拡大して撮影したもので、各画像の斜線部分は全体画像Gの枠から食み出した部分を示している。
【0215】
画像合成処理ではフラッシュメモリ212に記録された高精細撮影画像の画像ファイル(全体画像G及び部分画像GA〜GDの5個の画像ファイル)が画像合成装置内の画像メモリ34に読み出され、図39に示す処理手順に従って高精細の合成画像が作成される。
【0216】
まず、全体画像Gの画像ファイルから画像データが読み出され、拡大処理が行われる(#360,図40の(a)参照)。この拡大処理は全体画像Gのサイズを部分画像Giのサイズに合わせるものであり、合成後の画像の枠を決定するものである。すなわち、予め合成画像のサイズを決定するものである。
【0217】
部分画像Giは、表4に示したように全体画像Gに対して焦点距離比Kの倍率で拡大されて撮影されているので、この拡大処理では全体画像Gが焦点距離比Kで拡大される。
【0218】
なお、焦点距離比Kは部分画像Giの画像ファイルに記録された撮影モードに関する情報を読み出すことにより得ることができる。部分画像Giの画像ファイルに記録された焦点距離比Kを利用しない場合や部分画像Giの画像ファイルに焦点距離比Kが記録されていない場合は、部分画像Gi又は全体画像Gの大きさを変更しながら相関演算を行うことにより全体画像の拡大倍率を設定することができる。この方法では部分画像Giを取り込むとき、何らかの原因でデジタルカメラ1の移動により被写体までの距離が変化して各部分画像Giの大きさが互いに僅かにずれた場合でも適切にマッチング位置の算出と画像合成とを行うことができる利点がある。
【0219】
続いて、部分画像GAの画像ファイルから画像データが読み出され、この部分画像GAと拡大された全体画像G′(以下、拡大全体画像G′という。)との相関演算が行われ、その演算結果に基づいて拡大全体画像G′における当該拡大全体画像G′と部分画像GAとが一致する位置(以下、この位置をマッチング位置という。)が算出される(#362)。そして、算出された拡大全体画像G′のマッチング位置に部分画像GAの対応する部分の画像を貼り付けるように画像合成が行われる(#364,図40の(b)参照)。すなわち、拡大全体画像G′のマッチング位置の画像データが部分画像GAの対応する位置の画像データに置き換えられる。
【0220】
上記相関演算は、例えば拡大全体画像G′内に含まれる複数の特徴点を抽出し、図41に示すように部分画像GAを平行移動、回転移動、拡大/縮小等の幾何学的な変換を行いつつ拡大全体画像G′と比較して特徴点の重なり度が最も大きくなる幾何学的変換量を算出するものである。上記のように拡大全体画像G′のマッチング位置における画像データを各部分画像GA〜GDの画像データで置換することにより合成画像が作成されることから、相関演算で算出される幾何学的変換量は各部分画像GA〜GDの合成処理における合成位置(すなわち、マッチング位置)を与える情報となっている。
【0221】
なお、図41において、g1,g2,g3,g4はそれぞれ左上、右上,右下及び左下の部分画像G1,G2,G3,G4の拡大全体画像G0における最も重なり度が高い位置(すなわち、マッチング位置)を示している。左上の部分画像G1は、「ABC」の文字列C1又は長方形C2を特徴点として平行移動法によりマッチング位置g1が算出される場合を示し、右上の部分画像G2は、矩形C3を特徴点として拡大/縮小法によりマッチング位置g2が算出される場合を示している。また、右下の部分画像G3は、太線C4又は太線C4のエッジ部分を特徴点として回転移動法によりマッチング位置g3が算出される場合を示し、左下の部分画像G4は、長方形C2又は太線C4を特徴点として輝度変換法によりマッチング位置g4が算出される場合を示している。
【0222】
また、特徴点は特定の文字や文字列、特定の線、特定の幾何学的形状(例えば三角形、円、楕円等)、特定のエッジ部分等の特徴的な画像情報を有する領域の画像データである。特徴点としての文字や文字列は公知の文字認識方法により抽出され、特徴点としての幾何学的図形は公知のテクスチュア解析により抽出され、特徴点としてのエッジ部分は公知のエッジ検出手法により抽出される。
【0223】
特徴点の重なり度は拡大全体画像G0の特徴点を構成する画像データとその特徴点に対応する幾何学変換された部分画像G1〜G4の画素位置の画像データとの相関値や両画像データの差の絶対値和もしくは両画像データの差の2乗和を用いて判別される。
【0224】
図39に戻り、続いて、部分画像GBの画像ファイルから画像データが読み出され、この部分画像GBと拡大全体画像G′との相関演算が行われ、その演算結果に基づいて部分画像GBに対する拡大全体画像G′のマッチング位置が算出される(#366)。そして、算出された拡大全体画像G′のマッチング位置に部分画像GBの対応する部分の画像を貼り付けるように画像合成が行われる(#368,図40の(c)参照)。すなわち、拡大全体画像G′のマッチング位置の画像データが部分画像GBの対応する位置の画像データに置き換えられる。
【0225】
以下、同様の方法で部分画像GC,GDに対する拡大全体画像G′のマッチング位置がそれぞれ算出され(#370,#374)、その拡大全体画像G′のマッチング位置の画像データがそれぞれ部分画像GC,GDの対応する位置の画像データに置き換えられて(#372,#376,図40の(d)(e)参照)、精細度の高い合成画像(被写体全体の撮像画像)G″が作成される。
【0226】
なお、上記実施の形態では、全体画像Gを拡大して合成画像G″の大きさ(すなわち、合成画像G″の枠)を決定した後、その枠内で部分画像Giを貼り付けるように画像合成しているが、部分画像Giだけで貼合合成した後、拡大全体画像G′を用いて合成画像G″の周辺の不要部分(図40の部分画像GA〜GDの斜線部分)を除去して合成画像G″の大きさを決定するようにしてもよい。
【0227】
しかし、前者の方法では、拡大全体画像G′の画像データを部分画像GA〜GDの画像データに置換することにより高精細の全体画像G″が作成されるので、画像データの置換時に合成画像G″の枠外にある不要な画像データ(図40の部分画像GA〜GDの斜線部分)が除去され、後者の方法に比べて合成処理が容易となる。
【0228】
また、図42に示すように、例えば部分画像GCと部分画像GDとの貼り合わせ部分に画像が重複しない部分Pがある場合、後者の方法では合成画像G″の部分画像GCと部分画像GDとの貼り合わせ部分Pに画像データの欠落が生じ、実質的に合成画像G″を作成することはできなくなるが、本実施の形態に係る方法では、拡大全体画像G′のマッチング位置の画像データが部分画像GA〜GDの対応する位置の画像データに置換され、図43に示すように、合成画像G″の部分画像GCと部分画像GDとの貼り合わせ部分Pには拡大全体画像G′の画像データ(同図の斜線で示す部分)が残るので、この部分Pの精細度は周辺の精細度よりも若干低下するものの画像データが欠落して合成画像G″が作成できないという不都合はなくなる。
【0229】
ところで、撮影レンズによってはレンズの周辺部の光量が中央部の光量に対して減少する特性を有するものがある。このような特性を有する撮影レンズを用いて被写体が撮影されると、撮影画像は、図44に示すように画面周辺部が画面中央部より暗い輝度偏差の大きい画像となる。
【0230】
高精細撮影モードで撮影すると、部分画像Giの各々が図44に示すような輝度分布を有するので、これらを合成した高精細の全体画像G″は、図45に示すように画面内で明部と暗部とが交互に表れる輝度分布となり、精細度は向上するものの輝度分布は不自然となり、全体としては画質が著しく低下することになる。また、各部分画像Giの間でホワイトバランスに差が生じた場合には貼り合わせの境界部分に色ずれが生じることがあり、この色ずれによっても画質が低下する。
【0231】
このように高精細撮影モードでは撮影レンズの光量透過特性に基づく撮影画像の画質劣化が画像合成により更に増長されるので、少なくとも全体画像Gの輝度分布程度になるように合成画像G″の輝度分布を補正して画質劣化を抑制することが望ましい。この画像補正処理は、図38の仮想線で示すように、制御部31内に画像補正部313を設けることにより必要に応じて当該画像補正部313で画像合成部312で合成された画像G″の輝度分布の補正を行うことができる。
【0232】
図46は、上述の画質劣化を抑制するための画像補正方法を示す概念図である。
【0233】
画像補正は、まず、拡大全体画像G′と合成画像G″とを、例えば(8×8)画素の小ブロックBLKに分割し(図46の(a)参照)、各ブロックBLK毎にR,G,Bの各色成分について画素データgR,gG,gBの平均値R1AV,G1AV,B1AV,R2AV,G2AV,B2AVを算出する(図46の(b)参照)。次に拡大全体画像G′及び合成画像G″の対応するブロックBLK間で平均値が等しくなるように、合成画像G″の画素データgR,gG,gBのシフト量を算出する(図46の(c)参照)。このシフト量は、例えば拡大全体画像G′及び合成画像G″の対応するブロックBLK間の平均値の差ΔRAV,ΔGAV,ΔBAVを用いることができる。
【0234】
そして、合成画像G″の各画素データgR,gG,gBにシフト量ΔRAV,ΔGAV,ΔBAVを加算して合成画像G″の補正を行う(図46の(d)参照)。この補正により合成画像G″の小ブロックの画素データの平均値は拡大全体画像G′の小ブロックの画素データの平均値と略一致するようになるので、図46の(e)に示すように、補正後の合成画像G″の輝度分布は拡大全体画像G′の輝度分布に近似したものとなる。
【0235】
なお、本実施の形態では小ブロックBLKのサイズとして(8×8)画素を例示しているが、小ブロックBLKのサイズ及び形状は任意に設定することができる。小ブロックBLKのサイズを大きくし過ぎると、同一ブロックBLK内では画素間での画素データの大小関係は補正されないので、ブロックBLKの境界部分で輝度変化の不連続が顕著になるという不具合が生じる一方、逆に小ブロックBLKのサイズを小さくし過ぎると、拡大全体画像G′と合成画像G″との間に位置ずれが生じた場合、画像補正により画素データが大幅に変化してしまい、合成画像G″の画質が劣化するという不具合が生じる。従って、小ブロックBLKのサイズ及び形状はこれらの不具合と撮影レンズの光量透過特性とを考慮して適宜のものを採用するとよい。
【0236】
次に、図47の示すフローチャートに従って画像補正部313で行われる上述の画像補正の処理手順を説明する。
【0237】
まず、拡大全体画像G′が(x×y)個の小ブロックBLKに分割される(#380)。続いて、合成画像G″が(x×y)個の小ブロックBLKに分割される(#382)。続いて、小ブロックBLKの行数xと列数yとをそれぞれカウントするカウント値a,bがそれぞれ「1」にセットされる(#384)。
【0238】
続いて、拡大全体画像G′の1行1列の小ブロックBLK(1,1)について、R,G,Bの各色成分毎に当該小ブロックBLK(1,1)に含まれる画素データgi(i=R,G,B)の平均値R1AV(1,1),G1AV(1,1),B1AV(1,1)が算出され(#386)、同様に合成画像G″の1行1列の小ブロックBLK(1,1)について、R,G,Bの各色成分毎に当該小ブロックBLK(1,1)に含まれる画素データgi(i=R,G,B)の平均値R2AV(1,1),G2AV(1,1),B2AV(1,1)が算出される(#388)。なお、(1,1)は1行1列の小ブロックBLKのものであることを示している。以下、a行b列の小ブロックBLKのものには(a,b)を付することとする。
【0239】
続いて、平均値R1AV(1,1),G1AV(1,1),B1AV(1,1)及び平均値R2AV(1,1),G2AV(1,1),B2AV(1,1)を用いてシフト量ΔRAV(1,1),ΔGAV(1,1),ΔBAV(1,1)が算出される(#390)。なお、シフト量ΔRAV(a,b),ΔGAV(a,b),ΔBAV(a,b)は、例えばΔRAV(a,b)=R2AV(a,b)−R1AV(a,b)、ΔGAV(a,b)=G2AV(a,b)−G1AV(a,b)、ΔBAV(a,b)=B2AV(a,b)−B1AV(a,b)により算出される。
【0240】
続いて、合成画像G″の1行1列の小ブロックBLK(1,1)の各色成分の画素データgi(1,1)がシフト量ΔRAV(1,1),ΔGAV(1,1),ΔBAV(1,1)を用いて補正される(#392)。なお、補正データgR′(a,b),gG′(a,b),gB′(a,b)は、それぞれgR′(a,b)=gR(a,b)+ΔRAV(a,b)、gG′(a,b)=gG(a,b)+ΔGAV(a,b)、gB′(a,b)=gB(a,b)+ΔBAV(a,b)で算出される。
【0241】
続いて、カウント値aが行数xになっているか否かが判別され(#394)、a<xであれば(#394でNO)、カウント値aが1だけインクリメントされてステップ#386に戻り、(a+1)行b列の小ブロックBLK(a+1,b)について上述の補正処理が行われる。いま、a+1=2であるから、ステップ#386に戻り、2行1列の小ブロックBLK(2,1)について上述の補正処理が行われ、以下、同様に(3,1)、(4,1)、…(x,1)の1列目の各小ブロックBLK(a,1)(a=3,4,…x)について順次、上述の補正処理が行われる。
【0242】
1列目の小ブロックBLK(a,1)について画像補正が終了すると、ステップ#394でa=xとなり、ステップ#398に移行してカウント値bが列数yになっているか否かが判別され、b<yであれば(#398でNO)、カウント値aが「1」に設定されるとともに、カウント値bが「1」だけインクリメントされてステップ#386に戻り、1行(b+1)列の小ブロックBLK(1,b+1)について上述の補正処理が行われる。いま、b+1=2であるから、ステップ#366に戻り、2列目の小ブロックBLK(a,2)(a=1,2,…x)について順次、上述の補正処理が行われる(#386〜396のループ)。
【0243】
そして、以下、同様の方法で各列の小ブロックBLK(a,b)について順次、上述の画像補正が行われ(#386〜#402のループ)、全ての小ブロックBLK(a,b)(a=1,2,…x,b=1,2,…y)について画像補正が終了すると(#398でYES)、処理を終了する。
【0244】
なお、上記実施の形態では、画像合成プログラムが搭載された専用の画像処理装置について説明したが、図48に示すように、画像合成プログラム及び画像補正プログラムを、フロッピーディスク、磁気テープ等の磁気記録媒体やCDーROM、光ディスクカード、光磁気ディスク等の光記録媒体等の外部記録媒体43に記憶しておき、外部記憶装置42を介してコンピュータ本体41に読み込むことにより、あるいはインターネット等のネットワークを介してコンピュータ本体41に読み込むことにより、コンピュータシステムによる画像処理装置40を構築するようにしてもよい。
【0245】
【発明の効果】
以上説明したように、本発明によれば、被写体全体の画像と被写体の各部分の画像とを順次、撮像し、これらの撮像画像を画像記録手段に記録するデジタルカメラにおいて、各撮像画像に対して独立の画像ファイルを作成し、互いに関連画像であることを示す情報と共に各撮像画像を画像記録手段に記録するようにしたので、各画像ファイルの画像データに付随する情報を変更するだけで簡単に独立の画像ファイルに変更することができ、画像ファイルの管理が容易となる。
【0246】
また、画像記録手段の記録画像を表示手段に再生する際、互いに関連する撮像画像の再生が指示されたとき、被写体全体の撮像画像のみを再生するようにしたので、被写体の部分の撮像画像を合成した高精細の被写体全体の画像を再生させるよりも迅速に合成後の被写体全体の画像のモニタが可能になる。
【0247】
また、表示手段に互いに関連する撮像画像のうちの被写体全体の撮像画像を再生した状態で記録消去が指示されると、互いに関連する被写体全体の撮像画像及び被写体の部分の撮像画像の画像ファイルを全て消去するようにしたので、画像ファイルの整理を簡単に行うことができる。
【0248】
また、表示手段に互いに関連する撮像画像のうちの被写体全体の撮像画像を再生した状態で関連性の解消する指示があると、当該被写体全体の撮像画像の画像ファイルに記録された関連画像であることを示す情報を消去するようにしたので、簡単に被写体全体の撮像画像を独立した撮像画像に変更することができる。
【0249】
更に表示手段に互いに関連する撮像画像のうちの被写体全体の撮像画像を再生した状態で関連性を解消する指示があると、当該被写体全体の撮像画像と関連した被写体の部分の撮像画像の画像ファィルを消去するようにしたので、画像記録手段における互いに関連する撮像画像の画像ファイルの整理も容易に行うことができる。
【図面の簡単な説明】
【図1】本発明に係るデジタルカメラの一実施の形態の外観を示す前側から見た斜視図である。
【図2】本発明に係るデジタルカメラの一実施の形態の外観を示す後側から見た斜視図である。
【図3】表示部をカメラ本体から取り外した状態を示す斜視図である。
【図4】カメラ本体における撮像ユニットの配置位置を示す要部斜視図である。
【図5】高精細撮影モードでの撮影における被写体と撮影範囲との関係を示す図である。
【図6】撮像ユニットの正面図である。
【図7】撮像ユニットの平面図である。
【図8】撮像ユニットの右側面図である。
【図9】撮影レンズの焦点距離を検出する機構を示す図である。
【図10】撮像ユニットを駆動する駆動部材の構造を示す斜視図である。
【図11】駆動部材の圧電素子に印加される駆動電圧の波形を示す図である。
【図12】位置検出部材の構造を示す図である。
【図13】位置検出回路の一実施の形態を示すブロック図である。
【図14】位置検出回路の出力信号の波形を示す図である。
【図15】メインスイッチをオン/オフさせたときの撮像ユニットの設定位置を示す図である。
【図16】撮像ユニットが中心位置に設定された状態を示す要部斜視図である。
【図17】撮像ユニットが正面方向に対して右下方向の開口部を遮蔽する位置に設定された状態を示す要部斜視図である。
【図18】本発明に係るデジタルカメラの回路構成を示すブロック図である。
【図19】本発明に係るデジタルカメラの撮影動作のメインフローを示すフローチャートである。
【図20】本発明に係るデジタルカメラの撮影動作のメインフローを示すフローチャートである。
【図21】サブルーチン「SM OFF」のフローチャートである。
【図22】サブルーチン「撮像ユニットセット」のフローチャートである。
【図23】サブルーチン「ズーム」のフローチャートである。
【図24】水平方向の画角θh及び垂直方向の画角θvを示す図である。
【図25】水平方向の変位量Δθh及び垂直方向の変位量Δθvを示す図である。
【図26】サブルーチン「撮像ユニット駆動」のフローチャートである。
【図27】サブルーチン「撮像ユニット駆動」のフローチャートである。
【図28】サブルーチン「S1 ON」のフローチャートである。
【図29】サブルーチン「S1 ON」のフローチャートである。
【図30】高精細撮影モードにおける撮影処理を模式的に示す図である。
【図31】画像ファイルの構成を示す図である。
【図32】サブルーチン「画像選択」のフローチャートである。
【図33】通常撮影モードにおける記録画像の選択処理を模式的に示す図である。
【図34】サブルーチン「レンズチェック」のフローチャートである。
【図35】サブルーチン「再生モード」のフローチャートである。
【図36】サブルーチン「再生モード」のフローチャートである。
【図37】記録画像の再生処理におけるLCD表示部への表示画像を説明するための図である。
【図38】高精細画像を作成する画像処理装置の一実施の形態のブロック構成図である。
【図39】画像合成処理を示すフローチャートである。
【図40】画像合成の処理手順を示す図である。
【図41】相関演算処理を説明するための図である。
【図42】貼合部分に画像の重複部分を有しない部分画像があるとき、部分画像だけを単純に張り合わせた場合の合成画像を示す図である。
【図43】貼合部分に画像の重複部分を有しない部分画像があるとき、全体画像の対応部分を部分画像で置換するように合成した場合の合成画像を示す図である。
【図44】レンズ周辺部の光量がレンズ中央部の光量より小さくなる特性を有する撮影レンズで撮影された画像の輝度分布を示す図である。
【図45】レンズ周辺部の光量がレンズ中央部の光量より小さくなる特性を有する撮影レンズで撮影された画像を合成して高精細画像を作成した場合の輝度分布を示す図である。
【図46】画像補正方法の概念を示す図である。
【図47】画像補正の処理手順を示すフローチャートである。
【図48】コンピュータシステムにより構築された画像処理装置を示す図である。
【符号の説明】
1 デジタルカメラ
2 カメラ本体
201 ユニット駆動部
202 ユニット位置検出部
203 FL制御部
204 電源部
205 スイッチ群
206 A/D変換部
207 タイミングジェネレータ
208 信号処理部
209 RAM
210 伸長/圧縮処理部
211 記録/読出処理部
212 フラッシュメモリ(画像記録手段)
213 制御部(撮像制御手段,情報生成手段,記録制御手段,表示制御手段,記録消去手段,情報消去手段、画像消去手段)
3 LCD表示部
4 フラッシュ
5 開口部
6,7,16,17 ズーム操作ボタン
8,18 レリーズボタン(撮影指示手段)
9 光軸変更レバー(指示手段)
10 取付板
11 ケーブル
12 LCDパネル(表示手段)
13 記録/再生モードスイッチ(再生指示手段)
14 撮影モードスイッチ
15 ブラケット撮影確認ボタン(指示手段)
19a〜19d 光軸変更ボタン
20 消去ボタン(消去指示手段)
21 メインスイッチ
22 撮像ユニット
23 ユニット本体
231 撮影レンズ
232 ズームモータ
239 撮像部(第1,第2の撮像手段)
24 第1支持枠
25 第2支持体
26 駆動部材
27,28 位置検出部材
30 画像処理装置本体
31 制御部
32 ROM
33 RAM
34 画像メモリ
35 GUI
36 I/F
37 入力装置
38 表示装置
39 外部記憶装置
40 コンピュータシステム
41 コンピュータ本体
42 外部記憶装置
43 外部記録媒体
M 磁石[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a digital camera that photoelectrically converts a subject image into an image signal by an image sensor and captures the entire subject in a plurality of parts, and combines the captured images of the parts of each subject. The present invention relates to a digital camera that can obtain a captured image of the entire subject with high definition.
[0002]
[Prior art]
Conventionally, in a digital camera, in order to increase the effective resolution of an image sensor such as a CCD (Charge Coupled Device), the subject is divided into a plurality of parts, enlarged and imaged, and these partial images are combined. Thus, there has been proposed a digital camera that can obtain a captured image of the entire subject with high definition.
[0003]
A digital camera that captures only a portion of a subject and records the recorded image on a recording medium such as a memory card without synthesizing the captured image, thereby reducing the burden of synthesizing the partial image on the camera side. It has been commercialized.
[0004]
[Problems to be solved by the invention]
By the way, since the conventional digital camera does not synthesize the entire subject image on the camera side, for example, an image processing device configured by a computer system reads out captured images of a plurality of subject portions from a memory card, and these partial images. It is necessary to create an image of the entire subject by compositing them together, but since the image of the entire subject is not recorded on the memory card, the pasting position of the image of each subject portion is accurately determined There is a problem that image quality deterioration is likely to occur due to the pasting process of the image of each subject portion.
[0005]
In addition, even if the camera body is equipped with a display unit such as an LCD (Liquid Crystal Display) and the captured image can be monitored, the entire subject is not photographed in high-definition photography, and the photographed portion of the subject is synthesized. Since an image of the entire subject is not created, there is also a disadvantage that the photographing result cannot be monitored on the LCD display unit.
[0006]
Furthermore, the captured images recorded on the memory card are played back and displayed on the LCD display section, and the contents of the recording are organized (the images of the pair of subjects for erasing unnecessary images and compositing are changed to independent captured images, respectively. Even in the case where it is possible to organize), since only the captured image of the subject portion is reproduced and displayed on the LCD display section for the high-definition image, there is a disadvantage that it is not possible to easily determine whether or not to erase.
[0007]
The present invention has been made in view of the above problems, and provides a digital camera capable of imaging and recording processing so that captured images of a plurality of subject portions can be easily and accurately combined in high-definition shooting. To do.
[0008]
[Means for Solving the Problems]
The present invention includes a first imaging unit that images the entire subject, a second imaging unit that divides the entire subject into a plurality of parts and images each part of the subject, a shooting instruction unit that instructs shooting, When shooting is instructed by the shooting instruction unit, the first and second imaging units are operated to sequentially capture the entire subject and the subject portion, and the first and second imaging units. In the digital camera comprising the image recording means for recording the image picked up by the image pickup means, information indicating that each of the images picked up by the first and second image pickup means is a related image is generated. Each of the images captured by the information generating means and the first and second imaging means is combined with the information generated by the information generating means corresponding to these captured images, and each of the images is converted into an independent image file. Image recording means It is obtained and recording control means for recording (claim 1).
[0009]
According to the above configuration, an image of the entire subject is captured by the first imaging unit, and then the subject is divided into a plurality of parts by the second imaging unit, and images of each part of the subject are captured. Then, an independent file is created for the captured image of the entire subject and the captured image of each part of the subject and recorded in the image recording means. At this time, information indicating that each captured image is a related image is generated, and each captured image is recorded in the image recording unit together with the information.
[0010]
The contents of the image file of the captured image of the entire subject or the captured image of the portion of the subject are read from the image recording means, and even when these captured images are combined, the related captured image is reliably read from the content of the information accompanying the image data. It becomes possible.
[0011]
Further, the present invention provides a display unit for reproducing and displaying a captured image recorded in an image recording unit, a reproduction instruction unit for instructing reproduction display of the captured image on the display unit, and the reproduction instruction in the digital camera. And display control means for causing the display means to reproduce and display only the image of the entire subject imaged by the first imaging means when the means is instructed to reproduce and display the captured image. ).
[0012]
According to the above configuration, when the reproduction instruction unit instructs to reproduce a set of captured images that are related to each other, only the captured image of the entire subject of the instructed group is read from the image recording unit and displayed on the display unit. The image of the other subject is reproduced and is not reproduced on the display means.
[0013]
According to the present invention, in the digital camera, an erasure instruction means for instructing erasure of the recorded image in the image recording means reproduced and displayed on the display means, and an image reproduced and displayed on the display means by the erasure instruction means. When erasing an image is instructed, the image recording unit further includes a recorded erasing unit that erases the captured image recorded in the image recording unit and a captured image of a portion of a subject related to the captured image. 3).
[0014]
According to the above configuration, when the recording instruction is issued by the erasure instruction unit in a state where the captured image of the entire subject is displayed on the display unit, the recorded image is recorded on the recording unit. All of the captured image of the entire subject and the captured image of each part of the subject constituting the set of captured images are erased.
[0015]
Further, the present invention provides a digital camera that includes an instruction unit that instructs cancellation of the relevance between a captured image of the entire subject reproduced and displayed on the display unit and a captured image of a portion of the subject related thereto, and the instruction unit. An information erasing unit for erasing information indicating that the image is a related image recorded in an image file of the captured image of the entire subject of the image recording unit when an instruction to cancel a set of relationships is given; (Claim 4).
[0016]
According to the above configuration, when the instruction unit cancels the relevance in a state where the captured image of the entire subject of the pair of captured images associated with each other is displayed on the display unit, the recording unit records the relationship. Information indicating that the image is a related image in each image file of the entire captured image forming the set of captured images and the captured image of each part of the subject is deleted. Thereby, each image file of the captured image of the entire subject and the captured image of each part of the subject is treated as an image captured independently.
[0017]
According to the present invention, in the digital camera, when the instruction means cancels the relevance, the portion of the subject related to the captured image of the entire subject reproduced and displayed on the display means recorded in the image recording means And an image erasing means for erasing the image file of the captured image.
[0018]
According to the above configuration, when the instruction unit cancels the relevance in a state where the captured image of the entire subject of the pair of captured images that are related to each other is displayed on the display unit, the image is recorded in the image recording unit. All the image files of the captured image of each part of the subject constituting the set of captured images are deleted, and information indicating that the image is the related image in the image file of the captured image of the entire subject is deleted.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
A digital camera according to the present invention will be described with reference to the drawings.
1 to 3 are views showing the appearance of an embodiment of a digital camera according to the present invention. FIG. 1 is a perspective view seen from the front side, FIG. 2 is a perspective view seen from the rear side, and FIG. It is a perspective view which shows the state which removed the part from the camera main body. FIG. 4 is a perspective view of the main part showing the arrangement position of the
[0020]
In the
[0021]
In addition, as a shooting mode, a mode for performing a normal shooting operation (hereinafter referred to as a normal shooting mode) and a mode for obtaining a shot image with higher definition than a shot image in the normal shooting mode (hereinafter referred to as a high-definition shooting mode). And so on.)
[0022]
In the normal shooting mode, one shot image is recorded in a flash memory as a recording medium by one release operation. In the present embodiment, a predetermined time interval (in a single release operation, as will be described later). For example, exposure control is performed a predetermined number of times (for example, three times) at intervals of 0.1 seconds (that is, a plurality of images are continuously captured), and among these captured images, a preset captured image ( For example, the first captured image) is automatically recorded in the flash memory. Then, it is possible to record the captured image desired by the photographer (for example, the second captured image) in the flash memory in place of the automatically recorded captured image or in addition to the captured image in accordance with the photographer's instruction. It can be done.
[0023]
The above-described shooting control in the normal shooting mode is similar to the bracket shooting function in the silver halide camera. In a silver salt camera, bracket shooting is usually performed when the photographer sets the mode, but the present embodiment is different in that bracket shooting is always performed in the normal shooting mode. Therefore, in the following description, bracket shooting in the normal shooting mode is referred to as “auto bracket shooting” and is distinguished from bracket shooting in a silver halide camera.
[0024]
In the high-definition shooting mode, as shown in FIG. 5, the entire image G of the subject Q and the partial image G obtained by dividing the subject Q into four parts. A , G B , G C , G D And the four partial images G based on the entire image G of the subject Q A ~ G D Is used to create an overall image of a subject with higher definition than the overall image G of the subject Q. In this high-definition shooting mode, the entire image G of the subject Q is captured with the optical axis direction of the
[0025]
Although the subject Q is divided into four in this embodiment, the number of divisions is not limited to this, and can be divided into an appropriate number. In the present embodiment, the partial image G of the subject Q from the viewpoint of reducing the image processing load in the
[0026]
Returning to FIG. 1, the
[0027]
The
[0028]
A
[0029]
A pair of
[0030]
The
[0031]
The
[0032]
The operation of the
[0033]
The optical axis changing lever 9 can be tilted in four directions, up, down, left and right. By tilting the optical axis changing lever 9, the optical axis direction of the
[0034]
An
[0035]
A recording /
[0036]
The shooting
[0037]
The bracket
[0038]
The bracket
[0039]
The
[0040]
The optical
[0041]
The erase
[0042]
6 is a front view of the imaging unit, FIG. 7 is a plan view of the imaging unit, and FIG. 8 is a right side view of the imaging unit.
[0043]
The
[0044]
The unit
[0045]
The taking
[0046]
The lens 231 a is provided with an
[0047]
In addition to the CCD, the imaging unit has a signal processing circuit that performs predetermined analog signal processing on an image signal (analog signal) output from the CCD. This signal processing circuit includes a CDS circuit (correlated double sampling circuit) that reduces sampling noise of an image signal and an AGC circuit (automatic gain adjustment circuit) that amplifies the image signal.
[0048]
[0049]
Further, a driving
[0050]
As shown in FIG. 10, when the orthogonal coordinate system xyz is set for the driving
[0051]
The laminated
[0052]
Accordingly, as shown in FIG. 11, the
[0053]
Accordingly, when the xz plane coincides with the horizontal plane, the
[0054]
On the other hand, the
[0055]
A
[0056]
As shown in FIG. 12, the
[0057]
The
[0058]
The boundary position between the adjacent S-pole magnetic pole m1 and the N-pole magnetic pole m1 formed on the
[0059]
The reference position R refers to the position of the
[0060]
The
[0061]
The
[0062]
FIG. 13 is a block diagram showing an embodiment of the position detection circuit.
The
[0063]
When the
[0064]
The
[0065]
The signal
[0066]
Since the
[0067]
Accordingly, in the
[0068]
The signal
[0069]
Accordingly, the counter 273f resets the count value with the detection signal Sg3 (signal change signal) at the reference position R output from the
[0070]
The
[0071]
In the above configuration, when the
[0072]
When the
[0073]
Thus, since the
[0074]
In the present embodiment, the piezoelectric element is used as the driving member of the
[0075]
FIG. 18 is a block diagram showing a circuit configuration of the
In the figure, the same members as those described above are denoted by the same reference numerals. The image capturing unit 239 in the unit
[0076]
The lens
[0077]
The
[0078]
The unit
[0079]
The
[0080]
The
[0081]
The
[0082]
The
S1; a switch for detecting a half-pressed state of the
S2: A switch for detecting the fully pressed state of the
SZI: a zoom-in switch for detecting the pressing state of the
SZO: a zoom-out switch for detecting the pressing state of the
SU: A switch for detecting the upward tilt state of the optical axis changing lever 9.
SD: a switch for detecting the downward tilt state of the optical axis changing lever 9.
SR: a switch for detecting the right tilt state of the optical axis changing lever 9.
SL: A switch for detecting a leftward tilt state of the optical axis changing lever 9.
[0083]
The A /
[0084]
The timing generator 207 generates a timing pulse for performing an imaging operation of the imaging unit 239 and time series processing in the imaging unit 239 and the A /
[0085]
The
[0086]
A RAM (Random Access Memory) 209 temporarily stores image data output from the
[0087]
The recording /
[0088]
The expansion /
[0089]
The
[0090]
In the following description, in order to distinguish between temporary storage of image data in the
[0091]
The
[0092]
In the shooting standby state, the
[0093]
A
[0094]
The
[0095]
The
SM: A switch for detecting the pushing operation of the
S1; a switch for detecting a half-pressed state of the
S2: A switch for detecting the fully pressed state of the
SZI: a zoom-in switch that detects the pressing state of the
SZO: a zoom-out switch that detects the pressing state of the
SU: A switch for detecting the upward tilt state of the optical
SD: A switch for detecting the downward tilt state of the optical
SR: A switch for detecting the rightward tilt state of the optical
SL: A switch for detecting a leftward tilt state of the optical
[0096]
SCHG: A switch for detecting the pressing operation of the bracket
SDEL: a switch for detecting the pressing operation of the erasing
SR / P: a switch for detecting the setting state of the recording / reproducing
SMOD: a switch for detecting the setting state of the shooting
[0097]
As described above, in this embodiment, the
[0098]
Note that the recording /
[0099]
Next, the photographing operation of the
[0100]
19 and 20 are flowcharts showing a main flow of the photographing operation. When the power battery is attached to the
[0101]
First, the on / off state of the
[0102]
When the subroutine “SM OFF” is entered, the
[0103]
Returning to FIG. 19, when the
[0104]
On the other hand, when the recording mode is set (YES in # 6), the processing of the subroutine “imaging unit set” shown in FIG. 22 is executed, and the
[0105]
When the subroutine “image pickup unit set” is entered, the
[0106]
Subsequently, when the
[0107]
Returning to FIG. 19, when the setting process of the
[0108]
If none of the switches have changed (NO in # 10 to # 24, YES in # 28, # 30), it is determined whether or not the display time counting by the display timer has ended (# 32). This display timer counts the predetermined time when the captured image is displayed on the
[0109]
When the timing of the display time has been completed (YES in # 32), the display of the captured image on the
[0110]
The flag FIAB is a flag for determining whether or not it is possible to change or add a recorded image in auto bracket shooting. When it is set to “1”, the flag FIAB is set according to the operation of the bracket
[0111]
In the SW determination process, when the setting state of the recording /
[0112]
In the SW determination process, when the
[0113]
When the process proceeds to the “zoom” subroutine, it is determined whether or not the zoom-in switch SZI or the zoom-out switch SZO remains on (# 70, # 86). If the zoom-in switch SZI is on (YES in # 70), it is further determined whether or not the high-definition shooting mode is set by the shooting mode switch 14 (# 72).
[0114]
If the normal shooting mode is set (NO in # 72), it is determined whether or not the lens 231a for adjusting the focal length of the
[0115]
On the other hand, if the high-definition shooting mode is set (YES in # 72), it is determined whether or not the focal length f of the photographing
[0116]
In the present embodiment, the zoom-in operation in the high-definition shooting mode is limited so that the focal length f of the taking
[0117]
[Table 1]
[0118]
Table 1 shows typical four focal lengths f1 when photographing the entire image, and the angle of view θh1, θv1 in each of the horizontal and vertical directions at that time and partial images corresponding to the focal lengths f1. Focal length f2 and horizontal and vertical field angles θh2 and θv2 at that time, displacement amounts Δθh and Δθv from the front direction in the direction of the optical axis L when capturing a partial image, and focal length ratio K (= f2 / f1) ). An arbitrary focal length f1 other than the representative value of 8 mm or less can be calculated and set in the same manner.
[0119]
In the present embodiment, as shown in FIG. 5, since the entire subject is divided into four, each partial image G A ~ G D The focal length f2 at the time of imaging is approximately twice the focal length f1 at the time of imaging of the entire image G. However, the images are overlapped at the boundary portion to make it easy to combine and to be combined by camera shake at the time of shooting. The focal length ratio K (= f2 / f1) is set to be smaller than twice in consideration of preventing the lack of the image at the composite position.
[0120]
In the table, the horizontal field angle θhi and the vertical field angle θvi (i = 1, 2) are angles shown in FIGS. 24A and 24B, respectively. In the present embodiment, since the
[0121]
Returning to FIG. 23, if the zoom-out switch SZO is in the on state (NO in # 70, YES in # 86), whether or not the focal length adjusting lens 231a of the photographing
[0122]
That is, when the zoom operation button 7 (or 17) is kept pressed, the zoom-out operation is performed by moving the focal length adjusting lens 231a of the photographing
[0123]
Referring back to FIG. 19, in the SW determination process, when the optical axis change lever 9 or the optical
[0124]
When the process proceeds to the “imaging unit driving” subroutine, it is determined whether or not the switch SU is in an ON state by operating the optical axis changing lever 9 (or the optical
[0125]
If the switch SU is in the ON state (YES in # 100), it is further determined whether or not the high-definition shooting mode is set by the shooting mode switch 14 (# 102). If the high-definition shooting mode is set (YES in # 102), it is determined whether or not the
[0126]
On the other hand, if the normal shooting mode is set (NO in # 102), it is determined whether or not the
[0127]
Further, when the switch SU is in the off state or is switched from the on state to the off state (NO in # 100), the rotation operation of the
[0128]
Subsequently, it is determined whether or not the switch SD is turned on by operating the optical axis changing lever 9 (or the optical
[0129]
Note that the vertical drive range of the
[0130]
Subsequently, it is determined whether or not the switch SL is turned on by operating the optical axis changing lever 9 (or the optical
[0131]
If the high-definition shooting mode has been set (YES in # 130), it is determined whether or not the
[0132]
On the other hand, if the normal shooting mode is set (NO in # 130), it is determined whether or not the
[0133]
Further, when the switch SL is in the off state, or when it is changed from the on state to the off state (NO in # 128), the rotation operation of the
[0134]
Subsequently, it is determined whether or not the switch SR is turned on by operating the optical axis change lever 9 (or the optical
[0135]
Note that the drive range in the left-right direction of the
[0136]
Returning to FIG. 19, when the release button 8 (or 18) is pressed halfway and the switch S1 is turned on in the SW determination process (YES in # 10), the subroutine “S1 ON” shown in FIGS. 28 and 29 is performed. The above process is executed, and the photographing process is performed.
[0137]
When the process proceeds to the “S1 ON” subroutine, first the flag FIAB is reset to “0” (# 160). Subsequently, an imaging operation by the imaging unit 239 is performed (# 162), and an image signal output from the imaging unit 239 is converted into image data by the A /
[0138]
Subsequently, exposure adjustment is performed using the image data temporarily stored in the RAM 209 (# 168). In the
[0139]
Table 2 is a table for controlling the exposure time SS. In Table 2, the shaded exposure time SS (11 ms) is an initial setting value set when the camera is activated. The minimum value of the exposure time SS is 0.25 ms, and the maximum value is 32 ms.
[0140]
[Table 2]
[0141]
Table 3 shows an example of a method for adjusting the exposure time SS based on the subject brightness Bv.
[0142]
In Table 3, the value of the subject brightness Bv is represented by 8-bit data. The luminance level is divided into three level ranges of “high”, “medium”, and “low”, and an appropriate range when the average value of the pixel data of the G color component is in the “medium” level range (85 to 169). The exposure time SS is not changed, and when it is in the “low” level range (0 to 84), the exposure time SS is increased by one step as an underexposure and is in the “high” level range (170 to 255). In this case, the exposure time SS is shortened by one step due to overexposure. When the exposure time SS is 32 ms and the subject brightness Bv is at the “low” level (when Bv ≦ 84), the flash is automatically emitted.
[0143]
[Table 3]
[0144]
Therefore, when the switch S1 is turned on, the exposure time SS is set to the initial value (11 ms) and the first image is taken, and the exposure time SS is adjusted based on the subject luminance value Bv calculated from this captured image. Is called. That is, if 170 ≦ Bv ≦ 255, the exposure time SS is changed to 8.0 [ms]. If 0 ≦ Bv ≦ 84, the exposure time SS is changed to 16.0 [ms], and 85 ≦ If Bv ≦ 169, the exposure time SS is not changed.
[0145]
Subsequently, it is determined whether or not the switch S2 is turned on (# 170). If the switch S2 is in the off state (NO in # 170), as long as the switch S1 is kept on (in # 172). YES), the process returns to step # 162, and the operations of imaging, display, and exposure adjustment are repeated (loop of # 162 to # 172). If the switch S1 is turned off without turning on the switch S2 during this time (NO in # 172), the live view display on the
[0146]
On the other hand, when the release button 8 (or 18) is fully pressed in the live view display and the switch S2 is turned on (YES in # 170), the process proceeds to step # 176, and the captured image and the captured image are recorded in the
[0147]
That is, after the imaging unit 239 performs an imaging operation with the exposure time SS adjusted immediately before (# 176), the image signal output from the imaging unit 239 is converted into image data by the A /
[0148]
The image data temporarily stored in the
[0149]
Subsequently, the setting state of the shooting mode is determined (# 182), and if the high-definition shooting mode is set (YES in # 182), the high-definition shooting process is performed in steps # 184 to # 216 and # 232. If the normal shooting mode is set (NO in # 182), normal shooting processing is performed in steps # 218 to # 232.
[0150]
When shifting to the high-definition photographing process, the photographing
[0151]
That is, each partial image G A ~ G D The driving direction and the driving amount of the
[0152]
Subsequently, the
[0153]
And all the partial images G A ~ G D When the image pickup is completed, the
[0154]
FIG. 30 is a diagram schematically showing the imaging process (the processes of steps # 160 to # 170 and # 176 to # 216) in the above-described high-definition imaging mode.
[0155]
In the figure, A, B, C, and D in the entire image G are partial images G, respectively. A ~ G D It is an image included in. Further, the display image indicates an image displayed on the
[0156]
As shown in the figure, when the switch S1 is in the on state, the entire subject image is captured and the captured image is displayed on the
[0157]
FIG. 31 shows the entire image G and the partial image G recorded in the
[0158]
Each image file includes a header part AR1 and an image recording part AR2, and the header part AR1 includes various information (non-image data) attached to the recorded image such as information on the photographing mode, photographing date, image title, and exposure time SS. Is recorded, and image data of the captured image is recorded in the image recording unit AR2.
[0159]
As information regarding the shooting mode, shooting mode information, image type information, image position information, frame number, and focal length information are recorded as bit data as shown in Table 4 below.
[0160]
[Table 4]
[0161]
The shooting mode information is information for identifying the normal shooting mode and the high-definition shooting mode. The shooting mode information is composed of 1-bit data. For example, when “1” is set, the high-definition shooting mode is indicated, and when “0” is set, the normal shooting mode is indicated. The image type information is information for identifying the whole image and the partial image of the five images shot in the high-definition shooting mode.
[0162]
The image type information is also composed of 1-bit data. For example, if “1” is set, the entire image is indicated, and if “0” is set, the partial image is indicated. The position information is information indicating which position of the entire image the partial image corresponds to. In the present embodiment, since the whole is divided into four parts, the position information is composed of 2-bit data, and for example, “00”, “ Bit data of “01”, “10”, and “11” are allocated. This bit data allocation method can be arbitrarily performed.
[0163]
The frame number is information for identifying the number of the whole image associated with the partial image. Each photographed image is assigned a frame number consisting of 4-bit data. Since the frame number of the entire image G is “####” in Table 4, the associated partial image G A ~ G D The frame number for "" is also "####". The focal length information indicates the focal length of the photographing
[0164]
As described above, all image data is recorded as independent image files in the
[0165]
Returning to FIG. 29, when the zoom-out of the focal length of the taking
[0166]
On the other hand, when the process proceeds to the normal photographing process in
[0167]
Subsequently, the
[0168]
The setting of the flag FIAB shifts to the subroutine “image selection” shown in FIG. 32 in
[0169]
Here, the processing of the subroutine “image selection” will be described.
When the process proceeds to the “image selection” subroutine, it is determined whether or not any of the switches SU, SD, SL, and SR is turned on by operating the optical axis change lever 9 (or the optical
[0170]
If switch SU is turned on in the change determination of switches SU, SD, SL, SR (YES in # 240), the image displayed on
[0171]
If the switch SL is on (YES in # 248), the first image file recorded in the
[0172]
FIG. 33 is a diagram schematically illustrating the above-described “image selection” process.
At the end of shooting in the normal shooting mode, the first captured image (first image) stored in the
[0173]
Further, for example, when the switch SL is turned on by the left operation of the optical axis changing lever 9 (or the optical
[0174]
As described above, in the normal shooting mode, even if the photographer performs a single release operation, shooting is continuously performed three times, and these captured images are temporarily stored in the
[0175]
Therefore, as long as the photographer operates the release button 8 (or 18) without operating the bracket
[0176]
In other words, since the photographer can choose to use the auto bracket shooting function immediately after shooting, the shooting result is judged as necessary, and a better shot image is changed or added according to the judgment result. Therefore, there are few shooting failures and operability is improved.
[0177]
In this embodiment, in auto bracket shooting, continuous shooting is simply performed three times. However, continuous shooting may be performed by slightly changing the exposure time SS in each shooting. Further, continuous shooting may be performed by slightly changing the focal position of the
[0178]
Returning to FIG. 20, in the SW determination process, when the shooting
[0179]
When the process proceeds to the “lens check” subroutine, it is determined whether or not the focal length f of the photographing
[0180]
If f ≦ 8 mm (NO in # 260), it is determined whether or not the position of the
[0181]
Subsequently, it is determined whether or not the position of the
[0182]
In this lens check process, in the high-definition shooting mode, the
[0183]
Next, processing in the playback mode will be described.
When the process proceeds to the “playback mode” subroutine shown in FIG. 35 in
[0184]
Subsequently, the presence / absence of changes in the switches SM, SP / R, SU, SD, SR, SL, SCHG, and SDEL are sequentially determined (# 292, # 294, # 296, # 300, # 304, # 314). # 322, # 336).
[0185]
If there is no change in any of the switches, the process returns to step # 292, and the process for determining whether or not the switches SM to SDEL have changed (hereinafter referred to as RSW determination process) is performed (# 292, # 294, # 286, # 286). 300, # 304, # 314, # 322, and # 336 loop).
[0186]
In the RSW determination process, when the main switch SM is turned off (NO in # 292) or the setting state of the recording /
[0187]
If the switch SU is turned on by operating the optical axis change lever 9 (or the optical
[0188]
When the switch SD is turned on by operating the optical axis change lever 9 (or the optical
[0189]
That is, as shown in FIG. 37, every time the switch SU is turned on in the captured image recorded in the
[0190]
Returning to FIG. 35, when the switch SR is turned on by the operation of the optical axis change lever 9 (or the optical
[0191]
If the reproduced image is the entire image G (YES in # 308), the partial image G that was first taken from the
[0192]
That is, when the image reproduced and displayed on the
[0193]
Partial image G i Is also displayed on the
[0194]
In the present embodiment, the display image of the
[0195]
Returning to FIG. 36, when the switch SL is turned on by the operation of the optical axis change lever 9 (or the optical
[0196]
If the reproduced image is the entire image G (NO in # 318), the process proceeds to step # 322, where the reproduced image is the partial image G. i If so (YES in # 318), the partial image G is read from the
[0197]
That is, the partial image G in which the image reproduced and displayed on the
[0198]
If the switch SCHG is turned on by operating the bracket
[0199]
If the reproduced image is the entire image G (YES in # 326), the content of the “shooting mode information” of the information related to shooting recorded in the header portion of the image file corresponding to the played image in the
[0200]
Also, four partial images G related to the entire image G in the
[0201]
That is, when the image reproduced and displayed on the
[0202]
If the switch SDEL is turned on by operating the
[0203]
If it is a high-definition photographed image (YES in # 338), it is determined whether or not the reproduced image is the entire image G based on information relating to the photographing mode (# 342). If it is the entire image G (YES in # 342). ), An image file of the whole image G in the
[0204]
For example, in FIG. 4-1 Partial image G A The partial image G in the
[0205]
Next, the entire image G and the partial image G captured in the high-definition shooting mode. A ~ G D A method of creating an overall image having a higher definition than the overall image G by pasting and synthesizing images using the above will be described.
[0206]
In the present embodiment, in order to reduce the processing load of image composition processing at the time of shooting, the image composition processing is performed by a dedicated image processing apparatus or an image processing apparatus configured by a computer system after shooting. Accordingly, a high-definition image creation system is configured by combining the
[0207]
FIG. 38 is a block diagram of an image processing apparatus according to an embodiment.
The image processing apparatus shown in FIG. 1 includes a
[0208]
The
[0209]
The image file input /
[0210]
The
[0211]
The
[0212]
The
[0213]
The
[0214]
FIG. 39 is a flowchart showing image composition processing in the
[0215]
In the image composition process, the image file of the high-definition photographed image recorded in the flash memory 212 (the entire image G and the partial image G A ~ G D Are read into the
[0216]
First, image data is read from the image file of the entire image G, and an enlargement process is performed (# 360, see FIG. 40A). This enlargement process reduces the size of the entire image G to the partial image G. i The frame of the image after synthesis is determined. That is, the size of the composite image is determined in advance.
[0217]
Partial image G i As shown in Table 4, since the entire image G is photographed with a magnification of the focal length ratio K, the entire image G is magnified with the focal length ratio K.
[0218]
The focal length ratio K is the partial image G i It can be obtained by reading out information related to the shooting mode recorded in the image file. Partial image G i When the focal length ratio K recorded in the image file is not used or the partial image G i If the focal length ratio K is not recorded in the image file, the partial image G i Alternatively, the magnification of the entire image can be set by performing correlation calculation while changing the size of the entire image G. In this method, the partial image G i When the
[0219]
Subsequently, partial image G A Image data is read out from the image file of the partial image G A And the enlarged whole image G ′ (hereinafter referred to as the enlarged whole image G ′) are calculated, and based on the calculation result, the enlarged whole image G ′ and the partial image G in the enlarged whole image G ′ are calculated. A (Hereinafter, this position is referred to as a matching position) is calculated (# 362). Then, the partial image G is placed at the matching position of the calculated enlarged whole image G ′. A The image synthesis is performed so as to paste the image of the corresponding portion of (# 364, see FIG. 40B). That is, the image data at the matching position of the enlarged whole image G ′ is the partial image G A Is replaced with image data at a corresponding position.
[0220]
In the correlation calculation, for example, a plurality of feature points included in the enlarged whole image G ′ are extracted, and a partial image G as shown in FIG. A The geometrical transformation amount that maximizes the degree of overlap of the feature points is calculated as compared with the enlarged whole image G ′ while performing geometric transformation such as translation, rotation, enlargement / reduction, and the like. As described above, the image data at the matching position of the enlarged whole image G ′ is converted into each partial image G. A ~ G D Since a composite image is created by substituting with the image data, the geometric transformation amount calculated by the correlation calculation is determined by each partial image G. A ~ G D This is information that gives a synthesis position (that is, a matching position) in the synthesis process.
[0221]
In FIG. 41, g1, g2, g3, and g4 are positions with the highest degree of overlap in the enlarged whole image G0 of the upper left, upper right, lower right, and lower left partial images G1, G2, G3, and G4 (that is, matching positions). ). The upper left partial image G1 shows a case where the matching position g1 is calculated by the parallel movement method using the character string C1 or the rectangle C2 of “ABC” as a feature point, and the upper right partial image G2 is enlarged using the rectangle C3 as a feature point. / A case where the matching position g2 is calculated by the reduction method is shown. The lower right partial image G3 shows a case where the matching position g3 is calculated by the rotational movement method with the edge portion of the thick line C4 or the thick line C4 as a feature point, and the lower left partial image G4 shows a rectangle C2 or a thick line C4. The case where the matching position g4 is calculated by the brightness | luminance conversion method as a feature point is shown.
[0222]
A feature point is image data of a region having characteristic image information such as a specific character or character string, a specific line, a specific geometric shape (for example, a triangle, a circle, an ellipse, etc.) or a specific edge portion. is there. Characters and character strings as feature points are extracted by a known character recognition method, geometric figures as feature points are extracted by a known texture analysis, and edge portions as feature points are extracted by a known edge detection method. The
[0223]
The overlapping degree of the feature points is the correlation value between the image data constituting the feature points of the enlarged whole image G0 and the image data of the pixel positions of the geometrically transformed partial images G1 to G4 corresponding to the feature points, The determination is made using the absolute value sum of the differences or the square sum of the differences between the two image data.
[0224]
Returning to FIG. 39, subsequently, the partial image G B Image data is read out from the image file of the partial image G B And the enlarged whole image G ′ are calculated, and the partial image G is calculated based on the calculation result. B The matching position of the enlarged whole image G ′ with respect to is calculated (# 366). Then, the partial image G is placed at the matching position of the calculated enlarged whole image G ′. B Image synthesis is performed so as to paste the image of the corresponding part of (# 368, see FIG. 40C). That is, the image data at the matching position of the enlarged whole image G ′ is the partial image G B Is replaced with image data at a corresponding position.
[0225]
Hereinafter, the partial image G is processed in the same manner. C , G D The matching positions of the enlarged whole image G ′ with respect to the image are respectively calculated (# 370, # 374), and the image data at the matching position of the enlarged whole image G ′ is respectively the partial image G. C , G D (See # 372, # 376, (d) and (e) of FIG. 40), a high-definition composite image (captured image of the entire subject) G ″ is created.
[0226]
In the above-described embodiment, the entire image G is enlarged to determine the size of the composite image G ″ (that is, the frame of the composite image G ″), and then the partial image G within the frame. i Are combined so that the partial image G i After the pasting and synthesizing only, unnecessary portions around the synthesized image G ″ using the enlarged whole image G ′ (the partial image G in FIG. 40). A ~ G D The size of the composite image G ″ may be determined by removing the hatched portion.
[0227]
However, in the former method, the image data of the enlarged whole image G ′ is converted into the partial image G. A ~ G D Since the high-definition whole image G ″ is created by substituting with the image data, unnecessary image data outside the frame of the composite image G ″ when the image data is replaced (the partial image G in FIG. 40). A ~ G D The hatched portion is removed, and the synthesis process becomes easier compared to the latter method.
[0228]
Further, as shown in FIG. 42, for example, the partial image G C And partial image G D When there is a portion P where the images do not overlap in the pasted portion, the latter method uses the partial image G of the composite image G ″. C And partial image G D However, in the method according to the present embodiment, the image data at the matching position of the enlarged whole image G ′ cannot be generated. Is partial image G A ~ G D , The partial image G of the composite image G ″ as shown in FIG. C And partial image G D Since the image data of the enlarged whole image G ′ (the hatched portion in the figure) remains in the pasted portion P, the definition of this portion P is slightly lower than the surrounding definition, but the image data is missing. Thus, there is no inconvenience that the composite image G ″ cannot be created.
[0229]
By the way, some photographing lenses have a characteristic that the light amount in the peripheral portion of the lens is reduced with respect to the light amount in the central portion. When a subject is photographed using a photographing lens having such characteristics, the photographed image becomes an image having a larger luminance deviation in the periphery of the screen than in the center of the screen, as shown in FIG.
[0230]
When shooting in high-definition shooting mode,
[0231]
In this way, in the high-definition shooting mode, the image quality degradation of the shot image based on the light quantity transmission characteristic of the shooting lens is further increased by the image synthesis. It is desirable to suppress the image quality degradation by correcting the image correction process, as shown by the phantom line in Fig. 38, by providing an
[0232]
FIG. 46 is a conceptual diagram showing an image correction method for suppressing the above-described image quality deterioration.
[0233]
In the image correction, first, the enlarged entire image G ′ and the synthesized image G ″ are divided into small blocks BLK of, for example, (8 × 8) pixels (see FIG. 46A), and R, R for each block BLK. Pixel data g for each color component of G and B R , G G , G B Average value R1 AV , G1 AV , B1 AV , R2 AV , G2 AV , B2 AV Is calculated (see FIG. 46B). Next, the pixel data g of the composite image G ″ is set so that the average value becomes equal between the corresponding blocks BLK of the enlarged whole image G ′ and the composite image G ″. R , G G , G B Is calculated (see FIG. 46C). This shift amount is, for example, the difference ΔR in the average value between the corresponding blocks BLK of the enlarged whole image G ′ and the synthesized image G ″. AV , ΔG AV , ΔB AV Can be used.
[0234]
Then, each pixel data g of the composite image G ″ R , G G , G B Shift amount ΔR AV , ΔG AV , ΔB AV Is added to correct the composite image G ″ (see FIG. 46D). By this correction, the average value of the pixel data of the small blocks of the composite image G ″ becomes the pixel data of the small blocks of the enlarged whole image G ′. Therefore, as shown in FIG. 46 (e), the luminance distribution of the corrected composite image G ″ approximates the luminance distribution of the enlarged entire image G ′.
[0235]
In the present embodiment, (8 × 8) pixels are exemplified as the size of the small block BLK, but the size and shape of the small block BLK can be arbitrarily set. If the size of the small block BLK is excessively increased, the magnitude relationship of the pixel data between the pixels is not corrected in the same block BLK. On the other hand, if the size of the small block BLK is made too small, if a positional shift occurs between the enlarged whole image G ′ and the composite image G ″, the pixel data changes significantly due to the image correction, and the composite image There arises a problem that the image quality of G ″ deteriorates. Accordingly, the size and shape of the small block BLK may be appropriately selected in consideration of these problems and the light amount transmission characteristics of the photographing lens.
[0236]
Next, the above-described image correction processing procedure performed by the
[0237]
First, the enlarged entire image G ′ is divided into (x × y) small blocks BLK (# 380). Subsequently, the composite image G ″ is divided into (x × y) small blocks BLK (# 382). Subsequently, count values a and x for counting the number of rows x and the number of columns y of the small blocks BLK, respectively. Each b is set to “1” (# 384).
[0238]
Subsequently, for the small block BLK (1,1) in one row and one column of the enlarged entire image G ′, the pixel data g included in the small block BLK (1,1) for each color component of R, G, B. i Average value R1 of (i = R, G, B) AV (1,1), G1 AV (1,1), B1 AV (1,1) is calculated (# 386), and for the small block BLK (1,1) in the first row and the first column of the composite image G ″, the small block BLK ( 1,1) Pixel data included in g i Average value R2 of (i = R, G, B) AV (1,1), G2 AV (1,1), B2 AV (1,1) is calculated (# 388). Note that (1, 1) indicates that the small block BLK has one row and one column. Hereinafter, (a, b) is attached to the small block BLK of a row and b column.
[0239]
Subsequently, the average value R1 AV (1,1), G1 AV (1,1), B1 AV (1,1) and average value R2 AV (1,1), G2 AV (1,1), B2 AV Shift amount ΔR using (1,1) AV (1,1), ΔG AV (1,1), ΔB AV (1,1) is calculated (# 390). The shift amount ΔR AV (a, b), ΔG AV (a, b), ΔB AV (a, b) is, for example, ΔR AV (a, b) = R2 AV (a, b) -R1 AV (a, b), ΔG AV (a, b) = G2 AV (a, b) -G1 AV (a, b), ΔB AV (a, b) = B2 AV (a, b) -B1 AV Calculated by (a, b).
[0240]
Subsequently, pixel data g of each color component of the small block BLK (1,1) in the first row and the first column of the composite image G ″. i (1,1) is the shift amount ΔR AV (1,1), ΔG AV (1,1), ΔB AV It is corrected using (1,1) (# 392). Correction data g R ′ (A, b), g G ′ (A, b), g B ′ (A, b) is g R ′ (A, b) = g R (a, b) + ΔR AV (a, b), g G ′ (A, b) = g G (a, b) + ΔG AV (a, b), g B ′ (A, b) = g B (a, b) + ΔB AV Calculated by (a, b).
[0241]
Subsequently, it is determined whether or not the count value a is the number of rows x (# 394). If a <x (NO in # 394), the count value a is incremented by 1 and the process proceeds to step # 386. Returning, the above-described correction processing is performed on the small block BLK (a + 1, b) of (a + 1) rows and b columns. Now, since a + 1 = 2, the process returns to step # 386 and the above-described correction processing is performed on the small block BLK (2,1) of 2 rows and 1 column, and hereinafter, (3,1), (4, 1),... (X, 1) The above-described correction processing is sequentially performed on each small block BLK (a, 1) (a = 3, 4,... X) in the first column.
[0242]
When the image correction is completed for the small block BLK (a, 1) in the first column, a = x is set in
[0243]
Thereafter, the above-described image correction is sequentially performed on the small blocks BLK (a, b) of each column in the same manner (loop of # 386 to # 402), and all the small blocks BLK (a, b) ( When the image correction is completed for a = 1, 2,... x, b = 1, 2,... y) (YES in # 398), the process is terminated.
[0244]
In the above embodiment, a dedicated image processing apparatus equipped with an image composition program has been described. However, as shown in FIG. 48, an image composition program and an image correction program are stored in a magnetic recording medium such as a floppy disk or a magnetic tape. It is stored in an external recording medium 43 such as an optical recording medium such as a medium, a CD-ROM, an optical disk card, or a magneto-optical disk, and is read into the computer main body 41 via the
[0245]
【The invention's effect】
As described above, according to the present invention, an image of the entire subject and an image of each part of the subject are sequentially captured, and the digital camera that records these captured images in the image recording unit is configured to capture each captured image. Independent image files are created and each captured image is recorded in the image recording means together with information indicating that the images are related to each other, so it is easy to change only the information accompanying the image data of each image file. The image file can be changed to an independent image file, and management of the image file becomes easy.
[0246]
Further, when the recorded image of the image recording means is reproduced on the display means, when the reproduction of the captured images related to each other is instructed, only the captured image of the entire subject is reproduced. It is possible to monitor the entire image of the combined subject more quickly than to reproduce the combined high-definition image of the entire subject.
[0247]
Further, when recording and deletion are instructed in a state where the captured image of the entire subject among the captured images related to each other is reproduced on the display unit, the image file of the captured image of the entire related subject and the captured image of the portion of the subject are saved. Since all of them are erased, the image files can be easily organized.
[0248]
Further, when there is an instruction to cancel the relevance in a state where the captured image of the entire subject among the captured images related to each other is reproduced on the display unit, the related image is recorded in the image file of the captured image of the entire subject. Since the information indicating this is erased, the captured image of the entire subject can be easily changed to an independent captured image.
[0249]
Further, when there is an instruction to cancel the relevance in a state where the captured image of the entire subject among the captured images related to each other is reproduced on the display means, the image file of the captured image of the portion of the subject related to the captured image of the entire subject. Since the image files are erased, it is possible to easily organize the image files of the captured images related to each other in the image recording means.
[Brief description of the drawings]
FIG. 1 is a front perspective view showing an external appearance of an embodiment of a digital camera according to the present invention.
FIG. 2 is a rear perspective view showing the appearance of an embodiment of a digital camera according to the present invention.
FIG. 3 is a perspective view showing a state where a display unit is detached from the camera body.
FIG. 4 is a main part perspective view showing an arrangement position of an imaging unit in a camera body.
FIG. 5 is a diagram illustrating a relationship between a subject and a shooting range in shooting in a high-definition shooting mode.
FIG. 6 is a front view of the imaging unit.
FIG. 7 is a plan view of the imaging unit.
FIG. 8 is a right side view of the imaging unit.
FIG. 9 is a diagram showing a mechanism for detecting a focal length of a photographic lens.
FIG. 10 is a perspective view illustrating a structure of a driving member that drives the imaging unit.
FIG. 11 is a diagram illustrating a waveform of a driving voltage applied to a piezoelectric element of a driving member.
FIG. 12 is a diagram showing a structure of a position detection member.
FIG. 13 is a block diagram showing an embodiment of a position detection circuit.
FIG. 14 is a diagram illustrating a waveform of an output signal of a position detection circuit.
FIG. 15 is a diagram illustrating a setting position of the imaging unit when a main switch is turned on / off.
FIG. 16 is a main part perspective view showing a state in which the imaging unit is set at the center position;
FIG. 17 is a perspective view of a main part showing a state in which the imaging unit is set to a position that shields the opening in the lower right direction with respect to the front direction.
FIG. 18 is a block diagram showing a circuit configuration of a digital camera according to the present invention.
FIG. 19 is a flowchart showing a main flow of photographing operation of the digital camera according to the present invention.
FIG. 20 is a flowchart showing a main flow of photographing operation of the digital camera according to the present invention.
FIG. 21 is a flowchart of a subroutine “SM OFF”.
FIG. 22 is a flowchart of a subroutine “imaging unit set”.
FIG. 23 is a flowchart of a subroutine “Zoom”.
FIG. 24 is a diagram illustrating a horizontal field angle θh and a vertical field angle θv.
FIG. 25 is a diagram illustrating a horizontal displacement amount Δθh and a vertical displacement amount Δθv.
FIG. 26 is a flowchart of a subroutine “imaging unit driving”;
FIG. 27 is a flowchart of a subroutine “imaging unit driving”;
FIG. 28 is a flowchart of a subroutine “S1 ON”.
FIG. 29 is a flowchart of a subroutine “S1 ON”.
FIG. 30 is a diagram schematically illustrating photographing processing in a high-definition photographing mode.
FIG. 31 is a diagram illustrating a configuration of an image file.
FIG. 32 is a flowchart of a subroutine “image selection”.
FIG. 33 is a diagram schematically illustrating a selection process of a recorded image in a normal shooting mode.
FIG. 34 is a flowchart of a subroutine “lens check”.
FIG. 35 is a flowchart of a subroutine “reproduction mode”.
FIG. 36 is a flowchart of a subroutine “reproduction mode”.
FIG. 37 is a diagram for explaining a display image on the LCD display unit in a recorded image reproduction process;
FIG. 38 is a block configuration diagram of an embodiment of an image processing apparatus that creates a high-definition image.
FIG. 39 is a flowchart showing image composition processing;
FIG. 40 is a diagram illustrating an image composition processing procedure;
FIG. 41 is a diagram for explaining correlation calculation processing;
FIG. 42 is a diagram illustrating a composite image when only partial images are simply pasted when there is a partial image that does not have an overlapping portion of images in the pasted portion.
FIG. 43 is a diagram showing a composite image in a case where there is a partial image that does not have an overlapping part of the image in the pasted part and the corresponding part of the entire image is composited so as to be replaced with the partial image.
FIG. 44 is a diagram illustrating a luminance distribution of an image photographed by a photographing lens having a characteristic that the light amount in the lens peripheral portion is smaller than the light amount in the lens central portion.
FIG. 45 is a diagram showing a luminance distribution when a high-definition image is created by synthesizing images taken by a photographing lens having a characteristic that the light amount at the lens peripheral portion is smaller than the light amount at the lens central portion.
FIG. 46 is a diagram illustrating a concept of an image correction method.
FIG. 47 is a flowchart illustrating an image correction processing procedure.
FIG. 48 is a diagram illustrating an image processing apparatus constructed by a computer system.
[Explanation of symbols]
1 Digital camera
2 Camera body
201 Unit driver
202 Unit position detector
203 FL controller
204 Power supply
205 switches
206 A / D converter
207 Timing Generator
208 Signal processor
209 RAM
210 Decompression / compression processor
211 Recording / reading processing unit
212 Flash memory (image recording means)
213 Control unit (imaging control means, information generation means, recording control means, display control means, recording erasing means, information erasing means, image erasing means)
3 LCD display
4 Flash
5 openings
6, 7, 16, 17 Zoom operation buttons
8,18 Release button (shooting instruction means)
9 Optical axis change lever (instruction means)
10 Mounting plate
11 Cable
12 LCD panel (display means)
13 Recording / playback mode switch (playback instruction means)
14 Shooting mode switch
15 Bracket shooting confirmation button (instruction means)
19a-19d Optical axis change button
20 Erase button (erase instruction means)
21 Main switch
22 Imaging unit
23 Unit body
231 Photo lens
232 Zoom motor
239 Imaging unit (first and second imaging means)
24 First support frame
25 Second support
26 Drive member
27, 28 Position detection member
30 Image processing device
31 Control unit
32 ROM
33 RAM
34 Image memory
35 GUI
36 I / F
37 Input device
38 Display device
39 External storage
40 Computer system
41 Computer body
42 External storage device
43 External recording media
M magnet
Claims (5)
上記被写体全体を複数の部分に分割し、被写体の各部分を撮像する第2の撮像手段と、
撮影を指示する撮影指示手段と、
上記撮影指示手段で撮影が指示されると、上記第1,第2の撮像手段を動作させて上記被写体全体と上記被写体の部分とを順次、撮像させる撮像制御手段と、上記第1及び第2の撮像手段で撮像された画像を記録する画像記録手段とを備えたデジタルカメラにおいて、
上記第1,第2の撮像手段で撮像された画像にそれぞれ互いに関連画像であることを示す情報を生成する情報生成手段と、
上記第1,第2の撮像手段で撮像された各画像をこれらの撮像画像に対応して上記情報生成手段で生成された情報と併せて、それぞれ独立の画像ファイルにして上記画像記録手段に記録する記録制御手段とを備えたことを特徴とするデジタルカメラ。First imaging means for imaging the entire subject;
A second imaging unit that divides the entire subject into a plurality of parts and images each part of the subject;
Photographing instruction means for instructing photographing;
When shooting is instructed by the shooting instruction unit, the first and second imaging units are operated to sequentially capture the entire subject and the subject portion, and the first and second imaging units. In a digital camera comprising image recording means for recording an image picked up by the image pickup means,
Information generating means for generating information indicating that each of the images captured by the first and second imaging means is a related image;
The first, together with information generated by the information generating means each image captured by the second imaging means corresponding to these captured images, recorded in the image recording means and independently of the image file A digital camera comprising: a recording control unit that performs recording.
画像記録手段に記録された撮像画像を再生表示する表示手段と、
上記撮像画像の上記表示手段への再生表示を指示する再生指示手段と、
上記再生指示手段により撮像画像の再生表示が指示されると、第1の撮像手段で撮像された被写体全体の画像のみを上記表示手段に再生表示させる表示制御手段とを更に備えたことを特徴とするデジタルカメラ。The digital camera according to claim 1, wherein
Display means for reproducing and displaying the captured image recorded in the image recording means;
Reproduction instruction means for instructing reproduction display of the captured image on the display means;
And a display control means for causing the display means to reproduce and display only the image of the entire subject imaged by the first imaging means when the reproduction instruction means instructs to display and reproduce the captured image. Digital camera.
表示手段に再生表示された撮像画像の画像記録手段における記録の消去を指示する消去指示手段と、
上記消去指示手段により上記表示手段に再生表示された撮像画像の消去が指示されると、上記画像記録手段に記録された当該撮像画像及びこの撮像画像に関連した被写体の部分の撮像画像を消去する記録消去手段とを更に備えたことを特徴とするデジタルカメラ。The digital camera according to claim 2, wherein
An erasure instruction means for instructing erasure of recording in the image recording means of the captured image reproduced and displayed on the display means;
When erasure of the captured image reproduced and displayed on the display unit is instructed by the erasure instruction unit, the captured image recorded in the image recording unit and the captured image of the portion of the subject related to the captured image are erased. A digital camera, further comprising a recording / erasing unit.
表示手段に再生表示された被写体全体の撮像画像とこれに関連した被写体の部分の撮像画像との関連性の解消を指示する指示手段と、
上記指示手段により関連性の解消が指示されると、画像記録手段の上記被写体全体の撮像画像の画像ファイルに記録された関連画像であることを示す情報を消去する情報消去手段とを更に備えたことを特徴とするデジタルカメラ。The digital camera according to claim 2 or 3,
Instruction means for instructing cancellation of the relevance between the captured image of the entire subject reproduced and displayed on the display means and the captured image of the portion of the subject related thereto;
And an information erasing unit for erasing information indicating that the image is a related image recorded in an image file of the captured image of the entire subject when the instruction unit cancels the relevance. A digital camera characterized by that.
指示手段により関連性の解消が指示されると、画像記録手段に記録された表示手段に再生表示された被写体全体の撮像画像に関連した被写体の部分の撮像画像の画像ファィルを消去する画像消去手段とを更に備えたことを特徴とするデジタルカメラ。The digital camera according to claim 4, wherein
An image erasing unit for erasing an image file of a captured image of a portion of the subject related to a captured image of the entire subject reproduced and displayed on the display unit recorded in the image recording unit when the instruction unit cancels the relevance And a digital camera.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22840698A JP3736129B2 (en) | 1998-08-12 | 1998-08-12 | Digital camera |
US09/372,317 US6727954B1 (en) | 1998-08-12 | 1999-08-11 | Electronic camera and image processing system |
US10/788,107 US20040165075A1 (en) | 1998-08-12 | 2004-02-26 | Electronic camera and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22840698A JP3736129B2 (en) | 1998-08-12 | 1998-08-12 | Digital camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000059725A JP2000059725A (en) | 2000-02-25 |
JP3736129B2 true JP3736129B2 (en) | 2006-01-18 |
Family
ID=16875977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP22840698A Expired - Fee Related JP3736129B2 (en) | 1998-08-12 | 1998-08-12 | Digital camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3736129B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7573509B2 (en) | 2002-01-30 | 2009-08-11 | Ricoh Company, Ltd. | Digital still camera, reproduction device, and image processor |
JP4506501B2 (en) * | 2005-02-21 | 2010-07-21 | 株式会社日立製作所 | Image composition device and imaging system |
JP2013141064A (en) * | 2011-12-28 | 2013-07-18 | Jvc Kenwood Corp | Image pickup device and control method |
-
1998
- 1998-08-12 JP JP22840698A patent/JP3736129B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000059725A (en) | 2000-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6727954B1 (en) | Electronic camera and image processing system | |
US7456864B2 (en) | Digital camera for capturing a panoramic image | |
JP4367897B2 (en) | Image display control apparatus and method | |
JP6833746B2 (en) | Imaging equipment, imaging methods, programs and recording media | |
US20080252753A1 (en) | Image-capturing apparatus | |
JP4621152B2 (en) | Imaging device, control method thereof, and program | |
JPH10240436A (en) | Information processor and recording medium | |
JP2012075018A (en) | Reproduction device and method, and program | |
WO2000076206A1 (en) | Electronic still camera | |
WO2007071821A1 (en) | Digital panoramic camera | |
JP2002064738A (en) | Electronic camera | |
JP2007201539A (en) | Digital camera | |
JP2003179798A (en) | Digital camera | |
TWI262450B (en) | Image reproduction apparatus and image capturing apparatus | |
JP2000059606A (en) | High definition image preparation system | |
JP3736129B2 (en) | Digital camera | |
JP2001028699A (en) | Electronic camera | |
JP2000059674A (en) | Digital camera | |
JP2010226185A (en) | Imaging apparatus, and method of controlling imaging apparatus | |
JP4239271B2 (en) | Electronic still camera | |
JP2008065851A (en) | Information processing apparatus and recording medium | |
JP2000059589A (en) | Digital camera | |
JP3721965B2 (en) | Electronic still camera, image recording method thereof, and recording medium | |
JP2010135963A (en) | Imaging apparatus, and control method of imaging apparatus | |
JP2001211354A (en) | Electronic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050613 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051017 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091104 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101104 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111104 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121104 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121104 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131104 Year of fee payment: 8 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |