JP3736129B2 - Digital camera - Google Patents

Digital camera Download PDF

Info

Publication number
JP3736129B2
JP3736129B2 JP22840698A JP22840698A JP3736129B2 JP 3736129 B2 JP3736129 B2 JP 3736129B2 JP 22840698 A JP22840698 A JP 22840698A JP 22840698 A JP22840698 A JP 22840698A JP 3736129 B2 JP3736129 B2 JP 3736129B2
Authority
JP
Japan
Prior art keywords
image
unit
captured
subject
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22840698A
Other languages
Japanese (ja)
Other versions
JP2000059725A (en
Inventor
浩幸 岡田
雅之 上山
稔 桑名
伸也 松田
哲郎 神原
隆 松尾
尊司 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP22840698A priority Critical patent/JP3736129B2/en
Priority to US09/372,317 priority patent/US6727954B1/en
Publication of JP2000059725A publication Critical patent/JP2000059725A/en
Priority to US10/788,107 priority patent/US20040165075A1/en
Application granted granted Critical
Publication of JP3736129B2 publication Critical patent/JP3736129B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Facsimiles In General (AREA)
  • Storing Facsimile Image Data (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、撮像素子により被写体像を画像信号に光電変換して取り込むデジタルカメラに係り、特に被写体全体を複数の部分に分割して撮像し、各被写体の部分の撮像画像を貼り合わせるように合成して精細度の高い被写体全体の撮像画像を得ることのできるデジタルカメラに関するものである。
【0002】
【従来の技術】
従来、デジタルカメラにおいて、CCD(Charge Coupled Device)等の撮像素子の実効解像度を高めるため、被写体を複数の部分に分割し、かつ、拡大して撮像し、これらの部分画像を貼り合わせるように合成することで精細度の高い被写体全体の撮像画像を得ることのできるデジタルカメラが提案されている。
【0003】
そして、被写体の部分のみを撮像し、これらの撮像画像を合成することなくメモリカード等の記録媒体に記録することによりカメラ側での部分画像の合成処理の負担を軽減するようにしたデジタルカメラが商品化されている。
【0004】
【発明が解決しようとする課題】
ところで、上記従来のデジタルカメラでは、カメラ側で被写体全体の画像を合成しないので、例えばコンピュータシステムにより構成された画像処理装置でメモリカードから複数の被写体の部分の撮像画像を読み出し、これらの部分画像を貼り合わせるように合成して被写体全体の画像を作成する必要があるが、メモリカードには被写体全体の画像が記録されていないので、各被写体の部分の画像の貼合位置を正確に決定することができず、各被写体の部分の画像の貼合処理により画質劣化を招き易いという問題がある。
【0005】
また、カメラ本体にLCD(Liquid Crystal Display)等の表示部が設けられ、撮影画像のモニタが可能なっていても、高精細撮影では被写体全体は撮影されず、被写体の部分の撮影画像を合成した被写体全体の画像も作成されないので、撮影結果をLCD表示部でモニタすることができないという不都合もある。
【0006】
更にはLCD表示部にメモリカードに記録された撮影画像を再生表示して記録内容の整理(不必要な画像の消去や合成用の一組の被写体の部分の画像をそれぞれ独立の撮影画像に変更する等の整理)を可能にした場合も、高精細撮影された画像については被写体の部分の撮像画像しかLCD表示部に再生表示されないので、消去可否の判断等が容易にできないという不都合が生じる。
【0007】
本発明は、上記課題に鑑みてなされたものであり、高精細撮影において、複数の被写体の部分の撮像画像を容易かつ正確に合成し得るように撮像及び記録の処理が可能なデジタルカメラを提供するものである。
【0008】
【課題を解決するための手段】
本発明は、被写体全体を撮像する第1の撮像手段と、上記被写体全体を複数の部分に分割し、被写体の各部分を撮像する第2の撮像手段と、撮影を指示する撮影指示手段と、上記撮影指示手段で撮影が指示されると、上記第1,第2の撮像手段を動作させて上記被写体全体と上記被写体の部分とを順次、撮像させる撮像制御手段と、上記第1及び第2の撮像手段で撮像された画像を記録する画像記録手段とを備えたデジタルカメラにおいて、上記第1,第2の撮像手段で撮像された画像にそれぞれ互いに関連画像であることを示す情報を生成する情報生成手段と、上記第1,第2の撮像手段で撮像された各画像をこれらの撮像画像に対応して上記情報生成手段で生成された情報と併せて、それぞれ独立の画像ファイルにして上記画像記録手段に記録する記録制御手段とを備えたものである(請求項1)。
【0009】
上記構成によれば、第1の撮像手段により被写体全体の画像が取り込まれ、続いて第2の撮像手段により被写体を複数の部分に分割し、被写体の各部分の画像がそれぞれ取り込まれる。そして、被写体全体の撮像画像と被写体の各部分の撮像画像とに対して互いに独立のファイルが作成されて画像記録手段に記録される。このとき、各撮像画像に対してそれぞれ互いに関連画像であることを示す情報が生成され、各撮像画像はその情報とともに画像記録手段に記録される。
【0010】
画像記録手段から被写体全体の撮像画像又は被写体の部分の撮像画像の画像ファイルの内容を読み出し、これらの撮像画像を合成する場合も画像データに付随する情報の内容より確実に関連する撮像画像を読み出すことが可能となる。
【0011】
また、本発明は、上記デジタルカメラにおいて、画像記録手段に記録された撮像画像を再生表示する表示手段と、上記撮像画像の上記表示手段への再生表示を指示する再生指示手段と、上記再生指示手段により撮像画像の再生表示が指示されると、第1の撮像手段で撮像された被写体全体の画像のみを上記表示手段に再生表示させる表示制御手段とを更に備えたものである(請求項2)。
【0012】
上記構成によれば、再生指示手段で互いに関連する一組の撮像画像の再生が指示されると、当該指示された組の被写体全体の撮像画像のみが画像記録手段から読み出されて表示手段に再生され、他の被写体の部分の撮像は表示手段に再生されない。
【0013】
また、本発明は、上記デジタルカメラにおいて、表示手段に再生表示された撮像画像の画像記録手段における記録の消去を指示する消去指示手段と、上記消去指示手段により上記表示手段に再生表示された撮像画像の消去が指示されると、上記画像記録手段に記録された当該撮像画像及びこの撮像画像に関連した被写体の部分の撮像画像を消去する記録消去手段とを更に備えたものである(請求項3)。
【0014】
上記構成によれば、表示手段に互いに関連する一組の撮像画像のうちの被写体全体の撮像画像を表示させた状態で消去指示手段により記録消去の指示が行われると、記録手段に記録された当該一組の撮像画像を構成する被写体全体の撮像画像と被写体の各部分の撮像画像の画像ファイルが全て消去される。
【0015】
また、本発明は、デジタルカメラにおいて、表示手段に再生表示された被写体全体の撮像画像とこれに関連した被写体の部分の撮像画像との関連性の解消を指示する指示手段と、上記指示手段により一組の関係の解消が指示されると、画像記録手段の上記被写体全体の撮像画像の画像ファイルに記録された関連画像であることを示す情報を消去する情報消去手段とを更に備えたものである(請求項4)。
【0016】
上記構成によれば、表示手段に互いに関連する一組の撮像画像のうちの被写体全体の撮像画像を表示させた状態で指示手段により関連性の解消が指示されると、記録手段に記録された当該一組の撮像画像を構成する被写体全体の撮像画像及び被写体の各部分の撮像画像の各画像ファイル内の関連画像であることを示す情報が消去される。これにより被写体全体の撮像画像及び被写体の各部分の撮像画像の各画像ファイルはそれぞれ独立に撮影された画像として扱われる。
【0017】
また、本発明は、上記デジタルカメラにおいて、上記指示手段により関連性の解消が指示されると、画像記録手段に記録された表示手段に再生表示された被写体全体の撮像画像に関連した被写体の部分の撮像画像の画像ファィルを消去する画像消去手段とを更に備えたものである(請求項5)。
【0018】
上記構成よれば、表示手段に互いに関連する一組の撮像画像のうちの被写体全体の撮像画像を表示させた状態で指示手段により関連性の解消が指示されると、画像記録手段に記録された当該一組の撮像画像を構成する被写体の各部分の撮像画像の画像ファイルが全て消去されるとともに、被写体全体の撮像画像の画像ファイル内の関連画像であることを示す情報が消去される。
【0019】
【発明の実施の形態】
本発明に係るデジタルカメラについて、図を用いて説明する。
図1〜図3は、本発明に係るデジタルカメラの一実施の形態の外観を示す図で、図1は前側から見た斜視図、図2は後側から見た斜視図、図3は表示部をカメラ本体から取り外した状態を示す斜視図である。また、図4はカメラ本体における撮像ユニット22の配置位置を示す要部斜視図である。
【0020】
同図に示すデジタルカメラ1は、ズームレンズからなる撮影レンズとCCD(Charge Coupled Device)からなる撮像素子とが一体的にユニット化され、カメラ本体の正面方向(カメラ本体2の前面2aに対して垂直の方向)に対して上下左右に回動可能に支持された撮像ユニット22を有し、この撮像ユニット22の姿勢(すなわち、光軸方向)を制御することにより正面方向に対して所定の角度範囲で任意の方向の被写体を撮影することができるようになっている。
【0021】
また、撮影モードとして通常の撮影動作を行うモード(以下、通常撮影モードという。)と通常撮影モードでの撮影画像よりも精細度の高い撮影画像を得ることのできるモード(以下、高精細撮影モードという。)とを有している。
【0022】
なお、通常撮影モードでは1回のレリーズ動作で1枚の撮影画像が記録媒体であるフラッシュメモリに記録されるが、本実施の形態では後述するように1回のレリーズ動作で所定の時間間隔(例えば0.1秒間隔)で所定の回数(例えば3回)だけ露出制御を行い(すなわち、連続的に複数枚の画像を撮像し)、これらの撮像画像のうち、予め設定された撮像画像(例えば最初の撮像画像)をフラッシュメモリに自動的に記録するようにしている。そして、撮影者の指示により当該撮影者が希望する撮像画像(例えば2番目の撮像画像)を自動記録された撮像画像に換えて、もしくは、当該撮像画像に追加してフラッシュメモリに記録することができるようになっている。
【0023】
通常撮影モードにおける上述の撮影制御は銀塩カメラにおけるブラケット撮影機能に類似したものである。銀塩カメラにおいては、通常、撮影者がモード設定した場合にブラケット撮影が行われるが、本実施の形態では通常撮影モードで常にブラケット撮影が行われる点で相違する。従って、以下の説明では通常撮影モードにおけるブラケット撮影を「オートブラケット撮影」と呼び、銀塩カメラにおけるブラケット撮影と区別することとする。
【0024】
また、高精細撮影モードは、図5に示すように被写体Qの全体画像Gと当該被写体Qを4個の部分に分割した部分画像GA,GB,GC,GDとを取り込み、被写体Qの全体画像Gに基づいて4枚の部分画像GA〜GDを貼合合成することにより当該被写体Qの全体画像Gよりも精細度の高い被写体の全体画像を作成可能にするものである。そして、この高精細撮影モードにおいては、1回のレリーズ動作で撮像ユニット22の光軸方向を正面方向(図5においてoの方向)に向けて被写体Qの全体画像Gが取り込まれるとともに、撮像ユニット22の光軸方向と撮像倍率とを所定方向(図5においてa,b,c,dの方向)と所定の倍率(1.8〜1.9倍程度)とを自動変更しつつ4回だけ撮像動作を行って被写体Qの部分画像GA〜GDが取り込まれるようになっている。
【0025】
なお、本実施の形態では被写体Qを4分割しているが、分割数はこれに限定されるものではなく、適宜の個数に分割することができるものである。また、本実施の形態ではデジタルカメラ1における画像の処理負担を軽減する観点から被写体Qの部分画像GA〜GDを取り込むのみで、これらの部分画像GA〜GDの貼合合成はコンピュータ等の画像処理システムで行われるようになっている。
【0026】
図1に戻り、デジタルカメラ1は縦長の直方体形状をなし、カメラ本体2の幅の狭い一方の側面2aがカメラ本体の前面をなし、他方の側面2bがカメラ本体の後面をなしている。カメラの後側から見て左側の側面2cの上部にLCD(Liquid Crystal Display)からなる表示画面を有する表示部3(以下、LCD表示部3という。)がカメラ本体2に対して開閉可能、かつ、離脱可能に設けられている(図2,図3参照)。すなわち、カメラ本体2の左側面2cの上部前端に鉄、ニッケル等の磁性体からなる取付板10が図略のヒンジ機構により開閉可能に取り付けられる一方、LCD表示部3の表示面の右端部に強力な磁石Mが埋設され、この磁石Mの吸着力によりLCD表示部3が取付板10に着脱可能に取り付けられている。
【0027】
なお、カメラ本体2とLCD表示部3とはカメラ本体2内に図略の巻取り機構で収納可能になされたケーブル11により電気的に接続され、このケーブル11を介してカメラ本体2からLCD表示部3に電源や表示画像のデータが送信されるとともに、後述するLCD表示部3に設けられた各種スイッチの操作信号がケーブル11を介してLCD表示部3からカメラ本体2に送信されるようになっている。すなわち、LCD表示部3をカメラ本体2から離脱することにより遠隔操作で撮影ができるようになっている。
【0028】
カメラ本体の前面2aの上部適所にはフラッシュ4が設けられ、その下部に撮像ユニット22の撮影レンズ231を露出させる開口部5が設けられている。撮像ユニット22は、図4に示すようにカメラ本体2内の開口部5の臨む位置に光軸Lの方向を変更可能に設けられている。この撮像ユニット22の構造については後述する。
【0029】
また、カメラ本体の後面1bの上部適所には上記撮影レンズ231の焦点距離を変更するための一対の操作ボタン6,7(以下、ズーム操作ボタン6,7という。)が並設され、その下部に撮影を指示するレリーズボタン8が設けられ、更にその下部に上記撮像ユニット22の光軸方向を手動調整するための操作レバー9(以下、光軸変更レバー9という。)が設けられている。なお、光軸変更レバー9は多機能化されており、後述するようにオートブラケット撮影された複数の撮影画像のLCD表示部3への表示画像の変更や再生モードにおけるLCD表示部3への再生コマの変更にも使用される。
【0030】
フラッシュ4はキセノン放電管からなり、低輝度時に自動発光されるようになっている。開口部5は撮像ユニット22の撮影レンズ231の露出し得る範囲(すなわち、撮影し得る光軸方向の変更範囲)を規定するものである。本実施の形態では撮影レンズ231の光軸方向を水平面内及び垂直面内でそれぞれ正面方向に対して±20°変更できる範囲となっている。従って、撮影可能状態においては、撮影レンズ231が開口部5から露出可能な範囲内で撮像ユニット22の回動が制御される。一方、撮影不可状態においては、撮影レンズ231が開口部5から露出しない所定の位置(例えば撮影レンズ231の光軸方向が斜め下方向となる所定の位置)に撮像ユニット22が回動され、当該撮像ユニット22の本体23で開口部5が遮蔽されるようになっている。
【0031】
ズーム操作ボタン6は撮像ユニット22の撮影レンズ231の焦点距離を望遠(テレ)側に変更するための操作部材であり、ズーム操作ボタン7は、撮像ユニット22の撮影レンズ231の焦点距離を広角(ワイド)側に変更するための操作部材である。両ズーム操作ボタン6,7を操作し続けると、所定の変更速度で撮影レンズ231の焦点距離が対応する方向に連続的に変更され、操作を解除すると、解除時の焦点距離に撮影レンズ231の焦点距離が設定される。
【0032】
レリーズボタン8の操作は後述のスイッチS1,S2により検出されるようになっている。レリーズボタン8の半押操作によりスイッチS1がオンになり、これにより撮影動作の準備(焦点調節や露出制御値の設定等の準備)が行われ、レリーズボタン8の全押操作によりスイッチS2がオンになり、これにより設定された露出制御値により露出制御が行われる。なお、通常撮影モードにおいては、上述したようにオートブラケット撮影が行われるようになっているので、予め設定された所定の時間間隔で所定の回数だけ露出制御が繰り返される。また、高精細撮影モードにおいては、撮影レンズ231の光軸方向及び撮影倍率を自動変更して所定回数の露出制御が行われる。
【0033】
光軸変更レバー9は上下左右の4方向に傾動可能になされ、光軸変更レバー9を傾動させることによりその傾動方向に撮像ユニット22の光軸方向を変化させることができるようになっている。例えば光軸変更レバー9を上方向に傾動させると、その傾動が解除されるまで所定の速度で撮像ユニット22が仰角方向に回動され、光軸変更レバー9を下方向に傾動させると、その傾動が解除されるまで所定の速度で撮像ユニット22が俯角方向に回動される。なお、撮像ユニット22の光軸方向が変更可能な許容範囲(正面方向に対して±20°の範囲)を超えるときは、撮像ユニット22がその許容範囲の限界位置に達した時点で回動動作は自動停止される。
【0034】
LCD表示部3の裏面中央にはLCDパネル12が設けられている。また、LCD表示部3のLCDパネル12に表示されるライブビュー画像を見ながら遠隔操作で撮影動作ができるように、LCDパネル12の周辺部には記録/再生モードスイッチ13、撮影モードスイッチ14、ブラケット撮影確認ボタン15、ズーム操作ボタン16,17、レリーズボタン18、光軸変更ボタン19a〜19d、消去ボタン20及びメインスイッチ21が設けられている。なお、光軸変更ボタン19a〜19dも光軸変更レバー9と同様に多機能化されている。
【0035】
記録/再生モードスイッチ13はLCD表示部3の左側周辺部の下部に設けられ、撮影を行う記録モードとフラッシュメモリに記録された画像をLCDパネル12に再生表示する再生モードとを切換設定するものである。記録/再生モードスイッチ13は2接点スライドスイッチからなり、例えば摘みを左側にスライドさせると、記録モードが設定され、摘みを右側にスライドさせると、再生モードが設定される。
【0036】
撮影モードスイッチ14は記録/再生モードスイッチ13の下部に設けられ、上述した通常撮影モードと高精細撮影モードとを切換設定するものである。撮影モードスイッチ14も記録/再生モードスイッチ13と同様に2接点スライドスイッチからなり、例えば摘みを左側にスライドさせると、通常撮影モードが設定され、摘みを右側にスライドさせると、高精細撮影モードが設定される。
【0037】
ブラケット撮影確認ボタン15はLCD表示部3の下側周辺部の左端部に設けられ、通常撮影モードにおけるオートブラケット撮影の内容確認や記録画像の変更等を行うモード(以下、確認モードという。)の設定及び解除を行うものである。ブラケット撮影確認ボタン15も多機能化されており、再生モードにおいては高精細撮影モードで撮影された記録画像の属性変更を指示する操作ボタンとして機能するようになっている。なお、高精細撮影モードで撮影された複数の被写体Qの部分画像GA〜GDは貼合合成用の画像であることが識別できるように、属性データとして撮影モードに関する情報を付してフラッシュメモリに記録されるが、高精細撮影モードの撮影画像の属性変更とは、各部分画像GA〜GDを等価的に通常撮影モードで撮影された画像として取り扱えるように、撮影モードに関する情報の内容を変更するものである。
【0038】
ブラケット撮影確認ボタン15はプッシュスイッチからなり、記録モードにおいて撮影終了直後に押されると、押される毎に確認モードの設定と解除とが交互に入力される。また、再生モードにおいてブラケット撮影確認ボタン15が押されると、押される毎にLCD表示部3に表示されている高精細撮影モードの撮影画像に対応する画像ファイルが通常撮影モードの撮影画像の画像ファイルに変更される。
【0039】
ズーム操作ボタン16,17はLCD表示部3の下側周辺部の中央部に設けられ、それぞれカメラ本体2に設けられたズーム操作ボタン6,7と同一の機能を果たす操作ボタンである。また、レリーズボタン18はLCD表示部3の下側周辺部の右端部に設けられ、カメラ本体2に設けられたレリーズボタン8と同一の機能を果たす操作ボタンである。
【0040】
光軸変更ボタン19a〜19dはそれぞれLCD表示部3の上下左右の各周辺部の略中央に設けられ、カメラ本体2に設けられた光軸変更レバー9と同一の機能を果たす操作ボタンである。光軸変更ボタン19a〜19dの各ボタンの操作はそれぞれ光軸変更レバー9の上下左右の各方向への傾動操作に対応している。従って、例えば記録モードにおいて光軸変更ボタン19aを押圧操作すると、その押圧操作が解除されるまで所定の速度で撮像ユニット22が仰角方向に回動され、光軸変更ボタン19bを押圧操作すると、その押圧操作が解除されるまで所定の速度で撮像ユニット22が俯角方向に回動される。なお、許容範囲(正面方向に対して±20°の範囲)内で撮像ユニット22の光軸方向の手動変更が行われる点は光軸変更レバー9の場合と同様である。
【0041】
消去ボタン20はLCD表示部3の左側周辺部の上部に設けられ、フラッシュメモリに記録された画像の消去を指示する操作ボタンである。また、メインスイッチ21は消去ボタン20の下部に設けられ、電源の供給/停止を行うものである。
【0042】
図6は撮像ユニットの正面図、図7は同撮像ユニットの平面図、図8は同撮像ユニットの右側面図である。
【0043】
撮像ユニット22はユニット本体23、このユニット本体23を垂直方向に揺動可能に支持するコ字状の第1支持枠24、ユニット本体23を水平方向に回動可能に支持するL字状の第2支持体25、ユニット本体23を上下左右の各方向に回動させる駆動部材26、ユニット本体23の回動位置を検出する位置検出部材27,28から構成されている。
【0044】
ユニット本体23は円筒の両端が半球面で覆われたカプセル形状をなし、一方の半球面の中央に撮影レンズ231を露出させる円形の窓23cを有している。ユニット本体23内には中心軸上に上記窓23cに臨ましめて撮影レンズ231が配設され、この撮影レンズ231の後方位置に図略のCCDからなる撮像素子を有する撮像部が配設されている。
【0045】
撮影レンズ231は、例えば5mm〜15mmの範囲で焦点距離が変更可能なズームレンズで構成されている。撮影レンズ231は、図8に示すように、焦点距離を変更するための光軸方向に移動可能なレンズ231aを有し、このレンズ231aの位置を制御することにより焦点距離が制御されるようになっている。焦点距離調整用のレンズ231aは、電動モータ232(以下、ズームモータ232という。)のロータ232aに直結された棒状のネジ部材233に螺合されているナット部材234に固定されている。ズームモータ232を駆動すると、ネジ部材233が回転し、これによりナット部材234がネジ部材233の軸方向に直進運動してレンズ231aが光軸上を前後に移動する。
【0046】
また、レンズ231aにはズームモータ232により直進運動する当該レンズ231aの位置を検出するエンコーダ235が設けられている。エンコーダ235はネジ部材233の下方位置に設けられたコード板235aとナット部材234に固着され、先端がこのコード板235aに圧接された複数本の接片からなるブラシ235bとから構成されている。ズームモータ232の駆動によりレンズ231aが直進運動を行うと、ブラシ235bがコード板235a上を摺動して位置を示すコード符号の信号(例えば4ビット信号)が当該ブラシ235bから出力され、この信号をデコードすることによりレンズ231aの位置(すなわち、その位置に対応する焦点距離)が検出されるようになっている。なお、本実施の形態では5mm〜15mmの範囲において、1mm単位で焦点距離を検出することができるようになっている。
【0047】
撮像部はCCDのほか、このCCDから出力される画像信号(アナログ信号)に所定のアナログ信号処理を施す信号処理回路を有している。この信号処理回路には画像信号のサンプリングノイズを低減するCDS回路(相関二重サンプリング回路)や画像信号を増幅するAGC回路(自動ゲイン調整回路)が含まれている。
【0048】
ユニット本体23の円筒部の両側面の略中央にはピン23d,23eが突設され、これらのピン23d,23eをそれぞれ第1支持枠24の両端適所に穿設された孔24a,24b(図6参照)に遊嵌させてユニット本体23が第1支持枠24に垂直面内で回動可能に支持されている。また、ユニット本体23の円筒部の下側面の略中央と第1支持枠24の略中央とには図略の孔が穿設され、第2支持体25の長辺部25aの適所に突設されたピン25cをこれらの孔に遊嵌させてユニット本体23及び第1支持枠24が第2支持体25に水平面内で回動可能に支持されている。
【0049】
更に第2支持体25の短辺部25bの上部適所に駆動部材26が突設され、この駆動部材26の先端はユニット本体23の後側の半球面23bの中央に接触している。この駆動部材26は、図10に示すように四角柱状の弾性部材261の4つの側面にそれぞれPZT等の圧電素子262〜265を貼り付けるとともに、上端面に積層型圧電素子266と当接片267とを貼り付けたものである。当接片267にはユニット本体23の半球面23bに当接させるための突起267aが形成されている。
【0050】
図10に示すように駆動部材26に対して直交座標系xyzを設定すると、x軸方向に設けられた一対の圧電素子262,264は駆動部材26の先端部をxz面内で振動させる駆動源であり、y軸方向に設けられた一対の圧電素子263,265は駆動部材26の先端部をyz平面内で振動させる駆動源である。すなわち、圧電素子262と圧電素子264とに互いに位相が反転した正弦波電圧を印加すると、圧電素子262が収縮するときは圧電素子264が伸長して駆動部材26の先端部は+x方向に傾き、逆に圧電素子262が伸長するときは圧電素子264が収縮して駆動部材26の先端部は−x方向に傾くので、駆動部材26の先端はxz面内で振動する。同様に圧電素子263と圧電素子265とに互いに位相が反転した正弦波電圧を印加すると、同様のメカニズムで駆動部材26の先端はyz面内で振動する。
【0051】
また、積層型圧電素子266は駆動部材26をz方向に伸長させる駆動源である。すなわち、積層型圧電素子266に正弦波の電圧を印加すると、当該積層型圧電素子266は厚さ方向に伸縮するので、駆動部材26の先端はz軸方向に振動する。
【0052】
従って、図11に示すように圧電素子262と圧電素子264とを互いに位相が反転した正弦波の電圧e1,e2で駆動するとともに、積層型圧電素子266を圧電素子262に対する駆動電圧e1に対して90°位相が遅れた正弦波電圧e3で駆動すると、駆動部材26の先端はx軸方向の振動とz軸方向の伸縮とが合成された運動を行い、xz面内で楕円運動を行うことになる(図10の回転矢印参照)。圧電素子263と圧電素子265とを互いに位相が反転した正弦波の電圧で駆動するとともに、積層型圧電素子266を圧電素子263に対する駆動電圧に対して90°位相が遅れた正弦波電圧で駆動した場合も同様のメカニズムで駆動部材26の先端はyz面内で楕円運動を行うことになる。そして、積層型圧電素子266の駆動電圧の位相を圧電素子262又は263に対する駆動電圧に対して90°進めると、xz面内又はyz面内での楕円運動の回転方向は90°位相を遅らせた場合と逆になる。
【0053】
従って、いま、xz平面が水平平面に一致している場合、圧電素子262と圧電素子264とを互いに位相が反転した正弦波電圧e1,e2で駆動するとともに、積層型圧電素子266を圧電素子262に対する駆動電圧e1に対して90°位相が遅れた正弦波電圧e3で駆動すると、ユニット本体23の後端側の半球面23bに当接された駆動部材26の当接片267が水平面内で、例えば反時計方向に楕円運動を行うので、この楕円運動によりユニット本体23はピン25cを中心として水平面内を時計回りに回動し、積層型圧電素子266の駆動電圧e3の位相を圧電素子262の駆動電圧e1に対して90°進めると、駆動部材26の当接片267が水平面内で時計方向に楕円運動を行うので、この楕円運動によりユニット本体23はピン25cを中心として水平面内を反時計回りに回動する。
【0054】
一方、圧電素子263と圧電素子265とを互いに位相が反転した正弦波の電圧を駆動するとともに、積層型圧電素子266を圧電素子263に対する駆動電圧に対して90°位相が遅れた正弦波電圧(もしくは90°位相が進んだ正弦波電圧)で駆動すると、同様のメカニズムでユニット本体23はピン23d,23eを中心として垂直面内を時計回り(もしくは反時計回り)に回動する。
【0055】
ユニット本体23の正面から見て右側の側部には位置検出部材27が設けられ、下側の側部には位置検出部材28が設けられている(図7,図8参照)。位置検出部材27はユニット本体23のyz面内(垂直面内)における回動位置を検出するものであり、位置検出部材28はユニット本体23のxz面内(水平面内)における回動位置を検出するものである。
【0056】
位置検出部材27は、図12に示すように磁気ヘッド271及び円弧状のマグネットスケール272と図略の位置検出回路とで構成されている。マグネットスケール272はユニット本体23の右側の側部に固定される一方、磁気ヘッド271は第1支持枠24の端部の当該マグネットスケール272に対向する位置に、ユニット本体23が垂直面内で回動した際、磁気ヘッド271がマグネットスケール272上を相対的に移動するように取り付けられている。また、位置検出回路はカメラ本体2内の適所に設けられている。
【0057】
マグネットスケール272は3本のトラック272a,272b,272cを有し、外側の2本のトラック272a,272bには複数のS極とN極の磁極m1,m2が所定の角度ピッチΔα(例えばトラック272bにおいて、磁極m2間の距離dが200μmとなる角度ピッチ)で交互に、かつ、両トラック間で隣接する磁極m1,m2が同極性となるように着磁されている。
【0058】
トラック272aに形成された隣接するS極の磁極m1とN極の磁極m1との境界位置は円弧状のスケールの目盛位置に相当し、トラック272bに形成された隣接するS極の磁極m2とN極の磁極m2との境界位置も円弧状のスケールの目盛位置に相当している。同一スケールに相当する2本のトラック272a,272bを設けているのは、撮像ユニット22の回動方向を検出可能にするとともに、回動角αをΔα/2ピッチで検出できるようにするためである。すなわち、トラック272aの磁極m1の各境界位置又はトラック272bの磁極m2の各境界位置を検出することにより基準位置Rからの回転量(もしくは回動角α)が検出できるが、トラック272aの磁極m1間の境界位置の検出タイミングとトラック272bの磁極m2間の境界位置の検出タイミングとを電気的にπ/2だけ位相をずらせることによりΔα/2の角度ピッチで回転量が検出される。
【0059】
なお、基準位置Rは、撮像ユニット22の光軸Lが正面方向となる当該撮像ユニット22の位置を「中心位置」と呼ぶことにすると、撮像ユニット22が垂直面内で中心位置から下方向に40°回動した位置である。
【0060】
また、最も内側のトラック272cには一方端部の適所に一対のS極とN極の磁極m3が着磁されている。トラック272cに形成された一対の磁極m3はトラック272a,272bのスケールの基準位置Rを与えるものである。従って、これらの磁極m3もトラック272bとの間で隣接する磁極m2と同極性となる位置に着磁されている。
【0061】
磁気ヘッド271はマグネットスケール272の各トラック272a,272b,272cに形成された磁極m1,m2,m3をそれぞれ検出するための磁気抵抗素子271a,271b,271cを有している。磁気抵抗素子271aと磁気抵抗素子271cとはマグネットスケール272上で同一の回転位置(図12では回転位置n)となる位置に配置され、磁気抵抗素子271bは磁気抵抗素子271a及び磁気抵抗素子271cに対して角度ピッチΔαの1/2だけ時計回りにずれた位置に配置されている。磁気抵抗素子271aに対して磁気抵抗素子271bの位置をずらしているのは、トラック272aの磁極m1間の境界位置の検出タイミングとトラック272bの磁極m2間の境界位置の検出タイミングとを電気的にπ/2だけ位相をずらせるためである。
【0062】
図13は、位置検出回路の一実施の形態を示すブロック図である。
位置検出回路273は3個の波形整形回路273a,273b,273c、位相検出回路273d、信号変化検出回路273e及びカウンタ273fから構成されている。波形整形回路273a,273b,273cにはそれぞれ磁気抵抗素子271a,271b,271cの磁極検出信号が入力される。波形整形回路273a,273bの出力信号Sg1,Sg2はそれぞれ位相検出回路273dと信号変化検出回路273eとに入力され、波形整形回路273cの出力信号Sg3はカウンタ273fのリセット端子に入力されている。また、位相検出回路273dから出力される信号Sg4はカウンタ273fの+/−端子に入力され、信号変化検出回路273eから出力される信号Sg5はカウンタ273fのカウント端子に入力されている。そして、カウンタ273fのOUT端子から角度データ(すなわち、図12における基準位置Rからの回動角度αのデータ)が検出される。
【0063】
撮像ユニット22の回動動作により磁気ヘッド271がマグネットスケール272上を相対的に移動すると、磁気抵抗素子271a,271b,271cによりそれぞれトラック272a,272b,272cに形成された磁極m1,m2,m3による磁場が検出される。トラック272a,272bには磁極m1,m2がN,S交互に形成されているので、磁気抵抗素子271a,271bからは所定の周期で正弦波状に変化する信号が出力される。また、トラック272cには所定の位置にN,S一対の磁極m3が形成されているので、磁気抵抗素子271cからは当該磁気抵抗素子271cが磁極m3の形成位置を通過したとき、正弦波状に変化する信号が1周期分だけ出力される。
【0064】
波形整形回路273a,273b,273cはそれぞれ磁気抵抗素子271a,271b,271cから出力される正弦波状の信号を矩形波の信号に波形整形するものである。また、位相検出回路273dは波形整形回路273aの出力信号Sg1と波形整形回路273bの出力信号Sg2との位相関係(例えば信号Sg1の位相が信号Sg2の位相に対して進み位相か遅れ位相かの関係)を検出するものである。この位相関係の検出信号Sg4はマグネットスケール272に対する磁気ヘッド271の相対的な移動方向(すなわち、撮像ユニット22の回動方向)を示すものである。
【0065】
また、信号変化検出回路273eは出力信号Sg1,Sg2の信号変化(すなわち、例えばS極検出からN極検出に変化したこと)を検出するものである。この検出信号Sg5はマグネットスケール272に対する磁気ヘッド271の移動量(もしくは回転角α)を100μm単位(もしくはΔα/2単位)で検出したものである。
【0066】
磁気抵抗素子271aと磁気抵抗素子271bとは磁気ヘッド271において検出位置が互いに90°位相がずれる関係に設定されているので、図14に示すように、波形整形回路273aの出力信号Sg1と波形検出回路273bの出力信号Sg2とは位相がπ/2だけずれている。しかも磁気ヘッド271のマグネットスケール272に対する移動方向が時計回りか反時計回りかで信号Sg2に対する信号Sg1の位相の進遅関係は互いに逆になっている。すなわち、磁気ヘッド271がマグネットスケール272に対して時計回りに移動するときは、図14では磁気ヘッド271がマグネットスケール272aを右から左に移動することになるので、信号Sg2に対する信号Sg1の位相は遅れ位相となり(図14の基準位置Rの検出タイミング参照)、磁気ヘッド271がマグネットスケール272に対して反時計回りに移動すると(図14では磁気ヘッド271がマグネットスケール272aを左から右に移動すると)、信号Sg2に対する信号Sg1の位相は進み位相となる。
【0067】
従って、位相検出回路273bでは、例えば信号Sg2に対する信号Sg1の位相が進み位相のとき(撮像ユニット22が反時計回りに回動しているとき)、ハイレベルの信号が出力され、信号Sg2に対する信号Sg1の位相が遅れ位相のとき(撮像ユニット22が時計回りに回動しているとき)、ローレベルの信号が出力される。なお、位相検出回路273bの出力信号のハイ/ロー関係は逆になっていてもよい。
【0068】
また、信号変化検出回路273eは波形整形回路273a及び波形整形回路273bの出力信号Sg1,Sg2の立上り及び立下りを検出し、その検出毎にパルス信号を出力する。信号Sg1及び信号Sg2の信号変化を検出したパルス列はそれぞれ磁気ヘッド271のマグネットスケール272上の移動を200μmピッチで検出したものであるが、信号Sg1の信号変化を検出したパルス列と信号Sg2の信号変化を検出したパルス列とは検出タイミングが相互にπ/2だけずれているので、信号変化検出回路273eから出力されるパルス列信号Sg5は磁気ヘッド271のマグネットスケール272上の移動を100μmピッチで検出した(すなわち、撮像ユニット22の回動を角度Δα/2ピッチした)ものとなっている。
【0069】
従って、カウンタ273fでは波形整形回路273aから出力される基準位置Rの検出信号Sg3(信号変化の信号)でカウント値をリセットした後、カウント端子に入力されるパルス数Nmをカウントし、このカウント値Nmに角度Δα/2を乗して撮像ユニット22の基準位置Rからの回動角αが算出され、その角度データがOUT端子から出力される。また、+/−端子に入力される信号Sg4のレベルより撮像ユニット22の回動方向が判別され、その回動方向のデータもOUT端子から出力される。
【0070】
なお、位置検出部材28も位置検出部材27と同様の構成を有し、この位置検出部材28により上述と同様のメカニズムで撮像ユニット22の水平面内での回動位置が検出される。位置検出部材28における基準位置Rは撮像ユニット22が水平面内で中心位置から右方向に40°回動した位置である。
【0071】
上記構成において、メインスイッチ21がオンなると、記録モードが初期設定され、撮像ユニット22は、まず、図15の実線の状態及び図16に示すように自動的に中心位置(すなわち、撮影レンズ231が開口部5から露出し、その光軸Lが正面方向となる位置)に設定される。そして、記録モードにおいては、撮影者の光軸変更レバー9又は光軸変更ボタン19a〜19dの操作により撮像ユニット22が中心位置より上下左右の各方向にそれぞれおよそ±20°の範囲(上述の許容範囲に相当)内で任意の位置に設定されて、撮影が行われる。
【0072】
また、メインスイッチ21がオフになると、図15の一点鎖線で示すように、撮像ユニット22が中心位置に対して下方向におよそ40°回動した位置に自動的に設定され、開口部5がユニット本体23の前側の半球面23aの部分で遮蔽される。なお、中心位置に対して下方向以外でおよそ40°回動した位置に撮像ユニット22を設定して開口部5をユニット本体23の前側の半球面23aの部分で遮蔽するようにしてもよい。本実施の形態では、撮像ユニット22の駆動制御の容易性を考慮して位置検出部材27,28でそれぞれ基準位置Rが検出されるまで撮像ユニット22を回動させ、図17に示すように、右下方向に40°回動した位置に撮像ユニット22を設定するようにしている。
【0073】
このように開口部5にバリアやスライドカバーを設けることなくユニット本体23で開口部5を遮蔽するようにしているので、開口部2の遮蔽機構が簡単になるとともに、カメラ収納時はユニット本体23が確実にカメラ本体2内に格納されるので、簡単な構成で撮影レンズ231に汚れや埃が付着することがなく、撮影レンズ231を通して撮像部に不要光が進入することもないようになっている。
【0074】
なお、本実施の形態では圧電素子を撮像ユニット22の駆動部材に用いているが、ステッピングモータ等のモータを駆動部材としてもよい。この場合、例えば撮像ユニット22の垂直面内の回動軸と水平面内の回動軸とにそれぞれステッピングモータのロータを直結して直接、撮像ユニット22をモータ駆動してもよく、ステッピングモータの駆動力を歯車とカムとからなる駆動力切換伝達部材を介して上記回転軸に伝達して間接的に撮像ユニット22をモータ駆動してもよい。
【0075】
図18は、デジタルカメラ1の回路構成を示すブロック図である。
同図において、上述した部材と同一の部材には同一の番号を付している。ユニット本体23内の撮像部239は上述した撮像素子と信号処理回路とを備えた撮像部に相当するものである。また、ズーム駆動部237は撮影レンズ231内の焦点距離調節用のレンズ231aの駆動を制御するもので、上述のズームモータ232、ネジ部材233及びナット部材234からなる駆動機構に相当するものである。ズーム駆動部237は制御部213からの制御信号に基づいてズームモータ232を駆動することによりレンズ231aの位置を制御する。
【0076】
レンズ位置検出部238は焦点距離調節用のレンズ231aの位置を検出するもので、上述のエンコーダ235とこのエンコーダ235から出力されるコード符号を位置情報にデコードするデコーダとを有している。レンズ位置検出部238から出力される位置情報は制御部213に入力される。
【0077】
ユニット駆動部201は撮像ユニット22の回動動作を制御するもので、上述の駆動部材26とこの駆動部材26の駆動回路とを有している。ユニット駆動部201は制御部213からの制御信号に基づいて駆動部材26を駆動することにより撮像ユニット22の位置を制御する。
【0078】
ユニット位置検出部202は撮像ユニット22の回動位置を検出するもので、上述の位置検出部材27,28と位置検出回路とを有している。ユニット位置検出部202から出力される撮像ユニット22の回動方向及び回動量の情報は制御部213に入力される。
【0079】
FL制御部203はフラッシュ4の発光を制御するものである。FL制御部203は発光エネルギー蓄積回路及び発光タイミング制御回路を有し、制御部213からの制御信号に基づきフラッシュ4の発光を制御する。撮影が所定の低輝度撮影となるときは、制御部213から発光指令信号が出力され、FL制御部203は撮影時にフラッシュ4を自動発光させる。
【0080】
電源部204は電源電池及びDC/DCコンバータを含み、各種の電気回路に必要な電源を生成して供給するものである。電源部204も制御部213からの制御信号に基づいて電源供給を制御する。
【0081】
スイッチ群205はズーム操作ボタン6,7、レリーズボタン8及び光軸変更レバー9の操作を検出し、その検出信号を制御部213に入力するものである。
【0082】
スイッチ群205にはスイッチS1,S2,SZI,SZO,SU,SD,SR,SLが含まれている。各スイッチS1〜SLの内容は、以下のようになっている。
S1;レリースボタン8の半押状態を検出するスイッチである。
S2;レリースボタン8の全押状態を検出するスイッチである。
SZI;ズーム操作ボタン6の押込状態を検出するズームインスイッチである。
SZO;ズーム操作ボタン7の押込状態を検出するズームアウトスイッチである。
SU;光軸変更レバー9の上方向の傾動状態を検出するスイッチである。
SD;光軸変更レバー9の下方向の傾動状態を検出するスイッチである。
SR;光軸変更レバー9の右方向の傾動状態を検出するスイッチである。
SL;光軸変更レバー9の左方向の傾動状態を検出するスイッチである。
【0083】
A/D変換部206は撮像部239から出力される画像信号(アナログ信号)を、例えば8ビット構成のデジタル信号(以下、この画像信号を画像データという。)に変換するものである。
【0084】
タイミングジェネレータ207は撮像部239の撮像動作及びその撮像画像を構成する画素データの撮像部239及びA/D変換部206での時系列処理を行うためのタイミングパルスを生成するものである。タイミングジェネレータ207は基準クロックを有し、この基準クロックを分周して所定の周波数のタイミングパルスを生成し、それぞれ撮像部239及びA/D変換部206に入力する。また、CCDの積分動作の開始/終了のタイミング信号を生成し、撮像部239に入力する。タイミングジェネレータ207は制御部213からの制御信号に基づいてタイミング信号を生成し、そのタイミング信号を撮像部239及びA/D変換部206に入力する。
【0085】
信号処理部208は黒レベル補正回路、ホワイトバランス回路及びγ補正回路等の信号処理回路を有し、A/D変換部206から出力される画像データの黒レベルの補正、ホワイトバランス調整及び階調補正等の所定の信号処理を行うものである。
【0086】
RAM(Random Access Memory)209は信号処理部208から出力される画像データを一時的に記憶するものである。RAM209は撮像画像5枚分の記憶容量を有している。このようにRAM209に複数枚の撮像画像の記憶を可能にしているのは、上述した高精細撮影モードにおける部分画像の撮影を可能にするためである。そして、RAM209の記憶容量に余裕があるので、通常撮影モードにおいてはオートブラケット撮影を行うようにしている。
【0087】
記録/読出処理部211はRAM209に記憶された画像データのフラッシュメモリ212への記録、及びLCD表示部3に再生するためフラッシュメモリ212に記録された撮像画像の読出処理を行うものである。記録/読出処理部211は制御部213からの制御信号に基づいて画像の記録もしくは読出を行う。
【0088】
伸長/圧縮処理部210はRAM209に記憶された画像データをフラッシュメモリ212に記録する際の当該画像データの圧縮及びフラッシュメモリ212から読み出された画像データ(圧縮データ)の伸長を行うものである。伸長/圧縮処理部210は制御部213からの制御信号に基づき、例えばJPEG(Joint Photographic Coding Experts Group)方式により画像データの圧縮/伸長を行う。なお、圧縮方法はJPEG方式に限定されるものではなく、例えばMPEG(Moving Picture Coding Experts Group)方式などの他の圧縮方式を採用することができる。
【0089】
フラッシュメモリ212は不揮発性の書き換え可能な外部記憶媒体である。外部記憶媒体としてMD、PCカード、ハードディスクカード等の他の種類の記憶媒体を用いてもよい。フラッシュメモリ212はカメラ本体2に着脱可能になされている。
【0090】
なお、以下の説明では画像データのRAM209への一時記憶とフラッシュメモリ212への記憶とを区別するため、前者を「記憶」と呼び、後者を「記録」と呼ぶことにする。
【0091】
制御部213はデジタルカメラ1の撮影動作を集中制御するものである。制御部213はマイクロコンピュータからなり、上述したカメラ本体2及びLCD表示部3内の各部材の駆動を有機的に制御して撮影動作を制御する。また、制御部213は焦点調節機能(AF機能)及び露出制御機能(AE機能)を有し、RAM209に記憶された画像データを用いて合焦位置を検出するとともに、被写体輝度を検出し、この被写体輝度からシャッタスピードに相当するCCDの露光時間を設定する。
【0092】
制御部213は、撮影待機状態においては、所定の周期で撮像部239を駆動してライブビュー画像(ビデオ画像)をRAM209に取り込み、その取込画像を順次、LCD表示部3に出力してLCDパネル12に表示させる。すなわち、LCDパネル12にビューファインダ表示を行う。また、レリーズボタン8(又は18)により撮影が指示されると、焦点調節及びCCDの露光時間の設定をした後、この露光時間で被写体を撮影し、その撮影画像をフラッシュメモリ212に記録する。
【0093】
LCD表示部3における表示制御部301はLCDパネル12への画像表示を制御するものである。表示制御部301はLCDパネル12の画素数に対応した表示用の画像メモリを有し、制御部213から表示制御部301には再生用の画像データに間引き処理を施して画像データが転送される。表示制御部301は画像データを画像メモリに書き込むことにより再生画像のLCDパネル12への表示を行う。また、表示制御部301は画像メモリに書き込まれた画像データをビデオ信号に変換するD/A変換回路を有し、このD/A変換回路で生成されたビデオ信号はVIDEO信号端子に出力される。従って、このVIDEO端子を介してCRT等の表示装置を接続することによりLCDパネル12に表示される画像と同一の画像を当該表示装置に再生表示させることができる。
【0094】
スイッチ群302は記録/再生モードスイッチ13、撮影モードスイッチ14、ブラケット撮影確認ボタン15、ズーム操作ボタン16,17、レリーズボタン18及び光軸変更ボタン19a〜19d、消去ボタン20及びメインスイッチ21の操作を検出し、その検出信号をケーブル11を介して制御部213に入力するものである。
【0095】
スイッチ群302にはスイッチSM,S1,S2,SZI,SZO,SU,SD,SR,SL,SCHG,SDEL,SR/P,SMODが含まれている。各スイッチSM〜SMODの内容は、以下のようになっている。
SM;メインスイッチ21の押込操作を検出するスイッチである。
S1;レリースボタン18の半押状態を検出するスイッチである。
S2;レリースボタン18の全押状態を検出するスイッチである。
SZI;ズーム操作ボタン16の押込状態を検出するズームインスイッチである。
SZO;ズーム操作ボタン17の押込状態を検出するズームアウトスイッチである。
SU;光軸変更ボタン19aの上方向の傾動状態を検出するスイッチである。
SD;光軸変更ボタン19bの下方向の傾動状態を検出するスイッチである。
SR;光軸変更ボタン19cの右方向の傾動状態を検出するスイッチである。
SL;光軸変更ボタン19dの左方向の傾動状態を検出するスイッチである。
【0096】
SCHG;ブラケット撮影確認ボタン15の押込操作を検出するスイッチである。
SDEL;消去ボタン20の押込操作を検出するスイッチである。
SR/P;記録/再生モードスイッチ13の設定状態を検出するスイッチである。
SMOD;撮影モードスイッチ14の設定状態を検出するスイッチである。
【0097】
上記のように、本実施の形態ではカメラ本体2とLCD表示部3をケーブル11で電気的に接続し、カメラ本体2からLCD表示部3には電源と間引き処理した画像データを送信し、LCD表示部3からカメラ本体2にはスイッチの検出信号を送信するようにしているので、例えば撮像部とカメラ本体とをケーブルで接続する構成に比べてケーブルを伝送する信号の取り扱いが容易になるとともに、データ量が少なくなり、この分ケーブル11や信号を送受するための回路構成を簡単にすることができる。
【0098】
なお、記録/再生処理部211及びフラッシュメモリ212をLCD表示部3内に配置するようにしてもよい。この場合もカメラ本体2からLCD表示部3に送信される画像データは伸長/圧縮処理部210で圧縮されているので、データ量が少なく、ケーブル11や信号送受用の回路構成の簡素化が可能になる。また、本実施の形態ではカメラ本体2とLCD表示部3とをケーブルで接続しているが、赤外光や電波を用いてワイヤレス化するようにしてもよい。
【0099】
次に、デジタルカメラ1の撮影動作について、フローチャートを用いて具体的に説明する。
【0100】
図19,図20は、撮影動作のメインフローを示すフローチャートである。電源電池がカメラ本体2に装着されると、メインフローが実行される。
【0101】
まず、メインスイッチ21のオン/オフ状態が判別され(#2)、メインスイッチ21がオフになっていると(#2でNO)、図21に示すサブルーチン「SM OFF」の処理が実行され、撮像ユニット22が開口部5を遮蔽する所定の基準位置Rに設定される。
【0102】
「SM OFF」のサブルーチンに移行すると、撮像ユニット22が水平面内で正面方向に対して右方向に、位置検出部材28により基準位置Rが検出されるまで回動され(#40,#42のループ)、右方向の回動基準位置Rに到達すると、続いて、垂直面内で下方向に、位置検出部材27により基準位置Rが検出されるまで回動され(#44,#46のループ)、下方向の回動基準位置Rに到達すると(すなわち、撮像ユニット22の光軸方向が右下方向の所定方向に向く位置に到達すると)、撮像ユニット22の駆動が停止され、メインスイッチSMがオンになるまでその状態が保持される(#48のループ)。この状態は電源電池がカメラ本体2に装着され、メインスイッチ21がオフにされている状態(すなわち、デジタルカメラ1が放置もしくはケースに収納されている状態)である。上述のように、デジタルカメラ1がケースに収納され、撮影許可状態にない場合は、撮像ユニット22をカメラ本体2の開口部5を遮蔽する位置に設定しているので、CCDの遮光や撮影レンズ231の保護が好適に行われる。
【0103】
図19に戻り、メインスイッチ21がオンになっていると(#2でYES)、更に記録/再生モードスイッチ13の設定状態が判別され(#6)、再生モードになっていると(#6でNO)、図35,図36に示すサブルーチン「再生モード」の処理が実行され、記録画像のLCD表示部3への再生処理が行われる。なお、再生モードの処理については後述する。
【0104】
一方、記録モードになっていると(#6でYES)、図22に示すサブルーチン「撮像ユニットセット」の処理が実行され、撮像ユニット22が中心位置(すなわち、撮影レンズ231が開口部5から露出し、その光軸方向が正面方向となる位置)に設定される。この処理は、メインスイッチ21が投入されると、撮像ユニット22の光軸方向を正面方向にセットすることにより撮像ユニット22の駆動を容易かつ高精度で制御できるようにするとともに、撮影者が撮像ユニット22の調整を行うことなく直ちに通常の撮影動作ができるようにするものである。
【0105】
「撮像ユニットセット」のサブルーチンに移行すると、撮像ユニット22が水平面内で正面方向に対して右方向に、位置検出部材28により基準位置Rが検出されるまで回動され(#50,#52のループ)、右方向の回動基準位置Rに到達すると、続いて、垂直面内で下方向に、位置検出部材27により基準位置Rが検出されるまで回動される(#54,#56のループ)。この処理は、回動制御のために撮像ユニット22を上下左右方向の回動基準位置R(本実施の形態では右下隅の方向の所定位置)に設定する処理である。
【0106】
続いて、撮像ユニット22が下方向の回動基準位置Rに到達すると、撮像ユニット22は、更に水平面内で左方向に所定量だけ回動して水平面内の中心位置に設定され後(#58,#60のループ)、垂直面内で上方向に所定量だけ回動して垂直面内の中心位置に設定され(#62,#64のループ)、メインルーチンにリターンする。本実施の形態では、回動基準位置Rは中心位置から下方向に40°、右方向に40°回動した位置であるから、上記ステップ#58〜#64では撮像ユニット22は水平面内で左方向に40°回動された後、上方向に40°回動されて中心位置に設定される。
【0107】
図19に戻り、撮像ユニット22のセット処理が終了すると、各種スイッチS1,SZI,SZO,SU,SD,SR,SL,SMOD,SP/R,SMの変化の有無が判別される(#10〜#30)。
【0108】
いずれのスイッチも変化がなければ(#10〜#24でNO,#28,#30でYES)、表示タイマによる表示時間の計時が終了している否かが判別される(#32)。この表示タイマの計時は、後述する「S1 ON」の処理で撮影動作が行われたとき、その撮影画像をLCD表示部3に所定の時間だけ表示させる際の当該所定時間を計時するものである。なお、表示タイマは制御部213に内蔵されている。
【0109】
表示時間の計時が終了していると(#32でYES)、LCD表示部3への撮影画像の表示が停止され(#34)、各種スイッチS1〜SMの変化の有無の判別処理(以下、SW判別処理という。)を行うべくステップ#10に戻る。一方、表示時間の計時が終了していなければ(#32でNO)、フラグFIABの内容が判別され(#36)、フラグFIABが「0」にリセットされていれば(#36でNO)、SW判別処理を行うべくステップ#10に戻り、フラグFIABが「1」にセットされていれば(#36でYES)、更にスイッチSCHGがオンになっているか否かが判別される(#38)。ブラケット撮影確認ボタン15が操作されてスイッチSCHGがオンになっていなければ(#38でNO)、SW判別処理を行うべくステップ#10に戻り、スイッチSCHGがオンになっていれば(#38でYES)、図32に示すサブルーチン「画像選択」の処理に移行する。
【0110】
なお、フラグFIABはオートブラケット撮影における記録画像の変更、追加が可能であるか否かを判別するためのフラグで、「1」にセットされていると、ブラケット撮影確認ボタン15の操作に応じて記録画像の変更、追加が可能となり、「0」にリセットされていると、その記録画像の変更、追加は不可となる。従って、ステップ#38のスイッチSCHGの判断はブラケット撮影確認ボタン15の操作の有無の判断であり、サブルーチン「画像選択」の処理は記録画像の変更又は追加の対象となる画像を選択する処理である。「画像選択」の処理については後述する。
【0111】
SW判別処理において、記録/再生モードスイッチ13の設定状態が再生モードに切り換えられ(#28でNO)、もしくはメインスイッチSMがオフにされると(ステップ#30でNO)、ステップ#2に戻る。
【0112】
また、SW判別処理において、ズーム操作ボタン6,7(又は16,17)が操作されてスイッチSZI又はスイッチSZOがオンになると(#12又は#14でYES)、図23に示すサブルーチン「ズーム」の処理が実行され、撮影レンズ231のズーミング処理が行われる。
【0113】
「ズーム」のサブルーチンに移行すると、ズームインスイッチSZI又はズームアウトスイッチSZOのオン状態が継続しているが否かが判別される(#70,#86)。ズームインスイッチSZIがオン状態になっていれば(#70でYES)、更に撮影モードスイッチ14により高精細撮影モードが設定されているか否かが判別される(#72)。
【0114】
通常撮影モードが設定されていれば(#72でNO)、撮影レンズ231の焦点距離調節用のレンズ231aがテレ側の終端位置にあるか否かが判別され(#74)、焦点距離調節用のレンズ231aがテレ側の終端位置になければ(#74でNO)、焦点距離調節用のレンズ231aがテレ側に駆動され(#76,#70〜#76のループ)、焦点距離調節用のレンズ231aがテレ側の終端位置に設定された時点でレンズ231aの駆動が停止される(#74でYES,#78)。すなわち、通常撮影モードではズーム操作ボタン6(又は16)が押し続けられると、撮影レンズ231の焦点距離調節用のレンズ231aをテレ側に移動してズームインの動作が行われる。そして、焦点距離調節用のレンズ231aがテレ側の終端位置に到達してもなおズーム操作ボタン6(又は16)が押し続けられていると、レンズ231aは当該終端位置で停止され、撮影レンズ231はテレ端(本実施の形態ではf=15mm)に固定される。
【0115】
一方、高精細撮影モードが設定されていれば(#72でYES)、撮影レンズ231の焦点距離fが8mmになっているか否かが判別され(#80)、撮影レンズ231の焦点距離fが8mmよりも小さければ(#80でNO)、撮影レンズ231の焦点距離調節用のレンズ231aがテレ側に駆動され(#82,#70,#72,#80,#82のループ)、撮影レンズ231の焦点距離fが8mmに到達した時点でレンズ231aの駆動が停止される(#80でYES、#84)。すなわち、高精細撮影モードでは撮影レンズ231の焦点距離fは8mm以下に制御される。
【0116】
高精細撮影モードでのズームイン操作を撮影レンズ231の焦点距離fが8mm以下となるように制限しているのは、本実施の形態では下記表1に示すように被写体Qの部分画像GA〜GD(図5参照)を撮影するときの焦点距離f2を被写体Qの全体画像Gを撮影する焦点距離f1の1.8〜1.9倍としているので、最大焦点距離f=15mmの略1/2に制限することにより最初に撮影される被写体Qの全体画像Gの撮影制御を容易かつ確実にするためである。
【0117】
【表1】

Figure 0003736129
【0118】
なお、表1は全体画像を撮影するときの代表的な4個の焦点距離f1及びそのときの水平及び垂直の各方向の画角θh1,θv1と各焦点距離f1に対する部分画像を撮影するときの焦点距離f2及びそのときの水平及び垂直方向の画角θh2,θv2、部分画像を撮影するときの光軸Lの方向の正面方向からの変位量Δθh,Δθv及び焦点距離比K(=f2/f1)を示したものである。なお、8mm以下の代表値以外の任意の焦点距離f1についても同様に算出、設定することができる。
【0119】
本実施の形態では図5に示すように、被写体全体を4分割しているので、各部分画像GA〜GDの撮像時の焦点距離f2は全体画像Gの撮像時の焦点距離f1の略2倍となるが、境界部分で画像を重複させて貼合わ合成をし易くすることや撮影時のカメラブレにより貼合合成位置の画像の欠如を防止することを考慮して焦点距離比K(=f2/f1)は2倍よりも小さくしている。
【0120】
同表において、水平画角θhi,垂直画角θvi(i=1,2)はそれぞれ図24(a),(b)に示す角度である。本実施の形態では、撮像素子として4.8mm×3.6mmのCCD239aを用いているので、水平画角θhi,垂直画角θviはそれぞれθhi=2・tan~1(2.4/fi)、θvi=2・tan~1(1.8/fi)で算出される。また、光軸変位量Δθh,Δθvは、図25に示すように、それぞれCCD239aを傾けた場合の水平方向の傾斜角と垂直方向の傾斜角である。
【0121】
図23に戻り、ズームアウトスイッチSZOがオン状態になっていれば(#70でNO,#86でYES)、撮影レンズ231の焦点距離調節用のレンズ231aがワイド側の終端位置にあるか否かが判別され(#88)、焦点距離調節用のレンズ231aがワイド側の終端位置になければ(#88でNO)、焦点距離調節用のレンズ231aがワイド側に駆動され(#90,#86〜#90のループ)、焦点距離調節用のレンズ231aがワイド側の終端位置に設定された時点でレンズ231aの駆動が停止される(#88でYES,#92)。
【0122】
すなわち、ズーム操作ボタン7(又は17)が押し続けられると、撮影レンズ231の焦点距離調節用のレンズ231aをワイド側に移動してズームアウトの動作が行われる。そして、焦点距離調節用のレンズ231aがワイド側の終端位置に到達してもなおズーム操作ボタン7(又は17)が押し続けられていると、レンズ231aは当該終端位置で停止され、撮影レンズ231はワイド端(本実施の形態ではf=5mm)に固定される。なお、ズームアウト操作では撮影レンズ231の焦点距離fが8mmを超えることはないので、高精細撮影モードにおけるズームイン操作の場合のような制限は設けられていない。
【0123】
図19に戻り、SW判別処理において、光軸変更レバー9もしくは光軸変更ボタン19a〜19dが操作されてスイッチSU〜SLのいずれかがオンになると(#16〜#22のいずれかがYES)、図26,図27に示すサブルーチン「撮像ユニット駆動」の処理が実行され、撮像ユニット22の光軸方向の変更処理が行われる。
【0124】
「撮像ユニット駆動」のサブルーチンに移行すると、光軸変更レバー9(もしくは光軸変更ボタン19a)の操作によりスイッチSUがオン状態になっているか否かが判別される(#100)。
【0125】
スイッチSUがオン状態になっていれば(#100でYES)、更に撮影モードスイッチ14により高精細撮影モードが設定されているか否かが判別される(#102)。高精細撮影モードが設定されていれば(#102でYES)、撮像ユニット22が中心位置から上方向に10°未満の角度Δθvで変位した位置にあるか否かが判別され(#104)、角度ΔθvがΔθv<10°であれば(#104でYES)、撮像ユニット22が垂直面内で上方向に駆動され(#108、#100〜#104,#108のループ)、撮像ユニット22が中心位置から上方向に10°変位した位置に達すると(#104でNO)、撮像ユニット22の駆動が停止される(#110)。すなわち、高精細撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19a)の操作に応じて撮像ユニット22が中心位置から10°の範囲内で上方向に駆動される。
【0126】
一方、通常撮影モードが設定されていれば(#102でNO)、撮像ユニット22が中心位置から上方向に20°未満の角度Δθvで変位した位置にあるか否かが判別され(#106)、角度ΔθvがΔθv<20°であれば(#106でYES)、撮像ユニット22が垂直面内で上方向に駆動され(#108、#100,#102,#106,#108のループ)、撮像ユニット22が中心位置から上方向に20°変位した位置に達すると(#106でNO)、撮像ユニット22の駆動が停止される(#110)。すなわち、通常撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19a)の操作に応じて撮像ユニット22が中心位置から20°の範囲内で上方向に駆動される。
【0127】
また、スイッチSUがオフ状態であるか、オン状態からオフ状態になると(#100でNO)、撮像ユニット22の回動動作は停止される(#112)。
【0128】
続いて、光軸変更レバー9(もしくは光軸変更ボタン19b)の操作によりスイッチSDがオン状態になっているか否かが判別され(#114)、スイッチSUの場合と同様の撮像ユニット22の回動動作の制御が行われる(#114〜#126)。すなわち、高精細撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19b)の操作に応じて撮像ユニット22が中心位置から10°の範囲内で下方向に駆動され(#114,#116,#118,#122,#124)、通常撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19b)の操作に応じて撮像ユニット22が中心位置から20°の範囲内で下方向に駆動される(#114,#116,#120,#122,#124)。そして、スイッチSDがオフ状態であるか、オン状態からオフ状態になると(#114でNO)、撮像ユニット22の回動動作は停止される(#126)。
【0129】
なお、高精細撮影モードにおける撮像ユニット22の上下方向の駆動範囲をΔθv<10°に制限しているのは、表1に示したように、f1=8mmにおける部分画像撮影時の撮像ユニット22の光軸Lの変位量|Δθv|が10°を超えることがないからである。また、通常撮影モードにおける撮像ユニット22の上下方向の駆動範囲をΔθv<20°に制限しているのは、変位量|Δθv|を20°以上にすると、撮像ユニット22の撮影レンズ231がカメラ本体2の開口部5に露出しなくなり、撮影できなくなるからである。従って、両撮影モードにおいて、実質的に撮影に必要でない範囲については撮像ユニット22の垂直面内の回動を制限して無意味な操作をさせないようにしている。
【0130】
続いて、光軸変更レバー9(もしくは光軸変更ボタン19c)の操作によりスイッチSLがオン状態になっているか否かが判別される(#128)。スイッチSLがオン状態になっていれば(#128でYES)、更に撮影モードスイッチ14により高精細撮影モードが設定されているか否かが判別される(#130)。
【0131】
高精細撮影モードが設定されていれば(#130でYES)、撮像ユニット22が中心位置から左方向に7°未満の角度Δθhで変位した位置にあるか否かが判別され(#132)、角度ΔθhがΔθh<7°であれば(#132でYES)、撮像ユニット22が水平面内で左方向に駆動され(#136、#128〜#132,#136のループ)、撮像ユニット22が中心位置から左方向に7°変位した位置に達すると(#132でNO)、撮像ユニット22の駆動が停止される(#138)。すなわち、高精細撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19c)の操作に応じて撮像ユニット22が中心位置から7°の範囲内で左方向に駆動される。
【0132】
一方、通常撮影モードが設定されていれば(#130でNO)、撮像ユニット22が中心位置から左方向に20°未満の角度Δθhで変位した位置にあるか否かが判別され(#134)、角度ΔθhがΔθh<20°であれば(#134でYES)、撮像ユニット22が水平面内で左方向に駆動され(#136、#128,#130,#134,#136のループ)、撮像ユニット22が中心位置から左方向に20°変位した位置に達すると(#134でNO)、撮像ユニット22の駆動が停止される(#138)。すなわち、通常撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19c)の操作に応じて撮像ユニット22が中心位置から20°の範囲内で左方向に駆動される。
【0133】
また、スイッチSLがオフ状態であるか、オン状態からオフ状態になると(#128でNO)、撮像ユニット22の回動動作は停止される(#140)。
【0134】
続いて、光軸変更レバー9(もしくは光軸変更ボタン19d)の操作によりスイッチSRがオン状態になっているか否かが判別され(#142)、スイッチSLの場合と同様の撮像ユニット22の回動動作の制御が行われる(#142〜#154)。すなわち、高精細撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19d)の操作に応じて撮像ユニット22が中心位置から7°の範囲内で右方向に駆動され(#142〜#146,#150,#152)、通常撮影モードにおいては光軸変更レバー9(もしくは光軸変更ボタン19d)の操作に応じて撮像ユニット22が中心位置から20°の範囲内で右方向に駆動される(#142,#144,#148,#150,#152)。そして、スイッチSRがオフ状態であるか、オン状態からオフ状態になると(#142でNO)、撮像ユニット22の回動動作は停止される(#154)。
【0135】
なお、高精細撮影モードにおける撮像ユニット22の左右方向の駆動範囲をΔθv<7°に制限しているのは、表1に示したように、f1=8mmにおける部分画像撮影時の撮像ユニット22の光軸Lの変位量|Δθh|が7°を超えることがないからである。また、通常撮影モードにおける撮像ユニット22の左右方向の駆動範囲をΔθv<20°に制限しているのは、変位量Δθvを20°以上にすると、撮像ユニット22の撮影レンズ231がカメラ本体2の開口部5に露出しなくなり、撮影できなくなるからである。従って、両撮影モードにおいて、水平面内においても実質的に撮影に必要でない範囲については撮像ユニット22の回動を制限して無意味な操作をさせないようにしている。
【0136】
図19に戻り、SW判別処理において、レリーズボタン8(又は18)が半押しされ、スイッチS1がオンになっていると(#10でYES)、図28,図29に示すサブルーチン「S1 ON」の処理が実行され、撮影処理が行われる。
【0137】
「S1 ON」のサブルーチンに移行すると、まず、フラグFIABが「0」にリセットされる(#160)。続いて、撮像部239による撮像動作が行われ(#162)、撮像部239から出力される画像信号はA/D変換部206で画像データに変換された後、信号処理部208で所定の信号処理が行われてRAM209に一時、記憶される(#164)。RAM209に一時記憶された画像データは直ちに読み出され、間引き処理が行われてケーブル11を介してLCD表示部3の表示制御部301に転送され、LCDパネル12に表示される(#166)。すなわち、LCD表示部3にライブビュー表示が行われる。
【0138】
続いて、RAM209に一時記憶された画像データを用いて露出調整が行われる(#168)。本実施の形態に係るデジタルカメラ1は絞り固定(例えばAv=4.0〔Ev〕)で、CCD239aの露光時間(電荷蓄積時間)SSを制御することにより露出制御が行われるようになっている。そして、この露光時間SSはRAM209に一時記憶された画像データを用いて被写体輝度Bv(例えばGの色成分の画素データの平均レベル値)を算出し、この被写体輝度Bvに基づいて設定されるようになっている。すなわち、ライブビュー表示においては、予め設定された所定の周期(例えば1/30秒)で画像が撮像されるので、撮像画像毎に被写体輝度Bvを算出するとともに、被写体輝度Bvが適正範囲であるか否かを判別し、適正範囲を超えて明かるければ、現在の露光時間SSを1段階短くし、適正範囲を超えて暗ければ、現在の露光時間SSを1段階長くして次の撮像動作を行ことにより被写体輝度Bvが適正範囲となる露光時間SSが設定される。
【0139】
表2は露光時間SSを制御するためのテーブルである。表2において、網掛けの露光時間SS(11ms)はカメラ起動時に設定される初期設定値である。また、露光時間SSの最小値は0.25ms、最大値は32msである。
【0140】
【表2】
Figure 0003736129
【0141】
また、表3は被写体輝度Bvに基づく露光時間SSの調整方法の一例を示すものである。
【0142】
表3において、被写体輝度Bvの値は8ビットデータで表したものである。輝度レベルを「高」、「中」、「低」の3つのレベル範囲に分け、Gの色成分の画素データの平均値が「中」のレベル範囲(85〜169)にあるときは適正範囲として露光時間SSは変更せず、「低」のレベル範囲(0〜84)にあるときは露光アンダーとして露光時間SSを1段階長くし、「高」のレベル範囲(170〜255)にあるときは露光オーバーとして露光時間SSを1段階短くするようにしている。なお、露光時間SSが32msで被写体輝度Bvが「低」のレベルのとき(Bv≦84のとき)は、フラッシュが自動発光される。
【0143】
【表3】
Figure 0003736129
【0144】
従って、スイッチS1がオンになると、露光時間SSが初期値(11ms)に設定されて最初の撮像が行われ、この撮像画像により算出された被写体輝度値Bvに基づいて露光時間SSの調整が行われる。すなわち、170≦Bv≦255であれば、露光時間SSが8.0〔ms〕に変更され、0≦Bv≦84であれば、露光時間SSが16.0〔ms〕に変更され、85≦Bv≦169であれば、露光時間SSは変更されない。
【0145】
続いて、スイッチS2がオンになったか否かが判別され(#170)、スイッチS2がオフ状態であれば(#170でNO)、スイッチS1のオン状態が継続されている限り(#172でYES)、ステップ#162に戻り、撮像、表示及び露出調整の各動作が繰り返される(#162〜#172のループ)。そして、この間にスイッチS2がオンになることなくスイッチS1がオフになると(#172でNO)、LCD表示部3でのライブビュー表示が停止され(#174)、メインフローのSW判別処理にリターンする。
【0146】
一方、ライブビュー表示において、レリーズボタン8(又は18)が全押しされてスイッチS2がオンになると(#170でYES)、ステップ#176に移行し、撮像及び撮像画像のフラッシュメモリ212への記録が行われる。
【0147】
すなわち、直前に調整された露光時間SSで撮像部239により撮像動作が行われ(#176)、撮像部239から出力される画像信号はA/D変換部206で画像データに変換された後、信号処理部208で所定の信号処理が行われてRAM209に一時、記憶される(#178)。なお、RAM209は、上述のように5枚分の記憶容量を有しているので、画像データは1枚目の画像記憶エリアに記憶される。
【0148】
RAM209に一時記憶された画像データは直ちに読み出され、間引き処理が行われてケーブル11を介してLCD表示部3の表示制御部301に転送され、LCDパネル12に表示される(#180)。すなわち、撮影者が撮像画像をモニタすることができるようにLCD表示部3に撮像画像が表示される。
【0149】
続いて、撮影モードの設定状態が判別され(#182)、高精細撮影モードが設定されていると(#182でYES)、ステップ#184〜#216,#232で高精細撮影処理が行われ、通常撮影モードが設定されていると(#182でNO)、ステップ#218〜#232で通常撮影処理が行われる。
【0150】
高精細撮影処理に移行すると、撮影レンズ231が所定の焦点距離比K(=f2/f1)でズームインされ(#184、表1参照)、図5において、左上(部分画像GA)、右上(部分画像GB)、右下(部分画像GD)及び左下(部分画像GC)の順で撮影動作が4回繰り返される(#186〜#210)。
【0151】
すなわち、各部分画像GA〜GDに対する撮像ユニット22の駆動方向及び駆動量が決定され(#186)、まず、撮像ユニット22が部分画像GAの撮像方向(図5のaの方向)に駆動される(#188)。そして、撮像部239により部分画像GAの撮像が行われ(#190)、この撮像画像はA/D変換部206で画像データに変換され、信号処理部208で所定の信号処理が行われた後、RAM209の2枚目の画像記憶エリアに一時、記憶される(#192)。
【0152】
続いて、撮像ユニット22が部分画像GBの撮像方向(図5のbの方向)に駆動され(#194)、撮像部239により当該部分画像GBの撮像が行われ、この撮像画像が所定の信号処理の後、RAM209の3枚目の画像記憶エリアに一時、記憶される(#196,#198)。以下、同様に撮像ユニット22が部分画像GD,GCの撮像方向(図5のd,cの方向)に順次、駆動され(#200,#206)、それぞれ撮像部239により当該部分画像GD,GCの撮像が行われ(#202,#208)、その撮像画像が所定の信号処理の後、RAM209の4枚目と5枚目の画像記憶エリアにそれぞれ一時、記憶される(#204,#210)。
【0153】
そして、全ての部分画像GA〜GDの撮像が終了すると、撮像ユニット22は中心位置に戻され(#212)、RAM209に一時、記憶された5枚の画像データ(最初に撮影された被写体全体の画像Gと4枚の部分画像GA〜GDの画像データ)は伸長/圧縮処理部210で所定の圧縮処理が行われた後、記録/読出処理部211を介してフラッシュメモリ212に記録される。このとき、全体画像G及び部分画像GA〜GDはそれぞれ独立の画像ファイルが作成されてフラッシュメモリ212に記録される(#214)。また、撮影レンズ231の焦点距離が元の焦点距離に(すなわち、部分画像撮影用の焦点距離f2から全体画像撮影用の焦点距離f1に)ズームアウトされる(#216)。なお、撮影画像の画像データの記録の際には当該撮影画像に関する非画像データ(例えば撮影モードに関する情報や撮影日等の情報)も併せて記録される。
【0154】
図30は、上述の高精細撮影モードでの撮影処理(ステップ#160〜#170,#176〜#216の処理)を模式的に示した図である。
【0155】
同図において、全体画像G内のA,B,C,Dはそれぞれ部分画像GA〜GDに含まれる画像である。また、表示画像はLCD表示部3に表示される画像を示し、記憶画像はRAM209に一時記憶される画像を示している。
【0156】
同図に示すように、スイッチS1がオン状態では被写体像全体が撮像され、その撮像画像がLCD表示部3に表示される。そして、レリーズが指示されると、被写体の全体画像Gが取り込まれ、この全体画像GはRAM209に記憶されるとともに、LCD表示部3にモニタ表示される。続いて、部分画像GA〜GDがGA,GB,GD,GCの順に取り込まれ、各部分画像GA〜GDはそれぞれRAM209に記憶される。一方、LCD表示部3には全体画像Gのモニタ表示が継続され、部分画像GA〜GDのモニタ表示は行われない。このように部分画像GA〜GDのモニタ表示を行わないようにしているのは、高精細撮影モードでは撮影者は被写体全体を撮影し、その撮影画像(被写体の全体画像)のモニタを希望しているのが通常だからである。
【0157】
図31は、フラッシュメモリ212に記録される全体画像G及び部分画像GA〜GDの画像ファイルの構成を示す図である。
【0158】
各画像ファイルはヘッダ部AR1と画像記録部AR2とからなり、ヘッダ部AR1には撮影モードに関する情報、撮影日、画像のタイトル、露光時間SS等の記録画像に付随する各種情報(非画像データ)が記録され、画像記録部AR2には撮像画像の画像データが記録される。
【0159】
そして、撮影モードに関する情報としては、下記表4に示すように撮影モード情報、画像の種類情報、画像の位置情報、コマ番号及び焦点距離の情報がビットデータで記録される。
【0160】
【表4】
Figure 0003736129
【0161】
撮影モード情報は通常撮影モードと高精細撮影モードとを識別する情報である。撮影モード情報は1ビットデータで構成され、例えば「1」がセットされていれば、高精細撮影モードを示し、「0」がセットされていれば、通常撮影モードを示す。画像の種類情報は高精細撮影モードで撮影される5枚の画像の全体画像と部分画像とを識別する情報である。
【0162】
画像の種類情報も1ビットデータで構成され、例えば「1」がセットされていれば、全体画像を示し、「0」がセットされていれば、部分画像を示す。位置情報は、部分画像が全体画像のどの位置に対応するかを示す情報である。本実施の形態では全体を4つに分割しているので、位置情報は2ビットデータで構成され、全体画像に対する左上、右上、左下及び右下の各位置に対して、例えば「00」,「01」,「10」,「11」のビットデータが割り当てられている。なお、このビットデータの割当て方法は任意に行うことができる。
【0163】
コマ番号は部分画像が何番の全体画像に付随するかを識別する情報である。各撮影画像には4ビットデータからなるコマ番号が付与されるようになっており、表4では全体画像Gのコマ番号が「####」であるので、それに関連する部分画像GA〜GDに対するコマ番号も「####」となっている。焦点距離の情報は撮影時の撮影レンズ231の焦点距離を示すものである。高精細撮影モードでは、表1に示したように、全体画像は焦点距離f1で撮像され、部分画像は焦点距離f2(=K・f1)で撮像されるので、各画像ファイルには対応する焦点距離f1又は焦点距離f2が、例えば4ビットデータで記録される。
【0164】
上記のように、フラッシュメモリ212には撮影モードに関係なく全ての画像データは独立した画像ファイルで記録されるが、各画像ファイルにはヘッダ部AR1に撮影モードに関する情報を記録しているので、高精細撮影モードで撮影された部分画像Gi(i=A,B,C,D)であってもこれに関連する他の部分画像Gi及び全体画像Gとの関係が不明確になることはなく、例えばコンピュータシステムにより部分画像GA〜GDを合成して全体画像G′を作成する場合にも確実に画像を検索することができるようになっている。
【0165】
図29に戻り、撮影レンズ231の焦点距離のズームアウトが終了すると、LCD表示部3への撮像画像のモニタ表示の時間をカウントする表示タイマの計時が開始され(#232)、SW判別処理(図19参照)に戻る。
【0166】
一方、ステップ#182で通常撮影処理に移行すると、撮影動作が2回連続して行われ(#218,#222)、各撮像画像がA/D変換部206で画像データに変換され、信号処理部208で所定の信号処理が行われた後、RAM209の2枚目と3枚目の画像記憶エリアにそれぞれ一時、記憶される(#220,#224)。この連続撮影は上述したオートブラケット撮影である。
【0167】
続いて、撮像ユニット22が中心位置に戻され(#226)、RAM209に一時、記憶された3枚の画像データのうち、1枚目の画像記憶エリアに記憶された画像データが伸長/圧縮処理部210で所定の圧縮処理が行われた後、記録/読出処理部211を介してフラッシュメモリ212に独立の画像ファイルとして記録される(#228)。そして、フラグFIABが「1」にセットされ(#230)、表示タイマの計時が開始された後(#232)、SW判別処理(図19参照)に戻る。
【0168】
フラグFIABのセットは、上述したステップ#38で図32に示すサブルーチン「画像選択」に移行し、ブラケット撮影確認ボタン15の操作に基づくフラッシュメモリ212への記録画像の変更もしくは追加を可能にするものである。
【0169】
ここで、サブルーチン「画像選択」の処理について説明する。
「画像選択」のサブルーチンに移行すると、光軸変更レバー9(もしくは光軸変更ボタン19a〜19d)の操作によりスイッチSU,SD,SL,SRのいずれかがオンになったか否かが判別される(#240,#244,#248,#254)。いずれのスイッチもオンになっていなければ、ブラケット撮影確認ボタン15の操作によりスイッチSCHGがオンになっているか否かが判別され(#258)、スイッチSCHGがオンになっていなければ(#258でNO)、ステップ#240に戻り、スイッチSU,SD,SL,SRの変化判別が繰り返され、スイッチSCHGがオンになっていれば(#258でYES)、SW判別処理(図19参照)にリターンする。
【0170】
スイッチSU,SD,SL,SRの変化判別でスイッチSUがオンになっていれば(#240でYES)、LCD表示部3に表示されている画像が1つ前の撮像画像に変更され(#242)、スイッチSDがオンになっていれば(#244でYES)、LCD表示部3に表示されている画像が1つ後の撮像画像に変更される(#256)。
【0171】
また、スイッチSLがオンになっていれば(#248でYES)、フラッシュメモリ212に記録された1枚目の画像ファイルが消去され(#250)、その画像ファイルにLCDパネル12に表示されている撮影画像が記録される(#252)。更に、スイッチSRがオンになっていれば(#254)、フラッシュメモリ212に記録された1枚目の画像ファイルに追加してLCDパネル12に表示されている撮影画像が新たに記録される(#256)。
【0172】
図33は、上述の「画像選択」の処理を模式的に表した図である。
通常撮影モードでの撮影終了時は、図33に示すように、RAM209に記憶された最初の撮像画像(1枚目の画像)がLCDパネル12にモニタ表示されるとともに、フラッシュメモリ212に記録されている(#180,#228の処理参照)。この状態で光軸変更レバー9の下方操作(もしくは光軸変更ボタン19b)によりスイッチSDがオンになると、その度に白抜き矢印に示すように1枚目→2枚目→3枚目→1枚目の順(降順)にLCDパネル12に表示される画像が変更される。一方、光軸変更レバー9の上方操作(もしくは光軸変更ボタン19a)によりスイッチSUがオンになると、その度に黒塗り矢印に示すように1枚目→3枚目→2枚目→1枚目の順(昇順)にLCDパネル12に表示される画像が変更される。
【0173】
また、例えばLCDパネル12に2枚目の撮影画像を表示させた状態で光軸変更レバー9の左方操作(もしくは光軸変更ボタン19c)によりスイッチSLがオンになると、フラッシュメモリ212に記録された1枚目の撮影画像が消去され、それに換えて2枚目の撮影画像がフラッシュメモリ212に記録される。また、例えばLCDパネル12に3枚目の撮影画像を表示させた状態で光軸変更レバー9の右方操作(もしくは光軸変更ボタン19d)によりスイッチSRがオンになると、フラッシュメモリ212に記録された1枚目の撮影画像に加えて3枚目の撮影画像もフラッシュメモリ212に記録される。
【0174】
上記のように、通常撮影モードでは、撮影者のレリーズ動作が1回であっても撮影は3回連続的に行われ、それらの撮像画像がRAM209に一時記憶されるとともに、最初に撮影された画像がフラッシュメモリ212に記録される。そして、撮影者がブラケット撮影確認ボタン15を操作することなく次のレリーズ動作を行うと、再度、撮影が3回連続的に行われ、それらの撮影画像がRAM209に一時記憶されるとともに、最初に撮影された画像がフラッシュメモリ212に記録される。
【0175】
従って、撮影者はブラケット撮影確認ボタン15を操作することなくレリーズボタン8(又は18)を操作する限り、最初の撮影された画像がフラッシュメモリ212に記録されるので、オートブラケット撮影機能は実質的に潜在化し、通常の撮影動作(1回のレリーズ動作で1枚の撮影)と同様の処理が行われる。一方、撮影終了後に撮影者がブラケット撮影確認ボタン15を操作して画像変更可能な確認モードに入ると、オートブラケット撮影機能が顕在化し、撮影者の光軸変更レバー9(もしくは光軸変更ボタン19a〜19d)の操作に応じてフラッシュメモリ212の記録内容を変更又は追加することができるようになる。
【0176】
すなわち、撮影者は撮影終了直後にオートブラケット撮影機能の利用を選択することができるので、必要に応じて撮影結果の良否を判別し、その判別結果に応じてより良好な撮影画像に変更もしくは追加することができるので、撮影の失敗が少なく、操作性が向上する。
【0177】
なお、本実施の形態では、オートブラケット撮影において、単純に3回だけ連続撮影を行うようにしているが、各撮影で露光時間SSを微妙に変化させて連続撮影を行うようにしてもよい。また、各撮影で撮影レンズ231の焦点位置を微妙に変化させたり、焦点距離を僅かに変化させたり、撮像ユニット22の光軸方向を変化させて連続撮影を行うようにしてもよい。また、RAM209の容量が5枚まで記憶可能であるので、5回連続撮影を行い、これらの撮影画像から記録画像を選択できるようにしてもよい。
【0178】
図20に戻り、SW判別処理において、撮影モードスイッチ14が操作され、高精細撮影モードが設定されていると(#24でYES)、図34に示すサブルーチン「レンズチェック」の処理が実行され、撮像ユニット22の位置及び撮影レンズ231の焦点距離の調整処理が行われる(#26)。
【0179】
「レンズチェック」のサブルーチンに移行すると、撮影レンズ231の焦点距離fが8mmを超えているか否かが判別され(#260)、f>8mmであれば(#260でYES)、撮影レンズ231の焦点距離調整用の撮影レンズ231aがf=8mmとなる位置までワイド側に駆動される(#262,#264,#266)。
【0180】
f≦8mmであれば(#260でNO)、撮像ユニット22の位置が水平面内で中心位置を含む垂直面に対して±7°以上ずれているか否かが判別され(#268)、±7°以上の位置ずれがあれば(#268でYES)、撮像ユニット22を水平面内に駆動して中心位置を含む垂直面内に設定される(#270,#272,#274)。
【0181】
続いて、撮像ユニット22の位置が垂直面内で中心位置を含む水平面に対して±10°以上ずれているか否かが判別され(#276)、±10°以上の位置ずれがあれば(#276でYES)、撮像ユニット22を垂直面内に駆動して中心位置を含む水平面内に設定されて(#278,#280,#282)、メインフローにリターンする。
【0182】
このレンズチェックの処理は、高精細撮影モードでは撮像ユニット22を中心位置に設定し、表1に示したように撮影レンズ231の焦点距離fを8mm以下に設定して被写体の全体画像Gが撮像されるので、高精細撮影モードでの撮影が可能になるように撮像ユニット22の位置及び撮影レンズ231の焦点距離fを調整するものである。すなわち、撮影レンズ231の焦点距離fを最大値8mmに設定するとともに、撮像ユニット22の光軸方向がf=8mmにおける撮像ユニット22の光軸方向の変位量Δθh,Δθvの範囲内にないときは撮像ユニット22を中心位置(光軸方向が正面方向となる位置)に設定し、撮影者がマニュアルで焦点距離fを変更しなかった場合でも撮像ユニット22の位置及び撮影レンズ231の焦点距離fを自動的に所定の位置及び所定の焦点距離に設定して確実に高精細撮影が行えるようにするものである。
【0183】
次に、再生モードの処理について説明する。
ステップ#6で図35に示す「再生モード」のサブルーチンに移行すると、まず、フラッシュメモリ212に記録されたコマNo.1の撮影画像が記録/読出処理部211により読み出され、伸長/圧縮処理部210で伸長された後、ケーブル11を介してLCD表示部3内の表示制御部301に転送され、LCDパネル12に再生表示される(#290)。
【0184】
続いて、スイッチSM,SP/R,SU,SD,SR,SL,SCHG,SDELの変化の有無が順次、判別される(#292,#294,#296,#300,#304,#314,#322,#336)。
【0185】
いずれのスイッチも変化がなければ、ステップ#292に戻り、上記スイッチSM〜SDELの変化の有無の判別処理(以下、RSW判別処理という。)が行われる(#292,#294,#286,#300,#304,#314,#322,#336のループ)。
【0186】
RSW判別処理において、メインスイッチSMがオフにされ(#292でNO)、もしくは記録/再生モードスイッチ13の設定状態が記録モードに切り換えられると(#294でYES)、メインフローのステップ#2(図19参照)に戻る。
【0187】
再生モードが維持されている状態で、光軸変更レバー9(もしくは光軸変更ボタン19a)の操作によりスイッチSUがオンになると(#296でYES)、フラッシュメモリ212から次のコマNo.の撮影画像が記録/読出処理部211により読み出され、伸長/圧縮処理部210で伸長された後、ケーブル11を介してLCD表示部3内の表示制御部301に転送され、LCDパネル12に再生表示される(#298)。
【0188】
また、光軸変更レバー9(もしくは光軸変更ボタン19b)の操作によりスイッチSDがオンになると(#300でYES)、フラッシュメモリ212から前のコマNo.の撮影画像が記録/読出処理部211により読み出され、伸長/圧縮処理部210で伸長された後、ケーブル11を介してLCD表示部3内の表示制御部301に転送され、LCDパネル12に再生表示される(#302)。
【0189】
すなわち、図37に示すように、フラッシュメモリ212に記録された撮像画像がスイッチSUがオンになる毎に、コマ番号が増加する方向(昇順方向)に、また、スイッチSDがオンになる毎にコマ番号が減少する方向(降順方向)に、順次、LCDパネル12に再生される。この場合、高精細撮影モードで撮影されたNo.4,No5の画像は全体画像GのみがLCDパネル12に再生され、部分画像Gi(No.4-1〜4-4,No.5-1〜5-4)はLCDパネル12に再生されない。このように部分画像Giの再生を行わないようにしているのは、操作者は撮影画像(すなわち、高精細撮影モードでは被写体全体の画像)のモニタを要求していると考えられるので、合成を目的とする部分画像Giの再生はしないようにしている。また、LCDパネル12に再生される画像には縁取りW1,W2(No.1,No.4の二重枠参照)を行い、通常撮影モードで撮影された画像の縁取りW1の色と高精細撮影モードで撮影された全体画像の縁取りW2の色とを異ならせることで、操作者がいずれの撮影モードで撮影された画像であるかの識別できるようにしている。
【0190】
図35に戻り、光軸変更レバー9(もしくは光軸変更ボタン19d)の操作によりスイッチSRがオン状態になると(#304でYES)、LCDパネル12に再生表示されている画像の撮影モードに関する情報に基づき当該画像が高精細撮影モードで撮影された画像であるか否かが判別され(#306)、高精細撮影画像でなければ(#306でNO)、ステップ#314に移行し、高精細撮影画像であれば(#306でYES)、撮影モードに関する情報に基づき全体画像Gであるか否かが判別される(#308)。
【0191】
そして、再生画像が全体画像Gであれば(#308でYES)、フラッシュメモリ212から最初に撮影された部分画像GAが記録/読出処理部211により読み出され、伸長/圧縮処理部210で伸長された後、ケーブル11を介してLCD表示部3内の表示制御部301に転送され、LCDパネル12に再生表示される(#310)。また、再生画像が部分画像Gi(i=A,B,C,D)であれば(#308でNO)、フラッシュメモリ212から当該再生されている部分画像Giの次に撮影された部分画像Giが記録/読出処理部211により読み出され、伸長/圧縮処理部210で伸長された後、ケーブル11を介してLCD表示部3内の表示制御部301に転送され、LCDパネル12に再生表示される(#312)。
【0192】
すなわち、LCDパネル12に再生表示された画像が高精細撮影画像の場合は、スイッチSRがオンになる毎にGA(左上画像),GB(右上画像),GD(右下画像),GC(左下画像)の順に部分画像GiがサイクリックにLCDパネル12に再生表示される。例えば図37において、No.4の全体画像GがLCDパネル12に表示されている状態で、操作者により光軸変更レバー9の右側傾動(もしくは光軸変更ボタン19dの押圧)が行われると、その操作毎にNo.4-1→No.4-2→No.4-3→No.4-4→No.4-1の順に部分画像GiがサイクリックにLCDパネル12に再生される。
【0193】
なお、部分画像GiがLCDパネル12に表示される場合にも縁取りが行われ、この縁取りの色を通常撮影画像や高精細撮影画像の全体画像の再生時と異ならせて、操作者が部分画像Giの再生であることを識別できるようにしている。
【0194】
本実施の形態でLCDパネル12の表示画像に色違いの縁取りW1,W2を設けることで、再生画像の内容を識別できるようにしているが、例えばコマ番号や撮影モードの文字情報や絵記号等を表示させることで再生画像の内容の識別を可能にしてもよい。
【0195】
図36に戻り、光軸変更レバー9(もしくは光軸変更ボタン19c)の操作によりスイッチSLがオン状態になると(#314でYES)、LCDパネル12に再生表示されている画像の撮影モードに関する情報に基づき当該画像が高精細撮影画像であるか否かが判別され(#316)、高精細撮影画像でなければ(#316でNO)、ステップ#322に移行し、高精細撮影画像であれば(#316でYES)、撮影モードに関する情報に基づきLCDパネル12の再生画像が部分画像Giであるか否かが判別される(#318)。
【0196】
そして、再生画像が全体画像Gであれば(#318でNO)、ステップ#322に移行し、再生画像が部分画像Giであれば(#318でYES)、フラッシュメモリ212から当該部分画像GAに対応する全体画像Gが記録/読出処理部211により読み出され、伸長/圧縮処理部210で伸長された後、ケーブル11を介してLCD表示部3内の表示制御部301に転送され、LCDパネル12に再生表示される(#320)。
【0197】
すなわち、LCDパネル12に再生表示された画像が高精細撮影モードで撮影された部分画像Giのとき、スイッチSLがオンになると、LCDパネル12の再生画像が当該部分画像Giに対応する全体画像Gに切り換えられる。例えば図37において、No.4-1の部分画像GAがLCDパネル12に表示されている状態で、操作者により光軸変更レバー9の左側傾動(もしくは光軸変更ボタン19cの押圧)が行われると、No.4の全体画像GがLCDパネル12に再生される。なお、LCDパネル12にNo.4の全体画像Gが再生された状態で、再度、操作者により光軸変更レバー9の左側傾動(もしくは光軸変更ボタン19cの押圧)が行われてもLCDパネル12の表示は変更されず、No.4の全体画像Gの表示が保持される。
【0198】
再生モードが維持されている状態で、ブラケット撮影確認ボタン15の操作によりスイッチSCHGがオンになると(#322でYES)、LCDパネル12に再生表示されている画像の撮影モードに関する情報に基づき当該画像が高精細撮影画像であるか否かが判別され(#324)、高精細撮影画像でなければ(#324でNO)、ステップ#336に移行し、高精細撮影画像であれば(#324でYES)、撮影モードに関する情報に基づきLCDパネル12の再生画像が全体画像Gであるか否かが判別される(#326)。
【0199】
そして、再生画像が全体画像Gであれば(#326でYES)、フラッシュメモリ212の当該再生画像に対応する画像ファイルのヘッダ部に記録された撮影に関する情報の「撮影モード情報」の内容が「高精細撮影モード」から「通常撮影モード」に変更される(#328)。すなわち、撮影モード情報を示すビットデータが「1」から「0」に変更される(表4参照)。
【0200】
また、フラッシュメモリ212内の当該全体画像Gに関連する4枚の部分画像Giの画像ファィルが全て消去される(#330)。また、再生画像が部分画像Giであれば(#326でNO)、フラッシュメモリ212に当該部分画像Giの画像ファイルが複製され(#332)、この複製された画像ファイルのヘッダ部に記録された撮影に関する情報の「撮影モード情報」の内容が「高精細撮影モード」から「通常撮影モード」に変更される(#334)。
【0201】
すなわち、LCDパネル12に再生表示された画像が高精細撮影モードで撮影された全体画像Gのとき、スイッチSCHGがオンになると、フラッシュメモリ212に記録された当該全体画像Gとこの全体画像Gに関連する部分画像Giとからなる一組の高精細撮影モードの画像ファイルは、全体画像Gの画像ファイルを通常撮影モードの画像ファイルに変更し、部分画像Giの画像ファイルを抹消することによって通常撮影モードの画像ファイルに変更される。
【0202】
再生モードが維持されている状態で、消去ボタン20の操作によりスイッチSDELがオンになると(#336でYES)、LCDパネル12に再生表示されている画像の撮影モードに関する情報に基づき当該画像が高精細撮影画像であるか否かが判別され(#338)、高精細撮影画像でなければ(#338でNO)、フラッシュメモリ212の当該再生されている画像に対応する画像ファイルが消去される(#340)。
【0203】
高精細撮影画像であれば(#338でYES)、撮影モードに関する情報に基づき再生画像が全体画像Gであるか否かが判別され(#342)、全体画像Gであれば(#342でYES)、フラッシュメモリ212の当該全体画像Gの画像ファイルとこの全体画像Gに関連する4枚の部分画像Giの画像ファイルとが全て消去される(#344,#346)。LCDパネル12の再生画像が部分画像Giであれば(#342でNO)、フラッシュメモリ212の当該部分画像Giの画像ファイルが消去され(#348)、フラッシュメモリ212の当該部分画像Giに関連する他の部分画像Gi及び全体画像Gの画像ファイルのヘッダ部に記録された撮影に関する情報の「撮影モード情報」の内容が「高精細撮影モード」から「通常撮影モード」に変更される(#350,#352)。
【0204】
例えば図37において、LCDパネル12の再生画像がコマ番号No.4-1の部分画像GAである場合、フラッシュメモリ212の当該部分画像GAの画像ファイルが消去され、コマ番号No.4-2,4-3,4−4の他の部分画像GB,GD,GC及びコマ番号No.4の全体画像Gの画像ファイルのヘッダ部に記録された「撮影モード情報」の内容が「通常撮影モード」に変更される。
【0205】
次に、高精細撮影モードで撮影された全体画像G及び部分画像GA〜GDを用いて画像を貼合合成することにより全体画像Gよりも精細度の高い全体画像を作成する方法について説明する。
【0206】
本実施の形態では撮影時の画像合成処理の処理負担を軽減するため、当該画像合成処理は撮影後に専用の画像処理装置もしくはコンピュータシステムにより構成された画像処理装置で行うようにしている。従って、上述のデジタルカメラ1と画像処理装置とを組み合わせて高精細画像作成システムが構成される。なお、デジタルカメラ1内に以下に説明する画像合成処理機能を設け、デジタルカメラ1のみで高精細画像作成システムを構成するようにしてもよい。このデジタルカメラ1では、撮影後にRAM209に記憶された全体画像G及び部分画像GA〜GDを貼合合成することにより全体画像Gよりも精細度の高い全体画像が作成され、この高精細撮影画像がフラッシュメモリ212に記録される。
【0207】
図38は、画像処理装置の一実施の形態のブロック構成図である。
同図に示す画像処理装置は、制御部31、ROM(Read Only Memory)32、RAM(Random Access Memory)33、画像メモリ34、GUI(Graphical User Interface)35、I/F36、入力装置37、表示装置38及び外部記憶装置39から構成されている。制御部31、ROM32、RAM33及び画像メモリ34、GUI35、I/F36は、装置本体30内に内蔵され、入力装置37及び表示装置38は、GUI35を介して制御部31に接続され、外部記憶装置39は、I/F36を介して制御部31に接続されている。
【0208】
制御部31は、全体画像G及び部分画像GA〜GDを用いて画像の貼合合成処理を実行するものである。制御部31は、画像の合成処理を行うための画像ファイル入出力処理部311及び画像合成部312を備えている。
【0209】
画像ファイル入出力処理部311は、入力装置37から入力された画像ファイルのカラー画像(電気画像)を当該画像ファイルが記憶された記録媒体(例えば外部記録装置39、あるいは具備している場合は内部記憶装置等)から読み出す処理及び画像合成後の画像データを入力装置37から入力された所定の出力先(記録媒体、プリンタその他の周辺機器等)に出力する処理を行うものである。
【0210】
画像合成部312は、外部記憶装置39を介してフラッシュメモリ212から読み出された全体画像G及び部分画像GA〜GDを用いて貼合合成処理を行い、精細度の高い被写体全体の撮影画像を作成するものである。画像合成部312は、後述するように全体画像Gを拡大して合成後の画像のサイズ(すなわち、合成画像の枠)を決定する一方、各部分画像GA〜GDから合成すべき所定の領域の一部画像を抽出し、その枠内で各部分画像GA〜GDの抽出画像を拡大した全体画像G′に貼り付けるように合成して高精細の全体画像G″を作成する。
【0211】
ROM32は、後述する画像合成処理の処理プログラムが記憶されたメモリである。RAM33は、画像合成処理によって算出された種々のデータを一時的に記憶するものである。また、画像メモリ34は、画像合成処理を行うため、フラッシュメモリ212から読み出された画像データを記憶するものである。画像メモリ34は、少なくとも15枚分の画像データの記憶容量を有し、全体画像G及び部分画像GA〜GDを構成する画像データがR,G,Bの各色成分に分離されて記憶される。
【0212】
表示装置38は、作業メニュー、処理状態、処理結果等の種々の表示(画像合成後の高精細画像のモニタ表示を含む)を行うもので、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)等の電子表示ディスプレレイからなるものである。表示装置38には、作業メニューに画像補正項目がアイコンで表示され、作業者は、そのアイコンを選択することにより後述の画像合成処理を行わせることができるようになっている。
【0213】
外部記憶装置39は、フラッシュメモリ212が装着脱可能になされ、当該フラッシュメモリ212に記録された画像ファイルの読出し及び新規作成された画像ファイルの当該フラッシュメモリ212への書込みを行うものである。
【0214】
図39は、画像合成部312における画像合成処理を示すフローチャートである。また、図40は、画像合成の処理手順を示す図である。図40において、部分画像GA〜GDはそれぞれ全体画像Gに対して点線部分a,b,c,dを拡大して撮影したもので、各画像の斜線部分は全体画像Gの枠から食み出した部分を示している。
【0215】
画像合成処理ではフラッシュメモリ212に記録された高精細撮影画像の画像ファイル(全体画像G及び部分画像GA〜GDの5個の画像ファイル)が画像合成装置内の画像メモリ34に読み出され、図39に示す処理手順に従って高精細の合成画像が作成される。
【0216】
まず、全体画像Gの画像ファイルから画像データが読み出され、拡大処理が行われる(#360,図40の(a)参照)。この拡大処理は全体画像Gのサイズを部分画像Giのサイズに合わせるものであり、合成後の画像の枠を決定するものである。すなわち、予め合成画像のサイズを決定するものである。
【0217】
部分画像Giは、表4に示したように全体画像Gに対して焦点距離比Kの倍率で拡大されて撮影されているので、この拡大処理では全体画像Gが焦点距離比Kで拡大される。
【0218】
なお、焦点距離比Kは部分画像Giの画像ファイルに記録された撮影モードに関する情報を読み出すことにより得ることができる。部分画像Giの画像ファイルに記録された焦点距離比Kを利用しない場合や部分画像Giの画像ファイルに焦点距離比Kが記録されていない場合は、部分画像Gi又は全体画像Gの大きさを変更しながら相関演算を行うことにより全体画像の拡大倍率を設定することができる。この方法では部分画像Giを取り込むとき、何らかの原因でデジタルカメラ1の移動により被写体までの距離が変化して各部分画像Giの大きさが互いに僅かにずれた場合でも適切にマッチング位置の算出と画像合成とを行うことができる利点がある。
【0219】
続いて、部分画像GAの画像ファイルから画像データが読み出され、この部分画像GAと拡大された全体画像G′(以下、拡大全体画像G′という。)との相関演算が行われ、その演算結果に基づいて拡大全体画像G′における当該拡大全体画像G′と部分画像GAとが一致する位置(以下、この位置をマッチング位置という。)が算出される(#362)。そして、算出された拡大全体画像G′のマッチング位置に部分画像GAの対応する部分の画像を貼り付けるように画像合成が行われる(#364,図40の(b)参照)。すなわち、拡大全体画像G′のマッチング位置の画像データが部分画像GAの対応する位置の画像データに置き換えられる。
【0220】
上記相関演算は、例えば拡大全体画像G′内に含まれる複数の特徴点を抽出し、図41に示すように部分画像GAを平行移動、回転移動、拡大/縮小等の幾何学的な変換を行いつつ拡大全体画像G′と比較して特徴点の重なり度が最も大きくなる幾何学的変換量を算出するものである。上記のように拡大全体画像G′のマッチング位置における画像データを各部分画像GA〜GDの画像データで置換することにより合成画像が作成されることから、相関演算で算出される幾何学的変換量は各部分画像GA〜GDの合成処理における合成位置(すなわち、マッチング位置)を与える情報となっている。
【0221】
なお、図41において、g1,g2,g3,g4はそれぞれ左上、右上,右下及び左下の部分画像G1,G2,G3,G4の拡大全体画像G0における最も重なり度が高い位置(すなわち、マッチング位置)を示している。左上の部分画像G1は、「ABC」の文字列C1又は長方形C2を特徴点として平行移動法によりマッチング位置g1が算出される場合を示し、右上の部分画像G2は、矩形C3を特徴点として拡大/縮小法によりマッチング位置g2が算出される場合を示している。また、右下の部分画像G3は、太線C4又は太線C4のエッジ部分を特徴点として回転移動法によりマッチング位置g3が算出される場合を示し、左下の部分画像G4は、長方形C2又は太線C4を特徴点として輝度変換法によりマッチング位置g4が算出される場合を示している。
【0222】
また、特徴点は特定の文字や文字列、特定の線、特定の幾何学的形状(例えば三角形、円、楕円等)、特定のエッジ部分等の特徴的な画像情報を有する領域の画像データである。特徴点としての文字や文字列は公知の文字認識方法により抽出され、特徴点としての幾何学的図形は公知のテクスチュア解析により抽出され、特徴点としてのエッジ部分は公知のエッジ検出手法により抽出される。
【0223】
特徴点の重なり度は拡大全体画像G0の特徴点を構成する画像データとその特徴点に対応する幾何学変換された部分画像G1〜G4の画素位置の画像データとの相関値や両画像データの差の絶対値和もしくは両画像データの差の2乗和を用いて判別される。
【0224】
図39に戻り、続いて、部分画像GBの画像ファイルから画像データが読み出され、この部分画像GBと拡大全体画像G′との相関演算が行われ、その演算結果に基づいて部分画像GBに対する拡大全体画像G′のマッチング位置が算出される(#366)。そして、算出された拡大全体画像G′のマッチング位置に部分画像GBの対応する部分の画像を貼り付けるように画像合成が行われる(#368,図40の(c)参照)。すなわち、拡大全体画像G′のマッチング位置の画像データが部分画像GBの対応する位置の画像データに置き換えられる。
【0225】
以下、同様の方法で部分画像GC,GDに対する拡大全体画像G′のマッチング位置がそれぞれ算出され(#370,#374)、その拡大全体画像G′のマッチング位置の画像データがそれぞれ部分画像GC,GDの対応する位置の画像データに置き換えられて(#372,#376,図40の(d)(e)参照)、精細度の高い合成画像(被写体全体の撮像画像)G″が作成される。
【0226】
なお、上記実施の形態では、全体画像Gを拡大して合成画像G″の大きさ(すなわち、合成画像G″の枠)を決定した後、その枠内で部分画像Giを貼り付けるように画像合成しているが、部分画像Giだけで貼合合成した後、拡大全体画像G′を用いて合成画像G″の周辺の不要部分(図40の部分画像GA〜GDの斜線部分)を除去して合成画像G″の大きさを決定するようにしてもよい。
【0227】
しかし、前者の方法では、拡大全体画像G′の画像データを部分画像GA〜GDの画像データに置換することにより高精細の全体画像G″が作成されるので、画像データの置換時に合成画像G″の枠外にある不要な画像データ(図40の部分画像GA〜GDの斜線部分)が除去され、後者の方法に比べて合成処理が容易となる。
【0228】
また、図42に示すように、例えば部分画像GCと部分画像GDとの貼り合わせ部分に画像が重複しない部分Pがある場合、後者の方法では合成画像G″の部分画像GCと部分画像GDとの貼り合わせ部分Pに画像データの欠落が生じ、実質的に合成画像G″を作成することはできなくなるが、本実施の形態に係る方法では、拡大全体画像G′のマッチング位置の画像データが部分画像GA〜GDの対応する位置の画像データに置換され、図43に示すように、合成画像G″の部分画像GCと部分画像GDとの貼り合わせ部分Pには拡大全体画像G′の画像データ(同図の斜線で示す部分)が残るので、この部分Pの精細度は周辺の精細度よりも若干低下するものの画像データが欠落して合成画像G″が作成できないという不都合はなくなる。
【0229】
ところで、撮影レンズによってはレンズの周辺部の光量が中央部の光量に対して減少する特性を有するものがある。このような特性を有する撮影レンズを用いて被写体が撮影されると、撮影画像は、図44に示すように画面周辺部が画面中央部より暗い輝度偏差の大きい画像となる。
【0230】
高精細撮影モードで撮影すると、部分画像Giの各々が図44に示すような輝度分布を有するので、これらを合成した高精細の全体画像G″は、図45に示すように画面内で明部と暗部とが交互に表れる輝度分布となり、精細度は向上するものの輝度分布は不自然となり、全体としては画質が著しく低下することになる。また、各部分画像Giの間でホワイトバランスに差が生じた場合には貼り合わせの境界部分に色ずれが生じることがあり、この色ずれによっても画質が低下する。
【0231】
このように高精細撮影モードでは撮影レンズの光量透過特性に基づく撮影画像の画質劣化が画像合成により更に増長されるので、少なくとも全体画像Gの輝度分布程度になるように合成画像G″の輝度分布を補正して画質劣化を抑制することが望ましい。この画像補正処理は、図38の仮想線で示すように、制御部31内に画像補正部313を設けることにより必要に応じて当該画像補正部313で画像合成部312で合成された画像G″の輝度分布の補正を行うことができる。
【0232】
図46は、上述の画質劣化を抑制するための画像補正方法を示す概念図である。
【0233】
画像補正は、まず、拡大全体画像G′と合成画像G″とを、例えば(8×8)画素の小ブロックBLKに分割し(図46の(a)参照)、各ブロックBLK毎にR,G,Bの各色成分について画素データgR,gG,gBの平均値R1AV,G1AV,B1AV,R2AV,G2AV,B2AVを算出する(図46の(b)参照)。次に拡大全体画像G′及び合成画像G″の対応するブロックBLK間で平均値が等しくなるように、合成画像G″の画素データgR,gG,gBのシフト量を算出する(図46の(c)参照)。このシフト量は、例えば拡大全体画像G′及び合成画像G″の対応するブロックBLK間の平均値の差ΔRAV,ΔGAV,ΔBAVを用いることができる。
【0234】
そして、合成画像G″の各画素データgR,gG,gBにシフト量ΔRAV,ΔGAV,ΔBAVを加算して合成画像G″の補正を行う(図46の(d)参照)。この補正により合成画像G″の小ブロックの画素データの平均値は拡大全体画像G′の小ブロックの画素データの平均値と略一致するようになるので、図46の(e)に示すように、補正後の合成画像G″の輝度分布は拡大全体画像G′の輝度分布に近似したものとなる。
【0235】
なお、本実施の形態では小ブロックBLKのサイズとして(8×8)画素を例示しているが、小ブロックBLKのサイズ及び形状は任意に設定することができる。小ブロックBLKのサイズを大きくし過ぎると、同一ブロックBLK内では画素間での画素データの大小関係は補正されないので、ブロックBLKの境界部分で輝度変化の不連続が顕著になるという不具合が生じる一方、逆に小ブロックBLKのサイズを小さくし過ぎると、拡大全体画像G′と合成画像G″との間に位置ずれが生じた場合、画像補正により画素データが大幅に変化してしまい、合成画像G″の画質が劣化するという不具合が生じる。従って、小ブロックBLKのサイズ及び形状はこれらの不具合と撮影レンズの光量透過特性とを考慮して適宜のものを採用するとよい。
【0236】
次に、図47の示すフローチャートに従って画像補正部313で行われる上述の画像補正の処理手順を説明する。
【0237】
まず、拡大全体画像G′が(x×y)個の小ブロックBLKに分割される(#380)。続いて、合成画像G″が(x×y)個の小ブロックBLKに分割される(#382)。続いて、小ブロックBLKの行数xと列数yとをそれぞれカウントするカウント値a,bがそれぞれ「1」にセットされる(#384)。
【0238】
続いて、拡大全体画像G′の1行1列の小ブロックBLK(1,1)について、R,G,Bの各色成分毎に当該小ブロックBLK(1,1)に含まれる画素データgi(i=R,G,B)の平均値R1AV(1,1),G1AV(1,1),B1AV(1,1)が算出され(#386)、同様に合成画像G″の1行1列の小ブロックBLK(1,1)について、R,G,Bの各色成分毎に当該小ブロックBLK(1,1)に含まれる画素データgi(i=R,G,B)の平均値R2AV(1,1),G2AV(1,1),B2AV(1,1)が算出される(#388)。なお、(1,1)は1行1列の小ブロックBLKのものであることを示している。以下、a行b列の小ブロックBLKのものには(a,b)を付することとする。
【0239】
続いて、平均値R1AV(1,1),G1AV(1,1),B1AV(1,1)及び平均値R2AV(1,1),G2AV(1,1),B2AV(1,1)を用いてシフト量ΔRAV(1,1),ΔGAV(1,1),ΔBAV(1,1)が算出される(#390)。なお、シフト量ΔRAV(a,b),ΔGAV(a,b),ΔBAV(a,b)は、例えばΔRAV(a,b)=R2AV(a,b)−R1AV(a,b)、ΔGAV(a,b)=G2AV(a,b)−G1AV(a,b)、ΔBAV(a,b)=B2AV(a,b)−B1AV(a,b)により算出される。
【0240】
続いて、合成画像G″の1行1列の小ブロックBLK(1,1)の各色成分の画素データgi(1,1)がシフト量ΔRAV(1,1),ΔGAV(1,1),ΔBAV(1,1)を用いて補正される(#392)。なお、補正データgR′(a,b),gG′(a,b),gB′(a,b)は、それぞれgR′(a,b)=gR(a,b)+ΔRAV(a,b)、gG′(a,b)=gG(a,b)+ΔGAV(a,b)、gB′(a,b)=gB(a,b)+ΔBAV(a,b)で算出される。
【0241】
続いて、カウント値aが行数xになっているか否かが判別され(#394)、a<xであれば(#394でNO)、カウント値aが1だけインクリメントされてステップ#386に戻り、(a+1)行b列の小ブロックBLK(a+1,b)について上述の補正処理が行われる。いま、a+1=2であるから、ステップ#386に戻り、2行1列の小ブロックBLK(2,1)について上述の補正処理が行われ、以下、同様に(3,1)、(4,1)、…(x,1)の1列目の各小ブロックBLK(a,1)(a=3,4,…x)について順次、上述の補正処理が行われる。
【0242】
1列目の小ブロックBLK(a,1)について画像補正が終了すると、ステップ#394でa=xとなり、ステップ#398に移行してカウント値bが列数yになっているか否かが判別され、b<yであれば(#398でNO)、カウント値aが「1」に設定されるとともに、カウント値bが「1」だけインクリメントされてステップ#386に戻り、1行(b+1)列の小ブロックBLK(1,b+1)について上述の補正処理が行われる。いま、b+1=2であるから、ステップ#366に戻り、2列目の小ブロックBLK(a,2)(a=1,2,…x)について順次、上述の補正処理が行われる(#386〜396のループ)。
【0243】
そして、以下、同様の方法で各列の小ブロックBLK(a,b)について順次、上述の画像補正が行われ(#386〜#402のループ)、全ての小ブロックBLK(a,b)(a=1,2,…x,b=1,2,…y)について画像補正が終了すると(#398でYES)、処理を終了する。
【0244】
なお、上記実施の形態では、画像合成プログラムが搭載された専用の画像処理装置について説明したが、図48に示すように、画像合成プログラム及び画像補正プログラムを、フロッピーディスク、磁気テープ等の磁気記録媒体やCDーROM、光ディスクカード、光磁気ディスク等の光記録媒体等の外部記録媒体43に記憶しておき、外部記憶装置42を介してコンピュータ本体41に読み込むことにより、あるいはインターネット等のネットワークを介してコンピュータ本体41に読み込むことにより、コンピュータシステムによる画像処理装置40を構築するようにしてもよい。
【0245】
【発明の効果】
以上説明したように、本発明によれば、被写体全体の画像と被写体の各部分の画像とを順次、撮像し、これらの撮像画像を画像記録手段に記録するデジタルカメラにおいて、各撮像画像に対して独立の画像ファイルを作成し、互いに関連画像であることを示す情報と共に各撮像画像を画像記録手段に記録するようにしたので、各画像ファイルの画像データに付随する情報を変更するだけで簡単に独立の画像ファイルに変更することができ、画像ファイルの管理が容易となる。
【0246】
また、画像記録手段の記録画像を表示手段に再生する際、互いに関連する撮像画像の再生が指示されたとき、被写体全体の撮像画像のみを再生するようにしたので、被写体の部分の撮像画像を合成した高精細の被写体全体の画像を再生させるよりも迅速に合成後の被写体全体の画像のモニタが可能になる。
【0247】
また、表示手段に互いに関連する撮像画像のうちの被写体全体の撮像画像を再生した状態で記録消去が指示されると、互いに関連する被写体全体の撮像画像及び被写体の部分の撮像画像の画像ファイルを全て消去するようにしたので、画像ファイルの整理を簡単に行うことができる。
【0248】
また、表示手段に互いに関連する撮像画像のうちの被写体全体の撮像画像を再生した状態で関連性の解消する指示があると、当該被写体全体の撮像画像の画像ファイルに記録された関連画像であることを示す情報を消去するようにしたので、簡単に被写体全体の撮像画像を独立した撮像画像に変更することができる。
【0249】
更に表示手段に互いに関連する撮像画像のうちの被写体全体の撮像画像を再生した状態で関連性を解消する指示があると、当該被写体全体の撮像画像と関連した被写体の部分の撮像画像の画像ファィルを消去するようにしたので、画像記録手段における互いに関連する撮像画像の画像ファイルの整理も容易に行うことができる。
【図面の簡単な説明】
【図1】本発明に係るデジタルカメラの一実施の形態の外観を示す前側から見た斜視図である。
【図2】本発明に係るデジタルカメラの一実施の形態の外観を示す後側から見た斜視図である。
【図3】表示部をカメラ本体から取り外した状態を示す斜視図である。
【図4】カメラ本体における撮像ユニットの配置位置を示す要部斜視図である。
【図5】高精細撮影モードでの撮影における被写体と撮影範囲との関係を示す図である。
【図6】撮像ユニットの正面図である。
【図7】撮像ユニットの平面図である。
【図8】撮像ユニットの右側面図である。
【図9】撮影レンズの焦点距離を検出する機構を示す図である。
【図10】撮像ユニットを駆動する駆動部材の構造を示す斜視図である。
【図11】駆動部材の圧電素子に印加される駆動電圧の波形を示す図である。
【図12】位置検出部材の構造を示す図である。
【図13】位置検出回路の一実施の形態を示すブロック図である。
【図14】位置検出回路の出力信号の波形を示す図である。
【図15】メインスイッチをオン/オフさせたときの撮像ユニットの設定位置を示す図である。
【図16】撮像ユニットが中心位置に設定された状態を示す要部斜視図である。
【図17】撮像ユニットが正面方向に対して右下方向の開口部を遮蔽する位置に設定された状態を示す要部斜視図である。
【図18】本発明に係るデジタルカメラの回路構成を示すブロック図である。
【図19】本発明に係るデジタルカメラの撮影動作のメインフローを示すフローチャートである。
【図20】本発明に係るデジタルカメラの撮影動作のメインフローを示すフローチャートである。
【図21】サブルーチン「SM OFF」のフローチャートである。
【図22】サブルーチン「撮像ユニットセット」のフローチャートである。
【図23】サブルーチン「ズーム」のフローチャートである。
【図24】水平方向の画角θh及び垂直方向の画角θvを示す図である。
【図25】水平方向の変位量Δθh及び垂直方向の変位量Δθvを示す図である。
【図26】サブルーチン「撮像ユニット駆動」のフローチャートである。
【図27】サブルーチン「撮像ユニット駆動」のフローチャートである。
【図28】サブルーチン「S1 ON」のフローチャートである。
【図29】サブルーチン「S1 ON」のフローチャートである。
【図30】高精細撮影モードにおける撮影処理を模式的に示す図である。
【図31】画像ファイルの構成を示す図である。
【図32】サブルーチン「画像選択」のフローチャートである。
【図33】通常撮影モードにおける記録画像の選択処理を模式的に示す図である。
【図34】サブルーチン「レンズチェック」のフローチャートである。
【図35】サブルーチン「再生モード」のフローチャートである。
【図36】サブルーチン「再生モード」のフローチャートである。
【図37】記録画像の再生処理におけるLCD表示部への表示画像を説明するための図である。
【図38】高精細画像を作成する画像処理装置の一実施の形態のブロック構成図である。
【図39】画像合成処理を示すフローチャートである。
【図40】画像合成の処理手順を示す図である。
【図41】相関演算処理を説明するための図である。
【図42】貼合部分に画像の重複部分を有しない部分画像があるとき、部分画像だけを単純に張り合わせた場合の合成画像を示す図である。
【図43】貼合部分に画像の重複部分を有しない部分画像があるとき、全体画像の対応部分を部分画像で置換するように合成した場合の合成画像を示す図である。
【図44】レンズ周辺部の光量がレンズ中央部の光量より小さくなる特性を有する撮影レンズで撮影された画像の輝度分布を示す図である。
【図45】レンズ周辺部の光量がレンズ中央部の光量より小さくなる特性を有する撮影レンズで撮影された画像を合成して高精細画像を作成した場合の輝度分布を示す図である。
【図46】画像補正方法の概念を示す図である。
【図47】画像補正の処理手順を示すフローチャートである。
【図48】コンピュータシステムにより構築された画像処理装置を示す図である。
【符号の説明】
1 デジタルカメラ
2 カメラ本体
201 ユニット駆動部
202 ユニット位置検出部
203 FL制御部
204 電源部
205 スイッチ群
206 A/D変換部
207 タイミングジェネレータ
208 信号処理部
209 RAM
210 伸長/圧縮処理部
211 記録/読出処理部
212 フラッシュメモリ(画像記録手段)
213 制御部(撮像制御手段,情報生成手段,記録制御手段,表示制御手段,記録消去手段,情報消去手段、画像消去手段)
3 LCD表示部
4 フラッシュ
5 開口部
6,7,16,17 ズーム操作ボタン
8,18 レリーズボタン(撮影指示手段)
9 光軸変更レバー(指示手段)
10 取付板
11 ケーブル
12 LCDパネル(表示手段)
13 記録/再生モードスイッチ(再生指示手段)
14 撮影モードスイッチ
15 ブラケット撮影確認ボタン(指示手段)
19a〜19d 光軸変更ボタン
20 消去ボタン(消去指示手段)
21 メインスイッチ
22 撮像ユニット
23 ユニット本体
231 撮影レンズ
232 ズームモータ
239 撮像部(第1,第2の撮像手段)
24 第1支持枠
25 第2支持体
26 駆動部材
27,28 位置検出部材
30 画像処理装置本体
31 制御部
32 ROM
33 RAM
34 画像メモリ
35 GUI
36 I/F
37 入力装置
38 表示装置
39 外部記憶装置
40 コンピュータシステム
41 コンピュータ本体
42 外部記憶装置
43 外部記録媒体
M 磁石[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a digital camera that photoelectrically converts a subject image into an image signal by an image sensor and captures the entire subject in a plurality of parts, and combines the captured images of the parts of each subject. The present invention relates to a digital camera that can obtain a captured image of the entire subject with high definition.
[0002]
[Prior art]
Conventionally, in a digital camera, in order to increase the effective resolution of an image sensor such as a CCD (Charge Coupled Device), the subject is divided into a plurality of parts, enlarged and imaged, and these partial images are combined. Thus, there has been proposed a digital camera that can obtain a captured image of the entire subject with high definition.
[0003]
A digital camera that captures only a portion of a subject and records the recorded image on a recording medium such as a memory card without synthesizing the captured image, thereby reducing the burden of synthesizing the partial image on the camera side. It has been commercialized.
[0004]
[Problems to be solved by the invention]
By the way, since the conventional digital camera does not synthesize the entire subject image on the camera side, for example, an image processing device configured by a computer system reads out captured images of a plurality of subject portions from a memory card, and these partial images. It is necessary to create an image of the entire subject by compositing them together, but since the image of the entire subject is not recorded on the memory card, the pasting position of the image of each subject portion is accurately determined There is a problem that image quality deterioration is likely to occur due to the pasting process of the image of each subject portion.
[0005]
In addition, even if the camera body is equipped with a display unit such as an LCD (Liquid Crystal Display) and the captured image can be monitored, the entire subject is not photographed in high-definition photography, and the photographed portion of the subject is synthesized. Since an image of the entire subject is not created, there is also a disadvantage that the photographing result cannot be monitored on the LCD display unit.
[0006]
Furthermore, the captured images recorded on the memory card are played back and displayed on the LCD display section, and the contents of the recording are organized (the images of the pair of subjects for erasing unnecessary images and compositing are changed to independent captured images, respectively. Even in the case where it is possible to organize), since only the captured image of the subject portion is reproduced and displayed on the LCD display section for the high-definition image, there is a disadvantage that it is not possible to easily determine whether or not to erase.
[0007]
The present invention has been made in view of the above problems, and provides a digital camera capable of imaging and recording processing so that captured images of a plurality of subject portions can be easily and accurately combined in high-definition shooting. To do.
[0008]
[Means for Solving the Problems]
The present invention includes a first imaging unit that images the entire subject, a second imaging unit that divides the entire subject into a plurality of parts and images each part of the subject, a shooting instruction unit that instructs shooting, When shooting is instructed by the shooting instruction unit, the first and second imaging units are operated to sequentially capture the entire subject and the subject portion, and the first and second imaging units. In the digital camera comprising the image recording means for recording the image picked up by the image pickup means, information indicating that each of the images picked up by the first and second image pickup means is a related image is generated. Each of the images captured by the information generating means and the first and second imaging means is combined with the information generated by the information generating means corresponding to these captured images, and each of the images is converted into an independent image file. Image recording means It is obtained and recording control means for recording (claim 1).
[0009]
According to the above configuration, an image of the entire subject is captured by the first imaging unit, and then the subject is divided into a plurality of parts by the second imaging unit, and images of each part of the subject are captured. Then, an independent file is created for the captured image of the entire subject and the captured image of each part of the subject and recorded in the image recording means. At this time, information indicating that each captured image is a related image is generated, and each captured image is recorded in the image recording unit together with the information.
[0010]
The contents of the image file of the captured image of the entire subject or the captured image of the portion of the subject are read from the image recording means, and even when these captured images are combined, the related captured image is reliably read from the content of the information accompanying the image data. It becomes possible.
[0011]
Further, the present invention provides a display unit for reproducing and displaying a captured image recorded in an image recording unit, a reproduction instruction unit for instructing reproduction display of the captured image on the display unit, and the reproduction instruction in the digital camera. And display control means for causing the display means to reproduce and display only the image of the entire subject imaged by the first imaging means when the means is instructed to reproduce and display the captured image. ).
[0012]
According to the above configuration, when the reproduction instruction unit instructs to reproduce a set of captured images that are related to each other, only the captured image of the entire subject of the instructed group is read from the image recording unit and displayed on the display unit. The image of the other subject is reproduced and is not reproduced on the display means.
[0013]
According to the present invention, in the digital camera, an erasure instruction means for instructing erasure of the recorded image in the image recording means reproduced and displayed on the display means, and an image reproduced and displayed on the display means by the erasure instruction means. When erasing an image is instructed, the image recording unit further includes a recorded erasing unit that erases the captured image recorded in the image recording unit and a captured image of a portion of a subject related to the captured image. 3).
[0014]
According to the above configuration, when the recording instruction is issued by the erasure instruction unit in a state where the captured image of the entire subject is displayed on the display unit, the recorded image is recorded on the recording unit. All of the captured image of the entire subject and the captured image of each part of the subject constituting the set of captured images are erased.
[0015]
Further, the present invention provides a digital camera that includes an instruction unit that instructs cancellation of the relevance between a captured image of the entire subject reproduced and displayed on the display unit and a captured image of a portion of the subject related thereto, and the instruction unit. An information erasing unit for erasing information indicating that the image is a related image recorded in an image file of the captured image of the entire subject of the image recording unit when an instruction to cancel a set of relationships is given; (Claim 4).
[0016]
According to the above configuration, when the instruction unit cancels the relevance in a state where the captured image of the entire subject of the pair of captured images associated with each other is displayed on the display unit, the recording unit records the relationship. Information indicating that the image is a related image in each image file of the entire captured image forming the set of captured images and the captured image of each part of the subject is deleted. Thereby, each image file of the captured image of the entire subject and the captured image of each part of the subject is treated as an image captured independently.
[0017]
According to the present invention, in the digital camera, when the instruction means cancels the relevance, the portion of the subject related to the captured image of the entire subject reproduced and displayed on the display means recorded in the image recording means And an image erasing means for erasing the image file of the captured image.
[0018]
According to the above configuration, when the instruction unit cancels the relevance in a state where the captured image of the entire subject of the pair of captured images that are related to each other is displayed on the display unit, the image is recorded in the image recording unit. All the image files of the captured image of each part of the subject constituting the set of captured images are deleted, and information indicating that the image is the related image in the image file of the captured image of the entire subject is deleted.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
A digital camera according to the present invention will be described with reference to the drawings.
1 to 3 are views showing the appearance of an embodiment of a digital camera according to the present invention. FIG. 1 is a perspective view seen from the front side, FIG. 2 is a perspective view seen from the rear side, and FIG. It is a perspective view which shows the state which removed the part from the camera main body. FIG. 4 is a perspective view of the main part showing the arrangement position of the imaging unit 22 in the camera body.
[0020]
In the digital camera 1 shown in the figure, a photographing lens made up of a zoom lens and an image pickup device made up of a CCD (Charge Coupled Device) are integrated into a unit, and the front direction of the camera body (with respect to the front surface 2a of the camera body 2). The imaging unit 22 is supported so as to be able to rotate vertically and horizontally with respect to the vertical direction), and by controlling the posture of the imaging unit 22 (that is, the optical axis direction), a predetermined angle with respect to the front direction. A subject can be photographed in any direction within the range.
[0021]
In addition, as a shooting mode, a mode for performing a normal shooting operation (hereinafter referred to as a normal shooting mode) and a mode for obtaining a shot image with higher definition than a shot image in the normal shooting mode (hereinafter referred to as a high-definition shooting mode). And so on.)
[0022]
In the normal shooting mode, one shot image is recorded in a flash memory as a recording medium by one release operation. In the present embodiment, a predetermined time interval (in a single release operation, as will be described later). For example, exposure control is performed a predetermined number of times (for example, three times) at intervals of 0.1 seconds (that is, a plurality of images are continuously captured), and among these captured images, a preset captured image ( For example, the first captured image) is automatically recorded in the flash memory. Then, it is possible to record the captured image desired by the photographer (for example, the second captured image) in the flash memory in place of the automatically recorded captured image or in addition to the captured image in accordance with the photographer's instruction. It can be done.
[0023]
The above-described shooting control in the normal shooting mode is similar to the bracket shooting function in the silver halide camera. In a silver salt camera, bracket shooting is usually performed when the photographer sets the mode, but the present embodiment is different in that bracket shooting is always performed in the normal shooting mode. Therefore, in the following description, bracket shooting in the normal shooting mode is referred to as “auto bracket shooting” and is distinguished from bracket shooting in a silver halide camera.
[0024]
In the high-definition shooting mode, as shown in FIG. 5, the entire image G of the subject Q and the partial image G obtained by dividing the subject Q into four parts. A , G B , G C , G D And the four partial images G based on the entire image G of the subject Q A ~ G D Is used to create an overall image of a subject with higher definition than the overall image G of the subject Q. In this high-definition shooting mode, the entire image G of the subject Q is captured with the optical axis direction of the imaging unit 22 facing the front direction (direction o in FIG. 5) in one release operation, and the imaging unit The optical axis direction of 22 and the imaging magnification are changed only four times while automatically changing the predetermined direction (directions a, b, c, and d in FIG. 5) and the predetermined magnification (about 1.8 to 1.9 times). A partial image G of the subject Q by performing an imaging operation A ~ G D Is to be captured.
[0025]
Although the subject Q is divided into four in this embodiment, the number of divisions is not limited to this, and can be divided into an appropriate number. In the present embodiment, the partial image G of the subject Q from the viewpoint of reducing the image processing load in the digital camera 1. A ~ G D These partial images G A ~ G D Is performed by an image processing system such as a computer.
[0026]
Returning to FIG. 1, the digital camera 1 has a vertically long rectangular parallelepiped shape. One narrow side surface 2 a of the camera body 2 forms the front surface of the camera body, and the other side surface 2 b forms the rear surface of the camera body. A display unit 3 (hereinafter referred to as an LCD display unit 3) having a display screen composed of an LCD (Liquid Crystal Display) on the left side surface 2c when viewed from the rear side of the camera can be opened and closed with respect to the camera body 2. It is provided so that it can be detached (see FIGS. 2 and 3). That is, a mounting plate 10 made of a magnetic material such as iron or nickel is attached to the upper front end of the left side surface 2c of the camera main body 2 so as to be opened and closed by a hinge mechanism (not shown), while being attached to the right end of the display surface of the LCD display unit 3. A powerful magnet M is embedded, and the LCD display unit 3 is detachably attached to the mounting plate 10 by the attractive force of the magnet M.
[0027]
The camera body 2 and the LCD display unit 3 are electrically connected to each other by a cable 11 that can be housed in the camera body 2 by a winding mechanism (not shown). Data of the power source and display image is transmitted to the unit 3, and operation signals of various switches provided on the LCD display unit 3 described later are transmitted from the LCD display unit 3 to the camera body 2 via the cable 11. It has become. That is, when the LCD display unit 3 is detached from the camera body 2, photographing can be performed remotely.
[0028]
A flash 4 is provided at an appropriate upper position on the front surface 2a of the camera body, and an opening 5 for exposing the photographing lens 231 of the imaging unit 22 is provided below the flash 4. As shown in FIG. 4, the imaging unit 22 is provided at a position where the opening 5 in the camera body 2 faces to change the direction of the optical axis L. The structure of the imaging unit 22 will be described later.
[0029]
A pair of operation buttons 6 and 7 (hereinafter referred to as zoom operation buttons 6 and 7) for changing the focal length of the photographic lens 231 are arranged in parallel at an appropriate position on the rear surface 1b of the camera body, and the lower part thereof. A release button 8 for instructing photographing is provided, and an operation lever 9 (hereinafter referred to as an optical axis changing lever 9) for manually adjusting the optical axis direction of the imaging unit 22 is provided below the release button 8. Note that the optical axis changing lever 9 is multifunctional, and as will be described later, the display image on the LCD display unit 3 of a plurality of captured images taken by auto bracketing is changed, and the reproduction to the LCD display unit 3 in the reproduction mode is performed. Also used to change frames.
[0030]
The flash 4 is composed of a xenon discharge tube and automatically emits light at low luminance. The opening 5 defines a range in which the photographing lens 231 of the imaging unit 22 can be exposed (that is, a change range in the optical axis direction in which photographing can be performed). In the present embodiment, the optical axis direction of the photographing lens 231 is within a range in which ± 20 ° can be changed with respect to the front direction in the horizontal plane and the vertical plane. Accordingly, in the photographing enabled state, the rotation of the imaging unit 22 is controlled within a range in which the photographing lens 231 can be exposed from the opening 5. On the other hand, in the shooting disabled state, the imaging unit 22 is rotated to a predetermined position where the shooting lens 231 is not exposed from the opening 5 (for example, a predetermined position where the optical axis direction of the shooting lens 231 is obliquely downward). The opening 5 is shielded by the main body 23 of the imaging unit 22.
[0031]
The zoom operation button 6 is an operation member for changing the focal length of the photographing lens 231 of the image pickup unit 22 to the telephoto (tele) side, and the zoom operation button 7 is used to change the focal length of the photographing lens 231 of the image pickup unit 22 to a wide angle ( This is an operation member for changing to the (wide) side. If the zoom operation buttons 6 and 7 are continuously operated, the focal length of the photographic lens 231 is continuously changed in a corresponding direction at a predetermined change speed, and when the operation is canceled, the focal length of the photographic lens 231 is set to the focal length at the time of release. The focal length is set.
[0032]
The operation of the release button 8 is detected by switches S1 and S2 described later. When the release button 8 is half-pressed, the switch S1 is turned on, thereby preparing for the photographing operation (preparation of focus adjustment, exposure control value setting, etc.), and when the release button 8 is fully pressed, the switch S2 is turned on. Thus, exposure control is performed with the exposure control value set thereby. In the normal shooting mode, since the auto bracket shooting is performed as described above, the exposure control is repeated a predetermined number of times at a predetermined time interval set in advance. In the high-definition shooting mode, the exposure control is performed a predetermined number of times by automatically changing the optical axis direction and shooting magnification of the shooting lens 231.
[0033]
The optical axis changing lever 9 can be tilted in four directions, up, down, left and right. By tilting the optical axis changing lever 9, the optical axis direction of the imaging unit 22 can be changed in the tilting direction. For example, when the optical axis change lever 9 is tilted upward, the imaging unit 22 is rotated in the elevation direction at a predetermined speed until the tilt is released, and when the optical axis change lever 9 is tilted downward, The imaging unit 22 is rotated in the depression direction at a predetermined speed until the tilt is released. When the optical axis direction of the imaging unit 22 exceeds a changeable allowable range (a range of ± 20 ° with respect to the front direction), the rotation operation is performed when the imaging unit 22 reaches the limit position of the allowable range. Is automatically stopped.
[0034]
An LCD panel 12 is provided in the center of the back surface of the LCD display unit 3. In addition, a recording / playback mode switch 13, a shooting mode switch 14, A bracket shooting confirmation button 15, zoom operation buttons 16 and 17, a release button 18, optical axis change buttons 19 a to 19 d, an erase button 20, and a main switch 21 are provided. The optical axis change buttons 19 a to 19 d are also multifunctional like the optical axis change lever 9.
[0035]
A recording / playback mode switch 13 is provided at the lower part of the left peripheral portion of the LCD display unit 3 and switches between a recording mode for shooting and a playback mode for playing back and displaying an image recorded in the flash memory on the LCD panel 12. It is. The recording / playback mode switch 13 is a two-contact slide switch. For example, when the knob is slid to the left, the recording mode is set, and when the knob is slid to the right, the playback mode is set.
[0036]
The shooting mode switch 14 is provided below the recording / playback mode switch 13 and switches between the normal shooting mode and the high-definition shooting mode described above. The shooting mode switch 14 is also a two-contact slide switch like the recording / playback mode switch 13. For example, when the knob is slid to the left, the normal shooting mode is set, and when the knob is slid to the right, the high-definition shooting mode is set. Is set.
[0037]
The bracket shooting confirmation button 15 is provided at the left end of the lower peripheral portion of the LCD display unit 3, and is a mode (hereinafter referred to as a confirmation mode) for confirming the contents of auto bracket shooting in the normal shooting mode, changing the recorded image, and the like. Set and cancel. The bracket shooting confirmation button 15 is also multifunctional and functions as an operation button for instructing to change the attribute of a recorded image shot in the high-definition shooting mode in the playback mode. Note that partial images G of a plurality of subjects Q taken in the high-definition shooting mode. A ~ G D Is recorded in the flash memory with attribute information as attribute data so that it can be identified as an image for pasting composition. Image G A ~ G D The content of the information related to the shooting mode is changed so that the image can be handled as an image shot in the normal shooting mode.
[0038]
The bracket shooting confirmation button 15 is formed of a push switch. When the bracket shooting confirmation button 15 is pressed immediately after the end of shooting in the recording mode, setting and release of the confirmation mode are alternately input each time the button is pressed. When the bracket shooting confirmation button 15 is pressed in the playback mode, an image file corresponding to the shot image in the high-definition shooting mode displayed on the LCD display unit 3 each time it is pressed is an image file of the shot image in the normal shooting mode. Changed to
[0039]
The zoom operation buttons 16 and 17 are operation buttons provided at the center of the lower peripheral portion of the LCD display unit 3 and performing the same functions as the zoom operation buttons 6 and 7 provided on the camera body 2, respectively. The release button 18 is an operation button provided at the right end of the lower peripheral portion of the LCD display unit 3 and performing the same function as the release button 8 provided in the camera body 2.
[0040]
The optical axis change buttons 19 a to 19 d are operation buttons that are provided at substantially the center of each of the upper, lower, left, and right peripheral parts of the LCD display unit 3 and perform the same function as the optical axis change lever 9 provided on the camera body 2. The operation of each of the optical axis changing buttons 19a to 19d corresponds to the tilting operation of the optical axis changing lever 9 in the vertical and horizontal directions. Therefore, for example, when the optical axis change button 19a is pressed in the recording mode, the imaging unit 22 is rotated in the elevation direction at a predetermined speed until the press operation is released, and when the optical axis change button 19b is pressed, The imaging unit 22 is rotated in the depression direction at a predetermined speed until the pressing operation is released. Note that, in the same manner as in the case of the optical axis change lever 9, the manual change in the optical axis direction of the imaging unit 22 is performed within an allowable range (a range of ± 20 ° with respect to the front direction).
[0041]
The erase button 20 is an operation button that is provided at the upper part of the left peripheral portion of the LCD display unit 3 and instructs to erase the image recorded in the flash memory. The main switch 21 is provided below the delete button 20 and supplies / stops power.
[0042]
6 is a front view of the imaging unit, FIG. 7 is a plan view of the imaging unit, and FIG. 8 is a right side view of the imaging unit.
[0043]
The imaging unit 22 includes a unit main body 23, a U-shaped first support frame 24 that supports the unit main body 23 so as to be swingable in the vertical direction, and an L-shaped first support that supports the unit main body 23 so as to be rotatable in the horizontal direction. 2 It is comprised from the support member 25, the drive member 26 which rotates the unit main body 23 to each direction of an up-down direction, left-right, and the position detection members 27 and 28 which detect the rotation position of the unit main body 23.
[0044]
The unit main body 23 has a capsule shape in which both ends of a cylinder are covered with a hemispherical surface, and has a circular window 23c that exposes the photographing lens 231 at the center of one hemispherical surface. In the unit main body 23, a photographing lens 231 is arranged on the central axis so as to face the window 23c, and an imaging unit having an imaging element made up of a CCD (not shown) is arranged behind the photographing lens 231. .
[0045]
The taking lens 231 is configured by a zoom lens whose focal length can be changed within a range of 5 mm to 15 mm, for example. As shown in FIG. 8, the photographic lens 231 has a lens 231a that can move in the optical axis direction for changing the focal length, and the focal length is controlled by controlling the position of the lens 231a. It has become. The focal length adjustment lens 231a is fixed to a nut member 234 that is screwed to a rod-like screw member 233 that is directly connected to a rotor 232a of an electric motor 232 (hereinafter referred to as a zoom motor 232). When the zoom motor 232 is driven, the screw member 233 rotates, whereby the nut member 234 moves straight in the axial direction of the screw member 233, and the lens 231a moves back and forth on the optical axis.
[0046]
The lens 231 a is provided with an encoder 235 that detects the position of the lens 231 a that moves linearly by the zoom motor 232. The encoder 235 is composed of a code plate 235a provided at a position below the screw member 233 and a brush 235b composed of a plurality of contact pieces whose ends are pressed against the code plate 235a. When the lens 231a moves straight by driving the zoom motor 232, the brush 235b slides on the code plate 235a and a code sign signal (for example, a 4-bit signal) indicating the position is output from the brush 235b. Is decoded so that the position of the lens 231a (that is, the focal length corresponding to the position) is detected. In the present embodiment, the focal length can be detected in units of 1 mm in the range of 5 mm to 15 mm.
[0047]
In addition to the CCD, the imaging unit has a signal processing circuit that performs predetermined analog signal processing on an image signal (analog signal) output from the CCD. This signal processing circuit includes a CDS circuit (correlated double sampling circuit) that reduces sampling noise of an image signal and an AGC circuit (automatic gain adjustment circuit) that amplifies the image signal.
[0048]
Pins 23d and 23e project from substantially the center of both side surfaces of the cylindrical portion of the unit main body 23, and the pins 23d and 23e are respectively formed in holes 24a and 24b (see FIG. 6), the unit main body 23 is supported by the first support frame 24 so as to be rotatable in a vertical plane. Also, a hole (not shown) is formed in the approximate center of the lower surface of the cylindrical portion of the unit main body 23 and the approximate center of the first support frame 24, and protrudes at an appropriate position on the long side portion 25 a of the second support body 25. The unit body 23 and the first support frame 24 are supported by the second support body 25 so as to be rotatable in a horizontal plane by loosely fitting the pin 25c thus formed into these holes.
[0049]
Further, a driving member 26 protrudes at an appropriate position above the short side portion 25 b of the second support body 25, and the tip of the driving member 26 is in contact with the center of the hemispherical surface 23 b on the rear side of the unit body 23. As shown in FIG. 10, the driving member 26 has piezoelectric elements 262 to 265 such as PZT attached to the four side surfaces of a quadrangular prism-shaped elastic member 261, and a laminated piezoelectric element 266 and a contact piece 267 on the upper end surface. And pasted. The contact piece 267 is formed with a protrusion 267 a for contacting the hemispherical surface 23 b of the unit main body 23.
[0050]
As shown in FIG. 10, when the orthogonal coordinate system xyz is set for the driving member 26, the pair of piezoelectric elements 262 and 264 provided in the x-axis direction causes the driving member 26 to vibrate the tip of the driving member 26 in the xz plane. The pair of piezoelectric elements 263 and 265 provided in the y-axis direction are drive sources that vibrate the tip of the drive member 26 in the yz plane. That is, when a sine wave voltage whose phases are reversed is applied to the piezoelectric element 262 and the piezoelectric element 264, when the piezoelectric element 262 contracts, the piezoelectric element 264 expands and the tip of the driving member 26 tilts in the + x direction. Conversely, when the piezoelectric element 262 expands, the piezoelectric element 264 contracts and the tip of the drive member 26 tilts in the −x direction, so the tip of the drive member 26 vibrates in the xz plane. Similarly, when sinusoidal voltages whose phases are reversed are applied to the piezoelectric element 263 and the piezoelectric element 265, the tip of the driving member 26 vibrates in the yz plane by the same mechanism.
[0051]
The laminated piezoelectric element 266 is a drive source that extends the drive member 26 in the z direction. That is, when a sinusoidal voltage is applied to the multilayer piezoelectric element 266, the multilayer piezoelectric element 266 expands and contracts in the thickness direction, so that the tip of the drive member 26 vibrates in the z-axis direction.
[0052]
Accordingly, as shown in FIG. 11, the piezoelectric element 262 and the piezoelectric element 264 are driven with sinusoidal voltages e 1 and e 2 whose phases are reversed, and the stacked piezoelectric element 266 is driven with respect to the driving voltage e 1 for the piezoelectric element 262. When driven by a sinusoidal voltage e3 with a 90 ° phase delay, the tip of the drive member 26 performs a combined motion of vibration in the x-axis direction and expansion and contraction in the z-axis direction, and performs an elliptical motion in the xz plane. (See the rotation arrow in FIG. 10). The piezoelectric element 263 and the piezoelectric element 265 are driven by a sine wave voltage whose phases are inverted from each other, and the stacked piezoelectric element 266 is driven by a sine wave voltage whose phase is delayed by 90 ° with respect to the driving voltage for the piezoelectric element 263. Even in this case, the tip of the drive member 26 performs elliptical motion in the yz plane by the same mechanism. When the phase of the driving voltage of the multilayer piezoelectric element 266 is advanced by 90 ° with respect to the driving voltage for the piezoelectric element 262 or 263, the rotational direction of the elliptical motion in the xz plane or the yz plane delayed the phase by 90 °. The opposite is true.
[0053]
Accordingly, when the xz plane coincides with the horizontal plane, the piezoelectric element 262 and the piezoelectric element 264 are driven by sinusoidal voltages e1 and e2 whose phases are reversed from each other, and the stacked piezoelectric element 266 is driven by the piezoelectric element 262. When driving with a sinusoidal voltage e3 whose phase is delayed by 90 ° with respect to the driving voltage e1, the contact piece 267 of the drive member 26 that is in contact with the hemispherical surface 23b on the rear end side of the unit body 23 is in a horizontal plane. For example, since the elliptical motion is performed in the counterclockwise direction, the unit body 23 is rotated clockwise in the horizontal plane around the pin 25c by this elliptical motion, and the phase of the driving voltage e3 of the laminated piezoelectric element 266 is changed to that of the piezoelectric element 262. When the drive voltage e1 is advanced by 90 °, the contact piece 267 of the drive member 26 performs an elliptical motion in the clockwise direction in the horizontal plane. It rotates counterclockwise in the horizontal plane around c.
[0054]
On the other hand, the piezoelectric element 263 and the piezoelectric element 265 drive a sine wave voltage whose phases are inverted with each other, and the stacked piezoelectric element 266 has a sine wave voltage (90 ° phase delayed with respect to the driving voltage for the piezoelectric element 263). When driven by a sine wave voltage with a 90 ° phase advance), the unit main body 23 rotates clockwise (or counterclockwise) in the vertical plane around the pins 23d and 23e by the same mechanism.
[0055]
A position detection member 27 is provided on the right side when viewed from the front of the unit body 23, and a position detection member 28 is provided on the lower side (see FIGS. 7 and 8). The position detection member 27 detects the rotation position of the unit body 23 in the yz plane (in the vertical plane), and the position detection member 28 detects the rotation position of the unit body 23 in the xz plane (in the horizontal plane). To do.
[0056]
As shown in FIG. 12, the position detection member 27 includes a magnetic head 271, an arc-shaped magnet scale 272, and a position detection circuit (not shown). The magnet scale 272 is fixed to the right side of the unit main body 23, while the magnetic head 271 is rotated at a position facing the magnet scale 272 at the end of the first support frame 24 in the vertical plane. When moved, the magnetic head 271 is attached so as to relatively move on the magnet scale 272. Further, the position detection circuit is provided at an appropriate position in the camera body 2.
[0057]
The magnet scale 272 has three tracks 272a, 272b, and 272c. The outer two tracks 272a and 272b have a plurality of S poles and N poles m1 and m2 having a predetermined angular pitch Δα (for example, the track 272b). In FIG. 2, the magnetic poles m1 and m2 are magnetized so that the adjacent magnetic poles m1 and m2 have the same polarity alternately at an angle pitch at which the distance d between the magnetic poles m2 is 200 μm.
[0058]
The boundary position between the adjacent S-pole magnetic pole m1 and the N-pole magnetic pole m1 formed on the track 272a corresponds to the scale position of the arc-shaped scale, and the adjacent S-pole magnetic pole m2 and N formed on the track 272b. The boundary position between the pole and the magnetic pole m2 also corresponds to the scale position of the arc-shaped scale. The two tracks 272a and 272b corresponding to the same scale are provided so that the rotation direction of the imaging unit 22 can be detected and the rotation angle α can be detected at Δα / 2 pitch. is there. That is, by detecting each boundary position of the magnetic pole m1 of the track 272a or each boundary position of the magnetic pole m2 of the track 272b, the rotation amount (or the rotation angle α) from the reference position R can be detected, but the magnetic pole m1 of the track 272a. The amount of rotation is detected at an angle pitch of Δα / 2 by electrically shifting the phase of the detection timing of the boundary position between them and the detection timing of the boundary position between the magnetic poles m2 of the track 272b by π / 2.
[0059]
The reference position R refers to the position of the imaging unit 22 in which the optical axis L of the imaging unit 22 is in the front direction as the “center position”, and the imaging unit 22 moves downward from the center position in the vertical plane. It is a position rotated by 40 °.
[0060]
The innermost track 272c is magnetized with a pair of S-pole and N-pole magnetic poles m3 at appropriate positions on one end. A pair of magnetic poles m3 formed on the track 272c provides a reference position R for the scales of the tracks 272a and 272b. Accordingly, these magnetic poles m3 are also magnetized at positions having the same polarity as the magnetic pole m2 adjacent to the track 272b.
[0061]
The magnetic head 271 has magnetoresistive elements 271a, 271b, 271c for detecting magnetic poles m1, m2, m3 formed on the tracks 272a, 272b, 272c of the magnet scale 272, respectively. The magnetoresistive element 271a and the magnetoresistive element 271c are arranged at the same rotational position (rotational position n in FIG. 12) on the magnet scale 272, and the magnetoresistive element 271b is connected to the magnetoresistive element 271a and the magnetoresistive element 271c. On the other hand, they are arranged at positions shifted clockwise by ½ of the angular pitch Δα. The reason why the position of the magnetoresistive element 271b is shifted with respect to the magnetoresistive element 271a is that the detection timing of the boundary position between the magnetic poles m1 of the track 272a and the detection timing of the boundary position between the magnetic poles m2 of the track 272b are electrically This is because the phase is shifted by π / 2.
[0062]
FIG. 13 is a block diagram showing an embodiment of the position detection circuit.
The position detection circuit 273 includes three waveform shaping circuits 273a, 273b, 273c, a phase detection circuit 273d, a signal change detection circuit 273e, and a counter 273f. The magnetic wave detection signals of the magnetoresistive elements 271a, 271b, and 271c are input to the waveform shaping circuits 273a, 273b, and 273c, respectively. The output signals Sg1 and Sg2 of the waveform shaping circuits 273a and 273b are input to the phase detection circuit 273d and the signal change detection circuit 273e, respectively, and the output signal Sg3 of the waveform shaping circuit 273c is input to the reset terminal of the counter 273f. The signal Sg4 output from the phase detection circuit 273d is input to the +/− terminal of the counter 273f, and the signal Sg5 output from the signal change detection circuit 273e is input to the count terminal of the counter 273f. Then, angle data (that is, data of the rotation angle α from the reference position R in FIG. 12) is detected from the OUT terminal of the counter 273f.
[0063]
When the magnetic head 271 moves relatively on the magnet scale 272 by the rotation operation of the image pickup unit 22, the magnetic resistance elements 271a, 271b, and 271c use magnetic poles m1, m2, and m3 formed on the tracks 272a, 272b, and 272c, respectively. A magnetic field is detected. Since the magnetic poles m1 and m2 are alternately formed on the tracks 272a and 272b in N and S directions, signals that change in a sine wave form at a predetermined cycle are output from the magnetoresistive elements 271a and 271b. Since the track 272c has a pair of N and S magnetic poles m3 formed at predetermined positions, when the magnetoresistive element 271c passes the formation position of the magnetic pole m3, it changes in a sine wave form from the magnetoresistive element 271c. Is output for one period.
[0064]
The waveform shaping circuits 273a, 273b, and 273c respectively shape the sinusoidal signals output from the magnetoresistive elements 271a, 271b, and 271c into rectangular signals. In addition, the phase detection circuit 273d has a phase relationship between the output signal Sg1 of the waveform shaping circuit 273a and the output signal Sg2 of the waveform shaping circuit 273b (for example, the relationship of whether the phase of the signal Sg1 is an advanced phase or a delayed phase relative to the phase of the signal Sg2). ) Is detected. This phase-related detection signal Sg4 indicates the relative movement direction of the magnetic head 271 with respect to the magnet scale 272 (that is, the rotation direction of the imaging unit 22).
[0065]
The signal change detection circuit 273e detects signal changes of the output signals Sg1 and Sg2 (that is, change from, for example, S pole detection to N pole detection). This detection signal Sg5 is obtained by detecting the amount of movement (or rotation angle α) of the magnetic head 271 relative to the magnet scale 272 in units of 100 μm (or Δα / 2 units).
[0066]
Since the magnetoresistive element 271a and the magnetoresistive element 271b are set so that the detection positions thereof are 90 ° out of phase with each other in the magnetic head 271, the output signal Sg1 of the waveform shaping circuit 273a and the waveform detection as shown in FIG. The phase of the output signal Sg2 of the circuit 273b is shifted by π / 2. In addition, whether the moving direction of the magnetic head 271 with respect to the magnet scale 272 is clockwise or counterclockwise, the phase advance / delay relationship of the signal Sg1 with respect to the signal Sg2 is opposite to each other. That is, when the magnetic head 271 moves clockwise with respect to the magnet scale 272, the magnetic head 271 moves the magnet scale 272a from right to left in FIG. 14, so the phase of the signal Sg1 with respect to the signal Sg2 is When the magnetic head 271 moves counterclockwise with respect to the magnet scale 272 (in FIG. 14, the magnetic head 271 moves the magnet scale 272a from the left to the right). ), The phase of the signal Sg1 with respect to the signal Sg2 is a leading phase.
[0067]
Accordingly, in the phase detection circuit 273b, for example, when the phase of the signal Sg1 with respect to the signal Sg2 is a leading phase (when the imaging unit 22 is rotating counterclockwise), a high level signal is output, and the signal for the signal Sg2 When the phase of Sg1 is a lagging phase (when the imaging unit 22 is rotating clockwise), a low level signal is output. Note that the high / low relationship of the output signal of the phase detection circuit 273b may be reversed.
[0068]
The signal change detection circuit 273e detects rising and falling edges of the output signals Sg1 and Sg2 of the waveform shaping circuit 273a and the waveform shaping circuit 273b, and outputs a pulse signal every time the detection is performed. The pulse trains in which the signal changes of the signals Sg1 and Sg2 are detected are those in which the movement of the magnetic head 271 on the magnet scale 272 is detected at a pitch of 200 μm, but the signal train of the signal Sg1 and the signal change in the signal Sg2 are detected. Since the detection timing is deviated by π / 2 from the pulse train that detected the signal, the pulse train signal Sg5 output from the signal change detection circuit 273e detects the movement of the magnetic head 271 on the magnet scale 272 at a pitch of 100 μm ( That is, the rotation of the image pickup unit 22 is made by an angle Δα / 2 pitch).
[0069]
Accordingly, the counter 273f resets the count value with the detection signal Sg3 (signal change signal) at the reference position R output from the waveform shaping circuit 273a, and then counts the number of pulses Nm input to the count terminal. A rotation angle α from the reference position R of the imaging unit 22 is calculated by multiplying Nm by an angle Δα / 2, and the angle data is output from the OUT terminal. Further, the rotation direction of the imaging unit 22 is determined from the level of the signal Sg4 input to the +/− terminal, and data on the rotation direction is also output from the OUT terminal.
[0070]
The position detection member 28 has the same configuration as the position detection member 27, and the position detection member 28 detects the rotational position of the imaging unit 22 in the horizontal plane by the same mechanism as described above. The reference position R in the position detection member 28 is a position where the imaging unit 22 is rotated 40 ° to the right from the center position in the horizontal plane.
[0071]
In the above configuration, when the main switch 21 is turned on, the recording mode is initially set, and the image pickup unit 22 automatically starts the center position (that is, the photographing lens 231 is automatically moved as shown in the solid line state of FIG. 15 and FIG. 16). It is exposed from the opening 5 and is set to a position where the optical axis L is in the front direction. In the recording mode, the imaging unit 22 is in the range of about ± 20 ° in each of the upper, lower, left, and right directions from the center position by the photographer's operation of the optical axis change lever 9 or the optical axis change buttons 19a to 19d (the above-described tolerance (Equivalent to the range) is set at an arbitrary position within the range and shooting is performed.
[0072]
When the main switch 21 is turned off, as shown by a one-dot chain line in FIG. 15, the imaging unit 22 is automatically set to a position rotated about 40 ° downward with respect to the center position, and the opening 5 is set. The unit body 23 is shielded by the front hemispherical surface 23a. Note that the imaging unit 22 may be set at a position rotated by approximately 40 ° other than the downward direction with respect to the center position, and the opening 5 may be shielded by the front hemispherical surface 23a of the unit body 23. In the present embodiment, in consideration of the ease of drive control of the imaging unit 22, the imaging unit 22 is rotated until the reference position R is detected by the position detection members 27 and 28, respectively, and as shown in FIG. The imaging unit 22 is set at a position rotated by 40 ° in the lower right direction.
[0073]
Thus, since the opening 5 is shielded by the unit main body 23 without providing a barrier or a slide cover at the opening 5, the shielding mechanism of the opening 2 is simplified and the unit main body 23 is accommodated when the camera is stored. Is securely stored in the camera body 2 so that dirt and dust do not adhere to the photographing lens 231 with a simple configuration, and unnecessary light does not enter the imaging unit through the photographing lens 231. Yes.
[0074]
In the present embodiment, the piezoelectric element is used as the driving member of the imaging unit 22, but a motor such as a stepping motor may be used as the driving member. In this case, for example, the imaging unit 22 may be directly motor-driven by directly connecting the rotor of the stepping motor to the rotation axis in the vertical plane of the imaging unit 22 and the rotation axis in the horizontal plane. The imaging unit 22 may be indirectly driven by a motor by transmitting a force to the rotating shaft via a driving force switching transmission member including a gear and a cam.
[0075]
FIG. 18 is a block diagram showing a circuit configuration of the digital camera 1.
In the figure, the same members as those described above are denoted by the same reference numerals. The image capturing unit 239 in the unit main body 23 corresponds to an image capturing unit including the above-described image sensor and a signal processing circuit. The zoom driving unit 237 controls the driving of the focal length adjusting lens 231a in the photographing lens 231. The zoom driving unit 237 corresponds to a driving mechanism including the zoom motor 232, the screw member 233, and the nut member 234 described above. . The zoom drive unit 237 controls the position of the lens 231a by driving the zoom motor 232 based on a control signal from the control unit 213.
[0076]
The lens position detection unit 238 detects the position of the lens 231a for adjusting the focal length, and includes the above-described encoder 235 and a decoder that decodes the code code output from the encoder 235 into position information. Position information output from the lens position detection unit 238 is input to the control unit 213.
[0077]
The unit driving unit 201 controls the rotation operation of the imaging unit 22 and includes the above-described driving member 26 and a driving circuit for the driving member 26. The unit driving unit 201 controls the position of the imaging unit 22 by driving the driving member 26 based on a control signal from the control unit 213.
[0078]
The unit position detection unit 202 detects the rotational position of the imaging unit 22, and includes the above-described position detection members 27 and 28 and a position detection circuit. Information on the rotation direction and rotation amount of the imaging unit 22 output from the unit position detection unit 202 is input to the control unit 213.
[0079]
The FL control unit 203 controls the light emission of the flash 4. The FL control unit 203 includes a light emission energy storage circuit and a light emission timing control circuit, and controls light emission of the flash 4 based on a control signal from the control unit 213. When the shooting is a predetermined low-brightness shooting, a light emission command signal is output from the control unit 213, and the FL control unit 203 causes the flash 4 to automatically emit light at the time of shooting.
[0080]
The power supply unit 204 includes a power supply battery and a DC / DC converter, and generates and supplies power necessary for various electric circuits. The power supply unit 204 also controls power supply based on a control signal from the control unit 213.
[0081]
The switch group 205 detects operations of the zoom operation buttons 6 and 7, the release button 8, and the optical axis change lever 9, and inputs detection signals to the control unit 213.
[0082]
The switch group 205 includes switches S1, S2, SZI, SZO, SU, SD, SR, and SL. The contents of the switches S1 to SL are as follows.
S1; a switch for detecting a half-pressed state of the release button 8.
S2: A switch for detecting the fully pressed state of the release button 8.
SZI: a zoom-in switch for detecting the pressing state of the zoom operation button 6.
SZO: a zoom-out switch for detecting the pressing state of the zoom operation button 7.
SU: A switch for detecting the upward tilt state of the optical axis changing lever 9.
SD: a switch for detecting the downward tilt state of the optical axis changing lever 9.
SR: a switch for detecting the right tilt state of the optical axis changing lever 9.
SL: A switch for detecting a leftward tilt state of the optical axis changing lever 9.
[0083]
The A / D conversion unit 206 converts the image signal (analog signal) output from the imaging unit 239 into, for example, an 8-bit digital signal (hereinafter, this image signal is referred to as image data).
[0084]
The timing generator 207 generates a timing pulse for performing an imaging operation of the imaging unit 239 and time series processing in the imaging unit 239 and the A / D conversion unit 206 of pixel data constituting the captured image. The timing generator 207 has a reference clock, divides the reference clock to generate timing pulses of a predetermined frequency, and inputs them to the imaging unit 239 and the A / D conversion unit 206, respectively. In addition, a timing signal for starting / ending the CCD integration operation is generated and input to the imaging unit 239. The timing generator 207 generates a timing signal based on the control signal from the control unit 213 and inputs the timing signal to the imaging unit 239 and the A / D conversion unit 206.
[0085]
The signal processing unit 208 includes signal processing circuits such as a black level correction circuit, a white balance circuit, and a γ correction circuit, and corrects black level, white balance adjustment, and gradation of image data output from the A / D conversion unit 206. Predetermined signal processing such as correction is performed.
[0086]
A RAM (Random Access Memory) 209 temporarily stores image data output from the signal processing unit 208. The RAM 209 has a storage capacity for five captured images. The reason why the plurality of captured images can be stored in the RAM 209 is to enable partial image capturing in the above-described high-definition shooting mode. Since the storage capacity of the RAM 209 is sufficient, auto bracket shooting is performed in the normal shooting mode.
[0087]
The recording / reading processing unit 211 performs recording processing of image data stored in the RAM 209 in the flash memory 212 and reading processing of a captured image recorded in the flash memory 212 for reproduction on the LCD display unit 3. The recording / reading processing unit 211 records or reads an image based on a control signal from the control unit 213.
[0088]
The expansion / compression processor 210 compresses the image data stored in the RAM 209 in the flash memory 212 and decompresses the image data (compressed data) read from the flash memory 212. . The decompression / compression processing unit 210 compresses / decompresses image data based on a control signal from the control unit 213 by, for example, JPEG (Joint Photographic Coding Experts Group) method. The compression method is not limited to the JPEG method, and other compression methods such as an MPEG (Moving Picture Coding Experts Group) method can be employed.
[0089]
The flash memory 212 is a nonvolatile rewritable external storage medium. Other types of storage media such as MD, PC card, and hard disk card may be used as the external storage medium. The flash memory 212 is detachable from the camera body 2.
[0090]
In the following description, in order to distinguish between temporary storage of image data in the RAM 209 and storage in the flash memory 212, the former is referred to as “storage” and the latter is referred to as “recording”.
[0091]
The control unit 213 centrally controls the shooting operation of the digital camera 1. The control unit 213 includes a microcomputer, and controls the photographing operation by organically controlling driving of each member in the camera body 2 and the LCD display unit 3 described above. Further, the control unit 213 has a focus adjustment function (AF function) and an exposure control function (AE function), detects the in-focus position using the image data stored in the RAM 209, detects the subject luminance, The exposure time of the CCD corresponding to the shutter speed is set from the subject brightness.
[0092]
In the shooting standby state, the control unit 213 drives the imaging unit 239 in a predetermined cycle to capture a live view image (video image) into the RAM 209, and sequentially outputs the captured image to the LCD display unit 3 to display the LCD. Display on the panel 12. That is, a viewfinder display is performed on the LCD panel 12. When shooting is instructed by the release button 8 (or 18), the focus adjustment and the exposure time of the CCD are set, and then the subject is shot at this exposure time, and the shot image is recorded in the flash memory 212.
[0093]
A display control unit 301 in the LCD display unit 3 controls image display on the LCD panel 12. The display control unit 301 has an image memory for display corresponding to the number of pixels of the LCD panel 12, and the image data is transferred from the control unit 213 to the display control unit 301 by performing thinning processing on the image data for reproduction. . The display control unit 301 displays the reproduced image on the LCD panel 12 by writing the image data into the image memory. The display control unit 301 has a D / A conversion circuit that converts image data written in the image memory into a video signal, and the video signal generated by the D / A conversion circuit is output to the VIDEO signal terminal. . Therefore, by connecting a display device such as a CRT via the VIDEO terminal, the same image as that displayed on the LCD panel 12 can be reproduced and displayed on the display device.
[0094]
The switch group 302 is an operation of the recording / playback mode switch 13, shooting mode switch 14, bracket shooting confirmation button 15, zoom operation buttons 16 and 17, release button 18, optical axis change buttons 19 a to 19 d, erase button 20 and main switch 21. And the detection signal is input to the control unit 213 via the cable 11.
[0095]
The switch group 302 includes switches SM, S1, S2, SZI, SZO, SU, SD, SR, SL, SCHG, SDEL, SR / P, and SMOD. The contents of the switches SM to SMOD are as follows.
SM: A switch for detecting the pushing operation of the main switch 21.
S1; a switch for detecting a half-pressed state of the release button 18.
S2: A switch for detecting the fully pressed state of the release button 18.
SZI: a zoom-in switch that detects the pressing state of the zoom operation button 16.
SZO: a zoom-out switch that detects the pressing state of the zoom operation button 17.
SU: A switch for detecting the upward tilt state of the optical axis change button 19a.
SD: A switch for detecting the downward tilt state of the optical axis change button 19b.
SR: A switch for detecting the rightward tilt state of the optical axis change button 19c.
SL: A switch for detecting a leftward tilt state of the optical axis change button 19d.
[0096]
SCHG: A switch for detecting the pressing operation of the bracket shooting confirmation button 15.
SDEL: a switch for detecting the pressing operation of the erasing button 20.
SR / P: a switch for detecting the setting state of the recording / reproducing mode switch 13.
SMOD: a switch for detecting the setting state of the shooting mode switch 14.
[0097]
As described above, in this embodiment, the camera body 2 and the LCD display unit 3 are electrically connected by the cable 11, and the power source and the thinned image data are transmitted from the camera body 2 to the LCD display unit 3. Since the switch detection signal is transmitted from the display unit 3 to the camera body 2, for example, it is easier to handle a signal transmitted through the cable than in a configuration in which the imaging unit and the camera body are connected by a cable. The amount of data is reduced, and the circuit configuration for transmitting and receiving the cable 11 and signals can be simplified.
[0098]
Note that the recording / playback processing unit 211 and the flash memory 212 may be arranged in the LCD display unit 3. Also in this case, since the image data transmitted from the camera body 2 to the LCD display unit 3 is compressed by the decompression / compression processing unit 210, the data amount is small, and the cable 11 and the circuit configuration for signal transmission / reception can be simplified. become. In the present embodiment, the camera body 2 and the LCD display unit 3 are connected by a cable. However, the camera body 2 and the LCD display unit 3 may be made wireless by using infrared light or radio waves.
[0099]
Next, the photographing operation of the digital camera 1 will be specifically described with reference to a flowchart.
[0100]
19 and 20 are flowcharts showing a main flow of the photographing operation. When the power battery is attached to the camera body 2, the main flow is executed.
[0101]
First, the on / off state of the main switch 21 is determined (# 2), and when the main switch 21 is off (NO in # 2), the processing of the subroutine “SM OFF” shown in FIG. The imaging unit 22 is set to a predetermined reference position R that shields the opening 5.
[0102]
When the subroutine “SM OFF” is entered, the imaging unit 22 is rotated rightward with respect to the front direction in the horizontal plane until the reference position R is detected by the position detection member 28 (loops # 40 and # 42). When the reference position R in the right direction is reached, the reference position R is subsequently rotated downward in the vertical plane until the reference position R is detected by the position detection member 27 (loops # 44 and # 46). When the rotation reference position R in the downward direction is reached (that is, when the optical axis direction of the imaging unit 22 reaches a position in the lower right direction), the driving of the imaging unit 22 is stopped and the main switch SM is turned on. That state is maintained until it is turned on (# 48 loop). This state is a state in which the power supply battery is attached to the camera body 2 and the main switch 21 is turned off (that is, the digital camera 1 is left or stored in the case). As described above, when the digital camera 1 is housed in the case and is not in the photographing-permitted state, the imaging unit 22 is set to a position that shields the opening 5 of the camera body 2, so that the CCD light shielding and photographing lens The protection of 231 is preferably performed.
[0103]
Returning to FIG. 19, when the main switch 21 is turned on (YES in # 2), the setting state of the recording / reproduction mode switch 13 is further determined (# 6), and when the reproduction mode is set (# 6). NO), the processing of the subroutine “reproduction mode” shown in FIGS. 35 and 36 is executed, and the reproduction processing of the recorded image on the LCD display unit 3 is performed. The playback mode process will be described later.
[0104]
On the other hand, when the recording mode is set (YES in # 6), the processing of the subroutine “imaging unit set” shown in FIG. 22 is executed, and the imaging unit 22 is exposed to the center position (that is, the photographing lens 231 is exposed from the opening 5). The optical axis direction is set to the front direction). When the main switch 21 is turned on, this process sets the optical axis direction of the image pickup unit 22 in the front direction so that the drive of the image pickup unit 22 can be controlled easily and with high accuracy. A normal photographing operation can be immediately performed without adjusting the unit 22.
[0105]
When the subroutine “image pickup unit set” is entered, the image pickup unit 22 is rotated rightward with respect to the front direction in the horizontal plane until the reference position R is detected by the position detection member 28 (# 50, # 52). Loop), when the rotation reference position R in the right direction is reached, it is subsequently rotated downward in the vertical plane until the reference position R is detected by the position detection member 27 (# 54, # 56). loop). This process is a process for setting the imaging unit 22 to the rotation reference position R in the vertical and horizontal directions (a predetermined position in the direction of the lower right corner in the present embodiment) for rotation control.
[0106]
Subsequently, when the imaging unit 22 reaches the downward rotation reference position R, the imaging unit 22 is further rotated to the left in the horizontal plane by a predetermined amount and set to the center position in the horizontal plane (# 58). , # 60 loop), it is rotated upward by a predetermined amount in the vertical plane and set to the center position in the vertical plane (# 62, loop of # 64), and the process returns to the main routine. In the present embodiment, the rotation reference position R is a position rotated 40 ° downward from the center position and 40 ° rightward. Therefore, in steps # 58 to # 64, the imaging unit 22 is moved to the left in the horizontal plane. After being rotated by 40 ° in the direction, it is rotated by 40 ° in the upward direction and set to the center position.
[0107]
Returning to FIG. 19, when the setting process of the imaging unit 22 is completed, it is determined whether or not the various switches S1, SZI, SZO, SU, SD, SR, SL, SMOD, SP / R, and SM have changed (# 10 to # 10). # 30).
[0108]
If none of the switches have changed (NO in # 10 to # 24, YES in # 28, # 30), it is determined whether or not the display time counting by the display timer has ended (# 32). This display timer counts the predetermined time when the captured image is displayed on the LCD display unit 3 for a predetermined time when a photographing operation is performed in the process of “S1 ON” described later. . The display timer is built in the control unit 213.
[0109]
When the timing of the display time has been completed (YES in # 32), the display of the captured image on the LCD display unit 3 is stopped (# 34), and a process for determining whether or not the various switches S1 to SM have changed (hereinafter, referred to as “changed”). The process returns to step # 10 to perform SW discrimination processing. On the other hand, if the timing of the display time has not ended (NO in # 32), the content of the flag FIAB is determined (# 36), and if the flag FIAB is reset to “0” (NO in # 36), Returning to step # 10 to perform the SW discrimination process, if the flag FIAB is set to “1” (YES in # 36), it is further discriminated whether or not the switch SCHG is on (# 38). . If the bracket shooting confirmation button 15 is operated and the switch SCHG is not turned on (NO in # 38), the process returns to step # 10 to perform the SW discrimination process, and if the switch SCHG is turned on (in # 38). YES), the process proceeds to the subroutine “image selection” shown in FIG.
[0110]
The flag FIAB is a flag for determining whether or not it is possible to change or add a recorded image in auto bracket shooting. When it is set to “1”, the flag FIAB is set according to the operation of the bracket shooting confirmation button 15. A recorded image can be changed or added. If the recorded image is reset to “0”, the recorded image cannot be changed or added. Therefore, the determination of the switch SCHG in step # 38 is a determination of whether or not the bracket shooting confirmation button 15 is operated, and the processing of the subroutine “image selection” is processing for selecting an image to be changed or added to the recorded image. . The “image selection” process will be described later.
[0111]
In the SW determination process, when the setting state of the recording / reproduction mode switch 13 is switched to the reproduction mode (NO in # 28) or the main switch SM is turned off (NO in step # 30), the process returns to step # 2. .
[0112]
In the SW determination process, when the zoom operation buttons 6 and 7 (or 16, 17) are operated and the switch SZI or the switch SZO is turned on (YES in # 12 or # 14), the subroutine “zoom” shown in FIG. This process is executed, and the zooming process of the photographing lens 231 is performed.
[0113]
When the process proceeds to the “zoom” subroutine, it is determined whether or not the zoom-in switch SZI or the zoom-out switch SZO remains on (# 70, # 86). If the zoom-in switch SZI is on (YES in # 70), it is further determined whether or not the high-definition shooting mode is set by the shooting mode switch 14 (# 72).
[0114]
If the normal shooting mode is set (NO in # 72), it is determined whether or not the lens 231a for adjusting the focal length of the shooting lens 231 is at the telephoto end position (# 74), and for adjusting the focal length. If the lens 231a is not at the tele end position (NO in # 74), the focal length adjustment lens 231a is driven to the tele side (loop of # 76, # 70 to # 76), and the focal length adjustment lens is adjusted. When the lens 231a is set to the tele end position, the driving of the lens 231a is stopped (YES in # 74, # 78). That is, when the zoom operation button 6 (or 16) is kept pressed in the normal shooting mode, the zoom lens 231a for adjusting the focal length of the shooting lens 231 is moved to the tele side to perform a zoom-in operation. If the zoom operation button 6 (or 16) is kept pressed even when the focal length adjusting lens 231a reaches the tele end position, the lens 231a is stopped at the end position and the photographing lens 231 is stopped. Is fixed at the tele end (in this embodiment, f = 15 mm).
[0115]
On the other hand, if the high-definition shooting mode is set (YES in # 72), it is determined whether or not the focal length f of the photographing lens 231 is 8 mm (# 80), and the focal length f of the photographing lens 231 is determined. If smaller than 8 mm (NO in # 80), the lens 231a for adjusting the focal length of the photographing lens 231 is driven to the tele side (loop of # 82, # 70, # 72, # 80, # 82), and the photographing lens. When the focal length f of 231 reaches 8 mm, the driving of the lens 231a is stopped (YES in # 80, # 84). That is, in the high-definition shooting mode, the focal length f of the shooting lens 231 is controlled to 8 mm or less.
[0116]
In the present embodiment, the zoom-in operation in the high-definition shooting mode is limited so that the focal length f of the taking lens 231 is 8 mm or less. In this embodiment, the partial image G of the subject Q is shown in Table 1 below. A ~ G D Since the focal length f2 when shooting (see FIG. 5) is 1.8 to 1.9 times the focal length f1 of shooting the entire image G of the subject Q, it is approximately ½ of the maximum focal length f = 15 mm. This is because it is easy and reliable to control the photographing of the entire image G of the subject Q that is photographed first.
[0117]
[Table 1]
Figure 0003736129
[0118]
Table 1 shows typical four focal lengths f1 when photographing the entire image, and the angle of view θh1, θv1 in each of the horizontal and vertical directions at that time and partial images corresponding to the focal lengths f1. Focal length f2 and horizontal and vertical field angles θh2 and θv2 at that time, displacement amounts Δθh and Δθv from the front direction in the direction of the optical axis L when capturing a partial image, and focal length ratio K (= f2 / f1) ). An arbitrary focal length f1 other than the representative value of 8 mm or less can be calculated and set in the same manner.
[0119]
In the present embodiment, as shown in FIG. 5, since the entire subject is divided into four, each partial image G A ~ G D The focal length f2 at the time of imaging is approximately twice the focal length f1 at the time of imaging of the entire image G. However, the images are overlapped at the boundary portion to make it easy to combine and to be combined by camera shake at the time of shooting. The focal length ratio K (= f2 / f1) is set to be smaller than twice in consideration of preventing the lack of the image at the composite position.
[0120]
In the table, the horizontal field angle θhi and the vertical field angle θvi (i = 1, 2) are angles shown in FIGS. 24A and 24B, respectively. In the present embodiment, since the CCD 239a of 4.8 mm × 3.6 mm is used as the imaging device, the horizontal field angle θhi and the vertical field angle θvi are respectively θhi = 2 · tan˜ 1 (2.4 / fi), θvi = 2 ・ tan ~ 1 Calculated at (1.8 / fi). Further, as shown in FIG. 25, the optical axis displacement amounts Δθh and Δθv are a horizontal inclination angle and a vertical inclination angle when the CCD 239a is inclined, respectively.
[0121]
Returning to FIG. 23, if the zoom-out switch SZO is in the on state (NO in # 70, YES in # 86), whether or not the focal length adjusting lens 231a of the photographing lens 231 is at the wide end position. Is determined (# 88), and if the focal length adjusting lens 231a is not at the wide end position (NO in # 88), the focal length adjusting lens 231a is driven to the wide side (# 90, #). When the focal length adjusting lens 231a is set to the end position on the wide side, the driving of the lens 231a is stopped (YES in # 88, # 92).
[0122]
That is, when the zoom operation button 7 (or 17) is kept pressed, the zoom-out operation is performed by moving the focal length adjusting lens 231a of the photographing lens 231 to the wide side. If the zoom operation button 7 (or 17) is kept pressed even when the focal length adjusting lens 231a reaches the end position on the wide side, the lens 231a is stopped at the end position and the photographing lens 231 is stopped. Is fixed to the wide end (in this embodiment, f = 5 mm). In the zoom-out operation, since the focal length f of the photographing lens 231 does not exceed 8 mm, there is no restriction as in the case of the zoom-in operation in the high-definition photographing mode.
[0123]
Referring back to FIG. 19, in the SW determination process, when the optical axis change lever 9 or the optical axis change buttons 19a to 19d are operated and any of the switches SU to SL is turned on (any of # 16 to # 22 is YES). 26 and FIG. 27, the subroutine “imaging unit drive” processing is executed, and the optical axis direction changing processing of the imaging unit 22 is performed.
[0124]
When the process proceeds to the “imaging unit driving” subroutine, it is determined whether or not the switch SU is in an ON state by operating the optical axis changing lever 9 (or the optical axis changing button 19a) (# 100).
[0125]
If the switch SU is in the ON state (YES in # 100), it is further determined whether or not the high-definition shooting mode is set by the shooting mode switch 14 (# 102). If the high-definition shooting mode is set (YES in # 102), it is determined whether or not the imaging unit 22 is in a position displaced upward by an angle Δθv less than 10 ° from the center position (# 104). If the angle Δθv is Δθv <10 ° (YES in # 104), the imaging unit 22 is driven upward in the vertical plane (a loop of # 108, # 100 to # 104, # 108), and the imaging unit 22 is When a position displaced by 10 ° upward from the center position is reached (NO in # 104), the driving of the imaging unit 22 is stopped (# 110). That is, in the high-definition shooting mode, the imaging unit 22 is driven upward within a range of 10 ° from the center position in accordance with the operation of the optical axis change lever 9 (or the optical axis change button 19a).
[0126]
On the other hand, if the normal shooting mode is set (NO in # 102), it is determined whether or not the imaging unit 22 is in a position displaced upward by an angle Δθv of less than 20 ° from the center position (# 106). If the angle Δθv is Δθv <20 ° (YES in # 106), the imaging unit 22 is driven upward in the vertical plane (a loop of # 108, # 100, # 102, # 106, # 108), When the image pickup unit 22 reaches a position displaced 20 ° upward from the center position (NO in # 106), the drive of the image pickup unit 22 is stopped (# 110). That is, in the normal photographing mode, the imaging unit 22 is driven upward within a range of 20 ° from the center position in accordance with the operation of the optical axis changing lever 9 (or the optical axis changing button 19a).
[0127]
Further, when the switch SU is in the off state or is switched from the on state to the off state (NO in # 100), the rotation operation of the imaging unit 22 is stopped (# 112).
[0128]
Subsequently, it is determined whether or not the switch SD is turned on by operating the optical axis changing lever 9 (or the optical axis changing button 19b) (# 114), and the rotation of the imaging unit 22 is the same as in the case of the switch SU. The dynamic operation is controlled (# 114 to # 126). That is, in the high-definition shooting mode, the imaging unit 22 is driven downward within a range of 10 ° from the center position in accordance with the operation of the optical axis change lever 9 (or the optical axis change button 19b) (# 114, # 116). , # 118, # 122, # 124), and in the normal photographing mode, the imaging unit 22 moves downward within a range of 20 ° from the center position in accordance with the operation of the optical axis changing lever 9 (or the optical axis changing button 19b). Driven (# 114, # 116, # 120, # 122, # 124). Then, when the switch SD is in the off state, or when the switch SD is switched from the on state to the off state (NO in # 114), the rotation operation of the imaging unit 22 is stopped (# 126).
[0129]
Note that the vertical drive range of the image pickup unit 22 in the high-definition shooting mode is limited to Δθv <10 °, as shown in Table 1, because the image pickup unit 22 at the time of partial image shooting at f1 = 8 mm is used. This is because the displacement amount | Δθv | of the optical axis L does not exceed 10 °. Further, the vertical drive range of the image pickup unit 22 in the normal shooting mode is limited to Δθv <20 ° when the displacement amount | Δθv | is set to 20 ° or more, the shooting lens 231 of the image pickup unit 22 is connected to the camera body. This is because the second opening 5 is not exposed and cannot be photographed. Accordingly, in both shooting modes, the rotation of the imaging unit 22 in the vertical plane is limited so that meaningless operations are not performed in a range that is not substantially necessary for shooting.
[0130]
Subsequently, it is determined whether or not the switch SL is turned on by operating the optical axis changing lever 9 (or the optical axis changing button 19c) (# 128). If the switch SL is on (YES in # 128), it is further determined whether or not the high-definition shooting mode is set by the shooting mode switch 14 (# 130).
[0131]
If the high-definition shooting mode has been set (YES in # 130), it is determined whether or not the imaging unit 22 is at a position displaced leftward from the center position by an angle Δθh of less than 7 ° (# 132). If the angle Δθh is Δθh <7 ° (YES in # 132), the imaging unit 22 is driven leftward in the horizontal plane (a loop of # 136, # 128 to # 132, # 136), and the imaging unit 22 is centered. When a position displaced by 7 ° to the left from the position is reached (NO in # 132), the driving of the imaging unit 22 is stopped (# 138). That is, in the high-definition shooting mode, the imaging unit 22 is driven leftward within a range of 7 ° from the center position in accordance with the operation of the optical axis change lever 9 (or the optical axis change button 19c).
[0132]
On the other hand, if the normal shooting mode is set (NO in # 130), it is determined whether or not the imaging unit 22 is in a position displaced from the center position to the left by an angle Δθh of less than 20 ° (# 134). If the angle Δθh is Δθh <20 ° (YES in # 134), the imaging unit 22 is driven to the left in the horizontal plane (a loop of # 136, # 128, # 130, # 134, # 136), and imaging is performed. When the unit 22 reaches a position displaced 20 ° to the left from the center position (NO in # 134), the drive of the imaging unit 22 is stopped (# 138). That is, in the normal photographing mode, the imaging unit 22 is driven leftward within a range of 20 ° from the center position in accordance with the operation of the optical axis changing lever 9 (or the optical axis changing button 19c).
[0133]
Further, when the switch SL is in the off state, or when it is changed from the on state to the off state (NO in # 128), the rotation operation of the imaging unit 22 is stopped (# 140).
[0134]
Subsequently, it is determined whether or not the switch SR is turned on by operating the optical axis change lever 9 (or the optical axis change button 19d) (# 142), and the rotation of the imaging unit 22 is the same as in the case of the switch SL. The dynamic operation is controlled (# 142 to # 154). That is, in the high-definition shooting mode, the imaging unit 22 is driven rightward within a range of 7 ° from the center position in accordance with the operation of the optical axis change lever 9 (or the optical axis change button 19d) (# 142 to # 146). , # 150, # 152), in the normal photographing mode, the imaging unit 22 is driven rightward within a range of 20 ° from the center position in accordance with the operation of the optical axis changing lever 9 (or the optical axis changing button 19d). (# 142, # 144, # 148, # 150, # 152). Then, when the switch SR is in the off state or when the switch SR is changed from the on state to the off state (NO in # 142), the rotation operation of the imaging unit 22 is stopped (# 154).
[0135]
Note that the drive range in the left-right direction of the imaging unit 22 in the high-definition shooting mode is limited to Δθv <7 °, as shown in Table 1, as shown in Table 1 of the imaging unit 22 at the time of partial image shooting at f1 = 8 mm. This is because the displacement amount | Δθh | of the optical axis L does not exceed 7 °. In addition, the drive range in the left-right direction of the image pickup unit 22 in the normal shooting mode is limited to Δθv <20 °. When the displacement Δθv is 20 ° or more, the shooting lens 231 of the image pickup unit 22 is This is because the image is not exposed to the opening 5 and cannot be photographed. Therefore, in both shooting modes, the rotation of the image pickup unit 22 is restricted so as to prevent meaningless operations in a range that is not substantially necessary for shooting even in a horizontal plane.
[0136]
Returning to FIG. 19, when the release button 8 (or 18) is pressed halfway and the switch S1 is turned on in the SW determination process (YES in # 10), the subroutine “S1 ON” shown in FIGS. 28 and 29 is performed. The above process is executed, and the photographing process is performed.
[0137]
When the process proceeds to the “S1 ON” subroutine, first the flag FIAB is reset to “0” (# 160). Subsequently, an imaging operation by the imaging unit 239 is performed (# 162), and an image signal output from the imaging unit 239 is converted into image data by the A / D conversion unit 206, and then a predetermined signal is output by the signal processing unit 208. Processing is performed and temporarily stored in the RAM 209 (# 164). The image data temporarily stored in the RAM 209 is immediately read out, thinned out, transferred to the display control unit 301 of the LCD display unit 3 via the cable 11, and displayed on the LCD panel 12 (# 166). That is, live view display is performed on the LCD display unit 3.
[0138]
Subsequently, exposure adjustment is performed using the image data temporarily stored in the RAM 209 (# 168). In the digital camera 1 according to the present embodiment, the aperture is fixed (for example, Av = 4.0 [Ev]), and exposure control is performed by controlling the exposure time (charge accumulation time) SS of the CCD 239a. . The exposure time SS is calculated based on the subject brightness Bv (for example, the average level value of the pixel data of the G color component) calculated using the image data temporarily stored in the RAM 209. It has become. That is, in live view display, an image is captured at a predetermined cycle (for example, 1/30 second), so that the subject luminance Bv is calculated for each captured image and the subject luminance Bv is within an appropriate range. If it is clear beyond the appropriate range, the current exposure time SS is shortened by one step. If it is dark beyond the proper range, the current exposure time SS is increased by one step and the next exposure time SS is increased by one step. By performing the imaging operation, an exposure time SS in which the subject luminance Bv is within an appropriate range is set.
[0139]
Table 2 is a table for controlling the exposure time SS. In Table 2, the shaded exposure time SS (11 ms) is an initial setting value set when the camera is activated. The minimum value of the exposure time SS is 0.25 ms, and the maximum value is 32 ms.
[0140]
[Table 2]
Figure 0003736129
[0141]
Table 3 shows an example of a method for adjusting the exposure time SS based on the subject brightness Bv.
[0142]
In Table 3, the value of the subject brightness Bv is represented by 8-bit data. The luminance level is divided into three level ranges of “high”, “medium”, and “low”, and an appropriate range when the average value of the pixel data of the G color component is in the “medium” level range (85 to 169). The exposure time SS is not changed, and when it is in the “low” level range (0 to 84), the exposure time SS is increased by one step as an underexposure and is in the “high” level range (170 to 255). In this case, the exposure time SS is shortened by one step due to overexposure. When the exposure time SS is 32 ms and the subject brightness Bv is at the “low” level (when Bv ≦ 84), the flash is automatically emitted.
[0143]
[Table 3]
Figure 0003736129
[0144]
Therefore, when the switch S1 is turned on, the exposure time SS is set to the initial value (11 ms) and the first image is taken, and the exposure time SS is adjusted based on the subject luminance value Bv calculated from this captured image. Is called. That is, if 170 ≦ Bv ≦ 255, the exposure time SS is changed to 8.0 [ms]. If 0 ≦ Bv ≦ 84, the exposure time SS is changed to 16.0 [ms], and 85 ≦ If Bv ≦ 169, the exposure time SS is not changed.
[0145]
Subsequently, it is determined whether or not the switch S2 is turned on (# 170). If the switch S2 is in the off state (NO in # 170), as long as the switch S1 is kept on (in # 172). YES), the process returns to step # 162, and the operations of imaging, display, and exposure adjustment are repeated (loop of # 162 to # 172). If the switch S1 is turned off without turning on the switch S2 during this time (NO in # 172), the live view display on the LCD display unit 3 is stopped (# 174), and the process returns to the SW determination process of the main flow. To do.
[0146]
On the other hand, when the release button 8 (or 18) is fully pressed in the live view display and the switch S2 is turned on (YES in # 170), the process proceeds to step # 176, and the captured image and the captured image are recorded in the flash memory 212. Is done.
[0147]
That is, after the imaging unit 239 performs an imaging operation with the exposure time SS adjusted immediately before (# 176), the image signal output from the imaging unit 239 is converted into image data by the A / D conversion unit 206, and then The signal processing unit 208 performs predetermined signal processing and temporarily stores it in the RAM 209 (# 178). Since the RAM 209 has a storage capacity for five sheets as described above, the image data is stored in the first image storage area.
[0148]
The image data temporarily stored in the RAM 209 is immediately read out, thinned out, transferred to the display control unit 301 of the LCD display unit 3 via the cable 11, and displayed on the LCD panel 12 (# 180). That is, the captured image is displayed on the LCD display unit 3 so that the photographer can monitor the captured image.
[0149]
Subsequently, the setting state of the shooting mode is determined (# 182), and if the high-definition shooting mode is set (YES in # 182), the high-definition shooting process is performed in steps # 184 to # 216 and # 232. If the normal shooting mode is set (NO in # 182), normal shooting processing is performed in steps # 218 to # 232.
[0150]
When shifting to the high-definition photographing process, the photographing lens 231 is zoomed in at a predetermined focal length ratio K (= f2 / f1) (# 184, see Table 1). In FIG. A ), Upper right (partial image G B ), Lower right (partial image G D ) And lower left (partial image G C ), The photographing operation is repeated four times (# 186 to # 210).
[0151]
That is, each partial image G A ~ G D The driving direction and the driving amount of the imaging unit 22 with respect to the image are determined (# 186). A In the imaging direction (direction a in FIG. 5) (# 188). Then, the partial image G is captured by the imaging unit 239. A (# 190), the captured image is converted into image data by the A / D conversion unit 206, subjected to predetermined signal processing by the signal processing unit 208, and then stored in the second image in the RAM 209. It is temporarily stored in the area (# 192).
[0152]
Subsequently, the imaging unit 22 performs the partial image G B In the imaging direction (direction b in FIG. 5) (# 194), and the partial image G is captured by the imaging unit 239. B The captured image is temporarily stored in the third image storage area of the RAM 209 after predetermined signal processing (# 196, # 198). Hereinafter, similarly, the image pickup unit 22 performs the partial image G. D , G C Are sequentially driven (# 200, # 206) in the imaging direction (directions d and c in FIG. 5), and the partial images G are respectively captured by the imaging unit 239. D , G C Are captured (# 202, # 208), and the captured images are temporarily stored in the fourth and fifth image storage areas of the RAM 209 after predetermined signal processing (# 204, # 210). ).
[0153]
And all the partial images G A ~ G D When the image pickup is completed, the image pickup unit 22 is returned to the center position (# 212), and the five pieces of image data (the first image G of the entire subject photographed and the four partial images G) temporarily stored in the RAM 209 A ~ G D The image data is subjected to a predetermined compression process in the decompression / compression processing unit 210 and then recorded in the flash memory 212 via the recording / reading processing unit 211. At this time, the entire image G and the partial image G A ~ G D Independent image files are created and recorded in the flash memory 212 (# 214). Further, the focal length of the photographing lens 231 is zoomed out to the original focal length (that is, from the focal length f2 for capturing a partial image to the focal length f1 for capturing an entire image) (# 216). Note that when image data of a captured image is recorded, non-image data related to the captured image (for example, information regarding a shooting mode and information such as a shooting date) is also recorded.
[0154]
FIG. 30 is a diagram schematically showing the imaging process (the processes of steps # 160 to # 170 and # 176 to # 216) in the above-described high-definition imaging mode.
[0155]
In the figure, A, B, C, and D in the entire image G are partial images G, respectively. A ~ G D It is an image included in. Further, the display image indicates an image displayed on the LCD display unit 3, and the stored image indicates an image temporarily stored in the RAM 209.
[0156]
As shown in the figure, when the switch S1 is in the on state, the entire subject image is captured and the captured image is displayed on the LCD display unit 3. When the release is instructed, the entire image G of the subject is captured, and the entire image G is stored in the RAM 209 and displayed on the LCD display unit 3 on the monitor. Subsequently, partial image G A ~ G D Is G A , G B , G D , G C In this order, each partial image G A ~ G D Are stored in the RAM 209. On the other hand, the monitor display of the entire image G is continued on the LCD display unit 3, and the partial image G A ~ G D Is not displayed on the monitor. Thus, partial image G A ~ G D The reason why the monitor display is not performed is that, in the high-definition shooting mode, the photographer normally captures the entire subject and wants to monitor the captured image (entire image of the subject).
[0157]
FIG. 31 shows the entire image G and the partial image G recorded in the flash memory 212. A ~ G D It is a figure which shows the structure of these image files.
[0158]
Each image file includes a header part AR1 and an image recording part AR2, and the header part AR1 includes various information (non-image data) attached to the recorded image such as information on the photographing mode, photographing date, image title, and exposure time SS. Is recorded, and image data of the captured image is recorded in the image recording unit AR2.
[0159]
As information regarding the shooting mode, shooting mode information, image type information, image position information, frame number, and focal length information are recorded as bit data as shown in Table 4 below.
[0160]
[Table 4]
Figure 0003736129
[0161]
The shooting mode information is information for identifying the normal shooting mode and the high-definition shooting mode. The shooting mode information is composed of 1-bit data. For example, when “1” is set, the high-definition shooting mode is indicated, and when “0” is set, the normal shooting mode is indicated. The image type information is information for identifying the whole image and the partial image of the five images shot in the high-definition shooting mode.
[0162]
The image type information is also composed of 1-bit data. For example, if “1” is set, the entire image is indicated, and if “0” is set, the partial image is indicated. The position information is information indicating which position of the entire image the partial image corresponds to. In the present embodiment, since the whole is divided into four parts, the position information is composed of 2-bit data, and for example, “00”, “ Bit data of “01”, “10”, and “11” are allocated. This bit data allocation method can be arbitrarily performed.
[0163]
The frame number is information for identifying the number of the whole image associated with the partial image. Each photographed image is assigned a frame number consisting of 4-bit data. Since the frame number of the entire image G is “####” in Table 4, the associated partial image G A ~ G D The frame number for "" is also "####". The focal length information indicates the focal length of the photographing lens 231 at the time of photographing. In the high-definition shooting mode, as shown in Table 1, the entire image is picked up at the focal length f1, and the partial image is picked up at the focal length f2 (= K · f1). The distance f1 or the focal distance f2 is recorded as, for example, 4-bit data.
[0164]
As described above, all image data is recorded as independent image files in the flash memory 212 regardless of the shooting mode. However, since information about the shooting mode is recorded in the header part AR1 in each image file, Partial image G taken in high-definition shooting mode i Even if (i = A, B, C, D), other partial images G related thereto i And the relationship with the whole image G does not become ambiguous. A ~ G D The image can be reliably searched even when the entire image G ′ is created by combining the images.
[0165]
Returning to FIG. 29, when the zoom-out of the focal length of the taking lens 231 is completed, the display timer that counts the monitor display time of the captured image on the LCD display unit 3 is started (# 232), and SW discrimination processing ( Return to FIG.
[0166]
On the other hand, when the process proceeds to the normal photographing process in step # 182, the photographing operation is continuously performed twice (# 218, # 222), and each captured image is converted into image data by the A / D conversion unit 206, and signal processing is performed. After predetermined signal processing is performed in the unit 208, the signal is temporarily stored in the second and third image storage areas of the RAM 209 (# 220, # 224). This continuous shooting is the above-described auto bracket shooting.
[0167]
Subsequently, the imaging unit 22 is returned to the center position (# 226), and among the three pieces of image data temporarily stored in the RAM 209, the image data stored in the first image storage area is expanded / compressed. After predetermined compression processing is performed by the unit 210, it is recorded as an independent image file in the flash memory 212 via the recording / reading processing unit 211 (# 228). Then, the flag FIAB is set to “1” (# 230), the display timer starts counting (# 232), and the process returns to the SW determination process (see FIG. 19).
[0168]
The setting of the flag FIAB shifts to the subroutine “image selection” shown in FIG. 32 in step # 38 described above, and allows the recording image to be changed or added to the flash memory 212 based on the operation of the bracket shooting confirmation button 15. It is.
[0169]
Here, the processing of the subroutine “image selection” will be described.
When the process proceeds to the “image selection” subroutine, it is determined whether or not any of the switches SU, SD, SL, and SR is turned on by operating the optical axis change lever 9 (or the optical axis change buttons 19a to 19d). (# 240, # 244, # 248, # 254). If neither switch is turned on, it is determined whether or not the switch SCHG is turned on by operating the bracket shooting confirmation button 15 (# 258), and if the switch SCHG is not turned on (in # 258). NO), the process returns to step # 240, and the change determination of the switches SU, SD, SL, SR is repeated, and if the switch SCHG is on (YES in # 258), the process returns to the SW determination process (see FIG. 19). To do.
[0170]
If switch SU is turned on in the change determination of switches SU, SD, SL, SR (YES in # 240), the image displayed on LCD display unit 3 is changed to the previous captured image (# 242), if the switch SD is on (YES in # 244), the image displayed on the LCD display unit 3 is changed to the next captured image (# 256).
[0171]
If the switch SL is on (YES in # 248), the first image file recorded in the flash memory 212 is erased (# 250) and displayed on the LCD panel 12 as the image file. The captured image is recorded (# 252). If the switch SR is turned on (# 254), the captured image displayed on the LCD panel 12 in addition to the first image file recorded in the flash memory 212 is newly recorded ( # 256).
[0172]
FIG. 33 is a diagram schematically illustrating the above-described “image selection” process.
At the end of shooting in the normal shooting mode, the first captured image (first image) stored in the RAM 209 is displayed on the LCD panel 12 and recorded in the flash memory 212 as shown in FIG. (Refer to the processing of # 180 and # 228). In this state, when the switch SD is turned on by the downward operation of the optical axis changing lever 9 (or the optical axis changing button 19b), the first sheet → second sheet → third sheet → 1 as indicated by the white arrow each time. The image displayed on the LCD panel 12 is changed in the order of the sheets (descending order). On the other hand, when the switch SU is turned on by the upward operation of the optical axis changing lever 9 (or the optical axis changing button 19a), the first sheet → the third sheet → the second sheet → the first sheet as indicated by the black arrow each time. The image displayed on the LCD panel 12 is changed in the order of eyes (ascending order).
[0173]
Further, for example, when the switch SL is turned on by the left operation of the optical axis changing lever 9 (or the optical axis changing button 19c) in a state where the second photographed image is displayed on the LCD panel 12, it is recorded in the flash memory 212. The first photographed image is deleted, and the second photographed image is recorded in the flash memory 212 instead. Further, for example, when the switch SR is turned on by the right operation of the optical axis changing lever 9 (or the optical axis changing button 19d) in a state where the third photographed image is displayed on the LCD panel 12, it is recorded in the flash memory 212. In addition to the first photographed image, the third photographed image is also recorded in the flash memory 212.
[0174]
As described above, in the normal shooting mode, even if the photographer performs a single release operation, shooting is continuously performed three times, and these captured images are temporarily stored in the RAM 209 and first shot. An image is recorded in the flash memory 212. Then, when the photographer performs the next release operation without operating the bracket shooting confirmation button 15, the shooting is continuously performed three times again, and these shot images are temporarily stored in the RAM 209. The captured image is recorded in the flash memory 212.
[0175]
Therefore, as long as the photographer operates the release button 8 (or 18) without operating the bracket shooting confirmation button 15, the first shot image is recorded in the flash memory 212, so that the auto bracket shooting function is substantially effective. Therefore, the same processing as the normal photographing operation (one photographing by one release operation) is performed. On the other hand, when the photographer enters the confirmation mode in which the image can be changed by operating the bracket photographing confirmation button 15 after the photographing is finished, the auto bracket photographing function becomes obvious, and the photographer's optical axis changing lever 9 (or the optical axis changing button 19a). To 19d), the recorded contents of the flash memory 212 can be changed or added.
[0176]
In other words, since the photographer can choose to use the auto bracket shooting function immediately after shooting, the shooting result is judged as necessary, and a better shot image is changed or added according to the judgment result. Therefore, there are few shooting failures and operability is improved.
[0177]
In this embodiment, in auto bracket shooting, continuous shooting is simply performed three times. However, continuous shooting may be performed by slightly changing the exposure time SS in each shooting. Further, continuous shooting may be performed by slightly changing the focal position of the shooting lens 231 in each shooting, slightly changing the focal length, or changing the optical axis direction of the imaging unit 22. Further, since the capacity of the RAM 209 can be stored up to five, it is possible to perform continuous photographing five times and select a recorded image from these photographed images.
[0178]
Returning to FIG. 20, in the SW determination process, when the shooting mode switch 14 is operated and the high-definition shooting mode is set (YES in # 24), the subroutine “lens check” process shown in FIG. 34 is executed. Adjustment processing of the position of the imaging unit 22 and the focal length of the photographing lens 231 is performed (# 26).
[0179]
When the process proceeds to the “lens check” subroutine, it is determined whether or not the focal length f of the photographing lens 231 exceeds 8 mm (# 260). If f> 8 mm (YES in # 260), the photographing lens 231 is checked. The photographing lens 231a for adjusting the focal length is driven to the wide side to a position where f = 8 mm (# 262, # 264, # 266).
[0180]
If f ≦ 8 mm (NO in # 260), it is determined whether or not the position of the imaging unit 22 is shifted by ± 7 ° or more with respect to the vertical plane including the center position in the horizontal plane (# 268), ± 7 If there is a misalignment of more than 0 ° (YES in # 268), the imaging unit 22 is driven in the horizontal plane and set in the vertical plane including the center position (# 270, # 272, # 274).
[0181]
Subsequently, it is determined whether or not the position of the imaging unit 22 is shifted by ± 10 ° or more with respect to the horizontal plane including the center position in the vertical plane (# 276), and if there is a positional shift of ± 10 ° or more (#) When the imaging unit 22 is driven in the vertical plane and set in the horizontal plane including the center position (# 278, # 280, # 282), the process returns to the main flow.
[0182]
In this lens check process, in the high-definition shooting mode, the imaging unit 22 is set at the center position, and as shown in Table 1, the focal length f of the shooting lens 231 is set to 8 mm or less, and the entire image G of the subject is captured. Therefore, the position of the imaging unit 22 and the focal length f of the photographing lens 231 are adjusted so that photographing in the high-definition photographing mode is possible. That is, when the focal length f of the photographing lens 231 is set to a maximum value of 8 mm and the optical axis direction of the imaging unit 22 is not within the range of the displacement amounts Δθh and Δθv in the optical axis direction of the imaging unit 22 at f = 8 mm. Even when the imaging unit 22 is set at the center position (position where the optical axis direction is the front direction) and the photographer does not manually change the focal length f, the position of the imaging unit 22 and the focal length f of the photographing lens 231 are set. The camera is automatically set to a predetermined position and a predetermined focal length so that high-definition shooting can be reliably performed.
[0183]
Next, processing in the playback mode will be described.
When the process proceeds to the “playback mode” subroutine shown in FIG. 35 in step # 6, first, the frame No. recorded in the flash memory 212. One captured image is read by the recording / reading processing unit 211, expanded by the expansion / compression processing unit 210, transferred to the display control unit 301 in the LCD display unit 3 via the cable 11, and then the LCD panel 12. Is reproduced and displayed (# 290).
[0184]
Subsequently, the presence / absence of changes in the switches SM, SP / R, SU, SD, SR, SL, SCHG, and SDEL are sequentially determined (# 292, # 294, # 296, # 300, # 304, # 314). # 322, # 336).
[0185]
If there is no change in any of the switches, the process returns to step # 292, and the process for determining whether or not the switches SM to SDEL have changed (hereinafter referred to as RSW determination process) is performed (# 292, # 294, # 286, # 286). 300, # 304, # 314, # 322, and # 336 loop).
[0186]
In the RSW determination process, when the main switch SM is turned off (NO in # 292) or the setting state of the recording / playback mode switch 13 is switched to the recording mode (YES in # 294), step # 2 ( Return to FIG.
[0187]
If the switch SU is turned on by operating the optical axis change lever 9 (or the optical axis change button 19a) while the reproduction mode is maintained (YES in # 296), the next frame No. is read from the flash memory 212. The captured image is read by the recording / reading processing unit 211, expanded by the expansion / compression processing unit 210, transferred to the display control unit 301 in the LCD display unit 3 via the cable 11, and then transferred to the LCD panel 12. Playback is displayed (# 298).
[0188]
When the switch SD is turned on by operating the optical axis change lever 9 (or the optical axis change button 19b) (YES in # 300), the previous frame No. is read from the flash memory 212. The captured image is read by the recording / reading processing unit 211, expanded by the expansion / compression processing unit 210, transferred to the display control unit 301 in the LCD display unit 3 via the cable 11, and then transferred to the LCD panel 12. Playback is displayed (# 302).
[0189]
That is, as shown in FIG. 37, every time the switch SU is turned on in the captured image recorded in the flash memory 212, every time the frame number increases (in ascending order) and every time the switch SD is turned on. The images are sequentially reproduced on the LCD panel 12 in the direction in which the frame numbers decrease (descending order). In this case, no. As for the images of No. 4 and No. 5, only the entire image G is reproduced on the LCD panel 12, and the partial image G i (Nos. 4-1 to 4-4, Nos. 5-1 to 5-4) are not reproduced on the LCD panel 12. Thus, partial image G i Is not performed, since the operator is considered to require monitoring of the captured image (that is, the image of the entire subject in the high-definition shooting mode). i I am trying not to play. The image reproduced on the LCD panel 12 is subjected to borders W1 and W2 (see the double frames No. 1 and No. 4), and the color of the border W1 of the image taken in the normal shooting mode and high-definition photography. By making the color of the border W2 of the whole image photographed in the mode different, the operator can identify the image photographed in which photographing mode.
[0190]
Returning to FIG. 35, when the switch SR is turned on by the operation of the optical axis change lever 9 (or the optical axis change button 19d) (YES in # 304), information regarding the shooting mode of the image reproduced and displayed on the LCD panel 12 Is determined whether the image is an image captured in the high-definition shooting mode (# 306). If the image is not a high-definition captured image (NO in # 306), the process proceeds to step # 314, where the high-definition image is captured. If it is a photographed image (YES in # 306), it is determined whether or not it is the entire image G based on information relating to the photographing mode (# 308).
[0191]
If the reproduced image is the entire image G (YES in # 308), the partial image G that was first taken from the flash memory 212 is displayed. A Is read out by the recording / reading processing unit 211 and expanded by the expansion / compression processing unit 210, then transferred to the display control unit 301 in the LCD display unit 3 through the cable 11, and reproduced and displayed on the LCD panel 12. (# 310). The reproduced image is a partial image G. i If i = A, B, C, D (NO in # 308), the reproduced partial image G from the flash memory 212 is reproduced. i Partial image G taken after i Is read out by the recording / reading processing unit 211 and expanded by the expansion / compression processing unit 210, then transferred to the display control unit 301 in the LCD display unit 3 through the cable 11, and reproduced and displayed on the LCD panel 12. (# 312).
[0192]
That is, when the image reproduced and displayed on the LCD panel 12 is a high-definition photographed image, G is displayed every time the switch SR is turned on. A (Upper left image), G B (Upper right image), G D (Lower right image), G C Partial image G in the order of (lower left image) i Is cyclically reproduced and displayed on the LCD panel 12. For example, in FIG. 4 is displayed on the LCD panel 12, if the operator tilts the optical axis changing lever 9 to the right (or presses the optical axis changing button 19d), No. 4 is displayed for each operation. 4-1 → No. 4-2 → No. 4-3 → No. 4-4 → No. Partial image G in the order of 4-1. i Are cyclically reproduced on the LCD panel 12.
[0193]
Partial image G i Is also displayed on the LCD panel 12, and the border is colored, and the color of the border is different from that during the reproduction of the whole image of the normal photographed image or the high-definition photographed image. i It is possible to identify that it is a reproduction of.
[0194]
In the present embodiment, the display image of the LCD panel 12 is provided with different-colored borders W1 and W2 so that the content of the reproduced image can be identified. May be displayed so that the content of the reproduced image can be identified.
[0195]
Returning to FIG. 36, when the switch SL is turned on by the operation of the optical axis change lever 9 (or the optical axis change button 19c) (YES in # 314), information regarding the shooting mode of the image reproduced and displayed on the LCD panel 12 Is determined whether the image is a high-definition photographed image (# 316). If it is not a high-definition photographed image (NO in # 316), the process proceeds to step # 322, and if it is a high-definition photographed image. (YES in # 316), the reproduction image of the LCD panel 12 is the partial image G based on the information regarding the shooting mode. i Is determined (# 318).
[0196]
If the reproduced image is the entire image G (NO in # 318), the process proceeds to step # 322, where the reproduced image is the partial image G. i If so (YES in # 318), the partial image G is read from the flash memory 212. A Is read out by the recording / reading processing unit 211, decompressed by the decompression / compression processing unit 210, and then transferred to the display control unit 301 in the LCD display unit 3 via the cable 11. It is reproduced and displayed on the panel 12 (# 320).
[0197]
That is, the partial image G in which the image reproduced and displayed on the LCD panel 12 is captured in the high-definition shooting mode. i When the switch SL is turned on, the reproduced image on the LCD panel 12 is displayed in the partial image G. i Is switched to the entire image G corresponding to. For example, in FIG. 4-1 Partial image G A Is displayed on the LCD panel 12, if the operator tilts the optical axis changing lever 9 to the left (or presses the optical axis changing button 19 c), No. 4 is displayed. 4 is reproduced on the LCD panel 12. The LCD panel 12 has a No. 4, the display on the LCD panel 12 is not changed even if the operator again tilts the left side of the optical axis changing lever 9 (or presses the optical axis changing button 19 c). No. The display of the entire image G of 4 is maintained.
[0198]
If the switch SCHG is turned on by operating the bracket shooting confirmation button 15 in the state where the playback mode is maintained (YES in # 322), the image is displayed based on information about the shooting mode of the image played back and displayed on the LCD panel 12. Is a high-definition photographed image (# 324). If it is not a high-definition photographed image (NO in # 324), the process proceeds to step # 336, and if it is a high-definition photographed image (# 324) YES), it is determined whether or not the reproduced image of the LCD panel 12 is the entire image G based on the information regarding the photographing mode (# 326).
[0199]
If the reproduced image is the entire image G (YES in # 326), the content of the “shooting mode information” of the information related to shooting recorded in the header portion of the image file corresponding to the played image in the flash memory 212 is “ “High-definition shooting mode” is changed to “normal shooting mode” (# 328). That is, the bit data indicating the shooting mode information is changed from “1” to “0” (see Table 4).
[0200]
Also, four partial images G related to the entire image G in the flash memory 212 are displayed. i Are erased (# 330). The reproduced image is a partial image G. i If so (NO in # 326), the partial image G is stored in the flash memory 212. i The image file is copied (# 332), and the content of the “shooting mode information” in the information related to shooting recorded in the header of the copied image file is changed from “high definition shooting mode” to “normal shooting mode”. (# 334).
[0201]
That is, when the image reproduced and displayed on the LCD panel 12 is the whole image G taken in the high-definition shooting mode, when the switch SCHG is turned on, the whole image G recorded in the flash memory 212 and the whole image G are displayed. Related partial image G i A set of high-definition shooting mode image files consisting of the image file of the whole image G is changed to a normal shooting mode image file, and the partial image G i By deleting the image file, the image file is changed to the image file in the normal shooting mode.
[0202]
If the switch SDEL is turned on by operating the delete button 20 while the playback mode is maintained (YES in # 336), the image is displayed on the basis of information on the shooting mode of the image played back and displayed on the LCD panel 12. It is determined whether or not the image is a fine photographic image (# 338), and if it is not a high-definition photographic image (NO in # 338), the image file corresponding to the image being reproduced in the flash memory 212 is erased ( # 340).
[0203]
If it is a high-definition photographed image (YES in # 338), it is determined whether or not the reproduced image is the entire image G based on information relating to the photographing mode (# 342). If it is the entire image G (YES in # 342). ), An image file of the whole image G in the flash memory 212 and four partial images G related to the whole image G i Are deleted (# 344, # 346). The reproduced image on the LCD panel 12 is a partial image G. i If so (NO in # 342), the partial image G in the flash memory 212 i Is deleted (# 348), and the partial image G in the flash memory 212 is deleted. i Other partial images G related to i In addition, the content of the “shooting mode information” in the information related to shooting recorded in the header portion of the image file of the entire image G is changed from “high definition shooting mode” to “normal shooting mode” (# 350, # 352).
[0204]
For example, in FIG. 4-1 Partial image G A The partial image G in the flash memory 212 A Image file is deleted and frame number no. Other partial images G of 4-2, 4-3 and 4-4 B , G D , G C And frame number no. The content of the “shooting mode information” recorded in the header portion of the image file of the entire image 4 is changed to “normal shooting mode”.
[0205]
Next, the entire image G and the partial image G captured in the high-definition shooting mode. A ~ G D A method of creating an overall image having a higher definition than the overall image G by pasting and synthesizing images using the above will be described.
[0206]
In the present embodiment, in order to reduce the processing load of image composition processing at the time of shooting, the image composition processing is performed by a dedicated image processing apparatus or an image processing apparatus configured by a computer system after shooting. Accordingly, a high-definition image creation system is configured by combining the digital camera 1 and the image processing apparatus. Note that an image composition processing function described below may be provided in the digital camera 1 so that a high-definition image creation system is configured by the digital camera 1 alone. In this digital camera 1, the entire image G and partial image G stored in the RAM 209 after shooting. A ~ G D Are combined to create a whole image having a higher definition than the whole image G, and this high-definition photographed image is recorded in the flash memory 212.
[0207]
FIG. 38 is a block diagram of an image processing apparatus according to an embodiment.
The image processing apparatus shown in FIG. 1 includes a control unit 31, a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, an image memory 34, a GUI (Graphical User Interface) 35, an I / F 36, an input device 37, a display. It comprises a device 38 and an external storage device 39. The control unit 31, the ROM 32, the RAM 33, the image memory 34, the GUI 35, and the I / F 36 are built in the apparatus main body 30, and the input device 37 and the display device 38 are connected to the control unit 31 via the GUI 35, and are external storage devices. 39 is connected to the control unit 31 via the I / F 36.
[0208]
The control unit 31 performs the entire image G and the partial image G A ~ G D Is used to execute the image combining process. The control unit 31 includes an image file input / output processing unit 311 and an image composition unit 312 for performing image composition processing.
[0209]
The image file input / output processing unit 311 stores the color image (electrical image) of the image file input from the input device 37 on the recording medium (for example, the external recording device 39 or the internal storage if the image file is stored). Read out from a storage device or the like) and output the image data after image synthesis to a predetermined output destination (recording medium, printer, or other peripheral device) input from the input device 37.
[0210]
The image composition unit 312 reads the entire image G and the partial image G read from the flash memory 212 via the external storage device 39. A ~ G D Is used to create a photographic image of the entire subject with high definition. As will be described later, the image synthesis unit 312 enlarges the entire image G and determines the size of the image after synthesis (that is, the frame of the synthesized image), while each partial image G A ~ G D Extract a partial image of a predetermined area to be synthesized from each of the partial images G within the frame. A ~ G D The extracted image is synthesized so as to be pasted on the enlarged whole image G ′ to create a high-definition whole image G ″.
[0211]
The ROM 32 is a memory in which a processing program for image composition processing to be described later is stored. The RAM 33 temporarily stores various data calculated by the image composition process. Further, the image memory 34 stores image data read from the flash memory 212 for image synthesis processing. The image memory 34 has a storage capacity of at least 15 image data, and the entire image G and the partial image G A ~ G D Is separated into R, G, and B color components and stored.
[0212]
The display device 38 performs various displays such as a work menu, a processing state, and a processing result (including a monitor display of a high-definition image after image synthesis), and includes a CRT (Cathode Ray Tube) and an LCD (Liquid Crystal Display). And the like. On the display device 38, image correction items are displayed as icons in the work menu, and the operator can perform an image composition process described later by selecting the icon.
[0213]
The external storage device 39 is detachable from the flash memory 212, and reads an image file recorded in the flash memory 212 and writes a newly created image file to the flash memory 212.
[0214]
FIG. 39 is a flowchart showing image composition processing in the image composition unit 312. FIG. 40 is a diagram showing a processing procedure for image composition. In FIG. 40, partial image G A ~ G D Are taken by enlarging the dotted line portions a, b, c, and d with respect to the entire image G, and the hatched portion of each image indicates a portion protruding from the frame of the entire image G.
[0215]
In the image composition process, the image file of the high-definition photographed image recorded in the flash memory 212 (the entire image G and the partial image G A ~ G D Are read into the image memory 34 in the image composition apparatus, and a high-definition composite image is created according to the processing procedure shown in FIG.
[0216]
First, image data is read from the image file of the entire image G, and an enlargement process is performed (# 360, see FIG. 40A). This enlargement process reduces the size of the entire image G to the partial image G. i The frame of the image after synthesis is determined. That is, the size of the composite image is determined in advance.
[0217]
Partial image G i As shown in Table 4, since the entire image G is photographed with a magnification of the focal length ratio K, the entire image G is magnified with the focal length ratio K.
[0218]
The focal length ratio K is the partial image G i It can be obtained by reading out information related to the shooting mode recorded in the image file. Partial image G i When the focal length ratio K recorded in the image file is not used or the partial image G i If the focal length ratio K is not recorded in the image file, the partial image G i Alternatively, the magnification of the entire image can be set by performing correlation calculation while changing the size of the entire image G. In this method, the partial image G i When the digital camera 1 is moved for some reason, the distance to the subject changes and the partial images G i There is an advantage that matching position calculation and image synthesis can be performed appropriately even when the sizes of the two are slightly shifted from each other.
[0219]
Subsequently, partial image G A Image data is read out from the image file of the partial image G A And the enlarged whole image G ′ (hereinafter referred to as the enlarged whole image G ′) are calculated, and based on the calculation result, the enlarged whole image G ′ and the partial image G in the enlarged whole image G ′ are calculated. A (Hereinafter, this position is referred to as a matching position) is calculated (# 362). Then, the partial image G is placed at the matching position of the calculated enlarged whole image G ′. A The image synthesis is performed so as to paste the image of the corresponding portion of (# 364, see FIG. 40B). That is, the image data at the matching position of the enlarged whole image G ′ is the partial image G A Is replaced with image data at a corresponding position.
[0220]
In the correlation calculation, for example, a plurality of feature points included in the enlarged whole image G ′ are extracted, and a partial image G as shown in FIG. A The geometrical transformation amount that maximizes the degree of overlap of the feature points is calculated as compared with the enlarged whole image G ′ while performing geometric transformation such as translation, rotation, enlargement / reduction, and the like. As described above, the image data at the matching position of the enlarged whole image G ′ is converted into each partial image G. A ~ G D Since a composite image is created by substituting with the image data, the geometric transformation amount calculated by the correlation calculation is determined by each partial image G. A ~ G D This is information that gives a synthesis position (that is, a matching position) in the synthesis process.
[0221]
In FIG. 41, g1, g2, g3, and g4 are positions with the highest degree of overlap in the enlarged whole image G0 of the upper left, upper right, lower right, and lower left partial images G1, G2, G3, and G4 (that is, matching positions). ). The upper left partial image G1 shows a case where the matching position g1 is calculated by the parallel movement method using the character string C1 or the rectangle C2 of “ABC” as a feature point, and the upper right partial image G2 is enlarged using the rectangle C3 as a feature point. / A case where the matching position g2 is calculated by the reduction method is shown. The lower right partial image G3 shows a case where the matching position g3 is calculated by the rotational movement method with the edge portion of the thick line C4 or the thick line C4 as a feature point, and the lower left partial image G4 shows a rectangle C2 or a thick line C4. The case where the matching position g4 is calculated by the brightness | luminance conversion method as a feature point is shown.
[0222]
A feature point is image data of a region having characteristic image information such as a specific character or character string, a specific line, a specific geometric shape (for example, a triangle, a circle, an ellipse, etc.) or a specific edge portion. is there. Characters and character strings as feature points are extracted by a known character recognition method, geometric figures as feature points are extracted by a known texture analysis, and edge portions as feature points are extracted by a known edge detection method. The
[0223]
The overlapping degree of the feature points is the correlation value between the image data constituting the feature points of the enlarged whole image G0 and the image data of the pixel positions of the geometrically transformed partial images G1 to G4 corresponding to the feature points, The determination is made using the absolute value sum of the differences or the square sum of the differences between the two image data.
[0224]
Returning to FIG. 39, subsequently, the partial image G B Image data is read out from the image file of the partial image G B And the enlarged whole image G ′ are calculated, and the partial image G is calculated based on the calculation result. B The matching position of the enlarged whole image G ′ with respect to is calculated (# 366). Then, the partial image G is placed at the matching position of the calculated enlarged whole image G ′. B Image synthesis is performed so as to paste the image of the corresponding part of (# 368, see FIG. 40C). That is, the image data at the matching position of the enlarged whole image G ′ is the partial image G B Is replaced with image data at a corresponding position.
[0225]
Hereinafter, the partial image G is processed in the same manner. C , G D The matching positions of the enlarged whole image G ′ with respect to the image are respectively calculated (# 370, # 374), and the image data at the matching position of the enlarged whole image G ′ is respectively the partial image G. C , G D (See # 372, # 376, (d) and (e) of FIG. 40), a high-definition composite image (captured image of the entire subject) G ″ is created.
[0226]
In the above-described embodiment, the entire image G is enlarged to determine the size of the composite image G ″ (that is, the frame of the composite image G ″), and then the partial image G within the frame. i Are combined so that the partial image G i After the pasting and synthesizing only, unnecessary portions around the synthesized image G ″ using the enlarged whole image G ′ (the partial image G in FIG. 40). A ~ G D The size of the composite image G ″ may be determined by removing the hatched portion.
[0227]
However, in the former method, the image data of the enlarged whole image G ′ is converted into the partial image G. A ~ G D Since the high-definition whole image G ″ is created by substituting with the image data, unnecessary image data outside the frame of the composite image G ″ when the image data is replaced (the partial image G in FIG. 40). A ~ G D The hatched portion is removed, and the synthesis process becomes easier compared to the latter method.
[0228]
Further, as shown in FIG. 42, for example, the partial image G C And partial image G D When there is a portion P where the images do not overlap in the pasted portion, the latter method uses the partial image G of the composite image G ″. C And partial image G D However, in the method according to the present embodiment, the image data at the matching position of the enlarged whole image G ′ cannot be generated. Is partial image G A ~ G D , The partial image G of the composite image G ″ as shown in FIG. C And partial image G D Since the image data of the enlarged whole image G ′ (the hatched portion in the figure) remains in the pasted portion P, the definition of this portion P is slightly lower than the surrounding definition, but the image data is missing. Thus, there is no inconvenience that the composite image G ″ cannot be created.
[0229]
By the way, some photographing lenses have a characteristic that the light amount in the peripheral portion of the lens is reduced with respect to the light amount in the central portion. When a subject is photographed using a photographing lens having such characteristics, the photographed image becomes an image having a larger luminance deviation in the periphery of the screen than in the center of the screen, as shown in FIG.
[0230]
When shooting in high-definition shooting mode, partial image G i 44 have a luminance distribution as shown in FIG. 44, the high-definition whole image G ″ obtained by synthesizing these has a luminance distribution in which bright and dark portions appear alternately in the screen as shown in FIG. Although the definition is improved, the luminance distribution becomes unnatural, and the image quality as a whole deteriorates significantly. i If there is a difference in white balance between the two, a color shift may occur at the boundary portion of the bonding, and this color shift also deteriorates the image quality.
[0231]
In this way, in the high-definition shooting mode, the image quality degradation of the shot image based on the light quantity transmission characteristic of the shooting lens is further increased by the image synthesis. It is desirable to suppress the image quality degradation by correcting the image correction process, as shown by the phantom line in Fig. 38, by providing an image correction unit 313 in the control unit 31 as necessary. In 313, the luminance distribution of the image G ″ synthesized by the image synthesizing unit 312 can be corrected.
[0232]
FIG. 46 is a conceptual diagram showing an image correction method for suppressing the above-described image quality deterioration.
[0233]
In the image correction, first, the enlarged entire image G ′ and the synthesized image G ″ are divided into small blocks BLK of, for example, (8 × 8) pixels (see FIG. 46A), and R, R for each block BLK. Pixel data g for each color component of G and B R , G G , G B Average value R1 AV , G1 AV , B1 AV , R2 AV , G2 AV , B2 AV Is calculated (see FIG. 46B). Next, the pixel data g of the composite image G ″ is set so that the average value becomes equal between the corresponding blocks BLK of the enlarged whole image G ′ and the composite image G ″. R , G G , G B Is calculated (see FIG. 46C). This shift amount is, for example, the difference ΔR in the average value between the corresponding blocks BLK of the enlarged whole image G ′ and the synthesized image G ″. AV , ΔG AV , ΔB AV Can be used.
[0234]
Then, each pixel data g of the composite image G ″ R , G G , G B Shift amount ΔR AV , ΔG AV , ΔB AV Is added to correct the composite image G ″ (see FIG. 46D). By this correction, the average value of the pixel data of the small blocks of the composite image G ″ becomes the pixel data of the small blocks of the enlarged whole image G ′. Therefore, as shown in FIG. 46 (e), the luminance distribution of the corrected composite image G ″ approximates the luminance distribution of the enlarged entire image G ′.
[0235]
In the present embodiment, (8 × 8) pixels are exemplified as the size of the small block BLK, but the size and shape of the small block BLK can be arbitrarily set. If the size of the small block BLK is excessively increased, the magnitude relationship of the pixel data between the pixels is not corrected in the same block BLK. On the other hand, if the size of the small block BLK is made too small, if a positional shift occurs between the enlarged whole image G ′ and the composite image G ″, the pixel data changes significantly due to the image correction, and the composite image There arises a problem that the image quality of G ″ deteriorates. Accordingly, the size and shape of the small block BLK may be appropriately selected in consideration of these problems and the light amount transmission characteristics of the photographing lens.
[0236]
Next, the above-described image correction processing procedure performed by the image correction unit 313 will be described with reference to the flowchart shown in FIG.
[0237]
First, the enlarged entire image G ′ is divided into (x × y) small blocks BLK (# 380). Subsequently, the composite image G ″ is divided into (x × y) small blocks BLK (# 382). Subsequently, count values a and x for counting the number of rows x and the number of columns y of the small blocks BLK, respectively. Each b is set to “1” (# 384).
[0238]
Subsequently, for the small block BLK (1,1) in one row and one column of the enlarged entire image G ′, the pixel data g included in the small block BLK (1,1) for each color component of R, G, B. i Average value R1 of (i = R, G, B) AV (1,1), G1 AV (1,1), B1 AV (1,1) is calculated (# 386), and for the small block BLK (1,1) in the first row and the first column of the composite image G ″, the small block BLK ( 1,1) Pixel data included in g i Average value R2 of (i = R, G, B) AV (1,1), G2 AV (1,1), B2 AV (1,1) is calculated (# 388). Note that (1, 1) indicates that the small block BLK has one row and one column. Hereinafter, (a, b) is attached to the small block BLK of a row and b column.
[0239]
Subsequently, the average value R1 AV (1,1), G1 AV (1,1), B1 AV (1,1) and average value R2 AV (1,1), G2 AV (1,1), B2 AV Shift amount ΔR using (1,1) AV (1,1), ΔG AV (1,1), ΔB AV (1,1) is calculated (# 390). The shift amount ΔR AV (a, b), ΔG AV (a, b), ΔB AV (a, b) is, for example, ΔR AV (a, b) = R2 AV (a, b) -R1 AV (a, b), ΔG AV (a, b) = G2 AV (a, b) -G1 AV (a, b), ΔB AV (a, b) = B2 AV (a, b) -B1 AV Calculated by (a, b).
[0240]
Subsequently, pixel data g of each color component of the small block BLK (1,1) in the first row and the first column of the composite image G ″. i (1,1) is the shift amount ΔR AV (1,1), ΔG AV (1,1), ΔB AV It is corrected using (1,1) (# 392). Correction data g R ′ (A, b), g G ′ (A, b), g B ′ (A, b) is g R ′ (A, b) = g R (a, b) + ΔR AV (a, b), g G ′ (A, b) = g G (a, b) + ΔG AV (a, b), g B ′ (A, b) = g B (a, b) + ΔB AV Calculated by (a, b).
[0241]
Subsequently, it is determined whether or not the count value a is the number of rows x (# 394). If a <x (NO in # 394), the count value a is incremented by 1 and the process proceeds to step # 386. Returning, the above-described correction processing is performed on the small block BLK (a + 1, b) of (a + 1) rows and b columns. Now, since a + 1 = 2, the process returns to step # 386 and the above-described correction processing is performed on the small block BLK (2,1) of 2 rows and 1 column, and hereinafter, (3,1), (4, 1),... (X, 1) The above-described correction processing is sequentially performed on each small block BLK (a, 1) (a = 3, 4,... X) in the first column.
[0242]
When the image correction is completed for the small block BLK (a, 1) in the first column, a = x is set in step # 394, and it is determined whether or not the count value b is the column number y in step # 398. If b <y (NO in # 398), the count value a is set to “1”, the count value b is incremented by “1”, the process returns to step # 386, and one row (b + 1) The above-described correction processing is performed on the small block BLK (1, b + 1) in the column. Now, since b + 1 = 2, the process returns to step # 366, and the above-described correction processing is sequentially performed for the small block BLK (a, 2) (a = 1, 2,... X) in the second column (# 386). ~ 396 loops).
[0243]
Thereafter, the above-described image correction is sequentially performed on the small blocks BLK (a, b) of each column in the same manner (loop of # 386 to # 402), and all the small blocks BLK (a, b) ( When the image correction is completed for a = 1, 2,... x, b = 1, 2,... y) (YES in # 398), the process is terminated.
[0244]
In the above embodiment, a dedicated image processing apparatus equipped with an image composition program has been described. However, as shown in FIG. 48, an image composition program and an image correction program are stored in a magnetic recording medium such as a floppy disk or a magnetic tape. It is stored in an external recording medium 43 such as an optical recording medium such as a medium, a CD-ROM, an optical disk card, or a magneto-optical disk, and is read into the computer main body 41 via the external storage device 42 or a network such as the Internet. The image processing apparatus 40 may be constructed by a computer system by being read into the computer main body 41 via the computer system 41.
[0245]
【The invention's effect】
As described above, according to the present invention, an image of the entire subject and an image of each part of the subject are sequentially captured, and the digital camera that records these captured images in the image recording unit is configured to capture each captured image. Independent image files are created and each captured image is recorded in the image recording means together with information indicating that the images are related to each other, so it is easy to change only the information accompanying the image data of each image file. The image file can be changed to an independent image file, and management of the image file becomes easy.
[0246]
Further, when the recorded image of the image recording means is reproduced on the display means, when the reproduction of the captured images related to each other is instructed, only the captured image of the entire subject is reproduced. It is possible to monitor the entire image of the combined subject more quickly than to reproduce the combined high-definition image of the entire subject.
[0247]
Further, when recording and deletion are instructed in a state where the captured image of the entire subject among the captured images related to each other is reproduced on the display unit, the image file of the captured image of the entire related subject and the captured image of the portion of the subject are saved. Since all of them are erased, the image files can be easily organized.
[0248]
Further, when there is an instruction to cancel the relevance in a state where the captured image of the entire subject among the captured images related to each other is reproduced on the display unit, the related image is recorded in the image file of the captured image of the entire subject. Since the information indicating this is erased, the captured image of the entire subject can be easily changed to an independent captured image.
[0249]
Further, when there is an instruction to cancel the relevance in a state where the captured image of the entire subject among the captured images related to each other is reproduced on the display means, the image file of the captured image of the portion of the subject related to the captured image of the entire subject. Since the image files are erased, it is possible to easily organize the image files of the captured images related to each other in the image recording means.
[Brief description of the drawings]
FIG. 1 is a front perspective view showing an external appearance of an embodiment of a digital camera according to the present invention.
FIG. 2 is a rear perspective view showing the appearance of an embodiment of a digital camera according to the present invention.
FIG. 3 is a perspective view showing a state where a display unit is detached from the camera body.
FIG. 4 is a main part perspective view showing an arrangement position of an imaging unit in a camera body.
FIG. 5 is a diagram illustrating a relationship between a subject and a shooting range in shooting in a high-definition shooting mode.
FIG. 6 is a front view of the imaging unit.
FIG. 7 is a plan view of the imaging unit.
FIG. 8 is a right side view of the imaging unit.
FIG. 9 is a diagram showing a mechanism for detecting a focal length of a photographic lens.
FIG. 10 is a perspective view illustrating a structure of a driving member that drives the imaging unit.
FIG. 11 is a diagram illustrating a waveform of a driving voltage applied to a piezoelectric element of a driving member.
FIG. 12 is a diagram showing a structure of a position detection member.
FIG. 13 is a block diagram showing an embodiment of a position detection circuit.
FIG. 14 is a diagram illustrating a waveform of an output signal of a position detection circuit.
FIG. 15 is a diagram illustrating a setting position of the imaging unit when a main switch is turned on / off.
FIG. 16 is a main part perspective view showing a state in which the imaging unit is set at the center position;
FIG. 17 is a perspective view of a main part showing a state in which the imaging unit is set to a position that shields the opening in the lower right direction with respect to the front direction.
FIG. 18 is a block diagram showing a circuit configuration of a digital camera according to the present invention.
FIG. 19 is a flowchart showing a main flow of photographing operation of the digital camera according to the present invention.
FIG. 20 is a flowchart showing a main flow of photographing operation of the digital camera according to the present invention.
FIG. 21 is a flowchart of a subroutine “SM OFF”.
FIG. 22 is a flowchart of a subroutine “imaging unit set”.
FIG. 23 is a flowchart of a subroutine “Zoom”.
FIG. 24 is a diagram illustrating a horizontal field angle θh and a vertical field angle θv.
FIG. 25 is a diagram illustrating a horizontal displacement amount Δθh and a vertical displacement amount Δθv.
FIG. 26 is a flowchart of a subroutine “imaging unit driving”;
FIG. 27 is a flowchart of a subroutine “imaging unit driving”;
FIG. 28 is a flowchart of a subroutine “S1 ON”.
FIG. 29 is a flowchart of a subroutine “S1 ON”.
FIG. 30 is a diagram schematically illustrating photographing processing in a high-definition photographing mode.
FIG. 31 is a diagram illustrating a configuration of an image file.
FIG. 32 is a flowchart of a subroutine “image selection”.
FIG. 33 is a diagram schematically illustrating a selection process of a recorded image in a normal shooting mode.
FIG. 34 is a flowchart of a subroutine “lens check”.
FIG. 35 is a flowchart of a subroutine “reproduction mode”.
FIG. 36 is a flowchart of a subroutine “reproduction mode”.
FIG. 37 is a diagram for explaining a display image on the LCD display unit in a recorded image reproduction process;
FIG. 38 is a block configuration diagram of an embodiment of an image processing apparatus that creates a high-definition image.
FIG. 39 is a flowchart showing image composition processing;
FIG. 40 is a diagram illustrating an image composition processing procedure;
FIG. 41 is a diagram for explaining correlation calculation processing;
FIG. 42 is a diagram illustrating a composite image when only partial images are simply pasted when there is a partial image that does not have an overlapping portion of images in the pasted portion.
FIG. 43 is a diagram showing a composite image in a case where there is a partial image that does not have an overlapping part of the image in the pasted part and the corresponding part of the entire image is composited so as to be replaced with the partial image.
FIG. 44 is a diagram illustrating a luminance distribution of an image photographed by a photographing lens having a characteristic that the light amount in the lens peripheral portion is smaller than the light amount in the lens central portion.
FIG. 45 is a diagram showing a luminance distribution when a high-definition image is created by synthesizing images taken by a photographing lens having a characteristic that the light amount at the lens peripheral portion is smaller than the light amount at the lens central portion.
FIG. 46 is a diagram illustrating a concept of an image correction method.
FIG. 47 is a flowchart illustrating an image correction processing procedure.
FIG. 48 is a diagram illustrating an image processing apparatus constructed by a computer system.
[Explanation of symbols]
1 Digital camera
2 Camera body
201 Unit driver
202 Unit position detector
203 FL controller
204 Power supply
205 switches
206 A / D converter
207 Timing Generator
208 Signal processor
209 RAM
210 Decompression / compression processor
211 Recording / reading processing unit
212 Flash memory (image recording means)
213 Control unit (imaging control means, information generation means, recording control means, display control means, recording erasing means, information erasing means, image erasing means)
3 LCD display
4 Flash
5 openings
6, 7, 16, 17 Zoom operation buttons
8,18 Release button (shooting instruction means)
9 Optical axis change lever (instruction means)
10 Mounting plate
11 Cable
12 LCD panel (display means)
13 Recording / playback mode switch (playback instruction means)
14 Shooting mode switch
15 Bracket shooting confirmation button (instruction means)
19a-19d Optical axis change button
20 Erase button (erase instruction means)
21 Main switch
22 Imaging unit
23 Unit body
231 Photo lens
232 Zoom motor
239 Imaging unit (first and second imaging means)
24 First support frame
25 Second support
26 Drive member
27, 28 Position detection member
30 Image processing device
31 Control unit
32 ROM
33 RAM
34 Image memory
35 GUI
36 I / F
37 Input device
38 Display device
39 External storage
40 Computer system
41 Computer body
42 External storage device
43 External recording media
M magnet

Claims (5)

被写体全体を撮像する第1の撮像手段と、
上記被写体全体を複数の部分に分割し、被写体の各部分を撮像する第2の撮像手段と、
撮影を指示する撮影指示手段と、
上記撮影指示手段で撮影が指示されると、上記第1,第2の撮像手段を動作させて上記被写体全体と上記被写体の部分とを順次、撮像させる撮像制御手段と、上記第1及び第2の撮像手段で撮像された画像を記録する画像記録手段とを備えたデジタルカメラにおいて、
上記第1,第2の撮像手段で撮像された画像にそれぞれ互いに関連画像であることを示す情報を生成する情報生成手段と、
上記第1,第2の撮像手段で撮像された各画像これらの撮像画像に対応して上記情報生成手段で生成された情報と併せて、それぞれ独立の画像ファイルにして上記画像記録手段に記録する記録制御手段とを備えたことを特徴とするデジタルカメラ。
First imaging means for imaging the entire subject;
A second imaging unit that divides the entire subject into a plurality of parts and images each part of the subject;
Photographing instruction means for instructing photographing;
When shooting is instructed by the shooting instruction unit, the first and second imaging units are operated to sequentially capture the entire subject and the subject portion, and the first and second imaging units. In a digital camera comprising image recording means for recording an image picked up by the image pickup means,
Information generating means for generating information indicating that each of the images captured by the first and second imaging means is a related image;
The first, together with information generated by the information generating means each image captured by the second imaging means corresponding to these captured images, recorded in the image recording means and independently of the image file A digital camera comprising: a recording control unit that performs recording.
請求項1記載のデジタルカメラにおいて、
画像記録手段に記録された撮像画像を再生表示する表示手段と、
上記撮像画像の上記表示手段への再生表示を指示する再生指示手段と、
上記再生指示手段により撮像画像の再生表示が指示されると、第1の撮像手段で撮像された被写体全体の画像のみを上記表示手段に再生表示させる表示制御手段とを更に備えたことを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
Display means for reproducing and displaying the captured image recorded in the image recording means;
Reproduction instruction means for instructing reproduction display of the captured image on the display means;
And a display control means for causing the display means to reproduce and display only the image of the entire subject imaged by the first imaging means when the reproduction instruction means instructs to display and reproduce the captured image. Digital camera.
請求項2記載のデジタルカメラにおいて、
表示手段に再生表示された撮像画像の画像記録手段における記録の消去を指示する消去指示手段と、
上記消去指示手段により上記表示手段に再生表示された撮像画像の消去が指示されると、上記画像記録手段に記録された当該撮像画像及びこの撮像画像に関連した被写体の部分の撮像画像を消去する記録消去手段とを更に備えたことを特徴とするデジタルカメラ。
The digital camera according to claim 2, wherein
An erasure instruction means for instructing erasure of recording in the image recording means of the captured image reproduced and displayed on the display means;
When erasure of the captured image reproduced and displayed on the display unit is instructed by the erasure instruction unit, the captured image recorded in the image recording unit and the captured image of the portion of the subject related to the captured image are erased. A digital camera, further comprising a recording / erasing unit.
請求項2又は3記載のデジタルカメラにおいて、
表示手段に再生表示された被写体全体の撮像画像とこれに関連した被写体の部分の撮像画像との関連性の解消を指示する指示手段と、
上記指示手段により関連性の解消が指示されると、画像記録手段の上記被写体全体の撮像画像の画像ファイルに記録された関連画像であることを示す情報を消去する情報消去手段とを更に備えたことを特徴とするデジタルカメラ。
The digital camera according to claim 2 or 3,
Instruction means for instructing cancellation of the relevance between the captured image of the entire subject reproduced and displayed on the display means and the captured image of the portion of the subject related thereto;
And an information erasing unit for erasing information indicating that the image is a related image recorded in an image file of the captured image of the entire subject when the instruction unit cancels the relevance. A digital camera characterized by that.
請求項4記載のデジタルカメラにおいて、
指示手段により関連性の解消が指示されると、画像記録手段に記録された表示手段に再生表示された被写体全体の撮像画像に関連した被写体の部分の撮像画像の画像ファィルを消去する画像消去手段とを更に備えたことを特徴とするデジタルカメラ。
The digital camera according to claim 4, wherein
An image erasing unit for erasing an image file of a captured image of a portion of the subject related to a captured image of the entire subject reproduced and displayed on the display unit recorded in the image recording unit when the instruction unit cancels the relevance And a digital camera.
JP22840698A 1998-08-12 1998-08-12 Digital camera Expired - Fee Related JP3736129B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP22840698A JP3736129B2 (en) 1998-08-12 1998-08-12 Digital camera
US09/372,317 US6727954B1 (en) 1998-08-12 1999-08-11 Electronic camera and image processing system
US10/788,107 US20040165075A1 (en) 1998-08-12 2004-02-26 Electronic camera and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22840698A JP3736129B2 (en) 1998-08-12 1998-08-12 Digital camera

Publications (2)

Publication Number Publication Date
JP2000059725A JP2000059725A (en) 2000-02-25
JP3736129B2 true JP3736129B2 (en) 2006-01-18

Family

ID=16875977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22840698A Expired - Fee Related JP3736129B2 (en) 1998-08-12 1998-08-12 Digital camera

Country Status (1)

Country Link
JP (1) JP3736129B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7573509B2 (en) 2002-01-30 2009-08-11 Ricoh Company, Ltd. Digital still camera, reproduction device, and image processor
JP4506501B2 (en) * 2005-02-21 2010-07-21 株式会社日立製作所 Image composition device and imaging system
JP2013141064A (en) * 2011-12-28 2013-07-18 Jvc Kenwood Corp Image pickup device and control method

Also Published As

Publication number Publication date
JP2000059725A (en) 2000-02-25

Similar Documents

Publication Publication Date Title
US6727954B1 (en) Electronic camera and image processing system
US7456864B2 (en) Digital camera for capturing a panoramic image
JP4367897B2 (en) Image display control apparatus and method
JP6833746B2 (en) Imaging equipment, imaging methods, programs and recording media
US20080252753A1 (en) Image-capturing apparatus
JP4621152B2 (en) Imaging device, control method thereof, and program
JPH10240436A (en) Information processor and recording medium
JP2012075018A (en) Reproduction device and method, and program
WO2000076206A1 (en) Electronic still camera
WO2007071821A1 (en) Digital panoramic camera
JP2002064738A (en) Electronic camera
JP2007201539A (en) Digital camera
JP2003179798A (en) Digital camera
TWI262450B (en) Image reproduction apparatus and image capturing apparatus
JP2000059606A (en) High definition image preparation system
JP3736129B2 (en) Digital camera
JP2001028699A (en) Electronic camera
JP2000059674A (en) Digital camera
JP2010226185A (en) Imaging apparatus, and method of controlling imaging apparatus
JP4239271B2 (en) Electronic still camera
JP2008065851A (en) Information processing apparatus and recording medium
JP2000059589A (en) Digital camera
JP3721965B2 (en) Electronic still camera, image recording method thereof, and recording medium
JP2010135963A (en) Imaging apparatus, and control method of imaging apparatus
JP2001211354A (en) Electronic camera

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051017

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091104

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101104

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111104

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121104

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121104

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131104

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees