JP2008076981A - 電子カメラ - Google Patents

電子カメラ Download PDF

Info

Publication number
JP2008076981A
JP2008076981A JP2006259095A JP2006259095A JP2008076981A JP 2008076981 A JP2008076981 A JP 2008076981A JP 2006259095 A JP2006259095 A JP 2006259095A JP 2006259095 A JP2006259095 A JP 2006259095A JP 2008076981 A JP2008076981 A JP 2008076981A
Authority
JP
Japan
Prior art keywords
electronic camera
unit
cpu
person
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006259095A
Other languages
English (en)
Inventor
Goro Kano
吾郎 加納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006259095A priority Critical patent/JP2008076981A/ja
Publication of JP2008076981A publication Critical patent/JP2008076981A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】 複数の人物を被写体とした撮影時に被写体の全体に焦点が合った画像を確実に取得する機能を低コストで実現する。
【解決手段】 撮像手段(20)は、撮影光学系(12)を介して被写体を撮像して画像を生成する。人物検出手段(24)は、撮像手段により撮影前に生成される画像に対して、撮影光学系のフォーカスレンズ(16)の移動に伴って合焦状態が確立される度に人物検出を実施する。レンズ情報記憶手段(34)は、人物検出手段による人物の検出に伴ってフォーカスレンズの位置をレンズ情報として記憶する。焦点距離差算出手段(26)は、人物検出手段により複数の人物が検出された場合、レンズ情報記憶手段により記憶されたレンズ情報と、フォーカスレンズの位置から焦点距離を導出するための演算情報とに基づいて、人物検出手段により検出された複数の人物についての焦点距離差を算出する。
【選択図】 図1

Description

本発明は、電子カメラに関する。
従来の電子カメラでは、集合写真撮影のように複数の人物を被写体として撮影する場合、画面中央に位置する人物や電子カメラからの距離が最も短い人物等に焦点が合うように焦点距離が自動調整されていた。また、複数の人物を被写体として撮影する際に、各人物の電子カメラからの距離を専用センサにより測定し、測定結果に応じて絞り値を制御することで、被写体の全体に焦点が合う被写界深度を得る方法が知られている(例えば、特許文献1参照)。
特開2003−92699号公報
従来の電子カメラでは、集合写真撮影のように、被写体となる複数の人物の全てに焦点を合わせる必要があり、各人物の電子カメラからの距離が大きく異なる場合でも、画面中央に位置する人物または電子カメラからの距離が最も短い人物に焦点が合うように焦点距離が自動調整されてしまう。また、狭い室内で複数の人物を被写体として撮影する場合のように、薄暗く、被写体の電子カメラからの距離が短い環境で撮影する場合には、絞り機構が開放状態となり、被写界深度が小さい状態で撮影動作が実施されてしまう。このため、集合写真撮影として理想的な条件で撮影動作が実施されず、一部の人物のみに焦点が合った画像が取得される場合があった。
また、被写体の全体に焦点が合う被写界深度を得るために、各人物の電子カメラからの距離を専用センサにより測定し、測定結果に応じて絞り値を制御する場合、一部の人物のみに焦点が合った画像が取得されるという問題は解消されるが、測距センサの搭載に伴ってコストが増大してしまうという問題があった。
本発明は、このような従来の問題点に鑑みてなされたものであり、複数の人物を被写体として撮影する際に被写体の全体に焦点が合った画像を確実に取得する機能を低コストで実現することを目的とする。
請求項1記載の発明では、撮像手段は、撮影光学系を介して被写体を撮像して画像を生成する。人物検出手段は、撮像手段により撮影前に生成される画像に対して、撮影光学系のフォーカスレンズの移動に伴って合焦状態が確立される度に人物検出を実施する。レンズ情報記憶手段は、人物検出手段による人物の検出に伴って撮影光学系のフォーカスレンズの位置をレンズ情報として記憶する。焦点距離差算出手段は、人物検出手段により複数の人物が検出された場合、レンズ情報記憶手段により記憶されたレンズ情報と、撮影光学系のフォーカスレンズの位置から焦点距離を算出するための演算情報とに基づいて、人物検出手段により検出された複数の人物についての焦点距離差を算出する。
請求項2記載の発明では、絞り制御手段は、焦点距離差算出手段により算出された焦点距離差の最大値が所定値より大きい場合、撮影光学系の絞り値を人物検出手段により検出された複数の人物の全てに焦点が合うように調整する。
請求項3記載の発明では、画像信号増幅手段は、絞り制御手段により設定された絞り値が所定値より大きい場合、撮像手段により撮影時に生成される画像の信号を増幅する。
請求項4記載の発明では、画像処理手段は、絞り制御手段により設定された絞り値が所定値より大きい場合、撮像手段により撮影時に生成される画像の輝度を上げる。
請求項5記載の発明では、光学ズーム手段は、撮影光学系の焦点距離を可変する。焦点距離差算出手段は、焦点距離差の算出時に用いる演算情報を撮影光学系のズームレンズの位置に応じて変更する。
請求項6記載の発明では、撮像手段は、撮影光学系を介して被写体を撮像して画像を生成する。光学ズーム手段は、撮影光学系の焦点距離を可変する。人物検出手段は、撮像手段により撮影前に生成される画像に対して人物検出を実施する。光学ズーム手段は、人物検出手段により複数の人物が検出された場合、撮影光学系の焦点距離を広角側に設定する。
請求項7記載の発明では、電子ズーム手段は、光学ズーム手段により撮影光学系の焦点距離が広角側に設定された場合、撮像手段により撮影時に生成される画像に対して電子ズームを実施する。
請求項8記載の発明では、撮像手段は、撮影光学系を介して被写体を撮像して画像を生成する。人物検出手段は、撮像手段により撮影前に生成される画像に対して人物検出を実施する。画像処理手段は、人物検出手段により複数の人物が検出された場合、撮像手段により撮影時に生成される画像に対して輪郭強調の画像処理を実施する。
請求項9記載の発明では、合焦検知手段は、人物検出手段により検出された複数の人物の全てに焦点が合ったことを検知する。表示手段は、合焦検知手段による合焦状態の検知に伴って合焦通知情報を表示する。
本発明によれば、複数の人物を被写体として撮影する際に被写体の全体に焦点が合った画像を確実に取得できる。また、被写体となる各人物の電子カメラからの距離を測定するための測距センサを不要にできる。従って、被写体の全体に焦点が合った画像を確実に取得する機能をコストの増大を伴うことなく実現できる。
以下、本発明の実施形態について図面を用いて説明する。
(第1実施形態)
図1は、本発明の第1実施形態を示している。第1実施形態の電子カメラ10は、撮影レンズ部12、CCD(Charge Coupled Device)20、AFE/TG(Analog Front End / Timing Generator)22、画像処理部24、CPU(Central Processing Unit)26、操作部28、LCD(Liquid Cystal Display)30、ROM(Read Only Memory)32、SDRAM(Synchronous Dynamic Random Access Memory)34、記録メディア36およびバス38を備えて構成されている。
撮影レンズ部12は、ズームレンズ(変倍用レンズ)14、フォーカスレンズ(合焦用レンズ)16および絞り・シャッタ機構18を備えて構成されている。CCD20は、撮影レンズ部12を介して被写体を撮像して画像データを生成する。AFE/TG22は、CCD20から供給されるアナログの画像データに対してアナログ信号処理やA/D変換処理等を実施する。画像処理部24は、AFE/TG22から供給される画像データに対して各種画像処理を実施する。CPU26は、電子カメラ10の全体を制御するための各種演算処理を実施する。操作部28は、例えば、撮影動作の開始を指示するための撮影スイッチ、撮影モードを選択するためのモード選択スイッチ、各種機能を設定するための十字ボタンおよび決定ボタン等を備えて構成されている。
LCD30は、画像データやメニュー画面用データ等を表示する。ROM32は、画像処理部24およびCPU26に各種処理を実行させるためのファームウェア等を格納している。SDRAM34は、画像データやCPU26の演算処理結果等の各種データを一時的に格納する。記録メディア36は、例えば、画像データ等を格納するために電子カメラ10に着脱自在に装着されるメモリカードである。バス38は、AFE/TG22、画像処理部24、CPU26、LCD30、ROM32、SDRAM34および記録メディア36を相互に接続し、これらの間でのデータの授受を可能する。
図2は、第1実施形態の電子カメラの動作を示している。第1実施形態の電子カメラ10は、図1に示した構成を有し、図2に示すように動作する。以下、第1実施形態の電子カメラ10の動作について説明する。
ステップS101において、CPU26は、操作部28の撮影スイッチの半押し状態を検知するまで待機する。CPU26により操作部28の撮影スイッチの半押し状態が検知されると、電子カメラ10の動作はステップS102に移行する。
ステップS102において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動を指示する。これにより、フォーカスレンズ16が光軸方向に移動する。この後、電子カメラ10の動作はステップS103に移行する。
ステップS103において、CPU26は、フォーカスレンズ16の移動に伴って合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラ10の動作はステップS104に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラ10の動作はステップS102に再度移行する。
ステップS104において、CPU26は、画像処理部24に対して人物検出処理の実施を指示する。これにより、画像処理部24は、AFE/TG22から供給される画像データに対して人物検出処理を実施する。なお、人物検出処理は、周知の顔認識処理等により具現される。画像処理部24により人物が検出された場合、CPU26は、撮影レンズ部12から供給されるフォーカスレンズ位置データ(フォーカスレンズ16の現在の位置を示すデータ)を取得してSDRAM34に格納する。この後、電子カメラ10の動作はステップS105に移行する。一方、画像処理部24により人物が検出されなかった場合、電子カメラ10の動作はステップS105〜S117を省略してステップS118に移行する。
ステップS105において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動を指示する。これにより、フォーカスレンズ16が光軸方向に移動する。この後、電子カメラ10の動作はステップS106に移行する。
ステップS106において、CPU26は、フォーカスレンズ16の移動に伴って合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラ10の動作はステップS107に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラ10の動作はステップS105に再度移行する。
ステップS107において、CPU26は、画像処理部24に対して人物検出処理の実施を指示する。これにより、画像処理部24は、AFE/TG22から供給される画像データに対して人物検出処理を実施する。画像処理部24により人物が検出された場合、CPU26は、撮影レンズ部12から供給されるフォーカスレンズ位置データを取得してSDRAM34に格納する。この後、電子カメラ10の動作はステップS108に移行する。一方、画像処理部24により人物が検出されなかった場合、電子カメラ10の動作はステップS108〜S117を省略してステップS118に移行する。
ステップS108において、CPU26は、ステップS104、S107の双方で画像処理部24により人物が検出されたことで、今回の撮影が集合写真撮影であることを認識する。この後、電子カメラ10の動作はステップS109に移行する。
ステップS109において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動を指示する。これにより、フォーカスレンズ16が光軸方向に移動する。この後、電子カメラ10の動作はステップS110に移行する。
ステップS110において、CPU26は、フォーカスレンズ16の移動に伴って合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラ10の動作はステップS111に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラ10の動作はステップS109に再度移行する。
ステップS111において、CPU26は、画像処理部24に対して人物検出処理の実施を指示する。これにより、画像処理部24は、AFE/TG22から供給される画像データに対して人物検出処理を実施する。画像処理部24により人物が検出された場合、CPU26は、撮影レンズ部12から供給されるフォーカスレンズ位置データを取得してSDRAM34に格納する。この後、電子カメラ10の動作はステップS109に再度移行する。一方、画像処理部24により人物が検出されなかった場合、電子カメラ10の動作はステップS112に移行する。なお、ステップS102〜S111が適宜実施されている間、フォーカスレンズ16は、ステップS102、S105、S109により、無限遠側から至近側へ向かって徐々に移動する。
ステップS112において、CPU26は、画像処理部24による人物の検出に伴ってSDRAM34に格納したフォーカスレンズ位置データと、ROM32に予め格納された焦点距離算出用演算データ(フォーカスレンズ16の位置から焦点距離を算出するためのデータ)とに基づいて、画像処理部24により検出された複数の人物についての焦点距離差を算出する。なお、フォーカスレンズ16の位置と焦点距離との関係はズームレンズ14の位置に応じて変化するため、ROM32にはズームレンズ14の位置に対応して複数の焦点距離算出用演算データが予め格納されている。CPU26は、焦点距離差を算出する際に、撮影レンズ部12から供給されるズームレンズ位置データ(ズームレンズ14の現在の位置を示すデータ)を取得し、ズームレンズ14の現在の位置に対応する焦点距離算出用演算データを使用する。そして、CPU26は、焦点距離差が最大値となる二人(電子カメラ10からの距離が最も短い人物と電子カメラ10からの距離が最も長い人物)の焦点距離の平均値を中心焦点距離として算出する。この後、電子カメラ10の動作はステップS113に移行する。
ステップS113において、CPU26は、ステップS112で算出した中心焦点距離に対応するフォーカスレンズ16の位置を算出し、撮影レンズ部12に対してフォーカスレンズ16の中心焦点距離の対応位置への移動を指示する。これにより、フォーカスレンズ16が中心焦点距離の対応位置へ光軸方向に移動する。この後、電子カメラ10の動作はステップS114に移行する。
ステップS114において、CPU26は、フォーカスレンズ16の移動に伴って被写体となる複数の人物の全て(画像処理部24により検出された複数の人物の全て)について合焦状態が確立されたか否かを判定する。具体的には、CPU26は、AFE/TG22から供給される画像データにおける画像処理部24により人物が検出された領域の全てについてコントラスト値が所定値より大きければ、合焦状態が確立されたと判定する。但し、ステップS114に限り、CPU26は、画像処理部24により人物が検出された領域の全てについてコントラスト値が所定値より大きくても、ステップS112で算出した焦点距離差の最大値が所定値より大きい場合には、合焦状態が確立されなかったと判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラ10の動作はステップS115、S116を省略してステップS117に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラ10の動作はステップS115に移行する。
ステップS115において、CPU26は、撮影レンズ部12に対して絞り・シャッタ機構18の絞り値の調整を指示する。これにより、絞り・シャッタ機構18の絞り値が入射光の光量が減る方向に1段階だけ変更される。この後、電子カメラ10の動作はステップS116に移行する。
ステップS116において、CPU26は、絞り・シャッタ機構18の絞り値の調整に伴って被写体となる複数の人物の全てについて合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラ10の動作はステップS117に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラ10の動作はステップS115に再度移行する。
ステップS117において、CPU26は、LCD30に対して全人物合焦通知用データ(被写体となる複数の人物の全てについて合焦状態が確立されたことを電子カメラ10の操作者に通知するためのデータ)の表示を指示する。これにより、LCD30は、全人物合焦通知用データをROM32から取得して表示する。この後、電子カメラ10の動作はステップS118に移行する。
ステップS118において、CPU26は、操作部28の撮影スイッチの全押し状態を検知するまで待機する。CPU26により操作部28の撮影スイッチの全押し状態が検知されると、電子カメラ10の動作はステップS119に移行する。
ステップS119において、CPU26は、撮影動作を開始するために、撮影レンズ部12に対して絞り・シャッタ機構18のシャッタの駆動を指示する。これにより、絞り・シャッタ機構18のシャッタが駆動される。この後、電子カメラ10の動作はステップS120に移行する。
ステップS120において、CPU26は、画像処理部24に対して所定の画像処理の実施を指示する。これにより、画像処理部24は、AFE/TG22から供給される画像データに対して所定の画像処理を実施する。この後、電子カメラ10の動作はステップS121に移行する。
ステップS121において、CPU26は、画像処理部24に対して画像データの格納を指示する。これにより、画像処理部24は、ステップS120で所定の画像処理を実施して得られた画像データをSDRAM34または記録メディア36に格納する。
図3は、集合写真撮影の被写体の一例を示している。図4は、被写界深度および焦点距離を概念的に示している。以下、図3に示すような位置関係の人物A〜Eを被写体とした集合写真撮影時の電子カメラ10の動作について説明する。
操作部28の撮影スイッチの半押し状態が検知されると、フォーカスレンズ16の移動に伴って合焦状態が確立される度に画像処理部24の人物検出処理が実施され、人物A〜Eが順次検出される。なお、人物A〜Eのいずれか二人が検出された時点で今回の撮影が集合写真撮影であることが認識される。そして、人物A〜Eが検出された際のフォーカスレンズ16の位置に基づいて中心焦点距離(図4の焦点距離Lcに相当)が算出され、フォーカスレンズ16の位置が中心焦点距離の対応位置に設定される。
この後、人物A〜Eの全てに焦点が合っているか否かが判定される。この時点での被写界深度が図4の被写界深度Dcのように小さい場合、人物Cを除く人物A、B、D、Eに焦点が合っていないと判定され、被写界深度を大きくするために絞り・シャッタ機構18の絞り値が入射光の光量が減る方向に1段階だけ変更される。そして、人物A〜Eの全てに焦点が合っているか否かが再度判定される。絞り・シャッタ機構18の絞り値の調整と全人物合焦判定とが人物A〜Eの全てに焦点が合うまで繰り返し実施されることで、最終的な被写界深度が図4の被写界深度Daeのように設定される。これに伴って、全人物合焦通知用データがLCD30に表示される。
この状態で、操作部28の撮影スイッチの全押し状態が検知されると、撮影動作を開始するために絞り・シャッタ機構18のシャッタが駆動される。そして、AFE/TG22から供給される画像データに対して所定の画像処理が実施されてSDRAM34または記録メディア36に格納される。
以上のような第1実施形態では、今回の撮影が複数の人物を被写体とした撮影(集合写真撮影)であることが自動認識され、被写体の全体に焦点が合うように被写界深度が自動調整されるため、被写体の全体に焦点が合った画像を確実に取得できる。即ち、複数の人物を被写体として撮影する際に被写体の一部のみに焦点が合った画像が取得されるという問題を解消できる。また、被写体となる各人物の電子カメラからの距離を測定するための測距センサは不要であるため、被写体の全体に焦点が合った画像を確実に取得する機能を低コストで実現できる。
(第2実施形態)
図5は、本発明の第2実施形態を示している。第2実施形態の電子カメラは、第1実施形態の電子カメラの構成(図1)と同一の構成を有し、図5に示すように動作する。以下、第2実施形態の電子カメラの動作について、第1実施形態の電子カメラの構成要素に付した符号と同一の符号を使用して説明する。
ステップS201において、CPU26は、操作部28の撮影スイッチの半押し状態を検知するまで待機する。CPU26により操作部28の撮影スイッチの半押し状態が検知されると、電子カメラの動作はステップS202に移行する。
ステップS202において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動を指示する。これにより、フォーカスレンズ16が光軸方向に移動する。この後、電子カメラの動作はステップS203に移行する。
ステップS203において、CPU26は、フォーカスレンズ16の移動に伴って合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラの動作はステップS204に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラの動作はステップS202に再度移行する。
ステップS204において、CPU26は、画像処理部24に対して人物検出処理の実施を指示する。これにより、画像処理部24は、AFE/TG22から供給される画像データに対して人物検出処理を実施する。画像処理部24により人物が検出された場合、CPU26は、撮影レンズ部12から供給されるフォーカスレンズ位置データを取得してSDRAM34に格納する。この後、電子カメラの動作はステップS205に移行する。一方、画像処理部24により人物が検出されなかった場合、電子カメラの動作はステップS205〜S218を省略してステップS219に移行する。
ステップS205において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動を指示する。これにより、フォーカスレンズ16が光軸方向に移動する。この後、電子カメラの動作はステップS206に移行する。
ステップS206において、CPU26は、フォーカスレンズ16の移動に伴って合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラの動作はステップS207に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラの動作はステップS205に再度移行する。
ステップS207において、CPU26は、画像処理部24に対して人物検出処理の実施を指示する。これにより、画像処理部24は、AFE/TG22から供給される画像データに対して人物検出処理を実施する。画像処理部24により人物が検出された場合、CPU26は、撮影レンズ部12から供給されるフォーカスレンズ位置データを取得してSDRAM34に格納する。この後、電子カメラの動作はステップS208に移行する。一方、画像処理部24により人物が検出されなかった場合、電子カメラの動作はステップS208〜S218を省略してステップS219に移行する。
ステップS208において、CPU26は、ステップS204、S207の双方で画像処理部24により人物が検出されたことで、今回の撮影が集合写真撮影であることを認識する。この後、電子カメラの動作はステップS209に移行する。
ステップS209において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動を指示する。これにより、フォーカスレンズ16が光軸方向に移動する。この後、電子カメラの動作はステップS210に移行する。
ステップS210において、CPU26は、フォーカスレンズ16の移動に伴って合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラの動作はステップS211に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラの動作はステップS209に再度移行する。
ステップS211において、CPU26は、画像処理部24に対して人物検出処理の実施を指示する。これにより、画像処理部24は、AFE/TG22から供給される画像データに対して人物検出処理を実施する。画像処理部24により人物が検出された場合、CPU26は、撮影レンズ部12から供給されるフォーカスレンズ位置データを取得してSDRAM34に格納する。この後、電子カメラの動作はステップS209に再度移行する。一方、画像処理部24により人物が検出されなかった場合、電子カメラの動作はステップS212に移行する。
ステップS212において、CPU26は、画像処理部24による人物の検出に伴ってSDRAM34に格納したフォーカスレンズ位置データに基づいて、フォーカスレンズ16のレンズ移動量(電子カメラからの距離が最も短い人物が検出された際の位置と電子カメラからの距離が最も短い人物が検出された際の位置との距離差)を算出する。この後、電子カメラの動作はステップS213に移行する。
ステップS213において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動範囲(電子カメラからの距離が最も短い人物が検出された際の位置から電子カメラからの距離が最も長い人物が検出された際の位置までの範囲)の中心位置への移動を指示する。これにより、フォーカスレンズ16が移動範囲の中心位置へ光軸方向に移動する。この後、電子カメラの動作はステップS213に移行する。
ステップS214において、CPU26は、ステップS212で算出したフォーカスレンズ16のレンズ移動量と、ROM32に予め格納された焦点距離差算出用演算データ(フォーカスレンズ16のレンズ移動量から焦点距離差を算出するためのデータ)とに基づいて、必要被写界深度(被写体となる複数の人物の全てに焦点を合わせるために必要な被写界深度)を算出する。なお、フォーカスレンズ16のレンズ移動量と焦点距離差との関係はズームレンズ14の位置に応じて変化するため、ROM32にはズームレンズ14の位置に対応して複数の焦点距離差算出用演算データが予め格納されている。CPU26は、必要被写界深度を算出する際に、撮影レンズ部12から供給されるズームレンズ位置データを取得し、ズームレンズ14の現在の位置に対応する焦点距離差算出用演算データを使用する。この後、電子カメラの動作はステップS215に移行する。
ステップS215において、CPU26は、撮影レンズ部12から供給されるズームレンズ位置データ、フォーカスレンズ位置データおよび絞り値データ(絞り・シャッタ機構18の現在の絞り値を示すデータ)に基づいて現在の被写界深度を算出し、ステップS214で算出した必要被写界深度が現在の被写界深度より大きいか否かを判定する。CPU26により必要被写界深度が現在の被写界深度より大きいと判定された場合、電子カメラの動作はステップS216に移行する。一方、CPU26により必要被写界深度が現在の被写界深度より小さいと判定された場合、電子カメラの動作はステップS216を省略してステップS217に移行する。
ステップS216において、CPU26は、ステップS214で算出した必要被写界深度と、ROM32に予め格納された絞り値算出用演算データ(必要被写界深度から絞り・シャッタ機構18の絞り値を算出するためのデータ)とに基づいて、必要被写界深度に対応する絞り・シャッタ機構18の絞り値を算出し、撮影レンズ部12に対して絞り・シャッタ機構18の絞り値の調整を指示する。これにより、絞り・シャッタ機構18の絞り値が必要被写界深度に対応する絞り値に設定される。この後、電子カメラの動作はステップS217に移行する。
ステップS217において、CPU26は、絞り・シャッタ機構18の絞り値の調整に伴って被写体となる複数の人物の全てについて合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラの動作はステップS218に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラの動作はステップS205に再度移行する。
ステップS218において、CPU26は、LCD30に対して全人物合焦通知用データの表示を指示する。これにより、LCD30は、全人物合焦通知用データをROM32から取得して表示する。この後、電子カメラの動作はステップS219に移行する。
ステップS219において、CPU26は、操作部28の撮影スイッチの全押し状態を検知するまで待機する。CPU26により操作部28の撮影スイッチの全押し状態が検知されると、電子カメラの動作はステップS220に移行する。
ステップS220において、CPU26は、撮影動作を開始するために、撮影レンズ部12に対して絞り・シャッタ機構18のシャッタの駆動を指示する。これにより、絞り・シャッタ機構18のシャッタが駆動される。この後、電子カメラの動作はステップS221に移行する。
ステップS221において、CPU26は、画像処理部24に対して所定の画像処理の実施を指示する。これにより、画像処理部24は、AFE/TG22から供給される画像データに対して所定の画像処理を実施する。この後、電子カメラの動作はステップS222に移行する。
ステップS222において、CPU26は、画像処理部24に対して画像データの格納を指示する。これにより、画像処理部24は、ステップS221で所定の画像処理を実施して得られた画像データをSDRAM34または記録メディア36に格納する。
以上のような第2実施形態でも、第1実施形態と同様の効果が得られる。また、第2実施形態では、フォーカスレンズ16のレンズ移動量と必要被写界深度と絞り・シャッタ機能18の絞り値との関係を示す演算データがROM32に予め格納され、その演算データに基づいて絞り・シャッタ機能18の絞り値が調整されるため、撮影動作の開始までに要する時間を第1実施形態に比べて短縮できる。
(第3実施形態)
図6は、本発明の第3実施形態を示している。第3実施形態の電子カメラは、第1実施形態の電子カメラの構成(図1)と同一の構成を有し、図6に示すように動作する。以下、第3実施形態の電子カメラの動作について、第1実施形態の電子カメラの構成要素に付した符号と同一の符号を使用して説明する。
ステップS301において、CPU26は、操作部28の撮影スイッチの半押し状態を検知するまで待機する。CPU26により操作部28の撮影スイッチの半押し状態が検知されると、電子カメラの動作はステップS302に移行する。
ステップS302において、CPU26は、撮影レンズ部12から供給されるズームレンズ位置データを取得してSDRAM34に格納する。この後、電子カメラの動作はステップS303に移行する。
ステップS303において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動を指示する。これにより、フォーカスレンズ16が光軸方向に移動する。この後、電子カメラの動作はステップS304に移行する。
ステップS304において、CPU26は、フォーカスレンズ16の移動に伴って合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラの動作はステップS305に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラの動作はステップS303に再度移行する。
ステップS305において、CPU26は、画像処理部24に対して人物検出処理の実施を指示する。これにより、画像処理部24は、AFE/TG22から供給される画像データに対して人物検出処理を実施する。画像処理部24により人物が検出された場合、電子カメラの動作はステップS306に移行する。一方、画像処理部24により人物が検出されなかった場合、電子カメラの動作はステップS306〜S313を省略してステップS314に移行する。
ステップS306において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動を指示する。これにより、フォーカスレンズ16が光軸方向に移動する。この後、電子カメラの動作はステップS307に移行する。
ステップS307において、CPU26は、フォーカスレンズ16の移動に伴って合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラの動作はステップS308に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラの動作はステップS306に再度移行する。
ステップS308において、CPU26は、画像処理部24に対して人物検出処理の実施を指示する。これにより、画像処理部24は、AFE/TG22から供給される画像データに対して人物検出処理を実施する。画像処理部24により人物が検出された場合、電子カメラの動作はステップS309に移行する。一方、画像処理部24により人物が検出されなかった場合、電子カメラの動作はステップS309〜S313を省略してステップS314に移行する。
ステップS309において、CPU26は、ステップS305、S308の双方で画像処理部24により人物が検出されたことで、今回の撮影が集合写真撮影であることを認識する。この後、電子カメラの動作はステップS310に移行する。
ステップS310において、CPU26は、撮影レンズ部12に対してズームレンズ14の広角側への移動を指示する。これにより、ズームレンズ14が広角側へ光軸方向に移動する。この後、電子カメラの動作はステップS311に移行する。
ステップS311において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動を指示する。これにより、フォーカスレンズ16が光軸方向に移動する。この後、電子カメラの動作はステップS312に移行する。
ステップS312において、CPU26は、フォーカスレンズ16の移動に伴って被写体となる複数の人物の全てについて合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラの動作はステップS313に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラの動作はステップS311に再度移行する。
ステップS313において、CPU26は、LCD30に対して全人物合焦通知用データの表示を指示する。これにより、LCD30は、全人物合焦通知用データをROM32から取得して表示する。この後、電子カメラの動作はステップS314に移行する。
ステップS314において、CPU26は、操作部28の撮影スイッチの全押し状態を検知するまで待機する。CPU26により操作部28の撮影スイッチの全押し状態が検知されると、電子カメラの動作はステップS315に移行する。
ステップS315において、CPU26は、撮影動作を開始するために、撮影レンズ部12に対して絞り・シャッタ機構18のシャッタの駆動を指示する。これにより、絞り・シャッタ機構18のシャッタが駆動される。この後、電子カメラの動作はステップS316に移行する。
ステップS316において、CPU26は、画角自動補正機能が有効に設定されているか否かを判定する。なお、画角自動補正機能の有効/無効は、電子カメラの操作者により操作部28の十字ボタンおよび決定ボタンを介して撮影前に設定される。CPU26により画角自動補正機能が有効に設定されていると判定された場合、電子カメラの動作はステップS317に移行する。一方、CPU26により画角自動補正機能が無効に設定されていると判定された場合、電子カメラの動作はステップS317を省略してステップS318に移行する。
ステップS317において、CPU26は、ステップS309で集合写真撮影を認識した場合にのみ、画像処理部24に対して画角補正処理の実施を指示する。これにより、画像処理部24は、ステップS309でCPU26により集合写真撮影が認識された場合にのみ、AFE/TG22から供給される画像データに対して画角補正処理を実施する。具体的には、画像処理部24は、ステップS302でCPU26によりSDRAM34に格納されたズームレンズ位置データに基づいて、画像データにおける被写体の大きさを適切なものに修正するために必要な画角を算出し、AFE/TG22から供給される画像データに対してデジタルズーム処理を実施する。この後、電子カメラの動作はステップS318に移行する。
ステップS318において、CPU26は、画像処理部24に対して所定の画像処理の実施を指示する。これにより、画像処理部24は、ステップS317で画角補正処理を実施した場合には、画角補正処理を実施して得られた画像データに対して所定の画像処理を実施し、ステップS317で画角補正処理を実施しなかった場合には、AFE/TG22から供給される画像データに対して所定の画像処理を実施する。この後、電子カメラの動作はステップS319に移行する。
ステップS319において、CPU26は、画像処理部24に対して画像データの格納を指示する。これにより、画像処理部24は、ステップS318で所定の画像処理を実施して得られた画像データをSDRAM34または記録メディア36に格納する。
以上のような第3実施形態では、画像処理部24の人物検出処理により複数の人物が検出された場合(CPU26により集合写真撮影が認識された場合)、被写界深度を大きくするためにズームレンズ14の位置が広角側に設定される。このため、集合写真撮影の際に、被写体となる各人物の電子カメラからの距離が大きく異なる場合でも、被写体の全体に焦点が合った画像データを取得でき、第1実施形態と同様の効果が得られる。また、CPU26により集合写真撮影が認識され、ズームレンズ14の位置が広角側に設定された場合、画像処理部24の画角補正処理(デジタルズーム処理)が電子カメラの操作者の選択に応じて実施される。従って、ズームレンズ14の位置が広角側に設定されたことに起因して画像データにおける被写体(複数の人物)の大きさが小さくなるという問題も解消できる。
(第4実施形態)
図7は、本発明の第4実施形態を示している。第4実施形態の電子カメラは、第1実施形態の電子カメラの構成(図1)と同一の構成を有し、図7に示すように動作する。以下、第4実施形態の電子カメラの動作について、第1実施形態の電子カメラの構成要素に付した符号と同一の符号を使用して説明する。
ステップS401において、CPU26は、操作部28の撮影スイッチの半押し状態を検知するまで待機する。CPU26により操作部28の撮影スイッチの半押し状態が検知されると、電子カメラの動作はステップS402に移行する。
ステップS402において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動を指示する。これにより、フォーカスレンズ16が光軸方向に移動する。この後、電子カメラの動作はステップS403に移行する。
ステップS403において、CPU26は、フォーカスレンズ16の移動に伴って合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラの動作はステップS404に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラの動作はステップS402に再度移行する。
ステップS404において、CPU26は、画像処理部24に対して人物検出処理の実施を指示する。これにより、画像処理部24は、AFE/TG22から供給される画像データに対して人物検出処理を実施する。画像処理部24により人物が検出された場合、電子カメラの動作はステップS405に移行する。一方、画像処理部24により人物が検出されなかった場合、電子カメラの動作はステップS405〜S411を省略してステップS412に移行する。
ステップS405において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動を指示する。これにより、フォーカスレンズ16が光軸方向に移動する。この後、電子カメラの動作はステップS406に移行する。
ステップS406において、CPU26は、フォーカスレンズ16の移動に伴って合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラの動作はステップS407に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラの動作はステップS405に再度移行する。
ステップS407において、CPU26は、画像処理部24に対して人物検出処理の実施を指示する。これにより、画像処理部24は、AFE/TG22から供給される画像データに対して人物検出処理を実施する。画像処理部24により人物が検出された場合、電子カメラの動作はステップS408に移行する。一方、画像処理部24により人物が検出されなかった場合、電子カメラの動作はステップS408〜S411を省略してステップS412に移行する。
ステップS408において、CPU26は、ステップS404、S407の双方で画像処理部24により人物が検出されたことで、今回の撮影が集合写真撮影であることを認識する。この後、電子カメラの動作はステップS409に移行する。
ステップS409において、CPU26は、撮影レンズ部12に対してフォーカスレンズ16の移動を指示する。これにより、フォーカスレンズ16が光軸方向に移動する。この後、電子カメラの動作はステップS410に移行する。
ステップS410において、CPU26は、フォーカスレンズ16の移動に伴って被写体となる複数の人物の全てについて合焦状態が確立されたか否かを判定する。CPU26により合焦状態が確立されたと判定された場合、電子カメラの動作はステップS411に移行する。一方、CPU26により合焦状態が確立されなかったと判定された場合、電子カメラの動作はステップS409に再度移行する。
ステップS411において、CPU26は、LCD30に対して全人物合焦通知用データの表示を指示する。これにより、LCD30は、全人物合焦通知用データをROM32から取得して表示する。この後、電子カメラの動作はステップS412に移行する。
ステップS412において、CPU26は、操作部28の撮影スイッチの全押し状態を検知するまで待機する。CPU26により操作部28の撮影スイッチの全押し状態が検知されると、電子カメラの動作はステップS413に移行する。
ステップS413において、CPU26は、撮影動作を開始するために、撮影レンズ部12に対して絞り・シャッタ機構18のシャッタの駆動を指示する。これにより、絞り・シャッタ機構18のシャッタが駆動される。この後、電子カメラの動作はステップS414に移行する。
ステップS414において、CPU26は、ステップS408で集合写真撮影を認識した場合にのみ、画像処理部24に対して輪郭強調処理の実施を指示する。これにより、画像処理部24は、ステップS408でCPU26により集合写真撮影が認識された場合にのみ、AFE/TG22から供給される画像データに対して輪郭強調処理を実施する。なお、輪郭強調処理は周知の画像処理であるため、輪郭強調処理の詳細については説明を省略する。この後、電子カメラの動作はステップS415に移行する。
ステップS415において、CPU26は、画像処理部24に対して所定の画像処理の実施を指示する。これにより、画像処理部24は、ステップS414で輪郭強調処理を実施した場合には、輪郭強調処理を実施して得られた画像データに対して所定の画像処理を実施し、ステップS414で輪郭強調処理を実施しなかった場合には、AFE/TG22から供給される画像データに対して所定の画像処理を実施する。この後、電子カメラの動作はステップS416に移行する。
ステップS416において、CPU26は、画像処理部24に対して画像データの格納を指示する。これにより、画像処理部24は、ステップS415で所定の画像処理を実施して得られた画像データをSDRAM34または記録メディア36に格納する。
以上のような第4実施形態では、画像処理部24の人物検出処理により複数の人物が検出された場合(CPU26により集合写真撮影が認識された場合)、画像処理部24の輪郭強調の画像処理が実施される。このため、集合写真撮影の際に、被写体となる各人物の電子カメラからの距離が大きく異なる場合でも、擬似的に被写体の全体に焦点が合った画像データを取得でき、第1実施形態と同様の効果が得られる。
(変形例)
第1および第2実施形態では、絞り・シャッタ機構18の絞り値が大きく設定されると適正露出になるために必要な露光時間が長くなるという点が考慮されていない例について述べたが、本発明はかかる実施形態に限定されるものではない。例えば、露光時間の短縮を図るために、撮影動作の開始前に設定された絞り・シャッタ機構18の絞り値が所定値より大きい場合、AFE/TG22がCCD20から供給される画像データの信号を増幅するステップあるいは画像処理部24がAFE/TG22から供給される画像データの輝度を上げるステップの少なくともいずれかが実施されるようにしてもよい。
以上、本発明について詳細に説明してきたが、前述の実施形態およびその変形例は発明の一例に過ぎず、本発明はこれらに限定されるものではない。本発明を逸脱しない範囲で変形可能であることは明らかである。
本発明の第1実施形態を示すブロック図である。 第1実施形態の電子カメラの動作を示すフロー図である。 集合写真撮影の被写体の一例を示す説明図である。 被写界深度および焦点距離を概念的に示す説明図である。 本発明の第2実施形態を示すフロー図である。 本発明の第3実施形態を示すフロー図である。 本発明の第4実施形態を示すフロー図である。
符号の説明
10…電子カメラ;12…撮影レンズ部;14…ズームレンズ;16…フォーカスレンズ;18…絞り・シャッタ機構;20…CCD;22…AFE/TG;24…画像処理部;26…CPU;28…操作部;30…LCD;32…ROM;34…SDRAM;36…記録メディア;38…バス

Claims (9)

  1. 撮影光学系を介して被写体を撮像して画像を生成する撮像手段と、
    前記撮像手段により撮影前に生成される画像に対して、前記撮影光学系のフォーカスレンズの移動に伴って合焦状態が確立される度に人物検出を実施する人物検出手段と、
    前記人物検出手段による人物の検出に伴って前記撮影光学系のフォーカスレンズの位置をレンズ情報として記憶するレンズ情報記憶手段と、
    前記人物検出手段により複数の人物が検出された場合、前記レンズ情報記憶手段により記憶されたレンズ情報と、前記撮影光学系のフォーカスレンズの位置から焦点距離を算出するための演算情報とに基づいて、前記人物検出手段により検出された複数の人物についての焦点距離差を算出する焦点距離差算出手段とを備えることを特徴とする電子カメラ。
  2. 請求項1記載の電子カメラにおいて、
    前記焦点距離差算出手段により算出された焦点距離差の最大値が所定値より大きい場合、前記撮影光学系の絞り値を前記人物検出手段により検出された複数の人物の全てに焦点が合うように調整する絞り制御手段を備えることを特徴とする電子カメラ。
  3. 請求項2記載の電子カメラにおいて、
    前記絞り制御手段により設定された絞り値が所定値より大きい場合、前記撮像手段により撮影時に生成される画像の信号を増幅する画像信号増幅手段を備えることを特徴とする電子カメラ。
  4. 請求項2記載の電子カメラにおいて、
    前記絞り制御手段により設定された絞り値が所定値より大きい場合、前記撮像手段により撮影時に生成される画像の輝度を上げる画像処理手段を備えることを特徴とする電子カメラ。
  5. 請求項1記載の電子カメラにおいて、
    前記撮影光学系の焦点距離を可変する光学ズーム手段を備え、
    前記焦点距離差算出手段は、焦点距離差の算出時に用いる演算情報を前記撮影光学系のズームレンズの位置に応じて変更することを特徴とする電子カメラ。
  6. 撮影光学系を介して被写体を撮像して画像を生成する撮像手段と、
    前記撮影光学系の焦点距離を可変する光学ズーム手段と、
    前記撮像手段により撮影前に生成される画像に対して人物検出を実施する人物検出手段とを備え、
    前記光学ズーム手段は、前記人物検出手段により複数の人物が検出された場合、前記撮影光学系の焦点距離を広角側に設定することを特徴とする電子カメラ。
  7. 請求項6記載の電子カメラにおいて、
    前記光学ズーム手段により前記撮影光学系の焦点距離が広角側に設定された場合、前記撮像手段により撮影時に生成される画像に対して電子ズームを実施する電子ズーム手段を備えることを特徴とする電子カメラ。
  8. 撮影光学系を介して被写体を撮像して画像を生成する撮像手段と、
    前記撮像手段により撮影前に生成される画像に対して人物検出を実施する人物検出手段と、
    前記人物検出手段により複数の人物が検出された場合、前記撮像手段により撮影時に生成される画像に対して輪郭強調の画像処理を実施する画像処理手段とを備えることを特徴とする電子カメラ。
  9. 請求項1、6、8のいずれかに記載の電子カメラにおいて、
    前記人物検出手段により検出された複数の人物の全てに焦点が合ったことを検知する合焦検知手段と、
    前記合焦検知手段による合焦状態の検知に伴って合焦通知情報を表示する表示手段とを備えることを特徴とする電子カメラ。
JP2006259095A 2006-09-25 2006-09-25 電子カメラ Withdrawn JP2008076981A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006259095A JP2008076981A (ja) 2006-09-25 2006-09-25 電子カメラ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006259095A JP2008076981A (ja) 2006-09-25 2006-09-25 電子カメラ

Publications (1)

Publication Number Publication Date
JP2008076981A true JP2008076981A (ja) 2008-04-03

Family

ID=39349065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006259095A Withdrawn JP2008076981A (ja) 2006-09-25 2006-09-25 電子カメラ

Country Status (1)

Country Link
JP (1) JP2008076981A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009268116A (ja) * 2008-04-24 2009-11-12 Sony Corp デジタルカメラにおいてズーム設定を効果的に最適化するためのシステム及び方法
JP2012181324A (ja) * 2011-03-01 2012-09-20 Nikon Corp 撮像装置
WO2013157413A1 (ja) * 2012-04-20 2013-10-24 株式会社ザクティ 電子カメラ
JP2017139715A (ja) * 2016-02-05 2017-08-10 フリュー株式会社 写真シール作成装置および撮影方法
JP2018064285A (ja) * 2017-11-28 2018-04-19 オリンパス株式会社 撮像装置,撮像装置の制御方法
JP2020020901A (ja) * 2018-07-31 2020-02-06 キヤノン株式会社 制御装置、撮像装置、および、プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009268116A (ja) * 2008-04-24 2009-11-12 Sony Corp デジタルカメラにおいてズーム設定を効果的に最適化するためのシステム及び方法
JP2012181324A (ja) * 2011-03-01 2012-09-20 Nikon Corp 撮像装置
WO2013157413A1 (ja) * 2012-04-20 2013-10-24 株式会社ザクティ 電子カメラ
JP2017139715A (ja) * 2016-02-05 2017-08-10 フリュー株式会社 写真シール作成装置および撮影方法
JP2018064285A (ja) * 2017-11-28 2018-04-19 オリンパス株式会社 撮像装置,撮像装置の制御方法
JP2020020901A (ja) * 2018-07-31 2020-02-06 キヤノン株式会社 制御装置、撮像装置、および、プログラム
JP7207888B2 (ja) 2018-07-31 2023-01-18 キヤノン株式会社 制御装置、撮像装置、制御装置の制御方法、および、プログラム

Similar Documents

Publication Publication Date Title
KR20160072687A (ko) 카메라 모듈
JP2008199486A (ja) 一眼レフレックス型の電子撮像装置
JPH08186757A (ja) 電子カメラ
JP5278564B2 (ja) 撮像装置
JP2013150265A (ja) 撮像装置、表示方法、プログラム
JP2009151254A (ja) 撮影装置及び焦点検出装置
JP5896763B2 (ja) 光学機器および自動焦点調節を行う方法
JP2009192774A (ja) 焦点調節装置および撮像装置
JP2008205569A (ja) 撮像装置及び方法
JP2010091669A (ja) 撮像装置
JP2008076981A (ja) 電子カメラ
JP2011239131A (ja) 撮像装置
JP2011007867A (ja) 焦点検出装置、および、カメラ
JP2015152749A (ja) 撮像装置およびその制御方法
JP2009290255A (ja) 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP5054635B2 (ja) 撮像装置
JP2016200629A (ja) 撮像装置、その制御方法及びプログラム
JP6501536B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2014206711A (ja) 撮像装置およびその制御方法
JP6168827B2 (ja) 像振れ補正装置および光学機器
JP2003289468A (ja) 撮像装置
JP5978620B2 (ja) 撮像装置
JP2004333924A (ja) カメラ
JP2013187883A (ja) 撮像装置及び撮像方法
JP5590850B2 (ja) 撮像装置および撮像装置のフォーカス制御方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091201