JP2004241823A - Imaging method and imaging apparatus - Google Patents

Imaging method and imaging apparatus Download PDF

Info

Publication number
JP2004241823A
JP2004241823A JP2003026161A JP2003026161A JP2004241823A JP 2004241823 A JP2004241823 A JP 2004241823A JP 2003026161 A JP2003026161 A JP 2003026161A JP 2003026161 A JP2003026161 A JP 2003026161A JP 2004241823 A JP2004241823 A JP 2004241823A
Authority
JP
Japan
Prior art keywords
focus
imaging
focus area
position information
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003026161A
Other languages
Japanese (ja)
Inventor
Akihiko Ito
彰彦 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2003026161A priority Critical patent/JP2004241823A/en
Publication of JP2004241823A publication Critical patent/JP2004241823A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To eliminate the need of the process of readjusting an optical system to cope with the peripheral focus deviation, etc., without adopting high-precision components or high-precision manufacturing processes. <P>SOLUTION: The apparatus comprises a focus control means for obtaining focusing information for focusing an object image, an imaging optical system driving means for adjusting the focus based on the focusing information, an imaging means for taking the object image formed by an imaging optical system, a memory means for storing relative focus position information representing the focus deviation quantity in a non-focus area, a control means for controlling the imaging operation in a focused state onto the non-focus area and the imaging operation in a focused state onto a focus area, and an image composing means for composing image data obtained in the focused state onto the non-focus area with image data obtained in the focused state onto the focus area. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明はCCDなどの撮像素子を用いて撮像する撮影方法および撮像装置に関し、特に、良好な撮像結果を得ることが可能な撮影方法および撮像装置の改良に関する。
【0002】
【従来の技術】
一般的なディジタルカメラの場合、所定のフォーカスエリア(撮像範囲の中心部分など)について合焦情報を得て、該合焦情報に基づいて撮像光学系の少なくとも一部を駆動することで焦点調節を行い、撮像光学系により結像された被写体像を撮像するように構成されている。
【0003】
ところで、この種のディジタルカメラやデジタルビデオカメラ等では、CCD等の固体撮像素子の小型化に伴いレンズ系も小型化される傾向にある。また、CCDの画素数は増える傾向にあるため、一層高い精度が要求されてきている。
【0004】
このような高い精度が要求されるレンズ系では、撮像範囲の中心部分ではピントが合って高い解像度が得られるのにもかかわらず、レンズの光軸ずれなどの問題によって、周辺の一部でピントがずれた状態(片ボケ)や周辺全体でピントがずれた状態(周辺ボケ)が発生することがある。なお、この明細書では、以上の片ボケと周辺ボケとをあわせて、周辺ボケと総称して説明を行うことにする。
【0005】
このような現象は、小型化に伴い高い精度が要求されつつあるディジタルカメラの場合には、大きな問題となってきている。
【0006】
なお、このような周辺ボケが生じていることが製造検査の段階で判明した場合には、以下に述べる特許文献1記載のように、再調整をしたうえで出荷するなどの手法をとることがあった。
【0007】
【特許文献1】
特開平11−202204号公報(第1頁、図1)
【0008】
【発明が解決しようとする課題】
以上のように出荷前に再調整を行うと出荷までの工程が増えて、製造コストが上昇する問題がある。また、再調整の工程が不要なように、予め高精度な部品や製造工程を取り入れることも可能であるが、その場合にも部品コストや製造コストが上昇する問題が生じる。
【0009】
本発明は以上の課題に鑑みてなされたものであって、周辺ボケなどの対策のために、高精度な部品や高精度な製造工程を取り入れることなく、光学系の再調整の工程も不要にすることが可能な撮影方法および撮像装置を実現することを目的とする。
【0010】
【課題を解決するための手段】
すなわち、上記の課題を解決する本願発明は、以下のそれぞれに述べるようなものである。
【0011】
(1)請求項1記載の発明は、所定のフォーカスエリアについて合焦情報を得て、該合焦情報に基づいて撮像光学系の少なくとも一部を駆動することで焦点調節を行い、撮像光学系により結像された被写体像を撮像する撮像方法であって、前記フォーカスエリア以外の所定の非フォーカスエリアにおける、前記フォーカスエリアに対する合焦ずれ量を示す相対的合焦位置情報を予め記憶しておき、フォーカスエリアに合焦させた状態での撮像と、前記相対的合焦位置情報に基づいて、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態での撮像とを行い、フォーカスエリアに合焦させた状態で得た画像データに対して、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態で得た該非フォーカスエリアの画像データを合成する、ことを特徴とする撮像方法である。
【0012】
また、請求項2記載の発明は、被写体像を結像させるための撮像光学系と、所定のフォーカスエリアについて、前記被写体像を合焦させるための合焦情報を得る焦点制御手段と、前記合焦情報に基づいて前記撮像光学系の少なくとも一部を駆動することで焦点調節を行う撮像光学系駆動手段と、前記撮像光学系により結像された被写体像を撮像する撮像手段と、前記フォーカスエリア以外の所定の非フォーカスエリアにおける、前記フォーカスエリアに対する合焦ずれ量を示す相対的合焦位置情報を記憶する合焦位置情報記憶手段と、フォーカスエリアに合焦させた状態での撮像と、前記合焦位置情報記憶手段に記憶された相対的合焦位置情報に基づいて、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態での撮像とを行うように制御する制御手段と、フォーカスエリアに合焦させた状態で得た画像データに対して、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態で得た該非フォーカスエリアの画像データを合成する画像合成手段と、を有することを特徴とする撮像装置である。
【0013】
また、請求項3記載の発明は、前記非フォーカスエリアは、撮像範囲に含まれる周辺部に定められている、ことを特徴とする請求項2記載の撮像装置である。
【0014】
また、請求項4記載の発明は、前記非フォーカスエリアは、撮像範囲に含まれる周辺部の複数の位置に定められている、ことを特徴とする請求項2記載の撮像装置である。
【0015】
これらの発明では、所定のフォーカスエリア(撮像範囲の中心部分など)について合焦情報を得て、該合焦情報に基づいて撮像光学系の少なくとも一部を駆動することで焦点調節を行い、撮像光学系により結像された被写体像を撮像する場合、前記フォーカスエリア以外の所定の非フォーカスエリアにおける、前記フォーカスエリアに対する合焦ずれ量を示す相対的合焦位置情報を予め記憶しておき、フォーカスエリアに合焦させた状態での撮像と、前記相対的合焦位置情報に基づいて、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態での撮像とを行い、フォーカスエリアに合焦させた状態で得た画像データに対して、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態で得た該非フォーカスエリアの画像データを合成する。
【0016】
このようにすることで、所定のフォーカスエリアで合焦させるだけではなく、撮像範囲の周辺位置の非フォーカスエリアでも合焦させた状態の画像データを生成することができるため、周辺ボケなどの対策のために、高精度な部品や高精度な製造工程を取り入れることなく、光学系の再調整の工程も不要にすることが可能になる。また、周辺部において周辺ボケなどによる違和感のない解像感の高い画像を得ることが可能になる。
【0017】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態例を詳細に説明する。図1は本発明の実施の形態例である撮像方法および撮像装置について、ディジタルカメラ100に適用した場合の電気的な主要部分の構成図である。なお、図3はディジタルカメラ100の外観構成を示す説明図である。
【0018】
まず、図3を参照して、ディジタルカメラ100について簡単に説明する。ディジタルカメラ100の正面には被写体を撮像するための撮像部102と、撮影対象に補助光を照射する補助光発光部122と、撮影範囲を見定めるためのファインダ125と、が設けられている。また、背面において、撮影画像等を確認するための表示を行う画像表示部108と、撮影設定状況などを表示する表示部126と、各種機能の設定や切替を操作するための操作スイッチ121と、が設けられている。また、上面には、レリーズを操作するためのレリーズスイッチ121aが設けられている。
【0019】
また、図1において、101はディジタルカメラ100の各部を制御する制御手段としてのCPUである。このCPU101は、後述するEEPROMに格納されているアプリケーションプログラムに基づいて撮像処理を実行する。
【0020】
102は、レンズユニット102a、絞り102b、CCD102cからなり、被写体像の撮像を行う撮像部である。なお、レンズユニット102aと絞り102bとで撮像光学系を構成している。
【0021】
104はCCD102cからの読み出し信号に各種処理を行って画像信号を生成する撮像回路である。なお、CCD102cと撮像回路104とで撮像手段を構成している。105はA−D変換回路であり、アナログの画像信号をディジタルの画像信号に変換する。このA−D変換回路105は、ディジタルの画像信号をメモリ106とAE・AF処理回路113に出力する。
【0022】
106は画像信号を一時的に保管する作業用のメモリであり、画像表示や画像記録の直前の画像信号が蓄積されるほか、本実施の形態例の特徴的な動作である画像合成の処理を行う。この画像合成のため、少なくとも、複数画面分の画像信号を保管できる容量を有することが必要となる。なお、CPU101とメモリ106とが画像合成手段を構成している。
【0023】
107はメモリ106に蓄積された画像信号を画像表示のためにアナログの画像信号にD−A変換するD−A変換回路である。108は液晶表示パネルなどで構成された画像表示部であり、D−A変換回路107からの画像信号を表示する。なお、表示は撮像する画像に限らず、各種設定のためのテキスト画面であってもよい。
【0024】
109は撮像された画像が記録される記録用メモリであり、ディジタルカメラ100に使用可能な各種のメモリカードなどが該当する。この記録用メモリ109は、ディジタルカメラ100に挿抜可能な形式のものでもよいし、ディジタルカメラ100に内蔵されたままの形式のものでもよい。
【0025】
110はメモリ109に対して記録する圧縮画像信号を生成するための圧縮処理や、メモリ109から圧縮画像信号を読み出して画像信号に戻すための伸長処理を行う圧縮伸長回路である。
【0026】
112は撮像のための所定のタイミング信号を生成するタイミング・ジェネレータ(TG)である。TG112が生成したタイミング信号は、CPU101,撮像回路104,CCDドライバ114などに供給される。
【0027】
113はAE・AF処理回路であり、適正な露出条件を求めるAE(Auto Exposure:自動露出制御)処理と、合焦のためのAF(Auto Focus:自動焦点制御)処理とを実行し、演算結果をCPU101に伝達する。CPU101は、このAEの演算結果に基づいて絞り102bを制御し、このAFの演算結果に基づいてレンズユニット102aを制御する。
【0028】
なお、このAE・AF処理回路113は、所定のフォーカスエリア(画面の中心部分など)について、被写体像を合焦させるための合焦情報を得るようにしており、焦点制御手段を構成している。
【0029】
なお、焦点制御手段としては、この実施の形態例ではパッシブAF方式のものを用いているが、これに限定されるものではない。すなわち、赤外線や超音波等を被写体に照射するアクティブAF方式を用いることも可能である。
【0030】
114はTG12からのタイミング信号を用いてCCD102cを駆動しているCCDドライバであり、CPU101からの指示に基づいた電荷蓄積時間となるような制御を行う。
【0031】
115は絞り102bの露出制御をするための第1モータ(第1M)、116は第1M115を駆動するための第1モータ駆動回路である。この第1モータ駆動回路116は、AE・AF処理回路113からのAE演算結果に基づいてCPU101が制御する。
【0032】
117はレンズユニット102aの合焦制御をするための第2モータ(第2M)、118は第2M117を駆動するための第2モータ駆動回路である。この第2モータ駆動回路118は、AE・AF処理回路113からのAF演算結果に基づいてCPU101が制御する。
【0033】
119はディジタルカメラ100各部に必要な電力を供給する電池であり、必要に応じて図示されない安定化回路や昇圧回路等を介して各部に安定した電圧の電力を供給している。
【0034】
120はCPU101がディジタルカメラ100の各部を制御するためのアプリケーションプログラムが格納されたEEPROMである。なお、この実施の形態例では、このEEPROM120には、前記フォーカスエリア以外の所定の非フォーカスエリアにおける、フォーカスエリアに対する合焦ずれ量を示す相対的合焦位置情報が予め記憶されている。
【0035】
121は各種スイッチが設けられた操作SWであり、レリーズSW121a、モードSW121bやその他の各種スイッチの総称である。この操作SW121の操作結果はCPU101に伝達される。なお、レリーズSW121aは、2段階に押下できるように構成されており、第1段目がAE・AF処理のためのレリーズS1、第2段目が実際の撮影のためのレリーズS2となっている。
【0036】
122は撮影時の輝度不足の際に、被写体に対して補助光(補助光やストロボ光)を照射する補助光発光部であり、スイッチング回路123により発光タイミングや発光量が制御されている。
【0037】
なお、本実施の形態例のディジタルカメラ100のEEPROM120には上述したように、相対的合焦位置情報が予め記憶されている。
【0038】
ここで、相対的合焦位置情報としては、ディジタルカメラ100の出荷前の検査時において、レンズユニット102aの周辺ボケなどの検査を行い、フォーカスエリア(通常は撮影範囲の中心部分)を合焦させたときの、前記フォーカスエリア以外の所定の非フォーカスエリアにおける、フォーカスエリアに対する合焦ずれ量(相対的合焦位置)を示す相対的合焦位置情報を得ておく。
【0039】
ここで、所定の非フォーカスエリアとは、図4(a)に示す例では、斜め左上,斜め右上,斜め左下,斜め右下の4箇所(図中の丸印)を意味する。なお、これら非フォーカスエリアとフォーカスエリア部分とを中心として、合計5エリアに区分けすることが可能である。また、所定の非フォーカスエリアは、図4(b)に示す例では、上,右,左,下の4箇所(図中の丸印)を意味する。なお、これら非フォーカスエリアとフォーカスエリア部分とを中心として、合計5エリアに区分けすることが可能である。さらに、所定の非フォーカスエリアは、図4(c)に示す例では、上,右,左,下,斜め左上,斜め右上,斜め左下,斜め右下の8箇所(図中の丸印)を意味する。なお、これら非フォーカスエリアとフォーカスエリア部分とを中心として、合計9エリアに区分けすることが可能である。なお、これらは一例であり、ここに示した例に限定されるものではない。
【0040】
なお、被写体までの距離を変えて、たとえば、1m,3m,10m,∞などの各距離で、以上の非フォーカスエリアについての相対的合焦位置情報を得ておく。また、ズームレンズを使用する場合には、広角側,標準側,望遠側などの各焦点距離でも同様にして、被写体までの距離を変えて、以上の非フォーカスエリアについての相対的合焦位置情報を得ておく。
【0041】
このようにして相対的合焦位置情報を得た場合に、フォーカスエリアとの合焦ずれが検査合格基準を超えて片ぼけが発生したものについて、EEPROM120に相対的合焦位置情報として蓄積しておく。この場合、撮像範囲における位置,被写体までの距離,焦点距離,合焦ずれ量,を一連のデータとして格納する。なお、検査合格基準以下の合焦ずれであれば、EEPROM120に蓄積することを要しない。
【0042】
以下、図2のフローチャートを参照して、本実施の形態例のディジタルカメラ100の動作について、特徴部分を中心に説明する。
【0043】
この実施の形態例のディジタルカメラ100では、所定のフォーカスエリア(撮像範囲の中心部分など)についてAE・AF処理回路113にて合焦情報を得て、CPU101の制御により、該合焦情報に基づいてレンズユニット102aの少なくとも一部を駆動することで焦点調節を行い、これによりCCD102cに結像された被写体像を撮像するように構成されている。
【0044】
ここで、撮影時にはCPU101はレリーズSW121aの押下状態を監視しており(図2ステップ1)、レリーズSW121aの第1段目(レリーズS1)が押下されたことを確認したら(図2ステップ1でY)、AE・AF処理回路113に測距と測光とを行わせる(図2ステップ2)。
【0045】
なお、CPU101はレリーズSW121aの押下状態を監視しており(図2ステップ3)、この測距と測光とは、レリーズSW121aの第2段目が押下されるまで続行する。
【0046】
レリーズSW121aの第2段目(レリーズS2)が押下されたことを確認したら(図2ステップ3でY)、CPU101は、AF演算結果に基づいてレンズユニット102aを駆動して(図2ステップ4)、撮像を行ってCCD102cから読み出した読み出し信号を画像信号に変換してメモリ106に蓄積する(図2ステップ5)。なお、この時点でのAF駆動と撮像とは、図4における撮像範囲の中心部分と、相対的合焦位置情報が存在しない周辺部分用である。
【0047】
ここで、CPU101はEEPROM120上の相対的合焦位置情報を参照し、相対的合焦位置情報が存在しない場合には(図2ステップ6でN)、メモリ106に蓄積した画像信号を圧縮伸長回路110によって圧縮画像信号に変換したうえで、記録用メモリに記録する(図2ステップ10)。
【0048】
ここで、EEPROM120上に相対的合焦位置情報が存在する場合には(図2ステップ6でY)、検査時に周辺ボケが見つかったことを意味しており、周辺ボケ部分で合焦ずれを解消するように、画面中心部分でのAF演算結果に対して相対的合焦位置情報を加味して、レンズユニット102aを駆動する(図2ステップ7)。
【0049】
なお、実際の被写体までの距離が、蓄積されている相対的合焦位置情報と完全に一致しない場合には、複数の相対的合焦位置情報を用いて補間演算によって求めればよい。
【0050】
同様に、ズーム位置が、全ての焦点距離における相対的合焦位置情報を蓄積していない場合には、複数の相対的合焦位置情報を用いて補間演算によって求めればよい。
【0051】
そして、相対的合焦位置情報に基づくレンズユニット102aの駆動が完了した時点で、CCD102cから読み出した読み出し信号を画像信号に変換してメモリ106に蓄積する(図2ステップ8)。なお、この時点でのフォーカス駆動と撮像とは、図4において、相対的合焦位置情報が存在する(周辺ボケが生じている)周辺部分用である。
【0052】
なお、相対的合焦位置情報が存在する(周辺ボケが生じている)周辺部分が1箇所ではなく複数存在している場合には、CPU101の制御により、ステップ6〜ステップ8のフォーカス駆動と撮像とを繰り返し実行し、それぞれ得た画像信号をメモリ106に蓄積する。
【0053】
また、以上のようなフォーカス駆動と撮像とは、画像合成した場合に違和感が生じないように、なるべく短い時間に、ほぼ連続して実行することが好ましい。
【0054】
そして、CPU101は、以上のようにして得た複数の画像信号について、メモリ106上で画像合成を行う。すなわち、フォーカスエリアに合焦させた状態で得た画像データに対して、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態で得た該非フォーカスエリアの画像データを合成する。
【0055】
なお、図4(a)のように領域をわけた場合において、相対的合焦位置情報が存在する非フォーカスエリアが右上部分だけであるとした場合の様子を図5に示す。この場合、フォーカスエリアに合焦させた状態で得た画像データから、前記相対的合焦位置情報が存在する非フォーカスエリアを除いた状態の画像データ(図5(a)参照)を生成し、これに対して、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態で得た該非フォーカスエリアの画像データ(図5(b)参照)を合成して、全体の画像データ(図5(c)参照)を生成することが望ましい。
【0056】
また、画像合成を行う境界部分において、被写体などの画像の不整合が生じないように、境界部分近傍の一定範囲で、スムージングや平均化などの画像処理を行うことも望ましい。
【0057】
そして、以上のように画像合成を行って生成した画像データを、圧縮伸長回路110で圧縮画像信号に変換してから記録用メモリ109に記録する(図2ステップ10)。
【0058】
以上のように撮像と画像合成とを実行することで、所定のフォーカスエリアで合焦させるだけではなく、撮像範囲の周辺位置の非フォーカスエリアでも合焦させた状態の画像データを生成することができるため、周辺ボケなどの対策のために、高精度な部品や高精度な製造工程を取り入れることなく、光学系の再調整の工程も不要にすることが可能になる。
【0059】
また、このように再調整の工程が不要になるため、高性能なディジタルカメラを廉価に製造することが可能になる。また、周辺部において周辺ボケなどによる違和感のない解像感の高い画像を得ることが可能になる。
【0060】
〈その他の実施の形態例▲1▼〉
なお、以上の説明で、所定のフォーカスエリアを撮像範囲の中心部分としてきたが、フォーカスエリアをユーザが選択できるものや、フォーカスエリアを任意に移動できるものに対しても、本実施の形態例を適用することは可能である。
【0061】
〈その他の実施の形態例▲2▼〉
また、撮像の順番に関しては、所定のフォーカスエリア(以上の具体例では撮像範囲の中心部分)が最初である必要はなく、フォーカスレンズの駆動が1方向に連続して行えるように、撮像開始前のフォーカス位置と非フォーカスエリアのピントずれ方向とを参照して、撮像順番を変更するようにしてもよい。
【0062】
〈その他の実施の形態例▲3▼〉
なお、焦点制御としては、以上の実施の形態例では、撮像レンズを駆動することにより合焦情報を得るパッシブAF方式のものを用いているが、これに限定されるものではない。すなわち、赤外線や超音波等を被写体に照射するアクティブAF方式を用いることも可能である。
【0063】
【発明の効果】
以上、説明したように、本発明では、所定のフォーカスエリア(撮像範囲の中心部分など)について合焦情報を得て、該合焦情報に基づいて撮像光学系の少なくとも一部を駆動することで焦点調節を行い、撮像光学系により結像された被写体像を撮像する場合、前記フォーカスエリア以外の所定の非フォーカスエリアにおける、前記フォーカスエリアに対する合焦ずれ量を示す相対的合焦位置情報を予め記憶しておき、フォーカスエリアに合焦させた状態での撮像と、前記相対的合焦位置情報に基づいて、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態での撮像とを行い、フォーカスエリアに合焦させた状態で得た画像データに対して、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態で得た該非フォーカスエリアの画像データを合成する。このようにすることで、所定のフォーカスエリアで合焦させるだけではなく、撮像範囲の周辺位置の非フォーカスエリアでも合焦させた状態の画像データを生成することができるため、周辺ボケなどの対策のために、高精度な部品や高精度な製造工程を取り入れることなく、再調整の工程も不要にすることが可能になる。
【図面の簡単な説明】
【図1】本発明の実施の形態例の撮像方法および撮像装置の実施の形態例が適用されるディジタルカメラの電気的構成を示す構成図である。
【図2】本発明の実施の形態例の撮像の動作状態示すフローチャートである。
【図3】本発明の実施の形態例のディジタルカメラの外観構成を示す説明図である。
【図4】本発明の実施の形態例の撮像におけるフォーカスエリアと非フォーカスエリアとを示す説明図である。
【図5】本発明の実施の形態例の撮像における画像合成の様子を具体例により説明する説明図である。
【符号の説明】
100 ディジタルカメラ
101 CPU
102 撮像部
104 撮像回路
105 A−D変換回路
106 メモリ
107 D−A変換回路
108 画像表示部
109 記録用メモリ
110 圧縮伸長回路
113 AE・AF処理回路
120 EEPROM
121 操作SW
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging method and an imaging apparatus for imaging using an imaging element such as a CCD, and more particularly to an improvement in an imaging method and an imaging apparatus capable of obtaining a good imaging result.
[0002]
[Prior art]
In the case of a general digital camera, focusing information is obtained for a predetermined focus area (such as the center of an imaging range), and at least a part of the imaging optical system is driven based on the focusing information to adjust the focus. The imaging optical system is configured to capture a subject image formed by the imaging optical system.
[0003]
By the way, in digital cameras and digital video cameras of this type, the lens system tends to be downsized with the downsizing of solid-state imaging devices such as CCDs. Further, since the number of pixels of the CCD tends to increase, higher accuracy is required.
[0004]
In a lens system that requires such high precision, despite being focused at the center of the imaging range and achieving high resolution, it is difficult to focus on a part of the periphery due to problems such as optical axis deviation of the lens. In some cases, an out-of-focus state (one-sided blur) or an out-of-focus state in the entire periphery (peripheral blur) may occur. In this specification, the above-described one-sided blur and peripheral blur are collectively described as peripheral blur.
[0005]
Such a phenomenon has become a serious problem in the case of a digital camera which is required to have high accuracy in accordance with miniaturization.
[0006]
If it is found at the stage of manufacturing inspection that such peripheral blurring has occurred, a method such as shipping after re-adjustment may be taken as described in Patent Document 1 described below. there were.
[0007]
[Patent Document 1]
JP-A-11-202204 (page 1, FIG. 1)
[0008]
[Problems to be solved by the invention]
As described above, if readjustment is performed before shipment, there is a problem in that the number of steps before shipment increases and the manufacturing cost increases. It is also possible to incorporate high-precision parts and manufacturing steps in advance so that a readjustment step is not necessary. However, in that case, there is a problem in that parts costs and manufacturing costs increase.
[0009]
The present invention has been made in view of the above problems, and eliminates the need for a process of re-adjustment of an optical system without incorporating high-precision parts or a high-precision manufacturing process for measures against peripheral blur, etc. It is an object of the present invention to realize a photographing method and an image pickup apparatus capable of performing such operations.
[0010]
[Means for Solving the Problems]
That is, the present invention for solving the above-mentioned problems is as described below.
[0011]
(1) According to the first aspect of the present invention, focusing information is obtained for a predetermined focus area, and focus adjustment is performed by driving at least a part of the imaging optical system based on the focusing information. An imaging method for imaging a subject image formed according to (1), wherein relative focus position information indicating a focus shift amount with respect to the focus area in a predetermined non-focus area other than the focus area is stored in advance. Performing imaging in a state where the focus area is focused, and imaging in a state where the non-focus area where the relative focus position information exists based on the relative focus position information The image data obtained in a state where the focus area is focused on the non-focus area obtained in a state where the relative focus position information is present in the non-focus area. Synthesizing the image data of an imaging method, characterized in that.
[0012]
Also, the invention according to claim 2 is an imaging optical system for forming an image of a subject, a focus control unit for obtaining focusing information for focusing the subject image on a predetermined focus area, and An imaging optical system driving unit that performs focus adjustment by driving at least a part of the imaging optical system based on focus information; an imaging unit that captures a subject image formed by the imaging optical system; and the focus area. A focus position information storage unit that stores relative focus position information indicating a focus shift amount with respect to the focus area in a predetermined non-focus area other than the above, and imaging in a state where the focus area is focused; Based on the relative in-focus position information stored in the in-focus position information storage means, imaging in a state where the in-focus area in which the relative in-focus position information exists is focused. Control means for controlling to perform the operation, and the non-focus obtained in a state where the image data obtained in a state where the focus area is focused is focused on a non-focus area where the relative focus position information exists. An image capturing apparatus comprising: image combining means for combining image data of an area.
[0013]
The invention according to claim 3 is the imaging apparatus according to claim 2, wherein the non-focus area is defined in a peripheral portion included in an imaging range.
[0014]
The invention according to claim 4 is the imaging apparatus according to claim 2, wherein the non-focus area is set at a plurality of positions in a peripheral portion included in an imaging range.
[0015]
According to these inventions, focus information is obtained for a predetermined focus area (such as a center portion of an imaging range), and at least a part of an imaging optical system is driven based on the focus information to perform focus adjustment. When capturing a subject image formed by the optical system, relative focus position information indicating a focus shift amount with respect to the focus area in a predetermined non-focus area other than the focus area is stored in advance, and the focus is adjusted. Focusing is performed on an image in a state where the area is in focus, and on the basis of the relative focus position information, an image is focused on a non-focus area where the relative focus position information exists. For the image data obtained in a state where the area is in focus, the non-focus obtained in a state where the non-focus area where the relative focus position information exists is obtained To synthesize the image data of the rear.
[0016]
By doing so, it is possible not only to focus on a predetermined focus area, but also to generate image data in a focused state in a non-focus area at a peripheral position of the imaging range. Therefore, it is possible to eliminate the need for a readjustment step of the optical system without introducing a high-precision component or a high-precision manufacturing process. Further, it is possible to obtain an image having a high resolution without a sense of incongruity due to peripheral blur or the like in the peripheral portion.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a configuration diagram of main electric parts when an imaging method and an imaging apparatus according to an embodiment of the present invention are applied to a digital camera 100. FIG. 3 is an explanatory diagram showing an external configuration of the digital camera 100.
[0018]
First, the digital camera 100 will be briefly described with reference to FIG. In front of the digital camera 100, there are provided an image pickup unit 102 for picking up an image of a subject, an auxiliary light emitting unit 122 for irradiating auxiliary light to an object to be shot, and a finder 125 for determining a shooting range. Also, on the back, an image display unit 108 for displaying a captured image and the like, a display unit 126 for displaying a shooting setting status and the like, an operation switch 121 for setting and switching various functions, and Is provided. A release switch 121a for operating the release is provided on the upper surface.
[0019]
In FIG. 1, reference numeral 101 denotes a CPU as control means for controlling each unit of the digital camera 100. The CPU 101 executes an imaging process based on an application program stored in an EEPROM described later.
[0020]
An imaging unit 102 includes a lens unit 102a, an aperture 102b, and a CCD 102c and captures a subject image. Note that the lens unit 102a and the stop 102b constitute an imaging optical system.
[0021]
An imaging circuit 104 performs various processes on a read signal from the CCD 102c to generate an image signal. Note that the CCD 102c and the imaging circuit 104 constitute an imaging unit. Reference numeral 105 denotes an AD conversion circuit, which converts an analog image signal into a digital image signal. The A / D conversion circuit 105 outputs a digital image signal to the memory 106 and the AE / AF processing circuit 113.
[0022]
Reference numeral 106 denotes a work memory for temporarily storing image signals, which stores image signals immediately before image display and image recording, and performs image synthesis processing which is a characteristic operation of the present embodiment. Do. For this image synthesis, it is necessary to have at least a capacity capable of storing image signals for a plurality of screens. Note that the CPU 101 and the memory 106 constitute an image synthesizing unit.
[0023]
Reference numeral 107 denotes a DA conversion circuit that DA converts an image signal stored in the memory 106 into an analog image signal for image display. Reference numeral 108 denotes an image display unit configured with a liquid crystal display panel or the like, and displays an image signal from the DA conversion circuit 107. The display is not limited to the image to be captured, but may be a text screen for various settings.
[0024]
Reference numeral 109 denotes a recording memory for recording a captured image, and corresponds to various types of memory cards that can be used in the digital camera 100. The recording memory 109 may be of a type that can be inserted into and removed from the digital camera 100, or may be of a type that is built into the digital camera 100.
[0025]
A compression / expansion circuit 110 performs a compression process for generating a compressed image signal to be recorded in the memory 109 and a decompression process for reading the compressed image signal from the memory 109 and returning it to an image signal.
[0026]
A timing generator (TG) 112 generates a predetermined timing signal for imaging. The timing signal generated by the TG 112 is supplied to the CPU 101, the imaging circuit 104, the CCD driver 114, and the like.
[0027]
An AE / AF processing circuit 113 executes an AE (Auto Exposure: automatic exposure control) process for obtaining an appropriate exposure condition and an AF (Auto Focus: automatic focus control) process for focusing, and calculates a calculation result. Is transmitted to the CPU 101. The CPU 101 controls the aperture 102b based on the calculation result of the AE, and controls the lens unit 102a based on the calculation result of the AF.
[0028]
The AE / AF processing circuit 113 obtains focusing information for focusing a subject image on a predetermined focus area (a central portion of the screen, etc.), and constitutes a focus control unit. .
[0029]
In this embodiment, a passive AF method is used as the focus control means, but the focus control means is not limited to this. That is, it is also possible to use an active AF method that irradiates an object with infrared rays, ultrasonic waves, or the like.
[0030]
Reference numeral 114 denotes a CCD driver that drives the CCD 102c using a timing signal from the TG 12, and controls the charge accumulation time based on an instruction from the CPU 101.
[0031]
Reference numeral 115 denotes a first motor (first M) for controlling the exposure of the aperture 102b, and reference numeral 116 denotes a first motor drive circuit for driving the first M 115. The CPU 101 controls the first motor drive circuit 116 based on the AE calculation result from the AE / AF processing circuit 113.
[0032]
Reference numeral 117 denotes a second motor (2M) for controlling focusing of the lens unit 102a, and 118 denotes a second motor drive circuit for driving the second M117. The CPU 101 controls the second motor drive circuit 118 based on the AF calculation result from the AE / AF processing circuit 113.
[0033]
Reference numeral 119 denotes a battery that supplies necessary power to each section of the digital camera 100, and supplies a stable voltage power to each section via a stabilizing circuit or a booster circuit (not shown) as necessary.
[0034]
Reference numeral 120 denotes an EEPROM in which an application program for the CPU 101 to control each unit of the digital camera 100 is stored. In this embodiment, relative focus position information indicating a focus shift amount with respect to the focus area in a predetermined non-focus area other than the focus area is stored in the EEPROM 120 in advance.
[0035]
Reference numeral 121 denotes an operation switch provided with various switches, and is a general term for a release switch 121a, a mode switch 121b, and other various switches. The operation result of the operation SW 121 is transmitted to the CPU 101. The release SW 121a is configured to be able to be pressed in two stages. The first stage is a release S1 for AE / AF processing, and the second stage is a release S2 for actual photographing. .
[0036]
Reference numeral 122 denotes an auxiliary light emitting unit that irradiates the subject with auxiliary light (auxiliary light or strobe light) when the luminance is insufficient at the time of shooting, and the light emission timing and light emission amount are controlled by the switching circuit 123.
[0037]
Note that the relative focus position information is stored in advance in the EEPROM 120 of the digital camera 100 according to the present embodiment, as described above.
[0038]
Here, as the relative focus position information, at the time of inspection before shipment of the digital camera 100, inspection such as blurring around the lens unit 102a is performed, and the focus area (usually, the central portion of the shooting range) is focused. Then, relative focus position information indicating a focus shift amount (relative focus position) with respect to the focus area in a predetermined non-focus area other than the focus area is obtained.
[0039]
Here, in the example shown in FIG. 4A, the predetermined non-focus area means four places (circled in the figure) of diagonally upper left, diagonally upper right, diagonally lower left, and diagonally lower right. In addition, it is possible to divide into a total of five areas around the non-focus area and the focus area portion. In the example shown in FIG. 4B, the predetermined non-focus areas mean four places (upper, right, left, and lower) (circles in the figure). In addition, it is possible to divide into a total of five areas around the non-focus area and the focus area portion. Further, in the example shown in FIG. 4 (c), the predetermined non-focus areas include eight locations (circled in the figure) of upper, right, left, lower, diagonally upper left, diagonally upper right, diagonally lower left, and diagonally lower right. means. In addition, it is possible to divide the non-focus area and the focus area portion into nine areas in total. Note that these are just examples, and the present invention is not limited to the examples shown here.
[0040]
It should be noted that the relative focus position information on the above non-focus area is obtained at different distances to the subject, for example, 1 m, 3 m, 10 m,. In the case where a zoom lens is used, the distance to the subject is changed in the same manner for each of the focal lengths such as the wide-angle side, the standard side, and the telephoto side, and the relative focus position information on the above non-focus area is obtained. Get it.
[0041]
When the relative focus position information is obtained in this way, the focus shift with respect to the focus area exceeding the inspection pass criterion and one-sided blurring is generated and stored in the EEPROM 120 as the relative focus position information. deep. In this case, the position in the imaging range, the distance to the subject, the focal length, and the focus shift amount are stored as a series of data. It is not necessary to accumulate in the EEPROM 120 if the defocus is below the inspection pass criterion.
[0042]
Hereinafter, an operation of the digital camera 100 according to the present embodiment will be described with reference to a flowchart of FIG.
[0043]
In the digital camera 100 according to this embodiment, the AE / AF processing circuit 113 obtains focusing information for a predetermined focus area (the center of the imaging range, etc.), and controls the CPU 101 based on the focusing information. By driving at least a part of the lens unit 102a, focus adjustment is performed, thereby capturing a subject image formed on the CCD 102c.
[0044]
Here, at the time of photographing, the CPU 101 monitors the pressed state of the release SW 121a (Step 1 in FIG. 2), and confirms that the first stage (release S1) of the release SW 121a is pressed (Y in Step 1 in FIG. 2). ), And causes the AE / AF processing circuit 113 to perform distance measurement and photometry (step 2 in FIG. 2).
[0045]
The CPU 101 monitors the pressed state of the release SW 121a (step 3 in FIG. 2), and the distance measurement and the photometry continue until the second stage of the release SW 121a is pressed.
[0046]
When it is confirmed that the second step (release S2) of the release SW 121a is pressed (Y in Step 3 in FIG. 2), the CPU 101 drives the lens unit 102a based on the AF calculation result (Step 4 in FIG. 2). Then, a read signal read from the CCD 102c by performing imaging is converted into an image signal and stored in the memory 106 (Step 5 in FIG. 2). Note that the AF driving and the imaging at this time are for the central portion of the imaging range in FIG. 4 and the peripheral portion where there is no relative focus position information.
[0047]
Here, the CPU 101 refers to the relative in-focus position information on the EEPROM 120, and if there is no relative in-focus position information (N in step 6 in FIG. 2), the image signal stored in the memory 106 is compressed and expanded by the compression / expansion circuit. After being converted into a compressed image signal by 110, it is recorded in a recording memory (step 10 in FIG. 2).
[0048]
Here, if the relative in-focus position information exists on the EEPROM 120 (Y in step 6 in FIG. 2), it means that the peripheral blur has been found at the time of the inspection, and the focus shift is eliminated in the peripheral blur portion. Then, the lens unit 102a is driven in consideration of the relative focus position information with respect to the AF calculation result at the center of the screen (Step 7 in FIG. 2).
[0049]
If the actual distance to the subject does not completely match the stored relative focus position information, the distance may be obtained by interpolation using a plurality of pieces of relative focus position information.
[0050]
Similarly, if the zoom position does not accumulate relative focus position information at all focal lengths, the zoom position may be obtained by interpolation using a plurality of relative focus position information.
[0051]
When the driving of the lens unit 102a based on the relative focus position information is completed, the read signal read from the CCD 102c is converted into an image signal and stored in the memory 106 (Step 8 in FIG. 2). Note that the focus drive and the imaging at this time are for a peripheral portion where relative focus position information exists (peripheral blur occurs) in FIG.
[0052]
If there is not one but a plurality of peripheral portions where relative focus position information is present (peripheral blur is present), the CPU 101 controls the focus driving and imaging in steps 6 to 8. Are repeatedly executed, and the obtained image signals are stored in the memory 106.
[0053]
In addition, it is preferable that the above-described focus driving and imaging be performed almost continuously in as short a time as possible so as not to cause a sense of incongruity when combining images.
[0054]
Then, the CPU 101 performs image synthesis on the memory 106 for the plurality of image signals obtained as described above. That is, the image data of the non-focus area obtained in a state of focusing on the non-focus area where the relative focus position information exists is synthesized with the image data of the state of focusing on the focus area. .
[0055]
FIG. 5 shows a case where the non-focus area where the relative focus position information exists is only the upper right part when the areas are divided as shown in FIG. 4A. In this case, image data (see FIG. 5A) in a state excluding a non-focus area where the relative focus position information exists is generated from image data obtained in a state where the focus area is focused, On the other hand, the image data (see FIG. 5B) of the non-focus area obtained in a state where the focus is on the non-focus area in which the relative focus position information exists is synthesized to form the entire image data. (See FIG. 5C).
[0056]
It is also desirable to perform image processing such as smoothing and averaging in a certain range near the boundary so as to prevent inconsistency in images of the subject and the like at the boundary where image synthesis is performed.
[0057]
Then, the image data generated by performing the image synthesis as described above is converted into a compressed image signal by the compression / expansion circuit 110, and then recorded in the recording memory 109 (Step 10 in FIG. 2).
[0058]
By performing the imaging and the image synthesis as described above, it is possible to generate image data in a state where not only the focus is performed in the predetermined focus area but also the non-focus area in the peripheral position of the imaging range. Therefore, it is possible to eliminate the need for a step of re-adjusting the optical system without introducing a high-precision component or a high-precision manufacturing process to take measures against peripheral blurring or the like.
[0059]
Further, since the readjustment step is not required, a high-performance digital camera can be manufactured at low cost. Further, it is possible to obtain an image having a high resolution without a sense of incongruity due to peripheral blur or the like in the peripheral portion.
[0060]
<Other Embodiments (1)>
In the above description, the predetermined focus area is set as the central portion of the imaging range. However, the present embodiment is also applied to a case where the focus area can be selected by the user and a case where the focus area can be arbitrarily moved. It is possible to apply.
[0061]
<Other Embodiments (2)>
Further, regarding the order of imaging, it is not necessary that the predetermined focus area (the center part of the imaging range in the above specific example) is first, and before the start of imaging, the focus lens can be driven continuously in one direction. The imaging order may be changed with reference to the focus position and the out-of-focus direction of the non-focus area.
[0062]
<Other Embodiments (3)>
As the focus control, in the above-described embodiment, a passive AF method that obtains focusing information by driving an imaging lens is used, but the focus control is not limited to this. That is, it is also possible to use an active AF method that irradiates an object with infrared rays, ultrasonic waves, or the like.
[0063]
【The invention's effect】
As described above, in the present invention, focusing information is obtained for a predetermined focus area (such as the center of an imaging range), and at least a part of the imaging optical system is driven based on the focusing information. When performing focus adjustment and capturing a subject image formed by the imaging optical system, relative focus position information indicating a focus shift amount with respect to the focus area in a predetermined non-focus area other than the focus area is previously determined. The image is stored in a state where it is focused on the focus area, and based on the relative focus position information, the image is focused on a non-focus area where the relative focus position information exists. With respect to image data obtained in a state in which focus is performed in a focus area, imaging is performed in a state in which focus is obtained in a non-focus area in which the relative focus position information exists. Synthesizing the image data of the non-focus area. By doing so, it is possible not only to focus on a predetermined focus area, but also to generate image data in a focused state in a non-focus area at a peripheral position of the imaging range. Therefore, it is possible to eliminate the need for a re-adjustment step without introducing a high-precision part or a high-precision manufacturing process.
[Brief description of the drawings]
FIG. 1 is a configuration diagram illustrating an electrical configuration of a digital camera to which an embodiment of an imaging method and an imaging apparatus according to an embodiment of the present invention is applied.
FIG. 2 is a flowchart illustrating an operation state of imaging according to the embodiment of the present invention.
FIG. 3 is an explanatory diagram illustrating an external configuration of a digital camera according to an embodiment of the present invention.
FIG. 4 is an explanatory diagram showing a focus area and a non-focus area in imaging according to the embodiment of the present invention.
FIG. 5 is an explanatory diagram illustrating a state of image synthesis in imaging according to the embodiment of the present invention, using a specific example.
[Explanation of symbols]
100 Digital camera 101 CPU
102 imaging unit 104 imaging circuit 105 A / D conversion circuit 106 memory 107 D / A conversion circuit 108 image display unit 109 recording memory 110 compression / expansion circuit 113 AE / AF processing circuit 120 EEPROM
121 Operation SW

Claims (4)

所定のフォーカスエリアについて合焦情報を得て、該合焦情報に基づいて撮像光学系の少なくとも一部を駆動することで焦点調節を行い、撮像光学系により結像された被写体像を撮像する撮像方法であって、
前記フォーカスエリア以外の所定の非フォーカスエリアにおける、前記フォーカスエリアに対する合焦ずれ量を示す相対的合焦位置情報を予め記憶しておき、フォーカスエリアに合焦させた状態での撮像と、前記相対的合焦位置情報に基づいて、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態での撮像とを行い、
フォーカスエリアに合焦させた状態で得た画像データに対して、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態で得た該非フォーカスエリアの画像データを合成する、
ことを特徴とする撮像方法。
Imaging that obtains focusing information for a predetermined focus area, adjusts focus by driving at least a part of an imaging optical system based on the focusing information, and captures a subject image formed by the imaging optical system. The method,
In a predetermined non-focus area other than the focus area, relative focus position information indicating a focus shift amount with respect to the focus area is stored in advance, and imaging in a state where the focus area is focused is performed. Based on the target in-focus position information, perform imaging in a state where the non-focus area where the relative in-focus position information is present is focused,
For the image data obtained in a state where the focus area is focused, the image data of the non-focus area obtained in a state where the relative focus position information is present in the non-focus area is synthesized,
An imaging method characterized in that:
被写体像を結像させるための撮像光学系と、
所定のフォーカスエリアについて、前記被写体像を合焦させるための合焦情報を得る焦点制御手段と、
前記合焦情報に基づいて前記撮像光学系の少なくとも一部を駆動することで焦点調節を行う撮像光学系駆動手段と、
前記撮像光学系により結像された被写体像を撮像する撮像手段と、
前記フォーカスエリア以外の所定の非フォーカスエリアにおける、前記フォーカスエリアに対する合焦ずれ量を示す相対的合焦位置情報を記憶する合焦位置情報記憶手段と、
フォーカスエリアに合焦させた状態での撮像と、前記合焦位置情報記憶手段に記憶された相対的合焦位置情報に基づいて、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態での撮像とを行うように制御する制御手段と、
フォーカスエリアに合焦させた状態で得た画像データに対して、前記相対的合焦位置情報が存在する非フォーカスエリアに合焦させた状態で得た該非フォーカスエリアの画像データを合成する画像合成手段と、
を有することを特徴とする撮像装置。
An imaging optical system for forming a subject image,
Focus control means for obtaining focus information for focusing the subject image on a predetermined focus area;
Imaging optical system driving means for performing focus adjustment by driving at least a part of the imaging optical system based on the focusing information;
Imaging means for imaging a subject image formed by the imaging optical system;
A focus position information storage unit that stores relative focus position information indicating a focus shift amount with respect to the focus area in a predetermined non-focus area other than the focus area;
Focusing on a non-focus area where the relative focus position information exists based on the imaging in a state where the focus area is focused and the relative focus position information stored in the focus position information storage means Control means for controlling to perform imaging in a state in which the
Image synthesis for synthesizing image data obtained in a state where the focus area has been focused on image data obtained in a state where the relative focus position information exists, with image data obtained in a state where the focus area is focused on the non-focus area Means,
An imaging device comprising:
前記非フォーカスエリアは、撮像範囲に含まれる周辺部に定められている、
ことを特徴とする請求項2記載の撮像装置。
The non-focus area is defined in a peripheral portion included in the imaging range,
The imaging device according to claim 2, wherein:
前記非フォーカスエリアは、撮像範囲に含まれる周辺部の複数の位置に定められている、
ことを特徴とする請求項2記載の撮像装置。
The non-focus area is defined at a plurality of positions of a peripheral portion included in the imaging range,
The imaging device according to claim 2, wherein:
JP2003026161A 2003-02-03 2003-02-03 Imaging method and imaging apparatus Withdrawn JP2004241823A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003026161A JP2004241823A (en) 2003-02-03 2003-02-03 Imaging method and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003026161A JP2004241823A (en) 2003-02-03 2003-02-03 Imaging method and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2004241823A true JP2004241823A (en) 2004-08-26

Family

ID=32954246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003026161A Withdrawn JP2004241823A (en) 2003-02-03 2003-02-03 Imaging method and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2004241823A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012256118A (en) * 2011-06-07 2012-12-27 Canon Inc Image restoration device and method thereof
JP2015148656A (en) * 2014-02-05 2015-08-20 パナソニックIpマネジメント株式会社 Imaging apparatus
CN106534659A (en) * 2015-09-11 2017-03-22 深圳市道通智能航空技术有限公司 Camera focusing method and system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012256118A (en) * 2011-06-07 2012-12-27 Canon Inc Image restoration device and method thereof
JP2015148656A (en) * 2014-02-05 2015-08-20 パナソニックIpマネジメント株式会社 Imaging apparatus
CN106534659A (en) * 2015-09-11 2017-03-22 深圳市道通智能航空技术有限公司 Camera focusing method and system
CN106534659B (en) * 2015-09-11 2019-07-02 深圳市道通智能航空技术有限公司 A kind of camera focusing method and system

Similar Documents

Publication Publication Date Title
EP2171685B1 (en) Image processor, image processing method, digital camera, and imaging apparatus
KR100781175B1 (en) Photographing apparatus, and photographing method
US8982246B2 (en) Imaging apparatus and camera body having optical zoom function and digital zoom function
JP5665013B2 (en) Image processing apparatus, image processing method, and program
JP2007060647A (en) Imaging apparatus and imaging method
US20110122268A1 (en) Imaging device
JP2006086978A (en) Camera system, camera body, and interchangeable lens
JP2006162990A (en) Stereoscopic image photographing apparatus
JP2006162991A (en) Stereoscopic image photographing apparatus
KR100819811B1 (en) Photographing apparatus, and photographing method
JP2007102061A (en) Imaging apparatus
KR101297299B1 (en) Photographing apparatus and Method of photographing
JP2008098836A (en) Imaging apparatus and imaging method
JP7002050B2 (en) Imaging device
JP2011176460A (en) Imaging apparatus
JP2004241823A (en) Imaging method and imaging apparatus
JP2007274220A (en) Imaging apparatus and imaging method
JP5644488B2 (en) Imaging device
JP2004241824A (en) Imaging method and imaging apparatus
JP5641352B2 (en) Image processing apparatus, image processing method, and program
JP2006078734A (en) Photographing apparatus
JP2010204303A (en) Imaging apparatus
JP5135813B2 (en) Optical system drive device and camera
JP5648563B2 (en) Image processing apparatus, image processing method, and program
JP5231196B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051227

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070528