JP2004205810A - Correcting camera - Google Patents

Correcting camera Download PDF

Info

Publication number
JP2004205810A
JP2004205810A JP2002374748A JP2002374748A JP2004205810A JP 2004205810 A JP2004205810 A JP 2004205810A JP 2002374748 A JP2002374748 A JP 2002374748A JP 2002374748 A JP2002374748 A JP 2002374748A JP 2004205810 A JP2004205810 A JP 2004205810A
Authority
JP
Japan
Prior art keywords
image
blur correction
blur
optical
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002374748A
Other languages
Japanese (ja)
Inventor
Kazutoshi Usui
一利 臼井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2002374748A priority Critical patent/JP2004205810A/en
Priority to EP18178218.6A priority patent/EP3404479A1/en
Priority to AU2003296127A priority patent/AU2003296127A1/en
Priority to US10/540,136 priority patent/US7711253B2/en
Priority to EP03786325.5A priority patent/EP1577705B1/en
Priority to PCT/JP2003/016809 priority patent/WO2004059380A1/en
Priority to CN200380107765.5A priority patent/CN1732406B/en
Publication of JP2004205810A publication Critical patent/JP2004205810A/en
Priority to US12/073,954 priority patent/US7596307B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image blur correcting camera having a high image blur correcting effect and capable of surely obtaining a high-quality image in the case of performing image recovery. <P>SOLUTION: The image blur correcting camera is equipped with an image blur correcting mode selection switch 193 switching three positions being an image blur correction off mode, an optical system correcting operation mode and an image recovering operation mode. It is set to always perform optical system image blur correction besides when the image recovering operation mode is selected. Thus, an image to which the image recovery is performed always becomes the image to which image blur correction is performed once by the optical system image blur correction. By performing the image recovery to the image to which the optical system image blur correction has been performed, the high-quality image is always obtained. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、手振れ等による振動を検出し、像のブレを補正するブレ補正カメラに関し、特に、光学式ブレ補正の他に、画像回復に対応したブレ補正カメラに関するものである。
【0002】
【従来の技術】
従来から撮影時に生じる手ブレによる撮像画像の劣化を防ぐため、ブレ補正機能を付けたカメラが知られている。ブレを補正する方法として大別して以下に示す2つの手法がある。
1つ目のブレ補正手法は、角速度センサ、加速度センサなどの振動検出センサによりカメラの振動を検出して、その検出量に応じて撮影レンズや可変頂角プリズムなどの光学系を駆動してブレ補正を行う光学式ブレ補正手法である(例えば、特許文献1,2参照)。
2つ目のブレ補正手法は、撮像された画像と一時的にメモリ記憶された前画像との差分からブレ量を求め画像読み出し時にブレ補正する電子式的補正法である(例えば、特許文献3参照)。これら2つの手法は、いずれも撮影時にブレ補正をリアルタイムで行う方法である。
【0003】
一方、上述の手法とは別のブレ補正手法であって従来から知られた技術として、劣化画像を手ブレやぼけのない画像に回復する技術が知られている。例えば、特許文献4には、撮影時のブレによる画像劣化を点像分布関数で表し、この点像分布関数に基づいてブレのない画像に回復する手法が開示されている。また、カメラにブレ検出手段のみを設けて手ブレ情報を記録し、再生時にその情報を用いて画像回復処理を行うことによりブレを補正する技術が知られている(例えば、特許文献5〜7参照)。
【0004】
ここで、画像回復処理の具体的方法について説明する。画像回復とは、ブレの情報を利用してブレた画像を処理し、ブレの少ない画像に回復するものである。今、(x,y)を画面上の位置座標とし、ブレのない時の画像(以下、元画像)をo(x,y)、ブレによって劣化した画像(以下、ブレ画像)をz(x,y)、ブレによって広がった点像の情報(以下、点像関数)をp(x,y)とすると、この3つは、次の関係を満たす。
【0005】
【数1】

Figure 2004205810
【0006】
ここで、*は、コンボリューション(畳み込み積分)演算を表すもので、具体的には、以下の式で表される。
【0007】
【数2】
Figure 2004205810
【0008】
これをフーリエ変換して空間周波数(u,v)領域にすると、数1,2は、以下の式のようになる。
【0009】
【数3】
Figure 2004205810
【0010】
ここで、Z(u,v)、O(u,v)、P(u,v)は、それぞれz(x,y)、o(x,y)、p(x,y)のスペクトルである。また、数3において、P(u,v)は、特に空間周波数伝達関数と呼ばれている。
ここで、ブレ画像z(x,y)に加えて、何らかの方法により点像関数p(x,y)を知ることができれば、それぞれのスペクトルを算出し、数3を変形した以下の数4を利用することで、元画像のスペクトルO(u,v)を算出することができる。
【0011】
【数4】
Figure 2004205810
【0012】
数4において、1/P(u,v)は、特に逆フィルタと呼ばれている。数4により算出したスペクトルを逆フーリエ変換すれば、元画像o(x,y)を求めることができる。
【0013】
図13,図14は、従来の画像回復を説明する図である。
ここでは、簡単のために、ブレは、図13(b)に示すように一軸(X軸)方向に一様に発生したものとする。
この点像分布関数の断面をとると、図14(a)のようになる。これをフーリエ変換したものが図14(b)であり、これが図13(a)に示すブレの空間周波数伝達関数である。この伝達関数で注目すべきところは、値が0となっているところが何カ所かある点である。これを逆フィルタにすると図14(c)に示すように、無限大となってしまうところが存在する。これを数4に適用すると、ある特定の空間周波数に関しては、以下に示す数5のようになってしまい、元画像のスペクトル値は不定となる。
【0014】
【数5】
Figure 2004205810
【0015】
伝達関数が0であるということは、ブレによって伝達されない(=情報が失われる)周波数成分が存在するということであり、この式は、失われた周波数成分は、回復できないことを示している。これは、元画像を完全に回復させることができないことを意味している。
なお、実際には、逆フィルタが無限大とならないよう、以下の式で表されるウィナーフィルタを画像回復に使用する。
【0016】
【数6】
Figure 2004205810
【0017】
図14(d)は、ウィナーフィルタをグラフにしたものである。
ウィナーフィルタにすることにより、数5のようにO(u,v)が不定となるところはなくなる。
【0018】
【特許文献1】
特開昭61−240780号公報
【特許文献2】
特開昭61−223819号公報
【特許文献3】
特開昭63−187883号公報
【特許文献4】
特開昭62−127976号公報
【特許文献5】
特開平6−276512号公報
【特許文献6】
特開平6−343159号公報
【特許文献7】
特開平7−226905号公報
【0019】
【発明が解決しようとする課題】
しかし、上述した従来の光学式ブレ補正及び画像回復には、以下に示す問題があった。
(光学式ブレ補正の問題)
光学式ブレ補正では、振動を検出するセンサとして一般に角速度センサが用いられている。角速度センサから検出された角速度を角度に変換するためには動作時のセンサ静止時の出力値(基準値)が必要であり、この基準値は、温度によるドリフトの影響を受けやすいことが知られている。この問題について図15(a),(b)を参照して詳しく説明する。
【0020】
図15は、ドリフト成分を含む角速度センサ出力、基準値の出力、像面でのブレ量を示す図である。
図15(a)は、時間に対する角速度センサ出力値の変化を示したものであり、説明を簡単にするために正弦波で手ブレが生じている場合を想定している。図15(a)において、波形e0は、正弦波で手ブレが生じている時のブレセンサの出力を表している。また、波形e1、e2は、いずれもローパスフィルタで演算された基準値でり、波形e1の遮断周波数は、波形e2よりも低く設定されている。図15(a)では、出力値が環境条件の影響で時間の経過とともに振動中心がずれていき、ドリフトしている。
【0021】
図15(b)は、図15(a)の角速度センサ出力と基準値とを利用してブレ補正した時の像面ブレ量を示したものである。図15(b)中の波形f0,f1,f2は、それぞれ図15(a)中の波形e0,e1,e2に対応し、波形f0は、ブレ補正を全く行わなかったときの像面のブレ量を表している。波形f1は、波形f2に比較して、低い遮断周波数の基準値e1を使用することにより、高い周波数成分はカットされているものの時間経過とともにブレ量が大きくなってしまっている。逆に波形f2は、波形f1よりも基準値の遮断周波数が高くなっているため、f1よりもドリフトは小さくなっているが、手ぶれによる高周波成分を除くことができていない。このように、手ブレによる像ブレの除去とドリフトの影響を少なくすることは相反する問題であり、像ブレを十分に補正し、かつ、ドリフトの影響が少なくなるようにローパスフィルタの遮断周波数を設定することが難しい。そのため検出したブレ量には、必ず検出誤差が生じ、光学式ブレ補正を行っても得られる画像にブレが残るという問題があった。
【0022】
(画像回復の問題)
次に、画像回復の問題について説明する。
従来からブレ画像をウィナーフィルタを用いて回復処理することにより得られた画像は、元画像に比べ解像が向上することは知られている。しかし、P(u’,v’)≒0となる空間周波数(u’,v’)では、フィルタの値が大きくなるため、画像に含まれるノイズがその空間周波数成分を含む場合、ノイズ成分を増幅してしまう。その結果、画像に不必要な縞模様を生じ画質を低下させてしまうという問題があった。この縞模様は、元のブレが小さければそれほど大きな問題にはならないが、ブレが大きい場合に顕著に現れるので問題となるケースが多かった。
【0023】
また、従来の画像回復に対応したカメラは、単に角速度センサなどのブレセンサからの出力データを記録し、再生時にそれらブレ情報に基づいて回復処理するというものであった。そのため、画像のブレが大きくなりすぎると、画像回復しても画質が改善されないばかりか、上述のように縞模様を生じてしまい、かえって画質を劣化させてしまうという問題があった。
【0024】
本発明の課題は、ブレ補正効果が高く、画像回復を行う場合に確実に高画質な画像を得ることができるブレ補正カメラを提供することである。
【0025】
【課題を解決するための手段】
本発明は、以下のような解決手段により、前記課題を解決する。なお、理解を容易にするために、本発明の実施形態に対応する符号を付して説明するが、これに限定されるものではない。すなわち、請求項1の発明は、振動を検出して振動検出信号を出力する振動検出部(10)と、前記振動検出信号に基づいてブレ補正光学系(70)を駆動して像ブレを補正する光学式ブレ補正手段(500)と、前記光学式ブレ補正手段によって補正しきれないブレを画像処理により回復する画像回復に必要な点像分布関数を演算する点像分布関数演算部(100)と、前記光学式ブレ補正手段を用いたブレ補正を行う光学式ブレ補正モード、及び、前記画像回復によりブレ補正を行う又は前記画像回復によりブレ補正を行うための準備を行う画像回復モードを選択するブレ補正モード選択部(193)と、を備え、前記ブレ補正モード選択部は、前記画像回復モードを選択するときには、前記光学式ブレ補正モードも併せて選択すること、を特徴とするブレ補正カメラである。
【0026】
請求項2の発明は、振動を検出して振動検出信号を出力する振動検出部(10)と、前記振動検出信号に基づいてブレ補正光学系(70)を駆動して像ブレを補正する光学式ブレ補正手段(500)と、前記光学式ブレ補正手段によって補正しきれないブレを画像処理により回復する画像回復に必要な点像分布関数を演算する点像分布関数演算部(100)と、前記光学式ブレ補正手段を用いたブレ補正を行う光学式ブレ補正モード、及び、前記画像回復によりブレ補正を行う又は前記画像回復によりブレ補正を行うための準備を行う画像回復モードを選択するブレ補正モード選択部(193)と、を備え、前記ブレ補正モード選択部は、前記光学式ブレ補正モードを選択しない状態では、前記画像回復モードを選択することができないこと、を特徴とするブレ補正カメラである。
【0027】
請求項3の発明は、振動を検出して振動検出信号を出力する振動検出部(10)と、前記振動検出信号に基づいてブレ補正光学系(70)を駆動して像ブレを補正する光学式ブレ補正手段(500)と、前記光学式ブレ補正手段によって補正しきれないブレを画像処理により回復する画像回復に必要な点像分布関数を演算する点像分布関数演算部(100)と、前記光学式ブレ補正手段を用いたブレ補正を行う光学式ブレ補正モード、及び、前記画像回復によりブレ補正を行う又は前記画像回復によりブレ補正を行うための準備を行う画像回復モードを選択するブレ補正モード選択部(193)と、を備え、前記ブレ補正モード選択部は、前記光学式ブレ補正モードを選択しない状態で、前記画像回復モードを選択すると、警告を行うこと、を特徴とするブレ補正カメラである。
【0028】
請求項4の発明は、振動を検出して振動検出信号を出力する振動検出部(10)と、前記振動検出信号に基づいてブレ補正光学系(70)を駆動して像ブレを補正する光学式ブレ補正手段(500)と、前記光学式ブレ補正手段によって補正しきれないブレを画像処理により回復する画像回復に必要な点像分布関数を演算する点像分布関数演算部(100)と、を備え、前記点像分布関数演算部による前記点像分布関数の演算は、前記光学式ブレ補正手段を動作させることにより実行可能となること、を特徴とするブレ補正カメラである。
【0029】
【発明の実施の形態】
以下、図面等を参照しながら、本発明の実施の形態について、さらに詳しく説明する。
(第1実施形態)
図1は、本発明によるブレ補正カメラの第1実施形態のシステム構成を示すブロック図である。
本実施形態におけるブレ補正カメラ1は、画像再生装置2と組み合わせて使用することにより、画像回復を行うことができるカメラシステムを形成している。画像再生装置2は、ブレ補正カメラ1により撮像された画像を画像記録部120又はブレ補正カメラ1と再生装置とを転送ケーブルなどを用いて接続し再生するとともに、画像回復を行うことができる画像回復装置である。
ブレ補正カメラ1は、画像を電子的に撮像する所謂デジタルスチルカメラであり、光学式補正系500を備えている。
光学式補正系500は、角速度センサ10,A/D変換部20,駆動制御部30,追従制御部40,光学系駆動部50,位置検出部60,ブレ補正レンズ70等を備えた光学式ブレ補正手段である。
【0030】
角速度センサ10は、ブレ補正カメラ1に印加された振動を角速度値で検出する振動検出部である。角速度センサ10は、コリオリ力を利用して角速度を検出し、検出結果を電圧信号として出力する。
図1には、理解を容易にするため角速度センサ10を1つのみ示しているが、撮影レンズの光軸に直交するX軸及びX軸に直交するY軸方向それぞれに対応して1つずつ設けられており、ブレ補正カメラ1の振動を2次元において検出する。なお、角速度センサ10は、電源供給部90より電源が供給されている間のみ角速度の検出が可能となっている。
【0031】
A/D変換部20は、アナログ信号をデジタル信号に変換する変換器であり、角速度センサ10からの振動検出信号をアナログ信号からデジタル信号に変換し、駆動制御部30へ伝える。
【0032】
駆動制御部30は、角速度センサ10により検出された振動検出信号と、後述の位置検出部60により検出されたブレ補正レンズ70の位置情報とから、ブレ補正レンズ70を駆動するための駆動信号を演算し、光学系駆動部50に駆動信号を出力する部分である。駆動制御部30には、基準値演算部31が含まれている(図2参照)。基準値演算部31は、角速度センサ10から得られた振動検出信号の基準値を演算する部分であり、本実施形態では、デジタルローパスフィルタ(LPF)を使用し、LPFの出力を基準値としている。
追従制御部40は、駆動制御部30から得る駆動信号と、位置検出部60から得るブレ補正レンズ70の位置情報に基づいてブレ補正レンズ70を駆動制御する信号を光学系駆動部50へ伝える部分である。
駆動制御部30及び追従制御部40による制御動作の詳細については、後に説明する。
【0033】
光学系駆動部50は、駆動制御部30から出力された駆動信号を基に、ブレ補正レンズ70を駆動するアクチュエータである。
位置検出部60は、ブレ補正するためにブレ補正レンズ70のX軸方向及びY軸方向の位置を検出する位置検出部であり、位置検出部60の出力は、A/D変換器(不図示)を経由して追従制御部40に送信される。
【0034】
ブレ補正レンズ70は、カメラの撮影光学系の一部であり、撮影光学系の光軸と略直交する平面内を動くことができる単レンズ、又は、複数枚のレンズより構成されるレンズ群からなるブレ補正光学系である。ブレ補正レンズ70は、光学系駆動部70によって光軸と略直交する方向に駆動され、撮影光学系の光軸を偏向させる。
写真等の像のブレは、手ブレ等のカメラに加えられる振動により、露光中に結像面の像が動いてしまうことにより発生する。本実施形態におけるブレ補正カメラ1では、角速度センサ10により、ブレ補正カメラ1に加えられた振動を検出することができる。そして、ブレ補正カメラ1に加えられた振動が検出されれば、その振動による結像面の像の動きを知ることができるので、結像面上の像の動きを抑えるようにブレ補正レンズ70を駆動し、結像面上の像の動き、すなわち像ブレを補正することができる。
【0035】
ブレ補正カメラ1は、上述の光学式補正系500の他に、制御部80,電源供給部90,点像関数演算部100,撮像部110,画像記録部120,インターフェイス部130,補正動作判断部140,露出制御部150,合焦レンズ位置検出部160,焦点検出部170,閃光制御部180,操作部190等を備えている。
【0036】
制御部80は、ブレ補正カメラ1の動作全体を制御する制御部であり、駆動制御部30、追従制御部40、点像関数演算部100、露出制御部150、合焦レンズ位置検出部160、焦点検出部170、閃光制御部180などを制御する各種制御演算など行う。
【0037】
電源供給部90は、不図示の半押タイマがONの間は、角速度センサ10を始めとするカメラ内で電源が必要とされるところに電源を供給し続ける部分である。また、半押しタイマがOFFとなっているときは、電源の供給は停止する。したがって、カメラの半押しタイマがONの間のみ、角速度センサ10によるカメラの振動検出が可能となる。
【0038】
点像関数演算部100は、駆動制御部30、追従制御部40、露出制御部150、合焦レンズ位置検出部160、焦点距離検出部170などから得られた各種情報に基づき露光中の点像関数(点像分布関数)を演算する点像分布関数演算部である。
ブレ補正レンズ70による光学式ブレ補正が完全であれば点像関数は1点となるが、実際には、光学式ブレ補正は、完全でないため、点像関数は1点にはならない。つまり、ブレ補正レンズ70によって補正しきれない像ブレ(ブレ補正残差)が残る。ここで算出する点像関数は、ブレ補正レンズ70で補正しきれずに結像面に残ったブレ補正残差を、後に画像処理によりさらにブレ補正するときに使用するものである。
【0039】
撮像部110は、撮像素子111,A/D変換部112,信号処理部113等を備え、撮影光学系により結像面に結像した像を撮像し、画像記録部120へ画像データを出力する部分である。
撮像素子111は、撮影光学系により結像面に結像した被写体像を受光し、アナログ信号の画像データに変換する素子である。
A/D変換部112は、アナログ画像をデジタル画像に変換する変換器である。
信号処理部113は、A/D変換部112によりデジタル信号に変換された画像データを処理する部分である。
【0040】
画像記録部120は、撮像部110により撮像した画像、点像関数演算部100により演算された点像関数、各種画像回復処理に必要な各種情報(パラメータ)などをそれぞれ画像に対応づけて記録保存する部分である。これら点像関数、各種情報などは、例えば、画像ファイル内にヘッダとして埋め込んで記録してもよいし、電子透かし技術のように画像の中に直接埋め込む方法でもよい。また、画像ファイルに対応させた別ファイルを作成し、そこに情報を書き込むようにしてもよい。
【0041】
画像記録部120の具体的な形態は、例えば、コンパクトディスク(商標)、スマートメディア(商標)などの可動記録媒体でもよいし、画像転送を行うバッファメモリであってもよい。実施形態では、インターフェイス部130と画像再生装置2とを転送ケーブル300を用いて接続し、画像記録部120に保存された画像、及び、画像回復処理に必要な情報を必要に応じて画像再生装置2へ転送する。
【0042】
インターフェイス部130は、ブレ補正カメラ1と画像再生装置2とを接続するときなどに、転送ケーブル300を接続する端子を備えた通信手段である。
接続ケーブル300は、インターフェイス部130の接続コネクタと画像再生装置2の通信ポート(例えば、RS−232C、USB、パラレルポート、IEEE1394等)を接続するケーブルである。この接続ケーブル300を介してブレ補正カメラ1と画像再生装置2との間でデータの送受信が行われる。
【0043】
補正動作判断部140は、点像関数演算を行うか否か判断処理する部分である。補正動作判断部140により点像関数演算の必要性を判断するので、画像記録部120に保存する情報をできるだけ必要なデータだけとすることができ、無駄な演算動作やメモリ容量の軽減を図ることができる。
【0044】
露出制御部150は、不図示のコマンドダイヤルなどで設定された露光時間の設定値から撮像素子への露光時間を制御する部分である。露光時間情報や露光の開始/終了のタイミング情報は、点像関数演算部100に送信される。
【0045】
合焦レンズ位置検出部160は、不図示の合焦レンズの位置を検出する部分である。合焦レンズの位置を検出することにより、点像関数の演算に必要な結像面から被写体までの距離を算出することができる。
【0046】
焦点検出部170は、撮影光学系の撮影時のレンズ焦点距離fを検出する部分である。このレンズ焦点距離fも、点像関数の演算に必要な情報である。
閃光制御部180は、閃光発光部181の発光を制御する部分である。
【0047】
操作部190は、半押しスイッチ(SW)191、全押しスイッチ(SW)192、ブレ補正モード選択スイッチ(SW)193などを有している。
半押しスイッチ191は、不図示のレリーズボタンの半押し動作に連動してONとなるスイッチである。この半押しスイッチ191がONとなることにより、不図示の測光部による測光演算、オートフォーカス駆動などが開始される。また、半押しタイマがOFFであった場合には、この半押しスイッチ191のONに同期して半押しタイマがONとなる。
【0048】
全押しスイッチ192は、不図示のレリーズボタンの全押し動作に連動してONとなるスイッチである。この全押しスイッチ192がONとなることにより、図示しないシャッタ機構によるシャッタの開閉、イメージセンサによる画像の取り込みなど一連の撮影動作が行われる。
【0049】
ブレ補正モード選択スイッチ193は、光学式補正動作モードと画像回復モードの組み合わせ選択を行うブレ補正モード選択部である。本実施形態では、ブレ補正動作モードを3モード選択可能なスイッチとし、その動作は次のようになる。
「ブレ補正OFFモード」が選択された場合、光学式補正も画像回復も行わない。すなわち、ブレ補正レンズ70の駆動を停止し、ブレ補正動作は一切行わず、画像回復用のデータの記録保存も行わない。
「光学式補正動作モード」が選択された場合、光学式補正動作のみ行い、ブレ補正レンズ70を駆動させて像ブレ補正動作を行うが、画像回復処理のための点像関数の演算、画像回復用のデータの記録保存等は行わない。
「画像回復動作モード」が選択された場合、光学式補正動作と画像回復のために必要な動作が行われる。光学式補正系500から画像回復処理するために必要な画像回復用のデータは、光学式補正系500から補正動作判断部140を介して点像関数演算部100に送出される。
【0050】
本実施形態では、ブレ補正モード選択スイッチ193は、上述のように「ブレ補正OFFモード」,「光学式補正動作モード」,「画像回復動作モード」の3ポジションを切り替える形態であり、「画像回復動作モード」を選択するときには、常に光学式ブレ補正も行う。言い換えると、「画像回復動作モード」を選択するときには、「光学式補正動作モード」も併せて選択するようになる。すなわち、「光学式補正動作モード」を選択しない状態では、「画像回復動作モード」を選択することができないようになっている。したがって、点像関数演算部100による点像関数の演算は、光学式補正系500を動作させることにより実行可能となっている。
【0051】
次に、画像再生装置2について説明する。
画像再生装置2は、画像回復処理を実行する画像回復演算部210と画像を表示する画像表示部220とを備えている。
本実施形態における画像再生装置2は、パソコンを利用しており、このパソコンに画像回復に必要な専用のブレ補正プログラムを含むアプリケーションソフトウェアをインストールすることにより、画像再生装置として機能させている。
なお、画像再生装置2は、パソコンを利用する場合に限らず、例えば、専用の再生装置としてもよいし、カメラの中に組み込んでもよい。
【0052】
画像回復演算部210は、ブレ補正カメラ1の画像記録部120から送られてきた画像データと、画像データに対応する点像関数情報及び画像回復処理するための各種パラメータに基づいて、画像に含まれるブレを補正する画像回復処理を実行する部分である。
画像回復演算部210における画像回復処理には、数6で述べたウィナーフィルタを使用するが、これに限らず他の手法を用いてもよい。
画像表示部220は、撮影者が撮影した画像、又は、画像回復した後の画像を表示する部分であり、本実施形態では、パソコンのモニタ部がこの部分に相当する。
【0053】
次に、駆動制御部30及び追従制御部40に関連する部分について、光学式ブレ補正動作の制御を含めて説明する。
図2は、光学式補正系500の駆動制御部30及び追従制御部40の制御動作を説明する制御ブロック図である。
まず、カメラに加えられた振動を角速度センサ10により検出する。角速度センサ10は、通常、コリオリ力を検出する圧電振動式角速度センサを用いる。角速度センサ10の出力は、基準値演算部(低周波成分抽出)31へ入力される。基準値演算部31は、角速度センサ10の出力よりブレの基準値を演算する部分である。通常の手振れの基準値は、角速度センサ10が完全に静止している状態での出力(以下、ゼロ出力)値とすればよい。しかし、このゼロ出力値は、ドリフトや温度などの環境条件で変動してしまうため、基準値を固定値とすることができない。したがって、実際に使用されている状態、つまり撮影者の手振れの信号から基準値を演算し、ゼロ出力を求めなければならない。基準値演算には、デジタルローパスフィルタ(LPF)を用いる。
【0054】
デジタルローパスフィルタのカットオフ周波数fcは、出来るだけ低く設定する事が望ましいが、従来技術の説明においても述べた通り、カットオフ周波数fcをあまり低く設定するとセンサドリフトの影響を受けやすくなる。また、逆に高く設定するとfc以下の周波数成分は、光学補正されないため像ブレとして残ってしまう。後で詳しく述べるが、この光学補正されない基準値出力を基に点像関数を求め、画像回復処理を行うことにより光学補正で取りきれなかった像ブレを後処理により回復することが可能となる。
【0055】
本実施形態では、LPFのカットオフ周波数fcを、画像回復を行わない場合(光学式補正動作モード)と、画像回復を行う場合(画像回復動作モード)と、で変更することとしている。具体的には、画像回復を行わない「光学式補正動作モード」の場合、fc=0.1Hzとし、画像回復を行う「画像回復動作モード」の場合、fc=1Hzとしている。このカットオフ周波数fcの詳細な説明は、後述する図4,5におけるS400,S600の説明において行う。
【0056】
次に、基準値演算した後、角速度センサ10からのブレ検出信号から基準値を減算したブレ検出信号を、積分部32へ送信する。
積分部32では、角速度の単位で表されているブレ検出信号を時間積分し、カメラのブレ角度に変換する。例えば、以下の数7により演算する。
【0057】
【数7】
Figure 2004205810
【0058】
数7中の各記号は、θ(t):目標駆動位置,ω(t):ブレ検出信号,ω0 (t):基準値,t:時間(整数値)であり、Cは、レンズの焦点距離等の条件によって決まる定数である。
積分部32により演算された目標駆動位置信号は、追従制御部40へ送信される。
【0059】
目標駆動位置演算部33では、積分部32から送られてきたブレ角度情報に焦点検出部170からのレンズ焦点距離fや合焦レンズ位置検出部160からの被写体距離Dなどの情報を加味して、ブレ補正レンズ70を駆動するための目標駆動位置情報を演算する。
追従制御部40では、公知のPID制御等用いて、この目標駆動位置情報に応じてブレ補正レンズ70を動かすために目標駆動位置情報とブレ補正レンズ70の位置検出60からの位置情報との差をとり、光学系駆動部50を駆動するための駆動信号を送出する。送出された駆動信号に基づいて光学系駆動部50のコイルに電流を流すことによりブレ補正レンズ70を光軸に直交する方向に駆動することが可能となる。
【0060】
位置検出部60では、ブレ補正レンズ70の位置をモニタしており、検出されたレンズ位置信号を用いてブレ補正レンズ70が駆動制御部30によりフィードバック制御される。
また、目標駆動位置演算部33から出力される目標駆動位置情報は、ブレ補正レンズ70を追従制御する追従制御部40と補正動作判断部140を介して点像関数演算部100へと送出される。
【0061】
次に、本実施形態におけるブレ補正カメラ1の基本動作について説明する。
図3は、ブレ補正動作を行う場合のカメラの基本動作を示すフローチャートである。
ステップ(以下、Sとする)210において、半押しスイッチ191がONされると、S220へ進む。
S220では、ブレ補正モード選択スイッチ193の状態を判別する。「光学式補正動作モード」の場合S230の光学式補正動作フローに進み、「画像回復動作モード」の場合S240の光学式ブレ補正動作と画像回復処理動作とを行う画像回復処理フローへと進む。
以下、「光学式補正動作モード」及び「画像回復動作モード」それぞれの場合のブレ補正カメラ1の動作を分けて説明する。
【0062】
まず、「光学式補正動作モード」時のブレ補正カメラの動作について説明する。
図4は、光学式ブレ補正動作モード時のカメラの基本動作を示すフローチャートである。
S400では、基準値演算部31に用いられているLPF部のカットオフ周波数fcをfc=0.1Hzに設定する。
S410では、振動検出部である角速度センサ10がONとなる。
S420では、ロックされていたブレ補正レンズ70のロックを解除する。
S430では、ブレ補正動作が開始される。ここで開始されるブレ補正とは、角速度センサ10の出力に基づき、その像ブレを打ち消すようにブレ補正レンズ70を光軸方向に略直交する方向に移動させて、ブレを補正する光学式ブレ補正動作である。
S440では、半押しタイマの状態を検出し、半押しタイマがOFFならばS450へ進み、半押しタイマがONならばS470へ進む。
S450では、ブレ補正動作を停止し、S460で補正レンズをロックし光学補正モード終了する。
【0063】
S470では、全押しスイッチ192の状態を検出し、全押しスイッチ192がONならばS480へ進み、全押しスイッチ192がOFFならばS440へ戻る。
S480では、ブレ補正レンズ70のセンタリング動作が実行される。光学系駆動部50により駆動されていない状態では、撮影光学系の光軸とブレ補正レンズ70の光軸とが必ずしも一致していない。通常は、ブレ補正レンズ70は、その可動範囲の端部に移動した状態にあることが多く、そのままブレ補正動作を行うと、駆動できない方向が生じてしまうので、このセンタリング動作によりブレ補正レンズ70の光軸と撮影光学系の光軸とが略一致するように、ブレ補正レンズ70を駆動する。
【0064】
S490では、シャッタ開動作が行われ、撮像部110への露光が開始される。
S500では、閃光(SB)発光するか否かの判断が行われ、閃光の発光を行う場合S510へ進み、閃光の発光を行わない場合S520へ進む。
S510では、閃光の発光が行われる。
S520では、シャッタが閉じられ、露出が終了する。その後、S440の半押しタイマ判断ルーチンへ戻る。
【0065】
次に、「画像回復動作モード」時のブレ補正カメラの動作について説明する。図5は、画像回復動作モード時のカメラの基本動作を示すフローチャートである。
S600では、基準値演算部31に用いられているLPF部のカットオフ周波数fcをfc=1Hzに設定する。
上述した「光学式補正動作モード」時には、fc=0.1Hzとしたのに対して、この「画像回復動作モード」時には、カットオフ周波数fcを上げている。このようにすることにより、「画像回復動作モード」時には、「光学式補正動作モード」時に比べて、ブレ補正カメラ1の振動の内、点像関数演算部100により演算される点像関数に現れる成分を多くし、ブレ補正レンズ70を駆動してブレ補正する成分を少なくすることができる。そうすることにより、ブレ補正レンズ70を駆動する駆動量を減少させることができ、ブレ補正レンズ70が駆動可能な範囲内で余裕を持って駆動することができる。この場合、光学式ブレ補正動作により補正されるブレ量が減少し、撮像される画像のブレ量が増加するが、この増加したブレについては、後に画像回復により補正されるので、最終的には、ブレ補正効果が高く、像ブレがない、又は、像ブレが非常に少ない画像を得ることができる。
このように、「画像回復動作モード」時には、基準値演算に使用するカットオフ周波数を「光学式補正動作モード」時に比べて高くし、ブレ補正する成分を光学式ブレ補正と画像回復とに配分することにより、「光学式補正動作モード」時に比べて、より大きな手振れであっても、適切なブレ補正を行うことができる。
【0066】
図5におけるS610からS670までのフローは、図4におけるS410からS470までのフローにおける動作と同様なので、ここでの詳細な説明は省略する。
S680では、回復処理判断を行う。このS680の回復処理判断の詳細な説明は、後に図6を用いて行う。このステップにおける回復処理判断により画像回復処理が必要無いと判断された場合は、S690へ進み、画像回復処理が必要であると判断された場合は、S720へ進む。
【0067】
S690では、図4におけるS480と同様に、ブレ補正レンズ70のセンタリング動作が実行される。
S700では、シャッタ開動作が行われ、撮像部110への露光が開始される。
S710では、シャッタが閉じられ、露出が終了する。その後、S640の半押しタイマ判断ルーチンへ戻る。
S720では、図4におけるS480と同様に、ブレ補正レンズ70のセンタリング動作が実行される。
S730では、シャッタ開動作が行われ、撮像部110への露光が開始される。
S740では、露光期間中に点像関数演算用のデータ取得を行う。このS740における点像関数演算用データ取得の詳細については、後に図7を用いて説明する。
【0068】
S750では、点像関数演算用データの取得後、取得したデータを用いて点像関数の演算を行う。点像関数の演算は、取得した基準値から基準値演算平均値を減算し、これを積分、誤差角度θ(t)を求め、さらに焦点距離情報fから像面での点像分布関数X(t)を以下の数8により求める。
【0069】
【数8】
Figure 2004205810
【0070】
なお、テレコンバータ装着時は、テレコンバータの倍率に応じて焦点距離を変更する必要がある。また、被写体距離情報を用いて補正を行うとさらに点像分布関数の精度は高くなる。この場合、以下の数9を用いるとよい。
【0071】
【数9】
Figure 2004205810
【0072】
これらの演算をそれぞれX方向、Y方向について行い、それらをX−Y平面に展開すると点像分布関数が得られる。
なお、上述の例は、点像関数演算の一例であって、点像関数の演算には、他の方法を利用してもよい。
点像関数演算の後、S760では、画像回復処理対象画像に、ブレマークを付与する。
S770では、演算した点像関数をブレ情報として記録し、S640へ戻る。
【0073】
次に、ブレ光学式補正系から出力されたブレ情報の処理と点像関数演算用データの取得について説明する。
図6は、ブレ検出データに基づいて点像関数演算を行うか否か(画像回復動作モードを行うことの適否)を判断する画像回復適否判断部(図5におけるS680)の詳細な動作を示すフローチャートである。
この画像回復適否判断部の判断に基づき画像回復に必要なブレ検出データを記録するか否かが判断される。
【0074】
S310では、ブレ検出量の大きさに基づき、画像回復処理の有効性を判断する。このステップでは、目標駆動位置演算結果から画像回復処理することによりブレを効果的に補正することができるか否かをブレ情報やカメラ撮影情報に基づいて画像回復可能条件範囲を予め設定しておき、その条件に基づき判断を行う。例えば、ブレ量が大きすぎる(最大限界ブレ量)と画像回復処理しても画像に縞模様が目立ち、この縞模様による画質劣化を避けることができない。また、ブレ量が小さすぎる(最小限界ブレ量)と画像回復してもその改善効果が現れない。そこで、これら限界ブレ量は、予め実験や経験により得ることにより設定しておく。
【0075】
S320では、シャッタ速度(露光時間)により画像回復処理の必要性を判断する。このステップでは、シャッタ速度によりある程度ブレ量の大きさが予測され、その予測されるブレ量により画像回復処理の必要か否かを判断する。シャッタ速度が速い場合は、たとえブレが生じても非常に小さいブレ量であり、鑑賞に堪えられる画像であると判断される。この場合のブレ量は、焦点距離とシャッタ速度の双方から求められる。光学式ブレ補正を行わない場合には、手ブレが発生するのは、(1/焦点距離)のシャッタ速度より遅い場合であると一般的にいわれている。しかし、本実施形態では、光学式ブレ補正も行っているので、例えば、以下の式を満たす場合にのみ、画像回復処理を行うようにする。
【0076】
(A/焦点距離)<シャッタ秒時(露光時間)
ここで、上記Aは、所定値としてもよいし、他の条件により変化する変数としてもよい。
【0077】
S310,S320におけるシャッタ速度判断及びブレ検出量判断共に回復処理必要と判断された場合には、回復処理有りのS330の露光シーケンスとなり、図5におけるS720へ進む。
一方、S310,S320におけるシャッタ速度判断又はブレ検出量判断のいずれかにおいて回復処理不要と判断された場合には、S340へ進み、画像回復動作を行わない旨の警告・表示(告知)を行う。告知は、例えば、警告音であってもよいし、所定の表示を行うようにしてもよい。
S340を実行した後、S350の回復処理無しの露光シーケンスとなり、図5におけるS690へ進む。
この図6に示したように、画像回復の適否を判断することにより、画像回復処理のためのブレ情報量を軽減でき、メモリ容量の軽減を行うことができる。
【0078】
図7は、点像関数演算用データ取得の動作(図5におけるS740)を詳細に示したフローチャートである。
本実施形態では、メモリ容量の節約等を主な目的として、図7に示す間引き処理(情報量減少部としての処理)を行っている。
露光開始後、S910では、カウンタをリセットする。具体的には、N=1,K=0とする。ここで、Nは、複数の基準値を区別するために付与する番号となるカウンタであり、Kは、時間を計るタイマとなるカウンタである。
S920では、最初の基準値出力であるω0(1) を保存する。
S930では、基準値出力の平均値ω0 aveを以下の式により演算する。
【0079】
【数10】
Figure 2004205810
【0080】
S940では、カウンタの確認を行う。K=100であれば、S950へ進み、それ以外の場合には、S970へ進む。
S950では、基準値出力ω0(N) を保存する。
S960では、K=0としてタイマカウンタをリセットする。本実施形態では、角速度センサ10のサンプリング周波数が1KHzであって、0.1sec毎に基準値出力を保存するので、基準値出力を間引くことになる。
【0081】
S970では、露光が終了しているか否かを確認し、露光終了前ならばS990へ進み、露光終了の場合には、S980へ進む。
S980では、最後の基準値出力ω0(N)を保存しておく。これは、基準値出力の間引き保存によりシャッタ秒時が速い場合、基準値出力の最初のポイントしか保存されないことを避けるためである。例えば、本実施形態では、サンプリング周波数1KHzのときに0.1sec毎に基準値出力を保存するので、1/10secよりも速いシャッタスピードでは、最初の基準値出力しか保存されておらず、点像関数が構成できなくなってしまうからである。
S990及びS1000では、カウンタを進め、S930に戻り、基準値出力の平均値演算を行う。
【0082】
ここで、上述の間引き処理について説明する。
画像回復処理に用いる点像関数は、基準値出力を基に演算される。基準値出力は、前述の様に1Hz(画像回復を行う図5のフローの場合)のカットオフ周波数を有するLPF出力であるため、手ブレの周波数成分より低い。したがって、点像関数演算に用いるデータ数も少なくする事が可能である。点像関数演算を行う場合に、光学式補正系500から送出されるブレ検出データの全てのデータについて点像関数を演算しようとすると、多大な演算量とメモリ容量が必要となってしまう。
【0083】
目標位置演算結果から得られるブレ検出データの個数は、例えば、基準値演算のサンプリング周波数が1kHzの時、1秒分の基準値のデータ個数は、N=1000個であり、非常に多くのデータ量である。手振れの周波数は、0.1〜10Hz程度であり、手振れ振動の基準値を算出する基準値演算部31に設けられたローパスフィルタのカットオフ周波数は、1Hz程度である。つまり、点像関数演算部には、1Hz以下の周波数が主成分となる。1Hzの周波数を表すにはその10倍程度、つまり0.1sec周期のデータで十分である。したがって、1KHzサンプリングのデータを1/100までデータの間引きを行う事が可能となる。
また、基準値出力演算のためのLPFのカットオフ周波数を変更する場合には、このカットオフ周波数から間引き量を変更する必要がある。
このような処理により、演算処理時間の短縮、メモリ容量等の節約を行うことができる。
【0084】
間引き処理した後に、画像再生装置により画像回復処理するために記録媒体にブレ情報を記録したり、画像再生装置にデータを転送したりすることが行われる。本実施形態では、間引き処理により画像回復処理に必要な最低のデータ個数を記録や転送することにより、転送時間、演算処理時間の短縮、とりわけメモリ容量の節約に大きな効果を奏することができる。
【0085】
ここで、図5のS750において行われる点像関数演算部100の動作について説明する。
光学式補正系500によりブレ補正を実行してもブレを補正しきれず、若干のブレが画像に残ってしまう(ブレ補正残差)という問題については、従来技術の説明において述べた(図15)。このようなブレ補正残差が発生する原因は、主に基準値によるところが大きい。そこで、本実施形態における点像関数演算部100では、基準値を元にブレ補正残差の点像関数を算出する。ここで算出した点像関数は、画像回復演算部210に送信される。画像回復演算部210は、この送信された点像関数を基に画像回復演算を行い、ブレ補正レンズ70のブレ補正動作では補正しきれなかった像ブレを補うことにより、ブレ補正効果の高い高画質な画像を得ることができる。
【0086】
従来の画像回復処理に用いるデータは、角速度センサ等により検出されたブレ検出データから直接点像関数を求めて画像回復を行う例がほとんどであった。しかし、先にも述べたように、このような方法では、画像のブレが大きくなってしまった場合、画像回復をしても画質が改善されないという問題があった。しかし、本実施形態によれば、光学式ブレ補正機構によりある程度ブレを補正し、そのときのブレ情報を用いて画像回復処理することにより大幅な画質改善が可能である。
【0087】
図8及び図9は、本実施形態における画像回復を説明する図である。
本実施形態では、光学式ブレ補正機構によりブレ補正された後の画像データ及びブレ情報を用いているので、ブレ量が大きすぎることはない。この点の効果は、図14と比較することにより明らかである。ブレが大きくなるほど伝達されない周波数成分が増え、画像の回復が難しくなる。図9(b)に示す空間周波数伝達関数が0になっている点が図14(b)のそれよりも少なくなっていることがわかる。これは、伝達されない周波数成分を減らしていることになるので、画像回復を効果的に行うことができることを示している。
【0088】
次に、画像再生装置2の動作について説明する。
図10は、画像再生装置2の基本動作を示すフローチャートである。
画像再生装置2には、画像回復を行うためのブレ補正プログラムは、すでに画像再生装置2にインストールされているものとする。
先に示したように、本実施形態では、カメラ側の画像データは、転送ケーブル300を介して画像再生装置2に転送される。
図10では、既に、画像の転送が行われ、ブレ補正(画像回復処理)プログラムが立ち上がりメニュー画面表示されているものとする。
【0089】
S2010では、回復処理ボタンをマウスでクリックする等により、画像回復動作を開始する。
S2020では、予めカメラ側で回復処理する対象の画像であると判断された画像には、ブレマークが付与され記録されているので、再生時において画像読み込み動作開始とともにこのブレマークが付与されている画像のみが読み出されて表示される。
【0090】
S2030では、画像又は像ブレに関する各種パラメータを見ながら利用者が画像回復処理を実行する画像を選択し、表示する。
S2040では、選択された画像に関し、画像回復のために必要なパラメータであるブレ軌跡データ及び点像ブレをより詳細に表示する。具体的には、画像表示部(ディスプレイ)220上にブレ軌跡データや点像ブレなどのブレ補正カメラ1により記録された補正情報や撮影情報などを表示し、操作者が適宜ブレ軌跡データを画像表示部220上で直接操作することができる。
図11及び図12は、具体的な画像表示及び各種パラメータの操作例を示す図である。
【0091】
S2050では、画像回復を行うときの上記パラメータを任意に変更、設定する。
S2060では、S2050において設定したパラメータに従い回復処理を実行する。
S2070では、画像再生装置2の画像表示部220上に回復処理する前のブレ画像と回復処理した回復画像とを比較表示する。
S2080では、画像回復前のブレ画像と回復画像後の回復画像とを目視にて比較し、回復画像でよいか否か(再度画像回復を行うか否か)を判断する。回復画像でよい場合には、S2090へ進み、再度画像回復を行う場合には、S2040へ戻る。
【0092】
S2085では、回復画像及びパラメータを保存するか否かの判断を、利用者が判断して決定する。回復画像及びパラメータを保存する場合には、S2090へ進み、保存しない場合には終了する。
S2090では、回復画像及びパラメータを上書き保存するか否か利用者が判断して選択指示する。上書き保存しない場合は、S2110へ進み、上書き保存する場合はS2100に進む。また、上書き保存する場合には、上書きされて消されるデータ(既に保存されているデータ)の選択も併せて行う。
S2100では、原画像に対応して保存されている過去の回復画像及びパラメータ(S2090において上書きされる選択がされたデータ)を削除する。
S2110では、回復画像と、今回の画像回復処理に使用した新たなパラメータとを原画像に関連づけて保存する。
【0093】
図11に示す例では、画像表示部220上には、回復処理する前のブレ画像と回復処理した回復画像、点像関数に関する情報とブレ軌跡データとがそれぞれ対応づけてウインドウ表示されている。このように同一画面上に比較して表示することにより、操作者が直感的にどの個所を修正すればよいかが一目にして判断することができる。
また、図11の右下に表示されている部分には、ブレ軌跡データの操作を行うことができる表示が行われている。本実施形態では、このようにして、画像表示部220上に表示されているブレ軌跡データをマウスなどを用いて局所的に操作することができる。このように操作されたブレ軌跡データに基づいて再度回復処理を実行し、より詳細な比較判断をすることができる。
【0094】
また、本実施形態では、得られたブレ軌跡データ〔図12(a)〕をマウス指示点Pを基準に縮小拡大することにより、図12(b)に示す画像データ操作の粗調整、図12(c)に示す微調整を行うことができる。図12(c)は、微調モードにした例であり、データ数を細かく操作することができるため、得られた回復画像のパラメータに対する評価がし易くなり、画像操作自由度を高められるとともに効率的な処理を行うことができる。
【0095】
従来、点像関数演算では、角速度センサなどのセンサ出力から得られた出力を直接演算に用いていたので、非常に多くの誤差要因が点像関数に含まれ、画像表示操作しても高画質な画像を得ることは困難であった。これに対し、本実施形態では、点像関数演算は、光学式ブレ補正動作によりブレ補正されたノイズ誤差の少ない出力データを用いて画像回復処理を行うので、非常に高画質の回復画像が得られる。また、ブレ軌跡データや点像データなどを、例えば、マウスなどを用いて直接画像を操作することができ、画像回復処理に用いるパラメータの画像回復に対する効果の度合いも評価し易くなり、効率的な処理作業をすることができる。
【0096】
このように、本実施形態では、画像に関連づけてブレ情報を記録しているため、画像再生装置2(画像閲覧ソフト)により画像を閲覧するだけでブレ情報が利用者にわかるようになっている。したがって、画像回復する前に画像とブレ情報とを利用者が関連づけする必要がなくなり、作業効率が向上する。また、画像回復が必要か否かの情報もブレマークにより表示されるため、さらに作業効率がよくなる。
【0097】
本実施形態によれば、「画像回復動作モード」を選択するときには、常に光学式ブレ補正も行うので、ブレ量が大きい場合であっても、光学式補正動作によりブレ量が減少した画像を画像回復することができ、画像回復を行う場合に確実に高画質な画像を得ることができる。また、予め光学式補正動作によりブレ量が減少した画像を画像回復するので、画像回復のブレ補正効果が高く、像ブレが全く確認できないか、又は、像ブレが非常に少ない画像を得ることができ、画像回復に起因する画質の劣化もなくすことができる。
【0098】
(変形形態)
以上説明した実施形態に限定されることなく、種々の変形や変更が可能であって、それらも本発明の均等の範囲内である。
本実施形態において、ブレ補正モード選択スイッチ193は、3ポジションのスイッチである例を示したが、これに限らず、例えば、「光学式補正動作モード」と「画像回復動作モード」とをそれぞれON/OFFすることができるスイッチであってもよいし、ソフトウェア的なスイッチであってもよい。このような場合、「光学式補正動作モード」を選択しない状態で、「画像回復動作モード」を選択すると、警告音を発生したり、警告表示を表示したり、又は、画像に関連して光学ブレ補正が行われていないことを示す警告マークを付すなど、使用者に対して警告を行うようにしてもよい。
【0099】
【発明の効果】
以上詳しく説明したように、本発明によれば、以下の効果を奏することができる。
(1)ブレ補正モード選択部は、画像回復モードを選択するときには、光学式ブレ補正モードも併せて選択するので、画像回復を行う像のブレを光学式ブレ補正により低減することができ、画像回復を行う場合に確実に高画質な画像を得ることができる。
【0100】
(2)ブレ補正モード選択部は、光学式ブレ補正モードを選択しない状態では、画像回復モードを選択することができないので、誤って光学式ブレ補正を行わない状態で撮影した画像を画像回復することを防止できる。したがって、画像回復を行う場合には常に高画質な画像を得ることができる。
【0101】
(3)ブレ補正モード選択部は、光学式ブレ補正モードを選択しない状態で、画像回復モードを選択すると、警告を行うので、誤って光学式ブレ補正を行わない状態で撮影した画像を画像回復することを防止できる。したがって、画像回復を行う場合には常に高画質な画像を得ることができる。
【0102】
(4)点像分布関数演算部による点像分布関数の演算は、光学式ブレ補正手段を動作させることにより実行可能となるので、画像回復を行う像のブレを光学式ブレ補正により低減することができ、演算される点像分布関数は、画像回復に必要な情報を十分に含むものとなることから、画像回復を行う場合には常に高画質な画像を得ることができる。
【図面の簡単な説明】
【図1】本発明によるブレ補正カメラの第1実施形態のシステム構成を示すブロック図である。
【図2】光学式補正系500の駆動制御部30及び追従制御部40の制御動作を説明する制御ブロック図である。
【図3】ブレ補正動作を行う場合のカメラの基本動作を示すフローチャートである。
【図4】光学式ブレ補正動作モード時のカメラの基本動作を示すフローチャートである。
【図5】画像回復動作モード時のカメラの基本動作を示すフローチャートである。
【図6】ブレ検出データに基づいて点像関数演算を行うか否かを判断する画像回復適否判断部の詳細な動作を示すフローチャートである。
【図7】点像関数演算用データ取得の動作を詳細に示したフローチャートである。
【図8】本実施形態における画像回復を説明する図である。
【図9】本実施形態における画像回復を説明する図である。
【図10】画像再生装置の基本動作を示すフローチャートである。
【図11】具体的な画像表示及び各種パラメータの操作例を示す図である。
【図12】具体的な画像表示及び各種パラメータの操作例を示す図である。
【図13】従来の画像回復を説明する図である。
【図14】従来の画像回復を説明する図である。
【図15】ドリフト成分を含む角速度センサ出力、基準値の出力、像面でのブレ量を示す図である。
【符号の説明】
1 ブレ補正カメラ
2 画像再生装置
10 角速度センサ
20 A/D変換部
30 駆動制御部
31 基準値演算部
32 積分部
33 目標駆動位置演算部
40 追従制御部
50 光学系駆動部
60 位置検出部
70 ブレ補正レンズ
80 制御部
90 電源供給部
100 点像関数演算部
110 撮像部
120 画像記録部
130 インターフェイス部
140 補正動作判断部
150 露出制御部
160 合焦レンズ位置検出部
170 焦点検出部
180 閃光制御部
190 操作部
191 半押しスイッチ
192 全押しスイッチ
193 ブレ補正モード選択スイッチ
210 画像回復演算部
220 画像表示部
300 接続ケーブル
500 光学式補正系[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a shake correction camera that detects vibrations due to camera shake and corrects image shake, and more particularly to a shake correction camera that supports image recovery in addition to optical shake correction.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a camera provided with a shake correction function has been known in order to prevent a captured image from deteriorating due to camera shake occurring during shooting. There are roughly the following two methods for correcting blur.
The first shake correction method detects vibration of a camera using a vibration detection sensor such as an angular velocity sensor or an acceleration sensor, and drives an optical system such as a taking lens or a variable apex angle prism in accordance with the detected amount. This is an optical blur correction method for performing correction (for example, see Patent Documents 1 and 2).
The second blur correction method is an electronic correction method in which a blur amount is obtained from a difference between a captured image and a previous image temporarily stored in a memory, and blur correction is performed when reading an image (for example, Patent Document 3). reference). These two methods are both methods for performing blur correction in real time during shooting.
[0003]
On the other hand, as a blur correction method different from the above-described method and a conventionally known technology, a technology of restoring a deteriorated image to an image free from camera shake and blurring is known. For example, Patent Literature 4 discloses a method in which image degradation due to blur during shooting is represented by a point spread function, and an image without blur is restored based on the point spread function. Further, there is known a technique in which camera shake information is recorded by providing only a camera shake detecting means in a camera, and an image restoration process is performed using the information at the time of reproduction to correct shake (for example, Patent Documents 5 to 7). reference).
[0004]
Here, a specific method of the image restoration processing will be described. Image recovery is processing of processing a blurred image using blurring information and recovering the image with less blurring. Now, let (x, y) be the position coordinates on the screen, o (x, y) the image without blur (hereinafter the original image), and z (x the blurred image) , Y), and p (x, y) denote information of a point image spread by blurring (hereinafter, a point image function), these three satisfy the following relationship.
[0005]
(Equation 1)
Figure 2004205810
[0006]
Here, * represents a convolution (convolution integral) operation, and is specifically expressed by the following equation.
[0007]
(Equation 2)
Figure 2004205810
[0008]
When this is Fourier-transformed into the spatial frequency (u, v) domain, Equations 1 and 2 are represented by the following equations.
[0009]
[Equation 3]
Figure 2004205810
[0010]
Here, Z (u, v), O (u, v), and P (u, v) are spectra of z (x, y), o (x, y), and p (x, y), respectively. . In Equation 3, P (u, v) is particularly called a spatial frequency transfer function.
Here, if the point spread function p (x, y) can be known by some method in addition to the blurred image z (x, y), each spectrum is calculated, and the following equation 4 obtained by transforming equation 3 is calculated. By using the spectrum, the spectrum O (u, v) of the original image can be calculated.
[0011]
(Equation 4)
Figure 2004205810
[0012]
In Equation 4, 1 / P (u, v) is particularly called an inverse filter. The original image o (x, y) can be obtained by performing an inverse Fourier transform on the spectrum calculated by Expression 4.
[0013]
FIG. 13 and FIG. 14 are diagrams for explaining conventional image restoration.
Here, for the sake of simplicity, it is assumed that the blur occurs uniformly in one axis (X-axis) direction as shown in FIG.
FIG. 14A shows a cross section of the point spread function. FIG. 14B shows the result of Fourier transform of this, which is the spatial frequency transfer function of the blur shown in FIG. 13A. What should be noted in this transfer function is that there are several places where the value is zero. When this is converted into an inverse filter, there is a point where the filter becomes infinite as shown in FIG. When this is applied to Equation 4, for a specific spatial frequency, Equation 5 shown below is obtained, and the spectrum value of the original image is undefined.
[0014]
(Equation 5)
Figure 2004205810
[0015]
The fact that the transfer function is 0 means that there is a frequency component that is not transmitted (= information is lost) due to blurring, and this equation indicates that the lost frequency component cannot be recovered. This means that the original image cannot be completely recovered.
In practice, a Wiener filter represented by the following equation is used for image restoration so that the inverse filter does not become infinite.
[0016]
(Equation 6)
Figure 2004205810
[0017]
FIG. 14D is a graph of the Wiener filter.
By using the Wiener filter, there is no place where O (u, v) becomes indefinite as in Expression 5.
[0018]
[Patent Document 1]
JP-A-61-240780 [Patent Document 2]
JP-A-61-223819 [Patent Document 3]
JP-A-63-187883 [Patent Document 4]
Japanese Patent Application Laid-Open No. 62-127076 [Patent Document 5]
JP-A-6-276512 [Patent Document 6]
JP-A-6-343159 [Patent Document 7]
JP-A-7-226905
[Problems to be solved by the invention]
However, the above-described conventional optical blur correction and image recovery have the following problems.
(Problem of optical image stabilization)
In optical blur correction, an angular velocity sensor is generally used as a sensor for detecting vibration. In order to convert the angular velocity detected by the angular velocity sensor into an angle, an output value (reference value) when the sensor is stationary during operation is required, and this reference value is known to be easily affected by drift due to temperature. ing. This problem will be described in detail with reference to FIGS.
[0020]
FIG. 15 is a diagram illustrating the output of the angular velocity sensor including the drift component, the output of the reference value, and the amount of blur on the image plane.
FIG. 15A shows a change in the output value of the angular velocity sensor with respect to time. In order to simplify the description, it is assumed that a sine wave causes camera shake. In FIG. 15A, a waveform e0 represents an output of the shake sensor when camera shake occurs due to a sine wave. Each of the waveforms e1 and e2 is a reference value calculated by a low-pass filter, and the cutoff frequency of the waveform e1 is set lower than that of the waveform e2. In FIG. 15A, the output value shifts with the passage of time due to the influence of environmental conditions, and drifts.
[0021]
FIG. 15B shows the image plane blur amount when blur correction is performed using the output of the angular velocity sensor and the reference value in FIG. 15A. The waveforms f0, f1, and f2 in FIG. 15B correspond to the waveforms e0, e1, and e2 in FIG. 15A, respectively, and the waveform f0 is the image plane blur when no blur correction is performed. Represents quantity. Compared with the waveform f2, the waveform f1 uses the reference value e1 of a lower cutoff frequency, so that although the high frequency component is cut, the blur amount increases with the passage of time. Conversely, the waveform f2 has a lower cut-off frequency of the reference value than the waveform f1, and thus has a smaller drift than f1, but cannot remove high-frequency components due to camera shake. Thus, removing image blur due to camera shake and reducing the effect of drift are contradictory problems.The image blur is sufficiently corrected, and the cutoff frequency of the low-pass filter is reduced so that the effect of drift is reduced. Difficult to set. For this reason, there is a problem that a detection error always occurs in the detected blur amount, and blur remains in an obtained image even when optical blur correction is performed.
[0022]
(Image recovery problem)
Next, the problem of image recovery will be described.
It has been known that an image obtained by performing a restoration process on a blurred image using a Wiener filter has improved resolution compared to the original image. However, at the spatial frequency (u ′, v ′) where P (u ′, v ′) ≒ 0, the value of the filter becomes large. Therefore, when the noise included in the image includes the spatial frequency component, the noise component is Amplify. As a result, there is a problem that an unnecessary stripe pattern is generated in an image and the image quality is deteriorated. This stripe pattern does not cause a serious problem if the original blur is small, but it often appears as a problem when the blur is large, so that it often becomes a problem.
[0023]
Further, a conventional camera supporting image recovery simply records output data from a blur sensor such as an angular velocity sensor and performs a recovery process based on the blur information during reproduction. Therefore, if the blurring of the image becomes too large, there is a problem that not only the image quality is not improved even if the image is restored, but also a stripe pattern is generated as described above, and the image quality is rather deteriorated.
[0024]
SUMMARY OF THE INVENTION An object of the present invention is to provide a blur correction camera that has a high blur correction effect and can reliably obtain a high-quality image when performing image restoration.
[0025]
[Means for Solving the Problems]
The present invention solves the above problem by the following means. In addition, in order to facilitate understanding, the description will be given with reference numerals corresponding to the embodiment of the present invention, but the present invention is not limited to this. That is, according to the first aspect of the present invention, a vibration detecting unit (10) for detecting a vibration and outputting a vibration detection signal, and driving a blur correction optical system (70) based on the vibration detection signal to correct an image blur. Optical blur correction means (500) for performing a point spread function required for image recovery for recovering, by image processing, blur that cannot be completely corrected by the optical blur correction means (100) An optical blur correction mode for performing blur correction using the optical blur correction means, and an image recovery mode for performing blur correction by the image recovery or preparing for performing the blur correction by the image recovery. A shake correction mode selection unit (193) for performing the image shake mode, wherein the shake correction mode selection unit also selects the optical shake correction mode when selecting the image recovery mode. A blur correction camera according to claim.
[0026]
According to a second aspect of the present invention, there is provided a vibration detecting section (10) for detecting a vibration and outputting a vibration detection signal, and an optical element for driving a blur correction optical system (70) based on the vibration detection signal to correct an image blur. An image blur correction unit (500); a point spread function calculating unit (100) for calculating a point spread function required for image recovery for recovering, by image processing, blur that cannot be completely corrected by the optical blur correction unit; An optical blur correction mode for performing blur correction using the optical blur correction means and an image recovery mode for performing blur correction by the image recovery or preparing for performing the blur correction by the image recovery. A correction mode selection unit (193), wherein the image recovery mode cannot be selected when the optical blur correction mode is not selected. A blur correction camera according to claim.
[0027]
According to a third aspect of the present invention, there is provided a vibration detecting section (10) for detecting a vibration and outputting a vibration detection signal, and an optical apparatus for driving a blur correction optical system (70) based on the vibration detection signal to correct an image blur. An image blur correction unit (500); a point spread function calculating unit (100) for calculating a point spread function required for image recovery for recovering, by image processing, blur that cannot be completely corrected by the optical blur correction unit; An optical blur correction mode for performing blur correction using the optical blur correction means and an image recovery mode for performing blur correction by the image recovery or preparing for performing the blur correction by the image recovery. A correction mode selection unit (193), wherein the shake correction mode selection unit issues a warning when the image recovery mode is selected without selecting the optical shake correction mode. A blur correction camera characterized.
[0028]
According to a fourth aspect of the present invention, there is provided a vibration detecting section (10) for detecting a vibration and outputting a vibration detection signal, and an optical element for driving a blur correction optical system (70) based on the vibration detection signal to correct an image blur. An image blur correction unit (500); a point spread function calculating unit (100) for calculating a point spread function required for image recovery for recovering, by image processing, blur that cannot be completely corrected by the optical blur correction unit; Wherein the calculation of the point spread function by the point spread function calculation unit can be performed by operating the optical blur correction means.
[0029]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in more detail with reference to the drawings and the like.
(1st Embodiment)
FIG. 1 is a block diagram illustrating a system configuration of a first embodiment of a camera shake correction camera according to the present invention.
The shake correction camera 1 according to the present embodiment forms a camera system that can perform image recovery by using the image reproduction apparatus 2 in combination. The image reproducing apparatus 2 reproduces an image captured by the blur correcting camera 1 by connecting the image recording unit 120 or the blur correcting camera 1 to the reproducing apparatus by using a transfer cable or the like, and can perform image recovery. It is a recovery device.
The camera shake correction camera 1 is a so-called digital still camera that electronically captures an image, and includes an optical correction system 500.
The optical correction system 500 includes an optical shake sensor including an angular velocity sensor 10, an A / D conversion unit 20, a drive control unit 30, a tracking control unit 40, an optical system drive unit 50, a position detection unit 60, a shake correction lens 70, and the like. It is a correction means.
[0030]
The angular velocity sensor 10 is a vibration detection unit that detects the vibration applied to the camera 1 as an angular velocity value. The angular velocity sensor 10 detects an angular velocity using a Coriolis force, and outputs a detection result as a voltage signal.
Although FIG. 1 shows only one angular velocity sensor 10 for easy understanding, one angular velocity sensor 10 is provided corresponding to each of the X axis orthogonal to the optical axis of the photographing lens and the Y axis orthogonal to the X axis. And detects the vibration of the camera 1 in two dimensions. Note that the angular velocity sensor 10 can detect the angular velocity only while power is supplied from the power supply unit 90.
[0031]
The A / D converter 20 is a converter that converts an analog signal into a digital signal. The A / D converter 20 converts a vibration detection signal from the angular velocity sensor 10 from an analog signal to a digital signal, and transmits the signal to the drive control unit 30.
[0032]
The drive control unit 30 generates a drive signal for driving the shake correction lens 70 from the vibration detection signal detected by the angular velocity sensor 10 and the position information of the shake correction lens 70 detected by the position detection unit 60 described later. It is a part that performs a calculation and outputs a drive signal to the optical system drive unit 50. The drive control unit 30 includes a reference value calculation unit 31 (see FIG. 2). The reference value calculator 31 is a part that calculates a reference value of the vibration detection signal obtained from the angular velocity sensor 10. In the present embodiment, a digital low-pass filter (LPF) is used, and the output of the LPF is used as the reference value. .
The tracking control unit 40 transmits a drive signal obtained from the drive control unit 30 and a signal for driving and controlling the shake correction lens 70 based on the position information of the shake correction lens 70 obtained from the position detection unit 60 to the optical system drive unit 50. It is.
Details of the control operation by the drive control unit 30 and the follow-up control unit 40 will be described later.
[0033]
The optical system drive unit 50 is an actuator that drives the shake correction lens 70 based on the drive signal output from the drive control unit 30.
The position detection unit 60 is a position detection unit that detects the position of the shake correction lens 70 in the X-axis direction and the Y-axis direction in order to perform shake correction. An output of the position detection unit 60 is an A / D converter (not shown). ) Is transmitted to the follow-up control unit 40.
[0034]
The blur correction lens 70 is a part of the photographing optical system of the camera, and is a single lens that can move in a plane substantially orthogonal to the optical axis of the photographing optical system, or a lens group including a plurality of lenses. This is a blur correction optical system. The blur correction lens 70 is driven by the optical system driving unit 70 in a direction substantially orthogonal to the optical axis, and deflects the optical axis of the photographing optical system.
The blur of an image such as a photograph occurs when an image on an imaging surface moves during exposure due to vibration applied to a camera such as a hand shake. In the camera 1 according to the present embodiment, the angular velocity sensor 10 can detect the vibration applied to the camera 1. When the vibration applied to the camera 1 is detected, the movement of the image on the imaging plane due to the vibration can be known. To correct the movement of the image on the image plane, that is, the image blur.
[0035]
The camera 1 has a control unit 80, a power supply unit 90, a point spread function calculation unit 100, an imaging unit 110, an image recording unit 120, an interface unit 130, and a correction operation determination unit. 140, an exposure control unit 150, a focusing lens position detection unit 160, a focus detection unit 170, a flash control unit 180, an operation unit 190, and the like.
[0036]
The control unit 80 is a control unit that controls the entire operation of the shake correction camera 1, and includes a drive control unit 30, a follow-up control unit 40, a point image function calculation unit 100, an exposure control unit 150, a focusing lens position detection unit 160, It performs various control calculations for controlling the focus detection unit 170, the flash control unit 180, and the like.
[0037]
The power supply unit 90 is a unit that continues to supply power to places where power is required in the camera such as the angular velocity sensor 10 while the half-press timer (not shown) is ON. When the half-pressing timer is OFF, power supply is stopped. Therefore, the vibration of the camera can be detected by the angular velocity sensor 10 only while the half-press timer of the camera is ON.
[0038]
The point image function calculation unit 100 is configured to perform a point image exposure based on various information obtained from the drive control unit 30, the tracking control unit 40, the exposure control unit 150, the focusing lens position detection unit 160, the focal length detection unit 170, and the like. It is a point spread function calculation unit that calculates a function (point spread function).
If the optical blur correction by the blur correction lens 70 is perfect, the point spread function will be one point, but in practice, the optical blur correction is not perfect, so the point spread function will not be one point. That is, an image blur (a blur correction residual) that cannot be completely corrected by the blur correction lens 70 remains. The point spread function calculated here is used when the blur correction residual remaining on the image forming surface without being completely corrected by the blur correction lens 70 is further blur-corrected by image processing later.
[0039]
The imaging unit 110 includes an imaging element 111, an A / D conversion unit 112, a signal processing unit 113, and the like. The imaging unit 110 captures an image formed on an imaging surface by a photographing optical system, and outputs image data to the image recording unit 120. Part.
The image sensor 111 is a device that receives a subject image formed on an image forming surface by a photographing optical system and converts the image into analog signal image data.
The A / D converter 112 is a converter that converts an analog image into a digital image.
The signal processing unit 113 is a unit that processes the image data converted into a digital signal by the A / D conversion unit 112.
[0040]
The image recording unit 120 records and saves an image captured by the imaging unit 110, a point spread function calculated by the point spread function calculation unit 100, various information (parameters) necessary for various image restoration processes, and the like in association with the image. This is the part to do. These point image functions, various types of information, and the like may be embedded and recorded as a header in an image file, or may be directly embedded in an image, such as a digital watermarking technique. Alternatively, another file corresponding to the image file may be created, and information may be written therein.
[0041]
A specific form of the image recording unit 120 may be, for example, a movable recording medium such as a compact disk (trademark) or a smart media (trademark), or a buffer memory that transfers an image. In the embodiment, the interface unit 130 and the image reproducing device 2 are connected using the transfer cable 300, and the image stored in the image recording unit 120 and the information necessary for the image restoration processing are stored in the image reproducing device 2 as necessary. Transfer to 2.
[0042]
The interface unit 130 is a communication unit having a terminal for connecting the transfer cable 300 when connecting the image stabilizing camera 1 and the image reproducing device 2.
The connection cable 300 is a cable that connects a connection connector of the interface unit 130 and a communication port (for example, RS-232C, USB, parallel port, IEEE 1394, or the like) of the image reproduction device 2. Data is transmitted and received between the camera shake correction camera 1 and the image reproducing device 2 via the connection cable 300.
[0043]
The correction operation determining unit 140 is a part that determines whether or not to perform a point spread function operation. Since the necessity of the point spread function calculation is determined by the correction operation determination unit 140, the information to be stored in the image recording unit 120 can be limited to only necessary data as much as possible. Can be.
[0044]
The exposure control unit 150 is a part that controls the exposure time to the image sensor from the set value of the exposure time set by a command dial or the like (not shown). Exposure time information and exposure start / end timing information are transmitted to the point spread function calculation unit 100.
[0045]
The focusing lens position detector 160 is a part that detects the position of a focusing lens (not shown). By detecting the position of the focusing lens, it is possible to calculate the distance from the imaging plane to the subject, which is required for calculating the point spread function.
[0046]
The focus detection unit 170 is a part that detects the lens focal length f at the time of shooting with the shooting optical system. This lens focal length f is also information necessary for calculating the point spread function.
The flash control unit 180 is a part that controls light emission of the flash light emitting unit 181.
[0047]
The operation unit 190 includes a half-press switch (SW) 191, a full-press switch (SW) 192, a blur correction mode selection switch (SW) 193, and the like.
The half-press switch 191 is a switch that is turned on in conjunction with a half-press operation of a release button (not shown). When the half-press switch 191 is turned on, photometric calculation, autofocus driving, and the like by a photometric unit (not shown) are started. When the half-press timer is OFF, the half-press timer turns ON in synchronization with the ON of the half-press switch 191.
[0048]
The full-press switch 192 is a switch that is turned on in conjunction with a full-press operation of a release button (not shown). When the full-press switch 192 is turned on, a series of photographing operations such as opening and closing of a shutter by a shutter mechanism (not shown) and capturing of an image by an image sensor are performed.
[0049]
The blur correction mode selection switch 193 is a blur correction mode selection unit that selects a combination of an optical correction operation mode and an image recovery mode. In the present embodiment, the shake correction operation mode is a switch capable of selecting three modes, and the operation is as follows.
When the “blur correction OFF mode” is selected, neither optical correction nor image recovery is performed. In other words, the drive of the blur correction lens 70 is stopped, the blur correction operation is not performed at all, and the data for image recovery is not recorded and stored.
When the “optical correction operation mode” is selected, only the optical correction operation is performed, and the image blur correction operation is performed by driving the blur correction lens 70. However, calculation of a point spread function for image recovery processing, image recovery It does not record and save data for use.
When the “image recovery operation mode” is selected, an optical correction operation and an operation necessary for image recovery are performed. Image recovery data necessary for image recovery processing from the optical correction system 500 is sent from the optical correction system 500 to the point spread function calculation unit 100 via the correction operation determination unit 140.
[0050]
In the present embodiment, the shake correction mode selection switch 193 switches the three positions of the “shake correction OFF mode”, the “optical correction operation mode”, and the “image recovery operation mode” as described above. When the "operation mode" is selected, optical blur correction is always performed. In other words, when the “image recovery operation mode” is selected, the “optical correction operation mode” is also selected. That is, if the "optical correction operation mode" is not selected, the "image recovery operation mode" cannot be selected. Therefore, the calculation of the point spread function by the point spread function calculation unit 100 can be executed by operating the optical correction system 500.
[0051]
Next, the image reproducing device 2 will be described.
The image reproducing device 2 includes an image restoration operation unit 210 that executes an image restoration process and an image display unit 220 that displays an image.
The image reproducing apparatus 2 in the present embodiment uses a personal computer, and functions as an image reproducing apparatus by installing application software including a dedicated shake correction program required for image recovery on the personal computer.
Note that the image reproducing device 2 is not limited to the case of using a personal computer, and may be, for example, a dedicated reproducing device or may be incorporated in a camera.
[0052]
The image restoration calculation unit 210 includes the image data based on the image data sent from the image recording unit 120 of the camera 1, the point spread function information corresponding to the image data, and various parameters for the image restoration processing. This is a part for executing an image restoration process for correcting blurring.
The image restoration processing in the image restoration calculation unit 210 uses the Wiener filter described in Expression 6, but is not limited thereto, and another method may be used.
The image display section 220 is a section for displaying an image photographed by the photographer or an image after image recovery, and in the present embodiment, the monitor section of the personal computer corresponds to this section.
[0053]
Next, portions related to the drive control unit 30 and the follow-up control unit 40 will be described, including control of the optical blur correction operation.
FIG. 2 is a control block diagram illustrating control operations of the drive control unit 30 and the follow-up control unit 40 of the optical correction system 500.
First, the vibration applied to the camera is detected by the angular velocity sensor 10. The angular velocity sensor 10 generally uses a piezoelectric vibration type angular velocity sensor that detects Coriolis force. The output of the angular velocity sensor 10 is input to a reference value calculation unit (low frequency component extraction) 31. The reference value calculation unit 31 is a unit that calculates a shake reference value from the output of the angular velocity sensor 10. The reference value of the normal camera shake may be an output value (hereinafter, zero output) in a state where the angular velocity sensor 10 is completely stationary. However, since this zero output value fluctuates due to environmental conditions such as drift and temperature, the reference value cannot be a fixed value. Therefore, it is necessary to calculate a reference value from a state of actual use, that is, a signal of camera shake of a photographer, and obtain a zero output. A digital low-pass filter (LPF) is used for the reference value calculation.
[0054]
It is desirable to set the cutoff frequency fc of the digital low-pass filter as low as possible. However, as described in the description of the related art, if the cutoff frequency fc is set too low, the cutoff frequency fc is easily affected by sensor drift. Conversely, if the frequency component is set higher, the frequency components below fc remain as image blurring because they are not optically corrected. As will be described in detail later, by obtaining a point spread function based on the reference value output that is not optically corrected and performing image recovery processing, it is possible to recover image blur that could not be removed by optical correction by post-processing.
[0055]
In the present embodiment, the cutoff frequency fc of the LPF is changed depending on whether image restoration is not performed (optical correction operation mode) or when image restoration is performed (image restoration operation mode). Specifically, in the “optical correction operation mode” in which image recovery is not performed, fc = 0.1 Hz, and in the “image recovery operation mode” in which image recovery is performed, fc = 1 Hz. The cut-off frequency fc will be described in detail in S400 and S600 in FIGS.
[0056]
Next, after calculating the reference value, a blur detection signal obtained by subtracting the reference value from the blur detection signal from the angular velocity sensor 10 is transmitted to the integration unit 32.
The integrator 32 integrates the shake detection signal expressed in units of angular velocity with respect to time and converts it into a camera shake angle. For example, the calculation is performed by the following Expression 7.
[0057]
(Equation 7)
Figure 2004205810
[0058]
Each symbol in Equation 7 is θ (t): target drive position, ω (t): shake detection signal, ω 0 (t): reference value, t: time (integer value), and C is the lens This is a constant determined by conditions such as the focal length.
The target drive position signal calculated by the integration unit 32 is transmitted to the following control unit 40.
[0059]
The target drive position calculation unit 33 adds information such as the lens focal length f from the focus detection unit 170 and the subject distance D from the focusing lens position detection unit 160 to the shake angle information sent from the integration unit 32. , And calculates target drive position information for driving the blur correction lens 70.
The tracking control unit 40 uses known PID control or the like to move the blur correction lens 70 in accordance with the target drive position information, so that the difference between the target drive position information and the position information from the position detection 60 of the blur correction lens 70 is obtained. And sends out a drive signal for driving the optical system drive unit 50. By applying a current to the coil of the optical system drive unit 50 based on the transmitted drive signal, the blur correction lens 70 can be driven in a direction perpendicular to the optical axis.
[0060]
The position detection unit 60 monitors the position of the shake correction lens 70, and the drive control unit 30 performs feedback control of the shake correction lens 70 using the detected lens position signal.
The target drive position information output from the target drive position calculation unit 33 is sent to the point image function calculation unit 100 via the follow-up control unit 40 that controls the shake correction lens 70 and the correction operation determination unit 140. .
[0061]
Next, the basic operation of the camera 1 in this embodiment will be described.
FIG. 3 is a flowchart showing a basic operation of the camera when performing a blur correction operation.
In step (hereinafter, referred to as S) 210, when half-press switch 191 is turned on, the process proceeds to S220.
In S220, the state of the shake correction mode selection switch 193 is determined. In the case of the “optical correction operation mode”, the flow proceeds to the optical correction operation flow of S230, and in the case of the “image recovery operation mode”, the flow proceeds to the image recovery processing flow of performing the optical blur correction operation and the image recovery processing operation of S240.
Hereinafter, the operation of the camera shake correction camera 1 in each of the "optical correction operation mode" and the "image recovery operation mode" will be described separately.
[0062]
First, the operation of the shake correction camera in the “optical correction operation mode” will be described.
FIG. 4 is a flowchart showing the basic operation of the camera in the optical blur correction operation mode.
In S400, the cut-off frequency fc of the LPF used in the reference value calculator 31 is set to fc = 0.1 Hz.
In S410, the angular velocity sensor 10, which is a vibration detection unit, is turned on.
In S420, the locked blur correction lens 70 is unlocked.
In S430, the blur correction operation is started. The blur correction started here is based on the output of the angular velocity sensor 10 and moves the blur correction lens 70 in a direction substantially perpendicular to the optical axis direction so as to cancel the image blur, thereby correcting the blur. This is a correction operation.
In S440, the state of the half-press timer is detected. If the half-press timer is OFF, the process proceeds to S450, and if the half-press timer is ON, the process proceeds to S470.
In step S450, the blur correction operation is stopped. In step S460, the correction lens is locked, and the optical correction mode ends.
[0063]
In S470, the state of the full-press switch 192 is detected. If the full-press switch 192 is ON, the process proceeds to S480, and if the full-press switch 192 is OFF, the process returns to S440.
In S480, the centering operation of the blur correction lens 70 is performed. When the optical axis driving unit 50 is not driven by the optical system driving unit 50, the optical axis of the photographing optical system does not always coincide with the optical axis of the blur correction lens 70. Normally, the blur correction lens 70 is often moved to the end of its movable range, and if the blur correction operation is performed as it is, a direction in which driving cannot be performed occurs. The blur correction lens 70 is driven so that the optical axis of the optical system and the optical axis of the photographing optical system substantially coincide with each other.
[0064]
In S490, a shutter opening operation is performed, and exposure to the imaging unit 110 is started.
In S500, it is determined whether or not to emit a flash (SB). If the flash is to be emitted, the process proceeds to S510, and if not, the process proceeds to S520.
In S510, flash light emission is performed.
In S520, the shutter is closed, and the exposure ends. Thereafter, the process returns to the half-pressing timer determination routine of S440.
[0065]
Next, the operation of the shake correction camera in the “image recovery operation mode” will be described. FIG. 5 is a flowchart showing the basic operation of the camera in the image recovery operation mode.
In S600, the cutoff frequency fc of the LPF used in the reference value calculator 31 is set to fc = 1 Hz.
In the “optical correction operation mode” described above, fc = 0.1 Hz, whereas in the “image recovery operation mode”, the cutoff frequency fc is increased. In this way, in the “image recovery operation mode”, the vibration of the camera shake correction camera 1 appears in the point image function calculated by the point image function calculation unit 100 as compared with the “optical correction operation mode”. It is possible to increase the number of components and reduce the number of components to be corrected by driving the blur correction lens 70. By doing so, the drive amount for driving the blur correction lens 70 can be reduced, and the blur correction lens 70 can be driven with a margin within a drivable range. In this case, the amount of blur corrected by the optical blur correction operation decreases, and the amount of blur of the captured image increases. However, since the increased blur is corrected by image restoration later, eventually Therefore, it is possible to obtain an image which has a high blur correction effect and has no image blur or very little image blur.
In this way, in the “image recovery operation mode”, the cutoff frequency used for the reference value calculation is set higher than in the “optical correction operation mode”, and the components to be blur-corrected are distributed to the optical blur correction and the image recovery. By doing so, it is possible to perform appropriate blur correction even when the camera shake is larger than in the “optical correction operation mode”.
[0066]
Since the flow from S610 to S670 in FIG. 5 is the same as the operation in the flow from S410 to S470 in FIG. 4, detailed description is omitted here.
In S680, a recovery process determination is made. The detailed description of the recovery processing determination in S680 will be made later with reference to FIG. If it is determined in this step that the image restoration process is not necessary, the process proceeds to S690. If it is determined that the image restoration process is necessary, the process proceeds to S720.
[0067]
In S690, the centering operation of the blur correction lens 70 is performed as in S480 in FIG.
In S700, a shutter opening operation is performed, and exposure to the imaging unit 110 is started.
In S710, the shutter is closed, and the exposure ends. Thereafter, the flow returns to the half-pressing timer determination routine of S640.
In S720, the centering operation of the blur correction lens 70 is performed as in S480 in FIG.
In S730, a shutter opening operation is performed, and exposure to the imaging unit 110 is started.
In S740, data for the point spread function calculation is obtained during the exposure period. Details of the acquisition of the point spread function calculation data in S740 will be described later with reference to FIG.
[0068]
In step S750, after obtaining the data for calculating the point spread function, the calculation of the point spread function is performed using the obtained data. In the calculation of the point spread function, the reference value calculation average value is subtracted from the obtained reference value, the result is integrated, an error angle θ (t) is obtained, and the point spread function X ( t) is obtained by the following equation (8).
[0069]
(Equation 8)
Figure 2004205810
[0070]
When a teleconverter is installed, it is necessary to change the focal length according to the magnification of the teleconverter. Further, when the correction is performed using the subject distance information, the accuracy of the point spread function is further improved. In this case, the following equation 9 may be used.
[0071]
(Equation 9)
Figure 2004205810
[0072]
These operations are performed in the X direction and the Y direction, respectively, and when these are developed on the XY plane, a point spread function is obtained.
The above example is an example of a point spread function calculation, and another method may be used for the calculation of the point spread function.
After the point spread function calculation, in S760, a blur mark is added to the image targeted for image restoration processing.
In S770, the calculated point spread function is recorded as blur information, and the process returns to S640.
[0073]
Next, processing of the shake information output from the shake optical correction system and acquisition of data for calculating the point spread function will be described.
FIG. 6 shows a detailed operation of the image recovery suitability determining unit (S680 in FIG. 5) for determining whether to perform the point spread function operation (appropriateness of performing the image recovery operation mode) based on the blur detection data. It is a flowchart.
It is determined whether or not to record blur detection data necessary for image recovery based on the determination of the image recovery suitability determination unit.
[0074]
In S310, the effectiveness of the image restoration processing is determined based on the magnitude of the blur detection amount. In this step, it is determined in advance whether or not blur can be effectively corrected by performing image recovery processing from the target drive position calculation result, based on the blur information and camera photographing information. , Based on the conditions. For example, if the blur amount is too large (maximum limit blur amount), a stripe pattern is conspicuous even in image restoration processing, and it is inevitable that the image quality deteriorates due to the stripe pattern. Further, if the blur amount is too small (minimum limit blur amount), even if the image is restored, the improvement effect does not appear. Therefore, these limit blur amounts are set in advance by obtaining them through experiments and experiences.
[0075]
In S320, the necessity of the image restoration processing is determined based on the shutter speed (exposure time). In this step, the magnitude of the blur amount is predicted to some extent based on the shutter speed, and it is determined whether the image restoration process is necessary based on the predicted blur amount. When the shutter speed is fast, even if blurring occurs, the blur amount is very small, and it is determined that the image can be appreciated. The blur amount in this case is obtained from both the focal length and the shutter speed. When optical blur correction is not performed, it is generally said that camera shake occurs when the shutter speed is slower than (1 / focal length). However, in the present embodiment, since the optical blur correction is also performed, the image restoration process is performed only when the following equation is satisfied, for example.
[0076]
(A / focal length) <shutter time (exposure time)
Here, A may be a predetermined value or a variable that changes depending on other conditions.
[0077]
If it is determined that the recovery processing is necessary in both the shutter speed determination and the blur detection amount determination in S310 and S320, the exposure sequence of S330 with the recovery processing is performed, and the process proceeds to S720 in FIG.
On the other hand, if it is determined that the recovery process is unnecessary in either the shutter speed determination or the blur detection amount determination in S310, S320, the process proceeds to S340, and a warning / display (notification) not to perform the image recovery operation is performed. The notification may be, for example, a warning sound or a predetermined display.
After executing S340, the exposure sequence without the recovery process of S350 is performed, and the process proceeds to S690 in FIG.
As shown in FIG. 6, by judging the suitability of image recovery, the amount of blur information for image recovery processing can be reduced, and the memory capacity can be reduced.
[0078]
FIG. 7 is a flowchart showing in detail the operation of acquiring the point spread function calculation data (S740 in FIG. 5).
In the present embodiment, the thinning process (the process as the information amount reducing unit) shown in FIG. 7 is performed for the main purpose of saving the memory capacity and the like.
After the start of the exposure, the counter is reset in S910. Specifically, N = 1 and K = 0. Here, N is a counter serving as a number assigned to distinguish a plurality of reference values, and K is a counter serving as a timer for measuring time.
In S920, ω 0 (1), which is the first reference value output, is stored.
In S930, the average value ω 0 ave of the reference value output is calculated by the following equation.
[0079]
(Equation 10)
Figure 2004205810
[0080]
In S940, the counter is checked. If K = 100, the process proceeds to S950; otherwise, the process proceeds to S970.
In S950, the reference value output ω 0 (N) is stored.
In S960, the timer counter is reset with K = 0. In the present embodiment, since the sampling frequency of the angular velocity sensor 10 is 1 KHz and the reference value output is stored every 0.1 sec, the reference value output is thinned out.
[0081]
In S970, it is confirmed whether or not the exposure is completed. If the exposure is not completed, the process proceeds to S990, and if the exposure is completed, the process proceeds to S980.
In S980, the last reference value output ω 0 (N) is stored. This is to avoid storing only the first point of the reference value output when the shutter time is fast due to the thinning-out storage of the reference value output. For example, in the present embodiment, the reference value output is stored every 0.1 sec when the sampling frequency is 1 KHz. Therefore, at a shutter speed faster than 1/10 sec, only the first reference value output is stored. This is because the function cannot be configured.
In S990 and S1000, the counter is advanced, and the process returns to S930 to calculate the average value of the reference value output.
[0082]
Here, the above-described thinning processing will be described.
The point spread function used in the image restoration processing is calculated based on the reference value output. Since the reference value output is an LPF output having a cutoff frequency of 1 Hz (in the case of the flow of FIG. 5 for performing image restoration) as described above, it is lower than the frequency component of camera shake. Therefore, it is possible to reduce the number of data used for the point spread function calculation. When performing a point spread function operation, if a point spread function is to be calculated for all of the blur detection data sent from the optical correction system 500, a large amount of calculation and a large memory capacity will be required.
[0083]
The number of shake detection data obtained from the target position calculation result is, for example, when the sampling frequency of the reference value calculation is 1 kHz, the number of data of the reference value for one second is N = 1000, and a very large number of data Quantity. The frequency of the camera shake is about 0.1 to 10 Hz, and the cutoff frequency of the low-pass filter provided in the reference value calculation unit 31 for calculating the reference value of the camera shake is about 1 Hz. That is, the frequency of 1 Hz or less is the main component in the point spread function calculation unit. About ten times the frequency of 1 Hz, that is, data with a period of 0.1 sec is sufficient. Therefore, it is possible to thin out data of 1 kHz sampling data to 1/100.
When the cutoff frequency of the LPF for the reference value output calculation is changed, it is necessary to change the thinning amount from the cutoff frequency.
Through such processing, it is possible to shorten the calculation processing time and save the memory capacity and the like.
[0084]
After the decimation process, blurring information is recorded on a recording medium or data is transferred to the image reproducing device in order to perform an image restoration process by the image reproducing device. In the present embodiment, by recording or transferring the minimum number of data required for the image restoration processing by the thinning processing, it is possible to greatly reduce the transfer time and the arithmetic processing time, and particularly to greatly reduce the memory capacity.
[0085]
Here, the operation of the point spread function calculation unit 100 performed in S750 of FIG. 5 will be described.
The problem that the blur cannot be completely corrected even when the blur correction is performed by the optical correction system 500 and a slight blur remains in the image (a blur correction residual) has been described in the description of the related art (FIG. 15). . The cause of the occurrence of such a blur correction residual mainly depends on the reference value. Therefore, the point spread function calculation unit 100 in the present embodiment calculates the point spread function of the blur correction residual based on the reference value. The calculated point spread function is transmitted to the image restoration calculation unit 210. The image restoration calculation unit 210 performs an image restoration calculation based on the transmitted point spread function, and compensates for image blur that could not be completely corrected by the blur correction operation of the blur correction lens 70, thereby providing a high blur correction effect. High quality images can be obtained.
[0086]
In most cases, data used in the conventional image restoration processing is obtained by directly obtaining a point spread function from blur detection data detected by an angular velocity sensor or the like and performing image restoration. However, as described above, in such a method, there is a problem that the image quality is not improved even if the image is restored when the image blurring becomes large. However, according to the present embodiment, it is possible to significantly improve image quality by correcting blurring to some extent by the optical blur correction mechanism and performing image restoration processing using the blurring information at that time.
[0087]
FIGS. 8 and 9 are diagrams for explaining image restoration in the present embodiment.
In the present embodiment, since the image data and the shake information after the shake correction by the optical shake correction mechanism are used, the shake amount is not too large. The effect of this point is clear from comparison with FIG. As the blur increases, the frequency components that are not transmitted increase, making it difficult to recover the image. It can be seen that the point at which the spatial frequency transfer function shown in FIG. 9B is 0 is smaller than that of FIG. 14B. This means that frequency components that are not transmitted are reduced, so that image restoration can be performed effectively.
[0088]
Next, the operation of the image reproducing device 2 will be described.
FIG. 10 is a flowchart showing the basic operation of the image reproducing device 2.
It is assumed that a blur correction program for performing image restoration has already been installed in the image reproducing device 2.
As described above, in the present embodiment, the image data on the camera side is transferred to the image reproducing device 2 via the transfer cable 300.
In FIG. 10, it is assumed that the image has already been transferred, the shake correction (image recovery processing) program has been started, and the menu screen has been displayed.
[0089]
In step S2010, an image restoration operation is started by, for example, clicking the restoration processing button with a mouse.
In step S2020, a blur mark is added to an image that has been determined to be an image to be subjected to recovery processing by the camera in advance, so that only the image to which the blur mark has been added at the time of reproduction when the image reading operation is started. Is read and displayed.
[0090]
In step S2030, the user selects and displays an image on which the image restoration process is to be performed while viewing various parameters related to the image or the image blur.
In step S2040, blur locus data and point image blur, which are parameters necessary for image recovery, are displayed in more detail for the selected image. Specifically, the correction information recorded by the camera 1 such as the blur locus data and the point blurring and the shooting information are displayed on the image display unit (display) 220, and the blur locus data is appropriately displayed by the operator. It can be operated directly on the display unit 220.
FIG. 11 and FIG. 12 are diagrams showing specific image display and operation examples of various parameters.
[0091]
In S2050, the above-mentioned parameters for performing the image restoration are arbitrarily changed and set.
In S2060, a recovery process is performed according to the parameters set in S2050.
In S2070, the blurred image before the restoration processing and the restored image after the restoration processing are compared and displayed on the image display unit 220 of the image reproducing apparatus 2.
In step S2080, the blurred image before the image restoration and the restored image after the restoration image are visually compared to determine whether the restoration image is sufficient (whether to perform the image restoration again). If the restored image is sufficient, the process proceeds to S2090, and if the image is restored again, the process returns to S2040.
[0092]
In S2085, the user determines whether or not to save the restored image and the parameter. If the restored image and the parameters are to be saved, the process advances to step S2090; otherwise, the process ends.
In S2090, the user determines whether or not to overwrite and save the restored image and the parameter, and instructs selection. If it is not overwritten and saved, the process proceeds to S2110. If it is overwritten and saved, the process proceeds to S2100. In the case of overwriting and saving, data to be overwritten and erased (data already saved) is also selected.
In S2100, the past restored image and the parameter (the data selected to be overwritten in S2090) stored corresponding to the original image are deleted.
In step S2110, the restored image and the new parameters used in the current image restoration process are stored in association with the original image.
[0093]
In the example illustrated in FIG. 11, a blur image before the recovery processing, a recovered image subjected to the recovery processing, information on a point spread function, and blur locus data are displayed in a window on the image display unit 220 in association with each other. Thus, by comparing and displaying on the same screen, the operator can intuitively determine at a glance which part to correct.
In addition, in a portion displayed at the lower right of FIG. 11, a display that allows the user to operate the blur locus data is provided. In this embodiment, in this manner, the blur locus data displayed on the image display unit 220 can be locally operated using a mouse or the like. The recovery process can be performed again based on the blur locus data operated in this manner, and a more detailed comparison can be made.
[0094]
In the present embodiment, the obtained blur locus data [FIG. 12 (a)] is reduced or enlarged with reference to the mouse designated point P, so that the coarse adjustment of the image data operation shown in FIG. Fine adjustment shown in (c) can be performed. FIG. 12C shows an example in which the mode is set to the fine adjustment mode. Since the number of data can be finely manipulated, the parameters of the obtained restored image can be easily evaluated, and the degree of freedom in image operation can be increased and the efficiency can be improved. Processing can be performed.
[0095]
Conventionally, in point spread function calculations, the output obtained from the sensor output of an angular velocity sensor or the like has been directly used in the calculation, so that a large number of error factors are included in the point spread function, and high image quality is obtained even when the image display operation is performed. It was difficult to obtain a perfect image. On the other hand, in the present embodiment, the point spread function operation performs the image restoration process using the output data with a small noise error, which has been subjected to the blur correction by the optical blur correction operation, so that a very high-quality restored image is obtained. Can be In addition, blur locus data, point image data, and the like can be directly manipulated using, for example, a mouse, and the degree of effect of the parameters used in the image restoration processing on the image restoration can be easily evaluated. Processing work can be done.
[0096]
As described above, in the present embodiment, since the blur information is recorded in association with the image, the blur information can be understood by the user only by browsing the image with the image reproducing device 2 (image browsing software). . Therefore, there is no need for the user to associate the image and the blur information before the image is restored, and the work efficiency is improved. In addition, information indicating whether image recovery is necessary is also displayed as a blur mark, thereby further improving work efficiency.
[0097]
According to the present embodiment, when the “image recovery operation mode” is selected, the optical blur correction is always performed. Therefore, even when the blur amount is large, the image in which the blur amount is reduced by the optical correction operation is displayed as an image. The image can be recovered, and a high-quality image can be reliably obtained when performing image recovery. Further, since the image whose blur amount has been reduced by the optical correction operation is recovered in advance, the blur correction effect of the image recovery is high, and it is possible to obtain an image in which no image blur can be confirmed or an image blur is very small. The image quality can be prevented from deteriorating due to image restoration.
[0098]
(Modified form)
Various modifications and changes are possible without being limited to the embodiments described above, and these are also within the equivalent scope of the present invention.
In the present embodiment, the example in which the blur correction mode selection switch 193 is a three-position switch has been described. However, the present invention is not limited to this. For example, the “optical correction operation mode” and the “image recovery operation mode” are each turned on. / OFF switch or software switch. In such a case, if the "image recovery operation mode" is selected without selecting the "optical correction operation mode", a warning sound is generated, a warning display is displayed, or an optical A warning may be given to the user, for example, by attaching a warning mark indicating that blur correction has not been performed.
[0099]
【The invention's effect】
As described above in detail, according to the present invention, the following effects can be obtained.
(1) When selecting the image recovery mode, the blur correction mode selection unit also selects the optical blur correction mode, so that the blur of the image to be restored can be reduced by the optical blur correction. When performing recovery, a high-quality image can be reliably obtained.
[0100]
(2) The image stabilization mode selection unit cannot select the image recovery mode in a state where the optical image stabilization mode is not selected. Therefore, the image stabilization mode selection unit erroneously performs image recovery of an image shot in a state where the optical image stabilization is not performed. Can be prevented. Therefore, a high-quality image can always be obtained when performing image restoration.
[0101]
(3) When the image recovery mode is selected without selecting the optical blur correction mode, the blur correction mode selection unit issues a warning. Therefore, the image blur recovery unit erroneously performs image recovery without performing the optical blur correction. Can be prevented. Therefore, a high-quality image can always be obtained when performing image restoration.
[0102]
(4) Since the calculation of the point spread function by the point spread function calculation unit can be performed by operating the optical blur correction means, the blur of the image for which image recovery is to be performed is reduced by the optical blur correction. Since the calculated point spread function sufficiently includes information necessary for image restoration, a high-quality image can always be obtained when performing image restoration.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a system configuration of a first embodiment of a shake correction camera according to the present invention.
FIG. 2 is a control block diagram illustrating control operations of a drive control unit 30 and a follow-up control unit 40 of the optical correction system 500.
FIG. 3 is a flowchart illustrating a basic operation of the camera when performing a shake correction operation.
FIG. 4 is a flowchart illustrating a basic operation of the camera in an optical blur correction operation mode.
FIG. 5 is a flowchart illustrating a basic operation of the camera in an image recovery operation mode.
FIG. 6 is a flowchart illustrating a detailed operation of an image recovery suitability determining unit that determines whether to perform a point spread function operation based on blur detection data.
FIG. 7 is a flowchart showing in detail an operation of obtaining data for calculating a point spread function.
FIG. 8 is a diagram illustrating image recovery according to the present embodiment.
FIG. 9 is a diagram illustrating image restoration according to the present embodiment.
FIG. 10 is a flowchart illustrating a basic operation of the image reproducing apparatus.
FIG. 11 is a diagram showing a specific image display and an operation example of various parameters.
FIG. 12 is a diagram showing a specific image display and an operation example of various parameters.
FIG. 13 is a diagram illustrating a conventional image restoration.
FIG. 14 is a diagram illustrating a conventional image restoration.
FIG. 15 is a diagram showing an output of an angular velocity sensor including a drift component, an output of a reference value, and a blur amount on an image plane.
[Explanation of symbols]
REFERENCE SIGNS LIST 1 camera shake correction camera 2 image reproduction device 10 angular velocity sensor 20 A / D conversion unit 30 drive control unit 31 reference value calculation unit 32 integration unit 33 target drive position calculation unit 40 follow-up control unit 50 optical system drive unit 60 position detection unit 70 shake Correction lens 80 Control unit 90 Power supply unit 100 Point image function calculation unit 110 Imaging unit 120 Image recording unit 130 Interface unit 140 Correction operation determination unit 150 Exposure control unit 160 Focusing lens position detection unit 170 Focus detection unit 180 Flash control unit 190 Operation unit 191 Half-press switch 192 Full-press switch 193 Shake correction mode selection switch 210 Image restoration calculation unit 220 Image display unit 300 Connection cable 500 Optical correction system

Claims (4)

振動を検出して振動検出信号を出力する振動検出部と、
前記振動検出信号に基づいてブレ補正光学系を駆動して像ブレを補正する光学式ブレ補正手段と、
前記光学式ブレ補正手段によって補正しきれないブレを画像処理により回復する画像回復に必要な点像分布関数を演算する点像分布関数演算部と、
前記光学式ブレ補正手段を用いたブレ補正を行う光学式ブレ補正モード、及び、前記画像回復によりブレ補正を行う又は前記画像回復によりブレ補正を行うための準備を行う画像回復モードを選択するブレ補正モード選択部と、
を備え、
前記ブレ補正モード選択部は、前記画像回復モードを選択するときには、前記光学式ブレ補正モードも併せて選択すること、
を特徴とするブレ補正カメラ。
A vibration detection unit that detects vibration and outputs a vibration detection signal,
Optical blur correction means for driving a blur correction optical system based on the vibration detection signal to correct image blur,
A point spread function calculating unit for calculating a point spread function required for image restoration for restoring blur that cannot be completely corrected by the optical shake correcting means by image processing;
An optical blur correction mode for performing blur correction using the optical blur correction means, and an image recovery mode for performing blur correction by the image recovery or preparing for performing the blur correction by the image recovery. A correction mode selector,
With
When selecting the image recovery mode, the blur correction mode selection unit also selects the optical blur correction mode,
An image stabilization camera characterized by the following.
振動を検出して振動検出信号を出力する振動検出部と、
前記振動検出信号に基づいてブレ補正光学系を駆動して像ブレを補正する光学式ブレ補正手段と、
前記光学式ブレ補正手段によって補正しきれないブレを画像処理により回復する画像回復に必要な点像分布関数を演算する点像分布関数演算部と、
前記光学式ブレ補正手段を用いたブレ補正を行う光学式ブレ補正モード、及び、前記画像回復によりブレ補正を行う又は前記画像回復によりブレ補正を行うための準備を行う画像回復モードを選択するブレ補正モード選択部と、
を備え、
前記ブレ補正モード選択部は、前記光学式ブレ補正モードを選択しない状態では、前記画像回復モードを選択することができないこと、
を特徴とするブレ補正カメラ。
A vibration detection unit that detects vibration and outputs a vibration detection signal,
Optical blur correction means for driving a blur correction optical system based on the vibration detection signal to correct image blur,
A point spread function calculating unit for calculating a point spread function required for image restoration for restoring blur that cannot be completely corrected by the optical shake correcting means by image processing;
An optical blur correction mode for performing blur correction using the optical blur correction means, and an image recovery mode for performing blur correction by the image recovery or preparing for performing the blur correction by the image recovery. A correction mode selector,
With
The blur correction mode selection unit, when the optical blur correction mode is not selected, the image recovery mode can not be selected,
An image stabilization camera characterized by the following.
振動を検出して振動検出信号を出力する振動検出部と、
前記振動検出信号に基づいてブレ補正光学系を駆動して像ブレを補正する光学式ブレ補正手段と、
前記光学式ブレ補正手段によって補正しきれないブレを画像処理により回復する画像回復に必要な点像分布関数を演算する点像分布関数演算部と、
前記光学式ブレ補正手段を用いたブレ補正を行う光学式ブレ補正モード、及び、前記画像回復によりブレ補正を行う又は前記画像回復によりブレ補正を行うための準備を行う画像回復モードを選択するブレ補正モード選択部と、
を備え、
前記ブレ補正モード選択部は、前記光学式ブレ補正モードを選択しない状態で、前記画像回復モードを選択すると、警告を行うこと、
を特徴とするブレ補正カメラ。
A vibration detection unit that detects vibration and outputs a vibration detection signal,
Optical blur correction means for driving a blur correction optical system based on the vibration detection signal to correct image blur,
A point spread function calculating unit for calculating a point spread function required for image restoration for restoring blur that cannot be completely corrected by the optical shake correcting means by image processing;
An optical blur correction mode for performing blur correction using the optical blur correction means, and an image recovery mode for performing blur correction by the image recovery or preparing for performing the blur correction by the image recovery. A correction mode selector,
With
The blur correction mode selecting unit, when the image recovery mode is selected in a state where the optical blur correction mode is not selected, performs a warning,
An image stabilization camera characterized by the following.
振動を検出して振動検出信号を出力する振動検出部と、
前記振動検出信号に基づいてブレ補正光学系を駆動して像ブレを補正する光学式ブレ補正手段と、
前記光学式ブレ補正手段によって補正しきれないブレを画像処理により回復する画像回復に必要な点像分布関数を演算する点像分布関数演算部と、
を備え、
前記点像分布関数演算部による前記点像分布関数の演算は、前記光学式ブレ補正手段を動作させることにより実行可能となること、
を特徴とするブレ補正カメラ。
A vibration detection unit that detects vibration and outputs a vibration detection signal,
Optical blur correction means for driving a blur correction optical system based on the vibration detection signal to correct image blur,
A point spread function calculating unit for calculating a point spread function required for image restoration for restoring blur that cannot be completely corrected by the optical shake correcting means by image processing;
With
The calculation of the point spread function by the point spread function calculation unit can be performed by operating the optical blur correction unit,
An image stabilization camera characterized by the following.
JP2002374748A 2002-12-25 2002-12-25 Correcting camera Pending JP2004205810A (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2002374748A JP2004205810A (en) 2002-12-25 2002-12-25 Correcting camera
EP18178218.6A EP3404479A1 (en) 2002-12-25 2003-12-25 Blur correction camera system
AU2003296127A AU2003296127A1 (en) 2002-12-25 2003-12-25 Blur correction camera system
US10/540,136 US7711253B2 (en) 2002-12-25 2003-12-25 Blur correction camera system
EP03786325.5A EP1577705B1 (en) 2002-12-25 2003-12-25 Blur correction camera system
PCT/JP2003/016809 WO2004059380A1 (en) 2002-12-25 2003-12-25 Blur correction camera system
CN200380107765.5A CN1732406B (en) 2002-12-25 2003-12-25 Blur correction camera system
US12/073,954 US7596307B2 (en) 2002-12-25 2008-03-12 Blur correction camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002374748A JP2004205810A (en) 2002-12-25 2002-12-25 Correcting camera

Publications (1)

Publication Number Publication Date
JP2004205810A true JP2004205810A (en) 2004-07-22

Family

ID=32812676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002374748A Pending JP2004205810A (en) 2002-12-25 2002-12-25 Correcting camera

Country Status (1)

Country Link
JP (1) JP2004205810A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006086978A (en) * 2004-09-17 2006-03-30 Canon Inc Camera system, camera body, and interchangeable lens
JP2008236289A (en) * 2007-03-20 2008-10-02 Sanyo Electric Co Ltd Image sensing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006086978A (en) * 2004-09-17 2006-03-30 Canon Inc Camera system, camera body, and interchangeable lens
JP4522207B2 (en) * 2004-09-17 2010-08-11 キヤノン株式会社 Camera system, camera body and interchangeable lens
JP2008236289A (en) * 2007-03-20 2008-10-02 Sanyo Electric Co Ltd Image sensing device

Similar Documents

Publication Publication Date Title
WO2004059380A1 (en) Blur correction camera system
JP4678860B2 (en) Imaging apparatus and control method and program thereof
JP5381486B2 (en) Imaging apparatus and method
JP4553994B2 (en) Electronic still camera
EP1845709B1 (en) Image capturing apparatus, control method therefor, image processing apparatus, image processing method, and program
JP4590355B2 (en) Image processing apparatus, image processing method, and program
JP2004239962A (en) Shake correction camera system, shake correction camera, image recovering device and shake correction program
JP2017046355A (en) Imaging apparatus
JP5046769B2 (en) Imaging apparatus, control method thereof, and program
JP4311013B2 (en) Blur correction camera system and camera
JP2015130612A (en) Imaging apparatus and control method of the same
JP4370780B2 (en) Blur correction camera system, blur correction camera, image restoration device, and blur correction program
JP2009017030A (en) Image imaging apparatus, and imaging control method
JP2008172507A (en) Imaging apparatus
JP4792929B2 (en) Digital camera
JP4244632B2 (en) Vibration reduction camera
JP4647183B2 (en) Blur correction camera system, image recovery device, and blur correction program
JP4244633B2 (en) Vibration reduction camera
JP4899954B2 (en) camera
JP2010028281A (en) Camera, noise elimination method and noise elimination program
JP4960852B2 (en) Image processing apparatus, control method thereof, interchangeable lens single-lens reflex digital camera, and program
JP2004205810A (en) Correcting camera
JP2004205803A (en) Image blur correcting camera
JP4356316B2 (en) Blur correction camera system, blur correction camera, image restoration device, and blur correction program
JP4948011B2 (en) Imaging apparatus, control method therefor, computer program, and storage medium